搜索
高级检索
高级搜索
书       名 :
著       者 :
出  版  社 :
I  S  B  N:
出版时间 :
Python机器学习及实践:从零开始通往Kaggle竞赛之路
  • ISBN:
    9787302442875
  • 作      者:
    范淼 李超
  • 出 版 社 :
    清华大学出版社
  • 出版日期:
    2016-10-01
收藏
图书特色

     《Python机器学习及实践:从零开始通往Kaggle竞赛之路》帮助对机器学习、数据挖掘感兴趣的读者整合时下流行的基于Python语言的程序库。如Scikit-learn,Pandas, NLTK,Gensim, XGBoost,TensorFlow等,并且针对现实中遇到的数据,甚至是Kaggle竞赛中的分析任务,快速搭建有效的机器学习系统。

  同时,作者尽力减少读者为了理解本书,而对编程技能、数学背景的过分依赖,进而降低机器学习模型的实践门槛,让更多的兴趣爱好者体会到使用经典模型以及新的高效方法解决实际问题的乐趣。

作者简介
  范淼,清华大学计算机系人工智能研究所博士,研究方向涉及机器学习与自然语言处理技术。2015年3月受国家留学基金委公派至美国纽约大学计算机系联合培养。攻读博士期间,于所在研究领域内多个重要国际会议与期刊上发表论文近20篇。先后在Hulu、MSRA(微软亚洲研究院)、百度自然语言处理部、Bosch(博世)北美硅谷研究院等多个公司的研发部门实习,并承担机器学习与自然语言处理相关的研究任务。   李超, 工学博士,清华大学副研究员,信息技术研究院Web 与软件技术研究中心副主任。中国计算机学会信息存储技术专委会委员、中国计算机学会高级会员、全国文献影像技术标准化技术委员会(SAC/TC86/SC6)委员、IEEE 会员。研究领域包括海量数据存储、组织与管理、分析,及其在数字图书馆/档案馆/教育/医疗/金融等领域的应用。主持及参与多项国家973、863、科技支撑、自然基金等纵向项目及横向合作项目。已发表学术论文50 余篇、获得授权发明专利10 余项。
内容介绍

  本书面向所有对机器学习与数据挖掘的实践及竞赛感兴趣的读者,从零开始,以Python编程语言为基础,在不涉及大量数学模型与复杂编程知识的前提下,逐步带领读者熟悉并且掌握当下流行的机器学习、数据挖掘与自然语言处理工具,如Scikit-learn、NLTK、Pandas、gensim、XGBoost、Google Tensorflow等。

  全书共分4章。第1章简介篇,介绍机器学习概念与Python编程知识;第2章基础篇,讲述如何使用Scikit-learn作为基础机器学习工具;第3章进阶篇,涉及怎样借助高级技术或者模型进一步提升既有机器学习系统的性能;第4章竞赛篇,以Kaggle平台为对象,帮助读者一步步使用本书介绍过的模型和技巧,完成三项具有代表性的竞赛任务。

展开
精彩书摘

  第3章 进阶篇
  在第2章中,我们向读者介绍了大量经典的机器学习模型,并且使用Python编程语言分析这些模型在许多不同现实数据上的性能表现。然而,细心的读者在深入研究这些数据或者查阅Scikit-learn的文档之后就会发现: 所有我们在第2章中使用过的数据几乎都经过了规范化处理,而且模型也大多只是采用了默认的初始化配置。换言之,尽管我们可以使用经过处理之后的数据,在默认配置下学习到一套用以拟合这些数据的参数,并且使用这些参数和默认配置取得一些看似良好的性能表现;但是我们仍然无法回答几个最为关键的问题: 实际研究和工作中接触到的数据都是这样规整的吗?难道这些默认配置就是最佳的么?我们的模型性能是否还有提升的空间?本章"3.1模型使用技巧"节将会帮助读者朋友解答上述疑问。阅读完这一节,相信各位读者朋友就会掌握如何通过抽取或者筛选数据特征、优化模型配置,进一步提升经典模型的性能表现。
  然而,随着近些年机器学习研究与应用的快速发展,经典模型渐渐无法满足日益增长的数据量和复杂的数据分析需求。因此,越来越多更加高效而且强力的学习模型以及对应的程序库正逐渐被设计和编写,并慢慢被科研圈和工业界所广泛接受与采用。这些模型和程序库包括: 用于自然语言处理的NLTK程序包;词向量技术Word2Vec;能够提供强大预测能力的XGBoost模型,以及Google发布的用于深度学习的Tensorflow框架等等。更加令人振奋的是,上述这些最为流行的程序库和模型, 不但提供了Python的编程接口API,而且有些成为Python编程语言的工具包,更是方便了我们后续的学习和使用。因此,在"3.2流行库/模型实践"节将会带领各位读者一同领略这些时下最为流行的程序库和新模型的奥妙。

  3.1模型实用及技巧
  这一节将向读者朋友传授一系列更加偏向于实战的模型使用技巧。相信各位读者在第2章中品味了多个经典的机器学习模型之后,就会发现: 一旦我们确定使用某个模型,本书所提供的程序库就可以帮助我们从标准的训练数据中,依靠默认的配置学习到模型所需要的参数(Parameters);接下来,我们便可以利用这组得来的参数指导模型在测试数据集上进行预测,进而对模型的表现性能进行评价。
  但是,这套方案并不能保证: (1) 所有用于训练的数据特征都是最好的;(2) 学习得到的参数一定是最优的;(3) 默认配置下的模型总是最佳的。也就是说,我们可以从多个角度对在前面所使用过的模型进行性能提升。本节将向大家介绍多种提升模型性能的方式,包括如何预处理数据、控制参数训练以及优化模型配置等方法。
  3.1.1特征提升
  早期机器学习的研究与应用,受模型种类和运算能力的限制。因此,大部分研发人员把更多的精力放在对数据的预处理上。他们期望通过对数据特征的抽取或者筛选来达到提升模型性能的目的。所谓特征抽取,就是逐条将原始数据转化为特征向量的形式,这个过程同时涉及对数据特征的量化表示;而特征筛选则更进一步,在高维度、已量化的特征向量中选择对指定任务更有效的特征组合,进一步提升模型性能。
  3.1.1.1特征抽取
  原始数据的种类有很多种,除了数字化的信号数据(声纹、图像),还有大量符号化的文本。然而,我们无法直接将符号化的文字本身用于计算任务,而是需要通过某些处理手段,预先将文本量化为特征向量。
  有些用符号表示的数据特征已经相对结构化,并且以字典这种数据结构进行存储。这时,我们使用DictVectorizer对特征进行抽取和向量化。比如下面的代码55。

  代码55: DictVectorizer对使用字典存储的数据进行特征抽取与向量化
  >>> # 定义一组字典列表,用来表示多个数据样本(每个字典代表一个数据样本)。
  >>>measurements= [{'city': 'Dubai', 'temperature': 33.}, {'city': 'London', 'temperature': 12.}, {'city': 'San Fransisco', 'temperature': 18.}]
  >>> # 从sklearn.feature_extraction 导入 DictVectorizer
  >>>from sklearn.feature_extraction import DictVectorizer
  >>> # 初始化DictVectorizer特征抽取器
  >>>vec=DictVectorizer()
  >>> # 输出转化之后的特征矩阵。
  >>>print vec.fit_transform(measurements).toarray()
  >>> # 输出各个维度的特征含义。
  >>>print vec.get_feature_names()[[1. 0 0.33]
  [0. 1. 0.12.]
  [0. 0. 1.18.]]
  ['city=Dubai', 'city=London', 'city=San Fransisco', 'temperature']

  从代码55的输出可以看到: 在特征向量化的过程中,DictVectorizer对于类别型(Categorical)与数值型(Numerical)特征的处理方式有很大差异。由于类别型特征无法直接数字化表示,因此需要借助原特征的名称,组合产生新的特征,并采用0/1二值方式进行量化;而数值型特征的转化则相对方便,一般情况下只需要维持原始特征值即可。
  另外一些文本数据则表现得更为原始,几乎没有使用特殊的数据结构进行存储,只是一系列字符串。我们处理这些数据,比较常用的文本特征表示方法为词袋法(Bag of Words): 顾名思义,不考虑词语出现的顺序,只是将训练文本中的每个出现过的词汇单独视作一列特征。我们称这些不重复的词汇集合为词表(Vocabulary),于是每条训练文本都可以在高维度的词表上映射出一个特征向量。而特征数值的常见计算方式有两种,分别是: CountVectorizer和TfidfVectorizer。对于每一条训练文本,CountVectorizer只考虑每种词汇(Term)在该条训练文本中出现的频率(Term Frequency)。而TfidfVectorizer除了考量某一词汇在当前文本中出现的频率(Term Frequency)之外,同时关注包含这个词汇的文本条数的倒数(Inverse Document Frequency)。相比之下,训练文本的条目越多,TfidfVectorizer这种特征量化方式就更有优势。因为我们计算词频(Term Frequency)的目的在于找出对所在文本的含义更有贡献的重要词汇。然而,如果一个词汇几乎在每篇文本中出现,说明这是一个常用词汇,反而不会帮助模型对文本的分类;在训练文本量较多的时候,利用TfidfVectorizer压制这些常用词汇的对分类决策的干扰,往往可以起到提升模型性能的作用。
  我们通常称这些在每条文本中都出现的常用词汇为停用词(Stop Words),如英文中的the、a等。这些停用词在文本特征抽取中经常以黑名单的方式过滤掉,并且用来提高模型的性能表现。下面的代码让我们重新对"20类新闻文本分类"问题进行分析处理,这一次的重点在于列举上述两种文本特征量化模型的使用方法,并比较他们的性能差异。
  ……

展开
目录

第1章 简介篇..............................................................1

1.1 机器学习综述..............................................................1

1.1.1 任务....................................................................3

1.1.2 经验....................................................................5

1.1.3 性能....................................................................5

1.2 Python编程库..............................................................8

1.2.1 为什么使用Python........................................................8

1.2.2 Python机器学习的优势....................................................9

1.2.3 NumPy & SciPy..........................................................10

1.2.4 Matplotlib.............................................................11

1.2.5 Scikit-learn..........................................................11

1.2.6 Pandas.................................................................11

1.2.7 Anaconda...............................................................12

1.3 Python环境配置...........................................................12

1.3.1 Windows系统环境........................................................12

1.3.2 Mac OS 系统环境........................................................17

1.4 Python编程基础...........................................................18

1.4.1 Python基本语法.........................................................19

1.4.2 Python 数据类型........................................................20

1.4.3 Python 数据运算........................................................22

1.4.4 Python 流程控制........................................................26

1.4.5 Python 函数(模块)设计................................................28

1.4.6 Python 编程库(包)的导入..............................................29

1.4.7 Python 基础综合实践....................................................30

1.5章末小结..............................................................33

第2章 基础篇..............................................................34

2.1监督学习经典模型.........................................................34

2.1.1分类学习...............................................................35

2.1.1.1 线性分类器

2.1.1.2 支持向量机(分类)

2.1.1.3 朴素贝叶斯

2.1.1.4 K近邻(分类)

2.1.1.5 决策树

2.1.1.6 集成模型(分类)

2.1.2回归预测...............................................................64

2.1.2.1 线性回归器

2.1.2.2 支持向量机(回归)

2.1.2.3 K近邻(回归)

2.1.2.4 回归树

2.1.2.5 集成模型(回归)

2.2 无监督学习经典模型.......................................................81

2.2.1数据聚类......................................................81

2.2.1.1 K均值算法

2.2.2特征降维...............................................................91

2.2.2.1 主成分分析

2.3 章末小结.................................................................97

第3章 进阶篇...............................................................98

3.1 模型实用技巧.............................................................98? 

3.1.1 特征提升...............................................................99

3.1.2 模型正则化............................................................111

3.1.3 模型检验..............................................................121

3.1.4 超参数搜索............................................................122

3.2 流行库/模型实践.........................................................129

3.2.1自然语言处理包(NLTK)................................................131

3.2.2 词向量(Word2Vec)技术................................................133

3.2.3 XGBoost模型...........................................................138

3.2.4 Tensorflow框架........................................................140

3.3 章末小结................................................................152

第4章 实战篇..............................................................153

4.1 Kaggle平台简介..........................................................153

4.2 Titanic罹难乘客预测.....................................................157

4.3 IMDB影评得分估计........................................................165

4.4 MNIST手写体数字图片识别.................................................174

4.5 章末小结................................................................180

后记.....................................................................181

参考文献.................................................................182

展开
加入书架成功!
收藏图书成功!
我知道了(3)
发表书评
读者登录

温馨提示:请使用石家庄市图书馆的读者帐号和密码进行登录

点击获取验证码
登录