Java教程

吃瓜第一天

本文主要是介绍吃瓜第一天,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

第一章 绪论

Page2: 标记(label)

示例结果的信息,例如“好瓜”,称为标记

Page2: 假设(269)(hypothesis)

学得模型对应了数据的某种潜在的规律,因此亦称假设

Page2: 示例(instance)

数据集中的每条记录是关于某个事件或对象的描述,称为一个“示例”或“样本”

Page2: 属性(attribute)

反映事务或对象在某方面的表现或性质的事项,如“色泽”,称为属性或特征

Page2: 属性空间(attribute space)

属性长成的空间称为属性空间,样本空间,或输入空间

Page2: 数据集(data set)

数据记录的集合称为一个数据集

Page2: 特征(247)(feature)

同属性

Page2: 学习(learning)

从数据中学得模型的过程称为学习或训练

Page2: 学习器(learner)

学习过程就是为了找出或逼近真相,有时将模型称作学习器

Page2: 训练(training)

同学习

Page2: 训练集(training data)

训练过程中使用的数据称为“训练集”,其中每个样本称为一个“训练样本”,训练样本组成的集合称为训练集

Page2: 训练样本(training sample)

见训练集

Page2: 样本(sample)

同示例

Page2: 样本空间(sample space)

同属性空间

Page2: 样例(sample)

同示例(instance)

Page2: 真相(ground-truth)

潜在规律本身称为真相或真实

Page3: 标记空间(label space)

所有标记的集合称为标记空间或输出空间

Page3: 测试(testing)

学得模型后,使用其进行预测的过程称为测试,被预测的样本称为测试样本

Page3: 测试样本(testing sample)

见测试

Page3: 簇(197)(cluster)

将训练集中的西瓜分成若干组,称为聚类,每个组称为一个簇

Page3: 独立同分布(267)(independent and identically distributed)

我们获得的每个样本都是独立的从一个分布上采样获得的,即“独立同分布”

Page3: 多分类(multi-class classification)

预测值涉及多个类别时,称为“多分类”

Page3: 二分类(binary classification)

预测值设计两个分类的任务

Page3: 泛化(121,350)(generalization)

学得模型适用于新样本的能力,称为“泛化”能力

Page3: 分类(classification)

如果预测的是离散值,此类学习任务称为分类

Page3: 回归(regression)

如果预测的值是连续值,此类学习任务称为回归

Page3: 监督学习(supervised learning)

根据训练数据是否拥有标记信息,学习任务可以大致分为两大类:监督学习和无监督学习,分类和回归是前者的代表,聚类是后者的代表

Page3: 聚类(197)(clustering)

见簇

Page3: 无导师学习

同无监督学习

Page3: 无监督学习(197)(unsupervised learning)

见有监督学习

Page3: 有导师学习

同有监督学习

Page4: 概念学习(17)(concept learning)

广义的归纳学习大体相当于从样例中学习,而狭义的归纳学习则要求从训练数据中学得概念,因此亦称为概念学习或概念形成

Page4: 归纳学习(11)(inductive learning)

从样例中学习

Page5: 版本空间(version space)

存在着一个与训练集一致的假设集合,称之为“版本空间”

Page6: 归纳偏好(inductive bias)

机器学习算法在学习过程中对某种类型假设的偏好,称为归纳偏好

Page6: 偏好

同归纳偏好

Page7: 奥卡姆剃刀(17)(Occam’s razor)

若有多个假设与观察一致,则选最简单的那个

Page10: 符号主义(363)(symbolism)

基于逻辑表示

Page10: 连接主义(connectionism)

基于神经网络

Page10: 人工智能

有很多种说法。。见仁见智

Page11: 机械学习

信息存储与检索

Page11: 类比学习

通过观察和发现学习

Page11: 示教学习

从指令中学习

Page12: 统计学习(139)

如SVM,核方法

Page14: 数据挖掘

从海量数据中发掘知识

Page16: WEKA

Page17: 迁移学习

类比学习升级版

第二章 模型评估与选择

Page23: 错误率(error rate)

分类错误的样本数占样本总数的比例称为错误率,即如果在m个样本中有a个样本分类错误,则错误率E = a/m;相应的,1-a/m称为精度。

Page23: 泛化误差(generalization error)

在新样本上的误差称为泛化误差

Page23: 过拟合(104,191,352)(overfitting)

当学习器把训练样本学得太好了的时候,很可能已经把训练样本自身的一些特点当作了所有潜在样本都会具有的一般性质,这样就会导致泛化性能下降,这种现象称为过拟合

Page23: 过配

同过拟合

Page23: 精度(29)(accuracy)

精度=1-错误率

Page23: 经验误差(267)(empirical error)

学习器在训练集上的误差称为“训练误差”

Page23: 欠配(underfitting)

欠拟合,对训练样本的一般性质尚未学好

Page23: 误差(error)

学习器的实际预测输出与样本的真实输出之间的差异称为误差

Page23: 训练误差(trainning error)

同经验误差

Page24: 模型选择(model selection)

选择学习算法与参数配置

Page25: 分层采样(stratified sampling)

如果从采样的角度看待数据集的划分过程,则保留类别比例的采样方式通常称为“分层采样”

Page25: 留出法(hold-out)

直接将数据集D划分为两个互斥的集合,其中一个集合作为训练集S,另一个作为测试集T,在S上训练出模型后,用T来评估其测试误差,作为对泛化误差的估计。

Page26: k折交叉验证(k-fold cross validation)

交叉验证先将数据集D划分为k个大小相似的互斥子集,每个自己都尽可能保持数据分布的一致性,即从数据集中分层采样得到,然后,每次用k-1个子集的并集作为训练集,余下的那个子集作为测试集,这样就可以获得k组训练/测试集,最终返回k个测试结果的均值,交叉验证评估结果的稳定性和保真性很大程度上取决于k的取值,通常称之为k折交叉验证,最常用的k是10

Page26: 交叉验证法(cross validation)

同k折交叉验证

Page27: 包外估计(179)(out of bag estimate)

用于测试的样本没在训练集中出现,这样的测试结果称为包外估计

Page27: 自助法(bootstrapping)

以自主采样法为基础,给定包含m个样本的数据集D,对它采样产生数据集D’:每次随机从D中挑选一个样本,将其考本放入D’, 然后再将该样本放回D中,下次可能再被采到,这个过程执行m次后,得到包含m个样本的数据集D’,m足够大时,有36.8%的样本不会被采到,于是可以用没采到的部分做测试集。

Page28: 参数调节(parameter tuning)

大多数学习算法有些参数需要设定,参数配置不同,学得模型的性能往往有显著差别,因此,在进行模型评估与选择时,除了要对适用学习算法进行选择,还需要对算法参数进行设定,这就是参数调节或者调参。

Page28: 验证集(105)(validation set)

通常把学得模型在实际使用中遇到的数据称为测试数据,为了加以区分,为了加以区分,模型评估与选择中用于评估测试的数据集常称为“验证集”。

Page29: 均方误差(54)(mean squared error)

回归任务最常用的性能度量是均方误差(几何距离)

Page30: 查全率(recall)

预测为真且正确的结果占所有预测正确的结果的比例。

Page30: 查准率(precision)

预测为真且正确的结果占所有预测结果的比例。

这篇关于吃瓜第一天的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!