数据分析的最关键部分是数据挖掘,啥是数据挖掘?
而数据挖掘工作,就像钻井,通过分析这些数据,从庞大的数据中发现规律来寻宝。只有对知识有全面认知,才能确保在以后工作即使遇到问题,也可快速定位问题,然后找方法对应和解决。
数据科学家提出各种模型,国际权威的学术组织 ICDM (the IEEE International Conference on Data Mining)评选十大经典算法。按目的分类:
决策树算法,它创造性地在决策树构造过程中就剪枝,并可处理连续的属性,也能对不完整的数据进行处理。
基于概率论的原理,核心思想:对于给出的未知物体想要进行分类,就需要求解在这个未知物体出现的条件下各个类别出现的概率,哪个最大,就认为这个未知物体属于哪个分类。
Support Vector Machine,支持向量机。SVM 在训练中建立了一个超平面的分类模型。
K-Nearest Neighbor,K最近邻算法。每个样本都可以用它最接近的 K 个邻居来代表。如果一个样本,它的 K 个最接近的邻居都属于分类 A,那么这个样本也属于分类 A。
在训练中建立了一个联合的分类模型。boost 在英文中代表提升的意思,所以 Adaboost 是个构建分类器的提升算法。它可以让我们多个弱的分类器组成一个强的分类器,所以 Adaboost 也是一个常用的分类算法。
Classification and Regression Trees,代表分类和回归树 。它构建了两棵树:一棵是分类树,另一个是回归树。和 C4.5 一样,决策树学习方法。
一种挖掘关联规则(association rules)的算法,它通过挖掘频繁项集(frequent item sets)来揭示物品之间的关联关系,被广泛应用到商业挖掘和网络安全等领域中。频繁项集是指经常出现在一起的物品的集合,关联规则暗示着两种物品之间可能存在很强的关系。
聚类算法。你可以这么理解,最终我想把物体划分成 K 类。假设每个类别里面,都有个“中心点”,即意见领袖,它是这个类别的核心。现在我有一个新点要归类,这时候就只要计算这个新点与 K 个中心点的距离,距离哪个中心点近,就变成了哪个类别。
EM 算法也叫最大期望算法,是求参数的最大似然估计的一种方法。原理是这样的:假设我们想要评估参数 A 和参数 B,在开始状态下二者都是未知的,并且知道了 A 的信息就可以得到 B 的信息,反过来知道了 B 也就得到了 A。可以考虑首先赋予 A 某个初值,以此得到 B 的估值,然后从 B 的估值出发,重新估计 A 的取值,这个过程一直持续到收敛为止。
EM 算法经常用于聚类和机器学习领域中。
PageRank 起源于论文影响力的计算方式,如果一篇文论被引入的次数越多,就代表这篇论文的影响力越强。同样 PageRank 被 Google 创造性地应用到了网页权重的计算中:当一个页面链出的页面越多,说明这个页面的“参考文献”越多,当这个页面被链入的频率越高,说明这个页面被引用的次数越高。基此,可得网站的权重划分。
算法是数据挖掘的灵魂,也是最精华部分。其他算法也基本上都是在这些基础上进行改进和创新。
想更深刻理解数据挖掘的方法,就有必要了解它后背数学原理。
1. 概率论与数理统计
大学教的偏概率,统计部分较少。在数据挖掘里使用到概率论的地方就比较多。如条件概率、独立性的概念,以及随机变量、多维随机变量的概念。
很多算法的本质都与概率论相关,所以说概率论与数理统计是数据挖掘的重要数学基础。
2. 线性代数
向量和矩阵是线性代数中的重要知识点,它被广泛应用到数据挖掘中,比如我们经常会把对象抽象为矩阵的表示,一幅图像就可以抽象出来是一个矩阵,我们也经常计算特征值和特征向量,用特征向量来近似代表物体的特征。这个是大数据降维的基本思路。
基于矩阵的各种运算,以及基于矩阵的理论成熟,可以帮我们解决很多实际问题,比如 PCA 方法、SVD 方法,以及 MF、NMF 方法等在数据挖掘中都有广泛的应用。
3. 图论
社交网络的兴起,让图论的应用也越来越广。人与人的关系,可以用图论上的两个节点来进行连接,节点的度可以理解为一个人的朋友数。我们都听说过人脉的六度理论,在 Facebook 上被证明平均一个人与另一个人的连接,只需要 3.57 个人。当然图论对于网络结构的分析非常有效,同时图论也在关系挖掘和图像分割中有重要的作用。
4. 最优化方法
最优化方法相当于机器学习中自我学习的过程,当机器知道了目标,训练后与结果存在偏差就需要迭代调整,那么最优化就是这个调整的过程。一般来说,这个学习和迭代的过程是漫长、随机的。最优化方法的提出就是用更短的时间得到收敛,取得更好的效果。
如果某电商网站想挖掘商品之间的关联关系,从而提升销售额,你觉得可以采用上面的哪个算法?为什么?
在电商网站中,挖掘商品之间的关联关系以提升销售额,可用Apriori算法:
Apriori算法是一种经典的关联分析算法,专门用于从数据中挖掘商品之间的关联规则。例如,它可以帮助电商网站发现某些商品经常一起被购买,从而生成关联推荐。通过分析频繁出现的商品组合(即频繁项集),电商平台可以得出哪些商品之间存在较强的关联性,从而为推荐系统提供依据。
通过这些关联规则,电商平台可以实现交叉销售(cross-selling),比如当用户购买一件商品时,推荐与之关联的其他商品。这样不仅可以增加用户的购买量,还可以提升整体销售额。
Apriori算法在零售行业的“购物篮分析”中应用广泛,适用于挖掘商品之间的关联关系。例如,当系统检测到用户经常购买商品A和商品B时,它可以自动推荐B给购买A的用户,形成组合销售策略。
总的来说,Apriori算法由于其在关联分析中的强大功能,能够帮助电商平台分析出隐藏在数据中的商品关联,优化销售策略。
关注我,紧跟本系列专栏文章,咱们下篇再续!
作者简介:魔都架构师,多家大厂后端一线研发经验,在分布式系统设计、数据平台架构和AI应用开发等领域都有丰富实践经验。
各大技术社区头部专家博主。具有丰富的引领团队经验,深厚业务架构和解决方案的积累。
负责:
- 中央/分销预订系统性能优化
- 活动&券等营销中台建设
- 交易平台及数据中台等架构和开发设计
- 车联网核心平台-物联网连接平台、大数据平台架构设计及优化
- LLM Agent应用开发
- 区块链应用开发
- 大数据开发挖掘经验
- 推荐系统项目
目前主攻市级软件项目设计、构建服务全社会的应用系统。
参考: