更新于 2023 年 3 月 21 日
机器学习算法类型简介
机器学习算法类型或人工智能计算是程序(数学和原理),当它们呈现更多信息时,它们会自我修改以表现得更好。 “适应”人工智能的某些部分意味着这些项目在一段时间后会改变它们处理信息的方式,就像人们通过学习改变他们处理信息的方式一样。因此,考虑到过去对数据集的展览制作期望的批评,机器学习或人工智能计算是一种采用特定方法来改变其自身参数的程序。
机器学习算法的类型
他们对机器学习算法类型的描述有一定的差异,但通常可以根据其动机将它们分为几类,基本分类如下:
- 监督学习
- 无监督学习
- 半监督学习
什么是监督学习
监督学习是您可以考虑指导学习的讲师的地方。我们有一个作为教育者的数据集,它的工作是准备模型或机器。当模型准备好后,它可以在给出新信息时开始确定期望或选择。
监督学习的例子:
- 你会得到很多照片,其中包含有关照片上内容的数据,然后训练一个模型来感知新照片。
- 您拥有大量基于房屋大小和位置的房价数据,并将其输入模型并对其进行训练,然后您可以根据您输入的数据预测其他房屋的价格。
- 如果您想根据您拥有的旧邮件来预测您的邮件是否为垃圾邮件,您可以预测新邮件是否为垃圾邮件。
监督学习算法如下:
1) 线性回归
线性回归对于发现两个持久因素之间的联系很有价值。一个是预测变量或自变量,另一个是反应变量或病房变量。然而,它寻找可测量的关系,而不是确定性的关系。如果一个变量可以由另一个变量精确地传达,则两个因素之间的联系被认为是确定性的。例如,利用摄氏度温度,可以精确预测华氏度。事实关系并不能精确地确定两个因素之间的联系。例如,在身高和体重范围内的某个地方进行连接。中心思想是得到一条最适合信息的线。最佳拟合线是在这种情况下全面预测误差(所有信息集中)与预期一样小的线。错误在于点与回归线之间的分离。
2)决策树
决策树是一种决策帮助小工具,它使用树状图或决策模型及其潜在结果,包括机会事件结果、资源成本和效用。探索图像以了解其相似之处。
3)朴素贝叶斯分类
朴素贝叶斯分类是一组依赖于应用贝叶斯理论的基本概率分类器,具有朴素贝叶斯特征的强(不复杂)自治性。此分类的一些可认证型号是:
将电子邮件标记为垃圾邮件或非垃圾邮件。
订购有关创新、政府问题或体育的新闻报道
检查一下传递积极情绪或消极情绪的物质?
用于面部确认编程。
4)逻辑回归
逻辑回归是一种突破性的事实方法,用于证明具有至少一个信息因素的二项式结果。它通过利用后勤能力(即组合后勤拨款)评估概率,量化绝对病房变量与至少一个自由因素之间的联系。
通常,回归可以在现实生活中使用,例如:
信用评分
衡量市场或公司成功率的标准
预测任何公司或任何产品的收入
哪天会发生地震吗?
5)普通最小二乘回归
最小二乘法是一种执行直接回归的策略。直接回归是通过多个焦点拟合一条线的过程。有各种潜在的程序可以做到这一点,“普通最小二乘”系统是这样的——你可以画一条线,然后,对于所有数据中心,测量点和线之间的垂直分离,然后将这些合并起来;拟合线将是该分区集合在当前情况下尽可能少的地方。
什么是无监督学习?
该模型通过感知进行学习并发现信息中的结构。当给模型一个数据集时,它会通过在数据集中创建簇来发现数据集中的示例和连接。它不能给这堆东西添加标记,就像它不能说这是一群苹果或芒果一样;然而,它会将每一个苹果与芒果隔离开来。
假设我们向模型显示了苹果、香蕉和芒果的图片,它会根据某些示例和联系将数据集分组并划分为这些组。现在,如果模型中支持了其他信息,它会将其添加到已创建的数据包之一中。
无监督学习的例子
- 您有很多 6 个人的照片,但没有关于谁在哪一张上的数据,并且您需要将此数据集隔离成 6 个堆,每个堆都有一个人的照片。
- 你有颗粒,其中有些是药物,有些不是;然而,您不知道哪个是哪个,您需要计算才能找到药物。
无监督学习算法如下
聚类
聚类对于无辅助学习来说是一个重要的想法。它能够在大部分未分类信息的集合中找到结构或示例。聚类计算将处理您的信息并发现信息中存在的特征簇(组)。您还可以更改计算应区分的组数。它使您能够改变这些聚会的粒度。
您可以使用多种类型的聚类
- 选择性(分配)
- 型号:K-means
- 聚集性
- 模型:层次聚类
- 覆盖
- 模型:模糊 C 均值
- 概率论
聚类算法类型
- 层次聚类
- K-均值聚类
- K-NN(k 个最近邻)
- 主成分分析
- 孤立值分解
- 独立成分分析
- 层次聚类
层次聚类
层次聚类是一种构建组优序的计算。它从分发给他们自己的群体的每一项信息开始。在这里,两个关系密切的群体将处于相似的群体中。当只剩下一组时,此计算结束。
K-均值聚类
K 意味着它是一种迭代聚类计算,鼓励您为每个重点找到最值得注意的激励因素。首先,选择理想的组数。在这种聚类技术中,您必须将集中于 k 个聚集的信息集中在一起。同样,较大的 k 意味着较小的聚集和较大的粒度。 k 越低意味着粒度越小、规模越大。
计算的结果是“名称”的集合。它允许信息指向 k 个聚会之一。在 k 均值聚类中,每个聚集的特征是为每个聚集创建一个质心。质心就像簇的核心,它捕获距离它们最近的焦点并将它们添加到组中。
K 均值聚类进一步表征了两个子组。
- 凝聚聚类
- 树状图
凝聚聚类
这种 K 均值聚类从固定数量的簇开始。然后,它将所有信息指定到准确数量的组中。该聚类策略不需要组数 K 作为信息。聚集过程首先将每个数据塑造为一个单独的集合。
该策略利用一些分离措施,通过组合流程来减少束的数量(每个重点一个)。总之,我们有一个包含每一篇文章的主要组。
树状图
在树状图聚类技术中,每个级别都会与一个可以想象的群体进行对话。树状图的高度表明了两个连接束之间的相似程度。越接近该过程的基础,越接近的簇,是从树状图中发现的集合,这不是典型的,而且在大多数情况下是抽象的。
K-最近邻
K 最近邻是所有 AI 分类器中最直接的。然而,它与其他人工智能程序的不同之处在于它不提供模型。相反,它是一种简单的计算,可以存储每个可访问的案例,并根据相似性度量来表征新示例。
当模型之间存在分离时,它的效果非常好。然而,当准备集很大时,学习率适中,并且分离计算也很重要。
主成分分析
如果您需要更高维度的空间。您必须选择该空间的原因以及该前提的 200 个最重要的分数。该碱基被称为主成分。您选择的子集是另一个与唯一空间相比尺寸较小的空间。然而,它保留了信息的多面性,正如人们所期望的那样。
什么是强化学习?
这是专家与地球合作并发现最佳结果的能力。它追求击打和初步技术的理念。操作员因正确或错误的答案而获得奖励或惩罚,并根据获得的积极奖励焦点,模型进行自我训练。此外,一旦准备好,它就准备预见引入的新信息。
强化学习的例子
- 根据用户喜好展示广告,进行长期优化
- 了解实时使用的广告预算
- 逆强化学习更好地了解顾客喜欢不喜欢
什么是半监督学习?
半监督学习,计算是根据命名和未标记信息的混合来准备的。通常,这种混合将包含有限数量的命名信息和大量未标记信息。其基本方法是,软件工程师首先利用无人学习计算对可比较的信息进行分组,然后利用当前命名的信息来命名其余未标记的信息。这种计算的普通使用实例有一个典型的特性——获取未标记信息通常是适度的,而命名所述信息则非常昂贵。自然地,人们可以设想三种学习计算:监督式学习,即学生在家庭和学校的指导员的监督下;无监督式,即学生需要自己理解某个想法;半监督式,即学生需要自己理解某个想法。教育者在课堂上展示了一些想法,并提出了基于类似想法的作业作为探究。
半监督学习的例子
值得注意的是,更多的信息=深度学习中更好质量的模型(明确地达到特定的限制点,但我们通常没有那么多的信息。)尽管如此,获取标记信息的成本很高。例如,如果你需要准备一个模型来区分有翅膀的动物,你可以设置很多相机来拍摄鸟类的照片。这通常是适度的。与个人签订合同来标记这些照片的成本很高。考虑一下您可能拥有大量带翅膀动物的图片;但是,只需与个人签订合同来标记照片的一小部分即可。事实证明,您可以在使用指定子集调整模型之前在整个训练集上预先训练模型,而不是简单地在标记子集上训练模型,并且沿着这些方向显示出改进执行的迹象。这就是半监督学习。它会预留你的现金。
结论
机器学习算法有很多种,根据不同的条件,我们必须使用最适合的算法才能得到最好的结果。有许多算法可以找到每种机器学习算法类型的最佳准确度,这也是我们必须使用该算法的最高准确度。我们可以通过减少数据中的噪声来最小化每种算法的错误。最后,我要说的是,没有一种机器学习算法可以给你 100% 的准确率;即使是人脑也无法做到这一点,因此请为您的数据找到最佳的冷杉算法。
推荐文章
这是机器学习算法类型的指南。这里我们讨论什么是机器学习算法?,它的类型包括监督学习、无监督学习、半监督学习、强化学习。您还可以查看以下文章以了解更多信息 –