传统的机器学习
监督学习定义:监督学习是一种机器学习任务,它使用标记的训练数据来学习输入(特征)和输出(标签)之间的映射关系。训练数据包含输入示例以及对应的正确输出,模型的目标是学习一个函数,使得对于给定的新输入,能够预测出相应的正确输出。常见算法:线性回归:用于预测一个连续的数值输出。它假设输入变量和输出变量之间存在线性关系,通过最小化预测值和真实值之间的平方误差来拟合一条直线(在多元线性回归中是一个超平面)。
·
- 监督学习
- 定义:监督学习是一种机器学习任务,它使用标记的训练数据来学习输入(特征)和输出(标签)之间的映射关系。训练数据包含输入示例以及对应的正确输出,模型的目标是学习一个函数,使得对于给定的新输入,能够预测出相应的正确输出。
- 常见算法:
- 线性回归:用于预测一个连续的数值输出。它假设输入变量和输出变量之间存在线性关系,通过最小化预测值和真实值之间的平方误差来拟合一条直线(在多元线性回归中是一个超平面)。例如,根据房屋的面积、房龄等特征来预测房屋价格。模型的一般形式为,其中是预测的输出(房屋价格),是输入特征(面积、房龄等),是需要学习的权重。
- 逻辑回归:主要用于二分类问题,例如判断一封电子邮件是否是垃圾邮件。它将线性回归的输出通过一个逻辑函数(如 sigmoid 函数)进行转换,将输出压缩到到之间,这个输出可以被解释为属于某一类别的概率。逻辑回归的模型形式基于线性组合,然后通过计算属于类别的概率。
- 决策树:通过对特征空间进行划分来构建决策规则。它以树状结构表示,每个内部节点是一个特征上的测试,每个分支是测试的结果,每个叶节点是一个类别标签(用于分类)或一个数值(用于回归)。例如,在医疗诊断中,根据患者的症状、检查结果等特征来判断疾病类型。决策树的构建过程是一个递归的过程,选择最优的特征来划分数据集,使得划分后的子集纯度最高。
- 支持向量机(SVM):在分类问题中,SVM 的目标是找到一个超平面,能够将不同类别的数据点尽可能地分开。对于线性可分的数据,它寻找一个最大间隔的超平面;对于非线性数据,可以通过核技巧将数据映射到高维空间,使其在高维空间中线性可分。例如,在图像分类中,将不同类别的图像(如猫和狗的图像)通过 SVM 进行分类。SVM 在处理小样本、高维数据时表现出较好的性能。
- 朴素贝叶斯:基于贝叶斯定理和特征之间的独立性假设来进行分类。它计算在给定输入特征下每个类别出现的概率,然后选择概率最高的类别作为预测结果。例如,在文本分类中,根据单词在文档中的出现频率来判断文档的类别(如新闻、体育、娱乐等)。朴素贝叶斯分类器有多种类型,如多项式朴素贝叶斯、伯努利朴素贝叶斯等,适用于文本处理、垃圾邮件过滤等领域。
- K - 近邻(K - NN):是一种基于实例的学习方法。对于一个新的数据点,它通过计算与训练数据集中的点的距离(如欧几里得距离),找到距离最近的个邻居,然后根据这个邻居的多数类别(用于分类)或平均值(用于回归)来预测新数据点的类别或数值。例如,在手写数字识别中,根据新的手写数字图像与已知数字图像的相似性来判断它所属的数字类别。K - NN 算法简单、直观,但计算成本较高,尤其是在数据量较大时。
- 无监督学习
- 定义:无监督学习处理未标记的数据,其目标是发现数据中的结构、模式或关系。没有给定明确的输出标签,模型需要自己从数据中挖掘信息。
- 常见算法:
- 聚类算法:
- K - 均值聚类:将数据划分为个簇。它的基本思想是首先随机初始化个聚类中心,然后将每个数据点分配到距离其最近的聚类中心所在的簇中,接着重新计算每个簇的聚类中心,重复这个过程直到聚类中心不再变化或者达到一定的收敛条件。例如,在客户细分中,根据客户的消费行为、年龄、收入等特征将客户分为不同的群体,每个群体具有相似的特征。
- 层次聚类:构建一个聚类的层次结构,有两种基本方式:凝聚式和分裂式。凝聚式层次聚类从每个数据点作为一个单独的簇开始,逐步合并相似的簇;分裂式层次聚类则从所有数据点都在一个簇开始,逐步分裂出不同的簇。层次聚类的结果可以用树状图(dendrogram)来表示,通过观察树状图可以确定合适的聚类数量。例如,在生物分类中,根据生物的形态、基因等特征构建生物的分类层次结构。
- 主成分分析(PCA):一种用于数据降维和特征提取的方法。它通过线性变换将原始数据转换到一个新的坐标系中,使得在新坐标系中数据的方差最大的方向作为主成分。这些主成分是原始特征的线性组合,可以用来表示数据的主要变化趋势,同时减少数据的维度。例如,在图像数据处理中,PCA 可以用来提取图像的主要特征,减少图像数据的维度,从而提高后续处理(如分类、检索)的效率。
- 奇异值分解(SVD):类似于 PCA,SVD 也是一种矩阵分解方法。它将一个矩阵分解为三个矩阵的乘积,通过这种分解可以提取数据的主要特征和模式。在推荐系统中,SVD 可以用于对用户 - 物品评分矩阵进行分解,挖掘用户的偏好和物品的特征,从而进行个性化推荐。
- 聚类算法:
- 强化学习
- 定义:强化学习涉及一个智能体(agent)在环境(environment)中采取一系列行动(action),以最大化累积奖励(reward)。智能体通过与环境进行交互,根据环境反馈的奖励信号来学习最优的行为策略。
- 常见算法:
- Q - 学习:是一种基于价值的强化学习算法。它通过学习一个 Q - 函数来估计在给定状态下采取不同行动的价值。Q - 函数通常以表格形式(Q - 表)存储,智能体在每个状态下选择 Q - 值最大的行动。在训练过程中,根据环境反馈的奖励和下一个状态的 Q - 值来更新当前状态和行动的 Q - 值。例如,在机器人导航中,机器人(智能体)在环境中移动,根据是否到达目标位置(奖励)来学习最优的移动路径。
- 深度 Q - 网络(DQN):将 Q - 学习与深度学习相结合。它使用神经网络来近似 Q - 函数,克服了传统 Q - 学习在处理高维状态空间时的局限性。DQN 通过经验回放(experience replay)和目标网络(target network)等技术来稳定训练过程。例如,在游戏(如 Atari 游戏)中,DQN 可以让智能体学习到如何在复杂的游戏环境中获得高分。
- 策略梯度算法:直接学习一个策略函数,该策略函数用于生成行动。策略梯度算法通过计算策略的梯度,根据奖励信号来调整策略,使得产生高奖励行动的概率增加。例如,在自动驾驶中,策略梯度算法可以用于学习车辆的驾驶策略,根据行驶的安全性、效率等奖励信号来优化驾驶行为。
DAMO开发者矩阵,由阿里巴巴达摩院和中国互联网协会联合发起,致力于探讨最前沿的技术趋势与应用成果,搭建高质量的交流与分享平台,推动技术创新与产业应用链接,围绕“人工智能与新型计算”构建开放共享的开发者生态。
更多推荐
所有评论(0)