什么是机器学习算法?

作者

Dave Bergmann

Senior Staff Writer, AI Models

IBM Think

什么是机器学习算法?

机器学习算法是一种程序和数学逻辑,通过这种程序和逻辑,“机器”(人工智能 (AI) 系统)学习识别训练数据中的模式,并将这种模式识别应用于对新数据进行准确预测。机器学习算法是现代 AI 和数据科学的基本构建块,从简单的线性回归模型到尖端深度学习技术。

术语“算法”和“模型”经常互换使用,但它们代表的是不同(尽管相关)的概念。算法是通用术语,是一种按步骤进行的过程,通常用数学语言或伪代码来描述,以实现某种功能或目的。在人工智能的背景下, AI 模型是接收输入数据并输出预测或决策而无需进一步人工干预的任何程序。

机器学习算法是一组定义的步骤,用于训练机器学习模型,使其能够在实际应用中做出有用的预测。它不仅包括模型将输入数据点映射到相应输出的方式,还包括优化模型预测以“拟合”相关示例的训练数据集的过程。这是一种使机器能够从数据中学习算法

简单来说,将机器学习算法应用于数据集的结果就是一个训练有素的模型。“训练”可以理解为一种迭代过程,即更新模型的参数——模型用于对输入数据进行预测或决策的数理逻辑的可调整部分,以产生更有用的输出。

虽然存在一些专门用于训练模型以执行单一特定任务的机器学习(ML)算法,但这只是例外,而不是常态。一般来说,每种 ML 算法都有特定的数学或实际特性,适用于某些类型的任务(或某些类型或数量的数据)。在许多情况下,相同的机器学习可用于训练多个(类似)任务的模型。反之,对于任何给定的任务,几乎总是有多种 ML 算法适合训练模型。

ML 算法的核心优点在于,它们能让 AI 模型从经验中隐式地学习。这与“经典”或“基于规则”的人工智能技术形成鲜明对比,后者需要数据科学家、主题专家或 ML 工程师对模型的决策逻辑进行手动和明确的编程。在过去几十年中,机器学习系统作为人工智能和数据分析的主要模式,取代了基于规则的 AI,原因之一是,隐式的、数据驱动的机器学习本质上更具灵活性、可扩展性和易用性。

话虽如此,必须强调的是,将模型拟合到其训练数据只是达到目的的一种手段。机器学习的基础前提是,如果能在与实际问题充分相似的样本任务上优化模型的性能,那么经过训练的模型也将在训练中未见过的数据上表现出色。机器学习的最终目标是泛化,即将训练数据的性能转化为新的、未见过的数据。如果只关注训练本身,就有过度拟合的风险,这是一种模型的知识如此贴合其训练数据中的模式,以至于它无法泛化,从而产生一个在训练中表现出色但在实际场景中失败的模型。

因此,训练一个有用的机器学习模型不仅涉及选择和配置合适的机器学习算法类型,还需要对训练数据进行策划,并对训练后的性能进行深思熟虑的验证。

专家为您带来最新的 AI 趋势

获取有关最重要且最有趣的 AI 新闻的精选洞察分析。订阅我们的每周 Think 时事通讯。请参阅 IBM 隐私声明

谢谢!您已订阅。

您的订阅将以英语提供。您会在每份时事通讯中找到一个取消订阅链接。您可以在此处管理您的订阅或取消订阅。有关更多信息,请参阅我们的 IBM 隐私声明

机器学习算法的类型

机器学习算法可以分为三个基本类别:监督学习、无监督学习或者强化学习。这三种学习范式主要区别在于它们各自不同的目标、这些目标所涉及的训练任务类型以及用于优化这些任务性能的技术。

  • 监督学习算法可训练模型来预测给定输入的“正确”输出:换句话说,学习自变量(输入数据的功能)和因变量(输出或“目标”)之间的关系。它们用于训练模型,以完成相对于某些已知“基本事实”(例如分类或回归)具有一定准确度的任务。这种基本事实通常(但并非总是)以标记数据的形式出现:已注释数据,为模型提供上下文(例如,包含标注的数据集) [input, output] 配对的数据集。。

  • 无监督学习算法可训练模型来辨别未标记数据集中的内在模式、依赖关系和相关性。与监督学习不同,无监督学习并不要求存在任何外部基本事实,其输出结果也不需要与之进行比较。

  • 强化学习 (RL) 算法通过反复试验来训练模型,以评估其环境并采取能够获得最大奖励的行动。强化学习非常适合不存在任何单一基本事实、但确实需要“好”行为(奖励)和“坏”行为(惩罚)的场景。监督学习算法的目标是以最小化误差的方式优化参数,而强化学习算法的目标是以最大化奖励的方式优化模型参数。

虽然没有任何一种 ML 算法符合这三种范式,但有些学习方法的分类相对模糊。例如,监督学习结合了监督学习和无监督学习;监督学习通过操作输入数据和设计训练任务,使无标记数据也能进行监督学习。

一个模型可以用多种类型的机器学习算法进行训练。例如,大型语言模型 (LLM) 通常通过自监督学习进行初始训练(“预训练”),但随后通过传统的监督学习算法和强化学习算法进行微调。同样,集合学习算法需要将多个模型聚合成一个“最终”模型。

机器学习算法并不是以一应万的算法:每种算法都有不同的超参数,必须根据模型要运行的具体场景和数据集进行配置。打个比方,做披萨的基本“算法”之一可以定义为在圆形面团上浇上番茄酱,再在酱上放上马苏里拉奶酪,然后放进烤箱烤——但这个“算法”有近乎无限多种具体的配置方式,可以满足特定的口味、食材、预算或者限制条件。

Mixture of Experts | 8 月 28 日,第 70 集

解码 AI:每周新闻摘要

加入我们世界级的专家小组——工程师、研究人员、产品负责人等将为您甄别 AI 领域的真知灼见,带来最新的 AI 资讯与深度解析。

监督学习算法

任何监督机器学习算法的正式目标都是优化模型参数,使 损失函数的输出最小化,该函数用于测量模型对每个输入的预测输出与对每个输入的真实输出之间的差异(“损失”)。

在传统的监督学习中,该基本事实由标记数据提供。例如,训练一个检测垃圾邮件的模型通常需要人工标注者手动审查一系列示例邮件,并将每封邮件标记为“垃圾邮件”或“非垃圾邮件”。训练模型的目标是调整模型参数,直到模型对给定邮件的输出预测与人工对该邮件的标记一致。由于这种方法涉及人类直接监督机器的学习内容,因此被称为“监督”学习。反过来,监督学习通常被简单定义为使用标记数据的机器学习

但在某些情况下,尤其是在现代深度学习中,需要如此庞大的数据集和如此复杂的数据点,使得获取足够的标记训练数据变得过于耗时和费力。自监督学习主要是为了解决这类场景而开发的,它设计训练任务,使得可以从未标记的数据中推断出标签(或“伪标签”)。这挑战了监督学习的传统定义,即需要标记数据。因此,监督学习算法被更好、更广泛地定义为机器学习方法,它涉及某些真实情况(或“监督信号”)来优化模型,以及一些将模型输出与真实情况进行比较的损失函数。

监督学习算法用于训练分类任务和/或回归任务的模型。

  • 分类涉及离散预测,例如数据点所属的具体类别。分类任务可以是二元的,“是”或“否”、“批准”或“拒绝”、“垃圾邮件”“非垃圾邮件”,也可以是多类。一些分类算法仅适用于二元分类,但任何多类别分类器都可以执行二元分类。

  •  回归用于预测连续值,例如数量、价格、持续时间或温度。它们被用于时间序列分析、预测、定价和概率预测等多种用例。

许多监督学习算法可以用于训练回归或分类模型。。例如,模型可以使用回归来预测给定数据点属于每个潜在类别的概率,然后输出概率最高的类别。

常见的回归算法

  • 线性回归 是基础且广泛使用的机器学习算法之一。线性回归算法将输出(因变量)计算为一个或多个输入变量(自变量)的加权组合。通过学习每个输入变量的最佳权重,该算法可以为训练中看到的数据点产生“最佳拟合线”。线性回归还有许多变种和扩展,它们使用类似的逻辑来模拟因变量和自变量之间更多的数学关系,如多项式回归(模拟非线性的曲线关系)量化回归(模拟数据集分布中特定点的关系)。

  • 决策树算法通过 if-then-else 决策的分支序列得出最终输出预测,这些决策可以可视化为树状图。它们可以用于回归和分类。与大多数监督学习算法不同,该算法的目标不是通过最小化单一的全局损失函数来优化其输出,而是优化树中每个节点的预测能力。

  • 状态空间模型 (SSM) 通过两个相互关联的方程对动态系统和序列数据进行建模:一个是状态方程,描述不可直接观察的系统内部动态信息(“状态”);另一个是输出方程,描述这些内部动态与可观察结果(即系统输出)之间的关系。它们被广泛应用于从电气工程到金融预测再到自然语言处理自然语言处理 (NLP) 等多个领域。

常见分类算法

  • 朴素贝叶斯分类器基于贝叶斯定理的逻辑运算,该定理本质上是对以下思想的数学表述:来自后续事件(例如结果)的信息可以用来更新对早期事件(例如输入)的理解。换句话说,模型会根据给定输入变量与特定结果的关联程度,学习该变量的相对重要性。它同名的“朴素”假设是,所有对分类有贡献的特征都是彼此独立的。这种简化使算法在垃圾邮件检测等简单任务中快速有效。

  • 逻辑回归采用线性回归算法来解决二元分类问题,方法是将输入的加权和输入到 sigmoid 函数中,将任何输入压缩为 0 到 1 之间的值。结果值可以解释为给定事件(在本例中为特定分类)发生的概率。

  • K 最近邻 (KNN) 算法根据数据点在向量嵌入空间中与其他已分类(即已标记)数据点的接近程度对数据点进行分类,其假设是相似的数据点可以彼此靠近。k 是指考虑了多少个相邻数据点:例如,在 k = 5 的 KNN 算法中,输入数据点将与其 5 个最近邻进行比较,并根据这 5 个相邻数据点中代表最多的类别进行分类。

  • 支持向量机 (SVM) 是一种强大的模型,表面上执行二元分类,但也可以适用于多类分类问题。SVM 算法的目标不是直接学习如何对数据点进行分类,而是学习最佳决策边界来区分两类已标记的数据点,以便根据新数据点落在边界的哪一侧来对其进行分类。SVM 算法将这一边界定义为使相反类的数据点之间的边际(或差距)最大化的超平面,这一概念类似于半监督学习中的低密度假设。从逻辑上讲,唯一能支持超平面计算的数据点是最接近边界的每一类数据点。因此,这些边界相邻数据点的向量嵌入被称为支持向量

自监督学习算法

自监督学习算法的目标是通过设计任务,利用未标记数据本身的结构作为监督信号,在不需要标记数据的情况下进行监督学习。自监督学习技术通常分为两个子集:自预测对比学习。

自预测

自预测算法的思路是训练一个模型,让它根据数据点的已知信息来预测其未知部分。Yann LeCun 曾用简单的语言阐明这种方法的目标:“假装有一部分输入是你不知道的,然后预测它。” 1 例如:

  • 任何其他部分预测输入的任何部分
  • 过去预测未来
  • 可见区域预测屏蔽区域
  • 从所有可用部分预测任何屏蔽部分

使用自预测训练的模型通常是生成型,而非判别型。使用自预测算法训练的机器学习模型的著名示例包括自编码器大型语言模型 (LLM)

  • 自编码器的任务是在将输入压缩到只剩下潜在变量后,重建原始输入。原始输入作为基本事实。

  • 自回归 LLM(ChatGPT 推出后广泛流行的文本生成模型)的任务是根据序列中已出现的令牌,一步步预测下一个令牌。对于每个预测,序列中的实际下一个令牌就是标准答案。

对比学习

对比学习算法为模型提供多个数据样本,并要求它们预测这些样本的不同(或相似)程度。数据点的配对通常通过数据增强创建:转换或干扰未标记的数据,以创建新的实例或增强视图。例如,常见的图像数据增强技术包括旋转、随机裁剪、翻转、噪点、滤波和着色。

对比学习主要用于计算机视觉模型的训练:例如,它可以帮助模型学习从不同角度识别同一物体。它在多模态 AI 的训练中也至关重要:例如,它可以帮助模型学习将向量嵌入从一种数据模态(如文本)“翻译”为另一种数据模态(如语音或图像)。

无监督学习算法

无监督机器学习用于教授模型发现未标记数据中的内在模式、相关性和结构。与监督学习(模型应学会输出“正确”答案)或强化学习(模型可采取“好”和“坏”的行动)不同,无监督学习在事先不知道理想输出的场景中最有用。

这些目标不受任何预定义的基本事实或奖励结构的约束,因此称为“无监督”。因此,无监督学习算法不涉及损失函数,因为它们的任务不需要通过已知的理想结果予以衡量和优化。学习过程的成功与否主要取决于人工超参数调整而不是通过优化模型内部参数的算法。

无监督学习算法有三个基础子集:聚类算法、 关联算法和降维算法。

集群算法

聚类算法根据彼此的接近度或相似性将未标记的数据点划分为“聚类”或分组,常用于市场细分等任务。它们还可以作为预测模型,用于异常检测,方法是学习所有数据点应该归入的聚类,并在异常值数据点不适合归入任何聚类时进行识别。

  • K 均值聚类算法将数据划分为 k 个聚类,给定的数据点会被分配到离它最近的中心点(质心)所在的聚类。这一过程开始时,会随机初始化 k 个质心的位置(也可通过指定规则确定)。每个数据点被分配到最近的质心所在的聚类。随后,每个质心被重新定位到刚分配给它的所有数据点的平均位置;数据点再次根据最近的质心重新聚类,质心位置再次调整。这一过程迭代重复,直到每个聚类的质心位置稳定下来。
  • 高斯混合模型 (GMM) 是一种“软”聚类算法。GMM 假设数据集是由多个高斯分布(即经典的“正态分布”或“钟形曲线”)混合而成的,并预测每个数据点属于这些正态分布聚类的概率。GMM 算法旨在学习每个高斯分布的参数——特别是每个分布的均值、方差和权重——以最好地拟合训练数据集。
  • DBSCAN(基于密度的带噪声应用空间聚类)利用密集分布的数据点创建聚类。它不会将所有数据点都归入聚类中,而是将低密度区域中孤立的数据点标记为异常值。它根据指定半径内是否存在一定数量的邻近数据点来判定区域是否足够密集以形成一个聚类。与 k 均值不同,DBSCAN 发现任意形状的聚类,且无需预先指定聚类的数量。

关联算法

  • 关联算法可以识别数据集中变量之间的相关性。它们在市场篮子分析或产品推荐引擎等任务中得到了广泛应用:例如,电子商务服务可能会使用关联算法来识别哪些商品经常被同时购买,并利用这些信息在库存中动态推广相关商品。

  • Apriori 算法是一种经典的关联方法。该算法采用“自下而上”的方法,多次遍历数据集,探索逐渐增大的单个项目组合的频率,并剔除出现频率较低的组合。先验原则认为,如果一个较大的项目组合被认为是频繁的,那么该组合的任何子集也必须是频繁的;反之,如果一个较小的项目组合被认为是不频繁的,那么任何包含该较小组合的超集也必须是不频繁的。虽然 Apriori 算法简单且适应性强,但它可能会变得内存密集且计算成本高昂。

  • 动态项集计数法(DIC)是一种更节省计算资源的关联方法,不过它的运行逻辑与经典的 apriori 算法类似。它不是在每次遍历时探索整个数据集,而是从数据库的一个子集开始,然后定期添加新项目,“动态地”扩大其关注范围。

其他值得注意的关联算法包括 CHARM(封闭关联规则挖掘的缩写——CHARM 论文作者指出“H 是多余的”)2 CARMA(连续关联规则挖掘算法)。3

降维算法

降维算法就是把一个数据点输入进去,然后输出一个更有效的数据点表示方法。更具体地说,它们是为了学习如何把高维数据点映射到一个可以用更少特征来准确描述的空间里,换句话说,就是减少有效表示数据所需的维度数量。

降维通常会作为数据预处理的一步,帮助减少数据的复杂性和噪声,以便提高预测的准确性或者降低计算需求。它也是构建数据集潜在空间模型的关键步骤:这是一个压缩过的(低维)数据表示,只保留了与手头任务最相关的特征子集。其他常见的降维用例包括数据压缩和数据可视化。

  • 主成分分析 (PCA) 通过把数据的原始变量(这些变量之间通常会相互关联,所以有些冗余)汇总为一个更小的不相关变量子集来简化复杂的数据集,每个不相关变量都是原始变量的线性组合。更具体地说,这个算法会优先考虑数据的主成分:也就是和其他线性组合相比方差最大的变量线性组合。

  • T 分布随机邻域嵌入 (t-SNE) 是一种非线性降维算法,通常用于数据可视化。它几乎只用于把数据表示在二维或者三维空间里,主要目标是确保在高维空间里彼此靠近的数据点在新的低维空间里也彼此靠近。

  • 自编码器是一种神经网络架构,通过一种通常被认为是自监督学习算法的方法来训练(因为它的目标是最小化损失函数),但它们还是对未标记的数据进行了降维处理,也就是建模潜在空间。编码器由一系列逐渐变小的层组成,迫使输入数据通过一个“瓶颈”,在数据到达解码器之前将数据“压缩”到越来越少的维度。解码器由一系列逐渐 变大的 层组成,它的任务是利用这种压缩过的表示来重建原始数据,目标是最小化重建损失。这迫使编码器学习仅提取和传递最有利于精确重构原始输入的信息。

半监督学习算法

半监督学习通常用于与监督学习方法相同的用例,其区别在于将未标记数据与标记数据子集一起纳入模型训练的技术。在获取足够的标记数据过于困难或昂贵,但相关的非标记数据相对容易获取的情况下,它们尤其有用。

半监督学习中使用的未标记示例必须与训练模型要执行的任务相关。例如,在训练图像分类器区分猫和狗的图片时,加入未标记的猫和狗的图片会有助于训练,但加入马和摩托车的图片则不会。这一条件提供了一系列关于数据点如何相互关联的假设,这些假设提供了半监督方法的形式逻辑。

半监督学习算法通常分为转导方法、归纳方法或固有自监督方法。

  • 转导方法侧重于对训练过程中获得的未标记数据点进行分类,以便随后将其应用于传统的监督学习算法。例如,标记传播是一种基于图形的方法,它通过将已知标记“传播”到位于图形相邻节点上的数据点,推断未标记数据的“伪标记”。

  • 归纳方法旨在建立一个可推广的模型,既能对训练过程中出现的未标记数据进行分类,也能对任何新的、未见过的数据点进行分类。在自我训练中,首先在小型标记数据集上使用传统的监督学习训练模型,然后,该模型的任务是对未标记的数据点进行概率预测;仅接受超过一定置信度阈值的预测。协同训练通过集成学习扩展自我训练,根据数据的不同功能训练不同类型的基础学习器。先聚类后标记方法对所有可用数据点执行无监督聚类,然后根据该聚类中最常表示的标记为每个聚类分配标记。

  • 有些算法,如梯形网络4 半监督式支持矢量机(S3VM)5 本身就是为半监督学习设计的(而转导和归纳方法则是对传统监督算法进行调整或增加额外步骤)。

强化学习算法

强化学习 (RL) 算法适用于没有单一“正确”输出(或动作),但有“良好”输出的任务。这类算法主要应用于机器人、视频游戏、推理模型以及其他可能的解决方案和方法空间特别大、开放式或难以定义的用例。在强化学习的术语中,被训练的实体通常被称为“智能体”。

强化学习不是依赖监督信号和明确定义的任务,而是需要一个奖励信号 ,让模型通过试错进行全面学习。这种奖励信号可以来自奖励函数、单独训练的奖励模型或基于规则的奖励系统。

强化学习算法可优化策略。从数学上讲, 策略 ( π ) 是一个函数,它以状态 ( s ) 作为输入并返回动作 ( a):   π(s)→a。强化学习算法的目标是学习在任何给定状态下采取将获得最大奖励的行动的策略。

强化学习算法可以是基于价值的基于策略的。在基于策略的算法中,模型直接学习最优策略。在基于价值的算法中,智能体学习一个价值函数,该函数计算每个状态的“好”程度的分数(通常基于可以从该状态采取的行动的潜在奖励),然后选择导致更高价值状态的行动。混合方法学习价值函数,然后使用该函数来优化策略。

著名的强化学习算法包括:

  • Q-learning,源自基于价值的方法

  • 近端策略优化 (PPO) 是一种基于策略的方法,广泛应用于基于人类反馈的强化学习 (RLHF)
    演员-评判家及其衍生概念(如优势演员-评判家 (A2C))采用价值导向和策略导向相结合的方法

  • REINFORCE (REward Increment = Nonnegative Factor × Offset Reinforcement × Characteristic Eligibility 的缩写),一种开创性的基于策略的方法

集成学习算法

集成学习是指将多种机器学习算法(在这里通常称为“学习器”)组合起来,这样就能比单独使用任何一个算法得到更准确或者更可靠的性能。

集成学习算法通常利用提升、堆叠装袋技术。

Boosting

提升算法采用顺序构建模型的方式,每个后续模型都专门修正前一个模型的错误。最初这些“弱”学习器通过不断迭代,最终融合成一个高度精确的“强”学习器。

  • 自适应提升AdaBoost会为前序模型误判的样本分配更高权重,确保后续模型优先修正这些样本的处理能力。最终预测结果采用加权投票机制,后期越精准的模型对最终结果的影响力越大。

  • 梯度提升专注于之前学习器所犯的错误,而不是先前模型出错的数据点。更具体地说,它训练每个模型来纠正(即预测)先前模型在给定数据点上所犯的错误。通过汇总每个后续模型的预测结果,集合模型最终可以为原始数据点逆向设计出正确的输出结果。XGBoost(eXtreme Gradient Boosting 的缩写) 是一个开源机器学习库,用于高效实施梯度提升。

Bagging

Bagging 算法,也称为 bootstrap 聚合,在数据集的不同随机采样子集上并行训练多个模型,然后通过投票(在分类问题中)或平均(在回归问题中)将它们的预测结果结合起来。这种方法在减少方差和防止过度拟合方面非常有效。

例如,随机森林算法使用 Bagging 来构建不相关的决策树模型集合。

Stacking

堆叠算法结合来自多个基础学习器的预测(每个学习器通常专门从事特定类型的预测),然后基于这些基础模型的输出训练一个最终的“元模型”,从而学会如何最优整合它们的预测,以得到更准确、更稳健的最终结果。

在相关的知识蒸馏技术中最终模型不仅根据基础学习器的最终输出预测(“硬目标”)进行训练,还根据它们的中间输出(“逻辑值”或“软目标”)进行训练,试图复制它们的“思维过程”。

深度学习算法

深度学习机器学习的一个子集,由多层人工神经网络的使用所定义,通常通过对标记数据的监督学习或(尤其是生成式 AI 模型的情况下)对无标记数据的自监督学习进行训练。在深度强化学习中,深度神经网络作为强化学习智能体的策略。自 2010 年代初以来,深度学习推动了人工智能领域的大部分最新进展。其最重要的优势之一是能够自动化特征工程的过程,而这个过程在传统机器学习中通常是手工完成的。

与“传统”机器学习中明确定义的算法不同,深度学习模型由许多相互连接的“神经元”(或“节点”)层组成,每个神经元都执行一个数学运算(称为“激活函数”)。每个神经元激活函数的输入是上一层每个神经元激活函数输出的加权组合。最后一层的神经元计算模型的最终输出。至关重要的是,每个节点执行的激活函数都是非线性的,这使得神经网络能够模拟复杂的模式和依赖关系。尽管现代 AI 中的神经网络通常与尖端的深度学习有关,但“非深度”神经网络如受限制的玻尔兹曼机已经使用了数十年。

深度学习算法的分布式结构赋予了其令人难以置信的强大功能和多功能性。想象一下训练数据就像散落在二维图表上的数据点,而模型训练的目标是找到一条穿过每个数据点的线。传统的机器学习算法试图用一个单一的数学函数(产生一条线或曲线)来完成这一壮举,而深度学习算法可以拼凑任意数量的更小的、可单独调整的线段来形成所需的形状。深度神经网络是通用近似器:理论上已经证明,对于任何函数,都存在一种神经网络排列可以复制它。6

架构与算法

  • 在深度学习的背景下,特定的模型类型通常由其“架构”来指代,这是一个与算法相关但又不同的概念。

  • 神经网络架构指的是其布局:层的数量和大小;专门层的使用;激活函数的选择。同一个神经网络架构通常可以经过训练,执行多种类型的任务或处理多种数据模态中的一种。

  • 深度学习算法不仅包括用于模型的神经网络架构,还包括训练模型执行的任务以及为该任务优化所采取的步骤。

自编码器:从架构上讲,自编码器是一种编码器-解码器模型 — 其编码器网络的层级逐渐变小,而其解码器网络的层级逐渐变大。但是,自编码器只是众多编码器-解码器模型之一:例如,图像分割模型具有非常相似的架构,其中逐渐减小的卷积层对数据进行下采样,以分离和分割关键特征,然后逐渐增大的层将(分割后的)数据上采样回其原始大小。

自编码器之所以成为自编码器,不仅在于其架构,还在于训练它的算法:自编码器的任务是重建原始输入,并通过模型训练进行优化,以最小化衡量重建损失的函数(通常由额外的正则化项修改)如果一个模型的结构完全相同,但训练它执行不同的任务并针对不同的对象进行优化,那么这个模型就不是自编码器。

相关解决方案
IBM watsonx.ai

使用面向 AI 构建器的新一代企业级开发平台 IBM watsonx.ai,可以训练、验证、调整和部署生成式 AI、基础模型和机器学习功能。使用一小部分数据,即可在很短的时间内构建 AI 应用程序。

了解 watsonx.ai
人工智能 (AI) 解决方案

借助 IBM 业界领先的人工智能专业知识和解决方案组合,让人工智能在您的业务中发挥作用。

深入了解 AI 解决方案
AI 咨询与服务

通过增加 AI 重塑关键工作流程和运营,最大限度提升体验、实时决策和商业价值。

深入了解人工智能服务
采取后续步骤

一站式访问跨越 AI 开发生命周期的功能。利用用户友好型界面、工作流并访问行业标准 API 和 SDK,生成功能强大的 AI 解决方案。

深入了解 watsonx.ai 预约实时演示
脚注

所有链接均位于 ibm.com® 外部。
1.《Energy-Based Self-Supervised Learning》,Yann LeCun(通过加州大学洛杉矶分校访问),2019 年 11 月 19 日
2.《CHARM: An Efficient Algorithm for Closed Itemset Mining》,《Proceedings of the 2002 SIAM International Conference on Data Mining》
3.《Online Association Rule Mining》,《Proceedings of the 1999 ACM SIGMOD International Conference on Management of Data》,1999 年 6 月 1 日
4.《Semi-Supervised Learning with Ladder Networks》,arXiv,2015 年 11 月 24 日
5.《Kolmogorov’s Mapping Neural Network Existence Theorem》,《Proceedings of the IEEE First International Conference on Neural Networks》(通过滑铁卢大学访问)1987 年
6.《Multilayer Feedforward Networks with a Non-Polynomial Activation Function Can Approximate Any Function》,Center for Research on Information Systems(纽约大学),1992 年 3 月