机器学习是人工智能 (AI) 的一个子集,专注于能够“学习”训练数据模式并随后对新数据做出准确推断的算法。这种模式识别能力使机器学习模型能够在没有明确的、硬编码指令的情况下做出决策或预测。
机器学习 (ML) 是人工智能 (AI) 的一个分支,专注于使计算机和机器能够模仿人类的学习方式,自主执行任务,并通过体验和接触更多数据,不断提升其性能、预测能力和准确性。
尽管“机器学习”和“人工智能”经常互换使用,但它们并不完全同义。简而言之:所有机器学习都是 AI,但并非所有 AI 都是机器学习。
在流行的想象中,“AI”通常与科幻小说联系在一起 — 通常是通过对更恰当地称为通用人工智能 (AGI) 的描述,例如《2001: A Space Odyssey》中的 HAL 9000 或《Ex Machina》中的 Ava — 或者最近的生成式 AI。但“人工智能”是一个统称,指的是任何能够利用信息做出决策或预测而无需人类主动参与的程序。
最基本的 AI 模型是一系列 if-then-else 语句,其规则和逻辑由数据科学家明确编程。在最简单的层面上,即使是基本的恒温器也是一个基于规则的 AI 系统:当使用简单的规则进行编程时,例如
以及
恒温器能够自主决策,无需人工干预。在更复杂的层面上,由医学专家编程的庞大而复杂且基于规则的决策树可以分析症状、情况和合并症,以辅助诊断或预后。2
与专家系统不同的是,机器学习的运行逻辑不是明确编程的,而是通过经验学习的。想想垃圾邮件过滤程序:基于规则的 AI 需要数据科学家手动设计准确、通用的垃圾邮件标准,而机器学习只需要选择正确的算法和足够的样本电子邮件数据集。在训练中,模型查看样本电子邮件并预测哪些是垃圾邮件;计算其预测误差,并调整算法以减少误差;系统会重复这个过程,直到模型准确无误为止。新训练的机器学习模型已经暗中学会了如何识别垃圾邮件。
随着 AI 系统要执行的任务变得越来越复杂,基于规则的模型也变得越来越脆弱:通常,无法明确定义模型必须考虑的每一个模式和变量。机器学习系统已成为人工智能的主导模式,因为数据自身的隐式学习模式本质上在灵活性、可扩展性和可访问性方面更为突出。
机器学习通过数学逻辑进行。因此,每个数据点的相关特征(或“功能”)必须以数字形式表示,以便数据本身可以输入到数学算法中,该算法将“学习”将给定的输入映射到所需的输出。
机器学习中的数据点通常以矢量形式表示,其中数据点向量嵌入的每个元素(或维度)对应于其特定功能的数值。对于本质上是数字的数据模态,例如财务数据或地理空间坐标,这一点相对简单。但许多数据模态,例如文本、图像、社交媒体图形数据或应用程序用户行为,本质上并不是数字,因此需要功能工程才能以机器学习就绪的方式表示。
在机器学习算法中选择使用哪些数据方面的过程(通常手动)称为功能选择。功能提取技术仅将数据精简到最相关、最有意义的维度。两者都是功能工程的子集,功能工程是一门更广泛的学科,用于预处理机器学习的原始数据。深度学习的一个显著特点是,它通常对原始数据进行运算,并自动执行大部分功能工程(或至少是功能提取)过程。尽管可解释性较差,但这使得深度学习比传统机器学习更可扩展。
举一个实际示例,思考一个简单的线性回归算法,该算法基于三个变量的加权组合来预测房屋销售价格:平方英尺、房屋年龄和卧室数量。每个房子都表示为具有 3 个维度的向量嵌入:
该算法是一个简单的数学函数:
价格 =(A * 平方英尺)+(B * 房间数)- (C * 使用年限)+ 基本价格
在此处, , and 是模型参数:调整这些参数将调整模型对每个变量的权重。机器学习的目标是找到此类模型参数的最优值:换句话说,就是导致整体函数输出最准确的结果。虽然现实世界中的大多数机器学习实例都涉及更复杂的算法和更多的输入变量,但其原理仍然相同:优化算法的可调参数以获得更高的准确性。
所有机器学习方法都可以根据其训练目标的性质以及(通常但不总是)所需的训练数据类型,归类为三种不同的学习范式之一:监督学习、无监督学习或强化学习。
对于给定的模型,端到端训练过程可以而且通常确实会涉及充分利用多种学习范式的混合方法。例如,无监督学习通常用于预处理数据,以便用于监督学习或强化学习。大型语言模型 (LLM) 通常通过监督学习变体进行初始训练(预训练)和微调,然后通过 RL 技术(例如基于人类反馈的强化学习 (RLHF))进行更多微调。
在相似但截然不同的实践中,各种集成学习方法汇聚了多种算法的输出。
监督学习算法可为分类或回归等要求准确性的任务训练模型。监督机器学习为最先进的深度学习模型和仍在各行各业广泛使用的各种传统机器学习模型提供技术支持。
为了测量和优化准确性,模型的输出必须与基本事实进行比较:任何给定输入的理想或“正确”输出。在传统的监督学习中,该基本事实由标记的数据提供。垃圾邮件检测模型是在一组电子邮件数据集上进行训练的,这些电子邮件被标记为
监督学习的关键是使用损失函数来衡量一批训练输入中模型输出与基本事实之间的差异(“损失”)。监督学习的目标在数学上被定义为最小化损失函数的输出。计算损失后,就会使用各种优化算法(其中大部分涉及计算损失函数的导数)来确定减少损失的参数调整。
由于此过程传统上需要人工以数据注释的形式提供基本事实,因此被称为“监督”学习。因此,使用标记数据历来被认为是监督学习的明确特征。但从最根本层面来说,监督学习的特点是存在一些基本事实,而训练目标则是最小化衡量与基本事实偏离程度的损失函数的输出。
为了适应更加泛用的监督学习概念,现代机器学习术语使用“监督”或“监督信号”来指代任何基本事实来源。
自监督学习本质上是对未标记数据的监督学习,而半监督学习方法同时使用标记数据和未标记数据。广义上讲,半监督学习包括利用现有标记数据信息对未标记数据点进行假设的技术,以便将后者纳入监督学习工作流。
无监督机器学习算法可以辨别未标记数据中的内在模式,例如相似性、相关性或潜在分组。在人类观测者不一定能明显看到此类模式的情况下,它们最有用。由于无监督学习不假设已知的“正确”输出存在,因此它们不需要监督信号或常规损失函数,因此称为“无监督”。
大多数无监督学习方法都具有以下功能之一:
顾名思义,无监督学习算法可以被广泛理解为某种程度上的“自我优化”。例如,该动画演示了 k-means 聚类算法如何迭代优化每个聚类的质心。因此,训练无监督模型的挑战集中在有效的数据预处理和适当调整影响学习过程但本身不可学习的超参数,例如学习率或聚类数量。
监督学习通过优化模型使其与理想的样例拟合来进行训练,无监督学习算法则使自己拟合数据集,而强化学习模型则是通过反复试验进行整体训练的。它们主要应用于机器人、视频游戏、推理模型和其他用例,其中可能的解决方案和方法的空间特别大、开放式或难以定义。在 RL 文献中,AI 系统通常被称为“智能体”。
强化学习 (RL) 不使用监督学习中使用的独立的输入-输出数据对,而是对相互依赖的状态-动作-奖励数据元组进行运算。强化学习的目标不是最小化误差,而是优化参数以最大化奖励。
强化学习的数学框架主要由以下部分组成:
在基于策略的 RL 方法(如近端策略优化 (PPO))中,模型直接学习策略。在基于价值的方法(如 Q-learning)中,智能体学习一个价值函数,计算出每个状态“好”的程度,然后选择通向更高价值状态的行动。思考一个迷宫:基于策略的智能体可能会学习“在这个拐角处左转”,而基于价值的智能体会学习每个位置的分数,然后简单地移动到得分更高的相邻位置。混合方法(例如,“演员-评判家”方法)可以学习价值函数,然后用于优化策略。
在深度强化学习中,该策略以神经网络的形式表示。
两个神经元之间的每个连接都有一个唯一权重:一个乘数,用于增加或减少一个神经元对下一层神经元的贡献。这些权重以及添加到每个神经元激活函数的独特偏差项,都是通过机器学习进行优化的参数。
反向传播算法能够计算每个节点对损失函数整体输出的贡献,从而允许通过梯度下降算法对数百万或数十亿个模型权重进行单独优化。由于实现最佳结果所需的更新数量和粒度,与传统机器学习相比,深度学习需要大量的数据和计算资源。
这种分布式结构为深度学习模型提供了令人难以置信的能力和多功能性。将训练数据想象成散布在二维图形上的数据点。本质上,传统的机器学习旨在找到一条贯穿每个数据点的曲线;深度学习将任意数量的、较小的、可单独调整的线条拼凑在一起,形成所需的形状。神经网络是通用近似器:理论上已经证明,对于任何函数,都存在可以重现它的神经网络排列。3, 4
话虽如此,仅仅因为某件事在理论上是可能的,并不意味着它实际上可以通过现有的训练方法实现。多年来,即使是深度学习模型,也无法在某些任务上取得足够的性能 — 但随着时间的推移,对标准神经网络架构的修改为机器学习模型解锁了新的能力。
卷积神经网络 (CNN) 为神经网络添加了卷积层。在数学中,卷积是一个函数对另一个函数的形状进行修改(或卷积)的运算。在 CNN 中,卷积层用于通过应用加权“过滤器”从数据中提取重要功能。CNN 主要与计算机视觉模型和图像数据相关,但还有许多其他重要用例。
循环神经网络 (RNN) 设计用于处理序列数据。传统的前馈神经网络将单个输入映射到单个输出,而 RNN 则通过循环运算将输入序列映射到输出,其中输入序列中给定步骤的输出作为下一步计算的输入。实际上,这会创建一个内部“记忆”,称为隐藏状态,允许 RNN 理解上下文和顺序。
Mamba 模型是一种相对较新的神经网络架构,于 2023 年首次推出,是基于状态空间模型 (SSM) 的独特变体。与转换器一样,Mamba 模型提供了一种创新方法,可在给定时刻有选择地优先考虑最相关的信息。Mamba 最近成为转换器架构的有力竞争者,尤其是对于 LLM 而言。
机器学习的大多数应用都属于以下一个或多个类别,这些类别主要由其用例和所处理的数据模式定义。
计算机视觉是 AI 的一个子领域,涉及图像数据、视频数据以及其他需要模型或机器“看见”的数据模式,从医疗保健诊断到面部识别再到自动驾驶汽车。计算机视觉的重要子领域包括图像分类、物体检测、图像分割和光学字符识别 (OCR)。
自然语言处理 (NLP) 领域涵盖与文本、语音和其他语言数据有关的多种任务。NLP 的重要子领域包括聊天机器人、语音识别、语言翻译、情感分析、文本生成、摘要和 AI 智能体。在现代 NLP 领域,大型语言模型继续以前所未有的速度推动着最先进技术的发展。
时间序列模型应用于异常检测、市场分析和相关模式识别或预测任务。他们在历史数据方面使用机器学习,以从事各种预测用例。
扩散模型、变异自编码器 (VAE) 和生成式对抗网络 (GAN) 可用于生成原始图像,并应用从训练数据中学到的像素模式。
有许多开源工具、库和框架可用于构建、训练和测试机器学习项目。虽然此类库提供了一系列预配模块和抽象来简化构建基于机器学习的模型和工作流的过程,但从业者需要熟悉常用的编程语言(尤其是 Python)才能充分利用它们。
著名的开源库,尤其是用于构建深度学习模型的库,包括 PyTorch、TensorFlow、Keras 和 Hugging Face Transformers 库。
专注于传统机器学习的著名开源机器学习库和工具包包括 Pandas、Scikit-learn、XGBoost、Matplotlib、SciPy 和 NumPy 等。
IBM 本身维护和更新了一个重要的教程库,供初学者和高级 ML 从业者使用。
机器学习 (ML) 和人工智能(AI)有什么区别?
人工智能(AI)是使机器具备类人智能行为的广泛技术范畴,而机器学习是实现人工智能的一种方法。简单来说,人工智能包含机器学习,机器学习用数据训练模型得以实现预测、分类、优化等智能行为。
机器学习有哪些常用算法?
机器学习常见算法包括:
• 线性回归/逻辑回归算法:用于回归与分类
• 决策树、随机森林算法:树模型,易解释
• 支持向量机(SVM)算法:适合中小样本分类
• k 近邻(KNN)算法:基于距离进行分类
机器学习有哪些常见的企业应用?
机器学习被广泛用于商业价值场景助力企业提升效率和决策能力。例如:
• 用户行为预测与推荐
• 风险管理与欺诈检测
• 客户细分与市场分析
• 智能客服与语义识别
机器学习在中国市场面临什么挑战?
在中国,机器学习的发展和应用的挑战主要集中在数据、合规和模型治理层面。
• 数据质量与可用性:数据来源多样且标准不一,数据噪音和缺失会直接响机器学习模型的训练效果和准确性。
• 数据隐私与安全保护:个人信息保护和数据安全要求日益严格,企业在数据采集、存储和使用中需严格遵循相关法规
• 合规与监管要求:人工智能和数据相关法规不断完善,机器学习系统需满足本地合规和审计要求
• 数据孤岛:数据分散在不同业务系统和多部门,影响数据整合与跨场景建模能力
• 模型偏差与可解释性:训练数据和算法设计可能产生偏差,模型决策过程缺乏透明度会影响可信度和业务落地
使用面向 AI 构建器的新一代企业级开发平台 IBM watsonx.ai,可以训练、验证、调整和部署生成式 AI、基础模型和机器学习功能。使用一小部分数据,即可在很短的时间内构建 AI 应用程序。
借助 IBM 业界领先的人工智能专业知识和解决方案组合,让人工智能在您的业务中发挥作用。
通过增加 AI 重塑关键工作流程和运营,最大限度提升体验、实时决策和商业价值。
所有链接均为 ibm.com 外部链接
1.《Some Studies in Machine Learning Using the Game of Checkers》,《IBM Journal》(通过麻省理工学院访问),1959 年 7 月 3 日
2.《Using Decision Trees as an Expert System for Clinical Decision Support for COVID-19》,《Interactive Journal of Medical Research》第 12 卷,2023 年 1 月 30 日
3.《Kolmogorov's Mapping Neural Network Existence Theorem》,《Proceedings of the IEEE First International Conference on Neural Networks》(通过滑铁卢大学访问),1987 年
4.《Multilayer Feedforward Networks with a Non-Polynomial Activation Function Can Approximate Any Function》,Center for Research on Information Systems(纽约大学),1992 年 3 月