8 分钟
与通用中央处理器 (CPU) 相比,强大的图形处理单元 (GPU) 通常是机器学习 (ML)、深度学习 (DL) 和神经网络等要求严格的人工智能 (AI) 应用技术的首选。
图形处理单元 (GPU) 具有数百到数千个处理内核,在训练机器学习模型所需的并行处理和浮点计算类型方面表现优异。不过,在某些类型的 AI 模型中,CPU 也可以胜任,尤其是对于较轻的工作负载。
GPU 最初是为图形渲染而设计的,通常被称为“显卡”。但这些强大的处理器的功能远不止于此。高速计算能力和先进的并行处理功能使得 GPU 在机器人、高性能计算 (HPC)、数据中心乃至人工智能等行业中备受青睐。
虽然中央处理单元 (CPU) 的功能不如 GPU 强大,但它是任何计算机系统中最关键的组件。CPU 通常被称为“计算机的大脑”,它可处理所有高级计算机管理任务,包括管理 GPU(如果有)。
虽然大多数机器学习任务确实需要更强大的处理器来解析大型数据集,但许多现代 CPU 足以满足部分小规模机器学习应用的需求。虽然 GPU 在机器学习项目中更受欢迎,但需求增长可能导致成本攀升。此外,GPU 所需的能源比 CPU 更多,以致推高能源成本并加剧环境影响。
为机器学习项目选择处理器时,CPU 可能更具成本效益,尽管大多数中高级的 AI 项目都能从 GPU 的并行处理中获益。
在计算机科学中,机器学习 (ML) 是对某些类型算法的研究、实践和应用,旨在利用计算机模仿人类学习自主执行任务的方式。具有机器学习能力的计算机可以通过重复接触更多数据来逐渐提高输出精度。
机器学习算法可以分为三个基本组成部分:决策过程、误差函数和模型优化过程。
根据所采用的算法类型和使用的数据规模,机器学习可分为三种主要类型。虽然“深度学习”一词通常与“机器学习”交替使用,但深度学习是神经网络的一个子集,而神经网络是机器学习的一个子集。
这三个术语都可以视作人工智能 (AI) 的子集,并且都隶属于机器学习的范畴;然而,它们之间存在细微差异:
AI 技术的最新进展使机器学习应用程序在行业和日常生活中得到普及。一些常见的机器学习用例包括:
CPU 和 GPU 之间的主要区别在于顺序处理与并行处理。CPU 设计为按顺序处理指令和快速解决问题。GPU 专用于可从并行计算获益的大型任务。由于 GPU 能够更好地将重大问题分解为可以同时解决的较小问题,因此,GPU 可以提高机器学习密集型应用的速度和效率。
CPU 设计为执行基本计算、媒体播放和网页浏览等一般计算任务。作为计算机的“大脑”,它们还处理计算机硬件和操作系统顺利运行所需的所有后台进程和功能。
功能:
优点:
缺点:
GPU 最初是为渲染图形而设计的,但自从 Nvidia 于 2006 年推出 GPU 编程平台 CUDA 以来,开发人员就为这些强大的处理器构建了无数应用程序。除了 CPU 之外,还可以使用 GPU 来增强系统渲染高质量视频内容或处理大型复杂数据集的能力。
功能:
优点:
缺点:
CPU 和 GPU 之间的差异主要归结为三个方面:架构、处理速度和可访问性。
CPU 和 GPU 都是处理单元。它们都能够处理类似任务,并根据特定应用的需求提供不同的性能等级。虽然两者都可以被视为单个单元,但它们都是为不同类型的操作设计和布置的不同组件的集合。
在 GPU 之前,CPU 是所有计算机系统中最重要、最基本的部件,从笔记本电脑和智能手机到卫星和超级计算机都是如此。CPU 如同隐形的管理器,可读取和解读输入与请求,并发出指令进行计算和监督计算机系统的全部操作。
尽管 GPU 功能更强大,但 GPU 并不用于替代 CPU。相反,GPU 作为协处理器用于增强计算机系统的功能。在使用 GPU 的系统中,CPU 在管理 GPU 任务和所有其他处理任务方面仍然发挥着重要作用,这些任务虽然不是资源密集型,但仍然是计算机功能不可或缺的一部分。
在大规模数据处理中,使用性能不足的 CPU 经常会造成令人沮丧的瓶颈。机器学习算法是计算机科学和数据科学的交叉领域,通常依赖 GPU 来加快用于深度学习模型训练的大规模数据集处理,同时减少延迟。这是因为,即使是多核 CPU,处理数据的方式也与 GPU 不同。
从结构上看,GPU 内核的数量通常可达数千个,而大多数消费级 CPU 仅包含一个、两个、四个或六个内核。服务器级 CPU 或许包含数百甚至数千个内核,但内核数量本身无法决定性能优劣。
多核 CPU 比单核 CPU 更擅长多任务处理,但仍需按顺序处理数据。GPU 通过称为“并行计算”的过程,以不同的方式处理数据。GPU 并非按顺序处理任务,而是将问题分解为多个部分,并利用其众多内核同时处理问题的不同部分。
对于要求严苛的任务,如实现 AI 系统的计算机视觉或生成式 AI 程序,并行计算的性能远超顺序处理。
具有出色的并行处理能力的 GPU 仍然是 AI 项目的关键组件。具体来说,在机器学习中,GPU 用于缩短机器学习应用程序的训练时间,并执行机器学习系统进行推理和产生有用结果所需的张量数学和矩阵乘法。
IBM Cloud Infrastructure Center 是一款兼容 OpenStack 的软件平台,用于管理 IBM zSystems 和 IBM LinuxONE 上的私有云基础架构。
发现专为企业混合云和 AI 策略设计的服务器、存储器和软件。
查找适合企业的业务需求的云基础设施解决方案,并按需扩展资源。