人工智能计算是机器学习系统和软件所做的工作,它可以对海量的数据进行筛选,从中获得有洞察的信息并生成新的能力。
算盘、六分仪、算尺和计算机等数学工具见证了人类的进步史。这些数学工具帮助人们往来贸易、征服大海,并提高了人们的认知与生活质量。
如今,人工智能(AI)计算成为了最新的数学工具,正推动着科学和工业的发展。
AI 计算的定义
AI 计算是一种计算机器学习算法的数学密集型流程,通常会使用加速系统和软件,它可以从大量数据集中提取新的见解并在此过程中学习新能力。
我们如今生活在一个数据时代,因此,AI 计算是这个时代的革命性技术,它能够找到人类无法找到的规律。
例如,美国运通使用 AI 计算来检测每年数十亿次信用卡交易中的欺诈行为;医生使用 AI 计算来寻找肿瘤,并在无数医疗影像中发现细微的异常情况。
AI 计算的三个步骤
在介绍众多 AI 计算用例前,我们先来了解一下它是如何运作的。
首先,用户(通常是数据科学家)需要整理和准备数据集,这个阶段称为提取/转换/加载(ETL)。这项工作现在可以通过 Apache Spark 3.0 在 NVIDIA GPU 上加速进行。Apache Spark 是目前最流行的开源大数据挖掘引擎之一。
然后,数据科学家会选择或设计最适合其应用的 AI 模型。
一些在开拓新领域或寻求竞争优势的公司会从头开始设计并训练自己的模型。这个过程除了需要一定的专业知识外,还可能需要一台 AI 超级计算机和 NVIDIA 的帮助。
机器学习运维(MLOps)更加详细地描述了 AI 计算的三个主要步骤——ETL(最上面的一行)、训练(右下)和推理(左下)。
许多公司选择采用预训练 AI 模型并根据其应用需求进行自定义。在提供软件、服务和支持的门户网站 NVIDIA NGC 上,有几十种预训练模型和定制工具可供使用。
最后,公司会通过他们的模型来筛选数据。这个关键步骤被称为推理,AI 将会在这个步骤中提供可行的洞察与见解。
这三个步骤需要消耗很多精力,但好在每个人在各种帮助下都能够使用 AI 计算。
例如,NVIDIA TAO 工具套件可以使用迁移学习将三个步骤简化为一个,这种方法不需要大型数据集就能为新的应用定制现有的 AI 模型。除此之外,NVIDIA LaunchPad 还为用户提供了各种模型部署用例的实践培训。
AI 模型的内部构造
AI 模型被称为神经网络,其灵感来自于人类大脑内部的网状构造。
这些 AI 模型展开后看起来就像是由多层线性代数方程组成的数学“千层面”。深度学习作为目前最流行的一种 AI 形式,得名就是因为它由许多这样的‘层’组成。
识别图像的深度学习模型示例(选自美国国家科学院的一篇关于深度学习的文章,图片来源:艺术家 Lucy Reading-Ikkanda)
进一步聚焦,你就会看到每一层都由众多方程式堆栈组成,每个方程式都代表着一组数据相互关联的可能性。
AI 计算将每一层中的每一个方程堆栈相联系,以寻找规律。这是一项庞大的工程,需要高度并行的处理器在高速计算机网络上共享大量数据。
GPU 计算与 AI 的结合
事实上,AI 计算的引擎是 GPU。
NVIDIA 于 1999 年推出了第一款 GPU,用于需要大规模并行计算的电子游戏 3D 图像渲染。
GPU 计算很快被推广到电影大片的图形服务器中。科学家和研究者在世界上最大的超级计算机上使用 GPU,其可应用的研究范围小到化学中的微小分子,大到天体物理学中的遥远星系。
当 AI 计算在十多年前出现时,研究者很快就开始使用 NVIDIA 的可编程平台运行并行处理。下面的视频简单回顾了 GPU 的历史。