科技公司的目标是更小、更精简的人工智能模型

2025-01-10 18:34来源:本站编辑

Tech companies are aiming for smaller and leaner AI models

人工智能公司长期以来一直吹嘘其产品的巨大规模和功能,但他们越来越多地关注更精简、更小的模型,他们说这将节省能源和成本。

像ChatGPT这样的程序是由被称为“大型语言模型”的算法支撑的,聊天机器人的创造者去年吹嘘说,它的GPT-4模型有近两万亿个“参数”,这些参数是模型的组成部分。

GPT-4的巨大尺寸允许ChatGPT处理从天体物理学到动物学的任何查询。

但是,如果一家公司需要一个只知道老虎的程序,那么算法就可以小得多。

“你不需要知道《凡尔赛条约》(Treaty of Versailles)的条款,就能回答一个关于工程的特定元素的问题,”为企业提供人工智能和可持续发展咨询的公司Ekimetrics的劳伦特·菲利克斯(Laurent Felix)说。

b谷歌、微软、meta和OpenAI都开始提供更小的模型。

亚马逊也允许在其云平台上使用各种尺寸的模型。

较小的模型更适合简单的任务,如总结和索引文档或搜索内部数据库。

例如,美国制药公司默克(Merck)正在与波士顿咨询集团(BCG)开发一种模型,以了解某些疾病对基因的影响。

“这将是一个非常小的模型,只有几亿到几十亿个参数,”波士顿咨询公司人工智能主管尼古拉斯•德贝勒方兹(Nicolas de Bellefonds)表示。

专注于小型模型的法国人工智能初创公司LightOn的负责人劳伦特·道特(Laurent Daudet)表示,与大型模型相比,小型模型有几个优势。

他说,它们通常速度更快,能够“同时响应更多的查询和更多的用户”。

他还指出,它们不那么需要能源,潜在的气候影响是人工智能的主要担忧之一。

需要大量的服务器阵列来“训练”人工智能程序,然后处理查询。

这些服务器由高度先进的芯片组成,需要大量的电力来驱动它们的运行和冷却。

Daudet解释说,更小的型号需要更少的芯片,使它们更便宜,更节能。

其他支持者指出,它们可以直接安装在设备上,完全不需要使用数据中心。

洛朗·菲利克斯指出,在设备上直接使用也意味着更多的“数据安全和机密性”。

这些程序可以根据专有数据进行训练,而不必担心数据被泄露。

不过,大型程序在解决复杂问题和访问大范围数据方面仍具有优势。

De Bellefonds表示,未来可能会有两种模式相互交流。

他说:“将会有一个小型模型能够理解这个问题,并根据问题的复杂程度将这个信息发送给几个不同大小的模型。”

否则,我们的解决方案要么太贵,要么太慢,要么两者兼而有之。”

FL中文网声明:未经许可,不得转载。