亚马逊成立 AI 模型训练团队 斥资数百万美元
在11月的一个秋风凉爽的夜晚,亚马逊开启了一个秘密计划:投入巨资训练一种大型语言模型(LLM)。目标是打造一款与OpenAI和Alphabet旗下顶级模型相抗衡的人工智能巨头。知情人士透露,该项目的内部代号命名为“Olympus”,拥有高达2万亿个参数,可能成为全球正在训练的最大模型之一。目前全球领先的模型之一,OpenAI的GPT-4,拥有的是1万亿个参数。关于这款人工智能新模型的具体进展亚马逊尚未发表任何评论。这项计划由亚马逊人工智能领域的核心人物——Alexa前负责人Rohit Prasad领导。作为亚马逊人工通用智能(AGI)的首席科学家,他直接对首席执行官安迪・贾西(Andy Jassy)汇报工作。他的团队汇聚了众多在Alexa AI研究领域有着丰富经验的科研人员及亚马逊科学团队精英,一同研究如何训练大型语言模型。他们集结全公司的资源来推动AI工作的整合与发展。亚马逊之前已经成功训练出规模较小的模型,如泰坦(Titan)。除此之外,该公司还选择了与人工智能模型初创公司Anthropic和AI21 Labs等进行合作,将他们的模型提供给亚马逊网络服务(AWS)的用户使用。内部人士透露,亚马逊认为自主研发的人工智能模型能够极大地提升其AWS产品的吸引力,因为企业客户往往期待在AWS上获得性能卓越的模型支持。虽然亚马逊尚未公布新模型的发布时间表,但内部人士补充说,这个模型的训练成本极高,需要大量的计算能力支撑。大型语言模型是人工智能工具的核心技术之一,它能够学习海量数据并生成类似人类的反应。亚马逊在最近的财报电话会议上已经表示,将增加对LLM和生成式人工智能的投资,同时削减零售业务的部分规模以支持人工智能的发展。