亚马逊转用自家芯片进行人工智能训练 只剩少量程序仍然以显卡来训练
服务机器人 2025-03-26 19:34www.robotxin.com女性服务机器人
亚马逊宣布将其全面的人工智能处理程序转移到定制化的AWS Inferentia芯片上。这一重大转变意味着亚马逊的推理应用,如虚拟助手Alexa等,将告别GPU,转而依赖更高效、更快捷的专用芯片进行处理。
AWS Inferentia芯片是专门用于机器学习的杰出代表,每颗芯片都能提供高达128TOPS的性能,并兼容FP16、BF16和INT8数据类型。这一技术革新已经让亚马逊将Alexa高达80%的处理程序迁移到了采用新AWS Inferentia芯片的Elastic Compute Cloud(EC2)Inf1实例上。
相较于传统的GPU驱动的EC2 G4实例,全新的EC2 Inf1实例在吞吐量上提升了30%,同时单次推理成本降低了45%。亚马逊自信地宣称,它们是目前市场上在处理自然语言推理和语音处理任务方面的最佳实例。
对于Alexa智能助手以及现在几乎所有智能音箱来说,其本身并不能直接理解用户的话语。当一个用户向Echo音箱询问天气时,音箱会将用户的语音实时传输到亚马逊网页服务(AWS)上。在AWS的数据中心内,这段语音会被转化为文字,然后从中解析出用户的真实意图。在理解用户意图后,数据中心会调取相关天气信息,将其与预置脚本结合,再转化为语音传送回音箱播放。
推理是上述语音与文字转换的核心,也是Alexa以及其他智能助手能执行用户指令的关键。亚马逊投入巨资研发和改进其机器学习芯片,也是可以理解的。
上一篇:世界上第一个仿生美女机器人
下一篇:没有了