人工智能发展需破解巨量算力应用难题
在人工智能领域,探索像人类一样具备逻辑、意识和推理的认知能力一直是核心议题。中国工程院院士王恩东最近接受采访时指出,当前实现通用人工智能的一个充满希望的方向是通过大规模数据训练超大参数的巨量模型,而巨量化已成为人工智能未来发展的一个重要趋势。
全球知名科技市场研究机构国际数据公司(IDC)发布的《2021-2022中国人工智能计算力发展评估报告》也强调了这一点,报告指出人工智能算法模型正呈现大规模趋势,巨量模型将成为规模化创新的基础,而计算力则是这一切的根本保障。
巨量化的核心在于其三大特征:模型参数多、训练数据量大、应用规模大。谷歌、微软、英伟达等全球领先的AI公司和机构都已经推出了自己的巨量模型。这些巨量模型不仅规模庞大,而且在实际应用中的表现也相当出色。
以美国的GPT-3为例,这个深度学习模型的参数规模高达1750亿,在自然语言处理应用领域如文本分析、机器翻译、机器写作等方面都有出色的表现。而中国的“源1.0”模型参数规模更是升至2457亿,训练数据集规模达到5000GB。这些巨量模型的出现,极大地提升了人工智能的处理性能。
面对这样的发展趋势,王恩东指出,人工智能的发展也面临着新的挑战。巨量数据的调用需要强大的算力支持,计算产业需要适应这一新的趋势。他也强调,释放多元算力价值、促进人工智能创新的关键在于重视智算系统的创新,并加大人工智能新型基础设施的建设。开放标准的建设也是必不可少的,只有通过统一、规范的标准,才能将多元化算力转变为可调度的资源,让算力真正变得好用、易用。
人工智能的巨量化趋势已经越来越明显,我们需要适应这一趋势,积极应对挑战,推动人工智能的持续发展。