用小AI解决人工智能的大烦恼
人工智能的发展如日中天,其背后却隐藏着惊人的算力消耗。以谷歌的伯特预训练语言模型为例,其数据处理规模之大,训练所需的电力足以让普通美国家庭用上整整五十天。尽管人工智能的巨大梦想、可能性与巨大挑战并行不悖,这种“大规模”的现象真的是人工智能的未来常态吗?
最近,《麻省理工科技评论》发布的年度突破性技术排行榜给出了新的启示:微型人工智能技术位列其中。这是否意味着人工智能正在从庞大走向微小,从复杂走向简单?
当前人工智能的“大”模式显然存在一些问题。随着数据量的不断增加,人工智能变得越来越聪明,然而这一过程的环保性却令人堪忧。研究人员发现,虽然人工智能的精度每天都在刷新记录,但它所付出的环境代价也同样惊人。大数据集被传输到云数据中心,经过复杂的算法分析,产生了巨大的碳排放量,这不仅限制了算法模型的运行与部署速度,还引发了诸多隐私问题。事实上,训练一种算法的碳排放量相当于一辆普通汽车终生的排放量的五倍之多。在追求高精度的过程中,我们似乎忽视了能源的利用效率。“大”人工智能对于离线及实时决策,如自动驾驶解决方案的响应速度也不尽如人意。而这一切都显示出当前人工智能在经济和生态上的不可持续性。更让研究人员担心的是,这种情况可能会导致人工智能研究的集中化,使得小型实验室或资源有限的地区无法触及这一前沿技术。
那么,未来的趋势会是如何呢?或许我们可以从微型人工智能中寻找答案。微型人工智能的出现可能是人工智能研究界为了缩小算法规模、提高推理速度并维持高水平准确性所做的努力。这种趋势的实现,离不开数据、硬件和算法的协同发展。更进一步的落地应用与大规模商用是微型人工智能发展的直接动力。未来的人工智能环境可能趋向于去中心化,更多的计算过程可能在边缘设备完成,无需将所有数据上传至云端。
如何实现这种微型化趋势?可以从三个方面入手:首先是硬件方面的边缘计算,让计算在设备端完成;其次是算法的模型简化,运用知识提取等压缩技术来缩小模型规模;最后是小样本训练,通过优化数据处理方式来减少数据上传与处理的负担。华为和谷歌的研究人员已经在微型人工智能的探索中取得了一些成果,运用类似“知识提取”的压缩技术成功缩小了模型规模并加快了推理速度。这不仅是技术层面的突破,更是对未来人工智能普及与应用的重要推动。无论是知识渊博的伯特预训练模型还是微小化的微型人工智能模型,都承载着我们对人工智能未来的期待与梦想。未来的应用前景将取决于我们如何将这一技术普及到日常生活中去。微型人工智能的崛起与应用展望
随着科技的飞速发展,微型人工智能的应用逐渐走入人们的视野。它在语音助手、数字化妆、医学影像分析等领域发挥着重要作用,为日常生活带来便利。这一技术的魅力在于其实时响应与边缘端目标检测的能力,使许多新的应用场景成为可能。
关于微型算法的大小,秦志亮表示,现在的微型算法体积已经缩小到几百兆到几个G,完全可以装载在手机上。这一技术主要应用于需要前端控制的应用场景,特别是在工控、自动驾驶、航天等领域,都需要本地部署人工智能算法以保证快速反应的需求。未来,终端将主要负责快速反馈,而服务器则承担重大决策的任务。
在不久前举办的安博会上,一家人工智能初创企业推出的“Tiny AI”备受瞩目。它将低功耗、小体积的NPU与MCU完美结合,满足市场上各种主流的2D/3D传感器的需求。英伟达(NVIDIA)和华为等公司也相继推出体型小巧、功耗低、功能齐全的终端型图形处理器,为微型人工智能的发展提供了有力支持。
微型人工智能的发展之路并非坦途。该领域的安全、、隐私等问题同样令人关注。秦志亮担忧算法歧视和数据伪造两大问题。算法歧视的根源在于算法的可解释性与训练数据的不均衡,微型人工智能的训练数据集样本较少,数据的分布可能更加偏颇。随着GAN和深度伪造技术的普及,用户端可能接收或产生大量虚拟伪造数据,这对微型人工智能的甄别能力提出了挑战。
于建港认为微型人工智能的兴起将促进分布式人工智能的发展,每个终端成为一个AI节点,各自独立但又相互关联,类似区块链的应用。虽然存在风险,但技术的正面作用不可忽视。在技术初期,我们不应过于限制其发展,而应给予宽松的环境,让其自由生长。对于人工智能的管控技术也在不断进步,我们有理由相信微型人工智能的未来将更加广阔。