为什么AI盲问题普遍存在
至今,公众、政策制定者、记者乃至非AI技术人员对AI的理解仍处于较为初级的阶段。但近期社交媒体上的文章揭示了一个引人注目的现象:非AI研究人员群体对此持有普遍且相对一致的不屑态度,甚至因现有深度学习方法的局限和对免费/低质量训练数据的依赖而全盘否定AI。为何公众中存在普遍的“AI盲”现象?我们又如何帮助大家更好地理解现代深度学习的实际进展?
回想起几年前,对虚拟现实的任何批评都被视为对技术的无知,甚至被上升到个人修养的层次。一旦发表反对意见,就会面临报复性的反馈,无论作者投入多少时间来探索VR技术,或是VR技术专家提出过相同的问题,对VR的批评都会引发强烈的反驳。
这种现象背后,是硅谷的洗脑能力(或者说是扭曲现实的能力)在起作用。人们被说服相信虚拟现实已经到达了发展的关键节点,电视机将在一年内全面淘汰,每个家庭都会为每个成员配置专属的VR设备。
以技术为核心的扭曲现实之力,是一个值得我们关注的重要现象。事实上,它已经成功地说服了技术人员以外的其他人员放弃质疑,无论市场营销部门释放何种信息,他们都照单全收。企业的引导,让大众的思考方向愈发固定。
令人讽刺的是,几年前的评论作者还在猛烈抨击任何对VR技术的质疑,而现在他们却强调自己一直清楚VR只是小众技术。社交媒体的持续洗脑,让媒体、政策制定者、权威人士以及公众更加迷茫。现在,有人开始警告称这种洗脑可能彻底破坏西方的民主根基。
现实证明,社交媒体的规模、速度和影响力并不如人们想象的那样巨大,它并不能完全取代传统媒体。质疑社交媒体作用的人显然并不了解技术宣传的力量。
如今,深度学习或AI技术被视为新时代的宠儿,人们对其抱有极高的期待。关于AI技术,公众的解读大致分为三种:一是AI将拯救人类;二是AI将彻底改变生活,甚至毁灭人类;三是AI技术有限且不可靠,有时能产生超出预期的结果,但其理论基础并不完善。
尽管身处AI前沿的技术人员不断强调第三种观点才是正确的,但前两种幻想已经深深植入这个时代的文化基因中。一提起AI,人们往往想到的是它带领人类走向更美好未来的场景,这种思维也被新闻媒体大肆宣传。
根据GDELT项目对全球网络新闻报道的监测,与AI相关的内容在过去两年中翻了一番。关于AI局限性的讨论却很少被提及。
绝大多数技术媒体并没有实际运用生产级AI系统的经验,因此尽管有企业不断提醒媒体报道内容过于夸张,但这种情况并未得到有效改善。
同样的,非AI技术人员在接触AI领域后,往往会基于一些简单的深度学习应用程序的成功案例,如“hello world”程序,做出错误的假设。他们以为解决当前准确性与生产级要求之间的差距并非难事,只需准备更多示例数据并加载到算法中即可。
然而问题在于,包括新闻从业者、政策制定者、权威人士以及普通公众在内的很多人对AI的理解仍处于“盲”的状态。这使得他们在是否应将更多深度学习方案引入日常生活时无法做出明智的决策。
在这个信息爆炸的时代,我们被各种振奋人心的AI成功故事所包围。在这光鲜亮丽的背后,隐藏着许多未曾言说的失败和努力。企业们在宣传自己的AI算法时,总是强调其超越人类的能力表现,却绝口不提背后严苛的实验室条件,以及算法实现理想结果前所经历的无数次失败。这些数字,在公众的视线中永远保持神秘。
企业通过维持这种近乎幻想的宣传,在很大程度上隐瞒了自己的失败。而媒体和政策制定者对AI技术的了解尚浅,使得他们难以洞察其中的真实情况,甚至不知道应该提出哪些问题。当Facebook大肆宣传其反恐AI算法的准确性时,报道总是聚焦于它能够识别出99%的恐怖主义内容,却鲜少深入探讨这背后的真实情况。
细心的读者可能会发现,Facebook的描述中早已透露,其删除的99%内容大多依赖于原有的黑名单和简单过滤器。换言之,AI在其中并未发挥关键作用,真正起效果的仍然是那些传统手段。这些传统手段往往缺乏话题性,难以引起公众的关注和热情。
我们沉浸在光鲜亮丽的AI成功故事中,却忽视了现实中的尝试往往以失败告终。大部分记者对AI的了解有限,无法深入分析企业的宣传内容。他们很难追踪所有科技企业的公开声明、阅读学术出版物或采访AI研究人员,因此难以揭示背后的真实情况。
尤其令人担忧的是,Facebook等公司拒绝提供关于误报与漏报问题的基本数据,这使得外部研究人员和政策制定者无法评估其算法的真实性。若这种漏洞百出的AI算法被引入日常生活,可能会给整个社会带来巨大影响。
我们每天都在接受媒体关于AI的狂热轰炸,听到的总是它如何迅速发展、如何带来积极影响。关于AI的局限、改进空间、真实的发展道路以及详细的客观对话却鲜少被提及。
我们正在努力构建一个包容AI的未来社会,但离明智地判断AI的真实影响还有很长的路要走。关键在于,我们能否在硅谷的现实扭曲之力中,保持理性并重视真实的话题。