在人工智能各种被“抱大腿”今天,它在获得不断突破和发展的也面临着新的问题和挑战。人工智能算法的逐渐深入使人们越来越难以理解它们的内部工作原理,部分原因在于开发公司不允许对其专有算法进行审查,随着它的复杂性越来越高,人工智能变得越来越不透明。
目前,人工智能逐渐渗透到我们的生活当中,在很多领域,人工智能表现得要比人类“优秀”很多。以自动驾驶汽车为例,它依赖于机器学习算法,能够做到减少90%的道路交通事故;人工智能诊断平台比人类更容易发现危险疾病的早期征兆,并有助于挽救生命;在预测维修方面,人工智能可以检测出机械设备的磨损迹象,达到预防灾难并且降低成本的效果,这些是人类目前所不能做到的。
,人工智能并不是完美无缺的,它也会有“犯错误”的时候,还记得吗,微软的人工智能聊天Tay在其发布的一天内就开始发表种族主义言论;谷歌的人脸识别技术开始的时候对进行的一些冒犯性的标记等等。
即使这些错误并不是十分重要,时间久了甚至会被忽略。,神经网络、机器学习算法以及人工智能的其他方向正逐渐进入更为关键的领域,例如,医疗、交通和法律等等。而这些领域的错误,则可能会产生致命的后果。
人类也会犯错误,甚至是致命的错误。但二者的区别在于,我们可以解释行动背后的原因并且承担责任。在人工智能时代之前我们所使用的软件都是一些基于代码和规则的逻辑,针对其中的错误进行检查和推理,可以明确到相应的责任。
在许多人工智能的程序中,神经网络是一个“黑盒子”。通常,只有工程师可以解释他们的算法究竟是怎样运行的。例如,去年谷歌的“打游戏”的人工智能让世界震惊了,因为他们想出了一些专业人士都想不到的动作。
Nuance公司研究部高级总监Nils Lenke表示“我们并不总能清楚地认识到神经网络里面会发生什么,因为有的时候网络组织本身并不想告诉你它是如何做到的。”
如果这些算法能够完全控制决策,可能会导致大量的问题。例如,一辆自动驾驶汽车引发了一场致命事故,谁将负责?我们不能要求任何一名乘客对无法控制的事情负责任,况且连制造商也很难解释这个涉及如此多的变数的复杂性事件,更别指望汽车本身会解释它的行为。
同样的道理也适用于人工智能的其他应用程序,它可以自动控制病人的治疗过程,或者对某种风险进行评估,甚至它可以决定罪犯是否会被关进监狱。那么,我们能否相信人工智能可以做出决定呢?对于一些非关键任务,如广告、游戏等,我们可以容忍它所犯的错误,,那些对于社会、法律、经济和政治的影响,甚至是一些涉及到人类生命的灾难性的事件,使我们还没有准备好放弃对机器人的控制。
就目前而言,人工智能将逐渐显示出它的全部潜力,我们已经看到了医学和网络安全等领域的进展,由AI负责数据导向的研究和分析,并向人类专家提供宝贵的见解和建议。随后,再由专家们做出决定,并对可能产生的后果承担责任。
与此,企业和组织必须采取更多措施,使人工智能变得更加透明化和可理解化。Open AI就是一个例子, 它是由特斯拉的Elon Musk和YCombinator的Sam Altman联合创办的一个非营利性研究公司,正如它的名字所暗示的那样,Open AI的目标是向所有人开放人工智能研究和开发,而不局限于金融利益。
与人工智能开展合作的其他领域,旨在提高人们对人工智能的认识,并应对一些所谓的AI挑战。由微软、IBM和谷歌等科技巨头创建的合作伙伴关系,也将致力于人工智能的理论和实践的发展。
或许,未来的人工智能能够实现和人脑一样,在那时我们的汽车和机器人将能够出庭受审并接受审判,而我们人类可以去做一些与现在完全不同的事情。
那只是我们对于未来的想象,在当今这个以人为主导的世界里,要做出关键的决定,要么必须是完美的,要么是负责任的。就目前而言,人工智能并没有做到这一点。