为何机器人抢不走你的工作

新闻热点 2024-12-13 15:26www.robotxin.com纳米机器人

早在1959年,Madaline系统以其超凡的智慧解决了电话线路上的回声问题,给长途通话带来了福音。那时,每次长途通话都会伴随着烦人的声音回响,给通话者带来极大的困扰。玛德林系统能够识别输入与输出的相同信号,通过电子方式消除回声,这个简洁高效的解决方案至今仍在被广泛应用。值得一提的是,玛德林并非人类,而是人工智能在工作领域的首次应用,是一个多元自适应线性神经元系统,简称“Madaline”。

如今,人们普遍担心智能计算机将取代我们的工作,完成超越人类的能力范围的任务。然而事实上,尽管人工智能在很多领域表现出色,如预防欺诈、癌症诊断等,甚至在某些方面比人类更出色,但在至少短期内,这种新型智能机器更可能与人类并肩工作,而非取代人类。麦肯锡的一项研究指出,只有5%的工作可以完全自动化,而大约60%的职业中,机器人可以完成约三分之一的工作内容。

麦肯锡2017年的报告指出,在当前的科技环境下,只有5%的工作能够被全面自动化,而大约60%的职业中有三分之一的工作可以由机器人完成。值得注意的是,并非所有机器人都依赖人工智能,有些机器人使用人工智能,而许多则不使用。阻碍智能机器人通过人工智能全面接管世界的问题,在于它们与人类协作时的表现常常不尽如人意。例如,谷歌的相片识别软件曾误将黑人的脸庞识别为猩猩,这凸显了人工智能机器人在处理问题时存在的局限性,如无法完全自定义目标、解决问题,甚至运用基本常识也存在障碍。尽管这些新一代机器人在技能方面有所欠缺,但对于人类来说,即使是最平凡的技能也能轻松掌握。

在与新的机器人同事合作之前,我们需要了解几点关键原则。机器人并不会像人类一样思考。这一点与玛德林革新长途电话的时代并行不悖。英籍匈牙利哲学家波兰尼(Michael Polanyi)曾深入研究人类智力的奥秘。他发现,人类拥有一些技能是无法归纳为规则并向他人解释的,比如使用精准的语法和一些隐性能力。这些隐性能力,波兰尼称之为“人类所知多于所能表述”,包括骑车、揉面等日常技能,甚至更高层次的实践能力。这些隐性能力的规则却无法被教授给计算机,这就是所谓的波兰尼悖论。

在与机器人共事时,我们需要明白它们的能力和局限。机器人无法像人类一样具备隐性能力,也无法完全理解并应用规则。在与机器人合作时,我们需要明确任务的要求和界限,确保机器人能够在其能力范围内发挥最大的作用。我们也需要不断学习和适应新的技术,以便更好地与机器人同事共同工作,实现更高效、更智能的未来。为了攻克这一难题,计算机科学家们并未选择逆向模拟人类的智力过程,而是为人工智能设计了一种全新的思考模式——数据驱动的思考方式。微软研究院的高级研究员卡鲁阿纳指出:“我们并没有先了解人类如何思考,再以此构建人工智能,事实恰恰相反。”他进一步以飞机的发明为例,虽然飞机的设计与鸟类的飞行原理大相径庭,但飞机的飞行效率和速度远超任何生物。

DeepMind所研发的人工智能软件AlphaGo挑战赛中,与世界顶尖围棋手柯洁的对决引人注目。柯洁年仅19岁,却面临着前所未有的挑战。类似DeepFace的人工智能技术正在成为硅谷的新宠,它们通过学习大量数据构建数学模型来实现学习。例如,Facebook曾用约400万张照片训练人脸识别软件DeepFace,通过寻找不同图像中的模式样本,学会了人脸匹配,准确率高达97%。

这些人工智能主体,如同玛德林一样,都是“神经网络”的一种形式。它们进军多个领域,包括驾车、语音识别、文字翻译、照片标注等,并在这些领域中超越了它们的开发者。展望未来,人工智能将进军更多领域,包括医疗和金融等。这种全新的思考方式不仅让AI技术飞速发展,也让人们看到了无限的可能性和潜力。法则二:机器人新朋友并非绝对可靠,它们也可能犯错

这种依赖数据的思维方法有时可能会引发重大失误。以一个人工神经网络为例,它曾将3D打印的乌龟错误地识别为。这个程序无法像人类一样进行概念推理,它不会理解“这个东西有鳞和壳,所以可能是乌龟”。相反,它是根据视觉模式来识别事物,这种模式以像素为单位。改变图像中的一个像素,就可能使合理的答案变得毫无根据。

这些人工智能也不具备在新情境中应用已有知识的常识。以DeepMind为例,这款人工智能在经典街机游戏《乓》中表现出色,几小时便击败了人类玩家,并开发了新的获胜策略。当它面对类似的游戏《打砖块》时,却需要重新学习。

绿色龙装赋予喂奶机器人友善外观

法则三:机器人的决策难以解读

人工智能面临的第二个挑战,可以被看作是一个现代版的波兰尼悖论。我们尚未完全了解人脑的学习机制,因此尝试让人工智能以统计学家的方式思考。我们对人工智能如何思维的了解也同样有限,因此形成了两个相互独立的未知系统。

这常常被称为“黑匣子问题”——你清楚输入的数据和输出的结果,却无法洞悉这个神秘的盒子是如何得出结论的。卡鲁阿纳指出,“现在我们面临两种智能,但遗憾的是,我们都不足以完全理解它们。”

人工神经网络无法表达其运作的方式和背后的原因,因为它们没有语言功能来解释自我。与其他人工智能系统一样,它们也缺乏常识。尽管如此,这些挑战并没有阻止人工智能在各行各业中的广泛应用和快速发展。我们仍在不断探索、学习和进步,以期更好地理解和利用这一神秘而又强大的领域。一些人工智能机器人正在经历一场独特的训练之旅,它们正在学习如何获取并处理记忆,为护理行业提供助力。这些机器人被教导如何从庞大的数据集中提取关键信息,并对这些信息进行深度解析,赋予它们实际意义。这样,它们能够更好地理解人类的健康状况,提供更精细的护理服务。

几十年前,卡鲁阿纳开始将医疗数据输入人工神经网络进行研究,包括各种症状及其后果。他们尝试通过这些数据计算患者的死亡风险,以便医生能够提前采取预防措施。这一切似乎都在顺利进行,直到一位来自匹兹堡大学的研究生用更简单的算法审查了这些数据。他深入研究神经网络做出诊断的逻辑,其中一条诊断结果引发了广泛的讨论:如果你患有肺炎,那么患哮喘可能对你有益。

卡鲁阿纳描述说,当他们向医生展示这个结果时,医生们对此表示疑惑并提出质疑。众所周知,哮喘是肺炎的重要风险因素,因为两者都会影响到肺部功能。那么,这个智能系统是如何得出这样的结论的呢?有一种假设是,有哮喘病史的病患在出现肺炎症状时,会更积极地寻求医疗帮助,这可能导致他们的存活率相对较高。人工智能可能错误地推断出哮喘对肺炎有益。

法则四:机器人的无意识偏见

随着人工智能的普及,人们开始担忧这些高级工具中可能潜藏的意识形态偏见,如性别歧视和种族歧视等。最近的一款预测犯人再次犯罪可能性的软件就是一个鲜明的例子,它对黑人群体采取了更为严苛的评估标准。

人工智能的偏见源头,往往与其接受的数据训练有关。如果数据无可挑剔,那么它们的决策就可能是准确的。大多数情况下,人的偏见已经渗透其中。比如谷歌翻译的一个例子,一位研究员在《传媒》杂志中指出,当把特定的英文句子翻译成匈牙利文再反向翻译时,结果出现了与原句相反的性别表述。

这些翻译工具接受了万亿网页内容的数据训练,但它们只能寻找模式样本进行运算。这意味着,如果某种模式在数据中反复出现(比如,医生大多是男性,护士大多是女性),这些工具就会受到影响,产生偏见。

除了种族和性别偏见,还可能出现我们未曾想到的其它类型的偏见。数学加权是其中的一种可能原因。在数据分析中,“加权”指的是根据参数的重要性进行数据分析。一些算法可能会将邮政编号与居民信用评分关联起来(美国已有这样的实例),这可能导致对少数族裔的歧视性结果,因为他们可能居住在贫困区域。

诺贝尔奖得主经济学家卡内曼在研究人类思维中的非理性偏见时,对此进行了深刻的阐述。他在一次访谈中强调了这个问题的重要性,提醒我们人工智能的发展也需要对潜在的偏见保持警惕。他的观点为我们理解并应对人工智能中的偏见问题提供了宝贵的视角。随着机器人时代的脚步日益临近,它将彻底改变未来的工作环境。在我们看到它们越来越像人类的进步之前,我们需要守护它们并确保它们的发展符合我们的期望。硅谷的同行们在这方面展现出了惊人的能力,他们似乎已经掌握了人工智能的核心精髓。人工智能的经验法则和人类经验一样,都存在偏见的可能。但人工智能的规则和模式并不是简单地复制人类的经验和行为。实际上,人工智能的规则是独特的,它们的决策基于大量数据分析和算法处理,而不是基于人类的主观偏见和情感影响。尽管如此,我们仍然需要保持警惕,确保人工智能的发展不会偏离我们的道德和价值观。在机器人逐渐融入我们的生活和工作的过程中,我们需要确保它们的发展不仅是为了提高效率,而是真正为人类带来福祉和便利。我们需要共同守护这个未来,确保机器人技术的发展真正地服务于人类的需求和利益。在这个充满变革的时代,我们的任务是确保机器人技术的崛起成为一股积极的力量,推动我们向着更好的未来前进。

Copyright © 2016-2025 www.robotxin.com 人工智能机器人网 版权所有 Power by