火热之外 为什么人工智能很容易上当受骗
骗子,这个世界上古老而又充满创新的“职业”,始终在寻找新的目标。而今,他们的目光可能已瞄向了一个新兴领域——人工智能。研究表明,随着人工智能在现代世界的影响力日益增强,针对它的攻击也将愈发普遍。
人工智能的算法以与人类截然不同的方式理解世界,这种独特性带来了奇妙的机遇,却也潜藏着巨大的风险。对算法数据的微小调整,就可能彻底破坏其运作,而这对人类来说却毫无影响。
图像识别系统,特别是那些依赖深度学习神经网络的系统,正成为这一领域研究的热点。这些系统通过展示数千个特定物体的图像进行训练,逐渐学会提取图像的共同特征,从而在新图像中识别出该物体。它们所提取的特征并不总是我们人类所认为的高级特征。
攻击者可能利用这些系统的识别方式,通过识别算法所依赖的模式,并将其应用到不同的图像上,从而欺骗对象识别算法,让它看到实际不存在的东西。这种操纵被称为“敌对攻击”。
在早期,要欺骗图像识别系统,需要深入了解算法的内部工作机制。在2016年,研究人员展示了一种“黑匣子”式的攻击模式,使得攻击者可以在不了解系统内部工作原理的情况下成功欺骗系统。
通过输入经过篡改的图像并观察其分类方式,他们能够计算出系统关注的焦点,从而生成能够欺骗系统的图像。令人震惊的是,这些篡改后的图像在人眼看来并无明显差异。
这些方法的测试通过在算法中直接输入修改后的图像数据进行,但最近,类似的方法已经在现实世界中得到了应用。去年,有研究显示,将修改后的图像用智能手机拍摄后,成功欺骗了图像分类系统。更有甚者,戴着特殊设计的眼镜,面部识别系统可能将他人误认为是明星。
我们也不能忽视这项技术的一些潜在灰色应用。比如,让自动驾驶汽车错过停车标志可能会导致事故和保险欺诈。若面部识别技术在生物识别安全应用中普及,骗子们可能会学会如何伪装成他人。
意料之中的是,人们已经开始采取措施来抵御敌对攻击的威胁。特别是研究已表明,深层神经网络可以被训练来探测虚假图像。未来可能会出现相应的军备竞赛。虽然图像识别系统的受骗过程可以作为简单直观的演示,但它们并非唯一存在风险的机器学习系统。
中国研究人员发现,在句子中加入特定词语或拼错单词,可以完全干扰分析文本的机器学习系统。声音失真也可以令智能手机访问特定网址、下载恶意软件。更令人担忧的是,黑客可能利用这项技术绕过网络安全防御。
在今年的黑客大会上,一家安全公司展示了如何绕过反恶意软件的人工智能。他们的方法类似于黑匣子攻击图像分类器的方法,但使用的是自己的人工智能系统。他们的系统会将恶意代码输入反病毒软件,然后记录系统的反应。通过反复修改代码,他们成功地绕过了防御措施。
除了“欺骗”已训练的机器学习系统,网络安全行业的另一个关注点是“数据中毒”。这种观点担心,将错误数据引入机器学习系统的训练集会导致其错误分类事物。对于不断更新以纳入新病毒数据的反恶意软件系统来说,这一挑战尤为严峻。攻击者可能会使用经过设计的数据来误导系统,从而成功绕过防御。
这些方法能够实际应用的概率取决于潜在的回报和攻击者的技能水平。虽然大多数描述的技术需要高水平的专业知识,但获取培训材料和机器学习工具却变得越来越容易。就像垃圾邮件发送者不断开发新的方法来绕过垃圾邮件过滤器一样,我们也必须持续警惕并不断创新,以应对这一挑战。随着机器学习及人工智能技术的融入日常生活,欺诈这些智能系统的潜在收益可能远超其成本。在这个智能革命的时代,人工智能与机器学习正在改变我们的生活方式,也带来了前所未有的机遇与挑战。与此一些人也开始探索利用这些系统漏洞的可能,试图通过欺诈手段获取不正当的利益。这样的行为或许在短期内看似能够带来收益,但从长远来看,这不仅是对智能系统的不尊重,也是对诚信社会的挑战。在这个过程中,人工智能的先进性和复杂性可能会使得欺诈行为短期内看似可行,但我们必须保持警惕,意识到这种行为的潜在风险。我们必须理解,虽然人工智能和机器学习为我们带来了便利和进步,但我们不能滥用这些技术,更不能利用它们进行欺诈行为。这是一个道德和责任的考验,也是我们在享受技术带来的便利时不可忽视的重要问题。保持诚信,遵守道德和法律是我们对待人工智能及机器学习的基本原则。在这个充满智能的新时代中,我们需要保持警觉和智慧,以确保技术的健康发展和社会和谐稳定。