机器也会歧视人类这个局如何破
斯蒂芬·霍金曾警示我们:“全面化的人工智能可能意味着人类的终结。”他担忧,机器能够自我进化并快速重新设计自身,而人类因漫长的生物进化过程所限,可能无法与之竞争,最终可能被替代。
霍金的预言是否成真尚不得而知,但他提醒我们要对人工智能进行深入管理和控制。随着算法与数据的飞速发展,人工智能已逐渐融入社会生活的各个方面。诚然,人工智能为我们的生活带来了诸多便利,但当我们过度依赖它时,我们不禁要思考:人类将如何自主定位?面对人工智能潜在的威胁,我们应如何应对?
在9月28日的“更公平的AI”主题腾云下午茶上,王新锐律师从理论和实际操作两个角度深入探讨了AI监管的问题,并特别强调了数据保护的重要性。
尽管许多人认为AI的法律和监管问题离我们尚远,但在实际操作中,我们已经遇到了许多与人工智能相关的法律问题。这些问题既包括普遍的、抽象的,如纠纷中的举证责任和赔偿责任的分配原则,也包括具体而个性化的,如训练算法所用数据集的知识产权问题。在具体情境下,这些问题或有解,或无解。但随着人工智能技术对各行各业的影响日益加深,新的利益与风险也随之产生,这需要我们制定新的规则来应对。
我习惯将实务中遇到的AI法律问题归为两大类别:算法与数据。众所周知,大数据是人工智能发展的基石。数据在法律上是一个宏大的议题,并非人工智能领域所独有。对于个人信息和隐私保护,许多国家和地区已有相对成熟的立法和监管机制。中国自《网络安全法》实施以来,个人信息的保护得到了进一步的加强。数据权属问题在全球范围内仍存在巨大争议,数据的保密与公开、跨境传输等也涉及一系列复杂的规则。
算法的监管问题在法律上更为前沿。例如,欧盟的《通用数据保护条例》对算法决策过程提出了明确要求,这将极大地影响算法的运作。在人工智能发展的早期阶段,因技术缺陷而产生的问题可能会受到媒体的夸大。但从长远来看,这些问题随着技术的进步自然会得到解决。真正重要的是关于数据和算法的监管框架和立法问题。如果这些问题不能达成共识,人工智能的发展将受到阻碍,公众对其的信任和接受度也会受到影响。
关于人工智能的监管思路,我们可以从三个方面入手:事后结果的监管、数据采集的事中监管、以及在采集行为发生前的根本性约束。在可能出现重大危机或影响人类利益的场景下,我们需要实现对算法和数据的严格约束。对于人工智能的监管,我们需要从事前、事中、事后三个维度进行全面考量。
我们必须明确一点:在某些重大决策场景中,我们不能完全依赖人工智能来做决策。例如,在医疗领域,尽管人工智能已经展现出了巨大的价值,但决策权仍需要由医生来承担。医学问题复杂且敏感,不能简单地交给机器来判断。中国卫计委今年出台四个技术规范,正是对人工智能边界的关注与重视的体现。公正与可追责的AI:探寻法律干预的必要之地
随着AI技术的迅猛发展,我们面临着如何在不同场景和阶段采取不同方法,对新技术的应用进行约束的挑战。在这样的背景下,法律干预的必要性究竟体现在何处?这是一个值得我们深入思考和解决的问题。
更公平的AI是未来的必然趋势。这意味着AI系统的决策不仅需要智能化,更需公正性。但如何让AI实现真正意义上的公平?这就需要通过法律手段进行约束和干预。当AI技术在某些领域,如招聘、信贷评估等,做出决策时,必须确保这些决策不因为歧视、偏见等因素而产生不公平的结果。法律需要为AI设定公正的框架,确保技术的公平应用。
可追责的AI是保障公众权益的关键。随着AI技术的广泛应用,一旦AI系统出现错误决策,我们需要有明确的责任追究机制。这时,法律的作用就凸显出来。通过法律手段,我们可以明确AI系统的责任归属,对于因AI产生的损害,公众有权利进行追责和索赔。
新技术的约束需要法律的引导。随着AI技术的不断进步,我们需要制定相应的法律规则,对新技术的应用进行约束。在不同的场景和阶段,我们需要采用不同的方法,确保技术的合理应用。法律作为社会行为的规范,需要为新技术的发展提供明确的指导方向,确保技术在合法、合规的轨道上发展。
法律干预在AI领域具有极其重要的必要性。从确保AI决策的公平性、追究AI系统的责任,到为新技术的发展提供指导方向,法律手段都是不可或缺的。我们需要深入思考和解决法律干预在AI领域的问题,为AI的健康发展提供有力的法治保障。