1000多名研究人员联名反对人工智能的犯罪预测
近期,一封公开信引发了广泛关注,其内容涉及到人工智能在预测犯罪方面的应用。签署这封公开信的,是超过一千名研究人员、学者和专家。他们表达了对人工智能在犯罪预测方面的担忧和反对。
看过科幻经典《少数派报告》的人们,都会对未来犯罪预测技术产生一种复杂的情感。在理想情况下,这项技术可以帮助我们更有效地分配警察资源。现实情况往往并非如此理想。
在一篇名为“利用图像处理技术预测犯罪行为的模型”的刊物中,研究人员提出了通过面部识别技术预测个体是否可能犯罪的观点。该论文的合著者哈里斯堡大学的Nathaniel J.S. Ashby教授表示:“我们的目标是开发出一种工具,尽可能减少隐性偏见和情绪反应的影响,通过不带偏见的自动识别潜在威胁,为犯罪预防、执法和军事应用服务。”
这条道路并非一帆风顺。寻找愿意合作的伙伴可能是一项挑战。公开信的签名者中,包括微软、谷歌和Facebook等科技巨头从事人工智能工作的员工。他们在信件中强调了当前人工智能技术的诸多问题,这些问题使得涉足犯罪预测变得危险重重。
其中,最令人们担忧的是算法的种族偏见问题。现有的面部识别系统在识别白人男性时较为准确,但在执法环境中使用时,却经常将少数族裔误判为罪犯。即使解决了算法的不准确性问题,研究人员也指出了当前司法系统的问题。在乔治·弗洛伊德被事件后,司法系统的问题再次成为人们关注的焦点。
研究人员在信中解释道,相关研究的性质及其对准确性的要求,都建立在一种假设之上:刑事逮捕和定罪的数据可以作为潜在犯罪活动的可靠、中立的指标。这些记录远非中立。实际上,它们反映了刑事司法制度的政策和实践,包括警察的逮捕选择、法官的裁决方式以及刑期判决等。无数研究表明,在法律体系的各个阶段,有色人种受到的待遇更为严厉,这导致了数据的严重扭曲。任何建立在现有刑事法律框架内的软件,在判断一个人是否具有“罪犯的面孔”时,都会不可避免地重复这些偏见和错误。
论文的共同作者之一、被认为是纽约警察局老兵的博士生Jonathan W. Korn表示,能够预测犯罪行为的人工智能将成为“执法机构的一大优势”。虽然这样的系统会让执法人员的工作更轻松,但代价可能是隐私的丧失和自动化的种族定性。信的作者警告说,“程序并非中立”,研究议程和他们使用的数据集往往反映了对世界的主导文化信念。对默认假设的不加批判的接受,不可避免地导致算法系统中的歧视性设计,这些设计反映了使社会等级正常化和使针对边缘化群体的暴力合法化的思想。
这一公开信引发了广泛而深刻的讨论,人们开始反思人工智能在犯罪预测方面的应用是否合适,是否会造成更大的不公和不平等。这是一个值得我们深入思考和的问题。