(记者 蒋荣耀)最近,美国加州一家医院发生了件怪事一名医生告诉78岁的病人,他的病没治了。由一名机器人来给人类下“病危通知书”,病人的家属不敢相信也无法接受,于是将他们的愤怒在媒体上公开了。
详情是这样的一位长期受慢性肺病折磨的病人3月初住进了加利福尼亚州弗里蒙特一家医院急诊科。初步诊断后,一名机器人在重症监护室对病人进行了随访。机器人告诉病人,他将无法返回家中接受临终关怀,他可以在医院使用吗啡来减轻痛苦。这次诊断意味着,一名机器人给病人下了“病危通知书”。在入院4天后,病人死亡。
尽管医院也认为这件事的发生是偶然且“极其不正常”的,随着人工智能技术的进步,人与机器人发生矛盾的事情一定会越来越多。从这个案例看,家属质疑的并不是机器人的能力——事实上机器人对病情的判断是准确的。那么问题究竟出在哪里呢?
大家还记得《我,机器人》开头吗?两辆车掉进水里,机器人需要做一个选择,是先救警探还是孩子。最终机器人救了警探,因为它计算出警探有45%的生还机会;而孩子只有11%的生还机会。在这个场景中,机器人的能力或者判断似乎也并没有错,当遇到同样问题时,人类已经在千百年的发展中形成了自己的价值观应该先救援老弱妇幼。
在美国加州医院的案例中,病人家属认为,“这些(病人不行了)话应该是一个活生生的人来告诉我们,而不是冰冷的机器。”家属也没有质疑机器人的诊断能力,而是从价值观上,他们不能接受“冰冷”的机器人给病人判了“死刑”。
机器人今天确实已经在广泛领域得到,在工业、教育、医学等领域,机器人已经开始替代一些人类的工作。随着机器人不断智能化,当机器人替代我们完成了各项工作,有没有一些活儿是机器人不应该去做的呢?
机器人给病人下病危通知,机器人选择先救警察而不是小孩,引发人类担心的根源,是因为机器人没有伦理道德。我们的担心,其实就是机器人可能引发一系列伦理风险问题。
但本文开头提到的案例,还有担心机器伤害人类的问题,其实是一层的冲突法律冲突。机器人给病人下病危通知,有没有法律效力?在我们的法律社会,一个人犯了错会承担后果,民事案中承担民事责任,刑事案件中承担刑事责任。机器人呢?机器人能够成为承担责任的主体吗?既然机器人不能够成为承担责任的主体,反过来是不是可以理解为,机器人其实无权给病人做出诊断?或者我们需要在机器人不能承担责任的情况下,设计出追究相关人的法律责任的制度?
随着AI技术和5G技术的发展,机器人的发展、创新和使用一定会大步向前走。机器人所带来的伦理道德风险问题和法律问题会越来越多,看来我们是该考虑考虑怎么办了。