支付宝|传闻日本实验室曾发生AI杀人事件?如果AI杀人,谁该为此负责?( 三 )


它们完全可以向一个已经投降了的敌人开枪 , 而无视生命的珍贵 。 无人机就算再深入学习 , 所了解的也无非几件事:要杀的是谁 , 怎么杀!
至于为什么杀他 , 能不能不杀他 , 完全不是无人机要考虑的问题 。 这种漠视生命的冷漠才是战争中最可怕的 。
与此同时 , 我们目前很难保证AI不被坏人甚至是恐怖分子所利用 , 澳大利亚科学家Toby Walsh教授在墨尔本的2017国际联合人工智能大会的开幕式上就曾经发表过这样一封信 , 信中说:
“致命的自动化AI武器很可能成为第三次武器革命的危险 , 这些恐怖的武器 , 将会成为暴君和恐怖分子残害无辜民众的武器 , 或者被黑客挟持的武器 。 我们的时间并不多 。 一旦潘多拉的盒子被打开 , 就很难被关上 。 ”

这封信紧急呼吁联合国磋商以寻求使所有人免于这种危险的武器 。 的确随着AI自动化武器越来越多样化 , 大到可以上天入地的巨型机器人 , 小到来无影去无踪的杀人小蜜蜂 。 AI武器的研发更为隐蔽 , 更难检测 。
如果这些武器本身再带有生化武器或大规模杀伤性武器 , 落到恐怖分子手里的话 , 可以说对全世界来说都是一种灾难 。 而随着深入学习能力的不断加剧 , 这些AI武器终将会变成一个个顶级的杀戮高手和战术大师 , 打败人类的特种部队也是不在话下 , 到了那一天 , 也许终结者电影中的情节真的会在现实出现 。
AI杀人 , 如何问责?
有的人或许要问了 , 那么这件事件的责任方究竟是谁呢?谁应该为AI的杀人行为负责呢?
很遗憾 , 目前关于这方面的立法还十分缺失 。
法律毕竟是人类的行为规范 , 其设立的目的是为了保障人民权益及维持社会秩序 , 目前没有一种法律是针对机器人 , 乃至AI而设立的 , 未来是否设立还不清楚 , 所以按现行法律的规定 , 原则上机器人仍会被视为“物” 。
因此当AI发生失控而伤人 , 甚至杀人时 , 法律并不会去处罚机器人这个“物” , 而是去处罚“人” 。

因此争论的焦点 , 就变成了AI使用者与AI机器人生产厂商之间的矛盾了 。 如果是使用者蓄意利用机器人AI来实行犯罪 , 或者根本无视AI机器人使用相关说明的话 , 那么责任方在使用者 。 而反之 , 如果正常使用中出现的任何问题 , 生产厂商应该赋予相应的责任 。
但在战争中的责任划分就更加难以确定了 。 无人机应用在军事上的复杂性让人类难以处理 。 例如有报告指出 , 在巴基斯坦 , 美军以无人机猎杀恐怖分子及其帮手 , 他们宣称准确度超过99.99% , 被错误归类为恐怖分子的机率仅有0.008% 。 机率看起来极低 , 但换算成人口数却是约上万人 。 这些上万条牺牲的无辜生命 , 又该找谁去负责呢?
马斯克的联合倡议声明
正是因为科学家们意识到了滥用AI带来的不良后果 , 所以早在2018年瑞典斯德哥尔摩举办的【国际人工智能联合会议】上 , 包括特斯拉执行长马斯克与Google DeepMind3位共同创始人在内的多位AI领域领军人物共同签署《禁止致命性自主武器宣言》 , 宣誓不参与致命性自主武器系统(LAWS)的开发、研制工作 。 也就是说这些科学家们保证永远不会将AI用于战争 。
其后 , 共有来自36个国家160个AI领域相关企业 , 以及90个国家的2400位专家以个人名义签署了宣言 。 然而令人担忧的是 , 言者谆谆 , 听者藐藐 。 美国军方早已私下进行各种AI武器实验 , 俄罗斯军方也在奋起直追 。

如果联合国安理会五大常任理事国对限制或禁止AI武器的呼吁无动于衷 , 任何全球性禁止公约都将像是远在天边的彩虹 。 现在看来 , 要阻止AI武器的全面扩散 , 只能靠科学社群内部的自发性觉醒与自律 。

相关经验推荐