支付宝|传闻日本实验室曾发生AI杀人事件?如果AI杀人,谁该为此负责?( 二 )


可是当问她这名陆战队成员的姓名时 , 她又含糊其辞地表示这是高度机密 。 那基地在哪 , 总能说个大概范围吧?她也说不方便透露 。 不管怎么说 , 这老太太的推特浏览播放量倒是通过这件事暴增到了560万回 , 这一数字连很多网红大V都自叹不如 。

有真实可考的AI杀人事件吗?
关于Linda Moulton Howe演讲里提到的故事 , 究竟是真是假 。 那就仁者见仁、智者见智了 。 很多人看到这里不禁要问:现在人工智能发展日新月异 , 这种AI杀人的事情未来会不会发生呢?
很遗憾 , AI杀人的事情已经发生了!是的 , 你没有听错!AI已经可以用来杀人了 。 当然 , 这并像Linda Moulton Howe说的那么邪乎 。
那是在2020年3月的利比亚内战战场上 , 一架土耳其生产的自杀型无人机在完全自动的模式下 , 开枪攻击了一名参战士兵 。 根据《新科学家》杂志宣称 , 这是人类有史以来第一例明确记录在案的“AI机器人自主杀人事件” 。

有人可能会说 , 这算什么 , 之前美国无人机杀的人还少啊 , 卡扎菲不就是让美国无人机给弄死的吗?这可不一样 , 区别可大了去了 。
此前的无人机攻击 , 无论是斩首行动也好 , 自爆自杀也罢 , 都是先有后方的人进行操控发出指令 , 无人机只是在执行人下达的指令 。 而土耳其这次不同 , 无人机完全是自己思考后做出的决断 。 而这种能力 , 也是由于被人工智能“深度学习”改装发展而来的 , 只不过一般的AI学习用来创造 , 这台武器却在学习如何杀人 。
AI杀人的恐怖后果
若一种武器系统可「自主」选择与攻击目标 , 便可称为「致命自主武器系统」(LAWS)致命自主武器系统亦有人将之称为「杀手机器人」(killer robot) , 但不限于有双手双脚、可进行攻击防御的人形机器 。
关于其能力涵括了三个指标:自主移动、自主导向和自主决定 。
自主移动意谓系统能够自行移动、自主导向意谓系统能识别目标、自主决定则意谓系统能自行设定计划 。
若依此定义 , 目前大多数AI武器具有很高的自主移动和自主导向能力 , 但极少有自主决定的能力 。
【支付宝|传闻日本实验室曾发生AI杀人事件?如果AI杀人,谁该为此负责?】
有人说了 , 战场上用AI不是更好么?如果单纯地机器对机器 , 不是更能减少不必要的人员伤亡了么?
其实不然 , 再冷血的士兵也是一个个活生生的人 , 也有自己的喜怒哀乐 。 而任何战争的目的都只是为了达成自己的目标 , 给反对者以痛击 。 而不是纯粹为了进行杀戮游戏 。 所以世界上才会有国际战俘法 , 才会有人道主义救助走廊 。

人道原则是指即使在战时 , 也必须尊重人的生命和尊严 , 要求对他人施与人道待遇 。 因为人类会同情人类 , 因此有动力以人道方式对待彼此 。 此外 , 法律和道德判断使人类能够理解特定环境 , 做出经过思虑后的决策 , 包括在战争里最小化伤害 , 并防止任意与不合理的生命损失 。

这些都是AI所欠缺的部分 , 做为无生命的LAWS缺乏同情心 , 无法体会人类生命价值及其丧失的痛苦 。
AI只能根据算法做出生死决定 , 而算法在复杂和不可预测的情况下效果不佳 , 也无法针对每种情形先行编程 , 最终会将人类降低为一般的生物对象 , 违反人道原则 。
它们只是一群冷冰冰的兵器 , 并没有人类的感情 , 也不知道生命的价值 。 就拿无人机来说吧 , 它可以通过运用脸部识别技术加以学习训练后 , 就可以锁定特定人物进行攻击 , 至于这个人到底罪该不该死 , 这个人对于我军是否存在价值 , 完全不在无人机的考虑范围之内 。

相关经验推荐