文章图片
文章图片
这可能看起来像是一场不起眼的联合国秘密会议 , 但本周在日内瓦举行的一次会议却吸引了人工智能、军事战略、裁军和人道主义法方面的专家的关注 。
杀手机器人——无人机、枪支和炸弹 , 它们拥有人工大脑 , 自己决定是否攻击和杀戮 , 应该做些什么来规范或禁止它们 。
曾经是《终结者》(Terminator)系列和《机械战警》(RoboCop)等科幻电影的领域 , 杀手机器人 , 在技术上更被称为“致命自主武器系统”(Lethal Autonomous Weapons Systems) , 在几乎没有监管的情况下 , 已经被加速发明和测试 。 一些原型甚至被
这些机器的进化被认为是战争中潜在的地震事件 , 类似于火药和核弹的发明 。
今年 , 《特定常规武器公约》的125个成员国中的大多数首次表示 , 他们希望限制杀人机器人 。 但他们遭到了正在开发这些武器的成员国的反对 , 尤其是美国和俄罗斯 。
该组织的会议在星期五结束时 , 只发表了一份关于考虑所有国家都能接受的可能措施的含糊声明 。 裁军组织“阻止杀人机器人运动”(Campaign to Stop Killer Robots)表示 , 这一结果“远远不够” 。
什么是《某些常规武器公约》?
《常规武器公约》(CCW)有时也被称为《非人道武器公约》 , 它是一个规则框架 , 禁止或限制被认为会造成不必要、不合理和滥杀滥伤的武器 , 如燃烧弹、致盲激光和不区分战士和平民的饵雷 。 大会没有关于机器人杀手的规定 。
机器人杀手到底是什么?
对于精确的定义众说纷纭 , 但它们被广泛认为是一种决策很少或没有人类参与的武器 。 机器人技术、人工智能和图像识别技术的快速发展 , 使这些武器成为可能 。
美国在阿富汗、伊拉克和其他地方广泛使用的无人驾驶飞机不被认为是机器人 , 因为它们由人远程操纵 , 由人选择目标并决定是否射击 。
为什么他们被认为是有吸引力的?
对战争规划者来说 , 这些武器承诺让士兵远离危险 , 并通过赋予无人驾驶无人机和无人驾驶坦克等自主系统更多的战场责任 , 让它们独立决定何时出击 , 从而比人类更快地做出决策 。
反对意见是什么?
批评者认为 , 不管技术多么先进 , 让机器来做致命的决策在道德上是令人反感的 。 机器如何区分成人和儿童 , 拿着火箭炮的战士和拿着扫帚的平民 , 敌对战斗人员和受伤或投降的士兵?
红十字国际委员会主席、杀手机器人直言不讳
在会议召开之前 , 人权观察组织和哈佛法学院的国际人权诊所呼吁采取步骤 , 达成一项具有法律约束力的协议 , 要求在任何时候都由人类控制 。
“机器人缺乏人道对待人类所必需的同情心、同理心、怜悯和判断力 , 它们无法理解人类生命的内在价值 , ”这些组织在一份简报中表示 , 以支持他们的建议 。
另一些人则认为 , 自主武器不仅不会降低战争风险 , 反而会起到相反的作用——为敌人提供了一种造成伤害的方式 , 将对自己士兵的风险降至最低 。
相关经验推荐
- USB|U盘终结者来了!移速固态U盘读写轻松破400MB/s,秒杀现在主流U盘
- 机器人|预算紧张补上骁龙8系旗舰,这款2K档新机担值得考虑
- 工业机器人|曾嘲笑苹果的它,最终变成了曾经讨厌的模样,刘海加持
- 机器人|高端制造高歌猛进,中国要在机器人技术领域杀出一条血路!
- 机器人|四轴和六轴机器人的区别是什么,看了就知道!
- USB|Intel 联手 ASML,为 2025 年 High-NA EUV 量产铺路
- 苹果|有颜有值有实力,云米AI扫拖机器人Alpha 3体验:做个懒人,真舒坦
- 英特尔|号称“没有竞品”!百度首款汽车机器人靠谱吗?
- USB|网线接口为什么是 RJ45 规格,而不能做成USB型?
- 机器人|手机内部有自动优化,绿树会更绿,脸色会轻微偏好看的红色