机器人|战争领域的第三次革命 人工智能是否变得比核武器更危险?( 三 )


尽管核武器构成了生存威胁 , 但由于“威慑理论”(该理论基于武力是武力的最佳补救措施 , 也就是说 , 如果一个国家取得了实力上的优势 , 它就可以将自己的意志强加于其他国家 , 只有反对它或优于它的其他力量才能对其进行约束 。 )由于核战争的后果对双方都有一定的破坏性 , 任何发动核打击的国家都极有可能面临互惠互利 , 从而导致自我毁灭 。


1945 年 8 月 , 两天之内 , 美国飞机投下了两颗原子弹 , 一颗在广岛 , 另一颗在长崎 , 这是第一次也是唯一一次使用核武器 , 原子弹的破坏力袭击并烧毁了建筑物和人民

但是当我们谈论自主武器时 , 情况就不一样了 , 威慑理论在这个领域并不适用 , 因为第一次突然袭击可能无法追查 , 正如我们之前所讨论的 , 自主武器攻击可以导致其他各方的快速反应 , 更不用说升级可能非常快 , 这可能导致核战争 。 真正的障碍是 , 第一次袭击可能不是由一个国家发起的 , 而是由恐怖分子或其他非国家行为者发起的 , 这加剧了这些武器的危险性 。
为了避免这种存在主义的灾难 , 出现了几种提议的解决方案 。 第一个解决方案是需要在这种恶性战争循环中出现人为因素 , 或者确保人是做出所有杀人决定的人 , 但是自主武器的威力源于在这一集中非人类所获得的速度和准确性 , 因此 , 这种让步可能不会被任何想要赢得军备竞赛的国家所接受 , 而让人类参与这些过程的保护措施在很大程度上取决于这个人的道德品质和他对事情的判断 。
第二个提案是禁止使用这些武器 , 该提案的支持者之一是名为“停止使用杀手机器人”的运动 , 其提交了一份由 3000 人签署的论文 , 其中包括伊隆·马斯克、斯蒂芬·霍金以及数千名人工智能领域的专家 , 他们反对使用这些武器 。
过去 , 生物学家、化学家和物理学家做出了类似的努力 , 拒绝使用生物、化学和核武器 。 当然 , 我们知道禁止这些武器并不容易 , 但之前禁止使用激光和致盲化学和生物武器的禁令已经奏效 。 我们今天面临的主要障碍是美国、英国和俄罗斯反对这一想法 , 认为现在这样做还为时过早 。

第三个解决方案是规范这些无人武器的使用 , 不幸的是 , 由于难以实施有效的技术规范而不是非常全面 , 这也将变得复杂 。 最重要的是 , 我们必须首先问:自主武器的定义是什么?我们将如何审查因使用这些武器而导致的违规行为?
尽管这些问题在短期内会造成极其困难的障碍 , 但从长远来看 , 创造性的解决方案可能是可行的 , 尽管难以想象 。 在考虑这些解决方案时 , 我们将面临许多问题 , 例如:是否所有国家都同意机器人将在未来打所有战争?这不会造成人员伤亡 , 而是旨在获得传统的战利品 , 并仅将其交付给对方 。
谁知道?我们可能会看到机器人与人类作战的未来 , 但条件是允许机器人使用可以使敌人军队中的其他战斗机器人瘫痪的武器 , 而不会对人类造成伤害 。 归根结底 , 我们必须清楚地意识到 , 自主武器(杀手机器人)确实代表着一种明确而现实的危险 , 随着时间的推移 , 它们会转变为更智能、更灵活、更致命、更容易获得的武器 , 这也引起了人们的担忧和恐惧 。
但归根结底 , 加速这些武器扩散的是各国都在进行的军备竞赛 , 缺乏核武器的天然威慑力 。 总而言之 , 我们必须认识到 , 自主武器是人工智能的一种应用 , 它明显而严重地违背了我们的道德 , 并对人类构成了真正的威胁 。

相关经验推荐