机器|人工智能杀人机器已经可以识别人类目标?其所带来的风险越来越大

【机器|人工智能杀人机器已经可以识别人类目标?其所带来的风险越来越大】机器|人工智能杀人机器已经可以识别人类目标?其所带来的风险越来越大

计算机专家斯图尔特·拉塞尔教授指出 , 人工智能杀人机器已经可以识别人类目标?其所带来的风险越来越大 , 他希望立刻禁止研究、使用或推广它们 。 这些机器人是对1984年阿诺德·施瓦辛格主演的电影《终结者》情节的真实再现 。

计算机专家发出警告:人类或正面临着被终结者式的智能武器消灭的危险 , 这并非危言耸听 。 计算机专家斯图尔特·拉塞尔教授表示 , 人工智能杀人机器带来的风险太大了 , 他希望立刻禁止它们 。 因为它们已经可以找到并谋杀特定的人类目标了 。
这位美国加州大学的研究人员说:“一架致命的、人工智能驱动的四轴飞行器可能只有一罐鞋油那么小 。 大约3克的炸药就足以近距离杀死一个人 。 一个集装箱可以装100万件致命武器 , 而且它们可以同时被派去执行任务 。 ”这些所谓的人工智能杀人机器人是对1984年阿诺德·施瓦辛格主演的电影《终结者》情节的真实再现 。

据报道 , 英国皇家国防部正在大力投资人工智能 , 但表示其武器在发射过程中总是会有一个人 。 上个月 , 当被问及人们听完他的讲座后 , 是否应该感到“害怕、受到鼓舞 , 并下定决心看到这项技术的发展之路”时 , 拉塞尔教授表示 , “都是这样” , “我认为有一点恐惧是合适的 , 不是当你明天早上起来 , 想着我的笔记本电脑会杀了我或什么的恐惧 , 而是想想未来……”
拉塞尔教授告诉BBC科技记者罗里·凯兰-琼斯说:“我想说 , 这和我们对气候危机的恐惧是一样的 , 或者说 , 我们应该对气候危机的恐惧是一样的 。 ”拉塞尔教授补充说 , 讲座中的潜在危机部分本身值得一谈 , “因为我认为这真的很重要 , 也很紧迫 。 之所以紧急 , 是因为我们在过去六、七年里一直在谈论的人工智能武器现在开始生产和销售 。 ”

    相关经验推荐