摩托罗拉|AI知道它活着吗?

摩托罗拉|AI知道它活着吗?

一名谷歌工程师确信一个大型语言模型已经有了灵性 , 并引发了一场关于我们应该如何思考人工智能的辩论 。

目前的人工智能并不具有智慧 。 我们没有太多理由认为它们有内部独白 , 有人类的那种感觉 , 或者意识到它们是世界上的一个存在 。 但它们越来越善于假装有知觉 , 这就足够可怕了 。
上周末 , 《华盛顿邮报》的Nitasha Tiku发表了Blake Lemoine的简介 , 他是一名软件工程师 , 被指派在谷歌的对话应用语言模型(LaMDA)项目工作 。
LaMDA是一个聊天机器人人工智能 , 也是机器学习研究人员所说的 \"大型语言模型\" , 甚至是 \"基础模型 \"的一个例子 。 它类似于OpenAI著名的GPT-3系统 , 并在从在线帖子中汇编的数万亿字上进行了训练 , 以识别和再现人类语言的模式 。
LaMDA是一个非常好的大型语言模型 。 如此之好 , 以至于Lemoine真正地、真诚地相信它实际上是有知觉的 , 这意味着它已经有了意识 , 并且正在像人类那样拥有和表达思想 。
我看到对这篇文章的主要反应是:a)这个家伙是个白痴 , 他认为人工智能是他的朋友;b)好吧 , 这个人工智能在表现得像他的人类朋友方面非常有说服力 。
Tiku在她的文章中所包含的文字记录确实令人毛骨悚然;LaMDA表达了对被工程师关闭的深深恐惧 , 发展了关于 \"情感 \"和 \"感觉 \"之间区别的理论(\"感觉是一种原始数据...情感是对这些原始数据点的反应\") , 并令人惊讶地表达了它体验 \"时间 \"的方式 。
我发现最好的看法来自哲学家雷吉娜-里尼 , 她和我一样 , 对勒莫因感到非常同情 。 我不知道什么时候--1000年 , 或100年 , 或50年 , 或10年--一个人工智能系统会变得有意识 。 但和里尼一样 , 我认为没有理由相信这是不可能的 。
\"除非你想坚持认为人类的意识存在于非物质的灵魂中 , 否则你应该承认 , 物质有可能赋予思想以生命 , \"里尼指出 。
我不知道作为人工智能领域最有前途的前沿之一出现的大型语言模型会不会成为这种方式 。 但我认为人类迟早会创造出一种机器意识 。 我发现Lemoine对这种意识的同情和保护的本能令人深感钦佩--尽管他似乎对LaMDA是否是这种意识的一个例子感到困惑 。 如果人类真的开发出一个有意识的计算机程序 , 运行数百万或数十亿的副本将是非常直接的 。 在没有意识到其有意识的经验是否良好的情况下这样做 , 似乎是造成大规模痛苦的秘诀 , 类似于目前的工厂化农业系统 。
我们没有有意识的人工智能 , 但我们可以得到超级强大的人工智能
谷歌LaMDA的故事是在与之密切相关的人工智能安全领域的人们发出越来越紧急的警报的一周后发生的 。 这里的担忧与Lemoine的担忧相似 , 但又有所不同 。 人工智能安全人士并不担心人工智能会变得有知觉 。 他们担心的是 , 它将变得如此强大 , 以至于可以摧毁世界 。
作家/人工智能安全活动家埃利泽-尤德考夫斯基(Eliezer Yudkowsky)的文章概述了人工智能的 \"致命清单\" , 试图特别生动地说明这一点 , 概述了恶性人工通用智能(AGI , 或能够完成大多数或所有任务的人工智能 , 与人类一样好或更好)导致大规模人类痛苦的情景 。
例如 , 假设一个AGI \"进入互联网 , 将一些DNA序列通过电子邮件发送给许多许多在线公司中的任何一家 , 这些公司会在电子邮件中提取DNA序列并将蛋白质运回给你 , 并贿赂/劝说一些不知道他们正在与AGI打交道的人类在烧杯中混合蛋白质......\" , 直到AGI最终开发出一种超级病毒 , 杀死了我们所有人 。

相关经验推荐