考虑到这些系统的巨大规模,不可能准确判断它们的输出有多少是错误的 。但至少Stack Overflow已经认为,ChatGPT目前误导用户的风险太高了 。
另一些人则把人工智能审核的问题交给ChatGPT本身 , 要求ChatGPT回答支持和反对它自己的论据 。在一个回复中,ChatGPT自己也得出了与Stack Overflow完全相同的结论:“总的来说,是否允许在Stack Overflow上使用人工智能生成答案是一个复杂的决定,需要社区仔细考虑 。”
人工智能专家们目前也在讨论这些大型语言模型带来的潜在威胁 。Facebook母公司Meta的首席人工智能科学家杨立昆(Yann LeCun)认为,虽然大型语言模型肯定会产生错误信息,但只有当错误信息被广泛传播、阅读和相信了才会产生伤害 。也有人说 , 这些系统大规模且廉价生成文本的能力,势必会使得虚假信息大量传播 。
对审核机制的挑战
迄今为止,几乎没有证据表明大型语言模型有不好的影响 。但Stack Overflow和其他一些专家相信,这些系统的庞大体量确实会带来新的挑战 。该网站的运营人员在宣布禁用ChatGPT时也表达了同样的观点,他们指出:“人工智能生成的答案有数千个,而这些答案通常需要具有专业知识的人详细阅读,才能确定答案实际上是错误的 , 这些错误信息已经淹没了我们以志愿者为基础的高质量问答社区 。”
令人担忧的是,这种模式可能会在其他平台上重复,大量人工智能内容会用看似合理但不正确的回答淹没真实用户的声音 。
然而 , ChatGPT究竟如何在网络的不同领域发挥作用,将取决于平台的性质及其审核功能 。大量错误回答产生的问题能否在未来通过过滤器等工具得到缓解还有待观察 。
一位曾经在《GQ》和《滚石》等出版物工作的事实核查员表示 , 纸质新闻时代,每个事实都必须包含权威的一手或二手资料来源,但现在已经很少有出版物有事实核查员,这就把责任推给了采访人员和编辑 。信息爆炸时代,以人为媒介传播的虚假信息尚且让审核机制“头疼”,很难想象当人工智能开始编造谎言,会带来多大的挑战 。
有不少专家强烈反对ChatGPT有朝一日可能取代传统搜索引擎的想法 。如果Stack Overflow这种专业网站的审核速度都无法跟上人工智能带来的错误信息,那么很难想象其他网站能够管理铺天盖地的AI“废话” 。
当一个错误信息像闪电一样在社交媒体上传播时,搜索引擎需要提供可证实的信息,而不是一段看似可信的内容 。
华盛顿大学语言学教授Emily Bender最近再次强调大型语言模型“不适合”搜索:“因为它们被设计成只会胡编乱造,也没有任何信息素养 。”
OpenAI在其发布演示的博客中也明确指出了这一弱点,并解释说修复它是“具有挑战性的” 。OpenAI表示:“在人工智能的强化学习训练中,目前尚没有真相来源;训练模型更加谨慎,使其能够拒绝回答问题;监督训练会误导模型,因为理想的答案取决于模型知道什么,而不是人类演示者知道什么 。”
所以很明显,OpenAI非常清楚ChatGPT在看似无所不知的表面下充满了“废话”,因为他们从来没有想过这项技术会是提供真相的来源 。
不过,最重要的问题是:人类用户会接受这些似是而非的回答吗?
在这个舆论时常反转的时代,可能真的会 。因为只要一个消息听起来合理,许多人就会认为这是正确的 。
相关经验推荐
- 火爆全网的ChatGPT,早被资本盯上了,国内有人刚融了10亿
- 别被火爆全网的ChatGPT“骗了”
- “隆鼻精油”不靠谱
- 美国“非二元性别”官员,又被指控在机场偷行李
- 使用多年的小学教材插图被指“丑”,家长和专家怎么看?
- 茶七网的茶叶怎么样
- 幼师被指罚站女童并让同学数落她 园长:正常教育
- 不靠谱的育儿习俗盘点 不靠谱的育儿习俗有哪些
- ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?
- 不花钱,让「情圣」ChatGPT教你怎么追马斯克!