ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?


ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图

ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图

让众人疯狂的网红AIChatGPT,原来也有明显的短板?
一段“网友调教这只AI”的聊天记录,在网上传开了 。
可以看到,AI起初居然说27是个质数 。
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



在网友向其提出质疑后,AI仍嘴硬称“27不能被3整除” 。
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



网友不得不和AI“大战几百回合” , 最后在人类锲而不舍的教导下,AI才终于终于低头认错 。
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



△上述图源:微博@沙雕文案 援引网友空间截图
有一说一,AI的认错态度倒是很好 。
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



有围观者看完后调侃:AI不是都要统治世界了吗,怎么会输给一道简单的数学题?
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



不过,也有很多人为ChatGPT说话:这么坦诚的认错态度,不比某些人强多了
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



数学水平拉胯,还贼固执
具体事情是这样的:
网友在和ChatGPT互动的过程中发现,这只AI数学水平过于拉胯,连27是不是质数这种简单问题都能搞错——而且还是在知道质数定义的情况下……
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



于是网友让ChatGPT证明它给出的结论,没想到,AI居然说27不能被3整除 。
网友表示无语,但还是耐着性子又问了一遍,结果AI依然嘴硬 , 偏把9说成是9.0 。
无奈,网友只能搬出代码,试着用Python来教会AI 。
结果AI还真学会了!而且人家还主动承认了刚才的错误 。
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



有意思的是 , 我们刚才也去问了ChatGPT“27是不是质数”,发现它已经改过来了 。
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



然后我们又拿了几个数字去问AI , 结果在这一回合中,它都正确地判断了一个数到底是不是质数 。
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



不过仔细一看,AI并没提到35能被7整除,于是我们又专门问了一遍 。然鹅……
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



这岂不是一本正经地胡说八道嘛?
于是我们也只好搬出Python教教它,但这回,连python似乎也没能让AI承认自己的错误……
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



所以这只AI为啥算术水平如此堪忧,而且还如此固执?
ChatGPT死活不认27能被3整除,网友:不是说AI要统治世界了吗?

文章插图



其中一个重要的原因就是,ChatGPT是个语言大模型,根据Open AI的GPT-3.5的模型微调而成,它擅长逻辑推理 , 但并不能执行标准的计算机算法 。

相关经验推荐