ChatGPT 死活不认 27 能被 网友:ai要统治世界了

让众人疯狂的网红AIChatGPT , 原来也有明显的短板?
一段“网友调教这只AI”的聊天记录 , 在网上传开了 。
可以看到 , AI起初居然说27是个质数 。
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
在网友向其提出质疑后 , AI仍嘴硬称“27不能被3整除” 。
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
网友不得不和AI“大战几百回合” , 最后在人类锲而不舍的教导下 , AI才终于终于低头认错 。
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
△上述图源:微博@沙雕文案援引网友空间截图
有一说一 , AI的认错态度倒是很好 。
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
有围观者看完后调侃:AI不是都要统治世界了吗 , 怎么会输给一道简单的数学题?
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
不过 , 也有很多人为ChatGPT说话:这么坦诚的认错态度 , 不比某些人强多了 。
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
数学水平拉胯 , 还贼固执
具体事情是这样的:
网友在和ChatGPT互动的过程中发现 , 这只AI数学水平过于拉胯 , 连27是不是质数这种简单问题都能搞错——而且还是在知道质数定义的情况下……
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
于是网友让ChatGPT证明它给出的结论 , 没想到 , AI居然说27不能被3整除 。
网友表示无语 , 但还是耐着性子又问了一遍 , 结果AI依然嘴硬 , 偏把9说成是9.0 。
无奈 , 网友只能搬出代码 , 试着用Python来教会AI 。
结果AI还真学会了!而且人家还主动承认了刚才的错误 。
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
有意思的是 , 我们刚才也去问了ChatGPT“27是不是质数” , 发现它已经改过来了 。
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
然后我们又拿了几个数字去问AI , 结果在这一回合中 , 它都正确地判断了一个数到底是不是质数 。
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
不过仔细一看 , AI并没提到35能被7整除 , 于是我们又专门问了一遍 。 然鹅……
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
这岂不是一本正经地胡说八道嘛?
于是我们也只好搬出Python教教它 , 但这回 , 连python似乎也没能让AI承认自己的错误……
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
所以这只AI为啥算术水平如此堪忧 , 而且还如此固执?
其中一个重要的原因就是 , ChatGPT是个语言大模型 , 根据OpenAI的GPT-3.5的模型微调而成 , 它擅长逻辑推理 , 但并不能执行标准的计算机算法 。
而且与搜索引擎不同 , 它目前也没有网页浏览功能 , 无法调用在线计算器 。
此前 , ChatGPT其实已经向用户坦言 , 它不懂算术 。 两位数的乘法或许还凑乎 , 但遇到三位数的乘法 , 人家直接不干了 。
ChatGPT 死活不认 27 能被 网友:ai要统治世界了
文章图片
我们也去问了一遍 , 现在AI到是直接给了个答案 , 不过是错的 。 (正确答案为186524)