|ChatGPT爆火,LeCun称大语言模型是邪路,Meta模型3天惨遭下线( 三 )


你可以和它聊知识、聊论文 , 但既然是「chat」 , 自然可以放飞一些 , 谁规定聊天一定要聊「准确」「严谨」的东西呢?

但Glactica则不同 , 它的官方定义是:「这是一个用于科研的模型 。 」「这是一个受过人类科学知识训练的人工智能 。 您可以将它用作一个新界面 , 来访问和操作我们对宇宙的知识 。 」
这当然就给自己埋了大雷了 。
虽然从技术层面来看 , ChatGPT的确没有太多创新 , 但是从产品运营的角度 , OpenAI这一招 , 打得十分出色 。
LLM为什么会满嘴胡话?
所以 , 大语言模型为什么会满嘴胡话呢?
在LeCun点赞的一篇文章中 , 作者做出了解释:「我曾尝试用ChatGPT来帮忙写博客文章 , 但都以失败告终 。 原因很简单:ChatGPT经常会整出很多虚假的『事实』」 。

自然语言不等于知识
要知道 , LLM是为了在与其他人类的对话中听起来像一个人 , 而且它们也很好地实现了这个目标 。 但问题是 , 听起来自然与评估信息的准确性是两种完全不同的事情 。
那么 , 这个问题该如何解决呢?
举个例子 , 我们可以借助已经对物理学理解进行了编码的机器——物理学引擎:
修改LLM , 使它能识别出自己被问到的是一个关于物理的问题
将问题转换为一个物理场景
用一个物理引擎来模拟这个场景
用文字描述该场景的输出
而对于「假论文问题」 , 我们同样也可以采用类似的修正 。
也就是让ChatGPT认识到它被问到了关于科学论文的问题 , 或者它正在写关于论文的东西 , 并强迫它在继续之前查阅一个可信的数据库 。

但是请注意 , 如果真的这样做了 , 那就意味着你把一种特定的额外「思维」嫁接到了LLM身上 。 而且还必须考虑到一大堆特殊的情况 。 这时 , 人类工程师知道真相来自哪里 , 但LLM却不知道 。
此外 , 随着工程师们把越来越多的这样的修复方法嫁接在一起 , 越来越明显的是 , LLM不是一种人工通用智能的形式 。
不管人类的智能是什么 , 我们都知道它不仅仅是能说会道的能力 。
人类语言的多种用途
为什么人类要互相交谈 , 或为对方写下东西?
其中一个目的是直接传达事实信息 , 比如「我在商店」、「它没有插电」等 , 但这远不是我们使用语言的唯一原因:
劝说、请求、命令、指示
传达情感
娱乐他人(包括小说、笑话等)、自娱自乐
欺骗(撒谎)
建立关系(与朋友建立联系 , 调情)
……
看得出来 , 人类交流的目的是非常多样化的 。 而且 , 我们通常也不会在写作的内容中表明它的目的是什么 , 作者和读者也对这些内容的作用有着不同的认知 。
如果ChatGPT想要成为一个值得信赖的事实传播者 , 它可能要学会如何区分它所训练的人类写作的各种目的 。
也就是说 , 它将不得不学会不认真对待废话 , 区分说服和宣传与客观分析 , 独立判断一个来源的可信度与它的受欢迎程度 , 等等 。
即使对于人类 , 这也是一个非常困难的技巧 。 有研究表明 , 虚假信息在推特上的传播速度是准确信息的数倍——往往更具有煽动性、娱乐性或看起来很新颖 。
那么问题来了 , 为什么生成式人工智能在计算机代码上表现很好?为什么编写功能代码的准确性不能转化为传达事实的准确性?

对此可能的回答是 , 计算机代码是功能性的 , 而不是交流性的 。 以正确的语法编写某段代码会自动执行一些任务 , 而编写一个语法正确的句子却不一定能达到任何目的 。