|ChatGPT爆火,LeCun称大语言模型是邪路,Meta模型3天惨遭下线( 二 )



2月4日 , LeCun再次发推 , 更加直白地表示「在通往人类级别AI的道路上 , 大型语言模型就是一条歪路」 。

他这话一说 , 网友们可high了 , 纷纷冲到评论区留言 。
LeCun随后补充说:「依靠自动回归和响应预测下一个单词的LLM是条歪路 , 因为它们既不能计划也不能推理 。 」
「但是SSL预训练的Transformer是解决方案 , 因为它所处的现实系统有推理、计划和学习的能力 。 」

LeCun举了个有趣的例子:自己在参加播客节目时 , 展示过ChatGPT的回答 , 它看上去很有道理 , 却错得离谱 。 然而主持人在读完ChatGPT的回答后 , 却没有第一时间发现它错了 。
LeCun对此解释道:「我们的思维方式和对世界的感知让我们能预想即将发生的事物 。 这是我们获得常识的基础 , 而LLM并没有这种能力 。 」
他再次发推称:「在我们做出人类级别的AI之前 , 我们需要先做出猫猫/狗狗级别的AI 。 而现在我们甚至连这都做不到 。 我们缺失了十分重要的东西 。 要知道 , 连一只宠物猫都比任何大型语言模型有更多的常识 , 以及对世界的理解 。 」

在留言区 , 有网友毫不客气地怼起LeCun:「你说得不对吧 , 本人亲测 , Galactica的错误率接近100% , 而ChatGPT的错误率差不多在15%左右 。」

对于网友的痛击 , LeCun再次发推表明态度:「我从来没说大型语言模型没用 , 其实我们Meta也推出过Galactica模型 , 只是它不像ChatGPT那么好命罢了 。 ChatGPT满嘴胡诌 , 你们却对它如此宽容 , 但我家的Glacatica , 才出来三天 , 就被你们骂到下线了 。 」

对此 , 评论区有网友讽刺道:「你可真棒棒啊 。 不如回实验室去 , 把你说的东西给做出来 。 」
LeCun回复:「今天可是周日 , 推特大辩论是我周末最爱的消遣了 。 」

自家的模型只活了3天
LeCun如此意难平 , 可以理解 。
去年11月中旬 , Meta的FAIR实验室曾提出一个Galactica模型 , 它可以生成论文、生成百科词条、回答问题、完成化学公式和蛋白质序列的多模态任务等等 。

Galactica生成的论文
LeCun也很开心地发推盛赞 , 称这是一个基于学术文献训练出的模型 , 给它一段话 , 它就能生成结构完整的论文 。

然而 , 由于Galactica满嘴跑火车 , 它才上线短短三天 , 就被网友喷到下线 。
LeCun转发了Papers with Code的通知 , 像个「大怨种」一样说道:「现在我们再也不能和Galactica一起愉快地玩耍了 , 你们开心了?」

虽然Galactica的demo才上线几天 , 但当时的用户都感觉如临大敌 。
有网友警示道:想想这个「写论文」神器会被学生们拿来做什么吧 。

有网友表示 , 「Galactica这个模型的回答错漏百出 , 充满偏见 , 可是它的语气却十分自信权威 。 这太恐怖了 。 」

马库斯也表示 , 这种大型语言模型可能会被学生用来愚弄老师 , 非常令人担心 。
这熟悉的配方 , 熟悉的味道 , 真是令人感慨万千:曾经Galactica引起的恐慌和质疑 , 不正是ChatGPT后来所经历吗?
看着这段历史的重演 , 却有着截然不同的结局 , LeCun这么酸 , 确实不能说是毫无来由 。

那为什么ChatGPT就能在质疑的声浪中人气愈发高涨 , Galactica却只能惨兮兮地被骂到下线呢?
首先 , Galactica由Meta提出 , 大公司确实比OpenAI这样的小初创公司 , 面临更多的「声誉风险」 。
另外 , OpenAI的产品定位策略十分聪明 , 从ChatGTP的名字就可以看出 , 它主打的概念是聊天 。