Meta最新大模型差点成了“科研造假发动机”|meta大模型成了“科学造假发动机”,发布3天就在争议中下架( 二 )


Meta最新大模型差点成了“科研造假发动机”|meta大模型成了“科学造假发动机”,发布3天就在争议中下架
文章图片
问题出在哪?
在HackerNews上有人认为 , 语言模型终究是在“对语言建模”而不是对内容 。
就像AI绘画模型一样 , 你让它画“骑马的宇航员”它就能画出来 , 虽然这不太可能发生 , 但是很有趣 。
Meta最新大模型差点成了“科研造假发动机”|meta大模型成了“科学造假发动机”,发布3天就在争议中下架
文章图片
类似的讨论也发生在Twitter上 。 如果你让AI生成一篇关于“生活在太空的熊”的维基页面 , AI也会试着生成 。
有人认为 , 不 , AI需要判断出这个要求不合理 。
Meta最新大模型差点成了“科研造假发动机”|meta大模型成了“科学造假发动机”,发布3天就在争议中下架
文章图片
关键就在于 , 人们对图片和文字的要求是不一样的 。
图片中的内容不合理 , 人们只会觉得有趣而接受 。 而文字的内容错了 , 那就不可接受 。
LeCun则认为这种工具的用法应该是辅助驾驶 , 它不会帮你写好论文 , 只是帮你在过程中减轻认知负担 。
Meta最新大模型差点成了“科研造假发动机”|meta大模型成了“科学造假发动机”,发布3天就在争议中下架
文章图片
以谷歌为代表的AI大厂 , 近年来对大模型特别是生成式模型的发布非常谨慎 , 像是对话模型LaMDA和AI绘画Imagen等都不开源、不给Demo或只给限定场景下的Demo 。
另一方面 , 以StableDiffusion为代表开源项目推动了整个领域的技术进步与应用普及 , 但也在版权和生成有害内容方面引发一些问题 。
Meta最新大模型差点成了“科研造假发动机”|meta大模型成了“科学造假发动机”,发布3天就在争议中下架】你更支持哪种做法?或者还有第三条路么?