1370亿参数,谷歌带来新语言模型LaMDA,将实现更安全更高质量对话( 二 )


此外 , LaMDA模型的扎实性会因模型大小的增加而不断提升 。 造成的原因可能是 , 模型越大 , 其记住不常见知识的能力越强 , 且微调允许模型访问外部知识源 , 并将记住知识的负载转移到外部知识源 。
不过 , 微调虽然缩小了语言模型与人类之间的差距 , 但该模型在安全性和扎实性上的水平依然弱于人类 。
1370亿参数,谷歌带来新语言模型LaMDA,将实现更安全更高质量对话
文章图片
图|LaMDA模型各方面的评估数据(来源:谷歌)
LaMDA模型的出现为完成开放域对话开辟了新的途径 , 同时表明了神经语言模型面临的关键挑战 , 如安全指标的使用和扎实性的提高 , 以及如何通过更大的模型和更清晰标记的数据来进行微调 。
但是 , 这还是一项非常早期的工作 , 且具有很大的局限性 。 未来 , 谷歌将探索新的方法来进一步改进安全指标和LaMDA模型的扎实性 , 并与其人工智能原则保持一致 。
-End-
1370亿参数,谷歌带来新语言模型LaMDA,将实现更安全更高质量对话
文章图片
参考:
https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html