1370亿参数,谷歌带来新语言模型LaMDA,将实现更安全更高质量对话( 二 )
此外 , LaMDA模型的扎实性会因模型大小的增加而不断提升 。 造成的原因可能是 , 模型越大 , 其记住不常见知识的能力越强 , 且微调允许模型访问外部知识源 , 并将记住知识的负载转移到外部知识源 。
不过 , 微调虽然缩小了语言模型与人类之间的差距 , 但该模型在安全性和扎实性上的水平依然弱于人类 。
文章图片
图|LaMDA模型各方面的评估数据(来源:谷歌)
LaMDA模型的出现为完成开放域对话开辟了新的途径 , 同时表明了神经语言模型面临的关键挑战 , 如安全指标的使用和扎实性的提高 , 以及如何通过更大的模型和更清晰标记的数据来进行微调 。
但是 , 这还是一项非常早期的工作 , 且具有很大的局限性 。 未来 , 谷歌将探索新的方法来进一步改进安全指标和LaMDA模型的扎实性 , 并与其人工智能原则保持一致 。
-End-
文章图片
参考:
https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html
- 高德地图|2021手机地图满意度排名,高德第一,谷歌第五
- 图森|图森未来(TSP.US)将与Hillwood合作,后者将会把无人驾驶设施技术参数整合到旗下物业
- 显卡|七彩虹三款RTX3050显卡配置参数大比拼,1899元起香到没朋友
- 一直号称是“别人家公司”的谷歌|alphabet的股权激励计划
- 谷歌自宣布将在2023年底终止Chrome浏览器对第三方的Cookie支持后|谷歌取消第三方cookie的原因
- 索尼|外媒:130万公里海底光缆,有66%掌握在软微、谷歌和亚马逊等西方企业手上
- 谷歌|谷歌云部门拟招聘大量区块链人才
- 学者|十年AI谁“最能打”?AI 2000榜单:何恺明最佳论文“刷”状元,谷歌机构排名第一
- 亚马逊|外媒:130万公里海底光缆,有66%掌握在软微、谷歌和亚马逊等西方企业手上
- 材料参数|好好利用这种材料,披上隐身斗篷的难度将大大降低