谷歌AI人格觉醒靠谱吗?我们找大佬聊了聊,AI对话的风险与进化( 三 )
这些风险是非常可怕的 , 假想某个受到生活严重打击的人 , 对AI说:“我想找个桥跳下去” , AI立刻提供了附近桥的位置并导航路径 , 后果细思恐极 。
因此 , 在黄民烈教授看来 , AI对话系统下一阶段发展的重点是“更有伦理、更道德、更安全” 。 AI必须知道什么回复是安全的 , 不会产生风险 , 这就需要AI具备伦理和正确的价值观 。 “我们可以通过额外的资源、规则、检测手段赋予AI这样的能力 , 使风险降至最低 。 ”
AI最终的目标是为人类谋福祉 , 而不是伤害人类 。 黄民烈教授对AIforSocialgood(AI赋能社会)感到非常期待 , 他尤其关注AI在社会连接、心理疏导、情绪支持方面的应用 , 这些方面能够产生更高的社会意义和价值 。
AI赋能整体精神心理行业也是黄民烈教授现阶段的工作重点 , 他为此创办了基于AI技术的精神健康数字诊疗科技公司聆心智能 , 通过NLP和大模型训练AI对话系统在共情、自我暴露、提问等方面的能力 , 用以解决人类的情绪、心理问题 。 这项工作有望缓解我国心理健康资源紧缺的状况 。
【谷歌AI人格觉醒靠谱吗?我们找大佬聊了聊,AI对话的风险与进化】相比于AI具备人格这样“遥遥无期”的科幻戏码 , AIforSocialgood距离人类社会更近 , 是AI界人士正在努力的方向 , 也更值得期待 。
- AI成精了?谷歌工程师因坚信人工智能有意识被劝退
- 华为鸿蒙系统|谷歌开始放弃安卓:华为鸿蒙的远见得到证实,小米OV怎么办
- USB|谷歌工程师称AI“有意识、有灵魂”,遭公司停职
- 谷歌同意赔偿1.18亿美元给1.5万女员工,以解决性别歧视诉讼
- Google|谷歌断供华为第3年,发生了最戏剧性的一件事
- 谷歌研究员被群嘲:LaMDA有人格是胡说八道!谷歌也回应:想多了,就是会聊而已
- 无线鼠标|为应对iPad,谷歌为Android平板指了条“明路”
- AI|谷歌研究员称AI已具备人格 同AI聊天记录公布坚称不是工具:网友感慨科幻
- LaMDA|谷歌工程师与AI聊出感情!他相信AI有意识,有感情,然后被停职了
- Google|谷歌工程师在声称其人工智能有感知能力后,被强制休假