谷歌AI人格觉醒靠谱吗?我们找大佬聊了聊,AI对话的风险与进化( 三 )


这些风险是非常可怕的 , 假想某个受到生活严重打击的人 , 对AI说:“我想找个桥跳下去” , AI立刻提供了附近桥的位置并导航路径 , 后果细思恐极 。
因此 , 在黄民烈教授看来 , AI对话系统下一阶段发展的重点是“更有伦理、更道德、更安全” 。 AI必须知道什么回复是安全的 , 不会产生风险 , 这就需要AI具备伦理和正确的价值观 。 “我们可以通过额外的资源、规则、检测手段赋予AI这样的能力 , 使风险降至最低 。 ”
AI最终的目标是为人类谋福祉 , 而不是伤害人类 。 黄民烈教授对AIforSocialgood(AI赋能社会)感到非常期待 , 他尤其关注AI在社会连接、心理疏导、情绪支持方面的应用 , 这些方面能够产生更高的社会意义和价值 。
AI赋能整体精神心理行业也是黄民烈教授现阶段的工作重点 , 他为此创办了基于AI技术的精神健康数字诊疗科技公司聆心智能 , 通过NLP和大模型训练AI对话系统在共情、自我暴露、提问等方面的能力 , 用以解决人类的情绪、心理问题 。 这项工作有望缓解我国心理健康资源紧缺的状况 。
谷歌AI人格觉醒靠谱吗?我们找大佬聊了聊,AI对话的风险与进化】相比于AI具备人格这样“遥遥无期”的科幻戏码 , AIforSocialgood距离人类社会更近 , 是AI界人士正在努力的方向 , 也更值得期待 。