机器人|国际象棋机器人“惩罚”违规,夹断7岁男孩手指!( 二 )


比尔盖茨也表示:“我是对超级智能的发展保持担忧的人之一 。 目前 , 那些在我们的位置替代我们劳动、并完成许多任务的机器并不是超级智能 。 如果我们能够很好地进行管理 , 像这样的发展会变得越来越好 。 然而几十年之后 , 智能会带来新的问题 。 我十分同意马斯克的观点 , 但不明白为什么目前人们对这个问题并不担心 。 ”
马斯克还出资1000万美元给一个致力于人工智能领域安全性研究的基金 。
据了解 , 目前国际上达成共识的机器人三原则是在1940年由被誉为“机器人学之父”的科幻作家阿西莫夫所提出的:
第一条 , 机器人不得伤害人类 , 或看到人类受到伤害而袖手旁观 。
第二条 , 机器人必须服从人类的命令 , 除非这条命令与第一条相矛盾 。
第三条 , 机器人必须保护自己 , 除非这种保护与以上两条相矛盾 。
冯华山表示 , 如果违背“机器人三原则” , 将人工智能应用到战争中 , 将带来恐怖的结果 。 更重要的是如果机器人在执行自我学习的过程中失去或脱离人的监控 , 按照程序自行排列、演进 , 那么就有可能形成超越人类理解的内部逻辑 , 从而出现缺乏约束、失控、反人类的可能性 。 所以 , 坚守原则和国家的规定对人工智能使用的安全性而言至关重要 。
人工智能伦理安全如何把控?
从全球范围来看 , 美国政府较早关注到这一问题 , 2016年在白宫文件中呼吁开展研究 , 并在《美国国家人工智能研究与发展战略规划》中明确了提高公平、可解释性 , 符合伦理道德的设计 , 确保系统安全可靠等要求 。
2017年 , 霍金、马斯克、DeepMind创始人戴密斯等全球数千名专家和企业代表 , 签署有关伦理的阿西洛马人工智能23条原则 , 呼吁业界遵守 , 共同保障人类未来的利益和安全 。
中国人工智能学会基础委员会常务委员陈志成在接受媒体采访时表示 , 我国对人工智能伦理的重视也上升到国家层面 。
2019年2月 , 科技部部长王志刚宣布成立新一代人工智能治理专业委员会 , 并在第一届治理专委会的第一次会议上讨论起草相关的人工智能技术的标准和使用规范 。 2020年6月 , 国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则—发展负责任的人工智能》 , 提出了人工智能治理需遵循的8条原则:和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理 。
在中国 , 很多企业也在积极参与探讨 , 如百度提出人工智能伦理的4条原则 , 包括人工智能的最高原则是安全可控等 。 腾讯则提出“可用、可靠、可知、可控”的理念 , 倡导科技向善 。