人造AI不能缺乏伦理教育

上海交大开学第一天,“人工智能思维与伦理”课程开讲。这门课不教编程和算法,而是在讨论这样一些问题:你们今后开发产品时,能否遵循个人信息采集的“最小必要”原则?能否抵制“大数据杀熟”的商业利益诱惑?上海交大改变理工科教育过于偏重工具理性倾向,为未来工程师输入“科技向善”算法。(《解放日报》10月9日)
美国作家艾萨克·阿西莫夫在其科幻小说短篇集《我,机器人》中,便提出了著名的“机器人学三定律”,为人工智能发展提供了有效的伦理学思路。AI发展不能脱离“人”这个关键因素。工程师在设计高等AI产品之前,必须学会引导AI保护人,才能避免霍金“人工智能可能会毁灭人类”的担忧。普及AI伦理学课程十分必要。
伴随着AI科技的高速发展,我们生活中涌现出许多看得见的或看不见的AI产品。他们在网络消费、物资生产、交通出行等领域扮演着十分重要的角色。然而,一些缺乏“善意”的AI算法在“助人”的同时又“吃人”。“大数据杀熟”薅消费者身上的羊毛;“定向推送”困住用户的眼界;“自动驾驶”关键时刻不一定保护驾驶员等等。
即便发展了数十年,人工智能对不少科学家来说仍旧是“新兴领域”,我们对其的道德设计并不算高。原本并不算严格的道德标准,在逐利倾向的影响下逐渐松弛,AI有害的一面由此凸显。避免AI伤人,不能局限于事后讨论追责,我们必须在事前,建立伦理保护的高墙,让工程师们在设计AI产品之前,便主动预想和避免有害的一面。
生活中有一句俗话说:“要学做事,先学做人。”对于与人类共同发展的人工智能,可能就是“AI学会赚钱之前,要先学会保护人。”我们需要通过广泛的严谨的教育,引导AI产品设计者坚守服务用户、保护用户的核心设计要求,明确了解什么样AI功能可能伤人,什么样的AI功能有利于保护人,让未来AI产品充满了与人为善的温度。
始终得相信,只要为AI产品灌注成熟的道德理念,AI就能成为推动人类社会发展的强大推进器。教育未来的工程师,就是培养未来的AI产品。对此,教育思路必须及时跟上,面向广大民众,深入地开展针对AI道德要求的反思与讨论。预想AI发展与社会发展可能产生的矛盾和冲突。从集体的讨论中,探寻AI道德界限,也让更多的人了解AI。在推出AI产品之前,伴随性完成伦理课程设计,并随形势发展自我优化。
【 人造AI不能缺乏伦理教育】人工智能融入人类社会是当下不可避免的大趋势,我们不能因为其中可能衍生的不良因素就全然拒绝AI。我们要对人工智能有信心,对AI伦理教育有信心。(严奇)