图片|文本转图片的危险算法“达利”降临:“造假”程度绝了( 三 )


我很高兴这个工具没有被公开 。如果这件事公开了,(我)最明智的做法是完全脱离网络和电视,避免与那些想告诉你自己在网络上看到什么东西的人有任何接触 。 如果未来全息影像成为主流,那么我们将为子孙后代创造一个反乌托邦式的地狱 。
正如社交媒体与技术革命一样,硅谷的能力远远超过人们的批判性思维 。我们现在生活在一个教育被忽视了几十年的世界里,人们分析事物的能力已经让位于“应用公式” 。
与此同时,硅谷技术的发展正在提供不可抗拒的便利 。因为我们很多人都忙于生存,所以我们支持这种便利,甚至没有时间来反思它的影响 。因此,我们现在不再是挥舞锤子的人,而是大多数的钉子 。
图片|文本转图片的危险算法“达利”降临:“造假”程度绝了
文章图片

输入“空乘工作者”,出现的都是女性乘务员形象
我认为,关于人工智能的普及已经足有七八年,而大众之如今仍然会心生恐惧,是因为体验过被监控和数据之网牢牢困住的感觉后,即便惊喜于达利系统的强大创造力,也早就超越了“事不关己、高高挂起”的心态:
不知道这些曾经的笑话,什么时候会落到自己头上 。
正是鉴于西方社会这种对达利又惊又恐的态度,OpenAI已经反复公开强调,这绝对不是一个产品,自己仅仅是想了解算法的能力与局限性 。
他们保证会严格控制达利的使用权,只会向一小部分经过严格审查的测试人员开放;未来只会在艺术家工具层面做一些有限制的尝试 。
比较有趣的是,他们还给达利设定了一个“反欺凌过滤器” 。比如,输入“一头长着羊头的猪”,系统就拒绝输出 。因为OpenAI解释,“猪”和“羊”同时出现应该触犯了过滤器设定的禁令 。
另外,关于偏见问题,为了减少对女性的伤害,OpenAI希望过滤掉所有训练数据中的“性别内容” 。但他们发现,当他们尝试过滤掉这些信息时,达利系统产生的女性图像变少了 。
因为这又触及了另一种现实世界中职场存在的局限性(有些产业和职位,女性就是很少),因而导致了另一种对女性的伤害: 抹杀 。
图片|文本转图片的危险算法“达利”降临:“造假”程度绝了
文章图片

输入文字:熊猫宝宝在银河尽头弹钢琴 。OpenAI的公开图片里,大部分都是动物,尽量避免男女性别带来的争议
但是,世界上聪明的程序员还有很多很多,可能很快就会有其他企业和国家能能够开发出类似的技术 。毕竟,人类追求技术创新的动机非常多样化,而利益是其中最大的推动力之一 。
而他们本身的人类道德感是否值得信任,这就很难说了,因为很多动机与造福人类显然是相悖离的 。
但我们又不能因此一棒子打死,全面限制人类追求算法创新的速度 。那么,就应该思考这样一个问题:
如何才能真正改变所有算法创新参与者的潜在激励结构?
但对我个人来说,只能说对技术的应用相对悲观,或者说谨慎乐观:
【图片|文本转图片的危险算法“达利”降临:“造假”程度绝了】因为我从来不会对技术失望,但我也从来不轻易相信人性 。