骗过百万网友的AI照片,你分辨得出来吗?

眼见为实的时代过去了 , AI已经学会制造真实 。
8月21日 , 重庆北碚缙云山山火 , 大火一度蔓延至山脚下的村镇 。 山路坡陡沙多 , 而摩托车足够灵巧 。 一点点把物资运上山的摩托骑手们成了这场山火救援中的主角 , 也成了社交媒体上人们关注的焦点 。
同时 , 社交媒体上关于重庆山火的配图被网友指出“10张有8张是AI作画 , 下面评论却一片感动哭了” 。
骗过百万网友的AI照片,你分辨得出来吗?
文章图片
其实 , 要判断这样的图片是真是假 , 可能真的没那么容易 。 下面 , 你可以试试 。
AI还能画得更多 。 造一把牛油果做的椅子 , 把集市开到空中 , 让一只猫置身于中世纪场景中寻找Wi-Fi……这些都是小意思 。 美国一家桌游公司的总裁JasonAllen使用AI作画工具Midjourney生成、并自己进行过微调的一幅《太空歌剧院》还在科罗拉多州博览会(ColoradoStateFair)的美术比赛中斩获了头奖 。 科技媒体TechCrunch评价未经审查的“AI画师”为“Deepfakesforall(全能的深度伪造)” 。
骗过百万网友的AI照片,你分辨得出来吗?
文章图片
《太空歌剧院》
AI换脸都被拿去做什么了?
更早为人所知的AI“造假”技术是深度伪造技术 , 俗称AI换脸 。 2019年 , 一项报告称 , 当时互联网上就已经有了上万个用深伪技术制作的视频 。
报告还写道 ,
这些视频中 , 有96%都是色情视频 , 而这些色情视频的主角全部为女性
, 其中最受欢迎的 , 是以欧美女演员、韩国女偶像为主角的视频 , 观看数高达数百万次 。
骗过百万网友的AI照片,你分辨得出来吗?
文章图片
参与报告的研究员亨利-阿杰德(HenryAjder)说 , 有深伪论坛的用户在要求 , 或讨论以他们认识的女性(如前女友)为主角的换脸色情视频 。 他们希望看到她们被放进色情片段里 。
AI画画 , 可不只是换脸而已 。
打开潘多拉魔盒
我们输入了5条阴暗的指令 , 看看AI画画是百无禁忌的吗?
骗过百万网友的AI照片,你分辨得出来吗?
文章图片
AI对暴力的理解似乎有限 。 但对性的诠释却很到位——它自己也是这么认为的 。
StableDiffusion , 这个开源的、强大的“AI画师”为自己设置了一个“安全检查器”(SafetyChecker) , 相当于自动审核:一旦监测到生成的图像涉嫌违规 , 即它在内容政策里写明的不得用来生成的“引人不适的、色情、仇恨、暴力等图像” , 机器就会拦下这张图片 。
把我们生成的“邪恶照片”送去审核 , 机器只给六张贾斯汀·比伯的裸体照片判定了“违规” 。 不过 , 我们也成功生成了好几张特朗普穿越时空亲吻丘吉尔的照片 , 且被审核器判定为“安全” 。
显然 , 从我们成功生成了违背贾斯汀·比伯意愿的裸照也能看出 ,
StableDiffusion的自动审核是可以关闭的 。
这样 , 它就再也不能拒绝你了 。
为了制约AI和人们面对潘多拉魔盒时容易起的坏念头 , 名声最大的“AI画师”DALL·E2的审查更为严格 。
有网友收集了所有让他收到内容政策违规警告的指令 , 其中包括“英国人猿在吃鱼和薯条”“驾驶独轮车肇事逃逸的鱿鱼”“耶稣接受核酸检测的照片” 。 任何可能涉及仇恨、暴力、色情的描述 , 所有知名人物的名字 , 都在DALL·E2的违禁词之列 。 所以你也不能操纵DALL·E2 , 让它为你画一张特朗普和拜登接吻的照片 , 但StableDiffusion可以 。
AI生成的假照片 , 是有漏洞的