被骗1.8亿,值得警惕的AI骗局

当你接到各种推销电话 , 特别是涉及股票投资之类的电话 , 一定要加倍小心 。
最近央视曝光的一起为境外诈骗组织引流的团伙 。
被骗1.8亿,值得警惕的AI骗局
文章图片
他们声称自己是证券公司的工作人员 , 为回馈新老客户可以推荐优质股票 , 只需进入他们的福利群就可以获得 。
大多数人肯定不相信 , 但总有少数人抱着侥幸心理试一试 , 一不小心就上了当 。
最开始的投资能赚钱 , 也能提现 , 但随着投入加大 , 很快就无法提现了 。
这个团伙一共打了1700万通骚扰电话 。
最终有80多万人上当 , 共获得近1.8亿元的“拉人头”佣金 。
根据警方的调查 , 这里面其实有两拨诈骗团伙 。
一伙是运营这个骗局的 , 一伙是为这个骗局打电话拉人的 。
这样的骗局如今并不少见 , 这个骗局中最引人注意的 , 这伙人使用了AI电话机器人 。
试想一下 , 拨打1700万个电话 , 如果靠人工 , 工作量很大 , 但靠AI就简单多了 。
AI机器人可以通过语音识别技术识别关键字 。
准确率已高达98% , 且延迟可做到0.2秒 。
AI机器人会先播放一段开场白 , 然后根据关键字判断对方的状态 , 再进行后续的话术输出 。
被骗1.8亿,值得警惕的AI骗局
文章图片
一位被骗了24万块钱的受害者 , 得知真相后很吃惊 。
他感觉给他打电话的都是人 , 根本听不出来是机器人在讲话 。
随着AI技术的发展 , 以后我们也许会遇到越来越多这样的诈骗 , 不得不防 。
比如现在的AI技术 , 已经可以轻松给视频中的人物换头像 。
这意味着看到熟人拍的借钱视频 , 如果不找朋友再次核实 , 也极有可能会上当受骗 。
视频都可以伪造 , 更不要提声音了 。
只要提交你的声音 , 经过一定训练 , AI可以轻松模仿你的声音 。
如果接到陌生电话 , 一听就是某个朋友 , 也应该多加小心 。
AI技术的发展日新月异 。
最近OpenAI发布了一个文字生成图像工具DALL-E2 。
只要发一段文字 , AI就会自动根据文字生成逼真的图像 。
比如你输入这样一段字:在1980年代的月球上致力于新AI研究的泰迪熊 。
AI就会自动生成这样的图像 。
被骗1.8亿,值得警惕的AI骗局
文章图片
输入文字“一张古色古香的花店的店面照片 , 洁白的门面绿意盎然 , 大门敞开 , 还有一扇大窗户” , 会生成下面的图像 。
被骗1.8亿,值得警惕的AI骗局
文章图片
这项技术有广阔的应用前景 , 比如自媒体经常需要合适的配图 。
现在的情况是合适的配图不太好找 , 而且还要考虑版权问题 。
可想而知 , 这项文字生成图像的技术会极大方便自媒体 。
需要什么配图 , 只要用文字描述一下 , 图像就自动生成了 , 还避免了版权的风险 。
再往远处想一想 , 也许漫画行业都会迎来巨大变革 。
以后的漫画家可能根本不需要学习画画 , 只要有想象力 , 用文字描述出来 , 就能生成相应的图画 。
借助这项AI技术 , 以后的小说甚至有可能有一键生成漫画的功能 。
但技术是把双刃剑 , 不法分子肯定也会用这项技术实施诈骗等非法活动 。
只要简单描述一下 , 就能生成一张逼真的车祸受伤照片 。
然后让亲朋好友打钱 , 细思极恐 , 不得不防 。
央视报道的这个诈骗团伙 , 也是没把技术用到正道 。