谷歌AI看不懂网友评论,会错意高达30%,网友:你不懂我的梗

Pine发自凹非寺
谷歌AI看不懂网友评论,会错意高达30%,网友:你不懂我的梗】量子位|公众号QbitAI
给你两句话 , 来品一下它们所蕴含的情感:
“我真的会谢 。 ”
“听我说谢谢你 , 因为有你 , 温暖了四季······”
谷歌AI看不懂网友评论,会错意高达30%,网友:你不懂我的梗
文章图片
或许你会说 , 这很简单啊 , 不就是最近经常被玩的梗吗?
但如果问问长辈 , 他们可能就是一副“地铁老人看手机”的模样了 。
不过与流行文化之间有代沟这事 , 可不仅限于长辈们 , 还有AI 。
这不 , 一位博主最近就po出了一篇分析谷歌数据集的文章 , 发现它对Reddit评论的情绪判别中 , 错误率竟高达30% 。
谷歌AI看不懂网友评论,会错意高达30%,网友:你不懂我的梗
文章图片
就比如这个例子:
我要向朋友怒表达对他的爱意 。
谷歌数据集把它判断为“生气” 。
还有下面这条评论:
你TM差点吓坏我了 。
谷歌数据集将其判别为“困惑” 。
谷歌AI看不懂网友评论,会错意高达30%,网友:你不懂我的梗
文章图片
网友直呼:你不懂我的梗 。
人工智能秒变人工智障 , 这么离谱的错误它是怎么犯的?
断章取义它最“拿手”这就得从他判别的方式入手了 。
谷歌数据集在给评论贴标签时 , 是把文字单拎出来判断的 。
我们可以看看下面这张图 , 谷歌数据集都把文字中的情绪错误地判断为愤怒 。
谷歌AI看不懂网友评论,会错意高达30%,网友:你不懂我的梗
文章图片
不如我们由此来推测一下谷歌数据集判别错误的原因 , 就拿上面的例子来说 , 这四条评论中均有一些“脏话” 。
谷歌数据集把这些“脏话”拿来作为判断的依据 , 但如果仔细读完整个评论 , 就会发现这个所谓的“依据”只是用来增强整个句子的语气 , 并没有实际的意义 。
网友们的发表的评论往往都不是孤立存在的 , 它所跟的帖子、发布的平台等因素都可能导致整个语义发生变化 。
比如单看这条评论:
histrapshidethefuckingsun.
单单依靠这个很难判断其中的情绪元素 。 但如果知道他是来自一个肌肉网站的评论 , 或许就不难猜出了 , (他只是想称赞一下这个人的肌肉) 。
谷歌AI看不懂网友评论,会错意高达30%,网友:你不懂我的梗
文章图片
忽略评论的帖子本身 , 或者将其中某个情感色彩强烈的词语单拎出来判断其情绪元素都是不合理的 。
一个句子并不是孤立存在的 , 它有其特定的语境 , 其含义也会随着语境的变化而变化 。
将评论放入完整的语境中去判断其情绪色彩 , 或许会大大提升判别的准确率 。
但造成30%这么高的失误率可不仅仅只是“断章取义” , 其中还有更深层次的原因 。
“我们的梗AI不懂”除了语境会干扰数据集判别之外 , 文化背景也是一个非常重要的因素 。
大到国家地区 , 小到网站社群都会有其内部专属的文化符号 , 这种文化符号圈层之外的人很难解读 , 这就造成了一个棘手的问题:
若想更准确地判断某一社区评论的情绪 , 就得针对性地对其社区进行一些数据训练 , 深入了解整个社区的文化基因 。
在Reddit网站上 , 网友评论指出“所有的评分者都是以英语为母语的印度人” 。
谷歌AI看不懂网友评论,会错意高达30%,网友:你不懂我的梗
文章图片
这就导致会对一些很常见的习语、语气词及一些特定的“梗”造成误解 。