使用高效的基于投影的模型架构推进 NLP( 二 )


使用高效的基于投影的模型架构推进 NLP
文章图片
性能
我们在Civil_comments数据集上评估了pQRNN , 并将其与相同任务的BERT模型进行了比较 。 仅仅因为模型大小与参数数量成正比 , 所以pQRNN比BERT小得多 。 但此外 , pQRNN被量化 , 进一步将模型尺寸缩小了4倍 。 BERT的公共预训练版本在任务上表现不佳 , 因此与在多个不同相关多语言数据源上预训练的BERT版本进行比较 , 以实现最佳性能 。
使用高效的基于投影的模型架构推进 NLP
文章图片
结论
使用我们的上一代模型PRADO , 我们已经展示了如何将其用作下一代最先进的轻量级文本分类模型的基础 。 我们展示了一个这样的模型pQRNN , 并表明这种新架构几乎可以实现BERT级别的性能 , 尽管它小了300倍并且仅在监督数据上进行了训练 。 为了激发该领域的进一步研究 , 我们开源了PRADO模型 , 并鼓励社区将其用作新模型架构的起点 。