ICLR 2022|唯快不破!面向极限压缩的全二值化BiBERT( 三 )


希望该的工作能够为未来的研究打下坚实的基础 。
BiBERT即将基于百度飞桨开源深度学习模型压缩工具PaddleSlim开源 , 尽情期待 。
PaddleSlim:https://github.com/PaddlePaddle/PaddleSlim
传送门
会议论文:https://openreview.net/forum?id=5xEgrl_5FAJ
Reference
[1]ShengShen,ZhenDong,JiayuYe,LinjianMa,ZheweiYao,AmirGholami,MichaelW.Mahoney,andKurtKeutzer.Q-BERT:hessianbasedultralowprecisionquantizationofBERT.InAAAI,2020.
[2]OfirZafrir,GuyBoudoukh,PeterIzsak,andMosheWasserblat.Q8BERT:quantized8bitBERT.InNeurIPS,2019.
[3]AliHadiZadeh,IsakEdo,OmarMohamedAwad,andAndreasMoshovos.GOBO:quantizingattention-basedNLPmodelsforlowlatencyandenergyefficientinference.InMICRO,2020.
[4]KelvinXu,JimmyBa,RyanKiros,KyunghyunCho,AaronCourville,RuslanSalakhudinov,RichZemel,andYoshuaBengio.Show,attendandtell:Neuralimagecaptiongenerationwithvisualattention.InICML,2015.
*本文系量子位获授权刊载 , 观点仅为作者所有
—完—