热烈祝贺诺亚语音语义组论文Compression of Generative Pre-trained Language Models via Quantization获得ACL 2022 Outstanding Paper Award!网页链接。生成类语言模型应用广泛,但压缩非常困难,学术界尝试了各种办法,压缩效果都非常有限。诺亚实验室陶超凡、侯璐、章伟等同学同事经过艰难探索和大量尝试,终于找到一条通过量化方法进行压缩的途径,在学术界也是首次实现生成式语言模型的高效压缩,在精度不受影响的情况下,达到了13-14倍的压缩率。