【项目原作解读】复旦大学贺正夫:DiffusionBERT 掩码预训练语言模型的扩散生成探索
分享嘉宾:贺正夫,复旦大学本科生,复旦大学卓博计划入选者。主要研究方向是预训练语言模型及其参数、数据高效的应用。分享摘要:本次分享将首先介绍扩散模型在 NLP 领域的发展历程,进而介绍我们近期的工作 DiffusionBERT。我们将介绍一些对离散扩散模型和 BERT 类预训练模型结合的思考,并讨论其优势和局限性,以及该领域未来可能的研究方向。DiffusionBERT 项目地址:https://sota.jiqizhixin.com/project/diffusionbert探索更多 AI 项目