分类: 计算机科学 >> 自然语言理解与机器翻译 提交时间: 2024-01-07
摘要: 针对目前中文命名实体识别研究中存在的语义特征提取不充分、不全面等问题,Transformers(BERT)在各种相关 NLP 任务中显示出惊人的改进,并且已经提出了连续的变体来进一步提高预训练语言模型的性能。在本文中,我们的目标是重新审视中文预训练语言模型,以检验它们在非英语语言中的有效性。本文基于 RoBERT 模型进行微调,实验结果表明,在许多 NLP 任务上表现良好。
同行评议状态:待评议