学院新闻

所在位置: 首页 > 学院新闻 > 正文

信息学院师生论文被人工智能顶级会议ACL2023录用

日期: 2023-05-25

浏览次数:

近日,人工智能计算语言学领域的国际顶级会议ACL2023放榜,我院2021级硕士研究生陈源同学的学术论文“PMAES: Prompt-mapping Contrastive Learning for Cross-prompt Automated Essay Scoring”被录用为主会论文,作者为Yuan Chen(陈源,第一作者)和Xia Li(李霞,导师,通讯作者)。

Yuan Chen, Xia Li*. PMAES: Prompt-mapping Contrastive Learning for Cross-prompt Automated Essay Scoring. The 61st Annual Meeting of the Association for Computational Linguistics (ACL2023),Toronto,Canada.

跨主题作文自动评分旨在通过让模型从已知主题(源主题)的带分数作文中学习评分知识,并在未知主题(目标主题)的作文上测试模型的评分性能,由于在实际场景的应用中,标注足够数量的已知主题带分数作文代价往往是比较高的。因此,跨主题作文自动评分研究能够缓解作文标注的压力,利用现有的作文训练一个主题适应的评分模型,使得评分模型更符合实际场景应用的需要。

现有研究结果表明,尽可能的提取不同主题之间的共享特征是提高模型在未知主题上评分性能的关键。本文提出一种主题映射对比学习方法,通过减少语义空间中源主题作文表示和目标主题作文表示的距离,用以学习更加一致的作文表示,进而学习到更多共享特征,该方法在ASAP和ASAP++数据集的单总分评分任务和多属性评分任务上得到了验证。另外,该工作的另一个亮点是在多种场景模式进行实验,以往的实验多数围绕多源主题迁移到单目标主题,本文在多源主题迁移到多目标主题、单源主题迁移到单目标主题和单源主题迁移到多目标主题上进行了实验,实验结果表明,所提出的主题映射对比学习方法可以适用于多种场景,可根据实际需要自行选择需要的模式进行训练。

论文模型图

据悉,国际计算语言学年会(Annual Meeting of the Association for Computational Linguistics,简称ACL)每年召开一次,是由计算语言学领域历史最悠久和最具权威的学术组织—国际计算语言学协会(ACL)主办和发起的系列会议。第61届国际计算语言学年会将于7月9-14日在加拿大多伦多召开,据谷歌学术计算语言学刊物指标显示,ACL影响力位列第一,是CCF-A类推荐会议。

初稿:陈劲鸥、陈源

复审:吴笛

终审:李霞

中国广州市白云区白云大道北2号 510420 (北校区) | 中国广州市番禺区小谷围广州大学城 510006 (南校区)

联系方式:(020) 39328032(南校区)

广东外语外贸大学350vip浦京集团(中国)有限公司 (网络空间安全学院) Copyright © 2024

媒体关注