>>最受欢迎的情感词典,欢迎点击下载!<<
研究方向
学术报告
资源下载
当前位置: 首页>>新闻动态>>正文
    实验室五篇论文被 ACL 2026 录用
    2026-04-07 21:06  

    近日,ACL 2026 公布了录用论文列表,实验室五篇长文被录用,包括三篇主会,两篇 findings。ACL 是自然处理领域的顶级会议,在 CCF 推荐列表中认定为 A 类国际学术会议,在学界和业界享有盛誉。

    1. CogEvolve:大模型真的懂“词义如何生长”吗?(main conference)

    标题:CogEvolve: A Multimodal Benchmark for Evaluating Relational Reasoning in Semantic Extension  

    作者:博士生曾景杰 等

    摘要:人类理解语言,并不只是记住一个词对应什么意义,更重要的是能够通过类比,让词义从具体走向抽象、从原型义发展出比喻义和转喻义。那么,大语言模型是否也真正掌握了这种“词义生长”的规律?针对这一问题,我们提出多模态评测基准 CogEvolve,从文本和图像两个层面系统考察模型在语义延展中的关系推理能力。实验发现,当前模型更像“超级联想者”:它们擅长识别已有概念之间的表面对应关系,却不擅长理解一个概念如何沿着认知路径演化为另一个概念。在文本任务中,模型常常把“更常见的意思”误当成“更基础的意思”;而在视觉任务中,这一问题更加明显。我们将这种缺陷称为“悬空之箭”——模型能清楚表示概念这个“点”,却还不会真正掌握连接概念、推动意义变化的“箭头”。

    2. LOTUS:让多模态大模型学会“精准遗忘”敏感信息?(main conference)

    标题:LOTUS: Evolving Multimodal Unlearning via Hyperbolic Entailment and Lorentz Transport    

    作者:硕士生王泽坤 等

    摘要:多模态大模型虽然能力强,但也可能在训练过程中“记住”不该记住的敏感信息,从而带来隐私风险。现有的模型遗忘方法大多沿用传统欧氏空间思路,往往很难把“具体的敏感样本”和“普遍的通用概念”区分开来,结果不是忘得太多、伤及模型原有能力,就是虽然删掉了目标信息,却又生成了新的不安全替代内容。针对这一难题,我们提出 LOTUS,一种基于双曲几何的多模态精准遗忘框架。该方法利用双曲空间更适合表达层级语义结构的特点,一方面切断敏感概念的语义继承路径,另一方面通过洛伦兹传输机制对遗忘后的特征进行稳定对齐,使方法既能精准删除目标记忆,又能与现有模型结构兼容。实验结果表明,LOTUS 在 LLaVA 和 Qwen 上都表现出更强的遗忘效果,能够有效擦除目标视觉数据,同时尽可能保留模型的通用能力。

    3. 大模型会“说法”,但真的会“断案”吗?(main conference)

    标题:To Judge or Not to Judge: Can Large Language Models Leverage the Dispute Focus in Legal Judgment?

    作者:本科生胡洛铭 等

    摘要:法律裁判不是简单地把案情复述一遍,而是要抓住案件真正的核心争点。法官之所以能够高效处理复杂民事案件,一个关键原因就在于会先提炼出“争议焦点”,再围绕这些焦点展开判断。我们的研究发现,虽然大语言模型在法律任务上已经展现出较强能力,但它们并不会天然使用这种贴近司法实践的思维方式。为此,我们构建了首个围绕争议焦点组织的中文民事司法数据集 FocalLaw,并进一步发现:即使加入思维链和监督微调,模型仍然难以真正抓住争议焦点,我们将这种现象称为“书记员陷阱”——模型看起来会整理材料,却还不会像法官那样围绕核心争点作出判断。针对这一问题,我们提出 FocalJudge 框架,引导模型按照更接近法官的认知流程完成裁判推理。实验结果表明,该方法能够有效提升法律裁判表现,也为提升法律大模型的可解释性与可靠性提供了新思路。

    4. 大模型如何“后知后觉”地理解词义?(findings)

    标题:Mechanistic Insights into Deferred Semantic Drift in LLMs

    作者:博士生曾景杰 等

    摘要:人类读到一句话时,往往会在后文出现后重新理解前面的词义;而大语言模型也面临类似问题:当一个词真正的意思要到后文才能确定时,它是怎么完成“改判”的?我们的研究发现,模型虽然具备消解歧义的潜力,但由于生成过程是单向的,它并不会立刻回头修改前面那个词的内部表示。相反,这种意义更新会被“推迟”到后续词语的处理中完成。我们将这一现象称为延迟语义漂移。进一步分析表明,后续词语会通过注意力机制,从歧义词中提取与当前上下文相关的信息线索,逐步把模型引导到正确的理解方向。我们在隐喻理解任务中验证了这一过程,并通过激活干预进一步证明:模型的最终输出确实可以被定向推向字面义或隐喻义。该工作揭示了大模型在意义构建上的一个关键内部机制,也为未来更可控地引导模型理解和生成提供了新思路。

    5. 让大模型真正“读懂”分子:GLA化学理解新框架(findings)

    标题:GLA: Grounding Large Language Models in Molecular Hierarchy for Chemical Understanding

    作者:硕士生李璎旭 等

    摘要:分子并不是一串平铺直叙的符号,它本身就具有明显的层级结构:有相对稳定的核心骨架,也有承担不同功能的侧链和外围基团。但现有许多分子—语言模型仍然沿用比较“扁平”的表示方式,容易把这些不同层次的信息混在一起,从而影响模型对化学含义的理解。针对这一问题,我们提出 GLA,一种将分子层级结构显式引入大语言模型的化学理解框架。该方法利用双曲空间更适合表达层级关系的特点来表示分子骨架,同时用欧氏空间表示侧链等局部结构,再通过对比学习将分子信息与化学文本对齐,并注入大语言模型。实验结果表明,GLA 在分子检索、描述生成和性质预测等任务上都取得了更好的表现。这说明,只有更贴近分子真实结构去建模,大模型才更有可能真正“读懂”化学。


    关闭窗口