某中心EMNLP 2023对话AI与NLP研究亮点速览

某中心EMNLP 2023 40多篇论文速览

在自然语言处理实证方法会议(EMNLP)上,自然语言理解(NLU)一直是某中心研究人员发表论文的核心焦点。在今年于今日开始的会议上,该中心的NLU研究显示出对利用大语言模型(LLM)力量的特别兴趣。问答系统仍然是一个活跃的研究主题,而查询改写和文本摘要则成为新的重点领域。

自动语音识别

  • AdaBERT-CTC:利用BERT-CTC进行ASR的纯文本领域适应
    Tyler Vuong, Karel Mundnich, Dhanush Bekal, Veera Raghavendra Elluru, Srikanth Ronanki, Sravan Bodapati

持续学习

  • 持续联邦学习的协调重放样本选择
    Jack Good, Jimit Majmudar, Christophe Dupuy, Jixuan Wang, Charith Peris, Clement Chung, Richard Zemel, Rahul Gupta

数据提取

  • InsightNet:从客户反馈中挖掘结构化见解
    Sandeep Mukku, Manan Soni, Chetan Aggarwal, Jitenkumar Rana, Promod Yenigalla, Rashmi Patange, Shyam Mohan
  • 属性值提取的知识选择性预训练
    Hui Liu, Qingyu Yin, Zhengyang Wang, Chenwei Zhang, Haoming Jiang, Yifan Gao, Zheng Li, Xian Li, Chenwei Zhang, Bing Yin, William Wang, Xiaodan Zhu

数据选择

  • 用于高效语言数据采样的规模化影响力分数
    Nikhil Anand, Joshua Tan, Maria Minakova

文档理解

  • 一个多模态多语言的文档图像分类基准
    Yoshinari Fujinama, Siddharth Varia, Nishant Sankaran, Bonan Min, Srikar Appalaraju, Yogarshi Vyas
  • 用于具有复杂类别描述的文本分类的语义匹配
    Brian de Silva, Kuan-Wen Huang, Gwang Lee, Karen Hovsepian, Yan Xu, Mingwei Shen

具身任务完成

  • 通过合成具身对话增强的多模态具身计划预测
    Aishwarya Padmakumar, Mert Inan, Spandana Gella, Patrick Lange, Dilek Hakkani-Tür

实体链接

  • MReFinED:一个高效的端到端多语言实体链接系统
    Peerat Limkonchotiwat, Weiwei Cheng, Christos Christodoulopoulos, Amir Saffari, Jens Lehmann

少样本学习

  • 使用指令微调语言模型的自动化少样本分类
    Rami Aly, Xingjian Shi, Kaixiang Lin, Aston Zhang, Andrew Wilson

信息检索

  • 用于分层排序的深度度量学习——在产品检索中的应用
    Kee Kiat Koo, Ashutosh Joshi, Nishaanth Reddy, Ismail Tutar, Vaclav Petricek, Changhe Yuan, Karim Bouyarmane
  • KD-Boost:通过知识蒸馏提升电子商务中的实时语义匹配
    Sanjay Agrawal, Vivek Sembium, Ankith M S
  • 用于多语言拼写纠正的多教师蒸馏
    Jingfen Zhang, Xuan Guo, Sravan Bodapati, Christopher Potts

指令调优

  • CESAR:多轮对话组合指令的自动归纳
    Taha Aksu, Devamanyu Hazarika, Shikib Mehri, Seokhwan Kim, Dilek Hakkani-Tür, Yang Liu, Mahdi Namazifar

LLM幻觉

  • INVITE:一个用于评估大语言模型幻觉的自动生成的无效问题测试平台
    Anil Ramakrishna, Rahul Gupta, Jens Lehmann, Morteza Ziyadi

机器学习

  • 高效长距离Transformer:你需要更多注意力,但不必在每一层
    Qingru Zhang, Dhananjay Ram, Cole Hawkins, Sheng Zha, Tuo Zhao

自然语言处理

  • NameGuess:表格数据的列名扩展
    Jiani Zhang, Zhengyuan Shen, Balasubramaniam Srinivasan, Shen Wang, Huzefa Rangwala, George Karypis

自然语言理解

  • 通过解耦和词属性增强大型语言NER模型的对抗鲁棒性
    Xiaomeng Jin, Bhanu Vinzamuri, Sriram Venkatapathy, Heng Ji, Pradeep Natarajan
  • 测量和减轻上下文学习中对话到API的约束违反
    Shufan Wang, Sebastien Jean, Sailik Sengupta, James Gung, Nikolaos Pappas, Yi Zhang
  • MultiCoNER v2:用于细粒度和噪声命名实体识别的大型多语言数据集
    Besnik Fetahu, Zhiyu Chen, Sudipta Kar, Oleg Rokhlenko, Shervin Malmasi
  • 用于零样本和少样本意图分类的意图感知编码器预训练
    Mujeen Sung, James Gung, Elman Mansimov, Nikolaos Pappas, Raphael Shu, Salvatore Romeo, Yi Zhang, Vittorio Castelli

个性化

  • 基于全局索引的语音对话系统个性化稠密检索
    Masha Belyi, Charlotte Dzialo, Chaitanya Dwivedi, Prajit Reddy Muppidi, Kanna Shimizu
  • 检索与复制:将ASR个性化扩展到大型目录
    Sai Muralidhar Jayanthi, Devang Kulshreshtha, Saket Dingliwal, Srikanth Ronanki, Sravan Bodapati

查询改写

  • CL-QR:用于多语言对话AI代理的跨语言增强查询改写
    Zhongkai Sun, Zhengyang Zhao, Sixing Lu, Chengyuan Ma, Xiaohu Liu, Xing Fan, Wei (Sawyer) Shen, Chenlei (Edward) Guo
  • 图与LLM相遇:面向鲁棒对话理解的协同过滤新方法
    Zheng Chen, Ziyan Jiang, Fan Yang, Eunah Cho, Xing Fan, Xiaojiang Huang, Yanbin Lu, Aram Galstyan
  • 通过用户偏好反馈学习改进对话AI代理的上下文查询改写
    Zhongkai Sun, Yingxue Zhou, Jie Hao, Xing Fan, Yanbin Lu, Chengyuan Ma, Wei (Sawyer) Shen, Chenlei (Edward) Guo

问答数据库

  • Protege:基于提示的从网络文章生成多样化问题
    Vinayak Puranik, Anirban Majumder, Vineet Chaoji
  • QUADRo:用于问答数据库检索的数据集和模型
    Stefano Campese, Ivano Lauriola, Alessandro Moschitti

问答系统

  • 开放域对话问答的强大高效基线
    Andrei C. Coman, Gianni Barlacchi, Adrià de Gispert
  • 分词一致性对生成式模型在抽取式NLP任务中至关重要
    Kaiser Sun, Peng Qi, Yuhao Zhang, Lan Liu, William Yang Wang, Zhiheng Huang
  • 产品信息太多?别担心,让我们寻找证据!
    Aryan Jain, Jitenkumar Rana, Chetan Aggarwal

推理

  • 计划、验证与切换:利用多样化思维链进行集成推理
    Tengxiao Liu, Qipeng Guo, Yuqing Yang, Xiangkun Hu, Yue Zhang, Xipeng Qiu, Zheng Zhang

负责任AI

  • 语言生成中的地理信息擦除
    Pola Schwöbel, Jacek Golebiowski, Michele Donini, Cédric Archambeau, Danish Pruthi

语音翻译

  • 端到端单通道说话人轮次感知对话语音翻译
    Juan Pablo Zuluaga Gomez, Zhaocheng Huang, Xing Niu, Rohit Paturi, Sundararajan Srinivasan, Prashant Mathur, Brian Thompson, Marcello Federico

文本摘要

  • 通过校准蒸馏增强摘要模型的抽象性
    Hwanjun Song, Igor Shalyminov, Hang Su, Siffi Singh, Kaisheng Yao, Saab Mansour
  • 生成具有可控可读性级别的摘要
    Leonardo Ribeiro, Mohit Bansal, Markus Dreyer
  • 使用能量函数改进文本摘要的一致性
    Qi Zeng, Qingyu Yin, Zheng Li, Yifan Gao, Sreyashi Nag, Zhengyang Wang, Bing Yin, Heng Ji, Chao Zhang
  • InstructPTS:为产品标题摘要指令调优LLM
    Besnik Fetahu, Zhiyu Chen, Oleg Rokhlenko, Shervin Malmasi
  • 存在损害性内容时的多文档摘要评估
    Avshalom Manevich, David Carmel, Nachshon Cohen, Elad Kravi, Ori Shapira
  • 重新审视基于多个质量标准的摘要评估
    Ori Ernst, Ori Shapira, Ido Dagan, Ran Levy

主题建模

  • DeTiME:使用基于编码器-解码器的LLM进行扩散增强的主题建模
    Weijie Xu, Wenxiang Hu, Fanyou Wu, Srinivasan Sengamedu, "SHS"
    更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
    对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)

公众号二维码

公众号二维码

posted @ 2026-01-06 19:14  CodeShare  阅读(2)  评论(0)    收藏  举报