某中心EMNLP 2023对话AI与NLP研究亮点速览
某中心EMNLP 2023 40多篇论文速览
在自然语言处理实证方法会议(EMNLP)上,自然语言理解(NLU)一直是某中心研究人员发表论文的核心焦点。在今年于今日开始的会议上,该中心的NLU研究显示出对利用大语言模型(LLM)力量的特别兴趣。问答系统仍然是一个活跃的研究主题,而查询改写和文本摘要则成为新的重点领域。
自动语音识别
- AdaBERT-CTC:利用BERT-CTC进行ASR的纯文本领域适应
Tyler Vuong, Karel Mundnich, Dhanush Bekal, Veera Raghavendra Elluru, Srikanth Ronanki, Sravan Bodapati
持续学习
- 持续联邦学习的协调重放样本选择
Jack Good, Jimit Majmudar, Christophe Dupuy, Jixuan Wang, Charith Peris, Clement Chung, Richard Zemel, Rahul Gupta
数据提取
- InsightNet:从客户反馈中挖掘结构化见解
Sandeep Mukku, Manan Soni, Chetan Aggarwal, Jitenkumar Rana, Promod Yenigalla, Rashmi Patange, Shyam Mohan - 属性值提取的知识选择性预训练
Hui Liu, Qingyu Yin, Zhengyang Wang, Chenwei Zhang, Haoming Jiang, Yifan Gao, Zheng Li, Xian Li, Chenwei Zhang, Bing Yin, William Wang, Xiaodan Zhu
数据选择
- 用于高效语言数据采样的规模化影响力分数
Nikhil Anand, Joshua Tan, Maria Minakova
文档理解
- 一个多模态多语言的文档图像分类基准
Yoshinari Fujinama, Siddharth Varia, Nishant Sankaran, Bonan Min, Srikar Appalaraju, Yogarshi Vyas - 用于具有复杂类别描述的文本分类的语义匹配
Brian de Silva, Kuan-Wen Huang, Gwang Lee, Karen Hovsepian, Yan Xu, Mingwei Shen
具身任务完成
- 通过合成具身对话增强的多模态具身计划预测
Aishwarya Padmakumar, Mert Inan, Spandana Gella, Patrick Lange, Dilek Hakkani-Tür
实体链接
- MReFinED:一个高效的端到端多语言实体链接系统
Peerat Limkonchotiwat, Weiwei Cheng, Christos Christodoulopoulos, Amir Saffari, Jens Lehmann
少样本学习
- 使用指令微调语言模型的自动化少样本分类
Rami Aly, Xingjian Shi, Kaixiang Lin, Aston Zhang, Andrew Wilson
信息检索
- 用于分层排序的深度度量学习——在产品检索中的应用
Kee Kiat Koo, Ashutosh Joshi, Nishaanth Reddy, Ismail Tutar, Vaclav Petricek, Changhe Yuan, Karim Bouyarmane - KD-Boost:通过知识蒸馏提升电子商务中的实时语义匹配
Sanjay Agrawal, Vivek Sembium, Ankith M S - 用于多语言拼写纠正的多教师蒸馏
Jingfen Zhang, Xuan Guo, Sravan Bodapati, Christopher Potts
指令调优
- CESAR:多轮对话组合指令的自动归纳
Taha Aksu, Devamanyu Hazarika, Shikib Mehri, Seokhwan Kim, Dilek Hakkani-Tür, Yang Liu, Mahdi Namazifar
LLM幻觉
- INVITE:一个用于评估大语言模型幻觉的自动生成的无效问题测试平台
Anil Ramakrishna, Rahul Gupta, Jens Lehmann, Morteza Ziyadi
机器学习
- 高效长距离Transformer:你需要更多注意力,但不必在每一层
Qingru Zhang, Dhananjay Ram, Cole Hawkins, Sheng Zha, Tuo Zhao
自然语言处理
- NameGuess:表格数据的列名扩展
Jiani Zhang, Zhengyuan Shen, Balasubramaniam Srinivasan, Shen Wang, Huzefa Rangwala, George Karypis
自然语言理解
- 通过解耦和词属性增强大型语言NER模型的对抗鲁棒性
Xiaomeng Jin, Bhanu Vinzamuri, Sriram Venkatapathy, Heng Ji, Pradeep Natarajan - 测量和减轻上下文学习中对话到API的约束违反
Shufan Wang, Sebastien Jean, Sailik Sengupta, James Gung, Nikolaos Pappas, Yi Zhang - MultiCoNER v2:用于细粒度和噪声命名实体识别的大型多语言数据集
Besnik Fetahu, Zhiyu Chen, Sudipta Kar, Oleg Rokhlenko, Shervin Malmasi - 用于零样本和少样本意图分类的意图感知编码器预训练
Mujeen Sung, James Gung, Elman Mansimov, Nikolaos Pappas, Raphael Shu, Salvatore Romeo, Yi Zhang, Vittorio Castelli
个性化
- 基于全局索引的语音对话系统个性化稠密检索
Masha Belyi, Charlotte Dzialo, Chaitanya Dwivedi, Prajit Reddy Muppidi, Kanna Shimizu - 检索与复制:将ASR个性化扩展到大型目录
Sai Muralidhar Jayanthi, Devang Kulshreshtha, Saket Dingliwal, Srikanth Ronanki, Sravan Bodapati
查询改写
- CL-QR:用于多语言对话AI代理的跨语言增强查询改写
Zhongkai Sun, Zhengyang Zhao, Sixing Lu, Chengyuan Ma, Xiaohu Liu, Xing Fan, Wei (Sawyer) Shen, Chenlei (Edward) Guo - 图与LLM相遇:面向鲁棒对话理解的协同过滤新方法
Zheng Chen, Ziyan Jiang, Fan Yang, Eunah Cho, Xing Fan, Xiaojiang Huang, Yanbin Lu, Aram Galstyan - 通过用户偏好反馈学习改进对话AI代理的上下文查询改写
Zhongkai Sun, Yingxue Zhou, Jie Hao, Xing Fan, Yanbin Lu, Chengyuan Ma, Wei (Sawyer) Shen, Chenlei (Edward) Guo
问答数据库
- Protege:基于提示的从网络文章生成多样化问题
Vinayak Puranik, Anirban Majumder, Vineet Chaoji - QUADRo:用于问答数据库检索的数据集和模型
Stefano Campese, Ivano Lauriola, Alessandro Moschitti
问答系统
- 开放域对话问答的强大高效基线
Andrei C. Coman, Gianni Barlacchi, Adrià de Gispert - 分词一致性对生成式模型在抽取式NLP任务中至关重要
Kaiser Sun, Peng Qi, Yuhao Zhang, Lan Liu, William Yang Wang, Zhiheng Huang - 产品信息太多?别担心,让我们寻找证据!
Aryan Jain, Jitenkumar Rana, Chetan Aggarwal
推理
- 计划、验证与切换:利用多样化思维链进行集成推理
Tengxiao Liu, Qipeng Guo, Yuqing Yang, Xiangkun Hu, Yue Zhang, Xipeng Qiu, Zheng Zhang
负责任AI
- 语言生成中的地理信息擦除
Pola Schwöbel, Jacek Golebiowski, Michele Donini, Cédric Archambeau, Danish Pruthi
语音翻译
- 端到端单通道说话人轮次感知对话语音翻译
Juan Pablo Zuluaga Gomez, Zhaocheng Huang, Xing Niu, Rohit Paturi, Sundararajan Srinivasan, Prashant Mathur, Brian Thompson, Marcello Federico
文本摘要
- 通过校准蒸馏增强摘要模型的抽象性
Hwanjun Song, Igor Shalyminov, Hang Su, Siffi Singh, Kaisheng Yao, Saab Mansour - 生成具有可控可读性级别的摘要
Leonardo Ribeiro, Mohit Bansal, Markus Dreyer - 使用能量函数改进文本摘要的一致性
Qi Zeng, Qingyu Yin, Zheng Li, Yifan Gao, Sreyashi Nag, Zhengyang Wang, Bing Yin, Heng Ji, Chao Zhang - InstructPTS:为产品标题摘要指令调优LLM
Besnik Fetahu, Zhiyu Chen, Oleg Rokhlenko, Shervin Malmasi - 存在损害性内容时的多文档摘要评估
Avshalom Manevich, David Carmel, Nachshon Cohen, Elad Kravi, Ori Shapira - 重新审视基于多个质量标准的摘要评估
Ori Ernst, Ori Shapira, Ido Dagan, Ran Levy
主题建模
- DeTiME:使用基于编码器-解码器的LLM进行扩散增强的主题建模
Weijie Xu, Wenxiang Hu, Fanyou Wu, Srinivasan Sengamedu, "SHS"
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)
公众号二维码

公众号二维码


浙公网安备 33010602011771号