Background
- NAACL 2022 papers with one sentence summaries (data was obtained from official github repository.)
- Summaries were automatically generated by a mBART fine-tuned on the XSCITLDR dataset.
No human validation on summaries, so you can’t trust them, please just use them as a starting point of your work.
For other languages,
Summaries
- Social Norms Guide Reference Resolution
- Mitchell Abrams, Matthias Scheutz
- TLDR: 我们表明,在自然语言处理中,语义模块是关键的,语义模块的作用至关重要。
- Learning Natural Language Generation with Truncated Reinforcement Learning
- Alice Martin, Guillaume Quispe, Charles Ollion, Sylvain Le Corff, Florian Strub, Olivier Pietquin
- TLDR: 我们介绍了TRRL,一种用于语言生成的RL方法,无需监督学习阶段,通过使用RL进行语义建模。
- Language Model Augmented Monotonic Attention for Simultaneous Translation
- Sathish Reddy Indurthi, Mohd Abbas Zaidi, Beomseok Lee, Nikhil Kumar Lakumarapu, Sangha Kim
- TLDR: 我们提出了一个框架,用于帮助一个外部语言模型来改善它的决策。
- What Makes a Good and Useful Summary? Incorporating Users in Automatic Summarization Research
- Maartje Ter Hoeve, Julia Kiseleva, Maarten Rijke
- TLDR: 我们提出了一个调查框架,可以用于研究自动生成的总结需要用户的需求。
- ErAConD: Error Annotated Conversational Dialog Dataset for Grammatical Error Correction
- Xun Yuan, Derek Pham, Sam Davidson, Zhou Yu
- TLDR: 我们提出了一个用于语言学习的GAN数据集,用于改进GAN模型。
- Semantic Diversity in Dialogue with Natural Language Inference
- Katherine Stasaski, Marti Hearst
- TLDR: 我们提出了一个新颖的语言偏见指标,用于衡量模型的语义多样性。
- LEA: Meta Knowledge-Driven Self-Attentive Document Embedding for Few-Shot Text Classification
- S. K. Hong, Tae Young Jang
- TLDR: 我们提出了一种新的方法,通过它,我们从元学习了目标层次的关注角度得到的注意力,以生成任务特定的文件嵌入。
- Enhancing Self-Attention with Knowledge-Assisted Attention Maps
- Jiangang Bai, Yujing Wang, Hong Sun, Ruonan Wu, Tianmeng Yang, Pengfei Tang, Defu Cao, Mingliang Zhang1, Yunhai Tong, Yaming Yang, Jing Bai, Ruofei Zhang, Hao Sun, Wei Shen
- TLDR: 我们提出了一种新的方法,即KAM-BERT,通过直接将知识生成的注意力地图嵌入到自我注意机制中,以提高语言模型的性能。
- Batch-Softmax Contrastive Loss for Pairwise Sentence Scoring Tasks
- Anton Chernyavskiy, Dmitry Ilvovsky, Pavel Kalinin, Preslav Nakov
- TLDR: 我们提出了一种用于NLP的新型的对比性损失,用于学习更好的句法嵌入。
- NewsEdits: A News Article Revision Dataset and a Novel Document-Level Reasoning Challenge
- Alexander Spangher, Xiang Ren, Jonathan May, Nanyun Peng
- TLDR: 我们提出了 NewsEdits,用于研究新闻修改历史的全域数据集。
- Putting the Con in Context: Identifying Deceptive Actors in the Game of Mafia
- Samee Ibraheem, Gaoyue Zhou, John DeNero
- TLDR: 我们表明,在游戏中,玩家被分配的口语角色可以被视为对口语使用的更相信的玩家。
- SUBS: Subtree Substitution for Compositional Semantic Parsing
- Jingfeng Yang, Le Zhang, Diyi Yang
- TLDR: 我们提出了使用子树替换来提高对图像和地理Query的质量。
- Two Contrasting Data Annotation Paradigms for Subjective NLP Tasks
- Paul Rottger, Bertie Vidgen, Dirk Hovy, Janet Pierrehumbert
- TLDR: 我们提出了两个相反的建模和数据注释的理论,以解决数据注释中标签标签的标签偏见问题。
- Do Deep Neural Nets Display Human-like Attention in Short Answer Scoring?
- Zijie Zeng, Xinyu Li, Dragan Gasevic, Guanliang Chen
- TLDR: 我们通过使用DL-based graders来检索和标记重要的句法,以衡量回答质量。
- Knowledge-Grounded Dialogue Generation with a Unified Knowledge Representation
- Yu Li, Baolin Peng, Yelong Shen, Yi Mao, Lars Liden, Zhou Yu, Jianfeng Gao
- TLDR: 我们提出了PLUG,一个用于知识背景对话生成的语言模型,它结合了不同知识源的信息来生成知识背景对话。
- CERES: Pretraining of Graph-Conditioned Transformer for Semi-Structured Session Data
- Rui Feng, Chen Luo, Qingyu Yin, Bing Yin, Tuo Zhao, Chao Zhang
- TLDR: 我们提出了CERES,一个基于图的转换器模型,用于半结构的セッション数据。
- Political Ideology and Polarization: A Multi-dimensional Approach
- Barea Sinno, Bernardo Oviedo, Katherine Atwell, Malihe Alikhani, Junyi Jessy Li
- TLDR: 我们提出了一个新颖的、更具理论意义的、基于政策立场的新闻研究方法。
- Cooperative Self-training of Machine Reading Comprehension
- Hongyin Luo, Shang-Wen Li, Mingye Gao, Seunghak Yu, James Glass
- TLDR: 我们提出了一个合作的方法,用于生成更简单的问题回答。
- GlobEnc: Quantifying Global Token Attribution by Incorporating the Whole Encoder Layer in Transformers
- Ali Modarressi, Mohsen Fayyaz, Yadollah Yaghoobzadeh, Mohammad Taher Pilehvar
- TLDR: 我们提出了一种新的基于符号属性的通用标签属性分析方法,它结合了所有编码器的节点,并通过大量的实证实验证明了其在各种分析和分类任务中的表现。
- A Robustly Optimized BMRC for Aspect Sentiment Triplet Extraction
- Shu Liu, Kaiwen Li, Zuhe Li
- TLDR: 我们提出了一种用于情感的多维理解的BMRC方法,该方法在本文中引入了四项改进,用于在本文中引入了一种穩定的BMRC方法。
- Seed-Guided Topic Discovery with Out-of-Vocabulary Seeds
- Yu Zhang, Yu Meng, Xuan Wang, Sheng Wang, Jiawei Han
- TLDR: 我们提出了一个用于主题发现的框架,用于从文本中学习知识。
- Towards Process-Oriented, Modular, and Versatile Question Generation that Meets Educational Needs
- Xu Wang, Simin Fan, Jessica Houghton, Lu Wang
- TLDR: 我们提出了一个用于QG的NLP学习问题研究框架,并分析了在QG中使用QG的例子。
- SwahBERT: Language Model of Swahili
- Gati Martin, Medard Edmund Mswahili, Young-Seob Jeong, Jeong Young-Seob
- TLDR: 我们介绍了两个用于情感分类任务的原始数据集,它们是Swahili语义数据集。
- Deconstructing NLG Evaluation: Evaluation Practices, Assumptions, and Their Implications
- Kaitlyn Zhou, Su Lin Blodgett, Adam Trischler, Hal Daumé III, Kaheer Suleman, Alexandra Olteanu
- TLDR: 我们表明,NLG评估的目的是,假设和限制,并表明这些目标和限制在NLG评估中的作用。
- TSTR: Too Short to Represent, Summarize with Details! Intro-Guided Extended Summary Generation
- Sajad Sotudeh, Nazli Goharian
- TLDR: 我们提出了TSTR,一个用于多表征的概括器,使用论文的初始信息作为点点来向原始论文中所展示的 salient信息。
- Empathic Machines: Using Intermediate Features as Levers to Emulate Emotions in Text-To-Speech Systems
- Saiteja Kosgi, Sarath Sivaprasad, Niranjan Pedanekar, Anil Nelakanti, Vineet Gandhi
- TLDR: 我们提出了一种用于语音到语音系统情感表征的新型方法,该方法使用语音级的中间特征(pitch、能量和时间)作为可控权重。
- The Why and The How: A Survey on Natural Language Interaction in Visualization
- Henrik Voigt, Ozge Alacam, Monique Meuschke, Kai Lawonn, Sina Zarrieß
- TLDR: 我们通过对自然语言的互动进行比较,从理论上分析了NLP方法在视觉上的应用。
- Understand before Answer: Improve Temporal Reading Comprehension via Precise Question Understanding
- Hao Huang, Xiubo Geng, Guodong Long, Daxin Jiang
- TLDR: 我们提出了一种新的阅读理解方法,用于准确地理解时间序列问题。
- User-Driven Research of Medical Note Generation Software
- Tom Knoll, Francesco Moramarco, Alex Papadopoulos Korfiatis, Rachel Young, Claudia Ruffini, Mark Perera, Christian Perstl, Ehud Reiter, Anya Belz, Aleksandar Savkov
- TLDR: 我们提出了三轮用户研究,在医疗记录生成系统开发过程中进行的用户研究。
- Ask Me Anything in Your Native Language
- Nikita Sorokin, Dmitry Abulkhanov, Irina Piontkovskaya, Valentin Malykh
- TLDR: 我们提出了一种基于单个编码器的跨语言问题回答的新方法,它可以扩展到超过100个语言。
- Diversifying Neural Dialogue Generation via Negative Distillation
- Yiwei Li, Shaoxiong Feng, Bin Sun, Kan Li
- TLDR: 我们提出了一种新颖的负面训练方法,用于保持模型远离不相关的泛化回应。
- On Synthetic Data for Back Translation
- Jiahao Xu, Yubin Ruan, Wei Bi, Guoping Huang, Shuming Shi, Lihui Chen, Lemao Liu
- TLDR: 我们提出了一种简单而有效的方法来生成合成数据,以提高後翻译NMT的性能。
- Mapping the Design Space of Human-AI Interaction in Text Summarization
- Ruijia Cheng, Alison Smith-Renner, Ke Zhang, Joel Tetreault, Alejandro Jaimes-Larrarte
- TLDR: 我们首次从人类的参与中分析了人类-AI互动的理论和实践意义。
- Towards Robust and Semantically Organised Latent Representations for Unsupervised Text Style Transfer
- Sharan Narasimhan, Suvodip Dey, Maunendra Desarkar
- TLDR: 我们使用一个随机符号的扰动方法来表示句法,并使用一个随机符号来表示句法的上下文相似性。
- An Exploration of Post-Editing Effectiveness in Text Summarization
- Vivian Lai, Alison Smith-Renner, Ke Zhang, Ruijia Cheng, Wenjuan Zhang, Joel Tetreault, Alejandro Jaimes-Larrarte
- TLDR: 我们表明,本文的作者在本文中使用了前修改的总结来帮助完成总结。
- Automatic Correction of Human Translations
- Jessy Lin, Geza Kovacs, Aditya Shastry, Joern Wuebker, John DeNero
- TLDR: 我们提出了翻译误差修复(TEC),这是一种用于自动修正人类翻译的翻译误差的机器翻译。
- On the Robustness of Reading Comprehension Models to Entity Renaming
- Jun Yan, Yang Xiao, Sagnik Mukherjee, Bill Yuchen Lin, Robin Jia, Xiang Ren
- TLDR: 我们研究了机器阅读理解(MRC)模型对实体名称的替换的穩定性,并表明,基于实体的替换可以提高MRC模型的穩定性。
- Explaining Why: How Instructions and User Interfaces Impact Annotator Rationales When Labeling Text Data
- Cynthia Sullivan, William Brackenbury, Andrew McNut, Kevin Bryson, Kbyllofficial@gmail.com Kbyllofficial@gmail.com, Yuxin Chen, Michael Littman, Chenhao Tan, Blase Ur
- TLDR: 我们研究了人类选择的理由的一般性,特别是在不同的输入标签上选择的理由的一般性。
- Fine-tuning Pre-trained Language Models for Few-shot Intent Detection: Supervised Pre-training and Isotropization
- Haode Zhang, Haowen Liang, Yuwei Zhang, Li-Ming Zhan, Xiao-Ming Wu, Xiaolei Lu, Albert Lam
- TLDR: 我们提出了一种改进的非监督预训练方法,通过正则化向 isotropy改进了非监督预训练。
- Cross-document Misinformation Detection based on Event Graph Reasoning
- Xueqing Wu, Kung-Hsiang Huang, Yi Fung, Heng Ji
- TLDR: 我们提出了一个基于图的跨文件知识图的检测器,它通过使用跨文件事件追踪和跨文件事件追踪的特征向量检测出虚假信息。
- Disentangled Action Recognition with Knowledge Bases
- Zhekun Luo, Shalini Ghosh, Devin Guillory, Keizo Kato, Trevor Darrell, Huijuan Xu
- TLDR: 我们提出了一种基于知识图的行动识别方法,该方法通过从知识图中提取分解的特征表示来表示行动。
- Machine-in-the-Loop Rewriting for Creative Image Captioning
- Vishakh Padmakumar, He He
- TLDR: 我们使用一个修改文本的模型来改进文本的句法表征。
- A Word is Worth A Thousand Dollars: Adversarial Attack on Tweets Fools Stock Prediction
- Yong Xie, Dakuo Wang, Pin-Yu Chen, Jinjun Xiong, Sijia Liu, Oluwasanmi Koyejo
- TLDR: 我们通过解决组合优化问题解决对抗性生成问题,解决了用于预测股票价格的网络攻击的理论和实践问题。
- Building Multilingual Machine Translation Systems That Serve Arbitrary XY Translations
- Akiko Eriguchi, Shufang Xie, Tao Qin, Hany Hassan
- TLDR: 我们提出了一种基于多语言神经机器翻译的理论,用于解决多语言翻译任务的理论。
- Non-Autoregressive Neural Machine Translation with Consistency Regularization Optimized Variational Framework
- Minghao Zhu, Junli Wang, Chungang Yan
- TLDR: 我们提出了一个用于非逆机器翻译的VAE框架,该框架在理论上和实践上都取得了显著的成果。
- User-Centric Gender Rewriting
- Bashar Alhafni, Nizar Habash, Houda Bouamor
- TLDR: 我们提出了一个用于语言的多步语义化语义化语义化化语义化化语义化化语义化化语义化化语义化化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义化语义
- Reframing Human-AI Collaboration for Generating Free-Text Explanations
- Sarah Wiegreffe, Jack Hessel, Swabha Swayamdipta, Mark Riedl, Yejin Choi
- TLDR: 我们使用一个简单的例子来解释语言模型的解释。
- EmRel: Joint Representation of Entities and Embedded Relations for Multi-triple Extraction
- Benfeng Xu, Quan Wang, Yajuan Lyu, Yabing Shi, Yong Zhu, Jie Gao, Zhendong Mao
- TLDR: 我们提出了一个关于实体表征的明确的概括。
- Meta Learning for Natural Language Processing: A Survey
- Hung-yi Lee, Shang-Wen Li, Thang Vu
- TLDR: 我们通过对NLP中元学习的一般概念和最先进的元学习方法进行比较,展示了在NLP中元学习的一般概念和最先进的元学习方法。
- Analyzing Modality Robustness in Multimodal Sentiment Analysis
- Devamanyu Hazarika, Yingting Li, Bo Cheng, Shuai Zhao, Roger Zimmermann, Soujanya Poria
- TLDR: 我们提出了一个简单而有效的诊断检查和穩定的训练解决方案。
- Fuse It More Deeply! A Variational Transformer with Layer-Wise Latent Variable Inference for Text Generation
- Jinyi Hu, Xiaoyuan Yi, Wenhao Li, Maosong Sun, Xing Xie
- TLDR: 本文介绍了一种用于文本生成的变异自动编码器,它可以从文本中自动编码出文本。
- Easy Adaptation to Mitigate Gender Bias in Multilingual Text Classification
- Xiaolei Huang
- TLDR: 我们提出了一个通用的多语种分类器适应模型,用于减少和提高单语分类器的性能。
- On the Use of External Data for Spoken Named Entity Recognition
- Ankita Pasad, Felix Wu, Suwon Shon, Karen Livescu, Kyu Han
- TLDR: 我们提出了一种用于低资源的语音命名实体识别的通用语言理解方法。
- Long-term Control for Dialogue Generation: Methods and Evaluation
- Ramya Ramakrishnan, Hashan Narangodage, Mauro Schilman, Kilian Weinberger, Ryan McDonald
- TLDR: 我们提出了一种基于语义的对话生成的深度学习方法,它可以提高对话生成的长期控制的性能。
- Learning Dialogue Representations from Consecutive Utterances
- Zhihan Zhou, Dejiao Zhang, Wei Xiao, Nicholas Dingwall, Xiaofei Ma, Andrew Arnold, Bing Xiang
- TLDR: 我们介绍了DSE,这是一个自我监督的对话句法嵌入方法,用于解决对话任务的对话表征。
- On the Machine Learning of Ethical Judgments from Natural Language
- Zeerak Talat, Hagen Blix, Josef Valvoda, Maya Indira Ganesh, Ryan Cotterell, Adina Williams
- TLDR: 我们提出了一个批评性的批评,以解决在NLP中使用机器道德的现实问题。
- NeuroLogic A*esque Decoding: Constrained Text Generation with Lookahead Heuristics
- Ximing Lu, Sean Welleck, Peter West, Liwei Jiang, Jungo Kasai, Daniel Khashabi, Ronan Le Bras, Lianhui Qin, Youngjae Yu, Rowan Zellers, Noah Smith, Yejin Choi
- TLDR: 本文提出了一种用于神经文本生成的自回归语言模型的理论和实践。
- PARADISE: Exploiting Parallel Data for Multilingual Sequence-to-Sequence Pretraining
- Machel Reid, Mikel Artetxe
- TLDR: 我们提出了paraDISE(PARAllel和Denoising Integration在SECTION-SeCTION模型中的应用),用于从序列到序列模型的模型的模型的模型的模型的模型的模型。
- Explaining Toxic Text via Knowledge Enhanced Text Generation
- Rohit Sridhar, Diyi Yang
- TLDR: 我们提出了一个知识信息编码器-解码框架,用于利用多种知识源来生成偏见的文本。
- Teaching BERT to Wait: Balancing Accuracy and Latency for Streaming Disfluency Detection
- Angelica Chen, Vicky Zayats, Daniel Walker, Dirk Padfield
- TLDR: 我们提出了一个基于BERT的序列指针模型,它可以捕捉到在现实世界中的偏差,同时保持准确性和稳定性。
- GRAM: Fast Fine-tuning of Pre-trained Language Models for Content-based Collaborative Filtering
- Yoonseok Yang, Kyu Seok Kim, Minsam Kim, Juneyoung Park
- TLDR: 我们提出了一个用于多模态CCF的GAN,用于从端到端的迭代迭代中学习高质量的句法。
- Generating Repetitions with Appropriate Repeated Words
- Toshiki Kawamoto, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura
- TLDR: 我们提出了一种用于学习句法重复的非监督方法,它可以产生更好的重复。
- Textless Speech-to-Speech Translation on Real Data
- Ann Lee, Hongyu Gong, Paul-Ambroise Duquenne, Holger Schwenk, Peng-Jen Chen, Changhan Wang, Sravya Popuri, Yossi Adi, Juan Pino, Jiatao Gu, Wei-Ning Hsu
- TLDR: 我们提出了一种基于单个单词的语音到语音的翻译方法,可以用于多语言对接,同时保留词的语义内容。
- WALNUT: A Benchmark on Semi-weakly Supervised Learning for Natural Language Understanding
- Guoqing Zheng, Giannis Karamanolakis, Kai Shu, Ahmed Awadallah
- TLDR: 我们提出了一个用于低资源NLP任务的半监督学习基准,用于推广和指导基于标签的数据的弱监督。
- CompactIE: Compact Facts in Open Information Extraction
- Farima Fatahi Bayat, Nikita Bhutani, H. Jagadish
- TLDR: 我们提出了一种新的OpenIE系统,使用一种新的方法来生成小批量化压缩。
- CoSIm: Commonsense Reasoning for Counterfactual Scene Imagination
- Hyounghun Kim, Abhay Zala, Mohit Bansal
- TLDR: 我们提出了一个用于对抗性事件想象的多模态数据集,用于评估和解释场景变换的神经模型的解释能力。
- Abstraction not Memory: BERT and the English Article System
- Harish Tayyar Madabushi, Dagmar Divjak, Petar Milin
- TLDR: 我们表明,BERT在本文预测任务中的表现优于人类。
- OmniTab: Pretraining with Natural and Synthetic Data for Few-shot Table-based Question Answering
- Zhengbao Jiang, Yi Mao, Pengcheng He, Graham Neubig, Weizhu Chen
- TLDR: 我们提出了一种基于数据的QA的全自动预训练方法,它可以利用自然语言和基于模型的模型,以实现最先进的结果。
- Provably Confidential Language Modelling
- Xuandong Zhao, Lei Li, Yu-Xiang Wang
- TLDR: 我们提出了CNN,一种用于训练语言生成模型的隐私保护方法。
- KAT: A Knowledge Augmented Transformer for Vision-and-Language
- Liangke Gui, Borui Wang, Qiuyuan Huang, Alexander Hauptmann, Yonatan Bisk, Jianfeng Gao
- TLDR: 我们提出了一个知识增强的转换(KAT),它取得了最先进的结果(6% absolute),用于OK-VQA的开放域多模态任务。
- When a sentence does not introduce a discourse entity, Transformer-based models still sometimes refer to it
- Sebastian Schuster, Tal Linzen
- TLDR: 我们使用一个英语评估框架来评估和学习穩定句法的穩定性,并使用它来研究穩定性句法的穩定性。
- On Curriculum Learning for Commonsense Reasoning
- Adyasha Maharana, Mohit Bansal
- TLDR: 我们通过使用自适应课程学习来衡量语言模型的难度,并使用一个教师模型来衡量难度。
- DocTime: A Document-level Temporal Dependency Graph Parser
- Puneet Mathur, Vlad Morariu, Verena Kaynig-Fittkau, Jiuxiang Gu, Franck Dernoncourt, Quan Tran, Ani Nenkova, Dinesh Manocha, Rajiv Jain
- TLDR: 我们介绍了 DocTime,这是一个新颖的时间依赖性图(TDG)解析器,它从文本文件中抽取出一个时间依赖性图,然后生成一个时间依赖性图。
- FactPEGASUS: Factuality-Aware Pre-training and Fine-tuning for Abstractive Summarization
- David Wan, Mohit Bansal
- TLDR: 我们提出了 FactPEGASUS,一个抽象的概括模型,解决了在训练和微调期间的事实性问题。
- ScAN: Suicide Attempt and Ideation Events Dataset
- Bhanu Pratap Singh Rawat, Samuel Kovaly, Hong Yu, Wilfred Pigeon
- TLDR: 我们首次构建了Suicide Attempt和 Ideation Events(ScAN)数据集,这是一个用于诊断和预测病人的自杀行为的统一数据集。
- Socially Aware Bias Measurements for Hindi Language Representations
- Vijit Malik, Sunipa Dev, Akihiro Nishi, Nanyun Peng, Kai-Wei Chang
- TLDR: 我们通过对语言表征的偏差进行理论分析,从理论上分析了语言表征的偏差。
- AmbiPun: Generating Humorous Puns with Ambiguous Context
- Anirudh Mittal, Yufei Tian, Nanyun Peng
- TLDR: 我们提出了一种简单的、有效的方法来生成惩罚句法,不需要任何训练。
- EmpHi: Generating Empathetic Responses with Human-like Intents
- Mao Yan Chen, Siheng Li, Yujiu Yang
- TLDR: 我们提出了一种新的方法,通过将潜在的情感意图与人类的情感意图分布相结合,生成具有不同情感意图的回应。
- Yes, No or IDK: The Challenge of Unanswerable Yes/No Questions
- Elior Sulem, Jamaal Hay, Dan Roth
- TLDR: 我们扩展了Yes/No QA任务,并提出了一个用于回答不相关的QA任务的替代方案。
- Inducing and Using Alignments for Transition-based AMR Parsing
- Andrew Drozdov, Jiawei Zhou, Radu Florian, Andrew McCallum, Tahira Naseem, Yoon Kim, Ramón Astudillo
- TLDR: 我们提出了一个神经推理器,它可以学习从句到句的alignments,而不依赖于复杂的管道。
- Masked Part-Of-Speech Model: Does Modeling Long Context Help Unsupervised POS-tagging?
- Xiang Zhou, Shiyue Zhang, Mohit Bansal
- TLDR: 我们提出了一种基于伪标签依赖性的Part-Of-Speech Model(MPoSM),用于在POS上学习标签协议。
- DREAM: Improving Situational QA by First Elaborating the Situation
- Yuling Gu, Bhavana Dalvi, Peter Clark
- TLDR: 我们使用一个新颖的模型来回答问题,并提供它来提供额外的背景,以提高QA模型的解释能力。
- CoSe-Co: Text Conditioned Generative CommonSense Contextualizer
- Rachit Bansal, Milan Aggarwal, Sumit Bhatia, Jivat Kaur, Balaji Krishnamurthy
- TLDR: 我们提出了一个用于多语义QA的通用语义模型,它可以作为知识库来训练,用于生成知识。
- Probing via Prompting
- Jiaoda Li, Ryan Cotterell, Mrinmaya Sachan
- TLDR: 我们使用一个基于模型的无模型方法来解决问题,以解决问题的方式从经验上分析和评估问题。
- Database Search Results Disambiguation for Task-Oriented Dialog Systems
- Kun Qian, Satwik Kottur, Ahmad Beirami, Shahin Shayandeh, Paul Crook, Alborz Geramifard, Zhou Yu, Chinnadhurai Sankar
- TLDR: 我们提出了DSR-disambiguation,这是一个新颖的DSR-disambiguation任务,旨在通过使用多选项选择一个来解决多选项问题,以提高用户体验。
- Unsupervised Slot Schema Induction for Task-oriented Dialog
- Dian Yu, Mingqiu Wang, Yuan Cao, Izhak Shafran, Laurent Shafey, Hagen Soltau
- TLDR: 我们提出了一种基于数据的非监督方法来从未标注的对话实体中提取节点表征。
- Towards a Progression-Aware Autonomous Dialogue Agent
- Abraham Sanders, Tomek Strzalkowski, Mei Si, Albert Chang, Deepanshu Dey, Jonas Braasch, Dakuo Wang
- TLDR: 我们提出了一个框架,通过该框架,对话代理可以观察对话的進向或退向,并使用该信号来规划后续回应。
- Cross-Domain Detection of GPT-2-Generated Technical Text
- Juan Rodriguez, Todd Hay, David Gros, Zain Shamsi, Ravi Srinivasan
- TLDR: 我们通过对GPT-2的文本生成过程的现实情况进行理论分析,发现,在本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中,本文中
- DISAPERE: A Dataset for Discourse Structure in Peer Review Discussions
- Neha Kennard, Tim O’Gorman, Rajarshi Das, Akshay Sharma, Chhandak Bagchi, Matthew Clinton, Pranay Kumar Yelugam, Hamed Zamani, Andrew McCallum
- TLDR: 我们提出了一个用于评价和驳斥的标签集,该集包含了506个评价-追述对应者,其中专家对这些对应者进行了严格注释。
- MultiSpanQA: A Dataset for Multi-Span Question Answering
- Haonan Li, Martin Tomko, Maria Vasardani, Timothy Baldwin
- TLDR: 我们提出了MultiSpanQA,这是一个新的数据集,它关注多通道问题。
- Context-Aware Abbreviation Expansion Using Large Language Models
- Shanqing Cai, Subhashini Venugopalan, Katrin Tomanek, Ajit Narayanan, Meredith Morris, Michael Brenner
- TLDR: 我们提出了一种用于AAC的新型语言模型,它可以从句法中扩展到句法的全句法。
- Theory-Grounded Measurement of U.S. Social Stereotypes in English Language Models
- Yang Cao, Anna Sotnikova, Hal Daumé III, Rachel Rudinger, Linda Zou
- TLDR: 我们引入了对语言模型的偏见测试(SeT),用于衡量偏见的偏见。
- Sort by Structure: Language Model Ranking as Dependency Probing
- Max Müller-Eberstein, Rob Goot, Barbara Plank
- TLDR: 我们提出了一个基于上下文的衡量标准来衡量语言模型的依赖性。
- Quantifying Synthesis and Fusion and their Impact on Machine Translation
- Arturo Oncevay, Duygu Ataman, Niels Van Berkel, Barry Haddow, Alexandra Birch, Johannes Bjerva
- TLDR: 我们提出了一种用于翻译质量的神经语言处理方法,用于衡量词和语法的morphological typology。
- Commonsense and Named Entity Aware Knowledge Grounded Dialogue Generation
- Deeksha Varshney, Akshara Prabhakar, Asif Ekbal
- TLDR: 我们提出了一个用于对话生成的开放域对话生成模型,该模型使用了多跳注意力模块和一个用于对话生成的多跳注意力模块。
- Efficient Hierarchical Domain Adaptation for Pretrained Language Models
- Alexandra Chronopoulou, Matthew Peters, Jesse Dodge
- TLDR: 我们提出了一种用于多语种语言建模的高效适应方法,该方法允许在许多不同领域的适应。
- Hatemoji: A Test Suite and Adversarially-Generated Dataset for Benchmarking and Detecting Emoji-Based Hate
- Hannah Kirk, Bertie Vidgen, Paul Rottger, Tristan Thrush, Scott Hale
- TLDR: 我们提出了HatemojiCheck,一个用于检测和评估使用表情符号表达的不义词的测试集。
- On the Economics of Multilingual Few-shot Learning: Modeling the Cost-Performance Trade-offs of Machine Translated and Manual Data
- Kabir Ahuja, Monojit Choudhury, Sandipan Dandapat
- TLDR: 我们提出了一个框架,用于分析和评估大规模多语种语言模型的性能和成本差距。
- Learning to Selectively Learn for Weakly Supervised Paraphrase Generation with Model-based Reinforcement Learning
- Haiyan Yin, Dingcheng Li, Ping Li
- TLDR: 我们提出了一种新的弱监督的句法生成方法,用于在没有数据选择的情况下进行句法生成。
- Quality-Aware Decoding for Neural Machine Translation
- Patrick Fernandes, António Farinhas, Ricardo Rei, José De Souza, Perez Ogayo, Graham Neubig, Andre Martins
- TLDR: 我们提出了一种用于机器翻译的神经机器翻译的模型,用于寻找最可能的翻译。
- Pretrained Models for Multilingual Federated Learning
- Orion Weller, Marc Marone, Vladimir Braverman, Dawn Lawrie, Benjamin Van Durme
- TLDR: 我们使用不同的联合和非联合学习算法来解决多语言任务,使用不同的语言分类和语义建模来解决多语言任务。
- AcTune: Uncertainty-Based Active Self-Training for Active Fine-Tuning of Pretrained Language Models
- Yue Yu, Lingkai Kong, Jieyu Zhang, Rongzhi Zhang, Chao Zhang
- TLDR: 我们开发了ATCune,这是一个新颖的主动学习和自我训练框架,它可以提高主动PLM微调的标签效率。
- Label Anchored Contrastive Learning for Language Understanding
- Zhenyu Zhang, Yuming Zhao, Meng Chen, Xiaodong He
- TLDR: 我们提出了一种新颖的标签嵌入正则化学习方法,用于语言理解。
- Go Back in Time: Generating Flashbacks in Stories with Event Temporal Prompts
- Rujun Han, Hong Chen, Yufei Tian, Nanyun Peng
- TLDR: 我们提出了一种基于计划和写的创作方法,可以生成更有意义的事件,同时保留文本的多样性、准确性和时间一致性。
- Forecasting COVID-19 Caseloads Using Unsupervised Embedding Clusters of Social Media Posts
- Felix Drinkall, Stefan Zohren, Janet Pierrehumbert
- TLDR: 我们提出了一种用于疾病模型的变体建模的新方法,用于使用变体建模的语言模型。
- Many Hands Make Light Work: Using Essay Traits to Automatically Score Essays
- Rahul Kumar, Sandeep Mathias, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: 本文旨在通过使用AEG来衡量一个论文的论文。
- Natural Language Inference with Self-Attention for Veracity Assessment of Pandemic Claims
- Miguel Arana-Catania, Elena Kochkina, Arkaitz Zubiaga, Maria Liakata, Robert Procter, Yulan He
- TLDR: 我们提出了一个完整的工作,从数据集创建到开发新的方法,用于自动的真性评估。
- Beyond Emotion: A Multi-Modal Dataset for Human Desire Understanding
- Ao Jia, Yu He, Yazhou Zhang, Sagar Uprety, Dawei Song, Christina Lioma
- TLDR: 我们提出了第一个用于多任务情感、情感和愿的情感、情感和愿望数据集。
- Relation-Specific Attentions over Entity Mentions for Enhanced Document-Level Relation Extraction
- Jiaxin Yu, Deqing Yang, Shuyu Tian
- TLDR: 我们提出了一个用于文件级关系提取的RL,它可以提高一些基于样本的模型的性能。
- Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal Misinformation
- Giscard Biamby, Grace Luo, Trevor Darrell, Anna Rohrbach
- TLDR: 我们提出了一种基于CLIP的检测方法,用于检测在不相关性的情况下生成的虚假信息。
- BlonDe: An Automatic Evaluation Metric for Document-level Machine Translation
- Yuchen Jiang, Tianyu Liu, Shuming Ma, Dongdong Zhang, Jian Yang, Haoyang Huang, Rico Sennrich, Ryan Cotterell, Mrinmaya Sachan, Ming Zhou
- TLDR: 我们引入了一种新的自动指标,用于从句法到文件的评估。
- Disentangled Learning of Stance and Aspect Topics for Vaccine Attitude Detection in Social Media
- Lixing Zhu, Zheng Fang, Gabriele Pergola, Robert Procter, Yulan He
- TLDR: 我们提出了一种用于预防疾病态度检测的半监督方法,该方法使用一个变异自动编码架构来学习从不标注的数据中学习主题信息。
- SKILL: Structured Knowledge Infusion for Large Language Models
- Fedor Moiseev, Zhe Dong, Enrique Alfonseca, Martin Jaggi
- TLDR: 我们提出了一种用于知识图上知识图上的知识图上知识图上的知识图上知识图上的知识图上知识图上的知识图上知识图上的知识图上知识图的直接方法。
- Same Neurons, Different Languages: Probing Morphosyntax in Multilingual Pre-trained Models
- Karolina Stanczak, Edoardo Ponti, Lucas Torroba Hennigen, Ryan Cotterell, Isabelle Augenstein
- TLDR: 我们首次对多语言神经元在不同的语言上的表现进行了大规模的理论研究。
- Aspect Is Not You Need: No-aspect Differential Sentiment Framework for Aspect-based Sentiment Analysis
- Jiahao Cao, Rui Liu, Huailiang Peng, Lei Jiang, Xu Bai
- TLDR: 我们提出了一个基于主题的情感分析的框架,用于解决不主题的主题。
- MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided Adaptation
- Simiao Zuo, Qingru Zhang, Chen Liang, Pengcheng He, Tuo Zhao, Weizhu Chen
- TLDR: 我们提出了一种用于神经网络的混合专家结构,以提高模型性能和推理速度。
- Implicit n-grams Induced by Recurrence
- Xiaobing Sun, Wei Lu
- TLDR: 我们表明,在隐藏状态中隐藏的几个特征是相同的,它们与经典的N图特征相似,并表明它们可以作为RNN编码器的组成部分。
- Guiding Visual Question Generation
- Nihir Vedd, Zixu Wang, Marek Rei, Yishu Miao, Lucia Specia
- TLDR: 我们提出了一个明确的引导模型,可以允许一个演员选择哪些物体和分类器来生成一个问题。
- OPERA: Operation-Pivoted Discrete Reasoning over Text
- Yongwei Zhou, Junwei Bao, Chaoqun Duan, Haipeng Sun, Jiahui Liang, Yifan Wang, Jing Zhao, Youzheng Wu, Xiaodong He, Tiejun Zhao
- TLDR: 我们提出了一个用于阅读理解的非逻辑表征的自上而下的循環推理框架。
- Improving Multi-Document Summarization through Referenced Flexible Extraction with Credit-Awareness
- Yun-Zhu Song, Yi-Syuan Chen, Hong-Han Shuai
- TLDR: 我们提出了一个用于多文件总结的Transformer框架,用于解决本文中提出的提取-然后-概括问题。
- Improving Constituent Representation with Hypertree Neural Networks
- Hao Zhou, Gongshen Liu, Kewei Tu
- TLDR: 我们使用一个新颖的超树神经网络(HTNN)来改善构成性流形的表示。
- Measuring Fairness with Biased Rulers: A Comparative Study on Bias Metrics for Pre-trained Language Models
- Pieter Delobelle, Ewoenam Tokpo, Toon Calders, Bettina Berendt
- TLDR: 我们表明,在语言建模和公平性方面的比较是不同的。
- MuCPAD: A Multi-Domain Chinese Predicate-Argument Dataset
- Yahui Liu, Haoping Yang, Chen Gong, Qingrong Xia, Zhenghua Li, Min Zhang
- TLDR: 我们提出了一个用于多领域语义论论的多领域语义论语义论语义数据集。
- Representation Learning for Conversational Data using Discourse Mutual Information Maximization
- Bishal Santra, Sumegh Roychowdhury, Aishik Mandal, Vasu Gurram, Atharva Naik, Manish Gupta, Pawan Goyal
- TLDR: 我们提出了一种基于结构感的DMI方法来训练对话-表示模型,它可以学习结构感,但不适用于各种对话理解任务。
- ValCAT: Variable-Length Contextualized Adversarial Transformations Using Encoder-Decoder Language Model
- Chuyun Deng, Mingxuan Liu, Yue Qin, Jia Zhang, Hai-Xin Duan, Donghong Sun
- TLDR: 我们提出了一种用于语言模型的黑盒攻击框架,它通过使用变量长度 contextual化转换来骗过语言模型。
- A Study of Syntactic Multi-Modality in Non-Autoregressive Machine Translation
- Kexun Zhang, Rui Wang, Xu Tan, Junliang Guo, Yi Ren, Tao Qin, Tie-Yan Liu
- TLDR: 我们通过对语法多变性问题进行系统的理论分析,从短语和长语法多变性中提取出最佳的损失函数。
- CIAug: Equipping Interpolative Augmentation with Curriculum Learning
- Ramit Sawhney, Ritesh Soun, Shrey Pandit, Megh Thakkar, Sarvagya Malaviya, Yuval Pinter
- TLDR: 我们提出了CIAug,一种基于课程的基于混合的学习方法,用于学习基于数据的混合。
- Proposition-Level Clustering for Multi-Document Summarization
- Ori Ernst, Avi Caciularu, Ori Shapira, Ramakanth Pasunuru, Mohit Bansal, Jacob Goldberger, Ido Dagan
- TLDR: 我们使用一个基于文本的组合来生成一个概括的句法。
- Non-Autoregressive Machine Translation: It’s Not as Fast as it Seems
- Jindřich Helcl, Barry Haddow, Alexandra Birch
- TLDR: 我们表明,在没有监督的情况下,非监督的模型比传统的NAR模型更快。
- BAD-X: Bilingual Adapters Improve Zero-Shot Cross-Lingual Transfer
- Marinela Parović, Goran Glavaš, Ivan Vulić, Anna Korhonen
- TLDR: 我们表明,通过使用一个通用的语言替换器(LA)来学习跨语言转换,比使用一个通用的LA来学习更有效的转换方法。
- Combining Humor and Sarcasm for Improving Political Parody Detection
- Xiao Ao, Danae Sanchez Villegas, Daniel Preotiuc-Pietro, Nikolaos Aletras
- TLDR: 我们提出了一个多编码器模型,它结合了流行的反向编码器和幽默和自我批评的表达。
- TIE: Topological Information Enhanced Structural Reading Comprehension on Web Pages
- Zihan Zhao, Lu Chen, Ruisheng Cao, Hongshen Xu, Xingyu Chen, Kai Yu
- TLDR: 我们提出了一个Topological Information增强模型(TIE),它将标签级任务变为一个层次级任务,通过引入一个二阶过程(即问题寻找和回答 refining),通过使用GAN和Pre-trained语言模型(PLM)来利用逻辑结构和空间结构的顶部信息。
- RSTGen: Imbuing Fine-Grained Interpretable Control into Long-FormText Generators
- Rilwan Adewoyin, Ritabrata Dutta, Yulan He
- TLDR: 我们提出了一个用于生成文本的语言建模框架,用于控制语言建模中表达的结构,语义和主题的表达。
- Intent Detection and Discovery from User Logs via Deep Semi-Supervised Contrastive Clustering
- Rajat Kumar, Mayur Patidar, Vaibhav Varshney, Lovekesh Vig, Gautam Shroff
- TLDR: 我们提出了一种用于对话系统中用户言语的特定意图的深度对比性聚类方法。
- Extending Multi-Text Sentence Fusion Resources via Pyramid Annotations
- Daniela Brook Weiss, Paul Roit, Ori Ernst, Ido Dagan
- TLDR: 我们重新审视了和扩展了以前的样本,并利用了它们来扩大样本规模。
- The Devil is in the Details: On the Pitfalls of Vocabulary Selection in Neural Machine Translation
- Tobias Domhan, Eva Hasler, Ke Tran, Sony Trenous, Bill Byrne, Felix Hieber
- TLDR: 我们提出了一个用于词典选择的模型,它可以选择给定的句法,但它会失败选择句法的句法。
- MultiCite: Modeling realistic citations requires moving beyond the single-sentence single-label setting
- Anne Lauscher, Brandon Ko, Bailey Kuehl, Sophie Johnson, Arman Cohan, David Jurgens, Kyle Lo
- TLDR: 我们展示了使用多语义引用语义来分析专家引用的文献的上下文。
- DEGREE: A Data-Efficient Generation-Based Event Extraction Model
- I-Hung Hsu, Kuan-Hao Huang, Elizabeth Boschee, Scott Miller, Prem Natarajan, Kai-Wei Chang, Nanyun Peng
- TLDR: 我们提出了DEGREE,一个数据高效的事件提取模型,它可以从句法中学习概括事件的事件预测。
- Bridging the Gap between Language Models and Cross-Lingual Sequence Labeling
- Nuo Chen, Linjun Shou, Ming Gong, Jian Pei, Daxin Jiang
- TLDR: 我们表明,在xSL任务中,xPLMs在跨语言学习中的表现良好。
- Hero-Gang Neural Model For Named Entity Recognition
- Jinpeng Hu, Yaling Shen, Yang Liu, Xiang Wan, Tsung-Hui Chang
- TLDR: 我们提出了一个新颖的HGN架构,用于推广NER。
- MGIMN: Multi-Grained Interactive Matching Network for Few-shot Text Classification
- Jianhai Zhang, Mieradilijiang Maimaiti, Gao Xing, Yuanhang Zheng, Ji Zhang
- TLDR: 我们提出了一种基于元学习的非监督少樣本学习方法,它可以从实例中进行实例对比,然后通过聚类来生成分类上匹配的 vectors。
- All You May Need for VQA are Image Captions
- Soravit Changpinyo, Doron Kukliansy, Idan Szpektor, Xi Chen, Nan Ding, Radu Soricut
- TLDR: 我们提出了一种基于图像的回答方法,通过利用现有的图像-标注注,从数据中自动获得回答。
- Frustratingly Easy System Combination for Grammatical Error Correction
- Muhammad Qorib, Seung-Hoon Na, Hwee Tou Ng
- TLDR: 我们提出了一种用于GEC的系统组合,它可以提高GEC的F0.5分数。
- Simple Local Attentions Remain Competitive for Long-Context Tasks
- Wenhan Xiong, Barlas Oguz, Anchit Gupta, Xilun Chen, Diana Liskovich, Omer Levy, Scott Yih, Yashar Mehdad
- TLDR: 我们通过对随机和控制的实验进行深入分析,从理论上分析了随机和控制的实验中发现的最先进的随机和随机注意力的差异。
- Even the Simplest Baseline Needs Careful Re-investigation: A Case Study on XML-CNN
- Si-An Chen, Jie-jyun Liu, Tsung-Han Yang, Hsuan-Tien Lin, Chih-Jen Lin
- TLDR: 我们表明,在本文中,我们表明,在本文中,我们对多标签文本分类方法的优劣论论论证是错误的。
- Multi-Relational Graph Transformer for Automatic Short Answer Grading
- Rajat Agarwal, Varun Khurana, Karish Grover, Mukesh Mohania, Vikram Goyal
- TLDR: 我们提出了一种基于多任务图的转换,用于生成多任务图的图上表示。
- Event Schema Induction with Double Graph Autoencoders
- Xiaomeng Jin, Manling Li, Heng Ji
- TLDR: 我们提出了一种用于预测复杂事件的事件图的节点表征,用于学习节点的全局结构。
- CS1QA: A Dataset for Assisting Code-based Question Answering in an Introductory Programming Course
- Changyoon Lee, Yeon Seonwoo, Alice Oh
- TLDR: 我们介绍了CS1QA,这是一个用于代码上问题的回答的课程学习的课程数据集。
- Unsupervised Cross-Lingual Transfer of Structured Predictors without Source Data
- Kemal Kurniawan, Lea Frermann, Philip Schulz, Trevor Cohn
- TLDR: 我们提出了一种用于结构预测的非监督转移方法,该方法在跨语言环境中表现良好。
- Don’t Take It Literally: An Edit-Invariant Sequence Loss for Text Generation
- Guangyi Liu, Zichao Yang, Tianhua Tao, Xiaodan Liang, Junwei Bao, Zhen Li, Xiaodong He, Shuguang Cui, Zhiting Hu
- TLDR: 我们提出了一种新的 Edit-Invariant Sequence Loss(EISL),该将匹配损失与生成的序列相匹配。
- Modeling Exemplification in Long-form Question Answering via Retrieval
- Shufan Wang, Fangyuan Xu, Laure Thompson, Eunsol Choi, Mohit Iyyer
- TLDR: 我们首次提出了用于QA的例子的样本,并提出了一种用于例子的理论。
- D2U: Distance-to-Uniform Learning for Out-of-Scope Detection
- Eyup Yilmaz, Cagri Toraman
- TLDR: 我们使用D2U来解决非监督训练中的跨熵损失问题。
- Reference-free Summarization Evaluation via Semantic Correlation and Compression Ratio
- Yizhu Liu, Qi Jia, Kenny Zhu
- TLDR: 我们提出了一种基于引用的评价标准,它与人类的评价相反,以衡量引用的句法分布。
- KroneckerBERT: Significant Compression of Pre-trained Language Models Through Kronecker Decomposition and Knowledge Distillation
- Marzieh Tahaei, Ella Charlaix, Vahid Nia, Ali Ghodsi, Mehdi Rezagholizadeh
- TLDR: 我们提出了一个用于GLUE和SQuAD的 KroneckerBERT,它在GLUE上的表现优于最先进的BERT。
- Building a Role Specified Open-Domain Dialogue System Leveraging Large-Scale Language Models
- Sanghwan Bae, Donghyun Kwak, Sungdong Kim, Donghoon Ham, Soyoung Kang, Sang-Woo Lee, Woomyoung Park
- TLDR: 我们提出了一个高效的对话数据集,用于构建角色满足的对话数据集。
- Sentence-Level Resampling for Named Entity Recognition
- Xiaochen Wang, Yue Wang
- TLDR: 我们提出了一个框架,用于从句法中提取词的重要性,并提出了一个用于词级提取的框架。
- Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem
- Ryoma Sato
- TLDR: 我们提出了WordTour,一种用于词嵌入的非监督的无监督的词嵌入。
- On the Diversity and Limits of Human Explanations
- Chenhao Tan
- TLDR: 我们提出了一个概括性的概念,并表明,解释的多样性与人类的局限性有关。
- Locally Aggregated Feature Attribution on Natural Language Model Understanding
- Sheng Zhang, Jin Wang, Haitao Jiang, Rui Song
- TLDR: 我们提出了 Locally Aggregated Feature Attribution(LAFA),一种基于梯度的特征属性的分类方法,用于NLP模型的分类。
- Generic and Trend-aware Curriculum Learning for Relation Extraction
- Nidhi Vakil, Hadi Amiri
- TLDR: 本文提出了一种通用的、趋势感知的课程学习方法,用于文本图上关系提取。
- On Systematic Style Differences between Unsupervised and Supervised MT and an Application for High-Resource Machine Translation
- Kelly Marchisio, Markus Freitag, David Grangier
- TLDR: 我们表明,非监督机器翻译(MT)系统比监督的MT系统更优,但与监督的MT系统相比,它的表现更优。
- Evidentiality-guided Generation for Knowledge-Intensive NLP Tasks
- Akari Asai, Matt Gardner, Hannaneh Hajishirzi
- TLDR: 本文提出了一种用于学习知识的NLP任务的神经网络的可扩展方法。
- Modularized Transfer Learning with Multiple Knowledge Graphs for Zero-shot Commonsense Reasoning
- Yu Jin Kim, Beong-woo Kwak, Youngwook Kim, Reinald Kim Amplayo, Seung-won Hwang, Jinyoung Yeo
- TLDR: 我们提出了一个用于知识图的零樣本知识图QA框架,用于知识图的归零转移学习。
- Learning to Express in Knowledge-Grounded Conversation
- Xueliang Zhao, Tingchen Fu, Chongyang Tao, Wei Wu, Dongyan Zhao, Rui Yan
- TLDR: 我们提出了一个基于分层的生成模型,它可以学习知识表达的结构和内容风格,并生成知识的回应。
- End-to-End Chinese Speaker Identification
- Dian Yu, Ben Zhou, Dong Yu
- TLDR: 我们提出了一个用于文本识别的通用语义注释框架,并展示了使用它来学习最先进的语义注释。
- MINION: a Large-Scale and Diverse Dataset for Multilingual Event Detection
- Amir Pouran Ben Veyseh, Minh Van Nguyen, Franck Dernoncourt, Thien Nguyen
- TLDR: 我们介绍了一个用于多语言ED的巨大多语言ED数据集,它可以作为多语言ED数据集的基准,用于多语言ED。
- Do Prompt-Based Models Really Understand the Meaning of Their Prompts?
- Albert Webson, Ellie Pavlick
- TLDR: 我们表明,通过使用各种随机的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、不相关的、
- GPL: Generative Pseudo Labeling for Unsupervised Domain Adaptation of Dense Retrieval
- Kexin Wang, Nandan Thakur, Nils Reimers, Iryna Gurevych
- TLDR: 我们提出了一种用于非监督的领域适应方法,用于解决词典上的词汇差距。
- Sparse Distillation: Speeding Up Text Classification by Using Bigger Student Models
- Qinyuan Ye, Madian Khabsa, Mike Lewis, Sinong Wang, Xiang Ren, Aaron Jaech
- TLDR: 我们通过将教师模型的模型化,从小而稀疏的学生模型中提炼出更大的模型。
- Towards Understanding Large-Scale Discourse Structures in Pre-Trained and Fine-Tuned Language Models
- Patrick Huber, Giuseppe Carenini
- TLDR: 我们提出了一种新的BERTology方法,用于推断任意的文件的一般语言结构。
- SAIS: Supervising and Augmenting Intermediate Steps for Document-Level Relation Extraction
- Yuxin Xiao, Zecheng Zhang, Yuning Mao, Carl Yang, Jiawei Han
- TLDR: 我们提出了一种基于监督和强化初始步骤(SAIS)的高效关系提取方法,该方法通过监督和强化初始步骤(SAIS)来提取关系。
- LITE: Intent-based Task Representation Learning Using Weak Supervision
- Naoki Otani, Michael Gamon, Sujay Kumar Jauhar, Mei Yang, Sri Raghu Malireddi, Oriana Riva
- TLDR: 我们提出了一个用于多任务学习的多任务学习框架,用于学习用于学习任务的句法表征。
- Does Summary Evaluation Survive Translation to Other Languages?
- Spencer Braun, Oleg Vasilyev, Neslihan Iskender, John Bohannon
- TLDR: 我们通过使用SummaEval数据集来评估总结质量的机器翻译的质量。
- A Shoulder to Cry on: Towards A Motivational Virtual Assistant for Assuaging Mental Agony
- Tulika Saha, Saichethan Reddy, Anindya Das, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: 本文提出了一个用于VAs的在线学习框架,该框架可以用于学习在线的VAs,并表明VAs可以用于解决MHPs。
- SueNes: A Weakly Supervised Approach to Evaluating Single-Document Summarization via Negative Sampling
- Forrest Bao, Ge Luo, Hebi Li, Minghui Qiu, Yinfei Yang, Youbiao He, Cen Chen
- TLDR: 我们提出了一个基于证据的proof-of-concept研究来解决基于引用的总结评估的无监督的总结评估方法。
- Combating the Curse of Multilinguality in Cross-Lingual WSD by Aligning Sparse Contextualized Word Representations
- Gábor Berend
- TLDR: 我们建议使用大型初始化语言模型的联合,以实现跨语言的零樣本词语法嵌入。
- Cheat Codes to Quantify Missing Source Information in Neural Machine Translation
- Proyag Pal, Kenneth Heafield
- TLDR: 本文描述了一种用于量化信息的方法。
- WiC = TSV = WSD: On the Equivalence of Three Semantic Tasks
- Bradley Hauer, Grzegorz Kondrak
- TLDR: 我们表明,W3C和WSD的语义分类问题可以同时减少,并表明它们的语义分类问题与W3C的分类问题是相同的。
- What do tokens know about their characters and how do they know it?
- Ayush Kaushal, Kyle Mahowald
- TLDR: 我们通过研究在训练过程中,从字符中获得的词符信息,来分析词符的词嵌入,并表明词符信息是通过多种现象获得的。
- AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer Summarization
- Alexander Fabbri, Xiaojian Wu, Srini Iyer, Haoran Li, Mona Diab
- TLDR: 我们引入了一个新的CQA thread集,用于回答问题的总结。
- Paragraph-based Transformer Pre-training for Multi-Sentence Inference
- Luca Di Liello, Siddhant Garg, Luca Soldaini, Alessandro Moschitti
- TLDR: 我们首次表明,用于多语义推理任务的变换器在训练时表现不佳。
- Text Style Transfer via Optimal Transport
- Nasim Nouri
- TLDR: 我们提出了一种新的方法,通过使用最佳传输来同时融合语义和句法信息来实现风格转换。
- Exploring the Role of Task Transferability in Large-Scale Multi-Task Learning
- Vishakh Padmakumar, Leonard Lausen, Miguel Ballesteros, Sheng Zha, He He, George Karypis
- TLDR: 我们通过对多任务学习的规模和相关性进行理论分析,并表明,在没有目标任务的情况下,多任务学习可以提高到未见过的任务上。
- Interactive Query-Assisted Summarization via Deep Reinforcement Learning
- Ori Shapira, Ramakanth Pasunuru, Mohit Bansal, Ido Dagan, Yael Amsterdamer
- TLDR: 我们提出了一种用于互动式总结的深度强化学习模型,它可以提高交互式总结的质量,同时保留良好的用户体验。
- Data Augmentation with Dual Training for Offensive Span Detection
- Nasim Nouri
- TLDR: 我们提出了一个用于性状检测的新型模型,该模型的目标是识别出色情文本的节点,并生成一个用于OSD的合成数据。
- Training Mixed-Domain Translation Models via Federated Learning
- Peyman Passban, Tanya Roosta, Rahul Gupta, Ankit Chadha, Clement Chung
- TLDR: 我们提出了一种新的FL和NMT协议,用于解决混合语言翻译模型的联合学习问题。
- QAFactEval: Improved QA-Based Factual Consistency Evaluation for Summarization
- Alexander Fabbri, Chien-Sheng Wu, Wenhao Liu, Caiming Xiong
- TLDR: 我们通过对在QA中选择的QA指标的质量进行广泛的比较,表明QA和在QA中选择的QA指标的质量是至关重要的。
- How Gender Debiasing Affects Internal Model Representations, and Why It Matters
- Hadas Orgad, Seraphina Goldfarb-Tarrant, Yonatan Belinkov
- TLDR: 我们表明,在没有监督的情况下,我们对性偏差的一般衡量标准是更好的,而不是最坏的结果。
- A Structured Span Selector
- Tianyu Liu, Yuchen Jiang, Ryan Cotterell, Mrinmaya Sachan
- TLDR: 我们提出了一种基于语义的结构化文本流选择模型,它可以从语义中学习使用部分流,以解决文本流的流选择问题。
- Unified Semantic Typing with Meaningful Label Inference
- James Y. Huang, Bangzheng Li, Jiashu Xu, Muhao Chen
- TLDR: 我们提出了UniST,一个统一的句法和关系表征编码任务的句法表征。
- Learning To Retrieve Prompts for In-Context Learning
- Ohad Rubin, Jonathan Herzig, Jonathan Berant
- TLDR: 我们提出了一种高效的、可解释的、可逆的、可解释的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用
- Necessity and Sufficiency for Explaining Text Classifiers: A Case Study in Hate Speech Detection
- Esma Balkir, Isar Nejadgholi, Kathleen Fraser, Svetlana Kiritchenko
- TLDR: 我们提出了一种用于解释文本分类器的特征属性方法,并分析了它在反面的批评和批评中的作用。
- Learning to Retrieve Passages without Supervision
- Ori Ram, Gal Shachaf, Omer Levy, Jonathan Berant, Amir Globerson
- TLDR: 我们提出了一种新颖的预训练方案,用于检索,它可以从标签中减少标签依赖性,以实现ODQA的一般结果。
- Re2G: Retrieve, Rerank, Generate
- Michael Glass, Gaetano Rossiello, Md Faisal Mahbub Chowdhury, Ankita Naik, Pengshan Cai, Alfio Gliozzo
- TLDR: 我们提出了Re2G,这是一种基于BART的序列到序列生成的新方法,它结合了神经初始检索和梯度,同时保留了知识的原始检索结果。
- Don’t sweat the small stuff, classify the rest: Sample Shielding to protect text classifiers against adversarial attacks
- Jonathan Rusert, Padmini Srinivasan
- TLDR: 我们提出了一种新颖的、有用的、可信的对抗策略,用于防御DL学习的标签。
- Federated Learning with Noisy User Feedback
- Rahul Sharma, Anil Ramakrishna, Ansel MacLaughlin, Anna Rumshisky, Jimit Majmudar, Clement Chung, Salman Avestimehr, Rahul Gupta
- TLDR: 我们提出了一个用于联合学习的RL策略,并提出了一个用于RL的RL策略的框架。
- Gender Bias in Masked Language Models for Multiple Languages
- Masahiro Kaneko, Aizhan Imankulova, Danushka Bollegala, Naoaki Okazaki
- TLDR: 我们提出了多语言偏差评估(MBE)评估,用于评估语言模型在不同语言上的表现偏差。
- Multi-Domain Targeted Sentiment Analysis
- Orith Toledo-Ronen, Matan Orbach, Yoav Katz, Noam Slonim
- TLDR: 我们提出了一个多域TSA系统,它可以从一个训练好的训练集中提取不同弱标签的标签,并利用它们来改进训练集。
- Falsesum: Generating Document-level NLI Examples for Recognizing Factual Inconsistency in Summarization
- Prasetya Utama, Joshua Bambrick, Nafise Moosavi, Iryna Gurevych
- TLDR: 我们提出了 Falseum,一个用于解释不一致的例子的生成模型,用于解决不一致性。
- Dynamic Gazetteer Integration in Multilingual Models for Cross-Lingual and Cross-Domain Named Entity Recognition
- Besnik Fetahu, Anjie Fang, Oleg Rokhlenko, Shervin Malmasi
- TLDR: 我们提出了一种新的多语言转换器,使用一个高层次的Gateter层来增强现有的多语言转换器。
- MetaICL: Learning to Learn In Context
- Sewon Min, Mike Lewis, Luke Zettlemoyer, Hannaneh Hajishirzi
- TLDR: 我们提出了 MetaICL,这是一个用于少樣本学习的元学习框架,用于在目标任务上学习。
- Enhancing Knowledge Selection for Grounded Dialogues via Document Semantic Graphs
- Sha Li, Mahdi Namazifar, Di Jin, Mohit Bansal, Heng Ji, Yang Liu, Dilek Hakkani-Tur
- TLDR: 我们提出了一种基于知识图的多任务学习方法,用于知识选择和概念知识选择。
- Using Natural Sentence Prompts for Understanding Biases in Language Models
- Sarah Alnegheimish, Alicia Guo, Yi Sun
- TLDR: 我们提出了一个用于回答百科中自然句法的回答数据集,用于解释和解决语言模型中性偏差的一般性。
- Robust Conversational Agents against Imperceptible Toxicity Triggers
- Ninareh Mehrabi, Ahmad Beirami, Fred Morstatter, Aram Galstyan
- TLDR: 我们提出了一种防御机制,可以抵御对抗性攻击,同时又能保持对话的对话流。
- Selective Differential Privacy for Language Modeling
- Weiyan Shi, Aiqi Cui, Evan Li, Ruoxi Jia, Zhou Yu
- TLDR: 我们提出了一种新的隐私概念,选择性差异性隐私,用于RNN的语言模型。
- Do Trajectories Encode Verb Meaning?
- Dylan Ebert, Chen Sun, Ellie Pavlick
- TLDR: 我们通过使用程序生成的句法来学习句法的表示。
- Long Context Question Answering via Supervised Contrastive Learning
- Avi Caciularu, Ido Dagan, Jacob Goldberger, Arman Cohan
- TLDR: 我们提出了一种新的方法,通过引入一个额外的序列目标来训练长期背景问题回答模型,以更好地识别支持证据的证据。
- The USMLE® Step 2 Clinical Skills Patient Note Corpus
- Victoria Yaneva, Janet Mee, Le Ha, Polina Harik, Michael Jodoin, Alex Mechaber
- TLDR: 本文介绍了高质量的USMLE® Step 2临床能力测试中,通过对临床案例进行临床经验的总结,从临床案例中提取了43,985临床病历(PNs),这些PNs被编码为34,660临床词汇。
- Learning to Borrow– Relation Representation for Without-Mention Entity-Pairs for Knowledge Graph Completion
- Huda Hakami, Mona Hakami, Angrosh Mandya, Danushka Bollegala
- TLDR: 我们提出了和评估了几种方法来解决知识图嵌入中实体对单个句子的联系的依赖性路径的表示问题。
- Improving Entity Disambiguation by Reasoning over a Knowledge Base
- Tom Ayoola, Joseph Fisher, Andrea Pierleoni
- TLDR: 我们提出了一个用于实体表征的ED模型,该模型通过推理出一个符号知识库,以实现实体之间的相互作用。
- Modal Dependency Parsing via Language Model Priming
- Jiarui Yao, Nianwen Xue, Bonan Min
- TLDR: 我们提出了一种用于语法依赖性解析的新型方法,该方法基于在预先训练好的语言模型的基础上进行的语法依赖性解析。
- Document-Level Relation Extraction with Sentences Importance Estimation and Focusing
- Wang Xu, Kehai Chen, Lili Mou, Tiejun Zhao
- TLDR: 我们提出了一个用于DocRE的句法重要性估计和注意力的SIEF框架。
- Are All the Datasets in Benchmark Necessary? A Pilot Study of Dataset Evaluation for Text Classification
- Yang Xiao, Jinlan Fu, See-Kiong Ng, Pengfei Liu
- TLDR: 我们提出了一个研究问题,即如果所有的数据集都必须用,那么为什么它们在排名系统中的作用不大。
- Triggerless Backdoor Attack for NLP Tasks with Clean Labels
- Leilei Gan, Jiwei Li, Tianwei Zhang, Xiaoya Li, Yuxian Meng, Fei Wu, Yi Yang, Shangwei Guo, Chun Fan
- TLDR: 我们提出了一种新的文法的后门攻击策略,它不需要外部的 trigger,并使用正确的例子来生成干净的例子。
- PPL-MCTS: Constrained Textual Generation Through Discriminator-Guided MCTS Decoding
- Antoine Chaffin, Vincent Claveau, Ewa Kijak
- TLDR: 我们提出了一种基于梯度的语言建模方法,它可以被进一步控制以满足某些限制条件,而不微调。
- Interpretable Proof Generation via Iterative Backward Reasoning
- Hanhao Qu, Yu Cao, Jun Gao, Liang Ding, Ruifeng Xu
- TLDR: 我们提出了IBR,一个用于QA的基于规则的论证模型,该模型可以从一个问题中推断出一个问题,然后从问题中推断出一个问题,然后从问题中推断出一个问题。
- Domain Confused Contrastive Learning for Unsupervised Domain Adaptation
- Quanyu Long, Tianze Luo, Wenya Wang, Sinno Pan
- TLDR: 我们研究了UDA中非监督的领域适应方法,并表明,DCCL比基础的DCCL更有效。
- Incorporating Centering Theory into Neural Coreference Resolution
- Haixia Chai, Michael Strube
- TLDR: 我们提出了一个用于神经网络的中心性转换的神经元reference模型。
- Progressive Class Semantic Matching for Semi-supervised Text Classification
- Haiming Xu, Lingqiao Liu, Ehsan Abbasnejad
- TLDR: 我们提出了一个合作半监督学习过程,可以逐步建立一个标准的半监督学习标准。
- Low Resource Style Transfer via Domain Adaptive Meta Learning
- Xiangyang Li, Xiang Long, Yu Xia, Sujian Li
- TLDR: 我们提出了一种用于文本风格转移的非监督方法,它可以从单个数据中学习知识,并使用它来改进和避免风格转移。
- Features or Spurious Artifacts? Data-centric Baselines for Fair and Robust Hate Speech Detection
- Alan Ramponi, Sara Tonelli
- TLDR: 我们通过一个跨平台研究来分析和解决对反恶的穩定性和公平性问题的相關性。
- Document-Level Event Argument Extraction by Leveraging Redundant Information and Closed Boundary Loss
- Hanzhang Zhou, Kezhi Mao
- TLDR: 我们提出了一个新的损失函数,用于训练具有开放的分类器,以更好地分类Universum类。
- A Few Thousand Translations Go a Long Way! Leveraging Pre-trained Models for African News Translation
- David Adelani, Jesujoba Alabi, Angela Fan, Julia Kreutzer, Xiaoyu Shen, Machel Reid, Dana Ruiter, Dietrich Klakow, Peter Nabende, Ernie Chang, Tajuddeen Gwadabe, Freshia Sackey, Bonaventure F. P. Dossou, Chris Emezue, Colin Leong, Michael Beukman, Shamsuddeen Muhammad, Guyo Jarso, Oreen Yousuf, Andre Niyongabo Rubungo, Gilles Hacheme, Eric Peter Wairagala, Muhammad Umair Nasir, Benjamin Ajibade, Tunde Ajayi, Yvonne Gitau, Jade Abbott, Mohamed Ahmed, Millicent Ochieng, Anuoluwapo Aremu, Perez Ogayo, Jonathan Mukiibi, Fatoumata Ouoba Kabore, Godson Kalipe, Derguene Mbaye, Allahsera Auguste Tapo, Victoire Memdjokam Koagne, Edwin Munkoh-Buabeng, Valencia Wagner, Idris Abdulmumin, Ayodele Awokoya, Happy Buzaaba, Blessing Sibanda, Andiswa Bukula, Sam Manthalu
- TLDR: 我们通过利用现有的预先训练好的模型,利用16个语言的语言资源,从16个语言中生成低资源的翻译系统。
- Should We Rely on Entity Mentions for Relation Extraction? Debiasing Relation Extraction with Counterfactual Analysis
- Yiwei Wang, Muhao Chen, Wenxuan Zhou, Yujun Cai, Yuxuan Liang, Dayiheng Liu, Baosong Yang, Juncheng Liu, Bryan Hooi
- TLDR: 我们提出了一种基于Counterfactual分析的Re模型的泛化方法,用于从句法层次关系提取中剔除出实体信息。
- Analyzing Encoded Concepts in Transformer Language Models
- Hassan Sajjad, Nadir Durrani, Fahim Dalvi, Firoj Alam, Abdul Khan, Jia Xu
- TLDR: 我们提出了一个新颖的框架,用于分析潜在概念在预先训练好的语言模型中编码的表示。
- Boosted Dense Retriever
- Patrick Lewis, Barlas Oguz, Wenhan Xiong, Fabio Petroni, Scott Yih, Sebastian Riedel
- TLDR: 一个用于多表征的高效的密集检索器,在性能方面优于现有的检索器。
- MuCGEC: a Multi-Reference Multi-Source Evaluation Dataset for Chinese Grammatical Error Correction
- Yue Zhang, Zhenghua Li, Zuyi Bao, Jiacheng Li, Bo Zhang, Chen Li, Fei Huang, Min Zhang
- TLDR: 我们提出了MuCGEC,这是一个用于CSL的多源评估数据集,包含7,063句法的引用。
- NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias
- Nayeon Lee, Yejin Bang, Tiezheng Yu, Andrea Madotto, Pascale Fung
- TLDR: 我们提出了一个新任务,一个用于从多个新闻中生成一个neutral的总结的任务。
- Enhance Incomplete Utterance Restoration by Joint Learning Token Extraction and Text Generation
- Shumpei Inoue, Tsungwei Liu, Son Nguyen, Minh-Tien Nguyen
- TLDR: 我们提出了一个用于不完整的句法恢复的模型,该模型可以作为用于多语义学习的模型。
- Efficient Constituency Tree based Encoding for Natural Language to Bash Translation
- Shikhar Bharadwaj, Shirish Shevade
- TLDR: 我们提出了一种用于跨语言到跨语言的SIT,它使用了从自然语言文本中提取的提取信息。
- Privacy-Preserving Text Classification on BERT Embeddings with Homomorphic Encryption
- Garam Lee, Minsoo Kim, Jai Hyun Park, Seung-won Hwang, Jung Hee Cheon
- TLDR: 我们提出了一个用于文本分类的嵌入的共享机制,以防止任何信息在文本分类过程中泄露。
- ITA: Image-Text Alignments for Multi-Modal Named Entity Recognition
- Xinyu Wang, Min Gui, Yong Jiang, Zixia Jia, Nguyen Bach, Tao Wang, Zhongqiang Huang, Kewei Tu
- TLDR: 我们提出了一种用于多模态的GAN的GAN的视觉表示,它可以作为一种用于多模态GAN的视觉表示。
- A Dataset for N-ary Relation Extraction of Drug Combinations
- Aryeh Tiktinsky, Vijay Viswanathan, Danna Niezni, Dana Meron Azagury, Yosi Shamay, Hillel Taub-Tabib, Tom Hope, Yoav Goldberg
- TLDR: 我们提出了一个用于临床诊断和治疗多肽组合的专家注释数据集。
- Curriculum: A Broad-Coverage Benchmark for Linguistic Phenomena in Natural Language Understanding
- Zeming Chen, Qiyue Gao
- TLDR: 我们引入了课程作为一种新的NLP基准,用于评估语言模型在语言理解方面的表现。
- Neural Language Taskonomy: Which NLP Tasks are the most Predictive of fMRI Brain Activity?
- Subba Reddy Oota, Jashn Arora, Veeral Agarwal, Mounika Marreddy, Manish Gupta, Bapi Surampudi
- TLDR: 我们表明,通过使用文本的转换表示,可以预测阅读和听觉活动。
- FactGraph: Evaluating Factuality in Summarization with Semantic Graph Representations
- Leonardo Ribeiro, Mengwen Liu, Iryna Gurevych, Markus Dreyer, Mohit Bansal
- TLDR: 我们提出了一个基于基于模型的事实性评估的模型,它可以从字典中提取出字符词的联系,并使用模型来表示字符词的联系。
- Unsupervised Paraphrasability Prediction for Compound Nominalizations
- John Sie Yuen Lee, Ho Hung Lim, Carol Carol Webster
- TLDR: 我们通过使用句法引用来解释一个概括的词。
- Global Entity Disambiguation with BERT
- Ikuya Yamada, Koki Washio, Hiroyuki Shindo, Yuji Matsumoto
- TLDR: 我们提出了一个用于全域实体表征(ED)的BERT,该模型使用一个强大的实体-句法库,以捕捉全域的上下文信息。
- Clues Before Answers: Generation-Enhanced Multiple-Choice QA
- Zixian Huang, Ao Wu, Jiaying Zhou, Yu Gu, Yue Zhao, Gong Cheng
- TLDR: 我们提出了一种生成式编码器-解码器模型,它生成一个回答问题的clue,然后利用它来提高MCQA。
- Towards Efficient NLP: A Standard Evaluation and A Strong Baseline
- Xiangyang Liu, Tianxiang Sun, Junliang He, Jiawen Wu, Lingling Wu, Xinyu Zhang, Hao Jiang, Zhao Cao, Xuanjing Huang, Xipeng Qiu
- TLDR: 我们提出了ELUE,一个用于高效NLP模型的标准评估和一个用于NLP模型的公共排名。
- Stylized Knowledge-Grounded Dialogue Generation via Disentangled Template Rewriting
- Qingfeng Sun, Can Xu, Huang Hu, Yujing Wang, Jian Miao, Xiubo Geng, Yining Chen, Fei Xu, Daxin Jiang
- TLDR: 我们提出了一种新的DTR方法,通过将DTR方法整合到一个可解释的主题和内容框架中来生成知识的回应。
- LUNA: Learning Slot-Turn Alignment for Dialogue State Tracking
- Yifan Wang, Jing Zhao, Junwei Bao, Chaoqun Duan, Youzheng Wu, Xiaodong He
- TLDR: 我们提出了一种基于梯度-梯度的结合方法,用于多领域对话状态跟踪。
- Crossroads, Buildings and Neighborhoods: A Dataset for Fine-grained Location Recognition
- Pei Chen, Haotian Xu, Cheng Zhang, Ruihong Huang
- TLDR: 我们提出了一个用于特定领域名称识别的网络,它可以改善和提高网络的整体性能。
- Tricks for Training Sparse Translation Models
- Dheeru Dua, Shruti Bhosale, Vedanuj Goswami, James Cross, Mike Lewis, Angela Fan
- TLDR: 我们提出了一种基于温度热处理的多语言翻译的简单方法,它可以提高多语言翻译的性能。
- Persona-Guided Planning for Controlling the Protagonist’s Persona in Story Generation
- Zhexin Zhang, Jiaxin Wen, Jian Guan, Minlie Huang
- TLDR: 我们提出了一个基于规划的生成模型,它明确地建模了人与事件的关系,并提出了一个用于生成故事的主题。
- CHEF: A Pilot Chinese Dataset for Evidence-Based Fact-Checking
- Xuming Hu, Zhijiang Guo, GuanYu Wu, Aiwei Liu, Lijie Wen, Philip Yu
- TLDR: 我们提出了第一个基于证据的事实验证数据集,用于事实欺骗。
- VGNMN: Video-grounded Neural Module Networks for Video-Grounded Dialogue Systems
- Hung Le, Nancy Chen, Steven Hoi
- TLDR: 我们使用视频映射的神经模块网络来解决视频背景对话任务中的对话问题。
- Multimodal Dialogue State Tracking
- Hung Le, Nancy Chen, Steven Hoi
- TLDR: 我们提出了一个新颖的对话状态跟踪任务,用于跟踪视频中提及的物体信息。
- On the Use of Bert for Automated Essay Scoring: Joint Learning of Multi-Scale Essay Representation
- Yongjie Wang, Chuang Wang, Ruobing Li, Hui Lin
- TLDR: 我们提出了一个新颖的多尺度论文表征,可以联合学习,用于AES。
- Recognition of They/Them as Singular Personal Pronouns in Coreference Resolution
- Connor Baumler, Rachel Rudinger
- TLDR: 我们提出了一个新的衡量标准,用于衡量具有个人身份的特定 “他们 “识别。
- TWEETSPIN: Fine-grained Propaganda Detection in Social Media Using Multi-View Representations
- Prashanth Vijayaraghavan, Soroush Vosoughi
- TLDR: 我们提出了一种用于检测和分类网络谣言的神经方法,用于分析和分类网络谣言。
- UserIdentifier: Implicit User Representations for Simple and Effective Personalized Sentiment Analysis
- Fatemehsadat Mireshghallah, Vaishnavi Shrivastava, Milad Shokouhi, Taylor Berg-Kirkpatrick, Robert Sim, Dimitrios Dimitriadis
- TLDR: 我们提出了 UserID,这是一个用于用户身份识别的统一方法,用于训练一个单个共享模型,用于用户身份识别。
- Improving Neural Models for Radiology Report Retrieval with Lexicon-based Automated Annotation
- Luyao Shi, Tanveer Syeda-mahmood, Tyler Baldwin
- TLDR: 我们使用词典驱动的概念检测来检测句法中相关的发现。
- Transparent Human Evaluation for Image Captioning
- Jungo Kasai, Keisuke Sakaguchi, Lavinia Dunagan, Jacob Morrison, Ronan Le Bras, Yejin Choi, Noah Smith
- TLDR: 我们提出了ThumB,一个基于评价标准的人类评估框架。
- Lifting the Curse of Multilinguality by Pre-training Modular Transformers
- Jonas Pfeiffer, Naman Goyal, Xi Lin, Xian Li, James Cross, Sebastian Riedel, Mikel Artetxe
- TLDR: 我们使用X-Mods来训练跨语言模块,以提高跨语言的性能。
- DocAMR: Multi-Sentence AMR Representation and Evaluation
- Tahira Naseem, Austin Blodgett, Sadhana Kumaravel, Tim O’Gorman, Young-Suk Lee, Jeffrey Flanigan, Ramón Astudillo, Radu Florian, Salim Roukos, Nathan Schneider
- TLDR: 我们提出了一种简单的、通用的、可解释的、可衡量的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、
- Learning to Transfer Prompts for Text Generation
- Junyi Li, Tianyi Tang, Jian-Yun Nie, Ji-Rong Wen, Xin Zhao
- TLDR: 我们提出了一种基于受动的注意力方法,用于生成文本生成在转移环境中。
- ElitePLM: An Empirical Study on General Language Ability Evaluation of Pretrained Language Models
- Junyi Li, Tianyi Tang, Zheng Gong, Lixin Yang, Zhuohao Yu, Zhipeng Chen, Jingyuan Wang, Xin Zhao, Ji-Rong Wen
- TLDR: 我们提出了一个大规模的理论研究,用于一般语言能力评估的PLMs。
- Bidimensional Leaderboards: Generate and Evaluate Language Hand in Hand
- Jungo Kasai, Keisuke Sakaguchi, Ronan Le Bras, Lavinia Dunagan, Jacob Morrison, Alexander Fabbri, Yejin Choi, Noah Smith
- TLDR: 我们提出了一个通用的榜单,它同时跟踪了语言生成模型和指标的进展。
- Improving In-Context Few-Shot Learning via Self-Supervised Training
- Mingda Chen, Jingfei Du, Ramakanth Pasunuru, Todor Mihaylov, Srini Iyer, Veselin Stoyanov, Zornitsa Kozareva
- TLDR: 我们提出了使用自我监督的初始化训练阶段的一般少樣本学习目标,以提高下游的质量。
- Exposing the Limits of Video-Text Models through Contrast Sets
- Jae Sung Park, Sheng Shen, Ali Farhadi, Trevor Darrell, Yejin Choi, Anna Rohrbach
- TLDR: 我们提出了一个评估视频-文本模型的硬负面的框架,用于衡量视频-文本模型的穩定性。
- Zero-shot Sonnet Generation with Discourse-level Planning and Aesthetics Features
- Yufei Tian, Nanyun Peng
- TLDR: 我们提出了一个新颖的多语种生成句法框架,不需要任何训练数据。
- Benchmarking Intersectional Biases in NLP
- John Lalor, Yi Yang, Kendall Smith, Nicole Forsgren, Ahmed Abbasi
- TLDR: 我们表明,在NLP任务上,对不同NLP模型的公平性进行比较,可以得出一个比较准确的、公平的、多维的归纳结果。
- When is BERT Multilingual? Isolating Crucial Ingredients for Cross-lingual Transfer
- Ameet Deshpande, Partha Talukdar, Karthik Narasimhan
- TLDR: 我们通过对自然语言的多种语言特性进行大规模的理论研究来分析它们对零樣本转移的作用。
- How Conservative are Language Models? Adapting to the Introduction of Gender-Neutral Pronouns
- Stephanie Brandl, Ruixiang Cui, Anders Søgaard
- TLDR: 我们表明,在语言模型中,使用有偏见的性别性字符的词典,与人类的神经处理困难密切相关。
- Prompt Waywardness: The Curious Case of Discretized Interpretation of Continuous Prompts
- Daniel Khashabi, Xinxi Lyu, Sewon Min, Lianhui Qin, Kyle Richardson, Sean Welleck, Hannaneh Hajishirzi, Tushar Khot, Ashish Sabharwal, Sameer Singh, Yejin Choi
- TLDR: 我们表明,在本文中,我们研究了通过对连续的 prompts进行随机化解释来解决连续的 prompts的信心性问题。
- Contrastive Representation Learning for Cross-Document Coreference Resolution of Events and Entities
- Benjamin Hsu, Graham Horwood
- TLDR: 我们提出了一种用于文件和事件的实体和事件的关联解决方法,使用对比性表征学习。
- Learning the Ordering of Coordinate Compounds and Elaborate Expressions in Hmong, Lahu, and Chinese
- Chenxuan Cui, Katherine Zhang, David Mortensen
- TLDR: 我们表明,CCs和EE的顺序可以从语音语义中学习,无需使用任何语音语义信息。
- FRUIT: Faithfully Reflecting Updated Information in Text
- Robert Iv, Alexandre Passos, Sameer Singh, Ming-Wei Chang
- TLDR: 我们提出了一个用于修改文献的 “信义更新 “任务,该任务的目标是更新一个现有的文献,给新的证据提供支持。
- Multi2WOZ: A Robust Multilingual Dataset and Conversational Pretraining for Task-Oriented Dialog
- Chia-Chien Hung, Anne Lauscher, Ivan Vulić, Simone Ponzetto, Goran Glavaš
- TLDR: 我们引入了MultiWOZ,这是一个新颖的多语言多域多语种多语种TOD数据集,用于多语种多语种多语种对话。
- ChapterBreak: A Challenge Dataset for Long-Range Language Models
- Simeng Sun, Katherine Thai, Mohit Iyyer
- TLDR: 我们提出了 ChapterBreak,一个用于RLLMs的理论和实践数据集。
- ColBERTv2: Effective and Efficient Retrieval via Lightweight Late Interaction
- Keshav Santhanam, Omar Khattab, Jon Saad-Falcon, Christopher Potts, Matei Zaharia
- TLDR: 我们引入了ColBERTv2,一个用于追踪和改进离散追踪的神经信息检索器,同时提高质量和空间 footprint的离散追踪。
- Quantifying Language Variation Acoustically with Few Resources
- Martijn Bartelds, Martijn Wieling
- TLDR: 我们表明,通过通过使用随机时间映射来学习低资源语言的语音语义,语音模型可以比传统的语音模型更有效地学习语音语义。
- Adaptable Adapters
- Nafise Moosavi, Quentin Delfosse, Kristian Kersting, Iryna Gurevych
- TLDR: 我们提出了一种用于训练和推理的高效的自适应方法,用于设计高效的自适应方法。
- Models in the Loop: Aiding Crowdworkers with Generative Annotation Assistants
- Max Bartolo, Tristan Thrush, Sebastian Riedel, Pontus Stenetorp, Robin Jia, Douwe Kiela
- TLDR: 我们使用GANs来生成生成句法,以实现DNN,而不是额外的费用。
- GMN: Generative Multi-modal Network for Practical Document Information Extraction
- Haoyu Cao, Jiefeng Ma, Antai Guo, Yiqing Hu, Hao Liu, Deqiang Jiang, Yinsong Liu, Bo Ren
- TLDR: 本文提出了一种用于多模态生成的多模态网络,它可以解决复杂文件的OCR结果,无需标签分类。
- One Reference Is Not Enough: Diverse Distillation with Reference Selection for Non-Autoregressive Translation
- Chenze Shao, Xuanfu Wu, Yang Feng
- TLDR: 我们提出了一种用于多语义机器翻译的通用提炼方法,用于从一个目标中提炼出一个数据集。
- Can Rationalization Improve Robustness?
- Howard Chen, Jacqueline He, Karthik Narasimhan, Danqi Chen
- TLDR: 我们通过对神经NLP模型的理论进行理论建模来解决对抗性攻击问题。
- On the Effectiveness of Sentence Encoding for Intent Detection Meta-Learning
- Tingting Ma, Qianhui Wu, Zhiwei Yu, Tiejun Zhao, Chin-Yew Lin
- TLDR: 我们通过对句子嵌入的一般意义的理论研究,表明,使用一个简单的句子嵌入方案进行修改,可以产生一个不成问题的句子嵌入。
- A Computational Acquisition Model for Multimodal Word Categorization
- Uri Berger, Gabriel Stanovsky, Omri Abend, Lea Frermann
- TLDR: 我们提出了一个具有可解释性,多模态的语言学习模型,训练从图像-caption pairs的图像上训练的,用于跨模态学习。
- Residue-Based Natural Language Adversarial Attack Detection
- Vyas Raina, Mark Gales
- TLDR: 本文提出了一种基于句子嵌入的基于模型的NLP检测方法,它比以前的检测方法更好。
- Does it Really Generalize Well on Unseen Data? Systematic Evaluation of Relational Triple Extraction Methods
- Juhyuk Lee, Min-Joong Lee, June Yong Yang, Eunho Yang
- TLDR: 我们表明,现有的提取模型可以直接记忆和记忆以前的三倍,但它们无法概括现有的提取模型。
- From spoken dialogue to formal summary: An utterance rewriting for dialogue summarization
- Yue Fang, Hainan Zhang, Hongshen Chen, Zhuoye Ding, Bo Long, Yanyan Lan, Yanquan Zhou
- TLDR: 我们提出了一个新颖的对话总结模型,用于解决对话总结任务中的句法归纳问题。
- EASE: Entity-Aware Contrastive Learning of Sentence Embedding
- Sosuke Nishikawa, Ryokan Ri, Ikuya Yamada, Yoshimasa Tsuruoka, Isao Echizen
- TLDR: 我们提出了EASE,一种用于学习句子嵌入的结合方法,通过对比性学习与句子相关的实体进行句子嵌入的结合。
- Is Neural Topic Modelling Better than Clustering? An Empirical Study on Clustering with Contextual Embeddings for Topics
- Zihan Zhang, Meng Fang, Ling Chen, Mohammad Reza Namazi Rad
- TLDR: 我们通过直接将高质量的句法嵌入与一个合适的词选择方法结合起来,生成更丰富和多样的主题。
- Dynamic Multistep Reasoning based on Video Scene Graph for Video Question Answering
- Jianguo Mao, Wenbin Jiang, Xiangdong Wang, Zhifan Feng, Yajuan Lyu, Hong Liu, Yong Zhu
- TLDR: 我们提出了一个新颖的视频QA模型,它通过生成视频场景图,以动态的方式进行多步骤推理。
- TRUE: Re-evaluating Factual Consistency Evaluation
- Or Honovich, Roee Aharoni, Jonathan Herzig, Hagai Taitelbaum, Doron Kukliansy, Vered Cohen, Thomas Scialom, Idan Szpektor, Avinatan Hassidim, Yossi Matias
- TLDR: 我们提出了 TRUE:一个用于标准化现有的文本的全域评估和分析的实证性标准。
- Knowledge Inheritance for Pre-trained Language Models
- Yujia Qin, Yankai Lin, Jing Yi, Jiajie Zhang, Xu Han, Zhengyan Zhang, Yusheng Su, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou
- TLDR: 我们提出了一个用于训练大型PLM的预先训练框架,并表明,知识继承可以作为辅助监督的辅助监督。
- Bi-SimCut: A Simple Strategy for Boosting Neural Machine Translation
- Pengzhi Gao, Zhongjun He, Hua Wu, Haifeng Wang
- TLDR: 通过使用SimCut,从原始句法的输出分布中提取正则化,提高神经机器翻译(NMT)性能。
- On Transferability of Prompt Tuning for Natural Language Processing
- Yusheng Su, Xiaozhi Wang, Yujia Qin, Chi-Min Chan, Yankai Lin, Huadong Wang, Kaiyue Wen, Zhiyuan Liu, Peng Li, Juanzi Li, Lei Hou, Maosong Sun, Jie Zhou
- TLDR: 我们通过通过通过提供一个转移性 prompt来提高PT的性能。
- DocEE: A Large-Scale and Fine-grained Benchmark for Document-level Event Extraction
- MeiHan Tong, Bin Xu, Shuai Wang, Meihuan Han, Yixin Cao, Jiangqi Zhu, Siyu Chen, Lei Hou, Juanzi Li
- TLDR: 我们提出了DocEE,一个用于文件级事件提取的数据集,包含27,000+事件, 180,000+论证。
- Towards Debiasing Translation Artifacts
- Koel Dutta Chowdhury, Rricha Jalota, Cristina España-Bonet, Josef Genabith
- TLDR: 我们提出了一种新的方法来减少翻译ese,通过扩展一个已知的偏差方法。
- WECHSEL: Effective initialization of subword embeddings for cross-lingual transfer of monolingual language models
- Benjamin Minixhofer, Fabian Paischer, Navid Rekabsaz
- TLDR: 我们使用WECHSEL来高效和有效地转移预先训练好的语言模型到新的语言。
- A New Concept of Knowledge based Question Answering (KBQA) System for Multi-hop Reasoning
- Yu Wang, V.srinivasan@samsung.com V.srinivasan@samsung.com, Hongxia Jin
- TLDR: 我们引入了一个KBQA系统,它可以利用多种推理路由信息和只依赖标签回答作为监督。
- Bilingual Tabular Inference: A Case Study on Indic Languages
- Chaitanya Agarwal, Vivek Gupta, Anoop Kunchukuttan, Manish Shrivastava
- TLDR: 我们通过利用一组多语言模型的实证假设,从英语TNLI数据集InfoTabS中提取了一组关于bTNLI的实证假设。
- Generative Biomedical Entity Linking via Knowledge Base-Guided Pre-training and Synonyms-Aware Fine-tuning
- Hongyi Yuan, Zheng Yuan, Sheng Yu
- TLDR: 我们使用生成方法来建模生物医学EL,并提出了一种用于EL的通用方法,用于使用词典来训练词典。
- Robust Self-Augmentation for Named Entity Recognition with Meta Reweighting
- Linzhi Wu, Pengjun Xie, Jie Zhou, Meishan Zhang, Ma Chunping, Guangwei Xu, Min Zhang
- TLDR: 我们重新审视了自我增强方法,并提出了一个统一的元重放策略来实现自然的自我增强。
- Unsupervised Stem-based Cross-lingual Part-of-Speech Tagging for Morphologically Rich Low-Resource Languages
- Ramy Eskander, Cass Lowry, Sujay Khandagale, Judith Klavans, Maria Polinsky, Smaranda Muresan
- TLDR: 我们提出了一种基于双眼的跨语言建模方法,用于POS标签的全语言建模。
- Optimising Equal Opportunity Fairness in Model Training
- Aili Shen, Xudong Han, Trevor Cohn, Timothy Baldwin, Lea Frermann
- TLDR: 我们提出了两个新颖的训练目标,直接优化了用于公平性标准的最广泛使用标准。
- Leaner and Faster: Two-Stage Model Compression for Lightweight Text-Image Retrieval
- Siyu Ren, Kenny Zhu
- TLDR: 我们提出了一个有效的二元编码器架构,用于轻量级的文本-图像检索。
- Joint Learning-based Heterogeneous Graph Attention Network for Timeline Summarization
- Jingyi You, Dongyuan Li, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura
- TLDR: 我们提出了一个时间线概括任务的全域最佳概括。
- Early Rumor Detection Using Neural Hawkes Process with a New Benchmark Dataset
- Fengzhu Zeng, Wei Gao
- TLDR: 我们提出了一个用于EARD的Benchmark数据集,用于衡量EARD的一般表现。
- Emp-RFT: Empathetic Response Generation via Recognizing Feature Transitions between Utterances
- Wongyu Kim, Youbin Ahn, Donghyun Kim, Kyong-Ho Lee
- TLDR: 我们提出了一种新的方法,通过对句法和句法之间的特征转换进行分类,可以更好地理解句法,并利用它来生成回应。
- KCD: Knowledge Walks and Textual Cues Enhanced Political Perspective Detection in News Media
- Wenqian Zhang, Shangbin Feng, Zilong Chen, Zhenyu Lei, Jundong Li, Minnan Luo
- TLDR: 我们提出了一种基于知识路途的视觉理解方法,用于学习知识图上的视觉表示。
- Collective Relevance Labeling for Passage Retrieval
- Jihyuk Kim, Minsoo Kim, Seung-won Hwang
- TLDR: 我们提出了一个简单的、高效的教师模型,用于信息检索,它使用了知识提炼,以超越最先进的提炼。
- COGMEN: COntextualized GNN based Multimodal Emotion recognitioN
- Abhinav Joshi, Ashwani Bhat, Ayush Jain, Atin Singh, Ashutosh Modi
- TLDR: 我们提出了一个基于图形神经网络的多语义情感识别系统,它可以利用图形神经网络来建交语言中复杂的依赖性。
- Revisit Overconfidence for OOD Detection: Reassigned Contrastive Learning with Adaptive Class-dependent Threshold
- Yanan Wu, Keqing He, Yuanmeng Yan, QiXiang Gao, Zhiyuan Zeng, Fujia Zheng, Lulu Zhao, Huixing Jiang, Wei Wu, Weiran Xu
- TLDR: 我们提出了一种用于非监督学习的RL方法,用于检测OOD的意图。
- AISFG: Abundant Information Slot Filling Generator
- Yang Yan, Junda Ye, Zhongbao Zhang, Liwen Wang
- TLDR: 我们提出了一个用于零/多樣本跨域内任意任意的任意的任意的任意的Slot Fill的生成模型。
- Improving negation detection with negation-focused pre-training
- Thinh Truong, Timothy Baldwin, Trevor Cohn, Karin Verspoor
- TLDR: 我们提出了一个新颖的、基于强化的、基于模型的、基于信息的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非监督的、非
- Practice Makes a Solver Perfect: Data Augmentation for Math Word Problem Solvers
- Vivek Kumar, Rishabh Maheshwary, Vikram Pudi
- TLDR: 我们首次展示了MWP的泛化和穩定性,并提出了几个用于数据增强的新型方法。
- DiffCSE: Difference-based Contrastive Learning for Sentence Embeddings
- Yung-Sung Chuang, Rumen Dangovski, Hongyin Luo, Yang Zhang, Shiyu Chang, Marin Soljacic, Shang-Wen Li, Scott Yih, Yoon Kim, James Glass
- TLDR: 我们提出了DiffCSE,这是一个非监督的、对句子嵌入敏感的、可逆的、非监督的句法表征学习方法。
- Generative Cross-Domain Data Augmentation for Aspect and Opinion Co-Extraction
- Junjie Li, Jianfei Yu, Rui Xia
- TLDR: 我们提出了一种用于非监督领域适应的新型多领域数据增强框架。
- ProQA: Structural Prompt-based Pre-training for Unified Question Answering
- Wanjun Zhong, Yifan Gao, Ning Ding, Yujia Qin, Zhiyuan Liu, Ming Zhou, Jiahai Wang, Jian Yin, Nan Duan
- TLDR: 我们提出了ProQA,一个统一的QA方法,通过一个单个模型解决各种QA任务。
- A Data Cartography based MixUp for Pre-trained Language Models
- Seo Yeon Park, Cornelia Caragea
- TLDR: 我们提出了一种新的数据增量方法,利用训练动力学和使用随机表征来生成新的数据样本。
- Grapheme-to-Phoneme Conversion for Thai using Neural Regression Models
- Tomohiro Yamasaki
- TLDR: 我们提出了一种基于神经回归模型的图到语音转换方法,该模型通过对输入词和句法的相似性进行预测,以确定输入词和句法的正确 pronunciation。
- Generating Authentic Adversarial Examples beyond Meaning-preserving with Doubly Round-trip Translation
- Siyu Lai, Zhen Yang, Fandong Meng, Xue Zhang, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: 我们提出了一种新的NMT对抗性例子的定义,基于Double Round-Trip Translation(DRTT),该定义适用于用于NMT的多通道翻译。
- TVShowGuess: Character Comprehension in Stories as Speaker Guessing
- Yisi Sang, Xiangyang Mou, Mo Yu, Shunyu Yao, Jing Li, Jeffrey Stanton
- TLDR: 我们提出了一个新任务,用于评估机器的理解故事中真实角色的技能。
- Causal Distillation for Language Models
- Zhengxuan Wu, Atticus Geiger, Joshua Rozner, Elisa Kreiss, Hanson Lu, Thomas Icard, Christopher Potts, Noah Goodman
- TLDR: 我们表明,通过结合一个目标和另一个目标来训练学生模型,可以提高语言建模的质量。
- FNet: Mixing Tokens with Fourier Transforms
- James Lee-Thorp, Joshua Ainslie, Ilya Eckstein, Santiago Ontanon
- TLDR: 我们表明,Transformer编码器可以从简单的线性变换中发展出来,以获得准确的编码器。
- Answer Consolidation: Formulation and Benchmarking
- Wenxuan Zhou, Qiang Ning, Heba Elfardy, Kevin Small, Muhao Chen
- TLDR: 我们提出了回答集的集归并问题,并提出了解决这个问题的理论和经验。
- Informativeness and Invariance: Two Perspectives on Spurious Correlations in Natural Language
- Jacob Eisenstein
- TLDR: 本文提出了一个关于虚假的相互作用的理论,并提出了解决方法。
- FOAM: A Follower-aware Speaker Model For Vision-and-Language Navigation
- Zi-Yi Dou, Nanyun Peng
- TLDR: 我们提出了FOAM,一个具有追随者感知的听觉者理解的听觉者模型,它在随机训练数据上显示出更好的结果。
- Improving Compositional Generalization with Latent Structure and Data Augmentation
- Linlu Qiu, Peter Shaw, Panupong Pasupat, Pawel Nowak, Tal Linzen, Fei Sha, Kristina Toutanova
- TLDR: 我们使用一个生成模型来训练一个用于概括性泛化的模型,它可以从预先训练好的模型中提取样本,并将其应用于一个预先训练好的序列到序列模型(T5)。
- Joint Extraction of Entities, Relations, and Events via Modeling Inter-Instance and Inter-Label Dependencies
- Minh Van Nguyen, Bonan Min, Franck Dernoncourt, Thien Nguyen
- TLDR: 我们提出了一个用于信息提取的联合IE模型,该模型在多个数据集上和2语言上的表现优于以前的模型。
- Linguistic Frameworks Go Toe-to-Toe at Neuro-Symbolic Language Modeling
- Jakob Prange, Nathan Schneider, Lingpeng Kong
- TLDR: 我们通过使用一个条件来表示句法,可以提高语法建模的性能。
- Imagination-Augmented Natural Language Understanding
- Yujie Lu, Wanrong Zhu, Xin Wang, Miguel Eckstein, William Yang Wang
- TLDR: 我们提出了一种用于低资源自然语言理解任务的新型学习方法,用于从一个学习的角度来解决自然语言理解任务。
- What company do words keep? Revisiting the distributional semantics of J.R. Firth & Zellig Harris
- Mikael Brunila, Jack LaViolette
- TLDR: 我们从理论上分析了语言表征的可解释性,并提出了一个能够从理论中学习语言表征的理论。
- Compositional Task-Oriented Parsing as Abstractive Question Answering
- Wenting Zhao, Konstantine Arkoudas, Weiqi Sun, Claire Cardie
- TLDR: 我们通过使用GANs来提高GANs的质量,以实现GANs的少樣本化。
- Learning Cross-Lingual IR from an English Retriever
- Yulong Li, Martin Franz, Md Arafat Sultan, Bhavani Iyer, Young-Suk Lee, Avirup Sil
- TLDR: 我们提出了D.DECR,一个新的跨语言信息检索(CLIR)系统,通过多语言嵌入提高了跨语言的表示。
- Testing the Ability of Language Models to Interpret Figurative Language
- Emmy Liu, Chenxuan Cui, Kenneth Zheng, Graham Neubig
- TLDR: 我们提出了一个Winograd-风格的非句法语言理解任务,它包含对对组合的上下文句法进行正确的解释。
- Multi-Vector Models with Textual Guidance for Fine-Grained Scientific Document Similarity
- Sheshera Mysore, Arman Cohan, Tom Hope
- TLDR: 我们提出了一个新颖的科学文献相似性模型,用于学习对上下文的相似性进行文本监督。
- CHAI: A CHatbot AI for Task-Oriented Dialogue with Offline Reinforcement Learning
- Siddharth Verma, Justin Fu, Sherry Yang, Sergey Levine
- TLDR: 我们研究了使用static数据集训练对话代理的在线RL方法如何被用来解决目标导向的对话问题。
- Connecting the Dots between Audio and Text without Parallel Data through Visual Knowledge Transfer
- Yanpeng Zhao, Jack Hessel, Youngjae Yu, Ximing Lu, Rowan Zellers, Yejin Choi
- TLDR: 我们提出了VIP-ANT,一种用于音频和文本的语音连接的新型方法,无需使用任何同质音频数据。
- SURF: Semantic-level Unsupervised Reward Function for Machine Translation
- Atijit Anuchitanukul, Julia Ive
- TLDR: 我们提出了一种用于多代理学习的非监督奖励函数,它与人类的评价一样有理论和语义相似性。
- Disentangling Categorization in Multi-agent Emergent Communication
- Washington Garcia, Hamilton Clouse, Kevin Butler
- TLDR: 我们提出了使用抽象表征来量化代理的分类能力,并表明,在没有统一的词汇表征的情况下,代理的差异可以减少信号的准确性。
- Show, Don’t Tell: Demonstrations Outperform Descriptions for Schema-Guided Task-Oriented Dialogue
- Raghav Gupta, Harrison Lee, Jeffrey Zhao, Yuan Cao, Abhinav Rastogi, Yonghui Wu
- TLDR: 我们提出了一个用于对话系统通用语义的例子对话系统,该系统使用简单的例子来表示模型的特征。
- Does Pre-training Induce Systematic Inference? How Masked Language Models Acquire Commonsense Knowledge
- Ian Porada, Alessandro Sordoni, Jackie Cheung
- TLDR: 我们表明,在BERT中,从表面上学习的一般知识,而不是通过推理来获得的。
- Using Paraphrases to Study Properties of Contextual Embeddings
- Laura Burdick, Jonathan Kummerfeld, Rada Mihalcea
- TLDR: 我们使用paraphrases作为一个独特的数据来分析上下文嵌入,并表明BERT对上下文嵌入的上下文结构很敏感。
- Measure and Improve Robustness in NLP Models: A Survey
- Xuezhi Wang, Haohan Wang, Diyi Yang
- TLDR: 我们通过提供一个统一的概括,定义,衡量和改进NLP模型的穩定性,并展示了如何有效提高穩定性。
- Learning to Generate Examples for Semantic Processing Tasks
- Danilo Croce, Simone Filice, Giuseppe Castellucci, Roberto Basili
- TLDR: 我们提出了一种基于Transformer的架构,用于生成新的例子,使用一个预先训练好的例子来生成例子。
- Symbolic Knowledge Distillation: from General Language Models to Commonsense Models
- Peter West, Chandra Bhagavatula, Jack Hessel, Jena Hwang, Liwei Jiang, Ronan Le Bras, Ximing Lu, Sean Welleck, Yejin Choi
- TLDR: 我们通过使用一个通用的语言模型来从一般语言模型中提炼出高质量的因果偏见。
- GenIE: Generative Information Extraction
- Martin Josifoski, Nicola De Cao, Maxime Peyrard, Fabio Petroni, Robert West
- TLDR: 我们提出了GenIE,一个用于信息提取的自上而下的自上而下的理论,用于从知识库中提取知识。
- Entity Linking via Explicit Mention-Mention Coreference Modeling
- Dhruv Agarwal, Rico Angell, Nicholas Monath, Andrew McCallum
- TLDR: 我们提出了一种新的方法,用于学习出名的表征和实体表征,并表明它可以用于发现新的表征。
- Massive-scale Decoding for Text Generation using Lattices
- Jiacheng Xu, Siddhartha Jonnalagadda, Greg Durrett
- TLDR: 我们提出了一种搜索算法,用于编码出一个巨大数量的生成选择。
- Disentangling Indirect Answers to Yes-No Questions in Real Conversations
- Krishna Sanagavarapu, Jathin Singaraju, Anusha Kakileti, Anirudh Kaza, Aaron Mathews, Helen Li, Nathan Brito, Eduardo Blanco
- TLDR: 我们通过使用语音对话的录音来回答对不相关的问题,而不是直接回答。
- Quantifying Adaptability in Pre-trained Language Models with 500 Tasks
- Belinda Li, Jane Yu, Madian Khabsa, Luke Zettlemoyer, Alon Halevy, Jacob Andreas
- TLDR: 我们使用 TaskBench500来评估神经语言模型的适应性,并提出了一个用于评估适应性问题的框架。
- Counterfactually Augmented Data and Unintended Bias: The Case of Sexism and Hate Speech Detection
- Indira Sen, Mattia Samory, Claudia Wagner, Isabelle Augenstein
- TLDR: 我们使用一个用于色情和不偏见的模型来衡量模型的穩定性。
- A Study of the Attention Abnormality in Trojaned BERTs
- Weimin Lyu, Songzhu Zheng, Tengfei Ma, Chao Chen
- TLDR: 我们研究了Trojan的元机制,并提出了一个基于注意力的Trojan检测器。
- EPiDA: An Easy Plug-in Data Augmentation Framework for High Performance Text Classification
- Minyi Zhao, Lu Zhang, Yi Xu, Jiandong Ding, Jihong Guan, Shuigeng Zhou
- TLDR: 我们提出了一个简单、插值数据增强框架EPiDA来支持有效的文本分类。
- Partial-input baselines show that NLI models can ignore context, but they don’t.
- Neha Srikanth, Rachel Rudinger
- TLDR: 我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们表明,在本文中,我们
- Lifelong Pretraining: Continually Adapting Language Models to Emerging Corpora
- Xisen Jin, Dejiao Zhang, Henghui Zhu, Wei Xiao, Shang-Wen Li, Xiaokai Wei, Andrew Arnold, Xiang Ren
- TLDR: 我们研究了终身语言模型的持续学习问题,并提出了一种持续学习的语言模型的理论和方法。
- Learning as Conversation: Dialogue Systems Reinforced for Information Acquisition
- Pengshan Cai, Hui Wan, Fei Liu, Mo Yu, Hong Yu, Sachindra Joshi
- TLDR: 本文提出了一种用于学习对话的AI-辅助的对话系统,它可以作为对话,而不是对话,可以作为对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以进行对话,可以
- Dynamic Programming in Rank Space: Scaling Structured Inference with Low-Rank HMMs and PCFGs
- Songlin Yang, Wei Liu, Kewei Tu
- TLDR: 我们使用张量排名分解(张量级分解)来减少模型的推理计算复杂性。
- What Factors Should Paper-Reviewer Assignments Rely On? Community Perspectives on Issues and Ideals in Conference Peer-Review
- Terne Thorn Jakobsen, Anna Rogers
- TLDR: 我们首次对NLP社区进行了调查,发现在论文评分系统中,论文评分者与论文作者的匹配系统是不同的。
- Reducing Disambiguation Biases in NMT by Leveraging Explicit Word Sense Information
- Niccolò Campolungo, Tommaso Pasini, Denis Emelin, Roberto Navigli
- TLDR: 我们提出了一种基于对上下文的感知的随机表征的自动编码器,用于生成高质量的感知表征。
- Mining Clues from Incomplete Utterance: A Query-enhanced Network for Incomplete Utterance Rewriting
- Shuzheng Si, Shuang Zeng, Baobao Chang
- TLDR: 我们提出了一个用于完全语义解析的QUEEN,用于解决语义结构的障碍。
- Domain-Oriented Prefix-Tuning: Towards Efficient and Generalizable Fine-tuning for Zero-Shot Dialogue Summarization
- Lulu Zhao, Fujia Zheng, Weihao Zeng, Keqing He, Weiran Xu, Huixing Jiang, Wei Wu, Yanan Wu
- TLDR: 我们提出了一种高效的、通用的、领域导向的Prefix-tuning模型,它使用一个 domain初始化模块来解决领域内概括问题。
- Interactive Symbol Grounding with Complex Referential Expressions
- Rimvydas Rubavicius, Alex Lascarides
- TLDR: 我们使用一个从一个刺激中产生的上下文中估计的例子来学习到地面标注。
- Generalized Quantifiers as a Source of Error in Multilingual NLU Benchmarks
- Ruixiang Cui, Daniel Hershcovich, Anders Søgaard
- TLDR: 我们提出了一个对抗性泛化量化RL任务(GQNLI),并表明,在泛化量化方面,已经训练好的语言模型表现不佳。
- Exact Paired-Permutation Testing for Structured Test Statistics
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: 我们提出了一种用于组合测试数据的最准确最通用的算法。
- A Balanced Data Approach for Evaluating Cross-Lingual Transfer: Mapping the Linguistic Blood Bank
- Dan Malkin, Tomasz Limisiewicz, Gabriel Stanovsky
- TLDR: 我们表明,选择语言的数量会影响到跨语言转移的BERT-based模型。
- SSEGCN: Syntactic and Semantic Enhanced Graph Convolutional Network for Aspect-based Sentiment Analysis
- Zheng Zhang, Zili Zhou, Yanna Wang
- TLDR: 我们提出了一个用于ABSA的语义和语义强化图卷积网络(SSEGCN)模型,该模型可以学习语义和语义之间的语义联系,同时学习句法的全局语义。
- Mitigating Toxic Degeneration with Empathetic Data: Exploring the Relationship Between Toxicity and Empathy
- Allison Lahnala, Charles Welch, Béla Neuendorf, Lucie Flek
- TLDR: 我们通过使用情感数据来改进神经语言建模,以减少生成的文本的toxic性。
- DUCK: Rumour Detection on Social Media by Modelling User and Comment Propagation Networks
- Lin Tian, Xiuzhen Zhang, Jey Han Lau
- TLDR: 本文提出了一种用于传播虚假信息的方法,该方法可以骗过大多数媒体,并导致社会和经济损失。
- Jam or Cream First? Modeling Ambiguity in Neural Machine Translation with SCONES
- Felix Stahlberg, Shankar Kumar
- TLDR: 我们提出了一种用于非监督时间序列的多标签分类器,可以更好地处理和理解模糊性。
- SkillSpan: Hard and Soft Skill Extraction from English Job Postings
- Mike Zhang, Kristian Jensen, Sif Sonniks, Barbara Plank
- TLDR: 我们提出了SKILLSPAN,一个用于SE的新的SE数据集,它包含14个句法和12个注释的节点。
- RAAT: Relation-Augmented Attention Transformer for Relation Modeling in Document-Level Event Extraction
- Yuan Liang, Zhuoxuan Jiang, Di Yin, Bo Ren
- TLDR: 我们提出了一个用于文件级事件提取的多任务学习框架,可以直接提高文件级事件提取性能。
- A Double-Graph Based Framework for Frame Semantic Parsing
- Ce Zheng, Xudong Chen, Runxin Xu, Baobao Chang
- TLDR: 我们提出了一个知识引导的最重要语义解析器,它可以从图中学习图的语义结构。
- An Enhanced Span-based Decomposition Method for Few-Shot Sequence Labeling
- Peiyi Wang, Runxin Xu, Tianyu Liu, Qingyu Zhou, Yunbo Cao, Baobao Chang, Zhifang Sui
- TLDR: 我们提出了ESD,一种基于增强的span-based分解方法的FSSL。
- A Two-Stream AMR-enhanced Model for Document-level Event Argument Extraction
- Runxin Xu, Peiyi Wang, Tianyu Liu, Shuang Zeng, Baobao Chang, Zhifang Sui
- TLDR: 我们提出了一种用于文件中事件提取的新型方法。
- Robust (Controlled) Table-to-Text Generation with Structure-Aware Equivariance Learning
- Fei Wang, Zhewei Xu, Pedro Szekely, Muhao Chen
- TLDR: 我们提出了一个基于结构感的自我关注框架,它通过将单个表嵌入到一个顺序不变的图上,以实现结构化。
- JointLK: Joint Reasoning with Language Models and Knowledge Graphs for Commonsense Question Answering
- Yueqing Sun, Qi Shi, Le Qi, Yu Zhang
- TLDR: 我们提出了一个新颖的框架,通过结合LM和GNN的联合推理来解决知识图的KGs的泛化问题。
- Models In a Spelling Bee: Language Models Implicitly Learn the Character Composition of Tokens
- Itay Itzhak, Omer Levy
- TLDR: 我们表明,在没有直接访问字符符串的上下文表征的情况下,语言模型在字符序列中学习字符结构,而不是直接从字符串中学习字符。
- A Corpus for Understanding and Generating Moral Stories
- Jian Guan, Ziqi Liu, Minlie Huang
- TLDR: 我们提出了一个用于道德故事的在线数据集,用于评估道德故事的机器能力。
- Modeling Multi-Granularity Hierarchical Features for Relation Extraction
- Xinnian Liang, Shuangzhi Wu, Mu Li, Zhoujun Li
- TLDR: 我们提出了一种基于句法的多樣本特征的生成方法,它可以从句法中得到更好的结构特征。
- Cross-modal Contrastive Learning for Speech Translation
- Rong Ye, Mingxuan Wang, Lei Li
- TLDR: 我们提出了ConST,一个跨模式的对比学习方法,用于从端到端语音到端的语音到文本的翻译。
- Meet Your Favorite Character: Open-domain Chatbot Mimicking Fictional Characters with only a Few Utterances
- Seungju Han, Beomsu Kim, Jin Yong Yoo, Seokjun Seo, Sangbum Kim, Enkhbayar Erdenee, Buru Chang
- TLDR: 我们提出了一种用于生成回答的新型方法,它通过利用语言模型的回答,通过使用一个用于回答的句法库来生成回答。
- DynamicTOC: Persona-based Table of Contents for Consumption of Long Documents
- Himanshu Maheshwari, Nethraa Sivakumar, Shelly Jain, Tanvi Karandikar, Vinay Aggarwal, Navita Goyal, Sumit Shekhar
- TLDR: 我们描述了DynamicToC,一个基于内容的导航器,用于非线性,身份导向的文件阅读。
- KALA: Knowledge-Augmented Language Model Adaptation
- Minki Kang, Jinheon Baek, Sung Ju Hwang
- TLDR: 我们提出了一种用于PLM适应的知识增强的语言模型 Adaptation框架。
- On the Effect of Pretraining Corpora on In-context Learning by a Large-scale Language Model
- Seongjin Shin, Sang-Woo Lee, Hwijeen Ahn, Sungdong Kim, HyoungSeok Kim, Boseop Kim, Kyunghyun Cho, Gichang Lee, Woomyoung Park, Jung-Woo Ha, Nako Sung
- TLDR: 我们通过对在现实学习中的表现进行深入调查,发现在本文中,我们引入了以下几个观察: (1)在现实学习中,语言模型的来源和大小并不决定在现实学习的出现,而语言模型的数量并不决定在现实学习的出现。
- Sketching as a Tool for Understanding and Accelerating Self-attention for Long Sequences
- Yifan Chen, Qi Zeng, Dilek Hakkani-Tur, Di Jin, Heng Ji, Yun Yang
- TLDR: 我们提出了一个理论框架,用于学习基于模型的动态学习。
- Partner Personas Generation for Dialogue Response Generation
- Hongyuan Lu, Wai Lam, Hong Cheng, Helen Meng
- TLDR: 本文提出了一种新的方法,利用自动的パートナー人脸生成来提高对话回应生成。
- Semantically Informed Slang Interpretation
- Zhewei Sun, Richard Zemel, Yang Xu
- TLDR: 我们提出了一个语义感知的词典解释框架,该框架考虑了句法和语义对词典词的准确性。
- Dual-Channel Evidence Fusion for Fact Verification over Texts and Tables
- Nan Hu, Zirui Wu, Yuxuan Lai, Xiao Liu, Yansong Feng
- TLDR: 我们提出了一个双语事实验证模型(DCUF),它将各种证据合并成一个双语的全域证据库,同时进行事实采样和验证。
- TreeMix: Compositional Constituency-based Data Augmentation for Natural Language Understanding
- Le Zhang, Zichao Yang, Diyi Yang
- TLDR: 我们提出了一种用于NLP数据的构成性数据增强方法,用于自然语言理解的组成性数据增量。
- Syn2Vec: Synset Colexification Graphs for Lexical Semantic Similarity
- John Harvill, Roxana Girju, Mark Hasegawa-Johnson
- TLDR: 我们通过使用單位图的穩定性来解决语义相似性任务。
- On the Origin of Hallucinations in Conversational Models: Is it the Datasets or the Models?
- Nouha Dziri, Sivan Milton, Mo Yu, Osmar Zaiane, Siva Reddy
- TLDR: 我们研究了为什么知识的边际化对话模型会出现幻觉,并表明,这与训练数据有关。
- Is “My Favorite New Movie” My Favorite Movie? Probing the Understanding of Recursive Noun Phrases
- Qing Lyu, Zheng Hua, Daoxin Li, Li Zhang, Marianna Apidianaki, Chris Callison-Burch
- TLDR: 我们提出了Recursive Noun Phrase Challenge,一个用于解释循環句法的文本推理任务。
- Original or Translated? A Causal Analysis of the Impact of Translationese on Machine Translation Performance
- Jingwei Ni, Zhijing Jin, Markus Freitag, Mrinmaya Sachan, Bernhard Schölkopf
- TLDR: 我们表明,在翻译中,用机器翻译方向向训练的数据标签与人类翻译方向相反,导致了翻译的质量和性能的显著不同。
- Visual Commonsense in Pretrained Unimodal and Multimodal Models
- Chenyu Zhang, Benjamin Van Durme, Zhuowan Li, Elias Stengel-Eskin
- TLDR: 我们通过使用一个用于视觉通用性的ViComTe数据集来衡量有偏见的多模态模型和无偏见的模型。
- QuALITY: Question Answering with Long Input Texts, Yes!
- Richard Yuanzhe Pang, Alicia Parrish, Nitish Joshi, Nikita Nangia, Jason Phang, Angelica Chen, Vishakh Padmakumar, Johnny Ma, Jana Thompson, He He, Samuel Bowman
- TLDR: 我们提出了QuALITY,一个用于多选择QA的多语种QA数据集,它可以解决短语理解问题。
- ExSum: From Local Explanations to Model Understanding
- Yilun Zhou, Marco Tulio Ribeiro, Julie Shah
- TLDR: 我们提出了解释总结(ExSum),一个用于量化模型理解的模型模型的模型质量评估框架。
- Maximum Bayes Smatch Ensemble Distillation for AMR Parsing
- Young-Suk Lee, Ramón Astudillo, Hoang Thanh Lam, Tahira Naseem, Radu Florian, Salim Roukos
- TLDR: 我们提出了一种用于AMR的新型的多语言AMR解析技术,它可以产生与人类注释的数据相比更好的结果。
- When Does Syntax Mediate Neural Language Model Performance? Evidence from Dropout Probes
- Mycal Tucker, Tiwalayo Eisape, Peng Qian, Roger Levy, Julie Shah
- TLDR: 我们表明,语言模型和语法机使用相同的表征,但语法机可以使用替换的表征。
- Modeling Task Interactions in Document-Level Joint Entity and Relation Extraction
- Liyan Xu, Jinho Choi
- TLDR: 我们提出了一个用于文件级关系提取的图灵可信度(GC),该GC旨在通过使用任务特征,通过使用图灵可信度来解决任务间的直接任务干扰。
- Few-Shot Semantic Parsing with Language Models Trained on Code
- Richard Shin, Benjamin Van Durme
- TLDR: 我们表明,Codex在语义解析任务上表现良好。
- CORWA: A Citation-Oriented Related Work Annotation Dataset
- Xiangci Li, Biswadip Mandal, Jessica Ouyang
- TLDR: 我们提出了一个用于相关工作生成的框架,用于用句法生成相关论文。
- Overcoming Catastrophic Forgetting During Domain Adaptation of Seq2seq Language Generation
- Dingcheng Li, Zheng Chen, Eunah Cho, Jie Hao, Xiaohu Liu, Fan Xing, Chenlei Guo, Yang Liu
- TLDR: 我们提出了一个用于Q2seq语言生成的新型框架,它使用一个记忆优化机制来选择重要的参数,通过正则化来解决以前的任务的 මතක。
- Extreme Zero-Shot Learning for Extreme Text Classification
- Yuanhao Xiong, Wei-Cheng Chang, Cho-Jui Hsieh, Hsiang-Fu Yu, Inderjit Dhillon
- TLDR: 我们提出了一种用于XMC的基于变换的编码器,它不需要监督,而直接从例子中学习。
- ConfliBERT: A Pre-trained Language Model for Political Conflict and Violence
- Yibo Hu, MohammadSaleh Hosseini, Erick Skorupa Parolin, Javier Osorio, Latifur Khan, Patrick Brandt, Vito D’Orazio
- TLDR: 我们介绍了ConfliBERT,这是一个用于解决冲突和政治暴力的语言模型。
- Automatic Multi-Label Prompting: Simple and Interpretable Few-Shot Classification
- Han Wang, Canwen Xu, Julian McAuley
- TLDR: 我们提出了一种基于单个标签标签的自动多标签选择的替代方法,用于少樣本文本分类。
- Few-shot Subgoal Planning with Language Models
- Lajanugen Logeswaran, Yao Fu, Moontae Lee, Honglak Lee
- TLDR: 我们提出了一种基于环境的语言模型预测的简单方法,用于预测现实环境中行动的语言模型预测。
- IDPG: An Instance-Dependent Prompt Generation Method
- Zhuofeng Wu, Sinong Wang, Jiatao Gu, Rui Hou, Yuxiao Dong, V.G.Vinod Vydiswaran, Hao Ma
- TLDR: 我们提出了一种用于NLU任务的条件-依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性依赖性
- Embedding Hallucination for Few-shot Language Fine-tuning
- Yiren Jian, Chongyang Gao, Soroush Vosoughi
- TLDR: 我们提出了一种用于语言学习的嵌入幻觉方法,该方法通过通过使用辅助嵌入-标签组合来扩大语言学习数据集。
- Cryptocurrency Bubble Detection: A New Stock Market Dataset, Financial Task & Hyperbolic Models
- Ramit Sawhney, Shivam Agarwal, Vivek Mittal, Paolo Rosso, Vikram Nanda, Sudheer Chava
- TLDR: 我们提出了和发布了 CryptoBubbles,这是一个新颖的多通道识别任务,用于发现和分析高波动性资产的白盒。
- Nearest Neighbor Knowledge Distillation for Neural Machine Translation
- Zhixian Yang, Renliang Sun, Xiaojun Wan
- TLDR: 一个最近的邻居的机器翻译
- DEMix Layers: Disentangling Domains for Modular Language Modeling
- Suchin Gururangan, Mike Lewis, Ari Holtzman, Noah Smith, Luke Zettlemoyer
- TLDR: 我们提出了一个用于语言模型(LM)的领域专家混合层,可以实现条件一个语言模型(LM)在输入文本上的领域。
- Contrastive Learning for Prompt-based Few-shot Language Learners
- Yiren Jian, Chongyang Gao, Soroush Vosoughi
- TLDR: 我们提出了一种用于少樣本学习的非监督的对比性学习框架,它可以提高GPT-3的性能。
- Cross-Lingual Event Detection via Optimized Adversarial Training
- Luis Guzman-Nateras, Minh Van Nguyen, Thien Nguyen
- TLDR: 我们通过使用一个跨语言 Event Detection模型来检测一个模型训练的数据。
- Identifying Implicitly Abusive Remarks about Identity Groups using a Linguistically Informed Approach
- Michael Wiegand, Elisabeth Eder, Josef Ruppenhofer
- TLDR: 我们提出了一个更关注和更偏见的分类数据集,用于解决身份标签中表征的直接暴力。
- Label Definitions Improve Semantic Role Labeling
- Li Zhang, Ishan Jindal, Yunyao Li
- TLDR: 我们提出了一个用于语义角色标签的符号标签,用于学习语义角色标签。
- Shedding New Light on the Language of the Dark Web
- Youngjin Jin, Eugene Jang, Yongjae Lee, Seungwon Shin, Jin-Woo Chung
- TLDR: 我们介绍了CoDA,一个用于深度学习的 Dark Web数据集。
- Conceptualizing Treatment Leakage in Text-based Causal Inference
- Adel Daoud, Connor Jerzak, Richard Johansson
- TLDR: 我们定义了治疗-泄露问题,并展示了诊断和估计挑战。
- Consistency Training with Virtual Adversarial Discrete Perturbation
- Jungsoo Park, Gyuwan Kim, Jaewoo Kang
- TLDR: 我们提出了一种用于穩定性训练的穩定性增强方法,用于在不影响训练模型的穩定性的情况下进行穩定性训练。
- CONFIT: Toward Faithful Dialogue Summarization with Linguistically-Informed Contrastive Fine-tuning
- Xiangru Tang, Arjun Nair, Borui Wang, Bingyao Wang, Jai Desai, Aaron Wade, Haoran Li, Asli Celikyilmaz, Yashar Mehdad, Dragomir Radev
- TLDR: 我们提出了一种用于对话总结的新型的训练策略,通过引入对比性微调来改善概括的准确性和整体质量。
- CoMPM: Context Modeling with Speaker’s Pre-trained Memory Tracking for Emotion Recognition in Conversation
- Joosung Lee, Wooin Lee
- TLDR: 我们使用预先训练好的语言模型来提取元,并使用它来提取元外部知识。
- Investigating Crowdsourcing Protocols for Evaluating the Factual Consistency of Summaries
- Xiangru Tang, Alexander Fabbri, Haoran Li, Ziming Mao, Griffin Adams, Borui Wang, Asli Celikyilmaz, Yashar Mehdad, Dragomir Radev
- TLDR: 我们通过使用衡量标准的排名和最佳-希望的梯度来衡量总结质量。
- DialSummEval: Revisiting Summarization Evaluation for Dialogues
- Mingqi Gao, Xiaojun Wan
- TLDR: 我们重新审视了18个衡量标准,并首次对它们进行了统一的人类评价。
- Hyperbolic Relevance Matching for Neural Keyphrase Extraction
- Mingyang Song, Yi Feng, Liping Jing
- TLDR: 我们提出了一种新的超凸匹配模型(HyperMatch),用于在超凸空间进行关键句法提取。
- Template-free Prompt Tuning for Few-shot NER
- Ruotian Ma, Xin Zhou, Tao Gui, Yiding Tan, Linyang Li, Qi Zhang, Xuanjing Huang
- TLDR: 我们提出了一种更简单的方法来重新审视NER任务的LM问题,无需任何模型。
- Few-Shot Document-Level Relation Extraction
- Nicholas Popovic, Michael Färber
- TLDR: 我们提出了FREDo,一个少樣本的文件级关系提取(FSDLRE)基准。
- LaMemo: Language Modeling with Look-Ahead Memory
- Haozhe Ji, Rongsheng Zhang, Zhenyu Yang, Zhipeng Hu, Minlie Huang
- TLDR: 我们提出了一个用于学习时间记忆的替代记忆,它可以提高元对先验的追踪,同时保留长期信息。
- Exploiting Inductive Bias in Transformers for Unsupervised Disentanglement of Syntax and Semantics with VAEs
- Ghazi Felhi, Joseph Roux, Djamé Seddah
- TLDR: 本文提出了一个生成模型,展示了从语法和语义中分离的潜在表征。
- Neighbors Are Not Strangers: Improving Non-Autoregressive Translation under Low-Frequency Lexical Constraints
- Chun Zeng, Jiangjie Chen, Tianyi Zhuang, Rui Xu, Hao Yang, Qin Ying, Shimin Tao, Yanghua Xiao
- TLDR: 我们提出了一个用于非监督翻译的插值方法,用于解决高频率限制的NAT。
- What do Toothbrushes do in the Kitchen? How Transformers Think our World is Structured
- Alexander Henlein, Alexander Mehler
- TLDR: 我们使用变换器的偏差来研究变换器的理论。
- Less is More: Learning to Refine Dialogue History for Personalized Dialogue Generation
- Hanxun Zhong, Zhicheng Dou, Yutao Zhu, Hongjin Qian, Ji-Rong Wen
- TLDR: 我们提出了一个用于用户对话记录的MSP模型,该模型可以从对话记录中得到更丰富的人脸信息。
- A Holistic Framework for Analyzing the COVID-19 Vaccine Debate
- Maria Pacheco, Tunazzina Islam, Monal Mahajan, Andrey Shor, Ming Yin, Lyle Ungar, Dan Goldwasser
- TLDR: 我们提出了一个统一的立场和理性情感分析框架,用于解决信息灾难问题。
- Learning to Win Lottery Tickets in BERT Transfer via Task-agnostic Mask Training
- Yuanxin Liu, Fandong Meng, Zheng Lin, Peng Fu, Yanan Cao, Weiping Wang, Jie Zhou
- TLDR: 我们通过使用最小值修剪来寻找BERT的 subnetworks,以提高下游任务的整体性能。
- You Don’t Know My Favorite Color: Preventing Dialogue Representations from Revealing Speakers’ Private Personas
- Haoran Li, Yangqiu Song, Lixin Fan
- TLDR: 我们提出了一个有效的防御目标来保护从隐藏状态中暴露的说话者身份。
- Explaining Dialogue Evaluation Metrics using Adversarial Behavioral Analysis
- Baber Khalid, Sungjin Lee
- TLDR: 我们表明,对话模型评估不同对话行为的偏见,并表明,衡量标准不关注对话中出现的问题的句法。
- Annotators with Attitudes: How Annotator Beliefs And Identities Bias Toxic Language Detection
- Maarten Sap, Swabha Swayamdipta, Laura Vianna, Xuhui Zhou, Yejin Choi, Noah Smith
- TLDR: 我们研究了批评者身份和信念之间的相互作用,并表明,批评者身份和信念之间的联系与批评者的标签值的toxic性有关。
- Non-Autoregressive Chinese ASR Error Correction with Phonological Training
- Zheng Fang, Ruiqing Zhang, Zhongjun He, Hua Wu, Yanan Cao
- TLDR: 我们提出了一种高效的非监督(NAR)方法来解决汉雅语音识别中错误的错误处理。
- Hate Speech and Counter Speech Detection: Conversational Context Does Matter
- Xinchen Yu, Eduardo Blanco, Lingzi Hong
- TLDR: 我们通过对上下文中出现的句法进行语义分析,研究了上下文中对网络不洁和反批评的解释。
- DACSA: A large-scale Dataset for Automatic summarization of Catalan and Spanish newspaper Articles
- Encarnación Segarra Soriano, Vicent Ahuir, Lluís-F. Hurtado, José González
- TLDR: 我们描述了从高斯和电台中建模的库,用于自动总结的库。库中的库可以被用来训练自动总结模型。
- Time Waits for No One! Analysis and Challenges of Temporal Misalignment
- Kelvin Luu, Daniel Khashabi, Suchin Gururangan, Karishma Mandyam, Noah Smith
- TLDR: 我们研究了在现代NLP系统中持续的适应性训练和持续的非监督训练之间的时间对应关系。
- MCSE: Multimodal Contrastive Learning of Sentence Embeddings
- Miaoran Zhang, Marius Mosbach, David Adelani, Michael Hedderich, Dietrich Klakow
- TLDR: 我们提出了一种句法嵌入学习方法,利用视觉和文本信息通过一种多模态对抗性目标来实现语义相似性。
- HiURE: Hierarchical Exemplar Contrastive Learning for Unsupervised Relation Extraction
- Shuliang Liu, Xuming Hu, Chenwei Zhang, Shu’ang Li, Lijie Wen, Philip Yu
- TLDR: 我们提出了一个新颖的对比性学习框架,它可以从句法中获得层次特征信号,通过跨层次注意力和跨层次注意力进行关系表示。
- Diagnosing Vision-and-Language Navigation: What Really Matters
- Wanrong Zhu, Yuankai Qi, Pradyumna Narayana, Kazoo Sone, Sugato Basu, Xin Wang, Qi Wu, Miguel Eckstein, William Yang Wang
- TLDR: 我们通过对在视觉环境中进行的诊断实验来揭示了在导航中使用方向标的注意力。
- Aligning to Social Norms and Values in Interactive Narratives
- Prithviraj Ammanabrolu, Liwei Jiang, Maarten Sap, Hannaneh Hajishirzi, Yejin Choi
- TLDR: 我们提出了一个用于游戏价值的ALIGNMENT的代理,它使用了专门训练的语言模型来限制行动空间,只进行与社会有益的行动相一致的行动。
- MOVER: Mask, Over-generate and Rank for Hyperbole Generation
- Yunxiang Zhang, Xiaojun Wan
- TLDR: 我们提出了一种非监督的超贝法生成方法,不需要同义词对齐,不需要双语词对。
- Embarrassingly Simple Performance Prediction for Abductive Natural Language Inference
- Emīls Kadiķis, Vaibhav Srivastav, Roman Klinger
- TLDR: 我们提出了一种简单的方法来预测一个模型在NLI任务中的表现,无需对模型进行微调。
- Re-Examining System-Level Correlations of Automatic Summarization Evaluation Metrics
- Daniel Deutsch, Rotem Dror, Dan Roth
- TLDR: 我们表明,系统级相互作用的理论与实践中的理论不一致,并提出了改进的理论和改进的理论。