NAACL 2022 in Chinese
TLDRs
- Knowledge Router: Learning Disentangled Representations for Knowledge Graphs
- Shuai Zhang, Xi Rao, Yi Tay, Ce Zhang
- TLDR: 我们提出了一种新的表征学习方法,用于从KG实体中学习分解的表征。
- Distantly Supervised Relation Extraction with Sentence Reconstruction and Knowledge Base Priors
- Fenia Christopoulou, Makoto Miwa, Sophia Ananiadou
- TLDR: 我们提出了一种多任务,概率的方法,通过将句法表征与句法表征近似,使句法表征更接近句法表征。
- Cross-Task Instance Representation Interactions and Label Dependencies for Joint Information Extraction with Graph Convolutional Networks
- Minh Van Nguyen, Viet Dac Lai, Thien Huu Nguyen
- TLDR: 我们提出了一个用于信息提取的多任务神经网络,它可以同时解决四个信息提取任务,并展示了其在多语言和单语言学习中的表现。
- Abstract Meaning Representation Guided Graph Encoding and Decoding for Joint Information Extraction
- Zixuan Zhang, Heng Ji
- TLDR: 我们提出了一个用于信息提取的AMR-guided框架,用于发现实体、关系和事件的联系。
- A Frustratingly Easy Approach for Entity and Relation Extraction
- Zexuan Zhong, Danqi Chen
- TLDR: 我们提出了一种用于实体和关系提取的简单框架,并建立了最先进的结果。
- Event Time Extraction and Propagation via Graph Attention Networks
- Haoyang Wen, Yanru Qu, Heng Ji, Qiang Ning, Jiawei Han, Avi Sil, Hanghang Tong, Dan Roth
- TLDR: 我们提出了一种基于图注意力网络的基于时间的事件图的传播方法,用于推广时间信息到文件级事件图上。
- Probing Word Translations in the Transformer and Trading Decoder for Encoder Layers
- Hongfei Xu, Josef van Genabith, Qiuhui Liu, Deyi Xiong
- TLDR: 我们表明,如果在输入嵌入上进行转换,我们可以提高到比以前的模型更快的程度,同时减少了编码器层的数量,以提高翻译质量。
- Mediators in Determining what Processing BERT Performs First
- Aviv Slobodkin, Leshem Choshen, Omri Abend
- TLDR: 我们表明,在BERT上用BERT的排名法进行对比,可以得到 196不同的排名。
- Automatic Generation of Contrast Sets from Scene Graphs: Probing the Compositional Consistency of GQA
- Yonatan Bitton, Gabriel Stanovsky, Roy Schwartz, Michael Elhadad
- TLDR: 我们提出了一种基于丰富的语义输入表示的新型方法,用于生成对比性集。
- Multilingual Language Models Predict Human Reading Behavior
- Nora Hollenstein, Federico Pirovano, Ce Zhang, Lena Jäger, Lisa Beinborn
- TLDR: 我们分析了语言模型在人类阅读行为方面的准确性。
- Do Syntactic Probes Probe Syntax? Experiments with Jabberwocky Probing
- Rowan Hall Maudslay, Ryan Cotterell
- TLDR: 我们表明,在训练数据中,语义追踪器不能够很好地分开语法,而语义追踪器只能从训练数据中得到更好的追踪。
- A Non-Linear Structural Probe
- Jennifer C. White, Tiago Pimentel, Naomi Saphra, Ryan Cotterell
- TLDR: 我们通过学习一个指标来学习一个非线性变体,并利用它来生成一个新的非线性变体。
- Concealed Data Poisoning Attacks on NLP Models
- Eric Wallace, Tony Zhao, Shi Feng, Sameer Singh
- TLDR: 我们提出了一个数据中毒攻击,可以从输入中自动控制模型预测。
- Backtranslation Feedback Improves User Confidence in MT, Not Quality
- Vilém Zouhar, Michal Novák, Matúš Žilinec, Ondřej Bojar, Mateo Obregón, Robin L. Hill, Frédéric Blain, Marina Fomicheva, Lucia Specia, Lisa Yankovskaya
- TLDR: 我们表明,通过使用反馈模块来改进外语翻译,可以提高用户信心,但不是目标质量。
- Data Filtering using Cross-Lingual Word Embeddings
- Christian Herold, Jan Rosendahl, Joris Vanvinckenroye, Hermann Ney
- TLDR: 我们提出了几种新的多语种数据滤波器,用于多语种数据滤波。
- Improving the Lexical Ability of Pretrained Language Models for Unsupervised Neural Machine Translation
- Alexandra Chronopoulou, Dario Stojanovski, Alexander Fraser
- TLDR: 我们通过使用跨语言嵌入来提高跨语言模型的跨语言预训练。
- Neural Machine Translation without Embeddings
- Uri Shaham, Omer Levy
- TLDR: 本文提出了一种用于机器翻译的非嵌入模型,它可以从单词到单词的表征中得到一个完整的表征。
- Counterfactual Data Augmentation for Neural Machine Translation
- Qi Liu, Matt Kusner, Phil Blunsom
- TLDR: 我们提出了一种用于神经机器翻译的数据增强方法,它通过解释语言模型和句法排列因果来生成句法排列句法。
- Cultural and Geographical Influences on Image Translatability of Words across Languages
- Nikzad Khani, Isidora Tourni, Mohammad Sadegh Rasooli, Chris Callison-Burch, Derry Tanti Wijaya
- TLDR: 我们通过对词的上下文相似性进行比较,研究词的转换性,并表明词的转换性与词的转换性相反。
- Multilingual BERT Post-Pretraining Alignment
- Lin Pan, Chung-Wei Hang, Haode Qi, Abhishek Shah, Saloni Potdar, Mo Yu
- TLDR: 我们提出了一种简单的方法,用于在翻译中使用多语种背景嵌入的句法层次嵌入的相匹配。
- A Million Tweets Are Worth a Few Points: Tuning Transformers for Customer Service Tasks
- Amir Hadifar, Sofie Labat, Veronique Hoste, Chris Develder, Thomas Demeester
- TLDR: 我们通过收集多语种多语种社会网络的客户服务对话来解决多语种社会网络中多语种服务问题。
- Paragraph-level Rationale Extraction through Regularization: A case study on European Court of Human Rights Cases
- Ilias Chalkidis, Manos Fergadiotis, Dimitrios Tsarapatsanis, Nikolaos Aletras, Ion Androutsopoulos, Prodromos Malakasiotis
- TLDR: 我们提出了一种新的法律解释方法,用于解释法律文本中的句法层次的论断。
- Answering Product-Questions by Utilizing Questions from Other Contextually Similar Products
- Ohad Rozen, David Carmel, Avihai Mejer, Vitaly Mirkis, Yftah Ziser
- TLDR: 我们提出了一种新的方法来预测产品相关的问题,基于相似的回答。
- EnSidNet: Enhanced Hybrid Siamese-Deep Network for grouping clinical trials into drug-development pathways
- Lucia Pagani
- TLDR: 我们提出了一种用于临床研究的临床路径重建的新型双胍神经网络。
- DATE: Detecting Anomalies in Text via Self-Supervision of Transformers
- Andrei Manolache, Florin Brad, Elena Burceanu
- TLDR: 我们使用DATE来解决文本序列的AD,并展示了与AUROC相比更好的结果。
- A Simple Approach for Handling Out-of-Vocabulary Identifiers in Deep Learning for Source Code
- Nadezhda Chirkova, Sergey Troshin
- TLDR: 我们提出了一种简单而有效的方法,通过使用identifier匿化来处理OOV的identifiers。
- Fast and Scalable Dialogue State Tracking with Explicit Modular Decomposition
- Dingmin Wang, Chenghua Lin, Qi Liu, Kam-Fai Wong
- TLDR: 我们提出了一个快速和可扩展的架构,用于生成多域对话。
- Augmented SBERT: Data Augmentation Method for Improving Bi-Encoders for Pairwise Sentence Scoring Tasks
- Nandan Thakur, Nils Reimers, Johannes Daxenberger, Iryna Gurevych
- TLDR: 我们提出了一种用于单语 scoring的新型数据增强策略,用于多语法句法评分。
- SmBoP: Semi-autoregressive Bottom-up Semantic Parsing
- Ohad Rubin, Jonathan Berant
- TLDR: 我们提出了一个 Semi-autoregressive Bottom-up Parser(SmBoP),它可以从下游的解析中学习语义句法,而不是从头到尾的解析中学习。
- SGL: Speaking the Graph Languages of Semantic Parsing via Multilingual Translation
- Luigi Procopio, Rocco Tripodi, Roberto Navigli
- TLDR: 我们提出了一个多语种神经机器翻译(MNMT),一个用于多语种语义解析的多语种架构。
- Unifying Cross-Lingual Semantic Role Labeling with Heterogeneous Linguistic Resources
- Simone Conia, Andrea Bacciu, Roberto Navigli
- TLDR: 我们提出了一个统一的跨语言RL,用于在不同语言之间进行语义标签。
- Fool Me Twice: Entailment from Wikipedia Gamification
- Julian Eisenschlos, Bhuwan Dhingra, Jannis Bulian, Benjamin Börschinger, Jordan Boyd-Graber
- TLDR: 我们开发了FoolMeTwice,这是一个有趣的多玩家游戏,通过收集具有挑战性的样本来解决复杂的任务。
- Meta-Learning for Domain Generalization in Semantic Parsing
- Bailin Wang, Mirella Lapata, Ivan Titov
- TLDR: 我们使用一个元学习框架来解决元学习目标,该框架的目标是通过使用一个模型无关的训练方法来模拟零樣本的解析。
- Aspect-Controlled Neural Argument Generation
- Benjamin Schiller, Johannes Daxenberger, Iryna Gurevych
- TLDR: 我们提出了一个用于生成句法层次的论断的语言模型,可以被控制来生成句法层次的论断。
- Text Generation from Discourse Representation Structures
- Jiangming Liu, Shay B. Cohen, Mirella Lapata
- TLDR: 我们提出了一种基于DRS的文本生成方法,用于生成文本的正式意义表征。
- APo-VAE: Text Generation in Hyperbolic Space
- Shuyang Dai, Zhe Gan, Yu Cheng, Chenyang Tao, Lawrence Carin, Jingjing Liu
- TLDR: 我们通过使用第一个元表征来学习上下文生成,以实现语言的连续层次表征。
- DART: Open-Domain Structured Data Record to Text Generation
- Linyong Nan, Dragomir Radev, Rui Zhang, Amrit Rau, Abhinand Sivaprasad, Chiachun Hsieh, Xiangru Tang, Aadit Vyas, Neha Verma, Pranav Krishna, Yangxiaokang Liu, Nadia Irwanto, Jessica Pan, Faiaz Rahman, Ahmad Zaidi, Mutethia Mutuma, Yasin Tarabar, Ankit Gupta, Tao Yu, Yi Chern Tan, Xi Victoria Lin, Caiming Xiong, Richard Socher, Nazneen Fatema Rajani
- TLDR: 我们提出了一个用于数据到文本的DART数据集,它可以作为数据到数据的注释,但需要更少的修改。
- When Being Unseen from mBERT is just the Beginning: Handling New Languages With Multilingual Language Models
- Benjamin Muller, Antonios Anastasopoulos, Benoît Sagot, Djamé Seddah
- TLDR: 我们表明,多语言模型在没有语言模型的情况下表现良好,但它们在不涉及语言模型的情况下表现不佳。
- Multi-Adversarial Learning for Cross-Lingual Word Embeddings
- Haozhou Wang, James Henderson, Paola Merlo
- TLDR: 我们提出了一种基于多对抗学习的多语义学习方法,用于距离语言的多语义嵌入。
- Multi-view Subword Regularization
- Xinyi Wang, Sebastian Ruder, Graham Neubig
- TLDR: 我们提出了一种用于多语种表征的多视角正则化方法,它可以提高多语种表征的有效性。
- mT5: A Massively Multilingual Pre-trained Text-to-Text Transformer
- Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, Colin Raffel
- TLDR: 我们介绍了MT5,一个多语言变体,它可以从单个文本到多个文本的转换中获得最先进的结果。
- MetaXL: Meta Representation Transformation for Low-resource Cross-lingual Learning
- Mengzhou Xia, Guoqing Zheng, Subhabrata Mukherjee, Milad Shokouhi, Graham Neubig, Ahmed Hassan Awadallah
- TLDR: 我们提出了MetaXL,一个用于低资源语言转移学习的元学习框架。
- Open Domain Question Answering over Tables via Dense Retrieval
- Jonathan Herzig, Thomas Müller, Syrine Krichene, Julian Eisenschlos
- TLDR: 我们首次从数据中解决了基于表的QA,并表明,通过使用一个可扩展的查询器来改善表上的检索。
- Open-Domain Question Answering Goes Conversational via Question Rewriting
- Raviteja Anantha, Svitlana Vakulenko, Zhucheng Tu, Shayne Longpre, Stephen Pulman, Srinivas Chappidi
- TLDR: 我们提出了QReCC,这是一个用于问题回答问题的QReCC数据集。
- QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question Answering
- Michihiro Yasunaga, Hongyu Ren, Antoine Bosselut, Percy Liang, Jure Leskovec
- TLDR: 我们提出了一个新颖的QA-GNN模型,它解决了QA-GNN模型中的问题和回答选择的两个挑战。
- XOR QA: Cross-lingual Open-Retrieval Question Answering
- Akari Asai, Jungo Kasai, Jonathan Clark, Kenton Lee, Eunsol Choi, Hannaneh Hajishirzi
- TLDR: 我们提出了一个跨语言的开放检索问题回答任务框架,用于解决跨语言的跨语言问题回答任务。
- SPARTA: Efficient Open-Domain Question Answering via Sparse Transformer Matching Retrieval
- Tiancheng Zhao, Xiaopeng Lu, Kyusong Lee
- TLDR: 我们提出了SPARTA,一种用于开放域问题回答的神经检索方法,其性能、泛化和可解释性都很理想。
- Implicitly Abusive Language – What does it actually look like and why are we not getting there?
- Michael Wiegand, Josef Ruppenhofer, Elisabeth Eder
- TLDR: 我们提出了一个关于使用欺骗性词来表示不道德的语言的理论。
- The Importance of Modeling Social Factors of Language: Theory and Practice
- Dirk Hovy, Diyi Yang
- TLDR: 我们表明,在信息内容上过度关注语言的社会因素,导致了目前的NLP模型在信息方面的应用不充分。
- On learning and representing social meaning in NLP: a sociolinguistic perspective
- Dong Nguyen, Laura Rosseel, Jack Grieve
- TLDR: 我们介绍了社会意义的NLP,并表明社会意义在NLP中的重要性。
- Preregistering NLP research
- Emiel van Miltenburg, Chris van der Lee, Emiel Krahmer
- TLDR: 我们提出了几个关于NLP研究的一般NLP准入问题,并提出了几个潜在的准入问题。
- Get Your Vitamin C! Robust Fact Verification with Contrastive Evidence
- Tal Schuster, Adam Fisch, Regina Barzilay
- TLDR: 我们提出了VitaminC,一个用于事实验证的基准,用于解释和监督事实的证据。
- Representing Numbers in NLP: a Survey and a Vision
- Avijit Thawani, Jay Pujara, Filip Ilievski, Pedro Szekely
- TLDR: 我们提出了一个统一的NLP课程学习的框架,并表明,在学习数字时,数字代表不同的表征。
- Extending Multi-Document Summarization Evaluation to the Interactive Setting
- Ori Shapira, Ramakanth Pasunuru, Hadar Ronen, Mohit Bansal, Yael Amsterdamer, Ido Dagan
- TLDR: 我们提出了一个端到端的评估框架,用于互动总结。
- Identifying Helpful Sentences in Product Reviews
- Iftah Gamzu, Hila Gonen, Gilad Kutiel, Ran Levy, Eugene Agichtein
- TLDR: 我们提出了一个用于多表征总结的框架,该框架在许多情况下比其他框架更有效。
- Noisy Self-Knowledge Distillation for Text Summarization
- Yang Liu, Sheng Shen, Mirella Lapata
- TLDR: 我们使用自我知识提炼法来训练学生总结器,以提高其性能。
- Improving Zero and Few-Shot Abstractive Summarization with Intermediate Fine-tuning and Data Augmentation
- Alexander Fabbri, Simeng Han, Haoyuan Li, Haoran Li, Marjan Ghazvininejad, Shafiq Joty, Dragomir Radev, Yashar Mehdad
- TLDR: 我们提出了一种用于非监督的总结方法,用于微调预先训练好的模型,以提高一般总结任务的收敛性能。
- Enhancing Factual Consistency of Abstractive Summarization
- Chenguang Zhu, William Hinthorn, Ruochen Xu, Qingkai Zeng, Michael Zeng, Xuedong Huang, Meng Jiang
- TLDR: 我们提出了一个事实感知的总结模型,用于从总结中提取和整合事实关系。
- Few-shot Intent Classification and Slot Filling with Retrieved Examples
- Dian Yu, Luheng He, Yuan Zhang, Xinya Du, Panupong Pasupat, Qi Li
- TLDR: 我们提出了一种基于检索的基于语义标签的少樣本学习方法,用于目标分类和排列任务的一般少樣本学习。
- “Nice Try, Kiddo”: Investigating Ad Hominems in Dialogue Responses
- Emily Sheng, Kai-Wei Chang, Prem Natarajan, Nanyun Peng
- TLDR: 我们提出了分类器,并提出了一个用于分析对话系统和人类对话系统回答的Twitter主题的Twitter主题分类器。
- Human-like informative conversations: Better acknowledgements using conditional mutual information
- Ashwin Paranjape, Christopher Manning
- TLDR: 我们提出了一个对话代理,可以从对话中提取新的事实,并通过对话中加入人类的事实,通过对话中使用相同的事实来进行回应。
- A Comparative Study on Schema-Guided Dialogue State Tracking
- Jie Cao, Yi Zhang
- TLDR: 我们通过对对话状态跟踪中使用自然语言描述的主题进行深入比较研究,了解使用该描述的主题的主题特征。
- Spoken Language Understanding for Task-oriented Dialogue Systems with Augmented Memory Networks
- Jie Wu, Ian Harris, Hongzhi Zhao
- TLDR: 我们提出了一种新的方法来解决长期的排列位置的特定意图,并使用它来实现最佳的排列位置定位。
- How to Motivate Your Dragon: Teaching Goal-Driven Agents to Speak and Act in Fantasy Worlds
- Prithviraj Ammanabrolu, Jack Urbanek, Margaret Li, Arthur Szlam, Tim Rocktäschel, Jason Weston
- TLDR: 我们提出了一种基于语言建模和通用推理的强化学习系统,它可以从行动命令中学习,并利用行动命令和对话,平衡行动命令和对话空间。
- Linking Entities to Unseen Knowledge Bases with Arbitrary Schemas
- Yogarshi Vyas, Miguel Ballesteros
- TLDR: 我们使用一个基于单个实体属性的正则化方案来解决知识库KB的非实链接问题。
- Self-Training with Weak Supervision
- Giannis Karamanolakis, Subhabrata Mukherjee, Guoqing Zheng, Ahmed Hassan Awadallah
- TLDR: 我们提出了一个用于文本分类的弱监督框架,它可以从单个例子中学习伪标签,以解决特定任务的例子不被纳入弱监督的限制。
- Neural Language Modeling for Contextualized Temporal Graph Generation
- Aman Madaan, Yiming Yang
- TLDR: 我们首次使用大规模的预先训练的语言模型来生成一个事件级的时间图。
- Probabilistic Box Embeddings for Uncertain Knowledge Graph Reasoning
- Xuelu Chen, Michael Boratko, Muhao Chen, Shib Sankar Dasgupta, Xiang Lorraine Li, Andrew McCallum
- TLDR: 我们提出了BeUrRE,一个新颖的知识图嵌入方法,使用一个架构,将知识图嵌入方法与一个架构结合起来,以解决知识图上的多层不确定性。
- Document-Level Event Argument Extraction by Conditional Generation
- Sha Li, Heng Ji, Jiawei Han
- TLDR: 我们提出了一个用于文档到文档的事件提取的模型,该模型在文档上提取了82%的提取性能。
- Template Filling with Generative Transformers
- Xinya Du, Alexander Rush, Claire Cardie
- TLDR: 我们提出了一个用于多事件建模的框架,它通过生成多个事件的依赖关系来解决多事件建模问题。
- Towards Interpreting and Mitigating Shortcut Learning Behavior of NLU models
- Mengnan Du, Varun Manjunatha, Rajiv Jain, Ruchi Deshpande, Franck Dernoncourt, Jiuxiang Gu, Tong Sun, Xia Hu
- TLDR: 我们表明,NLU模型的短尾特征被用来解释短尾特征,而不是短尾特征。
- On Attention Redundancy: A Comprehensive Study
- Yuchen Bian, Jiaji Huang, Xingyu Cai, Jiahong Yuan, Kenneth Church
- TLDR: 我们提出了一种用于GLUE任务的零樣本修剪方法。
- Does BERT Pretrained on Clinical Notes Reveal Sensitive Data?
- Eric Lehman, Sarthak Jain, Karl Pichotta, Yoav Goldberg, Byron Wallace
- TLDR: 我们设计了一种用于恢复个人健康信息的新型方法,用于从一个训练好的BERT中恢复病人的名称和条件。
- Low-Complexity Probing via Finding Subnetworks
- Steven Cao, Victor Sanh, Alexander Rush
- TLDR: 我们提出了一种基于非凸性修剪的多层感知器的神经网络的理论,它可以从模型中检测出具有语言属性的特征,并可以从模型中学习。
- An Empirical Comparison of Instance Attribution Methods for NLP
- Pouya Pezeshkpour, Sarthak Jain, Byron Wallace, Sameer Singh
- TLDR: 我们表明,在训练实例重要性方面的不同观点对行动的行动属性的重要性不相一致。
- Generalization in Instruction Following Systems
- Soham Dan, Michael Zhou, Dan Roth
- TLDR: 我们通过对两个最先进的学习方法进行理论分析,研究了它们在学习方面的表现。
- LightningDOT: Pre-training Visual-Semantic Embeddings for Real-Time Image-Text Retrieval
- Siqi Sun, Yen-Chun Chen, Linjie Li, Shuohang Wang, Yuwei Fang, Jingjing Liu
- TLDR: 我们提出了一种简单而有效的方法,通过使用一个简单的LightningDOT加速Image-text检索(ITR)的推理时间。
- Measuring Social Biases in Grounded Vision and Language Embeddings
- Candace Ross, Boris Katz, Andrei Barbu
- TLDR: 我们用一个简单的概括法概括了衡量标准,以描述上下文嵌入中偏差的一般界限。
- MTAG: Modal-Temporal Attention Graph for Unaligned Human Multimodal Language Sequences
- Jianing Yang, Yongxin Wang, Ruitao Yi, Yuying Zhu, Azaan Rehman, Amir Zadeh, Soujanya Poria, Louis-Philippe Morency
- TLDR: 我们提出了一种用于多模式和时间互动的神经模型,用于分析多模式和时间互动的神经图。
- Grounding Open-Domain Instructions to Automate Web Support Tasks
- Nancy Xu, Sam Masling, Michael Du, Giovanni Campagna, Larry Heck, James Landay, Monica Lam
- TLDR: 我们提出了一个任务和数据集,用于训练从开放的领域中学习的AI代理。
- Modular Networks for Compositional Instruction Following
- Rodolfo Corona, Daniel Fried, Coline Devin, Dan Klein, Trevor Darrell
- TLDR: 我们提出了一种用于学习自然语言指令的模块化架构,用于学习自然语言指令的顺序。
- Improving Cross-Modal Alignment in Vision Language Navigation via Syntactic Information
- Jialu Li, Hao Tan, Mohit Bansal
- TLDR: 我们提出了一个用于语言导航的导航代理,使用依赖性树来表示当前的视觉信息。
- Improving Pretrained Models for Zero-shot Multi-label Text Classification through Reinforced Label Hierarchy Reasoning
- Hui Liu, Danqing Zhang, Bing Yin, Xiaodan Zhu
- TLDR: 我们提出了一种基于RLRL的非监督学习方法,用于解决零樣本多标签文本分类(ZS-MTC)问题。
- Fine-Tuning Pre-trained Language Model with Weak Supervision: A Contrastive-Regularized Self-Training Approach
- Yue Yu, Simiao Zuo, Haoming Jiang, Wendi Ren, Tuo Zhao, Chao Zhang
- TLDR: 我们提出了一个对比性自我训练框架,用于在不需要监督的情况下进行微调。
- Posterior Differential Regularization with f-divergence for Improving Model Robustness
- Hao Cheng, Xiaodong Liu, Lis Pereira, Yaoliang Yu, Jianfeng Gao
- TLDR: 我们提出了一种通过正则化提高模型穩定性的框架。
- Understanding Hard Negatives in Noise Contrastive Estimation
- Wenzheng Zhang, Karl Stratos
- TLDR: 我们提出了一种用于非监督学习的分析工具,用于理解硬性负面的作用。
- Certified Robustness to Word Substitution Attack with Differential Privacy
- Wenjie Wang, Pengfei Tang, Jian Lou, Li Xiong
- TLDR: 我们提出了一种基于理论的对抗性穩定性方法,用于解决文本分类任务的首次正式对抗性穩定性。
- DReCa: A General Task Augmentation Strategy for Few-Shot Natural Language Inference
- Shikhar Murty, Tatsunori B. Hashimoto, Christopher Manning
- TLDR: 我们提出了一个简单的方法来发现和使用潜在的推理分类,以生成额外的高质量的任务。
- Harnessing Multilinguality in Unsupervised Machine Translation for Rare Languages
- Xavier Garcia, Aditya Siddhant, Orhan Firat, Ankur Parikh
- TLDR: 我们表明,多语言性是提高非监督翻译的质量的关键,特别是在低资源的语言上。
- Macro-Average: Rare Types Are Important Too
- Thamme Gowda, Weiqiu You, Constantine Lignos, Jonathan May
- TLDR: 我们表明,基于模型的机器翻译评估指标可以被用来评估基于模型的分类器指标。
- Assessing Reference-Free Peer Evaluation for Machine Translation
- Sweta Agrawal, George Foster, Markus Freitag, Colin Cherry
- TLDR: 我们表明,通过使用一个小的多语言模型来衡量翻译的质量,我们可以与贝叶斯媲美。
- The Curious Case of Hallucinations in Neural Machine Translation
- Vikas Raunak, Arul Menezes, Marcin Junczys-Dowmunt
- TLDR: 我们研究了在神经机器翻译中产生的幻觉,并表明它们可以被生成和解释通过特定的 corpus-level噪音 patterns。
- Towards Continual Learning for Multilingual Machine Translation via Vocabulary Substitution
- Xavier Garcia, Noah Constant, Ankur Parikh, Orhan Firat
- TLDR: 一种用于多语言翻译的通用词典的适应方案,用于在距离语言的语言对中使用通用词典。
- Towards Modeling the Style of Translators in Neural Machine Translation
- Yue Wang, Cuong Hoang, Marcello Federico
- TLDR: 我们通过使用Transformer模型来改进现有的Transformer模型,以生成与翻译数据不同的翻译。
- Self-Supervised Test-Time Learning for Reading Comprehension
- Pratyay Banerjee, Tejas Gokhale, Chitta Baral
- TLDR: 我们提出了一种用于非监督阅读理解的在线方法,无需需要任何额外的训练。
- Capturing Row and Column Semantics in Transformer Based Question Answering over Tables
- Michael Glass, Mustafa Canim, Alfio Gliozzo, Saneem Chemmengath, Vishwajeet Kumar, Rishav Chakravarti, Avi Sil, Feifei Pan, Samarth Bharadwaj, Nicolas Rodolfo Fauceglia
- TLDR: 我们提出了一种基于变换器的在线在线QA方法,可以获得更好的在线QA性能。
- Explainable Multi-hop Verbal Reasoning Through Internal Monologue
- Zhengzhong Liang, Steven Bethard, Mihai Surdeanu
- TLDR: 我们提出了一个可解释的多跳推理器,它可以解决多跳推理问题,同时能生成所有的推理步骤。
- Robust Question Answering Through Sub-part Alignment
- Jifan Chen, Greg Durrett
- TLDR: 我们使用一个结构化的SVM来训练一个基于语义的QA模型,并使用BERT来训练一个用于解决语义问题回答的模型。
- Text Modular Networks: Learning to Decompose Tasks in the Language of Existing Models
- Tushar Khot, Daniel Khashabi, Kyle Richardson, Peter Clark, Ashish Sabharwal
- TLDR: 本文提出了一个通用框架,用于建可解释的系统,通过将复杂的任务分解为简单的任务,以实现简单的任务的解决。
- RECONSIDER: Improved Re-Ranking using Span-Focused Cross-Attention for Open Domain Question Answering
- Srinivasan Iyer, Sewon Min, Yashar Mehdad, Wen-tau Yih
- TLDR: 我们开发了一种成功的梯度方法,用于跨域的QA任务,提高了MRC模型的性能,甚至在规模上训练。
- On the Transferability of Minimal Prediction Preserving Inputs in Question Answering
- Shayne Longpre, Yi Lu, Chris DuBois
- TLDR: 我们研究了在神经模型中存在短的输入片段,这些输入片段可以提高准确性和信心。
- Understanding by Understanding Not: Modeling Negation in Language Models
- Arian Hosseini, Siva Reddy, Dzmitry Bahdanau, R Devon Hjelm, Alessandro Sordoni, Aaron Courville
- TLDR: 我们提出了一个用于语言建模的非概率目标,并提出了一个用于改善语言建模的非概率目标。
- DuoRAT: Towards Simpler Text-to-SQL Models
- Torsten Scholak, Raymond Li, Dzmitry Bahdanau, Harm de Vries, Chris Pal
- TLDR: 我们使用一个用于解释和查询的神经文本到SQL模型来解决无知的查询。
- Looking Beyond Sentence-Level Natural Language Inference for Question Answering and Text Summarization
- Anshuman Mishra, Dhruvesh Patel, Aparna Vijayakumar, Xiang Lorraine Li, Pavan Kapanipathi, Kartik Talamadupula
- TLDR: 我们使用MCRC和文本总结(CFCS)任务来研究潜在的理由。
- Structure-Grounded Pretraining for Text-to-SQL
- Xiang Deng, Ahmed Hassan Awadallah, Christopher Meek, Oleksandr Polozov, Huan Sun, Matthew Richardson
- TLDR: 我们提出了一个弱监督的结构化框架,可以有效地学习从文本到SQL的文本-文本校准的对齐。
- Incremental Few-shot Text Classification with Multi-round New Classes: Formulation, Dataset and System
- Congying Xia, Wenpeng Yin, Yihao Feng, Philip Yu
- TLDR: 我们提出了一个新颖的NLP任务,即增量少樣本文本分类,它可以从一个简单的例子中学习新的类。
- Temporal Reasoning on Implicit Events from Distant Supervision
- Ben Zhou, Kyle Richardson, Qiang Ning, Tushar Khot, Ashish Sabharwal, Dan Roth
- TLDR: 我们提出了TraCIE,一个用于评估系统理解的隐性事件的理论。
- Disentangling Semantics and Syntax in Sentence Embeddings with Pre-trained Language Models
- James Y. Huang, Kuan-Hao Huang, Kai-Wei Chang
- TLDR: 我们提出了ParaBART,一个语义句法嵌入模型,它可以从句法嵌入中提取语义和句法的表征,并可以从句法嵌入中进行语义解析。
- Structure-Aware Abstractive Conversation Summarization via Discourse and Action Graphs
- Jiaao Chen, Diyi Yang
- TLDR: 我们提出了一种基于多樣本的对话总结的模型,它可以从句法和行动三维表征中得到准确的对话总结。
- A New Approach to Overgenerating and Scoring Abstractive Summaries
- Kaiqiang Song, Bingqing Wang, Zhe Feng, Fei Liu
- TLDR: 我们提出了一种新的基于两阶策略的方法,通过生成多种版本的总结,然后评估和选择 admissible的。
- D2S: Document-to-Slide Generation Via Query-Based Text Summarization
- Edward Sun, Yufang Hou, Dakuo Wang, Yunfeng Zhang, Nancy X. R. Wang
- TLDR: 我们提出了D2S,一个用于文件到页的任务的新型系统,它可以从文件到页的任务中学习。
- Efficient Attentions for Long Document Summarization
- Luyang Huang, Shuyang Cao, Nikolaus Parulian, Heng Ji, Lu Wang
- TLDR: 我们提出了Hepos,一个高效的编码器-解码器注意力,可以从源信息中捕捉到最重要信息。
- RefSum: Refactoring Neural Summarization
- Yixin Liu, Zi-Yi Dou, Pengfei Liu
- TLDR: 我们提出了一个新颖的框架Refactor,用于文本总结和总结的统一视覺。
- Annotating and Modeling Fine-grained Factuality in Summarization
- Tanya Goyal, Greg Durrett
- TLDR: 我们表明,我们使用最先进的事实性检测模型来检测和分析事实性错误,并表明它可以帮助我们更好地训练更真实的XSum总结模型。
- Larger-Context Tagging: When and Why Does It Work?
- Jinlan Fu, Liangjing Feng, Qi Zhang, Xuanjing Huang, Pengfei Liu
- TLDR: 我们通过研究在本文中,我们关注了在本文中,我们的目标是通过研究在本文中,我们的目标是研究在本文中,我们的目标是研究在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在本文中,我们研究了在
- Neural Sequence Segmentation as Determining the Leftmost Segments
- Yangming Li, Lemao Liu, Kaisheng Yao
- TLDR: 我们提出了一种新的方法,用于从句法中分离短语。
- PCFGs Can Do Better: Inducing Probabilistic Context-Free Grammars with Many Symbols
- Songlin Yang, Yanpeng Zhao, Kewei Tu
- TLDR: 我们提出了一种新的PCFG的参数化形式,它可以使用更少的标记。
- GEMNET: Effective Gated Gazetteer Representations for Recognizing Complex Entities in Low-context Input
- Tao Meng, Anjie Fang, Oleg Rokhlenko, Shervin Malmasi
- TLDR: 我们提出了GEMNET,一种用于视覺知识整合的新方法,包括 (1)一个灵活的视覺表征(CGR)编码器,可以被 fus到任何词级模型;和一种混合专家采样网络,解决了因条件而组合视覺特征的泛化问题。
- Video-aided Unsupervised Grammar Induction
- Songyang Zhang, Linfeng Song, Lifeng Jin, Kun Xu, Dong Yu, Jiebo Luo
- TLDR: 我们通过使用视频信息来进行多语义语法入论,通过使用视频信息来学习一个语义解析器。
- Generating Negative Samples by Manipulating Golden Responses for Unsupervised Learning of a Response Evaluation Model
- ChaeHun Park, Eugene Jang, Wonsuk Yang, Jong Park
- TLDR: 我们提出了一种用于非监督学习的非监督批评的模型,它可以被用来做自动回应评估,而不使用一个已知的批评。
- How Robust are Fact Checking Systems on Colloquial Claims?
- Byeongchang Kim, Hyunwoo Kim, Seokhee Hong, Gunhee Kim
- TLDR: 我们通过对事实验证和对话安全之间的联系进行理论分析,研究了事实验证和对话安全之间的相關性。
- Fine-grained Post-training for Improving Retrieval-based Dialogue Systems
- Janghoon Han, Taesuk Hong, Byoungjae Kim, Youngjoong Ko, Jungyun Seo
- TLDR: 我们提出了一种新的微调的后训练方法,用于多旋对话的回应选择。
- Put Chatbot into Its Interlocutor’s Shoes: New Framework to Learn Chatbot Responding with Intention
- Hsuan Su, Jiun-Hao Jhan, Fan-yun Sun, Saurav Sahay, Hung-yi Lee
- TLDR: 我们提出了一个新颖的框架,用于训练聊天机器人具有人类的意图。
- Adding Chit-Chat to Enhance Task-Oriented Dialogues
- Kai Sun, Seungwhan Moon, Paul Crook, Stephen Roller, Becka Silvert, Bing Liu, Zhiguang Wang, Honglei Liu, Eunjoon Cho, Claire Cardie
- TLDR: 我们提出了一个用于生成不同口语回应的深度对话的协作数据集,用于生成不同口语回应的回答。
- Incorporating Syntax and Semantics in Coreference Resolution with Heterogeneous Graph Attention Network
- Fan Jiang, Trevor Cohn
- TLDR: 我们提出了一个基于图的神经编码器,用于在句法和语义结构上结合语义和句法的句法和句法的句法。
- Context Tracking Network: Graph-based Context Modeling for Implicit Discourse Relation Recognition
- Yingxue Zhang, Fandong Meng, Peng Li, Ping Jian, Jie Zhou
- TLDR: 我们提出了一种基于图的基于背景的主题跟踪网络(CT-Net)来建模和解释IDRR。
- Improving Neural RST Parsing Model with Silver Agreement Subtrees
- Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, Masaaki Nagata
- TLDR: 我们提出了一种用于RL的RL模型的新型方法,通过利用白金数据,即自动编码的白金数据,从一个不标注的集上生成大尺度的白金数据。
- RST Parsing from Scratch
- Thanh-Tung Nguyen, Xuan-Phi Nguyen, Shafiq Joty, Xiaoli Li
- TLDR: 我们提出了一个新颖的文件级的语言级的语言解析的理论,用于解决语言建模中语义解析的理论。
- Did they answer? Subjective acts and intents in conversational discourse
- Elisa Ferracane, Greg Durrett, Junyi Jessy Li, Katrin Erk
- TLDR: 我们提出了第一个用于多语义语言对话的语言数据集,它可以作为语言政策的解释。
- Evaluating the Impact of a Hierarchical Discourse Representation on Entity Coreference Resolution Performance
- Sopan Khosla, James Fiacco, Carolyn Rosé
- TLDR: 我们使用一个自动建模的词典梯度来解决词典追踪问题。
- Bridging Resolution: Making Sense of the State of the Art
- Hideo Kobayashi, Vincent Ng
- TLDR: 我们提出了一种基于规则的多任务学习方法,它可以提高MTL模型的性能。
- Explicitly Modeling Syntax in Language Models with Incremental Parsing and a Dynamic Oracle
- Yikang Shen, Shawn Tan, Alessandro Sordoni, Siva Reddy, Aaron Courville
- TLDR: 我们提出了一个语法感知的语言模型,它可以从语法中学习语法,并能从语法中学习语法。
- Revisiting the Weaknesses of Reinforcement Learning for Neural Machine Translation
- Samuel Kiegeland, Julia Kreutzer
- TLDR: 我们重新审视了梯度算法的理论,并表明,它们在NMT中的表现良好。
- Learning to Organize a Bag of Words into Sentences with Neural Networks: An Empirical Study
- Chongyang Tao, Shen Gao, Juntao Li, Yansong Feng, Dongyan Zhao, Rui Yan
- TLDR: 我们通过对几个代表的神经模型进行详细的比较,从一个包的词中学习句法。
- Mask Attention Networks: Rethinking and Strengthen Transformer
- Zhihao Fan, Yeyun Gong, Dayiheng Liu, Zhongyu Wei, Siyuan Wang, Jian Jiao, Nan Duan, Ruofei Zhang, Xuanjing Huang
- TLDR: 我们提出了一种用于文本表征学习的动态动态控制的注意力网络。
- ERNIE-Gram: Pre-Training with Explicitly N-Gram Masked Language Modeling for Natural Language Understanding
- Dongling Xiao, Yu-Kun Li, Han Zhang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: 我们提出了一种基于符号的N字符掩码方法,用于在预训练时更好地表示语言知识。
- Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese Pre-trained Language Models
- Yuxuan Lai, Yijia Liu, Yansong Feng, Songfang Huang, Dongyan Zhao
- TLDR: 我们提出了一种用于汉语言的元学习的新元框架,它明确地结合了字符表征和句法表征,可以建句建模出多樣本的句法。
- Modeling Event Plausibility with Consistent Conceptual Abstraction
- Ian Porada, Kaheer Suleman, Adam Trischler, Jackie Chi Kit Cheung
- TLDR: 我们表明,基于变换的可信性模型与人类的可信性判断相反。
- UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual Embeddings Using the Unified Medical Language System Metathesaurus
- George Michalopoulos, Yuanxin Wang, Hussam Kaka, Helen Chen, Alexander Wong
- TLDR: 我们提出了UmlsBERT,一个用于临床语言理解任务的上下文嵌入模型,它可以从上下文中编码临床领域的知识,并比现有的模型更好。
- Field Embedding: A Unified Grain-Based Framework for Word Representation
- Junjie Luo, Xi Chen, Jichao Sun, Yuejia Xiang, Ningyu Zhang, Xiang Wan
- TLDR: 本文提出了一个框架,用于学习词嵌入和尺度嵌入的结合。
- MelBERT: Metaphor Detection via Contextualized Late Interaction using Metaphorical Identification Theories
- Minjin Choi, Sunkyung Lee, Eunseong Choi, Heesoo Park, Junhyuk Lee, Dongwon Lee, Jongwuk Lee
- TLDR: 我们提出了一种用于句法表征的新的元标法检测模型。
- Non-Parametric Few-Shot Learning for Word Sense Disambiguation
- Howard Chen, Mengzhou Xia, Danqi Chen
- TLDR: 我们提出了MetricWSD,一种非参数的少樣本学习方法来解决词汇分布的偏差问题。
- Why Do Document-Level Polarity Classifiers Fail?
- Karen Martins, Pedro O.S Vaz-de-Melo, Rodrygo Santos
- TLDR: 我们提出了一种用于衡量和量化批评的理论来描述,描述和衡量批评的一般意义。
- A Unified Span-Based Approach for Opinion Mining with Syntactic Constituents
- Qingrong Xia, Bo Zhang, Rui Wang, Zhenghua Li, Yue Zhang, Fei Huang, Luo Si, Min Zhang
- TLDR: 我们提出了一种基于语义构成的统一的上下文建模方法,用于从头到尾的OM设置中解决语义建模问题。
- Target-specified Sequence Labeling with Multi-head Self-attention for Target-oriented Opinion Words Extraction
- Yuhao Feng, Yanghui Rao, Yuyao Tang, Ninghua Wang, He Liu
- TLDR: 我们提出了目标导向的句法标签,用于TOWE,它可以同时使用目标导向的句法标签和多头自我关注。
- Does syntax matter? A strong baseline for Aspect-based Sentiment Analysis with RoBERTa
- Junqi Dai, Hang Yan, Tianxiang Sun, Pengfei Liu, Xipeng Qiu
- TLDR: 我们首次比较了从PTM中引入的Trees与其他流行的模型相比的优势。
- Domain Divergences: A Survey and Empirical Analysis
- Abhinav Ramesh Kashyap, Devamanyu Hazarika, Min-Yen Kan, Roger Zimmermann
- TLDR: 我们提出了一个用于NLP应用的DNN的分类法,并表明,信息论和高阶衡量在信息论上表现良好。
- Target-Aware Data Augmentation for Stance Detection
- Yingjie Li, Cornelia Caragea
- TLDR: 我们提出了一种用于stance检测的新型数据增强方法,用于生成具有目标和标签信息的句法。
- End-to-end ASR to jointly predict transcriptions and linguistic annotations
- Motoi Omachi, Yuya Fujita, Shinji Watanabe, Matthew Wiesner
- TLDR: 我们提出了一种基于序列到序列的语音识别(ASR)的语音转换方法,可以同时翻译和注释语音,同时生成高质量的语音译解和语言标注。
- Source and Target Bidirectional Knowledge Distillation for End-to-end Speech Translation
- Hirofumi Inaguma, Tatsuya Kawahara, Shinji Watanabe
- TLDR: 我们提出了从目标到输出的NMT模型的上下文知识提炼。
- Searchable Hidden Intermediates for End-to-End Models of Decomposable Sequence Tasks
- Siddharth Dalmia, Brian Yan, Vikas Raunak, Florian Metze, Shinji Watanabe
- TLDR: 我们提出了一个用于语音翻译的多表征模型,该模型利用了上下文模型的组成性,可以从上下文模型中学习隐藏的表示。
- SPLAT: Speech-Language Joint Pre-Training for Spoken Language Understanding
- Yu-An Chung, Chenguang Zhu, Michael Zeng
- TLDR: 我们提出了一个用于SLU的半监督学习框架,用于联合训练语言模块。
- Worldly Wise (WoW) - Cross-Lingual Knowledge Fusion for Fact-based Visual Spoken-Question Answering
- Kiran Ramnath, Leda Sari, Mark Hasegawa-Johnson, Chang Yoo
- TLDR: 我们提出了一个新任务和一个合成的数据集,用于回答基于事实的视觉问题回答(FVSQA)。
- Align-Refine: Non-Autoregressive Speech Recognition via Iterative Realignment
- Ethan A. Chi, Julian Salazar, Katrin Kirchhoff
- TLDR: 我们提出了一种用于CTC的端到端Transformer,它从潜在的排列角度进行迭代迭代调整,以提高编码速度。
- Everything Has a Cause: Leveraging Causal Inference in Legal Text Analysis
- Xiao Liu, Da Yin, Yansong Feng, Yuting Wu, Dongyan Zhao
- TLDR: 我们提出了一个基于图的因果推理框架,它可以从事实描述中捕捉到因果关系的层次,并提供解释性,特别是在少樣本环境中。
- Counterfactual Supporting Facts Extraction for Explainable Medical Record Based Diagnosis with Graph Network
- Haoran Wu, Wei Chen, Shuang Xu, Bo Xu
- TLDR: 我们提出了一种基于基于电子医学记录的诊断的反事实的多樣本图支持事实提取方法。
- Personalized Response Generation via Generative Split Memory Network
- Yuwei Wu, Xuezhe Ma, Diyi Yang
- TLDR: 我们提出了一个用于回答问题的开放域,用于生成个性化的回答的主题。
- Towards Few-shot Fact-Checking via Perplexity
- Nayeon Lee, Yejin Bang, Andrea Madotto, Pascale Fung
- TLDR: 我们提出了一种新的基于知识的少樣本学习方法,用于事实验证。
- Active^2 Learning: Actively reducing redundancies in Active Learning methods for Sequence Tagging and Machine Translation
- Rishi Hazra, Parag Dutta, Shubham Gupta, Mohammed Abdul Qaathir, Ambedkar Dukkipati
- TLDR: 我们提出了一种基于主动学习的策略,它可以选择类似例子,但它们可能并不直接选择相同的例子,这些例子可能不会产生显著的成果。
- Generating An Optimal Interview Question Plan Using A Knowledge Graph And Integer Linear Programming
- Soham Datta, Prabir Mallick, Sangameshwar Patil, Indrajit Bhattacharya, Girish Palshikar
- TLDR: 我们提出了一个用于回答问题的回答系统,它可以帮助一个招聘者规划到一个合适的回答集。
- Model Extraction and Adversarial Transferability, Your BERT is Vulnerable!
- Xuanli He, Lingjuan Lyu, Lichao Sun, Qiongkai Xu
- TLDR: 我们首次展示了如何从BERT中提取一个可转移的模型,从而导致了攻击的可转移性。
- A Global Past-Future Early Exit Method for Accelerating Inference of Pre-trained Language Models
- Kaiyuan Liao, Yi Zhang, Xuancheng Ren, Qi Su, Xu Sun, Bin He
- TLDR: 我们提出了一种用于预测语言模型的未来预测方法,该方法从一个全域的角度来看待语言模型的未来信息。
- Masked Conditional Random Fields for Sequence Labeling
- Tianwen Wei, Jianwei Qi, Shenghuan He, Songtao Sun
- TLDR: 我们提出了一种用于序列标签的通用方法,它可以解决CRF的最先进的结果。
- Heterogeneous Graph Neural Networks for Concept Prerequisite Relation Learning in Educational Data
- Chenghao Jia, Yongliang Shen, Yechun Tang, Lu Sun, Weiming Lu
- TLDR: 我们提出了一种新的方法,称为CPRL,它结合了概念表征学习和概念对应关系学习的两项特征。
- Be Careful about Poisoned Word Embeddings: Exploring the Vulnerability of the Embedding Layers in NLP Models
- Wenkai Yang, Lei Li, Zhiyuan Zhang, Xuancheng Ren, Xu Sun, Bin He
- TLDR: 我们通过修改一个单词嵌入,从一个简单的例子中获得更好的结果。
- DA-Transformer: Distance-aware Transformer
- Chuhan Wu, Fangzhao Wu, Yongfeng Huang
- TLDR: 我们提出了一种基于距离感知的Transformer,可以利用真实的距离。
- ASAP: A Chinese Review Dataset Towards Aspect Category Sentiment Analysis and Rating Prediction
- Jiahao Bu, Lei Ren, Shuang Zheng, Yang Yang, Jingang Wang, Fuzheng Zhang, Wei Wu
- TLDR: 我们提出了一个用于ACSA和评价排名预测的联合模型,该模型在ACSA和评价排名预测方面的表现优于目前的基准。
- Are NLP Models really able to Solve Simple Math Word Problems?
- Arkil Patel, Satwik Bhattamishra, Navin Goyal
- TLDR: 我们表明,在没有回答问题的 MWP上,用简单的模型解决的MWPs比最先进的模型更难。
- WRIME: A New Dataset for Emotional Intensity Estimation with Subjective and Objective Annotations
- Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, Hajime Nagahara
- TLDR: 我们表明,当作者的情感强度与作者的目标相一致时,该作者的情感强度会更小。
- KPQA: A Metric for Generative Question Answering Using Keyphrase Weights
- Hwanhee Lee, Seunghyun Yoon, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Joongbo Shin, Kyomin Jung
- TLDR: 我们提出了一个用于评估GenQA的正则性指标,该指标与现有的指标相比有明显更高的准确性。
- StylePTB: A Compositional Benchmark for Fine-grained Controllable Text Style Transfer
- Yiwei Lyu, Paul Pu Liang, Hai Pham, Eduard Hovy, Barnabás Póczos, Ruslan Salakhutdinov, Louis-Philippe Morency
- TLDR: 我们提出了一个用于风格转移的大规模基准,并表明,在风格PTB中,风格PTB是一项挑战性的任务。
- Blow the Dog Whistle: A Chinese Dataset for Cant Understanding with Common Sense and World Knowledge
- Canwen Xu, Wangchunshu Zhou, Tao Ge, Ke Xu, Julian McAuley, Furu Wei
- TLDR: 我们提出了一个用于解决无法理解的任务的计算语言。
- COVID-19 Named Entity Recognition for Vietnamese
- Thinh Hung Truong, Mai Hoang Dao, Dat Quoc Nguyen
- TLDR: 我们提出了第一个用于英语的第一个用于COVID-19的中文分类数据集。
- Framing Unpacked: A Semi-Supervised Interpretable Multi-View Model of Media Frames
- Shima Khanehzar, Trevor Cohn, Gosia Mikolajczak, Andrew Turpin, Lea Frermann
- TLDR: 我们提出了一个用于新闻本文的半监督模型,它可以利用它来学习将事件和相关 actor嵌入到一个消息本文中,并利用它来学习使用它来表示本文的主题。
- Automatic Classification of Neutralization Techniques in the Narrative of Climate Change Scepticism
- Shraey Bhatia, Jey Han Lau, Timothy Baldwin
- TLDR: 我们通过使用社会科学来介绍气候变化的立场,并利用它来研究批评者的立场。
- Suicide Ideation Detection via Social and Temporal User Representations using Hyperbolic Learning
- Ramit Sawhney, Harshit Joshi, Rajiv Ratn Shah, Lucie Flek
- TLDR: 我们提出了一个框架,利用用户的心理背景和社交信息从用户邻近的网络中收集的情感信息,结合起来,用 Hyperbolic Graph Convolution Networks学习用户的心理情感 spectrum。
- WikiTalkEdit: A Dataset for modeling Editors’ behaviors on Wikipedia
- Kokil Jaidka, Andrea Ceolin, Iknoor Singh, Niyati Chhaya, Lyle Ungar
- TLDR: 我们介绍了WikiTalkEdit,一个用于在线合作和对话建模的百科百科数据集。
- The structure of online social networks modulates the rate of lexical change
- Jian Zhu, David Jurgens
- TLDR: 我们表明,网络结构决定了语义变化的深度,并表明网络结构在语义变化中的作用。
- Modeling Framing in Immigration Discourse on Social Media
- Julia Mendelsohn, Ceren Budak, David Jurgens
- TLDR: 我们通过使用一个监督的模型来检测和理解政策和政策的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题的主题。
- Modeling the Severity of Complaints in Social Media
- Mali Jin, Nikolaos Aletras
- TLDR: 我们首次研究了批评者的常见程度,并提出了一个用于预测批评程度的理论。
- What About the Precedent: An Information-Theoretic Analysis of Common Law
- Josef Valvoda, Tiago Pimentel, Niklas Stoehr, Ryan Cotterell, Simone Teufel
- TLDR: 我们首次从理论上比较了两个长期的理论观点,即Halsbury和Goodhart的观点,并表明,在某些情况下,Halsbury的观点比Goodhart的观点更准确。
- Introducing CAD: the Contextual Abuse Dataset
- Bertie Vidgen, Dong Nguyen, Helen Margetts, Patricia Rossini, Rebekah Tromble
- TLDR: 我们提出了一个用于多语种 Reddit的主题分类数据集,该数据集解决了以前的工作提出的几个限制。
- Lifelong Learning of Hate Speech Classification on Social Media
- Jing Qian, Hong Wang, Mai ElSherief, Xifeng Yan
- TLDR: 我们提出了终身学习,用于在网络上进行反恶性言词分类。
- Learning to Recognize Dialect Features
- Dorottya Demszky, Devyani Sharma, Jonathan Clark, Vinodkumar Prabhakaran, Jacob Eisenstein
- TLDR: 我们提出了一种用于语言特征检测的多任务学习方法,它可以用于学习语言特征,并展示了其在语言分类和语言性能方面的应用。
- It’s Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners
- Timo Schick, Hinrich Schütze
- TLDR: 我们表明,在没有参数 count的情况下,语言模型的性能可以得到与GPT-3一样的。
- Static Embeddings as Efficient Knowledge Bases?
- Philipp Dufter, Nora Kassner, Hinrich Schütze
- TLDR: 我们研究了在具有可解释性的句法的上下文中存储的事实知识。
- Highly Efficient Knowledge Graph Embedding Learning with Orthogonal Procrustes Analysis
- Xutan Peng, Guanyi Chen, Chenghua Lin, Mark Stevenson
- TLDR: 我们提出了一个简单的、高效的KGEs框架,可以减少训练时间和碳足迹的数量,同时生成竞争力的性能。
- Rethinking Network Pruning – under the Pre-train and Fine-tune Paradigm
- Dongkuan Xu, Ian En-Hsu Yen, Jinxi Zhao, Zhibin Xiao
- TLDR: 我们提出了一种知识感知的稀疏修剪过程,取得了与现有的理论相比更好的结果。
- Towards a Comprehensive Understanding and Accurate Evaluation of Societal Biases in Pre-Trained Transformers
- Andrew Silva, Pradyumna Tambwekar, Matthew Gombolay
- TLDR: 我们研究了在预先训练好的转换器中存在的性别和种族偏差,并表明,在这些转换器中,有偏见的程度与预先训练好的转换器相当。
- Detoxifying Language Models Risks Marginalizing Minority Voices
- Albert Xu, Eshaan Pathak, Eric Wallace, Suchin Gururangan, Maarten Sap, Dan Klein
- TLDR: 我们表明,通过使用一种替代的替代方法来进行有效的循環,导致的循環的穩定性与控制性之间的穩定性之间的 tension。
- HONEST: Measuring Hurtful Sentence Completion in Language Models
- Debora Nozza, Federico Bianchi, Dirk Hovy
- TLDR: 我们提出了一个衡量标准,用于衡量语言模型的负面句法完成情况的评分。
- EaSe: A Diagnostic Tool for VQA based on Answer Diversity
- Shailza Jolly, Sandro Pezzelle, Moin Nabi
- TLDR: 我们提出了EASE,一个简单的VQA诊断工具,它衡量了图像,问题样本的难度,并使用它来选择最有用的数据。
- DeCEMBERT: Learning from Noisy Instructional Videos via Dense Captions and Entropy Minimization
- Zineng Tang, Jie Lei, Mohit Bansal
- TLDR: 我们提出了一种改进的视频和语言预训练方法,它首先从视频帧中自动提取密集的区域标注,然后从视频帧中提取密集的区域标注,以提供更好的视频和语言 associations。
- Improving Generation and Evaluation of Visual Stories via Semantic Consistency
- Adyasha Maharana, Darryl Hannan, Mohit Bansal
- TLDR: 我们提出了一个用于生成图像的双语框架,用于生成图像的顺序和生成图像的上下文。
- Multilingual Multimodal Pre-training for Zero-Shot Cross-Lingual Transfer of Vision-Language Models
- Po-Yao Huang, Mandela Patrick, Junjie Hu, Graham Neubig, Florian Metze, Alexander Hauptmann
- TLDR: 我们提出了一种基于Transformer的多语种多模嵌入的模型,用于多语种多模嵌入的全语言学习。
- Video Question Answering with Phrases via Semantic Roles
- Arka Sadhu, Kan Chen, Ram Nevatia
- TLDR: 我们提出了VidQA,一个用于回答问题的回答词的替代词任务。
- From Masked Language Modeling to Translation: Non-English Auxiliary Tasks Improve Zero-shot Spoken Language Understanding
- Rob van der Goot, Ibrahim Sharaf, Aizhan Imankulova, Ahmet Üstün, Marija Stepanović, Alan Ramponi, Siti Oryza Khairunnisa, Mamoru Komachi, Barbara Plank
- TLDR: 我们提出了xSID,一个跨语言(x) Slot和意图识别的统一学习方法。
- WEC: Deriving a Large-scale Cross-document Event Coreference dataset from Wikipedia
- Alon Eirew, Arie Cattan, Ido Dagan
- TLDR: 我们提出了Wikipedia Event Coreference(WEC),一个高效的跨文件事件追踪方法,用于从百科中获得一个大规模的跨文件事件追踪数据集。
- Challenging distributional models with a conceptual network of philosophical terms
- Yvette Oortwijn, Jelke Bloem, Pia Sommerauer, Francois Meyer, Wei Zhou, Antske Fokkens
- TLDR: 我们通过使用分布语义模型来分析哲学数据的现实应用案例。
- KILT: a Benchmark for Knowledge Intensive Language Tasks
- Fabio Petroni, Aleksandra Piktus, Angela Fan, Patrick Lewis, Majid Yazdani, Nicola De Cao, James Thorne, Yacine Jernite, Vladimir Karpukhin, Jean Maillard, Vassilis Plachouras, Tim Rocktäschel, Sebastian Riedel
- TLDR: 我们提出了一个知识密集的语言任务的基准,用于评估知识密集的语言任务的基准。
- A Survey on Recent Approaches for Natural Language Processing in Low-Resource Scenarios
- Michael A. Hedderich, Lukas Lange, Heike Adel, Jannik Strötgen, Dietrich Klakow
- TLDR: 我们表明,在低资源环境中学习的神经网络可以被用来学习稀疏的数据,而不需要额外的标签数据。
- Temporal Knowledge Graph Completion using a Linear Temporal Regularizer and Multivector Embeddings
- Chengjin Xu, Yung-Yu Chen, Mojtaba Nayyeri, Jens Lehmann
- TLDR: 我们提出了一种基于时间感知的知识图嵌入方法,用于知识图的完成。
- UDALM: Unsupervised Domain Adaptation through Language Modeling
- Constantinos Karouzos, Georgios Paraskevopoulos, Alexandros Potamianos
- TLDR: 我们使用一个混合分类和 Masked Language Model损失的微调程序来训练一个能够适应特定目标分布的语言模型。
- Beyond Black & White: Leveraging Annotator Disagreement via Soft-Label Multi-Task Learning
- Tommaso Fornaciari, Alexandra Uma, Silviu Paun, Barbara Plank, Dirk Hovy, Massimo Poesio
- TLDR: 我们提出了一种用于多任务学习的新型方法,用于将软标签作为辅助任务纳入多任务学习中。
- Clustering-based Inference for Biomedical Entity Linking
- Rico Angell, Nicholas Monath, Sunil Mohan, Nishant Yadav, Andrew McCallum
- TLDR: 我们提出了一个用于知识库的名称链接的模型,可以直接从知识库中提取名称,也可以通过聚类和联合进行链接预测。
- Variance-reduced First-order Meta-learning for Natural Language Processing Tasks
- Lingxiao Wang, Kevin Huang, Tengyu Ma, Quanquan Gu, Jing Huang
- TLDR: 我们提出了一种用于NLP应用的变异-减少的第一个order元学习算法。
- Diversity-Aware Batch Active Learning for Dependency Parsing
- Tianze Shi, Adrian Benton, Igor Malioutov, Ozan İrsoy
- TLDR: 我们提出了一种基于梯度过程的随机主动学习(AL)的新型依赖性解析器,它可以提高在样本上使用DPP的多样性。
- How many data points is a prompt worth?
- Teven Le Scao, Alexander Rush
- TLDR: 我们通过严格测试随机和随机的随机追随的随机追随的随机追随的随机追随的随机追随的随机追随的随机追随的随机追随的随机追随的随机追随的随机追随的追随追随的追随追随的追随追随的追随追随的追随追随的追随追随的追随追随的追随追随追随的追随追随追随追随的追随追随追随追随追随追随追随追随追随追随追随追随追随追随追随追随
- Can Latent Alignments Improve Autoregressive Machine Translation?
- Adi Haviv, Lior Vassertail, Omer Levy
- TLDR: 我们表明,潜在的对应目标与教师的强制不相等。
- Smoothing and Shrinking the Sparse Seq2Seq Search Space
- Ben Peters, André F. T. Martins
- TLDR: 我们表明,在多语种翻译中使用高斯损失模型的例子,可以解决从序列到序列的模型的依赖性。
- Unified Pre-training for Program Understanding and Generation
- Wasi Ahmad, Saikat Chakraborty, Baishakhi Ray, Kai-Wei Chang
- TLDR: 本文介绍了PLBART,一个序列到序列模型,用于编程和语言理解和生成任务。
- Hyperparameter-free Continuous Learning for Domain Classification in Natural Language Understanding
- Ting Hua, Yilin Shen, Changsheng Zhao, Yen-Chang Hsu, Hongxia Jin
- TLDR: 我们提出了一个基于超参数的持续学习模型,可以从文本数据中获得高性能。
- On the Embeddings of Variables in Recurrent Neural Networks for Source Code
- Nadezhda Chirkova
- TLDR: 我们提出了动态嵌入,一个用于动态表征的循環机制,它可以提高编码和解决任务的性能。
- Cross-Lingual Word Embedding Refinement by \ell_{1} Norm Optimisation
- Xutan Peng, Chenghua Lin, Mark Stevenson
- TLDR: 本文提出了一个简单的后处理步骤来改进CLWEs。
- Semantic Frame Forecast
- Chieh-Yang Huang, Ting-Hao Huang
- TLDR: 我们提出了语义框架预测,这是一个用于预测句法的句法会出现在10、100、甚至1,000句的句法上进行的任务。
- MUSER: MUltimodal Stress detection using Emotion Recognition as an Auxiliary Task
- Yiqun Yao, Michalis Papakostas, Mihai Burzo, Mohamed Abouelenien, Rada Mihalcea
- TLDR: 我们提出了一种基于变换器的多任务学习算法和一种新的多任务学习算法。
- Learning to Decompose and Organize Complex Tasks
- Yi Zhang, Sujay Kumar Jauhar, Julia Kiseleva, Ryen White, Dan Roth
- TLDR: 我们提出了一种新的方法,通过从无标记的文本中提取高依赖性图来表示单个任务和其关系。
- Continual Learning for Text Classification with Information Disentanglement Based Regularization
- Yufan Huang, Yanzhe Zhang, Jiaao Chen, Xuezhi Wang, Diyi Yang
- TLDR: 我们提出了一种信息分解的正则化方法,用于持续文本分类任务的持续学习。
- Learning from Executions for Semantic Parsing
- Bailin Wang, Mirella Lapata, Ivan Titov
- TLDR: 我们提出了一个用于半监督学习的理论,并提出了一个用于非监督学习的理论。
- Learning to Synthesize Data for Semantic Parsing
- Bailin Wang, Wenpeng Yin, Xi Victoria Lin, Caiming Xiong
- TLDR: 我们提出了一个生成模型,它能从程序的构成中学习,并利用它来生成更多样的数据。
- Edge: Enriching Knowledge Graph Embeddings with External Text
- Saed Rezayi, Handong Zhao, Sungchul Kim, Ryan Rossi, Nedim Lipka, Sheng Li
- TLDR: 我们提出了知识图的增强和嵌入框架,并提出了一个知识图的嵌入框架。
- FLIN: A Flexible Natural Language Interface for Web Navigation
- Sahisnu Mazumder, Oriana Riva
- TLDR: 我们提出了FLIN,一个用于访问网络的自然语言界面,它可以随时调整访问的顺序,以适应不同网站的交互式界面。
- Game-theoretic Vocabulary Selection via the Shapley Value and Banzhaf Index
- Roma Patel, Marta Garnelo, Ian Gemp, Chris Dyer, Yoram Bachrach
- TLDR: 我们提出了一种基于游戏的词典选择方法,以衡量每个成员在完成一个共同任务时的重要性。
- Incorporating External Knowledge to Enhance Tabular Reasoning
- J. Neeraja, Vivek Gupta, Vivek Srikumar
- TLDR: 我们通过使用一个可解释的表征来解释表格信息,通过对表征进行简单的修改来提高表征的推理性能。
- Compositional Generalization for Neural Semantic Parsing via Span-level Supervised Attention
- Pengcheng Yin, Hao Fang, Graham Neubig, Adam Pauls, Emmanouil Antonios Platanios, Yu Su, Sam Thomson, Jacob Andreas
- TLDR: 我们使用词层次的权重对语义解析进行监督,以提高语义解析器的构成性泛化。
- Domain Adaptation for Arabic Cross-Domain and Cross-Dialect Sentiment Analysis from Contextualized Word Embedding
- Abdellah El Mekki, Abdelkader El Mahdaouy, Ismail Berrada, Ahmed Khoumsi
- TLDR: 我们提出了一种用于跨域和跨语言情感分析的非监督领域适应方法。
- Multi-task Learning of Negation and Speculation for Targeted Sentiment Classification
- Andrew Moore, Jeremy Barnes
- TLDR: 我们提出了一种用于语义和语义词典的多任务学习方法,用于解决语义和语义词典的相關性问题。
- A Disentangled Adversarial Neural Topic Model for Separating Opinions from Plots in User Reviews
- Gabriele Pergola, Lin Gui, Yulan He
- TLDR: 我们提出了一个用于批评的主题模型,它可以自动分离批评主题和相反的主题。
- Graph Ensemble Learning over Multiple Dependency Trees for Aspect-level Sentiment Classification
- Xiaochen Hou, Peng Qi, Guangtao Wang, Rex Ying, Jing Huang, Xiaodong He, Bowen Zhou
- TLDR: 我们提出了一个简单的、高效的图上集成技术,用于使用预测数据的不同解析器来结合依赖关系。
- Emotion-Infused Models for Explainable Psychological Stress Detection
- Elsbeth Turcan, Smaranda Muresan, Kathleen McKeown
- TLDR: 我们使用情感驱动的模型来检测心理状态,并表明,情绪和情绪的相互作用。
- Aspect-based Sentiment Analysis with Type-aware Graph Convolutional Networks and Layer Ensemble
- Yuanhe Tian, Guimin Chen, Yan Song
- TLDR: 我们提出了一种基于图卷积网络的新型基于图的情感分析方法,该方法明确地使用依赖性类型来解决ABSA的一般依赖性。
- Supertagging-based Parsing with Linear Context-free Rewriting Systems
- Thomas Ruprecht, Richard Mörbitz
- TLDR: 我们提出了第一个基于超文本的非语义化编码器,它使用了神经分类器和比以前的LSTM-based解析器更快。
- Outside Computation with Superior Functions
- Parker Riley, Daniel Gildea
- TLDR: 一个一般的算法,在最优函数框架中提出时,会使SAT的一般时间算法被推断为一个非参数时间算法。
- Learning Syntax from Naturally-Occurring Bracketings
- Tianze Shi, Ozan İrsoy, Igor Malioutov, Lillian Lee
- TLDR: 我们提出了一个用于学习语义结构的独立的梯度损失。
- Bot-Adversarial Dialogue for Safe Conversational Agents
- Jing Xu, Da Ju, Margaret Li, Y-Lan Boureau, Jason Weston, Emily Dinan
- TLDR: 我们提出了一种用于安全对话代理的新型方法,该方法通过从生成模型中 “投化”安全来训练一个安全的对话代理。
- Non-Autoregressive Semantic Parsing for Compositional Task-Oriented Dialog
- Arun Babu, Akshat Shrivastava, Armen Aghajanyan, Ahmed Aly, Angela Fan, Marjan Ghazvininejad
- TLDR: 我们提出了一种基于序列到序列的神经网络的非监督的语义解析方法,它可以从序列到序列的顺序中得到更深的表示。
- Example-Driven Intent Prediction with Observers
- Shikib Mehri, Mihail Eric
- TLDR: 我们提出了两种方法来改进句法相似性模型的概括性,并提出了一种用于解决句法相似性问题的例子导向训练方法。
- Imperfect also Deserves Reward: Multi-Level and Sequential Reward Modeling for Better Dialog Management
- Zhengxu Hou, Bang Liu, Ruihui Zhao, Zijing Ou, Yafei Liu, Xi Chen, Yefeng Zheng
- TLDR: 我们提出了一种基于强化学习的对话管理模块的多层次奖励建模方法,它将奖励纳入一个三层次层次结构:领域,行动,和 slot。
- Action-Based Conversations Dataset: A Corpus for Building More In-Depth Task-Oriented Dialogue Systems
- Derek Chen, Howard Chen, Yi Yang, Alexander Lin, Zhou Yu
- TLDR: 我们提出了一个用于改善服务态度的行动导向对话数据集,该数据集包含超过10K的人类到人的对话。
- Controlling Dialogue Generation with Semantic Exemplars
- Prakhar Gupta, Jeffrey Bigham, Yulia Tsvetkov, Amy Pavel
- TLDR: 我们提出了一种基于典型回答的对话生成模型,它使用典型回答的语义框架来指导对话生成。
- COIL: Revisit Exact Lexical Match in Information Retrieval with Contextualized Inverted List
- Luyu Gao, Zhuyun Dai, Jamie Callan
- TLDR: 本文提出了COIL,一个基于上下文的上下文匹配的语义检索架构,该架构通过将上下文的上下文符号表征与上下文表征结合起来,以实现准确匹配。
- X-Class: Text Classification with Extremely Weak Supervision
- Zihan Wang, Dheeraj Mekala, Jingbo Shang
- TLDR: 我们提出了一个用于文本分类的X-Class框架,用于从单个词中估计分类的表征。
- Fine-tuning Encoders for Improved Monolingual and Zero-shot Polylingual Neural Topic Modeling
- Aaron Mueller, Mark Dredze
- TLDR: 我们提出了几种用于微调的词嵌入方法,用于改善单语和零樣本的多语义词建模。
- Exploring the Relationship Between Algorithm Performance, Vocabulary, and Run-Time in Text Classification
- Wilson Fearn, Orion Weller, Kevin Seppi
- TLDR: 我们通过对使用预处理技术进行严格的比较来分析使用预处理技术的语言大小、模型性能和模型运行时间。
- Faithfully Explainable Recommendation via Neural Logic Reasoning
- Yaxin Zhu, Yikun Xian, Zuohui Fu, Gerard de Melo, Yongfeng Zhang
- TLDR: 我们提出了一个用于解释推荐的逻辑推理方法,该方法通过将可解释的逻辑规则纳入可解释的逻辑规则,以帮助解释生成。
- You Sound Like Someone Who Watches Drama Movies: Towards Predicting Movie Preferences from Conversational Interactions
- Sergey Volokhin, Joyce Ho, Oleg Rokhlenko, Eugene Agichtein
- TLDR: 我们提出了一种基于对话中用户情感的对话式推荐的新方法,该方法通过利用对话内容和外部数据来提高预测用户对新电影的排名的准确性。
- Reading and Acting while Blindfolded: The Need for Semantics in Text Game Agents
- Shunyu Yao, Karthik Narasimhan, Matthew Hausknecht
- TLDR: 我们提出了一个基于动态编码器的游戏的语义理解的模型,该模型在许多游戏中的表现优于现有的模型。
- SOrT-ing VQA Models : Contrastive Gradient Learning for Improved Consistency
- Sameer Dharur, Purva Tendulkar, Dhruv Batra, Devi Parikh, Ramprasaath R. Selvaraju
- TLDR: 我们提出了一种基于梯度的可解释性方法来解决视觉问题回答问题,并使用它来衡量VQA模型的回答能力。
- Semi-Supervised Policy Initialization for Playing Games with Language Hints
- Tsu-Jui Fu, William Yang Wang
- TLDR: 我们提出了半监督初始化(SSI),允许代理从各种可能的潜在的先验来学习,以获得额外的奖励。
- Revisiting Document Representations for Large-Scale Zero-Shot Learning
- Jihyung Kil, Wei-Lun Chao
- TLDR: 我们提出了一个用于生成百科文档的半自动方法,它利用了上下文头部和上下文尾部的结构,以生成具有语义表示的句法。
- Negative language transfer in learner English: A new dataset
- Leticia Farias Wanderley, Nicole Zhao, Carrie Demmans Epp
- TLDR: 本文介绍了一个用于语言转移的语言学习数据集,该数据集包含了在学习者错误中标注的错误原因,并提供了可信的错误来源。
- SentSim: Crosslingual Semantic Evaluation of Machine Translation
- Yurun Song, Junchen Zhao, Lucia Specia
- TLDR: 我们提出了一种基于基于BERTScore和Word Mover的非监督的多语言翻译的替代方案,它比传统的MT-reference translation表现优于。
- Quality Estimation for Image Captions Based on Large-scale Human Evaluations
- Tomer Levinboim, Ashish V. Thapliyal, Piyush Sharma, Radu Soricut
- TLDR: 我们提出了一个用于图像标注质量的质量估计任务,该任务旨在从一个人类的角度来学习质量评估。
- CaSiNo: A Corpus of Campsite Negotiation Dialogues for Automatic Negotiation Systems
- Kushal Chawla, Jaysa Ramirez, Rene Clever, Gale Lucas, Jonathan May, Jonathan Gratch
- TLDR: 我们提出了CaSiNo:一个用于解决多任务学习问题的新单词库。
- News Headline Grouping as a Challenging NLU Task
- Philippe Laban, Lucas Bandarkar, Marti A. Hearst
- TLDR: 我们提出了一个用于HLG任务的非监督的Headline Generator Swap模型,该模型在3F-1上实现了最先进的结果。
- Olá, Bonjour, Salve! XFORMAL: A Benchmark for Multilingual Formality Style Transfer
- Eleftheria Briakou, Di Lu, Ke Zhang, Joel Tetreault
- TLDR: 通过使用XFORMAL,从一个简单的文本中提取风格,以实现多语言风格转移。
- Grouping Words with Semantic Diversity
- Karine Chubarian, Abdul Rafae Khan, Anastasios Sidiropoulos, Jia Xu
- TLDR: 我们提出了一种基于语义多样性的神经网络的概括方法,它可以从语义的多样性中学习概括。
- Noise Stability Regularization for Improving BERT Fine-tuning
- Hang Hua, Xingjian Li, Dejing Dou, Chengzhong Xu, Jiebo Luo
- TLDR: 我们提出了一种用于NLP任务的正则化方法,该方法可以提高微调的性能。
- FlowPrior: Learning Expressive Priors for Latent Variable Sentence Models
- Xiaoan Ding, Kevin Gimpel
- TLDR: 我们提出了一个用于VAE的VAE的模型,该模型在语言建模任务中表现良好。
- HTCInfoMax: A Global Model for Hierarchical Text Classification via Information Maximization
- Zhongfen Deng, Hao Peng, Dongxiao He, Jianxin Li, Philip Yu
- TLDR: 我们提出了一个用于层次文本分类的InfoMax框架,它可以从单个文本样本中学习标签,并通过使用标签前向匹配来解决标签不平衡问题。
- Knowledge Guided Metric Learning for Few-Shot Text Classification
- Dianbo Sui, Yubo Chen, Binjie Mao, Delai Qiu, Kang Liu, Jun Zhao
- TLDR: 我们提出了一个用于少樣本学习的参数生成网络,它可以利用外部知识来生成不同的指标。
- Ensemble of MRR and NDCG models for Visual Dialog
- Idan Schwartz
- TLDR: 我们提出了一种基于二步非参数排名的非监督学习方法,可以结合强大的MRR和NDCG模型。
- Supervised Neural Clustering via Latent Structured Output Learning: Application to Question Intents
- Iryna Haponchyk, Alessandro Moschitti
- TLDR: 我们设计了用于强化聚类的神经网络,以实现最先进的聚类结果。
- ConVEx: Data-Efficient and Few-Shot Slot Labeling
- Matthew Henderson, Ivan Vulić
- TLDR: 我们提出了ConVEx(Conversational Value Extractor),一种高效的预训练和微调神经方法用于插值标签任务。
- CREAD: Combined Resolution of Ellipses and Anaphora in Dialogues
- Bo-Hsiang Tseng, Shruti Bhargava, Jiarui Lu, Joel Ruben Antony Moniz, Dhivya Piraviperumal, Lin Li, Hong Yu
- TLDR: 我们提出了一个用于多变量对话理解的联合学习框架,用于解决对话中依赖的依赖关系。
- Knowledge-Driven Slot Constraints for Goal-Oriented Dialogue Systems
- Piyawat Lertvittayakumjorn, Daniele Bonadiman, Saab Mansour
- TLDR: 我们提出了一个用于多任务监督的限制性检测任务,同时提供了经验上的基准和基于基准的基准。
- Clipping Loops for Sample-Efficient Dialogue Policy Optimisation
- Yen-Chen Wu, Carl Edward Rasmussen
- TLDR: 我们提出了一种用于对话代理的loop-clipping策略优化(LCPO)方法,用于从对话中自动剪断使用不相关的对话。
- Integrating Lexical Information into Entity Neighbourhood Representations for Relation Prediction
- Ian Wood, Mark Johnson, Stephen Wan
- TLDR: 我们提出了一个扩展的OpenKi,它可以从单个文件中提取出关系嵌入,并利用它们来预测知识图的归纳。
- Noisy-Labeled NER with Confidence Estimation
- Kun Liu, Yao Fu, Chuanqi Tan, Mosha Chen, Ningyu Zhang, Songfang Huang, Sheng Gao
- TLDR: 我们提出了一种基于區域和全域独立假设的估计方法,用于评估NER的信心度。
- TABBIE: Pretrained Representations of Tabular Data
- Hiroshi Iida, Dung Thai, Varun Manjunatha, Mohit Iyyer
- TLDR: 我们提出了一个简单的预训练目标,用于从表数据中学习表的表嵌。
- Better Feature Integration for Named Entity Recognition
- Lu Xu, Zhanming Jie, Wei Lu, Lidong Bing
- TLDR: 我们提出了一个简单的和穩定的解决方案,用于将LSTM和图形神经网络结合起来,以实现更好的NER模型。
- ZS-BERT: Towards Zero-Shot Relation Extraction with Attribute Representation Learning
- Chih-Yao Chen, Cheng-Te Li
- TLDR: 我们提出了一种基于文本描述的多任务学习模型,用于从零樣本中提取知识。
- Graph Convolutional Networks for Event Causality Identification with Rich Document-level Structures
- Minh Tran Phu, Thien Huu Nguyen
- TLDR: 我们提出了一个基于图的模型,用于生成基于图的互动图,用于解释事件的因果关系。
- A Context-Dependent Gated Module for Incorporating Symbolic Semantics into Event Coreference Resolution
- Tuan Lai, Heng Ji, Trung Bui, Quan Hung Tran, Franck Dernoncourt, Walter Chang
- TLDR: 我们提出了一种基于上下文特征的图像模块,可以适应性地控制信息流从输入的 symbolic特征流向。
- Multi-Style Transfer with Discriminative Feedback on Disjoint Corpus
- Navita Goyal, Balaji Vasan Srinivasan, Anandhavelu N, Abhilasha Sancheti
- TLDR: 我们使用一个用于风格转移的转换器-解码器架构,从一个通用的句法中提取风格,同时保留文本的输出。
- FUDGE: Controlled Text Generation With Future Discriminators
- Kevin Yang, Dan Klein
- TLDR: 我们提出了FuDGE,一种用于生成文本的可变和模块化方法。
- Controllable Text Simplification with Explicit Paraphrasing
- Mounica Maddela, Fernando Alva-Manchego, Wei Xu
- TLDR: 我们提出了一种新颖的混合方法,利用了语言动力学的规则来进行编码和引用,并结合它们来生成多样化的修改风格。
- Knowledge Graph Based Synthetic Corpus Generation for Knowledge-Enhanced Language Model Pre-training
- Oshin Agarwal, Heming Ge, Siamak Shakeri, Rami Al-Rfou
- TLDR: 我们通过使用Wikidata来翻译知识图(KG)的全域知识图(Wikidata)的全域知识图(KG)的全域表征,以实现知识图的全域表征。
- Choose Your Own Adventure: Paired Suggestions in Collaborative Writing for Evaluating Story Generation Models
- Elizabeth Clark, Noah A. Smith
- TLDR: 我们提出了选择你的自理旅行,这是一个合作式评价的框架,用于评价故事生成模型的性能。
- InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language Model Pre-Training
- Zewen Chi, Li Dong, Furu Wei, Nan Yang, Saksham Singhal, Wenhui Wang, Xia Song, Xian-Ling Mao, Heyan Huang, Ming Zhou
- TLDR: 我们提出了一个信息论框架,用于在跨语言学习中进行对比性学习。
- Context-Interactive Pre-Training for Document Machine Translation
- Pengcheng Yang, Pei Zhang, Boxing Chen, Jun Xie, Weihua Luo
- TLDR: 我们提出了一种用于翻译的上下文翻译的上下文依赖性模型,该模型通过上下文的上下文依赖性生成句法,以捕捉上下文依赖性,并利用上下文依赖性来改进句法翻译。
- Code-Mixing on Sesame Street: Dawn of the Adversarial Polyglots
- Samson Tan, Shafiq Joty
- TLDR: 我们提出了一种用于多语言建模的黑盒对抗性攻击,它可以提高对XNLI的穩定性,同时保留了语义上的穩定性。
- X-METRA-ADA: Cross-lingual Meta-Transfer learning Adaptation to Natural Language Understanding and Question Answering
- Meryem M’hamdi, Doo Soon Kim, Franck Dernoncourt, Trung Bui, Xiang Ren, Jonathan May
- TLDR: 我们提出了X-METRA-ADA,一个跨语言的MEta-TRAnsfer学习方案,用于NLU。
- Explicit Alignment Objectives for Multilingual Bidirectional Encoders
- Junjie Hu, Melvin Johnson, Orhan Firat, Aditya Siddhant, Graham Neubig
- TLDR: 我们提出了一种新的多语种嵌入方法,用于学习跨语言的多语种编码器。
- Cross-lingual Cross-modal Pretraining for Multimodal Retrieval
- Hongliang Fei, Tan Yu, Ping Li
- TLDR: 我们提出了一种新的跨语言跨模态学习方法,用于学习匹配的图像和相关标注的图像和标注的图像。
- Wikipedia Entities as Rendezvous across Languages: Grounding Multilingual Language Models by Predicting Wikipedia Hyperlinks
- Iacer Calixto, Alessandro Raganato, Tommaso Pasini
- TLDR: 我们提出了一个用于解释实体的语言独立的实体预测任务,它可以从单个词表征中获得新的词语语表示,并通过使用一个共同的词语来解决词语表征的障碍。
- multiPRover: Generating Multiple Proofs for Improved Interpretability in Rule Reasoning
- Swarnadeep Saha, Prateek Yadav, Mohit Bansal
- TLDR: 我们提出了一种用于解释自然语言规则的建模方法,该方法通过多标签分类和条件来生成一个集的证据。
- Adaptable and Interpretable Neural MemoryOver Symbolic Knowledge
- Pat Verga, Haitian Sun, Livio Baldini Soares, William Cohen
- TLDR: 我们提出了一个用于知识性问题回答任务的神经语言模型,它可以被修改,以提高知识性知识的质量。
- CLEVR_HYP: A Challenge Dataset and Baselines for Visual Question Answering with Hypothetical Actions over Images
- Shailaja Keyur Sampat, Akshay Kumar, Yezhou Yang, Chitta Baral
- TLDR: 我们提出了一个基于CLEVR的视觉-语言问题回答任务的框架。
- Refining Targeted Syntactic Evaluation of Language Models
- Benjamin Newman, Kai-Siang Ang, Julia Gong, John Hewitt
- TLDR: 我们提出了一个用于语法学习的语义学习的语义学习评估方法,该方法评估了语义句法学习的语义学习的一般性。
- Universal Adversarial Attacks with Natural Triggers for Text Classification
- Liwei Song, Xinwei Yu, Hsuan-Tung Peng, Karthik Narasimhan
- TLDR: 我们提出了一种基于梯度的搜索方法,以提高分类器的预测准确性。
- QuadrupletBERT: An Efficient Model For Embedding-Based Large-Scale Retrieval
- Peiyang Liu, Sen Wang, Xi Wang, Wei Ye, Shikun Zhang
- TLDR: 我们提出了一个用于信息检索的GAN模型,用于高效的检索。
- Dynamically Disentangling Social Bias from Task-Oriented Representations with Adversarial Attack
- Liwen Wang, Yuanmeng Yan, Keqing He, Yanan Wu, Weiran Xu
- TLDR: 我们提出了一种对抗性方法,通过从中间的表征中学习社会偏见来动态地从中间的表征中学习社会偏见。
- An Empirical Investigation of Bias in the Multimodal Analysis of Financial Earnings Calls
- Ramit Sawhney, Arshiya Aggarwal, Rajiv Ratn Shah
- TLDR: 我们首次发现多模态股票市场预测中的性偏差,并研究了该偏差的来源。
- Beyond Fair Pay: Ethical Implications of NLP Crowdsourcing
- Boaz Shmueli, Jan Fell, Soumya Ray, Lun-Wei Ku
- TLDR: 我们表明,在NLP研究中,用批量工人进行工作是安全的,但用批量工人进行工作是安全的。
- On Transferability of Bias Mitigation Effects in Language Model Fine-Tuning
- Xisen Jin, Francesco Barbieri, Brendan Kennedy, Aida Mostafazadeh Davani, Leonardo Neves, Xiang Ren
- TLDR: 我们表明,通过使用UBM来减少下游任务中偏见,可以提高下游任务的偏见,同时保留更好的公平性指标。
- Case Study: Deontological Ethics in NLP
- Shrimai Prabhumoye, Brendon Boldt, Ruslan Salakhutdinov, Alan W Black
- TLDR: 我们研究了NLP中道德的理论,从理论的角度来看待NLP。
- Privacy Regularization: Joint Privacy-Utility Optimization in LanguageModels
- Fatemehsadat Mireshghallah, Huseyin Inan, Marcello Hasegawa, Victor Rühle, Taylor Berg-Kirkpatrick, Robert Sim
- TLDR: 我们提出了一种用于语言模型的正则化方法,可以同时提高使用价值和隐私的权重。
- On the Impact of Random Seeds on the Fairness of Clinical Classifiers
- Silvio Amir, Jan-Willem van de Meent, Byron Wallace
- TLDR: 我们表明,微调大型网络的随机节点(s)对随机节点(s)的随机变化很敏感,但一般情况下,微调的节点(s)会受到随机节点(s)的改变的随机变化的随机变化的微调。
- Topic Model or Topic Twaddle? Re-evaluating Semantic Interpretability Measures
- Caitlin Doogan, Wray Buntine
- TLDR: 我们通过研究主题模型的可解释性,评估主题模型在应用环境中的表现。
- Discourse Probing of Pretrained Language Models
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: 我们引入了文件级的对话问题,以评估预先训练好的LMs在文件级对话方面的表现。
- UniDrop: A Simple yet Effective Technique to Improve Transformer without Extra Cost
- Zhen Wu, Lijun Wu, Qi Meng, Yingce Xia, Shufang Xie, Tao Qin, Xinyu Dai, Tie-Yan Liu
- TLDR: 我们提出了一种基于梯度的新型梯度方法,用于训练变形模型。
- tWT–WT: A Dataset to Assert the Role of Target Entities for Detecting Stance of Tweets
- Ayush Kaushal, Avirup Saha, Niloy Ganguly
- TLDR: 我们表明,通过对句法的立场进行推理,可以从多个Twitterstance detection数据集中得到高准确性。
- Learning to Learn to be Right for the Right Reasons
- Pride Kavumba, Benjamin Heinzerling, Ana Brassard, Kentaro Inui
- TLDR: 我们提出了一种用于简单测试集的模型,在不需要表面图的情况下表现良好。
- Double Perturbation: On the Robustness of Robustness and Counterfactual Bias Evaluation
- Chong Zhang, Jieyu Zhao, Huan Zhang, Kai-Wei Chang, Cho-Jui Hsieh
- TLDR: 我们提出了一个用于解释模型的穩定性和反事实偏差的两项轉換方法。
- Explaining Neural Network Predictions on Sentence Pairs via Learning Word-Group Masks
- Hanjie Chen, Song Feng, Jatin Ganhotra, Hui Wan, Chulaka Gunasekara, Sachindra Joshi, Yangfeng Ji
- TLDR: 我们提出了一个用于NLP任务的GANSK方法,用于直接检测词对应关系,并衡量其贡献。
- Almost Free Semantic Draft for Neural Machine Translation
- Xi Ai, Bin Fang
- TLDR: 我们提出了一种高效的、可微分的、可微分的、通用的、可解释的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的
- Pruning-then-Expanding Model for Domain Adaptation of Neural Machine Translation
- Shuhao Gu, Yang Feng, Wanying Xie
- TLDR: 我们提出了一种用于多语种和多语种翻译的通用领域适应方法。
- Multi-Hop Transformer for Document-Level Machine Translation
- Long Zhang, Tong Zhang, Haibo Zhang, Baosong Yang, Wei Ye, Shikun Zhang
- TLDR: 我们提出了一种新型的多模变换(MHT),它可以直接地建模出人类的修改和推理过程。
- Continual Learning for Neural Machine Translation
- Yue Cao, Hao-Ran Wei, Boxing Chen, Xiaojun Wan
- TLDR: 我们提出了一个持续学习框架,用于NMT模型的持续学习。
- Self-Training for Unsupervised Neural Machine Translation in Unbalanced Training Data Scenarios
- Haipeng Sun, Rui Wang, Kehai Chen, Masao Utiyama, Eiichiro Sumita, Tiejun Zhao
- TLDR: 我们提出了一种用于非监督机器翻译的自我训练方法,用于训练一个穩定的非监督机器翻译系统。
- Smart-Start Decoding for Neural Machine Translation
- Jian Yang, Shuming Ma, Dongdong Zhang, Juncheng Wan, Zhoujun Li, Ming Zhou
- TLDR: 我们提出了一种新的方法,用于从前向到后向的编码顺序中解决编码器的局限性。
- Multi-Task Learning with Shared Encoder for Non-Autoregressive Machine Translation
- Yongchang Hao, Shilin He, Wenxiang Jiao, Zhaopeng Tu, Michael Lyu, Xing Wang
- TLDR: 我们提出了一种基于多任务学习的高效的自动翻译方法,用于转移和学习NAT模型的知识。
- ER-AE: Differentially Private Text Generation for Authorship Anonymization
- Haohan Bo, Steven H. H. Ding, Benjamin C. M. Fung, Farkhund Iqbal
- TLDR: 我们提出了一个新颖的文本生成模型,它可以生成不同于原文的私人文本,同时保留作者身份的特征。
- Distantly Supervised Transformers For E-Commerce Product QA
- Happy Mittal, Aniket Chakrabarti, Belhassen Bayar, Animesh Anant Sharma, Nikhil Rasiwasia
- TLDR: 通过结合语法和语义,通过直接从预测中学习语义匹配系统,在用户查询中学习语义匹配系统。
- Quantitative Day Trading from Natural Language using Reinforcement Learning
- Ramit Sawhney, Arnav Wadhwa, Shivam Agarwal, Rajiv Ratn Shah
- TLDR: 我们提出了一种基于文本数据的深度强化学习方法,可以预测股票价格,同时利用文本数据进行最佳的交易。
- Restoring and Mining the Records of the Joseon Dynasty via Neural Language Modeling and Machine Translation
- Kyeongpil Kang, Kyohoon Jin, Soyoung Yang, Soojin Jang, Jaegul Choo, Youngbin Kim
- TLDR: 我们提出了一种基于自我关注机制的多任务学习方法,用于修复和翻译历史记录。
- Modeling Diagnostic Label Correlation for Automatic ICD Coding
- Shang-Chi Tsai, Chao-Wei Huang, Yun-Nung Chen
- TLDR: 我们提出了一个用于自动诊断代码的二步框架,用于使用标签对诊断代码进行分类。
- Self-Supervised Contrastive Learning for Efficient User Satisfaction Prediction in Conversational Agents
- Mohammad Kachuee, Hao Yuan, Young-Bum Kim, Sungjin Lee
- TLDR: 我们提出了一种基于自我监督的对比学习方法,用于学习用户-服务互动。
- A recipe for annotating grounded clarifications
- Luciana Benotti, Patrick Blackburn
- TLDR: 我们提出了一个理论和实践问题,并提出了一个解决该问题的方法。
- Grey-box Adversarial Attack And Defence For Sentiment Classification
- Ying Xu, Xu Zhong, Antonio Jimeno Yepes, Jey Han Lau
- TLDR: 我们提出了一个用于情感分类的恶意攻击和防御框架。
- How low is too low? A monolingual take on lemmatisation in Indian languages
- Kumar Saunack, Kumar Saurav, Pushpak Bhattacharyya
- TLDR: 我们关注低资源的语言上使用神经方法的梯度方法。
- Causal Effects of Linguistic Properties
- Reid Pryzant, Dallas Card, Dan Jurafsky, Victor Veitch, Dhanya Sridhar
- TLDR: 我们考虑了使用观察数据来估计因果效应的因果效应,并提出了一种用于解释语言特性的算法。
- Dynabench: Rethinking Benchmarking in NLP
- Douwe Kiela, Max Bartolo, Yixin Nie, Divyansh Kaushik, Atticus Geiger, Zhengxuan Wu, Bertie Vidgen, Grusha Prasad, Amanpreet Singh, Pratik Ringshia, Zhiyi Ma, Tristan Thrush, Sebastian Riedel, Zeerak Waseem, Pontus Stenetorp, Robin Jia, Mohit Bansal, Christopher Potts, Adina Williams
- TLDR: 我们介绍了Dynabench,这是一个用于动态数据集创建和模型评估的开放平台。
- Translational NLP: A New Paradigm and General Principles for Natural Language Processing Research
- Denis Newman-Griffis, Jill Fain Lehman, Carolyn Rosé, Harry Hochheiser
- TLDR: 我们提出了一个用于翻译NLP的理论框架,并提出了一个用于翻译NLP的理论框架。
- Predicting Discourse Trees from Transformer-based Neural Summarizers
- Wen Xiao, Patrick Huber, Giuseppe Carenini
- TLDR: 我们表明,通过从预先训练好的句法树中推断句法树,句法信息有助于概括。
- Probing for Bridging Inference in Transformer Language Models
- Onkar Pandit, Yufang Hou
- TLDR: 我们使用预先训练好的转换器语言模型来捕捉和解决跨域推理。
- Is Incoherence Surprising? Targeted Evaluation of Coherence Prediction from Language Models
- Anne Beyer, Sharid Loáiciga, David Schlangen
- TLDR: 我们提出了一个用于对话和对话的语义和语义一致性评价的框架。
- Stay Together: A System for Single and Split-antecedent Anaphora Resolution
- Juntao Yu, Nafise Sadat Moosavi, Silviu Paun, Massimo Poesio
- TLDR: 我们提出了一个解决单个-後向的对应词的系统,并提出了一个用于评估单个-後向对应词的评估指标。
- Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness
- Florian Boudin, Ygor Gallina
- TLDR: 我们提出了一个更严格的分类方案,以更好地衡量和评估神经关键phrase生成模型的输出。
- CoRT: Complementary Rankings from Transformers
- Marco Wrzalik, Dirk Krechel
- TLDR: 我们提出了CoRT,一个简单的神经初始化排名模型,它可以利用上下文表征来结合词的排名函数,同时不需要任何显著的查询时间。
- Multi-source Neural Topic Modeling in Multi-view Embedding Spaces
- Pankaj Gupta, Yatin Chaudhary, Hinrich Schütze
- TLDR: 我们提出了一个用于多视角主题建模的框架,使用了4个高资源和5个低资源的主题嵌入空间。
- Inductive Topic Variational Graph Auto-Encoder for Text Classification
- Qianqian Xie, Jimin Huang, Pan Du, Min Peng, Jian-Yun Nie
- TLDR: 我们提出了一种用于文本分类的新型的主题图自动编码器,它可以从主题模型中学习文本的隐性语义信息。
- Self-Alignment Pretraining for Biomedical Entity Representations
- Fangyu Liu, Ehsan Shareghi, Zaiqiao Meng, Marco Basaldella, Nigel Collier
- TLDR: 我们提出了SAPBERT,一个用于医疗实体链接的RL框架,可以扩展到UMLS,一个大规模的生物医学 ontologies集。
- TaxoClass: Hierarchical Multi-Label Text Classification Using Only Class Names
- Jiaming Shen, Wenda Qiu, Yu Meng, Jingbo Shang, Xiang Ren, Jiawei Han
- TLDR: 我们提出了一个新颖的多标签文本分类方法,用于学习用于文件的主题相似性。
- MERMAID: Metaphor Generation with Symbolism and Discriminative Decoding
- Tuhin Chakrabarty, Xurui Zhang, Smaranda Muresan, Nanyun Peng
- TLDR: 我们提出了一种用于生成句法的自动生成方法,通过将句法替换为符号,生成句法,并利用符号来生成句法。
- On Learning Text Style Transfer with Direct Rewards
- Yixin Liu, Graham Neubig, John Wieting
- TLDR: 我们提出了一种用于文本风格转移的非监督方法,该方法在理论上和实践上证明了其有效性。
- Focused Attention Improves Document-Grounded Generation
- Shrimai Prabhumoye, Kazuma Hashimoto, Yingbo Zhou, Alan W Black, Ruslan Salakhutdinov
- TLDR: 我们提出了用于文档建模的多语种编码器-解码器的适应性,以提高文本生成。
- NeuroLogic Decoding: (Un)supervised Neural Text Generation with Predicate Logic Constraints
- Ximing Lu, Peter West, Rowan Zellers, Ronan Le Bras, Chandra Bhagavatula, Yejin Choi
- TLDR: 我们提出了一种简单而有效的神经语言建模方法,它可以从简单的句法中解决复杂的语义限制。
- Ask what’s missing and what’s useful: Improving Clarification Question Generation using Global Knowledge
- Bodhisattwa Prasad Majumder, Sudha Rao, Michel Galley, Julian McAuley
- TLDR: 我们提出了一个用于澄清问题生成的模型,该模型可以从一个整体的角度来寻找信息,并生成一个问题来解决它。
- Progressive Generation of Long Text with Pretrained Language Models
- Bowen Tan, Zichao Yang, Maruan Al-Shedivat, Eric Xing, Zhiting Hu
- TLDR: 我们提出了一种简单而有效的方法,通过生成图像从低到高分辨率来生成文本。
- SOCCER: An Information-Sparse Discourse State Tracking Collection in the Sports Commentary Domain
- Ruochen Zhang, Carsten Eickhoff
- TLDR: 我们提出了一个用于训练有素的模型,它可以捕捉到在游戏中发生的事件,并利用它来捕捉到在游戏中发生的事件。
- Plot-guided Adversarial Example Construction for Evaluating Open-domain Story Generation
- Sarik Ghazarian, Zixi Liu, Akash S M, Ralph Weischedel, Aram Galstyan, Nanyun Peng
- TLDR: 本文提出了一个用于评价故事生成的可学习的衡量标准。
- MultiOpEd: A Corpus of Multi-Perspective News Editorials
- Siyi Liu, Sihao Chen, Xander Uyttendaele, Dan Roth
- TLDR: 我们提出了多任务新闻编辑集,用于研究新闻 editorial中表达的论断结构。
- Swords: A Benchmark for Lexical Substitution with Improved Data Coverage and Quality
- Mina Lee, Chris Donahue, Robin Jia, Alexander Iyabor, Percy Liang
- TLDR: 我们使用一个语义库来寻找词替换的最佳替代。
- “I’m Not Mad”: Commonsense Implications of Negation and Contradiction
- Liwei Jiang, Antoine Bosselut, Chandra Bhagavatula, Yejin Choi
- TLDR: 我们首次提出了一个用于解释和解释的通用语义知识图,并提出了一个用于解释和解释的生成和对抗性推理模型。
- Identifying Medical Self-Disclosure in Online Communities
- Mina Valizadeh, Pardis Ranjbar-Noiey, Cornelia Caragea, Natalie Parde
- TLDR: 我们介绍了一个用于在线健康对话的医疗自我暴露的数据集。
- Language in a (Search) Box: Grounding Language Learning in Real-World Human-Machine Interaction
- Federico Bianchi, Ciro Greco, Jacopo Tagliabue
- TLDR: 我们通过通过真实世界数据的生成学习基于知识的网络。
- Finding Concept-specific Biases in Form–Meaning Associations
- Tiago Pimentel, Brian Roark, Søren Wichmann, Ryan Cotterell, Damián Blasi
- TLDR: 我们提出了一个信息论的理论化解决跨语言非监督性问题的信息论分析。
- How (Non-)Optimal is the Lexicon?
- Tiago Pimentel, Irene Nikkarinen, Kyle Mahowald, Ryan Cotterell, Damián Blasi
- TLDR: 我们提出了一个用于词典的词典的最优词典。
- Word Complexity is in the Eye of the Beholder
- Sian Gooding, Ekaterina Kochmar, Seid Muhie Yimam, Chris Biemann
- TLDR: 我们研究了词的复杂性在不同语言人中的表现,并提出了一个数据集。
- Linguistic Complexity Loss in Text-Based Therapy
- Jason Wei, Kelly Finn, Emma Templeton, Thalia Wheatley, Soroush Vosoughi
- TLDR: 我们表明,通过使用文本来分析和衡量网络和心理健康之间的神经网络的神经网络化通信。
- Ab Antiquo: Neural Proto-language Reconstruction
- Carlo Meloni, Shauli Ravfogel, Yoav Goldberg
- TLDR: 我们提出了一个用于原词回归的神经序列模型,它可以从随机输入中学习原词的正则性,用于原词回归的一般方法。
- On Biasing Transformer Attention Towards Monotonicity
- Annette Rios, Chantal Amrhein, Noëmi Aepli, Rico Sennrich
- TLDR: 我们提出了一种用于序列到序列任务的注意力机制,它与一般注意力机制相一致,并表明,它可以改善大多数的注意力。
- Extracting a Knowledge Base of Mechanisms from COVID-19 Papers
- Tom Hope, Aida Amini, David Wadden, Madeleine van Zuylen, Sravanthi Parasa, Eric Horvitz, Daniel Weld, Roy Schwartz, Hannaneh Hajishirzi
- TLDR: 我们通过利用科学论文的自然语言来概括科学论文的框架,从科学论文中提取科学知识。
- Constrained Multi-Task Learning for Event Coreference Resolution
- Jing Lu, Vincent Ng
- TLDR: 我们提出了一个用于预测事件的事件追踪模型,该模型在KBP上取得了最先进的结果。
- Empirical Evaluation of Pre-trained Transformers for Human-Level NLP: The Role of Sample Size and Dimensionality
- Adithya V Ganesan, Matthew Matero, Aravind Reddy Ravula, Huy Vu, H. Andrew Schwartz
- TLDR: 我们通过对用于NLP任务的维度减少方法的作用进行理论分析,并表明,ROBERTa在人类任务中的表现与大多数的维度减少方法相当。
- Leveraging Deep Representations of Radiology Reports in Survival Analysis for Predicting Heart Failure Patient Mortality
- Hyun Gi Lee, Evan Sholle, Ashley Beecy, Subhi Al’Aref, Yifan Peng
- TLDR: 我们使用BERT-based隐藏层表示的临床医学文献作为正则化值,用于预测病人生存结果。
- On the Use of Context for Predicting Citation Worthiness of Sentences in Scholarly Articles
- Rakesh Gosangi, Ravneet Arora, Mohsen Gheisarieha, Debanjan Mahata, Haimin Zhang
- TLDR: 我们研究了句法的引用价值的上下文背景的重要性,并提出了一个用于引用的引用价值的模型。
- Data and Model Distillation as a Solution for Domain-transferable Fact Verification
- Mitch Paul Mithun, Sandeep Suntwal, Mihai Surdeanu
- TLDR: 我们提出了一种数据提炼技术,用于从一个完全词化的数据中提取可转移事实。
- Adapting Coreference Resolution for Processing Violent Death Narratives
- Ankith Uppunda, Susan Cochran, Jacob Foster, Alina Arseniev-Koehler, Vickie Mays, Kai-Wei Chang
- TLDR: 我们提出了一个用于解释性文本的全域性可解释性标准,用于提高解释性文本的可解释性。
- Time-Stamped Language Model: Teaching Language Models to Understand The Flow of Events
- Hossein Rajaby Faghihi, Parisa Kordjamshidi
- TLDR: 我们提出了一个时间顺序的语言模型,它可以从LMs架构中编码事件信息,并使用它来解决时间顺序编码问题。
- If You Want to Go Far Go Together: Unsupervised Joint Candidate Evidence Retrieval for Multi-hop Question Answering
- Vikas Yadav, Steven Bethard, Mihai Surdeanu
- TLDR: 我们提出了一种简单的和高效的证据检索方法,用于检索和重新排名证据。
- SPARTQA: A Textual Question Answering Benchmark for Spatial Reasoning
- Roshanak Mirzaee, Hossein Rajaby Faghihi, Qiang Ning, Parisa Kordjamshidi
- TLDR: 我们提出了一个用于问题回答(QA)的泛化框架,用于解决自然语言文本上的空间推理。
- A Dataset of Information-Seeking Questions and Answers Anchored in Research Papers
- Pradeep Dasigi, Kyle Lo, Iz Beltagy, Arman Cohan, Noah A. Smith, Matt Gardner
- TLDR: 我们提出了一个用于信息需要的QA数据集,该数据集可以回答来自论文的5049个问题。
- Differentiable Open-Ended Commonsense Reasoning
- Bill Yuchen Lin, Haitian Sun, Bhuwan Dhingra, Manzil Zaheer, Xiang Ren, William Cohen
- TLDR: 我们提出了一个高效的多跳推理的变体,用于回答一个常识性问题。
- Does Structure Matter? Encoding Documents for Machine Reading Comprehension
- Hui Wan, Song Feng, Chulaka Gunasekara, Siva Sankalp Patel, Sachindra Joshi, Luis Lastras
- TLDR: 本文提出了一种基于变换的文本嵌入的文本理解方法,该方法使用文本嵌入的两个模块来寻找更相关的文本片段。
- Multi-Step Reasoning Over Unstructured Text with Beam Dense Retrieval
- Chen Zhao, Chenyan Xiong, Jordan Boyd-Graber, Hal Daumé III
- TLDR: 我们提出了一种基于光的多步检索方法,通过光搜索在密集的表征中捕捉证据链的隐性关系。
- Scalable and Interpretable Semantic Change Detection
- Syrielle Montariol, Matej Martinc, Lidia Pivovarova
- TLDR: 我们提出了一种可扩展的方法来检测词的使用变化,它可以提高性能和可解释性,同时保留了相同的可解释性。
- Scalar Adjective Identification and Multilingual Ranking
- Aina Garí Soler, Marianna Apidianaki
- TLDR: 我们提出了一个多语言的多语义词典库,用于学习词汇的梯度词义。
- ESC: Redesigning WSD with Extractive Sense Comprehension
- Edoardo Barba, Tommaso Pasini, Roberto Navigli
- TLDR: 我们提出了ESCHER,一种基于变换器的神经架构来解决词典分类任务的词典归并。
- Recent advances in neural metaphor processing: A linguistic, cognitive and social perspective
- Xiaoyu Tong, Ekaterina Shutova, Martha Lewis
- TLDR: 本文介绍了NLP中用于语言理解的自上而下的注释过程,从从NLP任务的角度来审视和讨论。
- Constructing Taxonomies from Pretrained Language Models
- Catherine Chen, Kevin Lin, Dan Klein
- TLDR: 我们提出了一种用于建表的语言模型的方法,用于从句法中学习句法。
- Event Representation with Sequential, Semi-Supervised Discrete Variables
- Mehdi Rezaee, Francis Ferraro
- TLDR: 我们提出了一种新的神经序列建模方法,它将部分可观察的序列纳入到主动学习中,以实现主动学习的全域性。
- Seq2Emo: A Sequence to Multi-Label Emotion Classification Model
- Chenyang Huang, Amine Trabelsi, Xuebin Qin, Nawshad Farruque, Lili Mou, Osmar Zaïane
- TLDR: 我们提出了一种基于序列到情感的二元神经编码器,它直接建模了情感相互作用,并表明它比目前的神经编码器更优。
- Knowledge Enhanced Masked Language Model for Stance Detection
- Kornraphop Kawintiranon, Lisa Singh
- TLDR: 我们提出了一种基于BERT的微调方法,用于stance检测。
- Learning Paralinguistic Features from Audiobooks through Style Voice Conversion
- Zakaria Aldeneh, Matthew Perez, Emily Mower Provost
- TLDR: 我们提出了一个新的方法,通过使用语言情感和风格的特征来学习从语言中提取paralinguistic属性。
- Adapting BERT for Continual Learning of a Sequence of Aspect Sentiment Classification Tasks
- Zixuan Ke, Hu Xu, Bing Liu
- TLDR: 我们提出了一种新颖的胶囊网络模型,用于解决ASC任务的持续学习问题。
- Adversarial Learning for Zero-Shot Stance Detection on Social Media
- Emily Allaway, Malavika Srikanth, Kathleen McKeown
- TLDR: 我们提出了一种基于对抗学习的零樣本追踪的新方法,用于Twitter上的零樣本追踪。
- Efficiently Summarizing Text and Graph Encodings of Multi-Document Clusters
- Ramakanth Pasunuru, Mengwen Liu, Mohit Bansal, Sujith Ravi, Markus Dreyer
- TLDR: 我们提出了一种高效的多文件总结方法,它与一个高效的编码器-解码器Transformer模型相结合,以实现图上增强的多文件总结。
- Enriching Transformers with Structured Tensor-Product Representations for Abstractive Summarization
- Yichen Jiang, Asli Celikyilmaz, Paul Smolensky, Paul Soulos, Sudha Rao, Hamid Palangi, Roland Fernandez, Caitlin Smith, Mohit Bansal, Jianfeng Gao
- TLDR: 我们提出了一种用于抽象概括的架构,它与基于组成的TPR的架构结合起来,用于概括的任务。
- What’s in a Summary? Laying the Groundwork for Advances in Hospital-Course Summarization
- Griffin Adams, Emily Alsentzer, Mert Ketenci, Jason Zucker, Noémie Elhadad
- TLDR: 我们提出了一个用于医院病理过程总结任务的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性的简洁和概括性。
- Understanding Factuality in Abstractive Summarization with FRANK: A Benchmark for Factuality Metrics
- Artidoro Pagnoni, Vidhisha Balachandran, Yulia Tsvetkov
- TLDR: 我们使用一个用于总结的例子来收集人类注释的生成的总结的精确性。
- GSum: A General Framework for Guided Neural Abstractive Summarization
- Zi-Yi Dou, Pengfei Liu, Hiroaki Hayashi, Zhengbao Jiang, Graham Neubig
- TLDR: 我们提出了一个通用的、持续的、可扩展的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的通用的通用的通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用通用
- What Will it Take to Fix Benchmarking in Natural Language Understanding?
- Samuel R. Bowman, George Dahl
- TLDR: 我们提出了四个基准,它们应满足NLU的基准。
- TuringAdvice: A Generative and Dynamic Evaluation of Language Use
- Rowan Zellers, Ari Holtzman, Elizabeth Clark, Lianhui Qin, Ali Farhadi, Yejin Choi
- TLDR: 本文提出了TuringAdvice,一个新的语言理解模型任务和数据集。
- Multitask Learning for Emotionally Analyzing Sexual Abuse Disclosures
- Ramit Sawhney, Puneet Mathur, Taru Jain, Akash Kumar Gautam, Rajiv Ratn Shah
- TLDR: 我们表明,在没有情感标签的情况下,单个多任务学习可以产生更好的结果。
- Self Promotion in US Congressional Tweets
- Jun Wang, Kelly Cui, Bei Yu
- TLDR: 我们使用BERT来预测一个联邦总统的tweet是否显示自我介绍或不表明自我介绍。
- Profiling of Intertextuality in Latin Literature Using Word Embeddings
- Patrick J. Burns, James A. Brofos, Kyle Li, Pramit Chaudhuri, Joseph P. Dexter
- TLDR: 我们通过使用词嵌入模型进行语义搜索,研究经典的词典典典范的句法结构。
- Identifying inherent disagreement in natural language inference
- Xinliang Frederick Zhang, Marie-Catherine de Marneffe
- TLDR: 我们提出了一种用于NLI的人工注释器,它可以模拟注释过程的不确定性,并利用它来模拟注释过程的不确定性。
- Modeling Human Mental States with an Entity-based Narrative Graph
- I-Ta Lee, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: 我们提出了一个基于实体的GAN,用于解释故事中角色的心理状态。
- A Simple and Efficient Multi-Task Learning Approach for Conditioned Dialogue Generation
- Yan Zeng, Jian-Yun Nie
- TLDR: 我们提出了一种多任务学习方法,用于使用标签的对话数据和文本数据。
- Hurdles to Progress in Long-form Question Answering
- Kalpesh Krishna, Aurko Roy, Mohit Iyyer
- TLDR: 我们提出了一个用于LFQA的RLQA系统,它不需要大量的关注和对比性检索学习来解决这个问题。
- ENTRUST: Argument Reframing with Language Models and Entailment
- Tuhin Chakrabarty, Christopher Hidey, Smaranda Muresan
- TLDR: 我们提出了一种用于批评的主题重新表述的方法,它结合了控制文本生成(positive connotation)和一个后处理的附加值(same denotation)。
- Paragraph-level Simplification of Medical Texts
- Ashwin Devaraj, Iain Marshall, Byron Wallace, Junyi Jessy Li
- TLDR: 我们考虑学习医疗文献的简化问题,并提出了一个用于简化医疗文献的通用衡量标准。
- An Empirical Study on Neural Keyphrase Generation
- Rui Meng, Xingdi Yuan, Tong Wang, Sanqiang Zhao, Adam Trischler, Daqing He
- TLDR: 我们通过提供大量的实验结果和分析几个关键因素影响了KPG模型的泛化能力。
- Attention Head Masking for Inference Time Content Selection in Abstractive Summarization
- Shuyang Cao, Lu Wang
- TLDR: 我们提出了一种简单的、可行的注意力权重掩码方法,用于从编码器-解码器注意力中标注 salient内容。
-
- Zexuan Zhong, Dan Friedman, Danqi Chen
- TLDR: 我们通过使用句法来表示句法,从预先训练好的语言模型中检索世界事实。
- Evaluating Saliency Methods for Neural Language Models
- Shuoyang Ding, Philipp Koehn
- TLDR: 我们对具有可信性和信心性的穩定性方法进行了全面的和量化评估。
- Contextualized Perturbation for Textual Adversarial Attack
- Dianqi Li, Yizhe Zhang, Hao Peng, Liqun Chen, Chris Brockett, Ming-Ting Sun, Bill Dolan
- TLDR: 我们提出了CLARE,一个基于背景的对抗例子生成模型,它通过一个被隐藏的程序生成准确的和语义的输出。
- DirectProbe: Studying Representations without Classifiers
- Yichu Zhou, Vivek Srikumar
- TLDR: 我们提出了一种基于神经网络的神经网络,它直接研究了表征的形状,通过将表征的形状建模结合起来,以预测表征的分类器性能。
- Evaluating the Values of Sources in Transfer Learning
- Md Rizwan Parvez, Kai-Wei Chang
- TLDR: 我们提出了一个高效的来源价值评估框架,用于量化源价值,以更好地转移模型。
- Too Much in Common: Shifting of Embeddings in Transformer Language Models and its Implications
- Daniel Biś, Maksim Podkorytov, Xiuwen Liu
- TLDR: 我们表明,通过简单的转换,可以恢复语言模型的 isotropy。
- On the Inductive Bias of Masked Language Modeling: From Statistical to Syntactic Dependencies
- Tianyi Zhang, Tatsunori B. Hashimoto
- TLDR: 我们表明,通过使用随机的偏差来解释偏差,可以解释偏差的实际效果。
- Limitations of Autoregressive Models and Their Alternatives
- Chu-Cheng Lin, Aaron Jaech, Xin Li, Matthew R. Gormley, Jason Eisner
- TLDR: 一种基于线性时间计算的自回归语言模型,其结果是基于一个线性估计的,而不是基于一个线性估计的。
- On the Transformer Growth for Progressive BERT Training
- Xiaotao Gu, Liyuan Liu, Hongkun Yu, Jing Li, Chen Chen, Jiawei Han
- TLDR: 我们表明,Transformer growth与网络架构选择一样好,同时有助于 compound扩展。
- Revisiting Simple Neural Probabilistic Language Models
- Simeng Sun, Mohit Iyyer
- TLDR: 我们重新审视了神经概率语言模型(NPLM),并表明,它在词级语言建模上的表现比以前的模型更好。
- ReadTwice: Reading Very Large Documents with Memories
- Yury Zemlyanskiy, Joshua Ainslie, Michiel de Jong, Philip Pham, Ilya Eckstein, Fei Sha
- TLDR: 我们提出了ReadTwice,一个简单而有效的方法,结合了先前的方法,在本文中,我们提出了一种用于深度依赖关系的通用方法。
- SCRIPT: Self-Critic PreTraining of Transformers
- Erik Nijkamp, Bo Pang, Ying Nian Wu, Caiming Xiong
- TLDR: 我们使用自我批评的变体来表示文本,并使用它来学习批评的批评者。
- Learning How to Ask: Querying LMs with Mixtures of Soft Prompts
- Guanghui Qin, Jason Eisner
- TLDR: 我们提出了一种基于梯度梯度的学习方法,用于学习句法的回应。
- Nutri-bullets Hybrid: Consensual Multi-document Summarization
- Darsh Shah, Lili Yu, Tao Lei, Regina Barzilay
- TLDR: 我们提出了一种用于生成对比性总结的方法,该方法使用了基于概念的词汇模型来生成对比性总结。
- AVA: an Automatic eValuation Approach for Question Answering Systems
- Thuy Vu, Alessandro Moschitti
- TLDR: 我们介绍了AVA,一种用于问题回答的自动评估方法,它可以估计系统准确性。
- SpanPredict: Extraction of Predictive Document Spans with Neural Attention
- Vivek Subramanian, Matthew Engelhard, Sam Berchuck, Liqun Chen, Ricardo Henao, Lawrence Carin
- TLDR: 我们提出了一种基于线性注意力的预测性提取方法,它可以从简单的表征中得到预测性内容。
- Text Editing by Command
- Felix Faltings, Michel Galley, Gerold Hintz, Chris Brockett, Chris Quirk, Jianfeng Gao, Bill Dolan
- TLDR: 我们提出了一个用于文本生成的互动性文本编辑任务,并介绍了WikiDocEdits,一个用于单个句法修改的百科数据集。
- A Deep Metric Learning Approach to Account Linking
- Aleem Khan, Elizabeth Fleming, Noah Schofield, Marcus Bishop, Nicholas Andrews
- TLDR: 我们提出了一个用于链接多用户互动的框架,该框架通过使用用户的主题和相关文件流的主题来学习一个嵌入,以实现高链接准确性。
- Improving Factual Completeness and Consistency of Image-to-Text Radiology Report Generation
- Yasuhide Miura, Yuhao Zhang, Emily Tsai, Curtis Langlotz, Dan Jurafsky
- TLDR: 我们提出了一个用于临床诊断报告生成的简单奖励,鼓励生成准确的、一致的诊断报告。
- Multimodal End-to-End Sparse Model for Emotion Recognition
- Wenliang Dai, Samuel Cahyawijaya, Zihan Liu, Pascale Fung
- TLDR: 我们提出了一个完整的端到端模型,用于从头到端学习,同时可以同时优化这两个阶段。
- MIMOQA: Multimodal Input Multimodal Output Question Answering
- Hrituraj Singh, Anshul Nasery, Denil Mehta, Aishwarya Agarwal, Jatin Lamba, Balaji Vasan Srinivasan
- TLDR: 我们提出了一种基于多模态输入的多模态回答问题的方法,该方法使用一个新颖的多模态问题回答框架,它结合了文本和视觉注意力来生成多模态输出。
- OCID-Ref: A 3D Robotic Dataset With Embodied Language For Clutter Scene Grounding
- Ke-Jyun Wang, Yun-Hsuan Liu, Hung-Ting Su, Jen-Wei Wang, Yu-Siang Wang, Winston Hsu, Wen-Chin Chen
- TLDR: 我们提出了一个新颖的OCID-Ref数据集,用于用OCID-Ref数据集进行标注表达。
- Unsupervised Vision-and-Language Pre-training Without Parallel Images and Captions
- Liunian Harold Li, Haoxuan You, Zhecan Wang, Alireza Zareian, Shih-Fu Chang, Kai-Wei Chang
- TLDR: 我们通过非监督的预训练来学习具有可追踪的背景和语言的表征。
- Multitasking Inhibits Semantic Drift
- Athul Paul Jacob, Mike Lewis, Jacob Andreas
- TLDR: 我们表明,多任务训练可以减少LLP训练中语义偏差,同时提高样本效率。
- Probing Contextual Language Models for Common Ground with Visual Representations
- Gabriel Ilharco, Rowan Zellers, Ali Farhadi, Hannaneh Hajishirzi
- TLDR: 我们提出了一个用于实例检索的模型,评估了在匹配和非匹配视觉表示之间的作用。
- BBAEG: Towards BERT-based Biomedical Adversarial Example Generation for Text Classification
- Ishani Mondal
- TLDR: 我们提出了BBAEG,一种用于生物医学文献分类的黑盒攻击,使用生物医学BERT和BERT-MLM预测和词替换。
- Targeted Adversarial Training for Natural Language Understanding
- Lis Pereira, Xiaodong Liu, Hao Cheng, Hoifung Poon, Jianfeng Gao, Ichiro Kobayashi
- TLDR: 一种用于自然语言理解的对抗训练算法。
- Latent-Optimized Adversarial Neural Transfer for Sarcasm Detection
- Xu Guo, Boyang Li, Han Yu, Chunyan Miao
- TLDR: 我们提出了一种通用的潜在优化策略,允许不同损失对应不同的损失,提高训练动态。
- Self-training Improves Pre-training for Natural Language Understanding
- Jingfei Du, Edouard Grave, Beliz Gunel, Vishrav Chaudhary, Onur Celebi, Michael Auli, Veselin Stoyanov, Alexis Conneau
- TLDR: 我们研究了自我训练作为一种用于利用未标注的数据进行半监督学习的方法,并表明,自我训练可以提高学习效率和知识提炼和少樣本学习的效率。
- Supporting Clustering with Contrastive Learning
- Dejiao Zhang, Feng Nan, Xiaokai Wei, Shang-Wen Li, Henghui Zhu, Kathleen McKeown, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: 我们提出了支持的上下文聚类(SCCL)框架,用于利用对比性学习来促进更好的分离。
- TITA: A Two-stage Interaction and Topic-Aware Text Matching Model
- Xingwu Sun, Yanling Cui, Hongyin Tang, Qiuyu Zhu, Fuzheng Zhang, Beihong Jin
- TLDR: 我们提出了一个用于主题感知和主题关注的文本匹配模型,用于描述主题感知的主题感知的主题感知。
- Neural Quality Estimation with Multiple Hypotheses for Grammatical Error Correction
- Zhenghao Liu, Xiaoyuan Yi, Maosong Sun, Liner Yang, Tat-Seng Chua
- TLDR: 本文提出了一个用于GEC质量估计的神经验证网络。
- Neural Network Surgery: Injecting Data Patterns into Pre-trained Models with Minimal Instance-wise Side Effects
- Zhiyuan Zhang, Xuancheng Ren, Qi Su, Xu Sun, Bin He
- TLDR: 我们表明,神经网络的神经网络修剪可以被控制通过改变参数的数量。
- Discrete Argument Representation Learning for Interactive Argument Pair Identification
- Lu Ji, Zhongyu Wei, Jing Li, Qi Zhang, Xuanjing Huang
- TLDR: 我们通过使用分层结构来学习用arguments表达不同的主题。
- On Unifying Misinformation Detection
- Nayeon Lee, Belinda Z. Li, Sinong Wang, Pascale Fung, Hao Ma, Wen-tau Yih, Madian Khabsa
- TLDR: 我们介绍了UnifiedM2,一个通用的谣言模型,它联合展示了多个谣言领域的虚假信息,并展示了它在少樣本学习方面的通用性。
- Frustratingly Easy Edit-based Linguistic Steganography with a Masked Language Model
- Honai Ueoka, Yugo Murawaki, Sadao Kurohashi
- TLDR: 我们提出了一种基于修改的语言模型,它可以被视为一种替代的语言模型,但它需要更高的编码能力。
- Few-Shot Text Classification with Triplet Networks, Data Augmentation, and Curriculum Learning
- Jason Wei, Chengyu Huang, Soroush Vosoughi, Yu Cheng, Shiqi Xu
- TLDR: 我们提出了一个简单的课程数据增强方法,它可以提高三倍网络的性能。
- Do RNN States Encode Abstract Phonological Alternations?
- Miikka Silfverberg, Francis Tyers, Garrett Nicolai, Mans Hulden
- TLDR: 我们通过使用RNN的动量激活来控制RNN中随机到序的模型的动量激活。
- Pre-training with Meta Learning for Chinese Word Segmentation
- Zhen Ke, Liang Shi, Songtao Sun, Erli Meng, Bin Wang, Xipeng Qiu
- TLDR: 我们提出了一种用于CWS的元学习模型,它可以利用相同的先验知识来解决CWS任务。
- Decompose, Fuse and Generate: A Formation-Informed Method for Chinese Definition Generation
- Hua Zheng, Damai Dai, Lei Li, Tianyu Liu, Zhifang Sui, Baobao Chang, Yang Liu
- TLDR: 我们提出了一个用于词生成的模型,它可以从词的生成特征中提取词的定义。
- User-Generated Text Corpus for Evaluating Japanese Morphological Analysis and Lexical Normalization
- Shohei Higashiyama, Masao Utiyama, Taro Watanabe, Eiichiro Sumita
- TLDR: 我们提出了一个用于UGT的一般语言分类的雅各布文献。
- GPT Perdetry Test: Generating new meanings for new words
- Nikolay Malkin, Sameera Lanka, Pranav Goel, Sudha Rao, Nebojsa Jojic
- TLDR: 我们评估了GPT-3能够在语言中产生新的词,并决定它们的 meaning。
- Universal Semantic Tagging for English and Mandarin Chinese
- Wenxi Li, Yiyang Hou, Yajie Ye, Li Liang, Weiwei Sun
- TLDR: 我们提出了一个用于语言语义的句法表征库,并提出了一个用于语言语义表征的句法解析库。
- ShadowGNN: Graph Projection Neural Network for Text-to-SQL Parser
- Zhi Chen, Lu Chen, Yanbin Zhao, Ruisheng Cao, Zihan Xu, Su Zhu, Kai Yu
- TLDR: 我们提出了一个用于稀疏和无标记的表征的架构,用于解释表征的抽象和语义层次。
- Contextualized and Generalized Sentence Representations by Contrastive Self-Supervised Learning: A Case Study on Discourse Relation Analysis
- Hirokazu Kiyomaru, Sadao Kurohashi
- TLDR: 我们提出了一种用于学习句法表征的方法,使用对比性自我监督学习。
- AMR Parsing with Action-Pointer Transformer
- Jiawei Zhou, Tahira Naseem, Ramón Fernandez Astudillo, Radu Florian
- TLDR: 我们提出了一种基于转换的基于梯度的AMR解析器,它结合了高关注度的句法语句法语义表征和目标节点行动点。
- NL-EDIT: Correcting Semantic Parse Errors through Natural Language Interaction
- Ahmed Elgohary, Christopher Meek, Matthew Richardson, Adam Fourney, Gonzalo Ramos, Ahmed Hassan Awadallah
- TLDR: 我们提出了NL-EDIT,一个用于解释自然语言反馈的模型,可以从初始的解析中产生修改,然后应用到正确的错误进行修正。
- Unsupervised Concept Representation Learning for Length-Varying Text Similarity
- Xuchao Zhang, Bo Zong, Wei Cheng, Jingchao Ni, Yanchi Liu, Haifeng Chen
- TLDR: 我们提出了一种基于概念的文件相似性方法,用于学习概念表征。
- Augmenting Knowledge-grounded Conversations with Sequential Knowledge Transition
- Haolan Zhan, Hainan Zhang, Hongshen Chen, Zhuoye Ding, Yongjun Bao, Yanyan Lan
- TLDR: 我们提出了知识转移模型,它可以直接从知识中学习知识,并利用有限的知识数据。
- Adversarial Self-Supervised Learning for Out-of-Domain Detection
- Zhiyuan Zeng, Keqing He, Yuanmeng Yan, Hong Xu, Weiran Xu
- TLDR: 我们提出了一种基于自我监督的对比学习方法,用于从不标注的OOD目标中检测出不同的目标意图。
- Leveraging Slot Descriptions for Zero-Shot Cross-Domain Dialogue StateTracking
- Zhaojiang Lin, Bing Liu, Seungwhan Moon, Paul Crook, Zhenpeng Zhou, Zhiguang Wang, Zhou Yu, Andrea Madotto, Eunjoon Cho, Rajen Subba
- TLDR: 我们提出了一种用于零樣本对话状态追踪的生成方法,用于多樣本对话状态追踪。
- Hierarchical Transformer for Task Oriented Dialog Systems
- Bishal Santra, Potnuru Anusha, Pawan Goyal
- TLDR: 我们提出了一个通用的框架,用于使用分层RNN架构来学习分层的转换器。
- Measuring the ‘I don’t know’ Problem through the Lens of Gricean Quantity
- Huda Khayrallah, João Sedoc
- TLDR: 我们从Griez的 Maxims上评估了神经生成对话模型的内在评估。
- RTFE: A Recursive Temporal Fact Embedding Framework for Temporal Knowledge Graph Completion
- Youri Xu, Haihong E, Meina Song, Wenyu Song, Xiaodong Lv, Wang Haotian, Yang Jinrui
- TLDR: 我们提出了一个循環时间知识图嵌入(RTFE)框架,用于从TKG中提取知识图嵌入和提高现有的TKGE模型的性能。
- Open Hierarchical Relation Extraction
- Kai Zhang, Yuan Yao, Ruobing Xie, Xu Han, Zhiyuan Liu, Fen Lin, Leyu Lin, Maosong Sun
- TLDR: 我们提出了一个基于层次结构的层次结构化关系提取的新框架。
- Jointly Extracting Explicit and Implicit Relational Triples with Reasoning Pattern Enhanced Binary Pointer Network
- Yubo Chen, Yunqi Zhang, Changran Hu, Yongfeng Huang
- TLDR: 我们提出了一个统一的框架来利用直接表征的上下文来发现实体组合,它们可能与关系直接联系。
- Multi-Grained Knowledge Distillation for Named Entity Recognition
- Xuan Zhou, Xiao Zhang, Chenyang Tao, Junya Chen, Bing Xu, Wei Wang, Jing Xiao
- TLDR: 我们提出了一种新的方法,通过使用最先进的VVP方法来从教师模型中提炼知识。
- SGG: Learning to Select, Guide, and Generate for Keyphrase Generation
- Jing Zhao, Junwei Bao, Yifan Wang, Youzheng Wu, Xiaodong He, Bowen Zhou
- TLDR: 我们提出了一种基于选择引导的生成方法,用于在没有明确的来源的情况下生成出潜在的和离散的句法。
- Towards Sentiment and Emotion aided Multi-modal Speech Act Classification in Twitter
- Tulika Saha, Apoorva Upadhyaya, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: 我们首次创建了一个新的多模态,情感-TA(即语音行动在Twitter上)数据集,用于解释和理解Twitter中说话者的情感状态。
- Generative Imagination Elevates Machine Translation
- Quanyu Long, Mingxuan Wang, Lei Li
- TLDR: 我们提出了ImagiT,一种用于多语种翻译的新型机器翻译方法,通过视觉想象来实现翻译。
- Non-Autoregressive Translation by Learning Target Categorical Codes
- Yu Bao, Shujian Huang, Tong Xiao, Dongqi Wang, Xinyu Dai, Jiajun Chen
- TLDR: 我们提出了CNAT,它可以学习表征,并将其应用于非监督的编码。
- Training Data Augmentation for Code-Mixed Translation
- Abhirut Gupta, Aditya Vavre, Sunita Sarawagi
- TLDR: 我们提出了一种基于MBERT的程序,它可以被训练在没有代码混合的输入的情况下进行翻译。
- Rethinking Perturbations in Encoder-Decoders for Fast Training
- Sho Takase, Shun Kiyono
- TLDR: 我们提出了一种用于训练时间的神经编码器-解码器的神经网络的變動,它可以更快地解决,但它需要计算时间。
- Context-aware Decoder for Neural Machine Translation using a Target-side Document-Level Language Model
- Amane Sugiyama, Naoki Yoshinaga
- TLDR: 我们使用一个句法级的语言模型来进行句法级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下文级的上下
- Machine Translated Text Detection Through Text Similarity with Round-Trip Translation
- Hoang-Quoc Nguyen-Son, Tran Thao, Seira Hidano, Ishita Gupta, Shinsaku Kiyomoto
- TLDR: 我们提出了一种用于检测从一个不熟悉的翻译器翻译的文本中检测的句法的检测器。
- TR-BERT: Dynamic Token Reduction for Accelerating BERT Inference
- Deming Ye, Yankai Lin, Yufei Huang, Maosong Sun
- TLDR: 我们提出了一种动态的多层梯度方法,用于加速PLM的推理。
- Breadth First Reasoning Graph for Multi-hop Question Answering
- Yongjie Huang, Meng Yang
- TLDR: 我们提出了一个新颖的贝叶斯第一个推理图(BFR-Graph),它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个推理图,它提出了一个新颖的第一个
- Improving Zero-Shot Cross-lingual Transfer for Multilingual Question Answering over Knowledge Graph
- Yucheng Zhou, Xiubo Geng, Tao Shen, Wenqiang Zhang, Daxin Jiang
- TLDR: 我们使用非监督的多语种词典引入法来解决知识图上知识图的多语种问题回答问题。
- RocketQA: An Optimized Training Approach to Dense Passage Retrieval for Open-Domain Question Answering
- Yingqi Qu, Yuchen Ding, Jing Liu, Kai Liu, Ruiyang Ren, Wayne Xin Zhao, Daxiang Dong, Hua Wu, Haifeng Wang
- TLDR: 我们提出了一种优化的训练方法,用于提高密集通道检索。
- DAGN: Discourse-Aware Graph Network for Logical Reasoning
- Yinya Huang, Meng Fang, Yu Cao, Liwei Wang, Xiaodan Liang
- TLDR: 我们提出了一个基于语言结构的图网络,它通过使用语言结构来学习语义推理的特征。
- Designing a Minimal Retrieve-and-Read System for Open-Domain Question Answering
- Sohee Yang, Minjoon Seo
- TLDR: 我们表明,通过使用一个用于问题回答的非监督QA系统来处理问题,可以获得更好的准确性。
- Unsupervised Multi-hop Question Answering by Question Generation
- Liangming Pan, Wenhu Chen, Wenhan Xiong, Min-Yen Kan, William Yang Wang
- TLDR: 我们提出了一个非监督的多跳QA,它不需要任何人类标记的多跳QA。
- Sliding Selector Network with Dynamic Memory for Extractive Summarization of Long Documents
- Peng Cui, Le Hu
- TLDR: 我们提出了一种用于长格式文件的总结的动态记忆架构,它可以从一个跳过的窗口中提取概括句法。
- AdaptSum: Towards Low-Resource Domain Adaptation for Abstractive Summarization
- Tiezheng Yu, Zihan Liu, Pascale Fung
- TLDR: 我们研究了在低资源环境中进行初始训练的多任务生成模型的适应性,并表明,在这些环境中,初始训练的模型在理论上和实践上都与目标任务相似。
- QMSum: A New Benchmark for Query-based Multi-domain Meeting Summarization
- Ming Zhong, Da Yin, Tao Yu, Ahmad Zaidi, Mutethia Mutuma, Rahul Jha, Ahmed Hassan Awadallah, Asli Celikyilmaz, Yang Liu, Xipeng Qiu, Dragomir Radev
- TLDR: 我们提出了QMSum,一个用于多域会议总结的基准。
- MM-AVS: A Full-Scale Dataset for Multi-modal Summarization
- Xiyan Fu, Jun Wang, Zhenglu Yang
- TLDR: 我们开发了一套完整的多模态数据集,用于多模态总结。
- MediaSum: A Large-scale Media Interview Dataset for Dialogue Summarization
- Chenguang Zhu, Yang Liu, Jie Mei, Michael Zeng
- TLDR: 我们介绍了MediaSum,这是一个大规模的媒体采访数据集,包含近万的在线和电视采访的录像。
- Improving Faithfulness in Abstractive Summarization with Contrast Candidate Generation and Selection
- Sihao Chen, Fan Zhang, Kazoo Sone, Dan Roth
- TLDR: 我们提出了一种用于解释和解决潜在幻觉的神经概括方法。
- Inference Time Style Control for Summarization
- Shuyang Cao, Lu Wang
- TLDR: 我们提出了一种用于总结的新型方法,可以用于任何预先训练好的总结模型。
- ReinforceBug: A Framework to Generate Adversarial Textual Examples
- Bushra Sabir, Muhammad Ali Babar, Raj Gaire
- TLDR: 我们提出了RevforceBug,一个用于强化学习的RL框架,它通过学习一个政策,可以转移到未见过的数据集上,生成用其他模型的AEs。