ACL 2022 in Chinese
TLDRs
- Investigating label suggestions for opinion mining in German Covid-19 social media
- Tilman Beck, Ji-Ung Lee, Christina Viehmann, Marcus Maurer, Oliver Quiring, Iryna Gurevych
- TLDR: 我们通过使用互动的标签建议来提高在德国Covid-19网络数据上进行批评的效率。
- How Did This Get Funded?! Automatically Identifying Quirky Scientific Achievements
- Chen Shani, Nadav Borenstein, Dafna Shahaf
- TLDR: 我们提出了一种新的、可解释的、有趣的科学论文的分类方法,用于自动识别和分类具有搞笑性和流行性论文。
- Engage the Public: Poll Question Generation for Social Media Posts
- Zexin Lu, Keyang Ding, Yuji Zhang, Jing Li, Baolin Peng, Lemao Liu
- TLDR: 我们提出了一个新颖的任务,通过从用户反馈中学习关注到重要的社会话题。
- HateCheck: Functional Tests for Hate Speech Detection Models
- Paul Röttger, Bertie Vidgen, Dong Nguyen, Zeerak Waseem, Helen Margetts, Janet Pierrehumbert
- TLDR: 我们介绍了HateCheck,一个用于追踪网络不信的神经网络的模块测试。
- Unified Dual-view Cognitive Model for Interpretable Claim Verification
- Lianwei Wu, Yuan Rao, Yuqian Lan, Ling Sun, Zhaoyin Qi
- TLDR: 我们提出了一个基于联合和个人认知的理论,用于可解释的证明验证。
- DeepRapper: Neural Rap Generation with Rhyme and Rhythm Modeling
- Lanqing Xue, Kaitao Song, Duocai Wu, Xu Tan, Nevin L. Zhang, Tao Qin, Wei-Qiang Zhang, Tie-Yan Liu
- TLDR: 我们开发了一种基于变换的基于RNN的流行性流行性流行性流行性词典生成方法,可以生成流行性词典和节奏。
- PENS: A Dataset and Generic Framework for Personalized News Headline Generation
- Xiang Ao, Xiting Wang, Ling Luo, Ying Qiao, Qing He, Xing Xie
- TLDR: 我们提出了一个用于个性化新闻头条生成的框架,并展示了该框架的最先进的结果。
- Enhancing Content Preservation in Text Style Transfer Using Reverse Attention and Conditional Layer Normalization
- Dongkyu Lee, Zhiliang Tian, Lanqing Xue, Nevin L. Zhang
- TLDR: 我们提出了一种基于语义的风格转移方法,它可以产生风格与内容之间的独立风格表示,同时保留内容。
- Mention Flags (MF): Constraining Transformer-based Text Generators
- Yufei Wang, Ian Wood, Stephen Wan, Mark Dras, Mark Johnson
- TLDR: 我们提出了一个用于S2S文本生成的标记牌,它表明,在S2S的生成输出中,语义限制是满足的。
- Generalising Multilingual Concept-to-Text NLG with Language Agnostic Delexicalisation
- Giulio Zhou, Gerasimos Lampouras
- TLDR: 我们提出了一种新的多语言建模方法,使用多语言的 pretrained嵌入,以实现语义的正则化。
- Conversations Are Not Flat: Modeling the Dynamic Information Flow across Dialogue Utterances
- Zekang Li, Jinchao Zhang, Zhengcong Fei, Yang Feng, Jie Zhou
- TLDR: 我们提出了一个用于对话的对话模型,它可以生成好的回应,但需要一个模型来预测。
- Dual Slot Selector via Local Reliability Verification for Dialogue State Tracking
- Jinyu Guo, Kai Shuang, Jijie Li, Zihan Wang
- TLDR: 我们提出了一种基于对话状态的DSS-DST的对话状态跟踪方法,该方法通过使用对话对话的对话历史来预测对话状态状态。
- Transferable Dialogue Systems and User Simulators
- Bo-Hsiang Tseng, Yinpei Dai, Florian Kreyssig, Bill Byrne
- TLDR: 我们提出了一个用于对话系统转移学习的框架,该框架可以结合对话场景的自我游戏。
- BoB: BERT Over BERT for Training Persona-based Dialogue Models from Limited Personalized Data
- Haoyu Song, Yan Wang, Kaiyan Zhang, Wei-Nan Zhang, Ting Liu
- TLDR: 我们提出了一个新颖的BERT-over-BERT(BoB)模型,用于解决基于人脸的对话生成的分歧。
- GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple Intent Detection and Slot Filling
- Libo Qin, Fuxuan Wei, Tianbao Xie, Xiao Xu, Wanxiang Che, Ting Liu
- TLDR: 我们提出了一个非监督的多目标追踪和任意的字符插值插值的结合模型,实现了更快的追踪和字符插值插值的准确性。
- Accelerating BERT Inference for Sequence Labeling via Early-Exit
- Xiaonan Li, Yunfan Shao, Tianxiang Sun, Hang Yan, Xipeng Qiu, Xuanjing Huang
- TLDR: 我们提出了一个简单的句法级的早期-上行方法,用于序列标签任务。
- Modularized Interaction Network for Named Entity Recognition
- Fei Li, Zheng Wang, Siu Cheung Hui, Lejian Liao, Dandan Song, Jing Xu, Guoxiu He, Meihuizi Jia
- TLDR: 我们提出了一种新的模块化互动网络(MIN)模型,它使用了上下文标签和词级依赖性,并结合了信息共享机制来支持信息共享。
- Capturing Event Argument Interaction via A Bi-Directional Entity-Level Recurrent Decoder
- Xi Xiangyu, Wei Ye, Shikun Zhang, Quanxiu Wang, Huixing Jiang, Wei Wu
- TLDR: 我们首次将EAE的主题表征纳入了EAE的主题表征,并提出了一个新的基于BERD的模型,用于生成主题的主题角色。
- UniRE: A Unified Label Space for Entity Relation Extraction
- Yijun Wang, Changzhi Sun, Yuanbin Wu, Hao Zhou, Lei Li, Junchi Yan
- TLDR: 我们提出了一个用于实体分类和关系分类的联合实体关系提取模型,它可以提高实体检索和关系分类的效率。
- Refining Sample Embeddings with Relation Prototypes to Enhance Continual Relation Extraction
- Li Cui, Deqing Yang, Jiaxin Yu, Chengwei Hu, Jiayang Cheng, Jingjie Yi, Yanghua Xiao
- TLDR: 我们使用关系样本来表示每个关系的样本,并使用它们来进行随机学习。
- Contrastive Learning for Many-to-many Multilingual Neural Machine Translation
- Xiao Pan, Mingxuan Wang, Liwei Wu, Lei Li
- TLDR: 我们提出了一个用于多语言翻译的多语言翻译模型,它可以从多语言的表征中得到一个统一的多语言翻译模型。
- Understanding the Properties of Minimum Bayes Risk Decoding in Neural Machine Translation
- Mathias Müller, Rico Sennrich
- TLDR: 我们首次研究了MBR的特性,并表明,MBR有助于减少以前的偏见和失败案例。
- Multi-Head Highly Parallelized LSTM Decoder for Neural Machine Translation
- Hongfei Xu, Qiuhui Liu, Josef van Genabith, Deyi Xiong, Meng Zhang
- TLDR: 一种用于上下文建模的新型的自注意网络。
- A Bidirectional Transformer Based Alignment Model for Unsupervised Word Alignment
- Jingyi Zhang, Josef van Genabith
- TLDR: 我们提出了一个基于逆向转移的基于句法的alignment模型,用于非监督学习句法的句法对齐任务。
- Learning Language Specific Sub-network for Multilingual Machine Translation
- Zehui Lin, Liwei Wu, Mingxuan Wang, Lei Li
- TLDR: 我们提出了LaSS,一个用于多语言机器翻译的统一多语言MT模型。
- Exploring the Efficacy of Automatically Generated Counterfactuals for Sentiment Analysis
- Linyi Yang, Jiazheng Li, Padraig Cunningham, Yue Zhang, Barry Smyth, Ruihai Dong
- TLDR: 我们提出了一种基于自动生成反事实数据的方法,用于数据增强和解释。
- Bridge-Based Active Domain Adaptation for Aspect Term Extraction
- Zhuang Chen, Tieyun Qian
- TLDR: 我们提出了一种主动的领域适应方法,通过主动地转移aspect词来转移其他知识。
- Multimodal Sentiment Detection Based on Multi-channel Graph Neural Networks
- Xiaocui Yang, Shi Feng, Yifei Zhang, Daling Wang
- TLDR: 我们提出了多通道图神经网络,用于图像-文本情感检测。
- Aspect-Category-Opinion-Sentiment Quadruple Extraction with Implicit Aspects and Opinions
- Hongjie Cai, Rui Xia, Jianfei Yu
- TLDR: 我们引入了一项新的任务,称为ACOS Quadruple Extraction,它的目标是将所有aspect-category-opinion-sentiment quadruples在评价句上提取并展示出所有aspect-category-opinion-sentiment的样本。
- PASS: Perturb-and-Select Summarizer for Product Reviews
- Nadav Oved, Ran Levy
- TLDR: 我们提出了一种用于产品评价总结的GAN方法,它可以大大减少自我反驳的问题,同时保留了可解释性。
- Deep Differential Amplifier for Extractive Summarization
- Ruipeng Jia, Yanan Cao, Fang Fang, Yuchen Zhou, Zheng Fang, Yanbing Liu, Shi Wang
- TLDR: 我们提出了一个用于单个文件的总结的深度差异化放大器框架。
- Multi-TimeLine Summarization (MTLS): Improving Timeline Summarization by Generating Multiple Summaries
- Yi Yu, Adam Jatowt, Antoine Doucet, Kazunari Sugiyama, Masatoshi Yoshikawa
- TLDR: 我们提出了一个用于多时间线总结的非监督框架,它可以提高时间线总结的灵活性和通用性。
- Self-Supervised Multimodal Opinion Summarization
- Jinbae Im, Moonki Kim, Hoyeop Lee, Hyunsouk Cho, Sehee Chung
- TLDR: 我们提出了一个用于多语种评价总结的多语种观点总结框架。
- A Training-free and Reference-free Summarization Evaluation Metric via Centrality-weighted Relevance and Self-referenced Redundancy
- Wang Chen, Piji Li, Irwin King
- TLDR: 我们提出了一个用于总结的非监督评估指标,它可以从无监督的评估中得到高质量的评价。
- DESCGEN: A Distantly Supervised Datasetfor Generating Entity Descriptions
- Weijia Shi, Mandar Joshi, Luke Zettlemoyer
- TLDR: 我们提出了一个用于多文件概括任务的GAN,用于生成一个实体的概括描述。
- Introducing Orthogonal Constraint in Structural Probes
- Tomasz Limisiewicz, David Mareček
- TLDR: 我们提出了一种新的结构性问题,用于解释句法依赖性。
- Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger
- Fanchao Qi, Mukai Li, Yangyi Chen, Zhengyan Zhang, Zhiyuan Liu, Yasheng Wang, Maosong Sun
- TLDR: 我们使用句法结构作为文本的后门攻击的 trigger,并表明,文本的嵌入是文本的攻击的最主要诱因。
- Examining the Inductive Bias of Neural Language Models with Artificial Languages
- Jennifer C. White, Ryan Cotterell
- TLDR: 我们提出了一种新的方法,通过使用人工语言来研究语言模型的归纳偏差。
- Explaining Contextualization in Language Models using Visual Analytics
- Rita Sevastjanova, Aikaterini-Lida Kalouli, Christin Beck, Hanna Schäfer, Mennatallah El-Assady
- TLDR: 我们通过使用评分和视觉分析技术来衡量语义模型的上下文结构。
- Improving the Faithfulness of Attention-based Explanations with Task-specific Information for Text Classification
- George Chrysostomou, Nikolaos Aletras
- TLDR: 我们提出了一个新颖的任务-采样(TaSc)框架,用于解释注意力的解释。
- Generating Landmark Navigation Instructions from Maps as a Graph-to-Text Problem
- Raphael Schumann, Stefan Riezler
- TLDR: 我们提出了一个用于路由的神经模型,它从OpenStreetMap表征中输入和学习生成路由指令,用于路由。
- E2E-VLP: End-to-End Vision-Language Pre-training Enhanced by Visual Learning
- Haiyang Xu, Ming Yan, Chenliang Li, Bin Bi, Songfang Huang, Wenming Xiao, Fei Huang
- TLDR: 我们提出了第一个用于V+L理解和生成的元视觉语言预训练模型,用于视觉语言的理解和生成。
- Learning Relation Alignment for Calibrated Cross-modal Retrieval
- Shuhuai Ren, Junyang Lin, Guangxiang Zhao, Rui Men, An Yang, Jingren Zhou, Xu Sun, Hongxia Yang
- TLDR: 我们提出了Inter-modal Alignment,一种用于跨模式的自我关注的正则化训练方法。
- KM-BART: Knowledge Enhanced Multimodal BART for Visual Commonsense Generation
- Yiran Xing, Zai Shi, Zhao Meng, Gerhard Lakemeyer, Yunpu Ma, Roger Wattenhofer
- TLDR: 我们提出了知识增强的多模AGI,它可以从图像和文本输入中推断出普遍的事实知识。
- Cascaded Head-colliding Attention
- Lin Zheng, Zhiyong Wu, Lingpeng Kong
- TLDR: 我们使用一个潜在变量模型来模拟多头注意力,并将其应用于NLP任务。
- Structural Knowledge Distillation: Tractably Distilling Information for Structured Predictor
- Xinyu Wang, Yong Jiang, Zhaohui Yan, Zixia Jia, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: 我们表明,知识提炼的目标可以被归纳为一个因子化形式,用于结构化预测。
- Parameter-efficient Multi-task Fine-tuning for Transformers via Shared Hypernetworks
- Rabeeh Karimi Mahabadi, Sebastian Ruder, Mostafa Dehghani, James Henderson
- TLDR: 我们通过生成用于所有任务的变压器的变压参数,以实现参数高效的多任务学习。
- COSY: COunterfactual SYntax for Cross-Lingual Understanding
- Sicheng Yu, Hao Zhang, Yulei Niu, Qianru Sun, Jing Jiang
- TLDR: 我们提出了一种基于语义的语言建模方法,用于解决语言模型中语言无关的语法。
- OoMMix: Out-of-manifold Regularization in Contextual Embedding Space for Text Classification
- Seonghyeon Lee, Dongha Lee, Hwanjo Yu
- TLDR: 我们提出了一种新的基于词的神经网络的神经网络的理论,用于寻找和正则化出于语义上的خارج。
- Understanding and Countering Stereotypes: A Computational Approach to the Stereotype Content Model
- Kathleen C. Fraser, Isar Nejadgholi, Svetlana Kiritchenko
- TLDR: 我们提出了一种用于解释和使用非偏见的理论,以解决社会上最棘手的反偏问题。
- Structurizing Misinformation Stories via Rationalizing Fact-Checks
- Shan Jiang, Christo Wilson
- TLDR: 我们通过使用事实的事实check来解释常见虚假信息类型。
- Modeling Language Usage and Listener Engagement in Podcasts
- Sravana Reddy, Mariya Lazarova, Yongze Yu, Rosie Jones
- TLDR: 我们研究了如何用句法和风格来激励和激励音乐制作者,并表明,这些风格与音乐的互动密切相关。
- Breaking Down the Invisible Wall of Informal Fallacies in Online Discussions
- Saumya Sahai, Oana Balalau, Roxana Horincar
- TLDR: 我们研究了在网络上最常用的误导,并提出了一个用于解释误导的模型。
- SocAoG: Incremental Graph Parsing for Social Relation Inference in Dialogues
- Liang Qiu, Yuan Liang, Yizhou Zhao, Pan Lu, Baolin Peng, Zhou Yu, Ying Nian Wu, Song-Chun Zhu
- TLDR: 我们提出了一个社会网络的顺序结构预测任务,并提出了一个用于预测社会关系的顺序结构预测任务。
- TicketTalk: Toward human-level performance with end-to-end, transaction-based dialog systems
- Bill Byrne, Karthik Krishnamoorthi, Saravanan Ganesh, Mihir Kale
- TLDR: 我们提出了一种基于数据的、端到端的基于交易的对话系统,在语言质量和真实基础方面表现得与人类相当。
- Improving Dialog Systems for Negotiation with Personality Modeling
- Runzhe Yang, Jingxiao Chen, Karthik Narasimhan
- TLDR: 我们通过使用ToM推理来解释对手的个性类型,预测他们的反应,并使用这信息来适应一个对话代理的高层次策略。
- Learning from Perturbations: Diverse and Informative Dialogue Generation with Inverse Adversarial Training
- Wangchunshu Zhou, Qifei Li, Chenle Li
- TLDR: 我们提出了反对抗训练(IAT)算法,用于避免 generic回应和模型对话历史更好。
- Increasing Faithfulness in Knowledge-Grounded Dialogue with Controllable Features
- Hannah Rashkin, David Reitter, Gaurav Singh Tomar, Dipanjan Das
- TLDR: 我们提出了一种用于生成对话系统中实证的对话的理论,并提出了衡量标准,以衡量对话系统对实证的信心。
- CitationIE: Leveraging the Citation Graph for Scientific Information Extraction
- Vijay Viswanathan, Graham Neubig, Pengfei Liu
- TLDR: 我们提出了一个用于科学信息提取的工具,用于生成科学文献的文献表征。
- From Discourse to Narrative: Knowledge Projection for Event Relation Extraction
- Jialong Tang, Hongyu Lin, Meng Liao, Yaojie Lu, Xianpei Han, Le Sun, Weijian Xie, Jin Xu
- TLDR: 我们提出了一种用于事件关系提取的知识投影方法,通过利用多层次知识投影的共同特征,将知识投影到主题上。
- AdvPicker: Effectively Leveraging Unlabeled Data via Adversarial Discriminator for Cross-Lingual NER
- Weile Chen, Huiqiang Jiang, Qianhui Wu, Börje Karlsson, Yi Guan
- TLDR: 我们提出了一种新的对抗性方法,用于更好的使用非标记的语言数据来学习实体领域知识。
- Compare to The Knowledge: Graph Neural Fake News Detection with External Knowledge
- Linmei Hu, Tianchi Yang, Luhao Zhang, Wanjun Zhong, Duyu Tang, Chuan Shi, Nan Duan, Ming Zhou
- TLDR: 我们提出了一个用于假消息检测的端到端图神经模型,它通过知识库(KB)通过实体来比较新闻到知识库(KB)的事实。
- Discontinuous Named Entity Recognition as Maximal Clique Discovery
- Yucheng Wang, Bowen Yu, Hongsong Zhu, Tingwen Liu, Nan Yu, Limin Sun
- TLDR: 我们提出了一种基于GAN的非参数的非连续性NER,它可以被简单地概括为一个图,并利用它来解决图上的最小 clique。
- LNN-EL: A Neuro-Symbolic Approach to Short-text Entity Linking
- Hang Jiang, Sairam Gurajada, Qiuhao Lu, Sumit Neelam, Lucian Popa, Prithviraj Sen, Yunyao Li, Alexander Gray
- TLDR: 我们使用神经符号来学习知识图的神经网络,并使用它来解决知识图的EL。
- Do Context-Aware Translation Models Pay the Right Attention?
- Kayo Yin, Patrick Fernandes, Danish Pruthi, Aditi Chaudhary, André F. T. Martins, Graham Neubig
- TLDR: 我们提出了SCAT,一个用于解决不相交的句法的通用数据集。
- Adapting High-resource NMT Models to Translate Low-resource Related Languages without Parallel Data
- Wei-Jen Ko, Ahmed El-Kishky, Adithya Renduchintala, Vishrav Chaudhary, Naman Goyal, Francisco Guzmán, Pascale Fung, Philipp Koehn, Mona Diab
- TLDR: 我们使用一个统一的语言神经网络来适应低资源语言的翻译。
- Bilingual Lexicon Induction via Unsupervised Bitext Construction and Word Alignment
- Haoyue Shi, Luke Zettlemoyer, Sida I. Wang
- TLDR: 我们表明,通过使用一种新的、非监督的词嵌入方法来生成词典,可以提高词典质量。
- Multilingual Speech Translation from Efficient Finetuning of Pretrained Models
- Xian Li, Changhan Wang, Yun Tang, Chau Tran, Yuqing Tang, Juan Pino, Alexei Baevski, Alexis Conneau, Michael Auli
- TLDR: 通过高效的转移学习从一个预先训练好的语音编码器和文本编码器中进行多语种语音到文本的翻译。
- Learning Faithful Representations of Causal Graphs
- Ananth Balashankar, Lakshminarayanan Subramanian
- TLDR: 我们使用上下文嵌入来捕捉直接的因果图的轉換性属性,并通过使用上下文嵌入来学习上下文嵌入,以实现更准确的因果图。
- What Context Features Can Transformer Language Models Use?
- Joe O’Connor, Jacob Andreas
- TLDR: 我们描述了几个用于变形语言模型预测的实验,其中我们发现,在上下文中,我们用选择性地从句法和结构信息中抽取了不到15%的信息。
- Integrated Directional Gradients: Feature Interaction Attribution for Neural NLP Models
- Sandipan Sikdar, Parantapa Bhattacharya, Kieran Heese
- TLDR: 我们提出了IDG,一种用于归纳特征重要性 scores到群特征的类的类属性方法。
- DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations
- John Giorgi, Osvald Nitski, Bo Wang, Gary Bader
- TLDR: 我们提出了DeCLUTR:深度反向学习用于通用句子嵌入的全自动目标。
- XLPT-AMR: Cross-Lingual Pre-Training via Multi-Task Learning for Zero-Shot AMR Parsing and Text Generation
- Dongqin Xu, Junhui Li, Muhua Zhu, Min Zhang, Guodong Zhou
- TLDR: 我们提出了一种跨语言的预训练方法,用于零樣本的AMR解析和文本生成。
- Span-based Semantic Parsing for Compositional Generalization
- Jonathan Herzig, Jonathan Berant
- TLDR: 我们提出了一个用于构成性泛化的泛化神经网络,它可以比Seq2seq模型更接近Seq2seq模型。
- Compositional Generalization and Natural Language Variation: Can a Semantic Parsing Approach Handle Both?
- Peter Shaw, Ming-Wei Chang, Panupong Pasupat, Kristina Toutanova
- TLDR: 我们提出了一种用于语义解析的语义解析方法,可以解决语义解析和语义偏差的组合化泛化问题。
- A Targeted Assessment of Incremental Processing in Neural Language Models and Humans
- Ethan Wilcox, Pranali Vani, Roger Levy
- TLDR: 我们通过收集单词反应时间数据来衡量语言模型和神经语言模型在语法测试中的轉換性处理。
- The Possible, the Plausible, and the Desirable: Event-Based Modality Detection for Language Processing
- Valentina Pyatkin, Shoval Sadde, Aynat Rubinstein, Paul Portner, Reut Tsarfaty
- TLDR: 我们提出了一种基于事件的随机性 modality检测任务,可以检测和分类随机性表达。
- To POS Tag or Not to POS Tag: The Impact of POS Tags on Morphological Learning in Low-Resource Settings
- Sarah Moeller, Ling Liu, Mans Hulden
- TLDR: 我们表明,POS标签不会产生任何影响,而当它们存在时,它们会影响到性能。
- Prosodic segmentation for parsing spoken dialogue
- Elizabeth Nielsen, Mark Steedman, Sharon Goldwater
- TLDR: 我们研究了使用转录的句法嵌入的变体对句法嵌入的反应,并表明,使用转录的反应可以代替Gold standard的Su边际。
- VoxPopuli: A Large-Scale Multilingual Speech Corpus for Representation Learning, Semi-Supervised Learning and Interpretation
- Changhan Wang, Morgane Riviere, Ann Lee, Anne Wu, Chaitanya Talnikar, Daniel Haziza, Mary Williamson, Juan Pino, Emmanuel Dupoux
- TLDR: 我们介绍了VoxPopuli,这是一个大规模的多语言语音数据库,它提供了400K小时的无标签的语音数据,用于半监督学习和语音到文本的翻译。
- Stereotyping Norwegian Salmon: An Inventory of Pitfalls in Fairness Benchmark Datasets
- Su Lin Blodgett, Gilsinia Lopez, Alexandra Olteanu, Robert Sim, Hanna Wallach
- TLDR: 我们使用一个衡量标准的建模视覺法来分析衡量标准的偏见,并表明这些偏见往往缺乏明确的表达,导致衡量标准的准确性。
- Robust Knowledge Graph Completion with Stacked Convolutions and a Student Re-Ranking Network
- Justin Lovelace, Denis Newman-Griffis, Shikhar Vashishth, Jill Fain Lehman, Carolyn Rosé
- TLDR: 我们使用一个用于KG完成的通用的KG数据集来探索KG完成的实际意义。
- A DQN-based Approach to Finding Precise Evidences for Fact Verification
- Hai Wan, Haicheng Chen, Jianfeng Du, Weilin Luo, Rongzhen Ye
- TLDR: 我们提出了一种基于DQN的基于Q值的基于事实的检索方法。
- The Art of Abstention: Selective Prediction and Error Regularization for Natural Language Processing
- Ji Xin, Raphael Tang, Yaoliang Yu, Jimmy Lin
- TLDR: 我们研究了在NLP任务中选择性预测的理论和实践证据。
- Unsupervised Out-of-Domain Detection via Pre-trained Transformers
- Keyang Xu, Tongzheng Ren, Shikun Zhang, Yihao Feng, Caiming Xiong
- TLDR: 我们提出了一种用于检测非目标样本的简单方法,用于从非目标样本中检测出异常值。
- MATE-KD: Masked Adversarial TExt, a Companion to Knowledge Distillation
- Ahmad Rashid, Vasileios Lioutas, Mehdi Rezagholizadeh
- TLDR: 我们提出了MATE-KD,一种基于文本的对抗性训练算法,提高了知识提炼的性能。
- Selecting Informative Contexts Improves Language Model Fine-tuning
- Richard Antonello, Nicole Beckage, Javier Turek, Alexander Huth
- TLDR: 我们提出了一种通用的语言模型微调方法,用于提高语言建模的最终性能和语言建模的准确性。
- Explainable Prediction of Text Complexity: The Missing Preliminaries for Text Simplification
- Cristina Garbacea, Mengtian Guo, Samuel Carton, Qiaozhu Mei
- TLDR: 我们表明,本文可以被分割为一个简洁的框架,用于解决本文的简单化问题。
- Multi-Task Retrieval for Knowledge-Intensive Tasks
- Jean Maillard, Vladimir Karpukhin, Fabio Petroni, Wen-tau Yih, Barlas Oguz, Veselin Stoyanov, Gargi Ghosh
- TLDR: 我们提出了一个多任务训练的神经检索模型,它可以作为一种通用的检索模型,在少樣本环境中表现良好。
- When Do You Need Billions of Words of Pretraining Data?
- Yian Zhang, Alex Warstadt, Xiaocheng Li, Samuel R. Bowman
- TLDR: 我们使用一个简单的学习曲线来跟踪模型的性能在训练数据集中的快速学习速度。
- Analyzing the Source and Target Contributions to Predictions in Neural Machine Translation
- Elena Voita, Rico Sennrich, Ivan Titov
- TLDR: 我们从一个用于神经机器翻译的RLP中提取了理论和经验上的分析。
- Comparing Test Sets with Item Response Theory
- Clara Vania, Phu Mon Htut, William Huang, Dhara Mungra, Richard Yuanzhe Pang, Jason Phang, Haokun Liu, Kyunghyun Cho, Samuel R. Bowman
- TLDR: 我们使用 Item Response Theory和评估了29个数据集,用预测数据来衡量数据集的一致性。
- Uncovering Constraint-Based Behavior in Neural Models via Targeted Fine-Tuning
- Forrest Davis, Marten van Schijndel
- TLDR: 我们表明,语言之间的竞争过程可以作为限制条件,并表明,在语言上学习的限制可以提高模型行为。
- More Identifiable yet Equally Performant Transformers for Text Classification
- Rishabh Bhardwaj, Navonil Majumder, Soujanya Poria, Eduard Hovy
- TLDR: 我们提出了一个用于解释注意力权重的变体,它可以被解释为一个特定权重的解释。
- AugNLG: Few-shot Natural Language Generation using Self-trained Data Augmentation
- Xinnuo Xu, Guoyin Wang, Young-Bum Kim, Sungjin Lee
- TLDR: 我们提出了AugNLG,一种用于生成多语义对话系统的数据增强方法,它可以自动生成从开放的文本中的信息。
- Can vectors read minds better than experts? Comparing data augmentation strategies for the automated scoring of children’s mindreading ability
- Venelin Kovatchev, Phillip Smith, Mark Lee, Rory Devine
- TLDR: 我们使用数据增强策略来提高儿童的自我理解能力。
- A Dataset and Baselines for Multilingual Reply Suggestion
- Mozhi Zhang, Wei Wang, Budhaditya Deb, Guoqing Zheng, Milad Shokouhi, Ahmed Hassan Awadallah
- TLDR: 我们提出了Mrs,一个多语言的回答建议数据集,包含了10个语言。
- What Ingredients Make for an Effective Crowdsourcing Protocol for Difficult NLU Data Collection Tasks?
- Nikita Nangia, Saku Sugawara, Harsh Trivedi, Alex Warstadt, Clara Vania, Samuel R. Bowman
- TLDR: 我们使用多模态问题回答作为测试环境,并使用一个随机抽样的测试结果来衡量使用方法的有效性。
- Align Voting Behavior with Public Statements for Legislator Representation Learning
- Xinyi Mou, Zhongyu Wei, Lei Chen, Shangyi Ning, Yancheng He, Changjian Jiang, Xuanjing Huang
- TLDR: 我们提出了一个新颖的任务,即用政策的表征来学习政策的代表。
- Measure and Evaluation of Semantic Divergence across Two Languages
- Syrielle Montariol, Alexandre Allauzen
- TLDR: 我们提出了一个框架,用于分析和预测语义分歧,并提出了一个框架,用于描述语义分歧的特征。
- Improving Zero-Shot Translation by Disentangling Positional Information
- Danni Liu, Jan Niehues, James Cross, Francisco Guzmán, Xian Li
- TLDR: 我们提出了一种基于上下文的翻译的新型方法,它可以从语言到语言的直接翻译中获得高质量的翻译。
- Common Sense Beyond English: Evaluating and Improving Multilingual Language Models for Commonsense Reasoning
- Bill Yuchen Lin, Seyeon Lee, Xiaoyang Qiao, Xiang Ren
- TLDR: 我们提出了 Mickey Probe,一个语言一般的检索任务,用于比较流行的多语言模型(ML-LMs)在不同的语言上的表现。
- Attention Calibration for Transformer in Neural Machine Translation
- Yu Lu, Jiali Zeng, Jiajun Zhang, Shuangzhi Wu, Mu Li
- TLDR: 我们提出了一种用于神经机器翻译的注意力权重的變異,它可以从低层中学习更多信息,同时集中于特定输入。
- Diverse Pretrained Context Encodings Improve Document Translation
- Domenic Donato, Lei Yu, Chris Dyer
- TLDR: 本文提出了一种用于翻译句法到句法转换器的多语义架构,该架构可以从句法到句法的上下文中学习。
- Exploiting Language Relatedness for Low Web-Resource Language Model Adaptation: An Indic Languages Study
- Yash Khemchandani, Sarvesh Mehtani, Vaidehi Patil, Abhijeet Awasthi, Partha Talukdar, Sunita Sarawagi
- TLDR: 我们提出了RelateLM,用于多语言LM的多语言关联性,用于解决LRL中语言家族的相關性限制。
- On Finding the K-best Non-projective Dependency Trees
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: 我们提出了一种用于寻找最优依赖性树的方法,该方法在本文中提供了一个简化的结果。
- Towards Argument Mining for Social Good: A Survey
- Eva Maria Vecchi, Neele Falk, Iman Jundi, Gabriella Lapesa
- TLDR: 我们提出了一个新颖的理论,通过将批评/非批评质量与批评质量的理论联系起来,提出一个用于社会公平的理论。
- Automated Generation of Storytelling Vocabulary from Photographs for use in AAC
- Mauricio Fontana de Vargas, Karyn Moffatt
- TLDR: 我们提出了一种用于生成背景相关的句法的方法,用于帮助人们在回忆过去的经历时使用句法。
- CLIP: A Dataset for Extracting Action Items for Physicians from Hospital Discharge Notes
- James Mullenbach, Yada Pruksachatkun, Sean Adler, Jennifer Seale, Jordan Swartz, Greg McKelvey, Hui Dai, Yi Yang, David Sontag
- TLDR: 我们提出了一个用于临床行动表征的在线数据集,用于临床行动表征的临床数据集。
- Assessing Emoji Use in Modern Text Processing Tools
- Abu Awal Md Shoeb, Gerard de Melo
- TLDR: 我们通过考虑测试集上的tweets,对Twitter中包含的情感表示支持。
- Select, Extract and Generate: Neural Keyphrase Generation with Layer-wise Coverage Attention
- Wasi Ahmad, Xiao Bai, Soomin Lee, Kai-Wei Chang
- TLDR: 本文介绍了在关键字生成中使用语义符的一般方法。
- Factorising Meaning and Form for Intent-Preserving Paraphrasing
- Tom Hosking, Mirella Lapata
- TLDR: 我们提出了一种用于生成句法的句法的句法方法。
- AggGen: Ordering and Aggregating while Generating
- Xinnuo Xu, Ondřej Dušek, Verena Rieser, Ioannis Konstas
- TLDR: 本文介绍了AggGen,一个用于数据到文本的模型,它将句法规划引入神经数据到数据的系统。
- Reflective Decoding: Beyond Unidirectional Generation with Off-the-Shelf Language Models
- Peter West, Ximing Lu, Ari Holtzman, Chandra Bhagavatula, Jena D. Hwang, Yejin Choi
- TLDR: 我们提出了Reflective Decoding,一种用于非问题任务的非监督的非监督的语言建模方法。
- Towards Table-to-Text Generation with Numerical Reasoning
- Lya Hulliyyatus Suadaa, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura, Hiroya Takamura
- TLDR: 我们提出了一个用于数据到文本生成的框架,它可以从数据中生成更准确的表征。
- BACO: A Background Knowledge- and Content-Based Framework for Citing Sentence Generation
- Yubin Ge, Ly Dinh, Xiaofeng Liu, Jinsong Su, Ziyao Lu, Ante Wang, Jana Diesner
- TLDR: 我们提出了BACO,一个基于知识和好奇心的框架来生成句法。
- Language Model as an Annotator: Exploring DialoGPT for Dialogue Summarization
- Xiachong Feng, Xiaocheng Feng, Libo Qin, Bing Qin, Ting Liu
- TLDR: 我们使用DalofGPT来表示对话总结数据集中的三个特征。
- Challenges in Information-Seeking QA: Unanswerable Questions and Paragraph Retrieval
- Akari Asai, Eunsol Choi
- TLDR: 我们通过对信息搜索问题的回答进行概括,分析了为什么回答信息搜索问题更难,以及在信息搜索问题上如何回答。
- A Gradually Soft Multi-Task and Data-Augmented Approach to Medical Question Understanding
- Khalil Mrini, Franck Dernoncourt, Seunghyun Yoon, Trung Bui, Walter Chang, Emilia Farcas, Ndapa Nakashole
- TLDR: 我们提出了一种用于医疗问题理解的多任务学习方法,该方法使用一个数据增强算法来优化医疗问题回答系统。
- Leveraging Type Descriptions for Zero-shot Named Entity Recognition and Classification
- Rami Aly, Andreas Vlachos, Ryan McDonald
- TLDR: 我们提出了第一个用于NERC的零樣本学习方法,通过使用一个学习模型来学习一个学习模型,而不是从训练数据中学习一个。
- MECT: Multi-Metadata Embedding based Cross-Transformer for Chinese Named Entity Recognition
- Shuang Wu, Xiaoning Song, Zhenhua Feng
- TLDR: 我们提出了一种基于多任务嵌入的跨向转移方法,用于提高汉字符的字符表示的性能。
- Factuality Assessment as Modal Dependency Parsing
- Jiarui Yao, Haoling Qiu, Jin Zhao, Bonan Min, Nianwen Xue
- TLDR: 我们通过使用一个用于事实性评估的神经网络来分析事件和他们的来源,并利用它来生成一个用于事实性评估的第一个大规模数据集。
- Directed Acyclic Graph Network for Conversational Emotion Recognition
- Weizhou Shen, Siyue Wu, Yunyi Yang, Xiaojun Quan
- TLDR: 我们提出了一个用于情感识别的直接的梯度图,用于更好的理解和解释在语音对话中进行的句法。
- Improving Formality Style Transfer with Context-Aware Rule Injection
- Zonghai Yao, Hong Yu
- TLDR: 我们提出了一种用于FST的通用规则注入方法,该方法通过将多个规则注入一个端到端BERT架构,以实现最先进的结果。
- Topic-Driven and Knowledge-Aware Transformer for Dialogue Emotion Detection
- Lixing Zhu, Gabriele Pergola, Lin Gui, Deyu Zhou, Yulan He
- TLDR: 我们提出了一个主题导向的知识感知转移,用于解决对话情感检测中的问题。
- Syntopical Graphs for Computational Argumentation Tasks
- Joe Barrow, Rajiv Jain, Nedim Lipka, Franck Dernoncourt, Vlad Morariu, Varun Manjunatha, Douglas Oard, Philip Resnik, Henning Wachsmuth
- TLDR: 我们提出了一种通用的方法来解决基于语义的论证任务,用于捕捉和分析在不同维度上的表现和特征。
- Stance Detection in COVID-19 Tweets
- Kyle Glandt, Sarthak Khanal, Yingjie Li, Doina Caragea, Cornelia Caragea
- TLDR: 我们使用一个新颖的stance检测数据集,称为COVID-19-Stance。
- Topic-Aware Evidence Reasoning and Stance-Aware Aggregation for Fact Verification
- Jiasheng Si, Deyu Zhou, Tongzhe Li, Xingyu Shi, Yulan He
- TLDR: 我们提出了一个主题感的证据推理和行为感的证据推理模型,用于更准确的事实验证。
- Changes in European Solidarity Before and During COVID-19: Evidence from a Large Crowd- and Expert-Annotated Twitter Dataset
- Alexandra Ils, Dan Liu, Daniela Grunow, Steffen Eger
- TLDR: 我们使用BERT模型来分析和预测EU(反)solidarity表达的转变。
- Measuring Conversational Uptake: A Case Study on Student-Teacher Interactions
- Dorottya Demszky, Jing Liu, Zid Mancenido, Julie Cohen, Heather Hill, Dan Jurafsky, Tatsunori Hashimoto
- TLDR: 我们提出了一个用于量化和改进教师的在线在线在线学习框架。
- A Survey of Code-switching: Linguistic and Social Perspectives for Language Technologies
- A. Seza Doğruöz, Sunayana Sitaram, Barbara E. Bullock, Almeida Jacqueline Toribio
- TLDR: 我们提出了一个关于代码跳跃(C-S)的论文,并表明,论文中没有一个完整的语言模型来描述C-S类型。
- Learning from the Worst: Dynamically Generated Datasets to Improve Online Hate Detection
- Bertie Vidgen, Tristan Thrush, Zeerak Waseem, Douwe Kiela
- TLDR: 我们提出了一个人类和模型的迭代过程,用于生成和分类更好的和更穩定的反向追踪模型。
- InfoSurgeon: Cross-Media Fine-grained Information Consistency Checking for Fake News Detection
- Yi Fung, Christopher Thomas, Revanth Gangi Reddy, Sandeep Polisetty, Heng Ji, Shih-Fu Chang, Kathleen McKeown, Mohit Bansal, Avi Sil
- TLDR: 我们提出了一个知识元素级的虚假新闻检测的新标准,并提出了一个解决方法,用于检测知识元素在虚假新闻中的作用。
- I like fish, especially dolphins: Addressing Contradictions in Dialogue Modeling
- Yixin Nie, Mary Williamson, Mohit Bansal, Douwe Kiela, Jason Weston
- TLDR: 我们介绍了对话式反驳任务(DECODE)和一个对话式数据集,其中包含人类和机器之间的反驳对话。
- A Sequence-to-Sequence Approach to Dialogue State Tracking
- Yue Feng, Yang Wang, Hang Li
- TLDR: 本文提出了一种新的对话状态跟踪方法,用于解决任务导向的对话系统中对话状态跟踪的问题。
- Discovering Dialog Structure Graph for Coherent Dialog Generation
- Jun Xu, Zeyang Lei, Haifeng Wang, Zheng-Yu Niu, Hua Wu, Wanxiang Che
- TLDR: 我们通过使用DVAE-GNN来发现离散对话状态和它们的转换,然后利用它作为背景知识来进行对话系统中对话管理。
- Dialogue Response Selection with Hierarchical Curriculum Learning
- Yixuan Su, Deng Cai, Qingyu Zhou, Zibo Lin, Simon Baker, Yunbo Cao, Shuming Shi, Nigel Collier, Yan Wang
- TLDR: 我们提出了一个层次化课程学习框架,用于学习对话回应选择的匹配模型。
- A Joint Model for Dropped Pronoun Recovery and Conversational Discourse Parsing in Chinese Conversational Speech
- Jingxuan Yang, Kerui Xu, Jun Xu, Si Li, Sheng Gao, Jun Guo, Nianwen Xue, Ji-Rong Wen
- TLDR: 我们提出了一个用于DPR和对话式对话解析(CDP)的神经模型,用于解决对话式语音的DPR和CDP。
- A Systematic Investigation of KB-Text Embedding Alignment at Scale
- Vardaan Pahuja, Yu Gu, Wenhu Chen, Mehdi Bahrami, Lei Liu, Wei-Peng Chen, Yu Su
- TLDR: 我们通过大规模的调查和分析,研究KB和文本嵌入的对应关系,并使用COVID-19作为案例研究。
- Named Entity Recognition with Small Strongly Labeled and Large Weakly Labeled Data
- Haoming Jiang, Danqing Zhang, Tianyu Cao, Bing Yin, Tuo Zhao
- TLDR: 我们提出了一种用于生物NER的多模态计算框架,它可以有效地从弱标签中有效地去除噪音,同时比现有的模型更有效。
- Ultra-Fine Entity Typing with Weak Supervision from a Masked Language Model
- Hongliang Dai, Yangqiu Song, Haixun Wang
- TLDR: 我们使用BERT Masked Language Model(MLM)来获得用于超fine实体字典的训练数据。
- Improving Named Entity Recognition by External Context Retrieving and Cooperative Learning
- Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: 我们提出了一种基于检索的输入视图的基于语义的归纳方法,可以提高NER模型的性能。
- Implicit Representations of Meaning in Neural Language Models
- Belinda Z. Li, Maxwell Nye, Jacob Andreas
- TLDR: 我们表明,在没有解释的情况下,神经语言模型可以预测出句法状态,并使用它来解释句法状态。
- Causal Analysis of Syntactic Agreement Mechanisms in Neural Language Models
- Matthew Finlayson, Aaron Mueller, Sebastian Gehrmann, Stuart Shieber, Tal Linzen, Yonatan Belinkov
- TLDR: 我们表明,语言模型在句法结构上与语法模型一样地运作,并表明它们在句法结构上的表现 subject-verb协议。
- Bird’s Eye: Probing for Linguistic Graph Structures with a Simple Information-Theoretic Approach
- Yifan Hou, Mrinmaya Sachan
- TLDR: 我们提出了一个信息论的探测器,它可以从句法和语义图中检测出它们编码的信息。
- Knowledgeable or Educated Guess? Revisiting Language Models as Knowledge Bases
- Boxi Cao, Hongyu Lin, Xianpei Han, Le Sun, Lingyong Yan, Meng Liao, Tong Xue, Jin Xu
- TLDR: 我们通过研究MLMs在不同提取模式中的表现,从理论上分析了MLMs的潜在预测机制。
- Poisoning Knowledge Graph Embeddings via Relation Inference Patterns
- Peru Bhardwaj, John Kelleher, Luca Costabello, Declan O’Sullivan
- TLDR: 我们研究了生成数据中毒攻击的理论问题,并提出了解决方法。
- Bad Seeds: Evaluating Lexical Methods for Bias Measurement
- Maria Antoniak, David Mimno
- TLDR: 我们表明,在没有经验的上下文表征的情况下,用一个从前使用的词典编码,可以产生偏差。
- A Survey of Race, Racism, and Anti-Racism in NLP
- Anjalie Field, Su Lin Blodgett, Zeerak Waseem, Yulia Tsvetkov
- TLDR: 我们表明,在ACL的论文中,没有提及种族,这表明在NLP研究和开发过程中存在种族偏见。
- Intrinsic Bias Metrics Do Not Correlate with Application Bias
- Seraphina Goldfarb-Tarrant, Rebecca Marchant, Ricardo Muñoz Sánchez, Mugdha Pandya, Adam Lopez
- TLDR: 我们表明,在各种任务和语言上训练的模型中,在内在和外在指标之间没有一个可信的相互作用。
- RedditBias: A Real-World Resource for Bias Evaluation and Debiasing of Conversational Language Models
- Soumya Barikeri, Anne Lauscher, Ivan Vulić, Goran Glavaš
- TLDR: 我们提出了一个评估和评估对话语言模型的偏见和批评的框架。
- Contributions of Transformer Attention Heads in Multi- and Cross-lingual Tasks
- Weicheng Ma, Kai Zhang, Renze Lou, Lili Wang, Soroush Vosoughi
- TLDR: 我们通过大量的实验研究了多语种Transformer-based模型对多语种任务的一般影响。
- Crafting Adversarial Examples for Neural Machine Translation
- Xinze Zhang, Junzhe Zhang, Zhenhua Chen, Kun He
- TLDR: 我们提出了一种用于生成神经机器翻译的例子的新方法。
- UXLA: A Robust Unsupervised Data Augmentation Framework for Zero-Resource Cross-Lingual NLP
- M Saiful Bari, Tasnim Mohiuddin, Shafiq Joty
- TLDR: 我们提出了UXLA,这是一个用于零资源转移学习的非监督数据增强框架。
- Glancing Transformer for Non-Autoregressive Neural Machine Translation
- Lihua Qian, Hao Zhou, Yu Bao, Mingxuan Wang, Lin Qiu, Weinan Zhang, Yong Yu, Lei Li
- TLDR: 我们提出了一个用于单个通道的非监督机器翻译的GAN模型,用于单个通道的多通道生成。
- Hierarchical Context-aware Network for Dense Video Event Captioning
- Lei Ji, Xianglin Guo, Haoyang Huang, Xilin Chen
- TLDR: 我们提出了一个层次化理解的视频事件标注(HCN)架构,用于捕捉视频中各种方面的信息。
- Control Image Captioning Spatially and Temporally
- Kun Yan, Lei Ji, Huaishao Luo, Ming Zhou, Nan Duan, Shuai Ma
- TLDR: 本文提出了一种新的动态神经网络,它通过通过通过跳跃来连接反向限制和注意力引导来学习文本符号。
- Edited Media Understanding Frames: Reasoning About the Intent and Implications of Visual Misinformation
- Jeff Da, Maxwell Forbes, Rowan Zellers, Anthony Zheng, Jena D. Hwang, Antoine Bosselut, Yejin Choi
- TLDR: 我们研究了修改的媒体映射,一个新颖的批评框架,以理解视觉媒体的操作,包括意图,情感反应,攻击,攻击者,攻击的个人,和整个网络的整体意义。
- PIGLeT: Language Grounding Through Neuro-Symbolic Interaction in a 3D World
- Rowan Zellers, Ari Holtzman, Matthew Peters, Roozbeh Mottaghi, Aniruddha Kembhavi, Ali Farhadi, Yejin Choi
- TLDR: 我们提出了PIGLeT:一个用于物理感知知识的学习模型,并将其知识应用到语言模型中。
- Modeling Fine-Grained Entity Types with Box Embeddings
- Yasumasa Onoe, Michael Boratko, Andrew McCallum, Greg Durrett
- TLDR: 我们使用BERT来表示类型和实体的标注,并利用BERT来解释它们。
- ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin Information
- Zijun Sun, Xiaoya Li, Xiaofei Sun, Yuxian Meng, Xiang Ao, Qing He, Fei Wu, Jiwei Li
- TLDR: 我们提出了一种用于语言理解的语言BERT,它结合了两个重要的语言词典:Gelph和pinyin,以及一个用于语言理解的语言BERT模型。
- Weight Distillation: Transferring the Knowledge in Neural Network Parameters
- Ye Lin, Yanyang Li, Ziyang Wang, Bei Li, Quan Du, Tong Xiao, Jingbo Zhu
- TLDR: 我们提出了权重提炼法,用于从一个大的数据中提炼知识。
- Optimizing Deeper Transformers on Small Datasets
- Peng Xu, Dhruv Kumar, Wei Yang, Wenjie Zi, Keyi Tang, Chenyang Huang, Jackie Chi Kit Cheung, Simon J.D. Prince, Yanshuai Cao
- TLDR: 我们通过使用一个用于文本到SQL的转换器的通用初始化方案来解决少量数据集中的低质量转换器问题。
- BERTAC: Enhancing Transformer-based Language Models with Adversarially Pretrained Convolutional Neural Networks
- Jong-Hoon Oh, Ryu Iida, Julien Kloetzer, Kentaro Torisawa
- TLDR: 我们提出了一个用于NLP任务的神经网络架构,并展示了其在GLUE任务上的性能优于SOTA。
- COVID-Fact: Fact Extraction and Verification of Real-World Claims on COVID-19 Pandemic
- Arkadiy Saakyan, Tuhin Chakrabarty, Smaranda Muresan
- TLDR: 我们提出了一个FEVER的例子,用于检测COVID-19 pandemic的4,086个虚假的谣言。
- Explaining Relationships Between Scientific Documents
- Kelvin Luu, Xinyi Wu, Rik Koncel-Kedziorski, Kyle Lo, Isabel Cachola, Noah A. Smith
- TLDR: 我们提出了一个用于解释科学文献的自然语言文本数据集,用于解释科学文献的相互关系。
- IrEne: Interpretable Energy Prediction for Transformers
- Qingqing Cao, Yash Kumar Lal, Harsh Trivedi, Aruna Balasubramanian, Niranjan Balasubramanian
- TLDR: 我们提出了一种可解释和可扩展的能量预测系统,用于解释和量化变换的NLP模型。
- Mitigating Bias in Session-based Cyberbullying Detection: A Non-Compromising Approach
- Lu Cheng, Ahmadreza Mosallanezhad, Yasin Silva, Deborah Hall, Huan Liu
- TLDR: 我们首次表明,在网络上进行的互动中存在不充分的偏见,以更好地检测和避免网络攻击。
- PlotCoder: Hierarchical Decoding for Synthesizing Visualization Code in Programmatic Context
- Xinyun Chen, Linyuan Gong, Alvin Cheung, Dawn Song
- TLDR: 我们提出了一个用于生成图的编码器-解码器架构,它可以从代码中学习图的表示。
- Changing the World by Changing the Data
- Anna Rogers
- TLDR: 本文分析了数据压缩和数据转移的立场,并表明数据压缩是一项长期的任务。
- EarlyBERT: Efficient BERT Training via Early-bird Lottery Tickets
- Xiaohan Chen, Yu Cheng, Shuohang Wang, Zhe Gan, Zhangyang Wang, Jingjing Liu
- TLDR: 我们提出了EarlyBERT,一种用于训练大型语言模型的一般计算效率的训练算法。
- On the Effectiveness of Adapter-based Tuning for Pretrained Language Model Adaptation
- Ruidan He, Linlin Liu, Hai Ye, Qingyu Tan, Bosheng Ding, Liying Cheng, Jiawei Low, Lidong Bing, Luo Si
- TLDR: 我们表明,使用随机变换器的随机化方法比随机化方法更有效,因为随机化方法更容易忘记,而随机化方法则更容易。
- Data Augmentation for Text Generation Without Any Augmented Data
- Wei Bi, Huayang Li, Jiacheng Huang
- TLDR: 我们提出了一个目标,通过使用特定的数据映射函数来提高文本生成任务的性能。
- Integrating Semantics and Neighborhood Information with Graph-Driven Generative Models for Document Retrieval
- Zijing Ou, Qinliang Su, Jianxing Yu, Bang Liu, Jingwen Wang, Ruihui Zhao, Changyou Chen, Yefeng Zheng
- TLDR: 我们提出了一种基于图的生成模型,用于同时保留语义和邻近信息。
- SMURF: SeMantic and linguistic UndeRstanding Fusion for Caption Evaluation via Typicality Analysis
- Joshua Feinglass, Yezhou Yang
- TLDR: 我们提出了一种新的信息论评估方法,该方法基于信息理论,并提出了一个用于解释的一般衡量标准。
- KaggleDBQA: Realistic Evaluation of Text-to-SQL Parsers
- Chia-Hsuan Lee, Oleksandr Polozov, Matthew Richardson
- TLDR: 我们提出了KaggleDBQA,一个新的跨域评估数据集,用于实时评估真实世界的多表征数据集。
- QASR: QCRI Aljazeera Speech Resource A Large Scale Annotated Arabic Speech Corpus
- Hamdy Mubarak, Amir Hussein, Shammur Absar Chowdhury, Ahmed Ali
- TLDR: 我们介绍了一个用于语音识别和语音翻译的多语言语音数据集,它包含了2,000小时的语音样本,从广播领域收集的。
- An Empirical Study on Hyperparameter Optimization for Fine-Tuning Pre-trained Language Models
- Xueqing Liu, Chi Wang
- TLDR: 我们研究了使用超参数优化方法(HPO)的随机优化方法在GLUE数据集中的表现。
- Better than Average: Paired Evaluation of NLP systems
- Maxime Peyrard, Wei Zhao, Steffen Eger, Robert West
- TLDR: 我们提出了一个用于评估NLP的实证评估的实用工具,用于进行实证评估的全表征。
- Chase: A Large-Scale and Pragmatic Chinese Dataset for Cross-Database Context-Dependent Text-to-SQL
- Jiaqi Guo, Ziliang Si, Yu Wang, Qian Liu, Ming Fan, Jian-Guang Lou, Zijiang Yang, Ting Liu
- TLDR: 我们提出了Chase,一个用于跨数据集的上下文到SQL的跨数据集。
- CLINE: Contrastive Learning with Semantic Negative Examples for Natural Language Understanding
- Dong Wang, Ning Ding, Piji Li, Haitao Zheng
- TLDR: 我们提出了一种基于反向例子的反向学习方法,它可以提高语言模型的穩定性,同时保留语义和语义之间的穩定性。
- Tree-Structured Topic Modeling with Nonparametric Neural Variational Inference
- Ziye Chen, Cheng Ding, Zusheng Zhang, Yanghui Rao, Haoran Xie
- TLDR: 我们通过使用非参数化变异推理来生成一个句法结构的句法模型。
- ExCAR: Event Graph Knowledge Enhanced Explainable Causal Reasoning
- Li Du, Xiao Ding, Kai Xiong, Ting Liu, Bing Qin
- TLDR: 我们提出了一个用于解释因果事件的因果事件组合的理论。
- Distributed Representations of Emotion Categories in Emotion Space
- Xiangyu Wang, Chengqing Zong
- TLDR: 我们提出了一个通用框架,用于学习情感分类数据集的情感关系的分布表征。
- Style is NOT a single variable: Case Studies for Cross-Stylistic Language Understanding
- Dongyeop Kang, Eduard Hovy
- TLDR: 我们提出了一个用于句法级跨风格语言理解的基准库,并展示了XSLUE中包含的样本和案例研究。
- DynaSent: A Dynamic Benchmark for Sentiment Analysis
- Christopher Potts, Zhengxuan Wu, Atticus Geiger, Douwe Kiela
- TLDR: 我们提出了DynaSent,这是一个新的英语语言基准任务,用于ternary(positive/negative/neutral)情感分析。
- A Hierarchical VAE for Calibrating Attributes while Generating Text using Normalizing Flow
- Bidisha Samanta, Mohit Agrawal, NIloy Ganguly
- TLDR: 我们提出了一个层次化架构,用于更强的控制,保留内容使用属性不依赖性。
- A Unified Generative Framework for Aspect-based Sentiment Analysis
- Hang Yan, Junqi Dai, Tuo Ji, Xipeng Qiu, Zheng Zhang
- TLDR: 我们用一个从序列到序列的模型来解决所有ABSA的序列目标。
- Discovering Dialogue Slots with Weak Supervision
- Vojtěch Hudeček, Ondřej Dušek, Zhou Yu
- TLDR: 我们提出了一种用于端到端对话回答的神经网络的随机式标签方法,该方法使用了一种基于神经网络的标签,以实现随机标签的标签标签。
- Enhancing the generalization for Intent Classification and Out-of-Domain Detection in SLU
- Yilin Shen, Yen-Chang Hsu, Avik Ray, Hongxia Jin
- TLDR: 我们提出了一种用于目标分类和OOD检测的DRM,它可以提高目标分类和OOD检测性能。
- PROTAUGMENT: Unsupervised diverse short-texts paraphrasing for intent detection meta-learning
- Thomas Dopierre, Christophe Gravier, Wilfried Logerais
- TLDR: 我们提出了ProtAugment,这是一个用于短文本分类的元学习算法,它可以从连续的几个小任务中学习。
- Robustness Testing of Language Understanding in Task-Oriented Dialog
- Jiexi Liu, Ryuichi Takanobu, Jiaxin Wen, Dazhen Wan, Hongguang Li, Weiran Nie, Cheng Li, Wei Peng, Minlie Huang
- TLDR: 我们提出了一个模型无关的工具包,用于测试任务导向对话系统中语言理解的穩定性问题。
- Comprehensive Study: How the Context Information of Different Granularity Affects Dialogue State Tracking?
- Puhai Yang, Heyan Huang, Xian-Ling Mao
- TLDR: 我们研究了和讨论了对话状态跟踪中不同层次的背景信息的作用。
- OTTers: One-turn Topic Transitions for Open-Domain Dialogue
- Karin Sevegnani, David M. Howcroft, Ioannis Konstas, Verena Rieser
- TLDR: 我们首次展示了如何用一个连接两个主题的句法来表示一个新的主题。
- Towards Robustness of Text-to-SQL Models against Synonym Substitution
- Yujian Gan, Xinyun Chen, Qiuping Huang, Matthew Purver, John R. Woodward, Jinxia Xie, Pengsheng Huang
- TLDR: 我们提出了一种用于文本到SQL的转换的人工编码数据集。
- KACE: Generating Knowledge Aware Contrastive Explanations for Natural Language Inference
- Qianglong Chen, Feng Ji, Xiangji Zeng, Feng-Lin Li, Ji Zhang, Haiqing Chen, Yin Zhang
- TLDR: 我们提出了一种新的NLP方法,用于生成对比性解释。
- Self-Guided Contrastive Learning for BERT Sentence Representations
- Taeuk Kim, Kang Min Yoo, Sang-goo Lee
- TLDR: 我们提出了一种用于BERT句法表征学习的新型学习方法,使用自我监督来改善BERT句法表征的质量。
- LGESQL: Line Graph Enhanced Text-to-SQL Model with Mixed Local and Non-Local Relations
- Ruisheng Cao, Lu Chen, Zhi Chen, Yanbin Zhao, Su Zhu, Kai Yu
- TLDR: 我们提出了一个Line Graph增强的文本到SQL(LGESQL)模型,以捕捉句法特征的上下文特征,而不建元路。
- Multi-stage Pre-training over Simplified Multimodal Pre-training Models
- Tongtong Liu, Fangxiang Feng, Xiaojie Wang
- TLDR: 我们提出了一种新的多阶段预训练方法,用于从不同的阶段开始训练一个模型。
- Beyond Sentence-Level End-to-End Speech Translation: Context Helps
- Biao Zhang, Ivan Titov, Barry Haddow, Rico Sennrich
- TLDR: 我们通过广泛的实验研究来证明,句法到句法的语音翻译的句法-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句法的上下文-句
- LayoutLMv2: Multi-modal Pre-training for Visually-rich Document Understanding
- Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei Florencio, Cha Zhang, Wanxiang Che, Min Zhang, Lidong Zhou
- TLDR: 我们提出了一种用于多模态文本和风格建模的多模态架构,它可以从预训练中捕捉到文本、风格和图像之间的跨模态互动。
- UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning
- Wei Li, Can Gao, Guocheng Niu, Xinyan Xiao, Hao Liu, Jiachen Liu, Hua Wu, Haifeng Wang
- TLDR: 我们提出了一种UNIFIED-MOdal的预训练架构,用于多模态和单模态学习。
- Missing Modality Imagination Network for Emotion Recognition with Uncertain Missing Modalities
- Jinming Zhao, Ruichen Li, Qin Jin
- TLDR: 我们提出了一个统一的MMIN模型,用于解决不確定的缺替形式问题。
- Stacked Acoustic-and-Textual Encoding: Integrating the Pre-trained Models into Speech Translation Encoders
- Chen Xu, Bojie Hu, Yanyang Li, Yuhao Zhang, Shen Huang, Qi Ju, Tong Xiao, Jingbo Zhu
- TLDR: 我们提出了一种基于语音和文本编码的高效语音翻译的理论和实践方法。
- N-ary Constituent Tree Parsing with Recursive Semi-Markov Model
- Xin Xin, Jinlong Li, Zeqi Tan
- TLDR: 我们提出了一个基于图的框架,用于在具有二个孩子家族的节点的节点上进行归纳。
- Automated Concatenation of Embeddings for Structured Prediction
- Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: 我们提出了一种用于结构预测任务的自动编码器,用于寻找更好的嵌入的收敛性。
- Multi-View Cross-Lingual Structured Prediction with Minimum Supervision
- Zechuan Hu, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: 我们提出了一个多视角框架,通过使用少量的标签标签目标句法,将多种源模型整合到一个统一的源视图上,然后转移到一个目标视图的来源视图。
- The Limitations of Limited Context for Constituency Parsing
- Yuchen Li, Andrej Risteski
- TLDR: 我们表明,在神经网络中,使用GANs来进行语法解析的最常见方法是基于语法理解的。
- Neural Bi-Lexicalized PCFG Induction
- Songlin Yang, Yanpeng Zhao, Kewei Tu
- TLDR: 我们提出了一种方法,通过直接解决DNN依赖性,实现L-PCFG的参数化。
- Ruddit: Norms of Offensiveness for English Reddit Comments
- Rishav Hada, Sohi Sudhir, Pushkar Mishra, Helen Yannakoudakis, Saif M. Mohammad, Ekaterina Shutova
- TLDR: 我们提出了第一个用于翻译的语言 Reddit的批评数据集,该数据集在批评性方面表现良好。
- Towards Quantifiable Dialogue Coherence Evaluation
- Zheng Ye, Liucun Lu, Lishan Huang, Liang Lin, Xiaodan Liang
- TLDR: 我们提出了量化对话编码的对话编码评估(QuantiDCE),这是一个用于对话编码的衡量标准的新框架。
- Assessing the Representations of Idiomaticity in Vector Models with a Noun Compound Dataset Labeled at Type and Token Levels
- Marcos Garcia, Tiago Kramer Vieira, Carolina Scarton, Marco Idiart, Aline Villavicencio
- TLDR: 我们提出了一个用于词汇词典的词汇词典,它包含了用于词典词典的词典词典的句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法句法
- Factoring Statutory Reasoning as Language Understanding Challenges
- Nils Holzenberger, Benjamin Van Durme
- TLDR: 我们提出了一个框架,用于将法律解释纳入自然语言,并提出了框架,用于解决这些框架中的语言理解挑战问题。
- Evaluating Evaluation Measures for Ordinal Classification and Ordinal Quantification
- Tetsuya Sakai
- TLDR: 我们使用数据集和理论来解释和评价OQ任务中的评估标准。
- Interpretable and Low-Resource Entity Matching via Decoupling Feature Learning from Decision Making
- Zijun Yao, Chengjiang Li, Tiansi Dong, Xin Lv, Jifan Yu, Lei Hou, Juanzi Li, Yichi Zhang, Zelin Dai
- TLDR: 我们提出了一个用于身份匹配的GAN框架,它可以从匹配决策中学习特征表征,并通过使用GAN来学习特征值嵌入。
- Locate and Label: A Two-stage Identifier for Nested Named Entity Recognition
- Yongliang Shen, Xinyin Ma, Zeqi Tan, Shuai Zhang, Wen Wang, Weiming Lu
- TLDR: 我们提出了一种用于NER的GAN,它可以从一个GAN中生成出层次,并使用层次来追踪层次。
- Text2Event: Controllable Sequence-to-Structure Generation for End-to-end Event Extraction
- Yaojie Lu, Hongyu Lin, Jin Xu, Xianpei Han, Jialong Tang, Annan Li, Le Sun, Meng Liao, Shaoyi Chen
- TLDR: 我们提出了Text2Event,这是一个序列到序列生成的模式,可以直接从文本中提取事件记录。
- A Large-Scale Chinese Multimodal NER Dataset with Speech Clues
- Dianbo Sui, Zhengkun Tian, Yubo Chen, Kang Liu, Jun Zhao
- TLDR: 我们提出了一个用于多语义实体识别的大型语音表征的多语义词典数据集。
- A Neural Transition-based Joint Model for Disease Named Entity Recognition and Normalization
- Zongcheng Ji, Tian Xia, Mei Han, Jing Xiao
- TLDR: 我们提出了一种用于疾病识别和正規化任务的神经元交叉模型,它可以解决疾病识别和正規化任务的神经元交叉模型的两个问题。
- OntoED: Low-resource Event Detection with Ontology Embedding
- Shumin Deng, Ningyu Zhang, Luoqiu Li, Chen Hui, Tou Huaixiao, Mosha Chen, Fei Huang, Huajun Chen
- TLDR: 我们提出了一个基于主题嵌入的ED框架,用于从预先定义的事件类型中学习相关的 event类型。
- Self-Training Sampling with Monolingual Data Uncertainty for Neural Machine Translation
- Wenxiang Jiao, Xing Wang, Zhaopeng Tu, Shuming Shi, Michael Lyu, Irwin King
- TLDR: 我们提出了一种基于不确定性的抽样策略,用于使用多语言数据进行自我学习。
- Breaking the Corpus Bottleneck for Context-Aware Neural Machine Translation with Cross-Task Pre-training
- Linqing Chen, Junhui Li, Zhengxian Gong, Boxing Chen, Weihua Luo, Min Zhang, Guodong Zhou
- TLDR: 我们提出了两个预训练任务,其中一个通过使用一个模型来学习从句法级的句法到句法级的句法级的对应词的翻译。
- Guiding Teacher Forcing with Seer Forcing for Neural Machine Translation
- Yang Feng, Shuhao Gu, Dengji Guo, Zhengxin Yang, Chenze Shao
- TLDR: 我们使用一个带有Seer Decoder的神经机器翻译的编码器来模拟Seer Decoder的姿势,以实现更好的翻译。
- Cascade versus Direct Speech Translation: Do the Differences Still Make a Difference?
- Luisa Bentivogli, Mauro Cettolo, Marco Gaido, Alina Karakanta, Alberto Martinelli, Matteo Negri, Marco Turchi
- TLDR: 我们首次证明了,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明,在本文中,我们首次表明
- Unsupervised Neural Machine Translation for Low-Resource Domains via Meta-Learning
- Cheonbok Park, Yunwon Tae, TaeHee Kim, Soyoung Yang, Mohammad Azam Khan, Lucy Park, Jaegul Choo
- TLDR: 我们提出了一种用于非监督机器翻译的元学习算法,它可以提高低资源的UNMT的性能。
- Lightweight Cross-Lingual Sentence Representation Learning
- Zhuoyuan Mao, Prakhar Gupta, Chenhui Chu, Martin Jaggi, Sadao Kurohashi
- TLDR: 我们提出了一个用于跨语言语义表示的新型跨语言模型。
- ERNIE-Doc: A Retrospective Long-Document Modeling Transformer
- SiYu Ding, Junyuan Shang, Shuohuan Wang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: 我们提出了ERNIE-Doc,一个用于文件级语言预训练的语言模型,用于学习语义理解任务的语言模型。
- Marginal Utility Diminishes: Exploring the Minimum Knowledge for BERT Knowledge Distillation
- Yuanxin Liu, Fandong Meng, Zheng Lin, Weiping Wang, Jie Zhou
- TLDR: 我们表明,通过利用少量的HSK,可以提高学生的表现。
- Rational LAMOL: A Rationale-based Lifelong Learning Framework
- Kasidis Kanwatchara, Thanapapas Horsuwan, Piyawat Lertvittayakumjorn, Boonserm Kijsirikul, Peerapon Vateekul
- TLDR: 我们提出了一个用于NLP的端到端RL框架,该框架在最先进的LAMOL上的表现优于现有的LAMOL。
- EnsLM: Ensemble Language Model for Data Diversity by Semantic Clustering
- Zhibin Duan, Hao Zhang, Chaojie Wang, Zhengjue Wang, Bo Chen, Mingyuan Zhou
- TLDR: 我们提出了一个用于数据集聚类的主题模型,它可以同时训练一个主题模型和一个可变的权重来学习一个主题模型。
- LeeBERT: Learned Early Exit for BERT with cross-level optimization
- Wei Zhu
- TLDR: 我们提出了一种用于BERT的新型的早期出路方法,它可以提高BERT的性能。
- Unsupervised Extractive Summarization-Based Representations for Accurate and Explainable Collaborative Filtering
- Reinald Adrian Pugoy, Hung-Yu Kao
- TLDR: 我们提出了一个基于提取总结的协作滤波器模型,该模型通过提供提取总结来解释每个物体和用户。
- PLOME: Pre-training with Misspelled Knowledge for Chinese Spelling Correction
- Shulin Liu, Tao Yang, Tianchi Yue, Feng Zhang, Di Wang
- TLDR: 我们提出了一个用于CSC的预先训练好的语言模型,它同时学习语言和正确的字符错误的辨别性。
- Competence-based Multimodal Curriculum Learning for Medical Report Generation
- Fenglin Liu, Shen Ge, Xian Wu
- TLDR: 我们提出了一个基于知识的多模态课程学习框架,该框架通过使用知识来模拟医疗图像的诊断过程,并优化该模型。
- Learning Syntactic Dense Embedding with Correlation Graph for Automatic Readability Assessment
- Xinying Qiu, Yuan Chen, Hanwu Chen, Jian-Yun Nie, Yuming Shen, Dawei Lu
- TLDR: 我们提出了一种用于自动阅读的非监督学习方法,该方法可以与BERT-only模型一起使用,以实现更快的准确性评估。
- Meta-KD: A Meta Knowledge Distillation Framework for Language Model Compression across Domains
- Haojie Pan, Chengyu Wang, Minghui Qiu, Yichang Zhang, Yaliang Li, Jun Huang
- TLDR: 我们提出了一个用于多域NLP任务的元教师模型,它可以从多个领域中提取转移的知识,并通过将其提取出来用于学生模型。
- A Semantic-based Method for Unsupervised Commonsense Question Answering
- Yilin Niu, Fei Huang, Jiaming Liang, Wenkai Chen, Xiaoyan Zhu, Minlie Huang
- TLDR: 我们提出了一种基于语义的Q值回答方法,用于非监督的普遍问题回答。
- Explanations for CommonsenseQA: New Dataset and Models
- Shourya Aggarwal, Divyanshu Mandowara, Vishwajeet Agrawal, Dinesh Khandelwal, Parag Singla, Dinesh Garg
- TLDR: 我们用一个第一个的QA数据集(称为ECQA)的人类注释来描述第一个QA数据集(称为CQA)的正面和负面特性,以及用于问题的回答的解释。
- Few-Shot Question Answering by Pretraining Span Selection
- Ori Ram, Yuval Kirstain, Jonathan Berant, Amir Globerson, Omer Levy
- TLDR: 我们提出了一种用于问题回答的预训练方案,用于从预训练中选择回答时间。
- UnitedQA: A Hybrid Approach for Open Domain Question Answering
- Hao Cheng, Yelong Shen, Xiaodong Liu, Pengcheng He, Weizhu Chen, Jianfeng Gao
- TLDR: 我们研究了一种利用两种模型的优势来提高两种模型的归纳和生成阅读的结合方法。
- Database reasoning over text
- James Thorne, Majid Yazdani, Marzieh Saeidi, Fabrizio Silvestri, Sebastian Riedel, Alon Halevy
- TLDR: 我们提出了一个用于多语义查询的模块化架构,用于回答多语义查询。
- Online Learning Meets Machine Translation Evaluation: Finding the Best Systems with the Least Human Effort
- Vânia Mendonça, Ricardo Rei, Luisa Coheur, Alberto Sardinha, Ana Lúcia Santos
- TLDR: 我们提出了一种用于机器翻译的在线学习方法,该方法通过利用机器反馈,从最先进的系统中快速转移到最先进的系统。
- How Good is Your Tokenizer? On the Monolingual Performance of Multilingual Language Models
- Phillip Rust, Jonas Pfeiffer, Ivan Vulić, Sebastian Ruder, Iryna Gurevych
- TLDR: 我们通过对多语言模型的实际表现进行客观和全面的实证研究,以解决多语言模型对单语言任务的依赖性问题。
- Evaluating morphological typology in zero-shot cross-lingual transfer
- Antonio Martínez-García, Toni Badia, Jeremy Barnes
- TLDR: 我们解决了与语言类型相关的morphological typology对跨语言转移的影响,并表明,与其他类型相比,POT标签的语言类型表现更好。
- From Machine Translation to Code-Switching: Generating High-Quality Code-Switched Text
- Ishan Tarunesh, Syamantak Kumar, Preethi Jyothi
- TLDR: 我们使用一个用于代码转換的神经机器翻译模型来生成语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务的语言建模任务
- Fast and Accurate Neural Machine Translation with Translation Memory
- Qiuxiang He, Guoping Huang, Qu Cui, Li Li, Lemao Liu
- TLDR: 我们提出了一种快速和准确的基于TM的神经机器翻译的NMT方法,该方法在Transformer框架内应用于多语种翻译任务。
- Annotating Online Misogyny
- Philine Zeinert, Nanna Inie, Leon Derczynski
- TLDR: 我们提出了一个用于解释和监督非性别性偏见的分类法。
- Few-NERD: A Few-shot Named Entity Recognition Dataset
- Ning Ding, Guangwei Xu, Yulin Chen, Xiaobin Wang, Xu Han, Pengjun Xie, Haitao Zheng, Zhiyuan Liu
- TLDR: 我们提出了一个用于少樣本的实体识别的人类注释的少樣本的NER数据集。
- MultiMET: A Multimodal Dataset for Metaphor Understanding
- Dongyu Zhang, Minghao Zhang, Heting Zhang, Liang Yang, Hongfei Lin
- TLDR: 我们介绍了MultiMET,这是一个新颖的多语种元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元元
- Human-in-the-Loop for Data Collection: a Multi-Target Counter Narrative Dataset to Fight Online Hate Speech
- Margherita Fanton, Helena Bonaldi, Serra Sinem Tekiroğlu, Marco Guerini
- TLDR: 我们提出了一种新的方法,用于使用生成语言模型从前一个迭代训练样本中生成新的样本,以获得新的样本。
- Can Generative Pre-trained Language Models Serve As Knowledge Bases for Closed-book QA?
- Cunxiang Wang, Pai Liu, Yue Zhang
- TLDR: 我们研究了在回答开放问题时,使用PLMs作为知识库的问题回答的一般问题。
- Joint Models for Answer Verification in Question Answering Systems
- Zeyu Zhang, Thuy Vu, Alessandro Moschitti
- TLDR: 我们通过提出一个用于回答句法选择的AS2模块,结合了AS2模块和多分类器,实现了AS2模块的最先进的结果。
- Answering Ambiguous Questions through Generative Evidence Fusion and Round-Trip Prediction
- Yifan Gao, Henghui Zhu, Patrick Ng, Cicero Nogueira dos Santos, Zhiguo Wang, Feng Nan, Dejiao Zhang, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: 我们提出了一种基于循环预测的新型方法,用于回答开放域问题。
- TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and Textual Content in Finance
- Fengbin Zhu, Wenqiang Lei, Youcheng Huang, Chao Wang, Shuo Zhang, Jiancheng Lv, Fuli Feng, Tat-Seng Chua
- TLDR: 我们提出了一个用于多表数据的QA模型,它可以解释表上和文本上的数据,并使用符号推理来解释它们。
- Modeling Transitions of Focal Entities for Conversational Knowledge Base Question Answering
- Yunshi Lan, Jing Jiang
- TLDR: 我们提出了一种基于图的模型,用于捕捉和处理KBQA中目标实体的转变。
- Evidence-based Factual Error Correction
- James Thorne, Andreas Vlachos
- TLDR: 我们提出了一个用于事实验证的事实错误修正任务,该任务可以扩展到证据的证据,以生成更好的证据。
- Probabilistic, Structure-Aware Algorithms for Improved Variety, Accuracy, and Coverage of AMR Alignments
- Austin Blodgett, Nathan Schneider
- TLDR: 我们提出了一种用于AMR的非监督学习方法,用于从AMR图中学习字符。
- Meta-Learning to Compositionally Generalize
- Henry Conklin, Bailin Wang, Kenny Smith, Ivan Titov
- TLDR: 我们提出了一种用于元学习的非监督学习的新方法,它直接优化了用于去偏见泛化。
- Taming Pre-trained Language Models with N-gram Representations for Low-Resource Domain Adaptation
- Shizhe Diao, Ruijia Xu, Hongjin Su, Yilei Jiang, Yan Song, Tong Zhang
- TLDR: 我们提出了一种用于低资源的低资源学习的N-gram Adaptor,用于学习和纳入不同组合的词的语义表示。
- ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning
- Yujia Qin, Yankai Lin, Ryuichi Takanobu, Zhiyuan Liu, Peng Li, Heng Ji, Minlie Huang, Maosong Sun, Jie Zhou
- TLDR: 我们提出了一种新的对比性学习框架,用于从字典中获得更深入的理解。
- Position Bias Mitigation: A Knowledge-Aware Graph Model for Emotion Cause Extraction
- Hanqi Yan, Lin Gui, Gabriele Pergola, Yulan He
- TLDR: 我们提出了一种基于图的基于情感的因果词典提取方法,该方法在对抗性例子中的表现与现有方法相比有明显差距。
- Every Bite Is an Experience: Key Point Analysis of Business Reviews
- Roy Bar-Haim, Lilach Eden, Yoav Kantor, Roni Friedman, Noam Slonim
- TLDR: 我们提出了一个用于评价总结的框架,它可以从单个数据中提取出关键点,并利用它来改进评价总结。
- Structured Sentiment Analysis as Dependency Graph Parsing
- Jeremy Barnes, Robin Kurtz, Stephan Oepen, Lilja Øvrelid, Erik Velldal
- TLDR: 我们提出了一个统一的框架来解决结构化的情感分析问题。
- Consistency Regularization for Cross-Lingual Fine-Tuning
- Bo Zheng, Li Dong, Shaohan Huang, Wenhui Wang, Zewen Chi, Saksham Singhal, Wanxiang Che, Ting Liu, Xia Song, Furu Wei
- TLDR: 我们提出了一种用于跨语言微调的通用方法,用于提高跨语言的微调。
- Improving Pretrained Cross-Lingual Language Models via Self-Labeled Word Alignment
- Zewen Chi, Li Dong, Bo Zheng, Shaohan Huang, Xian-Ling Mao, Heyan Huang, Furu Wei
- TLDR: 我们引入了用于跨语言的跨语言预训练任务,用于解决句法的句法对齐问题。
- Rejuvenating Low-Frequency Words: Making the Most of Parallel Data in Non-Autoregressive Translation
- Liang Ding, Longyue Wang, Xuebo Liu, Derek F. Wong, Dacheng Tao, Zhaopeng Tu
- TLDR: 我们提出了一种用于非逆翻译的NAT的新型训练策略。
- G-Transformer for Document-Level Machine Translation
- Guangsheng Bao, Yue Zhang, Zhiyang Teng, Boxing Chen, Weihua Luo
- TLDR: 我们提出了G-Transformer,它通过引入區域性假设作为一种因果偏差来进行Transformer,以减少目标到源的注意力。
- Prevent the Language Model from being Overconfident in Neural Machine Translation
- Mengqi Miao, Fandong Meng, Yijin Liu, Xiao-Hua Zhou, Jie Zhou
- TLDR: 我们提出了一种基于梯度的句法级目标(MTO)和一种基于梯度的句法级目标(MSO)的混合方法,以最大化RL的偏差。
- Towards Emotional Support Dialog Systems
- Siyang Liu, Chujie Zheng, Orianna Demasi, Sahand Sabour, Yu Li, Zhou Yu, Yong Jiang, Minlie Huang
- TLDR: 我们提出了一个ESC框架,该框架基于帮助技能论,并提出了一个ESConv框架。
- Novel Slot Detection: A Benchmark for Discovering Unknown Slot Types in the Task-Oriented Dialogue System
- Yanan Wu, Zhiyuan Zeng, Keqing He, Hong Xu, Yuanmeng Yan, Huixing Jiang, Weiran Xu
- TLDR: 我们提出了一种新颖的 Slot Detection(NSD),用于对话系统中任务导向的对话系统。
- GTM: A Generative Triple-wise Model for Conversational Question Generation
- Lei Shen, Fandong Meng, Jinchao Zhang, Yang Feng, Jie Zhou
- TLDR: 我们提出了一种基于三层变换的生成式QG模型,用于开放领域对话问题生成。
- Diversifying Dialog Generation via Adaptive Label Smoothing
- Yida Wang, Yinhe Zheng, Yong Jiang, Minlie Huang
- TLDR: 我们提出了一种用于对话生成的自适应标签蒙昧方法,可以适应性地估计一个目标标签分布在不同对话环境下的表现。
- Out-of-Scope Intent Detection with Self-Supervision and Discriminative Training
- Li-Ming Zhan, Haowen Liang, Bo Liu, Lu Fan, Xiao-Ming Wu, Albert Y.S. Lam
- TLDR: 我们提出了一种简单而有效的方法,通过使用一个完全端到端的模型来训练一个不相关的意图分类器。
- Document-level Event Extraction via Heterogeneous Graph-based Interaction Model with a Tracker
- Runxin Xu, Tianyu Liu, Lei Li, Baobao Chang
- TLDR: 我们提出了一种基于基于基于图的互动模型的非监督事件提取方法,它可以捕捉到不同句法和实体的互动。
- Nested Named Entity Recognition via Explicitly Excluding the Influence of the Best Path
- Yiran Wang, Hiroyuki Shindo, Yuji Matsumoto, Taro Watanabe
- TLDR: 我们提出了一种用于混合的名称实体识别的新方法。
- LearnDA: Learnable Knowledge-Guided Data Augmentation for Event Causality Identification
- Xinyu Zuo, Pengfei Cao, Yubo Chen, Kang Liu, Jun Zhao, Weihua Peng, Yuguang Chen
- TLDR: 我们提出了一种新的方法,通过迭代生成新的例子和分类事件因果关系,以生成具有学习能力的句法。
- Revisiting the Negative Data of Distantly Supervised Relation Extraction
- Chenhao Xie, Jiaqing Liang, Jingping Liu, Chengsong Huang, Wenhao Huang, Yanghua Xiao
- TLDR: 我们提出了一种基于关系提取的替代方法,用于解决不相关的学习任务。
- Knowing the No-match: Entity Alignment with Dangling Cases
- Zequn Sun, Muhao Chen, Wei Hu
- TLDR: 我们提出了三种方法来检测和消除指针上跳动的实体。
- Superbizarre Is Not Superb: Derivational Morphology Improves BERT’s Interpretation of Complex Words
- Valentin Hofmann, Janet Pierrehumbert, Hinrich Schütze
- TLDR: 我们首次研究了PLMs的输入分割对复杂词的解释作用,并表明,如果使用一个用于解释词的词典,它可以得到更好的概括。
- BERT is to NLP what AlexNet is to CV: Can Pre-Trained Language Models Identify Analogies?
- Asahi Ushio, Luis Espinosa Anke, Steven Schockaert, Jose Camacho-Collados
- TLDR: 我们使用GAN和BERT来分析和解决基于转换器的语言模型在抽象语义关系方面的表现。
- Exploring the Representation of Word Meanings in Context: A Case Study on Homonymy and Synonymy
- Marcos Garcia
- TLDR: 我们提出了一个多语种研究,用于了解词的意味表示在语义上的表现。
- Measuring Fine-Grained Domain Relevance of Terms: A Hierarchical Core-Fringe Approach
- Jie Huang, Kevin Chang, JinJun Xiong, Wen-mei Hwu
- TLDR: 我们提出了衡量 fine-grained领域的 relevance的标准,用于衡量一个词在广义或深度学习方面的意义。
- HERALD: An Annotation Efficient Method to Detect User Disengagement in Social Conversations
- Weixin Liang, Kai-Hui Liang, Zhou Yu
- TLDR: 我们提出了一个高效的注释框架,用于检测用户不感兴趣度。
- Value-Agnostic Conversational Semantic Parsing
- Emmanouil Antonios Platanios, Adam Pauls, Subhro Roy, Yuchen Zhang, Alexander Kyte, Alan Guo, Sam Thomson, Jayant Krishnamurthy, Jason Wolfe, Jacob Andreas, Dan Klein
- TLDR: 我们提出了一个用于对话式语义解析的模型,该模型通过抽象值来关注类型和函数层面的上下文背景,以实现对对话中用户句法的概括。
- MPC-BERT: A Pre-Trained Language Model for Multi-Party Conversation Understanding
- Jia-Chen Gu, Chongyang Tao, Zhenhua Ling, Can Xu, Xiubo Geng, Daxin Jiang
- TLDR: 我们提出了MPC-BERT,一个用于多任务对话的初始模型,它可以概括为一个统一的模型,它可以学习回答者说话,回答者追问,回答者定位,回答者追问,回答者追问,回答者定位,回答者追问,回答者追问,回答者定位,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者追问,回答者
- Best of Both Worlds: Making High Accuracy Non-incremental Transformer-based Disfluency Detection Incremental
- Morteza Rohanian, Julian Hough
- TLDR: 我们通过使用BERT来加速文本分类器的变换,以实现最先进的结果。
- NeuralWOZ: Learning to Collect Task-Oriented Dialogue via Model-Based Simulation
- Sungdong Kim, Minsuk Chang, Sang-Woo Lee
- TLDR: 我们提出了NeuralWOZ,这是一个新颖的对话收集框架,使用模型的对话模拟。
- CDRNN: Discovering Complex Dynamics in Human Language Processing
- Cory Shain
- TLDR: 本文提出了CDRNN,一个深度神经扩展,用于研究人类语言处理动态。
- Structural Guidance for Transformer Language Models
- Peng Qian, Tahira Naseem, Roger Levy, Ramón Fernandez Astudillo
- TLDR: 我们表明,通过使用GANs来训练Transformer语言模型,可以提高准确性,而不需要数据密集的训练。
- Surprisal Estimators for Human Reading Times Need Character Models
- Byung-Doh Oh, Christian Clark, William Schuler
- TLDR: 本文提出了一个词典编码器的特征模型,可以应用于一个结构化解析器的编码器,用于计算词生成概率。
- CogAlign: Learning to Align Textual Neural Representations to Cognitive Language Processing Signals
- Yuqi Ren, Deyi Xiong
- TLDR: 我们提出了一种基于文本的神经模型,它可以从文本中学习将语义神经表征与认知特征相结合,以捕捉其差异和共同特征。
- Self-Attention Networks Can Process Bounded Hierarchical Languages
- Shunyu Yao, Binghui Peng, Christos Papadimitriou, Karthik Narasimhan
- TLDR: 我们表明,自我注意网络可以处理Dyck-k,这与深度表征相一致,并证明了自我注意网络在学习Dyck-k时比深度表征更优。
- TextSETTR: Few-Shot Text Style Extraction and Tunable Targeted Restyling
- Parker Riley, Noah Constant, Mandy Guo, Girish Kumar, David Uthus, Zarana Parekh
- TLDR: 我们提出了一种用于文本风格转移的新型方法,使用标签数据来训练一个单个模型,能够转移到多种风格(风格,语义, formal性, polit性,情感,情感)的文本。
- H-Transformer-1D: Fast One-Dimensional Hierarchical Attention for Sequences
- Zhenhai Zhu, Radu Soricut
- TLDR: 我们提出了一种高效的层次结构来处理Transformer架构中注意力,该结构利用了一个矩阵结构,并使用了一种新的SOTA测试的注意力机制。
- Making Pre-trained Language Models Better Few-shot Learners
- Tianyu Gao, Adam Fisch, Danqi Chen
- TLDR: 我们提出了LM-BFF,一种用于少樣本学习的简单和结合的语言模型的微调方法。
- A Sweet Rabbit Hole by DARCY: Using Honeypots to Detect Universal Trigger’s Adversarial Attacks
- Thai Le, Noseong Park, Dongwon Lee
- TLDR: 我们提出了一个用于对抗UniTrigger的通用攻击框架,该框架使用一个学习的框架来解决通用Trigger攻击。
- Towards Propagation Uncertainty: Edge-enhanced Bayesian Graph Convolutional Networks for Rumor Detection
- Lingwei Wei, Dou Hu, Wei Zhou, Zhaojuan Yue, Songlin Hu
- TLDR: 我们提出了一种基于贝叶斯图卷积网络的新方法,用于捕捉穩定的視覺特征。
- Label-Specific Dual Graph Neural Network for Multi-Label Text Classification
- Qianwen Ma, Chunyuan Yuan, Wei Zhou, Songlin Hu
- TLDR: 我们提出了一种新颖的标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签标签
- TAN-NTM: Topic Attention Networks for Neural Topic Modeling
- Madhur Panwar, Shashank Shailabh, Milan Aggarwal, Balaji Krishnamurthy
- TLDR: 我们提出了一个新颖的注意力机制,通过一个主题关注模块,将文件包包内词汇排列为句法,以帮助模型在主题相关的句法上关注相关的词。
- Cross-language Sentence Selection via Data Augmentation and Rationale Training
- Yanda Chen, Chris Kedzie, Suraj Nair, Petra Galuscakova, Rui Zhang, Douglas Oard, Kathleen McKeown
- TLDR: 本文提出了一种基于跨语言嵌入的查询 relevance模型的跨语言句法选择方法。
- A Neural Model for Joint Document and Snippet Ranking in Question Answering for Large Document Collections
- Dimitris Pappas, Ion Androutsopoulos
- TLDR: 我们提出了一个架构,用于文件和句法排名,该架构可以作为任何神经文本 relevance排名器。
- W-RST: Towards a Weighted RST-style Discourse Framework
- Patrick Huber, Wen Xiao, Giuseppe Carenini
- TLDR: 我们表明,在本文中,我们表明,在本文中,我们提出了一种基于数据的和基于语言的结合方法,用于学习知识的正则化。
- ABCD: A Graph Framework to Convert Complex Sentences to a Covering Set of Simple Sentences
- Yanjun Gao, Ting-Hao Huang, Rebecca J. Passonneau
- TLDR: 我们提出了一个用于解释复杂句法的神经模型,它可以从句法源中提取句法,并使用它来生成句法。
- Which Linguist Invented the Lightbulb? Presupposition Verification for Question-Answering
- Najoung Kim, Ellie Pavlick, Burcu Karagol Ayan, Deepak Ramachandran
- TLDR: 我们提出了一个框架,用于从一个简单的QA系统中提取假设,然后从它中生成假设,然后从它中解释。
- Adversarial Learning for Discourse Rhetorical Structure Parsing
- Longyin Zhang, Fang Kong, Guodong Zhou
- TLDR: 我们提出了一个用于全域DRS的DNN的理论,并使用它来衡量DNN的优缺点。
- Exploring Discourse Structures for Argument Impact Classification
- Xin Liu, Jiefu Ou, Yangqiu Song, Xin Jiang
- TLDR: 我们提出了一种用于解释论证关系的新型语言模型,它通过将句法级的结构向量与语义特征结合起来,以生成具有语义特征的论证。
- Point, Disambiguate and Copy: Incorporating Bilingual Dictionaries for Neural Machine Translation
- Tong Zhang, Long Zhang, Wei Ye, Bo Li, Jinan Sun, Xiaoyu Zhu, Wen Zhao, Shikun Zhang
- TLDR: 本文提出了一种用于神经机器翻译的神经架构,将多语种词典纳入神经机器翻译模型。
- VECO: Variable and Flexible Cross-lingual Pre-training for Language Understanding and Generation
- Fuli Luo, Wei Wang, Jiahao Liu, Yijia Liu, Bin Bi, Songfang Huang, Fei Huang, Luo Si
- TLDR: 我们提出了一个跨语言的跨关注模块,用于跨语言理解和跨语言生成。
- A unified approach to sentence segmentation of punctuated text in many languages
- Rachel Wicks, Matt Post
- TLDR: 本文介绍了在自然语言中学习句法的一般步骤。
- Towards User-Driven Neural Machine Translation
- Huan Lin, Liang Yao, Baosong Yang, Dayiheng Liu, Haibo Zhang, Weihua Luo, Degen Huang, Jinsong Su
- TLDR: 我们提出了一种用于非监督翻译的用户行为的NMT框架。
- End-to-End Lexically Constrained Machine Translation for Morphologically Rich Languages
- Josef Jon, João Paulo Aires, Dusan Varis, Ondřej Bojar
- TLDR: 我们通过使用一个用于翻译的限制词典来解释词汇,以减少词汇错误。
- Handling Extreme Class Imbalance in Technical Logbook Datasets
- Farhad Akhbardeh, Cecilia Ovesdotter Alm, Marcos Zampieri, Travis Desell
- TLDR: 我们通过考虑车联、航空、建筑、交通运输等多个技术性 logbook数据集来解决技术问题的分类问题。
- ILDC for CJPE: Indian Legal Documents Corpus for Court Judgment Prediction and Explanation
- Vijit Malik, Rishabh Sanjay, Shubham Kumar Nigam, Kripabandhu Ghosh, Shouvik Kumar Guha, Arnab Bhattacharya, Ashutosh Modi
- TLDR: 我们提出了CJPE,一个用于预测法院判别的判别结果的自动系统。
- Supporting Cognitive and Emotional Empathic Writing of Students
- Thiemo Wambsganss, Christina Niklaus, Matthias Söllner, Siegfried Handschuh, Jan Marco Leimeister
- TLDR: 我们提出了一个用于学生和教师的随机随机随机评分的句法方案,用于学习情感和认知的情感和认知的情感和情感的标签。
- Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open Domain Question Answering
- Alexander Hanbo Li, Patrick Ng, Peng Xu, Henghui Zhu, Zhiguo Wang, Bing Xiang
- TLDR: 我们提出了一种基于文本和数据的混合方法,用于开放域问题回答。
- Generation-Augmented Retrieval for Open-Domain Question Answering
- Yuning Mao, Pengcheng He, Xiaodong Liu, Yelong Shen, Jianfeng Gao, Jiawei Han, Weizhu Chen
- TLDR: 我们提出了生成式增强检索(GAR),用于回答开放域问题,它通过文本生成的背景来生成查询,无需外部资源作为监督。
- Check It Again:Progressive Visual Question Answering via Visual Entailment
- Qingyi Si, Zheng Lin, Ming yu Zheng, Peng Fu, Weiping Wang
- TLDR: 我们提出了一个选择和梯度(SAR)渐进框架,用于回答VQA-CP的视觉依赖任务。
- A Mutual Information Maximization Approach for the Spurious Solution Problem in Weakly Supervised Question Answering
- Zhihong Shao, Lifeng Shang, Qun Liu, Minlie Huang
- TLDR: 我们提出了一种基于语义的解决方法,通过最大化回答者的相互信息来解决问题和解决方案之间的语义联系。
- Breaking Down Walls of Text: How Can NLP Benefit Consumer Privacy?
- Abhilasha Ravichander, Alan W Black, Thomas Norton, Shomir Wilson, Norman Sadeh
- TLDR: 我们提出了一个框架,用于从用户的角度重新审视和使用隐私政策。
- Supporting Land Reuse of Former Open Pit Mining Sites using Text Classification and Active Learning
- Christopher Schröder, Kim Bürgl, Yves Annanias, Andreas Niekler, Lydia Müller, Daniel Wiegreffe, Christian Bender, Christoph Mengs, Gerik Scheuermann, Gerhard Heyer
- TLDR: 我们提出了一个用于恢复和管理以前的梯度池式坑式坑式采样的自动工作流程。
- Reliability Testing for Natural Language Processing Systems
- Samson Tan, Shafiq Joty, Kathy Baxter, Araz Taeihagh, Gregory A. Bennett, Min-Yen Kan
- TLDR: 我们提出了一个框架,用于开发可靠的测试,并表明,在评估可靠性时,需要对测试的测试进行严格的测试。
- Learning Language and Multimodal Privacy-Preserving Markers of Mood from Mobile Data
- Paul Pu Liang, Terrance Liu, Anna Cai, Michal Muszynski, Ryo Ishii, Nick Allen, Randy Auerbach, David Brent, Ruslan Salakhutdinov, Louis-Philippe Morency
- TLDR: 我们研究了使用移动设备的用户行为的情绪状态的特征,并表明,在没有身份标签的情况下,使用移动设备的用户行为可以预测他们的情绪状态。
- Anonymisation Models for Text Data: State of the art, Challenges and Future Directions
- Pierre Lison, Ildikó Pilán, David Sanchez, Montserrat Batet, Lilja Øvrelid
- TLDR: 我们通过对本文中的观点进行分析,探讨了本文的主题,并提出了一个框架,用于解决本文的主题。
- End-to-End AMR Coreference Resolution
- Qiankun Fu, Linfeng Song, Wenyu Du, Yue Zhang
- TLDR: 我们提出了第一个用于多语义AMR的端到端AMR编码器,用于生成多语义AMR。
- How is BERT surprised? Layerwise detection of linguistic anomalies
- Bai Li, Zining Zhu, Guillaume Thomas, Yang Xu, Frank Rudzicz
- TLDR: 我们使用高斯模型来估计语言模型的最下一层,并使用它们来衡量语言模型的最下一层。
- Psycholinguistic Tripartite Graph Network for Personality Detection
- Tao Yang, Feifan Yang, Haolan Ouyang, Xiaojun Quan
- TLDR: 我们提出了一个基于神经知识的多层图神经网络,TrigNet,它通过将神经网络抽象为一个单元的图来注入神经语言分析的神经网络。
- Verb Metaphor Detection via Contextual Relation Learning
- Wei Song, Shuhui Zhou, Ruiji Fu, Ting Liu, Lizhen Liu
- TLDR: 我们提出了一种用于词典表征分类的神经网络,它明确地建模了词和句法之间的关系。
- Improving Speech Translation by Understanding and Learning from the Auxiliary Text Translation Task
- Yun Tang, Juan Pino, Xian Li, Changhan Wang, Dmitriy Genzel
- TLDR: 我们提出了三个方法来提高语音翻译质量。
- Probing Toxic Content in Large Pre-Trained Language Models
- Nedjma Ousidhoum, Xinran Zhao, Tianqing Fang, Yangqiu Song, Dit-Yan Yeung
- TLDR: 我们提出了一种用于评估和减少PTLMs的理论,并使用它来分析和减轻它们对特定群体的toxic性。
- Societal Biases in Language Generation: Progress and Challenges
- Emily Sheng, Kai-Wei Chang, Prem Natarajan, Nanyun Peng
- TLDR: 我们提出了一个关于语言生成中的社会偏差的调查,并表明,数据和技术的作用可以被视为偏差,但研究表明,数据和技术的作用可以被视为偏差。
- Reservoir Transformers
- Sheng Shen, Alexei Baevski, Ari Morcos, Kurt Keutzer, Michael Auli, Douwe Kiela
- TLDR: 我们展示了变换器在各种机器翻译和(masked)语言建模任务上的表现。
- Subsequence Based Deep Active Learning for Named Entity Recognition
- Puria Radmard, Yassir Fathullah, Aldo Lipani
- TLDR: 我们通过使用Alpha-Network,从句法中检索句法的句法,然后通过传递标签到其他句法。
- Convolutions and Self-Attention: Re-interpreting Relative Positions in Pre-trained Language Models
- Tyler Chang, Yifan Xu, Weijian Xu, Zhuowen Tu
- TLDR: 我们描述了自然语言任务中卷积和自我关注的关系。
- BinaryBERT: Pushing the Limit of BERT Quantization
- Haoli Bai, Wei Zhang, Lu Hou, Lifeng Shang, Jin Jin, Xin Jiang, Qun Liu, Michael Lyu, Irwin King
- TLDR: 我们提出了一种新的BERT,它超越了BERT的最先进压缩结果。
- Are Pretrained Convolutions Better than Pretrained Transformers?
- Yi Tay, Mostafa Dehghani, Jai Prakash Gupta, Vamsi Aribandi, Dara Bahri, Zhen Qin, Donald Metzler
- TLDR: 我们表明,在语言建模中,卷积模型与前先训练的模型相比更有优势。
- PairRE: Knowledge Graph Embeddings via Paired Relation Vectors
- Linlin Chao, Jianshan He, Taifeng Wang, Wei Chu
- TLDR: 我们提出了PairRE,一个用于知识图嵌入的神经图嵌入模型,它可以从单个关系表中学习知识图嵌入。
- Hierarchy-aware Label Semantics Matching Network for Hierarchical Text Classification
- Haibin Chen, Qianli Ma, Zhenxi Lin, Jiangyue Yan
- TLDR: 我们提出了一个层次感的标签语义匹配网络(HiMatch)。
- HiddenCut: Simple Data Augmentation for Natural Language Understanding with Better Generalizability
- Jiaao Chen, Dinghan Shen, Weizhu Chen, Diyi Yang
- TLDR: 我们提出了一个简单的、有效的数据增强方法,用于更好的正则化模型,鼓励它学习更通用的特征。
- Neural Stylistic Response Generation with Disentangled Latent Variables
- Qingfu Zhu, Wei-Nan Zhang, Ting Liu, William Yang Wang
- TLDR: 我们提出了一种基于BERT的风格强度的解决方案,用于解决在潜在空间中进行风格的概括。
- Intent Classification and Slot Filling for Privacy Policies
- Wasi Ahmad, Jianfeng Chi, Tu Le, Thomas Norton, Yuan Tian, Kai-Wei Chang
- TLDR: 我们提出了一个用于隐私政策的全英语语料库,包含5,250意图和11,788个排列注释。
- RADDLE: An Evaluation Benchmark and Analysis Platform for Robust Task-oriented Dialog Systems
- Baolin Peng, Chunyuan Li, Zhu Zhang, Chenguang Zhu, Jinchao Li, Jianfeng Gao
- TLDR: 我们提出了一个用于评价不同领域的穩定性评估的框架。
- Semantic Representation for Dialogue Modeling
- Xuefeng Bai, Yulong Chen, Linfeng Song, Yue Zhang
- TLDR: 我们使用本文的意图表示来帮助对话建模。
- A Pre-training Strategy for Zero-Resource Response Selection in Knowledge-Grounded Conversations
- Chongyang Tao, Changyu Chen, Jiazhan Feng, Ji-Rong Wen, Rui Yan
- TLDR: 我们提出了知识导向的回应选择的三个任务,并提出了一个统一的语言模型来解决它们。
- Dependency-driven Relation Extraction with Attentive Graph Convolutional Networks
- Yuanhe Tian, Guimin Chen, Yan Song, Xiang Wan
- TLDR: 我们提出了一种基于依赖性的信息依赖性方法,用于关系提取。
- Evaluating Entity Disambiguation and the Role of Popularity in Retrieval-Based NLP
- Anthony Chen, Pallavi Gudipati, Shayne Longpre, Xiao Ling, Sameer Singh
- TLDR: 我们提出了一个评估和衡量的框架,用于评估在开放域任务中使用不同名称的查询的查询的查询检索器的一般特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性特征性
- Evaluation Examples are not Equally Informative: How should that change NLP Leaderboards?
- Pedro Rodriguez, Joe Barrow, Alexander Miserlis Hoyle, John P. Lalor, Robin Jia, Jordan Boyd-Graber
- TLDR: 我们提出了一个贝叶斯的领导者board模型,用于学习NLP模型的排名。
- Claim Matching Beyond English to Scale Global Fact-Checking
- Ashkan Kazemi, Kiran Garimella, Devin Gaffney, Scott Hale
- TLDR: 我们提出了一个用于事实验证的多语种嵌入模型,它可以作为一个可行的解决方案来解决事实验证问题。
- SemFace: Pre-training Encoder and Decoder with a Semantic Interface for Neural Machine Translation
- Shuo Ren, Long Zhou, Shujie Liu, Furu Wei, Ming Zhou, Shuai Ma
- TLDR: 我们提出了一种更好的预训练方法来用于神经机器翻译(NMT),它可以有效地连接到预先训练好的编码器和解码器,并取得了显著的改进。
- Energy-Based Reranking: Improving Neural Machine Translation Using Energy-Based Models
- Sumanta Bhattacharyya, Amirmohammad Rooshenas, Subhajit Naskar, Simeng Sun, Mohit Iyyer, Andrew McCallum
- TLDR: 我们使用了Energy-basedRe-ranking(EBR)和联合能量模型(在翻译中使用低 BLEU的样本)。
- Syntax-augmented Multilingual BERT for Cross-lingual Transfer
- Wasi Ahmad, Haoran Li, Kai-Wei Chang, Yashar Mehdad
- TLDR: 我们表明,使用一个辅助目标来编码通用依赖树结构有助于跨语言转移。
- How to Adapt Your Pretrained Multilingual Model to 1600 Languages
- Abteen Ebrahimi, Katharina Kann
- TLDR: 我们评估了现有的多语言模型在首次训练时的表现优于以前的模型。
- Weakly Supervised Named Entity Tagging with Learnable Logical Rules
- Jiacheng Li, Haibo Ding, Jingbo Shang, Julian McAuley, Zhe Feng
- TLDR: 我们提出了一种用于实体标签的新型方法,它可以作为一种用于生成标签的工具,同时不需要任何监督。
- Prefix-Tuning: Optimizing Continuous Prompts for Generation
- Xiang Lisa Li, Percy Liang
- TLDR: 我们提出了一种轻量级的语言生成方法,它不需要语言模型参数的全权重,可以作为一种轻量级的语言生成方法。
- One2Set: Generating Diverse Keyphrases as a Set
- Jiacheng Ye, Tao Gui, Yichao Luo, Yige Xu, Qi Zhang
- TLDR: 我们提出了一种新的基于学习控制代码的训练方法,使用固定的控制代码来生成一个集的单词。
- Continuous Language Generative Flow
- Zineng Tang, Shiyue Zhang, Hyounghun Kim, Mohit Bansal
- TLDR: 我们提出了一种基于流的语言生成模型,通过适应以前流形生成的流形模型,从流形中生成文本。
- TWAG: A Topic-Guided Wikipedia Abstract Generator
- Fangwei Zhu, Shangqing Tu, Jiaxin Shi, Juanzi Li, Lei Hou, Tong Cui
- TLDR: 我们提出了一个二步模型,用于抽象生成的主题信息。
- ForecastQA: A Question Answering Challenge for Event Forecasting with Temporal Text Data
- Woojeong Jin, Rahul Khanna, Suji Kim, Dong-Ho Lee, Fred Morstatter, Aram Galstyan, Xiang Ren
- TLDR: 我们提出了一个用于预测时间上的信息图的预测问题集。
- Recursive Tree-Structured Self-Attention for Answer Sentence Selection
- Khalil Mrini, Emilia Farcas, Ndapa Nakashole
- TLDR: 我们提出了一种用于AS2的循環,基于一个单层的自我关注模型的Tree Aggregation Transformer。
- How Knowledge Graph and Attention Help? A Qualitative Analysis into Bag-level Relation Extraction
- Zikun Hu, Yixin Cao, Lifu Huang, Tat-Seng Chua
- TLDR: 我们提出了一个用于量化评价和使用KG的理论来衡量KG和注意力的作用。
- Trigger is Not Sufficient: Exploiting Frame-aware Knowledge for Implicit Event Argument Extraction
- Kaiwen Wei, Xian Sun, Zequn Zhang, Jingyuan Zhang, Guo Zhi, Li Jin
- TLDR: 我们提出了一个框架,通过推理来提取事件的直接或间接的解释。
- Element Intervention for Open Relation Extraction
- Fangchao Liu, Lingyong Yan, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: 我们从因果的角度来审视OpenRE的程序,并分析了其在特定关系类型方面的 spurious联系。
- AdaTag: Multi-Attribute Value Extraction from Product Profiles with Adaptive Decoding
- Jun Yan, Nasser Zalmout, Yan Liang, Christan Grant, Xiang Ren, Xin Luna Dong
- TLDR: 我们提出了AdaTag,一种用于多标签化提取的自适应编码器,它使用自适应编码器来处理提取。
- CoRI: Collective Relation Integration with Data Augmentation for Open Information Extraction
- Zhengbao Jiang, Jialong Han, Bunyamin Sisman, Xin Luna Dong
- TLDR: 我们提出了一个用于知识图上知识转移的联合关系集成(CoRI)模型,该模型通过使用一个统一的模型来进行预测。
- Benchmarking Scalable Methods for Streaming Cross Document Entity Coreference
- Robert L Logan IV, Andrew McCallum, Sameer Singh, Dan Bikel
- TLDR: 我们通过使用一个强大的基准来评估和评估用于身份嵌入的多模态和基于特征的标记编码器的最优性能。
- Search from History and Reason for Future: Two-stage Reasoning on Temporal Knowledge Graphs
- Zixuan Li, Xiaolong Jin, Saiping Guan, Wei Li, Jiafeng Guo, Yuanzhuo Wang, Xueqi Cheng
- TLDR: 我们提出了一个基于图卷积网络的理论,通过使用RL来寻找线索,从历史事实中推断线索。
- Employing Argumentation Knowledge Graphs for Neural Argument Generation
- Khalid Al Khatib, Lukas Trautner, Henning Wachsmuth, Yufang Hou, Benno Stein
- TLDR: 我们通过使用知识图来生成知识的论证。
- Learning Span-Level Interactions for Aspect Sentiment Triplet Extraction
- Lu Xu, Yew Ken Chia, Lidong Bing
- TLDR: 我们提出了一种用于多词目标和观点的情感triplet提取的两边通道修剪策略。
- On Compositional Generalization of Neural Machine Translation
- Yafu Li, Yongjing Yin, Yulong Chen, Yue Zhang
- TLDR: 我们研究了NMT模型的构成性泛化失败,并表明,它在传统上的表现与NMT模型一样好。
- Mask-Align: Self-Supervised Neural Word Alignment
- Chi Chen, Maosong Sun, Yang Liu
- TLDR: 我们提出了一种基于自我监督的词排列模型,它利用了全局的背景,以实现词的正则化。
- GWLAN: General Word-Level AutocompletioN for Computer-Aided Translation
- Huayang Li, Lemao Liu, Guoping Huang, Shuming Shi
- TLDR: 我们提出了一个用于一般句法级自动编码的通用词级自动编码(GWLAN)的基准,并展示了它与许多基线相比有明显更好的表现。
- De-biasing Distantly Supervised Named Entity Recognition via Causal Intervention
- Wenkai Zhang, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: 我们通过一个结构化 Causal Model(SCM)解释DNN的上下文偏差,并分析它们的 causes。
- A Span-Based Model for Joint Overlapped and Discontinuous Named Entity Recognition
- Fei Li, ZhiChao Lin, Meishan Zhang, Donghong Ji
- TLDR: 我们提出了一种新的基于时间的GAN,可以识别过拟议的过拟议的GAN,同时可以检查过拟议的GAN。
- MLBiNet: A Cross-Sentence Collective Event Detection Network
- Dongfang Lou, Zhilin Liao, Shumin Deng, Ningyu Zhang, Huajun Chen
- TLDR: 我们考虑了在跨句法环境中分类多个事件的问题,并提出了一个解决该问题的方法。
- Exploiting Document Structures and Cluster Consistencies for Event Coreference Resolution
- Hieu Minh Tran, Duy Phung, Thien Huu Nguyen
- TLDR: 我们提出了一种用于ECR的新型的深度学习模型。
- StereoRel: Relational Triple Extraction from a Stereoscopic Perspective
- Xuetao Tian, Liping Jing, Lu He, Feng Liu
- TLDR: 我们提出了一种用于关系三元提取的新模型,它可以同时处理关系三元提取和关系三元转移。
- Knowledge-Enriched Event Causality Identification via Latent Structure Induction Networks
- Pengfei Cao, Xinyu Zuo, Yubo Chen, Kang Liu, Jun Zhao, Yuguang Chen, Weihua Peng
- TLDR: 我们提出了一个新颖的Latent Structure Induction Network(LSIN),用于将外部结构知识纳入预测性推理任务。
- Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word Substitution
- Fanchao Qi, Yuan Yao, Sophia Xu, Zhiyuan Liu, Maosong Sun
- TLDR: 我们提出了一个用于NLP模型的可学习的可逆向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向
- Parameter-Efficient Transfer Learning with Diff Pruning
- Demi Guo, Alexander Rush, Yoon Kim
- TLDR: 一种用于多任务应用的新型方法,在训练期间,从训练中学习一个特定的 “diff “维度,它可以从训练中学习一个简单的维度,用于参数高效的转移学习。
- R2D2: Recursive Transformer based on Differentiable Tree for Interpretable Hierarchical Language Modeling
- Xiang Hu, Haitao Mi, Zujie Wen, Yafang Wang, Yi Su, Jing Zheng, Gerard de Melo
- TLDR: 我们提出了一个用于语言理解的循環变换模型,它可以从语义中学习句法,并利用它来改进语义模型。
- Risk Minimization for Zero-shot Sequence Labeling
- Zechuan Hu, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: 我们提出了一种新的方法,用于零樣本序列标签,无需任何注释数据集。
- WARP: Word-level Adversarial ReProgramming
- Karen Hambardzumyan, Hrant Khachatrian, Jonathan May
- TLDR: 我们提出了一种基于对抗性编码的替代方法,用于解决多任务的自动提问生成。
- Lexicon Learning for Few Shot Sequence Modeling
- Ekin Akyurek, Jacob Andreas
- TLDR: 我们使用一个词典翻译器来概括词典,并使用它来概括词典。
- Personalized Transformer for Explainable Recommendation
- Lei Li, Yongfeng Zhang, Li Chen
- TLDR: 我们提出了一个用于解释的替代物,它可以从用户的ID中学习解释,并可以从他们的ID中学习解释。
- Generating SOAP Notes from Doctor-Patient Conversations Using Modular Summarization Techniques
- Kundan Krishna, Sopan Khosla, Jeffrey Bigham, Zachary C. Lipton
- TLDR: 我们提出了一个用于医院和患者之间的对话的深度总结模型,用于生成医院和患者之间的对话的总结。
- Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese Grammatical Error Correction
- Piji Li, Shuming Shi
- TLDR: 本文研究了雅各布语错误correction(CGEC)问题,并提出了一个新的框架,用于解决雅各布语错误correction问题。
- Early Detection of Sexual Predators in Chats
- Matthias Vogt, Ulf Leser, Alan Akbik
- TLDR: 我们通过从预防的角度看待网络色情行为,从预防的角度看待网络色情行为的发生。
- Writing by Memorizing: Hierarchical Retrieval-based Medical Report Generation
- Xingyi Yang, Muchao Ye, Quanzeng You, Fenglong Ma
- TLDR: 我们提出了MedWriter,一个用于临床图像分析的语言检索系统,用于从报告和句法层次的样本中自动提取临床诊断报告。
- Concept-Based Label Embedding via Dynamic Routing for Hierarchical Text Classification
- Xuepeng Wang, Li Zhao, Bing Liu, Tao Chen, Feng Zhang, Di Wang
- TLDR: 我们提出了一种基于概念的标签嵌入方法,可以明确表述概念和模型,用于层次文本分类。
- VisualSparta: An Embarrassingly Simple Approach to Large-scale Text-to-Image Search with Weighted Bag-of-words
- Xiaopeng Lu, Tiancheng Zhao, Kyusong Lee
- TLDR: 我们提出了一种用于文本到图像检索的新方法,它可以实现实时搜索和深度学习的性能提高。
- Few-Shot Text Ranking with Meta Adapted Synthetic Weak Supervision
- Si Sun, Yingzhuo Qian, Zhenghao Liu, Chenyan Xiong, Kaitao Zhang, Jie Bao, Zhiyuan Liu, Paul Bennett
- TLDR: 本文提出了MetaAdaptRank,一种用于少樣本学习的领域适应学习方法,用于学习领域内强大的关注。
- Semi-Supervised Text Classification with Balanced Deep Representation Distributions
- Changchun Li, Ximing Li, Jihong Ouyang
- TLDR: 我们提出了一种用于半监督文本分类的新方法,即S2TC-BDD。
- Improving Document Representations by Generating Pseudo Query Embeddings for Dense Retrieval
- Hongyin Tang, Xingwu Sun, Beihong Jin, Jingang Wang, Fuzheng Zhang, Wei Wu
- TLDR: 我们提出了一种用于文件检索的多查询模型,它可以实现最先进的结果,同时保留最先进的性能。
- ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transfer
- Yuanmeng Yan, Rumei Li, Sirui Wang, Fuzheng Zhang, Wei Wu, Weiran Xu
- TLDR: 我们提出了ConSERT,一个反向学习和非监督的结合方法,用于自我监督的语义相似性(STS)任务。
- Exploring Dynamic Selection of Branch Expansion Orders for Code Generation
- Hui Jiang, Chulun Zhou, Fandong Meng, Biao Zhang, Jie Zhou, Degen Huang, Qingqiang Wu, Jinsong Su
- TLDR: 我们提出了一个基于背景的序列选择器,它可以动态地选择最优的序列顺序,以实现多階建。
- COINS: Dynamically Generating COntextualized Inference Rules for Narrative Story Completion
- Debjit Paul, Anette Frank
- TLDR: 我们提出了 Coins,一个用于解释语义句法的循環推理框架。
- Reasoning over Entity-Action-Location Graph for Procedural Text Understanding
- Hao Huang, Xiubo Geng, Jian Pei, Guodong Long, Daxin Jiang
- TLDR: 我们提出了一种新的方法(REAL)来解决程序性文本理解中的实体-行为、实体-位置关系的一般框架。
- From Paraphrasing to Semantic Parsing: Unsupervised Semantic Parsing via Synchronous Semantic Decoding
- Shan Wu, Bo Chen, Chunlei Xin, Xianpei Han, Le Sun, Weipeng Zhang, Jiansong Chen, Fan Yang, Xunliang Cai
- TLDR: 我们提出了一种非监督的语义解析方法,可以同时解决语义和逻辑形式之间的语义空间和语义空间的结构空间。
- Pre-training Universal Language Representation
- Yian Li, Hai Zhao
- TLDR: 我们提出了一种用于语言表征学习的通用语言表征学习算法,它可以用于语言表征学习。
- Structural Pre-training for Dialogue Comprehension
- Zhuosheng Zhang, Hai Zhao
- TLDR: 我们提出了一个用于对话的结构化预训练的对话阅读器,用于捕捉对话的独一的对话特征。
- AutoTinyBERT: Automatic Hyper-parameter Optimization for Efficient Pre-trained Language Models
- Yichun Yin, Cheng Chen, Lifeng Shang, Xin Jiang, Xiao Chen, Qun Liu
- TLDR: 我们使用一个简单的NAS搜索来自动搜索架构超参数。
- Data Augmentation with Adversarial Training for Cross-Lingual NLI
- Xin Dong, Yaxin Zhu, Zuohui Fu, Dongkuan Xu, Gerard de Melo
- TLDR: 我们提出了一种用于跨语言推理的新数据增强策略。
- Bootstrapped Unsupervised Sentence Representation Learning
- Yan Zhang, Ruidan He, Zuozhu Liu, Lidong Bing, Haizhou Li
- TLDR: 我们提出了一种新的非监督语义相似性学习方法,它利用两个增强的视覺上对输入句子进行比较,以最大化其相似性。
- Learning Event Graph Knowledge for Abductive Reasoning
- Li Du, Xiao Ding, Ting Liu, Bing Qin
- TLDR: 本文提出了一种基于故事的反推推理任务。
- A Cognitive Regularizer for Language Modeling
- Jason Wei, Clara Meister, Ryan Cotterell
- TLDR: 我们提出了一种用于语言建模的理论,该理论基于一种基于神经网络的理论,该理论基于一种基于神经网络的理论。
- Lower Perplexity is Not Always Human-Like
- Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, Kentaro Inui
- TLDR: 我们重新审视了在神经网络中训练的神经网络的一般泛化。
- Word Sense Disambiguation: Towards Interactive Context Exploitation from Both Word and Sense Perspectives
- Ming Wang, Yinglin Wang
- TLDR: 我们通过将词嵌入纳入上下文,以提高词嵌入学习的语义嵌入学习。
- A Knowledge-Guided Framework for Frame Identification
- Xuefeng Su, Ru Li, Xiaoli Li, Jeff Z. Pan, Hu Zhang, Qinghua Chai, Xiaoqi Han
- TLDR: 我们提出了一个知识框架,通过将三个层次的框架知识整合起来,学习更好的框架表示。
- Obtaining Better Static Word Embeddings Using Contextual Embedding Models
- Prakhar Gupta, Martin Jaggi
- TLDR: 我们提出了一种用于NLP的简单可微分的生成方法,该方法可以显著提高NLP应用的计算效率。
- Meta-Learning with Variational Semantic Memory for Word Sense Disambiguation
- Yingjun Du, Nithin Holla, Xiantong Zhen, Cees Snoek, Ekaterina Shutova
- TLDR: 我们提出了一个用于少樣本的WSD的语义记忆模型,该模型通过使用一个跨域的随机记忆法来实现语义记忆。
- LexFit: Lexical Fine-Tuning of Pretrained Language Models
- Ivan Vulić, Edoardo Maria Ponti, Anna Korhonen, Goran Glavaš
- TLDR: 我们表明,通过使用一个简单的词嵌入程序,从现有的LM中提取词嵌入知识,可以从它们中获得词编码器。
- Text-Free Image-to-Speech Synthesis Using Learned Segmental Units
- Wei-Ning Hsu, David Harwath, Tyler Miller, Christopher Song, James Glass
- TLDR: 我们提出了第一个用于直接合成自然语言表征的语音 caption的模型。
- CTFN: Hierarchical Learning for Multimodal Sentiment Analysis Using Coupled-Translation Fusion Network
- Jiajia Tang, Kang Li, Xuanyu Jin, Andrzej Cichocki, Qibin Zhao, Wanzeng Kong
- TLDR: 通过结合学习,我们能够从单个单词中学习出多模式的上下文,同时保留了对缺失模式的穩定性。
- Positional Artefacts Propagate Through Masked Language Model Embeddings
- Ziyang Luo, Artur Kulmizev, Xiaoxi Mao
- TLDR: 我们表明,从伪装的语言模型中提取的句法嵌入与句法的句法嵌入密切相关。
- Language Model Evaluation Beyond Perplexity
- Clara Meister, Ryan Cotterell
- TLDR: 我们提出了一种新的量化方法来衡量自然语言模型学习的语言语言模型的统计趋势。
- Learning to Explain: Generating Stable Explanations Fast
- Xuelin Situ, Ingrid Zukerman, Cecile Paris, Sameen Maruf, Gholamreza Haffari
- TLDR: 我们提出了一种学习解释算法同时从所有例子中学习的解释算法。
- StereoSet: Measuring stereotypical bias in pretrained language models
- Moin Nadeem, Anna Bethke, Siva Reddy
- TLDR: 我们提出了一个用于衡量偏见的多语种自然语言数据集,用于衡量偏见和语言建模能力。
- Alignment Rationale for Natural Language Inference
- Zhongtao Jiang, Yuanzhe Zhang, Zhao Yang, Jun Zhao, Kang Liu
- TLDR: 我们提出了一种用于NLI的元学习方法,该方法使用特征选择来解释模型的偏差。
- Enabling Lightweight Fine-tuning for Pre-trained Language Model Compression based on Matrix Product Operators
- Peiyu Liu, Ze-Feng Gao, Wayne Xin Zhao, Zhi-Yuan Xie, Zhong-Yi Lu, Ji-Rong Wen
- TLDR: 我们提出了一种基于量子多体物理学的新的PLM压缩方法,它可以从量子多体物理学中提取出一种优化算法,以实现更轻量级的压缩。
- On Sample Based Explanation Methods for NLP: Faithfulness, Efficiency and Semantic Evaluation
- Wei Zhang, Ziming Huang, Yada Zhu, Guangnan Ye, Xiaodong Cui, Fan Zhang
- TLDR: 我们提出了一种基于语义的解释方法,它可以提高解释的解释性,同时保留语义。
- Syntax-Enhanced Pre-trained Model
- Zenan Xu, Daya Guo, Duyu Tang, Qinliang Su, Linjun Shou, Ming Gong, Wanjun Zhong, Xiaojun Quan, Daxin Jiang, Nan Duan
- TLDR: 我们提出了一个用于训练句法的模型,它使用句法在训练和微调阶段中,并表明它可以提高预先训练好的模型。
- Matching Distributions between Model and Data: Cross-domain Knowledge Distillation for Unsupervised Domain Adaptation
- Bo Zhang, Xiaoming Zhang, Yun Liu, Lei Cheng, Zhoujun Li
- TLDR: 我们提出了一个通用的UDA框架,用于从源数据中学习到更好的网络架构。
- Counterfactual Inference for Text Classification Debiasing
- Chen Qian, Fuli Feng, Lijie Wen, Chunping Ma, Pengjun Xie
- TLDR: 我们提出了一个用于文本分类的模型-无偏见的文本分类的框架,它可以有效地避免使用数据级的操作或设计方法来进行偏见。
- HieRec: Hierarchical User Interest Modeling for Personalized News Recommendation
- Tao Qi, Fangzhao Wu, Chuhan Wu, Peiru Yang, Yang Yu, Xing Xie, Yongfeng Huang
- TLDR: 我们提出了一个用于用户兴趣的分层用户兴趣建模方法,用于个性化的新闻推荐。
- PP-Rec: News Recommendation with Personalized User Interest and Time-aware News Popularity
- Tao Qi, Fangzhao Wu, Chuhan Wu, Yongfeng Huang
- TLDR: 我们提出了一个流行性感知的用户编码器,用于准确的流行性推荐。
- Article Reranking by Memory-Enhanced Key Sentence Matching for Detecting Previously Fact-Checked Claims
- Qiang Sheng, Juan Cao, Xueyao Zhang, Xirong Li, Lei Zhong
- TLDR: 我们提出了一种新的方法,用于从句法中学习关键句法,以衡量FC-articles的事实性。
- Defense against Synonym Substitution-based Adversarial Attacks via Dirichlet Neighborhood Ensemble
- Yi Zhou, Xiaoqing Zheng, Cho-Jui Hsieh, Kai-Wei Chang, Xuanjing Huang
- TLDR: 我们提出了DNN,一种随机的方法来训练一个穩定的模型对抗对抗性攻击。
- Shortformer: Better Language Modeling using Shorter Inputs
- Ofir Press, Noah A. Smith, Mike Lewis
- TLDR: 我们提出了一种新的变换方法,通过使用一个简单的函数来减少输入长度,以提高模型的效率。
- BanditMTL: Bandit-based Multi-task Learning for Text Classification
- Yuren Mao, Zekai Wang, Weiwei Liu, Xuemin Lin, Wenbin Hu
- TLDR: 本文提出了一种基于对抗性多体面的多任务学习方法,用于多任务文本分类。
- Unified Interpretation of Softmax Cross-Entropy and Negative Sampling: With Case Study for Knowledge Graph Embedding
- Hidetaka Kamigaito, Katsuhiko Hayashi
- TLDR: 我们提出了一个统一的理论,以解释softmax交叉熵和负采样损失函数之间的理论联系。
- De-Confounded Variational Encoder-Decoder for Logical Table-to-Text Generation
- Wenqing Chen, Jidong Tian, Yitian Li, Hao He, Yaohui Jin
- TLDR: 本文提出了基于数据的文本到文本的生成的理论。
- Rethinking Stealthiness of Backdoor Attack against NLP Models
- Wenkai Yang, Yankai Lin, Peng Li, Jie Zhou, Xu Sun
- TLDR: 我们提出了一个基于句法的后门攻击方法,它可以获得良好的攻击性能,但它会失败。
- Crowdsourcing Learning as Domain Adaptation: A Case Study on Named Entity Recognition
- Xin Zhang, Guangwei Xu, Yueheng Sun, Meishan Zhang, Pengjun Xie
- TLDR: 我们提出了一个用于非监督学习的GAN,它可以从非监督学习中获得最先进的结果。
- Exploring Distantly-Labeled Rationales in Neural Network Models
- Quzhe Huang, Shengqi Zhu, Yansong Feng, Dongyan Zhao
- TLDR: 我们提出了用于学习非合理性理由的替代函数,以提高模型的关注度。
- Learning to Perturb Word Embeddings for Out-of-distribution QA
- Seanie Lee, Minki Kang, Juho Lee, Sung Ju Hwang
- TLDR: 我们提出了一个简单的、有效的QA模型,它可以从输入问题和背景中学习动词嵌入,而不改变它们的语义。
- Maria: A Visual Experience Powered Conversational Agent
- Zujie Liang, Huang Hu, Can Xu, Chongyang Tao, Xiubo Geng, Yining Chen, Fan Liang, Daxin Jiang
- TLDR: 我们提出了Maria,一个用于图像感知的神经对话代理,通过使用视觉世界的经验来捕捉人类的感知。
- A Human-machine Collaborative Framework for Evaluating Malevolence in Dialogues
- Yangjun Zhang, Pengjie Ren, Maarten de Rijke
- TLDR: 我们提出了一个用于对话系统评估的人工-机器合作框架,它可以实现准确的对话评价结果,同时减少了人类的劳动。
- Generating Relevant and Coherent Dialogue Responses using Self-Separated Conditional Variational AutoEncoders
- Bin Sun, Shaoxiong Feng, Yiwei Li, Jiamou Liu, Kan Li
- TLDR: 我们提出了SelSelseparated Conditional Variational AutoEncoder,它通过引入一个组信息来正则化潜在变量,从而提高开放对话生成任务的回应的多样性和 informative性。
- Learning to Ask Conversational Questions by Optimizing Levenshtein Distance
- Zhongkun Liu, Pengjie Ren, Zhumin Chen, Zhaochun Ren, Maarten de Rijke, Ming Zhou
- TLDR: 我们提出了一种用于对话问题的RL方法,它可以关注到句法,并能够从句法中学习句法相关的对话特征。
- DVD: A Diagnostic Dataset for Multi-step Reasoning in Video Grounded Dialogue
- Hung Le, Chinnadhurai Sankar, Seungwhan Moon, Ahmad Beirami, Alborz Geramifard, Satwik Kottur
- TLDR: 我们提出了DVD,这是一个诊断数据集用于视频背景对话系统。
- MMGCN: Multimodal Fusion via Deep Graph Convolution Network for Emotion Recognition in Conversation
- Jingwen Hu, Yuchen Liu, Jinming Zhao, Qin Jin
- TLDR: 我们提出了一种基于多模态图卷积网络的图神经网络,它可以利用多模态依赖性,同时可以利用语音信息来建交语音和语义依赖性。
- DynaEval: Unifying Turn and Dialogue Level Evaluation
- Chen Zhang, Yiming Chen, Luis Fernando D’Haro, Yan Zhang, Thomas Friedrichs, Grandee Lee, Haizhou Li
- TLDR: 我们提出了一种统一的对话质量评估框架,它可以作为对话的全局评价,同时它也关注整个对话的质量。
- CoSQA: 20,000+ Web Queries for Code Search and Question Answering
- Junjie Huang, Duyu Tang, Linjun Shou, Ming Gong, Ke Xu, Daxin Jiang, Ming Zhou, Nan Duan
- TLDR: 我们提出了CoSQA数据集,用于对自然语言查询和代码进行语义匹配。
- Rewriter-Evaluator Architecture for Neural Machine Translation
- Yangming Li, Kaisheng Yao
- TLDR: 我们提出了一个用于多通道翻译的Re编译-评估架构,该架构可以提高NMT模型的性能。
- Modeling Bilingual Conversational Characteristics for Neural Chat Translation
- Yunlong Liang, Fandong Meng, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: 我们通过利用潜在变量,从三个潜在变量中学习语言对话的特征分布。
- Importance-based Neuron Allocation for Multilingual Neural Machine Translation
- Wanying Xie, Yang Feng, Shuhao Gu, Dong Yu
- TLDR: 我们提出了一种用于多语言翻译的神经网络的通用方法。
- Transfer Learning for Sequence Generation: from Single-source to Multi-source
- Xuancheng Huang, Jingfang Xu, Maosong Sun, Yang Liu
- TLDR: 我们提出了一种基于二阶微调的基于模型的多源序列生成的模型,用于MSG任务的非监督学习。
- A Closer Look at Few-Shot Crosslingual Transfer: The Choice of Shots Matters
- Mengjie Zhao, Yi Zhu, Ehsan Shareghi, Ivan Vulić, Roi Reichart, Anna Korhonen, Hinrich Schütze
- TLDR: 我们展示了在少樣本转移中使用一个简单的全模型微调方法的有效性,比最先进的少樣本方法更有效。
- Coreference Reasoning in Machine Reading Comprehension
- Mingzhu Wu, Nafise Sadat Moosavi, Dan Roth, Iryna Gurevych
- TLDR: 我们提出了一种用于生成MRC模型的模型的样本评估方法。
- Adapting Unsupervised Syntactic Parsing Methodology for Discourse Dependency Parsing
- Liwen Zhang, Ge Wang, Wenjuan Han, Kewei Tu
- TLDR: 我们提出了一种简单而有效的方法,用于适应非监督的句法依赖性解析方法。
- A Conditional Splitting Framework for Efficient Constituency Parsing
- Thanh-Tung Nguyen, Xuan-Phi Nguyen, Shafiq Joty, Xiaoli Li
- TLDR: 我们提出了一个用于语法解析问题的泛化模型,它可以作为句法解析问题的一般框架来进行语义解析。
- A Unified Generative Framework for Various NER Subtasks
- Hang Yan, Tao Gui, Junqi Dai, Qipeng Guo, Zheng Zhang, Xipeng Qiu
- TLDR: 我们提出了一个统一的Seq2Seq框架,用于解决词典上表示的词的NER。
- An In-depth Study on Internal Structure of Chinese Words
- Chen Gong, Saihao Huang, Houquan Zhou, Zhenghua Li, Min Zhang, Zhefeng Wang, Baoxing Huai, Nicholas Jing Yuan
- TLDR: 我们提出了一个用于词汇表征的词间结构树,并提出了一个用于词间结构的依赖性树。
- MulDA: A Multilingual Data Augmentation Framework for Low-Resource Cross-Lingual NER
- Linlin Liu, Bosheng Ding, Lidong Bing, Shafiq Joty, Luo Si, Chunyan Miao
- TLDR: 本文提出了一种用于跨语言NER的标签序列翻译方法,以解决低资源语言的NER。
- Lexicon Enhanced Chinese Sequence Labeling Using BERT Adapter
- Wei Liu, Xiyan Fu, Yue Zhang, Wenming Xiao
- TLDR: 我们提出了Lexware–一种用于汉字序列标签的新型方法,它通过直接从BERT层中提取外部语义知识来实现最先进的结果。
- Math Word Problem Solving with Explicit Numerical Values
- Qinzhuo Wu, Qi Zhang, Zhongyu Wei, Xuanjing Huang
- TLDR: 我们提出了一种用于数学词问题的数字值的新型方法,它通过明确地将数字值纳入序列到树的网络中来提高数学词问题的解决性能。
- Neural-Symbolic Solver for Math Word Problems with Auxiliary Tasks
- Jinghui Qin, Xiaodan Liang, Yining Hong, Jianheng Tang, Liang Lin
- TLDR: 我们提出了一种用于解决语义问题的神经-符号解决方法,它可以明确和无障碍地纳入不同符号限制的符号限制。
- SMedBERT: A Knowledge-Enhanced Pre-trained Language Model with Structured Semantics for Medical Text Mining
- Taolin Zhang, Zerui Cai, Chengyu Wang, Minghui Qiu, Bite Yang, Xiaofeng He
- TLDR: 我们引入了SMedBERT,一个医疗PLM,在医疗领域中使用知识图作为知识图的全域背景,以提高语言理解能力。
- What is Your Article Based On? Inferring Fine-grained Provenance
- Yi Zhang, Zachary Ives, Dan Roth
- TLDR: 本文提出了一个关于论文和其论证的比较研究。
- Cross-modal Memory Networks for Radiology Report Generation
- Zhihong Chen, Yaling Shen, Yan Song, Xiang Wan
- TLDR: 我们提出了一个跨模网络(CMN)来提高编码器-解码器框架下的临床诊断报告生成,用于临床诊断报告生成。
- Controversy and Conformity: from Generalized to Personalized Aggressiveness Detection
- Kamil Kanclerz, Alicja Figas, Marcin Gruza, Tomasz Kajdanowicz, Jan Kocon, Daria Puchalska, Przemyslaw Kazienko
- TLDR: 我们提出了一种新的个性化方法,用于处理不感兴趣的、对抗性的、色情的、不道德的、不道德的、不合时的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、不一致的、
- Multi-perspective Coherent Reasoning for Helpfulness Prediction of Multimodal Reviews
- Junhao Liu, Zhen Hai, Min Yang, Lidong Bing
- TLDR: 我们提出了一个新颖的多视角逻辑方法(MCR),用于解决多模态评价帮助性预测任务。
- Instantaneous Grammatical Error Correction with Shallow Aggressive Decoding
- Xin Sun, Tao Ge, Furu Wei, Houfeng Wang
- TLDR: 我们提出了Shallow Aggressive Decoding(SAD),用于在线推理的快速和高效的Transformer。
- Automatic ICD Coding via Interactive Shared Representation Networks with Self-distillation Mechanism
- Tong Zhou, Pengfei Cao, Yubo Chen, Kang Liu, Jun Zhao, Kun Niu, Weifeng Chong, Shengping Liu
- TLDR: 我们提出了一种用于临床记录的自动编码任务的互动共享表征网络。
- PHMOSpell: Phonological and Morphological Knowledge Guided Chinese Spelling Check
- Li Huang, Junjie Li, Weiwei Jiang, Zhiyu Zhang, Minchuan Chen, Shaojun Wang, Jing Xiao
- TLDR: 我们提出了一种用于CSC的端到端可训练的模型,该模型通过使用一个可扩展的自适应编码器来训练词汇表征。
- Guiding the Growth: Difficulty-Controllable Question Generation through Step-by-Step Rewriting
- Yi Cheng, Siyao Li, Bang Liu, Ruihui Zhao, Sujian Li, Chenghua Lin, Yefeng Zheng
- TLDR: 我们提出了一种新的方法,通过一步步重新编译,逐步提高问题难度。
- Improving Encoder by Auxiliary Supervision Tasks for Table-to-Text Generation
- Liang Li, Can Ma, Yinliang Yue, Dayong Hu
- TLDR: 我们提出了一种基于数据到文本的生成方法,它可以提高数据到数据的生成。
- POS-Constrained Parallel Decoding for Non-autoregressive Generation
- Kexin Yang, Wenqiang Lei, Dayiheng Liu, Weizhen Qi, Jiancheng Lv
- TLDR: 我们提出了一个解决多模态问题的理论,并表明,在本文中,我们表明,POSPD方法的理论与我们的想法相反。
- Bridging Subword Gaps in Pretrain-Finetune Paradigm for Natural Language Generation
- Xin Liu, Baosong Yang, Dayiheng Liu, Haibo Zhang, Weihua Luo, Min Zhang, Haiying Zhang, Jinsong Su
- TLDR: 我们提出了一种基于插即玩嵌入的非监督方法,用于从低階NLG任务中提取出更好的表征。
- TGEA: An Error-Annotated Dataset and Benchmark Tasks for TextGeneration from Pretrained Language Models
- Jie He, Bo Peng, Yi Liao, Qun Liu, Deyi Xiong
- TLDR: 我们提出了一个用于文本生成的错误标注数据集,用于诊断和改进基于PLM的文本生成。
- Long-Span Summarization via Local Attention and Content Selection
- Potsawee Manakul, Mark Gales
- TLDR: 我们使用一个用于文件总结的变换器来解决抽象概括任务的长期依赖性问题。
- RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy
- Xiyan Fu, Yating Zhang, Tianyi Wang, Xiaozhong Liu, Changlong Sun, Zhenglu Yang
- TLDR: 我们提出了一种新颖的非监督的概括方法,用于解决对话中表达式和抽象的概括任务。
- BASS: Boosting Abstractive Summarization with Unified Semantic Graph
- Wenhao Wu, Wei Li, Xinyan Xiao, Jiachen Liu, Ziqiang Cao, Sujian Li, Hua Wu, Haifeng Wang
- TLDR: 我们提出了BASS,一种用于增强概括性概括的统一语义图,它结合了词汇集分布和句法关系,以提高概括性概括。
- Capturing Relations between Scientific Papers: An Abstractive Model for Related Work Section Generation
- Xiuying Chen, Hind Alamro, Mingzhe Li, Shen Gao, Xiangliang Zhang, Dongyan Zhao, Rui Yan
- TLDR: 我们提出了一个关系感的多文件编码器,它可以从多个论文中生成一个抽象的相关的论文。
- Focus Attention: Promoting Faithfulness and Diversity in Summarization
- Rahul Aralikatte, Shashi Narayan, Joshua Maynez, Sascha Rothe, Ryan McDonald
- TLDR: 我们提出了一个用于总结的注意力机制,它可以帮助编码器主动生成标记,以更好地理解输入文件主题。
- Generating Query Focused Summaries from Query-Free Resources
- Yumo Xu, Mirella Lapata
- TLDR: 我们提出了一个用于QFS的查询导向总结的框架,它可以被转换为用于查询的模型。
- Robustifying Multi-hop QA through Pseudo-Evidentiality Training
- Kyungjae Lee, Seung-won Hwang, Sang-eun Han, Dohyeon Lee
- TLDR: 我们提出了一种基于证据的解释的多跳推理模型,它可以回答正确而不正确的理由。
- xMoCo: Cross Momentum Contrastive Learning for Open-Domain Question Answering
- Nan Yang, Furu Wei, Binxing Jiao, Daxing Jiang, Linjun Yang
- TLDR: 我们提出了一种新的对比性学习方法,用于学习一个双语编码器模型,用于问题到问题匹配。
- Learn to Resolve Conversational Dependency: A Consistency Training Framework for Conversational Question Answering
- Gangwoo Kim, Hyunjae Kim, Jungsoo Park, Jaewoo Kang
- TLDR: 我们提出了一种新的方法,通过使用一个统一的正则器来解决对话依赖性问题,以提高QA模型在理解对话中的表现能力。
- PhotoChat: A Human-Human Dialogue Dataset With Photo Sharing Behavior For Joint Image-Text Modeling
- Xiaoxue Zang, Lijuan Liu, Maria Wang, Yang Song, Hao Zhang, Jindong Chen
- TLDR: 我们提出了一个用于在线聊天的人类-人的对话数据集,用于提供图像-文本建模任务。
- Good for Misconceived Reasons: An Empirical Revisiting on the Need for Visual Context in Multimodal Machine Translation
- Zhiyong Wu, Lingpeng Kong, Wei Bi, Xiang Li, Ben Kao
- TLDR: 我们通过设计两个可解释的MMT模型来重新审视MMT模型的作用,并表明,在本文中,我们首次发现,MMT模型在本文中的表现与本文中的结果相反。
- Attend What You Need: Motion-Appearance Synergistic Networks for Video Question Answering
- Ahjeong Seo, Gi-Cheon Kang, Joonhan Park, Byoung-Tak Zhang
- TLDR: 我们提出了Motion-Appearance Synergistic Networks(MASN),这是一种基于运动和视覺信息的跨模式集成,用于回答问题。
- BERTifying the Hidden Markov Model for Multi-Source Weakly Supervised Named Entity Recognition
- Yinghao Li, Pranav Shetty, Lucas Liu, Chao Zhang, Le Song
- TLDR: 我们提出了一个条件隐藏马尔科夫模型,它可以直接推断出潜在的真标签,而不依赖其他有噪音标签的标签。
- CIL: Contrastive Instance Learning Framework for Distantly Supervised Relation Extraction
- Tao Chen, Haizhou Shi, Siliang Tang, Zhigang Chen, Fei Wu, Yueting Zhuang
- TLDR: 我们提出了一种基于多行动学习的例子学习(CIL)框架。
- SENT: Sentence-level Distant Relation Extraction via Negative Training
- Ruotian Ma, Tao Gui, Linyang Li, Qi Zhang, Xuanjing Huang, Yaqian Zhou
- TLDR: 我们提出了一个句法级框架,用于距离关系提取。
- An End-to-End Progressive Multi-Task Learning Framework for Medical Named Entity Recognition and Normalization
- Baohang Zhou, Xiangrui Cai, Ying Zhang, Xiaojie Yuan
- TLDR: 我们提出了一个端到端的渐进多任务学习模型,用于在医疗NER和NEN中联合学习。
- PRGC: Potential Relation and Global Correspondence Based Joint Relational Triple Extraction
- Hengyi Zheng, Rui Wen, Xi Chen, Yifan Yang, Yunyan Zhang, Ziheng Zhang, Ningyu Zhang, Bin Qin, Xu Ming, Yefeng Zheng
- TLDR: 我们提出了一个用于多表征提取的联合关系和全域通信(PRGC)框架。
- Learning from Miscellaneous Other-Class Words for Few-shot Named Entity Recognition
- Meihan Tong, Shuai Wang, Bin Xu, Yixin Cao, Minghui Liu, Lei Hou, Juanzi Li
- TLDR: 我们提出了一个新颖的模型,通过捕捉其他类别的特征来提高少樣本的NER。
- Joint Biomedical Entity and Relation Extraction with Knowledge-Enhanced Collective Inference
- Tuan Lai, Heng Ji, ChengXiang Zhai, Quan Hung Tran
- TLDR: 我们提出了一个新颖的框架,用于联合实体和关系提取,使用知识图和关注机制。
- Fine-grained Information Extraction from Biomedical Literature based on Knowledge-enriched Abstract Meaning Representation
- Zixuan Zhang, Nikolaus Parulian, Heng Ji, Ahmed Elsayed, Skatje Myers, Martha Palmer
- TLDR: 我们提出了一个新颖的生物医学信息提取(IE)模型,用于解决生物医学上的信息提取任务。
- Unleash GPT-2 Power for Event Detection
- Amir Pouran Ben Veyseh, Viet Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: 我们提出了一种用于ED的深度学习架构,该架构使用了GPT-2来生成训练样本。
- CLEVE: Contrastive Pre-training for Event Extraction
- Ziqi Wang, Xiaozhi Wang, Xu Han, Yankai Lin, Lei Hou, Zhiyuan Liu, Peng Li, Juanzi Li, Jie Zhou
- TLDR: 我们提出了CLEVE,一个对比性预训练框架,用于更好的学习消息语义表征。
- Document-level Event Extraction via Parallel Prediction Networks
- Hang Yang, Dianbo Sui, Yubo Chen, Kang Liu, Jun Zhao, Taifeng Wang
- TLDR: 我们提出了一个端到端模型,可以从文件中提取结构化的事件,同时生成它们。
- StructuralLM: Structural Pre-training for Form Understanding
- Chenliang Li, Bin Bi, Ming Yan, Wei Wang, Songfang Huang, Fei Huang, Luo Si
- TLDR: 我们提出了一种新的预训练方法,用于联合使用细胞和布局信息从扫描过的文件中获得。
- Dual Graph Convolutional Networks for Aspect-based Sentiment Analysis
- Ruifan Li, Hao Chen, Fangxiang Feng, Zhanyu Ma, Xiaojie Wang, Eduard Hovy
- TLDR: 我们提出了一种基于双曲卷积网络的双语学习模型,它考虑了语义结构和语义相互作用同时。
- Multi-Label Few-Shot Learning for Aspect Category Detection
- Mengting Hu, Shiwan Zhao, Honglei Guo, Chao Xue, Hang Gao, Tiegang Gao, Renhong Cheng, Zhong Su
- TLDR: 我们提出了一种基于多标签的少樣本学习方法,用于表示句法中多个主题的方面分类。
- Argument Pair Extraction via Attention-guided Multi-Layer Multi-Cross Encoding
- Liying Cheng, Tianyu Wu, Lidong Bing, Luo Si
- TLDR: 本文提出了一种基于注意力的多层多通道编码方案,用于解决二通道的对应问题。
- A Neural Transition-based Model for Argumentation Mining
- Jianzhu Bao, Chuang Fan, Jipeng Wu, Yixue Dang, Jiachen Du, Ruifeng Xu
- TLDR: 我们提出了一个基于神经梯度的模型来解决基于树形的论证建模。
- Keep It Simple: Unsupervised Simplification of Multi-Paragraph Text
- Philippe Laban, Tobias Schnabel, Paul Bennett, Marti A. Hearst
- TLDR: 我们提出了一个新的方法来解决非监督文本简化问题,它学习平衡一个奖励的奖励,并利用它来改进奖励。
- Long Text Generation by Modeling Sentence-Level and Discourse-Level Coherence
- Jian Guan, Xiaoxi Mao, Changjie Fan, Zitao Liu, Wenbiao Ding, Minlie Huang
- TLDR: 我们提出了一个用于文本生成的长文本生成模型,它可以代表句法级句法的上下文,并可以作为句法级句法的上下文,在编码过程中进行表示。
- OpenMEVA: A Benchmark for Evaluating Open-ended Story Generation Metrics
- Jian Guan, Zhexin Zhang, Zhuoer Feng, Zitao Liu, Wenbiao Ding, Xiaoxi Mao, Changjie Fan, Minlie Huang
- TLDR: 我们提出了OpenMEVA,一个用于评估开放式故事生成的标准的测试库。
- DYPLOC: Dynamic Planning of Content Using Mixed Language Models for Text Generation
- Xinyu Hua, Ashwin Sreevatsa, Lu Wang
- TLDR: 我们提出了一种用于多语种观点文本生成的生成框架,它通过使用一个新颖的语言模型来生成文本,同时使用一个强大的预测模型来生成文本。
- Controllable Open-ended Question Generation with A New Question Type Ontology
- Shuyang Cao, Lu Wang
- TLDR: 我们通过使用一个语义图表来预测问题主题,并使用它来生成问题。
- BERTGen: Multi-task Generation through BERT
- Faidon Mitzalis, Ozan Caglayan, Pranava Madhyastha, Lucia Specia
- TLDR: 我们提出了BERTGen,一个生成的、编码器-非模型的新型语言生成模型,它扩展了BERT。
- Selective Knowledge Distillation for Neural Machine Translation
- Fusheng Wang, Jianhao Yan, Fandong Meng, Jie Zhou
- TLDR: 我们提出了一种新的方法,可以有效地分析不同样本的影响,通过对比各种样本的 partitions。
- Measuring and Increasing Context Usage in Context-Aware Machine Translation
- Patrick Fernandes, Kayo Yin, Graham Neubig, André F. T. Martins
- TLDR: 我们使用条件交叉的语义信息来衡量语义模型在翻译中使用特定的语义。
- Beyond Offline Mapping: Learning Cross-lingual Word Embeddings through Context Anchoring
- Aitor Ormazabal, Mikel Artetxe, Aitor Soroa, Gorka Labaka, Eneko Agirre
- TLDR: 我们提出了一种基于语义词嵌入的非监督方法,它不需要一个弱的词典(如单词列表)作为监督,而不需要一个强大的词典(如单词列表)作为监督。
- CCMatrix: Mining Billions of High-Quality Parallel Sentences on the Web
- Holger Schwenk, Guillaume Wenzek, Sergey Edunov, Edouard Grave, Armand Joulin, Angela Fan
- TLDR: 我们展示了在多语种句法空间中进行基于边际的上下文嵌入的可扩展性,可以从一个语言到另一个语言的训练集上获得高质量的训练。
- Length-Adaptive Transformer: Train Once with Length Drop, Use Anytime with Search
- Gyuwan Kim, Kyunghyun Cho
- TLDR: 我们提出了一个用于推理的长度转换器,可以作为一个用于短时间训练的转换器。
- GhostBERT: Generate More Features with Cheap Operations for BERT
- Zhiqi Huang, Lu Hou, Lifeng Shang, Xin Jiang, Xiao Chen, Qun Liu
- TLDR: 我们提出了一个用于BERT的新型GhostBERT,它可以被应用于未修剪的BERT模型,以提高其性能。
- Super Tickets in Pre-Trained Language Models: From Model Compression to Improving Generalization
- Chen Liang, Simiao Zuo, Minshuo Chen, Haoming Jiang, Xiaodong Liu, Pengcheng He, Tuo Zhao, Weizhu Chen
- TLDR: 我们表明,在非常偏的模型中, “奖励票 “可以比整个模型的总性能更好。
- A Novel Estimator of Mutual Information for Learning to Disentangle Textual Representations
- Pierre Colombo, Pablo Piantanida, Chloé Clavel
- TLDR: 我们提出了一种新的变异上限,用于控制在文本数据上训练的对抗性方法。
- Determinantal Beam Search
- Clara Meister, Martina Forster, Ryan Cotterell
- TLDR: 我们提出了一种用于语言生成的神经序列模型的非参数化方法,该方法在语言生成中的表现力优于其他方法。
- Multi-hop Graph Convolutional Network with High-order Chebyshev Approximation for Text Reasoning
- Shuoran Jiang, Qingcai Chen, Xin Liu, Baotian Hu, Lisai Zhang
- TLDR: 我们提出了一种基于多跳图卷积网络的神经网络,它可以提高多跳图推理的性能。
- Accelerating Text Communication via Abbreviated Sentence Input
- Jiban Adhikary, Jamie Berger, Keith Vertanen
- TLDR: 我们提出了一个用于从语音中识别句法的句法的神经语言模型。
- Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing Regressions In NLP Model Updates
- Yuqing Xie, Yi-An Lai, Yuanjun Xiong, Yi Zhang, Stefano Soatto
- TLDR: 我们提出了一个用于NLP模型更新的可解释性模型更新的理论和实践结果。
- Detecting Propaganda Techniques in Memes
- Dimitar Dimitrov, Bishr Bin Ali, Shaden Shaar, Firoj Alam, Fabrizio Silvestri, Hamed Firooz, Preslav Nakov, Giovanni Da San Martino
- TLDR: 我们提出了一个新的多标签多模态任务:检测用于看脸的谣言的类型。
- On the Efficacy of Adversarial Data Collection for Question Answering: Results from a Large-Scale Randomized Study
- Divyansh Kaushik, Douwe Kiela, Zachary C. Lipton, Wen-tau Yih
- TLDR: 我们通过对问题回答者进行随机分配,对问题进行对抗性回答。
- Learning Dense Representations of Phrases at Scale
- Jinhyuk Lee, Mujeen Sung, Jaewoo Kang, Danqi Chen
- TLDR: 我们首次展示了使用句法表征学习句法表征的方法,可以提高句法检索的准确性。
- End-to-End Training of Neural Retrievers for Open-Domain Question Answering
- Devendra Sachan, Mostofa Patwary, Mohammad Shoeybi, Neel Kant, Wei Ping, William L. Hamilton, Bryan Catanzaro
- TLDR: 我们研究了从预训练开始的神经检索器,并提出了一种用于OpenQA的非监督方法。
- Question Answering Over Temporal Knowledge Graphs
- Apoorv Saxena, Soumen Chakrabarti, Partha Talukdar
- TLDR: 我们提出了一个用于时间序列知识图的转换器,它可以提高效率和准确性,同时保留了所有基础的性能。
- Language Model Augmented Relevance Score
- Ruibo Liu, Jason Wei, Soroush Vosoughi
- TLDR: 我们提出了语言模型增强的ROAS,这是一个新的背景感知指标,用于NLG评估。
- DExperts: Decoding-Time Controlled Text Generation with Experts and Anti-Experts
- Alisa Liu, Maarten Sap, Ximing Lu, Swabha Swayamdipta, Chandra Bhagavatula, Noah A. Smith, Yejin Choi
- TLDR: 我们提出了DExperts:编码时间专家,一种用于控制文本生成的自动编码器方法。
- Polyjuice: Generating Counterfactuals for Explaining, Evaluating, and Improving Models
- Tongshuang Wu, Marco Tulio Ribeiro, Jeffrey Heer, Daniel Weld
- TLDR: 我们提出了一种通用的反事实生成器,可以从单个句子中生成多种真实的反事实,用于各种不同的应用。
- Metaphor Generation with Conceptual Mappings
- Kevin Stowe, Tuhin Chakrabarty, Nanyun Peng, Smaranda Muresan, Iryna Gurevych
- TLDR: 我们提出了一种用于生成句法的神经元建模方法,该方法通过将抽象概念嵌入到语法层次,然后用一个控制的Q-到Q生成模型来生成句法。
- Learning Latent Structures for Cross Action Phrase Relations in Wet Lab Protocols
- Chaitanya Kulkarni, Jany Chan, Eric Fosler-Lussier, Raghu Machiraju
- TLDR: 我们提出了一种新的WLP-MSTG模型,它可以更快地解决句法关系和隐性论问题。
- Multimodal Multi-Speaker Merger & Acquisition Financial Modeling: A New Task, Dataset, and Neural Baselines
- Ramit Sawhney, Mihir Goyal, Prakhar Goel, Puneet Mathur, Rajiv Ratn Shah
- TLDR: 我们提出了M3ANet,一个用于M&A call的基准架构,使用多语种多通道输入来预测M&A call的财务风险。
- Mid-Air Hand Gestures for Post-Editing of Machine Translation
- Rashad Albo Jamara, Nico Herbig, Antonio Krüger, Josef van Genabith
- TLDR: 我们首次研究了使用离散手势来进行文本编辑的MT中用手势的上下文指法的实用性,并表明,当使用离散手势时,用手势指法的指法可以更快地修改。
- Inter-GPS: Interpretable Geometry Problem Solving with Formal Language and Symbolic Reasoning
- Pan Lu, Ran Gong, Shibiao Jiang, Liang Qiu, Siyuan Huang, Xiaodan Liang, Song-Chun Zhu
- TLDR: 我们提出了一种新的基于语义和符号建模方法,用于解决具有层次化的抽象问题的多维建模。
- Joint Verification and Reranking for Open Fact Checking Over Tables
- Michael Sejr Schlichtkrull, Vladimir Karpukhin, Barlas Oguz, Mike Lewis, Wen-tau Yih, Sebastian Riedel
- TLDR: 我们通过引入一个联合评价和验证模型来解决在开放空间中进行的验证问题。
- Evaluation of Thematic Coherence in Microblogs
- Iman Munire Bilal, Bo Wang, Maria Liakata, Rob Procter, Adam Tsakalidis
- TLDR: 我们提出了一个用于衡量主题建模的指标,并分析了其在本文中的作用。
- Neural semi-Markov CRF for Monolingual Word Alignment
- Wuwei Lan, Chao Jiang, Wei Xu
- TLDR: 我们提出了一个用于多语种词和句法的神经半马洛伊嵌入模型,它与现有的模型相比具有更好的通用性。
- Privacy at Scale: Introducing the PrivaSeer Corpus of Web Privacy Policies
- Mukund Srinath, Shomir Wilson, C Lee Giles
- TLDR: 我们提出了一个用于隐私政策的百科全书,它可以作为隐私政策的百科全书。
- The statistical advantage of automatic NLG metrics at the system level
- Johnny Wei, Robin Jia
- TLDR: 我们表明,在生成系统质量方面的估计不如人类的估计。
- Are Missing Links Predictable? An Inferential Benchmark for Knowledge Graph Completion
- Yixin Cao, Xiang Ji, Xin Lv, Juanzi Li, Yonggang Wen, Hanwang Zhang
- TLDR: 我们提出了InferWiki,这是一个知识图 Completion(KGC)数据集,用于提高现有的理论,假设,和行为的推理能力。
- ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive Summarization with Argument Mining
- Alexander Fabbri, Faiaz Rahman, Imad Rizvi, Borui Wang, Haoran Li, Yashar Mehdad, Dragomir Radev
- TLDR: 我们通过提出问题视点论框架来解决在线对话总结问题,并利用它来直接建模问题,以解决问题,观点和论断的表达。
- Improving Factual Consistency of Abstractive Summarization via Question Answering
- Feng Nan, Cicero Nogueira dos Santos, Henghui Zhu, Patrick Ng, Kathleen McKeown, Ramesh Nallapati, Dejiao Zhang, Zhiguo Wang, Andrew O. Arnold, Bing Xiang
- TLDR: 我们提出了一种解决抽象概括问题的理论,并提出了一种用于衡量事实一致性的自动评估指标。
- EmailSum: Abstractive Email Thread Summarization
- Shiyue Zhang, Asli Celikyilmaz, Jianfeng Gao, Mohit Bansal
- TLDR: 我们提出了一个抽象的电子邮件 thread总结数据集,它包含了用于短语和长语义总结的人类总结的短语和短语总结。
- Cross-Lingual Abstractive Summarization with Limited Parallel Resources
- Yu Bai, Yang Gao, Heyan Huang
- TLDR: 我们提出了一种新颖的多任务框架,用于跨语言总结(MCLAS)在低资源环境中使用。
- Dissecting Generation Modes for Abstractive Summarization Models via Ablation and Attribution
- Jiacheng Xu, Greg Durrett
- TLDR: 我们提出了一种二步解释方法来解释概括模型决策。
- Learning Prototypical Functions for Physical Artifacts
- Tianyu Jiang, Ellen Riloff
- TLDR: 我们介绍了一个新颖的NLP任务,用于学习人类造的物理物体的原始使用。
- Verb Knowledge Injection for Multilingual Event Processing
- Olga Majewska, Ivan Vulić, Goran Glavaš, Edoardo Maria Ponti, Anna Korhonen
- TLDR: 我们通过使用句法知识注入句法,从句法中提取句法知识,以实现语言转移。
- Dynamic Contextualized Word Embeddings
- Valentin Hofmann, Janet Pierrehumbert, Hinrich Schütze
- TLDR: 我们提出了动态的词嵌入,它们代表词的上下文,并表明词的上下文在不同的语言和跨语言背景下有不同形式的變化性。
- Lexical Semantic Change Discovery
- Sinan Kurtyigit, Maike Park, Dominik Schlechtweg, Jonas Kuhn, Sabine Schulte im Walde
- TLDR: 我们提出了一个从变化检测到变化发现的框架,用于评估和发现词的词语感知。
- The R-U-A-Robot Dataset: Helping Avoid Chatbot Deception by Detecting User Questions About Human or Non-Human Identity
- David Gros, Yu Li, Zhou Yu
- TLDR: 我们通过对目标的意图进行分类来识别目标,并分析了在没有明确的意图的情况下,如何通过验证目标的非人类身份来回应目标。
- Using Meta-Knowledge Mined from Identifiers to Improve Intent Recognition in Conversational Systems
- Claudio Pinhanez, Paulo Cavalin, Victor Henrique Alves Ribeiro, Ana Appel, Heloisa Candello, Julio Nogima, Mauro Pichiliani, Melina Guerra, Maira de Bayser, Gabriel Malfatti, Henrique Ferreira
- TLDR: 我们通过使用元知识嵌入在目标识别中,通过使用神经符号来改进目标识别。
- Space Efficient Context Encoding for Non-Task-Oriented Dialogue Generation with Graph Attention Transformer
- Fabian Galetzka, Jewgeni Rose, David Schlangen, Jens Lehmann
- TLDR: 我们提出了一种更简单的背景背景结构的编码方法,通过限制注意力权重来表达知识图的背景背景背景,以提高知识的准确性。
- DialogueCRN: Contextual Reasoning Networks for Emotion Recognition in Conversations
- Dou Hu, Lingwei Wei, Xiaoyong Huai
- TLDR: 我们提出了基于主题的推理网络(DialogueCRN),用于理解对话中情感的背景。
- Cross-replication Reliability - An Empirical Approach to Interpreting Inter-rater Reliability
- Ka Wong, Praveen Paritosh, Lora Aroyo
- TLDR: 我们提出了一种新的解释方法,用于解释IRR,它基于基于对IRR的基准的比较,并使用它来衡量一个用于多模化数据集的质量。
- TIMEDIAL: Temporal Commonsense Reasoning in Dialog
- Lianhui Qin, Aditya Gupta, Shyam Upadhyay, Luheng He, Yejin Choi, Manaal Faruqui
- TLDR: 我们首次研究了预先训练好的LMs对对话中时间推理的能力,并提出了一个用于时间推理的在线任务。
- RAW-C: Relatedness of Ambiguous Words in Context (A New Lexical Resource for English)
- Sean Trott, Benjamin Bergen
- TLDR: 我们提出了一个用于神经语言理解的神经语言学理论的统一理论。
- ARBERT & MARBERT: Deep Bidirectional Transformers for Arabic
- Muhammad Abdul-Mageed, AbdelRahim Elmadany, El Moatez Billah Nagoudi
- TLDR: 我们引入了一种基于深度离散变换器的语言理解评估方法,用于多语种语言理解评估。
- Improving Paraphrase Detection with the Adversarial Paraphrasing Task
- Animesh Nighojkar, John Licato
- TLDR: 我们提出了一个新的对抗性方法来生成句法对的句法对的替代词。
- ADEPT: An Adjective-Dependent Plausibility Task
- Ali Emami, Ian Porada, Alexandra Olteanu, Kaheer Suleman, Adam Trischler, Jackie Chi Kit Cheung
- TLDR: 我们提出了ADEPT,这是一个用于解释和评估自然语言理解任务的语义推理任务。
- ReadOnce Transformers: Reusable Representations of Text for Transformers
- Shih-Ting Lin, Ashish Sabharwal, Tushar Khot
- TLDR: 我们提出了ReadOnce Transformers,一种用于转换一个变形器的模型,可以生成信息传递,任务独立和压缩的文本。
- Conditional Generation of Temporally-ordered Event Sequences
- Shih-Ting Lin, Nathanael Chambers, Greg Durrett
- TLDR: 我们提出了一个单个模型,解决了时间序列序列的归纳和事件填充问题。
- Hate Speech Detection Based on Sentiment Knowledge Sharing
- Xianbing Zhou, Yang Yong, Xiaochao Fan, Ge Ren, Yunfeng Song, Yufeng Diao, Liang Yang, Hongfei Lin
- TLDR: 我们提出了一个用于反向传播的情感知识共享的反向攻击性攻击性攻击性攻击性攻击性攻击性攻击性攻击性攻击性攻击性攻击性攻击性攻击性攻击性攻击。
- Transition-based Bubble Parsing: Improvements on Coordination Structure Prediction
- Tianze Shi, Lillian Lee
- TLDR: 我们提出了一个基于转换的白盒解析器,用于进行协调结构识别和依赖性语义分析同时同时。
- SpanNER: Named Entity Re-/Recognition as Span Prediction
- Jinlan Fu, Xuanjing Huang, Pengfei Liu
- TLDR: 我们首次研究了在命名实体识别中使用时间标签的比拟优势和弱优势,并表明时间预测模型可以作为系统结合来学习命名实体的名称。
- StructFormer: Joint Unsupervised Induction of Dependency and Constituency Structure from Masked Language Modeling
- Yikang Shen, Yi Tay, Che Zheng, Dara Bahri, Donald Metzler, Aaron Courville
- TLDR: 我们提出了一个新颖的非监督语法解析方法,它可以同时产生语义和组成性结构,同时进行语义和组成性解析。
- Language Embeddings for Typology and Cross-lingual Transfer Learning
- Dian Yu, Taiqi He, Kenji Sagae
- TLDR: 我们使用一个用于跨语言任务的GAN,从一个零樣本的任务中学习跨语言的嵌入。
- Can Sequence-to-Sequence Models Crack Substitution Ciphers?
- Nada Aldarrab, Jonathan May
- TLDR: 我们提出了一个端到端的多语言模型,用于解决简单的替代词的转换问题。
- Beyond Noise: Mitigating the Impact of Fine-grained Semantic Divergences on Neural Machine Translation
- Eleftheria Briakou, Marine Carpuat
- TLDR: 我们提出了一个具有可解释性和可解释性特征的神经机器翻译的DNN框架,用于从自然发生的不一致性中恢复NMT的依赖性。
- Discriminative Reranking for Neural Machine Translation
- Ann Lee, Michael Auli, Marc’Aurelio Ranzato
- TLDR: 我们使用一个强大的变压器来训练一个用于预测最优排名的模型,并使用它来提高其泛化。
- Mind Your Outliers! Investigating the Negative Impact of Outliers on Active Learning for Visual Question Answering
- Siddharth Karamcheti, Ranjay Krishna, Li Fei-Fei, Christopher Manning
- TLDR: 我们表明,在回答问题时,主动学习方法倾向于获得但模型不能够学习。
- All That’s ‘Human’ Is Not Gold: Evaluating Human Evaluation of Generated Text
- Elizabeth Clark, Tal August, Sofia Serrano, Nikita Haduong, Suchin Gururangan, Noah A. Smith
- TLDR: 我们通过使用一个简单的例子来训练评估器来更好地识别GPT2-和GPT3-作者的文本。
- Scientific Credibility of Machine Translation Research: A Meta-Evaluation of 769 Papers
- Benjamin Marie, Atsushi Fujita, Raphael Rubino
- TLDR: 我们提出了一个用于机器翻译(MT)的全域元评估方法,并提出了一个用于评估其准确性的方法。
- Neural Machine Translation with Monolingual Translation Memory
- Deng Cai, Yan Wang, Huayang Li, Wai Lam, Lemao Liu
- TLDR: 我们提出了一种用于多语种翻译的跨语言记忆的神经机器翻译的新方法。
- Intrinsic Dimensionality Explains the Effectiveness of Language Model Fine-Tuning
- Armen Aghajanyan, Sonal Gupta, Luke Zettlemoyer
- TLDR: 我们通过通过内在维度来理解微调,通过对内在维度的映射来解释微调现象。
- UnNatural Language Inference
- Koustuv Sinha, Prasanna Parthasarathi, Joelle Pineau, Adina Williams
- TLDR: 我们表明,在本文中,我们表明,在多语言上使用Transformer的NLP模型的解释与人类的解释一样好。
- Including Signed Languages in Natural Language Processing
- Kayo Yin, Amit Moryossef, Julie Hochgesang, Yoav Goldberg, Malihe Alikhani
- TLDR: 我们建议将签字语言纳入NLP研究的主题,并建议将签字语言纳入NLP研究的主题。
- Vocabulary Learning via Optimal Transport for Neural Machine Translation
- Jingjing Xu, Hao Zhou, Chun Gan, Zaixiang Zheng, Lei Li
- TLDR: 我们提出了一种简单的、高效的、可扩展的、通用的、可解释的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、