EMNLP 2021 in Chinese
TLDRs
- AligNART: Non-autoregressive Neural Machine Translation by Jointly Learning to Estimate Alignment and Translate
- Jongyoon Song, Sungwon Kim, Sungroh Yoon
- TLDR: 我们提出了一种基于对输出的全对齐信息的非监督机器翻译的模型,它可以直接减少目标分布的 modal性。
- Zero-Shot Cross-Lingual Transfer of Neural Machine Translation with Multilingual Pretrained Encoders
- Guanhua Chen, Shuming Ma, Yun Chen, Li Dong, Dongdong Zhang, Jia Pan, Wenping Wang, Furu Wei
- TLDR: 我们提出了六维,一种简单的多语言神经网络,用于零樣本跨语言转移。
- ERNIE-M: Enhanced Multilingual Representation by Aligning Cross-lingual Semantics with Monolingual Corpora
- Xuan Ouyang, Shuohuan Wang, Chao Pang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: 我们提出了Ernie-M,一种新的方法,鼓励模型将多语言表征与单语言表征相匹配,以克服现有的多语言表征的限制。
- Cross Attention Augmented Transducer Networks for Simultaneous Translation
- Dan Liu, Mengge Du, Xiaoxi Li, Ya Li, Enhong Chen
- TLDR: 我们提出了一个用于同时翻译的新型架构,即跨注意力增强的Transducer(CAAT),用于同时翻译的翻译。
- Translating Headers of Tabular Data: A Pilot Study of Schema Translation
- Kunrui Zhu, Yan Gao, Jiaqi Guo, Jian-Guang Lou
- TLDR: 我们提出了第一个用于表格式翻译的神经机器翻译模型,它可以从表数据中翻译出一个目标头像。
- Towards Making the Most of Dialogue Characteristics for Neural Chat Translation
- Yunlong Liang, Chulun Zhou, Fandong Meng, Jinan Xu, Yufeng Chen, Jinsong Su, Jie Zhou
- TLDR: 我们提出了一种用于语音翻译的神经机器翻译的新型方法,该方法通过引入对话特征的对话特征,以提高语音翻译的质量。
- Low-Resource Dialogue Summarization with Domain-Agnostic Multi-Source Pretraining
- Yicheng Zou, Bolin Zhu, Xingwu Hu, Tao Gui, Qi Zhang
- TLDR: 我们提出了一种多源预训练方法,用于更好的利用外部对话数据。
- Controllable Neural Dialogue Summarization with Personal Named Entity Planning
- Zhengyuan Liu, Nancy Chen
- TLDR: 我们提出了一个可控的对话总结的框架,可以任意指导对话总结的主题规划。
- Fine-grained Factual Consistency Assessment for Abstractive Summarization Models
- Sen Zhang, Jianwei Niu, Chuyuan Wei
- TLDR: 本文提出了一个用于总结模型的一般事实一致性评估框架。
- Decision-Focused Summarization
- Chao-Chun Hsu, Chenhao Tan
- TLDR: 我们提出了一种基于决策的总结方法,该方法使用了基于文本的概括,而不是基于模型的概括。
- Multiplex Graph Neural Network for Extractive Text Summarization
- Baoyu Jing, Zeyu You, Tao Yang, Wei Fan, Hanghang Tong
- TLDR: 我们提出了一种基于多图卷积网络的文本总结方法,用于解释句法和句法之间的联系。
- A Thorough Evaluation of Task-Specific Pretraining for Summarization
- Sascha Rothe, Joshua Maynez, Shashi Narayan
- TLDR: 我们表明,在大多数情况下,任务无关的非监督训练是足够了。
- HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text Extractive Summarization
- Ye Liu, Jianguo Zhang, Yao Wan, Congying Xia, Lifang He, Philip Yu
- TLDR: 我们提出了HetFormer,一个基于Transformer的预先训练的模型,用于长文本的概括。
- Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context
- Xinnian Liang, Shuangzhi Wu, Mu Li, Zhoujun Li
- TLDR: 我们提出了一种新的基于转换嵌入的UKE模型,在本文中,我们提出了一种新的基于位置的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中,我们提出了一种新的模型,在本文中
- Distantly Supervised Relation Extraction using Multi-Layer Revision Network and Confidence-based Multi-Instance Learning
- Xiangyu Lin, Tianyi Liu, Weijia Jia, Zhiguo Gong
- TLDR: 我们提出了一种基于多视角学习的多视角方法,用于从句法中剔除噪音的句法。
- Logic-level Evidence Retrieval and Graph-based Verification Network for Table-based Fact Verification
- Qi Shi, Yu Zhang, Qingyu Yin, Ting Liu
- TLDR: 我们提出了一种基于逻辑的事实验证和推理的框架,用于解决基于数据的事实验证任务。
- A Partition Filter Network for Joint Entity and Relation Extraction
- Zhiheng Yan, Chong Zhang, Jinlan Fu, Qi Zhang, Zhongyu Wei
- TLDR: 我们提出了一个用于多任务和关系提取的GAN,用于在任务上进行权重序列的权重序列的权重序列的权重序列。
- TEBNER: Domain Specific Named Entity Recognition with Type Expanded Boundary-aware Network
- Zheng Fang, Yanan Cao, Tai Li, Ruipeng Jia, Fang Fang, Yanmin Shang, Yuhai Lu
- TLDR: 我们提出了一种新的词典扩展方法,通过类型扩展模型从类型扩展模型中提取新的实体。
- Beta Distribution Guided Aspect-aware Graph for Aspect Category Sentiment Analysis with Affective Knowledge
- Bin Liang, Hang Su, Rongdi Yin, Lin Gui, Min Yang, Qin Zhao, Xiaoqi Yu, Ruifeng Xu
- TLDR: 我们通过使用基于外部知识的广义面部感知图建模来解决ACSA任务。
- DILBERT: Customized Pre-Training for Domain Adaptation with Category Shift, with an Application to Aspect Extraction
- Entony Lekhtman, Yftah Ziser, Roi Reichart
- TLDR: 我们提出了一种新的BERT,用于领域不变学习的优化方案。
- Improving Multimodal fusion via Mutual Dependency Maximisation
- Pierre Colombo, Emile Chapuis, Matthieu Labeau, Chloé Clavel
- TLDR: 多模态和多模态的情感分析的趋势
- Learning Implicit Sentiment in Aspect-based Sentiment Analysis with Supervised Contrastive Pre-Training
- Zhengyan Li, Yicheng Zou, Chong Zhang, Qi Zhang, Zhongyu Wei
- TLDR: 我们使用Supervised Contrastive Pre-训练来捕捉和理解关于评价内容的直接和间接的情感态度。
- Progressive Self-Training with Discriminator for Aspect Term Extraction
- Qianlong Wang, Zhiyuan Wen, Qin Zhao, Min Yang, Ruifeng Xu
- TLDR: 我们使用两个方法来减轻伪标签的噪音,以实现最先进的性能。
- Reinforced Counterfactual Data Augmentation for Dual Sentiment Classification
- Hao Chen, Rui Xia, Jianfei Yu
- TLDR: 我们提出了一种端到端的强化学习框架,它同时进行反事实数据生成和两种情感分类。
- Idiosyncratic but not Arbitrary: Learning Idiolects in Online Registers Reveals Distinctive yet Consistent Individual Styles
- Jian Zhu, David Jurgens
- TLDR: 我们提出了一种新的研究方法,通过大规模跨作者对比来研究和编码风格特征。
- Narrative Theory for Computational Narrative Understanding
- Andrew Piper, Richard Jean So, David Bamman
- TLDR: 我们介绍了NLP研究的理论框架,并表明,在NLP研究中,计算和理论之间的联系可以促进我们的理解。
- (Mis)alignment Between Stance Expressed in Social Media Data and Public Opinion Surveys
- Kenneth Joseph, Sarah Shugars, Ryan Gallagher, Jon Green, Alexi Quintana Mathé, Zijian An, David Lazer
- TLDR: 我们表明,行为检测的一般衡量标准是基于社会信息的。
- How Does Counterfactually Augmented Data Impact Models for Social Computing Constructs?
- Indira Sen, Mattia Samory, Fabian Flöck, Claudia Wagner, Isabelle Augenstein
- TLDR: 我们通过分析与模型性能的关系来研究使用基于模型的反事实增强数据(CAD)的好处。
- Latent Hatred: A Benchmark for Understanding Implicit Hate Speech
- Mai ElSherief, Caleb Ziems, David Muchlinski, Vaishnavi Anupindi, Jordyn Seybolt, Munmun De Choudhury, Diyi Yang
- TLDR: 我们提出了一个理论上正确的和实证上正确的批评和检索框架,用于解释和检测隐性不洁言行。
- Distilling Linguistic Context for Language Model Compression
- Geondo Park, Gyeongman Kim, Eunho Yang
- TLDR: 我们提出了一个新的语言表征学习目标,通过将上下文关系与句法关系联系起来,以转移上下文知识。
- Dynamic Knowledge Distillation for Pre-trained Language Models
- Lei Li, Yankai Lin, Shuhuai Ren, Peng Li, Jie Zhou, Xu Sun
- TLDR: 我们表明,动态知识提炼可以提高学生模型的性能,同时加快了训练。
- Few-Shot Text Generation with Natural Language Instructions
- Timo Schick, Hinrich Schütze
- TLDR: 我们提出了一种基于模式探索的学习方法,用于生成文本,它可以解决少樣本的文本生成任务。
- SOM-NCSCM : An Efficient Neural Chinese Sentence Compression Model Enhanced with Self-Organizing Map
- Kangli Zi, Shi Wang, Yu Liu, Jicun Li, Yanan Cao, Cungen Cao
- TLDR: 我们提出了一个用于语音识别的神经中SC模型,并提出了一个用于语音识别的SOM-NCSCM,用于提高整个中枢神经中SC模型的性能。
- Efficient Multi-Task Auxiliary Learning: Selecting Auxiliary Data by Feature Similarity
- Po-Nien Kung, Sheng-Siang Yin, Yi-Cheng Chen, Tse-Hsuan Yang, Yun-Nung Chen
- TLDR: 一种高效的多任务辅助学习方法,可以从辅助任务中选择最有用的,同时保留最有用的。
- GOLD: Improving Out-of-Scope Detection in Dialogues using Data Augmentation
- Derek Chen, Zhou Yu
- TLDR: 我们提出了一种新的OOS检测方法,用于在没有目标(INS)例子分布的情况下训练更好的OOS检测器。
- Graph Based Network with Contextualized Representations of Turns in Dialogue
- Bongseok Lee, Yong Suk Choi
- TLDR: 我们提出了一个基于对话的RE的模型,该模型通过关注到对话中人们理解对话的方式来建模。
- Automatically Exposing Problems with Neural Dialog Models
- Dian Yu, Kenji Sagae
- TLDR: 我们提出了一种用于生成不安全的对话模型的方法,它可以被自动地诱导到生成不安全的回应。
- Event Coreference Data (Almost) for Free: Mining Hyperlinks from Online News
- Michael Bugert, Iryna Gurevych
- TLDR: 我们展示了使用超链接从网络新闻中提取的节点数据的丰富和高质量的CDCR数据。
- Inducing Stereotypical Character Roles from Plot Structure
- Labiba Jahan, Rahul Mittal, Mark Finlayson
- TLDR: 我们提出了一种基于结构化的k-means聚类方法,用于学习具有不同角色角色的特征角色角色。
- Multitask Semi-Supervised Learning for Class-Imbalanced Discourse Classification
- Alexander Spangher, Jonathan May, Sz-Rung Shiang, Lingjia Deng
- TLDR: 我们表明,多任务学习可以提高语言分类的质量,同时保留语义分类和语义分类。
- Low Frequency Names Exhibit Bias and Overfitting in Contextualizing Language Models
- Robert Wolfe, Aylin Caliskan
- TLDR: 我们使用一个数据集的 U.S.第一姓的标签来研究用于身份识别、句法化、背景化和身份偏差的BERT,GPT-2,T5和XLNet的BERT,GPT-2,T5,XLNet的BERT,GPT-2,T5和XLNet的BERT。
- Mitigating Language-Dependent Ethnic Bias in BERT
- Jaimeen Ahn, Alice Oh
- TLDR: 我们通过分析和减轻语言BERT中种族偏差来解决种族偏差问题。
- Adversarial Scrubbing of Demographic Information for Text Classification
- Somnath Basu Roy Chowdhury, Sayan Ghosh, Yiyuan Li, Junier Oliva, Shashank Srivastava, Snigdha Chaturvedi
- TLDR: 我们提出了一种用于批评背景表征的对抗性学习方法,它可以从简单的背景表征中学习出更好的表示。
- Open-domain clarification question generation without question examples
- Julia White, Gabriel Poesia, Robert Hawkins, Dorsa Sadigh, Noah Goodman
- TLDR: 我们提出了一个框架,用于建立一个视觉感知的提问灵机模型,可以生成高维(yes-no)澄清问题来解决不一致性。
- Improving Sequence-to-Sequence Pre-training via Sequence Span Rewriting
- Wangchunshu Zhou, Tao Ge, Canwen Xu, Ke Xu, Furu Wei
- TLDR: 本文提出了一种用于学习和使用模型的新型方法。
- Coarse2Fine: Fine-grained Text Classification on Coarsely-grained Annotated Data
- Dheeraj Mekala, Varun Gangal, Jingbo Shang
- TLDR: 我们提出了一种用于文本分类的非监督学习方法,该方法使用了用于学习非监督学习的生成模型。
- Text2Mol: Cross-Modal Molecule Retrieval with Natural Language Queries
- Carl Edwards, ChengXiang Zhai, Heng Ji
- TLDR: 我们提出了一个新任务,通过使用自然语言描述作为查询来检索分子体,通过使用它们的相对应的文本描述来检索。
- Classification of hierarchical text using geometric deep learning: the case of clinical trials corpus
- Sohrab Ferdowsi, Nikolay Borissov, Julien Knafou, Poorya Amini, Douglas Teodoro
- TLDR: 我们使用基于梯度的嵌入来表示文件的图,并使用基于梯度的图的图神经网络来分类CT的完成和终止类别。
- The Devil is in the Detail: Simple Tricks Improve Systematic Generalization of Transformers
- Róbert Csordás, Kazuki Irie, Juergen Schmidhuber
- TLDR: 我们表明,通过修改模型的结构,我们可以提高Transformers的 systematic泛化能力。
- Artificial Text Detection via Examining the Topology of Attention Maps
- Laida Kushnareva, Daniil Cherniavskii, Vladislav Mikhailov, Ekaterina Artemova, Serguei Barannikov, Alexander Bernstein, Irina Piontkovskaya, Dmitri Piontkovski, Evgeny Burnaev
- TLDR: 我们提出了一个用于NLP任务的可解释性高斯特征,用于解释高斯特征。
- Active Learning by Acquiring Contrastive Examples
- Katerina Margatina, Giorgos Vernikos, Loïc Barrault, Nikolaos Aletras
- TLDR: 我们提出了一种用于主动学习的GAN,它使用对不同例子的对比性进行采样,以获得不同例子的样本点。
- Conditional Poisson Stochastic Beams
- Clara Meister, Afra Amini, Tim Vieira, Ryan Cotterell
- TLDR: 我们提出了一种新的方法,将光搜索变为一个随机过程,通过条件 Poisson随机抽样设计来实现随机搜索。
- Building Adaptive Acceptability Classifiers for Neural NLG
- Soumya Batra, Shashank Jain, Peyman Heidari, Ankit Arun, Catharine Youngs, Xintong Li, Pinar Donmez, Shawn Mei, Shiunzu Kuo, Vikas Bhardwaj, Anuj Kumar, Michael White
- TLDR: 我们提出了一种用于NLG模型的可接受性分类方法,用于解决简单的句法转换和模型方法的问题。
- Moral Stories: Situated Reasoning about Norms, Intents, Actions, and their Consequences
- Denis Emelin, Ronan Le Bras, Jena D. Hwang, Maxwell Forbes, Yejin Choi
- TLDR: 我们提出了一个用于社会环境中学习道德故事的框架,并表明它可以作为道德政策的先验。
- Truth-Conditional Captions for Time Series Data
- Harsh Jhamtani, Taylor Berg-Kirkpatrick
- TLDR: 我们提出了一个用于生成自然语言描述的计算模型,它首先从输入时间系列中学习程序,然后从程序中识别程序/程序的特征,然后条件,以生成输出文本描述。
- Injecting Entity Types into Entity-Guided Text Generation
- Xiangyu Dong, Wenhao Yu, Chenguang Zhu, Meng Jiang
- TLDR: 我们提出了一种用于NLG的新型多步骤生成模型,它通过将实体类型注入到一个多步骤生成模型中来生成词。
- Smelting Gold and Silver for Improved Multilingual AMR-to-Text Generation
- Leonardo F. R. Ribeiro, Jonas Pfeiffer, Yue Zhang, Iryna Gurevych
- TLDR: 我们研究了不同的AMR编码器,以研究哪一种方法在多语言AMR-to-text生成方面优于其他的方法。
- Learning Compact Metrics for MT
- Amy Pu, Hyung Won Chung, Ankur Parikh, Sebastian Gehrmann, Thibault Sellam
- TLDR: 我们通过使用WMT Metrics Shared Task来研究多语言建模的理论和实践。
- The Impact of Positional Encodings on Multilingual Compression
- Vinit Ravishankar, Anders Søgaard
- TLDR: 我们表明,在没有逆向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向向
- Disentangling Representations of Text by Masking Transformers
- Xiongyi Zhang, Jan-Willem van de Meent, Byron Wallace
- TLDR: 我们通过使用二元化掩码器来学习分解表征,以找到在BERT中嵌入的特征。
- Exploring the Role of BERT Token Representations to Explain Sentence Probing Results
- Hosein Mohebbi, Ali Modarressi, Mohammad Taher Pilehvar
- TLDR: 我们通过对BERT的表征空间进行更深入的分析来解释BERT在寻找表征空间的不同表征空间的解释。
- Do Long-Range Language Models Actually Use Long-Range Context?
- Simeng Sun, Kalpesh Krishna, Andrew Mattarella-Micke, Mohit Iyyer
- TLDR: 我们通过对PG-19的上下文序列进行微调来分析了两个长距离Transformer语言模型。
- The World of an Octopus: How Reporting Bias Influences a Language Model’s Perception of Color
- Cory Paik, Stéphane Aroca-Ouellette, Alessandro Roncone, Katharina Kann
- TLDR: 我们首次表明,多模态训练可以减少信息上偏差,并表明多模态训练可以利用其视觉训练来减轻这种影响。
- SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers
- Dheeraj Rajagopal, Vidhisha Balachandran, Eduard H Hovy, Yulia Tsvetkov
- TLDR: 本文介绍了SelfExplain,一个用于解释文本分类器的预测的自表征。
- Memory and Knowledge Augmented Language Models for Inferring Salience in Long-Form Stories
- David Wilmot, Frank Keller
- TLDR: 我们使用一个新的方法来检测离散性,使用Shmoop corpus来审写经典的文学作品。
- Semantic Novelty Detection in Natural Language Descriptions
- Nianzu Ma, Alexander Politowicz, Sahisnu Mazumder, Jiahua Chen, Bing Liu, Eric Robertson, Scott Grigsby
- TLDR: 我们提出了一个用于语义新奇性检测的模型,它解决了GAT-MA问题。
- Jump-Starting Item Parameters for Adaptive Language Tests
- Arya D. McCarthy, Kevin P. Yancey, Geoffrey T. LaFlair, Jesse Egbert, Manqian Liao, Burr Settles
- TLDR: 我们提出了一个用于高质量语言评估的多任务通用线性模型,它可以从简单的测试数据中估计出更复杂的物体困难。
- Voice Query Auto Completion
- Raphael Tang, Karun Kumar, Kendra Chalkley, Ji Xin, Liming Zhang, Wenyan Li, Gefei Yang, Yajie Mao, Junho Shin, Geoffrey Craig Murray, Jimmy Lin
- TLDR: 我们提出了条件QAC,以提高语音搜索的完成质量。
- CoPHE: A Count-Preserving Hierarchical Evaluation Metric in Large-Scale Multi-Label Text Classification
- Matúš Falis, Hang Dong, Alexandra Birch, Beatrice Alex
- TLDR: 我们提出了一个层次化评估LMTC模型的指标。
- Learning Universal Authorship Representations
- Rafael A. Rivera-Soto, Olivia Elizabeth Miano, Juanita Ordonez, Barry Y. Chen, Aleem Khan, Marcus Bishop, Nicholas Andrews
- TLDR: 我们首次研究了跨域转移,并提出了一种用于作者身份验证的简单方法。
- Predicting emergent linguistic compositions through time: Syntactic frame extension via multimodal chaining
- Lei Yu, Yang Xu
- TLDR: 我们提出了一个用于多语义学习的框架,利用多语义学习和多语义知识来预测在时间上出现的句法结构。
- Frequency Effects on Syntactic Rule Learning in Transformers
- Jason Wei, Dan Garrette, Tal Linzen, Ellie Pavlick
- TLDR: 我们通过使用案例研究来研究BERT在英语主题–句法协议方面的表现。
- A surprisal–duration trade-off across and within the world’s languages
- Tiago Pimentel, Clara Meister, Elizabeth Salesky, Simone Teufel, Damián Blasi, Ryan Cotterell
- TLDR: 我们表明,在人类的语言理解能力不变的情况下,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在各种语言中,在
- Revisiting the Uniform Information Density Hypothesis
- Clara Meister, Tiago Pimentel, Patrick Haller, Lena Jäger, Ryan Cotterell, Roger Levy
- TLDR: 我们通过阅读时间和接受性数据来研究信息密度的统一性假设。
- Condenser: a Pre-training Architecture for Dense Retrieval
- Luyu Gao, Jamie Callan
- TLDR: 我们提出了一种新的基于Transformer的架构,用于预测深度转换的一般LM预测的 CONditions。
- Monitoring geometrical properties of word embeddings for detecting the emergence of new topics.
- Clément Christophe, Julien Velcin, Jairo Cugliari, Manel Boumghar, Philippe Suignard
- TLDR: 我们提出了一种基于语义的词表征的快速发现的新主题检测方法。
- Contextualized Query Embeddings for Conversational Search
- Sheng-Chieh Lin, Jheng-Hong Yang, Jimmy Lin
- TLDR: 我们提出了一个可扩展的低流量通道检索的模型,用于对话搜索和开放域问题回答。
- Ultra-High Dimensional Sparse Representations with Binarization for Efficient Text Retrieval
- Kyoung-Rok Jang, Junmo Kang, Giwon Hong, Sung-Hyon Myaeng, Joohee Park, Taewon Yoon, Heecheol Seo
- TLDR: 我们提出了一种用于学习语义的超密集表征方案,它可以作为神经信息检索的模型。
- IR like a SIR: Sense-enhanced Information Retrieval for Multiple Languages
- Rexhina Blloshmi, Tommaso Pasini, Niccolò Campolungo, Somnath Banerjee, Roberto Navigli, Gabriella Pasi
- TLDR: 我们提出了一个基于Word Sense的多语言查询扩展机制,用于提供词语概念,并利用词语概念来扩展查询。
- Neural Attention-Aware Hierarchical Topic Model
- Yuan Jin, He Zhao, Ming Liu, Lan Du, Wray Buntine
- TLDR: 我们提出了一种用于主题建模的变异自动编码器(VAE)模型,它结合了句法和文件的词汇数量的句法嵌入,以实现主题建模。
- Relational World Knowledge Representation in Contextual Language Models: A Review
- Tara Safavi, Danai Koutra
- TLDR: 我们提出了一个高层次的、完整的知识表征,用于知识表征的表征。
- Certified Robustness to Programmable Transformations in LSTMs
- Yuhao Zhang, Aws Albarghouthi, Loris D’Antoni
- TLDR: 我们提出了一种认证方法,用于认证LSTM和LSTM扩展的穩定性,并表明,该方法可以证明出高认证准确性。
- ReGen: Reinforcement Learning for Text and Knowledge Base Generation using Pretrained Language Models
- Pierre Dognin, Inkit Padhi, Igor Melnyk, Payel Das
- TLDR: 我们提出了ReGen,一个用于文本到图的转化的新型方法,用于WebNLG++ 2020和TekGen数据集上的图和文本生成。
- Contrastive Out-of-Distribution Detection for Pretrained Transformers
- Wenxuan Zhou, Fangyu Liu, Muhao Chen
- TLDR: 我们提出了一种非监督的OOD检测方法,在训练时只使用ID数据,而没有可逆变值数据。
- MindCraft: Theory of Mind Modeling for Situated Dialogue in Collaborative Tasks
- Cristian-Paul Bara, Sky CH-Wang, Joyce Chai
- TLDR: 我们提出了一个用于在现实世界中进行合作学习的微分的神经网络。
- Detecting Speaker Personas from Conversational Texts
- Jia-Chen Gu, Zhenhua Ling, Yu Wu, Quan Liu, Zhigang Chen, Xiaodan Zhu
- TLDR: 我们研究了用于语音识别的语音语义匹配问题,并提出了一个用于语音识别的模型。
- Cross-lingual Intermediate Fine-tuning improves Dialogue State Tracking
- Nikita Moghe, Mark Steedman, Alexandra Birch
- TLDR: 我们通过通过辅助微调来提高跨语言转移学习过程的一般优化。
- ConvFiT: Conversational Fine-Tuning of Pretrained Language Models
- Ivan Vulić, Pei-Hao Su, Samuel Coope, Daniela Gerz, Paweł Budzianowski, Iñigo Casanueva, Nikola Mrkšić, Tsung-Hsien Wen
- TLDR: 我们提出了ConvFiT,一个简单的和高效的二步程序,可以从预先训练好的LM中转化成一个通用的对话编码器。
- We’ve had this conversation before: A Novel Approach to Measuring Dialog Similarity
- Ofer Lavi, Ella Rabinovich, Segev Shlomov, David Boaz, Inbal Ronen, Ateret Anaby Tavor
- TLDR: 我们提出了一种新的方法,通过使用修改距离衡量对话相似性,以捕捉对话流。
- Towards Incremental Transformers: An Empirical Analysis of Transformer Models for Incremental NLU
- Patrick Kahardipraja, Brielen Madureira, David Schlangen
- TLDR: 我们表明,使用Recurrent LT的非增量NLU比传统的Transformer和LT更慢。
- Feedback Attribution for Counterfactual Bandit Learning in Multi-Domain Spoken Language Understanding
- Tobias Falke, Patrick Lehnen
- TLDR: 我们提出了一种用于多代理强化学习的非实的bandit学习方法,该方法在小规模的公共数据集上模拟了问题,并提出了用于解释问题的可解释方法。
- Label Verbalization and Entailment for Effective Zero and Few-Shot Relation Extraction
- Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Ander Barrena, Eneko Agirre
- TLDR: 我们提出了一种用于关系提取的文本依赖性方法,它可以提高性能,同时保留最先进的结果。
- Extend, don’t rebuild: Phrasing conditional graph modification as autoregressive sequence labelling
- Leon Weber, Jannes Münchmeyer, Samuele Garda, Ulf Leser
- TLDR: 我们提出了第一个基于自上而下的顺序标签的图扩展模型,该模型可以产生可解释的预测。
- Zero-Shot Information Extraction as a Unified Text-to-Triple Translation
- Chenguang Wang, Xiao Liu, Zui Chen, Haoyun Hong, Jie Tang, Dawn Song
- TLDR: 我们使用一个文本到三维翻译框架来解决信息提取任务。
- Learning Logic Rules for Document-Level Relation Extraction
- Dongyu Ru, Changzhi Sun, Jiangtao Feng, Lin Qiu, Hao Zhou, Weinan Zhang, Yong Yu, Lei Li
- TLDR: 我们提出了LogiRE,这是一个用于文件级关系提取的新概率模型。
- A Large-Scale Dataset for Empathetic Response Generation
- Anuradha Welivita, Yubo Xie, Pearl Pu
- TLDR: 我们提出了一个用于情感感知的白数据集,它包含了1M对话,32情感标签,8情感回应意图,以及一个Netral类。
- The Perils of Using Mechanical Turk to Evaluate Open-Ended Text Generation
- Marzena Karpinska, Nader Akoury, Mohit Iyyer
- TLDR: 我们首次调查了45的开放式文本生成论文,发现大多数的论文不记录关键信息,阻碍了其可解释性。
- Documenting Large Webtext Corpora: A Case Study on the Colossal Clean Crawled Corpus
- Jesse Dodge, Maarten Sap, Ana Marasović, William Agnew, Gabriel Ilharco, Dirk Groeneveld, Margaret Mitchell, Matt Gardner
- TLDR: 我们提出了一个用于创建和描述网络空间数据集的第一个全域的百科全书。
- AfroMT: Pretraining Strategies and Reproducible Benchmarks for Translation of 8 African Languages
- Machel Reid, Junjie Hu, Graham Neubig, Yutaka Matsuo
- TLDR: 我们提出了AfroMT,一个用于多语言翻译的通用、清洁和可解释的机器翻译基准。
- Evaluating the Evaluation Metrics for Style Transfer: A Case Study in Multilingual Formality Transfer
- Eleftheria Briakou, Sweta Agrawal, Joel Tetreault, Marine Carpuat
- TLDR: 我们首次评估了在风格转移中使用最先进的方法的标准。
- MS-Mentions: Consistently Annotating Entity Mentions in Materials Science Procedural Text
- Tim O’Gorman, Zach Jensen, Sheshera Mysore, Kevin Huang, Rubayyat Mahbub, Elsa Olivetti, Andrew McCallum
- TLDR: 我们提出了一个用于材料科学合成的GAN数据集,用于生成GANs的GANs。
- Understanding Politics via Contextualized Discourse Processing
- Rajkumar Pujari, Dan Goldwasser
- TLDR: 我们提出了一个用于生成多语义表示的框架,它可以生成多语义表示,并利用它来捕捉多语义表示的特征。
- Conundrums in Event Coreference Resolution: Making Sense of the State of the Art
- Jing Lu, Vincent Ng
- TLDR: 我们提出了一个基于时间的事件引用的理论的实证分析。
- Weakly supervised discourse segmentation for multiparty oral conversations
- Lila Gravellier, Julie Hunter, Philippe Muller, Thomas Pellegrini, Isabelle Ferrané
- TLDR: 我们使用一个最先进的语言分割器,从翻译中学习的语言分割器。
- Narrative Embedding: Re-Contextualization Through Attention
- Sean Wilner, Daniel Woolridge, Madeleine Glick
- TLDR: 我们提出了一种新的方法,用于描述事件的事件表征,使用注意力来重新表述事件的整个故事。
- Focus on what matters: Applying Discourse Coherence Theory to Cross Document Coreference
- William Held, Dan Iter, Dan Jurafsky
- TLDR: 本文提出了一种用于文件的文件编码和查询的新型方法。
- Salience-Aware Event Chain Modeling for Narrative Understanding
- Xiyang Zhang, Muhao Chen, Jonathan May
- TLDR: 我们提出了一种方法,通过从自然语言文本中提取关键节点,以有效地从节点中提取关键节点。
- Asking It All: Generating Contextualized Questions for any Semantic Role
- Valentina Pyatkin, Paul Roit, Julian Michael, Yoav Goldberg, Reut Tsarfaty, Ido Dagan
- TLDR: 我们提出了任务的主题问题生成,它要求生成一个问题,回答所有可能的主题的主题,并表明答案可以直接从它来推断。
- Fast, Effective, and Self-Supervised: Transforming Masked Language Models into Universal Lexical and Sentence Encoders
- Fangyu Liu, Ivan Vulić, Anna Korhonen, Nigel Collier
- TLDR: 我们提出了一种用于语法和句法编码器的非监督学习技术,用于从不额外的输入数据中学习语法和句法编码器。
- RuleBERT: Teaching Soft Rules to Pre-Trained Language Models
- Mohammed Saeed, Naser Ahmadi, Preslav Nakov, Paolo Papotti
- TLDR: 我们提出了一个用于预测问题的损失函数,用于训练PLM,该函数可以预测出预测的概率。
- Stepmothers are mean and academics are pretentious: What do pretrained language models learn about you?
- Rochelle Choenni, Ekaterina Shutova, Robert van Rooij
- TLDR: 我们通过使用微调来分析和解释流行的偏见和偏见。
- ConSeC: Word Sense Disambiguation as Continuous Sense Comprehension
- Edoardo Barba, Luigi Procopio, Roberto Navigli
- TLDR: 我们提出了ConSeC,一个新颖的WSL方法,它可以从一个单词的上下文提取中提取出一个反馈循环来实现WSL。
- Shortcutted Commonsense: Data Spuriousness in Deep Learning of Commonsense Reasoning
- Ruben Branco, António Branco, João António Rodrigues, João Ricardo Silva
- TLDR: 我们通过对多任务的一般语言处理任务进行理论分析,以了解在多任务中学习通用的泛化是如何被用来学习泛化的。
- When differential privacy meets NLP: The devil is in the detail
- Ivan Habernal
- TLDR: 我们提出了一个正式的分析,表明,在本文中,我们提出了一种基于对用户词的准确性进行严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的严格的
- Achieving Model Robustness through Discrete Adversarial Training
- Maor Ivgi, Jonathan Berant
- TLDR: 我们提出了一种基于最佳先验的攻击的网络增强,与以前的方法相比,它比以前的方法更强。
- Debiasing Methods in Natural Language Understanding Make Bias More Accessible
- Michael Mendelson, Yonatan Belinkov
- TLDR: 我们提出了一个通用的理论,用于解释语言模型中存在的偏差,并使用一个信息论的方法来衡量偏差的可检索性。
- Evaluating the Robustness of Neural Language Models to Input Perturbations
- Milad Moradi, Matthias Samwald
- TLDR: 我们研究了高性能的语言模型在处理不同输入扰动方面的穩定性。
- How much pretraining data do language models need to learn syntax?
- Laura Pérez-Mayos, Miguel Ballesteros, Leo Wanner
- TLDR: 我们通过使用语义结构追踪来分析和比较不同语法模型的性能。
- Sorting through the noise: Testing robustness of information processing in pre-trained language models
- Lalchand Pandia, Allyson Ettinger
- TLDR: 我们通过对模型的穩定性进行理论分析,从简单的例子中分析出模型在解释和应用信息方面的穩定性。
- Contrastive Explanations for Model Interpretability
- Alon Jacovi, Swabha Swayamdipta, Shauli Ravfogel, Yanai Elazar, Yejin Choi, Yoav Goldberg
- TLDR: 我们提出了一种用于生成对比性解释的方法,通过将输入表征投影到潜在空间,以捕捉出两种决策的特征,以提供可解释性解释。
- On the Transferability of Adversarial Attacks against Neural Text Classifier
- Liping Yuan, Xiaoqing Zheng, Yi Zhou, Cho-Jui Hsieh, Kai-Wei Chang
- TLDR: 我们首次研究了对抗性例子转移性,并提出了一种用于解释和诊断对抗性例子的方法。
- Conditional probing: measuring usable information beyond a baseline
- John Hewitt, Kawin Ethayarajh, Percy Liang, Christopher Manning
- TLDR: 我们提出了条件性问题,以解决基于句法的表征的表征的表征。
- GFST: Gender-Filtered Self-Training for More Accurate Gender in Translation
- Prafulla Kumar Choubey, Anna Currey, Prashant Mathur, Georgiana Dinu
- TLDR: 我们提出了一种用于翻译的非性别性自我训练方法,用于改善非性别性输入的翻译。
- “Wikily” Supervised Neural Translation Tailored to Cross-Lingual Tasks
- Mohammad Sadegh Rasooli, Chris Callison-Burch, Derry Tanti Wijaya
- TLDR: 我们提出了一种简单的跨语言翻译方法,用于使用Wikipedia作为神经机器翻译,同时进行跨语言的图像标注和依赖性解析。
- mT6: Multilingual Pretrained Text-to-Text Transformer with Translation Pairs
- Zewen Chi, Li Dong, Shuming Ma, Shaohan Huang, Saksham Singhal, Xian-Ling Mao, Heyan Huang, Xia Song, Furu Wei
- TLDR: 我们提出了一个非监督的多语言文本到文本的初始化目标,并提出了一个部分非监督的目标来解决本文到文本的初始化任务。
- Improving Zero-Shot Cross-Lingual Transfer Learning via Robust Training
- Kuan-Hao Huang, Wasi Ahmad, Nanyun Peng, Kai-Wei Chang
- TLDR: 我们提出了一种用于零樣本跨语言转移的穩定学习策略。
- Speechformer: Reducing Information Loss in Direct Speech Translation
- Sara Papi, Marco Gaido, Matteo Negri, Marco Turchi
- TLDR: 我们提出了一个基于神经网络的语音翻译的新型架构,它可以从注意力层中得到更好的语音信息。
- Is “moby dick” a Whale or a Bird? Named Entities and Terminology in Speech Translation
- Marco Gaido, Susana Rodríguez, Matteo Negri, Luisa Bentivogli, Marco Turchi
- TLDR: 我们首次分析了最先进的ST系统在翻译词和词典方面的行为,并提出了一个新颖的ST基准。
- HintedBT: Augmenting Back-Translation with Quality and Transliteration Hints
- Sahana Ramnath, Melvin Johnson, Abhirut Gupta, Aravindan Raghuveer
- TLDR: 我们提出了一种用于跨语言的神经机器翻译的新的方法,通过提供给模型的标签(如源标签)来提供对所产生的源数据质量的注意,以提高跨语言的翻译质量。
- Translation-based Supervision for Policy Generation in Simultaneous Neural Machine Translation
- Ashkan Alinejad, Hassan S. Shavarani, Anoop Sarkar
- TLDR: 我们提出了一种用于同时翻译和生成目标签名的非监督学习方法,该方法可以提高翻译质量和减少平均 lag。
- Nearest Neighbour Few-Shot Learning for Cross-lingual Classification
- M Saiful Bari, Batool Haider, Saab Mansour
- TLDR: 我们通过使用一个近邻的少樣本(近邻的近邻)来研究跨语言的适应。
- Cross-Attention is All You Need: Adapting Pretrained Transformers for Machine Translation
- Mozhdeh Gheini, Xiang Ren, Jonathan May
- TLDR: 我们研究了Transformer架构中跨关注的作用,并扩展了研究到跨关注,以更好地理解跨语言的跨关注。
- Effects of Parameter Norm Growth During Transformer Training: Inductive Bias from Gradient Descent
- William Merrill, Vivek Ramanujan, Yoav Goldberg, Roy Schwartz, Noah A. Smith
- TLDR: 我们研究了变压器参数的倾向性,并表明,在变压器参数的倾向性方面,变压器参数的倾向性与变压器参数的倾向性不同。
- Foreseeing the Benefits of Incidental Supervision
- Hangfeng He, Mingyuan Zhang, Qiang Ning, Dan Roth
- TLDR: 我们提出了一个统一的PAC-Bayes激励信息性衡量标准,用于衡量随机追踪信号对目标任务的益性。
- Competency Problems: On Finding and Removing Artifacts in Language Data
- Matt Gardner, William Merrill, Jesse Dodge, Matthew Peters, Alexis Ross, Sameer Singh, Noah A. Smith
- TLDR: 我们提出了一个简单的统计测试,用于检测数据集偏差,并提出解决方法。
- Knowledge-Aware Meta-learning for Low-Resource Text Classification
- Huaxiu Yao, Ying-xin Wu, Maruan Al-Shedivat, Eric Xing
- TLDR: 我们提出了KGML,一种用于元学习的通用知识图的替代方法。
- Sentence Bottleneck Autoencoders from Transformer Language Models
- Ivan Montero, Nikolaos Pappas, Noah A. Smith
- TLDR: 我们使用一个自上而下的模型来构建句法级的自动编码器,并使用一个单层的变换器来生成句法级的自动编码器。
- Efficient Contrastive Learning via Novel Data Augmentation and Curriculum Learning
- Seonghyeon Ye, Jiseon Kim, Alice Oh
- TLDR: 我们使用一个记忆高效的持续预训练方法来应用新的数据增量和课程学习。
- CR-Walker: Tree-Structured Graph Reasoning and Dialog Acts for Conversational Recommendation
- Wenchang Ma, Ryuichi Takanobu, Minlie Huang
- TLDR: 我们提出了CR-Walker,一个用于对话推荐系统(CRS)的模型,它通过通过知识图上进行知识推理,并生成知识对话来指导语言生成。
- DIALKI: Knowledge Identification in Conversational Systems through Dialogue-Document Contextualization
- Zeqiu Wu, Bo-Ru Lu, Hannaneh Hajishirzi, Mari Ostendorf
- TLDR: 我们介绍了一个知识识别模型,它可以帮助我们更好地找到知识相关的对话。
- Iconary: A Pictionary-Based Game for Testing Multimodal Communication with Drawings and Text
- Christopher Clark, Jordi Salvador, Dustin Schwenk, Derrick Bonafilia, Mark Yatskar, Eric Kolve, Alvaro Herrasti, Jonghyun Choi, Sachin Mehta, Sam Skjonsberg, Carissa Schoenick, Aaron Sarnat, Hannaneh Hajishirzi, Aniruddha Kembhavi, Oren Etzioni, Ali Farhadi
- TLDR: 我们提出了一个用于游戏和视觉/symbolic对话的语言模型,并提出了一个用于游戏和视觉/symbolic对话的模型,用于训练和使用它来玩 Iconary。
- Self-training Improves Pre-training for Few-shot Learning in Task-oriented Dialog Systems
- Fei Mi, Wanhao Zhou, Lingjing Kong, Fengyu Cai, Minlie Huang, Boi Faltings
- TLDR: 我们提出了一种用于少樣本学习的自我训练方法,用于使用大量的未标注的对话数据来改进最先进的先训练的模型。
- Contextual Rephrase Detection for Reducing Friction in Dialogue Systems
- Zhuoyi Wang, Saurabh Gupta, Jie Hao, Xing Fan, Dingcheng Li, Alexander Hanbo Li, Chenlei Guo
- TLDR: 我们提出了一个用于多旋对话中检索句法的句法检测模型,可以帮助解决句法检索问题。
- Few-Shot Intent Detection via Contrastive Pre-Training and Fine-Tuning
- Jianguo Zhang, Trung Bui, Seunghyun Yoon, Xiang Chen, Zhiwei Liu, Congying Xia, Quan Hung Tran, Walter Chang, Philip Yu
- TLDR: 我们提出了一个简单的少樣本目标检测方案,通过对比性预训练和微调来检测目标。
- “It doesn’t look good for a date”: Transforming Critiques into Preferences for Conversational Recommendation Systems
- Victor Bursztyn, Jennifer Healey, Nedim Lipka, Eunyee Koh, Doug Downey, Larry Birnbaum
- TLDR: 我们使用一个强大的多语种语言模型来进行批评到推荐的转换,并使用一个用于推荐的LM来进行评估。
- AttentionRank: Unsupervised Keyphrase Extraction using Self and Cross Attentions
- Haoran Ding, Xiao Luo
- TLDR: 我们提出了一种用于文件的Keyphrase extraction的非监督方法。
- Unsupervised Relation Extraction: A Variational Autoencoder Approach
- Chenhan Yuan, Hoda Eldardiry
- TLDR: 我们提出了一种基于VAE的非监督关系提取方法,它使用VAE来生成关系分类。
- Robust Retrieval Augmented Generation for Zero-shot Slot Filling
- Michael Glass, Gaetano Rossiello, Md Faisal Mahbub Chowdhury, Alfio Gliozzo
- TLDR: 我们提出了一种基于检索的语言模型来解决零樣本充值问题。
- Everything Is All It Takes: A Multipronged Strategy for Zero-Shot Cross-Lingual Information Extraction
- Mahsa Yarmohammadi, Shijie Wu, Marc Marone, Haoran Xu, Seth Ebner, Guanghui Qin, Yunmo Chen, Jialiang Guo, Craig Harman, Kenton Murray, Aaron Steven White, Mark Dredze, Benjamin Van Durme
- TLDR: 我们通过深入探索和扩展技术,从英语到法语的零樣本信息提取。
- Harms of Gender Exclusivity and Challenges in Non-Binary Representation in Language Technologies
- Sunipa Dev, Masoud Monajatipoor, Anaelia Ovalle, Arjun Subramonian, Jeff Phillips, Kai-Wei Chang
- TLDR: 我们描述了在英语语言技术上处理性别的二元性偏见的常见误导。
- Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias in Image Search
- Jialu Wang, Yang Liu, Xin Wang
- TLDR: 我们提出了一种新的无偏性方法,用于解决在图像搜索中对性偏差的有效性。
- Style Pooling: Automatic Text Style Obfuscation for Improved Classification Fairness
- Fatemehsadat Mireshghallah, Taylor Berg-Kirkpatrick
- TLDR: 我们提出了一种基于VAE的框架,通过自动重新编码文本本身来掩盖人类生成的文本的风格特征。
- Modeling Disclosive Transparency in NLP Application Descriptions
- Michael Saxon, Sharon Levy, Xinyi Wang, Alon Albalak, William Yang Wang
- TLDR: 我们提出了一个用于系统透明度的概率指标,并表明它们与用户和专家的见解密切相关。
- Reconstruction Attack on Instance Encoding for Language Understanding
- Shangyu Xie, Yuan Hong
- TLDR: 我们提出了一种新的基于实例编码的重建攻击,用于从实例中恢复私人文本数据。
- Fairness-aware Class Imbalanced Learning
- Shivashankar Subramanian, Afshin Rahimi, Timothy Baldwin, Trevor Cohn, Lea Frermann
- TLDR: 我们提出了一种基于边际失失活的深度学习方法,它可以有效避免分类不平衡和知识偏差。
- CRYPTOGRU: Low Latency Privacy-Preserving Text Analysis With GRU
- Bo Feng, Qian Lou, Lei Jiang, Geoffrey Fox
- TLDR: 我们提出了一种用于低熵的低熵推理的新方法。
- Local Word Discovery for Interactive Transcription
- William Lane, Steven Bird
- TLDR: 我们提出了一个用于低资源语言的语音任务,该任务是通过利用一个在语言上学习的语言词典来支持高质量的词典。
- Segment, Mask, and Predict: Augmenting Chinese Word Segmentation with Self-Supervision
- Mieradilijiang Maimaiti, Yang Liu, Yuanhang Zheng, Gang Chen, Kaiyu Huang, Ji Zhang, Huanbo Luan, Maosong Sun
- TLDR: 我们提出了一种基于自我监督的CWS方法,它可以从简单的词分组模型中得到一个简单的结果。
- Minimal Supervision for Morphological Inflection
- Omer Goldman, Reut Tsarfaty
- TLDR: 我们通过从一个小的草皮中提取标签数据来解决标签数据的依赖性。
- Fast WordPiece Tokenization
- Xinying Song, Alex Salcianu, Yang Song, Dave Dopson, Denny Zhou
- TLDR: 我们提出了一种用于BERT的高效句法序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列序列
- You should evaluate your language model on marginal likelihood over tokenisations
- Kris Cao, Laura Rimell
- TLDR: 我们建议使用一个单一的通用句法来表示句法,而不是一个单一的句法。
- Broaden the Vision: Geo-Diverse Visual Commonsense Reasoning
- Da Yin, Liunian Harold Li, Ziniu Hu, Nanyun Peng, Kai-Wei Chang
- TLDR: 我们提出了一个地理交叉的视觉和语言模型的通用性论证数据集。
- Reference-Centric Models for Grounded Collaborative Dialogue
- Daniel Fried, Justin Chiu, Dan Klein
- TLDR: 我们提出了一个基于神经对话的框架,用于在部分可观察的参考游戏中合作。
- CrossVQA: Scalably Generating Benchmarks for Systematically Testing VQA Generalization
- Arjun Akula, Soravit Changpinyo, Boqing Gong, Piyush Sharma, Song-Chun Zhu, Radu Soricut
- TLDR: 我们提出了一个用于跨数据集中适应的半自动框架,用于生成具有可控性问题的回答。
- Visual Goal-Step Inference using wikiHow
- Yue Yang, Artemis Panagopoulou, Qing Lyu, Li Zhang, Mark Yatskar, Chris Callison-Burch
- TLDR: 我们提出了一个目标-步骤推理任务,该任务要求模型选择四个图像代表一个可信的步骤,以完成目标。
- Systematic Generalization on gSCAN: What is Nearly Solved and What is Next?
- Linlu Qiu, Hexiang Hu, Bowen Zhang, Peter Shaw, Fei Sha
- TLDR: 本文提出了一种用于学习和使用模型的方法,该方法可以从模型中学习模型,并可以从模型中学习模型。
- Effect of Visual Extensions on Natural Language Understanding in Vision-and-Language Models
- Taichi Iki, Akiko Aizawa
- TLDR: 我们提出了一个用于V&L的GLUE评估框架,该框架评估了V&L模型在GLUE上的表现。
- Neural Path Hunter: Reducing Hallucination in Dialogue Systems via Path Grounding
- Nouha Dziri, Andrea Madotto, Osmar Zaïane, Avishek Joey Bose
- TLDR: 我们提出了Neural Path Hunter,一种基于生成-然后-再审的策略,通过使用KG来从知识图中提取回应。
- Thinking Clearly, Talking Fast: Concept-Guided Non-Autoregressive Generation for Open-Domain Dialogue Systems
- Yicheng Zou, Zhihua Liu, Xingwu Hu, Qi Zhang
- TLDR: 我们提出了一个基于概念规划的非监督对话生成模型,它可以生成多种和统一的对话。
- Perspective-taking and Pragmatics for Generating Empathetic Responses Focused on Emotion Causes
- Hyunwoo Kim, Byeongchang Kim, Gunhee Kim
- TLDR: 我们提出了一种基于理论的解决方法,以提高对话代理的情感感知和情感表达能力。
- Generation and Extraction Combined Dialogue State Tracking with Hierarchical Ontology Integration
- Xinmeng Li, Qian Li, Wansen Wu, Quanjun Yin
- TLDR: 我们提出了一个基于层次层次的对话状态跟踪模型,它可以解决与其他方法相比的out-of-vocabulary问题。
- CoLV: A Collaborative Latent Variable Model for Knowledge-Grounded Dialogue Generation
- Haolan Zhan, Lei Shen, Hongshen Chen, Hainan Zhang
- TLDR: 我们提出了一个合作潜变量模型,它可以同时整合知识选择和知识感知的回应生成。
- A Three-Stage Learning Framework for Low-Resource Knowledge-Grounded Dialogue Generation
- Shilei Liu, Xiaofeng Zhao, Bochao Li, Feiliang Ren, Longhui Zhang, Shujuan Yin
- TLDR: 我们提出了一种基于弱监督学习的新三阶段学习框架,它可以从知识背景中学习知识,同时保留知识表征。
- Intention Reasoning Network for Multi-Domain End-to-end Task-Oriented Dialogue
- Zhiyuan Ma, Jianjun Li, Zezheng Zhang, Guohui Li, Yongjing Cheng
- TLDR: 我们提出了一个用于多领域对话的意图推理网络,用于更好的模型因果实体知识。
- More is Better: Enhancing Open-Domain Dialogue Generation via Multi-Source Heterogeneous Knowledge
- Sixing Wu, Ying Li, Minghui Wang, Dawei Zhang, Yang Zhou, Zhonghai Wu
- TLDR: 我们提出了一种新的方法,通过使用多源知识来解决知识知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库知识库
- Domain-Lifelong Learning for Dialogue State Tracking via Knowledge Preservation Networks
- Qingbin Liu, Pengfei Cao, Cao Liu, Jiansong Chen, Xunliang Cai, Fan Yang, Shizhu He, Kang Liu, Jun Zhao
- TLDR: 我们提出了一种新的领域终身学习方法,它可以提高DLL-DST任务的准确性,同时避免灾难性遗忘。
- CSAGN: Conversational Structure Aware Graph Network for Conversational Semantic Role Labeling
- Han Wu, Kun Xu, Linqi Song
- TLDR: 我们提出了一个简单的和有效的CNN,用于CNN的端到端架构。
- Different Strokes for Different Folks: Investigating Appropriate Further Pre-training Approaches for Diverse Dialogue Tasks
- Yao Qiu, Jinchao Zhang, Jie Zhou
- TLDR: 我们通过设计不同的任务在训练前阶段进行进一步的预训练来提高任务导向对话。
- Knowledge Enhanced Fine-Tuning for Better Handling Unseen Entities in Dialogue Generation
- Leyang Cui, Yu Wu, Shujie Liu, Yue Zhang
- TLDR: 我们通过使用知识库作为输入,从知识库中学习更准确的语义表示。
- An Evaluation Dataset and Strategy for Building Robust Multi-turn Response Selection Model
- Kijong Han, Seojin Lee, Dong-hun Lee
- TLDR: 我们分析了多变量反应选择模型的弱点,并提出了一个对抗性数据集来评估它们的弱点。
- Unsupervised Conversation Disentanglement through Co-Training
- Hui Liu, Zhan Shi, Xiaodan Zhu
- TLDR: 我们使用一个用于对话分解的神经网络来训练一个对话分解模型,无需引用任何人类注释。
- Don’t be Contradicted with Anything! CI-ToD: Towards Benchmarking Consistency for Task-oriented Dialogue System
- Libo Qin, Tianbao Xie, Shijue Huang, Qiguang Chen, Xiao Xu, Wanxiang Che
- TLDR: 我们表明,在任务导向的对话方向上,任务的特征识别是有效的。
- Transferable Persona-Grounded Dialogues via Grounded Minimal Edits
- Chen Henry Wu, Yinhe Zheng, Xiaoxi Mao, Minlie Huang
- TLDR: 基于概念的对话模型的回应。
- EARL: Informative Knowledge-Grounded Conversation Generation with Entity-Agnostic Representation Learning
- Hao Zhou, Minlie Huang, Yong Liu, Wei Chen, Xiaoyan Zhu
- TLDR: 我们提出了一种用于知识图的GAN方法,用于引入知识图的分类表征,以生成知识图的主题表示。
- DialogueCSE: Dialogue-based Contrastive Learning of Sentence Embeddings
- Che Liu, Rui Wang, Jinghua Liu, Jian Sun, Fei Huang, Luo Si
- TLDR: 我们提出了对话CSE,这是一个基于对话的对比学习方法,用于解决多语义对话中句法嵌入的对话中的问题。
- Improving Graph-based Sentence Ordering with Iteratively Predicted Pairwise Orderings
- Shaopeng Lai, Ante Wang, Fandong Meng, Jie Zhou, Yubin Ge, Jiali Zeng, Junfeng Yao, Degen Huang, Jinsong Su
- TLDR: 我们提出了一个新颖的句法顺序框架,它引入了两个分类器来更好地使用对应句法的顺序。
- Not Just Classification: Recognizing Implicit Discourse Relation on Joint Modeling of Classification and Generation
- Feng Jiang, Yaxin Fan, Xiaomin Chu, Peifeng Li, Qiaoming Zhu
- TLDR: 我们提出了一种用于多语义关系识别的联合模型,用于生成句法,并使用它来生成句法。
- A Language Model-based Generative Classifier for Sentence-level Discourse Parsing
- Ying Zhang, Hidetaka Kamigaito, Manabu Okumura
- TLDR: 我们提出了一种基于语言模型的生成分类器,用于使用标签作为输入,同时通过将标签s作为标签表示,以提高标签表征的表示。
- Multimodal Phased Transformer for Sentiment Analysis
- Junyan Cheng, Iordanis Fostiropoulos, Barry Boehm, Mohammad Soleymani
- TLDR: 我们提出了一种用于多模态Transformer的新型方法,它可以捕捉多模态互动,同时保留了模型大小和更好的样本效率。
- Hierarchical Multi-label Text Classification with Horizontal and Vertical Category Correlations
- Linli Xu, Sijie Teng, Ruoyu Zhao, Junliang Guo, Chi Xiao, Deqiang Jiang, Bo Ren
- TLDR: 我们提出了一个新颖的多标签文本分类方法,它考虑了上下文和分类之间的上下文对齐关系。
- RankNAS: Efficient Neural Architecture Search by Pairwise Ranking
- Chi Hu, Chenglong Wang, Xiangnan Ma, Xia Meng, Yinqiao Li, Tong Xiao, Jingbo Zhu, Changliang Li
- TLDR: 我们提出了一种高效的神经架构搜索方法,通过对NAS的性能进行排名来解决这个问题。
- FLiText: A Faster and Lighter Semi-Supervised Text Classification with Convolution Networks
- Chen Liu, Zhang Mengchao, Fu Zhibing, Panpan Hou, Yu Li
- TLDR: 我们提出了一个新颖的半监督学习框架,它可以更快地进行半监督学习。
- Evaluating Debiasing Techniques for Intersectional Biases
- Shivashankar Subramanian, Xudong Han, Timothy Baldwin, Trevor Cohn, Lea Frermann
- TLDR: 我们提出了一个与大多数NLP模型不同的偏见相反的模型,它可以作为一种新的非偏见方法,但它不是完全不变的。
- Definition Modelling for Appropriate Specificity
- Han Huang, Tomoyuki Kajiwara, Yuki Arase
- TLDR: 我们提出了一种用于词的定义生成的新型方法,该方法解决了词的泛化问题。
- Transductive Learning for Unsupervised Text Style Transfer
- Fei Xiao, Liang Pang, Yanyan Lan, Yan Wang, Huawei Shen, Xueqi Cheng
- TLDR: 我们提出了一种基于检索的基于语义感知的新型的非监督风格转移方法。
- Integrating Semantic Scenario and Word Relations for Abstractive Sentence Summarization
- Yong Guan, Shaoru Guo, Ru Li, Xiaoli Li, Hu Zhang
- TLDR: 我们提出了一种用于概括句法的双语图的句法图。
- Coupling Context Modeling with Zero Pronoun Recovering for Document-Level Natural Language Generation
- Xin Tan, Longyin Zhang, Guodong Zhou
- TLDR: 我们提出了一种用于NLG任务学习的新型的二阶方法,用于结合上下文建模和ZP恢复。
- Adaptive Bridge between Training and Inference for Dialogue Generation
- Haoran Xu, Hainan Zhang, Yanyan Zou, Hongshen Chen, Zhuoye Ding, Yanyan Lan
- TLDR: 我们提出了一种用于对话生成的自适应变换方法,它可以从基础的事实学习中自动转移到生成的词级匹配度,以实现更好的对话生成。
- ConRPG: Paraphrase Generation using Contexts as Regularizer
- Yuxian Meng, Xiang Ao, Qing He, Xiaofei Sun, Qinghong Han, Fei Wu, Chun Fan, Jiwei Li
- TLDR: 我们提出了一种新的非监督的框架,用于用于用句法和语义来生成句法。
- Building the Directed Semantic Graph for Coherent Long Text Generation
- Ziao Wang, Xiaofeng Zhang, Hongwei Du
- TLDR: 我们提出了一种新的方法,用于生成完整的长文本。
- Iterative GNN-based Decoder for Question Generation
- Zichu Fei, Qi Zhang, Yaqian Zhou
- TLDR: 我们提出了一种基于图的QG方法,它可以从句法中生成问题,然后回答问题。
- Asking Questions Like Educational Experts: Automatically Generating Question-Answer Pairs on Real-World Examination Data
- Fanyi Qu, Xin Jia, Yunfang Wu
- TLDR: 我们提出了一个用于问题-答案 pair生成的多代理通信模型,并提出了一个新颖的解决方案来解决这个问题-答案 pair生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成问题-答案集生成
- Syntactically-Informed Unsupervised Paraphrasing with Non-Parallel Data
- Erguang Yang, Mingtong Liu, Deyi Xiong, Yujie Zhang, Yao Meng, Changjian Hu, Jinan Xu, Yufeng Chen
- TLDR: 我们提出了一种基于条件变异自动编码器(VAE)的非线性句法建模模型,它可以生成句法结构,并利用它来生成句法结构。
- Exploring Task Difficulty for Few-Shot Relation Extraction
- Jiale Han, Bo Cheng, Wei Lu
- TLDR: 我们提出了一种基于对比学习的新方法,通过利用关系标签信息学习更好的表示。
- MuVER: Improving First-Stage Entity Retrieval with Multi-View Entity Representations
- Xinyin Ma, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Weiming Lu
- TLDR: 我们提出了MuVER,一种用于实体检索的新方法,它可以从多视覺表征中提取出更多表征,并通过一个神经搜索方法来获得最佳表征。
- Treasures Outside Contexts: Improving Event Detection via Global Statistics
- Rui Li, Wenlin Zhao, Cheng Yang, Sen Su
- TLDR: 我们提出了一个语义和统计-联合对抗网络(SS-JDN)用于解释句法的特征提取器和句法的特征提取器。
- Uncertain Local-to-Global Networks for Document-Level Event Factuality Identification
- Pengfei Cao, Yubo Chen, Yuqing Yang, Kang Liu, Jun Zhao
- TLDR: 我们提出了一个用于文件级事件事实性识别的非监督网络,它可以利用在文件上进行事件事实性识别。
- A Novel Global Feature-Oriented Relational Triple Extraction Model based on Table Filling
- Feiliang Ren, Longhui Zhang, Shujuan Yin, Xiaofeng Zhao, Shilei Liu, Bochao Li, Yaduo Liu
- TLDR: 我们提出了一个基于多表特征的多表提方法,它使用了在关系上生成的特征,然后将其应用于每个关系的特征上。
- Structure-Augmented Keyphrase Generation
- Jihyuk Kim, Myeongho Jeong, Seungtaek Choi, Seung-won Hwang
- TLDR: 我们提出了一种基于结构增强的文件编码方法,用于解决结构模糊的论文论文。
- An Empirical Study on Multiple Information Sources for Zero-Shot Fine-Grained Entity Typing
- Yi Chen, Haiyun Jiang, Lemao Liu, Shuming Shi, Chuang Fan, Min Yang, Ruifeng Xu
- TLDR: 我们提出了一个多源融合模型,用于使用多种信息源来解决零樣本的实体字典。
- DyLex: Incorporating Dynamic Lexicons into BERT for Sequence Labeling
- Baojun Wang, Zhao Zhang, Kun Xu, Guang-Yuan Hao, Yuyang Zhang, Lifeng Shang, Linlin Li, Xiao Chen, Xin Jiang, Qun Liu
- TLDR: 我们提出了DyLex,一个用于序列标签任务的在线词典嵌入方法。
- MapRE: An Effective Semantic Mapping Approach for Low-resource Relation Extraction
- Manqing Dong, Chunguang Pan, Zhipeng Luo
- TLDR: 我们提出了一个框架,考虑标签-不相关的语义标签,用于低资源关系提取。
- Heterogeneous Graph Neural Networks for Keyphrase Generation
- Jiacheng Ye, Ruijian Cai, Tao Gui, Qi Zhang
- TLDR: 我们提出了一种基于图的基于图的模型,可以捕捉明确的文献-关键字对的引用关系,并利用它们来生成可逆的、准确的缺失关键字。
- Machine Reading Comprehension as Data Augmentation: A Case Study on Implicit Event Argument Extraction
- Jian Liu, Yufeng Chen, Jinan Xu
- TLDR: 我们通过将AE任务与机器阅读理解(MRC)相结合,解决了数据稀疏性问题。
- Importance Estimation from Multiple Perspectives for Keyphrase Extraction
- Mingyang Song, Liping Jing, Lin Xiao
- TLDR: 我们提出了一种新的方法来估计关键句法的重要性,并提出了一种用于关键句法提取的多视覺方法。
- Gradient Imitation Reinforcement Learning for Low Resource Relation Extraction
- Xuming Hu, Chenwei Zhang, Yawen Yang, Xiaohe Li, Li Lin, Lijie Wen, Philip S. Yu
- TLDR: 我们提出了一个框架,用于低资源关系提取。
- Low-resource Taxonomy Enrichment with Pretrained Language Models
- Kunihiro Takeoka, Kosuke Akimoto, Masafumi Oyamada
- TLDR: 我们提出了一个高效的、有理论基础的、用于低资源的分类法学习框架。
- Entity Relation Extraction as Dependency Parsing in Visually Rich Documents
- Yue Zhang, Zhang Bo, Rui Wang, Junjie Cao, Chen Li, Zuyi Bao
- TLDR: 我们提出了一个用于多任务学习的GAN,用于将句法表征映射到句法上,并利用它来解决句法关系提取任务。
- Synchronous Dual Network with Cross-Type Attention for Joint Entity and Relation Extraction
- Hui Wu, Xiaodong Shi
- TLDR: 我们提出了一种新的双向双重网络(SDN)方法,通过单独和互动地考虑实体类型和关系类型的相互作用,通过跨类型关注来解决实体类型和关系类型之间的相互作用。
- Less is More: Pretrain a Strong Siamese Encoder for Dense Text Retrieval Using a Weak Decoder
- Shuqi Lu, Di He, Chenyan Xiong, Guolin Ke, Waleed Malik, Zhicheng Dou, Paul Bennett, Tie-Yan Liu, Arnold Overwijk
- TLDR: 我们提出了一种新的自我学习方法,用于训练自动编码器使用一个基于编码器的编码器的编码器。
- TransPrompt: Towards an Automatic Transferable Prompting Framework for Few-shot Text Classification
- Chengyu Wang, Jianing Wang, Minghui Qiu, Jun Huang, Ming Gao
- TLDR: 我们提出了TransPrompt,这是一个转移的句法框架,用于少樣本学习。
- Weakly-supervised Text Classification Based on Keyword Graph
- Lu Zhang, Jiandong Ding, Yi Xu, Yingyao Liu, Shuigeng Zhou
- TLDR: 我们提出了一个新颖的框架,用于研究词-keyword对词图上的GNN的相互作用。
- Efficient-FedRec: Efficient Federated Learning Framework for Privacy-Preserving News Recommendation
- Jingwei Yi, Fangzhao Wu, Chuhan Wu, Ruixuan Liu, Guangzhong Sun, Xing Xie
- TLDR: 我们提出了一个高效的联合学习框架,用于隐私保护的新闻推荐。
- RocketQAv2: A Joint Training Method for Dense Passage Retrieval and Passage Re-ranking
- Ruiyang Ren, Yingqi Qu, Jing Liu, Wayne Xin Zhao, QiaoQiao She, Hua Wu, Haifeng Wang, Ji-Rong Wen
- TLDR: 我们提出了一种用于跨通道检索和通道梯度的联合训练方法。
- Dealing with Typos for BERT-based Passage Retrieval and Ranking
- Shengyao Zhuang, Guido Zuccon
- TLDR: 我们提出了一个简单的和通用的通用性,用于从句法中学习句法的注意,用于检索和排名。
- From Alignment to Assignment: Frustratingly Simple Unsupervised Entity Alignment
- Xin Mao, Wenting Wang, Yuanbin Wu, Man Lan
- TLDR: 我们提出了一种简单的、有效的跨语言实体alignment方法,无需神经网络。
- Simple and Effective Unsupervised Redundancy Elimination to Compress Dense Vectors for Passage Retrieval
- Xueguang Ma, Minghan Li, Kai Sun, Ji Xin, Jimmy Lin
- TLDR: 我们提出了一个简单的非监督压缩管道,它包含了主要成分分析(PCA),产品量化和混合搜索。
- Relation Extraction with Word Graphs from N-grams
- Han Qin, Yuanhe Tian, Yan Song
- TLDR: 我们提出了注意力图卷积网络(A-GCN),用于改善神经RE的神经图卷积网络。
- A Bayesian Framework for Information-Theoretic Probing
- Tiago Pimentel, Ryan Cotterell
- TLDR: 我们提出了一个新的框架来衡量贝叶斯相互信息,它可以从贝叶斯代理的角度来分析信息,以更好地理解贝叶斯代理的解释。
- Masked Language Modeling and the Distributional Hypothesis: Order Word Matters Pre-training for Little
- Koustuv Sinha, Robin Jia, Dieuwke Hupkes, Joelle Pineau, Adina Williams, Douwe Kiela
- TLDR: 我们表明,MLMs成功了在句法结构的上下文上训练,并表明它们在许多下游任务上的表现更好。
- What’s Hidden in a One-layer Randomly Weighted Transformer?
- Sheng Shen, Zhewei Yao, Douwe Kiela, Kurt Keutzer, Michael Mahoney
- TLDR: 我们展示了在机器翻译任务中,有一个用于权重初始化的单层随机权重的神经网络,可以实现令人惊讶的性能。
- Rethinking Denoised Auto-Encoding in Language Pre-Training
- Fuli Luo, Pengcheng Yang, Shicheng Li, Xuancheng Ren, Xu Sun, Songfang Huang, Fei Huang
- TLDR: 我们提出了对抗性预训练(CAPT),用于学习时间序列表的不变性。
- Lifelong Explainer for Lifelong Learners
- Xuelin Situ, Sameen Maruf, Ingrid Zukerman, Cecile Paris, Gholamreza Haffari
- TLDR: 我们提出了一种新颖的终身概括方法,它持续地训练一个学生解释器,以解决各种LL任务中的随机解释。
- Linguistic Dependencies and Statistical Dependence
- Jacob Louis Hoover, Wenyu Du, Alessandro Sordoni, Timothy J. O’Donnell
- TLDR: 我们提出了一个广泛的分析,表明词之间的语言依赖性与统计依赖性之间的关系。
- Modeling Human Sentence Processing with Left-Corner Recurrent Neural Network Grammars
- Ryo Yoshida, Hiroshi Noji, Yohei Oseki
- TLDR: 我们研究了分层结构如何使语言模型更像人类。
- A Simple and Effective Positional Encoding for Transformers
- Pu-Chin Chen, Henry Tsai, Srinadh Bhojanapalli, Hyung Won Chung, Yin-Wen Chang, Chun-Sung Ferng
- TLDR: 我们提出了一种用于变形的简单方法,通过将位置和分支信息编码到变形模型中来加速变形模型的训练和推理。
- Explore Better Relative Position Embeddings from Encoding Perspective for Transformer Models
- Anlin Qu, Jianwei Niu, Shasha Mo
- TLDR: 我们研究了Shahit-RPE和XL-RPE,并提出了一种用于位置嵌入的新型RPE。
- Adversarial Mixing Policy for Relaxing Locally Linear Constraints in Mixup
- Guang Liu, Yuzhao Mao, Huang Hailong, Gao Weiguo, Li Xuan
- TLDR: 我们提出了一种对抗性方法,用于缓解和提高深度分类网络的穩定性。
- Is this the end of the gold standard? A straightforward reference-less grammatical error correction metric
- Md Asadul Islam, Enrico Magnani
- TLDR: 我们提出了一个基于引用的GANE的评价系统,它不需要任何其他的数据集来进行微调。
- Augmenting BERT-style Models with Predictive Coding to Improve Discourse-level Representations
- Vladimir Araujo, Andrés Villa, Marcelo Mendoza, Marie-Francine Moens, Alvaro Soto
- TLDR: 我们提出了一种用于学习句法的预测方法,该方法可以预测句法的未来句法。
- Backdoor Attacks on Pre-trained Models by Layerwise Weight Poisoning
- Linyang Li, Demin Song, Xiaonan Li, Jiehang Zeng, Ruotian Ma, Xipeng Qiu
- TLDR: 本文介绍了在没有目标的情况下进行训练的训练方法。
- GAML-BERT: Improving BERT Early Exiting by Gradient Aligned Mutual Learning
- Wei Zhu, Xiaoling Wang, Yuan Ni, Guotong Xie
- TLDR: 我们提出了一个基于梯度的共同学习BERT框架,用于改进BERT的早期出路。
- The Power of Scale for Parameter-Efficient Prompt Tuning
- Brian Lester, Rami Al-Rfou, Noah Constant
- TLDR: 我们通过使用T5来学习软提醒来解决软提醒的问题,以实现特定的下游任务。
- Scalable Font Reconstruction with Dual Latent Manifolds
- Nikita Srivatsan, Si Wu, Jonathan Barron, Taylor Berg-Kirkpatrick
- TLDR: 我们提出了一种用于字符风格分析和字符建模的深度生成模型,通过学习从字符风格中分解出字符风格的流形。
- Neuro-Symbolic Approaches for Text-Based Policy Learning
- Subhajit Chaudhury, Prithviraj Sen, Masaki Ono, Daiki Kimura, Michiaki Tatsubori, Asim Munawar
- TLDR: 我们提出了一种用于文本环境的可解释的行动政策,它可以被证明是可解释的,可以被简单的修改。
- Layer-wise Model Pruning based on Mutual Information
- Chun Fan, Jiwei Li, Tianwei Zhang, Xiang Ao, Fei Wu, Yuxian Meng, Xiaofei Sun
- TLDR: 我们提出了一种基于层间修剪的新型方法,用于修剪多层神经网络。
- Hierarchical Heterogeneous Graph Representation Learning for Short Text Classification
- Yaqing Wang, Song Wang, Quanming Yao, Dejing Dou
- TLDR: 我们提出了一种基于图神经网络的短文本分类方法,用于短文本分类。
- kFolden: k-Fold Ensemble for Out-Of-Distribution Detection
- Xiaoya Li, Jiwei Li, Xiaofei Sun, Chun Fan, Tianwei Zhang, Fei Wu, Yuxian Meng, Jun Zhang
- TLDR: 我们提出了一个简单的可扩展的框架,用于从OOD中检测出图像。
- Frustratingly Simple Pretraining Alternatives to Masked Language Modeling
- Atsuki Yamaguchi, George Chrysostomou, Katerina Margatina, Nikolaos Aletras
- TLDR: 我们使用BERT-BASE作为预训练目标,以解决语言建模中输入的符号级分类任务。
- HRKD: Hierarchical Relational Knowledge Distillation for Cross-domain Language Model Compression
- Chenhe Dong, Yaliang Li, Ying Shen, Minghui Qiu
- TLDR: 我们提出了一种层次关系知识提炼方法,用于捕捉层次关系信息。
- Searching for an Effective Defender: Benchmarking Defense against Adversarial Word Substitution
- Zongyi Li, Jianhan Xu, Jiehang Zeng, Linyang Li, Xiaoqing Zheng, Qi Zhang, Kai-Wei Chang, Cho-Jui Hsieh
- TLDR: 我们提出了一种用于文本分类器的对抗性防御方法,该方法可以提高文本分类器的穩定性。
- Re-embedding Difficult Samples via Mutual Information Constrained Semantically Oversampling for Imbalanced Text Classification
- Jiachen Tian, Shizhan Chen, Xiaowang Zhang, Zhiyong Feng, Deyi Xiong, Shaojuan Wu, Chunliu Dou
- TLDR: 我们提出了一种用于非凸性文本分类的互斥信息限制的语义归采样框架。
- Beyond Text: Incorporating Metadata and Label Structure for Multi-Label Document Classification using Heterogeneous Graphs
- Chenchen Ye, Linhai Zhang, Yulan He, Deyu Zhou, Jie Wu
- TLDR: 我们提出了一种基于神经网络的多标签文件分类的新方法。
- Natural Language Processing Meets Quantum Physics: A Survey and Categorization
- Sixuan Wu, Jian Li, Peng Zhang, Yue Zhang
- TLDR: 我们对在量子计算机上应用的最先进的算法进行了比较。
- MetaTS: Meta Teacher-Student Network for Multilingual Sequence Labeling with Minimal Supervision
- Zheng Li, Danqing Zhang, Tianyu Cao, Ying Wei, Yiwei Song, Bing Yin
- TLDR: 我们提出了一种用于多语言序列标签的元学习方法,用于减轻数据缺失和提高质量。
- Neural Machine Translation with Heterogeneous Topic Knowledge Embeddings
- Weixuan Wang, Wei Peng, Meng Zhang, Qun Liu
- TLDR: 我们提出了一种用于神经机器翻译的主题知识嵌入的新方法。
- Allocating Large Vocabulary Capacity for Cross-Lingual Language Model Pre-Training
- Bo Zheng, Li Dong, Shaohan Huang, Saksham Singhal, Wanxiang Che, Ting Liu, Xia Song, Furu Wei
- TLDR: 我们提出了一种基于k-NN的目标采样的新方法,用于解决跨语言模型的多语言建模。
- Recurrent Attention for Neural Machine Translation
- Jiali Zeng, Shuangzhi Wu, Yongjing Yin, Yufan Jiang, Mu Li
- TLDR: 我们提出了一种用于自我关注的新替代方法,用于改善NMT模型的自注意。
- Learning from Multiple Noisy Augmented Data Sets for Better Cross-Lingual Spoken Language Understanding
- Yingmei Guo, Linjun Shou, Jian Pei, Ming Gong, Mingxing Xu, Zhiyong Wu, Daxin Jiang
- TLDR: 我们提出了一种用于低资源语言理解的无噪音的神经语言理解方法。
- Enlivening Redundant Heads in Multi-head Self-attention for Machine Translation
- Tianfu Zhang, Heyan Huang, Chong Feng, Longbing Cao
- TLDR: 我们提出了一种用于语法强化注意的新型方法,用于明确识别和利用在语法上不重要的头。
- Unsupervised Neural Machine Translation with Universal Grammar
- Zuchao Li, Masao Utiyama, Eiichiro Sumita, Hai Zhao
- TLDR: 我们提出了一种用于非监督机器翻译的通用语法的理论,用于训练语言之间的相互交替信号。
- Encouraging Lexical Translation Consistency for Document-Level Neural Machine Translation
- Xinglin Lyu, Junhui Li, Zhengxian Gong, Min Zhang
- TLDR: 我们提出了一种用于文件级神经机器翻译的句法翻译的通用性方法,该方法在论文中取得了最先进的结果。
- Improving Neural Machine Translation by Bidirectional Training
- Liang Ding, Di Wu, Dacheng Tao
- TLDR: 我们提出了一种简单有效的预训练策略,用于神经机器翻译的神经网络上BiT。
- Scheduled Sampling Based on Decoding Steps for Neural Machine Translation
- Yijin Liu, Fandong Meng, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: 我们提出了一种基于训练步骤的随机抽样方法,它与随机抽样方法相反,因为随机抽样方法的错误率与随机抽样方法的错误率相反。
- Learning to Rewrite for Non-Autoregressive Neural Machine Translation
- Xinwei Geng, Xiaocheng Feng, Bing Qin
- TLDR: 我们提出了一个架构,用于明确地学习从错误的翻译中修改错误的句法。
- SHAPE: Shifted Absolute Position Embedding for Transformers
- Shun Kiyono, Sosuke Kobayashi, Jun Suzuki, Kentaro Inui
- TLDR: 我们提出了一种基于转移的逆向位置嵌入方法,该方法通过随机转移位势位置来实现逆向位置不变性。
- Self-Supervised Quality Estimation for Machine Translation
- Yuanhang Zheng, Zhixing Tan, Meng Zhang, Mieradilijiang Maimaiti, Huanbo Luan, Maosong Sun, Qun Liu, Yang Liu
- TLDR: 我们提出了一种基于自我监督的非监督的基于语义的Q方法,它可以用于预测机器翻译的质量。
- Generalised Unsupervised Domain Adaptation of Neural Machine Translation with Cross-Lingual Data Selection
- Thuy-Trang Vu, Xuanli He, Dinh Phung, Gholamreza Haffari
- TLDR: 我们提出了一种跨语言数据选择方法,用于从一个不相关的语言中提取词汇。
- STANKER: Stacking Network based on Level-grained Attention-masked BERT for Rumor Detection on Social Media
- Dongning Rao, Xin Miao, Zhihua Jiang, Ran Li
- TLDR: 我们提出了一个用于微博上的批评和批评的统一的BERT模型。
- ActiveEA: Active Learning for Neural Entity Alignment
- Bing Liu, Harrisen Scells, Guido Zuccon, Wen Hua, Genghong Zhao
- TLDR: 我们提出了一种基于结构化的非监督性排名方法,可以显著提高分类质量。
- Cost-effective End-to-end Information Extraction for Semi-structured Document Images
- Wonseok Hwang, Hyunji Lee, Jinyeong Yim, Geewook Kim, Minjoon Seo
- TLDR: 我们通过将文件IE系统定义为一个序列生成任务,我们表明,一个单个的端到端的IE系统可以进行建模和实现具有可证明的性能。
- Improving Math Word Problems with Pre-trained Knowledge and Hierarchical Reasoning
- Weijiang Yu, Yingpeng Wen, Fudan Zheng, Nong Xiao
- TLDR: 我们提出了一种用于语法问题的算法,它使用语法的上下文结构来进行语法建模。
- GraphMR: Graph Neural Network for Mathematical Reasoning
- Weijie Feng, Binbin Liu, Dongpeng Xu, Qilong Zheng, Yun Xu
- TLDR: 我们提出了一个图到节点神经网络,它可以有效地学习图上的输入信息,用于解决数学和推理问题。
- What Changes Can Large-scale Language Models Bring? Intensive Study on HyperCLOVA: Billions-scale Korean Generative Pretrained Transformers
- Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, Minyoung Jeong, Sungjae Lee, Minsub Kim, Suk Hyun Ko, Seokhun Kim, Taeyong Park, Jinuk Kim, Soyoung Kang, Na-Hyeon Ryu, Kang Min Yoo, Minsuk Chang, Soobin Suh, Sookyo In, Jinseong Park, Kyungduk Kim, Hiun Kim, Jisu Jeong, Yong Goo Yeo, Donghoon Ham, Dongju Park, Min Young Lee, Jaewook Kang, Inho Kang, Jung-Woo Ha, Woomyoung Park, Nako Sung
- TLDR: 我们提出了一个用于解决非英语LM问题的在线解决方案,并展示了其在解决任务方面的应用。
- APIRecX: Cross-Library API Recommendation via Pre-Trained Language Model
- Yuning Kang, Zan Wang, Hongyu Zhang, Junjie Chen, Hanmo You
- TLDR: 我们提出了APIRecX,这是一种基于语言模型的跨语言API推荐方法,它使用BPE来分每个API call在每个API中,并使用GPT来训练一个GPT的语言模型。
- GMH: A General Multi-hop Reasoning Model for KG Completion
- Yao Zhang, Hongru Liang, Adam Jatowt, Wenqiang Lei, Xin Wei, Ning Jiang, Zhenglu Yang
- TLDR: 我们提出了一个通用的多跳推理模型,解决了三个模块的问题: 1)在地图上寻找, 2)在地图上停止搜索,以及在地图上避免过度搜索。
- BPM_MT: Enhanced Backchannel Prediction Model using Multi-Task Learning
- Jin Yea Jang, San Kim, Minyoung Jung, Saim Shin, Gahgene Gweon
- TLDR: 我们提出了一个用于多任务学习的端到端端端预测模型,它同时使用了KoBERT,一个用于端端预测的语言模型。
- Graphine: A Dataset for Graph-aware Terminology Definition Generation
- Zequn Liu, Shukai Wang, Yiyang Gu, Ruiyi Zhang, Ming Zhang, Sheng Wang
- TLDR: 我们提出了一个用于生物医学的词典定义数据集,它囊括了超过2,010,648词典定义 pair,涉及 227医学科的医学领域。
- Leveraging Order-Free Tag Relations for Context-Aware Recommendation
- Junmo Kang, Jeonghwan Kim, Suwon Shin, Sung-Hyon Myaeng
- TLDR: 我们提出了一种基于序列的生成方法来生成标签推荐。
- End-to-End Conversational Search for Online Shopping with Utterance Transfer
- Liqiang Xiao, Jun Ma, Xin Luna Dong, Pascual Martínez-Gómez, Nasser Zalmout, Wei Chen, Tong Zhao, Hao He, Yaohui Jin
- TLDR: 我们提出了ConvSearch,一个端到端的对话搜索系统,它结合了对话系统和搜索。
- Self-Supervised Curriculum Learning for Spelling Error Correction
- Zifa Gan, Hongfei Xu, Hongying Zan
- TLDR: 我们提出了一种基于自我监督的课程学习方法,该方法通过使用跨熵损失作为衡量标准来衡量模型的质量。
- Fix-Filter-Fix: Intuitively Connect Any Models for Effective Bug Fixing
- Haiwen Hong, Jingfeng Zhang, Yin Zhang, Yao Wan, Yulei Sui
- TLDR: 我们提出了一个通用框架,用于解决非监督的bug修复问题。
- Neuro-Symbolic Reinforcement Learning with First-Order Logic
- Daiki Kimura, Masaki Ono, Subhajit Chaudhury, Ryosuke Kohita, Akifumi Wachi, Don Joven Agravante, Michiaki Tatsubori, Asim Munawar, Alexander Gray
- TLDR: 我们提出了一种用于文本的游戏的神经symbol法,可以学习表征和可解释的规则。
- Biomedical Concept Normalization by Leveraging Hypernyms
- Cheng Yan, Yuanzhe Zhang, Kang Liu, Jun Zhao, Yafei Shi, Shengping Liu
- TLDR: 我们提出了一种新颖的生物医学概念正規化方法,它采用了标记方法来训练,以使词典表征与词典词汇相一致。
- Leveraging Capsule Routing to Associate Knowledge with Medical Literature Hierarchically
- Xin Liu, Qingcai Chen, Junying Chen, Wenxiu Zhou, Tingyu Liu, Xinlan Yang, Weihua Peng
- TLDR: 我们提出了使用胶囊路由来联系医学文献的文献分类。
- Label-Enhanced Hierarchical Contextualized Representation for Sequential Metaphor Identification
- Shuqun Li, Liang Yang, Weidong He, Shiqi Zhang, Jingjie Zeng, Hongfei Lin
- TLDR: 我们提出了一个用于句法表征的模型,它可以从句法层次和对话层次中提取更多信息。
- SpellBERT: A Lightweight Pretrained Model for Chinese Spelling Check
- Tuo Ji, Hang Yan, Xipeng Qiu
- TLDR: 我们提出了一个用于准确翻译的图神经网络,它可以作为一种用于解释错误的替代物。
- Automated Generation of Accurate & Fluent Medical X-ray Reports
- Hoang Nguyen, Dong Nie, Taivanbat Badamdorj, Yujie Liu, Yingying Zhu, Jason Truong, Li Cheng
- TLDR: 通过使用肿瘤图像和临床记录作为输入,从胸部X光图像中生成医疗报告。
- Enhancing Document Ranking with Task-adaptive Training and Segmented Token Recovery Mechanism
- Xingwu Sun, Yanling Cui, Hongyin Tang, Fuzheng Zhang, Beihong Jin, Shi Wang
- TLDR: 我们提出了一个用于文件检索的文件排名模型,它可以提高文件检索任务的任务适应性。
- Abstract, Rationale, Stance: A Joint Model for Scientific Claim Verification
- Zhiwei Zhang, Jiyi Li, Fumiyo Fukumoto, Yanming Ye
- TLDR: 我们提出了一种基于GAN的新型的论文,用于解释和行为预测的论文。
- A Fine-Grained Domain Adaption Model for Joint Word Segmentation and POS Tagging
- Peijie Jiang, Dingkun Long, Yueheng Sun, Meishan Zhang, Guangwei Xu, Pengjun Xie
- TLDR: 我们提出了一种用于词分离和POS标签的通用领域适应方法,用于解决词汇分类和句法嵌入问题。
- Answering Open-Domain Questions of Varying Reasoning Steps from Text
- Peng Qi, Haejun Lee, Tg Sido, Christopher Manning
- TLDR: 我们开发了一个统一的系统来回答直接从文本的开放领域问题,需要不同的检索步骤。
- Adaptive Information Seeking for Open-Domain Question Answering
- Yunchang Zhu, Liang Pang, Yanyan Lan, Huawei Shen, Xueqi Cheng
- TLDR: 我们提出了一种用于开放域问题回答的新型信息寻找策略,它可以适应各种问题,包括回答问题和查询。
- Mapping probability word problems to executable representations
- Simon Suster, Pieter Fivez, Pietro Totis, Angelika Kimmig, Jesse Davis, Luc de Raedt, Walter Daelemans
- TLDR: 我们使用和分析了各种神经模型来解决概率词问题的二步方法。
- Enhancing Multiple-choice Machine Reading Comprehension by Punishing Illogical Interpretations
- Yiming Ju, Yuanzhe Zhang, Zhixing Tian, Kang Liu, Xiaohuan Cao, Wenting Zhao, Jinlong Li, Jun Zhao
- TLDR: 我们通过使用 post-hoc解释方法来评估单个例子的属性,以提高多选项MRC的模型。
- Large-Scale Relation Learning for Question Answering over Knowledge Bases with Pre-trained Language Models
- Yuanmeng Yan, Rumei Li, Sirui Wang, Hongzhi Zhang, Zan Daoguang, Fuzheng Zhang, Wei Wu, Weiran Xu
- TLDR: 我们提出了BERT,一种基于BERT的KBQA方法,它可以从自然语言中学习,但它不是结构化的KB。
- Phrase Retrieval Learns Passage Retrieval, Too
- Jinhyuk Lee, Alexander Wettig, Danqi Chen
- TLDR: 我们表明,句法检索可以提高句法检索性能,同时保留词汇检索的准确性。
- Neural Natural Logic Inference for Interpretable Question Answering
- Jihao Shi, Xiao Ding, Li Du, Ting Liu, Bing Qin
- TLDR: 我们提出了一种基于神经符号QA的QA方法,用于解决多模态问题回答问题。
- Smoothing Dialogue States for Open Conversational Machine Reading
- Zhuosheng Zhang, Siru Ouyang, Hai Zhao, Masao Utiyama, Eiichiro Sumita
- TLDR: 我们提出了一种有效的架构,通过将决策和问题生成过程的对话状态映射到一个单个解码器,以提供更丰富的对话状态 reference。
- FinQA: A Dataset of Numerical Reasoning over Financial Data
- Zhiyu Chen, Wenhu Chen, Charese Smiley, Sameena Shah, Iana Borova, Dylan Langdon, Reema Moussa, Matt Beane, Ting-Hao Huang, Bryan Routledge, William Yang Wang
- TLDR: 我们提出了一个用于回答深度问题的数据集,用于分析大型财经数据集。
- FiD-Ex: Improving Sequence-to-Sequence Models for Extractive Rationale Generation
- Kushal Lakhotia, Bhargavi Paranjape, Asish Ghoshal, Scott Yih, Yashar Mehdad, Srini Iyer
- TLDR: 我们提出了FiD-Ex,用于解决seq2seq模型的解释性短缺问题。
- RockNER: A Simple Method to Create Adversarial Examples for Evaluating the Robustness of Named Entity Recognition Models
- Bill Yuchen Lin, Wenyang Gao, Jun Yan, Ryan Moreno, Xiang Ren
- TLDR: 我们提出了RockNER,这是一个简单的、有效的方法,用于生成自然对抗例子。
- Diagnosing the First-Order Logical Reasoning Ability Through LogicNLI
- Jidong Tian, Yitian Li, Wenqing Chen, Liqiang Xiao, Hao He, Yaohui Jin
- TLDR: 我们提出了一个用于FOL推理的理论框架,并提出了一个用于诊断LM的理论框架。
- Constructing a Psychometric Testbed for Fair Natural Language Processing
- Ahmed Abbasi, David Dobolyi, John P. Lalor, Richard G. Netemeyer, Kendall Smith, Yi Yang
- TLDR: 我们描述了我们在神经语言处理中使用用户的回答来衡量用户行为的特征,并展示了该结果的一般意义。
- COUGH: A Challenge Dataset and Models for COVID-19 FAQ Retrieval
- Xinliang Frederick Zhang, Heming Sun, Xiang Yue, Simon Lin, Huan Sun
- TLDR: 我们提出了一个用于COVID-19 FAQ检索的巨大,挑战性的数据集。
- Chinese WPLC: A Chinese Dataset for Evaluating Pretrained Language Models on Word Prediction Given Long-Range Context
- Huibin Ge, Chenxi Sun, Deyi Xiong, Qun Liu
- TLDR: 我们提出了一个用于评估句法预测的语言模型的长期背景的中文数据集。
- WinoLogic: A Zero-Shot Logic-based Diagnostic Dataset for Winograd Schema Challenge
- Weinan He, Canming Huang, Yongmei Liu, Xiaodan Zhu
- TLDR: 我们提出了一个逻辑框架,用于评估神经语言模型的可解释性。
- Pseudo Zero Pronoun Resolution Improves Zero Anaphora Resolution
- Ryuto Konno, Shun Kiyono, Yuichiroh Matsubayashi, Hiroki Ouchi, Kentaro Inui
- TLDR: 我们提出了一个新颖的预训练任务,用于训练MLMs在零零图像的解决问题上进行改进。
- Aligning Cross-lingual Sentence Representations with Dual Momentum Contrast
- Liang Wang, Wei Zhao, Jingming Liu
- TLDR: 我们提出了一个用于翻译排名的句法表示的模型,该模型在许多任务上取得了最先进的结果。
- Total Recall: a Customized Continual Learning Method for Neural Semantic Parsers
- Zhuang Li, Lizhen Qu, Gholamreza Haffari
- TLDR: 我们提出了TotalRecall,这是一个持续学习方法,用于语义解析。
- Exophoric Pronoun Resolution in Dialogues with Topic Regularization
- Xintong Yu, Hongming Zhang, Yangqiu Song, Changshui Zhang, Kun Xu, Dong Yu
- TLDR: 我们提出了一个解决词典中词典引用问题的PCR解决方案。
- Context-Aware Interaction Network for Question Matching
- Zhe Hu, Zuohui Fu, Yu Yin, Gerard de Melo
- TLDR: 我们提出了一个基于上下文的相互作用的理解网络,用于准确地对两句表示进行上下文的归纳。
- TEMP: Taxonomy Expansion with Dynamic Margin Loss through Taxonomy-Paths
- Zichen Liu, Hongyuan Xu, Yanlong Wen, Ning Jiang, HaiYing Wu, Xiaojie Yuan
- TLDR: 我们提出了一种基于自我监督的分类法的分类方法,该方法预测新的概念的位置,并使用它来生成分类的分类器。
- A Graph-Based Neural Model for End-to-End Frame Semantic Parsing
- ZhiChao Lin, Yueheng Sun, Meishan Zhang
- TLDR: 我们提出了一个端到端神经模型来解决端神经网络的语义解析任务。
- Virtual Data Augmentation: A Robust and General Framework for Fine-tuning Pre-trained Models
- Kun Zhou, Wayne Xin Zhao, Sirui Wang, Fuzheng Zhang, Wei Wu, Ji-Rong Wen
- TLDR: 我们提出了一个通用框架,用于穩定地微调PLMs。
- CATE: A Contrastive Pre-trained Model for Metaphor Detection with Semi-supervised Learning
- Zhenxi Lin, Qianli Ma, Jiangyue Yan, Jieyu Chen
- TLDR: 我们提出了一个用于元表征检测的非监督方法,用于元表征检测的半监督学习。
- To be Closer: Learning to Link up Aspects with Opinions
- Yuxiang Zhou, Lejian Liao, Yang Gao, Zhanming Jie, Wei Lu
- TLDR: 我们通过学习一个主题中心的树结构来缩短对主题和对主题词的距离。
- Seeking Common but Distinguishing Difference, A Joint Aspect-based Sentiment Analysis Model
- Hongjiang Jing, Zuchao Li, Hai Zhao, Shu Jiang
- TLDR: 我们提出了一个联合的ABSA模型,该模型不仅享受了编码器共享的好处,而且还关注了编码器差异,以提高模型的有效性。
- Argument Pair Extraction with Mutual Guidance and Inter-sentence Relation Graph
- Jianzhu Bao, Bin Liang, Jingyi Sun, Yice Zhang, Min Yang, Ruifeng Xu
- TLDR: 我们提出了一种基于相互指导框架的对话式提取方法,可以利用一个论点在另一个节点上使用的信息来帮助寻找论点。
- Emotion Inference in Multi-Turn Conversations with Addressee-Aware Module and Ensemble Strategy
- Dayu Li, Xiaodan Zhu, Yang Li, Suge Wang, Deyu Li, Jian Liao, Jianxing Zheng
- TLDR: 我们通过研究多旋对话中情感传播的情感状态传播,提出了一个用于情感推理的主题模块,可以自动学习当参与者保持情感状态时,或当其他参与者受到其他情绪的影响时,该状态会受到其他参与者的关注。
- Improving Federated Learning for Aspect-based Sentiment Analysis via Topic Memories
- Han Qin, Guimin Chen, Yuanhe Tian, Yan Song
- TLDR: 我们提出了一个用于主题记忆的新型的ABSA模型,该模型采用了联合学习(FL)的理论和实践结果。
- Comparative Opinion Quintuple Extraction from Product Reviews
- Ziheng Liu, Rui Xia, Jianfei Yu
- TLDR: 我们首次引入了一个新的 Comparative Opinion Quintuple Extraction(COQE)任务,用于识别和利用对比性句法的句法。
- CTAL: Pre-training Cross-modal Transformer for Audio-and-Language Representations
- Hang Li, Wenbiao Ding, Yu Kang, Tianqiao Liu, Zhongqin Wu, Zitao Liu
- TLDR: 我们提出了一个跨模式转换器,用于语音和音频的语音任务的预测。
- Relation-aware Video Reading Comprehension for Temporal Language Grounding
- Jialin Gao, Xin Sun, Mengmeng Xu, Xi Zhou, Bernard Ghanem
- TLDR: 本文提出了一个用于视频阅读理解的互动网络,用于解决时间语言基础问题。
- Mutual-Learning Improves End-to-End Speech Translation
- Jiawei Zhao, Wei Luo, Boxing Chen, Andrew Gilman
- TLDR: 我们提出了一种用于语音翻译的通用合作学习方案,该方案允许在语音翻译任务中使用知识提炼来提高语音翻译(ST)任务的质量。
- Vision Guided Generative Pre-trained Language Models for Multimodal Abstractive Summarization
- Tiezheng Yu, Wenliang Dai, Zihan Liu, Pascale Fung
- TLDR: 我们提出了一种简单而有效的方法,用于设计用于视频的GANs,并展示了其在本文中所提出的改进。
- Natural Language Video Localization with Learnable Moment Proposals
- Shaoning Xiao, Long Chen, Jian Shao, Yueting Zhuang, Jun Xiao
- TLDR: 我们提出了一种新的NLVL模型,它可以学习一个固定的节点提案,并在训练过程中动态调整它的位置和时间。
- Language-Aligned Waypoint (LAW) Supervision for Vision-and-Language Navigation in Continuous Environments
- Sonia Raychaudhuri, Saim Wani, Shivansh Patel, Unnat Jain, Angel Chang
- TLDR: 我们提出了一个简单的和有效的语言-对齐监督方案,并提出了一个新的指标来衡量在导航过程中的代理的单项操作。
- How to leverage the multimodal EHR data for better medical prediction?
- Bo Yang, Lijun Wu
- TLDR: 我们首次从EHR数据中提取了临床记录,并提出了一种用于医疗任务预测的神经网络的联合方法。
- Considering Nested Tree Structure in Sentence Extractive Summarization with Pre-trained Transformer
- Jingun Kwon, Naoki Kobayashi, Hidetaka Kamigaito, Manabu Okumura
- TLDR: 我们提出了一种基于节点的引用的总结方法,该方法使用节点的句法结构来表示句法。
- Frame Semantic-Enhanced Sentence Modeling for Sentence-level Extractive Text Summarization
- Yong Guan, Shaoru Guo, Ru Li, Xiaoli Li, Hongye Tan
- TLDR: 我们提出了一种基于语义的句法建模的新方法,用于文本总结。
- CAST: Enhancing Code Summarization with Hierarchical Splitting and Reconstruction of Abstract Syntax Trees
- Ensheng Shi, Yanlin Wang, Lun Du, Hongyu Zhang, Shi Han, Dongmei Zhang, Hongbin Sun
- TLDR: 我们提出了一个新颖的CAST,它分离和重建ASTs,用于代码概括。
- SgSum:Transforming Multi-document Summarization into Sub-graph Selection
- Moye Chen, Wei Li, Jiachen Liu, Xinyan Xiao, Hua Wu, Haifeng Wang
- TLDR: 我们提出了一种新的多文件总结方法,它可以产生更具有知识性的总结。
- Event Graph based Sentence Fusion
- Ruifeng Yuan, Zili Wang, Wenjie Li
- TLDR: 我们提出了一个用于文本总结的句法融合的事件图,用于更好地捕捉和组织相关事件。
- Transformer-based Lexically Constrained Headline Generation
- Kosuke Yamada, Yuta Hitomi, Hideaki Tamori, Ryohei Sasano, Naoaki Okazaki, Kentaro Inui, Koichi Takeda
- TLDR: 我们提出了一种基于Transformer的新型的主题生成方法,它可以同时包含一个特定的句法,并能从生成的主题中获得更好的主题。
- Learn to Copy from the Copying History: Correlational Copy Network for Abstractive Summarization
- Haoran Li, Song Xu, Peng Yuan, Yujia Wang, Youzheng Wu, Xiaodong He, Bowen Zhou
- TLDR: 我们提出了一种新的非监督的替代性抄写方法,它可以从输入文本到输出总结的句法的句法的句法的句法的句法中抄写。
- Gradient-Based Adversarial Factual Consistency Evaluation for Abstractive Summarization
- Zhiyuan Zeng, Jiaze Chen, Weiran Xu, Lei Li
- TLDR: 我们提出了一种高效的弱监督的对抗性数据增强方法,用于生成具有可解释性错误的总结。
- Word Reordering for Zero-shot Cross-lingual Structured Prediction
- Tao Ji, Yong Jiang, Tao Wang, Zhongqiang Huang, Fei Huang, Yuanbin Wu, Xiaoling Wang
- TLDR: 我们提出了一个用于跨语言建模的结构化预测模型,它可以显著提高目标语言的性能。
- A Unified Encoding of Structures in Transition Systems
- Tao Ji, Yong Jiang, Tao Wang, Zhongqiang Huang, Fei Huang, Yuanbin Wu, Xiaoling Wang
- TLDR: 我们提出了一种基于注意力的编码器,它将所有结构都映射到一个转换系统中,并提出了一种用于解释转换状态的新型编码器。
- Improving Unsupervised Question Answering via Summarization-Informed Question Generation
- Chenyang Lyu, Lifeng Shang, Yvette Graham, Jennifer Foster, Xin Jiang, Qun Liu
- TLDR: 我们提出了一种用于QG的离群QG方法,使用QG数据集作为QG系统训练的QA模型。
- TransferNet: An Effective and Transparent Framework for Multi-hop Question Answering over Relation Graph
- Jiaxin Shi, Shulin Cao, Lei Hou, Juanzi Li, Hanwang Zhang
- TLDR: 我们提出了TransformNet,这是一个高效的多跳QA,它支持标签和文本关系。
- Topic Transferable Table Question Answering
- Saneem Chemmengath, Vishwajeet Kumar, Samarth Bharadwaj, Jaydeep Sen, Mustafa Canim, Soumen Chakrabarti, Alfio Gliozzo, Karthik Sankaranarayanan
- TLDR: 我们提出了T3QA,用于从BERT中提取主题和词汇分布的主题和词汇分布的主题转移。
- WebSRC: A Dataset for Web-Based Structural Reading Comprehension
- Xingyu Chen, Zihan Zhao, Lu Chen, JiaBao Ji, Danyang Zhang, Ao Luo, Yuxuan Xiong, Kai Yu
- TLDR: 我们提出了一个基于网络的结构阅读理解数据集。
- Cryptonite: A Cryptic Crossword Benchmark for Extreme Ambiguity in Language
- Avia Efrat, Uri Shaham, Dan Kilman, Omer Levy
- TLDR: 我们提出了一个用于神经网络的多语义交叉词集,该集包含了语义、语法、语义和语义词典。
- End-to-End Entity Resolution and Question Answering Using Differentiable Knowledge Graphs
- Amir Saffari, Armin Oliya, Priyanka Sen, Tom Ayoola
- TLDR: 我们扩展了E2E学习的广义框架,并使用ER作为一个独立的QA模型。
- Improving Query Graph Generation for Complex Question Answering over Knowledge Base
- Kechen Qin, Cheng Li, Virgil Pavlu, Javed Aslam
- TLDR: 我们提出了一种新的方法,通过将知识库整合到一个查询图上,然后将其应用到一个可执行的查询上进行查询。
- DiscoDVT: Generating Long Text with Discourse-Aware Discrete Variational Transformer
- Haozhe Ji, Minlie Huang
- TLDR: 我们提出了DispoDVT,一个用于解决文本生成的语言模型中语义理解的非语义变量变换。
- Mathematical Word Problem Generation from Commonsense Knowledge Graph and Equations
- Tianqiao Liu, Qiang Fang, Wenbiao Ding, Hang Li, Zhongqin Wu, Zitao Liu
- TLDR: 我们提出了一个从头到尾的神经模型,用于生成不同符号图的符号问题。
- Generic resources are what you need: Style transfer tasks without task-specific parallel training data
- Huiyuan Lai, Antonio Toral, Malvina Nissim
- TLDR: 我们提出了一种基于通用资源的新型的风格转移方法,它可以从简单的例子中学习,同时保留其内容。
- Revisiting Pivot-Based Paraphrase Generation: Language Is Not the Only Optional Pivot
- Yitao Cai, Yue Cao, Xiaojun Wan
- TLDR: 我们提出了一种基于上下文的上下文转换的元翻译方法,该方法使用语义和句法表征来生成元句法。
- Structural Adapters in Pretrained Language Models for AMR-to-Text Generation
- Leonardo F. R. Ribeiro, Yue Zhang, Iryna Gurevych
- TLDR: 我们提出了一种用于PLM的通用方法,用于从图结构中编码图结构。
- Data-to-text Generation by Splicing Together Nearest Neighbors
- Sam Wiseman, Arturs Backurs, Karl Stratos
- TLDR: 我们提出了一种用于数据到文本生成的策略,通过直接从源中检索出与邻文本相关的节点,然后将其替换成节点的节点,以生成节点的节点。
- Contextualize Knowledge Bases with Transformer for End-to-end Task-Oriented Dialogue Systems
- Yanjie Gou, Yinjie Lei, Lingqiao Liu, Yong Dai, Chunxu Shen
- TLDR: 我们提出了一个用于KB对话系统的记忆增强的变体,它可以提高艺术的性能。
- Efficient Dialogue Complementary Policy Learning via Deep Q-network Policy and Episodic Memory Policy
- Yangyang Zhao, Zhenyu Wang, Changxi Zhu, Shihan Wang
- TLDR: 我们提出了一种用于对话政策学习的新方法,该方法比现有的对话政策方法更优。
- CRFR: Improving Conversational Recommender Systems via Flexible Fragments Reasoning on Knowledge Graphs
- Jinfeng Zhou, Bo Wang, Ruifang He, Yuexian Hou
- TLDR: 我们提出了CRFR,这是一种基于对话的强化学习模型,它可以作为知识图的推荐系统,用于知识图上的知识转移。
- DuRecDial 2.0: A Bilingual Parallel Corpus for Conversational Recommendation
- Zeming Liu, Haifeng Wang, Zheng-Yu Niu, Hua Wu, Wanxiang Che
- TLDR: 我们提供了一个跨语言的人类到人类推荐对话数据集(DuRecDial 2.0),用于探索跨语言和多语言对话推荐的任务。
- End-to-End Learning of Flowchart Grounded Task-Oriented Dialogs
- Dinesh Raghu, Shantanu Agarwal, Sachindra Joshi, None Mausam
- TLDR: 我们提出了一个用于任务导向对话(TOD)的端到端学习问题,该问题涉及一个与用户解决问题的对话系统,该系统模仿一个帮助用户解决问题的代理,通过诊断他们的问题来帮助用户解决。
- Dimensional Emotion Detection from Categorical Emotion
- Sungjoon Park, Jiseon Kim, Seonghyeon Ye, Jaeyeol Jeon, Hee Young Park, Alice Oh
- TLDR: 我们使用RoBERTa-Large和微调来训练一个用于解释和分类的GAN模型,它可以同时预测和预测用于解释句法的情感分类和VAD scores。
- Not All Negatives are Equal: Label-Aware Contrastive Loss for Fine-grained Text Classification
- Varsha Suresh, Desmond Ong
- TLDR: 我们通过使用标签感知的差异性损失来分析和解决语言模型的对比性偏差。
- Joint Multi-modal Aspect-Sentiment Analysis with Auxiliary Cross-modal Relation Detection
- Xincheng Ju, Dong Zhang, Rong Xiao, Junhui Li, Shoushan Li, Min Zhang, Guodong Zhou
- TLDR: 我们首次提出了一种基于多模态的多模态多模态情感分析的联合学习方法。
- Solving Aspect Category Sentiment Analysis as a Text Generation Task
- Jian Liu, Zhiyang Teng, Leyang Cui, Hanmeng Liu, Yue Zhang
- TLDR: 我们使用GANs作为GANs,通过直接对任务设置进行预先训练,以使用GANs来表示GANs。
- Semantics-Preserved Data Augmentation for Aspect-Based Sentiment Analysis
- Ting-Wei Hsu, Chung-Chi Chen, Hen-Hsen Huang, Hsin-Hsi Chen
- TLDR: 我们提出了一个用于数据增强的语义-遗忘的理论,该理论基于对主题和情感的关注。
- The Effect of Round-Trip Translation on Fairness in Sentiment Analysis
- Jonathan Gabel Christiansen, Mathias Gammelgaard, Anders Søgaard
- TLDR: 我们表明, round-trip翻译可以提高分类公平性。
- CHoRaL: Collecting Humor Reaction Labels from Millions of Social Media Users
- Zixiaofan Yang, Shayan Hooshmand, Julia Hirschberg
- TLDR: 我们提出了一个用于批评和自我批评的工具,用于生成感知性标签,使用自然的用户反应来生成这些标签。
- CSDS: A Fine-Grained Chinese Dataset for Customer Service Dialogue Summarization
- Haitao Lin, Liqun Ma, Junnan Zhu, Lu Xiang, Yu Zhou, Jiajun Zhang, Chengqing Zong
- TLDR: 我们引入了一个新颖的客户服务对话总结数据集,用于解决对话总结问题。
- CodRED: A Cross-Document Relation Extraction Dataset for Acquiring Knowledge in the Wild
- Yuan Yao, Jiaju Du, Yankai Lin, Peng Li, Zhiyuan Liu, Jie Zhou, Maosong Sun
- TLDR: 我们提出了第一个用于跨文件RE的人类注释的跨文件RE数据集。
- Building and Evaluating Open-Domain Dialogue Corpora with Clarifying Questions
- Mohammad Aliannejadi, Julia Kiseleva, Aleksandr Chuklin, Jeff Dalton, Mikhail Burtsev
- TLDR: 我们提出了一个框架,用于评估开放的对话中回答问题的质量。
- We Need to Talk About train-dev-test Splits
- Rob van der Goot
- TLDR: 我们提出了一个用于训练模型的训练-测试池,用于评估不同版本的模型(s)在训练过程中的性能。
- PhoMT: A High-Quality and Large-Scale Benchmark Dataset for Vietnamese-English Machine Translation
- Long Doan, Linh The Nguyen, Nguyen Luong Tran, Thai Hoang, Dat Quoc Nguyen
- TLDR: 我们介绍了一个用于翻译的巨大数据集,该数据集比基准的基准规模大2.9倍。
- Lying Through One’s Teeth: A Study on Verbal Leakage Cues
- Min-Hsuan Yeh, Lun-Wei Ku
- TLDR: 我们研究了基于数据的偏差,并表明偏差的偏差可以被用来选择偏见分类器。
- Multi-granularity Textual Adversarial Attack with Behavior Cloning
- Yangyi Chen, Jin Su, Wei Wei
- TLDR: 我们提出了一个多模态对抗性攻击模型,它可以有效地生成高质量对抗性样本,同时更少的访问给受害者模型。
- All Bark and No Bite: Rogue Dimensions in Transformer Language Models Obscure Representational Quality
- William Timkey, Marten van Schijndel
- TLDR: 我们表明,在语义空间中,正则化衡量标准的穩定性衡量标准与正则化衡量标准之间的穩定性差距很明显。
- Incorporating Residual and Normalization Layers into Analysis of Masked Language Models
- Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, Kentaro Inui
- TLDR: 我们扩展了Transformers的分析范围,从单个注意力分布中分析出Transformers的注意模式。
- Mind the Style of Text! Adversarial and Backdoor Attacks Based on Text Style Transfer
- Fanchao Qi, Yangyi Chen, Xurui Zhang, Mukai Li, Zhiyuan Liu, Maosong Sun
- TLDR: 我们首次使用基于文本风格转移的对抗性和后向攻击方法进行对抗性和对抗性攻击。
- Sociolectal Analysis of Pretrained Language Models
- Sheng Zhang, Xin Zhang, Weiming Zhang, Anders Søgaard
- TLDR: 我们表明,在大多数情况下,更小的预先训练好的语言模型比更小的模型更优。
- Examining Cross-lingual Contextual Embeddings with Orthogonal Structural Probes
- Tomasz Limisiewicz, David Mareček
- TLDR: 我们使用一个多语言模型来学习语法和句法结构,并使用它来评估语法和句法结构。
- Are Transformers a Modern Version of ELIZA? Observations on French Object Verb Agreement
- Bingzhi Li, Guillaume Wisniewski, Benoit Crabbé
- TLDR: 我们表明,神经网络可以预测句法的分歧,并表明,在句法的分歧上,可以做到高准确性。
- Fine-grained Entity Typing via Label Reasoning
- Qing Liu, Hongyu Lin, Xinyan Xiao, Xianpei Han, Le Sun, Hua Wu
- TLDR: 我们提出了一个用于标签依赖性解释的标签 Reasoning Network(LRN),它可以解决标签依赖性问题的最先进的结果。
- Enhanced Language Representation with Label Knowledge for Span Extraction
- Pan Yang, Xin Cong, Zhenyu Sun, Xingwu Liu
- TLDR: 我们提出了一个新颖的框架,用于明确和高效地整合标签知识。
- PRIDE: Predicting Relationships in Conversations
- Anna Tigunova, Paramita Mirza, Andrew Yates, Gerhard Weikum
- TLDR: 我们提出了一个用于对话中推断对话者关系的神经多标签分类器,用于生成对话表征。
- Extracting Fine-Grained Knowledge Graphs of Scientific Claims: Dataset and Transformer-Based Results
- Ian Magnusson, Scott Friedman
- TLDR: 我们提出了一个用于研究实验关系的图注释图谱,并展示了在科学论证和研究数据上应用图谱的前景。
- Sequential Cross-Document Coreference Resolution
- Emily Allaway, Shuai Wang, Miguel Ballesteros
- TLDR: 我们提出了一个新颖的跨文件追踪模型,它扩展了高效的顺序预测理论,以实现跨文件追踪的一致性。
- Mixture-of-Partitions: Infusing Large Biomedical Knowledge Graphs into BERT
- Zaiqiao Meng, Fangyu Liu, Thomas Clark, Ehsan Shareghi, Nigel Collier
- TLDR: 我们提出了MoP,一种用于知识图上知识流的混合方法,可以处理知识图上知识的KG。
- Filling the Gaps in Ancient Akkadian Texts: A Masked Language Modelling Approach
- Koren Lazar, Benny Saret, Asaf Yehudai, Wayne Horowitz, Nathan Wasserman, Gabriel Stanovsky
- TLDR: 我们提出了一个用于解释和翻译的模型,它可以作为一种用于解释和翻译的模型,但它需要大量的数据。
- AVocaDo: Strategy for Adapting Vocabulary to Downstream Domain
- Jimin Hong, TaeHee Kim, Hyesu Lim, Jaegul Choo
- TLDR: 我们使用一个预先训练好的语言模型来生成语言词典,并将其应用于不同的领域。
- Can We Improve Model Robustness through Secondary Attribute Counterfactuals?
- Ananth Balashankar, Xuezhi Wang, Ben Packer, Nithum Thain, Ed Chi, Alex Beutel
- TLDR: 我们提出了一个基于上下文的理解的模型,它可以提高模型的穩定性,同时保留对反事实的穩定性。
- Long-Range Modeling of Source Code Files with eWASH: Extended Window Access by Syntax Hierarchy
- Colin Clement, Shuai Lu, Xiaoyu Liu, Michele Tufano, Dawn Drain, Nan Duan, Neel Sundaresan, Alexey Svyatkovskiy
- TLDR: 我们提出了一种基于语法层次的架构独立的方法,用于利用文件级背景的句法层次结构,并将其应用于语法层次结构的上下文中。
- Can Language Models be Biomedical Knowledge Bases?
- Mujeen Sung, Jinhyuk Lee, Sean Yi, Minji Jeon, Sungdong Kim, Jaewoo Kang
- TLDR: 我们提出了一个BioLAMA基准,用于诊断和治疗的生物医学 LMs的事实知识。
- LayoutReader: Pre-training of Text and Layout for Reading Order Detection
- Zilong Wang, Yiheng Xu, Lei Cui, Jingbo Shang, Furu Wei
- TLDR: 我们提出了一个用于阅读顺序预测的模型,它可以从一个用于阅读顺序预测的模型中得到一个强大的模型。
- Region under Discussion for visual dialog
- Mauricio Mazuecos, Franco M. Luque, Jorge Sánchez, Hernán Maina, Thomas Vadora, Luciana Benotti
- TLDR: 我们提出了一个新颖的解释,用于用对话记录对话中的问题。
- Learning grounded word meaning representations on similarity graphs
- Mariella Dimiccoli, Herwig Wendt, Pau Batlle Franch
- TLDR: 我们提出了一种新的方法,通过使用低维图嵌入来学习字符之间的相似性关系,并利用它来学习字符之间的相似性表示。
- WhyAct: Identifying Action Reasons in Lifestyle Vlogs
- Oana Ignat, Santiago Castro, Hanwen Miao, Weiji Li, Rada Mihalcea
- TLDR: 我们通过使用视觉和文本信息来自动识别在线视频中人类行为理由。
- Genre as Weak Supervision for Cross-lingual Dependency Parsing
- Max Müller-Eberstein, Rob van der Goot, Barbara Plank
- TLDR: 我们使用GANs来从句法中提取语言的标签,以实现跨语言的零樣本依赖性解析。
- On the Relation between Syntactic Divergence and Zero-Shot Performance
- Ofir Arviv, Dmitry Nikolaev, Taelin Karidi, Omri Abend
- TLDR: 我们通过对翻译中源面的词关系的保留程度进行理论分析,并使用一个基于多语言的理论来分析跨语言的跨语言稳定性和零樣本的解析性能。
- Improved Latent Tree Induction with Distant Supervision via Span Constraints
- Zhiyang Xu, Andrew Drozdov, Jay Yoon Lee, Tim O’Gorman, Subendhu Rongali, Dylan Finkbeiner, Shilpa Suresh, Mohit Iyyer, Andrew McCallum
- TLDR: 我们使用距离监督的字符限制(如字符格格)来提高非监督语义解析的性能。
- Aligning Multidimensional Worldviews and Discovering Ideological Differences
- Jeremiah Milbauer, Adarsh Mathew, James Evans
- TLDR: 我们提出了一种新的方法来发现和理解不同社会思想和思想的群体。
- Just Say No: Analyzing the Stance of Neural Dialogue Generation in Offensive Contexts
- Ashutosh Baheti, Maarten Sap, Alan Ritter, Mark Riedl
- TLDR: 我们通过对上下文的攻击进行严格的分类,以避免对不道德的攻击。
- Multi-Modal Open-Domain Dialogue
- Kurt Shuster, Eric Michael Smith, Da Ju, Jason Weston
- TLDR: 我们通过研究和使用最先进的多模对话代理的组成部分来解决多模对话问题。
- A Label-Aware BERT Attention Network for Zero-Shot Multi-Intent Detection in Spoken Language Understanding
- Ting-Wei Wu, Ruolin Su, Biing Juang
- TLDR: 我们提出了一个标签感知BERT AttentionNet(LABAN)用于零樣本多目标检测。
- Zero-Shot Dialogue Disentanglement by Self-Supervised Entangled Response Selection
- Ta-Chung Chi, Alexander Rudnicky
- TLDR: 本文提出了一种用于多语义对话的深度分解方法。
- SIMMC 2.0: A Task-oriented Dialog Dataset for Immersive Multimodal Conversations
- Satwik Kottur, Seungwhan Moon, Alborz Geramifard, Babak Damavandi
- TLDR: 我们提出了一个用于位置和互动多模对话的多模对话数据集,该数据集包含11K的任务导向用户<->辅助对话(117K utterances)的对话。
- RAST: Domain-Robust Dialogue Rewriting as Sequence Tagging
- Jie Hao, Linfeng Song, Liwei Wang, Kun Xu, Zhaopeng Tu, Dong Yu
- TLDR: 我们提出了一种基于时间的文本生成的基于时间的模型,它可以显著减少对话的搜索空间,同时保留对话的主题。
- MRF-Chat: Improving Dialogue with Markov Random Fields
- Ishaan Grover, Matthew Huggins, Cynthia Breazeal, Hae Won Park
- TLDR: 我们提出了一种用于开放域对话的深度学习方法,用于改进未来句法预测。
- Dialogue State Tracking with a Language Model using Schema-Driven Prompting
- Chia-Hsuan Lee, Hao Cheng, Mari Ostendorf
- TLDR: 我们使用基于模型的随机推理来提供任务感知的geschiedenis编码器,用于分类和非分类的 slots。
- Signed Coreference Resolution
- Kayo Yin, Kenneth DeHaan, Malihe Alikhani
- TLDR: 我们提出了Signed Coreference Resolution,这是一个新的任务,用于符号建模和Sign Language Processing。
- Consistent Accelerated Inference via Confident Adaptive Transformers
- Tal Schuster, Adam Fisch, Tommi Jaakkola, Regina Barzilay
- TLDR: 我们提出了一种用于信心加速的推理的新方法。
- Improving and Simplifying Pattern Exploiting Training
- Derek Tam, Rakesh R. Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel
- TLDR: 我们引入了一种新的少樣本学习方法,它与以前的方法相比,在SuperGLUE上的表现优于LDP。
- Unsupervised Data Augmentation with Naive Augmentation and without Unlabeled Data
- David Lowell, Brian Howard, Zachary C. Lipton, Byron Wallace
- TLDR: 我们重新审视了UDA,并表明它在多项任务上取得了最先进的结果。
- Pre-train or Annotate? Domain Adaptation with a Constrained Budget
- Fan Bai, Alan Ritter, Wei Xu
- TLDR: 我们研究了在预算限制下进行的领域适应,并提出了一种基于数据注释的策略。
- Lawyers are Dishonest? Quantifying Representational Harms in Commonsense Knowledge Resources
- Ninareh Mehrabi, Pei Zhou, Fred Morstatter, Jay Pujara, Xiang Ren, Aram Galstyan
- TLDR: 我们通过对CNN和GANKBs的代表性攻击进行比较,发现它们对CNN和GANKB的代表性攻击的潜在性。
- OSCaR: Orthogonal Subspace Correction and Rectification of Biases in Word Embeddings
- Sunipa Dev, Tao Li, Jeff M Phillips, Vivek Srikumar
- TLDR: 我们提出了一种用于解决偏见的非监督方法,它可以从概念中去除偏见,同时保留语义信息。
- Sentence-Permuted Paragraph Generation
- Wenhao Yu, Chenguang Zhu, Tong Zhao, Zhichun Guo, Meng Jiang
- TLDR: 我们提出了一种新的方法,通过将句法顺序从句法中提取,提高多句文的表达多样性。
- Extract, Denoise and Enforce: Evaluating and Improving Concept Preservation for Text-to-Text Generation
- Yuning Mao, Wenchang Ma, Deren Lei, Jiawei Han, Xiang Ren
- TLDR: 我们提出了一个统一的分析,研究了当前的Seq2seq模型,特别是预先训练好的语言模型,是否可以保留重要的输入概念,并表明,在本文中,我们提出了一个简单的可解释的解决方案,可以自动提取,压缩和强化重要的输入概念,同时保留概念保护。
- Paraphrase Generation: A Survey of the State of the Art
- Jianing Zhou, Suma Bhat
- TLDR: 本文关注了paraphrase生成,这是一种用于NLP的自然语言生成任务。
- Exposure Bias versus Self-Recovery: Are Distortions Really Incremental for Autoregressive Text Generation?
- Tianxing He, Jingzhao Zhang, Zhiming Zhou, James Glass
- TLDR: 我们提出了衡量标准来衡量暴露偏差在质量、多样性和一致性方面的影响。
- Generating Self-Contained and Summary-Centric Question Answer Pairs via Differentiable Reward Imitation Learning
- Li Zhou, Kevin Small, Yong Zhang, Sandeep Atluri
- TLDR: 我们提出了一个用于生成问题-回答队(QA pairs)的模型,用于生成主题导向的、总结导向的提问和论文总结的回答。
- Unsupervised Paraphrasing with Pretrained Language Models
- Tong Niu, Semih Yavuz, Yingbo Zhou, Nitish Shirish Keskar, Huan Wang, Caiming Xiong
- TLDR: 我们提出了一个用于多语种句法生成的训练框架,可以从现有的语言模型中学习高质量句法。
- Profanity-Avoiding Training Framework for Seq2seq Models with Certified Robustness
- Hengtong Zhang, Tianhang Zheng, Yaliang Li, Jing Gao, Lu Su, Bo Li
- TLDR: 我们提出了一个用于从不适当的语言中学习 profanity的训练框架,可以成功地从Q2seq模型中从生成泛化泛化的泛化中进行防御。
- Journalistic Guidelines Aware News Image Captioning
- Xuewen Yang, Svebor Karaman, Joel Tetreault, Alejandro Jaimes
- TLDR: 我们提出了一种新的方法,用于新闻本文图像标注,该方法使用了编码器的结构来提高图像的质量。
- AESOP: Paraphrase Generation with Adaptive Syntactic Control
- Jiao Sun, Xuezhe Ma, Nanyun Peng
- TLDR: 我们提出了一种用于语义保护和句法一致性建模的语义控制方法,通过对目标语法结构进行精心设计的句法结构来生成更好的句法。
- Refocusing on Relevance: Personalization in NLG
- Shiran Dudy, Steven Bedrick, Bonnie Webber
- TLDR: 我们提出了一种用于文本生成任务的个性化方法,该方法在文本生成任务中使用了更多额外的背景。
- The Future is not One-dimensional: Complex Event Schema Induction by Graph Modeling for Event Prediction
- Manling Li, Sha Li, Zhenhailong Wang, Lifu Huang, Kyunghyun Cho, Heng Ji, Jiawei Han, Clare Voss
- TLDR: 我们提出了一种基于时间复杂事件架构的实例图的模型,预测时间复杂事件架构的实例。
- Learning Constraints and Descriptive Segmentation for Subevent Detection
- Haoyu Wang, Hongming Zhang, Muhao Chen, Dan Roth
- TLDR: 我们提出了一种用于非事件追踪的自上而下的方法,用于在非事件追踪中学习和执行限制。
- ChemNER: Fine-Grained Chemistry Named Entity Recognition with Ontology-Guided Distant Supervision
- Xuan Wang, Vivian Hu, Xiangchen Song, Shweta Garg, Jinfeng Xiao, Jiawei Han
- TLDR: 我们提出了ChemNER,一种用于微分化学NER的元知识库方法,用于从知识库中学习元标签。
- Moving on from OntoNotes: Coreference Resolution Model Transfer
- Patrick Xia, Benjamin Van Durme
- TLDR: 我们提出了一个用于Coreference resolution的通用模型,该模型在多个数据集中进行了最先进的测试。
- Document-level Entity-based Extraction as Template Generation
- Kung-Hsiang Huang, Sam Tang, Nanyun Peng
- TLDR: 我们提出了一个用于文件级的多实体提取的生成框架,用于生成多实体提取任务的生成模型。
- Learning Prototype Representations Across Few-Shot Tasks for Event Detection
- Viet Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: 我们提出了一个用于少樣本学习的实例学习模型,该模型在实例学习中的表现与情节性少樣本学习相反。
- Lifelong Event Detection with Knowledge Transfer
- Pengfei Yu, Heng Ji, Prem Natarajan
- TLDR: 我们提出了一个终身学习框架,用于学习终身的事件类型。
- Modular Self-Supervision for Document-Level Relation Extraction
- Sheng Zhang, Cliff Wong, Naoto Usuyama, Sarthak Jain, Tristan Naumann, Hoifung Poon
- TLDR: 我们提出了一种基于多视角学习和图神经网络的新型关系提取方法,它可以从文件层次的关系提取到关系检测和论证解决。
- Unsupervised Paraphrasing Consistency Training for Low Resource Named Entity Recognition
- Rui Wang, Ricardo Henao
- TLDR: 我们使用paraphrasing作为一种更简单的非监督性数据增强方案,以鼓励在GAN中对原始数据的一致性进行修改。
- Fine-grained Entity Typing without Knowledge Base
- Jing Qian, Yibin Liu, Lemao Liu, Yangming Li, Haiyun Jiang, Haisong Zhang, Shuming Shi
- TLDR: 我们提出了一个二步框架来训练FET模型,无需任何知识库。
- Adversarial Attack against Cross-lingual Knowledge Graph Alignment
- Zeru Zhang, Zijie Zhang, Yang Zhou, Lingfei Wu, Sixing Wu, Xiaoying Han, Dejing Dou, Tianshi Che, Da Yan
- TLDR: 本文提出了一个用于知识图学习的对抗性攻击模型,它可以从KG结构中偷取强大的攻击信号,以提高其攻击的有效性。
- Towards Realistic Few-Shot Relation Extraction
- Sam Brody, Sichao Wu, Adrian Benton
- TLDR: 我们表明,在关系提取过程中,弱的少樣本学习方法会使许多关系的性能受到很大的不同。
- Data Augmentation for Cross-Domain Named Entity Recognition
- Shuguang Chen, Gustavo Aguilar, Leonardo Neves, Thamar Solorio
- TLDR: 我们研究了跨域数据增强的NER任务中跨域数据增量。
- Incorporating medical knowledge in BERT for clinical relation extraction
- Arpita Roy, Shimei Pan
- TLDR: 我们通过对BERT的临床关系提取数据集进行全面的调查,从临床关系提取数据集中比较了最先进的BERT模型。
- ECONET: Effective Continual Pretraining of Language Models for Event Temporal Reasoning
- Rujun Han, Xiang Ren, Nanyun Peng
- TLDR: 我们提出了一个持续的预训练框架,用于训练PTLMs,以提高其在事件时间推理方面的能力。
- Learning from Noisy Labels for Entity-Centric Information Extraction
- Wenxuan Zhou, Muhao Chen
- TLDR: 我们提出了一个简单的单体通用信息提取框架,它包含了多个神经模型,其结构相同,但不同的参数初始化。
- Extracting Material Property Measurement Data from Scientific Articles
- Gihan Panapitiya, Fred Parks, Jonathan Sepulveda, Emily Saldanha
- TLDR: 我们提出了一种用于生成物体 solu性标签的自动属性提取方法。
- Modeling Document-Level Context for Event Detection via Important Context Selection
- Amir Pouran Ben Veyseh, Minh Van Nguyen, Nghia Ngo Trung, Bonan Min, Thien Huu Nguyen
- TLDR: 我们提出了一种新的方法来学习句法选择,以预测句法的事件预测。
- Crosslingual Transfer Learning for Relation and Event Extraction via Word Category and Class Alignments
- Minh Van Nguyen, Tuan Ngo Nguyen, Bonan Min, Thien Huu Nguyen
- TLDR: 我们提出了一种新的跨语言的排列方法,用于解决跨语言关系和事件提取任务的排列问题。
- Corpus-based Open-Domain Event Type Induction
- Jiaming Shen, Yunyi Zhang, Heng Ji, Jiawei Han
- TLDR: 我们提出了一种基于卷积的开放域事件类型提取方法,用于从一个特定的卷积中提取事件类型。
- PDALN: Progressive Domain Adaptation over a Pre-trained Model for Low-Resource Cross-Domain Named Entity Recognition
- Tao Zhang, Congying Xia, Philip S. Yu, Zhiwei Liu, Shu Zhao
- TLDR: 我们提出了一种用于跨域的NER适应知识提炼方法,它通过使用三个关键的特征来实现最先进的领域适应性。
- Multi-Vector Attention Models for Deep Re-ranking
- Giulio Zhou, Jacob Devlin
- TLDR: 我们提出了一个轻量级的架构,用于研究用于检索和深度检索的联合成本和准确性之间的差距。
- Toward Deconfounding the Effect of Entity Demographics for Question Answering Accuracy
- Maharshi Gor, Kellie Webster, Jordan Boyd-Graber
- TLDR: 本文提出了一个基于问题的回答问题的模型,该模型的准确性与大多数QA数据集相比有偏见。
- Exploring Strategies for Generalizable Commonsense Reasoning with Pre-trained Models
- Kaixin Ma, Filip Ilievski, Jonathan Francis, Satoru Ozaki, Eric Nyberg, Alessandro Oltramari
- TLDR: 我们研究了从常识推理数据集中学习的模型的泛化和准确性。
- Transformer Feed-Forward Layers Are Key-Value Memories
- Mor Geva, Roei Schuster, Jonathan Berant, Omer Levy
- TLDR: 我们表明,在转换器模型中,前向层的记忆是用于学习输入的句法的组成,而句法的输出是句法的输出。
- Connecting Attributions and QA Model Behavior on Realistic Counterfactuals
- Xi Ye, Rohan Nair, Greg Durrett
- TLDR: 我们通过使用符级属性来表示模型的特征,可以从高层次学习模型的特征。
- How Do Neural Sequence Models Generalize? Local and Global Cues for Out-of-Distribution Prediction
- D. Anthony Bau, Jacob Andreas
- TLDR: 我们表明,神经序列模型的泛化行为与句法和语义预测分布密切相关。
- Comparing Text Representations: A Theory-Driven Approach
- Gregory Yauney, David Mimno
- TLDR: 我们提出了一种评估不同任务的表示与任务之间的 compatibil性的方法。
- Human Rationales as Attribution Priors for Explainable Stance Detection
- Sahil Jayaram, Emily Allaway
- TLDR: 我们提出了一种用于解释行为检测模型的新型方法,该方法使用少数的样本作为样本,以提高其解释能力。
- The Stem Cell Hypothesis: Dilemma behind Multi-Task Learning with Transformer Encoders
- Han He, Jinho D. Choi
- TLDR: 我们首次展示了MTL的五个NLP任务的注意力权重被转移到一个特定的注意力头。
- Text Counterfactuals via Latent Optimization and Shapley-Guided Search
- Xiaoli Fern, Quintin Pope
- TLDR: 我们通过直接优化在潜在空间和使用一个语言模型来生成反事实文本来解决分类器的分类问题。
- “Average” Approximates “First Principal Component”? An Empirical Analysis on Representations from Neural Language Models
- Zihan Wang, Chengyu Dong, Jingbo Shang
- TLDR: 我们表明,在神经语言模型中,一般表征与第一关键组成部分接近近似,并表明表征的一般分布与表征的一般分布相当。
- Controlled Evaluation of Grammatical Knowledge in Mandarin Chinese Language Models
- Yiwen Wang, Jennifer Hu, Roger Levy, Peng Qian
- TLDR: 我们研究了在语言模型中引入的语义依赖关系的一般性,并表明,在语义依赖关系方面,语义监督可以提高语义和语义之间的语义表示。
- GradTS: A Gradient-Based Automatic Auxiliary Task Selection Method Based on Transformer Networks
- Weicheng Ma, Renze Lou, Kai Zhang, Lili Wang, Soroush Vosoughi
- TLDR: 我们提出了GradTS,一种用于多任务学习的自动辅助任务选择方法,用于学习具有梯度计算的模型。
- NegatER: Unsupervised Discovery of Negatives in Commonsense Knowledge Bases
- Tara Safavi, Jing Zhu, Danai Koutra
- TLDR: 本文提出了 NegatER,一个框架,用于衡量一般的KB中潜在的负面。
- Instance-adaptive training with noise-robust losses against noisy labels
- Lifeng Jin, Linfeng Song, Kun Xu, Dong Yu
- TLDR: 本文提出了一种用于NLP模型的实例适应性训练框架,以改变单个数据集上超参数对噪音的抵抗力。
- Distributionally Robust Multilingual Machine Translation
- Chunting Zhou, Daniel Levy, Xian Li, Marjan Ghazvininejad, Graham Neubig
- TLDR: 我们提出了一种基于分布的穩定优化的新目标,以减少最坏情况下期望的损失。
- Model Selection for Cross-lingual Transfer
- Yang Chen, Alan Ritter
- TLDR: 我们提出了一种用于跨语言转移的机器学习方法,用于选择最佳模型。
- Continual Few-Shot Learning for Text Classification
- Ramakanth Pasunuru, Veselin Stoyanov, Mohit Bansal
- TLDR: 我们提出了一个持续少樣本学习(CFL)任务,在该任务中,一个系统被挑战来解决一个困难现象,并被要求在训练例子中学习正确的错误。
- Efficient Nearest Neighbor Language Models
- Junxian He, Graham Neubig, Taylor Berg-Kirkpatrick
- TLDR: 我们使用k近邻的语言模型作为例子,探索如何提高其在各种维度上的表现。
- STraTA: Self-Training with Task Augmentation for Better Few-shot Learning
- Tu Vu, Minh-Thang Luong, Quoc Le, Grady Simon, Mohit Iyyer
- TLDR: 我们提出了STraTA,一种用于少樣本学习的自我强化的新型方法。
- TADPOLE: Task ADapted Pre-Training via AnOmaLy DEtection
- Vivek Madan, Ashish Khetan, Zohar Karnin
- TLDR: 我们提出了一个用于训练后训练的任务适应的预训练框架。
- Gradient-based Adversarial Attacks against Text Transformers
- Chuan Guo, Alexandre Sablayrolles, Hervé Jégou, Douwe Kiela
- TLDR: 我们提出了第一个基于梯度的对抗性攻击,用于解决变压模型的变换问题。
- Do Transformer Modifications Transfer Across Implementations and Applications?
- Sharan Narang, Hyung Won Chung, Yi Tay, Liam Fedus, Thibault Fevry, Michael Matena, Karishma Malkan, Noah Fiedel, Noam Shazeer, Zhenzhong Lan, Yanqi Zhou, Wei Li, Nan Ding, Jake Marcus, Adam Roberts, Colin Raffel
- TLDR: 我们通过对Transformer的理论和实践进行了全面的比较,从理论上分析了Transformer的一般应用。
- Paired Examples as Indirect Supervision in Latent Decision Models
- Nitish Gupta, Sameer Singh, Matt Gardner, Dan Roth
- TLDR: 我们提出了一种用于DROP数据集中的组合问题回答的新方法。
- Pairwise Supervised Contrastive Learning of Sentence Representations
- Dejiao Zhang, Shang-Wen Li, Wei Xiao, Henghui Zhu, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: 我们提出了一种基于实例分类的基于语义依赖性和反义理解的句法表征学习方法。
- Muppet: Massive Multi-task Representations with Pre-Finetuning
- Armen Aghajanyan, Anchit Gupta, Akshat Shrivastava, Xilun Chen, Luke Zettlemoyer, Sonal Gupta
- TLDR: 我们提出了先训练,一个额外的语言模型训练阶段,用于学习语言模型的一般语言模型。
- Diverse Distributions of Self-Supervised Tasks for Meta-Learning in NLP
- Trapit Bansal, Karthick Prasad Gunasekaran, Tong Wang, Tsendsuren Munkhdalai, Andrew McCallum
- TLDR: 我们通过考虑自我监督的任务分布,为元学习设计了多任务分布。
- A Simple and Effective Method To Eliminate the Self Language Bias in Multilingual Representations
- Ziyi Yang, Yinfei Yang, Daniel Cer, Eric Darve
- TLDR: 我们通过对多语种表征的抽象空间进行语义空间的归纳和语义信息的对接,从一个抽象空间的角度来研究多语种表征的归纳和语义信息对的归纳。
- A Massively Multilingual Analysis of Cross-linguality in Shared Embedding Space
- Alexander Jones, William Yang Wang, Kyle Mahowald
- TLDR: 我们通过使用BERT和BiLSTM作为我们的模型,从101语言和5,050语言对句法级的对应关系进行理论分析。
- Frustratingly Simple but Surprisingly Strong: Using Language-Independent Features for Zero-shot Cross-lingual Semantic Parsing
- Jingfeng Yang, Federico Fancellu, Bonnie Webber, Diyi Yang
- TLDR: 我们使用一个通用的DRS来训练语义解析器,并将其应用于英语。
- Improving Simultaneous Translation by Incorporating Pseudo-References with Fewer Reorderings
- Junkun Chen, Renjie Zheng, Atsuhito Kita, Mingbo Ma, Liang Huang
- TLDR: 我们提出了一种新的方法,将现有的全句法 corpora转换为同时的翻译。
- Classification-based Quality Estimation: Small and Efficient Models for Real-world Applications
- Shuo Sun, Ahmed El-Kishky, Vishrav Chaudhary, James Cross, Lucia Specia, Francisco Guzmán
- TLDR: 我们表明,在非监督学习任务中,模型压缩技术并没有得到更好的结果。
- A Large-Scale Study of Machine Translation in Turkic Languages
- Jamshidbek Mirzakhalov, Anoop Babu, Duygu Ataman, Sherzod Kariev, Francis Tyers, Otabek Abduraufov, Mammad Hajili, Sardana Ivanova, Abror Khaytbaev, Antonio Laverghetta Jr., Bekhzodbek Moydinboyev, Esra Onal, Shaxnoza Pulatova, Ahsan Wahab, Orhan Firat, Sriram Chellappan
- TLDR: 我们提出了一个用于多语言翻译的实例研究,并提出了一个用于多语言翻译的理论和经验上的基础的理论。
- Analyzing the Surprising Variability in Word Embedding Stability Across Languages
- Laura Burdick, Jonathan K. Kummerfeld, Rada Mihalcea
- TLDR: 我们表明,词嵌入的稳定性与语言风格密切相关,并表明,在不同语言中,词嵌入的稳定性是不同的。
- Rule-based Morphological Inflection Improves Neural Terminology Translation
- Weijia Xu, Marine Carpuat
- TLDR: 我们提出了一个用于神经MT的多语义词限制模块,它结合了词典限制的词义形式,并提出了一个用于词典限制的语义解释模块。
- Data and Parameter Scaling Laws for Neural Machine Translation
- Mitchell A Gordon, Kevin Duh, Jared Kaplan
- TLDR: 我们表明,在监督的神经机器翻译模型中,开发的跨熵损失比监督的模型更小。
- Good-Enough Example Extrapolation
- Jason Wei
- TLDR: 本文提出了一个简单的数据增强方法,用于从一个例子到另一个例子的隐藏空间分布的理论偏差。
- Learning to Selectively Learn for Weakly-supervised Paraphrase Generation
- Kaize Ding, Dingcheng Li, Alexander Hanbo Li, Xing Fan, Chenlei Guo, Yang Liu, Huan Liu
- TLDR: 我们提出了一种新的方法来解决弱监督的句法引用问题。
- Effective Convolutional Attention Network for Multi-label Clinical Document Classification
- Yang Liu, Hua Cheng, Russell Klopfer, Matthew R. Gormley, Thomas Schaaf
- TLDR: 我们提出了一个用于临床文件分类的神经编码器,用于临床文件分类的MLDC。
- Contrastive Code Representation Learning
- Paras Jain, Ajay Jain, Tianjun Zhang, Pieter Abbeel, Joseph Gonzalez, Ion Stoica
- TLDR: 我们提出了反Code:一个反向的预训练任务,在没有代码的上下文的情况下学习代码的功能,而不是形式。
- IGA: An Intent-Guided Authoring Assistant
- Simeng Sun, Wenlong Zhao, Varun Manjunatha, Rajiv Jain, Vlad Morariu, Franck Dernoncourt, Balaji Vasan Srinivasan, Mohit Iyyer
- TLDR: 我们使用语言模型来构建一个用于文法指导的在线笔译助手,它生成和替换文本,以符合作者意图。
- Math Word Problem Generation with Mathematical Consistency and Problem Context Constraints
- Zichao Wang, Andrew Lan, Richard Baraniuk
- TLDR: 我们提出了一种新的MWP生成方法,使用了基于语言模型的初始化和语义选择模型来提高生成的MWP质量。
- Navigating the Kaleidoscope of COVID-19 Misinformation Using Deep Learning
- Yuanzhi Chen, Mohammad Hasan
- TLDR: 我们表明,混合领域转移学习的理论和实践中,只能够捕捉到特定的區域和全域背景,并不能代表整个目标。
- Detecting Health Advice in Medical Research Literature
- Yingya Li, Jun Wang, Bei Yu
- TLDR: 我们开发了一种基于BERT的预测模型,可以预测,以 macro-veraged F1-score衡量,当一个句子给强建议或弱建议时,它会更好看。
- A Semantic Feature-Wise Transformation Relation Network for Automatic Short Answer Grading
- Zhaohui Li, Yajur Tomar, Rebecca J. Passonneau
- TLDR: 我们提出了一个语义特征的转换关系网络,用于解决短语回答问题的一般性评分。
- Evaluating Scholarly Impact: Towards Content-Aware Bibliometrics
- Saurav Manchanda, George Karypis
- TLDR: 我们提出了基于内容感知的贝叶斯文献标记方法,用于量化引用论文的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文引用的论文
- A Scalable Framework for Learning From Implicit User Feedback to Improve Natural Language Understanding in Large-Scale Conversational AI Systems
- Sunghyun Park, Han Li, Ameen Patel, Sidharth Mudgal, Sungjin Lee, Young-Bum Kim, Spyros Matsoukas, Ruhi Sarikaya
- TLDR: 我们提出了一个用于多语义理解的框架,用于从从实例中学习语言理解的反馈中改进NLU。
- Summarize-then-Answer: Generating Concise Explanations for Multi-hop Reading Comprehension
- Naoya Inoue, Harsh Trivedi, Steven Sinha, Niranjan Balasubramanian, Kentaro Inui
- TLDR: 我们提出了一种抽象的解释方法,用于多跳阅读理解(RC),它可以生成简洁的解释。
- FewshotQA: A simple framework for few-shot learning of question answering tasks using pre-trained text-to-text models
- Rakesh Chada, Pradeep Natarajan
- TLDR: 我们提出了一个简单的微调框架,它直接与他们的预训练框架相匹配,并通过对问题的回答进行微调来改善少樣本设置。
- Multi-stage Training with Improved Negative Contrast for Neural Passage Retrieval
- Jing Lu, Gustavo Hernandez Abrego, Ji Ma, Jianmo Ni, Yinfei Yang
- TLDR: 我们研究了用于跨通道检索的三个技术:合成数据生成、负面采样和融合。
- Perhaps PTLMs Should Go to School – A Task to Assess Open Book and Closed Book QA
- Manuel Ciosici, Joe Cecil, Dong-Ho Lee, Alex Hedges, Marjorie Freedman, Ralph Weischedel
- TLDR: 我们提出了一个新的目标和奖励,用于激励问题回答和预先训练的语言模型(PTLMs)在没有监督的情况下进行回答。
- ReasonBERT: Pre-trained to Reason with Distant Supervision
- Xiang Deng, Yu Su, Alyssa Lees, You Wu, Cong Yu, Huan Sun
- TLDR: 我们提出了 ReasonBert,一个用于训练语言模型的预训练方法,用于解释跨域关系和多种可变的多模态环境。
- Single-dataset Experts for Multi-dataset Question Answering
- Dan Friedman, Ben Dodge, Danqi Chen
- TLDR: 我们通过结合多数据集专家和单数据集专家来解决多数据集问题回答问题。
- Simple Entity-Centric Questions Challenge Dense Retrievers
- Christopher Sciavolino, Zexuan Zhong, Jinhyuk Lee, Danqi Chen
- TLDR: 我们表明,在本文中,我们展示了当前的區域问题回答的穩定性,以及在解决这个问题时,我们提出了一个简单的解决方案。
- Mitigating False-Negative Contexts in Multi-document Question Answering with Retrieval Marginalization
- Ansong Ni, Matt Gardner, Pradeep Dasigi
- TLDR: 我们提出了一个新的参数化值检索,用于解决没有答案的查询。
- MultiDoc2Dial: Modeling Dialogues Grounded in Multiple Documents
- Song Feng, Siva Sankalp Patel, Hui Wan, Sachindra Joshi
- TLDR: 我们提出了MultiDoc2Dial,一个新任务和数据集,用于建立目标导向的对话,其中涉及多个文件。
- GupShup: Summarizing Open-Domain Code-Switched Conversations
- Laiba Mehnaz, Debanjan Mahata, Rakesh Gosangi, Uma Sushmitha Gunturi, Riya Jain, Gauri Gupta, Amardeep Kumar, Isabelle G. Lee, Anish Acharya, Rajiv Ratn Shah
- TLDR: 我们开发了第一个用于代码转換的对话总结数据集。
- BiSECT: Learning to Split and Rephrase Sentences with Bitexts
- Joongwon Kim, Mounica Maddela, Reno Kriz, Wei Xu, Chris Callison-Burch
- TLDR: 我们提出了一个新颖的训练数据集和一个新颖的模型来解决句法分离和引用任务。
- Data Collection vs. Knowledge Graph Completion: What is Needed to Improve Coverage?
- Kenneth Church, Yuchen Bian
- TLDR: 本文探讨了如何提高WordNet的覆盖率。
- Universal Sentence Representation Learning with Conditional Masked Language Model
- Ziyi Yang, Yinfei Yang, Daniel Cer, Jax Law, Eric Darve
- TLDR: 我们提出了一种新的ML训练方法,用于学习句法表征,在没有标签的组织上进行训练。
- On the Benefit of Syntactic Supervision for Cross-lingual Transfer in Semantic Role Labeling
- Zhisong Zhang, Emma Strubell, Eduard Hovy
- TLDR: 我们通过对语义依赖性进行理论探索,表明语义监督在低资源情况下的有效性。
- Implicit Premise Generation with Discourse-aware Commonsense Knowledge Models
- Tuhin Chakrabarty, Aadit Trivedi, Smaranda Muresan
- TLDR: 本文提出了一种用于生成句法的理论,该理论在理论上具有理论的理论属性。
- Inducing Transformer’s Compositional Generalization Ability via Auxiliary Sequence Prediction Tasks
- Yichen Jiang, Mohit Bansal
- TLDR: 我们提出了一个用于SCAN的额外的SCAN任务,用于解释命令的组成性结构。
- Flexible Generation of Natural Language Deductions
- Kaj Bostrom, Xinyu Zhao, Swarat Chaudhuri, Greg Durrett
- TLDR: 我们使用一个用于生成模型的框架来生成模型,不需要直接的人类监督。
- Structure-aware Fine-tuning of Sequence-to-sequence Transformers for Transition-based AMR Parsing
- Jiawei Zhou, Tahira Naseem, Ramón Fernandez Astudillo, Young-Suk Lee, Radu Florian, Salim Roukos
- TLDR: 我们提出了一个简单的、可解释的、结构化的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、
- Think about it! Improving defeasible reasoning by first modeling the question scenario.
- Aman Madaan, Niket Tandon, Dheeraj Rajagopal, Peter Clark, Yiming Yang, Eduard Hovy
- TLDR: 我们表明,通过引导一个系统思考问题,而不是回答它,可以提高其性能。
- Open Aspect Target Sentiment Classification with Natural Language Prompts
- Ronald Seoh, Ian Birle, Mrinal Tak, Haw-Shiuan Chang, Brian Pinette, Alfred Hough
- TLDR: 我们提出了一种简单的方法,通过使用自然语言 prompts解决部分的ATSC,以解决部分的ATSC。
- Does BERT Learn as Humans Perceive? Understanding Linguistic Styles through Lexica
- Shirley Anugrah Hayati, Dongyeop Kang, Lyle Ungar
- TLDR: 我们研究了词典使用在风格预测和语言风格建模方面的使用。
- Improving Stance Detection with Multi-Dataset Learning and Knowledge Distillation
- Yingjie Li, Chenye Zhao, Cornelia Caragea
- TLDR: 我们提出了一种用于多目标和多目标训练的自适应知识提炼方法,该方法在多目标训练和多目标训练方面的表现优于目前的方法。
- Discovering the Unknown Knowns: Turning Implicit Knowledge in the Dataset into Explicit Training Examples for Visual Question Answering
- Jihyung Kil, Cheng Zhang, Dong Xuan, Wei-Lun Chao
- TLDR: 我们通过使用简单的数据增量管道,从数据中学习的 “未知 “知识,用于回答问题。
- Improving Pre-trained Vision-and-Language Embeddings for Phrase Grounding
- Zi-Yi Dou, Nanyun Peng
- TLDR: 我们提出了一种方法,通过使用预先训练好的句法-语义嵌入来获得句法-语义之间的匹配句法-语义对应词的句法。
- Sequential Randomized Smoothing for Adversarially Robust Speech Recognition
- Raphael Olivier, Bhiksha Raj
- TLDR: 我们通过使用语音的特定工具来设计一个ASR模型,该模型对任何攻击都穩定。
- Hitting your MARQ: Multimodal ARgument Quality Assessment in Long Debate Video
- Md Kamrul Hasan, James Spann, Masum Hasan, Md Saiful Islam, Kurtis Haut, Rada Mihalcea, Ehsan Hoque
- TLDR: 我们研究了多模态的论证质量评估在多模态环境中的应用,并提出了一个用于解释多模态的多模态模型。
- Mind the Context: The Impact of Contextualization in Neural Module Networks for Grounding Visual Referring Expressions
- Arjun Akula, Spandana Gella, Keze Wang, Song-Chun Zhu, Siva Reddy
- TLDR: 我们通过使用参数化方法来解决固定文本输入的模块化模型的理论问题。
- Weakly-Supervised Visual-Retriever-Reader for Knowledge-based Question Answering
- Man Luo, Yankai Zeng, Pratyay Banerjee, Chitta Baral
- TLDR: 我们提出了一个知识库,用于知识性VQA的知识检索。
- NDH-Full: Learning and Evaluating Navigational Agents on Full-Length Dialogue
- Hyounghun Kim, Jialu Li, Mohit Bansal
- TLDR: 我们提出了一个用于合作视图和对话导航的新型任务设置,它使用全对话和整个导航路径作为一例。
- Timeline Summarization based on Event Graph Compression via Time-Aware Optimal Transport
- Manling Li, Tengfei Ma, Mo Yu, Lingfei Wu, Tian Gao, Heng Ji, Kathleen McKeown
- TLDR: 我们提出了一种用于时间线总结的非监督方法,该方法通过将新闻集映射到一个时间图上,以实现时间线的整体性。
- StreamHover: Livestream Transcript Summarization and Annotation
- Sangwoo Cho, Franck Dernoncourt, Tim Ganter, Trung Bui, Nedim Lipka, Walter Chang, Hailin Jin, Jonathan Brandt, Hassan Foroosh, Fei Liu
- TLDR: 我们提出了StreamHover,这是一个框架,用于注释和总结 livestream视频的在线视频。
- Cross-Register Projection for Headline Part of Speech Tagging
- Adrian Benton, Hanyang Li, Igor Malioutov
- TLDR: 我们使用一个多域POS标签来表示新闻头条,并展示了其在新闻头条上的表现。
- Editing Factual Knowledge in Language Models
- Nicola De Cao, Wilker Aziz, Ivan Titov
- TLDR: 我们提出了知识Editor,一个用于修改事实的通用方法,可以从预先训练好的超网络中修改事实,无需任何修改。
- Sparse Attention with Linear Units
- Biao Zhang, Ivan Titov, Rico Sennrich
- TLDR: 我们提出了一种用于保持稀疏性的方法,它可以被用来解决稀疏性,并表明,稀疏性自然地从一个训练好的模型中产生。
- Knowledge Base Completion Meets Transfer Learning
- Vid Kocijan, Thomas Lukasiewicz
- TLDR: 我们提出了第一个用于知识转移的通用知识库的转移方法,无需实体或关系匹配。
- SPECTRA: Sparse Structured Text Rationalization
- Nuno M. Guerreiro, André F. T. Martins
- TLDR: 我们提出了一个统一的框架来提取结构化解释的理由。
- Towards Zero-Shot Knowledge Distillation for Natural Language Processing
- Ahmad Rashid, Vasileios Lioutas, Abbas Ghaddar, Mehdi Rezagholizadeh
- TLDR: 我们提出了第一个基于知识提炼的NLP的零樣本知识提炼方案。
- Adversarial Regularization as Stackelberg Game: An Unrolled Optimization Approach
- Simiao Zuo, Chen Liang, Haoming Jiang, Xiaodong Liu, Pengcheng He, Jianfeng Gao, Weizhu Chen, Tuo Zhao
- TLDR: 我们提出了Stackelberg对抗正则化(SALT),这是一种基于梯度梯度法的对抗正则化方法。
- Aspect-Controllable Opinion Summarization
- Reinald Kim Amplayo, Stefanos Angelidis, Mirella Lapata
- TLDR: 我们提出了一种基于主题查询的总结方法,可以生成个性化的总结。
- QuestEval: Summarization Asks for Fact-based Evaluation
- Thomas Scialom, Paul-Alexis Dray, Sylvain Lamprier, Benjamin Piwowarski, Jacopo Staiano, Alex Wang, Patrick Gallinari
- TLDR: 我们提出了一个统一的框架,用于评估论文的引用信息的完整性。
- Simple Conversational Data Augmentation for Semi-supervised Abstractive Dialogue Summarization
- Jiaao Chen, Diyi Yang
- TLDR: 我们提出了一个简单的、有效的、可扩展的、用于半监督的对话数据增强的框架。
- Finding a Balanced Degree of Automation for Summary Evaluation
- Shiyue Zhang, Mohit Bansal
- TLDR: 我们提出了用于总结任务的自动评估指标,并提出了一个用于总结任务的自动评估指标。
- CLIFF: Contrastive Learning for Improving Faithfulness and Factuality in Abstractive Summarization
- Shuyang Cao, Lu Wang
- TLDR: 我们提出了一种新的对比性学习方法,用于生成抽象的总结,与提供的信息一致。
- Multilingual Unsupervised Neural Machine Translation with Denoising Adapters
- Ahmet Üstün, Alexandre Berard, Laurent Besacier, Matthias Gallé
- TLDR: 我们考虑了多语言非监督机器翻译的问题,使用一个通用的离散语言对语言进行翻译。
- BERT, mBERT, or BiBERT? A Study on Contextualized Embeddings for Neural Machine Translation
- Haoran Xu, Benjamin Van Durme, Kenton Murray
- TLDR: 我们表明,使用一个用于NMT的BiBERT作为NMT编码器的编码输出,可以获得最先进的编码性能。
- Controlling Machine Translation for Multiple Attributes with Additive Interventions
- Andrea Schioppa, David Vilar, Artem Sokolov, Katja Filippova
- TLDR: 我们提出了一种用于多标签翻译的特征标签方法,它可以从一个训练好的模型中获得更强大的控制。
- A Generative Framework for Simultaneous Machine Translation
- Yishu Miao, Phil Blunsom, Lucia Specia
- TLDR: 我们提出了一个生成框架,用于同时翻译和学习的机器翻译。
- It Is Not As Good As You Think! Evaluating Simultaneous Machine Translation on Interpretation Data
- Jinming Zhao, Philip Arthur, Gholamreza Haffari, Trevor Cohn, Ehsan Shareghi
- TLDR: 我们提出了一个用于在线翻译的翻译到interpretation的解释测试集,并提出了一个用于在线翻译的解释测试集。
- Boosting Cross-Lingual Transfer via Self-Learning with Uncertainty Estimation
- Liyan Xu, Xuchao Zhang, Xujiang Zhao, Haifeng Chen, Feng Chen, Jinho D. Choi
- TLDR: 我们提出了一个用于跨语言转移的自我学习框架,用于使用非标记数据来学习语法。
- Levenshtein Training for Word-level Quality Estimation
- Shuoyang Ding, Marcin Junczys-Dowmunt, Matt Post, Philipp Koehn
- TLDR: 我们提出了一种用于字级质量估计的新型方法,该方法在WMT 2020 QE任务上的表现优于现有的方法。
- Interactive Machine Comprehension with Dynamic Knowledge Graphs
- Xingdi Yuan
- TLDR: 我们提出了使用图的图表表示法,用于机器阅读理解的神经模型。
- Residual Adapters for Parameter-Efficient ASR Adaptation to Atypical and Accented Speech
- Katrin Tomanek, Vicky Zayats, Dirk Padfield, Kara Vaillancourt, Fadi Biadsy
- TLDR: 我们表明,通过将部分模型参数加入到编码器层中,我们可以在语音识别任务上获得与模型微调相等的适应性。
- Visual News: Benchmark and Challenges in News Image Captioning
- Fuxiao Liu, Yinghan Wang, Tianlu Wang, Vicente Ordonez
- TLDR: 我们提出了Visual News Captioner,一个用于新闻图像标注的实体感知模型。
- Integrating Visuospatial, Linguistic, and Commonsense Structure into Story Visualization
- Adyasha Maharana, Mohit Bansal
- TLDR: 我们首次使用基于Transformer的循環架构来编码结构输入,并研究了该方法对生成图像的视觉感知的影响。
- VideoCLIP: Contrastive Pre-training for Zero-shot Video-Text Understanding
- Hu Xu, Gargi Ghosh, Po-Yao Huang, Dmytro Okhonko, Armen Aghajanyan, Florian Metze, Luke Zettlemoyer, Christoph Feichtenhofer
- TLDR: 本文提出了一种基于时间上的对比性方法来训练一个统一的视频和文本理解模型,无需使用任何标签。
- NewsCLIPpings: Automatic Generation of Out-of-Context Multimodal Media
- Grace Luo, Trevor Darrell, Anna Rohrbach
- TLDR: 我们提出了一个用于检测图像和文本对不匹配的样本库,该库包含了用于新闻的图像和文本对不匹配的样本。
- Powering Comparative Classification with Sentiment Analysis via Domain Adaptive Knowledge Transfer
- Zeyu Li, Yilong Qin, Zihan Liu, Wei Wang
- TLDR: 我们提出了一个用于对比性推荐的神经网络,它可以提高CPC准确性。
- Tribrid: Stance Classification with Neural Inconsistency Detection
- Song Yang, Jacopo Urbani
- TLDR: 我们研究了在网络上进行主动行为分类的神经网络的神经结构。
- SYSML: StYlometry with Structure and Multitask Learning: Implications for Darknet Forum Migrant Analysis
- Pranav Maneriker, Yuntian He, Srinivasan Parthasarathy
- TLDR: 我们提出了一种基于风格的多任务学习方法,用于自然语言和模型互动。
- Few-Shot Emotion Recognition in Conversation with Sequential Prototypical Networks
- Gaël Guibon, Matthieu Labeau, Hélène Flamein, Luce Lefeuvre, Chloé Clavel
- TLDR: 我们提出了一种用于对话中追踪情感的新型方法,它可以作为对话情感分类器,用于不同的语言和稀疏标签。
- CLASSIC: Continual and Contrastive Learning of Aspect Sentiment Classification Tasks
- Zixuan Ke, Bing Liu, Hu Xu, Lei Shu
- TLDR: 本文研究了持续学习(CL)中的ASC任务的一般CL设置,并提出了一个新颖的持续学习模型。
- Implicit Sentiment Analysis with Event-centered Text Representation
- Deyu Zhou, Jianan Wang, Linhai Zhang, Yulan He
- TLDR: 我们提出了一种基于事件的意图性情绪分析的新方法,用于用句子中包含的情感感知句法来推断句法的情感偏差。
- SimCSE: Simple Contrastive Learning of Sentence Embeddings
- Tianyu Gao, Xingcheng Yao, Danqi Chen
- TLDR: 我们提出了SimCSE,这是一个简单的句法嵌入学习框架,在句法嵌入中使用一个输入句法的噪音来预测目标。
- When is Wall a Pared and when a Muro?: Extracting Rules Governing Lexical Selection
- Aditi Chaudhary, Kayo Yin, Antonios Anastasopoulos, Graham Neubig
- TLDR: 我们提出了一种用于识别语言学习中微分的词汇差异的方法,并利用它来解释它们。
- Aligning Actions Across Recipe Graphs
- Lucia Donatelli, Theresa Schmidt, Debanjali Biswas, Arne Köhn, Fangzhou Zhai, Alexander Koller
- TLDR: 我们提出了一个新颖的、完整的和一致的汉堡风格的レシピ库,它通过使用一个用于解释和预测的神经模型来表示不同做法的对应关系。
- Generating Datasets with Pretrained Language Models
- Timo Schick, Hinrich Schütze
- TLDR: 我们使用GANs生成标签上的文本对应。
- Continuous Entailment Patterns for Lexical Inference in Context
- Martin Schmitt, Hinrich Schütze
- TLDR: 我们使用一个用于语义推理的理论来解释PLM的上下文模式。
- Numeracy enhances the Literacy of Language Models
- Avijit Thawani, Jay Pujara, Filip Ilievski
- TLDR: 我们研究了使用六种数字编码器的任务,并表明,使用数字编码器的任务可以提高语义知识。
- Students Who Study Together Learn Better: On the Importance of Collective Knowledge Distillation for Domain Transfer in Fact Verification
- Mitch Paul Mithun, Sandeep Suntwal, Mihai Surdeanu
- TLDR: 我们提出了一个知识和模型提炼方法,用于事实验证的实证研究。
- MultiEURLEX - A multi-lingual and multi-label legal document classification dataset for zero-shot cross-lingual transfer
- Ilias Chalkidis, Manos Fergadiotis, Ion Androutsopoulos
- TLDR: 我们提出了 MULTI-EURLEX,一个用于法律文件的多语言分类的多语言数据集。
- Joint Passage Ranking for Diverse Multi-Answer Retrieval
- Sewon Min, Kenton Lee, Ming-Wei Chang, Kristina Toutanova, Hannaneh Hajishirzi
- TLDR: 我们提出了JPR,一个用于多回答检索的联合门路检索模型,用于推理和预测。
- Generative Context Pair Selection for Multi-hop Question Answering
- Dheeru Dua, Cicero Nogueira dos Santos, Patrick Ng, Ben Athiwaratkun, Bing Xiang, Matt Gardner, Sameer Singh
- TLDR: 我们提出了一个生成背景选择模型,用于多跳QA的生成背景选择。
- Synthetic Data Augmentation for Zero-Shot Cross-Lingual Question Answering
- Arij Riabi, Thomas Scialom, Rachel Keraron, Benoît Sagot, Djamé Seddah, Jacopo Staiano
- TLDR: 我们提出了一种基于问题生成模型的跨语言问题回答的新型方法。
- Have You Seen That Number? Investigating Extrapolation in Question Answering Models
- Jeonghwan Kim, Giwon Hong, Kyung-min Kim, Junmo Kang, Sung-Hyon Myaeng
- TLDR: 我们对DROP的数据集进行了严格的测试,以了解DROP的数据集可以处理出与未见过的数字相对应的数字。
- Surface Form Competition: Why the Highest Probability Answer Isn’t Always Right
- Ari Holtzman, Peter West, Vered Shwartz, Yejin Choi, Luke Zettlemoyer
- TLDR: 我们提出了 Domain Conditional Pointwise Mutual Information,一种替代的衡量函数,直接与基于概率的特征对抗。
- Entity-Based Knowledge Conflicts in Question Answering
- Shayne Longpre, Kartik Perisetla, Anthony Chen, Nikhil Ramesh, Chris DuBois, Sameer Singh
- TLDR: 我们提出了一种简单的方法来避免过度依赖parametric知识的泛化行为,以减少妄想和提高知识的泛化。
- Back-Training excels Self-Training at Unsupervised Domain Adaptation of Question Generation and Passage Retrieval
- Devang Kulshreshtha, Robert Belfer, Iulian Vlad Serban, Siva Reddy
- TLDR: 我们引入了自上而下的训练,用于非监督领域适应(UDA),用于生成和检索的回答和回答的回答。
- DWUG: A large Resource of Diachronic Word Usage Graphs in Four Languages
- Dominik Schlechtweg, Nina Tahmasebi, Simon Hengchen, Haim Dubossarsky, Barbara McGillivray
- TLDR: 我们描述了在四种语言上生成的最大的句法意义注释资源,用于解释和预测语义之间的相互作用。
- I Wish I Would Have Loved This One, But I Didn’t – A Multilingual Dataset for Counterfactual Detection in Product Review
- James O’Neill, Polina Rozenshtein, Ryuichi Kiryo, Motoko Kubota, Danushka Bollegala
- TLDR: 我们使用多语言CFD数据集来分析和解决基于语义的评价中虚假的例子。
- Does It Capture STEL? A Modular, Similarity-based Linguistic Style Evaluation Framework
- Anna Wegmann, Dong Nguyen
- TLDR: 我们提出了一个用于风格评估的模块化、微调和内容控制的STOL EvaLuation框架,用于测试任何模型在风格方面的性能。
- Evaluating the Morphosyntactic Well-formedness of Generated Texts
- Adithya Pratapa, Antonios Anastasopoulos, Shruti Rijhwani, Aditi Chaudhary, David R. Mortensen, Graham Neubig, Yulia Tsvetkov
- TLDR: 我们提出了L’AMBRE,一个用于评估文本的神经语义完整性指标。
- AM2iCo: Evaluating Word Meaning in Context across Low-Resource Languages with Adversarial Examples
- Qianchu Liu, Edoardo Maria Ponti, Diana McCarthy, Ivan Vulić, Anna Korhonen
- TLDR: 我们提出了AM2iCo,一个用于跨语言和跨语言文本表征的多语言和跨语言表征评估的统一框架。
- CrossFit: A Few-shot Learning Challenge for Cross-task Generalization in NLP
- Qinyuan Ye, Bill Yuchen Lin, Xiang Ren
- TLDR: 我们提出了 CrossFit,一个用于研究跨任务泛化能力的理论基础。
- On the Influence of Masking Policies in Intermediate Pre-training
- Qinyuan Ye, Belinda Z. Li, Sinong Wang, Benjamin Bolte, Hao Ma, Wen-tau Yih, Xiang Ren, Madian Khabsa
- TLDR: 我们通过对各种可变的初始化策略进行大规模的理论研究来研究初始化后的训练效果。
- ValNorm Quantifies Semantics to Reveal Consistent Valence Biases Across Languages and Over Centuries
- Autumn Toney, Aylin Caliskan
- TLDR: 我们提出了ValNorm,一个用于衡量语义偏差的理论和方法。
- Perturbation CheckLists for Evaluating NLG Evaluation Metrics
- Ananya B. Sai, Tanay Dixit, Dev Yashpal Sheth, Sreyas Mohan, Mitesh M. Khapra
- TLDR: 我们提出了一个框架,用于设计和评估自动评估指标的穩定性,并提出了一个衡量标准库。
- Robust Open-Vocabulary Translation from Visual Text Representations
- Elizabeth Salesky, David Etter, Matt Post
- TLDR: 我们提出了使用视觉文本表征的方法,以实现一个开放的句法。
- Don’t Go Far Off: An Empirical Study on Neural Poetry Translation
- Tuhin Chakrabarty, Arkadiy Saakyan, Smaranda Muresan
- TLDR: 我们提出了一个基于多语言对应性的数据集的论文,并表明多语言对词的翻译比单语言的翻译更优。
- Improving Multilingual Translation by Representation and Gradient Regularization
- Yilin Yang, Akiko Eriguchi, Alexandre Muzio, Prasad Tadepalli, Stefan Lee, Hany Hassan
- TLDR: 我们提出了一个联合的方法来正则化NMT模型,用于解决多语言神经机器翻译中不理想的非目标翻译。
- Learning Kernel-Smoothed Machine Translation with Retrieved Examples
- Qingnan Jiang, Mingxuan Wang, Jun Cao, Shanbo Cheng, Shujian Huang, Lei Li
- TLDR: 我们提出了一个用于在线翻译的元模型,用于从基于例子的例子中学习。
- Uncertainty-Aware Balancing for Multilingual and Multi-Domain Neural Machine Translation Training
- Minghao Wu, Yitong Li, Meng Zhang, Liangyou Li, Gholamreza Haffari, Qun Liu
- TLDR: 我们提出了一种基于模型的动态调整多语种机器翻译的多目标翻译的模型,它可以动态地调整训练数据的使用,以实现平衡。
- Universal Simultaneous Machine Translation with Mixture-of-Experts Wait-k Policy
- Shaolei Zhang, Yang Feng
- TLDR: 我们提出了一种通用的机器翻译的混合专家的等待政策,用于解决不同翻译质量和潜在能力的实际应用。
- How much coffee was consumed during EMNLP 2019? Fermi Problems: A New Reasoning Challenge for AI
- Ashwin Kalyan, Abhinav Kumar, Arjun Chandrasekaran, Ashish Sabharwal, Peter Clark
- TLDR: 我们提出了一个新颖的理论问题,即Fermi问题(FPs),它可以仅估计出问题的回答,因为它们的准确计算是不可行的或不可能的。
- Will this Question be Answered? Question Filtering via Answer Model Distillation for Efficient Question Answering
- Siddhant Garg, Alessandro Moschitti
- TLDR: 我们提出了一种新的方法来改进问题回答(QA)系统,通过从回答的回答中剔除问题,以提高回答效率。
- Learning with Instance Bundles for Reading Comprehension
- Dheeru Dua, Pradeep Dasigi, Sameer Singh, Matt Gardner
- TLDR: 我们提出了几个监督损失,用于对问题回答的评分进行比较,并使用它们来训练一个监督的例子集。
- Explaining Answers with Entailment Trees
- Bhavana Dalvi, Peter Jansen, Oyvind Tafjord, Zhengnan Xie, Hannah Smith, Leighanna Pipatanangkura, Peter Clark
- TLDR: 我们提出了一个用于多步骤多步骤解释的第一个数据集,它可以作为解释问题的基准,并提供了一个用于解释问题的框架。
- SituatedQA: Incorporating Extra-Linguistic Contexts into QA
- Michael Zhang, Eunsol Choi
- TLDR: 我们提出了 SituatedQA,一个开放检索的QA数据集,用于解决信息搜索问题,并表明现有的模型无法回答问题,因为它们经常更新或来自不特定的位置。
- ConvAbuse: Data, Analysis, and Benchmarks for Nuanced Abuse Detection in Conversational AI
- Amanda Cercas Curry, Gavin Abercrombie, Verena Rieser
- TLDR: 我们首次从一个自然环境中收集的关于虐待语言的第一个英语文献中研究了虐待语言的倾向。
- Conversational Multi-Hop Reasoning with Neural Commonsense Knowledge and Symbolic Logic Rules
- Forough Arabshahi, Jennifer Lee, Antoine Bosselut, Yejin Choi, Tom Mitchell
- TLDR: 我们提出了一个零樣本的自上而下的常识推理系统,用于对话代理的对话。
- Towards Automatic Evaluation of Dialog Systems: A Model-Free Off-Policy Evaluation Approach
- Haoming Jiang, Bo Dai, Mengjiao Yang, Tuo Zhao, Wei Wei
- TLDR: 我们提出了一个用于评估对话系统评价的RL框架,该RL框架使用RLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRLRL
- Continual Learning in Task-Oriented Dialogue Systems
- Andrea Madotto, Zhaojiang Lin, Zhenpeng Zhou, Seungwhan Moon, Paul Crook, Bing Liu, Zhou Yu, Eunjoon Cho, Pascale Fung, Zhiguang Wang
- TLDR: 我们提出了第一个持续学习基准,用于任务导向对话系统,该基准是基于一个简单的随机随机方法的。
- Multilingual and Cross-Lingual Intent Detection from Spoken Data
- Daniela Gerz, Pei-Hao Su, Razvan Kusztos, Avishek Mondal, Michał Lis, Eshan Singhal, Nikola Mrkšić, Tsung-Hsien Wen, Ivan Vulić
- TLDR: 我们提出了一个系统性研究,通过多语言和跨语言ID从说话数据中检测出多语义和跨语言的意图。
- Investigating Robustness of Dialog Models to Popular Figurative Language Constructs
- Harsh Jhamtani, Varun Gangal, Eduard Hovy, Taylor Berg-Kirkpatrick
- TLDR: 我们分析了在有用对话环境中使用 figurative语言的对话系统的表现。
- Effective Sequence-to-Sequence Dialogue State Tracking
- Jeffrey Zhao, Mahdis Mahdieh, Ye Zhang, Yuan Cao, Yonghui Wu
- TLDR: 我们表明,在训练目标的选择上,可以直接从经验上衡量状态跟踪质量。
- MSˆ2: Multi-Document Summarization of Medical Studies
- Jay DeYoung, Iz Beltagy, Madeleine van Zuylen, Bailey Kuehl, Lucy Wang
- TLDR: 我们开发了MSˆ2,一个用于多文件总结的医疗研究数据集。
- CLIPScore: A Reference-free Evaluation Metric for Image Captioning
- Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Le Bras, Yejin Choi
- TLDR: 我们表明,CLIPScore与人类的判断相比更弱。
- On the Challenges of Evaluating Compositional Explanations in Multi-Hop Inference: Relevance, Completeness, and Expert Ratings
- Peter Jansen, Kelly J. Smith, Dan Moreno, Huitzilin Ortiz
- TLDR: 我们表明,在知识知识上高鹜的专家评价和专家增强的评价对解释质量的准确性是很大的挑战。
- ESTER: A Machine Reading Comprehension Dataset for Reasoning about Event Semantic Relations
- Rujun Han, I-Hung Hsu, Jiao Sun, Julia Baylon, Qiang Ning, Dan Roth, Nanyun Peng
- TLDR: 我们介绍了一个用于事件语义关系推理的MRC数据集。
- RICA: Evaluating Robust Inference Capabilities Based on Commonsense Axioms
- Pei Zhou, Rahul Khanna, Seyeon Lee, Bill Yuchen Lin, Daniel Ho, Jay Pujara, Xiang Ren
- TLDR: 我们提出了一个用于學習學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習的穩定學習。
- Compression, Transduction, and Creation: A Unified Framework for Evaluating Natural Language Generation
- Mingkai Deng, Bowen Tan, Zhengzhong Liu, Eric Xing, Zhiting Hu
- TLDR: 我们提出了一个统一的衡量标准,用于评估不同NLG任务的信息变化。
- MATE: Multi-view Attention for Table Transformer Efficiency
- Julian Eisenschlos, Maharshi Gor, Thomas Müller, William Cohen
- TLDR: 我们提出了MATE,一个用于建表大型表的Transformer架构。
- Learning with Different Amounts of Annotation: From Zero to Many Labels
- Shujian Zhang, Chengyue Gong, Eunsol Choi
- TLDR: 我们提出了一种用于NLP的多标签例子学习算法,可以从不同的例子中学习。
- When Attention Meets Fast Recurrence: Training Language Models with Reduced Compute
- Tao Lei
- TLDR: 我们提出了SRU++,一个高效的架构,它与快速复甦和注意力相结合,以加速模型训练和推理。
- Universal-KD: Attention-based Output-Grounded Intermediate Layer Knowledge Distillation
- Yimeng Wu, Mehdi Rezagholizadeh, Abbas Ghaddar, Md Akmal Haidar, Ali Ghodsi
- TLDR: 我们提出了一种用于知识提炼的通用-KD方法,它可以同时使用BERT和BERT,以实现知识提炼。
- Highly Parallel Autoregressive Entity Linking with Discriminative Correction
- Nicola De Cao, Wilker Aziz, Ivan Titov
- TLDR: 我们提出了一种高效的、可逆的、可逆的、非逆的EL,它同时支持了非逆的链接和非逆的引用。
- Word-Level Coreference Resolution
- Vladimir Dobrovolskii
- TLDR: 本文介绍了基于字符的上下文对应性,并提出了一个用于解决上下文对应性问题的框架。
- A Secure and Efficient Federated Learning Framework for NLP
- Chenghong Wang, Jieren Deng, Xianrui Meng, Yijue Wang, Ji Li, Sheng Lin, Shuo Han, Fei Miao, Sanguthevar Rajasekaran, Caiwen Ding
- TLDR: 我们提出了SeFL,一个安全的、高效的联合学习框架,它可以实现相同的和更更好的模型准确性,同时可以达到更好的FL设计。
- Controllable Semantic Parsing via Retrieval Augmentation
- Panupong Pasupat, Yuan Zhang, Kelvin Guu
- TLDR: 我们提出了一种用于语义解析的新型方法,通过使用具有可解释性问题的样本来进行查询。
- Constrained Language Models Yield Few-Shot Semantic Parsers
- Richard Shin, Christopher Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Pauls, Dan Klein, Jason Eisner, Benjamin Van Durme
- TLDR: 我们使用语言模型来从语言输入中翻译出自然语言。
- ExplaGraphs: An Explanation Graph Generation Task for Structured Commonsense Reasoning
- Swarnadeep Saha, Prateek Yadav, Lisa Bauer, Mohit Bansal
- TLDR: 我们提出了一个用于解释图生成的框架,用于解释图的预测。
- Connect-the-Dots: Bridging Semantics between Words and Definitions via Aligning Word Sense Inventories
- Wenlin Yao, Xiaoman Pan, Lifeng Jin, Jianshu Chen, Dian Yu, Dong Yu
- TLDR: 我们提出了一种基于语义正则化的词汇标注的权衡方法,可以从不同词汇标注中找到词义正则化的句法。
- LM-Critic: Language Models for Unsupervised Grammatical Error Correction
- Michihiro Yasunaga, Jure Leskovec, Percy Liang
- TLDR: 我们使用一个预先定义好的语言模型来定义一个LM-Critic,它可以衡量句法是否是句法的,如果它被赋予一个更高的概率,它可以衡量句法的句法。
- Language-agnostic Representation from Multilingual Sentence Encoders for Cross-lingual Similarity Estimation
- Nattapong Tiyajamorn, Tomoyuki Kajiwara, Yuki Arase, Makoto Onizuka
- TLDR: 我们提出了一种方法,通过将语言抽象信息从句子中提取出来,从一个多语种句法编码器中提取出句法的句法的意味嵌入。
- Classifying Dyads for Militarized Conflict Analysis
- Niklas Stoehr, Lucas Torroba Hennigen, Samin Ahbab, Robert West, Ryan Cotterell
- TLDR: 我们提出了和评估了几个用于解释和比较多实体之间的对抗性原因的分类器。
- Point-of-Interest Type Prediction using Text and Images
- Danae Sánchez Villegas, Nikolaos Aletras
- TLDR: 我们提出了一种基于多模信息的POI类型预测方法,利用文本和图像的丰富信息来捕捉和描述在网络上互动的多种形式。
- Come hither or go away? Recognising pre-electoral coalition signals in the news
- Ines Rehbein, Simone Paolo Ponzetto, Anna Adendorf, Oke Bahnsen, Lukas Stoetzer, Heiner Stuckenschmidt
- TLDR: 我们提出了一个用于政策联合信号预测的任务,该任务是通过从新闻中捕捉到政党不希望加入一个联合体的想法来预测政策联合信号。
- #HowYouTagTweets: Learning User Hashtagging Preferences via Personalized Topic Attention
- Yuji Zhang, Yubo Zhang, Chunpu Xu, Jing Li, Ziyan Jiang, Baolin Peng
- TLDR: 我们提出了一个用于预测用户在用一个主题时的关注度的神经主题模型,该模型可以从用户过去对主题感兴趣的主题的关注中学习主题,以匹配未来主题。
- Learning Neural Templates for Recommender Dialogue System
- Zujie Liang, Huang Hu, Can Xu, Jian Miao, Yingying He, Yining Chen, Xiubo Geng, Fan Liang, Daxin Jiang
- TLDR: 我们提出了一个新颖的建议对话系统,可以从对话生成的对话中学习建议。
- Proxy Indicators for the Quality of Open-domain Dialogues
- Rostislav Nedelchev, Jens Lehmann, Ricardo Usbeck
- TLDR: 我们使用一个深度学习模型训练的GLUE基准作为评价开放域对话质量的质量标记。
- Q^{2}: Evaluating Factual Consistency in Knowledge-Grounded Dialogues via Question Generation and Question Answering
- Or Honovich, Leshem Choshen, Roee Aharoni, Ella Neeman, Idan Szpektor, Omri Abend
- TLDR: 我们提出了一个用于知识背景对话的理论,用于衡量知识背景对话的事实一致性。
- Knowledge-Aware Graph-Enhanced GPT-2 for Dialogue State Tracking
- Weizhe Lin, Bo-Hsiang Tseng, Bill Byrne
- TLDR: 我们提出了一种新颖的混合架构,用于在多领域对话系统中使用图注意力网络。
- A Collaborative Multi-agent Reinforcement Learning Framework for Dialog Action Decomposition
- Huimin Wang, Kam-Fai Wong
- TLDR: 我们提出了一个基于多代理的多代理政策学习框架,该框架可以提高政策学习的效率。
- Zero-Shot Dialogue State Tracking via Cross-Task Transfer
- Zhaojiang Lin, Bing Liu, Andrea Madotto, Seungwhan Moon, Zhenpeng Zhou, Paul Crook, Zhiguang Wang, Zhou Yu, Eunjoon Cho, Rajen Subba, Pascale Fung
- TLDR: 我们提出了一种用于零樣本对话状态跟踪的生成QA模型,它可以从一般问题回答中转移到多樣本对话状态跟踪中,无需收集在目标数据集中的数据。
- Uncertainty Measures in Neural Belief Tracking and the Effects on Dialogue Policy Performance
- Carel van Niekerk, Andrey Malinin, Christian Geishauser, Michael Heck, Hsien-chin Lin, Nurul Lubis, Shutong Feng, Milica Gasic
- TLDR: 我们提出了使用不同不确定性衡量标准来跟踪对话系统。
- Dynamic Forecasting of Conversation Derailment
- Yova Kementchedjhieva, Anders Søgaard
- TLDR: 我们提出了一种基于动态训练的预测框架,该框架在理论上和实践上都优于以前的方法。
- A Semantic Filter Based on Relations for Knowledge Graph Completion
- Zongwei Liang, Junan Yang, Hui Liu, Keju Huang
- TLDR: 本文设计了一种基于关系的语义滤波器,用于从知识图上提取特定实体的属性。
- AdapterDrop: On the Efficiency of Adapters in Transformers
- Andreas Rücklé, Gregor Geigle, Max Glockner, Tilman Beck, Jonas Pfeiffer, Nils Reimers, Iryna Gurevych
- TLDR: 我们提出了一种用于训练和推理的新型方法,它可以从低变压层的输出中提取adapters,以提高推理效率。
- Understanding and Overcoming the Challenges of Efficient Transformer Quantization
- Yelysei Bondarenko, Markus Nagel, Tijmen Blankevoort
- TLDR: 我们提出了三个解决方案,用于从训练时的量化和量化-自上而下的学习,它们与训练时的量化和量化-自上而下的训练相比有更好的结果。
- CAPE: Context-Aware Private Embeddings for Private Language Learning
- Richard Plant, Dimitra Gkatzia, Valerio Giuffrida
- TLDR: 我们提出了基于上下文的关注隐私的嵌入(CAPE),一种用于保护隐私的新型方法。
- Text Detoxification using Large Pre-trained Neural Models
- David Dale, Anton Voronov, Daryna Dementieva, Varvara Logacheva, Olga Kozlova, Nikita Semenov, Alexander Panchenko
- TLDR: 我们提出了一种新的方法,用于从文本中剔除毒性。
- Document-Level Text Simplification: Dataset, Criteria and Baseline
- Renliang Sun, Hanqi Jin, Xiaojun Wan
- TLDR: 我们提出了一个用于文件级文本简化任务的自动评估指标,它可以用于文件级文本简化任务。
- A Bag of Tricks for Dialogue Summarization
- Muhammad Khalifa, Miguel Ballesteros, Kathleen McKeown
- TLDR: 我们提出了一种用于总结的语言模型,它可以提高概括性能。
- Paraphrasing Compound Nominalizations
- John Lee, Ho Hung Lim, Carol Webster
- TLDR: 我们使用一个语义模型来解释概括性,并使用语义模型来重新审分概括性。
- Data-QuestEval: A Referenceless Metric for Data-to-Text Semantic Evaluation
- Clement Rebuffel, Thomas Scialom, Laure Soulier, Benjamin Piwowarski, Sylvain Lamprier, Jacopo Staiano, Geoffrey Scoutheeten, Patrick Gallinari
- TLDR: 我们提出了一个用于数据到文本任务的多模态多模态架构,用于生成数据QuestEval指标。
- Low-Rank Subspaces for Unsupervised Entity Linking
- Akhil Arora, Alberto Garcia-Duran, Robert West
- TLDR: 我们提出了一种轻量级的、可扩展的、具有可证明的实证效果的实体链接方法,用于文件到文件的实体链接。
- TDEER: An Efficient Translating Decoding Schema for Joint Extraction of Entities and Relations
- Xianming Li, Xiaotian Luo, Chenghao Dong, Daichuan Yang, Beidi Luan, Zhen He
- TLDR: 本文提出了一种用于知识库的多实体和关系提取的新方法。
- Extracting Event Temporal Relations via Hyperbolic Geometry
- Xingwei Tan, Gabriele Pergola, Yulan He
- TLDR: 我们提出了两个方法来编码和提取事件和他们的时间关系。
- Honey or Poison? Solving the Trigger Curse in Few-shot Event Detection via Causal Intervention
- Jiawei Chen, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: 我们解决了少樣本事件检测中的 trigger curse问题,并提出了一种通过从因果的角度解决FSED的方法。
- Back to the Basics: A Quantitative Analysis of Statistical and Graph-Based Term Weighting Schemes for Keyword Extraction
- Asahi Ushio, Federico Liberatore, Jose Camacho-Collados
- TLDR: 我们通过对词权的统计和图的比较,对词权的一般性进行了理论分析。
- Time-dependent Entity Embedding is not All You Need: A Re-evaluation of Temporal Knowledge Graph Completion Models under a Unified Framework
- Zhen Han, Gengyuan Zhang, Yunpu Ma, Volker Tresp
- TLDR: 我们研究了六种时间嵌入方法,并提出了第一个完全可解释的框架,用于时间知识图的完成模型。
- Matching-oriented Embedding Quantization For Ad-hoc Retrieval
- Shitao Xiao, Zheng Liu, Yingxia Shao, Defu Lian, Xing Xie
- TLDR: 我们提出了MoPQ,一个基于对应性损失的多樣本的集成方法,用于在不监督的情况下进行集成。
- Efficient Mind-Map Generation via Sequence-to-Graph and Reinforced Graph Refinement
- Mengting Hu, Honglei Guo, Shiwan Zhao, Hang Gao, Zhong Su
- TLDR: 我们提出了一种高效的大脑图生成网络,它可以从句法中生成一个图,并利用它来调整图的关系图。
- Deep Attention Diffusion Graph Neural Networks for Text Classification
- Yonghao Liu, Renchu Guan, Fausto Giunchiglia, Yanchun Liang, Xiaoyue Feng
- TLDR: 本文提出了一个用于文本表征学习的深度注意力传递图神经网络(DADGNN)模型,它可以从句法中学习文本表征,并通过它来解决句法之间的联系困难。
- Balancing Methods for Multi-label Text Classification with Long-Tailed Class Distribution
- Yi Huang, Buse Giledereli, Abdullatif Köksal, Arzucan Özgür, Elif Ozkirimli
- TLDR: 我们使用分布平衡损失函数来解决多标签文本分类中的标签依赖性问题。
- Bayesian Topic Regression for Causal Inference
- Maximilian Ahrens, Julian Ashwin, Jan-Peter Calliess, Vu Nguyen
- TLDR: 我们提出了贝叶斯主题回归(BTR),用于解释文本数据中随机和连续治疗效果的因果推理。
- Enjoy the Salience: Towards Better Transformer-based Faithful Explanations with Word Salience
- George Chrysostomou, Nikolaos Aletras
- TLDR: 我们提出了一个假设,即BERT训练的样本数据可以更好地解释出BERT的解释。
- What’s in Your Head? Emergent Behaviour in Multi-Task Transformer Models
- Mor Geva, Uri Katz, Aviv Ben-Arie, Jonathan Berant
- TLDR: 我们表明,多任务学习可以提高语言处理能力,并表明多任务学习可以提高解释性,并可以利用它来提高概括性。
- Don’t Search for a Search Method — Simple Heuristics Suffice for Adversarial Text Attacks
- Nathaniel Berger, Stefan Riezler, Sebastian Ebert, Artem Sokolov
- TLDR: 我们使用一种基于零阶优化的算法来衡量文本Attack框架的最先进的结果。
- Adversarial Attacks on Knowledge Graph Embeddings via Instance Attribution Methods
- Peru Bhardwaj, John Kelleher, Luca Costabello, Declan O’Sullivan
- TLDR: 我们研究了数据中毒攻击的最先进的结果。
- Locke’s Holiday: Belief Bias in Machine Reading
- Anders Søgaard
- TLDR: 本文介绍了最先进的机器阅读系统在解决问题时的失败模式。
- Sequence Length is a Domain: Length-based Overfitting in Transformer Models
- Dusan Varis, Ondřej Bojar
- TLDR: 我们表明,Transformer架构的性能下降很大程度上是由时间到序列的顺序偏差导致的,而不是时间分布。
- Contrasting Human- and Machine-Generated Word-Level Adversarial Examples for Text Classification
- Maximilian Mozes, Max Bartolo, Pontus Stenetorp, Bennett Kleinberg, Lewis Griffin
- TLDR: 我们通过使用语言能力来看待人类的对抗性例子。
- Is Information Density Uniform in Task-Oriented Dialogues?
- Mario Giulianelli, Arabella Sinclair, Raquel Fernández
- TLDR: 我们表明,在任务导向的对话中,信息内容在上下文中的比例和语义上明显提高。
- On Homophony and Rényi Entropy
- Tiago Pimentel, Clara Meister, Simone Teufel, Ryan Cotterell
- TLDR: 我们首次提出了一个新的信息论量量来衡量一个语言的异音性。
- Synthetic Textual Features for the Large-Scale Detection of Basic-level Categories in English and Mandarin
- Yiwen Chen, Simone Teufel
- TLDR: 我们提出了第一个用于BLC的可微分方法,它使用了Roch风格的语义特征,并证明了其在词汇分类方面的应用。
- TimeTraveler: Reinforcement Learning for Temporal Knowledge Graph Forecasting
- Haohai Sun, Jialun Zhong, Yunpu Ma, Zhen Han, Kun He
- TLDR: 我们提出了第一个基于强化学习的预测方法,用于预测知识图上的预测任务。
- Code-switched inspired losses for spoken dialog representations
- Pierre Colombo, Emile Chapuis, Matthieu Labeau, Chloé Clavel
- TLDR: 本文提出了一个对话系统,它可以处理多种语言和多语言对话。
- BiQUE: Biquaternionic Embeddings of Knowledge Graphs
- Jia Guo, Stanley Kok
- TLDR: 我们提出了BiQUE,一个新颖的图嵌入模型,用于学习知识图谱上的多关系关系。
- Learning Neural Ordinary Equations for Forecasting Future Links on Temporal Knowledge Graphs
- Zhen Han, Zifeng Ding, Yunpu Ma, Yujia Gu, Volker Tresp
- TLDR: 我们提出了一个用于时间知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图上知识图
- RAP: Robustness-Aware Perturbations for Defending against Backdoor Attacks on NLP Models
- Wenkai Yang, Yankai Lin, Peng Li, Jie Zhou, Xu Sun
- TLDR: 我们提出了一种用于网络安全的穩定性-感知扰动的在线防御方法。
- FAME: Feature-Based Adversarial Meta-Embeddings for Robust Input Representations
- Lukas Lange, Heike Adel, Jannik Strötgen, Dietrich Klakow
- TLDR: 我们提出了一种基于特征的对抗性元嵌入,它可以从一个词的特征中学习,并使用它来优化不同类型的嵌入的映射。
- A Strong Baseline for Query Efficient Attacks in a Black Box Setting
- Rishabh Maheshwary, Saket Maheshwary, Vikram Pudi
- TLDR: 我们提出了一种用于文本分类和样本任务的查询高效的攻击策略。
- Machine Translation Decoding beyond Beam Search
- Rémi Leblond, Jean-Baptiste Alayrac, Laurent Sifre, Miruna Pislar, Lespiau Jean-Baptiste, Ioannis Antonoglou, Karen Simonyan, Oriol Vinyals
- TLDR: 我们提出了一种基于MCTS的神经网络的神经编码方法,该方法在语言应用上的表现优于MCTS。
- Document Graph for Neural Machine Translation
- Mingzhou Xu, Liangyou Li, Derek F. Wong, Qun Liu, Lidia S. Chao
- TLDR: 我们提出了一个用于文件图的图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图谱图
- An Empirical Investigation of Word Alignment Supervision for Zero-Shot Multilingual Neural Machine Translation
- Alessandro Raganato, Raúl Vázquez, Mathias Creutz, Jörg Tiedemann
- TLDR: 我们通过联合训练一个跨视覺头和一个句法对句法进行明确的对称性来解决零樣本翻译问题。
- Graph Algorithms for Multiparallel Word Alignment
- Ayyoob ImaniGooghari, Masoud Jalili Sabet, Lutfi Kerem Senel, Philipp Dufter, François Yvon, Hinrich Schütze
- TLDR: 我们利用多语种对词的对齐,以实现多语种对齐。
- Improving the Quality Trade-Off for Neural Machine Translation Multi-Domain Adaptation
- Eva Hasler, Tobias Domhan, Jonay Trenous, Ke Tran, Bill Byrne, Felix Hieber
- TLDR: 我们表明,通过使用一个简单的数据组合策略来改进一个用于多目标领域的机器翻译系统。
- Language Modeling, Lexical Translation, Reordering: The Training Process of NMT through the Lens of Classical SMT
- Elena Voita, Rico Sennrich, Ivan Titov
- TLDR: 我们表明,在训练过程中,NMT首先关注目标的语言建模,然后改进了句法到句法的翻译质量,最后学习更复杂的顺序。
- Effective Fine-Tuning Methods for Cross-lingual Adaptation
- Tao Yu, Shafiq Joty
- TLDR: 我们提出了一种基于联合训练的语言建模的新方法,用于学习语义对应关系的泛化。
- Rethinking Data Augmentation for Low-Resource Neural Machine Translation: A Multi-Task Learning Approach
- Víctor M. Sánchez-Cartagena, Miquel Esplà-Gomis, Juan Antonio Pérez-Ortiz, Felipe Sánchez-Martínez
- TLDR: 我们提出了一种基于多任务DA的多任务多语义翻译方法,该方法通过生成句法对句法进行变换,以生成句法对句法的顺序进行修改。
- Wino-X: Multilingual Winograd Schemas for Commonsense Reasoning and Coreference Resolution
- Denis Emelin, Rico Sennrich
- TLDR: 我们使用Wino-X来研究神经机器翻译(NMT)模型可以进行CoR,需要常识知识和多语言模型(MLLMs)可以进行CSR。
- One Source, Two Targets: Challenges and Rewards of Dual Decoding
- Jitao Xu, François Yvon
- TLDR: 我们提出了一种用于多语种翻译的双语编码器,并展示了其在多语种翻译方面的应用。
- Discrete and Soft Prompting for Multilingual Models
- Mengjie Zhao, Hinrich Schütze
- TLDR: 我们表明,在跨语言转移和多语言推理方面的一般随机和软推理表现优于微调。
- Vision Matters When It Should: Sanity Checking Multimodal Machine Translation Models
- Jiaoda Li, Duygu Ataman, Rico Sennrich
- TLDR: 我们提出了一个基于视觉的理论,研究了数据集的作用,并提出了方法来展示数据集的重要性。
- Efficient Inference for Multilingual Neural Machine Translation
- Alexandre Berard, Dain Lee, Stephane Clinchant, Kweonwoo Jung, Vassilina Nikoulina
- TLDR: 我们考虑了多语言NMT的质量,并提出了几种方法来加快多语言NMT的速度。
- Role of Language Relatedness in Multilingual Fine-tuning of Language Models: A Case Study in Indo-Aryan Languages
- Tejas Dhamecha, Rudra Murthy, Samarth Bharadwaj, Karthik Sankaranarayanan, Pushpak Bhattacharyya
- TLDR: 我们通过使用语言家族来进行多语言微调来衡量NLP模型的性能。
- Comparing Feature-Engineering and Feature-Learning Approaches for Multilingual Translationese Classification
- Daria Pylypenko, Kwabena Amponsah-Kaakyire, Koel Dutta Chowdhury, Josef van Genabith, Cristina España-Bonet
- TLDR: 我们使用预先训练好的神经结构来分析神经模型预测的特征重要性。
- Multi-Sentence Resampling: A Simple Approach to Alleviate Dataset Length Bias and Beam-Search Degradation
- Ivan Provilkov, Andrey Malinin
- TLDR: 我们提出了一种新的多节点压缩技术,用于在神经机器翻译中进行数据增量。
- Cross-Policy Compliance Detection via Question Answering
- Marzieh Saeidi, Majid Yazdani, Andreas Vlachos
- TLDR: 我们提出了一种通过将政策纳入问题回答来解决政策不遵守检测问题的方法。
- Meta-LMTC: Meta-Learning for Large-Scale Multi-Label Text Classification
- Ran Wang, Xi’ao Su, Siyu Long, Xinyu Dai, Shujian Huang, Jiajun Chen
- TLDR: 我们提出了一种用于LMTC的元学习方法,它可以提高BERTlike模型的性能。
- Unsupervised Multi-View Post-OCR Error Correction With Language Models
- Harsh Gupta, Luciano Del Corro, Samuel Broscheit, Johannes Hoffart, Eliot Brenner
- TLDR: 我们通过分析一个有监督的语言模型,从一个不同的OCR看中解决OCR错误。
- Parallel Refinements for Lexically Constrained Text Generation with BART
- Xingwei He
- TLDR: 我们提出了限制BART(CBART)用于词汇不限制的文本生成。
- BERT-Beta: A Proactive Probabilistic Approach to Text Moderation
- Fei Tan, Yifan Hu, Kevin Yen, Changwei Hu
- TLDR: 我们提出了一种用于文本中毒的新型的文本中毒机制,它可以作为文本的批评的替代方法。
- STaCK: Sentence Ordering with Temporal Commonsense Knowledge
- Deepanway Ghosal, Navonil Majumder, Rada Mihalcea, Soujanya Poria
- TLDR: 我们提出了一个用于句法顺序预测的图神经网络,它可以从图神经网络中学习时间常识知识,并利用它来解释句法顺序。
- Preventing Author Profiling through Zero-Shot Multilingual Back-Translation
- David Adelani, Miaoran Zhang, Xiaoyu Shen, Ali Davody, Thomas Kleinbauer, Dietrich Klakow
- TLDR: 我们提出了一种简单、零樣本的方法来有效地降低作者身份的依赖性,通过使用一个从网上翻译的模型来实现这种效果。
- CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code Understanding and Generation
- Yue Wang, Weishi Wang, Shafiq Joty, Steven C.H. Hoi
- TLDR: 我们提出了CodeT5,一个统一的预先训练好的编码器-解码器转换模型,可以更快地理解代码语义,同时可以利用代码的签名来生成更好的NL-PL alignment。
- Detect and Classify – Joint Span Detection and Classification for Health Outcomes
- Micheal Abaho, Danushka Bollegala, Paula Williamson, Susanna Dodd
- TLDR: 我们提出了一种用于诊断疾病的上下文标签检测和诊断疾病的主题分类方法。
- Multi-Class Grammatical Error Detection for Correction: A Tale of Two Systems
- Zheng Yuan, Shiva Taslimipoor, Christopher Davis, Christopher Bryant
- TLDR: 我们展示了使用GANs进行多类语义错误检索的语法错误的语法错误的改进。
- Towards Zero-shot Commonsense Reasoning with Self-supervised Refinement of Language Models
- Tassilo Klein, Moin Nabi
- TLDR: 我们提出了一种基于自我监督的自我监督的语言建模方法,用于零樣本的通用推理。
- To Share or not to Share: Predicting Sets of Sources for Model Transfer Learning
- Lukas Lange, Jannik Strötgen, Heike Adel, Dietrich Klakow
- TLDR: 我们提出了一种基于模型相似性和支持文本相似性的方法来预测出更好的来源。
- Self-Supervised Detection of Contextual Synonyms in a Multi-Class Setting: Phenotype Annotation Use Case
- Jingqing Zhang, Luis Bolanos Trujillo, Tong Li, Ashwani Tanwar, Guilherme Freire, Xian Yang, Julia Ive, Vibhor Gupta, Yike Guo
- TLDR: 我们提出了一种自我监督的预训练方法,可以检测出概念被训练的背景性 synonyms。
- ClauseRec: A Clause Recommendation Framework for AI-aided Contract Authoring
- Vinay Aggarwal, Aparna Garimella, Balaji Vasan Srinivasan, Anandhavelu N, Rajiv Jain
- TLDR: 我们提出了一个二阶的框架来从合同中提取最相关的条文类型,然后推荐最相关的条文类型。
- Finnish Dialect Identification: The Effect of Audio and Text
- Mika Hämäläinen, Khalid Alnajjar, Niko Partanen, Jack Rueter
- TLDR: 我们提出了第一个基于语言翻译和语音记录的自动检测语言的语言。
- English Machine Reading Comprehension Datasets: A Survey
- Daria Dzendzik, Jennifer Foster, Carl Vogel
- TLDR: 我们对60个英语机器阅读理解数据集进行了调查,以提供一个用于其他研究的资源。
- Expanding End-to-End Question Answering on Differentiable Knowledge Graphs with Intersection
- Priyanka Sen, Armin Oliya, Amir Saffari
- TLDR: 我们提出了一个模型,明确地解决多实体问题,并提出了一个新的交叉点操作,用于引入交叉点,以解决多实体问题。
- Structured Context and High-Coverage Grammar for Conversational Question Answering over Knowledge Graphs
- Pierre Marion, Pawel Nowak, Francesco Piccinno
- TLDR: 我们提出了一个用于知识图上的句法的语义解析方法,可以解决知识图上的句法问题,同时保留了可解释性,以便生成监督数据。
- Improving Question Answering Model Robustness with Synthetic Adversarial Data Generation
- Max Bartolo, Tristan Thrush, Robin Jia, Sebastian Riedel, Pontus Stenetorp, Douwe Kiela
- TLDR: 我们首次使用合成对抗性数据生成问题回答模型的穩定性,以解决问题回答模型的人类攻击。
- BeliefBank: Adding Memory to a Pre-Trained Language Model for a Systematic Notion of Belief
- Nora Kassner, Oyvind Tafjord, Hinrich Schütze, Peter Clark
- TLDR: 我们提出了一个用于PTLM的统一信念的理论,并表明,它可以提高PTLM的理论的一致性。
- MLEC-QA: A Chinese Multi-Choice Biomedical Question Answering Dataset
- Jing Li, Shangping Zhong, Kaizhi Chen
- TLDR: 我们提出了MLEC-QA,一个用于生物医学QA的大规模多选择生物医学QA数据集,收集来自医学许可证测试的调查结果。
- IndoNLG: Benchmark and Resources for Evaluating Indonesian Natural Language Generation
- Samuel Cahyawijaya, Genta Indra Winata, Bryan Wilie, Karissa Vincentio, Xiaohong Li, Adhiguna Kuncoro, Sebastian Ruder, Zhi Yuan Lim, Syafri Bahar, Masayu Khodra, Ayu Purwarianti, Pascale Fung
- TLDR: 我们提出了第一个用于低资源语言生成(NLG)的NLG基准,用于衡量NLG进展。
- Is Multi-Hop Reasoning Really Explainable? Towards Benchmarking Reasoning Interpretability
- Xin Lv, Yixin Cao, Lei Hou, Juanzi Li, Zhiyuan Liu, Yichi Zhang, Zelin Dai
- TLDR: 我们提出了一个统一的框架来评估多跳推理模型的可解释性,以加快其开发进展。
- Global Explainability of BERT-Based Evaluation Metrics by Disentangling along Linguistic Factors
- Marvin Kaster, Wei Zhao, Steffen Eger
- TLDR: 我们使用一个简单的回归来分析衡量标准的排名。
- Exploring Underexplored Limitations of Cross-Domain Text-to-SQL Generalization
- Yujian Gan, Xinyun Chen, Matthew Purver
- TLDR: 我们通过使用一个用于文本到SQL的通用数据集来衡量文本到SQL的穩定性。
- What happens if you treat ordinal ratings as interval data? Human evaluations in NLP are even more under-powered than you think
- David M. Howcroft, Verena Rieser
- TLDR: 我们表明,一般混合效应模型比一般的模型更强,特别是在高变异性设置中,当它们在某些变异性设置中表现得更小时。
- NeuTral Rewriter: A Rule-Based and Neural Approach to Automatic Rewriting into Gender Neutral Alternatives
- Eva Vanmassenhove, Chris Emmery, Dimitar Shterionov
- TLDR: 我们提出了一个基于规则的和一个基于神经的非性别化修改方法,用于英语的非性别化修改。
- Benchmarking Commonsense Knowledge Base Population with an Effective Evaluation Dataset
- Tianqing Fang, Weiqi Wang, Sehyun Choi, Shibo Hao, Hongming Zhang, Yangqiu Song, Bin He
- TLDR: 我们用一个用于预测未来行动图的图谱模型来衡量一个CSKB的样本。
- Enhancing the Context Representation in Similarity-based Word Sense Disambiguation
- Ming Wang, Jianzhang Zhang, Yinglin Wang
- TLDR: 我们研究了在句法上使用句法的上下文背景的贡献,并表明,用句法的背景背景嵌入可以提高一个类似性系统的表现。
- Data Augmentation with Hierarchical SQL-to-Question Generation for Cross-domain Text-to-SQL Parsing
- Kun Wu, Lijie Wang, Zhenghua Li, Ao Zhang, Xinyan Xiao, Hua Wu, Min Zhang, Haifeng Wang
- TLDR: 我们提出了一个简单的、有效的数据增强框架,可以显著提高数据的质量。
- SPARQLing Database Queries from Intermediate Question Decompositions
- Irina Saparina, Anton Osokin
- TLDR: 我们使用一个神经语义解析器来解决自然语言问题的中间表征。
- Time-aware Graph Neural Network for Entity Alignment between Temporal Knowledge Graphs
- Chengjin Xu, Fenglong Su, Jens Lehmann
- TLDR: 我们提出了一种基于GAN的时间感知的实体对齐方法,用于学习知识图上的实体表征。
- Cross-Domain Label-Adaptive Stance Detection
- Momchil Hardalov, Arnav Arora, Preslav Nakov, Isabelle Augenstein
- TLDR: 我们提出了一个用于跨域学习的非监督框架,用于从未见过的标签中预测非监督标签。
- Text AutoAugment: Learning Compositional Augmentation Policy for Text Classification
- Shuhuai Ren, Jinchao Zhang, Lei Li, Xu Sun, Jie Zhou
- TLDR: 我们提出了一个用于数据增强的框架,用于建立一个组成和学习可行的框架。
- Distilling Relation Embeddings from Pretrained Language Models
- Asahi Ushio, Jose Camacho-Collados, Steven Schockaert
- TLDR: 我们通过使用一个生成的 prompt来编码词对词的对应关系嵌入,以获得词嵌入的句法知识。
- Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning
- Prasetya Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych
- TLDR: 我们表明,在低数据环境下,通过将句法分开的句法表征纳入句法序列,可以实现少樣本的微调。
- A Differentiable Relaxation of Graph Segmentation and Alignment for AMR Parsing
- Chunchuan Lyu, Shay B. Cohen, Ivan Titov
- TLDR: 我们使用变异自动编码器来训练一个用于句法表征的GAN模型。
- Integrating Personalized PageRank into Neural Word Sense Disambiguation
- Ahmed El Sheikh, Michele Bevilacqua, Roberto Navigli
- TLDR: 我们通过使用一个在线的PageRank来改进一个分类模型。
- Cross-lingual Sentence Embedding using Multi-Task Learning
- Koustava Goswami, Sourav Dutta, Haytham Assem, Theodorus Fransen, John P. McCrae
- TLDR: 我们提出了一个基于一个非监督损失函数的多语句嵌入框架,用于生成有效的多语句嵌入。
- NB-MLM: Efficient Domain Adaptation of Masked Language Models for Sentiment Analysis
- Nikolay Arefyev, Dmitrii Kharchev, Artem Shelmanov
- TLDR: 我们提出了一种用于更高效的适应的算法,它只关注预测词,而不是最常的词。
- Revisiting Self-training for Few-shot Learning of Language Model
- Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li
- TLDR: 我们重新审视了自我训练方法,并提出了一个最先进的少樣本学习器,它可以从单个单词分类和单词分组中学习。
- Bridging Perception, Memory, and Inference through Semantic Relations
- Johanna Björklund, Adam Dahlgren Lindström, Frank Drewes
- TLDR: 我们提出了六种语言模型,它们可以联合起来实现语义关系。
- Unimodal and Crossmodal Refinement Network for Multimodal Sequence Fusion
- Xiaobao Guo, Adams Kong, Huan Zhou, Xianfeng Wang, Min Wang
- TLDR: 本文提出了一种用于多模态学习的新型多模态和跨模态建模方法。
- YASO: A Targeted Sentiment Analysis Evaluation Dataset for Open-Domain Reviews
- Matan Orbach, Orith Toledo-Ronen, Artem Spector, Ranit Aharonov, Yoav Katz, Noam Slonim
- TLDR: 我们提出了一个用于跨域用户评价的在线在线在线用户评价数据集。
- An Empirical Study on Leveraging Position Embeddings for Target-oriented Opinion Words Extraction
- Samuel Mensah, Kai Sun, Nikolaos Aletras
- TLDR: 我们使用一个图卷积网络(GCN)来增强句法信息,并使用一个图卷积网络(GCN)来整合句法信息。
- Improving Multimodal Fusion with Hierarchical Mutual Information Maximization for Multimodal Sentiment Analysis
- Wei Han, Hui Chen, Soujanya Poria
- TLDR: 我们提出了一个框架,用于多模态情感分析,它可以从一个单个输入中提取和处理多模态的原始数据集。
- BERT4GCN: Using BERT Intermediate Layers to Augment GCN for Aspect-based Sentiment Classification
- Zeguan Xiao, Jiarun Wu, Qingliang Chen, Congjian Deng
- TLDR: 我们提出了BERT4GCN,用于在语义顺序特征的基础上使用BERT来改进GCN。
- Does Social Pressure Drive Persuasion in Online Fora?
- Ayush Jain, Shashank Srivastava
- TLDR: 我们表明,社会情绪对讨论中的观点的回应是直接的,而批评者可以直接地或隐含地地对它进行批评。
- Aspect Sentiment Quad Prediction as Paraphrase Generation
- Wenxuan Zhang, Yang Deng, Xin Li, Yifei Yuan, Lidong Bing, Wai Lam
- TLDR: 我们提出了一种新的基于语义的情感分析方法,用于解决ASQP任务。
- Cross-lingual Aspect-based Sentiment Analysis with Aspect Term Code-Switching
- Wenxuan Zhang, Ruidan He, Haiyun Peng, Lidong Bing, Wai Lam
- TLDR: 我们提出了一种基于面部的情感分析的非监督跨语言转移方法,用于解决非监督跨语言转移中的非监督跨语言转移。
- Towards Label-Agnostic Emotion Embeddings
- Sven Buechel, Luise Modersohn, Udo Hahn
- TLDR: 我们提出了一种用于情感分析的训练方案,可以学习情感的潜在表征,无需对标签格式、自然语言和模型架构进行建模。
- Collaborative Learning of Bidirectional Decoders for Unsupervised Text Style Transfer
- Yun Ma, Yangbin Chen, Xudong Mao, Qing Li
- TLDR: 我们提出了一个合作学习框架,用于非监督文本风格转移。
- Exploring Non-Autoregressive Text Style Transfer
- Yun Ma, Qing Li
- TLDR: 我们通过直接从原先的自动回归(AR)中提取一个基于知识提炼的非逆向(NAR)编码器来解决非监督文本风格转移问题。
- PASTE: A Tagging-Free Decoding Framework Using Pointer Networks for Aspect Sentiment Triplet Extraction
- Rajdeep Mukherjee, Tapas Nayak, Yash Butala, Sourangshu Bhattacharya, Pawan Goyal
- TLDR: 我们提出了一种基于神经网络的随机抽样方法,用于从一个主题/观点之间提取 opinion triplets。
- Adaptive Proposal Generation Network for Temporal Sentence Localization in Videos
- Daizong Liu, Xiaoye Qu, Jianfeng Dong, Pan Zhou
- TLDR: 我们提出了一种用于视频的自适应计划生成网络(APGN),以保持视频中层次层次的互动,同时加快了效率。
- Progressively Guide to Attend: An Iterative Alignment Framework for Temporal Sentence Grounding
- Daizong Liu, Xiaoye Qu, Pan Zhou
- TLDR: 我们提出了一个迭代迭代的架构,用于TSG任务,它迭代迭代地互动在多个步骤中,以更好地理解视觉和语言特征之间的相互作用。
- Language Models are Few-Shot Butlers
- Vincent Micheli, Francois Fleuret
- TLDR: 我们提出了一个二步程序,通过通过与环境互动来学习从专家示范中获得的语言模型。
- Rˆ3Net:Relation-embedded Representation Reconstruction Network for Change Captioning
- Yunbin Tu, Liang Li, Chenggang Yan, Shengxiang Gao, Zhengtao Yu
- TLDR: 我们提出了一个关系嵌入的表征重建网络,用于明确地区分真实的变化和不相关的变化。
- Looking for Confirmations: An Effective and Human-Like Visual Dialogue Strategy
- Alberto Testoni, Raffaella Bernardi
- TLDR: 我们使用一个基于贝叶斯搜索的模型来生成对话,而不是简单的基于模型的反驳。
- A Unified Speaker Adaptation Approach for ASR
- Yingzhu Zhao, Chongjia Ni, Cheung-Chi Leung, Shafiq Joty, Eng Siong Chng, Bin Ma
- TLDR: 我们提出了一个统一的语音识别方法,用于特征适应和模型适应。
- Caption Enriched Samples for Improving Hateful Memes Detection
- Efrat Blaier, Itzik Malkiel, Lior Wolf
- TLDR: 我们提出了一个用于图像的非监督标签,用于捕捉第一个标签。
- Sparsity and Sentence Structure in Encoder-Decoder Attention of Summarization Systems
- Potsawee Manakul, Mark Gales
- TLDR: 我们提出了一种用于概括的神经网络的神经网络,它可以利用通过限制输入句法的注意力来解决概括任务。
- BARThez: a Skilled Pretrained French Sequence-to-Sequence Model
- Moussa Kamal Eddine, Antoine Tixier, Michalis Vazirgiannis
- TLDR: 我们使用BERT和BART来解决生成任务,并展示了BERT和BART在生成任务上的性能优于BERT。
- ARMAN: Pre-training with Semantically Selecting and Reordering of Sentences for Persian Abstractive Summarization
- Alireza Salemi, Emad Kebriaei, Ghazal Neisi Minaei, Azadeh Shakery
- TLDR: 我们提出了一种基于变换的编码器-解码器模型,用于概括文本的句法。
- Models and Datasets for Cross-Lingual Summarisation
- Laura Perez-Beltrachini, Mirella Lapata
- TLDR: 我们提出了一个跨语言总结的集,它包含了来自Wikipedia的多语句总结案例。
- Learning Opinion Summarizers by Selecting Informative Reviews
- Arthur Bražinskas, Mirella Lapata, Ivan Titov
- TLDR: 我们用一个简单的随机评价集选择批评的样本,然后用一个强大的总结器进行总结。
- Enriching and Controlling Global Semantics for Text Summarization
- Thong Nguyen, Anh Tuan Luu, Truc Lu, Tho Quan
- TLDR: 我们提出了一个用于总结的神经主题模型,它可以利用正規化流来捕捉全局语义,并将其应用于文本生成模块。
- Revisiting Tri-training of Dependency Parsers
- Joachim Wagner, Jennifer Foster
- TLDR: 我们使用一个基于VAE的GAN模型来比较半监督学习方法和一个基于VAE的GAN模型来解决依赖性解析任务。
- Bridge to Target Domain by Prototypical Contrastive Learning and Label Confusion: Re-explore Zero-Shot Learning for Slot Filling
- Liwen Wang, Xuefeng Li, Jiachi Liu, Keqing He, Yuanmeng Yan, Weiran Xu
- TLDR: 我们提出了一种基于实例对比学习的新方法,用于零樣本跨域的跨域取取取。
- Neuralizing Regular Expressions for Slot Filling
- Chengyue Jiang, Zijian Jin, Kewei Tu
- TLDR: 我们通过将正则表达转换为神经网络,以解决任意表征的充值任务。
- Causal Direction of Data Collection Matters: Implications of Causal and Anticausal Learning for NLP
- Zhijing Jin, Julius von Kügelgen, Jingwei Ni, Tejas Vaidhya, Ayush Kaushal, Mrinmaya Sachan, Bernhard Schoelkopf
- TLDR: 我们首次提出了一个用于NLP的独立因果机制的理论,并表明,该理论在理论上与我们期望的相反的结果相反。
- Raise a Child in Large Language Model: Towards Effective and Generalizable Fine-tuning
- Runxin Xu, Fuli Luo, Zhiyuan Zhang, Chuanqi Tan, Baobao Chang, Songfang Huang, Fei Huang
- TLDR: 我们提出了一个简单的、通用的、快速的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的
- Knowledge Graph Representation Learning using Ordinary Differential Equations
- Mojtaba Nayyeri, Chengjin Xu, Franca Hoffmann, Mirza Mohtashim Alam, Jens Lehmann, Sahar Vahdati
- TLDR: 我们提出了一个神经差异的KG,它通过将知识图嵌入到知识图上,从知识图上抽象出知识图上的联系。
- KnowMAN: Weakly Supervised Multinomial Adversarial Networks
- Luisa März, Ehsaneddin Asgari, Fabienne Braune, Franziska Zimmermann, Benjamin Roth
- TLDR: 我们提出了 KnowMAN,一个对抗性方案,可以控制信号对特定标签函数的作用,以学习表示的对信号的不变性。
- ONION: A Simple and Effective Defense Against Textual Backdoor Attacks
- Fanchao Qi, Yangyi Chen, Mukai Li, Yuan Yao, Zhiyuan Liu, Maosong Sun
- TLDR: 我们提出了一个简单的文本后门防御,它可以解决所有文本后门攻击。
- Value-aware Approximate Attention
- Ankit Gupta, Jonathan Berant
- TLDR: 我们提出了一个价值感知的目标,并表明一个价值感知的目标比一个价值感知的目标更优。
- Contrastive Domain Adaptation for Question Answering using Limited Text Corpora
- Zhenrui Yue, Bernhard Kratzwald, Stefan Feuerriegel
- TLDR: 我们提出了一种用于QA的RL框架,它结合了问题生成和领域不变学习。
- Case-based Reasoning for Natural Language Queries over Knowledge Bases
- Rajarshi Das, Manzil Zaheer, Dung Thai, Ameya Godbole, Ethan Perez, Jay Yoon Lee, Lizhen Tan, Lazaros Polymenakos, Andrew McCallum
- TLDR: 我们提出了一种神经符号CBR方法,用于知识库上的问题回答。
- Distantly-Supervised Dense Retrieval Enables Open-Domain Question Answering without Evidence Annotation
- Chen Zhao, Chenyan Xiong, Jordan Boyd-Graber, Hal Daumé III
- TLDR: 我们提出了一种新的方法,通过对现有的模型进行迭代发现,以提高性能。
- What’s in a Name? Answer Equivalence For Open-Domain Question Answering
- Chenglei Si, Chen Zhao, Jordan Boyd-Graber
- TLDR: 我们提出了一种基于知识库的QA评估方法,该方法使用额外的回答来改进QA评估。
- Evaluation Paradigms in Question Answering
- Pedro Rodriguez, Jordan Boyd-Graber
- TLDR: 本文提出了QA的理论和实践价值,并表明,通过更好地理解QA,研究者,在QA中学习的理论和实践价值。
- Numerical reasoning in machine reading comprehension tasks: are we there yet?
- Hadeel Al-Negheimish, Pranava Madhyastha, Alessandra Russo
- TLDR: 我们提出了一个控制的分析,表明,在DROP上,大多数的模型在没有标准衡量标准的情况下取得了接近人类的性能。
- Set Generation Networks for End-to-End Knowledge Base Population
- Dianbo Sui, Chenhao Wang, Yubo Chen, Kang Liu, Jun Zhao, Wei Bi
- TLDR: 我们提出了一个用于知识库人群的端到端的KBP网络,它可以直接生成一个端的事实,同时保留预测的顺序。
- Knowing False Negatives: An Adversarial Training Method for Distantly Supervised Relation Extraction
- Kailong Hao, Botao Yu, Wei Hu
- TLDR: 我们提出了一种基于记忆的RL方法,它可以从不标注的样本中学习FN样本。
- Progressive Adversarial Learning for Bootstrapping: A Case Study on Entity Set Expansion
- Lingyong Yan, Xianpei Han, Le Sun
- TLDR: 我们提出了BootstrapGAN,一种新的GAN框架,用于在GAN框架内进行首次成功的GAN迭代迭代迭代。
- Uncovering Main Causalities for Long-tailed Information Extraction
- Guoshun Nan, Jiaqi Zeng, Rui Qiao, Zhijiang Guo, Wei Lu
- TLDR: 我们提出了反事实 IE(CFIE),一个用于解释因果推理的框架,旨在揭示数据中的重要因果效应。
- Maximal Clique Based Non-Autoregressive Open Information Extraction
- Bowen Yu, Yucheng Wang, Tingwen Liu, Hongsong Zhu, Limin Sun, Bin Wang
- TLDR: 我们提出了MacroIE,一个新颖的非监督的OpenIE框架,它可以被用来学习一个图上表示的事实图,并使用它来解决图上表示的事实图的非监督问题。
- A Relation-Oriented Clustering Method for Open Relation Extraction
- Jun Zhao, Tao Gui, Qi Zhang, Yaqian Zhou
- TLDR: 我们提出了一种基于关系的非监督关系发现方法,它可以从不标注的数据中学习到关系性表征。
- Exploring Methods for Generating Feedback Comments for Writing Learning
- Kazuaki Hanawa, Ryo Nagata, Kentaro Inui
- TLDR: 我们研究了用于表达句法使用反馈的多方法。
- A Role-Selected Sharing Network for Joint Machine-Human Chatting Handoff and Service Satisfaction Analysis
- Jiawei Liu, Kaisong Song, Yangyang Kang, Guoxiu He, Zhuoren Jiang, Changlong Sun, Wei Lu, Xiaozhong Liu
- TLDR: 我们提出了一个新颖的多任务学习框架,它整合了对话满意估计和手推预测,用于多任务学习。
- Meta Distant Transfer Learning for Pre-trained Language Models
- Chengyu Wang, Haojie Pan, Minghui Qiu, Jun Huang, Fei Yang, Yin Zhang
- TLDR: 我们提出了一种用于PLM的跨任务转移学习方法,用于学习跨任务知识。
- UniKER: A Unified Framework for Combining Embedding and Definite Horn Rule Reasoning for Knowledge Graph Inference
- Kewei Cheng, Ziqing Yang, Ming Zhang, Yizhou Sun
- TLDR: 我们提出了一个新颖的框架,通过限制逻辑规则的定义,可以完全利用逻辑规则的知识,同时具有理论知识和知识图嵌入的相互作用。
- Wasserstein Selective Transfer Learning for Cross-domain Text Mining
- Lingyun Feng, Minghui Qiu, Yaliang Li, Haitao Zheng, Ying Shen
- TLDR: 我们提出了一种基于Wasserstein的转移学习方法,该方法使用一个强化者来选择好数据集,以提高数据丰富的目标领域学习。
- Jointly Learning to Repair Code and Generate Commit Message
- Jiaqi Bai, Long Zhou, Ambrosio Blanco, Shujie Liu, Furu Wei, Ming Zhou, Zhoujun Li
- TLDR: 我们提出了一个新颖的任务,用于修复程序代码和生成签名信息。
- Inflate and Shrink:Enriching and Reducing Interactions for Fast Text-Image Retrieval
- Haoliang Liu, Tan Yu, Ping Li
- TLDR: 我们提出了一种通过使用一个压缩的代码来加速跨模式的追踪,以提高效率和准确性的方法。
- On Pursuit of Designing Multi-modal Transformer for Video Grounding
- Meng Cao, Long Chen, Mike Zheng Shou, Can Zhang, Yuexian Zou
- TLDR: 我们提出了一种用于视频建模的端到端多模变换模型,它可以从视频中学习一个句法查询的句法。
- COVR: A Test-Bed for Visually Grounded Compositional Generalization with Real Images
- Ben Bogin, Shivanshu Gupta, Matt Gardner, Jonathan Berant
- TLDR: 我们提出了COVR,一个用于视觉上导向的构成性泛化的新测试空间。
- Vision-and-Language or Vision-for-Language? On Cross-Modal Influence in Multimodal Transformers
- Stella Frank, Emanuele Bugliarello, Desmond Elliott
- TLDR: 我们提出了一种基于跨模式输入 ablation的诊断方法,用于评估跨模式的神经网络在跨模式信息的集成方面的表现。
- HypMix: Hyperbolic Interpolative Data Augmentation
- Ramit Sawhney, Megh Thakkar, Shivam Agarwal, Di Jin, Diyi Yang, Lucie Flek
- TLDR: 我们提出了HypMix,一个用于数据增量的新模型、数据和方法,在超凸空间表现得更好。
- Integrating Deep Event-Level and Script-Level Information for Script Event Prediction
- Long Bai, Saiping Guan, Jiafeng Guo, Zixuan Li, Xiaolong Jin, Xueqi Cheng
- TLDR: 我们提出了一种基于变体的模型,用于用句法和事件级信息进行句法事件预测。
- QA-Align: Representing Cross-Text Content Overlap by Aligning Question-Answer Propositions
- Daniela Brook Weiss, Paul Roit, Ayal Klein, Ori Ernst, Ido Dagan
- TLDR: 我们提出了一个基于QA的跨文本alignment模型,用于描述信息过剩的句法关系。
- PICARD: Parsing Incrementally for Constrained Auto-Regressive Decoding from Language Models
- Torsten Scholak, Nathan Schucher, Dzmitry Bahdanau
- TLDR: 我们提出了一种用于文本数据的自动编码器,它可以从文本中自动编码出可信的句法。
- Exploiting Twitter as Source of Large Corpora of Weakly Similar Pairs for Semantic Sentence Embeddings
- Marco Di Giovanni, Marco Brambilla
- TLDR: 我们提出了一种基于语言的独立的方法,利用Twitter的内在的表达和引用信号来生成句法嵌入。
- Guilt by Association: Emotion Intensities in Lexical Representations
- Shahab Raji, Gerard de Melo
- TLDR: 我们表明,语言模型可以作为情感标签,用于解释词的情感强度。
- Using Sociolinguistic Variables to Reveal Changing Attitudes Towards Sexuality and Gender
- Sky CH-Wang, David Jurgens
- TLDR: 我们使用神经网络来研究语言选择,以观察社会性态度变化。
- Identifying Morality Frames in Political Tweets using Relational Learning
- Shamik Roy, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: 我们提出了一个关系学习模型,用于预测实体和道德基础之间的感性态度。
- Measuring Sentence-Level and Aspect-Level (Un)certainty in Science Communications
- Jiaxin Pei, David Jurgens
- TLDR: 我们提出了一个新的理论,通过对科学发现的准确性进行理论建模,可以预测出与论文目标相关的准确性。
- Assessing the Reliability of Word Embedding Gender Bias Measures
- Yupei Du, Qixiang Fang, Dong Nguyen
- TLDR: 我们评估了使用词嵌入的性偏差的可信性,并分析了这些可信性衡量标准的可信性。
- Rumor Detection on Twitter with Claim-Guided Hierarchical Graph Attention Networks
- Hongzhan Lin, Jing Ma, Mingfei Cheng, Zhiwei Yang, Liangliang Chen, Guang Chen
- TLDR: 我们提出了一个基于层次化的关注网络来捕捉谣言。
- Learning Bill Similarity with Annotated and Augmented Corpora of Bills
- Jiseon Kim, Elden Griggs, In Song Kim, Alice Oh
- TLDR: 我们提出了一个用于法律文件的5级分类任务,与立法过程类似,并展示了其在法律文件的分类方面的表现。
- SWEAT: Scoring Polarization of Topics across Different Corpora
- Federico Bianchi, Marco Marelli, Paolo Nicoli, Matteo Palmonari
- TLDR: 我们提出了一种新的统计方法,用于计算主题词汇的相对偏差。
- “So You Think You’re Funny?”: Rating the Humour Quotient in Standup Comedy
- Anirudh Mittal, Pranav Jeevan P, Prerak Gandhi, Diptesh Kanojia, Pushpak Bhattacharyya
- TLDR: 我们使用一个基于演示的多语义幽默标签的数据集来衡量幽默quotient。
- “Was it “stated” or was it “claimed”?: How linguistic bias affects generative language models
- Roma Patel, Ellie Pavlick
- TLDR: 使用语言的概括性,以表达自己的信念。
- PAUSE: Positive and Annealed Unlabeled Sentence Embedding
- Lele Cao, Emil Larsson, Vilhelm von Ehrenheim, Dhiana Deva Cavalcanti Rocha, Anna Martin, Sonja Horn
- TLDR: 我们提出了一种用于NLP的通用和端到端的非标注句子嵌入方法。
- A Simple Geometric Method for Cross-Lingual Linguistic Transformations with Pre-trained Autoencoders
- Maarten De Raedt, Fréderic Godin, Pieter Buteneers, Chris Develder, Thomas Demeester
- TLDR: 我们通过使用一个预先训练好的多语种自动编码器来学习句法编码器,无需任何修改。
- An Information-Theoretic Characterization of Morphological Fusion
- Neil Rathi, Michael Hahn, Richard Futrell
- TLDR: 我们提出了一种信息论衡量标准,用于衡量语言的特征在其表面形式上的动态性。
- The Effect of Efficient Messaging and Input Variability on Neural-Agent Iterated Language Learning
- Yuchen Lian, Arianna Bisazza, Tessa Verhoef
- TLDR: 我们表明,在语言学习中,神经元倾向于保持句法分布,而不是开发一个更好的句法。
- On Classifying whether Two Texts are on the Same Side of an Argument
- Erik Körner, Gregor Wiedemann, Ahmad Dawar Hakimi, Gerhard Heyer, Martin Potthast
- TLDR: 我们对本文进行了深入的评估和错误分析,并表明,在本文中,我们表明,在本文中,我们取得了最先进的结果,但我们的模型在理论上和实践上都失败了。
- Chinese Opinion Role Labeling with Corpus Translation: A Pivot Study
- Ranran Zhen, Rui Wang, Guohong Fu, Chengguo Lv, Meishan Zhang
- TLDR: 我们提出了第一个用于多语言ORL的中文ORL,并表明它可以用于解决多语言转移问题。
- MassiveSumm: a very large-scale, very multilingual, news summarisation dataset
- Daniel Varab, Natalie Schluter
- TLDR: 我们展示了如何从低资源的语言环境中获得资源,以实现高效的自动总结。
- AUTOSUMM: Automatic Model Creation for Text Summarization
- Sharmila Reddy Nangi, Atharv Tyagi, Jay Mundra, Sagnik Mukherjee, Raj Snehal, Niyati Chhaya, Aparna Garimella
- TLDR: 我们提出了一种用于文本生成的深度学习模型的自动生成方法,用于生成具有可解释性和抽象性的文本总结。
- Investigating the Helpfulness of Word-Level Quality Estimation for Post-Editing Machine Translation Output
- Raksha Shenoy, Nico Herbig, Antonio Krüger, Josef van Genabith
- TLDR: 我们提出了一个用于基于模型的词级质量估计的标准,并表明,目前的词级质量估计模型不足以支持完全自动翻译。
- UNKs Everywhere: Adapting Multilingual Language Models to New Scripts
- Jonas Pfeiffer, Ivan Vulić, Iryna Gurevych, Sebastian Ruder
- TLDR: 我们提出了一种用于低资源语言和未见过的语言的适应方法。
- Neural Machine Translation Quality and Post-Editing Performance
- Vilém Zouhar, Martin Popel, Ondřej Bojar, Aleš Tamchyna
- TLDR: 我们通过一个实验研究的样本,通过使用NLP来改进NLP,从NLP中得到更好的NLP。
- XTREME-R: Towards More Challenging and Nuanced Multilingual Evaluation
- Sebastian Ruder, Noah Constant, Jan Botha, Aditya Siddhant, Orhan Firat, Jinlan Fu, Pengfei Liu, Junjie Hu, Dan Garrette, Graham Neubig, Melvin Johnson
- TLDR: 我们提出了一个用于多语言跨语言转移学习的在线在线在线学习框架。
- Contrastive Conditioning for Assessing Disambiguation in MT: A Case Study of Distilled Bias
- Jannis Vamvas, Rico Sennrich
- TLDR: 我们提出了一种用于检测句法不一致性的方法,该方法使用了对比性条件,以衡量句法的质量。
- Measuring Association Between Labels and Free-Text Rationales
- Sarah Wiegreffe, Ana Marasović, Noah A. Smith
- TLDR: 我们表明,基于模型的信心性解释与标签和rationes的联系是至关重要的。
- Discretized Integrated Gradients for Explaining Language Models
- Soumya Sanyal, Xiang Ren
- TLDR: 我们提出了一种基于基于贡献的解释算法,它允许在非线性交叉路上有效获得解释。
- Putting Words in BERT’s Mouth: Navigating Contextualized Vector Spaces with Pseudowords
- Taelin Karidi, Yichu Zhou, Nathan Schneider, Omri Abend, Vivek Srikumar
- TLDR: 我们提出了一种用于探索BERT空间的理论,用于研究词语对词语的正则性。
- Rationales for Sequential Predictions
- Keyon Vafa, Yuntian Deng, David Blei, Alexander Rush
- TLDR: 我们提出了一种高效的随机性偏见方法,用于在不完全可解释的上下文中进行预测。
- FastIF: Scalable Influence Functions for Efficient Model Interpretation and Debugging
- Han Guo, Nazneen Rajani, Peter Hase, Mohit Bansal, Caiming Xiong
- TLDR: 我们提出了 FastIF,一个简单的修改,提高了影响函数的运行时间。
- Studying word order through iterative shuffling
- Nikolay Malkin, Sameera Lanka, Pranav Goel, Nebojsa Jojic
- TLDR: 我们通过迭代跳跃来推断句法的顺序,从句法中寻找句法的最优排列。
- Distantly-Supervised Named Entity Recognition with Noise-Robust Learning and Language Model Augmented Self-Training
- Yu Meng, Yunyi Zhang, Jiaxin Huang, Xuan Wang, Yu Zhang, Heng Ji, Jiawei Han
- TLDR: 我们提出了一种用于在距离可标注数据上训练NER模型的自上而下的学习方法。
- Open Knowledge Graphs Canonicalization using Variational Autoencoders
- Sarthak Dash, Gaetano Rossiello, Nandana Mihindukulasooriya, Sugato Bagchi, Alfio Gliozzo
- TLDR: 我们提出了一种用于学习词句和关系句法的组合方法,该方法通过使用变异自动编码器和前向信息(CUVA)来学习词句和关系句法的嵌入和聚类。
- HittER: Hierarchical Transformers for Knowledge Graph Embeddings
- Sanxing Chen, Xiaodong Liu, Jianfeng Gao, Jian Jiao, Ruofei Zhang, Yangfeng Ji
- TLDR: 我们提出了HITT,一个层次分解模型,用于学习实体关系结构和关系背景的归纳。
- Few-Shot Named Entity Recognition: An Empirical Baseline Study
- Jiaxin Huang, Chunyuan Li, Krishan Subudhi, Damien Jose, Shobana Balakrishnan, Weizhu Chen, Baolin Peng, Jianfeng Gao, Jiawei Han
- TLDR: 我们提出了一个基于Transformer的非监督的NER系统,在少樣本学习环境中使用GANs,以提高模型概括能力。
- XLEnt: Mining a Large Cross-lingual Entity Dataset with Lexical-Semantic-Phonetic Word Alignment
- Ahmed El-Kishky, Adithya Renduchintala, James Cross, Francisco Guzmán, Philipp Koehn
- TLDR: 我们提出了LSP-Align,一种用于多语言NLP的跨语言词典的自动生成方法。
- Utilizing Relative Event Time to Enhance Event-Event Temporal Relation Extraction
- Haoyang Wen, Heng Ji
- TLDR: 我们提出了一个用于事件-事件时间关系分类的联合模型和一个辅助任务,以预测事件时间的实值。
- Separating Retention from Extraction in the Evaluation of End-to-end Relation Extraction
- Bruno Taillé, Vincent Guigue, Geoffrey Scoutheeten, Patrick Gallinari
- TLDR: 我们表明,在一般RL中,一般RL模型的随机性倾向于过度关注随机性,而RL中随机性倾向于过度关注随机性。
- Automatic Text Evaluation through the Lens of Wasserstein Barycenters
- Pierre Colombo, Guillaume Staerman, Chloé Clavel, Pablo Piantanida
- TLDR: 基于深度 contextualized嵌入的文本生成的衡量标准。
- Visually Grounded Reasoning across Languages and Cultures
- Fangyu Liu, Emanuele Bugliarello, Edoardo Maria Ponti, Siva Reddy, Nigel Collier, Desmond Elliott
- TLDR: 我们提出了一种新的多语言和多语言网络架构,用于多语言和多语言的理解。
- Back to Square One: Artifact Detection, Training and Commonsense Disentanglement in the Winograd Schema
- Yanai Elazar, Hongming Zhang, Yoav Goldberg, Dan Roth
- TLDR: 我们表明,在没有监督的情况下,在WS中的表现并不代表了实际的进展。
- Robustness Evaluation of Entity Disambiguation Using Prior Probes: the Case of Entity Overshadowing
- Vera Provatorova, Samarth Bhargav, Svitlana Vakulenko, Evangelos Kanoulas
- TLDR: 我们介绍了ShadowLink数据集,用于评估和评价流行的EL系统在EL上的表现。
- IndoNLI: A Natural Language Inference Dataset for Indonesian
- Rahmad Mahendra, Alham Fikri Aji, Samuel Louvan, Fahrurrozi Rahman, Clara Vania
- TLDR: 我们提出了第一个用于IndonesiaNLI的人类直接的NLI数据集,用于学习语言的语言模型。
- Agreeing to Disagree: Annotating Offensive Language Datasets with Annotators’ Disagreement
- Elisa Leonardelli, Stefano Menini, Alessio Palmero Aprosio, Marco Guerini, Sara Tonelli
- TLDR: 我们表明,在批评性语言分类器中,批评者之间的分歧是由于不一致的批评,而不是批评者的质量。
- A Root of a Problem: Optimizing Single-Root Dependency Parsing
- Miloš Stanojević, Shay B. Cohen
- TLDR: 我们使用一个基于推理图的依赖性解析器来解决单个元依赖性解析。
- Efficient Sampling of Dependency Structure
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: 我们使用一个基于梯度的图的抽样算法来采样梯度树。
- Reducing Discontinuous to Continuous Parsing with Pointer Network Reordering
- Daniel Fernández-González, Carlos Gómez-Rodríguez
- TLDR: 我们提出了一种基于连续的随机生成的随机生成方法,可以直接解决连续问题。
- A New Representation for Span-based CCG Parsing
- Yoshihide Kato, Shigeki Matsubara
- TLDR: 本文提出了一个新的CCG derivations的表示,该表示是树杈,它们被标注为限制的分类标准。
- What to Pre-Train on? Efficient Intermediate Task Selection
- Clifton Poth, Jonas Pfeiffer, Andreas Rücklé, Iryna Gurevych
- TLDR: 我们提出了一种用于高效识别和转移学习的高效方法,并展示了其在所有目标任务中的表现。
- PermuteFormer: Efficient Relative Position Encoding for Long Sequences
- Peng Chen
- TLDR: 我们提出了PermuteFormer,一个基于权重编码的模型,它可以从简单的Transformer中得到更好的结果。
- Block Pruning For Faster Transformers
- François Lagunas, Ella Charlaix, Victor Sanh, Alexander Rush
- TLDR: 我们提出了一种用于快速生成的Block pruning方法,该方法可以从简单的修剪中学习修剪,以提高模型的准确性。
- Finetuning Pretrained Transformers into RNNs
- Jungo Kasai, Hao Peng, Yizhe Zhang, Dani Yogatama, Gabriel Ilharco, Nikolaos Pappas, Yi Mao, Weizhu Chen, Noah A. Smith
- TLDR: 我们提出了一种通过换换注意力来提高推理效率的方法,而不是从头训练到尾训练。
- How to Train BERT with an Academic Budget
- Peter Izsak, Moshe Berchansky, Omer Levy
- TLDR: 我们提出了一个用于RLP的简单训练方法,用于训练一个具有可逆性和可逆性特征的语言模型。
- Beyond Preserved Accuracy: Evaluating Loyalty and Robustness of BERT Compression
- Canwen Xu, Wangchunshu Zhou, Tao Ge, Ke Xu, Julian McAuley, Furu Wei
- TLDR: 我们提出了一个用于衡量学习者的信賴性和概率忠诚度的新指标。
- IndoBERTweet: A Pretrained Language Model for Indonesian Twitter with Effective Domain-Specific Vocabulary Initialization
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: 我们提出了一个用于IndonesianTwitter的BERT模型,该模型通过扩展一个单语的IndonesianBERT模型来适应词汇不匹配。
- Pushing on Text Readability Assessment: A Transformer Meets Handcrafted Linguistic Features
- Bruce W. Lee, Yoo Sung Jang, Jason Lee
- TLDR: 我们提出了一个时间上一致的证据,即通过使用手绘特征结合传统ML模型和变换器来提高可解释性评估的准确性。
- Types of Out-of-Distribution Texts and How to Detect Them
- Udit Arora, William Huang, He He
- TLDR: 我们表明,在不偏见情况下,可检测出与其他方法相反的例子。
- Self-training with Few-shot Rationalization
- Meghana Moorthy Bhat, Alessandro Sordoni, Subhabrata Mukherjee
- TLDR: 我们提出了一个基于自我训练的语言模型的多任务教师-学生框架,用于学习从知识性例子中学习的正则理由。
- MTAdam: Automatic Balancing of Multiple Training Loss Terms
- Itzik Malkiel, Lior Wolf
- TLDR: 我们使用多维Adam优化算法来处理多种损失项。
- Softmax Tree: An Accurate, Fast Classifier When the Number of Classes Is Large
- Arman Zharmagambetov, Magzhan Gabidolla, Miguel A. Carreira-Perpinan
- TLDR: 我们提出了一种基于树杈的神经网络的模型,它可以更快地推断出一个softmax树,而另一个树杈则更快地推断出一个软max树。
- Improving Distantly-Supervised Named Entity Recognition with Self-Collaborative Denoising Learning
- Xinghua Zhang, Bowen Yu, Tingwen Liu, Zhenyu Zhang, Jiawei Sheng, Xue Mengge, Hongbo Xu
- TLDR: 我们提出了一个用于学习自私的标签提炼的穩定学习方法,它结合了教师-学生网络,以实现对标签噪音的统一回应。
- Multivalent Entailment Graphs for Question Answering
- Nick McKenna, Liane Guillou, Mohammad Javad Hosseini, Sander Bijl de Vroe, Mark Johnson, Mark Steedman
- TLDR: 我们表明,在不同的 valencies,如DEFEAT(Biden, Trump)等价的词汇,用一个非监督的多依赖的样本进行推理是更好的。
- Is Everything in Order? A Simple Way to Order Sentences
- Somnath Basu Roy Chowdhury, Faeze Brahman, Snigdha Chaturvedi
- TLDR: 我们提出了Reorder-BART(Re-BART),用于处理句法顺序的句法顺序。
- VeeAlign: Multifaceted Context Representation Using Dual Attention for Ontology Alignment
- Vivek Iyer, Arvind Agarwal, Harshit Kumar
- TLDR: 我们提出了VeeAlign,一个基于深度学习的模型,使用一个新颖的双关注机制来 compute一个概念,它在反向向向上使用一个概念,以发现其对应关系。
- Finding needles in a haystack: Sampling Structurally-diverse Training Sets from Synthetic Data for Compositional Generalization
- Inbar Oren, Jonathan Herzig, Jonathan Berant
- TLDR: 我们通过使用一个小的训练集和一个完整的例子来进行语义解析,从结构上学习新的例子。
- GeneSis: A Generative Approach to Substitutes in Context
- Caterina Lacerra, Rocco Tripodi, Roberto Navigli
- TLDR: 我们提出了GeneSis,用于生成句法替换的第一个生成方法。
- Semi-Supervised Exaggeration Detection of Health Science Press Releases
- Dustin Wright, Isabelle Augenstein
- TLDR: 我们提出了一个正式的论证和研究,以解决科学新闻中用偏见掩蔽事实的虚假报道问题。
- Phrase-BERT: Improved Phrase Embeddings from BERT with an Application to Corpus Exploration
- Shufan Wang, Laure Thompson, Mohit Iyyer
- TLDR: 我们提出了一个对比性微调目标,用于使用BERT生成更强大的句法嵌入。
- Detecting Contact-Induced Semantic Shifts: What Can Embedding-Based Methods Do in Practice?
- Filip Miletic, Anne Przewozny-Desriaux, Ludovic Tanguy
- TLDR: 我们通过使用符号级嵌入来检测语言接触引起的语义变换,以实现语义转移的理论性意义。