ACL 2022 in Chinese
TLDRs
- AdapLeR: Speeding up Inference by Adaptive Length Reduction
- Ali Modarressi, Hosein Mohebbi, Mohammad Taher Pilehvar
- TLDR: 我们提出了一种用于BERT的高效方法,该方法通过层间减少参与的节点的数量,以减少BERT的计算成本。
- Quantified Reproducibility Assessment of NLP Results
- Anya Belz, Maja Popovic, Simon Mille
- TLDR: 我们提出了一种用于QRA的量化可信性评估方法,该方法基于概念和定义,并使用了测量和标准来衡量其可信性。
- Rare Tokens Degenerate All Tokens: Improving Neural Text Generation via Adaptive Gradient Gating for Rare Token Embeddings
- Sangwon Yu, Jongyoon Song, Heeseung Kim, Seongmin Lee, Woo-Jong Ryu, Sungroh Yoon
- TLDR: 我们提出了一种用于稀释符嵌入的自适应梯度方法,该方法解决了稀释符嵌入的生成问题。
- AlephBERT: Language Model Pre-training and Evaluation from Sub-Word to Sentence Level
- Amit Seker, Elron Bandel, Dan Bareket, Idan Brusilovsky, Refael Greenfeld, Reut Tsarfaty
- TLDR: 我们提出了AlephBERT,一个用于Hebrew的PLM,在Hebrew语法上训练了更大的词汇和更大的数据集。
- Learning to Imagine: Integrating Counterfactual Thinking in Neural Discrete Reasoning
- Moxin Li, Fuli Feng, Hanwang Zhang, Xiangnan He, Fengbin Zhu, Tat-Seng Chua
- TLDR: 我们提出了一个学习到想象(L2I)模块,它可以被无缝地纳入到NDR模型中来进行非事实的推理。
- Domain Adaptation in Multilingual and Multi-Domain Monolingual Settings for Complex Word Identification
- George-Eduard Zaharia, Răzvan-Alexandru Smădu, Dumitru Cercel, Mihai Dascalu
- TLDR: 我们提出了一种新的训练方法,用于CWI任务的领域适应,以提高目标的字符和背景表征的表示。
- JointCL: A Joint Contrastive Learning Framework for Zero-Shot Stance Detection
- Bin Liang, Qinglin Zhu, Xiang Li, Min Yang, Lin Gui, Yulan He, Ruifeng Xu
- TLDR: 我们提出了一个联合对抗学习(JointCL)框架,用于在推理阶段检测未见过的目标。
- [CASPI] Causal-aware Safe Policy Improvement for Task-oriented Dialogue
- Govardana Sachithanandam Ramachandran, Kazuma Hashimoto, Caiming Xiong
- TLDR: 我们提出了一个用于ToD政策学习的批量-RL框架,用于解决端到端对话任务的多任务强化学习。
- UniTranSeR: A Unified Transformer Semantic Representation Framework for Multimodal Task-Oriented Dialog System
- Zhiyuan Ma, Jianjun Li, Guohui Li, Yongjing Cheng
- TLDR: 我们提出了UniTranSeR,这是一个统一的Transformer语义表示框架,用于多模态对话系统。
- Dynamic Schema Graph Fusion Network for Multi-Domain Dialogue State Tracking
- Yue Feng, Aldo Lipani, Fanghua Ye, Qiang Zhang, Emine Yilmaz
- TLDR: 我们提出了一种新的方法,用于在不熟悉的领域中进行状态追踪。
- Attention Temperature Matters in Abstractive Summarization Distillation
- Shengqiang Zhang, Xingxing Zhang, Hangbo Bao, Furu Wei
- TLDR: 我们提出了一种用于深度学习的非标记方法,它可以提高以前的模型的模型,以更快的方式推断出模型的模型。
- Towards Making the Most of Cross-Lingual Transfer for Zero-Shot Neural Machine Translation
- Guanhua Chen, Shuming Ma, Yun Chen, Dongdong Zhang, Jia Pan, Wenping Wang, Furu Wei
- TLDR: 我们提出了六种多语言NMT模型,它们在没有监督的情况下进行了大规模的多语言训练。
- TopWORDS-Seg: Simultaneous Text Segmentation and Word Discovery for Open-Domain Chinese Texts via Bayesian Inference
- Changzai Pan, Maosong Sun, Ke Deng
- TLDR: 本文提出了一种新的基于贝叶斯推理的算法,用于在开放领域进行文本分离和词发现。
- An Unsupervised Multiple-Task and Multiple-Teacher Model for Cross-lingual Named Entity Recognition
- Zhuoran Li, Chunming Hu, Xiaohui Guo, Junfan Chen, Wenyi Qin, Richong Zhang
- TLDR: 我们提出了一个用于跨语言身份识别的类似性指标模型,用于提高跨语言NER的跨语言身份识别性能。
- Discriminative Marginalized Probabilistic Neural Method for Multi-Document Summarization of Medical Literature
- Gianluca Moro, Luca Ragazzi, Lorenzo Valgimigli, Davide Freddi
- TLDR: 我们提出了一种基于变换的多文件总结方法,用于临床医学领域的多文件总结。
- Sparse Progressive Distillation: Resolving Overfitting under Pretrain-and-Finetune Paradigm
- Shaoyi Huang, Dongkuan Xu, Ian Yen, Yijue Wang, Sung-En Chang, Bingbing Li, Shiyang Chen, Mimi Xie, Sanguthevar Rajasekaran, Hang Liu, Caiwen Ding
- TLDR: 我们首次表明,修剪时的修剪风险可以帮助修剪,以减少修剪时的过拟合风险。
- CipherDAug: Ciphertext based Data Augmentation for Neural Machine Translation
- Nishant Kambhatla, Logan Born, Anoop Sarkar
- TLDR: 一种用于神经机器翻译的新型数据增强技术。
- Overlap-based Vocabulary Generation Improves Cross-lingual Transfer Among Related Languages
- Vaidehi Patil, Partha Talukdar, Sunita Sarawagi
- TLDR: 我们提出了一种用于低资源语言转移的词汇叠法,它可以提高高资源语言的词汇叠权重。
- Long-range Sequence Modeling with Predictable Sparse Attention
- Yimeng Zhuang, Jing Zhang, Mei Tu
- TLDR: 我们提出了一种高效的Transformer架构,用于快速长距离的序列建模。
- Improving Personalized Explanation Generation through Visualization
- Shijie Geng, Zuohui Fu, Yingqiang Ge, Lei Li, Gerard de Melo, Yongfeng Zhang
- TLDR: 我们提出了一种基于视觉的增强的推荐系统,它可以提高解释的多样性和解释的可解释性。
- New Intent Discovery with Pre-training and Contrastive Learning
- Yuwei Zhang, Haode Zhang, Li-Ming Zhan, Xiao-Ming Wu, Albert Lam
- TLDR: 我们提出了一种用于新意发现的新型方法,该方法在非监督和半监督情况下比最先进的方法更有效。
- Modeling U.S. State-Level Policies by Extracting Winners and Losers from Legislative Texts
- Maryam Davoodi, Eric Waltenburg, Dan Goldwasser
- TLDR: 我们使用一个文本图的模型来学习和分析联邦和州的立法。
- Structural Characterization for Dialogue Disentanglement
- Xinbei Ma, Zhuosheng Zhang, Hai Zhao
- TLDR: 我们提出了一种新的基于结构的对话分割方法,用于解决多语种对话中结构信息的解释。
- Multi-Party Empathetic Dialogue Generation: A New Task for Dialog Systems
- Ling.Yu Zhu, Zhengkun Zhang, Jun Wang, Hongbin Wang, Haiying Wu, Zhenglu Yang
- TLDR: 我们提出了一个用于多Party情感对话生成的动态感知和情感模型,该模型在多Party情感对话生成方面取得了最先进的结果。
- MISC: A Mixed Strategy-Aware Model integrating COMET for Emotional Support Conversation
- Quan Tu, Yanran Li, Jianwei Cui, Bin Wang, Ji-Rong Wen, Rui Yan
- TLDR: 我们提出了一个用于情感支持对话的新型模型。
- GLM: General Language Model Pretraining with Autoregressive Blank Infilling
- Zhengxiao Du, Yujie Qian, Xiao Liu, Ming Ding, Jiezhong Qiu, Zhilin Yang, Jie Tang
- TLDR: 我们提出了一个通用语言模型(GLM),用于解决NLU,条件生成和条件生成任务的一般语言模型。
- QuoteR: A Benchmark of Quote Recommendation for Writing
- Fanchao Qi, Yanhui Yang, Jing Yi, Zhili Cheng, Zhiyuan Liu, Maosong Sun
- TLDR: 我们提出了一个用于引用的深度开放的句法推荐数据集,它可以比以前的样本数据集更小。
- Towards Comprehensive Patent Approval Predictions:Beyond Traditional Document Classification
- Xiaochen Gao, Zhaoyi Hou, Yifei Ning, Kewen Zhao, Beilei He, Jingbo Shang, Vish Krishnan
- TLDR: 一个用于研究新颖的发明的专利。
- Hypergraph Transformer: Weakly-Supervised Multi-hop Reasoning for Knowledge-based Visual Question Answering
- Yu-Jung Heo, Eun-Sol Kim, Woo Suk Choi, Byoung-Tak Zhang
- TLDR: 我们提出了一个概念,用于解释知识库和问题之间的高阶关系,并通过将知识库和问题映射到知识图上来学习高阶关系。
- Cross-Utterance Conditioned VAE for Non-Autoregressive Text-to-Speech
- Yang Li, Cheng Yu, Guangzhi Sun, Hua Jiang, Fanglei Sun, Weiqin Zu, Ying Wen, Yang Yang, Jun Wang
- TLDR: 本文提出了一个跨语言VAE,用于估计潜在的句法特征的后验概率分布。
- Mix and Match: Learning-free Controllable Text Generationusing Energy Language Models
- Fatemehsadat Mireshghallah, Kartik Goyal, Taylor Berg-Kirkpatrick
- TLDR: 我们提出了一种用于控制文本生成的全域得分的替代方法,它结合了任意的黑盒模型,以实现任意的控制性属性。
- So Different Yet So Alike! Constrained Unsupervised Text Style Transfer
- Abhinav Ramesh Kashyap, Devamanyu Hazarika, Min-Yen Kan, Roger Zimmermann, Soujanya Poria
- TLDR: 我们引入了合作损失,以提高文本质量。
- e-CARE: a New Dataset for Exploring Explainable Causal Reasoning
- Li Du, Xiao Ding, Kai Xiong, Ting Liu, Bing Qin
- TLDR: 我们提出了一个用于解释因果关系的解释数据集,它包含了超过20个因果问题,以及自然语言生成的解释。
- Fantastic Questions and Where to Find Them: FairytaleQA – An Authentic Dataset for Narrative Comprehension
- Ying Xu, Dakuo Wang, Mo Yu, Daniel Ritchie, Bingsheng Yao, Tongshuang Wu, Zheng Zhang, Toby Li, Nora Bradford, Branda Sun, Tran Hoang, Yisi Sang, Yufang Hou, Xiaojuan Ma, Diyi Yang, Nanyun Peng, Zhou Yu, Mark Warschauer
- TLDR: 我们提出了一个用于阅读理解的QA数据集,用于回答高质量的QG。
- KaFSP: Knowledge-Aware Fuzzy Semantic Parsing for Conversational Question Answering over a Large-Scale Knowledge Base
- Junzhuo Li, Deyi Xiong
- TLDR: 我们提出了知识感知的知识性知识表征框架,用于回答知识库中的信息。
- Multilingual Knowledge Graph Completion with Self-Supervised Adaptive Graph Alignment
- Zijie Huang, Zheng Li, Haoming Jiang, Tianyu Cao, Hanqing Lu, Bing Yin, Karthik Subbian, Yizhou Sun, Wei Wang
- TLDR: 我们提出了一种基于自我监督的图的alignment方法,用于知识图上学习。
- Modeling Hierarchical Syntax Structure with Triplet Position for Source Code Summarization
- Juncai Guo, Jin Liu, Yao Wan, Li Li, Pingyi Zhou
- TLDR: 我们提出了一个用于代码概括的新型三维位置,用于将代码概括为语义结构的语义句法。
- FewNLU: Benchmarking State-of-the-Art Methods for Few-Shot Natural Language Understanding
- Yanan Zheng, Jing Zhou, Yujie Qian, Ming Ding, Chonghua Liao, Li Jian, Ruslan Salakhutdinov, Jie Tang, Sebastian Ruder, Zhilin Yang
- TLDR: 我们引入了一个评估框架,以改善以前的评估程序,包括测试性能,测试稳定性和稳定性。
- Learn to Adapt for Generalized Zero-Shot Text Classification
- Yiwen Zhang, Caixia Yuan, Xiaojie Wang, Ziwei Bai, Yongbin Liu
- TLDR: 我们提出了一种用于零樣本学习的变异元学习框架,用于学习一种适应性学习方法。
- TableFormer: Robust Transformer Modeling for Table-Text Encoding
- Jingfeng Yang, Aditya Gupta, Shyam Upadhyay, Luheng He, Rahul Goel, Shachi Paul
- TLDR: 我们提出了一个穩定的、结构化和高效的表征编码器,用于表征理解。
- Perceiving the World: Question-guided Reinforcement Learning for Text-based Games
- Yunqiu Xu, Meng Fang, Ling Chen, Yali Du, Joey Zhou, Chengqi Zhang
- TLDR: 我们提出了一个用于游戏的RL训练框架,该框架可以提高性能和样本效率。
- Neural Label Search for Zero-Shot Multi-Lingual Extractive Summarization
- Ruipeng Jia, Xingxing Zhang, Yanan Cao, Zheng Lin, Shi Wang, Furu Wei
- TLDR: 我们提出了一种用于多语言零樣本总结的神经标签搜索方法。
- Few-Shot Class-Incremental Learning for Named Entity Recognition
- Rui Wang, Tong Yu, Handong Zhao, Sungchul Kim, Subrata Mitra, Ruiyi Zhang, Ricardo Henao
- TLDR: 我们研究了一种用于命名实体的分类学习的新方法,它可以从标签数据中学习新的类。
- Improving Meta-learning for Low-resource Text Classification and Generation via Memory Imitation
- Yingxiu Zhao, Zhiliang Tian, Huaxiu Yao, Yinhe Zheng, Dongkyu Lee, Yiping Song, Jian Sun, Nevin Zhang
- TLDR: 我们提出了一种记忆模仿学习(MemIML)方法,用于提高模型的依赖性,并利用它来学习新的任务适应。
- Quality Controlled Paraphrase Generation
- Elron Bandel, Ranit Aharonov, Michal Shmueli-Scheuer, Ilya Shnayderman, Noam Slonim, Liat Ein-Dor
- TLDR: 我们提出了QCPG,一个质量引导的控制的paraphrase生成模型,可以直接控制质量维度。
- Controllable Dictionary Example Generation: Generating Example Sentences for Specific Targeted Audiences
- Xingwei He, Siu Ming Yiu
- TLDR: 我们提出了一个可控的目标词理解模型,用于生成词典例子句法。
- AraT5: Text-to-Text Transformers for Arabic Language Generation
- El Moatez Billah Nagoudi, AbdelRahim Elmadany, Muhammad Abdul-Mageed
- TLDR: 我们使用一个统一的Transformer框架来解决语言到文本的转换学习。
- Legal Judgment Prediction via Event Extraction with Constraints
- Yi Feng, Chuanyi Li, Vincent Ng
- TLDR: 我们提出了EPM,一种基于事件的预测模型,它超越了现有的SOTA模型在LJP数据集上的表现。
- Answer-level Calibration for Free-form Multiple Choice Question Answering
- Sawan Kumar
- TLDR: 我们提出了ALC(Answer-Level Calibration),用于解决问题回答形式中的语义选择偏差。
- Learning When to Translate for Streaming Speech
- Qian Dong, Yaoming Zhu, Mingxuan Wang, Lei Li
- TLDR: 我们提出了MoSST,一种简单而有效的方法用于在线语音输出翻译。
- Compact Token Representations with Contextual Quantization for Efficient Document Re-ranking
- Yingrui Yang, Yifan Qiao, Tao Yang
- TLDR: 本文提出了一个用于基于语义的查询的句法嵌入的端到端模型。
- Early Stopping Based on Unlabeled Samples in Text Classification
- HongSeok Choi, Dongha Choi, Hyunju Lee
- TLDR: 我们提出了一种用于早期停止的非监督方法,使用未标注的样本。
- Meta-learning via Language Model In-context Tuning
- Yanda Chen, Ruiqi Zhong, Sheng Zha, George Karypis, He He
- TLDR: 我们提出了一个用于元学习的语言模型,该模型可以学习适应简单的例子,并使用它来学习元学习。
- It is AI’s Turn to Ask Humans a Question: Question-Answer Pair Generation for Children’s Story Books
- Bingsheng Yao, Dakuo Wang, Tongshuang Wu, Zheng Zhang, Toby Li, Mo Yu, Ying Xu
- TLDR: 我们提出了一个用于学习知识的QAG系统,它可以自动生成QA pairs,可以测试学生理解能力的多样性。
- Prompt-Based Rule Discovery and Boosting for Interactive Weakly-Supervised Learning
- Rongzhi Zhang, Yue Yu, Pranav Shetty, Le Song, Chao Zhang
- TLDR: 我们提出了一种基于梯度的模型,用于在不依赖监督的情况下学习无标签的模型。
- Constrained Multi-Task Learning for Bridging Resolution
- Hideo Kobayashi, Yufang Hou, Vincent Ng
- TLDR: 我们提出了一种用于跨域解决的多任务学习框架,该框架在解决跨域问题时,可以得到最先进的结果。
- DEAM: Dialogue Coherence Evaluation using AMR-based Semantic Manipulations
- Sarik Ghazarian, Nuan Wen, Aram Galstyan, Nanyun Peng
- TLDR: 我们提出了一个基于本文的表征的对话编码评估指标,它可以从句法上衡量对话编码的准确性。
- HIBRIDS: Attention with Hierarchical Biases for Structure-aware Long Document Summarization
- Shuyang Cao, Lu Wang
- TLDR: 我们提出了HiBRIDS,用于将文件结构纳入关注度计算。
- De-Bias for Generative Extraction in Unified NER Task
- Shuai Zhang, Yongliang Shen, Zeqi Tan, Yiquan Wu, Weiming Lu
- TLDR: 我们通过从因果角度分析错误偏差,以避免生成模型的错误偏差。
- An Information-theoretic Approach to Prompt Engineering Without Ground Truth Labels
- Taylor Sorensen, Joshua Robinson, Christopher Rytting, Alexander Shaw, Kyle Rogers, Alexia Delorey, Mahmoud Khalil, Nancy Fulda, David Wingate
- TLDR: 我们提出了一种新的方法,用于选择需要的回答的回答的样本。
- Expanding Pretrained Models to Thousands More Languages via Lexicon-based Adaptation
- Xinyi Wang, Sebastian Ruder, Graham Neubig
- TLDR: 我们研究了多语言神经网络在没有单语或跨语料的情况下的表现。
- Language-agnostic BERT Sentence Embedding
- Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, Wei Wang
- TLDR: 我们通过结合多语种和跨语言表征学习的最先进的方法来解决多语种句法嵌入问题。
- Nested Named Entity Recognition with Span-level Graphs
- Juncheng Wan, Dongyu Ru, Weinan Zhang, Yong Yu
- TLDR: 我们使用基于图的图来改善NER的层次表示。
- CogTaskonomy: Cognitively Inspired Task Taxonomy Is Beneficial to Transfer Learning in NLP
- Yifei Luo, Minghui Xu, Deyi Xiong
- TLDR: 我们提出了一个基于神经符号的神经法则,用于NLP任务的神经法则。
- RoCBert: Robust Chinese Bert with Multimodal Contrastive Pretraining
- Hui Su, Weiwei Shi, Xiaoyu Shen, Zhou Xiao, Tuo Ji, Jiarui Fang, Jie Zhou
- TLDR: 我们提出了RoCBert:一个用于识别和检测标签的伪标签的语言模型,对抗性攻击的穩定性与其他语言模型一样强。
- Premise-based Multimodal Reasoning: Conditional Inference on Joint Textual and Visual Clues
- Qingxiu Dong, Ziwei Qin, Heming Xia, Tian Feng, Shoujie Tong, Haoran Meng, Lin Xu, Zhongyu Wei, Weidong Zhan, Baobao Chang, Sujian Li, Tianyu Liu, Zhifang Sui
- TLDR: 我们提出了一个基于目标的多模态推理(PMR),该任务使用一个文本假设来表示每个来源图像的背景假设。
- Parallel Instance Query Network for Named Entity Recognition
- Yongliang Shen, Xiaobin Wang, Zeqi Tan, Guangwei Xu, Pengjun Xie, Fei Huang, Weiming Lu, Yueting Zhuang
- TLDR: 我们提出了一个用于生成实体识别的GAN架构,它可以从句法中直接提取实体。
- ProphetChat: Enhancing Dialogue Generation with Simulation of Future Conversation
- Chang Liu, Xu Tan, Chongyang Tao, Zhenxin Fu, Dongyan Zhao, Tie-Yan Liu, Rui Yan
- TLDR: 我们提出了一个新颖的对话生成框架,使用模拟对话未来s在推理阶段来增强回应生成。
- Modeling Multi-hop Question Answering as Single Sequence Prediction
- Semih Yavuz, Kazuma Hashimoto, Yingbo Zhou, Nitish Shirish Keskar, Caiming Xiong
- TLDR: 我们提出了一种简单的生成方法(PathFid),它扩展了回答生成问题的能力,并通过明确地模型解决解决问题的逻辑过程。
- Learning Disentangled Semantic Representations for Zero-Shot Cross-Lingual Transfer in Multilingual Machine Reading Comprehension
- Linjuan Wu, Shaojuan Wu, Xiaowang Zhang, Deyi Xiong, Shizhan Chen, Zhiqiang Zhuang, Zhiyong Feng
- TLDR: 我们提出了一种用于多语言MRC的语言理解理解模型,它可以从语义中去除语法,并使用语义来转移语义知识。
- Multi-Granularity Structural Knowledge Distillation for Language Model Compression
- Chang Liu, Chongyang Tao, Jiazhan Feng, Dongyan Zhao
- TLDR: 我们提出了一种新的知识提炼框架,它从多语义表征中提炼知识,并利用它们来建立知识。
- Auto-Debias: Debiasing Masked Language Models with Automated Biased Prompts
- Yue Guo, Yi Yang, Ahmed Abbasi
- TLDR: 我们提出了一种用于语言模型的自动方法,以减少偏见和不妄想的社会偏见。
- Where to Go for the Holidays: Towards Mixed-Type Dialogs for Clarification of User Goals
- Zeming Liu, Jun Xu, Zeyang Lei, Haifeng Wang, Zheng-Yu Niu, Hua Wu
- TLDR: 我们提出了一个人类到人类混合的对话集,它包含了5k对话 sessions和 168k句法,用于4对话类型和5领域。
- Semi-supervised Domain Adaptation for Dependency Parsing with Dynamic Matching Network
- Ying Li, Shuaike Li, Min Zhang
- TLDR: 我们首次使用动态匹配网络来解决半监督跨域依赖性解析。
- A Closer Look at How Fine-tuning Changes BERT
- Yichu Zhou, Vivek Srikumar
- TLDR: 我们使用两个实证技术来分析和解释非凸性对分类性能的影响。
- Sentence-aware Contrastive Learning for Open-Domain Passage Retrieval
- Wu Hong, Zhuosheng Zhang, Jinyuan Wang, Hai Zhao
- TLDR: 我们提出了一种基于语义句法的非监督抽样策略,鼓励在同一通道上生成不同语义表征。
- FaiRR: Faithful and Robust Deductive Reasoning over Natural Language
- Soumya Sanyal, Harman Singh, Xiang Ren
- TLDR: 我们提出了一个用于逻辑推理的框架,该框架通过定义三个模块化组成部分:规则选择,事实选择,知识构成。
- HiTab: A Hierarchical Table Dataset for Question Answering and Natural Language Generation
- Zhoujun Cheng, Haoyu Dong, Zhiruo Wang, Ran Jia, Jiaqi Guo, Yan Gao, Shi Han, Jian-Guang Lou, Dongmei Zhang
- TLDR: 我们提出了HiTab,用于研究问题回答和NLG的上下文表征。
- Doctor Recommendation in Online Health Forums via Expertise Learning
- Xiaoxin Lu, Yubo Zhang, Jing Li, Shi Zong
- TLDR: 我们研究了医生推荐的常见问题,并表明,在回答患者查询时,医生可以从患者的过去对话中学习医生嵌入。
- Continual Prompt Tuning for Dialog State Tracking
- Qi Zhu, Bing Li, Fei Mi, Xiaoyan Zhu, Minlie Huang
- TLDR: 我们提出了持续的步骤学习,一个参数高效的框架,可以避免忘记,同时可以实现知识转移。
- There’s a Time and Place for Reasoning Beyond the Image
- Xingyu Fu, Ben Zhou, Ishaan Chandratreya, Carl Vondrick, Dan Roth
- TLDR: 我们提出了一个用于新闻、时间、地理位置和地理位置的全域信息库,并提出了一个用于评估人类的视觉能力的联合模型。
- FORTAP: Using Formulas for Numerical-Reasoning-Aware Table Pretraining
- Zhoujun Cheng, Haoyu Dong, Ran Jia, Pengfei Wu, Shi Han, Fan Cheng, Dongmei Zhang
- TLDR: 我们提出了FORTAP,用于使用表格进行表上预训练的第一个基于变换器的基于表格的模型。
- Multimodal fusion via cortical network inspired losses
- Shiv Shankar
- TLDR: 我们通过使用神经网络来学习多感知和处理神经依赖函数,以提高多感知和情感分析的性能。
- Modeling Temporal-Modal Entity Graph for Procedural Multimodal Machine Comprehension
- Huibin Zhang, Zhengkun Zhang, Yao Zhang, Jun Wang, Yufan Li, Ning Jiang, Xin Wei, Zhenglu Yang
- TLDR: 我们提出了一种用于多模态文件的TTEG,它可以作为一种用于解释的通用方法。
- Explanation Graph Generation via Pre-trained Language Models: An Empirical Study with Contrastive Learning
- Swarnadeep Saha, Prateek Yadav, Mohit Bansal
- TLDR: 我们研究了使用预先训练好的语言模型生成解释图的最坏结果,并分析了其在解释图生成方面的能力。
- Unsupervised Extractive Opinion Summarization Using Sparse Coding
- Somnath Basu Roy Chowdhury, Chao Zhao, Snigdha Chaturvedi
- TLDR: 我们提出了一个用于总结多用户评价的语义自动编码器,它可以从单个评价中自动生成总结。
- LexSubCon: Integrating Knowledge from Lexical Resources into Contextual Embeddings for Lexical Substitution
- George Michalopoulos, Ian McKillop, Alexander Wong, Helen Chen
- TLDR: 我们提出了LexSubCon,一个端到端的词替换框架,可以从结构化词资源中找到高准确的替代者。
- Think Before You Speak: Explicitly Generating Implicit Commonsense Knowledge for Response Generation
- Pei Zhou, Karthik Gopalakrishnan, Behnam Hedayatnia, Seokhwan Kim, Jay Pujara, Xiang Ren, Yang Liu, Dilek Hakkani-Tur
- TLDR: 我们提出了一种基于生成模型的先验知识的生成方法,用于从隐性知识中引入可解释的一般知识。
- Flow-Adapter Architecture for Unsupervised Machine Translation
- Yihong Liu, Haris Jabbar, Hinrich Schuetze
- TLDR: 我们提出了一个用于非监督MT的流形适应架构。
- Efficient Unsupervised Sentence Compression by Fine-tuning Transformers with Reinforcement Learning
- Demian Ghalandari, Chris Hokamp, Georgiana Ifrim
- TLDR: 我们使用强化学习来训练高效的句法压缩模型,同时也能生成预测。
- Tracing Origins: Coreference-aware Machine Reading Comprehension
- Baorong Huang, Zhuosheng Zhang, Hai Zhao
- TLDR: 我们使用两种不同的方法来微调一个语言模型,以更好地理解它。
- WatClaimCheck: A new Dataset for Claim Entailment and Inference
- Kashif Khan, Ruizhe Wang, Pascal Poupart
- TLDR: 我们提出了一个用于事实检查和评估最先进的算法的统一数据集。
- FrugalScore: Learning Cheaper, Lighter and Faster Evaluation Metrics for Automatic Text Generation
- Moussa Kamal Eddine, Guokan Shang, Antoine Tixier, Michalis Vazirgiannis
- TLDR: 我们提出了 FrugalScore,一种用于学习一个固定的,低成本的NLP指标,同时保留大多数的原始性能。
- A Well-Composed Text is Half Done! Composition Sampling for Diverse Conditional Generation
- Shashi Narayan, Gonçalo Simões, Yao Zhao, Joshua Maynez, Dipanjan Das, Michael Collins, Mirella Lapata
- TLDR: 本文提出了Composition Sampling,一种简单而有效的方法来生成条件生成的多样性,与以前的随机编码方法相比更有质量。
- Synthetic Question Value Estimation for Domain Adaptation of Question Answering
- Xiang Yue, Ziyu Yao, Huan Sun
- TLDR: 我们引入了一个新的想法,即通过训练一个问题价值估计器(QVE)来直接估计用于改善目标域QA性能的合成问题的有效性。
- Better Language Model with Hypernym Class Prediction
- He Bai, Tong Wang, Alessandro Sordoni, Peng Shi
- TLDR: 基于LM的语言建模的理论和实践经验。
- Tackling Fake News Detection by Continually Improving Social Context Representations using Graph Neural Networks
- Nikhil Mehta, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: 我们使用推理符来解释和检测虚假新闻传播。
- Understanding Gender Bias in Knowledge Base Embeddings
- Yupei Du, Qi Zheng, Yuanbin Wu, Man Lan, Yan Yang, Meirong Ma
- TLDR: 我们研究了KB嵌入中存在的性偏差,并提出了解决方法。
- Computational Historical Linguistics and Language Diversity in South Asia
- Aryaman Arora, Adam Farris, Samopriya Basu, Suresh Kolichala
- TLDR: 我们表明,数据集中的泛化是语言文化研究的最重要障碍。
- Faithful or Extractive? On Mitigating the Faithfulness-Abstractiveness Trade-off in Abstractive Summarization
- Faisal Ladhak, Esin Durmus, He He, Claire Cardie, Kathleen McKeown
- TLDR: 我们提出了一个框架,用于评估总结系统在概括性方面的有效性。
- Slangvolution: A Causal Analysis of Semantic Change and Frequency Dynamics in Slang
- Daphna Keidar, Andreas Opedal, Zhijing Jin, Mrinmaya Sachan
- TLDR: 我们通过因果推理来解释语言变化,并分析了语言变化对语义变化和频率转移的影响。
- Spurious Correlations in Reference-Free Evaluation of Text Generation
- Esin Durmus, Faisal Ladhak, Tatsunori Hashimoto
- TLDR: 我们表明,基于评价标准的评价标准不应该依赖虚假的衡量标准。
- On The Ingredients of an Effective Zero-shot Semantic Parser
- Pengcheng Yin, John Wieting, Avirup Sil, Graham Neubig
- TLDR: 我们通过语言和逻辑的线性视覺来分析零樣本解析器。
- Bias Mitigation in Machine Translation Quality Estimation
- Hanna Behnke, Marina Fomicheva, Lucia Specia
- TLDR: 我们分析了使用辅助任务来减少部分输入偏差的方法,并提出了使用辅助任务来避免部分偏差的方法。
- Unified Speech-Text Pre-training for Speech Translation and Recognition
- Yun Tang, Hongyu Gong, Ning Dong, Changhan Wang, Wei-Ning Hsu, Jiatao Gu, Alexei Baevski, Xian Li, Abdelrahman Mohamed, Michael Auli, Juan Pino
- TLDR: 我们提出了一种用于语音翻译和识别的多任务学习方法,用于联合训练语音和文本。
- Match the Script, Adapt if Multilingual: Analyzing the Effect of Multilingual Pretraining on Cross-lingual Transferability
- Yoshinari Fujinuma, Jordan Boyd-Graber, Katharina Kann
- TLDR: 我们提出了一个关于使用多语言模型进行零樣本学习的理论问题。
- Structured Pruning Learns Compact and Accurate Models
- Mengzhou Xia, Zexuan Zhong, Danqi Chen
- TLDR: 我们提出了一种用于训练模型的结构化修剪方法,它可以比以前的修剪和提炼方法更快。
- How can NLP Help Revitalize Endangered Languages? A Case Study and Roadmap for the Cherokee Language
- Shiyue Zhang, Ben Frey, Mohit Bansal
- TLDR: 我们通过使用 Cherokee,一个严重受损的白垩语言,作为案例研究来帮助我们理解和合作使用NLP。
- Differentiable Multi-Agent Actor-Critic for Multi-Step Radiology Report Summarization
- Sanjeev Kumar Karn, Ning Liu, Hinrich Schuetze, Oladimeji Farri
- TLDR: 我们提出了一个用于诊断性报告的概括的二步方法,并提出了一个用于诊断性报告的概括的概括方法。
- Online Semantic Parsing for Latency Reduction in Task-Oriented Dialogue
- Jiawei Zhou, Jason Eisner, Michael Newman, Emmanouil Antonios Platanios, Sam Thomson
- TLDR: 我们提出了一个通用框架,并提出了一个简单的最优程序选择,用于初始化程序预测。
- Few-Shot Tabular Data Enrichment Using Fine-Tuned Transformer Architectures
- Asaf Harari, Gilad Katz
- TLDR: 我们提出了Few-Shot Transformer,一个通用和穩定的框架,用于在没有外部数据源的情况下进行数据集的深度学习。
- Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues and Documents
- Yusen Zhang, Ansong Ni, Ziming Mao, Chen Henry Wu, Chenguang Zhu, Budhaditya Deb, Ahmed Awadallah, Dragomir Radev, Rui Zhang
- TLDR: 我们提出了一个用于总结的语言模型,它可以处理大量的总结任务。
- Open Domain Question Answering with A Unified Knowledge Interface
- Kaixin Ma, Hao Cheng, Xiaodong Liu, Eric Nyberg, Jianfeng Gao
- TLDR: 我们提出了一个用于开放域问题回答的句法检索器-阅读器框架,用于数据到文本的QA。
- Principled Paraphrase Generation with Parallel Corpora
- Aitor Ormazabal, Mikel Artetxe, Aitor Soroa, Gorka Labaka, Eneko Agirre
- TLDR: 我们提出了一种用于多语句机器翻译的替代性相似性指标,它可以被用于多语句翻译。
- GlobalWoZ: Globalizing MultiWoZ to Develop Multilingual Task-Oriented Dialogue Systems
- Bosheng Ding, Junjie Hu, Lidong Bing, Mahani Aljunied, Shafiq Joty, Luo Si, Chunyan Miao
- TLDR: 我们提出了一种新的多语言ToD数据集,用于解决多语言ToD系统的泛化问题。
- Domain Knowledge Transferring for Pre-trained Language Model via Calibrated Activation Boundary Distillation
- Dongha Choi, HongSeok Choi, Hyunju Lee
- TLDR: 我们提出了一个用于PLMs的领域知识转移框架,该框架不需要额外的领域预训练。
- Retrieval-guided Counterfactual Generation for QA
- Bhargavi Paranjape, Matthew Lamm, Ian Tenney
- TLDR: 我们提出了一种基于Retrieve-Generate-Filter(RGF)技术来生成反事实评估和训练数据的简单方法。
- DYLE: Dynamic Latent Extraction for Abstractive Long-Input Summarization
- Ziming Mao, Chen Henry Wu, Ansong Ni, Yusen Zhang, Rui Zhang, Tao Yu, Budhaditya Deb, Chenguang Zhu, Ahmed Awadallah, Dragomir Radev
- TLDR: 我们提出了DYLE,一种用于短数据的概括的动态潜在提取方法。
- Searching for fingerspelled content in American Sign Language
- Bowen Shi, Diane Brentari, Greg Shakhnarovich, Karen Livescu
- TLDR: 我们提出了一个端到端模型,用于寻找指针音符的指针音符,并与它匹配它到一个文本序列。
- Skill Induction and Planning with Latent Language
- Pratyusha Sharma, Antonio Torralba, Jacob Andreas
- TLDR: 我们提出了一个框架,用于学习层次化的政策,使用稀疏的自然语言标注来引导发现有可用的技能。
- Fully-Semantic Parsing and Generation: the BabelNet Meaning Representation
- Abelardo Carlos Martínez Lorenzo, Marco Maru, Roberto Navigli
- TLDR: 我们提出了BMR,一个用于语义解析的跨语言的正式语义范式。
- Leveraging Similar Users for Personalized Language Modeling with Limited Data
- Charles Welch, Chenxi Gu, Jonathan K. Kummerfeld, Veronica Perez-Rosas, Rada Mihalcea
- TLDR: 我们提出了一种用于生成个性化的语言模型的方法,使用一个模型训练的用户,类似于一个新的用户。
- DEEP: DEnoising Entity Pre-training for Neural Machine Translation
- Junjie Hu, Hiroaki Hayashi, Kyunghyun Cho, Graham Neubig
- TLDR: 我们提出了一种用于词典翻译的非监督的词典翻译方法,它可以提高词典翻译的词典翻译准确性。
- Multi-Modal Sarcasm Detection via Cross-Modal Graph Convolutional Network
- Bin Liang, Chenwei Lou, Xiang Li, Min Yang, Lin Gui, Yulan He, Wenjie Pei, Ruifeng Xu
- TLDR: 我们通过利用多模态语义和文本语义来捕捉多模态语义偏差。
- Composable Sparse Fine-Tuning for Cross-Lingual Transfer
- Alan Ansell, Edoardo Ponti, Anna Korhonen, Ivan Vulić
- TLDR: 我们提出了一种新的微调方法,它可以从一个简单的 Lottery Ticket Hypothesis中学习稀疏的,真实的权重。
- Toward Annotator Group Bias in Crowdsourcing
- Haochen Liu, Joseph Thekinen, Sinem Mollaoglu, Da Tang, Ji Yang, Youlong Cheng, Hui Liu, Jiliang Tang
- TLDR: 我们首次验证了在各种现实世界的多任务上存在标注者群体偏差的事实。
- Under the Morphosyntactic Lens: A Multifaceted Evaluation of Gender Bias in Speech Translation
- Beatrice Savoldi, Marco Gaido, Luisa Bentivogli, Matteo Negri, Marco Turchi
- TLDR: 我们通过对语言语言的语法表征的多层次性进行深入的分析,从语法表征中检测出语法偏差。
- Answering Open-Domain Multi-Answer Questions via a Recall-then-Verify Framework
- Zhihong Shao, Minlie Huang
- TLDR: 我们提出了一个用于多回答问题的记忆-验证框架,它可以回答开放的多回答问题,同时使用大量的证据。
- Probing as Quantifying Inductive Bias
- Alexander Immer, Lucas Torroba Hennigen, Vincent Fortuin, Ryan Cotterell
- TLDR: 我们表明,在某些任务上,fastText可以提供更好的表示偏差,而不是BERT。
- Probing Structured Pruning on Multilingual Pre-trained Models: Settings, Algorithms, and Efficiency
- Yanyang Li, Fuli Luo, Runxin Xu, Songfang Huang, Fei Huang, Liwei Wang
- TLDR: 我们研究了多语言建模中结构修剪的三个方面:设置,算法,和效率。
- GPT-D: Inducing Dementia-related Linguistic Anomalies by Deliberate Degradation of Artificial Neural Language Models
- Changye Li, David Knopman, Weizhe Xu, Trevor Cohen, Serguei Pakhomov
- TLDR: 我们提出了一种新的方法,通过将一个用于DL的DL模型(GPT-2)先训练好的模型(GPT-2)与一个人工的graded版本(GPT-D),来计算一个用于DL的DL模型的 ratio。
- An Empirical Survey of the Effectiveness of Debiasing Techniques for Pre-trained Language Models
- Nicholas Meade, Elinor Poole-Dayan, Siva Reddy
- TLDR: 我们通过对最近提出的多模态偏见的有效性进行理论分析,并使用理论来衡量这些方法在NLP任务中的有效性。
- Exploring and Adapting Chinese GPT to Pinyin Input Method
- Minghuan Tan, Yong Dai, Duyu Tang, Zhangyin Feng, Guoping Huang, Jing Jiang, Jiwei Li, Shuming Shi
- TLDR: 我们首次使用了香港的GPT来使用指针输入方法,并表明,它可以提高指针输入方法的性能。
- Enhancing Cross-lingual Natural Language Inference by Prompt-learning from Cross-lingual Templates
- Kunxun Qi, Hai Wan, Jianfeng Du, Haolan Chen
- TLDR: 本文提出了一种基于基于随机学习的框架来改进跨语言自然语言推理。
- Sense Embeddings are also Biased – Evaluating Social Biases in Static and Contextualised Sense Embeddings
- Yi Zhou, Masahiro Kaneko, Danushka Bollegala
- TLDR: 我们提出了一种用于评价社会偏见的衡量标准。
- Hybrid Semantics for Goal-Directed Natural Language Generation
- Connor Baumler, Soumya Ray
- TLDR: 我们考虑生成自然语言的任务,并提出了一种基于梯度的非目标导向的NLG系统。
- Predicting Intervention Approval in Clinical Trials through Multi-Document Summarization
- Georgios Katsimpras, Georgios Paliouras
- TLDR: 我们提出了一种新的预测方法来预测一个临床试验的有效性。
- BiTIIMT: A Bilingual Text-infilling Method for Interactive Machine Translation
- Yanling Xiao, Lemao Liu, Guoping Huang, Qu Cui, Shujian Huang, Shuming Shi, Jiajun Chen
- TLDR: 我们提出了一种用于非监督神经机器翻译的BiTIIMT系统,用于在线翻译的在线翻译。
- Distributionally Robust Finetuning BERT for Covariate Drift in Spoken Language Understanding
- Samuel Broscheit, Quynh Do, Judith Gaspers
- TLDR: 我们研究了在语言理解中穩定性对抗梯度偏差的穩定性。
- Enhancing Chinese Pre-trained Language Model via Heterogeneous Linguistics Graph
- Yanzeng Li, Jiangxia Cao, Xin Cong, Zhenyu Zhang, Bowen Yu, Hongsong Zhu, Tingwen Liu
- TLDR: 我们提出了一个任务无关的语言建模模块,用于提高语言建模的语言建模能力。
- Divide and Denoise: Learning from Noisy Labels in Fine-Grained Entity Typing with Cluster-Wise Loss Correction
- Kunyuan Pang, Haoyu Zhang, Jie Zhou, Ting Wang
- TLDR: 我们提出了一个基于特征集的损失正则化框架,用于解决标签噪音问题。
- Towards Robustness of Text-to-SQL Models Against Natural and Realistic Adversarial Table Perturbation
- Xinyu Pi, Bing Wang, Yan Gao, Jiaqi Guo, Zhoujun Li, Jian-Guang Lou
- TLDR: 我们提出了对抗表扰(ATP)的新攻击框架,用于衡量文本到数据的穩定性。
- Overcoming Catastrophic Forgetting beyond Continual Learning: Balanced Training for Neural Machine Translation
- Chenze Shao, Yang Feng
- TLDR: 本文提出了一种用于学习多任务顺序的神经网络的理论,并表明,在学习过程中,神经网络会逐步忘记以前所学到的知识。
- Metaphors in Pre-Trained Language Models: Probing and Generalization Across Datasets and Languages
- Ehsan Aghazadeh, Mohsen Fayyaz, Yadollah Yaghoobzadeh
- TLDR: 我们通过研究PLM的语义信息,从语义中学习元知识。
- Discrete Opinion Tree Induction for Aspect-based Sentiment Analysis
- Chenhua Chen, Zhiyang Teng, Zhongqing Wang, Yue Zhang
- TLDR: 我们提出了一种用于语言和情感分类的非监督的依赖性树状模型,它可以从关注度和语义距离中学习。
- Investigating Non-local Features for Neural Constituency Parsing
- Leyang Cui, Sen Yang, Yue Zhang
- TLDR: 我们通过将非區域特征纳入神经图的训练过程,通过预测 constituents,将它们纳入到训练过程中。
- Learning from Sibling Mentions with Scalable Graph Inference in Fine-Grained Entity Typing
- Yi Chen, Jiayang Cheng, Haiyun Jiang, Lemao Liu, Haisong Zhang, Shuming Shi, Ruifeng Xu
- TLDR: 我们提出了一种基于图的神经网络的新型表征,用于利用和依赖的表征来改进表征。
- A Variational Hierarchical Model for Neural Cross-Lingual Summarization
- Yunlong Liang, Fandong Meng, Chulun Zhou, Jinan Xu, Yufeng Chen, Jinsong Su, Jie Zhou
- TLDR: 我们提出了一个层次化的跨语言总结任务的模型,用于解决跨语言总结任务。
- On the Robustness of Question Rewriting Systems to Questions of Varying Hardness
- Hai Ye, Hwee Tou Ng, Wenjuan Han
- TLDR: 我们提出了一个用于QR的RL框架,该框架通过对QR中的问题进行随机分类,以提高QR的穩定性。
- OpenHands: Making Sign Language Recognition Accessible with Pose-based Pretrained Models across Languages
- Prem Selvaraj, Gokul Nc, Pratyush Kumar, Mitesh Khapra
- TLDR: 我们介绍了OpenHands,一个用于低资源语言的NLP语言识别的开放资源库,用于使用姿势数据进行字符级识别。
- bert2BERT: Towards Reusable Pretrained Language Models
- Cheng Chen, Yichun Yin, Lifeng Shang, Xin Jiang, Yujia Qin, Fengyu Wang, Zhi Wang, Xiao Chen, Zhiyuan Liu, Qun Liu
- TLDR: 我们提出了BERT,它可以有效地转移现有的大型模型的知识,从而提高其训练效率。
- Vision-Language Pre-Training for Multimodal Aspect-Based Sentiment Analysis
- Yan Ling, Jianfei Yu, Rui Xia
- TLDR: 我们提出了一个任务特定视觉语言-语言Pre-training框架,用于MABSA。
- “You might think about slightly revising the title”: Identifying Hedges in Peer-tutoring Interactions
- Yann Raphalen, Chloé Clavel, Justine Cassell
- TLDR: 我们使用一个可解释的模型来探索和分析出在教师和学生之间进行的互动中存在的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的修剪的
- Efficient Cluster-Based k-Nearest-Neighbor Machine Translation
- Dexin Wang, Kai Fan, Boxing Chen, Deyi Xiong
- TLDR: 本文介绍了在没有目标的情况下进行训练的训练方法。
- Headed-Span-Based Projective Dependency Parsing
- Songlin Yang, Kewei Tu
- TLDR: 我们提出了一种基于头的流形的依赖性解析方法,用于学习一个用于追踪流形的依赖性树。
- Decoding Part-of-Speech from Human EEG Signals
- Alex Murphy, Bernd Bohnet, Ryan McDonald, Uta Noppeney
- TLDR: 我们通过使用电路来检测出部分的句法标签,以预测PoS标签的标签。
- Robust Lottery Tickets for Pre-trained Language Models
- Rui Zheng, Bao Rong, Yuhao Zhou, Di Liang, Sirui Wang, Wei Wu, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: 我们提出了一种基于二元权重的对抗性损失目标来寻找穩定的穩定的票。
- Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classification
- Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Jingang Wang, Juanzi Li, Wei Wu, Maosong Sun
- TLDR: 我们通过将外部知识纳入句法表征中,建立知识性 prompttuning(KPT),以提高和稳定 prompttuning。
- Cross-Lingual Contrastive Learning for Fine-Grained Entity Typing for Low-Resource Languages
- Xu Han, Yuqi Luo, Weize Chen, Zhiyuan Liu, Maosong Sun, Zhou Botong, Hao Fei, Suncong Zheng
- TLDR: 我们提出了一个跨语言对比学习框架,用于低资源语言的FGET。
- MELM: Data Augmentation with Masked Entity Language Modeling for Low-Resource NER
- Ran Zhou, Xin Li, Ruidan He, Lidong Bing, Erik Cambria, Luo Si, Chunyan Miao
- TLDR: 我们提出了一种用于低资源NER的GAN数据增强方法,该方法通过对NER标签进行明确条件来进行微调,以生成高质量的GAN数据。
- Word2Box: Capturing Set-Theoretic Semantics of Words using Box Embeddings
- Shib Dasgupta, Michael Boratko, Siddhartha Mishra, Shriya Atmakuri, Dhruvesh Patel, Xiang Li, Andrew McCallum
- TLDR: 我们通过使用Word2Box来学习词嵌入的句法表征,并展示了在各种词相似性任务中的表现。
- IAM: A Comprehensive and Large-Scale Dataset for Integrated Argument Mining Tasks
- Liying Cheng, Lidong Bing, Ruidan He, Qian Yu, Yan Zhang, Luo Si
- TLDR: 我们提出了一个用于论证建模的全域数据集,用于解决论证建模任务。
- PLANET: Dynamic Content Planning in Autoregressive Transformers for Long-form Text Generation
- Zhe Hu, Hou Pong Chan, Jiachen Liu, Xinyan Xiao, Hua Wu, Lifu Huang
- TLDR: 我们提出了PLANET,一个用于生成句法的生成框架,它可以从句法中学习句法,并利用它来生成句法的句法。
- CTRLEval: An Unsupervised Reference-Free Metric for Evaluating Controlled Text Generation
- Pei Ke, Hao Zhou, Yankai Lin, Peng Li, Jie Zhou, Xiaoyan Zhu, Minlie Huang
- TLDR: 我们提出了一个非监督的衡量标准,它可以衡量控制文本生成的多种任务,并表明它与其他衡量标准相比更有用。
- Beyond the Granularity: Multi-Perspective Dialogue Collaborative Selection for Dialogue State Tracking
- Jinyu Guo, Kai Shuang, Jijie Li, Zihan Wang, Yixuan Liu
- TLDR: 我们提出了一种基于对话内容的动态调整对话内容的方法,用于动态调整对话内容的顺序。
- Are Prompt-based Models Clueless?
- Pride Kavumba, Ryo Takahashi, Yusuke Oda
- TLDR: 本文提出了一个基于少樣本的理论,该理论表明,少樣本的模型在不损害准确性的情况下,也会利用表面的线性图。
- Learning Confidence for Transformer-based Neural Machine Translation
- Yu Lu, Jiali Zeng, Jiajun Zhang, Shuangzhi Wu, Mu Li
- TLDR: 我们提出了一种基于信心的非监督的非监督的信心估计方法,它可以准确地评估出在不相关的损失和损失情况下的潜在风险。
- Things not Written in Text: Exploring Spatial Commonsense from Visual Signals
- Xiao Liu, Da Yin, Yansong Feng, Dongyan Zhao
- TLDR: 我们提出了一个空间通用的理论基准,并表明,通过使用视觉信号和图像合成模型,模型可以学习更准确的空间通用知见。
- Conditional Bilingual Mutual Information Based Adaptive Training for Neural Machine Translation
- Songming Zhang, Yijin Liu, Fandong Meng, Yufeng Chen, Jinan Xu, Jian Liu, Jie Zhou
- TLDR: 我们提出了一个用于神经机器翻译的条件性相互信息(CBMI),用于补充预测条件性信息的统计指标。
- ClusterFormer: Neural Clustering Attention for Efficient and Effective Transformer
- Ningning Wang, Guobing Gan, Peng Zhang, Shuai Zhang, Junqiu Wei, Qun Liu, Xin Jiang
- TLDR: 我们提出了一种用于Transformer的神经聚类方法,它可以直接集成到自我关注过程中,从而提高效率。
- Bottom-Up Constituency Parsing and Nested Named Entity Recognition with Pointer Networks
- Songlin Yang, Kewei Tu
- TLDR: 我们提出了一种新的端到端的解析方法,用于从构成性上进行归纳分类和归纳分类。
- Redistributing Low-Frequency Words: Making the Most of Monolingual Data in Non-Autoregressive Translation
- Liang Ding, Longyue Wang, Shuming Shi, Dacheng Tao, Zhaopeng Tu
- TLDR: 我们提出了一种用于非逆转翻译的新型方法,该方法可以提高NAT模型的训练效率。
- Dependency Parsing as MRC-based Span-Span Prediction
- Leilei Gan, Yuxian Meng, Kun Kuang, Xiaofei Sun, Chun Fan, Fei Wu, Jiwei Li
- TLDR: 我们提出了一种新的基于跨域关系的依赖性解析方法,用于解决跨域关系的依赖性解析。
- Adversarial Soft Prompt Tuning for Cross-Domain Sentiment Analysis
- Hui Wu, Xiaodong Shi
- TLDR: 本文提出了一个用于跨域情感分析的固定的框架,该框架可以用于解决跨域情感分析的固定框架。
- Generating Scientific Claims for Zero-Shot Scientific Fact Checking
- Dustin Wright, David Wadden, Kyle Lo, Bailey Kuehl, Arman Cohan, Isabelle Augenstein, Lucy Wang
- TLDR: 我们提出了一个用于零樣本事实验证的新型非监督的科学论证生成方法,它可以从科学论文中生成一个或多个 atom和可信的论证。
- Modeling Dual Read/Write Paths for Simultaneous Machine Translation
- Shaolei Zhang, Yang Feng
- TLDR: 我们提出了一种用于多路机器翻译的双向路径 SiMT方法,该方法引入了对阅读/写路径的依赖性限制,以实现对目标词的依赖性。
- ExtEnD: Extractive Entity Disambiguation
- Edoardo Barba, Luigi Procopio, Roberto Navigli
- TLDR: 我们提出了ExtEnD,一个新颖的區域表征,用于ED,它与现有的ED模型相比在数据效率和实际性能上优于所有现有的ED模型。
- Hierarchical Sketch Induction for Paraphrase Generation
- Tom Hosking, Hao Tang, Mirella Lapata
- TLDR: 我们提出了一个生成模型,通过条件来鼓励语法多样性,通过条件来生成句法。
- Alignment-Augmented Consistent Translation for Multilingual Open Information Extraction
- Keshav Kolluru, Muqeeth Mohammed, Shubham Mittal, Soumen Chakrabarti, Mausam .
- TLDR: 我们使用AACTrans和Gen2OIE来生成一个新颖的二阶生成的OpenIE模型,该模型输出了句法和句法之间的关系。
- Text-to-Table: A New Way of Information Extraction
- Xueqing Wu, Jiacheng Zhang, Hang Li
- TLDR: 我们用一个从序列到序列(seq2seq)问题中提取的句法模型来解决信息提取(IE)问题。
- Accelerating Code Search with Deep Hashing and Code Classification
- Wenchao Gu, Yanlin Wang, Lun Du, Hongyu Zhang, Shi Han, Dongmei Zhang, Michael Lyu
- TLDR: 我们提出了一种用于代码搜索的新型方法,用于加速代码搜索的深度搜索和代码分类。
- Other Roles Matter! Enhancing Role-Oriented Dialogue Summarization via Role Interactions
- Haitao Lin, Junnan Zhu, Lu Xiang, Yu Zhou, Jiajun Zhang, Chengqing Zong
- TLDR: 我们提出了一种用于角色互动的对话总结的新方法。
- ClarET: Pre-training a Correlation-Aware Context-To-Event Transformer for Event-Centric Generation and Classification
- Yucheng Zhou, Tao Shen, Xiubo Geng, Guodong Long, Daxin Jiang
- TLDR: 我们提出了一个用于事件中心推理的一般元元到Event Transformer,用于事件中心推理。
- Measuring and Mitigating Name Biases in Neural Machine Translation
- Jun Wang, Benjamin Rubinstein, Trevor Cohn
- TLDR: 我们提出了一种用于NMT的简单数据增强方法,可以有效地减少NMT系统中出现的偏差。
- Understanding and Improving Sequence-to-Sequence Pretraining for Neural Machine Translation
- Wenxuan Wang, Wenxiang Jiao, Yongchang Hao, Xing Wang, Shuming Shi, Zhaopeng Tu, Michael Lyu
- TLDR: 我们提出了一个重要的理论,通过研究Seq2Seq的预训练和NMT的非监督性,从理论上理解了SOTA序列到序列(Seq2Seq)的预训练。
- MSCTD: A Multimodal Sentiment Chat Translation Dataset
- Yunlong Liang, Fandong Meng, Jinan Xu, Yufeng Chen, Jie Zhou
- TLDR: 我们提出了一个用于多模态语音翻译的多模态情感对话翻译数据集。
- Learning Disentangled Textual Representations via Statistical Measures of Similarity
- Pierre Colombo, Guillaume Staerman, Nathan Noiry, Pablo Piantanida
- TLDR: 我们提出了一个用于学习从表征中分解表征的正则器。
- On the Sensitivity and Stability of Model Interpretations in NLP
- Fan Yin, Zhouxing Shi, Cho-Jui Hsieh, Kai-Wei Chang
- TLDR: 我们提出了一个新的解释方法,它采用了对抗性穩定性,以解决基于梯度的标准的分歧。
- Down and Across: Introducing Crossword-Solving as a New NLP Benchmark
- Saurabh Kulshreshtha, Olga Kovaleva, Namrata Shivagunde, Anna Rumshisky
- TLDR: 我们引入了解决跨字典问题的方法,并提出了一个基于一个非参数的衡量标准来衡量解决跨字典问题的信心。
- Generating Data to Mitigate Spurious Correlations in Natural Language Inference Datasets
- Yuxiang Wu, Matt Gardner, Pontus Stenetorp, Pradeep Dasigi
- TLDR: 我们提出了一种用于训练有偏见的语言处理模型的无偏见方法,该方法使用了一种基于Z-statistics的算法,以生成有偏见的模型。
- GL-CLeF: A Global–Local Contrastive Learning Framework for Cross-lingual Spoken Language Understanding
- Libo Qin, Qiguang Chen, Tianbao Xie, Qixin Li, Jian-Guang Lou, Wanxiang Che, Min-Yen Kan
- TLDR: 我们提出了一个用于跨语言的反向学习框架,该框架通过使用多语言词典来构建多语言的见解,然后鼓励它们的表示比负面例子的表示更相似。
- Good Examples Make A Faster Learner: Simple Demonstration-based Learning for Low-resource NER
- Dong-Ho Lee, Akshen Kadakia, Kangmin Tan, Mahak Agarwal, Xinyu Feng, Takashi Shibuya, Ryosuke Mitani, Toshiyuki Sekiya, Jay Pujara, Xiang Ren
- TLDR: 我们提出了一种基于示范的学习方法,它可以从任务示范中学习,并可以从任务示范中学习。
- Contextual Representation Learning beyond Masked Language Modeling
- Zhiyi Fu, Wangchunshu Zhou, Jingjing Xu, Hao Zhou, Lei Li
- TLDR: 我们提出了一种简单的、通用的表征学习方法,用于直接建全语义。
- Efficient Hyper-parameter Search for Knowledge Graph Embedding
- Yongqi Zhang, Zhanke Zhou, Quanming Yao, Yong Li
- TLDR: 我们提出了一种高效的二阶搜索算法,它在知识图上学习的HP分布上进行了深入的探索,并使用它来寻找最佳HP。
- A Meta-framework for Spatiotemporal Quantity Extraction from Text
- Qiang Ning, Ben Zhou, Hao Wu, Haoruo Peng, Chuchu Fan, Matt Gardner
- TLDR: 我们提出了第一个用于空间时间量化提取的元框架,并提出了第一个用于解决它的方法。
- Leveraging Visual Knowledge in Language Tasks: An Empirical Study on Intermediate Pre-training for Cross-Modal Knowledge Transfer
- Woojeong Jin, Dong-Ho Lee, Chenguang Zhu, Jay Pujara, Xiang Ren
- TLDR: 我们研究了在语言模型中使用视觉知识的深度学习方法。
- A Good Prompt Is Worth Millions of Parameters: Low-resource Prompt-based Learning for Vision-Language Models
- Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren
- TLDR: 我们研究了基于随机学习的少樣本学习的理论和实践结果。
- Continual Few-shot Relation Learning via Embedding Space Regularization and Data Augmentation
- Chengwei Qin, Shafiq Joty
- TLDR: 我们提出了一种用于少樣本学习的新型方法,它可以比以前的CFRL方法更快地适应新的少樣本学习任务。
- Variational Graph Autoencoding as Cheap Supervision for AMR Coreference Resolution
- Irene Li, Linfeng Song, Kun Xu, Dong Yu
- TLDR: 我们提出了一种通用的预训练方法,用于AMR的一般reference resolution。
- Identifying Chinese Opinion Expressions with Extremely-Noisy Crowdsourcing Annotations
- Xin Zhang, Guangwei Xu, Yueheng Sun, Meishan Zhang, Xiaobin Wang, Min Zhang
- TLDR: 我们通过使用一个用于OEI的通用注释来训练一个用于批评的注释,以实现一个强大的批评的样本库。
- Sequence-to-Sequence Knowledge Graph Completion and Question Answering
- Apoorv Saxena, Adrian Kochsiek, Rainer Gemulla
- TLDR: 我们提出了一个用于知识图上嵌入的图形嵌入模型,它可以作为知识图上嵌入的图形模型,并取得了最先进的结果。
- Learning to Mediate Disparities Towards Pragmatic Communication
- Yuwei Bao, Sayan Ghosh, Joyce Chai
- TLDR: 我们提出了一个用于语言沟通的逻辑推理框架,用于学习和适应不同类型的听众的差异。
- Unsupervised Corpus Aware Language Model Pre-training for Dense Passage Retrieval
- Luyu Gao, Jamie Callan
- TLDR: 我们提出了一个用于密集检索的语言模型,它可以从简单的小批量微调中学习,并使用它来解决密集检索的两个关键问题。
- Multimodal Dialogue Response Generation
- Qingfeng Sun, Yujing Wang, Can Xu, Kai Zheng, Yaming Yang, Huang Hu, Fei Xu, Jessica Zhang, Xiubo Geng, Daxin Jiang
- TLDR: 我们提出了一种基于文本的对话回答生成的新方法,它可以从单个对话中学习,也可以从整个生成模型中学习。
- CAKE: A Scalable Commonsense-Aware Framework For Multi-View Knowledge Graph Completion
- Guanglin Niu, Bo Li, Yongfei Zhang, Shiliang Pu
- TLDR: 我们提出了一个用于知识图嵌入的自上而下的通用性知识嵌入框架。
- Confidence Based Bidirectional Global Context Aware Training Framework for Neural Machine Translation
- Chulun Zhou, Fandong Meng, Jie Zhou, Min Zhang, Hongji Wang, Jinsong Su
- TLDR: 我们提出了一个基于信心的Bidirectional Global Context Aware(CBBGCA)训练框架,用于NMT,该框架使用一个辅助条件的模型(CMLM)作为教师。
- BRIO: Bringing Order to Abstractive Summarization
- Yixin Liu, Pengfei Liu, Dragomir Radev, Graham Neubig
- TLDR: 我们提出了一种新的方法,通过将目标分布假设为一个非决定性分布,以训练一个能够估计不同代表的代表的代表的平均值的非监督分布。
- Leveraging Relaxed Equilibrium by Lazy Transition for Sequence Modeling
- Xi Ai, Bin Fang
- TLDR: 我们提出了一种基于注意力的GAN,用于从顺序中学习到更好的表示。
- FIBER: Fill-in-the-Blanks as a Challenging Video Understanding Evaluation Framework
- Santiago Castro, Ruoyao Wang, Pingxuan Huang, Ian Stewart, Oana Ignat, Nan Liu, Jonathan Stroud, Rada Mihalcea
- TLDR: 本文提出了填充-空格的视频理解评估框架和引入FIBER,以评估视频中模型的理解能力。
- KenMeSH: Knowledge-enhanced End-to-end Biomedical Text Labelling
- Xindi Wang, Robert Mercer, Frank Rudzicz
- TLDR: 我们提出了 KenMeSH,一个端到端的模型,通过使用一个动态知识增强的姿态注意力来表示MeSH标签。
- A Taxonomy of Empathetic Questions in Social Dialogs
- Ekaterina Svikhnushina, Iuliana Voinea, Anuradha Welivita, Pearl Pu
- TLDR: 我们提出了一个用于社会对话的自问问题分类法,它可以帮助回答者表现自情感,并展示出回答者对问题的回应策略。
- Enhanced Multi-Channel Graph Convolutional Network for Aspect Sentiment Triplet Extraction
- Hao Chen, Zepeng Zhai, Fangxiang Feng, Ruifan Li, Xiaojie Wang
- TLDR: 我们提出了一种用于情感追踪的多通道图卷积网络模型,它可以完全使用词之间的关系。
- ProtoTEx: Explaining Model Decisions with Prototype Tensors
- Anubrata Das, Chitrank Gupta, Venelin Kovatchev, Matthew Lease, Junyi Jessy Li
- TLDR: 我们提出了 ProtoTEx,一种基于样本网络的新型的白盒NLP分类架构,用于学习最先进的例子。
- Show Me More Details: Discovering Hierarchies of Procedures from Semi-structured Web Data
- Shuyan Zhou, Li Zhang, Yue Yang, Qing Lyu, Pengcheng Yin, Chris Callison-Burch, Graham Neubig
- TLDR: 我们提出了一种简单而有效的方法,通过将步骤(如, “选择一个相机”)嵌入到其他相关文章中,然后从其他相关文章中提取KB。
- Cross-Modal Discrete Representation Learning
- Alexander Liu, SouYoung Jin, Cheng-I Lai, Andrew Rouditchenko, Aude Oliva, James Glass
- TLDR: 我们提出了一个自我监督的学习框架,可以学习一个代表抽象概念的抽象表示,并利用它来表示抽象概念。
- Improving Event Representation via Simultaneous Weakly Supervised Contrastive Learning and Clustering
- Jun Gao, Wei Wang, Changlong Yu, Huan Zhao, Wilfred Ng, Ruifeng Xu
- TLDR: 我们提出了SWCC:一个对抗性学习和展示框架,用于事件表征学习。
- Contrastive Visual Semantic Pretraining Magnifies the Semantics of Natural Language Representations
- Robert Wolfe, Aylin Caliskan
- TLDR: 我们通过对比性视觉语义预训练来分析和解决语义表征的上下文嵌入的上下文表征的上下文表征。
- ConTinTin: Continual Learning from Task Instructions
- Wenpeng Yin, Jia Li, Caiming Xiong
- TLDR: 我们首次研究了ConTinTin,一个用于NLP的持续学习的新学习问题。
- Automated Crossword Solving
- Eric Wallace, Nicholas Tomlin, Albert Xu, Kevin Yang, Eshaan Pathak, Matthew Ginsberg, Dan Klein
- TLDR: 我们提出了Berkeley Crossword Solver,一种用于自动解决跨字符解码的新型方法。
- Learned Incremental Representations for Parsing
- Nikita Kitaev, Thomas Lu, Dan Klein
- TLDR: 我们提出了一种基于单个单词的标签的语法表示,它可以作为句法的句法表示,并表明,它可以作为句法的句法表示。
- Knowledge Enhanced Reflection Generation for Counseling Dialogues
- Siqi Shen, Veronica Perez-Rosas, Charles Welch, Soujanya Poria, Rada Mihalcea
- TLDR: 我们研究了在自助服务中使用检索和生成方法进行知识整合的好处。
- Misinfo Reaction Frames: Reasoning about Readers’ Reactions to News Headlines
- Saadia Gabriel, Skyler Hallinan, Maarten Sap, Pemi Nguyen, Franziska Roesner, Eunsol Choi, Yejin Choi
- TLDR: 我们提出了Misinfo Reaction Frames,一个用于预测新闻标题中读者的反应的一般框架。
- On Continual Model Refinement in Out-of-Distribution Data Streams
- Bill Yuchen Lin, Sida Wang, Xi Lin, Robin Jia, Lin Xiao, Xiang Ren, Scott Yih
- TLDR: 我们提出了一个持续学习问题,并提出了一个持续模型迭代(CMR)问题。
- Achieving Conversational Goals with Unsupervised Post-hoc Knowledge Injection
- Bodhisattwa Prasad Majumder, Harsh Jhamtani, Taylor Berg-Kirkpatrick, Julian McAuley
- TLDR: 我们提出了一种用于知识注入的元知识注入技术,用于解决基于知识的对话问题。
- Generated Knowledge Prompting for Commonsense Reasoning
- Jiacheng Liu, Alisa Liu, Ximing Lu, Sean Welleck, Peter West, Ronan Le Bras, Yejin Choi, Hannaneh Hajishirzi
- TLDR: 我们提出了知识推理的生成知识 prompting,它可以作为回答问题的额外知识输入,并可以被用来改进语言模型。
- Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data
- Shuohang Wang, Yichong Xu, Yuwei Fang, Yang Liu, Siqi Sun, Ruochen Xu, Chenguang Zhu, Michael Zeng
- TLDR: 我们提出了一种基于REINA的非监督学习方法,可以提高NLU和NLP任务的多项式性能。
- Life after BERT: What do Other Muppets Understand about Language?
- Vladislav Lialin, Kevin Zhao, Namrata Shivagunde, Anna Rumshisky
- TLDR: 我们使用OLMpics的随机权重和神经语言学问题集来评估和解决多模型的非凸性问题。
- Tailor: Generating and Perturbing Text with Semantic Controls
- Alexis Ross, Tongshuang Wu, Hao Peng, Matthew Peters, Matt Gardner
- TLDR: 我们提出了Tailor,一个语义控制的文本生成系统。
- TruthfulQA: Measuring How Models Mimic Human Falsehoods
- Stephanie Lin, Jacob Hilton, Owain Evans
- TLDR: 我们提出了一个衡量标准,以衡量一个语言模型在回答问题时是否真的。
- Adaptive Testing and Debugging of NLP Models
- Marco Tulio Ribeiro, Scott Lundberg
- TLDR: 我们提出了AdaTest,一个用于测试和改进NLP模型的软件程序,它使用大型语言模型(LMs)在联合反馈中自动写 unit测试,以解决特定模型中出现的bug。
- Right for the Right Reason: Evidence Extraction for Trustworthy Tabular Reasoning
- Vivek Gupta, Shuo Zhang, Alakananda Vempala, Yujie He, Temma Choji, Vivek Srikumar
- TLDR: 我们提出了一种基于上下文嵌入的多步骤预测方法,用于InfoTabS,InfoTabS是数据表的NLI基准。
- Interactive Word Completion for Plains Cree
- William Lane, Atticus Harrigan, Antti Arppe
- TLDR: 我们提出了一种基于morph的自动编码器,它可以从一个有限状态中提取出一个词的词的词汇编码。
- LAGr: Label Aligned Graphs for Better Systematic Generalization in Semantic Parsing
- Dora Jambor, Dzmitry Bahdanau
- TLDR: 我们提出了LAGr,一个通用框架,用于生成语义解析。
- ToxiGen: A Large-Scale Machine-Generated Dataset for Adversarial and Implicit Hate Speech Detection
- Thomas Hartvigsen, Saadia Gabriel, Hamid Palangi, Maarten Sap, Dipankar Ray, Ece Kamar
- TLDR: 我们提出了ToxiGen,这是一个用于检测有毒和不安全的词汇数据集。
- Direct Speech-to-Speech Translation With Discrete Units
- Ann Lee, Peng-Jen Chen, Changhan Wang, Jiatao Gu, Sravya Popuri, Xutai Ma, Adam Polyak, Yossi Adi, Qing He, Yun Tang, Juan Pino, Wei-Ning Hsu
- TLDR: 我们提出了一个直接的语音到语音的翻译(S2ST)模型,它可以从一个语言到另一个语言的语音中翻译出语音。
- Hallucinated but Factual! Inspecting the Factuality of Hallucinations in Abstractive Summarization
- Meng Cao, Yue Dong, Jackie Cheung
- TLDR: 我们提出了一种新的方法来检测实体的虚假性妄想。
- EntSUM: A Data Set for Entity-Centric Extractive Summarization
- Mounica Maddela, Mayank Kulkarni, Daniel Preotiuc-Pietro
- TLDR: 我们提出了一个用于控制可逆总结的人类注释数据集。
- Sentence-level Privacy for Document Embeddings
- Casey Meehan, Khalil Mrini, Kamalika Chaudhuri
- TLDR: 我们提出了一个用于单个用户文件的句法级差异性隐私的新方法,用于生成高768维的一般概括。
- Dataset Geography: Mapping Language Data to Language Users
- Fahim Faisal, Yinkai Wang, Antonios Anastasopoulos
- TLDR: 我们研究了NLP数据集的地理代表性,并表明,地理代表性与NLP数据集的地理代表性密切相关。
- ILDAE: Instance-Level Difficulty Analysis of Evaluation Data
- Neeraj Varshney, Swaroop Mishra, Chitta Baral
- TLDR: 我们展示了ILDAE在评估数据集上的应用。
- Image Retrieval from Contextual Descriptions
- Benno Krojer, Vaibhav Adlakha, Vibhav Vineet, Yash Goyal, Edoardo Ponti, Siva Reddy
- TLDR: 我们提出了ImageCoDE,一个用于从语义描述中检索出图像的多模态挑战。
- Multilingual Molecular Representation Learning via Contrastive Pre-training
- Zhihui Guo, Pramod Sharma, Andy Martinez, Liang Du, Robin Abraham
- TLDR: 我们提出了一种基于多语种神经网络的多语种分子嵌入生成方法,用于多语种分子表征学习。
- [Investigating Failures of Automatic Translation
in the Case of Unambiguous Gender](https://aclanthology.org/2022.acl-long.243)
- Adithya Renduchintala, Adina Williams
-
TLDR: 我们提出了一个评估框架和数据集来衡量NMT模型在翻译过程中的性别标记的准确性。
- Cross-Task Generalization via Natural Language Crowdsourcing Instructions
- Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi
- TLDR: 我们使用GANs来学习任务,并使用GANs来生成任务输出。
- Imputing Out-of-Vocabulary Embeddings with LOVE Makes LanguageModels Robust with Little Cost
- Lihu Chen, Gael Varoquaux, Fabian Suchanek
- TLDR: 我们提出了一个简单的对比性学习框架,它可以扩展现有的语言模型,以实现OOV的穩定性。
- NumGLUE: A Suite of Fundamental yet Challenging Mathematical Reasoning Tasks
- Swaroop Mishra, Arindam Mitra, Neeraj Varshney, Bhavdeep Sachdeva, Peter Clark, Chitta Baral, Ashwin Kalyan
- TLDR: 我们提出了 NumGLUE,一个多任务基准,衡量了在多任务上的表现,并表明,在语言上的表现比人类更差。
- Upstream Mitigation Is
Not
All You Need: Testing the Bias Transfer Hypothesis in Pre-Trained Language Models
- Ryan Steed, Swetasudha Panda, Ari Kobren, Michael Wick
- TLDR: 我们研究了网络中编码的虚假性,并表明,网络中的编码者可以从中学习虚假的标签。
- Improving Multi-label Malevolence Detection in Dialogues through Multi-faceted Label Correlation Enhancement
- Yangjun Zhang, Pengjie Ren, Wentao Deng, Zhumin Chen, Maarten Rijke
- TLDR: 我们提出了多标签对话欺骗检测和多标签对话欺骗检测(MDMD)用于评估对话中偏见的多标签对话欺骗检测。
- How Do We Answer Complex Questions: Discourse Structure of Long-form Answers
- Fangyuan Xu, Junyi Jessy Li, Eunsol Choi
- TLDR: 我们研究了从三个数据集中收集的长形式回答的 functional结构。
- Understanding Iterative Revision from Human-Written Text
- Wanyu Du, Vipul Raheja, Dhruv Kumar, Zae Myung Kim, Melissa Lopez, Dongyeop Kang
- TLDR: 我们提出了一个用于文本修改的全域建模框架,用于从文本中学习修改意图。
- Making Transformers Solve Compositional Tasks
- Santiago Ontanon, Joshua Ainslie, Zachary Fisher, Vaclav Cvicek
- TLDR: 我们提出了一个用于概括NLP任务的GAN,该GAN使用GAN的GAN架构。
- Can Transformer be Too Compositional? Analysing Idiom Processing in Neural Machine Translation
- Verna Dankers, Christopher Lucas, Ivan Titov
- TLDR: 我们通过分析模型的隐藏状态和关注模式,研究了模型的模型在词汇的非结构性表达上的表现。
- ConditionalQA: A Complex Reading Comprehension Dataset with Conditional Answers
- Haitian Sun, William Cohen, Ruslan Salakhutdinov
- TLDR: 我们描述了一个问题回答(QA)数据集,它包含复杂的问题,回答是仅适用于特定的条件,而条件答案则适用于所有条件。
- Prompt-free and Efficient Few-shot Learning with Language Models
- Rabeeh Karimi Mahabadi, Luke Zettlemoyer, James Henderson, Lambert Mathias, Marzieh Saeidi, Veselin Stoyanov, Majid Yazdani
- TLDR: 我们提出了perfect,一种简单的、高效的少樣本学习方法,可以从有限的数据中学习,比现有的少樣本学习方法更快。
- Continual Sequence Generation with Adaptive Compositional Modules
- Yanzhe Zhang, Xuezhi Wang, Diyi Yang
- TLDR: 我们提出了一种持续时间生成的解决方案,可以从变压器中提取模块,并将其应用于新的任务。
- An Investigation of the (In)effectiveness of Counterfactually Augmented Data
- Nitish Joshi, He He
- TLDR: 我们表明,在批评的例子中,由于穩定性偏差,导致了对可穩定性特征的穩定性偏差的穩定性偏差。
- Inducing Positive Perspectives with Text Reframing
- Caleb Ziems, Minzhi Li, Anthony Zhang, Diyi Yang
- TLDR: 我们介绍了一个用于文本风格转移的基准,并展示了在本文中使用了最先进的文本风格转移模型。
- VALUE: Understanding Dialect Disparity in NLU
- Caleb Ziems, Jiaao Chen, Camille Harris, Jessica Anderson, Diyi Yang
- TLDR: 我们提出了VALUE,一个用于评估自然语言理解的基准,它可以帮助更有效地评估语言理解的语言理解。
- From the Detection of Toxic Spans in Online Discussions to the Analysis of Toxic-to-Civil Transfer
- John Pavlopoulos, Leo Laugier, Alexandros Xenos, Jeffrey Sorensen, Ion Androutsopoulos
- TLDR: 我们研究了用ToxicSpans检测文本的毒性,并提出了一个用于检测毒性流的网络。
- FormNet: Structural Encoding beyond Sequential Modeling in Form Document Information Extraction
- Chen-Yu Lee, Chun-Liang Li, Timothy Dozat, Vincent Perot, Guolong Su, Nan Hua, Joshua Ainslie, Renshen Wang, Yasuhisa Fujii, Tomas Pfister
- TLDR: 我们提出了FormNet,一个结构化序列模型,用于解决形式的非结构化编码问题。
- The Moral Integrity Corpus: A Benchmark for Ethical Dialogue Systems
- Caleb Ziems, Jane Yu, Yi-Chia Wang, Alon Halevy, Diyi Yang
- TLDR: 我们提出了一个用于对话系统道德性假设的理论库,它可以作为对话系统道德性假设的基准,用于解释和衡量对话系统道德性偏见。
- Token Dropping for Efficient BERT Pretraining
- Le Hou, Richard Yuanzhe Pang, Tianyi Zhou, Yuexin Wu, Xinying Song, Xiaodan Song, Denny Zhou
- TLDR: 我们提出了一种简单而有效的方法,用于加速转換器模型的预训练,无需对BERT进行额外的训练。
- DialFact: A Benchmark for Fact-Checking in Dialogue
- Prakhar Gupta, Chien-Sheng Wu, Wenhao Liu, Caiming Xiong
- TLDR: 我们提出了一个简单的事实检索解决方案,用于在对话中有效改进事实检索。
- The Trade-offs of Domain Adaptation for Neural Language Models
- David Grangier, Dan Iter
- TLDR: 我们通过对语言模型适应的理论联系到机器学习理论。
- Towards Afrocentric NLP for African Languages: Where We Are and Where We Can Go
- Ife Adebara, Muhammad Abdul-Mageed
- TLDR: 我们通过关注语言多样性,从低资源到安全的语言,以及语言多样性如何被利用。
- Ensembling and Knowledge Distilling of Large Sequence Taggers for Grammatical Error Correction
- Maksym Tarnavskyi, Artem Chernodub, Kostiantyn Omelianchuk
- TLDR: 我们研究了GEC序列标签架构的新改进,并提出了一个用于大规模建模的架构。
- Speaker Information Can Guide Models to Better Inductive Biases: A Case Study On Predicting Code-Switching
- Alissa Ostapenko, Shuly Wintner, Melinda Fricke, Yulia Tsvetkov
- TLDR: 我们首次使用语音特征作为回答,以帮助NLP模型学习说话特征。
- Detecting Unassimilated Borrowings in Spanish: An Annotated Corpus and Approaches to Modeling
- Elena Álvarez-Mellado, Constantine Lignos
- TLDR: 我们使用CRF和BiLSTM-CRF来分析和评估几个模型在这项任务中的表现和错误。
- Is Attention Explanation? An Introduction to the Debate
- Adrien Bibal, Rémi Cardon, David Alfter, Rodrigo Wilkens, Xiaoou Wang, Thomas François, Patrick Watrin
- TLDR: 我们通过对不同领域的研究进行深入的分析来看待注意力问题。
- There Are a Thousand Hamlets in a Thousand People’s Eyes: Enhancing Knowledge-grounded Dialogue with Personal Memory
- Tingchen Fu, Xueliang Zhao, Chongyang Tao, Ji-Rong Wen, Rui Yan
- TLDR: 我们提出了一种用于知识选择的变异方法,用于解决知识选择的个性化问题。
- Neural Pipeline for Zero-Shot Data-to-Text Generation
- Zdeněk Kasner, Ondrej Dusek
- TLDR: 我们提出了一种基于文本的文本生成方法,通过将单个例子描述转化为一个序列序列,以实现从无模型数据中生成文本。
- Not always about you: Prioritizing community needs when developing endangered language technology
- Zoey Liu, Crystal Richardson, Richard Hatcher, Emily Prud’hommeaux
- TLDR: 我们描述了在没有数据的情况下进行语言资源的开发和保护方面的经验。
- Automatic Identification and Classification of Bragging in Social Media
- Mali Jin, Daniel Preotiuc-Pietro, A. Seza Doğruöz, Nikolaos Aletras
- TLDR: 我们首次研究了用于多语义偏差预测的神经网络,并提出了一个用于多语义偏差预测的理论和经验分析。
- Automatic Error Analysis for Document-level Information Extraction
- Aliva Das, Xinya Du, Barry Wang, Kejian Shi, Jiayuan Gu, Thomas Porter, Claire Cardie
- TLDR: 我们提出了一个基于变换的框架,用于用于基于事件和关系提取的错误分析。
- Learning Functional Distributional Semantics with Visual Data
- Yinhong Liu, Guy Emerson
- TLDR: 我们提出了一种用于学习分布语义的神经网络的方法,该方法使用基于视觉的视觉数据。
- ePiC: Employing Proverbs in Context as a Benchmark for Abstract Language Understanding
- Sayan Ghosh, Shashank Srivastava
- TLDR: 我们介绍了一个用于用句法引用句法的经典句法数据集,用于用句法引用句法的句法,并表明,在句法上使用句法的句法,可以提高抽象语言理解能力。
- Chart-to-Text: A Large-Scale Benchmark for Chart Summarization
- Shankar Kantharaj, Rixie Tiffany Leong, Xiang Lin, Ahmed Masry, Megh Thakkar, Enamul Hoque, Shafiq Joty
- TLDR: 我们提出了一个用于图到数据的基准,它可以帮助人们从图中得出准确的总结。
- Characterizing Idioms: Conventionality and Contingency
- Michaela Socolof, Jackie Cheung, Michael Wagner, Timothy O’Donnell
- TLDR: 我们表明,词汇的词义和句法的词义之间没有直接联系,词句的词义和句法之间的词义意义是相等的。
- Bag-of-Words vs. Graph vs. Sequence in Text Classification: Questioning the Necessity of Text-Graphs and the Surprising Strength of a Wide MLP
- Lukas Galke, Ansgar Scherp
- TLDR: 我们表明,使用Bag-of-Words(BoW)的多层感知器(MLP)比传统的图神经网络更优。
- Generative Pretraining for Paraphrase Evaluation
- Jack Weston, Raphael Lenain, Udeepa Meepegama, Emil Fristed
- TLDR: 我们介绍了ParaBLEU,一个用于文本生成的paraphrase表示学习模型和衡量标准。
- Incorporating Stock Market Signals for Twitter Stance Detection
- Costanza Conforti, Jakob Berndt, Mohammad Taher Pilehvar, Chryssi Giannitsarou, Flavio Toxvaerd, Nigel Collier
- TLDR: 我们通过研究多任务神经网络的上下文和金钱信号的结合,提出了一个具有穩定的多任务神经结构,用于政策追踪的多任务追踪器。
- Multilingual Mix: Example Interpolation Improves Multilingual Neural Machine Translation
- Yong Cheng, Ankur Bapna, Orhan Firat, Yuan Cao, Pidong Wang, Wolfgang Macherey
- TLDR: 我们提出了一种用于多语言翻译的多语言跨模解码器-解码器(mXEncDec)方法,用于结合语言 pairs的实例层次。
- Word Segmentation as Unsupervised Constituency Parsing
- Raquel G. Alhama
- TLDR: 本文提出了一种用于词识别的新型方法,该方法在语义过程和词识别之间关系密切。
- SafetyKit: First Aid for Measuring Safety in Open-domain Conversational Systems
- Emily Dinan, Gavin Abercrombie, A. Bergman, Shannon Spruit, Dirk Hovy, Y-Lan Boureau, Verena Rieser
- TLDR: 我们提出了一个用于端到端对话AI安全问题的理论和经验。
- Zero-Shot Cross-lingual Semantic Parsing
- Tom Sherborne, Mirella Lapata
- TLDR: 我们提出了一个多任务编码器-解码器模型,用于跨语言语义解析。
- The Paradox of the Compositionality of Natural Language: A Neural Machine Translation Case Study
- Verna Dankers, Elia Bruni, Dieuwke Hupkes
- TLDR: 我们重新instantiate了三种组成性测试,并将其应用于神经机器翻译(NMT)。
- Multilingual Document-Level Translation Enables Zero-Shot Transfer From Sentences to Documents
- Biao Zhang, Ankur Bapna, Melvin Johnson, Ali Dabirmoghaddam, Naveen Arivazhagan, Orhan Firat
- TLDR: 我们首次从教师语言数据中提取了零樣本转移的理论,并首次从文件级翻译中提取了理论。
- Cross-Lingual Phrase Retrieval
- Heqi Zheng, Xiao Zhang, Zewen Chi, Heyan Huang, Yan Tan, Tian Lan, Wei Wei, Xian-Ling Mao
- TLDR: 我们提出了一个跨语言词典检索器,它从不标注的例子句法中提取词表征。
- Improving Compositional Generalization with Self-Training for Data-to-Text Generation
- Sanket Vaibhav Mehta, Jinfeng Rao, Yi Tay, Mihir Kale, Ankur Parikh, Emma Strubell
- TLDR: 我们提出了一种基于生成模型的简单数据到文本生成的自上而下的解决方案。
- MMCoQA: Conversational Question Answering over Text, Tables, and Images
- Yongqi Li, Wenjie Li, Liqiang Nie
- TLDR: 我们提出了第一个基于数据的多模态对话QA数据集,用于回答用户提出的多模态知识来源的提问。
- Effective Token Graph Modeling using a Novel Labeling Strategy for Structured Sentiment Analysis
- Wenxuan Shi, Fei Li, Jingye Li, Hao Fei, Donghong Ji
- TLDR: 我们提出了一个用于结构化情感分析的标签策略,它包含了两个组的标签标签,其中一个是关键标签集,另一个是全标签集。
- PromDA: Prompt-based Data Augmentation for Low-Resource NLU Tasks
- Yufei Wang, Can Xu, Qingfeng Sun, Huang Hu, Chongyang Tao, Xiubo Geng, Daxin Jiang
- TLDR: 我们提出了一种基于数据增强的NLP任务的深度学习模型,它只训练小尺度Soft Prompt(i.e.,一个训练可训练的维度),并将其应用于没有训练可训练维度的PLMs。
- Disentangled Sequence to Sequence Learning for Compositional Generalization
- Hao Zheng, Mirella Lapata
- TLDR: 我们提出了一种用于序列到序列架构的神经网络的自适应方法,通过适应性地重新编码(每个时间步骤)源输入来鼓励分解。
- RST Discourse Parsing with Second-Stage EDU-Level Pre-training
- Nan Yu, Meishan Zhang, Guohong Fu, Min Zhang
- TLDR: 我们提出了一种用于学习更好的EDU表示的第二阶段的先验方法。
- SimKGC: Simple Contrastive Knowledge Graph Completion with Pre-trained Language Models
- Liang Wang, Wei Zhao, Zhuoyu Wei, Jingming Liu
- TLDR: 我们提出了一种基于图的完成的模型,它可以超越图的嵌入方法。
- Do Transformer Models Show Similar Attention Patterns to Task-Specific Human Gaze?
- Oliver Eberle, Stephanie Brandl, Jonas Pilot, Anders Søgaard
- TLDR: 我们表明,在高斯学习的语言模型中,自我关注函数与人类注意力密切相关。
- LexGLUE: A Benchmark Dataset for Legal Language Understanding in English
- Ilias Chalkidis, Abhik Jana, Dirk Hartung, Michael Bommarito, Ion Androutsopoulos, Daniel Katz, Nikolaos Aletras
- TLDR: 我们介绍了LexGLUE,一个用于评估法律一般语言理解的基准。
- DiBiMT: A Novel Benchmark for Measuring Word Sense Disambiguation Biases in Machine Translation
- Niccolò Campolungo, Federico Martelli, Francesco Saina, Roberto Navigli
- TLDR: 我们提出了DiBiMT,一个用于机器翻译的一般评估基准,用于研究语义偏差。
- Improving Word Translation via Two-Stage Contrastive Learning
- Yaoyiran Li, Fangyu Liu, Nigel Collier, Anna Korhonen, Ivan Vulić
- TLDR: 我们提出了一个可证明的、穩定的、有效的二阶对比性学习框架,用于BLI任务。
- Scheduled Multi-task Learning for Neural Chat Translation
- Yunlong Liang, Fandong Meng, Jinan Xu, Yufeng Chen, Jie Zhou
- TLDR: 我们提出了一个计划的多任务学习框架,用于在多任务学习中使用大型的语音翻译数据。
- FairLex: A Multilingual Benchmark for Evaluating Fairness in Legal Text Processing
- Ilias Chalkidis, Tommaso Pasini, Sheng Zhang, Letizia Tomada, Sebastian Schwemer, Anders Søgaard
- TLDR: 我们提出了一个框架,用于评估在法律上训练好的语言模型的公平性。
- Towards Abstractive Grounded Summarization of Podcast Transcripts
- Kaiqiang Song, Chen Li, Xiaoyang Wang, Dong Yu, Fei Liu
- TLDR: 我们提出了一种新的抽象化的总结方法,用于解决关于总结的一般框架。
- FiNER: Financial Numeric Entity Recognition for XBRL Tagging
- Lefteris Loukas, Manos Fergadiotis, Ilias Chalkidis, Eirini Spyropoulou, Prodromos Malakasiotis, Ion Androutsopoulos, Georgios Paliouras
- TLDR: 我们提出了BERT,一个用于XBRL数据提取的新型实体提取任务。
- Keywords and Instances: A Hierarchical Contrastive Learning Framework Unifying Hybrid Granularities for Text Generation
- Mingzhe Li, XieXiong Lin, Xiuying Chen, Jinxiong Chang, Qishen Zhang, Feng Wang, Taifeng Wang, Zhongyi Liu, Wei Chu, Dongyan Zhao, Rui Yan
- TLDR: 我们提出了一种层次化对比性学习方法,可以从句法分布中学习出不同的句法。
- EPT-X: An Expression-Pointer Transformer model that generates eXplanations for numbers
- Bugeun Kim, Kyung Seo Ki, Sangkyu Rhim, Gahgene Gweon
- TLDR: 我们提出了一个用于神经模型的EPT-X模型,它使用自然语言解释来解决一个神经序列问题。
- Identifying the Human Values behind Arguments
- Johannes Kiesel, Milad Alshomary, Nicolas Handke, Xiaoni Cai, Henning Wachsmuth, Benno Stein
- TLDR: 我们提出了一个用于人类价值的多层次分类法,它与心理学研究一致,并提供了一个用于人类价值的理论。
- BenchIE: A Framework for Multi-Faceted Fact-Based Open Information Extraction Evaluation
- Kiril Gashteovski, Mingying Yu, Bhushan Kotnis, Carolin Lawrence, Mathias Niepert, Goran Glavaš
- TLDR: 我们提出了BenchIE:一个用于英语、德语和法语的OIE系统的全域评估和评估框架。
- Leveraging Unimodal Self-Supervised Learning for Multimodal Audio-Visual Speech Recognition
- Xichen Pan, Peiyu Chen, Yichen Gong, Helong Zhou, Xinbing Wang, Zhouhan Lin
- TLDR: 我们通过使用一个基于CTC的多模态框架学习将语音数据和音频映射到字符上,以提高语音识别的质量。
- SummaReranker: A Multi-Task Mixture-of-Experts Re-ranking Framework for Abstractive Summarization
- Mathieu Ravaut, Shafiq Joty, Nancy Chen
- TLDR: 我们表明,通过直接训练一个二级模型来进行总结,可以提高一个基础模型的性能。
- Understanding Multimodal Procedural Knowledge by Sequencing Multimodal Instructional Manuals
- Te-Lin Wu, Alex Spangher, Pegah Alipoormolabashi, Marjorie Freedman, Ralph Weischedel, Nanyun Peng
- TLDR: 我们通过收集全人类注释来衡量机器学习模型的可解释性,并使用它们来衡量模型在未序的多模操作中的表现。
- Zoom Out and Observe: News Environment Perception for Fake News Detection
- Qiang Sheng, Juan Cao, Xueyao Zhang, Rundong Li, Danding Wang, Yongchun Zhu
- TLDR: 我们提出了一个用于实证性检测的网络环境理解框架。
- Divide and Rule: Effective Pre-Training for Context-Aware Multi-Encoder Translation Models
- Lorenzo Lupo, Marco Dinarelli, Laurent Besacier
- TLDR: 我们提出了一种基于上下文的上下文编码器的模型,它可以提高上下文的翻译质量。
- Saliency as Evidence: Event Detection with Trigger Saliency Attribution
- Jian Liu, Yufeng Chen, Jinan Xu
- TLDR: 我们提出了一种新的ED检测方法,可以明确地量化事件的背景,并能够从中学习出事件的 triggers。
- SRL4E – Semantic Role Labeling for Emotions: A Unified Evaluation Framework
- Cesare Campagnano, Simone Conia, Roberto Navigli
- TLDR: 我们提出了一个统一的评价框架,用于衡量情感和语义角色标签的情感和意义角色标签。
- Context Matters: A Pragmatic Study of PLMs’ Negation Understanding
- Reto Gubelmann, Siegfried Handschuh
- TLDR: 我们通过使用一种基于语义的理论来研究PLMs的正则理解。
- Probing for Predicate Argument Structures in Pretrained Language Models
- Simone Conia, Roberto Navigli
- TLDR: 我们通过对PLM中表达的句法结构进行理论和实践研究,表明,PLMs可以直接从句法中编码句法语义结构,并展示了其在语义表征上的表现。
- Multilingual Generative Language Models for Zero-Shot Cross-Lingual Event Argument Extraction
- Kuan-Hao Huang, I-Hung Hsu, Prem Natarajan, Kai-Wei Chang, Nanyun Peng
- TLDR: 我们提出了一种用于零樣本跨语言事件提取的生成语言模型。
- Identifying Moments of Change from Longitudinal User Text
- Adam Tsakalidis, Federico Nanni, Anthony Hills, Jenny Chim, Jiayu Song, Maria Liakata
- TLDR: 我们提出了一个新的任务,即通过对用户分享的在线内容进行观察,捕捉特定事件的时刻变化。
- Multi-Task Pre-Training for Plug-and-Play Task-Oriented Dialogue System
- Yixuan Su, Lei Shu, Elman Mansimov, Arshit Gupta, Deng Cai, Yi-An Lai, Yi Zhang
- TLDR: 我们提出了PPTOD,一个用于任务导向对话的插值模型,该模型在所有评估的任务中取得了新的最先进的结果。
- Graph Enhanced Contrastive Learning for Radiology Findings Summarization
- Jinpeng Hu, Zhuo Li, Zhihong Chen, Zhen Li, Xiang Wan, Tsung-Hui Chang
- TLDR: 我们提出了一个统一的框架,用于利用额外知识和原始发现的联系信息,以生成视觉。
- Semi-Supervised Formality Style Transfer with Consistency Training
- Ao Liu, An Wang, Naoaki Okazaki
- TLDR: 我们提出了一个简单的、有效的半监督框架,用于更好的使用源头的非标注句法。
- Cross-Lingual Ability of Multilingual Masked Language Models: A Study of Language Structure
- Yuan Chai, Yaobo Liang, Nan Duan
- TLDR: 我们表明,跨语言能力来自于语言的共同性,而不是语言的共同性。
- Rare and Zero-shot Word Sense Disambiguation using Z-Reweighting
- Ying Su, Hongming Zhang, Yangqiu Song, Tong Zhang
- TLDR: 我们提出了一种基于Z-重用的方法来调整WSD的训练数据集。
- Nibbling at the Hard Core of Word Sense Disambiguation
- Marco Maru, Simone Conia, Michele Bevilacqua, Roberto Navigli
- TLDR: 我们展示了为什么衡量标准的F1 score metric不应该被简单地视为一个简单的衡量标准,而应该被视为一个完整的衡量标准。
- Large Scale Substitution-based Word Sense Induction
- Matan Eyal, Shoval Sadde, Hillel Taub-Tabib, Yoav Goldberg
- TLDR: 我们提出了一种基于预先训练好的语言模型(MLMs)的词语嵌入方法,可以快速扩展到语言分类和语言建模中。
- Can Synthetic Translations Improve Bitext Quality?
- Eleftheria Briakou, Marine Carpuat
- TLDR: 我们表明,通过使用一个语义相似性分类器来改进非句法的翻译,可以提高翻译质量。
- Unsupervised Dependency Graph Network
- Yikang Shen, Shawn Tan, Alessandro Sordoni, Peng Li, Jie Zhou, Aaron Courville
- TLDR: 我们提出了一种新的竞争机制,鼓励关注者对不同的依赖关系进行建模。
- WikiDiverse: A Multimodal Entity Linking Dataset with Diversified Contextual Topics and Entity Types
- Xuwu Wang, Junfeng Tian, Min Gui, Zhixu Li, Rui Wang, Ming Yan, Lihan Chen, Yanghua Xiao
- TLDR: 我们提出了WikiDiverse,这是一个高质量的人类注释的MEL数据集,它使用了Wikipedia作为其对应的知识库。
- Rewire-then-Probe: A Contrastive Recipe for Probing Biomedical Knowledge of Pre-trained Language Models
- Zaiqiao Meng, Fangyu Liu, Ehsan Shareghi, Yixuan Su, Charlotte Collins, Nigel Collier
- TLDR: 我们提出了一个用于生物医学知识知识的临床知识问题诊断基准,即MedLAMA。
- Fine- and Coarse-Granularity Hybrid Self-Attention for Efficient BERT
- Jing Zhao, Yifan Wang, Junwei Bao, Youzheng Wu, Xiaodong He
- TLDR: 我们提出了一种新型的自我关注方法,它通过逐步缩放计算序列长度来减少自我关注。
- Compression of Generative Pre-trained Language Models via Quantization
- Chaofan Tao, Lu Hou, Wei Zhang, Lifeng Shang, Xin Jiang, Qun Liu, Ping Luo, Ngai Wong
- TLDR: 我们提出了一种用于生成PLM的量化方法,用于压缩生成器的生成。
- Visual-Language Navigation Pretraining via Prompt-based Environmental Self-exploration
- Xiwen Liang, Fengda Zhu, Li Lingling, Hang Xu, Xiaodan Liang
- TLDR: 我们提出了一种基于环境自我探索的新型环境自我探索方法,它可以自我探索环境,通过抽样轨迹和自动生成结构化的指令。
- DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for Dialog Response Generation
- Wei Chen, Yeyun Gong, Song Wang, Bolun Yao, Weizhen Qi, Zhongyu Wei, Xiaowu Hu, Bartuer Zhou, Yi Mao, Weizhu Chen, Biao Cheng, Nan Duan
- TLDR: 我们提出了一个新颖的对话预训练框架,用于生成具有意义和多样性回应。
- Contextual Fine-to-Coarse Distillation for Coarse-grained Response Selection in Open-Domain Conversations
- Wei Chen, Yeyun Gong, Can Xu, Huang Hu, Bolun Yao, Zhongyu Wei, Zhihao Fan, Xiaowu Hu, Bartuer Zhou, Biao Cheng, Daxin Jiang, Nan Duan
- TLDR: 我们提出了一个用于开放域对话的CFC的框架,用于深度学习中随机回答选择的一般回答选择。
- Textomics: A Dataset for Genomics Data Summary Generation
- Mu-Chun Wang, Zixuan Liu, Sheng Wang
- TLDR: 我们介绍了Textomics,这是一个新颖的遗传数据描述数据集,它包含了 22,273个数据集和其总结。
- A Contrastive Framework for Learning Sentence Representations from Pairwise and Triple-wise Perspective in Angular Space
- Yuhao Zhang, Hongji Zhu, Yongliang Wang, Nan Xu, Xiaobo Li, Binqiang Zhao
- TLDR: 我们提出了一种新的基于GAN的单词表征方法,用于提高单词表征的可解释性。
- Packed Levitated Marker for Entity and Relation Extraction
- Deming Ye, Yankai Lin, Peng Li, Maosong Sun
- TLDR: 我们提出了一种用于实体和关系提取的新型的跨度表示方法,用于考虑跨度(pairs)之间的相互作用。
- An Interpretable Neuro-Symbolic Reasoning Framework for Task-Oriented Dialogue Generation
- Shiquan Yang, Rui Zhang, Sarah Erfani, Jey Han Lau
- TLDR: 我们研究了任务导向的对话系统在任务导向对话中可解释性的问题。
- Impact of Evaluation Methodologies on Code Summarization
- Pengyu Nie, Jiyang Zhang, Junyi Jessy Li, Ray Mooney, Milos Gligoric
- TLDR: 我们引入了时间分割的评估方法,它可以用于评估代码总结任务的ML模型。
- KG-FiD: Infusing Knowledge Graph in Fusion-in-Decoder for Open-Domain Question Answering
- Donghan Yu, Chenguang Zhu, Yuwei Fang, Wenhao Yu, Shuohang Wang, Yichong Xu, Xiang Ren, Yiming Yang, Michael Zeng
- TLDR: 我们提出了KG-FiD,用于解决Open-DomainQA的回答问题。
- Which side are you on? Insider-Outsider classification in conspiracy-theoretic social media
- Pavan Holur, Tianyi Wang, Shadi Shahsavari, Timothy Tangherlini, Vwani Roychowdhury
- TLDR: 本文提出了一个基于信息的框架,用于解释和预测网络中的各种谣言和谣言。
- Learning From Failure: Data Capture in an Australian Aboriginal Community
- Eric Le Ferrand, Steven Bird, Laurent Besacier
- TLDR: 我们通过对语言数据收集的实际过程进行比较研究,从数据捕捉中学习语言数据收集的理论和经验。
- Deep Inductive Logic Reasoning for Multi-Hop Reading Comprehension
- Wenya Wang, Sinno Pan
- TLDR: 我们提出了一种基于逻辑推理的基于模型的基于模型的深度学习方法,它首先从查询相关的(candidate-related)信息中提取查询相关的(candidate-related)信息,然后通过推导出可解释的规则来解释查询相关的信息。
- CICERO: A Dataset for Contextualized Commonsense Inference in Dialogues
- Deepanway Ghosal, Siqi Shen, Navonil Majumder, Rada Mihalcea, Soujanya Poria
- TLDR: 我们通过使用CICERO来解决对话推理问题。
- A Comparative Study of Faithfulness Metrics for Model Interpretability Methods
- Chun Sik Chan, Huanqi Kong, Liang Guanqing
- TLDR: 我们提出了一个全面的和对比性的研究,以衡量在没有信心性衡量标准的情况下进行信心性评估的偏见。
- SPoT: Better Frozen Model Adaptation through Soft Prompt Transfer
- Tu Vu, Brian Lester, Noah Constant, Rami Al-Rfou’, Daniel Cer
- TLDR: 我们提出了一种基于任务启发的转移学习方法,用于在有任务要求的任务上应用以前的语言模型。
- Pass off Fish Eyes for Pearls: Attacking Model Selection of Pre-trained Models
- Biru Zhu, Yujia Qin, Fanchao Qi, Yangdong Deng, Zhiyuan Liu, Maosong Sun, Ming Gu
- TLDR: 我们表明,当前的FMS方法对FTM的穩定性是由于现有的FMS方法的穩定性缺陷,而不是基于特征的模型选择(FMS)方法。
- Educational Question Generation of Children Storybooks via Question Type Distribution Learning and Event-centric Summarization
- Zhenjie Zhao, Yufang Hou, Dakuo Wang, Mo Yu, Chengzhong Liu, Xiaojuan Ma
- TLDR: 我们提出了一种新的问题生成方法,它首先学习问题类型分布,然后总结了 salient事件,用于生成高感知的提问。
- HeterMPC: A Heterogeneous Graph Neural Network for Response Generation in Multi-Party Conversations
- Jia-Chen Gu, Chao-Hong Tan, Chongyang Tao, Zhen-Hua Ling, Huang Hu, Xiubo Geng, Daxin Jiang
- TLDR: 我们提出了一个基于图的神经网络,用于多party对话的回答生成。
- The patient is more dead than alive: exploring the current state of the multi-document summarisation of the biomedical literature
- Yulia Otmakhova, Karin Verspoor, Timothy Baldwin, Jey Han Lau
- TLDR: 我们提出了一个新的方法来评估生物医学文献的多表述。
- A Multi-Document Coverage Reward for RELAXed Multi-Document Summarization
- Jacob Parnell, Inigo Jauregi Unanue, Massimo Piccardi
- TLDR: 我们提出了一种基于ROUGE的奖励的MDS模型的基线,与基于ROUGE的奖励相匹配,以平衡ROUGE与输入文件的覆盖。
- KNN-Contrastive Learning for Out-of-Domain Intent Classification
- Yunhua Zhou, Peiju Liu, Xipeng Qiu
- TLDR: 我们提出了一种简单的、有效的方法,用于在IND目标上学习差別性语义特征。
- A Neural Network Architecture for Program Understanding Inspired by Human Behaviors
- Renyu Zhu, Lei Yuan, Xiang Li, Ming Gao, Wenyuan Cai
- TLDR: 我们考虑人类行为的特征,提出PGNN-EK模型,它包含了两个主要的组成部分。
- FaVIQ: FAct Verification from Information-seeking Questions
- Jungsoo Park, Sewon Min, Jaewoo Kang, Luke Zettlemoyer, Hannaneh Hajishirzi
- TLDR: 我们提出了一个用于事实验证的巨大事实数据集,它包含了188个真实世界事实的虚假论断。
- Simulating Bandit Learning from User Feedback for Extractive Question Answering
- Ge Gao, Eunsol Choi, Yoav Artzi
- TLDR: 我们研究了通过使用监督数据学习的用户反馈来解决采样问题回答问题的方法。
- Beyond Goldfish Memory: Long-Term Open-Domain Conversation
- Jing Xu, Arthur Szlam, Jason Weston
- TLDR: 我们表明,在短时间内进行对话的神经网络的表现不佳,特别是在没有背景的情况下。
- ReCLIP: A Strong Zero-Shot Baseline for Referring Expression Comprehension
- Sanjay Subramanian, William Merrill, Trevor Darrell, Matt Gardner, Sameer Singh, Anna Rohrbach
- TLDR: 我们提出了ReCLIP,一个简单的但强大的ReC模型,用于学习一个新的视觉领域。
- Dynamic Prefix-Tuning for Generative Template-based Event Extraction
- Xiao Liu, Heyan Huang, Ge Shi, Bo Wang
- TLDR: 我们提出了一种基于生成模型的事件提取方法,该方法使用动态符号(GTEE-DynPref)来学习特定的符号。
- E-LANG: Energy-Based Joint Inferencing of Super and Swift Language Models
- Mohammad Akbari, Amin Banitalebi-Dehkordi, Yong Zhang
- TLDR: 我们提出了一种高效的动态推理方法,称为E-LANG,它可以用于解决语言模型的动态推理。
- PRIMERA: Pyramid-based Masked Sentence Pre-training for Multi-document Summarization
- Wen Xiao, Iz Beltagy, Giuseppe Carenini, Arman Cohan
- TLDR: 一个用于多文件表征的预先训练的模型,用于概括。
- Dynamic Global Memory for Document-level Argument Extraction
- Xinya Du, Sha Li, Heng Ji
- TLDR: 我们提出了一个用于文件级事件论引用的全域神经生成框架。
- Measuring the Impact of (Psycho-)Linguistic and Readability Features and Their Spill Over Effects on the Prediction of Eye Movement Patterns
- Daniel Wiechmann, Yu Qiao, Elma Kerz, Justus Mattern
- TLDR: 我们通过对自然阅读中使用变换器的特征进行比较,发现它们在预测人类阅读行为方面的重要作用。
- Alternative Input Signals Ease Transfer in Multilingual Machine Translation
- Simeng Sun, Angela Fan, James Cross, Vishrav Chaudhary, Chau Tran, Philipp Koehn, Francisco Guzmán
- TLDR: 我们通过结合其他输入来解决多语言机器翻译中的非转移性转移问题。
- Phone-ing it in: Towards Flexible Multi-Modal Language Model Training by Phonetic Representations of Data
- Colin Leong, Daniel Whitenack
- TLDR: 我们提出了一种基于文本和/或语音数据的多模态方法,用于在语言上训练语言模型。
- Noisy Channel Language Model Prompting for Few-Shot Text Classification
- Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer
- TLDR: 我们使用一个噪音的通道方法来解决少樣本学习中的语言建模 prompt。
- Multilingual unsupervised sequence segmentation transfers to extremely low-resource languages
- C. Downey, Shannon Drizin, Levon Haroutunian, Shivin Thukral
- TLDR: 我们表明,通过预先训练一个 Masked Segmental Language Model,从低资源语言中转移到稀疏的语言。
- KinyaBERT: a Morphology-aware Kinyarwanda Language Model
- Antoine Nzeyimana, Andre Niyongabo Rubungo
- TLDR: 我们提出了一个简单的BERT架构,它使用一个morphological分析器和明确表示了morphological compositionality。
- On the Calibration of Pre-trained Language Models using Mixup Guided by Area Under the Margin and Saliency
- Seo Yeon Park, Cornelia Caragea
- TLDR: 我们提出了一种新的混合策略,用于在自然语言理解任务中使用混合训练方法进行模型偏差。
- IMPLI: Investigating NLI Models’ Performance on Figurative Language
- Kevin Stowe, Prasetya Utama, Iryna Gurevych
- TLDR: 我们使用一个用于语言理解的语言推理数据集来评估语言模型的理论和实践。
- QAConv: Question Answering on Informative Conversations
- Chien-Sheng Wu, Andrea Madotto, Wenhao Liu, Pascale Fung, Caiming Xiong
- TLDR: 我们引入QAConv,一个用于回答问题(QA)的QA数据集,使用对话作为知识源。
- Prix-LM: Pretraining for Multilingual Knowledge Base Construction
- Wenxuan Zhou, Fangyu Liu, Ivan Vulić, Nigel Collier, Muhao Chen
- TLDR: 我们提出了一个统一的多语种KB建模和完成模型,用于多语种KB建模和解释。
- Semantic Composition with PSHRG for Derivation Tree Reconstruction from Graph-Based Meaning Representations
- Chun Hei Lo, Wai Lam, Hong Cheng
- TLDR: 我们提出了一种基于数据的生成方法,用于生成语义表征图的上下文表征。
- HOLM: Hallucinating Objects with Language Models for Referring Expression Recognition in Partially-Observed Scenes
- Volkan Cirik, Louis-Philippe Morency, Taylor Berg-Kirkpatrick
- TLDR: 我们提出了HoLM,Hallucinating Objects与语言模型,用于解决部分观察的挑战。
- Multi Task Learning For Zero Shot Performance Prediction of Multilingual Models
- Kabir Ahuja, Shanu Kumar, Sandipan Dandapat, Monojit Choudhury
- TLDR: 我们通过将多语言转换作为多任务学习问题,从一个单语言学习问题中提取零樣本。
- \infty-former: Infinite Memory Transformer
- Pedro Henrique Martins, Zita Marinho, Andre Martins
- TLDR: 我们提出了一种用于长期记忆的高效变换器,它可以从简单的记忆中学习,但需要大量的计算。
- Systematic Inequalities in Language Technology Performance across the World’s Languages
- Damian Blasi, Antonios Anastasopoulos, Graham Neubig
- TLDR: 一种用于学习NLP的语言处理方法。
- CaMEL: Case Marker Extraction without Labels
- Leonie Weissweiler, Valentin Hofmann, Masoud Jalili Sabet, Hinrich Schuetze
- TLDR: 一个学习和使用SOTA的模型。
- Improving Generalizability in Implicitly Abusive Language Detection with Concept Activation Vectors
- Isar Nejadgholi, Kathleen Fraser, Svetlana Kiritchenko
- TLDR: 我们提出了一种用于解释和强化批评的通用性方法,用于衡量批评者的一般批评偏见。
- Reports of personal experiences and stories in argumentation: datasets and analysis
- Neele Falk, Gabriella Lapesa
- TLDR: 我们提出了一个用于跨域分类的穩定的區域分类器。
- Non-neural Models Matter: a Re-evaluation of Neural Referring Expression Generation Systems
- Fahime Same, Guanyi Chen, Kees Van Deemter
- TLDR: 我们提出了一个用于NLP的通用语言数据集的通用语义生成模型。
- Bridging the Generalization Gap in Text-to-SQL Parsing with Schema Expansion
- Chen Zhao, Yu Su, Adam Pauls, Emmanouil Antonios Platanios
- TLDR: 我们提出了一个用于多任务表征的统一数据集,并表明,它比现有的统一数据集更优。
- Predicate-Argument Based Bi-Encoder for Paraphrase Identification
- Qiwei Peng, David Weir, Julie Weeds, Yekun Chai
- TLDR: 我们提出了一种基于语义的双语编码器,用于paraphrase identification。
- MINER: Improving Out-of-Vocabulary Named Entity Recognition from an Information Theoretic Perspective
- Xiao Wang, Shihan Dou, Limao Xiong, Yicheng Zou, Qi Zhang, Tao Gui, Liang Qiao, Zhanzhan Cheng, Xuanjing Huang
- TLDR: 我们提出了一种用于OOV的NER学习框架,它可以从信息论的角度解决OOV的实体识别问题。
- Leveraging Wikipedia article evolution for promotional tone detection
- Christine De Kock, Andreas Vlachos
- TLDR: 我们提出了WikiEvolve,一个用于文件级推广语义检测的在线数据集。
- From text to talk: Harnessing conversational corpora for humane and diversity-aware language technology
- Mark Dingemanse, Andreas Liesenfeld
- TLDR: 我们表明,在语言和语音的互动中,语言的语义多样性是重要的,并表明,通过使用语义多样的对话体 corpora,可以从语言技术中学习语言技术。
- Flooding-X: Improving BERT’s Resistance to Adversarial Attacks via Loss-Restricted Fine-Tuning
- Qin Liu, Rui Zheng, Bao Rong, Jingyi Liu, ZhiHua Liu, Zhanzhan Cheng, Liang Qiao, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: 我们提出了一种用于对抗性攻击的穩定性方法,它可以提高BERT的穩定性。
- RoMe: A Robust Metric for Evaluating Natural Language Generation
- Md Rashad Al Hasan Rony, Liubov Kovriguina, Debanjan Chaudhuri, Ricardo Usbeck, Jens Lehmann
- TLDR: 我们提出了一个用于NLG的自动评估指标,它可以考虑句法相似性,语义相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性,句法相似性
- Finding Structural Knowledge in Multimodal-BERT
- Victor Milewski, Miryam de Lhoneux, Marie-Francine Moens
- TLDR: 我们通过使用句法来描述语言和视觉的相關结构,从句法中明确地表述语言和视觉的相關结构。
- Fully Hyperbolic Neural Networks
- Weize Chen, Xu Han, Yankai Lin, Hexu Zhao, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou
- TLDR: 我们提出了一个完全超弦网络的框架,通过适应 Lorentz变换(包括加速和旋转)来构建超弦网络。
- Neural Machine Translation with Phrase-Level Universal Visual Representations
- Qingkai Fang, Yang Feng
- TLDR: 我们提出了一种基于句法级检索的基于句法级表示的基于语义的神经机器翻译的句法级表示的模型,它可以超越句法级表示的模型。
- M3ED: Multi-modal Multi-scene Multi-label Emotional Dialogue Database
- Jinming Zhao, Tenggan Zhang, Jingwen Hu, Yuchen Liu, Qin Jin, Xinchao Wang, Haizhou Li
- TLDR: 我们提出了一个多模态多场景多标签情感对话数据集,用于多模态情感对话。
- Few-shot Named Entity Recognition with Self-describing Networks
- Jiawei Chen, Qing Liu, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: 我们提出了一个自我表述机制,用于少樣本NER,它可以利用抽象的例子和准确的转移知识。
- SpeechT5: Unified-Modal Encoder-Decoder Pre-Training for Spoken Language Processing
- Junyi Ao, Rui Wang, Long Zhou, Chengyi Wang, Shuo Ren, Yu Wu, Shujie Liu, Tom Ko, Qing Li, Yu Zhang, Zhihua Wei, Yao Qian, Jinyu Li, Furu Wei
- TLDR: 我们提出了一个统一的多模态语音T5框架,用于自我监督的语音/文本表征学习。
- Human Evaluation and Correlation with Automatic Metrics in Consultation Note Generation
- Francesco Moramarco, Alex Papadopoulos Korfiatis, Mark Perera, Damir Juric, Jack Flann, Ehud Reiter, Anya Belz, Aleksandar Savkov
- TLDR: 我们通过对随机随机的病人进行大规模的临床指导性评估来分析临床指导性建议的质量。
- Unified Structure Generation for Universal Information Extraction
- Yaojie Lu, Qing Liu, Dai Dai, Xinyan Xiao, Hongyu Lin, Xianpei Han, Le Sun, Hua Wu
- TLDR: 我们提出了一个统一的文本到结构生成框架,用于不同IE任务的文本到结构生成。
- Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering
- Jing Zhang, Xiaokang Zhang, Jifan Yu, Jian Tang, Jie Tang, Cuiping Li, Hong Chen
- TLDR: 本文提出了一个用于知识库问题回答的KBQA的SubgraphRetrievalKBQA。
- Pre-training to Match for Unified Low-shot Relation Extraction
- Fangchao Liu, Hongyu Lin, Xianpei Han, Boxi Cao, Le Sun
- TLDR: 我们提出了多选择匹配网络,以统一低樣本关系提取。
- Can Prompt Probe Pretrained Language Models? Understanding the Invisible Risks from a Causal View
- Boxi Cao, Hongyu Lin, Xianpei Han, Fangchao Liu, Le Sun
- TLDR: 本文通过分析因果性依赖性依赖性来研究基于问题的依赖性依赖性,并提出通过因果性介入来进行正则化。
- Evaluating Extreme Hierarchical Multi-label Classification
- Enrique Amigo, Agustín Delgado
- TLDR: 我们提出了一个信息论的衡量标准,以反映信息论的理论和实践经验的一致性。
- What does the sea say to the shore? A BERT based DST style approach for speaker to dialogue attribution in novels
- Carolina Cuesta-Lazaro, Animesh Prasad, Trevor Wood
- TLDR: 我们提出了一个完整的框架,用于从一个新颖的句法中提取字符,链接它们到他们的直接说话中进行表征。
- Measuring Fairness of Text Classifiers via Prediction Sensitivity
- Satyapriya Krishna, Rahul Gupta, Apurv Verma, Jwala Dhamala, Yada Pruksachatkun, Kai-Wei Chang
- TLDR: 我们提出了一个用于评估机器学习模型的公平性的新指标,该指标衡量了模型的预测敏感性,并表明它与人类的偏见很相关。
- RotateQVS: Representing Temporal Information as Rotations in Quaternion Vector Space for Temporal Knowledge Graph Completion
- Kai Chen, Ye Wang, Yitong Li, Aiping Li
- TLDR: 我们提出了一种新的时间建模方法,用于解释时间关系的理论和经验上的解释。
- Feeding What You Need by Understanding What You Learned
- Xiaoqiang Wang, Bang Liu, Fangli Xu, Bo Long, Siliang Tang, Lingfei Wu
- TLDR: 阅读理解(MRC)表明,能够理解一个特定的文本 passage和回答问题基于它。
- Probing Simile Knowledge from Pre-trained Language Models
- Weijie Chen, Yongzhu Chang, Rongsheng Zhang, Jiashu Pu, Guandan Chen, Le Zhang, Yadong Xi, Yijiang Chen, Chang Su
- TLDR: 我们首次使用一个框架来解决SI和SG任务的似然三完成。
- An Effective and Efficient Entity Alignment Decoding Algorithm via Third-Order Tensor Isomorphism
- Xin Mao, Meirong Ma, Hao Yuan, Jianchao Zhu, ZongYu Wang, Rui Xie, Wei Wu, Man Lan
- TLDR: 我们提出了一种高效的、可扩展的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆的、可逆
- Entailment Graph Learning with Textual Entailment and Soft Transitivity
- Zhibin Chen, Yansong Feng, Dongyan Zhao
- TLDR: 我们提出了一种基于文本的依赖关系和时间的依赖关系的双重方法,用于学习在文本上学习的依赖关系。
- Logic Traps in Evaluating Attribution Scores
- Yiming Ju, Yuanzhe Zhang, Zhao Yang, Zhongtao Jiang, Kang Liu, Jun Zhao
- TLDR: 我们对现有的评估方法进行了系统论的分析,并提出了解决方法。
- Continual Pre-training of Language Models for Math Problem Understanding with Syntax-Aware Memory Network
- Zheng Gong, Kun Zhou, Xin Zhao, Jing Sha, Shijin Wang, Ji-Rong Wen
- TLDR: 我们提出了一种新的语言模型,用于解决数学问题的语言模型。
- Multitasking Framework for Unsupervised Simple Definition Generation
- Cunliang Kong, Yun Chen, Hengyuan Zhang, Liner Yang, Erhong Yang
- TLDR: 我们提出了一个用于语言学习和低语义阅读的简单定义生成的框架,它可以生成和使用简单的词汇。
- Learning to Reason Deductively: Math Word Problem Solving as Complex Relation Extraction
- Zhanming Jie, Jierui Li, Wei Lu
- TLDR: 我们提出了一种新的方法,通过从量值中提取句法来生成句法,并通过从量值中提取句法来生成句法。
- When did you become so smart, oh wise one?! Sarcasm Explanation in Multi-modal Multi-party Dialogues
- Shivani Kumar, Atharva Kulkarni, Md Shad Akhtar, Tanmoy Chakraborty
- TLDR: 我们提出了一个新颖的任务,即用GANs进行自我批评的对话(SED),它可以产生自然语言解释。
- Toward Interpretable Semantic Textual Similarity via Optimal Transport-based Contrastive Sentence Learning
- Seonghyeon Lee, Dongha Lee, Seongbo Jang, Hwanjo Yu
- TLDR: 我们提出了CLRCMD,一个用于语义相似性学习的RL框架,它可以提高句法相似性和句法相似性,并提供准确的句法相似性。
- Pre-training and Fine-tuning Neural Topic Model: A Simple yet Effective Approach to Incorporating External Knowledge
- Linhai Zhang, Xuemeng Hu, Boyu Wang, Deyu Zhou, Qian-Wen Zhang, Yunbo Cao
- TLDR: 我们提出了一种新的方法,将外部知识纳入神经主题建模,以提高深度主题建模的性能。
- Multi-View Document Representation Learning for Open-Domain Dense Retrieval
- Shunyu Zhang, Yaobo Liang, Ming Gong, Daxin Jiang, Nan Duan
- TLDR: 我们提出了一个用于多视图文件表征学习框架,旨在生成多视图嵌入来代表文件和强化它们以匹配不同的查询。
- Graph Pre-training for AMR Parsing and Generation
- Xuefeng Bai, Yulong Chen, Yue Zhang
- TLDR: 我们首次考虑了预训练图到图的表征,并提出了一个统一的图自动编码策略。
- Turning Tables: Generating Examples from Semi-structured Tables for Endowing Language Models with Reasoning Skills
- Ori Yoran, Alon Talmor, Jonathan Berant
- TLDR: 我们提出了一种基于半结构的表征的推理方法,用于回答问题,并使用它来生成回答问题的句法。
- RNG-KBQA: Generation Augmented Iterative Ranking for Knowledge Base Question Answering
- Xi Ye, Semih Yavuz, Kazuma Hashimoto, Yingbo Zhou, Caiming Xiong
- TLDR: 我们提出了RnG-KBQA,一种基于排名和生成的KBQA的新型方法,它解决了生成模型的覆盖问题,同时保留了强大的概括能力。
- Rethinking Self-Supervision Objectives for Generalizable Coherence Modeling
- Prathyusha Jwalapuram, Shafiq Joty, Xiang Lin
- TLDR: 我们使用一个简单的模型架构来解决文件生成质量的一般框架。
- Just Rank: Rethinking Evaluation with Word and Sentence Similarities
- Bin Wang, C.-C. Jay Kuo, Haizhou Li
- TLDR: 我们提出了一个用于词嵌入的内在评估方法,它比以前的方法更强。
- MarkupLM: Pre-training of Text and Markup Language for Visually Rich Document Understanding
- Junlong Li, Yiheng Xu, Lei Cui, Furu Wei
- TLDR: 我们提出了一种基于文本、布局和图像的预训练方法,用于文件理解任务的文本和标记信息的联合训练。
- CLIP Models are Few-Shot Learners: Empirical Studies on VQA and Visual Entailment
- Haoyu Song, Li Dong, Weinan Zhang, Ting Liu, Furu Wei
- TLDR: 我们通过使用语言来学习,可以获得一个强大的视觉语言学习者。
- KQA Pro: A Dataset with Explicit Compositional Programs for Complex Question Answering over Knowledge Base
- Shulin Cao, Jiaxin Shi, Liangming Pan, Lunyiu Nie, Yutong Xiang, Lei Hou, Juanzi Li, Bin He, Hanwang Zhang
- TLDR: 我们提出了一个用于知识库KBQA的统一和可解释编程语言KoPL,用于解释复杂问题。
- Debiased Contrastive Learning of Unsupervised Sentence Representations
- Kun Zhou, Beichen Zhang, Xin Zhao, Ji-Rong Wen
- TLDR: 我们提出了一个新颖的框架,用于解决基于样本的反向学习中的反向学习问题。
- MSP: Multi-Stage Prompting for Making Pre-trained Language Models Better Translators
- Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu
- TLDR: 我们提出了Multi-Stage Prompting,一种简单和自动的方法来使用预先训练好的语言模型来解决翻译任务。
- SalesBot: Transitioning from Chit-Chat to Task-Oriented Dialogues
- Ssu Chiu, Maolin Li, Yen-Ting Lin, Yun-Nung Chen
- TLDR: 本文的目标是通过研究从开放空间的社交聊天和逐步转移到任务导向的对话进行对话的理论和实践。
- UCTopic: Unsupervised Contrastive Learning for Phrase Representations and Topic Mining
- Jiacheng Li, Jingbo Shang, Julian McAuley
- TLDR: 我们提出了UCTopic,这是一个用于主题理解和句法表征学习的新非监督的对比性学习框架。
- XLM-E: Cross-lingual Language Model Pre-training via ELECTRA
- Zewen Chi, Shaohan Huang, Li Dong, Shuming Ma, Bo Zheng, Saksham Singhal, Payal Bajaj, Xia Song, Xian-Ling Mao, Heyan Huang, Furu Wei
- TLDR: 我们引入了ELECTRA-style任务,用于跨语言建模预训练。
- Nested Named Entity Recognition as Latent Lexicalized Constituency Parsing
- Chao Lou, Songlin Yang, Kewei Tu
- TLDR: 我们使用一个基于节点的构成性解析器来解决异质NER。
- Can Explanations Be Useful for Calibrating Black Box Models?
- Xi Ye, Greg Durrett
- TLDR: 我们研究了通过利用解释来提高黑盒模型的性能,以提高一个新的领域上的表现。
- OIE@OIA: an Adaptable and Efficient Open Information Extraction Framework
- Xin Wang, Minlong Peng, Mingming Sun, Ping Li
- TLDR: 我们提出了一个适应性、高效的OIE系统,并设计了一种用于OIE的OIE@OIA系统。
- ReACC: A Retrieval-Augmented Code Completion Framework
- Shuai Lu, Nan Duan, Hojae Han, Daya Guo, Seung-won Hwang, Alexey Svyatkovskiy
- TLDR: 我们提出了一个基于检索的代码完成框架,使用词典抄袭和使用语义来表示代码。
- Does Recommend-Revise Produce Reliable Annotations? An Analysis on Missing Instances in DocRED
- Quzhe Huang, Shibo Hao, Yuan Ye, Shengqi Zhu, Yansong Feng, Dongyan Zhao
- TLDR: 我们通过分析和比较现有的DOTARED数据集,我们发现DOTARED的样本集与我们所训练的样本集有很大不同。
- UniPELT: A Unified Framework for Parameter-Efficient Language Model Tuning
- Yuning Mao, Lambert Mathias, Rui Hou, Amjad Almahairi, Hao Ma, Jiawei Han, Scott Yih, Madian Khabsa
- TLDR: 我们提出了一个统一的PELT框架,它将不同的PEL方法纳入不同的PELT方法,并学习它们在当前数据或任务 setup上进行最先进的反应。
- An Empirical Study of Memorization in NLP
- Xiaosen Zheng, Jing Jiang
- TLDR: 我们使用三个不同的NLP任务来验证一个长尾理论的可靠性。
- AmericasNLI: Evaluating Zero-shot Natural Language Understanding of Pretrained Multilingual Models in Truly Low-resource Languages
- Abteen Ebrahimi, Manuel Mager, Arturo Oncevay, Vishrav Chaudhary, Luis Chiruzzo, Angela Fan, John Ortega, Ricardo Ramos, Annette Rios, Ivan Vladimir Meza Ruiz, Gustavo Giménez-Lugo, Elisabeth Mager, Graham Neubig, Alexis Palmer, Rolando Coto-Solano, Thang Vu, Katharina Kann
- TLDR: 我们提出了AmericasNLI,一个扩展了XNLI的10语言的Indigenous语言。
- Towards Learning (Dis)-Similarity of Source Code from Program Contrasts
- Yangruibo Ding, Luca Buratti, Saurabh Pujar, Alessandro Morari, Baishakhi Ray, Saikat Chakraborty
- TLDR: 我们提出了DISCO,一个用于识别源代码的(dis)相似性的新自我监督模型。
- Guided Attention Multimodal Multitask Financial Forecasting with Inter-Company Relationships and Global and Local News
- Gary Ang, Ee-Peng Lim
- TLDR: 我们提出了一个用于预测股票 return的新型多模信息模型,它可以捕捉到全域和地方多模信息。
- On Vision Features in Multimodal Machine Translation
- Bei Li, Chuanhao Lv, Zefan Zhou, Tao Zhou, Tong Xiao, Anxiang Ma, JingBo Zhu
- TLDR: 我们研究了多模态机器翻译中视覺模型的作用,并表明,强的视覺模型有助于学习从视觉形式的视覺形式。
- CONTaiNER: Few-Shot Named Entity Recognition via Contrastive Learning
- Sarkar Snigdha Sarathi Das, Arzoo Katiyar, Rebecca Passonneau, Rui Zhang
- TLDR: 我们提出了ConTaiNER,一种新颖的对比性学习方法,用于少樣本的NER。
- Cree Corpus: A Collection of nêhiyawêwin Resources
- Daniela Teodorescu, Josie Matalski, Delaney Lothian, Denilson Barbosa, Carrie Demmans Epp
- TLDR: 我们开发了一个用于语言技术开发的语言资源库,用于學習语言。
- Learning to Rank Visual Stories From Human Ranking Data
- Chi-Yang Hsu, Yun-Wei Chu, Vincent Chen, Kuan-Chieh Lo, Chacha Chen, Ting-Hao Huang, Lun-Wei Ku
- TLDR: 我们使用基于评价的人类评价结果来学习VIST的评价指标。
- Universal Conditional Masked Language Pre-training for Neural Machine Translation
- Pengfei Li, Liangyou Li, Meng Zhang, Minghao Wu, Qun Liu
- TLDR: 我们首次使用一个单向的神经机器翻译模型来训练一个统一的模型,用于对序列到序列模型进行微调。
- CARETS: A Consistency And Robustness Evaluative Test Suite for VQA
- Carlos E. Jimenez, Olga Russakovsky, Karthik Narasimhan
- TLDR: 我们介绍了CARETS,一个用于衡量VQA模型的一致性和穩定性的系统性测试。
- Phrase-aware Unsupervised Constituency Parsing
- Xiaotao Gu, Yikang Shen, Jiaming Shen, Jingbo Shang, Jiawei Han
- TLDR: 我们提出了一种基于句法的句法正则化策略,用于从句法中心的角度对句法进行正则化。
- Achieving Reliable Human Assessment of Open-Domain Dialogue Systems
- Tianbo Ji, Yvette Graham, Gareth Jones, Chenyang Lyu, Qun Liu
- TLDR: 我们提出了一个成功地开发的人类评估,在没有可证明的实证结果的情况下,仍然可信。
- Updated Headline Generation: Creating Updated Summaries for Evolving News Stories
- Sheena Panthaplackel, Adrian Benton, Mark Dredze
- TLDR: 我们提出了更新本文的主题生成任务,该任务要求一个系统生成一个新的本文的主题,考虑到前文和头条。
- SaFeRDialogues: Taking Feedback Gracefully after Conversational Safety Failures
- Megan Ung, Jing Xu, Y-Lan Boureau
- TLDR: 我们提出了SaFeRDialogues,一个任务和数据集用于回答安全失败的对话反馈。
- Compositional Generalization in Dependency Parsing
- Emily Goodwin, Siva Reddy, Timothy O’Donnell, Dzmitry Bahdanau
- TLDR: 我们使用CFQ数据集来分析一个最先进的依赖性解析器的自上而下的依赖性表现。
- ASPECTNEWS: Aspect-Oriented Summarization of News Documents
- Ojas Ahuja, Jiacheng Xu, Akshay Gupta, Kevin Horecka, Greg Durrett
- TLDR: 我们使用一个用于主题导向的总结数据集来分析和解决主题导向的总结问题。
- MemSum: Extractive Summarization of Long Documents Using Multi-Step Episodic Markov Decision Processes
- Nianlong Gu, Elliott Ash, Richard Hahnloser
- TLDR: 本文介绍了MemoSum,一个基于强化学习的总结器,在每个步骤中都有信息,以反映出提取的句法的句法。
- CLUES: A Benchmark for Learning Classifiers using Natural Language Explanations
- Rakesh R. Menon, Sayan Ghosh, Shashank Srivastava
- TLDR: 我们提出了CLUES,一个用于使用自然语言解释的分类器学习的基准。
- Substructure Distribution Projection for Zero-Shot Cross-Lingual Dependency Parsing
- Freda Shi, Kevin Gimpel, Karen Livescu
- TLDR: 我们提出了SubDP,一种用于跨语言依赖性解析的新型方法,通过将依赖性 arc映射到一个目标语言上,并训练一个目标语言的解析器来解决这个问题。
- Multilingual Detection of Personal Employment Status on Twitter
- Manuel Tonneau, Dhaval Adjodah, Joao Palotti, Nir Grinberg, Samuel Fraiberger
- TLDR: 我们通过使用BERT来学习用于就业状态的一般信息,并表明,即使是在极端不平衡情况下,一个少量的BERT也能获得大和多样化的成果。
- MultiHiertt: Numerical Reasoning over Multi Hierarchical Tabular and Textual Data
- Yilun Zhao, Yunxiang Li, Chenying Li, Rui Zhang
- TLDR: 我们提出了一个用于多层次数据的多层次QA的大型框架,并展示了其在数据分析方面的改进。
- Transformers in the loop: Polarity in neural models of language
- Lisa Bylinina, Alexey Tikhonov
- TLDR: 我们表明,在神经网络中,语言模型的表现与语言模型的表现更一致。
- Bridging the Data Gap between Training and Inference for Unsupervised Neural Machine Translation
- Zhiwei He, Xing Wang, Rui Wang, Shuming Shi, Zhaopeng Tu
- TLDR: 一种用于非监督翻译的神经机器翻译的理论和实践方法。
- SDR: Efficient Neural Re-ranking using Succinct Document Representation
- Nachshon Cohen, Amit Portnoy, Besnik Fetahu, Amir Ingber
- TLDR: 我们提出了一个 Succinct Document Representation(SDR)方案,它可以从中间的文件表征中计算出一个统一的表征。
- The AI Doctor Is In: A Survey of Task-Oriented Dialogue Systems for Healthcare Applications
- Mina Valizadeh, Natalie Parde
- TLDR: 我们研究了从最先进的医学论文中提取的论文中分析的任务导向对话系统。
- SHIELD: Defending Textual Neural Networks against Multiple Black-Box Adversarial Attacks with Stochastic Multi-Expert Patcher
- Thai Le, Noseong Park, Dongwon Lee
- TLDR: 我们提出了一种新的算法,即SHIELD,它修改和重新训练只从最后一层的文本神经网络中,并将其 “变换和 “transform”以实现多专家预测集。
- Accurate Online Posterior Alignments for Principled Lexically-Constrained Decoding
- Soumya Chatterjee, Sunita Sarawagi, Preethi Jyothi
- TLDR: 我们提出了一种用于机器翻译的后向匹配技术,它完全在线在执行过程中,与现有的方法相比,在对句法限制的翻译任务上表现良好。
- Leveraging Task Transferability to Meta-learning for Clinical Section Classification with Limited Data
- Zhuohao Chen, Jangwon Kim, Ram Bhakta, Mustafa Sir
- TLDR: 我们提出了一种用于元学习的文本分类的新方法,用于解决低资源目标数据的任务转移性问题。
- Reinforcement Guided Multi-Task Learning Framework for Low-Resource Stereotype Detection
- Rajkumar Pujari, Erik Oveson, Priyanka Kulkarni, Elnaz Nouri
- TLDR: 我们提出了一个用于多任务学习的多任务学习模型,它可以从训练的例子中学习最相关的例子。
- Letters From the Past: Modeling Historical Sound Change Through Diachronic Character Embeddings
- Sidsel Boldsen, Patrizia Paggio
- TLDR: 我们提出了一种通过时间来捕捉音频变化的方法,该方法可以从语言变化中捕捉到音频变化。
- A Token-level Reference-free Hallucination Detection Benchmark for Free-form Text Generation
- Tianyu Liu, Yizhe Zhang, Chris Brockett, Yi Mao, Zhifang Sui, Weizhu Chen, Bill Dolan
- TLDR: 我们提出了一个新颖的句法级,无标记的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可
- Low-Rank Softmax Can Have Unargmaxable Classes in Theory but Rarely in Practice
- Andreas Grivas, Nikolay Bogoychev, Adam Lopez
- TLDR: 我们提出了一种用于预测语言模型的可逆性标记方法。
- Prompt for Extraction? PAIE: Prompting Argument Interaction for Event Argument Extraction
- Yubo Ma, Zehao Wang, Yixin Cao, Mukai Li, Meiqi Chen, Kun Wang, Jing Shao
- TLDR: 我们提出了一种用于事件提取的高效的、通用的、可扩展的、可解释的、高效的、快速的、高效的、快速的、快速的、快速的、快速的、快速的提取方法。
- Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework
- Shaolei Zhang, Yang Feng
- TLDR: 我们提出了一个用于全句法的语言翻译的深度理解框架。
- A Statutory Article Retrieval Dataset in French
- Antoine Louis, Gerasimos Spanakis
- TLDR: 我们提出了一个用于法律问题分类的法理文献检索数据集。
- ParaDetox: Detoxification with Parallel Data
- Varvara Logacheva, Daryna Dementieva, Sergey Ustyantsev, Daniil Moskovskiy, David Dale, Irina Krotova, Nikita Semenov, Alexander Panchenko
- TLDR: 我们提出了一个用于神经网络的替代数据池,用于神经网络的 detoxification任务。
- Interpreting Character Embeddings With Perceptual Representations: The Case of Shape, Sound, and Color
- Sidsel Boldsen, Manex Agirrezabal, Nora Hollenstein
- TLDR: 我们通过使用视觉和音符嵌入的特征信息来分析词表征。
- Fine-Grained Controllable Text Generation Using Non-Residual Prompting
- Fredrik Carlsson, Joey Öhman, Fangyu Liu, Severine Verlinden, Joakim Nivre, Magnus Sahlgren
- TLDR: 我们提出了一种用于CLM的高效编码器-解码器架构,可以从任意时间步骤中自动生成文本,并提供给任意的文本回答。
- Language-Agnostic Meta-Learning for Low-Resource Text-to-Speech with Articulatory Features
- Florian Lux, Thang Vu
- TLDR: 我们使用嵌入而不是嵌入来学习语音表征,以实现语义的语音表征。
- TwittIrish: A Universal Dependencies Treebank of Tweets in Modern Irish
- Lauren Cassidy, Teresa Lynn, James Barry, Jennifer Foster
- TLDR: 我们开发了第一个用于用户生成的语音语义解析的通用依赖性树皮,用于用于用于语音生成的语音语义解析。
- Length Control in Abstractive Summarization by Pretraining Information Selection
- Yizhu Liu, Qi Jia, Kenny Zhu
- TLDR: 我们提出了一个长度感知注意机制(LAAM),用于适应编码器的编码时间,以生成高质量的总结。
- CQG: A Simple and Effective Controlled Generation Framework for Multi-hop Question Generation
- Zichu Fei, Qi Zhang, Tao Gui, Di Liang, Sirui Wang, Wei Wu, Xuanjing Huang
- TLDR: 我们提出了CQG,这是一个简单的、有效的控制框架,用于生成多跳问题,它使用一个简单的方法来生成问题,并使用一个控制的Transformer来保证关键实体在回答问题中出现。
- Word Order Does Matter and Shuffled Language Models Know It
- Mostafa Abdou, Vinit Ravishankar, Artur Kulmizev, Anders Søgaard
- TLDR: 我们表明,语言模型在没有对句法顺序进行严格训练的情况下的表现更好。
- An Empirical Study on Explanations in Out-of-Domain Settings
- George Chrysostomou, Nikolaos Aletras
- TLDR: 我们通过设计具有信心的模型,先从最重要节点选择最重要节点,然后使用它们来预测正确的节点。
- MILIE: Modular & Iterative Multilingual Open Information Extraction
- Bhushan Kotnis, Kiril Gashteovski, Daniel Rubio, Ammar Shaker, Vanesa Rodriguez-Tembras, Makoto Takamoto, Mathias Niepert, Carolin Lawrence
- TLDR: 我们提出了一个用于信息提取的神经OpenIE系统,它在理论上和实践上都优于SOTA系统。
- What Makes Reading Comprehension Questions Difficult?
- Saku Sugawara, Nikita Nangia, Alex Warstadt, Samuel Bowman
- TLDR: 我们通过对来自七个不同来源的例子进行严格的概括,发现问题难度并没有影响问题难度。
- From Simultaneous to Streaming Machine Translation by Leveraging Streaming History
- Javier Iranzo Sanchez, Jorge Civera, Alfons Juan-Císcar
- TLDR: 本文提出了一个基于一个基于梯度的Re-segment方法的随机翻译的新型方法,该方法在随机翻译中成功地评估了在在线状态下进行翻译的条件。
- A Rationale-Centric Framework for Human-in-the-loop Machine Learning
- Jinghui Lu, Linyi Yang, Brian Namee, Yue Zhang
- TLDR: 我们提出了一个基于逻辑的两项robust学习(RDL)框架,用于提高少樣本学习的模型在不凸的测试和不凸的测试中的表现。
- Challenges and Strategies in Cross-Cultural NLP
- Daniel Hershcovich, Stella Frank, Heather Lent, Miryam de Lhoneux, Mostafa Abdou, Stephanie Brandl, Emanuele Bugliarello, Laura Cabello Piqueras, Ilias Chalkidis, Ruixiang Cui, Constanza Fierro, Katerina Margatina, Phillip Rust, Anders Søgaard
- TLDR: 我们提出了一个原则性框架,用于在NLP中使用跨语言的NLP。
- Prototypical Verbalizer for Prompt-based Few-shot Tuning
- Ganqu Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu
- TLDR: 我们提出了一个用于少樣本学习的自动编码器,它可以从训练数据中学习出模型的样本,并通过对比学习将其应用于模型的总结。
- Clickbait Spoiling via Question Answering and Passage Retrieval
- Matthias Hagen, Maik Fröbe, Artur Jurk, Martin Potthast
- TLDR: 本文介绍了和研究了clickbait spoiling:生成一个短文本,满足好奇心的诱导,然后通过提供一个有趣的总结来推广它。
- BERT Learns to Teach: Knowledge Distillation with Meta Learning
- Wangchunshu Zhou, Canwen Xu, Julian McAuley
- TLDR: 我们提出了知识提炼方法,它可以学习以更好的转移知识到学生网络。
- STEMM: Self-learning with Speech-text Manifold Mixup for Speech Translation
- Qingkai Fang, Rong Ye, Lei Li, Yang Feng, Mingxuan Wang
- TLDR: 我们提出了一种用于语音到文本的翻译的STEMM方法,用于解决跨语言的语音表征差异。
- Integrating Vectorized Lexical Constraints for Neural Machine Translation
- Shuo Wang, Zhixing Tan, Yang Liu
- TLDR: 我们提出了一种通过直接集成限制来解决NMT模型的神经机器翻译(NMT)问题的方法。
- MPII: Multi-Level Mutual Promotion for Inference and Interpretation
- Yan Liu, Sanyuan Chen, Yazheng Yang, Qi Dai
- TLDR: 我们提出了一种基于多级相互奖励的自我开发的解释和句级解释的联合推广方法。
- StableMoE: Stable Routing Strategy for Mixture of Experts
- Damai Dai, Li Dong, Shuming Ma, Bo Zheng, Zhifang Sui, Baobao Chang, Furu Wei
- TLDR: 我们提出了一种基于梯度的MoE方法,它可以从一个简单的模型中扩展到一个强大的模型。
- Boundary Smoothing for Named Entity Recognition
- Enwei Zhu, Jinpeng Li
- TLDR: 我们提出了一种用于NER模型的正则化技术,它通过对标的节点进行正则化来表示实体概率。
- Incorporating Hierarchy into Text Encoder: a Contrastive Learning Approach for Hierarchical Text Classification
- Zihan Wang, Peiyi Wang, Lianzhe Huang, Xin Sun, Houfeng Wang
- TLDR: 我们提出了一种用于多标签分类的上下文嵌入方法,它可以直接嵌入上下文嵌入到一个文本编码器中,以生成上下文理解的文本表示。
- Signal in Noise: Exploring Meaning Encoded in Random Character Sequences with Character-Aware Language Models
- Mark Chu, Bhargav Srinivasa Desikan, Ethan Nadler, Donald Ruggiero Lo Sardo, Elise Darragh-Ford, Douglas Guilbeault
- TLDR: 我们表明,词的意味和原始信息之间相互作用。
- Hyperlink-induced Pre-training for Passage Retrieval in Open-domain Question Answering
- Jiawei Zhou, Xiaoguang Li, Lifeng Shang, Lan Luo, Ke Zhan, Enrui Hu, Xinyu Zhang, Hao Jiang, Zhao Cao, Fan Yu, Xin Jiang, Qun Liu, Lei Chen
- TLDR: 我们提出了一种用于高质量先训练的超链接方法,用于从高质量的论文中提取高质量的论文。
- AdaLoGN: Adaptive Logic Graph Network for Reasoning-Based Machine Reading Comprehension
- Xiao Li, Gong Cheng, Ziheng Chen, Yawei Sun, Yuzhong Qu
- TLDR: 我们提出了一种用于理解文本的神经图网络,它通过通过对文本中表示逻辑关系的图进行自适应的推理来扩展图。
- CAMERO: Consistency Regularized Ensemble of Perturbed Language Models with Weight Sharing
- Chen Liang, Pengcheng He, Yelong Shen, Weizhu Chen, Tuo Zhao
- TLDR: 我们提出了一种基于神经网络的统一集成学习方法,该方法使用了GANs,以提高集成模型的泛化性能。
- Interpretability for Language Learners Using Example-Based Grammatical Error Correction
- Masahiro Kaneko, Sho Takase, Ayana Niwa, Naoaki Okazaki
- TLDR: 我们提出了一个基于例子的EB-GEC,它使用相似的例子来表示错误句法,以帮助语言学习者选择接受或拒绝批评。
- Rethinking Negative Sampling for Handling Missing Entity Annotations
- Yangming Li, Lemao Liu, Shuming Shi
- TLDR: 我们提出了一种用于NER的非采样方法,该方法在理论上与最先进的方法相一致,并表明它可以用于解决缺失注释的缺失注释。
- Distantly Supervised Named Entity Recognition via Confidence-Based Multi-Class Positive and Unlabeled Learning
- Kang Zhou, Yuepei Li, Qi Li
- TLDR: 我们提出了一种基于信心的基于MPU的多分类器学习方法,用于在距离监督下进行命名实体识别。
- UniXcoder: Unified Cross-Modal Pre-training for Code Representation
- Daya Guo, Shuai Lu, Nan Duan, Yanlin Wang, Ming Zhou, Jian Yin
- TLDR: 我们提出了UniXcoder,一个统一的跨语言初始化模型,用于编程语言的编码。
- One Country, 700+ Languages: NLP Challenges for Underrepresented Languages and Dialects in Indonesia
- Alham Fikri Aji, Genta Indra Winata, Fajri Koto, Samuel Cahyawijaya, Ade Romadhony, Rahmad Mahendra, Kemal Kurniawan, David Moeljadi, Radityo Eko Prasojo, Timothy Baldwin, Jey Han Lau, Sebastian Ruder
- TLDR: 我们介绍了在雅加达的语言上进行NLP研究的情况。
- Is GPT-3 Text Indistinguishable from Human Text? Scarecrow: A Framework for Scrutinizing Machine Text
- Yao Dou, Maxwell Forbes, Rik Koncel-Kedziorski, Noah A. Smith, Yejin Choi
- TLDR: 我们提出了一个新颖的框架,用于从机器文本通过随机注释来审视机器文本。
- Transkimmer: Transformer Learns to Layer-wise Skim
- Yue Guan, Zhengyi Li, Jingwen Leng, Zhouhan Lin, Minyi Guo
- TLDR: 我们提出了Transformer,它可以从隐藏状态的句法中学习,并将其应用于生成的输出。
- SkipBERT: Efficient Inference with Shallow Layer Skipping
- Jue Wang, Ke Chen, Gang Chen, Lidan Shou, Julian McAuley
- TLDR: 我们提出了 SkipBERT,一种通过减少流形计算的随机计算方法来加速BERT推理。
- Pretraining with Artificial Language: Studying Transferable Knowledge in Language Models
- Ryokan Ri, Yoshimasa Tsuruoka
- TLDR: 我们通过研究神经网络编码器的结构,从结构中学习的结构知识,可以转移到自然语言。
- mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models
- Ryokan Ri, Ikuya Yamada, Yoshimasa Tsuruoka
- TLDR: 我们表明,通过使用词表来回答问题,回答问题的准确性比使用单词表来回答更强。
- Evaluating Factuality in Text Simplification
- Ashwin Devaraj, William Sheffield, Byron Wallace, Junyi Jessy Li
- TLDR: 我们使用一个分类器来分析和解决自动简化模型中出现的错误。
- Requirements and Motivations of Low-Resource Speech Synthesis for Language Revitalization
- Aidan Pine, Dan Wells, Nathan Brinklow, Patrick Littell, Korin Richmond
- TLDR: 我们通过使用低资源的语音合成系统来促进语言重建。
- Sharpness-Aware Minimization Improves Language Model Generalization
- Dara Bahri, Hossein Mobahi, Yi Tay
- TLDR: 我们表明, Sharpness-Aware Minimization(SAM),一个最近提出的优化程序,鼓励收敛到更小最小值,可以显著提高语言模型的泛化。
- Adversarial Authorship Attribution for Deobfuscation
- Wanyue Zhai, Jonathan Rusert, Zubair Shafiq, Padmini Srinivasan
- TLDR: 我们研究了对抗性作者身份标签的作者身份标签的归纳性,并表明对抗性训练可以提高现有的反驳器的有效性。
- Weakly Supervised Word Segmentation for Computational Language Documentation
- Shu Okabe, Laurent Besacier, François Yvon
- TLDR: 我们研究了在贝叶斯非参数模型中,弱监督可以提高语言分类质量。
- SciNLI: A Corpus for Natural Language Inference on Scientific Text
- Mobashir Sadat, Cornelia Caragea
- TLDR: 我们介绍了 SciNLI,这是一个用于NLI的大型数据集,它捕捉了科学文献的 formal性,并包含107,412句法 pairs。
- Neural reality of argument structure constructions
- Bai Li, Zining Zhu, Guillaume Thomas, Frank Rudzicz, Yang Xu
- TLDR: 我们从多语法学中提取证据,证明存在argument结构建模(ASCs)在Transformer-based语言建模(LMs)中。
- On the Robustness of Offensive Language Classifiers
- Jonathan Rusert, Zubair Shafiq, Padmini Srinivasan
- TLDR: 我们通过分析最先进的攻击力,从最先进的攻击力中分析出最强的攻击力。
- Few-shot Controllable Style Transfer for Low-Resource Multilingual Settings
- Kalpesh Krishna, Deepak Nathani, Xavier Garcia, Bidisha Samanta, Partha Talukdar
- TLDR: 我们提出了一种新的方法,通过使用一个输入梯度按钮来实现少樣本风格转移。
- ABC: Attention with Bounded-memory Control
- Hao Peng, Jungo Kasai, Nikolaos Pappas, Dani Yogatama, Zhaofeng Wu, Lingpeng Kong, Roy Schwartz, Noah A. Smith
- TLDR: 我们提出了一个简单的注意力模型,它可以被分割为几个抽象的注意力方法,并可以被纳入一个整体,注意力与架构记忆的记忆结构。
- The Dangers of Underclaiming: Reasons for Caution When Reporting How NLP Systems Fail
- Samuel Bowman
- TLDR: 本文建议在没有证据的情况下进行研究,以避免或驳回这些论断。
- RELiC: Retrieving Evidence for Literary Claims
- Katherine Thai, Yapei Chang, Kalpesh Krishna, Mohit Iyyer
- TLDR: 我们提出了一个新颖的文献证据检索任务,在本文中,模型被要求从全节引用的句法中检索出引用的句法。
- Analyzing Generalization of Vision and Language Navigation to Unseen Outdoor Areas
- Raphael Schumann, Stefan Riezler
- TLDR: 我们表明,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,在没有地图的情况下,
- Adapting Coreference Resolution Models through Active Learning
- Michelle Yuan, Patrick Xia, Chandler May, Benjamin Van Durme, Jordan Boyd-Graber
- TLDR: 我们通过深入分析和准确的错误分析来研究主动学习中标注的一致性。
- An Imitation Learning Curriculum for Text Editing with Non-Autoregressive Models
- Sweta Agrawal, Marine Carpuat
- TLDR: 我们提出了一个框架,用于训练非监督的序列到序列模型,用于编辑任务。
- Memorisation versus Generalisation in Pre-trained Language Models
- Michael Tänzer, Sebastian Ruder, Marek Rei
- TLDR: 我们提出了一个用于低资源的标签识别任务的新型网络。
- ChatMatch: Evaluating Chatbots by Autonomous Chat Tournaments
- Ruolan Yang, Zitong Li, Haifeng Tang, Kenny Zhu
- TLDR: 我们提出了一个用于在线聊天的互动式评估框架,该框架可以高效地评估在线机器人,同时保留其模型架构和领域。
- Do self-supervised speech models develop human-like perception biases?
- Juliette Millet, Ewan Dunbar
- TLDR: 我们用一个自我监督的模型来表示语言,而不是用外部标签来表示语言。
- Vision-and-Language Navigation: A Survey of Tasks, Methods, and Future Directions
- Jing Gu, Eliana Stefani, Qi Wu, Jesse Thomason, Xin Wang
- TLDR: 我们对VLN的前沿研究进行了结构化的分析。
- Learning to Generate Programs for Table Fact Verification via Structure-Aware Semantic Parsing
- Suixin Ou, Yongmei Liu
- TLDR: 我们提出了一种基于语义特征和结构特征的程序生成的新方法。
- Cluster & Tune: Boost Cold Start Performance in Text Classification
- Eyal Shnarch, Ariel Gera, Alon Halfon, Lena Dankin, Leshem Choshen, Ranit Aharonov, Noam Slonim
- TLDR: 我们提出了一种用于文本分类任务的非监督学习方法,用于提高非监督学习的模型的性能。
- Overcoming a Theoretical Limitation of Self-Attention
- David Chiang, Peter Cholak
- TLDR: 我们提出了一种用于机器翻译的简单方法,通过使用一个变换器来解决变换器的三个障碍。
- Prediction Difference Regularization against Perturbation for Neural Machine Translation
- Dengji Guo, Zhengrui Ma, Min Zhang, Yang Feng
- TLDR: 我们使用理论的句法来分析和减少非凸性和过度凸性,以提高穩定性正则化。
- Make the Best of Cross-lingual Transfer: Evidence from POS Tagging with over 100 Languages
- Wietse de Vries, Martijn Wieling, Malvina Nissim
- TLDR: 我们表明,零语言跨语言转移学习的一般框架可以被用来解决低资源语言的低语言转移。
- Should a Chatbot be Sarcastic? Understanding User Preferences Towards Sarcasm Generation
- Silviu Vlad Oprea, Steven Wilson, Walid Magdy
- TLDR: 我们建议我们从自我批评中开始关注自我批评,以产生更好的自我批评。
- How Do Seq2Seq Models Perform on End-to-End Data-to-Text Generation?
- Xunjian Yin, Xiaojun Wan
- TLDR: 我们使用多维质量指标(MQM)来评估Seq2Seq模型在数据到数据的生成方面的表现。
- Probing for Labeled Dependency Trees
- Max Müller-Eberstein, Rob van der Goot, Barbara Plank
- TLDR: 我们提出了DepProbe,一个线性追踪器,可以从嵌入中从标签和标签的依赖性解析树上获得完整的追踪树。
- DoCoGen: Domain Counterfactual Generation for Low Resource Domain Adaptation
- Nitay Calderon, Eyal Ben-David, Amir Feder, Roi Reichart
- TLDR: 我们提出了一种可控的生成方法,用于适应非监督DA。
- LiLT: A Simple yet Effective Language-Independent Layout Transformer for Structured Document Understanding
- Jiapeng Wang, Lianwen Jin, Kai Ding
- TLDR: 我们提出了一种用于结构化文件理解的语言独立的 Layout Transformer(LiLT),它可以从预先训练好的文本模型中获得更好的表示。
- Dependency-based Mixture Language Models
- Zhixian Yang, Xiaojun Wan
- TLDR: 我们使用依赖性模型来学习未来依赖项的概率分布。
- Can Unsupervised Knowledge Transfer from Social Discussions Help Argument Mining?
- Subhabrata Dutta, Jeevesh Juneja, Dipankar Das, Tanmoy Chakraborty
- TLDR: 我们提出了一种用于转移学习的新型方法,用于解决基于转换的语言模型的NLP任务。
- Entity-based Neural Local Coherence Modeling
- Sungho Jeon, Michael Strube
- TLDR: 我们提出了一个基于实体的神经區域 coherence模型,它在语言模型上的表现优于以前提出的模型。
- “That Is a Suspicious Reaction!”: Interpreting Logits Variation to Detect NLP Adversarial Attacks
- Edoardo Mosca, Shreyash Agarwal, Javier Rando Ramírez, Georg Groh
- TLDR: 我们提出了一种用于对抗性文本例子的模型-无偏的检测器,它可以识别出对抗性输入的 logits,并展示了强大的泛化能力。
- Local Languages, Third Spaces, and other High-Resource Scenarios
- Steven Bird
- TLDR: 本文提出了一些语言技术政策和语言生物学政策。
- That Slepen Al the Nyght with Open Ye! Cross-era Sequence Segmentation with Switch-memory
- Xuemei Tang, Qi Su
- TLDR: 我们提出了一个跨语言学习框架,用于词分离和词汇分割。
- Fair and Argumentative Language Modeling for Computational Argumentation
- Carolin Holtermann, Anne Lauscher, Simone Ponzetto
- TLDR: 我们提出了一个用于论证的专门的偏差衡量器,用于解决模型中偏差的一般和概括性方法。
- Learning Adaptive Segmentation Policy for End-to-End Simultaneous Translation
- Ruiqing Zhang, Zhongjun He, Hua Wu, Haifeng Wang
- TLDR: 本文提出了一种用于多语种语音到文本的语音到文本的转换的自适应方法。
- Can Pre-trained Language Models Interpret Similes as Smart as Human?
- Qianyu He, Sijie Cheng, Zhixu Li, Rui Xie, Yanghua Xiao
- TLDR: 我们研究了PLMs在类似性解释方面的可解释性,并提出了一个知识增强的理论。
- CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark
- Ningyu Zhang, Mosha Chen, Zhen Bi, Xiaozhuan Liang, Lei Li, Xin Shang, Kangping Yin, Chuanqi Tan, Jian Xu, Fei Huang, Luo Si, Yuan Ni, Guotong Xie, Zhifang Sui, Baobao Chang, Hui Zong, Zheng Yuan, Linfeng Li, Jun Yan, Hongying Zan, Kunli Zhang, Buzhou Tang, Qingcai Chen
- TLDR: 我们提出了第一个用于医学语言理解评估的生物医学语言理解基准。
- Learning Non-Autoregressive Models from Search for Unsupervised Sentence Summarization
- Puyuan Liu, Chenyang Huang, Lili Mou
- TLDR: 我们提出了一种非监督的非监督总结方法,它不需要与其他方法相比数据的训练。
- Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation
- Xiangpeng Wei, Heng Yu, Yue Hu, Rongxiang Weng, Weihua Luo, Rong Jin
- TLDR: 我们提出了一种新的数据增强方法,称为持续语义增强(CsaNMT),它可以扩展到所有句法的同义词。
- Lexical Knowledge Internalization for Neural Dialog Generation
- Zhiyong Wu, Wei Bi, Xiang Li, Lingpeng Kong, Ben Kao
- TLDR: 我们提出了知识内部化(KI),这是一种通过将知识纳入知识框架模型的知识库来解决知识检索问题的方法。
- Modeling Syntactic-Semantic Dependency Correlations in Semantic Role Labeling Using Mixture Models
- Junjie Chen, Xiangheng He, Yusuke Miyao
- TLDR: 我们提出了一种基于混合模型的方法来解释语义-语义依赖性相互作用。
- Learning the Beauty in Songs: Neural Singing Voice Beautifier
- Jinglin Liu, Chengxi Li, Yi Ren, Zhiying Zhu, Zhou Zhao
- TLDR: 我们提出了一个用于歌唱声音美化(SVB)的神经生成模型,它采用了条件变异自动编码器作为基准,并从潜在空间中学习了歌唱声的声声的潜在表征。
- A Model-agnostic Data Manipulation Method for Persona-based Dialogue Generation
- Yu Cao, Wei Bi, Meng Fang, Shuming Shi, Dacheng Tao
- TLDR: 我们提出了一种数据操作方法,用于生成对话生成模型,它不需要任何像人的对话数据集。
- LinkBERT: Pretraining Language Models with Document Links
- Michihiro Yasunaga, Jure Leskovec, Percy Liang
- TLDR: 我们提出了LinkBERT,一种用于文件之间的链接性建模的LM预训练方法,用于解决文件之间的链接性关系预测。
- Improving Time Sensitivity for Question Answering over Temporal Knowledge Graphs
- Chao Shang, Guangtao Wang, Peng Qi, Jing Huang
- TLDR: 我们提出了一个时间敏感的提问回答(TSQA)框架,用于解决时间知识图上的问题回答问题。
- Self-supervised Semantic-driven Phoneme Discovery for Zero-resource Speech Recognition
- Liming Wang, Siyuan Feng, Mark Hasegawa-Johnson, Chang Yoo
- TLDR: 我们提出了一种用于自我监督的语音语义表征学习方法,用于学习语音语义的电话me inventory。
- Softmax Bottleneck Makes Language Models Unable to Represent Multi-mode Word Distributions
- Haw-Shiuan Chang, Andrew McCallum
- TLDR: 我们表明,软max和MoS的组合可以解决软max瓶颈问题,但MoS的限制是软max瓶颈的最小值。
- Ditch the Gold Standard: Re-evaluating Conversational Question Answering
- Huihan Li, Tianyu Gao, Manan Goenka, Danqi Chen
- TLDR: 我们首次对最先进的对话QA系统进行大规模的人类评估,并表明,人类的回答与人类的回答截然不同。
- Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity
- Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp
- TLDR: 我们表明,在没有训练样本的情况下,语言模型的样本分配可以直接影响到语言模型的性能。
- Situated Dialogue Learning through Procedural Environment Generation
- Prithviraj Ammanabrolu, Renee Jia, Mark Riedl
- TLDR: 我们通过通过生成的课程来学习目标导向的代理,在具有不同背景的世界中互动行动和说话。
- UniTE: Unified Translation Evaluation
- Yu Wan, Dayiheng Liu, Baosong Yang, Haibo Zhang, Boxing Chen, Derek Wong, Lidia Chao
- TLDR: 机器翻译的质量评估,用于评估机器翻译的质量。
- Program Transfer for Answering Complex Questions over Knowledge Bases
- Shulin Cao, Jiaxin Shi, Zijun Yao, Xin Lv, Jifan Yu, Lei Hou, Juanzi Li, Zhiyuan Liu, Jinghui Xiao
- TLDR: 我们提出了一种用于知识库KBs的程序转移方法,该方法使用丰富的KB标注作为外部监督信号来帮助KBs的程序转移。
- EAG: Extract and Generate Multi-way Aligned Corpus for Complete Multi-lingual Neural Machine Translation
- Yulin Xu, Zhen Yang, Fandong Meng, Jie Zhou
- TLDR: 我们提出了一种用于多语言神经机器翻译的二步方法,用于从跨语言数据中提取最佳的例子。
- Using Context-to-Vector with Graph Retrofitting to Improve Word Embeddings
- Jiangbin Zheng, Yile Wang, Ge Wang, Jun Xia, Yufei Huang, Guojiang Zhao, Yue Zhang, Stan Li
- TLDR: 我们提出了一种用于文本嵌入的元学习方法,用于动态嵌入的非训练方法。
- Multimodal Sarcasm Target Identification in Tweets
- Jiquan Wang, Lin Sun, Yi Liu, Meizhi Shao, Zengwei Zheng
- TLDR: 我们提出了一种新颖的多模态跨模态模型,可以同时进行文本目标标签和视觉目标检测。
- Flexible Generation from Fragmentary Linguistic Input
- Peng Qian, Roger Levy
- TLDR: 我们表明,在新的语言任务和环境中,人类行为更像通过直接的特徵来表现出来。
- Revisiting Over-Smoothness in Text to Speech
- Yi Ren, Xu Tan, Tao Qin, Zhou Zhao, Tie-Yan Liu
- TLDR: 我们通过使用额外的条件输入来减少模型的复杂性,以提高模型的质量。
- Coherence boosting: When your pretrained language model is not paying enough attention
- Nikolay Malkin, Zhen Wang, Nebojsa Jojic
- TLDR: 我们表明,在没有目标的情况下,语言模型在没有目标的情况下,没有学习到句法的依赖性,导致了句法的编码不一致性。
- Uncertainty Estimation of Transformer Predictions for Misclassification Detection
- Artem Vazhentsev, Gleb Kuzmin, Artem Shelmanov, Akim Tsvigun, Evgenii Tsymbalov, Kirill Fedyanin, Maxim Panov, Alexander Panchenko, Gleb Gusev, Mikhail Burtsev, Manvel Avetisian, Leonid Zhukov
- TLDR: 我们通过对最先进的UE方法进行深入的理论研究来解决在名称标签和文本分类任务上的误分类检测问题。
- VALSE: A Task-Independent Benchmark for Vision and Language Models Centered on Linguistic Phenomena
- Letitia Parcalabescu, Michele Cafagna, Lilitta Muradjan, Anette Frank, Iacer Calixto, Albert Gatt
- TLDR: 我们提出了VAE(Vision和语言的统一评估),一个用于评估一般用于视觉和语言(V&L)模型的视觉和语言建模能力的一般框架。
- The Grammar-Learning Trajectories of Neural Language Models
- Leshem Choshen, Guy Hacohen, Daphna Weinshall, Omri Abend
- TLDR: 我们表明,不同的神经语言模型在不同的初始化、架构和训练数据上学习语言现象的语义现象。
- Generating Scientific Definitions with Controllable Complexity
- Tal August, Katharina Reinecke, Noah A. Smith
- TLDR: 我们提出了一个新的任务和数据集,用于定义科学的定义和控制其复杂性。
- Label Semantic Aware Pre-training for Few-shot Text Classification
- Aaron Mueller, Jason Krone, Salvatore Romeo, Saab Mansour, Elman Mansimov, Yi Zhang, Dan Roth
- TLDR: 我们提出了标签语义的关注预训练(LSAP),用于提高文本分类系统泛化和数据效率。
- ODE Transformer: An Ordinary Differential Equation-Inspired Model for Sequence Generation
- Bei Li, Quan Du, Tao Zhou, Yi Jing, Shuhan Zhou, Xin Zeng, Tong Xiao, JingBo Zhu, Xuebo Liu, Min Zhang
- TLDR: 我们首次表明,Transformer可以被描述为一个高阶解决方法,并提出了一个用于ODE的新的架构。
- A Comparison of Strategies for Source-Free Domain Adaptation
- Xin Su, Yiyun Zhao, Steven Bethard
- TLDR: 我们从经验上分析了在无源的领域适应的策略,并表明它们对源的领域适应是无用的。
- Ethics Sheets for AI Tasks
- Saif Mohammad
- TLDR: 本文提出了一个用于AI任务的框架,用于从理论上和实践中提取和解释道德考虑。
- Learning Disentangled Representations of Negation and Uncertainty
- Jake Vasilakes, Chrysoula Zerva, Makoto Miwa, Sophia Ananiadou
- TLDR: 我们使用VAE来解决词和语义表征的表征学习问题。
- latent-GLAT: Glancing at Latent Variables for Parallel Text Generation
- Yu Bao, Hao Zhou, Shujian Huang, Dongqi Wang, Lihua Qian, Xinyu Dai, Jiajun Chen, Lei Li
- TLDR: 我们提出了GLAT,一种用于多模态文本生成的自上而下的理论,它使用离散的潜在变量来捕捉字符分类信息,并用一种先进的课程学习技术来引入一个理论,解决了多模态文本生成的多模态问题。
- PPT: Pre-trained Prompt Tuning for Few-shot Learning
- Yuxian Gu, Xu Han, Zhiyuan Liu, Minlie Huang
- TLDR: 我们提出了一个用于训练PLM的Pre-trained Prompt Tuning框架,该框架可以达到或超过了完全模型的微调。
- Deduplicating Training Data Makes Language Models Better
- Katherine Lee, Daphne Ippolito, Andrew Nystrom, Chiyuan Zhang, Douglas Eck, Chris Callison-Burch, Nicholas Carlini
- TLDR: 我们通过使用一个用于解释语言模型的代码来修改语言模型的数据集。
- Improving the Generalizability of Depression Detection by Leveraging Clinical Questionnaires
- Thong Nguyen, Andrew Yates, Ayah Zirikly, Bart Desmet, Arman Cohan
- TLDR: 我们提出了一种基于BERT的神经网络诊断方法,可以提高临床相关的症状的泛化性。
- Internet-Augmented Dialogue Generation
- Mojtaba Komeili, Kurt Shuster, Jason Weston
- TLDR: 我们研究了通过使用搜索来进行对话的语音模型的访问。
- SUPERB-SG: Enhanced Speech processing Universal PERformance Benchmark for Semantic and Generative Capabilities
- Hsiang-Sheng Tsai, Heng-Jui Chang, Wen-Chin Huang, Zili Huang, Kushal Lakhotia, Shu-wen Yang, Shuyan Dong, Andy Liu, Cheng-I Lai, Jiatong Shi, Xuankai Chang, Phil Hall, Hsuan-Jui Chen, Shang-Wen Li, Shinji Watanabe, Abdelrahman Mohamed, Hung-yi Lee
- TLDR: 我们提出了SuperB-SG,这是一个新的衡量标准,旨在评估在语音任务上训练的模型的穩定性。
- Knowledge Neurons in Pretrained Transformers
- Damai Dai, Li Dong, Yaru Hao, Zhifang Sui, Baobao Chang, Furu Wei
- TLDR: 我们引入了知识神经网络的概念,并表明知识神经网络的激活与其表达的事实的表达密切相关。
- Meta-Learning for Fast Cross-Lingual Adaptation in Dependency Parsing
- Anna Langedijk, Verna Dankers, Phillip Lippe, Sander Bos, Bryan Cardenas Guevara, Helen Yannakoudakis, Ekaterina Shutova
- TLDR: 我们使用模型无关的元学习来解决跨语言依赖性解析。
- French CrowS-Pairs: Extending a challenge dataset for measuring social bias in masked language models to a language other than English
- Aurélie Névéol, Yoann Dupont, Julien Bezançon, Karën Fort
- TLDR: 我们提出了一个多语言偏见数据集,用于衡量语言模型的偏见。
- Few-Shot Learning with Siamese Networks and Label Tuning
- Thomas Müller, Guillermo Pérez-Torró, Marc Franco-Salvador
- TLDR: 我们研究了用少樣本学习的文本分类器的文本分类问题,并提出了一种简单的和高效的解决方案,可以从少樣本中学习。
- Inferring Rewards from Language in Context
- Jessy Lin, Daniel Fried, Dan Klein, Anca Dragan
- TLDR: 我们提出了一个用于学习和使用语言的理论,通过解释语言选择的句法来推断奖励。
- Generating Biographies on Wikipedia: The Impact of Gender Bias on the Retrieval-Based Generation of Women Biographies
- Angela Fan, Claire Gardent
- TLDR: 我们使用一个用于汉语言百科文章的在线编码器-解码器来生成长卷汉字,并分析了其影响。
- Your Answer is Incorrect… Would you like to know why? Introducing a Bilingual Short Answer Feedback Dataset
- Anna Filighera, Siddharth Parihar, Tim Steuer, Tobias Meuser, Sebastian Ochs
- TLDR: 我们提出了一个用于短回答评分的GAN数据集,用于解释和理解GANs。
- Towards Better Characterization of Paraphrases
- Timothy Liu, De Wen Soh
- TLDR: 我们提出了一个用于用句法变换的衡量标准,用于衡量语义变换的程度。
- SummScreen: A Dataset for Abstractive Screenplay Summarization
- Mingda Chen, Zewei Chu, Sam Wiseman, Kevin Gimpel
- TLDR: 我们提出了一个用于TV系列的总结数据集,其中包含TV电视剧的在线转录和人类的注释。
- Sparsifying Transformer Models with Trainable Representation Pooling
- Michał Pietruszka, Łukasz Borchmann, Łukasz Garncarek
- TLDR: 一种用于Transformer模型的新型方法,通过学习选择最informative字符表示,以专注于特定输入的特定部分。
- Uncertainty Determines the Adequacy of the Mode and the Tractability of Decoding in Sequence-to-Sequence Models
- Felix Stahlberg, Ilia Kulikov, Shankar Kumar
- TLDR: 我们表明,在句法和任务层次上,句法级的不确定性与句法级的不确定性密切相关。
- FlipDA: Effective and Robust Data Augmentation for Few-Shot Learning
- Jing Zhou, Yanan Zheng, Jie Tang, Li Jian, Zhilin Yang
- TLDR: 我们提出了一种用于文本数据增强的新型数据增强方法,它使用生成模型和分类器来生成标签-flipped数据。
- Text-Free Prosody-Aware Generative Spoken Language Modeling
- Eugene Kharitonov, Ann Lee, Adam Polyak, Yossi Adi, Jade Copet, Kushal Lakhotia, Tu Anh Nguyen, Morgane Riviere, Abdelrahman Mohamed, Emmanuel Dupoux, Wei-Ning Hsu
- TLDR: 我们提出了一个基于带有符号的生成语言模型(pGSLM),它可以利用符号来改进词的建模和词的生成。
- Lite Unified Modeling for Discriminative Reading Comprehension
- Yilin Zhao, Hai Zhao, Libin Shen, Yinggong Zhao
- TLDR: 我们提出了一个简单而有效的POI-Net,用于处理多选择的MRC任务。
- Bilingual alignment transfers to multilingual alignment for unsupervised parallel text mining
- Chih-chan Tien, Shane Steinert-Threlkeld
- TLDR: 我们提出了一种用于跨语言的句法表征学习的新方法。
- End-to-End Modeling via Information Tree for One-Shot Natural Language Spatial Video Grounding
- Mengze Li, Tianbao Wang, Haoyu Zhang, Shengyu Zhang, Zhou Zhao, Jiaxu Miao, Wenqiao Zhang, Wenming Tan, Jin Wang, Peng Wang, Shiliang Pu, Fei Wu
- TLDR: 我们通过信息塔来解决一个端到端的端的端的OneShot视频 grounding。
- RNSum: A Large-Scale Dataset for Automatic Release Note Generation via Commit Logs Summarization
- Hisashi Kamezawa, Noriki Nishida, Nobuyuki Shimizu, Takashi Miyazaki, Hideki Nakayama
- TLDR: 我们提出了一种基于基于变换器的基于RNNum的非监督的生成版本的生成方法,它可以产生更少的、有声的、重要的版本。
- Improving Machine Reading Comprehension with Contextualized Commonsense Knowledge
- Kai Sun, Dian Yu, Jianshu Chen, Dong Yu, Claire Cardie
- TLDR: 我们使用从语言中提取的知识来改进机器阅读理解(MRC)任务。
- Modeling Persuasive Discourse to Adaptively Support Students’ Argumentative Writing
- Thiemo Wambsganss, Christina Niklaus
- TLDR: 我们提出了一种基于论证注释的建模方法,用于在学生写的商业模型 pitches中建模论证的结构。
- Active Evaluation: Efficient NLG Evaluation with Few Pairwise Comparisons
- Akash Kumar Mohankumar, Mitesh Khapra
- TLDR: 使用单单对比的评估,在没有直接评估的情况下进行评估。
- The Moral Debater: A Study on the Computational Generation of Morally Framed Arguments
- Milad Alshomary, Roxanne El Baff, Timon Gurcke, Henning Wachsmuth
- TLDR: 我们提出了一个用于生成道德性建模的系统,该系统可以生成不同的道德性建模。
- Pyramid-BERT: Reducing Complexity via Successive Core-set based Token Selection
- Xin Huang, Ashish Khetan, Rene Bidart, Zohar Karnin
- TLDR: 我们提出了一种新的BERT方法,用于学习一个用于分类和排名的单个字符嵌入。
- Probing for the Usage of Grammatical Number
- Karim Lasri, Tiago Pimentel, Alessandro Lenci, Thierry Poibeau, Ryan Cotterell
- TLDR: 我们通过使用使用使用语义值的句法来解释句法,并表明,BERT使用句法的数字来表示句法。