COLING 2022 in Chinese
TLDRs
- Do Language Models Make Human-like Predictions about the Coreferents of Italian Anaphoric Zero Pronouns?
- James A. Michaelov, Benjamin K. Bergen
- TLDR: 我们表明,从语言中提取期望可以被用来解释人类行为。
- Language Acquisition through Intention Reading and Pattern Finding
- Jens Nevens, Jonas Doumen, Paul Van Eecke, Katrien Beuls
- TLDR: 我们提出了一个用于语言学习的GAN模型,它可以用于学习句法,并利用它来解决自然语言问题的句法。
- Stability of Syntactic Dialect Classification over Space and Time
- Jonathan Dunn, Sidney Wong
- TLDR: 本文分析了在空间和时间上不变的语言分类器的程度,并表明,一个严格的评估和使用语言分类器的理论可以被用来找到语言分类器的变异和变化。
- Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans vs. BERT
- Karim Lasri, Olga Seminck, Alessandro Lenci, Thierry Poibeau
- TLDR: 我们表明,BERT和人类更敏感地使用句法来操纵句法,而不是句法的语义。
- Measuring Morphological Fusion Using Partial Information Decomposition
- Michaela Socolof, Jacob Louis Hoover, Richard Futrell, Alessandro Sordoni, Timothy J. O’Donnell
- TLDR: 我们提出了一个用于描述和理解语言的变体的理论,并表明,具有高层次的语义和语义联系的语言具有高层次的语义联系。
- Smells like Teen Spirit: An Exploration of Sensorial Style in Literary Genres
- Osama Khalid, Padmini Srinivasan
- TLDR: 我们表明,使用感知语言的风格是受感语言和风格的组成部分。
- Metaphorical Polysemy Detection: Conventional Metaphor Meets Word Sense Disambiguation
- Rowan Hall Maudslay, Simone Teufel
- TLDR: 我们提出了第一个用于标识符的词语表征的MPD模型,它可以从词汇中识别出新的词义。
- Machine Reading, Fast and Slow: When Do Models “Understand” Language?
- Sagnik Ray Choudhury, Anna Rogers, Isabelle Augenstein
- TLDR: 我们研究了阅读理解模型在学习语义方面的行为,并表明,它们在学习语义时,仍学习特定的语义 patterns而不是一般的语义模式。
- Hierarchical Attention Network for Explainable Depression Detection on Twitter Aided by Metaphor Concept Mappings
- Sooji Han, Rui Mao, Erik Cambria
- TLDR: 我们提出了一个解释性模型,用于Twitter上检测的情绪状态。
- Multi-view and Cross-view Brain Decoding
- Subba Reddy Oota, Jashn Arora, Manish Gupta, Raju S. Bapi
- TLDR: 我们提出了两种新的多视角解码器,用于处理视觉上和语音上的信息。
- Visio-Linguistic Brain Encoding
- Subba Reddy Oota, Jashn Arora, Vijay Rowtula, Manish Gupta, Raju S. Bapi
- TLDR: 我们表明,多模神经编码器在视觉和文本理解方面的性能优于以前提出的多模编码器。
- Gestures Are Used Rationally: Information Theoretic Evidence from Neural Sequential Models
- Yang Xu, Yang Cheng, Riya Bhatia
- TLDR: 我们通过使用简单的手势来传递信息,而不是用信息论来解释。
- Revisiting Statistical Laws of Semantic Shift in Romance Cognates
- Yoshifumi Kawasaki, Maëlys Salingre, Marzena Karpinska, Hiroya Takamura, Ryo Nagata
- TLDR: 我们对Romance cognates的统计关系进行了深入的理论分析。
- Character Jacobian: Modeling Chinese Character Meanings with Deep Learning Model
- Yu-Hsiang Tseng, Shu-Kai Hsieh
- TLDR: 我们提出了一个用于词嵌入的神经网络,它可以解释词嵌入的作用,并表明词嵌入与词的意关系是相互作用的。
- COMMA: Modeling Relationship among Motivations, Emotions and Actions in Language-based Human Activities
- Yuqiang Xie, Yue Hu, Wei Peng, Guanqun Bi, Luxi Xing
- TLDR: 我们首次研究了使用语言进行的人类活动的情感和行动的动力学框架的可行性。
- Exploring Semantic Spaces for Detecting Clustering and Switching in Verbal Fluency
- Özge Alacam, Simeon Schüz, Martin Wegrzyn, Johanna Kißler, Sina Zarrieß
- TLDR: 我们通过使用一个用于语言推理的神经 fluency数据集来分析一个用于语言推理的实验性语言 fluency数据集。
- Neuro-Symbolic Visual Dialog
- Adnen Abdessaied, Mihai Bâce, Andreas Bulling
- TLDR: 我们提出了神经符号对话(NSVD),这是一种用于多视角推理的神经符号模型,它可以用于解决视觉对话中的问题和场景。
- LINGUIST: Language Model Instruction Tuning to Generate Annotated Utterances for Intent Classification and Slot Tagging
- Andy Rosenbaum, Saleh Soltan, Wael Hamza, Yannick Versley, Markus Boese
- TLDR: 我们提出了一种用于IC+ST的语义分类和 Slot标签数据生成的新型方法。
- Adaptive Natural Language Generation for Task-oriented Dialogue via Reinforcement Learning
- Atsumoto Ohashi, Ryuichiro Higashinaka
- TLDR: 我们提出了一种用于生成NLG的RL方法,用于生成NLG的RL。
- TAKE: Topic-shift Aware Knowledge sElection for Dialogue Generation
- Chenxu Yang, Zheng Lin, Jiangnan Li, Fandong Meng, Weiping Wang, Lanrui Wang, Jie Zhou
- TLDR: 我们提出了一个主题转移的关注知识lector(TAKE),用于多通道对话生成。
- Dynamic Dialogue Policy for Continual Reinforcement Learning
- Christian Geishauser, Carel van Niekerk, Hsien-chin Lin, Nurul Lubis, Michael Heck, Shutong Feng, Milica Gašić
- TLDR: 我们提出了一个持续学习的框架,用于评估持续学习模型的基准架构。
- GRAVL-BERT: Graphical Visual-Linguistic Representations for Multimodal Coreference Resolution
- Danfeng Guo, Arpit Gupta, Sanchit Agarwal, Jiun-Yu Kao, Shuyang Gao, Arijit Biswas, Chien-Wei Lin, Tagyoung Chung, Mohit Bansal
- TLDR: 我们提出了一个用于多旋对话的多模态追踪的模型,解决了追踪中所产生的追踪的追踪。
- Learning to Improve Persona Consistency in Multi-party Dialogue Generation via Text Knowledge Enhancement
- Dongshi Ju, Shi Feng, Pengcheng Lv, Daling Wang, Yifei Zhang
- TLDR: 我们提出了一个图卷积网络模型,它整合了人的对话表征,对话表征,外部文本知识和主题表征。
- Improving Top-K Decoding for Non-Autoregressive Semantic Parsing via Intent Conditioning
- Geunseob Oh, Rahul Goel, Chris Hidey, Shachi Paul, Aditya Gupta, Pararth Shah, Rushin Shah
- TLDR: 我们提出了一个新颖的基于目标的语义解析器,它通过引入目标条件来解释语义解析器。
- Autoregressive Entity Generation for End-to-End Task-Oriented Dialog
- Guanhuan Huang, Xiaojun Quan, Qifan Wang
- TLDR: 我们提出了一种基于模型的端到端对话(TOD)方法,该方法允许用一个单个或多个实体来生成一个回应,而不是用一个单个实体来生成回应。
- Continual Few-shot Intent Detection
- Guodun Li, Yuchen Zhai, Qianglong Chen, Xing Gao, Ji Zhang, Yin Zhang
- TLDR: 我们提出了一种用于持续学习的GAN,它可以有效地防止灾难性遗忘和鼓励知识转移。
- “Mama Always Had a Way of Explaining Things So I Could Understand”: A Dialogue Corpus for Learning to Construct Explanations
- Henning Wachsmuth, Milad Alshomary
- TLDR: 我们介绍了第一个用于NLP研究的对话解释的原始集合,用于解释人类解释的对话。
- Schema Encoding for Transferable Dialogue State Tracking
- Hyunmin Jeon, Gary Geunbae Lee
- TLDR: 我们提出了用于转移对话状态跟踪的通用表征,用于转移到新的领域。
- A Personalized Dialogue Generator with Implicit User Persona Detection
- Itsugun Cho, Dongyang Wang, Ryota Takahashi, Hiroaki Saito
- TLDR: 我们提出了一种新的个性化对话生成方法,通过检测用户的隐性用户身份,以生成一个真实的用户。
- Incorporating Casual Analysis into Diversified and Logical Response Generation
- Jiayi Liu, Wei Wei, Zhixuan Chu, Xing Gao, Ji Zhang, Tan Yan, Yulin Kang
- TLDR: 我们提出了条件变异自动编码器(CVAE)模型,它可以生成更多样化的回答,同时具有更好的语义空间和更好的语义性能。
- Reciprocal Learning of Knowledge Retriever and Response Ranker for Knowledge-Grounded Conversations
- Jiazhan Feng, Chongyang Tao, Zhen Li, Chang Liu, Tao Shen, Dongyan Zhao
- TLDR: 我们提出了一种基于知识的对话系统之间的相互学习方法,用于知识导向的回答检索。
- CR-GIS: Improving Conversational Recommendation via Goal-aware Interest Sequence Modeling
- Jinfeng Zhou, Bo Wang, Zhitong Yang, Dongming Zhao, Kun Huang, Ruifang He, Yuexian Hou
- TLDR: 我们提出了一个基于知识图的CNN的框架,用于从用户兴趣中学习目标感知的潜在用户兴趣序列。
- GRASP: Guiding Model with RelAtional Semantics Using Prompt for Dialogue Relation Extraction
- Junyoung Son, Jinsung Kim, Jungwoo Lim, Heuiseok Lim
- TLDR: 我们提出了一个用于对话RE的对话文法解析的框架,使用Prompt(GRASP)来捕捉对话中表达的句法。
- PEPDS: A Polite and Empathetic Persuasive Dialogue System for Charity Donation
- Kshitij Mishra, Azlaan Mustafa Samad, Palak Totala, Asif Ekbal
- TLDR: 我们提出了一种用于社会行动的理性,情感和真诚的对话系统。
- DialAug: Mixing up Dialogue Contexts in Contrastive Learning for Robust Conversational Modeling
- Lahari Poddar, Peiyao Wang, Julia Reinspach
- TLDR: 我们提出了一个框架,将对话背景的轉換纳入学习目标。
- A Closer Look at Few-Shot Out-of-Distribution Intent Detection
- Li-Ming Zhan, Haowen Liang, Lu Fan, Xiao-Ming Wu, Albert Y.S. Lam
- TLDR: 我们考虑少樣本的OUTD intent检测,这是一个实用的、重要的问题,用于开发任务导向的对话系统。
- CGIM: A Cycle Guided Interactive Learning Model for Consistency Identification in Task-oriented Dialogue
- Libo Qin, Qiguang Chen, Tianbao Xie, Qian Liu, Shijue Huang, Wanxiang Che, Zhou Yu
- TLDR: 我们提出了Cycle Guided Interactive Learning Model(CGIM),它通过通过将所有三个任务的任务信息传递明确地从所有任务中进行。
- CorefDiffs: Co-referential and Differential Knowledge Flow in Document Grounded Conversations
- Lin Xu, Qixian Zhou, Jinlan Fu, Min-Yen Kan, See-Kiong Ng
- TLDR: 我们提出了一个基于多文件相互作用的多文件联合表征(Coref-MDG),用于描述和解释知识之间的相互作用。
- SelF-Eval: Self-supervised Fine-grained Dialogue Evaluation
- Longxuan Ma, Ziyu Zhuang, Weinan Zhang, Mingda Li, Ting Liu
- TLDR: 我们提出了SelF-Eval,这是一个基于自我监督的 Fine-grained Dialogue Evaluation框架。
- Open-Domain Dialog Evaluation Using Follow-Ups Likelihood
- Maxime De Bruyn, Ehsan Lotfi, Jeska Buhmann, Walter Daelemans
- TLDR: 我们提出了一种基于使用追踪的评价方法,用于评估开放域对话的语言模型的持续对话。
- Joint Goal Segmentation and Goal Success Prediction on Multi-Domain Conversations
- Meiguo Wang, Benjamin Yao, Bin Guo, Xiaohu Liu, Yu Zhang, Tuan-Hung Pham, Chenlei Guo
- TLDR: 我们提出了一个用于多目标目标对话系统(DS)的自动对话评估框架,它同时解决了目标分离和目标成功预测任务。
- Slot Dependency Modeling for Zero-Shot Cross-Domain Dialogue State Tracking
- Qingyue Wang, Yanan Cao, Piji Li, Yanhe Fu, Zheng Lin, Li Guo
- TLDR: 我们使用了任意的随机抽样 prompt,用于多域对话状态跟踪的零樣本学习。
- Section-Aware Commonsense Knowledge-Grounded Dialogue Generation with Pre-trained Language Model
- Sixing Wu, Ying Li, Ping Xue, Dawei Zhang, Zhonghai Wu
- TLDR: 我们提出了一个新颖的二阶框架,用于知识点的端到端对话生成。
- Using Multi-Encoder Fusion Strategies to Improve Personalized Response Selection
- Souvik Das, Sougata Saha, Rohini K. Srihari
- TLDR: 我们提出了一个集合的融合策略,用于捕捉人脸、情感和潜在信息的互动,以提高回答选择的准确性。
- A Multi-Dimensional, Cross-Domain and Hierarchy-Aware Neural Architecture for ISO-Standard Dialogue Act Tagging
- Stefano Mezza, Wayne Wobcke, Alan Blair
- TLDR: 我们提出了一种用于多标签文本分类的神经结构,用于提高分类精度。
- SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for Task-Oriented Dialog Understanding
- Wanwei He, Yinpei Dai, Binyuan Hui, Min Yang, Zheng Cao, Jianbo Dong, Fei Huang, Luo Si, Yongbin Li
- TLDR: 我们提出了 SPACE-2,一个基于句法的预先训练好的对话模型,它可以从有限的标签中学习对话表征,并通过半监督的对比性训练将其表征应用于多模态的非监督对话。
- ET5: A Novel End-to-end Framework for Conversational Machine Reading Comprehension
- Xiao Zhang, Heyan Huang, Zewen Chi, Xian-Ling Mao
- TLDR: 我们提出了一个用于对话机器阅读理解的端到端框架,用于解决本文中的问题。
- CoHS-CQG: Context and History Selection for Conversational Question Generation
- Xuan Long Do, Bowei Zou, Liangming Pan, Nancy F. Chen, Shafiq Joty, Ai Ti Aw
- TLDR: 我们提出了CoHS-CQG,一个用于CQG的二阶CQG框架,它采用了一个新的CoHS模块来缩放上下文和历史。
- Semantic-based Pre-training for Dialogue Understanding
- Xuefeng Bai, Linfeng Song, Yue Zhang
- TLDR: 我们首次使用了深度语义表征来捕捉对话中的核心语义信息,并提出了一个基于语义关系的预训练框架。
- Distribution Calibration for Out-of-Domain Detection with Bayesian Approximation
- Yanan Wu, Zhiyuan Zeng, Keqing He, Yutao Mou, Pei Wang, Weiran Xu
- TLDR: 我们提出了一个贝叶斯OOD检测框架,用于准确检测非监督的OOD。
- Tracking Satisfaction States for Customer Satisfaction Prediction in E-commerce Service Chatbots
- Yang Sun, Liangqing Wu, Shuangyong Song, Xiaoguang Yu, Xiaodong He, Guohong Fu
- TLDR: 我们提出了一个对话层次分类模型,用于跟踪CSP的满意状态。
- Towards Multi-label Unknown Intent Detection
- Yawen Ouyang, Zhen Wu, Xinyu Dai, Shujian Huang, Jiajun Chen
- TLDR: 我们提出了一种用于多标签非知的意图检测的简单方法,它可以识别所有的意图,并使用它来衡量其包含的意图。
- Pan More Gold from the Sand: Refining Open-domain Dialogue Training with Noisy Self-Retrieval Generation
- Yihe Wang, Yitong Li, Yasheng Wang, Fei Mi, Pingyi Zhou, Xin Wang, Jin Liu, Xin Jiang, Qun Liu
- TLDR: 我们使用BERTScore来检索,这提高了检索的质量,同时保留了更好的证据。
- MulZDG: Multilingual Code-Switching Framework for Zero-shot Dialogue Generation
- Yongkang Liu, Shi Feng, Daling Wang, Yifei Zhang
- TLDR: 我们提出了一个简单而有效的多语言对话生成框架,可以有效地转移知识从一个英语 corpus训练的样本到一个非英语 corpus训练的样本。
- Target-Guided Open-Domain Conversation Planning
- Yosuke Kishinami, Reina Akama, Shiki Sato, Ryoko Tokuhisa, Jun Suzuki, Kentaro Inui
- TLDR: 我们提出了目标导向的开放-目标对话规划(TGCP)任务,用于评估目标导向的对话规划能力。
- Does GPT-3 Generate Empathetic Dialogues? A Novel In-Context Example Selection Method and Automatic Evaluation Metric for Empathetic Dialogue Generation
- Young-Jun Lee, Chae-Gyun Lim, Ho-Jin Choi
- TLDR: 我们表明,通过提供一个基于点状的随机对话生成模型,通过提供一个基于点状的随机对话生成模型,可以生成情感对话。
- DialogueEIN: Emotion Interaction Network for Dialogue Affective Analysis
- Yuchen Liu, Jinming Zhao, Jingwen Hu, Ruichen Li, Qin Jin
- TLDR: 我们提出了一个新颖的对话情感互动网络,用于明确地模型 intra-和跨语言的情感互动。
- Towards Enhancing Health Coaching Dialogue in Low-Resource Settings
- Yue Zhou, Barbara Di Eugenio, Brian Ziebart, Lisa Sharp, Bing Liu, Ben Gerber, Nikolaos Agadakos, Shweta Yadav
- TLDR: 我们提出了一个用于健康指导的对话系统,它可以与患者互动,帮助患者创建和实现特定目标,并可以解决他们的情感。
- Generalized Intent Discovery: Learning from Open World Dialogue System
- Yutao Mou, Keqing He, Yanan Wu, Pei Wang, Jingang Wang, Wei Wu, Yi Huang, Junlan Feng, Weiran Xu
- TLDR: 我们提出了一种新的任务,即一般性意图发现(GID),旨在扩展一个IND intent classifier到一个开放的意图集。
- DialMed: A Dataset for Dialogue-based Medication Recommendation
- Zhenfeng He, Yuqiang Han, Zhenqiu Ouyang, Wei Gao, Hongxu Chen, Guandong Xu, Jian Wu
- TLDR: 我们提出了一个用于医疗对话的药物推荐的第一个高质量数据集。
- Speaker Clustering in Textual Dialogue with Pairwise Utterance Relation and Cross-corpus Dialogue Act Supervision
- Zhihua Su, Qiang Zhou
- TLDR: 我们提出了一个用于多语种对话的语音对话的语音聚类模型,它集合了在每个聚类中说话的句法,并使用它来生成句法标签。
- TopKG: Target-oriented Dialog via Global Planning on Knowledge Graph
- Zhitong Yang, Bo Wang, Jinfeng Zhou, Yue Tan, Dongming Zhao, Kun Huang, Ruifang He, Yuexian Hou
- TLDR: 我们提出了一个基于KG的全域RL的框架,用于目标导向的对话。
- Extractive Summarisation for German-language Data: A Text-level Approach with Discourse Features
- Freya Hewett, Manfred Stede
- TLDR: 我们通过对RST的联系进行深入分析,从理论和实践中证明,RST与选择内容的抽样任务密切相关。
- End-to-End Neural Bridging Resolution
- Hideo Kobayashi, Yufang Hou, Vincent Ng
- TLDR: 我们评估了在不现实的环境中进行的bridging解决的最先进结果。
- Investigating the Performance of Transformer-Based NLI Models on Presuppositional Inferences
- Jad Kabbara, Jackie Chi Kit Cheung
- TLDR: 我们研究了变换器模型在解决推理问题时的表现,并分析了它们在解决推理问题时的表现。
- Re-Examining FactBank: Predicting the Author’s Presentation of Factuality
- John Murzaku, Peter Zeng, Magdalena Markowska, Owen Rambow
- TLDR: 我们提出了一个关于事实Bank的数据集的修正版本。
- The Role of Context and Uncertainty in Shallow Discourse Parsing
- Katherine Atwell, Remi Choi, Junyi Jessy Li, Malihe Alikhani
- TLDR: 我们通过对模型的不确定性和可信度进行深入调查,研究了人类对模型的偏见和模型的偏见。
- Improving Commonsense Contingent Reasoning by Pseudo-data and Its Application to the Related Tasks
- Kazumasa Omura, Sadao Kurohashi
- TLDR: 我们通过对随机关系的一般性进行理论分析,以解决随机关系中的各种问题。
- A Survey in Automatic Irony Processing: Linguistic, Cognitive, and Multi-X Perspectives
- Qingcheng Zeng, An-Ran Li
- TLDR: 我们介绍了关于NLP的计算和神经网络的非对称性,以及在NLP中的应用。
- Towards Identifying Alternative-Lexicalization Signals of Discourse Relations
- René Knaebel, Manfred Stede
- TLDR: 我们提出了第一个用于识别alternative lexicalization的理论和经验方法。
- Topicalization in Language Models: A Case Study on Japanese
- Riki Fujihara, Tatsuki Kuribayashi, Kaori Abe, Ryoko Tokuhisa, Kentaro Inui
- TLDR: 我们分析了神经语言模型(LMs)在文本生成方面的语言知识偏见。
- “No, They Did Not”: Dialogue Response Dynamics in Pre-trained Language Models
- Sanghee J. Kim, Lang Yu, Allyson Ettinger
- TLDR: 我们通过对语言模型中潜在状态和不问题性反应的反应敏感性进行理论和实践的比较,研究了在未解决状态性问题时对回应的反应敏感性。
- New or Old? Exploring How Pre-Trained Language Models Represent Discourse Entities
- Sharid Loáiciga, Anne Beyer, David Schlangen
- TLDR: 我们通过研究语言模型在英语中使用词表的 entity representations来解决语言模型的样本问题。
- Dialo-AP: A Dependency Parsing Based Argument Parser for Dialogues
- Sougata Saha, Souvik Das, Rohini K. Srihari
- TLDR: 我们使用一个端到端的论证解析器,从对话中生成论证图。
- ConnPrompt: Connective-cloze Prompt Learning for Implicit Discourse Relation Recognition
- Wei Xiang, Zhenglin Wang, Lu Dai, Bang Wang
- TLDR: 我们使用ConnPrompt来从关系预测任务中转化关系预测任务。
- A Distance-Aware Multi-Task Framework for Conversational Discourse Parsing
- Yaxin Fan, Peifeng Li, Fang Kong, Qiaoming Zhu
- TLDR: 我们提出了一个基于时间感知的多任务框架,用于在短距离和长距离依赖性方面进行多任务学习。
- Linguistically Motivated Features for Classifying Shorter Text into Fiction and Non-Fiction Genre
- Arman Kazmi, Sidharth Ranjan, Arpit Sharma, Rajakrishnan Rajkumar
- TLDR: 我们使用一个用于短语分类的理论来解释短语的文本分类。
- Semantic Sentence Matching via Interacting Syntax Graphs
- Chen Xu, Jun Xu, Zhenhua Dong, Ji-Rong Wen
- TLDR: 我们用一个图来表示句法的表达,并利用它来生成句法匹配。
- Hierarchical Information Matters: Text Classification via Tree Based Graph Neural Network
- Chong Zhang, He Zhu, Xingyu Peng, Junran Wu, Ke Xu
- TLDR: 我们提出了一种基于结构熵的图的编码方法,用于图上编码。
- SelfMix: Robust Learning against Textual Label Noise with Self-Mixup Training
- Dan Qiao, Chenchen Dai, Yuyang Ding, Juntao Li, Qiang Chen, Wenliang Chen, Min Zhang
- TLDR: 我们提出了SelfMix,一个简单而有效的方法,用于处理标签噪音。
- Community Topic: Topic Model Inference by Consecutive Word Community Discovery
- Eric Austin, Osmar R. Zaïane, Christine Largeron
- TLDR: 我们提出了一种基于超参数的主题建模方法,用于解决主题层次结构的主题。
- Where to Attack: A Dynamic Locator Model for Backdoor Attack in Text Classifications
- Heng-yang Lu, Chenyou Fan, Jun Yang, Cong Hu, Wei Fang, Xiao-jun Wu
- TLDR: 我们研究了基于文本的BDA的攻击的理论和实践。
- Locally Distributed Activation Vectors for Guided Feature Attribution
- Housam K. B. Bashier, Mi-Young Kim, Randy Goebel
- TLDR: 我们提出了一种用于解释DNN的解释方法,通过学习解释的特定表征,可以解释黑盒预测。
- Addressing Leakage in Self-Supervised Contextualized Code Retrieval
- Johannes Villmow, Viola Campos, Adrian Ulges, Ulrich Schwanecke
- TLDR: 我们提出了一种基于语义一致的上下文检索的新方法,用于解决语义一致的上下文检索。
- A Domain Knowledge Enhanced Pre-Trained Language Model for Vertical Search: Case Study on Medicinal Products
- Kesong Liu, Jianhui Jiang, Feifei Lyu
- TLDR: 我们提出了一个用于药品的维度搜索的生物医学知识增强的预先训练的语言模型。
- CONCRETE: Improving Cross-lingual Fact-checking with Cross-lingual Retrieval
- Kung-Hsiang Huang, ChengXiang Zhai, Heng Ji
- TLDR: 我们提出了第一个基于跨语言检索的事实checking框架,它可以从多个语言中检索证据,并利用它来生成检索实例。
- E-VarM: Enhanced Variational Word Masks to Improve the Interpretability of Text Classification Models
- Ling Ge, ChunMing Hu, Guanghui Ma, Junshuang Wu, Junfan Chen, JiHong Liu, Hong Zhang, Wenyi Qin, Richong Zhang
- TLDR: 我们提出了一种用于文本分类的新型变体,它可以解决文本分类模型的解释性和准确性。
- Attribute Injection for Pretrained Language Models: A New Benchmark and an Efficient Method
- Reinald Kim Amplayo, Kang Min Yoo, Sang-Woo Lee
- TLDR: 我们提出了一种用于标签注入的通用方法,用于从标签中注入标签。
- Towards Robust Neural Retrieval with Source Domain Synthetic Pre-Finetuning
- Revanth Gangi Reddy, Vikas Yadav, Md Arafat Sultan, Martin Franz, Vittorio Castelli, Heng Ji, Avirup Sil
- TLDR: 我们提出了一种用于神经IR的新型的神经网络,它可以提高DPR的泛化。
- Parameter-Efficient Neural Reranking for Cross-Lingual and Multilingual Retrieval
- Robert Litschko, Ivan Vulić, Goran Glavaš
- TLDR: 我们表明,使用多语言编码器进行跨语言转移的最先进的方法比现有的方法更有效。
- LIME: Weakly-Supervised Text Classification without Seeds
- Seongmin Park, Jihwa Lee
- TLDR: 我们提出了LIME,一个用于弱监督的文本分类的框架,完全取代了从头到尾的指针生成过程,以实现最先进的分类结果。
- Multi-Stage Framework with Refinement Based Point Set Registration for Unsupervised Bi-Lingual Word Alignment
- Silviu Vlad Oprea, Sourav Dutta, Haytham Assem
- TLDR: 基于对抗性初始化和改进程序的多语言嵌入的非监督方法
- EM-PERSONA: EMotion-assisted Deep Neural Framework for PERSONAlity Subtyping from Suicide Notes
- Soumitra Ghosh, Dhirendra Kumar Maurya, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: 我们提出了一种用于诊断和治疗自杀倾向的新型EM-PERSONA,用于从自杀手写中提取自私的特征。
- Dense Template Retrieval for Customer Support
- Tiago Mesquita, Bruno Martins, Mariana Almeida
- TLDR: 我们提出了一个高效的、有用和可扩展的解决方案,用于解决客户支持问题。
- Exploring Label Hierarchy in a Generative Way for Hierarchical Text Classification
- Wei Huang, Chen Liu, Bo Xiao, Yihua Zhao, Zhaoming Pan, Zhimin Zhang, Xinyun Yang, Guiquan Liu
- TLDR: 我们提出了一个层次化和路径依赖的T5模型,用于HTC。
- MuSeCLIR: A Multiple Senses and Cross-lingual Information Retrieval Dataset
- Wing Yan Li, Julie Weeds, David Weir
- TLDR: 我们提出了一个用于跨语言信息检索的评估框架,用于解决CLIR中语义表征的缺失。
- Complicate Then Simplify: A Novel Way to Explore Pre-trained Models for Text Classification
- Xu Zhang, Zejie Liu, Yanzheng Xiang, Deyu Zhou
- TLDR: 我们提出了一个新颖的文本分类框架,它采用了一种二阶段的训练策略。
- Adaptive Feature Discrimination and Denoising for Asymmetric Text Matching
- Yan Li, Chenliang Li, Junjun Guo
- TLDR: 我们提出了一种用于异步文本匹配的自适应特征分类和语义解体模型,用于对相等文本匹配的特征进行分类和语义解体。
- Rethinking Data Augmentation in Text-to-text Paradigm
- Yanan Chen, Yang Liu
- TLDR: 本文提出了一种用于提高泛化能力的新型机器学习模型,该模型在理论上和实践上都取得了最先进的结果。
- ConTextING: Granting Document-Wise Contextual Embeddings to Graph Neural Networks for Inductive Text Classification
- Yen-Hao Huang, Yi-Hsin Chen, Yi-Shin Chen
- TLDR: 我们提出了一个简单的、有效的联合模型,用于学习从文件嵌入和背景语义之间的句法互动同时学习。
- Virtual Knowledge Graph Construction for Zero-Shot Domain-Specific Document Retrieval
- Yeon Seonwoo, Seunghyun Yoon, Franck Dernoncourt, Trung Bui, Alice Oh
- TLDR: 我们提出了一种基于知识图的图建方法,它可以用于查询和文件的归纳。
- MICO: Selective Search with Mutual Information Co-training
- Zhanyu Wang, Xiao Zhang, Hyokun Yun, Choon Hui Teo, Trishul Chilimbi
- TLDR: 我们提出了一种用于大型多任务搜索的非监督选择性搜索。
- DPTDR: Deep Prompt Tuning for Dense Passage Retrieval
- Zhengyang Tang, Benyou Wang, Ting Yao
- TLDR: 我们提出了一种基于模型的和任务无关的DPT方法,用于快速检索。
- BERT-Flow-VAE: A Weakly-supervised Model for Multi-Label Text Classification
- Ziwen Liu, Josep Grau-Bove, Scott Allan Allan Orr
- TLDR: 我们提出了BERT-Flow-VAE,一个弱监督的多标签文本分类(WSMLTC)模型,它可以显著超过其他基于BERT的WSMLTC模型。
- Welcome to the Modern World of Pronouns: Identity-Inclusive Natural Language Processing beyond Gender
- Anne Lauscher, Archie Crowley, Dirk Hovy
- TLDR: 我们提出了一个关于NLP的理论和实践观点,并表明,在没有明确的3个字符词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词典词
- Threat Scenarios and Best Practices to Detect Neural Fake News
- Artidoro Pagnoni, Martin Graciarena, Yulia Tsvetkov
- TLDR: 我们表明,生成文本检测系统的最坏情况表现良好,并提出了解决方法。
- From Polarity to Intensity: Mining Morality from Semantic Space
- Chunxu Zhao, Pengyuan Liu, Dong Yu
- TLDR: 我们提出了 MoralScore,一个弱监督的框架,可以从文本中自动衡量道德强度。
- SOS: Systematic Offensive Stereotyping Bias in Word Embeddings
- Fatma Elsafoury, Steve R. Wilson, Stamos Katsigiannis, Naeem Ramzan
- TLDR: 我们提出了一个衡量标准,用于批评和反驳SOS偏见,并表明SOS偏见与网络极端主义密切相关。
- Bigger Data or Fairer Data? Augmenting BERT via Active Sampling for Educational Text Classification
- Lele Sha, Yuheng Li, Dragan Gasevic, Guanliang Chen
- TLDR: 我们通过通过通过提高BERT的关注度来提高预测公平性。
- Debiasing Word Embeddings with Nonlinear Geometry
- Lu Cheng, Nayoung Kim, Huan Liu
- TLDR: 我们研究了多社会分类中的偏差,并提出了一种基于非线性空间的偏差的偏差方法。
- Debiasing Isn’t Enough! – on the Effectiveness of Debiasing MLMs and Their Social Biases in Downstream Tasks
- Masahiro Kaneko, Danushka Bollegala, Naoaki Okazaki
- TLDR: 我们研究了任务无关的内在和任务特定领域的社会偏差评估方法,并表明,它们与MLMs的偏见相一致。
- Quantifying Bias from Decoding Techniques in Natural Language Generation
- Mayukh Das, Wolf Tilo Balke
- TLDR: 我们提出了一个广泛的分析,从全域的编码空间评估编码器的偏差。
- A Study of Implicit Bias in Pretrained Language Models against People with Disabilities
- Pranav Narayanan Venkit, Mukund Srinath, Shomir Wilson
- TLDR: 我们表明,在大多数情况下,在训练的语言模型中,PLMs对障害者的偏见是最大的。
- Social Norms-Grounded Machine Ethics in Complex Narrative Situation
- Tao Shen, Xiubo Geng, Daxin Jiang
- TLDR: 我们提出了一个基于知识的框架来解决复杂的现实故事的道德判断问题。
- Bias at a Second Glance: A Deep Dive into Bias for German Educational Peer-Review Data Modeling
- Thiemo Wambsganss, Vinitra Swamy, Roman Rietsche, Tanja Käser
- TLDR: 我们通过对9,165的德国学生的论文进行WEAT分析,分析了在论文中发现的偏差。
- Dynamic Relevance Graph Network for Knowledge-Aware Question Answering
- Chen Zheng, Parisa Kordjamshidi
- TLDR: 我们提出了一种新的知识图神经网络架构,称为动态的贡献图网络(DRGN),它使用对问题的特定节点的 relevance scores来建立新的节点表征。
- SISER: Semantic-Infused Selective Graph Reasoning for Fact Verification
- Eunhwan Park, Jong-Hyeon Lee, Jeon Dong Hyeon, Seonhoon Kim, Inho Kang, Seung-Hoon Na
- TLDR: 本文提出了一个关于学习和使用模型的理论,该理论在理论和实践中证明了其可行性。
- Answering Numerical Reasoning Questions in Table-Text Hybrid Contents with Graph-based Encoder and Tree-based Decoder
- Fangyu Lei, Shizhu He, Xiang Li, Jun Zhao, Kang Liu
- TLDR: 我们提出了一个基于关系图的多表征的混合表征模型,它可以捕捉到表征中表征的上下文和句法的联系。
- Perform like an Engine: A Closed-Loop Neural-Symbolic Learning Framework for Knowledge Graph Inference
- Guanglin Niu, Bo Li, Yongfei Zhang, Shiliang Pu
- TLDR: 我们提出了一种用于图的图推理的神经symbol学习框架,通过结合我们的开发的KGE和RL模块,通过使用RL模块的先验规则来改进KG嵌入和解释性。
- Table-based Fact Verification with Self-labeled Keypoint Alignment
- Guangzhen Zhao, Peng Yang
- TLDR: 我们提出了一个自我编码的Keypoint Alignment模型,用于研究证据与句法的联系。
- IMCI: Integrate Multi-view Contextual Information for Fact Extraction and Verification
- Hao Wang, Yangguang Li, Zhen Huang, Yong Dou
- TLDR: 我们提出了一个用于事实提取和验证的多视图 context信息框架,它可以帮助我们更好地提取事实证据。
- Prompt Combines Paraphrase: Teaching Pre-trained Models to Understand Rare Biomedical Words
- Haochun Wang, Chi Liu, Nuwa Xi, Sendong Zhao, Meizhi Ju, Shiwei Zhang, Ziheng Zhang, Yefeng Zheng, Bing Qin, Ting Liu
- TLDR: 我们提出了一种简单的、有效的方法来帮助模型在不使用额外的参数的情况下进行微调。
- Self-Supervised Intermediate Fine-Tuning of Biomedical Language Models for Interpreting Patient Case Descriptions
- Israa Alghanmi, Luis Espinosa-Anke, Steven Schockaert
- TLDR: 我们提出了一种用于临床NLP的自我监督的近似微调策略,用于从 PubMed abstract中学习可解释的医疗概念。
- Evaluating and Mitigating Inherent Linguistic Bias of African American English through Inference
- Jamell Dacon, Haochen Liu, Jiliang Tang
- TLDR: 我们提出了CodeSwitch,一个基于规则的正则化正则化方法,用于数据增量和模型的穩定性。
- Can We Guide a Multi-Hop Reasoning Language Model to Incrementally Learn at Each Single-Hop?
- Jesus Lovon-Melgarejo, Jose G. Moreno, Romaric Besançon, Olivier Ferret, Lynda Tamine
- TLDR: 我们提出了一个用于多跳推理的理论,并提出了一个用于解释多跳推理的理论。
- Modeling Hierarchical Reasoning Chains by Linking Discourse Units and Key Phrases for Reading Comprehension
- Jialin Chen, Zhuosheng Zhang, Hai Zhao
- TLDR: 本文提出了一个统一的图网络,用于理解语义上的逻辑关系。
- Hierarchical Representation-based Dynamic Reasoning Network for Biomedical Question Answering
- Jianguo Mao, Jiyuan Zhang, Zengfeng Zeng, Weihua Peng, Wenbin Jiang, Xiangdong Wang, Hong Liu, Yajuan Lyu
- TLDR: 我们提出了一个新颖的层次化架构,用于解决生物医学问题回答。
- ArT: All-round Thinker for Unsupervised Commonsense Question Answering
- Jiawei Wang, Hai Zhao
- TLDR: 我们提出了一种基于人类思考的全向思考方法,通过完全从相关性中学习知识,以实现知识生成。
- Teaching Neural Module Networks to Do Arithmetic
- Jiayi Chen, Xiao-Yu Guo, Yuan-Fang Li, Gholamreza Haffari
- TLDR: 我们提出了一种用于解释问题的NMNs的新型方法,用于提高其推理能力。
- An Augmented Benchmark Dataset for Geometric Question Answering through Dual Parallel Text Encoding
- Jie Cao, Jing Xiao
- TLDR: 我们研究了基于神经网络的数学建模的基于地理的理论。
- Competence-based Question Generation
- Jingxuan Tu, Kyeongmin Rim, James Pustejovsky
- TLDR: 我们提出了一种用于CB问题的生成方法和一个用于解决CB问题的数据集。
- Coalescing Global and Local Information for Procedural Text Understanding
- Kaixin Ma, Filip Ilievski, Jonathan Francis, Eric Nyberg, Alessandro Oltramari
- TLDR: 我们提出了一个新颖的模型,它结合了实体状态和时间感知输入的全局表征,并同时使用它来建实体状态和一个结构化的预测目标。
- Original Content Is All You Need! an Empirical Study on Leveraging Answer Summary for WikiHowQA Answer Selection Task
- Liang Wen, Juan Li, Houfeng Wang, Yingwei Luo, Xiaolin Wang, Xiaodong Zhang, Zhicong Cheng, Dawei Yin
- TLDR: 我们使用一个用于回答问题的神经模型来检查我们是否使用额外的回答总结来解决回答问题的回答。
- Case-Based Abductive Natural Language Inference
- Marco Valentino, Mokanarangan Thayaparan, André Freitas
- TLDR: 我们提出了一个用于多跳NLLI的反叛框架,该框架通过对以前的解释进行类似转移来解决以前的解释问题。
- Semantic Structure Based Query Graph Prediction for Question Answering over Knowledge Graph
- Mingchen Li, Shihao Ji
- TLDR: 我们使用BERT来预测一个问题的语义结构。
- Repo4QA: Answering Coding Questions via Dense Retrieval on GitHub Repositories
- Minyu Chen, Guoqiang Li, Chen Ma, Jingyang Li, Hongfei Fu
- TLDR: 我们提出了一个基于CodeBERT的模型,它同时捕捉和生成问题和回答者的语义特征。
- Addressing Limitations of Encoder-Decoder Based Approach to Text-to-SQL
- Octavian Popescu, Irene Manotas, Ngoc Phuoc An Vo, Hangu Yeo, Elahe Khorashani, Vadim Sheinin
- TLDR: 我们提出了一种基于自动训练-数据增强技术的方法,用于从文本到SQL的任务。
- Mintaka: A Complex, Natural, and Multilingual Dataset for End-to-End Question Answering
- Priyanka Sen, Alham Fikri Aji, Amir Saffari
- TLDR: 我们介绍了Mintaka,这是一个用于问题回答的多语种数据集,用于探索从端到端的问题回答模型。
- Can Edge Probing Tests Reveal Linguistic Knowledge in QA Models?
- Sagnik Ray Choudhury, Nikita Bhutani, Isabelle Augenstein
- TLDR: 我们通过使用一个微调的LM编码器来衡量语言模型的语义知识。
- Conversational QA Dataset Generation with Answer Revision
- Seonjeong Hwang, Gary Geunbae Lee
- TLDR: 我们提出了一个新颖的框架,通过将句法提取出来,然后生成句法对应问题的回答,以实现回答的一致性。
- DABERT: Dual Attention Enhanced BERT for Semantic Matching
- Sirui Wang, Di Liang, Jian Song, Yuntao Li, Wei Wu
- TLDR: 我们提出了一种新颖的双注意力增强的BERT,用于在句子对中捕捉微调的差异。
- Locate Then Ask: Interpretable Stepwise Reasoning for Multi-hop Question Answering
- Siyuan Wang, Zhongyu Wei, Zhihao Fan, Qi Zhang, Xuanjing Huang
- TLDR: 我们提出了一种可解释的步骤向量推理框架,它可以提高多跳推理的性能。
- Less Is Better: Recovering Intended-Feature Subspace to Robustify NLU Models
- Ting Wu, Tao Gui
- TLDR: 我们提出了一个新颖的模型,Recovering Intended-Feature Subspace,它可以改善模型的泛化和在不偏见的集上实现新的最先进的性能。
- CORN: Co-Reasoning Network for Commonsense Question Answering
- Xin Guan, Biwei Cao, Qingqing Gao, Zheng Yin, Bo Liu, Jiuxin Cao
- TLDR: 我们提出了一个基于Co-Attention Transformer的多层次连接结构的新架构,用于QA的上下文表征和QA实体关系的建模。
- Logical Form Generation via Multi-task Learning for Complex Question Answering over Knowledge Bases
- Xixin Hu, Xuan Wu, Yiheng Shu, Yuzhong Qu
- TLDR: 我们提出了一种基于生成的KBQA方法,通过多任务学习,可以更快地检索和使用辅助信息。
- CMQA: A Dataset of Conditional Question Answering with Multiple-Span Answers
- Yiming Ju, Weikang Wang, Yuanzhe Zhang, Suncong Zheng, Kang Liu, Jun Zhao
- TLDR: 我们提出了一个条件多通道QA数据集,用于研究条件多通道QA的现状。
- To What Extent Do Natural Language Understanding Datasets Correlate to Logical Reasoning? A Method for Diagnosing Logical Reasoning.
- Yitian Li, Jidong Tian, Wenqing Chen, Caoyun Fan, Hao He, Yaohui Jin
- TLDR: 我们提出了一个诊断和分析的统一方法,用于诊断和分析具有特定能力的NLU数据集和数据集之间的相互作用。
- ArcaneQA: Dynamic Program Induction and Contextualized Encoding for Knowledge Base Question Answering
- Yu Gu, Yu Su
- TLDR: 我们提出了一种新的方法,通过生成模型来解决知识库KBQA问题,并利用它来解决架构链接问题。
- Unsupervised Question Answering via Answer Diversifying
- Yuxiang Nie, Heyan Huang, Zewen Chi, Xian-Ling Mao
- TLDR: 我们提出了一种新的非监督问题回答方法,该方法使用数据建模,数据增强和噪声滤波器模块来解决这个问题。
- Weakly Supervised Formula Learner for Solving Mathematical Problems
- Yuxuan Wu, Hideki Nakayama
- TLDR: 我们提出了弱监督的公式学习器,用于学习最简单的公式。
- Reducing Spurious Correlations for Answer Selection by Feature Decorrelation and Language Debiasing
- Zeyi Zhong, Min Yang, Ruifeng Xu
- TLDR: 我们提出了一种用于回答问题问题的穩定性改善的 Spurious Correlation Reduction方法。
- Understanding and Improving Zero-shot Multi-hop Reasoning in Generative Question Answering
- Zhengbao Jiang, Jun Araki, Haibo Ding, Graham Neubig
- TLDR: 我们通过使用一个简单的多跳推理方法来解释生成QA模型的多跳推理能力。
- Domain Adaptation for Question Answering via Question Classification
- Zhenrui Yue, Huimin Zeng, Ziyi Kou, Lanyu Shang, Dong Wang
- TLDR: 我们提出了一个用于QA问题的分类框架,该框架使用了QC4QA的自监督方法。
- Prompt-based Conservation Learning for Multi-hop Question Answering
- Zhenyun Deng, Yonghua Zhu, Yang Chen, Qianqian Qi, Michael Witbrock, Patricia Riddle
- TLDR: 我们提出了一种基于示范的多跳QA方法,它可以从多跳QA任务中学习新的知识,同时保留以前的知识,以减轻知识损失。
- GLAF: Global-to-Local Aggregation and Fission Network for Semantic Level Fact Verification
- Zhiyuan Ma, Jianjun Li, Guohui Li, Yongjing Cheng
- TLDR: 我们提出了一个用于事实验证的新型全域到区域的集成和激活网络(GLAF),它通过将句法分解成图节来进行可解释和可解释的证据图推理。
- Exploiting Hybrid Semantics of Relation Paths for Multi-hop Question Answering over Knowledge Graphs
- Zile Qiao, Wei Ye, Tong Zhang, Tong Mo, Weiping Li, Shikun Zhang
- TLDR: 我们提出了一种基于关系路径的多跳知识图上知识图的预测方法,该方法通过利用关系路径的双语义特征来改进知识图上知识图的预测。
- Adaptive Threshold Selective Self-Attention for Chinese NER
- Biao Hu, Zhen Huang, Minghao Hu, Ziwen Zhang, Yong Dou
- TLDR: 我们提出了一种基于数据的自上而下的自我关注(ATSSA)机制,旨在动态选择最相关的字符来增强中中中中字符的Transformer架构。
- Cluster-aware Pseudo-Labeling for Supervised Open Relation Extraction
- Bin Duan, Shusen Wang, Xingxian Liu, Yajing Xu
- TLDR: 我们提出了一种基于神经网络的新型的聚类自上而下的权重标签方法,用于改进伪标签质量和转移知识来发现新的关系。
- Few-shot Named Entity Recognition with Entity-level Prototypical Network Enhanced by Dispersedly Distributed Prototypes
- Bin Ji, Shasha Li, Shaoduo Gan, Jie Yu, Jun Ma, Huijun Liu, Jing Yang
- TLDR: 我们提出了EP-Net,一个用于NER的新型的实体级 Prototypical Network,通过集中式分散的样本进行增强。
- Different Data, Different Modalities! Reinforced Data Splitting for Effective Multimodal Information Extraction from Social Media Posts
- Bo Xu, Shizhou Huang, Ming Du, Hongya Wang, Hui Song, Chaofeng Sha, Yanghua Xiao
- TLDR: 我们提出了一个通用的数据分组策略来分组社交网络的帖子,以实现信息提取的多模态和非模态的统一。
- Augmentation, Retrieval, Generation: Event Sequence Prediction with a Three-Stage Sequence-to-Sequence Approach
- Bo Zhou, Chenhao Wang, Yubo Chen, Kang Liu, Jun Zhao, Jiexin Xu, Xiaojian Jiang, Qiuxia Li
- TLDR: 本文提出了一个用于预测目标的神经语言处理任务。
- Generating Temporally-ordered Event Sequences via Event Optimal Transport
- Bo Zhou, Yubo Chen, Kang Liu, Jun Zhao, Jiexin Xu, Xiaojian Jiang, Qiuxia Li
- TLDR: 我们提出了一种解决时间序列的事件序列生成问题的新型方法。
- Improving Continual Relation Extraction through Prototypical Contrastive Learning
- Chengwei Hu, Deqing Yang, Haoliang Jin, Zhen Chen, Yanghua Xiao
- TLDR: 我们提出了一种新的持续关系提取框架,用于提高CRE性能。
- Prompt-based Text Entailment for Low-Resource Named Entity Recognition
- Dongfang Li, Baotian Hu, Qingcai Chen
- TLDR: 我们提出了一种基于句法的文本依赖性方法,用于低资源的名称实体识别。
- Key Mention Pairs Guided Document-Level Relation Extraction
- Feng Jiang, Jianwei Niu, Shasha Mo, Shengda Fan
- TLDR: 我们提出了一个用于表征上引用的DQN模型,它可以直接从表征上提取表征,并利用它来改进表征上引用的模型。
- A Hybrid Model of Classification and Generation for Spatial Relation Extraction
- Feng Wang, Peifeng Li, Qiaoming Zhu
- TLDR: 我们提出了一种新颖的混合模型,用于空间关系提取的生成任务。
- Mining Health-related Cause-Effect Statements with High Precision at Large Scale
- Ferdinand Schlatt, Dieter Bettin, Matthias Hagen, Benno Stein, Martin Potthast
- TLDR: 我们提出了一个高效的、有效的词典标签评估,用于诊断和治疗疾病的因果效应。
- Find the Funding: Entity Linking with Incomplete Funding Knowledge Bases
- Gizem Aydin, Seyed Amin Tabatabaei, George Tsatsaronis, Faegheh Hasibi
- TLDR: 我们提出了一个用于知识库知识链接的实体链接模型,可以解决数据有限的问题和解决数据充足的问题。
- KiPT: Knowledge-injected Prompt Tuning for Event Detection
- Haochen Li, Tong Mo, Hongcheng Fan, Jingkun Wang, Jiaxi Wang, Fuhao Zhang, Weiping Li
- TLDR: 本文提出了一个知识注入的Prompt Tuning(KiPT)模型,用于少樣本的事件检测。
- OneEE: A One-Stage Framework for Fast Overlapping and Nested Event Extraction
- Hu Cao, Jingye Li, Fangfang Su, Fei Li, Hao Fei, Shengqiong Wu, Bobo Li, Liang Zhao, Donghong Ji
- TLDR: 我们提出了一个简单的、有效的方法来解释信息提取,它可以更快地提取信息。
- Joint Language Semantic and Structure Embedding for Knowledge Graph Completion
- Jianhao Shen, Chenguang Wang, Linyuan Gong, Dawn Song
- TLDR: 我们提出了一种基于知识图的编码器,它可以显著提高知识图的性能。
- Event Detection with Dual Relational Graph Attention Networks
- Jiaxin Mi, Po Hu, Peng Li
- TLDR: 我们提出了一种简单的、有效的、高效的、多语义的双语图注意力网络,它利用了句法和语义之间的相互作用,以提高事件追踪的准确性。
- A Multi-Format Transfer Learning Model for Event Argument Extraction via Variational Information Bottleneck
- Jie Zhou, Qi Zhang, Qin Chen, Qi Zhang, Liang He, Xuanjing Huang
- TLDR: 我们提出了一种基于变异信息瓶颈的多格式转移学习模型,它可以利用现有的多格式转移数据集,以更好地理解和学习不同的格式。
- RSGT: Relational Structure Guided Temporal Relation Extraction
- Jie Zhou, Shenpo Dong, Hongkui Tu, Xiaodong Wang, Yong Dou
- TLDR: 我们提出了一种基于语法和语义的图的图神经网络的图上关系提取方法。
- Learning Hierarchy-Aware Quaternion Knowledge Graph Embeddings with Representing Relations as 3D Rotations
- Jinfa Yang, Xianghua Ying, Yongjie Shi, Xin Tong, Ruibin Wang, Taiyan Chen, Bowei Xing
- TLDR: 我们提出了一个新颖的图嵌入模型,它可以学习语义层次结构和多关系结构。
- Two Languages Are Better than One: Bilingual Enhancement for Chinese Named Entity Recognition
- Jinzhong Ning, Zhihao Yang, Zhizheng Wang, Yuanyuan Sun, Hongfei Lin, Jian Wang
- TLDR: 我们提出了一个统一的跨跨变换与全球 Sparse Attention(ACT-S)模块,用于捕捉和学习跨语言信息的互动。
- Read Extensively, Focus Smartly: A Cross-document Semantic Enhancement Method for Visual Documents NER
- Jun Zhao, Xin Zhao, WenYu Zhan, Tao Gui, Qi Zhang, Liang Qiao, Zhanzhan Cheng, Shiliang Pu
- TLDR: 我们提出了一个跨文件信息知识技术,用于解决跨文件信息知识的泛化问题。
- STAD: Self-Training with Ambiguous Data for Low-Resource Relation Extraction
- Junjie Yu, Xing Wang, Jiangjiang Zhao, Chunjie Yang, Wenliang Chen
- TLDR: 我们提出了一种用于低资源关系提取的自上而下的自我训练方法,用于学习具有不确定性的实例。
- Flat Multi-modal Interaction Transformer for Named Entity Recognition
- Junyu Lu, Dixiang Zhang, Jiaxing Zhang, Pingjian Zhang
- TLDR: 我们提出了一种基于多模态的多模态互动Transformer(FMIT)方法,用于MNER。
- MetaSLRCL: A Self-Adaptive Learning Rate and Curriculum Learning Based Framework for Few-Shot Text Classification
- Kailin Zhao, Xiaolong Jin, Saiping Guan, Jiafeng Guo, Xueqi Cheng
- TLDR: 我们提出了一种用于少樣本学习的元学习框架,该框架可以帮助元学习者在不同的任务上获得不同的学习率。
- A Simple Temporal Information Matching Mechanism for Entity Alignment between Temporal Knowledge Graphs
- Li Cai, Xin Mao, Meirong Ma, Hao Yuan, Jianchao Zhu, Man Lan
- TLDR: 我们提出了一种基于时间信息的跨知识图的跨知识图的权重匹配方法,该方法比以前的方法更好。
- DCT-Centered Temporal Relation Extraction
- Liang Wang, Peifeng Li, Sheng Xu
- TLDR: 我们提出了一个统一的DCT中心时间关系提取模型,用于识别时间节和时间点之间的关系。
- Document-level Biomedical Relation Extraction Based on Multi-Dimensional Fusion Information and Multi-Granularity Logical Reasoning
- Lishuang Li, Ruiyuan Lian, Hongbin Lu, Jingyao Tang
- TLDR: 我们提出了一个新颖的生物-DocuRE模型,用于多维信息融合和多语义推理。
- Simple Yet Powerful: An Overlooked Architecture for Nested Named Entity Recognition
- Matias Rojas, Felipe Bravo-Marquez, Jocelyn Dunstan
- TLDR: 我们重新审视了多层LSTM-CRF,一个简单的,但强大的方法,用于识别和分类不同类型的NER。
- ERGO: Event Relational Graph Transformer for Document-level Event Causality Identification
- Meiqi Chen, Yixin Cao, Kunquan Deng, Mukai Li, Kun Wang, Jing Shao, Yan Zhang
- TLDR: 我们提出了一个用于DECI的Event Relational GraphTransformer框架,用于DECI的Event Causality Identification。
- DRK: Discriminative Rule-based Knowledge for Relieving Prediction Confusions in Few-shot Relation Extraction
- Mengru Wang, Jianming Zheng, Fei Cai, Taihua Shao, Honghui Chen
- TLDR: 我们提出了一种基于知识的DRK方法,用于少樣本关系提取。
- DocQueryNet: Value Retrieval with Arbitrary Queries for Form-like Documents
- Mingfei Gao, Le Xue, Chetan Ramaiah, Chen Xing, Ran Xu, Caiming Xiong
- TLDR: 我们提出了DocQueryNet,一个用于形式的文件的值检的值检方法,用于减少人类的输入时间。
- DoSEA: A Domain-specific Entity-aware Framework for Cross-Domain Named Entity Recogition
- Minghao Tang, Peng Zhang, Yongquan He, Yongxiu Xu, Chengpeng Chao, Hongbo Xu
- TLDR: 我们提出了一种用于领域名称识别的机器阅读理解的框架,用于解决领域名称的词义冲突。
- Incremental Prompting: Episodic Memory Prompt for Lifelong Event Detection
- Minqian Liu, Shiyu Chang, Lifu Huang
- TLDR: 我们使用持续的记忆片段(EMP)来明确地保留学习任务特定知识。
- Recent Advances in Text-to-SQL: A Survey of What We Have and What We Expect
- Naihao Deng, Yulong Chen, Yue Zhang
- TLDR: 我们通过对数据集、方法和评估进行系统的总结,解决了text-to-SQL的现状和潜在方向。
- An MRC Framework for Semantic Role Labeling
- Nan Wang, Jiwei Li, Yuxian Meng, Xiaofei Sun, Han Qiu, Ziyao Wang, Guoyin Wang, Jun He
- TLDR: 我们提出了一个用于语义标签的机器阅读理解框架,用于解决语义标签的语义角色标签。
- PCBERT: Parent and Child BERT for Chinese Few-shot NER
- Peichao Lai, Feiyang Ye, Lin Zhang, Zhiwei Chen, Yanggeng Fu, Yingjie Wu, Yilei Wang
- TLDR: 我们提出了一种基于PCBERT的少樣本NER的随机学习方法,用于解决少樣本NER。
- Label Smoothing for Text Mining
- Peiyang Liu, Xiangyu Xi, Wei Ye, Shikun Zhang
- TLDR: 一种基于语义的LS方法,通过利用标签和文本实例之间的 relevance,生成软标签。
- Diverse Multi-Answer Retrieval with Determinantal Point Processes
- Poojitha Nandigam, Nikhil Rayaprolu, Manish Shrivastava
- TLDR: 我们提出了一种基于梯度的多回答检索方法,该方法使用基于BERT的梯度来检索查询-passage联系的节点。
- Improving Deep Embedded Clustering via Learning Cluster-level Representations
- Qing Yin, Zhihua Wang, Yunya Song, Yida Xu, Shuai Niu, Liang Bai, Yike Guo, Xian Yang
- TLDR: 我们提出了一种用于短文本聚类的深度嵌入表征,它可以同时学习聚类和实例级表征。
- Decoupling Mixture-of-Graphs: Unseen Relational Learning for Knowledge Graph Completion by Fusing Ontology and Textual Experts
- Ran Song, Shizhu He, Suncong Zheng, Shengxiang Gao, Kang Liu, Zhengtao Yu, Jun Zhao
- TLDR: 我们提出了一种基于多图专家的非监督学习方法,它可以代表未见过关系的联系,并利用它来解决与未见过关系相对应的不一致性。
- CETA: A Consensus Enhanced Training Approach for Denoising in Distantly Supervised Relation Extraction
- Ruri Liu, Shasha Mo, Jianwei Niu, Shengda Fan
- TLDR: 本文提出了一种用于关系提取的句法级DSRE方法,该方法超越传统的例子选择方法。
- MedDistant19: Towards an Accurate Benchmark for Broad-Coverage Biomedical Relation Extraction
- Saadullah Amin, Pasquale Minervini, David Chang, Pontus Stenetorp, Guenter Neumann
- TLDR: 我们提出了一个更准确的一般领域关系提取基准MedDistant19,用于广袤的近距离监督的生物医学关系提取。
- Decorrelate Irrelevant, Purify Relevant: Overcome Textual Spurious Correlations from a Feature Perspective
- Shihan Dou, Rui Zheng, Ting Wu, SongYang Gao, Junjie Shan, Qi Zhang, Yueming Wu, Xuanjing Huang
- TLDR: 我们提出了一种基于信息的非偏见方法,通过从特征空间的角度从一个特征空间的角度进行学习,以减少虚假的相互作用。
- Event Causality Identification via Derivative Prompt Joint Learning
- Shirong Shen, Heng Zhou, Tongtong Wu, Guilin Qi
- TLDR: 我们提出了一种用于事件因果关系的替代性回答模型,它利用了潜在因果知识在预先训练好的语言模型中潜在的因果知识,以提高模型的解释能力。
- Event Causality Extraction with Event Argument Correlations
- Shiyao Cui, Jiawei Sheng, Xin Cong, Quangang Li, Tingwen Liu, Jinqiao Shi
- TLDR: 我们提出了一种用于事件因果关系的双节标记方案,用于捕捉事件之间的因果关系。
- SCL-RAI: Span-based Contrastive Learning with Retrieval Augmented Inference for Unlabeled Entity Problem in NER
- Shuzheng Si, Shuang Zeng, Jiaxing Lin, Baobao Chang
- TLDR: 我们提出了一种基于拓扑的对比性学习方法,用于解决非标的实体问题。
- A Relation Extraction Dataset for Knowledge Extraction from Web Tables
- Siffi Singh, Alham Fikri Aji, Gaurav Singh, Christos Christodoulopoulos
- TLDR: 我们提出了一个用于关系提取的在线数据集。
- Automatic Keyphrase Generation by Incorporating Dual Copy Mechanisms in Sequence-to-Sequence Learning
- Siyu Wang, Jianhui Jiang, Yao Huang, Yin Wang
- TLDR: 我们提出了一种用于生成句法的DualCopyNet模型,它引入了额外的句法标签层来识别句法,并将其引用作为生成句法的新句法。
- Dependency-aware Prototype Learning for Few-shot Relation Classification
- Tianshu Yu, Min Yang, Xiaoyan Zhao
- TLDR: 我们提出了一种基于依赖性感知的初始化学习方法,用于少樣本关系分类。
- MECI: A Multilingual Dataset for Event Causality Identification
- Viet Dac Lai, Amir Pouran Ben Veyseh, Minh Van Nguyen, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: 我们介绍了一个新颖的多语言数据集,用于诊断事件因果关系,它使用五个字符不同的注释规范。
- Method Entity Extraction from Biomedical Texts
- Waqar Bin Kalim, Robert E. Mercer
- TLDR: 我们使用语言特征来从生物医学文献中提取方法句法的名称。
- Optimal Partial Transport Based Sentence Selection for Long-form Document Matching
- Weijie Yu, Liang Pang, Jun Xu, Bing Su, Zhenhua Dong, Ji-Rong Wen
- TLDR: 我们提出了一种用于文件匹配的新型匹配方法,它与现有的文件匹配模型相结合,以更好地匹配文件。
- LightNER: A Lightweight Tuning Paradigm for Low-resource NER via Pluggable Prompting
- Xiang Chen, Lei Li, Shumin Deng, Chuanqi Tan, Changliang Xu, Fei Huang, Luo Si, Huajun Chen, Ningyu Zhang
- TLDR: 我们提出了一种轻量级的、通用的、可扩展的、高效的、可扩展的、可扩展的、通用的、低资源的NER方法。
- Cross-modal Contrastive Attention Model for Medical Report Generation
- Xiao Song, Xiaodan Zhang, Junzhong Ji, Ying Liu, Pengxu Wei
- TLDR: 我们提出了一个新颖的跨模式反向注意力(CMCA)模型,用于捕捉和理解相似的案例,并利用它们来捕捉和理解不同的注意。
- Domain-Specific NER via Retrieving Correlated Samples
- Xin Zhang, Yong Jiang, Xiaobin Wang, Xuming Hu, Yueheng Sun, Pengjun Xie, Meishan Zhang
- TLDR: 我们建议使用GANs来改进NER模型,以生成与样本相相关的样本。
- Type-enriched Hierarchical Contrastive Strategy for Fine-Grained Entity Typing
- Xinyu Zuo, Haijin Liang, Ning Jing, Shuang Zeng, Zhou Fang, Yu Luo
- TLDR: 我们提出了一种基于层次结构的非监督的类型化方法,用于直接对实体类型的类型差异进行分类。
- Document-Level Relation Extraction via Pair-Aware and Entity-Enhanced Representation Learning
- Xiusheng Huang, Hang Yang, Yubo Chen, Jun Zhao, Kang Liu, Weijian Sun, Zuyu Zhao
- TLDR: 我们提出了一种用于多实体关系提取的GAN模型,该模型可以解决多实体关系提取中关系提取的两难问题。
- Improving Zero-Shot Entity Linking Candidate Generation with Ultra-Fine Entity Type Information
- Xuhui Sui, Ying Zhang, Kehui Song, Baohang Zhou, Guoqing Zhao, Xin Wei, Xiaojie Yuan
- TLDR: 我们提出了一个层次化多任务模型,用于提高零樣本的实体链接任务的高质量的实体链接。
- CofeNet: Context and Former-Label Enhanced Net for Complicated Quotation Extraction
- Yequan Wang, Xiang Li, Aixin Sun, Xuying Meng, Huaming Liao, Jiafeng Guo
- TLDR: 本文提出了一种用于表征提取的新方法。
- Supporting Medical Relation Extraction via Causality-Pruned Semantic Dependency Forest
- Yifan Jin, Jiangmeng Li, Zheng Lian, Chengbo Jiao, Xiaohui Hu
- TLDR: 我们提出了一种基于因果解释理论的方法来利用医学文献中语义和句法信息的相互作用提取。
- Aspect-based Sentiment Analysis as Machine Reading Comprehension
- Yifei Yang, Hai Zhao
- TLDR: 我们提出了一种用于情感分析的端到端框架,用于解决多模态的情感分析问题。
- Nested Named Entity Recognition as Corpus Aware Holistic Structure Parsing
- Yifei Yang, Zuchao Li, Hai Zhao
- TLDR: 我们提出了一个用于NER的GAN,用于从句法到句法的全无结构的NER中提取GAN。
- DESED: Dialogue-based Explanation for Sentence-level Event Detection
- Yinyi Wei, Shuaipeng Liu, Jianwei Lv, Xiangyu Xi, Hailei Yan, Wei Ye, Tong Mo, Fan Yang, Guanglu Wan
- TLDR: 我们提出了一种新的方法,通过对话-基于解释的事件解释来增强句法语义。
- Data Augmentation for Few-Shot Knowledge Graph Completion from Hierarchical Perspective
- Yuanzhou Yao, Zhao Zhang, Yongjun Xu, Chao Li
- TLDR: 我们提出了一个用于知识图完成的模型,该模型可以实现显著的改进。
- CLIO: Role-interactive Multi-event Head Attention Network for Document-level Event Extraction
- Yubing Ren, Yanan Cao, Fang Fang, Ping Guo, Zheng Lin, Wei Ma, Yi Liu
- TLDR: 我们提出了一个角色-互动多事件头注意力网络(CLIO),用于解决文件级的事件提取任务。
- COPNER: Contrastive Learning with Prompt Guiding for Few-shot Named Entity Recognition
- Yucheng Huang, Kai He, Yige Wang, Xianli Zhang, Tieliang Gong, Rui Mao, Chen Li
- TLDR: 我们提出了一种新的非监督学习方法,用于少樣本的NER。
- Few Clean Instances Help Denoising Distant Supervision
- Yufang Liu, Ziyin Huang, Yijun Wang, Changzhi Sun, Man Lan, Yuanbin Wu, Xiaofeng Mou, Ding Wang
- TLDR: 我们提出了一个新颖的清洁例子选择标准,它收集了样本级证据,以识别好例子。
- SEE-Few: Seed, Expand and Entail for Few-shot Named Entity Recognition
- Zeng Yang, Linhai Zhang, Deyu Zhou
- TLDR: 我们提出了一个新颖的多任务(Seed,扩展和后处理)学习框架,用于少樣本的NER。
- Ruleformer: Context-aware Rule Mining over Knowledge Graph
- Zezhong Xu, Peng Ye, Hui Chen, Meng Zhao, Huajun Chen, Wen Zhang
- TLDR: 我们提出了一种基于变换器的规则建模方法,它可以从头实体的上下文信息中提取上下文信息,并利用它来生成上下文关系。
- Are People Located in the Places They Mention in Their Tweets? A Multimodal Approach
- Zhaomin Xiao, Eduardo Blanco
- TLDR: 我们通过研究文本和图像的作用,来解决多语种的tweets的分布问题。
- Multi-modal Contrastive Representation Learning for Entity Alignment
- Zhenxi Lin, Ziheng Zhang, Meng Wang, Yinghui Shi, Xian Wu, Yefeng Zheng
- TLDR: 我们提出了MCLEA,一种基于多模态反向学习的实体导向模型,用于多模态实体alignment。
- Nonparametric Forest-Structured Neural Topic Modeling
- Zhihong Zhang, Xuewen Zhang, Yanghui Rao
- TLDR: 我们提出了一个非凸的池状主题建模,它可以自动学习一个池状主题层次结构,并比目前的池状主题建模模型更优。
- KGE-CL: Contrastive Learning of Tensor Decomposition Based Knowledge Graph Embeddings
- Zhiping Luo, Wentao Xu, Weiqing Liu, Jiang Bian, Jian Yin, Tie-Yan Liu
- TLDR: 我们提出了一个简单的、高效的、TDB的深度知识图嵌入框架,可以提高知识图嵌入的性能。
- A Coarse-to-fine Cascaded Evidence-Distillation Neural Network for Explainable Fake News Detection
- Zhiwei Yang, Jing Ma, Hechang Chen, Hongzhan Lin, Ziyang Luo, Yi Chang
- TLDR: 我们提出了一个新的Coarse-to-fine Cascaded Evidence-Distillation(CofCED)神经网络用于解释性虚假新闻检测。
- Document-level Event Factuality Identification via Machine Reading Comprehension Frameworks with Transfer Learning
- Zhong Qian, Heng Zhang, Peifeng Li, Qiaoming Zhu, Guodong Zhou
- TLDR: 我们提出了一个新颖的框架,用于表征理解(MRC)任务的表征。
- Unregulated Chinese-to-English Data Expansion Does NOT Work for Neural Event Detection
- Zhongqiu Li, Yu Hong, Jie Wang, Shiming He, Jianmin Yao, Guodong Zhou
- TLDR: 我们使用一个基于规则的框架来规避扩展数据的误导,以提高AE corpus的多语言数据扩展。
- Finding Influential Instances for Distantly Supervised Relation Extraction
- Zifeng Wang, Rui Wen, Xi Chen, Shao-Lun Huang, Ningyu Zhang, Yefeng Zheng
- TLDR: 我们提出了一种基于作用函数(IF)的随机样本采样方法,用于DS的生成模型预测。
- A Simple Model for Distantly Supervised Relation Extraction
- Ziqin Rao, Fangxiang Feng, Ruifan Li, Xiaojie Wang
- TLDR: 我们提出了一种简单的、有效的、通用的、可扩展的、可逆的、可逆的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、
- Augmenting Legal Judgment Prediction with Contrastive Case Relations
- Dugang Liu, Weihao Du, Lei Li, Weike Pan, Zhong Ming
- TLDR: 我们提出了一个关于CTM和CTM之间的比较观点,并提出了一个用于CTM的预测框架。
- Constrained Regeneration for Cross-Lingual Query-Focused Extractive Summarization
- Elsbeth Turcan, David Wan, Faisal Ladhak, Petra Galuscakova, Sukanta Sen, Svetlana Tchistiakova, Weijia Xu, Marine Carpuat, Kenneth Heafield, Douglas Oard, Kathleen McKeown
- TLDR: 我们表明,在翻译中使用一个查询词而不是翻译中搜索词的句法,可以提高人类的 relevance judgment。
- Programmable Annotation with Diversed Heuristics and Data Denoising
- Ernie Chang, Alex Marin, Vera Demberg
- TLDR: 我们提出了一个用于NLG和NL理解的深度学习数据编程框架,可以同时建标签数据。
- Text-to-Text Extraction and Verbalization of Biomedical Event Graphs
- Giacomo Frisoni, Gianluca Moro, Lorenzo Balzani
- TLDR: 我们提出了一个用于生物医学事件的事件提取和事件表征的统一的事件-文本数据集。
- Multimodal Semi-supervised Learning for Disaster Tweet Classification
- Iustin Sirbu, Tiberiu Sosea, Cornelia Caragea, Doina Caragea, Traian Rebedea
- TLDR: 我们提出了一种基于半监督的神经模型的多模态灾难tweet分类方法。
- Automated Essay Scoring via Pairwise Contrastive Regression
- Jiayi Xie, Kaiwei Cai, Li Kong, Junsheng Zhou, Weiguang Qu
- TLDR: 我们提出了一个新颖的神经梯度对抗性回归(NPCR)模型,该模型在AES任务中的表现优于以前的方法。
- Medical Question Understanding and Answering with Knowledge Grounding and Semantic Self-Supervision
- Khalil Mrini, Harpreet Singh, Franck Dernoncourt, Seunghyun Yoon, Trung Bui, Walter W. Chang, Emilia Farcas, Ndapa Nakashole
- TLDR: 我们提出了一个用于医疗问题理解和回答的系统,具有知识基础和语义自我监督。
- A Progressive Framework for Role-Aware Rumor Resolution
- Lei Chen, Guanying Li, Zhongyu Wei, Yang Yang, Baohua Zhou, Qi Zhang, Xuanjing Huang
- TLDR: 我们提出了一个基于图的模型,用于解决角色感知的谣言解决问题。
- Uncertainty-aware Propagation Structure Reconstruction for Fake News Detection
- Lingwei Wei, Dou Hu, Wei Zhou, Songlin Hu
- TLDR: 我们提出了一个基于图的模型,即UPSR,用于改进虚假新闻检测。
- A Unified Propagation Forest-based Framework for Fake News Detection
- Lingwei Wei, Dou Hu, Yantong Lai, Wei Zhou, Songlin Hu
- TLDR: 我们提出了一个新颖的统一推广树的框架,用于更好地研究传播树的潜在联系。
- CLoSE: Contrastive Learning of Subframe Embeddings for Political Bias Classification of News Media
- Michelle YoungJin Kim, Kristen Marie Johnson
- TLDR: 我们提出了一个基于BERT的多任务BERT的多任务学习模型,用于检测新闻报道中偏见。
- Grammatical Error Correction: Are We There Yet?
- Muhammad Reza Qorib, Hwee Tou Ng
- TLDR: 我们表明,在GEC中,在语义错误的分类上,在理论上和实践上都比人类做得更好。
- CXR Data Annotation and Classification with Pre-trained Language Models
- Nina Zhou, Ai Ti Aw, Zhuo Han Liu, Cher heng Tan, Yonghan Ting, Wen Xiang Chen, Jordan sim zheng Ting
- TLDR: 我们提出了一个新颖的弱监督注释框架,它可以用于准确的临床数据注释。
- uChecker: Masked Pretrained Language Models as Unsupervised Chinese Spelling Checkers
- Piji Li
- TLDR: 我们通过研究使用数据稀疏性限制的语言模型,来解决语言模型中输入错误的输入。
- Boosting Deep CTR Prediction with a Plug-and-Play Pre-trainer for News Recommendation
- Qijiong Liu, Jieming Zhu, Quanyu Dai, Xiaoming Wu
- TLDR: 我们提出了一个用于新闻推荐的插值预训练框架,用于从用户和消息编码器中学习新闻编码器。
- Improving Fake News Detection of Influential Domain via Domain- and Instance-Level Transfer
- Qiong Nan, Danding Wang, Yongchun Zhu, Qiang Sheng, Yuhui Shi, Juan Cao, Jintao Li
- TLDR: 我们提出了一个用于多域虚假新闻检测的通用框架,该框架可以提高特定目标领域的特定目标领域的性能。
- Student Surpasses Teacher: Imitation Attack for Black-Box NLP APIs
- Qiongkai Xu, Xuanli He, Lingjuan Lyu, Lizhen Qu, Gholamreza Haffari
- TLDR: 我们表明,在没有监督的情况下,攻击者可以超越受害者,以获得更好的模型提取。
- Combining Compressions for Multiplicative Size Scaling on Natural Language Tasks
- Rajiv Movva, Jinhao Lei, Shayne Longpre, Ajay Gupta, Chris DuBois
- TLDR: 我们表明,通过使用单个方法来压缩神经网络,可以同时减少模型大小和准确性。
- PlugAT: A Plug and Play Module to Defend against Textual Adversarial Attack
- Rui Zheng, Rong Bao, Qin Liu, Tao Gui, Qi Zhang, Xuanjing Huang, Rui Xie, Wei Wu
- TLDR: 我们提出了一个用于对抗性训练的模块,它可以从训练的参数中自动提取对抗性例子,并通过将其转移到一个可扩展的模块中进行训练。
- Automatic ICD Coding Exploiting Discourse Structure and Reconciled Code Embeddings
- Shurui Zhang, Bozheng Zhang, Fuxin Zhang, Bo Sang, Wanchun Yang
- TLDR: 我们提出了一个用于ICD编码的GAN模型,该模型可以同时解决临床记录和ICD代码定义的两个问题。
- Towards Summarizing Healthcare Questions in Low-Resource Setting
- Shweta Yadav, Cornelia Caragea
- TLDR: 本文提出了一种用于医疗问题总结的新型数据选择策略,该策略利用了基于语义交叉和多样性的目标函数来选择最有用的数据集。
- Doc-GCN: Heterogeneous Graph Convolutional Networks for Document Layout Analysis
- Siwen Luo, Yihao Ding, Siqu Long, Josiah Poon, Soyeon Caren Han
- TLDR: 我们提出了一个高效的DLA架构,用于文件的外观设计。
- Analytic Automated Essay Scoring Based on Deep Neural Networks Integrating Multidimensional Item Response Theory
- Takumi Shibata, Masaki Uto
- TLDR: 我们提出了一个用于AES的神经模型,它可以预测论文的整体得分,也可以预测论文的整体得分。
- DP-Rewrite: Towards Reproducibility and Transparency in Differentially Private Text Rewriting
- Timour Igamberdiev, Thomas Arnold, Ivan Habernal
- TLDR: 我们提出了一种用于不同身份的文本修改的开放框架,它可以扩展,可扩展,可定制,并具有可解释性。
- Harnessing Abstractive Summarization for Fact-Checked Claim Detection
- Varad Bhatnagar, Diptesh Kanojia, Kameswari Chebrolu
- TLDR: 我们提出了一个新颖的事实检索程序,用于高效检测以前事实不实的论断。
- Learning to Generate Explanation from e-Hospital Services for Medical Suggestion
- Wei-Lin Chen, An-Zi Yen, Hen-Hsen Huang, Hsin-Hsi Chen
- TLDR: 我们提出了一个用于医疗服务的解释生成的神经模型,它生成一个医疗建议,并提供一个解释。
- DeltaNet: Conditional Medical Report Generation for COVID-19 Diagnosis
- Xian Wu, Shuxin Yang, Zhaopeng Qiu, Shen Ge, Yangtian Yan, Xingwang Wu, Yefeng Zheng, S. Kevin Zhou, Li Xiao
- TLDR: 我们提出了一种用于COVID-19的新型医疗报告生成技术,它可以用于其他疾病的疾病。
- MCS: An In-battle Commentary System for MOBA Games
- Xiaofeng Qi, Chao Li, Zhongping Liang, Jigang Liu, Cheng Zhang, Yuanxin Wei, Lin Yuan, Guang Yang, Lanxiao Huang, Min Li
- TLDR: 本文介绍了一种用于移动MOBA游戏的实时预测的生成系统。
- A Two Stage Adaptation Framework for Frame Detection via Prompt Learning
- Xinyi Mou, Zhongyu Wei, Changjian Jiang, Jiajie Peng
- TLDR: 我们提出了一个框架,用于在不同的背景下适应不同的主题和标签集。
- Summarizing Patients’ Problems from Hospital Progress Notes Using Pre-trained Sequence-to-Sequence Models
- Yanjun Gao, Dmitriy Dligach, Timothy Miller, Dongfang Xu, Matthew M. M. Churpek, Majid Afshar
- TLDR: 我们提出了一个新颖的NLP任务,旨在通过提供医院的进展记录来生成一个病患者的每日健康计划的常见问题列表。
- Human-in-the-loop Robotic Grasping Using BERT Scene Representation
- Yaoxian Song, Penglei Sun, Pengfei Fang, Linyi Yang, Yanghua Xiao, Yue Zhang
- TLDR: 我们提出了一个用于场景中机器人推理的语言界面,用于使用BERT来代替场景-图的表示。
- Automated Chinese Essay Scoring from Multiple Traits
- Yaqiong He, Feng Jiang, Xiaomin Chu, Peifeng Li
- TLDR: 我们提出了一个用于AES的多任务特征采样器,它可以从多个特征中评估论文质量。
- Semantic-Preserving Adversarial Code Comprehension
- Yiyang Li, Hongqiu Wu, Hai Zhao
- TLDR: 我们提出了一个用于编码的语言模型的符号保护防御方法,它可以保持最先进的对抗性攻击的穩定性。
- Continually Detection, Rapidly React: Unseen Rumors Detection Based on Continual Prompt-Tuning
- Yuhui Zuo, Wei Zhu, Guoyong GUET Cai
- TLDR: 我们提出了一个持续的推理和学习的RD框架,该框架避免了灾难性遗忘(CF)的顺序任务学习和跨领域知识转移。
- AiM: Taking Answers in Mind to Correct Chinese Cloze Tests in Educational Applications
- Yusen Zhang, Zhongli Li, Qingyu Zhou, Ziyi Liu, Chao Li, Mina Ma, Yunbo Cao, Hongzhi Liu
- TLDR: 我们提出了一种基于多模态的多模态方法,用于解决卷积测试的正则化。
- TreeMAN: Tree-enhanced Multimodal Attention Network for ICD Coding
- Zichen Liu, Xuyuan Liu, Yanlong Wen, Guoqing Zhao, Fen Xia, Xiaojie Yuan
- TLDR: 我们提出了一个TreeMAN,用于将表征和文本特征结合起来,通过通过关注机制来增强表征,以预测疾病代码。
- Gated Mechanism Enhanced Multi-Task Learning for Dialog Routing
- Ziming Huang, Zhuoxuan Jiang, Ke Wang, Juntao Li, Shanshan Feng, Xian-Ling Mao
- TLDR: 我们提出了一个用于多任务学习的多任务学习框架,它可以作为多任务系统的一部分,用于解决多任务问题。
- Negation, Coordination, and Quantifiers in Contextualized Language Models
- Aikaterini-Lida Kalouli, Rita Sevastjanova, Christin Beck, Maribel Romero
- TLDR: 我们通过对函数词的语义限制进行理论分析,从语义限制中学习函数词。
- Tales and Tropes: Gender Roles from Word Embeddings in a Century of Children’s Books
- Anjali Adukia, Patricia Chiril, Callista Christ, Anjali Das, Alex Eble, Emileigh Harrison, Hakizumwami Birali Runesha
- TLDR: 我们表明,在100个最受关注的儿童书中,关于性的看法与100个流行的书中描述的相反。
- CLOWER: A Pre-trained Language Model with Contrastive Learning over Word and Character Representations
- Borun Chen, Hongyin Tang, Jiahao Bu, Kai Zhang, Jingang Wang, Qifan Wang, Hai-Tao Zheng, Wei Wu, Liqian Yu
- TLDR: 我们提出了一个简单的、通用的、可扩展的、可解释的、可逆的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、可解释的、
- On the Nature of BERT: Correlating Fine-Tuning and Linguistic Competence
- Federica Merendi, Felice Dell’Orletta, Giulia Venturi
- TLDR: 我们表明,在随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机随机
- LayerConnect: Hypernetwork-Assisted Inter-Layer Connector to Enhance Parameter Efficiency
- Haoxiang Shi, Rongsheng Zhang, Jiaan Wang, Cen Wang, Yinhe Zheng, Tetsuya Sakai
- TLDR: 我们提出了LayerConnect(hyper网络-辅助的跨层连接器),用于提高推理效率。
- Effect of Post-processing on Contextualized Word Representations
- Hassan Sajjad, Firoj Alam, Fahim Dalvi, Nadir Durrani
- TLDR: 我们使用基于Z-core的神经网络来处理语义表征,而不是使用基于Z-core的表征。
- Does BERT Rediscover a Classical NLP Pipeline?
- Jingcheng Niu, Wenjie Lu, Gerald Penn
- TLDR: 我们使用一个新的旋转梯度来检测BERT的内部结构。
- HG2Vec: Improved Word Embeddings from Dictionary and Thesaurus Based Heterogeneous Graph
- Qitong Wang, Mohammed J Zaki
- TLDR: 我们提出了一个新颖的词嵌入学习模型,使用词典和典范,以实现词嵌入的多项式相似性和相关性基准上的最先进的结果。
- Transferring Knowledge from Structure-aware Self-attention Language Model to Sequence-to-Sequence Semantic Parsing
- Ran Ji, Jianmin Ji
- TLDR: 我们提出了一个结构化知觉的自我关注语言模型,用于捕捉结构信息和提出一种知识提炼方法来将目标语言模型纳入一个seq2seq模型。
- Enhancing Contextual Word Representations Using Embedding of Neighboring Entities in Knowledge Graphs
- Ryoko Tokuhisa, Keisuke Kawano, Akihiro Nakamura, Satoshi Koide
- TLDR: 本文提出了一种新的方法,通过使用KGs来处理知识图上的联系,以实现知识图上知识图上的理解。
- Generic Overgeneralization in Pre-trained Language Models
- Sello Ralethe, Jan Buys
- TLDR: 我们通过通过知识嵌入方法来减少和消除一般泛化的效果,以避免泛化偏差。
- How about Time? Probing a Multilingual Language Model for Temporal Relations
- Tommaso Caselli, Irene Dini, Felice Dell’Orletta
- TLDR: 使用多语言模型,XLM-R,对时间关系分类的全域实证研究。
- CogBERT: Cognition-Guided Pre-trained Language Models
- Xiao Ding, Bowen Chen, Li Du, Bing Qin, Ting Liu
- TLDR: 我们提出了CogBERT,一个用于NLP任务的神经网络,可以从可微分的认知特征中学习不同的神经特征。
- Can Transformers Process Recursive Nested Constructions, Like Humans?
- Yair Lakretz, Théo Desbordes, Dieuwke Hupkes, Stanislas Dehaene
- TLDR: 我们研究了使用TransformerLMs解决嵌入依赖问题的最先进的结果。
- NSP-BERT: A Prompt-based Few-Shot Learner through an Original Pre-training Task —— Next Sentence Prediction
- Yi Sun, Yu Zheng, Chao Hao, Hangping Qiu
- TLDR: 我们使用BERT来解决零樣本和少樣本的NLP任务。
- MetaPrompting: Learning to Learn Better Prompts
- Yutai Hou, Hongyuan Dong, Xinghao Wang, Bohan Li, Wanxiang Che
- TLDR: 我们提出了一种通用的软 prompt方法,它采用了一种可证明的模型无关的元学习算法来解决软 prompt初始化问题。
- Parameter-Efficient Mixture-of-Experts Architecture for Pre-trained Language Models
- Ze-Feng Gao, Peiyu Liu, Wayne Xin Zhao, Zhong-Yi Lu, Ji-Rong Wen
- TLDR: 我们提出了一种用于多专家架构的MoE架构,通过共享信息,提高模型的性能和效率。
- Pre-trained Token-replaced Detection Model as Few-shot Learner
- Zicheng Li, Shoushan Li, Guodong Zhou
- TLDR: 我们提出了一种用于少樣本学习的新型方法,用于使用预先训练好的标记词来回答任务。
- Evaluating Diversity of Multiword Expressions in Annotated Text
- Adam Lion-Bouton, Yagmur Ozturk, Agata Savary, Jean-Yves Antoine
- TLDR: 我们使用GANs来衡量多字符表达的多样性和平衡性。
- CausalQA: A Benchmark for Causal Question Answering
- Alexander Bondarenko, Magdalena Wolska, Stefan Heindorf, Lukas Blübaum, Axel-Cyrille Ngonga Ngomo, Benno Stein, Pavel Braslavski, Matthias Hagen, Martin Potthast
- TLDR: 我们提出了一个用于解释因果关系的基准库,该库包含了1.1万因果问题,回答率高达9倍。
- MACRONYM: A Large-Scale Dataset for Multilingual and Multi-Domain Acronym Extraction
- Amir Pouran Ben Veyseh, Nicole Meister, Seunghyun Yoon, Rajiv Jain, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: 我们提出了一个用于多语言AE的统一数据集。
- Curating a Large-Scale Motivational Interviewing Dataset Using Peer Support Forums
- Anuradha Welivita, Pearl Pu
- TLDR: 我们通过通过通过训练好的专家来标注17个受试者对回答的回应的回应的回应,以实现97%的覆盖率。
- CCTC: A Cross-Sentence Chinese Text Correction Dataset for Native Speakers
- Baoxin Wang, Xingyi Duan, Dayong Wu, Wanxiang Che, Zhigang Chen, Guoping Hu
- TLDR: 我们提出了一个跨句法的中文文本修正数据集,用于在语言上进行语义错误的检索和修正。
- RealMedDial: A Real Telemedical Dialogue Dataset Collected from Online Chinese Short-Video Clips
- Bo Xu, Hongtong Zhang, Jian Wang, Xiaokun Zhang, Dezhi Hao, Linlin Zong, Hongfei Lin, Fenglong Ma
- TLDR: 我们提出了RealMedDial,这是一个用于医疗对话的在线对话数据集,用于临床对话的在线对话。
- TempoWiC: An Evaluation Benchmark for Detecting Meaning Shift in Social Media
- Daniel Loureiro, Aminette D’Souza, Areej Nasser Muhajab, Isabella A. White, Gabriel Wong, Luis Espinosa-Anke, Leonardo Neves, Francesco Barbieri, Jose Camacho-Collados
- TLDR: 我们提出了一种新的衡量标准,用于衡量在社交平台上的 meaning转移。
- Automatic Generation of Large-scale Multi-turn Dialogues from Reddit
- Daniil Huryn, William M. Hutsell, Jinho D. Choi
- TLDR: 本文提出了一种新的方法,通过自动转换主题和他们的评论到多旋对话,用于生成一个强大的多旋对话库。
- ConFiguRe: Exploring Discourse-level Chinese Figures of Speech
- Dawei Zhu, Qiusi Zhan, Zhejian Zhou, Yifan Song, Jiebin Zhang, Sujian Li
- TLDR: 我们提出了一个用于用词表征识别的汉语言百科,并利用它来构建一个汉语言的百科全书。
- Twitter Topic Classification
- Dimosthenis Antypas, Asahi Ushio, Jose Camacho-Collados, Vitor Silva, Leonardo Neves, Francesco Barbieri
- TLDR: 我们提出了一个新的任务,基于Twitter主题分类和两个相关的数据集。
- Layer or Representation Space: What Makes BERT-based Evaluation Metrics Robust?
- Doan Nam Long Vu, Nafise Sadat Moosavi, Steffen Eger
- TLDR: 我们表明,使用字符级嵌入的BERTScore比使用字符级嵌入的BERTScore更穩定。
- Evaluating the Performance of Transformer-based Language Models for Neuroatypical Language
- Duanchen Liu, Zoey Liu, Qingyun Yang, Yujing Huang, Emily Prud’hommeaux
- TLDR: 我们使用一个变体框架来分析社会语言特征,并使用它来解决ASD的语言治疗问题。
- TERMinator: A System for Scientific Texts Processing
- Elena Bruches, Olga Tikhobaeva, Yana Dementyeva, Tatiana Batura
- TLDR: 我们提出了一个用于解释和解释的系统,用于研究语言模型对解释和解释方面的作用。
- LipKey: A Large-Scale News Dataset for Absent Keyphrases Generation and Abstractive Summarization
- Fajri Koto, Timothy Baldwin, Jey Han Lau
- TLDR: 我们提出了LipKey,一个用于文件总结的百科全书,它包含了没有关键字和没有关键字的总结。
- Understanding Attention for Vision-and-Language Tasks
- Feiqi Cao, Soyeon Caren Han, Siqu Long, Changwei Xu, Josiah Poon
- TLDR: 我们通过分析了看法和语义特征的关注度计算方法,从中分析了关注度计算的一般意义。
- Effective Data Augmentation for Sentence Classification Using One VAE per Class
- Frédéric Piedboeuf, Philippe Langlais
- TLDR: 我们使用VAE来提高文本数据的生成能力,并表明VAE在生成数据方面的性能优于其他方法。
- NLG-Metricverse: An End-to-End Library for Evaluating Natural Language Generation
- Giacomo Frisoni, Antonella Carbonaro, Gianluca Moro, Andrea Zammarchi, Marco Avagnano
- TLDR: 我们提出了一个用于NLG评估的端到端的开放库,用于评估NLG模型的一般有效性。
- TestAug: A Framework for Augmenting Capability-based NLP Tests
- Guanqun Yang, Mirazul Haque, Qiaochu Song, Wei Yang, Xueqing Liu
- TLDR: 我们通过使用GPT-3引擎生成测试库,而不是使用一个生成的库来生成它们。
- KoCHET: A Korean Cultural Heritage Corpus for Entity-related Tasks
- Gyeongmin Kim, Jinsung Kim, Junyoung Son, Heuiseok Lim
- TLDR: 我们提出了KoCHET,一个用于一般文化遗产任务的通用名称识别(NER),关系提取(RE),和实体字典(ET)的一般名称识别的词典。
- MonoByte: A Pool of Monolingual Byte-level Language Models
- Hugo Abonizio, Leandro Rodrigues de Souza, Roberto Lotufo, Rodrigo Nogueira
- TLDR: 我们提出了10个完全可逆的多语种模型,它们在没有标注符嵌入的情况下实现了跨语言的跨语言能力。
- Wizard of Tasks: A Novel Conversational Dataset for Solving Real-World Tasks in Conversational Settings
- Jason Ingyu Choi, Saar Kuzi, Nikhita Vedula, Jie Zhao, Giuseppe Castellucci, Marcus Collins, Shervin Malmasi, Oleg Rokhlenko, Eugene Agichtein
- TLDR: 我们提出了一个用于学习任务任务的对话库,该库囊括了来自Wizard-of-OZ的549对话。
- K-MHaS: A Multi-label Hate Speech Detection Dataset in Korean Online News Comment
- Jean Lee, Taejun Lim, Heejun Lee, Bogeun Jo, Yangsok Kim, Heegeun Yoon, Soyeon Caren Han
- TLDR: 我们介绍了K-MHaS,一个新颖的多标签分类器用于反向传播的多标签检测,能够准确检测和处理汉化语言的标签结构。
- Domain- and Task-Adaptation for VaccinChatNL, a Dutch COVID-19 FAQ Answering Corpus and Classification Model
- Jeska Buhmann, Maxime De Bruyn, Ehsan Lotfi, Walter Daelemans
- TLDR: 我们提出了VACCINChatNL,一个用于COVID-19 vaccination的在线回答数据集。
- Benchmarking Automated Clinical Language Simplification: Dataset, Algorithm, and Evaluation
- Junyu Luo, Junxian Lin, Chi Lin, Cao Xiao, Xinning Gui, Fenglong Ma
- TLDR: 我们提出了一个用于临床语言简化问题的MedLane数据集,用于支持临床语言简化和临床语言简化方法的开发和评估。
- WikiHan: A New Comparative Dataset for Chinese Languages
- Kalvin Chang, Chenxuan Cui, Youngmin Kim, David R. Mortensen
- TLDR: 本文收集了用于语言学习和语言建模的语言分类数据集。
- Visual Recipe Flow: A Dataset for Learning Visual State Changes of Objects with Recipe Flows
- Keisuke Shirai, Atsushi Hashimoto, Taichi Nishimura, Hirotaka Kameko, Shuhei Kurita, Yoshitaka Ushiku, Shinsuke Mori
- TLDR: 我们提出了一个用于多模态信息检索的多模态数据集,它可以学习每个物体的状态变化,并展示其工作轨迹。
- IMPARA: Impact-Based Metric for GEC Using Parallel Data
- Koki Maeda, Masahiro Kaneko, Naoaki Okazaki
- TLDR: 我们提出了一种基于 Impact的衡量标准,用于GEC的批评。
- Evons: A Dataset for Fake and Real News Virality Analysis and Prediction
- Kriste Krstovski, Angela Soomin Ryu, Bruce Kogut
- TLDR: 我们提出了一个新颖的关于新闻谣言的实况数据集,用于分析和预测新闻谣言的谣言 virality。
- Are Pretrained Multilingual Models Equally Fair across Languages?
- Laura Cabello Piqueras, Anders Søgaard
- TLDR: 我们通过使用一个多语言数据集来评估多语言模型的グループ公平性,并表明,在四个目标语言上,多语言模型的表现与其他语言不同。
- Possible Stories: Evaluating Situated Commonsense Reasoning under Multiple Possible Scenarios
- Mana Ashida, Saku Sugawara
- TLDR: 我们提出了一个用于在多个可解释情况下进行正则逻辑推理的理论。
- DiaBiz.Kom - towards a Polish Dialogue Act Corpus Based on ISO 24617-2 Standard
- Marcin Oleksy, Jan Wieczorek, Dorota Drużyłowska, Julia Klyus, Aleksandra Domogała, Krzysztof Hwaszcz, Hanna Kędzierska, Daria Mikoś, Anita Wróż
- TLDR: 本文介绍了DiaBiz.Kom –一个用于对话文本的句法典,该典范是第一个用于句法典的句法典的样本。
- Towards Explainable Evaluation of Language Models on the Semantic Similarity of Visual Concepts
- Maria Lymperaiou, George Manoliadis, Orfeas Menis Mastromichalakis, Edmund G. Dervakos, Giorgos Stamou
- TLDR: 我们通过对高质量的语言模型进行理论分析,从理论上分析了高质量的语言模型的运作。
- Establishing Annotation Quality in Multi-label Annotations
- Marian Marchal, Merel Scholman, Frances Yung, Vera Demberg
- TLDR: 我们表明,多标签注释的多标签表示是多标签的,而多标签注释的表示是单个的。
- Biographically Relevant Tweets – a New Dataset, Linguistic Analysis and Classification Experiments
- Michael Wiegand, Rebecca Wilm, Katja Markert
- TLDR: 我们使用Twitters来检测生物性相关的句法,并表明,这与以前的任务不同。
- BECEL: Benchmark for Consistency Evaluation of Language Models
- Myeongjun Jang, Deuk Sin Kwon, Thomas Lukasiewicz
- TLDR: 我们提出了一种基于行为的一致性的方法,并建立了一个用于衡量标准的分类法。
- KoBEST: Korean Balanced Evaluation of Significant Tasks
- Myeongjun Jang, Dohyung Kim, Deuk Sin Kwon, Eric Davis
- TLDR: 我们提出了一个用于NLP的统一的衡量标准,用于衡量语言模型的语言理解能力。
- A New Public Corpus for Clinical Section Identification: MedSecId
- Paul Landes, Kunal Patel, Sean S. Huang, Adam Webb, Barbara Di Eugenio, Cornelia Caragea
- TLDR: 我们提出了MedSecID,一个用于临床医学领域的全自动分类的医疗记录的完整版本。
- A Data-driven Approach to Named Entity Recognition for Early Modern French
- Pedro Ortiz Suarez, Simon Gabay
- TLDR: 我们提出了一个用于时间上表征的词典库,它包含了近三百年的文献。
- Reproducibility and Automation of the Appraisal Taxonomy
- Pradeesh Parameswaran, Andrew Trotman, Veronica Liesaputra, David Eyers
- TLDR: 我们通过使用有监督的、公开的、公平的、有分歧的、有用和通用的分类器来衡量分类器的性能。
- Few-Shot Table Understanding: A Benchmark Dataset and Pre-Training Baseline
- Ruixue Liu, Shaozu Yuan, Aijun Dai, Lei Shen, Tiangang Zhu, Meng Chen, Xiaodong He
- TLDR: 我们提出了一个用于少樣本理解的基准数据集, FewTUD,它包含了5个不同的任务,以系统地探索少樣本理解的深度。
- Tafsir Dataset: A Novel Multi-Task Benchmark for Named Entity Recognition and Topic Modeling in Classical Arabic Literature
- Sajawel Ahmed, Rob van der Goot, Misbahur Rehman, Carl Kruse, Ömer Özsoy, Alexander Mehler, Gemma Roig
- TLDR: 我们通过使用词典和主题建模来解决词典和主题建模之间的理论和实践问题。
- Resource of Wikipedias in 31 Languages Categorized into Fine-Grained Named Entities
- Satoshi Sekine, Kouta Nakayama, Masako Nomoto, Maya Ando, Asuka Sumida, Koji Matsuda
- TLDR: 我们使用GANs和联合学习来创建Wikipedia的资源。
- Accuracy meets Diversity in a News Recommender System
- Shaina Raza, Syed Raza Bashir, Usman Naseem
- TLDR: 我们提出了一个基于二塔结构的深度推荐系统,它可以学习消息表示,并利用它来展示信息互动。
- Dynamic Nonlinear Mixup with Distance-based Sample Selection
- Shaokang Zhang, Lei Jiang, Jianlong Tan
- TLDR: 我们提出了一种基于距离的样本选择的新方法,它不仅生成多个样本 pairs,而且还扩大了合成样本的样本空间。
- MultiCoNER: A Large-scale Multilingual Dataset for Complex Named Entity Recognition
- Shervin Malmasi, Anjie Fang, Besnik Fetahu, Sudipta Kar, Oleg Rokhlenko
- TLDR: 我们提出了AnonData,这是一个用于命名实体识别的多语言数据集,覆盖了11个语言,包括多语言和代码混合。
- Extracting a Knowledge Base of COVID-19 Events from Social Media
- Shi Zong, Ashutosh Baheti, Wei Xu, Alan Ritter
- TLDR: 我们提出了一个用于COVID-19的私人报告的百科全书,它可以回答复杂的查询,如 “为什么在贝叶斯测试结果没有得到证实的?”
- Accounting for Language Effect in the Evaluation of Cross-lingual AMR Parsers
- Shira Wein, Nathan Schneider
- TLDR: 我们使用我们的最先进的跨语言AMR评估指标来衡量最先进的跨语言AMR。
- QSTS: A Question-Sensitive Text Similarity Measure for Question Generation
- Sujatha Das Gollapalli, See-Kiong Ng
- TLDR: 我们提出了QTS,一个用于对比两问题的新问题-感知性文本相似性衡量标准。
- Noun-MWP: Math Word Problems Meet Noun Answers
- Taehun Cha, Jaeheun Jung, Donghun Lee
- TLDR: 我们提出了一种新的方法,用于用Noun-MWPs解决数学词问题的模型。
- ViNLI: A Vietnamese Corpus for Studies on Open-Domain Natural Language Inference
- Tin Van Huynh, Kiet Van Nguyen, Ngan Luu-Thuy Nguyen
- TLDR: 我们介绍了ViNLI,一个开放的、高质量的、用于评估和改进VinLin模型的统一标准。
- InferES : A Natural Language Inference Corpus for Spanish Featuring Negation-Based Contrastive and Adversarial Examples
- Venelin Kovatchev, Mariona Taulé
- TLDR: 我们提出了InferES,一个用于自然语言推理的原始文献,用于解决在不影响其他语言的语义理解问题。
- ParaZh-22M: A Large-Scale Chinese Parabank via Machine Translation
- Wenjie Hao, Hongfei Xu, Deyi Xiong, Hongying Zan, Lingling Mu
- TLDR: 我们通过使用ParaZh-22M,从句法级的引用中提取句法级的引用,并将其提取成一个更大的句法级引用集。
- ESimCSE: Enhanced Sample Building Method for Contrastive Learning of Unsupervised Sentence Embedding
- Xing Wu, Chaochen Gao, Liangjun Zang, Jizhong Han, Zhongyuan Wang, Songlin Hu
- TLDR: 我们提出了一种用于句法嵌入的非监督方法,它可以从句法嵌入中获得一个正面的和一个反向的对应。
- Measuring Robustness for NLP
- Yu Yu, Abdul Rafae Khan, Jia Xu
- TLDR: 我们使用一个质量衡量标准来衡量NLP质量,而不是一个质量衡量标准来衡量质量。
- CSL: A Large-scale Chinese Scientific Literature Dataset
- Yudong Li, Yuqing Zhang, Zhe Zhao, Linlin Shen, Weijie Liu, Weiquan Mao, Hui Zhang
- TLDR: 我们提出了CSL,这是一个大规模的科学文献数据集,它包含了396个论文的论文的摘要,论文的论文的论文摘要,论文的论文摘要,论文的论文摘要。
- Singlish Message Paraphrasing: A Joint Task of Creole Translation and Text Normalization
- Zhengyuan Liu, Shikang Ni, Ai Ti Aw, Nancy F. Chen
- TLDR: 我们提出了一个联合翻译和文本正規化任务,可以展示如何处理其他语言的字符字符词典。
- CINO: A Chinese Minority Pre-trained Language Model
- Ziqing Yang, Zihang Xu, Yiming Cui, Baoxin Wang, Min Lin, Dayong Wu, Zhigang Chen
- TLDR: 我们提出了CINO,一个用于语言的语言模型,用于语言的语言分类任务的多语言模型。
- One Word, Two Sides: Traces of Stance in Contextualized Word Representations
- Aina Garí Soler, Matthieu Labeau, Chloé Clavel
- TLDR: 我们通过对BERT嵌入的上下文表征进行理论分析,研究了BERT嵌入对上下文表征的表征表示的表征的表征表示的表征不同。
- Prepositions Matter in Quantifier Scope Disambiguation
- Aleksander Leczkowski, Justyna Grudzińska, Manuel Vargas Guzmán, Aleksander Wawer, Aleksandra Siemieniuk
- TLDR: 我们使用一个用于QSD的框架,从一个框架中提取出对QSD任务的预测信息。
- Modelling Commonsense Properties Using Pre-Trained Bi-Encoders
- Amit Gajbhiye, Luis Espinosa-Anke, Steven Schockaert
- TLDR: 我们研究了使用语义模型来明确表述概念和其特性的一般性结果。
- COIN – an Inexpensive and Strong Baseline for Predicting Out of Vocabulary Word Embeddings
- Andrew Schneider, Lihong He, Zhijia Chen, Arjun Mukherjee, Eduard Dragut
- TLDR: 我们提出了一种快速的方法来预测句法嵌入,它使用了句法嵌入的背景词和隐藏的背景词。
- DynGL-SDP: Dynamic Graph Learning for Semantic Dependency Parsing
- Bin Li, Miao Gao, Yunlong Fan, Yikemaiti Sataer, Zhiqiang Gao, Yaocheng Gui
- TLDR: 我们提出了一个动态图学习框架,用于学习图结构和图表示。
- Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion
- Chen Chen, Yufei Wang, Bing Li, Kwok-Yan Lam
- TLDR: 我们提出了KG-S2S,一个Seq2Seq生成框架,可以解决不同知识图的图结构的表征,无论它们的原始形式是什么样的。
- Modelling Frequency, Attestation, and Corpus-Based Information with OntoLex-FrAC
- Christian Chiarcos, Elena-Simona Apostol, Besim Kabashi, Ciprian-Octavian Truică
- TLDR: 本文介绍了第一个关于OntoLex-Lemon的总体介绍,并提出了一个用于频率、日期、日期分布和数据的通用词典。
- Contrast Sets for Stativity of English Verbs in Context
- Daniel Chen, Alexis Palmer
- TLDR: 我们使用对比性集法来学习动态性分类器,并使用它来改进动态性分类器。
- Multilingual and Multimodal Topic Modelling with Pretrained Embeddings
- Elaine Zosa, Lidia Pivovarova
- TLDR: 我们提出了M3L-Contrast,这是一个用于多语言多语种(M3L)主题建模的新方法,用于相似的多语言数据。
- Zero-shot Script Parsing
- Fangzhou Zhai, Vera Demberg, Alexander Koller
- TLDR: 我们提出了一种零樣本学习方法,用于学习知识,并将其应用于学习任务。
- Word Sense Disambiguation with Knowledge-Enhanced and Local Self-Attention-based Extractive Sense Comprehension
- Guobiao Zhang, Wenpeng Lu, Xueping Peng, Shoujin Wang, Baoshuo Kan, Rui Yu
- TLDR: 我们提出了一种新的WSD方法,通过知识增强和區域自我关注来解决WSL中的概念理解问题。
- A Novel Multi-Task Learning Approach for Context-Sensitive Compound Type Identification in Sanskrit
- Jivnesh Sandhan, Ashish Gupta, Hrishikesh Terdalkar, Tushar Sandhan, Suvendu Samanta, Laxmidhar Behera, Pawan Goyal
- TLDR: 我们提出了一种新的多任务学习架构,它将句法信息和语义信息纳入其中,以实现句法的丰富性。
- Testing Large Language Models on Compositionality and Inference with Phrase-Level Adjective-Noun Entailment
- Lorenzo Bertolini, Julie Weeds, David Weir
- TLDR: 我们提出了一个用于学习LLM的框架,用于从句法中学习词的组成性依赖性。
- Does BERT Recognize an Agent? Modeling Dowty’s Proto-Roles with Contextual Embeddings
- Mattia Proietti, Gianluca Lebani, Alessandro Lenci
- TLDR: 我们通过使用BERT嵌入来解释句法的作用,并评估其在句法的作用和语义属性的可解释性。
- Towards Structure-aware Paraphrase Identification with Phrase Alignment Using Sentence Encoders
- Qiwei Peng, David Weir, Julie Weeds
- TLDR: 我们提出了一种结合句法编码器和句法嵌入的结合方法,用于句法表征的概括。
- CILex: An Investigation of Context Information for Lexical Substitution Methods
- Sandaru Seneviratne, Elena Daskalaki, Artem Lenskiy, Hanna Suominen
- TLDR: 我们提出了CILex,一种用于词替换的通用方法,用于使用句法嵌入来表示句法。
- Emotion Enriched Retrofitted Word Embeddings
- Sapan Shah, Sreedhar Reddy, Pushpak Bhattacharyya
- TLDR: 我们提出了一种用于情感主题的神经嵌入的新方法,该方法通过使用分布假设来学习情感主题的词嵌入。
- Metaphor Detection via Linguistics Enhanced Siamese Network
- Shenglong Zhang, Ying Liu
- TLDR: 我们提出了MisNet,一个用于词层次的元表征检测的新模型。
- Fast and Accurate End-to-End Span-based Semantic Role Labeling as Word-based Graph Parsing
- Shilin Zhou, Qingrong Xia, Zhenghua Li, Yu Zhang, Yu Hong, Min Zhang
- TLDR: 我们提出了一种基于字符的图解析方法,该方法在所有情况下都取得了更好的结果。
- Unsupervised Lexical Substitution with Decontextualised Embeddings
- Takashi Wada, Timothy Baldwin, Yuji Matsumoto, Jey Han Lau
- TLDR: 我们提出了一种新的非监督方法,用于使用预先训练好的语言模型来进行词替换。
- Transparent Semantic Parsing with Universal Dependencies Using Graph Transformations
- Wessel Poelman, Rik van Noord, Johan Bos
- TLDR: 我们提出了一种用于语义依赖关系的通用语义解析器,它可以从语义依赖关系中得到一个正式的语义表示。
- Multilingual Word Sense Disambiguation with Unified Sense Representation
- Ying Su, Hongming Zhang, Yangqiu Song, Tong Zhang
- TLDR: 我们提出了一个基于知识的多语言词感概括(MWSD)系统,它可以解决词语的词义理解问题。
- A Transition-based Method for Complex Question Understanding
- Yu Xia, Wenbin Jiang, Yajuan Lyu, Sujian Li
- TLDR: 我们提出了一种基于梯度的算法,用于解释QDMR的一般解释。
- Semantic Role Labeling as Dependency Parsing: Exploring Latent Tree Structures inside Arguments
- Yu Zhang, Qingrong Xia, Shilin Zhou, Yong Jiang, Guohong Fu, Min Zhang
- TLDR: 我们提出了一种基于节点的语义标签的理论,它可以被用来解决节点的节点学习任务。
- Noisy Label Regularisation for Textual Regression
- Yuxia Wang, Timothy Baldwin, Karin Verspoor
- TLDR: 我们提出了一种简单的可逆性可逆性标签检测方法,以防止错误传播从输入层上传播。
- Detecting Suicide Risk in Online Counseling Services: A Study in a Low-Resource Language
- Amir Bialer, Daniel Izmaylov, Avi Segal, Oren Tsur, Yossi Levi-Belz, Kobi Gal
- TLDR: 我们提出了一个用于诊断自杀风险的语言模型,它结合了预先训练好的语言模型(PLM)和一个固定的(和临床上一致的) set的自杀迹像,然后进行二阶微调过程。
- Does Meta-learning Help mBERT for Few-shot Question Generation in a Cross-lingual Transfer Setting for Indic Languages?
- Aniruddha Roy, Rupak Kumar Thakur, Isha Sharma, Ashim Gupta, Amrith Krishna, Sudeshna Sarkar, Pawan Goyal
- TLDR: 我们使用一个基于模型的元学习框架来构建一个少樣本QG的QG模型。
- Revisiting Syllables in Language Modelling and Their Application on Low-Resource Machine Translation
- Arturo Oncevay, Kervy Dante Rivas Rojas, Liz Karen Chavez Sanchez, Roberto Zariquiey
- TLDR: 我们首次表明,词汇比单词更重要,并表明词汇比单词更重要。
- Aligning Multilingual Embeddings for Improved Code-switched Natural Language Understanding
- Barah Fazili, Preethi Jyothi
- TLDR: 我们提出了一种新的想法,用于训练多语言模型,其目标是明确地对词表表示与相同的语义相一致。
- Fashioning Local Designs from Generic Speech Technologies in an Australian Aboriginal Community
- Éric Le Ferrand, Steven Bird, Laurent Besacier
- TLDR: 我们通过利用语言识别的潜在可能性来解决语言资源的转换问题。
- Few-Shot Pidgin Text Adaptation via Contrastive Fine-Tuning
- Ernie Chang, Jesujoba O. Alabi, David Ifeoluwa Adelani, Vera Demberg
- TLDR: 我们使用BART来改善低资源语言的句法生成/理解。
- Penalizing Divergence: Multi-Parallel Translation for Low-Resource Languages of North America
- Garrett Nicolai, Changbing Yang, Miikka Silfverberg
- TLDR: 我们提出了一种正则化惩罚,它惩罚翻译模型,当它代表源句法的相同目标翻译的相反的正则化方法时,它惩罚翻译模型,以提高其在多语种翻译方面的性能。
- Assessing Digital Language Support on a Global Scale
- Gary F. Simons, Abbey L. L. Thomas, Chad K. K. White
- TLDR: 我们提出了一种用于评估所有语言的数字语言支持的自动方法。
- Persian Natural Language Inference: A Meta-learning Approach
- Heydar Soudani, Mohammad Hassan Mojab, Hamid Beigy
- TLDR: 我们提出了一种用于低资源语言的元学习方法,用于推断自然语言的语言语义。
- Global Readiness of Language Technology for Healthcare: What Would It Take to Combat the Next Pandemic?
- Ishani Mondal, Kabir Ahuja, Mohit Jain, Jacki O’Neill, Kalika Bali, Monojit Choudhury
- TLDR: 我们通过调查现有的文献和资源来解决语言技术状态的疑问。
- Adapting Pre-trained Language Models to African Languages via Multilingual Adaptive Fine-Tuning
- Jesujoba O. Alabi, David Ifeoluwa Adelani, Marius Mosbach, Dietrich Klakow
- TLDR: 我们通过使用语言适应性微调(LAFT)对多语言PLM进行微调,以鼓励跨语言转移学习。
- Noun Class Disambiguation in Runyankore and Related Languages
- Joan Byamugisha
- TLDR: 我们通过使用句法和语义来解释单个词的类别,以解决语义泛化问题。
- Improving Low-resource RRG Parsing with Cross-lingual Self-training
- Kilian Evang, Laura Kallmeyer, Jakub Waszczuk, Kilu von Prince, Tatiana Bladier, Simon Petitjean
- TLDR: 我们提出了一种用于低资源语言的语法解析的新方法。
- A Simple and Effective Method to Improve Zero-Shot Cross-Lingual Transfer Learning
- Kunbo Ding, Weijie Liu, Yuejian Fang, Weiquan Mao, Zhe Zhao, Tao Zhu, Haoyan Liu, Rong Tian, Yiren Chen
- TLDR: 我们提出了基于嵌入的多语言嵌入目标,以提高跨语言转移的跨语言转移性。
- Towards Multi-Sense Cross-Lingual Alignment of Contextual Embeddings
- Linlin Liu, Thien Hai Nguyen, Shafiq Joty, Lidong Bing, Luo Si
- TLDR: 我们提出了一个用于跨语言嵌入的跨语言模型,该模型基于基于语义的跨语言信号的上下文嵌入。
- How to Parse a Creole: When Martinican Creole Meets French
- Ludovic Mompelat, Daniel Dakota, Sandra Kübler
- TLDR: 我们研究了一种用于Martinica语法的神经网络的简单方法,使用一个法国树皮bank。
- Byte-based Multilingual NMT for Endangered Languages
- Mengjiao Zhang, Jia Xu
- TLDR: 我们提出了一种基于单词的多语言神经机器翻译系统(BMNMT)的方法,用于解决在受损语言上进行翻译的障碍。
- BRCC and SentiBahasaRojak: The First Bahasa Rojak Corpus for Pretraining and Sentiment Analysis Dataset
- Nanda Putri Romadhona, Sin-En Lu, Bo-Han Lu, Richard Tzong-Han Tsai
- TLDR: 我们使用数据增量来建立第一个用于语言建模的语言库,并使用它来解决语言库中的语言组合。
- WordNet-QU: Development of a Lexical Database for Quechua Varieties
- Nelsi Melgarejo, Rodolfo Zevallos, Hector Gomez, John E. Ortega
- TLDR: 我们提出了WordNet-QU,这是一种用于词典表征的词典库,用于表示语言资源。
- When the Student Becomes the Master: Learning Better and Smaller Monolingual Models from mBERT
- Pranaydeep Singh, Els Lefever
- TLDR: 我们提出了一个用于102语言的联合训练的模型,从一个单语言模型中提炼出一个联合模型。
- Zero-shot Disfluency Detection for Indian Languages
- Rohit Kundu, Preethi Jyothi, Pushpak Bhattacharyya
- TLDR: 我们提出了一种用于零樣本的非监督多语言模型,用于对语言中不相交的词汇进行零樣本的检索。
- Evaluating Word Embeddings in Extremely Under-Resourced Languages: A Case Study in Bribri
- Rolando Coto-Solano
- TLDR: 我们使用WordSim353和Word相似性来衡量语义和结构学习的差距。
- Applying Natural Annotation and Curriculum Learning to Named Entity Recognition for Under-Resourced Languages
- Valeriy Lobov, Alexandra Ivoylova, Serge Sharoff
- TLDR: 我们表明,使用自然注释来构建合成训练集的理论和实践证据。
- Taking Actions Separately: A Bidirectionally-Adaptive Transfer Learning Method for Low-Resource Neural Machine Translation
- Xiaolin Xing, Yu Hong, Minhan Xu, Jianmin Yao, Guodong Zhou
- TLDR: 我们通过使用PC来提高低资源NMT的神经机器翻译的理论和实践结果。
- HCLD: A Hierarchical Framework for Zero-shot Cross-lingual Dialogue System
- Zhanyu Ma, Jian Ye, Xurui Yang, Jianfeng Liu
- TLDR: 我们提出了一个层次化框架,用于从高层次定位目标,然后在低层次实现端到端的端的端的端填充。
- GraDA: Graph Generative Data Augmentation for Commonsense Reasoning
- Adyasha Maharana, Mohit Bansal
- TLDR: 我们提出了GraDA,一个基于图的生成数据增强框架,用于常识推理的数据集。
- Eureka: Neural Insight Learning for Knowledge Graph Reasoning
- Alex X. Zhang, Xun Liang, Bo Wu, Xiangping Zheng, Sensen Zhang, Yuhui Guo, Jun Wang, Xinyao Liu
- TLDR: 我们提出了一个用于知识图论的神经洞察学习框架,它可以从一个简单的 trigger事件中学习知识,无需额外的训练。
- CitRet: A Hybrid Model for Cited Text Span Retrieval
- Amit Pandey, Avani Gupta, Vikram Pudi
- TLDR: 我们提出了CitRet,一个新颖的CTSR混合模型,它利用了独特的语义和语法结构特征,以实现科学论文的引用。
- A Weak Supervision Approach for Predicting Difficulty of Technical Interview Questions
- Arpita Kundu, Subhasish Ghosh, Pratik Saini, Tapas Nayak, Indrajit Bhattacharya
- TLDR: 我们使用非监督的算法来解决问题生成和问题难度预测问题,而不是依赖监督的算法。
- Reinforcement Learning with Large Action Spaces for Neural Machine Translation
- Asaf Yehudai, Leshem Choshen, Lior Fox, Omri Abend
- TLDR: 我们表明,通过减少行动空间的维度,提高RL的有效性。
- Noise Learning for Text Classification: A Benchmark
- Bo Liu, Wandi Xu, Yuejia Xiang, Xiaojun Wu, Lejian He, Bowen Zhang, Li Zhu
- TLDR: 我们提出了第一个用于文本分类的音频学习的基准,并展示了该基准的实验结果。
- Mitigating the Diminishing Effect of Elastic Weight Consolidation
- Canasai Kruengkrai, Junichi Yamagishi
- TLDR: 我们提出了一个简单的目标函数,用于在序列训练中避免灾难性遗忘。
- Token and Head Adaptive Transformers for Efficient Natural Language Processing
- Chonghan Lee, Md Fahim Faysal Khan, Rita Brugarolas Brufau, Ke Ding, Vijaykrishnan Narayanan
- TLDR: 我们提出了一种用于NLP任务的通用BERT模型的通用评分。
- Don’t Judge a Language Model by Its Last Layer: Contrastive Learning with Layer-Wise Attention Pooling
- Dongsuk Oh, Yejin Kim, Hodong Lee, H. Howie Huang, Heuiseok Lim
- TLDR: 我们使用注意力来学习语义相似性,以提高BERT的性能。
- SHAP-Based Explanation Methods: A Review for NLP Interpretability
- Edoardo Mosca, Ferenc Szigeti, Stella Tragianni, Daniel Gallagher, Georg Groh
- TLDR: 本文提出了一个用于解释机器学习模型的框架,该框架可以被用来解释模型的模型。
- A Simple Log-based Loss Function for Ordinal Text Classification
- François Castagnos, Martin Mihelich, Charles Dognin
- TLDR: 我们提出了一种新的单词损失函数,它比以前的一般损失函数更优。
- Ask Question First for Enhancing Lifelong Language Learning
- Han Wang, Ruiliu Fu, Xuejun Zhang, Jun Zhou, Qingwei Zhao
- TLDR: 我们提出了一个用于多任务学习的QAF-RQ,用于生成具有虚假问题的回答。
- DoubleMix: Simple Interpolation-Based Data Augmentation for Text Classification
- Hui Chen, Wei Han, Diyi Yang, Soujanya Poria
- TLDR: 本文提出了一种简单而有效的基于数据增量的方法,用于提高模型在文本分类方面的穩定性。
- Large Sequence Representation Learning via Multi-Stage Latent Transformers
- Ionut-Catalin Sandu, Daniel Voinea, Alin-Ionut Popa
- TLDR: 我们提出了LANTERN,一个用于命名-身份识别(NER)的多层转换器架构,能够在连续文本序列上运行长达数百万个上下文。
- MockingBERT: A Method for Retroactively Adding Resilience to NLP Models
- Jan Jezabek, Akash Singh
- TLDR: 我们提出了一种用于对抗性攻击的替代方法,该方法可以从变形器中提取对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗性对抗
- Equivariant Transduction through Invariant Alignment
- Jennifer C. White, Ryan Cotterell
- TLDR: 我们提出了一种新的组异架构,它可以开发强的组异性特性,同时保留了组异性。
- Where Does Linguistic Information Emerge in Neural Language Models? Measuring Gains and Contributions across Layers
- Jenny Kunz, Marco Kuhlmann
- TLDR: 我们提出了一个框架,通过明确地描述在神经语言模型中输入的區域信息的區域性表现,来解释在神经语言模型中输入的區域性表现。
- Accelerating Inference for Pretrained Language Models by Unified Multi-Perspective Early Exiting
- Jun Kong, Jin Wang, Liang-Chih Yu, Xuejie Zhang
- TLDR: 一种用于加速PLM的多视角的早期出路方法。
- Topology Imbalance and Relation Inauthenticity Aware Hierarchical Graph Attention Networks for Fake News Detection
- Li Gao, Lingyun Song, Jie Liu, Bolin Chen, Xuequn Shang
- TLDR: 我们提出了一个新颖的Topology不平衡和关系不真实性关注网络(TR-HGAN)来识别虚假新闻。
- Temporal Knowledge Graph Completion with Approximated Gaussian Process Embedding
- Linhai Zhang, Deyu Zhou
- TLDR: 我们提出了一种新的TTGC方法,通过将TKG到高维表示中进行建模,以实现时间知识图 Completion。
- CILDA: Contrastive Data Augmentation Using Intermediate Layer Knowledge Distillation
- Md Akmal Haidar, Mehdi Rezagholizadeh, Abbas Ghaddar, Khalil Bibi, Phillippe Langlais, Pascal Poupart
- TLDR: 我们提出了一种基于学习的数据增强技术,用于知识提炼。
- Pro-KD: Progressive Distillation by Following the Footsteps of the Teacher
- Mehdi Rezagholizadeh, Aref Jafari, Puneeth S.M. Saladi, Pranav Sharma, Ali Saheb Pasand, Ali Ghodsi
- TLDR: 知识提炼的最先进的方法
- Classical Sequence Match Is a Competitive Few-Shot One-Class Learner
- Mengting Hu, Hang Gao, Yinhao Bai, Mingming Liu
- TLDR: 我们提出了一种用于少樣本学习的少樣本方法,它可以从从时间匹配的角度研究时间匹配问题。
- Unsupervised Domain Adaptation for Text Classification via Meta Self-Paced Learning
- Nghia Ngo Trung, Linh Ngo Van, Thien Huu Nguyen
- TLDR: 我们提出了一种用于文本分类的元学习方法,用于从源领域中学习到目标领域。
- WARM: A Weakly (+Semi) Supervised Math Word Problem Solver
- Oishik Chatterjee, Isha Pandey, Aashish Waikar, Vishwajeet Kumar, Ganesh Ramakrishnan
- TLDR: 我们提出了一种基于梯度的非监督方法来解决MWPs的数学句法问题。
- Attention Networks for Augmenting Clinical Text with Support Sets for Diagnosis Prediction
- Paul Grundmann, Tom Oberhauser, Felix Gers, Alexander Löser
- TLDR: 我们提出了一个用于诊断预测的新型注意力网络架构和增强策略。
- PARSE: An Efficient Search Method for Black-box Adversarial Text Attacks
- Pengwei Zhan, Chao Zheng, Jing Yang, Yuxiang Wang, Liming Wang, Yang Wu, Yunjian Zhang
- TLDR: 我们提出了一种用于对抗性训练的新型GAN,它可以从简单的搜索中获得更好的结果。
- A Closer Look at Parameter Contributions When Training Neural Language and Translation Models
- Raúl Vázquez, Hande Celikkanat, Vinit Ravishankar, Mathias Creutz, Jörg Tiedemann
- TLDR: 我们通过使用损失转移(LCA)来分析神经语言和翻译模型的学习动态。
- KNOT: Knowledge Distillation Using Optimal Transport for Solving NLP Tasks
- Rishabh Bhardwaj, Tushar Vaidya, Soujanya Poria
- TLDR: 我们提出了一个新的方法,通过使用最佳运输(KNOT),从多个教师网络到一个学生网络的自然语言语义知识。
- An Information Minimization Based Contrastive Learning Model for Unsupervised Sentence Embeddings Learning
- Shaobin Chen, Jie Zhou, Yuling Sun, Liang He
- TLDR: 我们提出了InforMin-CL,用于在句子嵌入学习中保留信息,同时保留信息熵。
- Learn2Weight: Parameter Adaptation against Similar-domain Adversarial Attacks
- Siddhartha Datta
- TLDR: 我们提出了一种用于黑盒NLP攻击的防御策略,该策略通过训练预测权重调整来防御类似领域的对抗性例子。
- Sentence-aware Adversarial Meta-Learning for Few-Shot Text Classification
- Suhe Wang, Xiaoyuan Liu, Bo Liu, Diwen Dong
- TLDR: 我们通过使用一个对抗网络架构和一个用于少樣本学习的模块来构建一个新颖的少樣本分类框架。
- Reweighting Strategy Based on Synthetic Data Identification for Sentence Similarity
- TaeHee Kim, ChaeHun Park, Jimin Hong, Radhika Dua, Edward Choi, Jaegul Choo
- TLDR: 我们提出了一种用于学习句法嵌入的新型方法,该方法首先训练一个分类器来衡量句法重要性的句法重要性。
- MaxMatch-Dropout: Subword Regularization for WordPiece
- Tatsuya Hiraoka
- TLDR: 我们提出了一种用于字符的正则化的新方法,它使用了最大匹配算法来进行正则化。
- Adaptive Meta-learner via Gradient Similarity for Few-shot Text Classification
- Tianyi Lei, Honghui Hu, Qiaoyang Luo, Dezhong Peng, Xu Wang
- TLDR: 我们提出了一种用于少樣本文本分类的自适应元学习方法,该方法可以提高模型概括能力。
- Vocabulary-informed Language Encoding
- Xi Ai, Bin Fang
- TLDR: 我们提出了一种用于多语言建模的语言编码器,它可以作为语言表征,用于一个需要的语言,考虑一个在语法上最常见的词嵌入。
- OpticE: A Coherence Theory-Based Model for Link Prediction
- Xiangyu Gui, Feng Zhao, Langjunqing Jin, Hai Jin
- TLDR: 我们提出了一种新的嵌入方法,用于知识图上知识图上的表征学习。
- Smoothed Contrastive Learning for Unsupervised Sentence Embedding
- Xing Wu, Chaochen Gao, Yipeng Su, Jizhong Han, Zhongyuan Wang, Songlin Hu
- TLDR: 我们提出了一个简单的、通用的、快速的、可逆的、可逆的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、快速的、
- Knowledge Distillation with Reptile Meta-Learning for Pretrained Language Model Compression
- Xinge Ma, Jin Wang, Liang-Chih Yu, Xuejie Zhang
- TLDR: 本文提出了一种知识提炼方法,通过使用元学习来加速知识转移。
- RotateCT: Knowledge Graph Embedding by Rotation and Coordinate Transformation in Complex Space
- Yao Dong, Lei Wang, Ji Xiang, Xiaobo Guo, Yuqiang Xie
- TLDR: 我们提出了一种知识图嵌入方法,它首先从头的实体向后实体的运动中转换了其 coordinates,然后代表每个关系的旋转,以表示知识图上的实体和关系。
- Can Data Diversity Enhance Learning Generalization?
- Yu Yu, Shahram Khadivi, Jia Xu
- TLDR: 我们提出了一种用于NLP的多模态强化学习方法,该方法在理论上和实践上都优于DAAC。
- Generate-and-Retrieve: Use Your Predictions to Improve Retrieval for Semantic Parsing
- Yury Zemlyanskiy, Michiel de Jong, Joshua Ainslie, Panupong Pasupat, Peter Shaw, Linlu Qiu, Sumit Sanghai, Fei Sha
- TLDR: 我们提出了GandaR,一个用于低资源语义解析的查询程序,它从初始预测中检索出样本,并生成了结果。
- Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language Understanding
- Zhaoye Fei, Yu Tian, Yongkang Wu, Xinyu Zhang, Yutao Zhu, Zheng Liu, Jiawen Wu, Dejiang Kong, Ruofei Lai, Zhao Cao, Zhicheng Dou, Xipeng Qiu
- TLDR: 我们提出了一个统一的层次结构,用于学习语言属性,提高在不相关的任务上的表现。
- Automatic Label Sequence Generation for Prompting Sequence-to-sequence Models
- Zichun Yu, Tianyu Gao, Zhengyan Zhang, Yankai Lin, Zhiyuan Liu, Maosong Sun, Jie Zhou
- TLDR: 我们提出了一种用于少樣本学习的自动向式标记方法,该方法使用一个简单的句法序列来表示标签。
- Unsupervised Sentence Textual Similarity with Compositional Phrase Semantics
- Zihao Wang, Jiaheng Dou, Yong Zhang
- TLDR: 我们提出了一个低期望的EC表征,用于非监督的STS计算。
- A Generalized Method for Automated Multilingual Loanword Detection
- Abhijnan Nath, Sina Mahdipour Saravani, Ibrahim Khebour, Sheikh Mannan, Zihui Li, Nikhil Krishnaswamy
- TLDR: 我们提出了一种用于多语言匹配的自动检测出借款词的方法。
- FeatureBART: Feature Based Sequence-to-Sequence Pre-Training for Low-Resource NMT
- Abhisek Chakrabarty, Raj Dabre, Chenchen Ding, Hideki Tanaka, Masao Utiyama, Eiichiro Sumita
- TLDR: 我们提出了第一个基于特征的初始化预训练策略,该策略通过使用特征来生成初始化特征,以提高初始化特征的性能。
- Multi-level Community-awareness Graph Neural Networks for Neural Machine Translation
- Binh Nguyen, Long Nguyen, Dien Dinh
- TLDR: 我们提出了一个用于多语种语言理解的多级社区感知图神经网络(MC-GNN)层,用于解释语言和其语言角色在多个社区中的作用。
- On the Complementarity between Pre-Training and Random-Initialization for Resource-Rich Machine Translation
- Changtong Zan, Liang Ding, Li Shen, Yu Cao, Weifeng Liu, Dacheng Tao
- TLDR: 我们通过分析资源丰富的场景和多任务的理论来研究资源丰富的场景之间的PT和RI的相互作用。
- ngram-OAXE: Phrase-Based Order-Agnostic Cross Entropy for Non-Autoregressive Machine Translation
- Cunxiao Du, Zhaopeng Tu, Longyue Wang, Jing Jiang
- TLDR: 我们提出了一种新的非逆翻译(NAT)方法,它可以减少多变量翻译的惩罚,同时保留词顺序错误的惩罚。
- Language Branch Gated Multilingual Neural Machine Translation
- Haoran Sun, Deyi Xiong
- TLDR: 我们提出了语言类(LB)包的多语言翻译,它鼓励知识转移和学习相似性。
- Iterative Constrained Back-Translation for Unsupervised Domain Adaptation of Machine Translation
- Hongxiao Zhang, Hui Huang, Jiale Gao, Yufeng Chen, Jinan Xu, Jian Liu
- TLDR: 我们提出了一种用于非监督领域适应的高效的基于词典限制的后向翻译方法。
- Linguistically-Motivated Yorùbá-English Machine Translation
- Ife Adebara, Muhammad Abdul-Mageed, Miikka Silfverberg
- TLDR: 我们通过对一个SMT系统和一个BiLSTM系统进行微调来分析,从Yorùbá到雅各布的翻译中检索出错误的句法。
- Dynamic Position Encoding for Transformers
- Joyce Zheng, Mehdi Rezagholizadeh, Peyman Passban
- TLDR: 我们提出了一种基于上下文嵌入的新架构,它可以从句法顺序中学习新的位置嵌入。
- PAEG: Phrase-level Adversarial Example Generation for Neural Machine Translation
- Juncheng Wan, Jian Yang, Shuming Ma, Dongdong Zhang, Weinan Zhang, Yong Yu, Zhoujun Li
- TLDR: 我们提出了一种基于梯度的词级对抗例子生成方法,以提高翻译模型的穩定性。
- Noise-robust Cross-modal Interactive Learning with Text2Image Mask for Multi-modal Neural Machine Translation
- Junjie Ye, Junjun Guo, Yan Xiang, Kaiwen Tan, Zhengtao Yu
- TLDR: 我们提出了一种基于跨模式互动的多模态神经机器翻译的自适应融合方法,该方法通过使用跨模式互动的注意力模块来生成一个文本-图像关系感知的注意力模块。
- Speeding up Transformer Decoding via an Attention Refinement Network
- Kaixin Wu, Yue Zhang, Bojie Hu, Tong Zhang
- TLDR: 我们提出了一个轻量级的注意力结构,用于加快变换效率。
- Interactive Post-Editing for Verbosity Controlled Translation
- Prabhakar Gupta, Anil Nelakanti, Grant M. Berry, Abhishek Sharma
- TLDR: 我们使用一个用于上下文的GAN模型来衡量语义质量。
- Addressing Asymmetry in Multilingual Neural Machine Translation with Fuzzy Task Clustering
- Qian Wang, Jiajun Zhang
- TLDR: 我们提出了一种用于多语言NMT的任务聚类方法。
- Learning Decoupled Retrieval Representation for Nearest Neighbour Neural Machine Translation
- Qiang Wang, Rongxiang Weng, Ming Chen
- TLDR: 我们提出了一种基于监督的对比学习方法来学习从原始语义表征中检索的特征。
- Semantically Consistent Data Augmentation for Neural Machine Translation via Conditional Masked Language Model
- Qiao Cheng, Jin Huang, Yitao Duan
- TLDR: 我们提出了一种新的数据增强方法,可以提高语义一致性,同时在和跨语言之间保持强有力的语义一致性。
- Informative Language Representation Learning for Massively Multilingual Neural Machine Translation
- Renren Jin, Deyi Xiong
- TLDR: 我们提出了语言嵌入的实例和语言感知的多头注意力,以学习语言表征,以实现多语言翻译。
- Rare but Severe Neural Machine Translation Errors Induced by Minimal Deletion: An Empirical Study on Chinese and English
- Ruikang Shi, Alvin Grissom II, Duc Minh Trinh
- TLDR: 我们通过减少单个字符,来诱发罕见的、最严重的错误。
- QUAK: A Synthetic Quality Estimation Dataset for Korean-English Neural Machine Translation
- Sugyeong Eo, Chanjun Park, Hyeonseok Moon, Jaehyung Seo, Gyeongmin Kim, Jungseob Lee, Heuiseok Lim
- TLDR: 我们提出了QuAK,这是一个用于质量估计的全自动的多语种多语种质量估计数据集。
- Improving Both Domain Robustness and Domain Adaptability in Machine Translation
- Wen Lai, Jindřich Libovický, Alexander Fraser
- TLDR: 我们提出了一个用于NLMT领域的适应的新框架,该框架通过引入一个用于学习的领域分类器来提高现有的元学习模型的穩定性。
- CoDoNMT: Modeling Cohesion Devices for Document-Level Neural Machine Translation
- Yikun Lei, Yuqi Ren, Deyi Xiong
- TLDR: 我们提出了一个用于文件级神经机器翻译的神经网络框架,用于解释和优化语义结构的统一性。
- Improving Non-Autoregressive Neural Machine Translation via Modeling Localness
- Yong Wang, Xinwei Geng
- TLDR: 我们提出了一种基于时间卷积的非逆翻译(NAT)模型的區域性改善方法。
- Categorizing Semantic Representations for Neural Machine Translation
- Yongjing Yin, Yafu Li, Fandong Meng, Jie Zhou, Yue Zhang
- TLDR: 我们提出了一种用于多表征的高效的神经机器翻译的理论,该理论基于一个简单的理论,用于提高概括性。
- Adversarial Training on Disentangling Meaning and Language Representations for Unsupervised Quality Estimation
- Yuto Kuroda, Tomoyuki Kajiwara, Yuki Arase, Takashi Ninomiya
- TLDR: 一种用于非监督翻译质量估计的语言神经网络的神经编码器。
- Alleviating the Inequality of Attention Heads for Neural Machine Translation
- Zewei Sun, Shujian Huang, Xinyu Dai, Jiajun Chen
- TLDR: 我们提出了一种简单的方法来解决多头注意力不平衡的问题。
- Adapting to Non-Centered Languages for Zero-shot Multilingual Translation
- Zhi Qu, Taro Watanabe
- TLDR: 我们提出了一种简单的、轻量级的、通用的、非中心的语言模型方法,用于解决零樣本的翻译问题。
- Towards Robust Neural Machine Translation with Iterative Scheduled Data-Switch Training
- Zhongjian Miao, Xiang Li, Liyan Kang, Wen Zhang, Chulun Zhou, Yidong Chen, Bin Wang, Min Zhang, Jinsong Su
- TLDR: 我们提出了一个用于穩定NMT的迭代计划数据替换训练框架。
- Cross-lingual Feature Extraction from Monolingual Corpora for Low-resource Unsupervised Bilingual Lexicon Induction
- Zihao Feng, Hailong Cao, Tiejun Zhao, Weixuan Wang, Wei Peng
- TLDR: 我们提出了一种跨语言特征提取方法,用于低资源的UBLI,通过将单语言表征与预先训练好的表征结合起来,实现跨语言表征的集成。
- Language-Independent Approach for Morphological Disambiguation
- Alymzhan Toleu, Gulmira Tolegen, Rustam Mussabayev
- TLDR: 一种基于语言的非语言化方法,用于对句法和形态标签进行语义化表征的归纳。
- SUN: Exploring Intrinsic Uncertainties in Text-to-SQL Parsers
- Bowen Qin, Lihan Wang, Binyuan Hui, Bowen Li, Xiangpeng Wei, Binhua Li, Fei Huang, Luo Si, Min Yang, Yongbin Li
- TLDR: 我们提出了一个数据不确定性限制,以提高文本到SQL的解析。
- Deciphering and Characterizing Out-of-Vocabulary Words for Morphologically Rich Languages
- Georgie Botev, Arya D. McCarthy, Winston Wu, David Yarowsky
- TLDR: 本文提出了一个基础的实证案例研究,研究了在少资源语言中常见的OOV词的属性,并提出了一个多层次的分布分析,可以帮助在翻译、编码、语言建模和其他NLP任务中应用。
- PSSAT: A Perturbed Semantic Structure Awareness Transferring Method for Perturbation-Robust Slot Filling
- Guanting Dong, Daichi Guo, Liwen Wang, Xuefeng Li, Zechen Wang, Chen Zeng, Keqing He, Jinzheng Zhao, Hao Lei, Xinyue Cui, Yi Huang, Junlan Feng, Weiran Xu
- TLDR: 我们提出了一种用于神经网络的穩定性轉換方法,用于训练穩定性-robust slot fill模型。
- String Editing Based Chinese Grammatical Error Diagnosis
- Haihua Xie, Xiaoqing Lyu, Xuefei Chen
- TLDR: 我们提出了一个基于文本编辑的CGED模型,它不需要太多的训练数据,可以用于诊断多种语义错误。
- The Fragility of Multi-Treebank Parsing Evaluation
- Iago Alonso-Alonso, David Vilares, Carlos Gómez-Rodríguez
- TLDR: 我们表明,在某些节点上进行采样,可以得出偏见的后果。
- FactMix: Using a Few Labeled In-domain Examples to Generalize to Cross-domain Named Entity Recognition
- Linyi Yang, Lifan Yuan, Leyang Cui, Wenyang Gao, Yue Zhang
- TLDR: 本文提出了一种基于理论的数据增强方法,用于提高跨域NER任务的泛化能力。
- Speaker-Aware Discourse Parsing on Multi-Party Dialogues
- Nan Yu, Guohong Fu, Min Zhang
- TLDR: 我们提出了一个用于多语种对话的听觉理解模型,该模型在对话系统和对话分析方面的最先进的结果。
- Iterative Span Selection: Self-Emergence of Resolving Orders in Semantic Role Labeling
- Shuhei Kurita, Hiroki Ouchi, Kentaro Inui, Satoshi Sekine
- TLDR: 我们提出了一种基于迭代论证的理论,用于从句法中标注出句法的论证。
- Revisiting the Practical Effectiveness of Constituency Parse Extraction from Pre-trained Language Models
- Taeuk Kim
- TLDR: 我们提出了一种新的、通用的、可证明的、有理论基础的、具有理论保证的、具有可证明的、通用的、可证明的、通用的、可证明的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用的的、通用
- Position Offset Label Prediction for Grammatical Error Correction
- Xiuyu Wu, Jingsong Yu, Xu Sun, Yunfang Wu
- TLDR: 我们提出了一个用于GEC的元编码器-解码器架构,用于预测句法的位置偏差标签。
- Parsing Natural Language into Propositional and First-Order Logic with Dual Reinforcement Learning
- Xuantao Lu, Jingping Liu, Zhouhong Gu, Hanwen Tong, Chenhao Xie, Junyang Huang, Yanghua Xiao, Wenguang Wang
- TLDR: 我们提出了一个评估模型,以自动学习一个模型的奖励,并提出了一个学习模型的奖励的课程学习。
- Yet Another Format of Universal Dependencies for Korean
- Yige Chen, Eunkyul Leah Jo, Yundong Yao, KyungTae Lim, Miikka Silfverberg, Francis M. Tyers, Jungyeul Park
- TLDR: 我们提出了一种基于morpheme的替代方法,用于 Korean依赖性解析。
- Enhancing Structure-aware Encoder with Extremely Limited Data for Graph-based Dependency Parsing
- Yuanhe Tian, Yan Song, Fei Xia
- TLDR: 我们提出了一种用于基于图的依赖性解析的简单方法,该方法通过预测句法依赖性来改善句法解析。
- Simple and Effective Graph-to-Graph Annotation Conversion
- Yuxuan Wang, Zhilin Lei, Yuqiu Ji, Wanxiang Che
- TLDR: 我们提出了一种简单和有效的图到图注释转换方法,它可以处理图上标注的转换,不需要任何设计的特征。
- BiBL: AMR Parsing and Generation with Bidirectional Bayesian Learning
- Ziming Cheng, Zuchao Li, Hai Zhao
- TLDR: 我们提出了一个数据高效的Bidirectional Bayes学习(BiBL),用于解决AMR到文本的转换任务。
- Multi-Layer Pseudo-Siamese Biaffine Model for Dependency Parsing
- Ziyao Xu, Houfeng Wang, Bingdong Wang
- TLDR: 我们提出了一个多层的假的人类式偏见模型,用于神经依赖性解析。
- Belief Revision Based Caption Re-ranker with Visual Semantic Information
- Ahmed Sabir, Francesc Moreno-Noguer, Pranava Madhyastha, Lluís Padró
- TLDR: 我们提出了一种新的方法,通过使用视觉符号来识别最优标注。
- Towards Understanding the Relation between Gestures and Language
- Artem Abzaliev, Andrew Owens, Rada Mihalcea
- TLDR: 我们通过使用一个半监督的多模态模型来学习指法嵌入。
- Building Joint Relationship Attention Network for Image-Text Generation
- Changzhi Wang, Xiaodong Gu
- TLDR: 我们提出了一个用于图像-文本生成的联合关系注意力网络,它可以更好地学习两个关系,并通过对它们进行动态的排列来学习它们。
- Learning to Focus on the Foreground for Temporal Sentence Grounding
- Daizong Liu, Wei Hu
- TLDR: 我们提出了一个基于基于图像的视覺的视覺建模的框架,用于TSG。
- Are Visual-Linguistic Models Commonsense Knowledge Bases?
- Hsiu-Yu Yang, Carina Silberer
- TLDR: 我们表明,语言-非语言模型在没有视觉输入的情况下可以被动地使用,以实现自然语言理解任务的一般知识。
- Visual Prompt Tuning for Few-Shot Text Classification
- Jingyuan Wen, Yutian Luo, Nanyi Fei, Guoxing Yang, Zhiwu Lu, Hao Jiang, Jie Jiang, Zhao Cao
- TLDR: 我们提出了一种用于少樣本学习的视觉预训练模型,它可以实现显著的改善,在零樣本学习和少樣本学习中的表现良好。
- Systematic Analysis of Image Schemas in Natural Language through Explainable Multilingual Neural Language Processing
- Lennart Wachowiak, Dagmar Gromann
- TLDR: 我们提出了一个用于自然语言分类的非监督学习模型,它可以从简单的例子中学习分类词的词嵌入。
- How to Adapt Pre-trained Vision-and-Language Models to a Text-only Input?
- Lovisa Hagström, Richard Johansson
- TLDR: 我们研究了多模态视觉和语言(VL)模型的语言理解能力,并提出了解决方法。
- ACT-Thor: A Controlled Benchmark for Embodied Action Understanding in Simulated Environments
- Michael Hanna, Federico Pedeni, Alessandro Suglia, Alberto Testoni, Raffaella Bernardi
- TLDR: 我们提出了ACT-Thor,一个用于实例行动理解的控制性基准。
- In-the-Wild Video Question Answering
- Santiago Castro, Naihao Deng, Pingxuan Huang, Mihai Burzo, Rada Mihalcea
- TLDR: 我们提出了一个用于视频理解的视频理解数据集,用于解决在野外记录的视频的视频理解问题。
- Towards Better Semantic Understanding of Mobile Interfaces
- Srinivas Sunkara, Maria Wang, Lijuan Liu, Gilles Baechler, Yu-Chung Hsiao, Jindong Chen, Abhanshu Sharma, James W. W. Stout
- TLDR: 我们开发了一个用于移动设备UIs的人类注释数据集,用于提高用户理解的 UI元素的 functional性。
- End-to-end Dense Video Captioning as Sequence Generation
- Wanrong Zhu, Bo Pang, Ashish V. Thapliyal, William Yang Wang, Radu Soricut
- TLDR: 我们展示了如何将密集视频标记和预测事件的预测结合起来进行序列生成,并同时预测事件和相关描述。
- SANCL: Multimodal Review Helpfulness Prediction with Selective Attention and Natural Contrastive Learning
- Wei Han, Hui Chen, Zhen Hai, Soujanya Poria, Lidong Bing
- TLDR: 我们提出了SANCL:选择性注意力和自然反向学习的新方法。
- Dual Capsule Attention Mask Network with Mutual Learning for Visual Question Answering
- Weidong Tian, Haodong Li, Zhong-Qiu Zhao
- TLDR: 我们提出了一个双眼注意力框架,用于VQA的双眼注意力。
- Emergence of Hierarchical Reference Systems in Multi-agent Communication
- Xenia Ohmer, Marko Duda, Elia Bruni
- TLDR: 我们开发了一个新颖的通信游戏,用于研究在神经网络中出现的层次性联系系统在自然语言中出现的一般概念上的表现。
- Scene Graph Modification as Incremental Structure Expanding
- Xuming Hu, Zhijiang Guo, Yu Fu, Lijie Wen, Philip S. Yu
- TLDR: 我们提出了一种基于自然语言查询的图增量方法,用于图修改。
- Overcoming Language Priors in Visual Question Answering via Distinguishing Superficially Similar Instances
- Yike Wu, Yu Zhao, Shiwan Zhao, Ying Zhang, Xiaojie Yuan, Guoqing Zhao, Ning Jiang
- TLDR: 我们提出了一种新的方法,通过引入一个明确的训练框架,鼓励VQA模型在回答问题的表面上进行比较。
- Efficient Multilingual Multi-modal Pre-training through Triple Contrastive Loss
- Youhan Lee, KyungTae Lim, Woonhyuk Baek, Byungseok Roh, Saehoon Kim
- TLDR: 我们提出了一种用于多语言多语种表示的简单方法,用于在多语言环境中使用单个图像和翻译的组合。
- LOViS: Learning Orientation and Visual Signals for Vision and Language Navigation
- Yue Zhang, Parisa Kordjamshidi
- TLDR: 我们设计了一个用于导航的RL代理,其导航模块可以从导航中学习到空间空间信息和导航标记。
- GAP: A Graph-aware Language Model Framework for Knowledge Graph-to-Text Generation
- Anthony Colas, Mehrdad Alvandipour, Daisy Zhe Wang
- TLDR: 我们通过将图感信息与现有的语言模型结合起来,可以比目前的模型更好,同时不需要额外的训练任务。
- Content Type Profiling of Data-to-Text Generation Datasets
- Ashish Upadhyay, Stewart Massie
- TLDR: 我们提出了一种新颖的主题,用于分类事件总结的主题。
- CoLo: A Contrastive Learning Based Re-ranking Framework for One-Stage Summarization
- Chenxin An, Ming Zhong, Zhiyong Wu, Qin Zhu, Xuanjing Huang, Xipeng Qiu
- TLDR: 我们提出了一个基于反向学习的评价框架,用于生成概括的句法级的总结。
- Of Human Criteria and Automatic Metrics: A Benchmark of the Evaluation of Story Generation
- Cyril Chhun, Pierre Colombo, Fabian M. Suchanek, Chloé Clavel
- TLDR: 我们提出了一个统一的ASG评估标准,并提出了一个统一的ASG评价标准。
- Selective Token Generation for Few-shot Natural Language Generation
- Daejin Jo, Taehwan Kwon, Eun-Sol Kim, Sungwoong Kim
- TLDR: 我们提出了一种基于强化学习的新方法,它通过使用RL来生成语言标记,以实现少樣本的NLG。
- A-TIP: Attribute-aware Text Infilling via Pre-trained Language Model
- Dongyuan Li, Jingyi You, Kotaro Funakoshi, Manabu Okumura
- TLDR: 我们提出了一种基于属性的文本填充方法,通过使用预先训练好的语言模型(A-TIP),它包含了一个文本填充的组成部分和一个插和玩的分类器。
- Multi Graph Neural Network for Extractive Long Document Summarization
- Xuan-Dung Doan, Le-Minh Nguyen, Khac-Hoai Nam Bui
- TLDR: 本文通过使用一个图形神经网络来解决短文的句法关系问题。
- Improving Zero-Shot Multilingual Text Generation via Iterative Distillation
- Ernie Chang, Alex Marin, Vera Demberg
- TLDR: 我们提出了一种用于多语言对话系统学习的自上而下的理论,用于从单语言中学习多语言文本。
- Using Structured Content Plans for Fine-grained Syntactic Control in Pretrained Language Model Generation
- Fei-Tzin Lee, Miguel Ballesteros, Feng Nan, Kathleen McKeown
- TLDR: 我们提出了一种用于语义建模的语言建模方法,该方法通过直接从一个语义表征中生成文本,以实现语义建模。
- PrefScore: Pairwise Preference Learning for Reference-free Summarization Quality Assessment
- Ge Luo, Hebi Li, Youbiao He, Forrest Sheng Bao
- TLDR: 我们提出了一种用于总结质量的替代权重,用于衡量总结质量的一般权重。
- Multi-Attribute Controlled Text Generation with Contrastive-Generator and External-Discriminator
- Guisheng Liu, Yi Li, Yanqing Guo, Xiangyang Luo, Bo Wang
- TLDR: 我们提出了一种用于多标签文本生成的新框架。
- Coordination Generation via Synchronized Text-Infilling
- Hiroki Teranishi, Yuji Matsumoto
- TLDR: 我们提出了一种简单的、有效的方法来生成句法,其边界明确地指定了它的边际。
- KHANQ: A Dataset for Generating Deep Questions in Education
- Huanli Gong, Liangming Pan, Hengchang Hu
- TLDR: 我们提出了一个用于知识问卷的QG数据集,它可以作为知识问卷的生成问题生成问题库。
- Multi-Figurative Language Generation
- Huiyuan Lai, Malvina Nissim
- TLDR: 我们提出了一个基准,用于多表征语言生成的一般框架。
- Enhancing Task-Specific Distillation in Small Data Regimes through Language Generation
- Husam Quteineh, Spyridon Samothrakis, Richard Sutcliffe
- TLDR: 我们提出了一种新的方法,通过从教师模型中提炼知识,通过生成合成数据来提高学生学习的性能。
- Boosting Code Summarization by Embedding Code Structures
- Jikyoeng Son, Joonghyuk Hahn, HyeonTae Seo, Yo-Sub Han
- TLDR: 我们提出了一个用于代码概括的PDG Boosting Module,它可以代表代码的结构,并表明,PDG可以作为一个更好的程序依赖图的表示。
- Comparative Graph-based Summarization of Scientific Papers Guided by Comparative Citations
- Jingqiang Chen, Chaoxiang Cai, Xiaorui Jiang, Kejia Chen
- TLDR: 我们提出了一个基于对比性图的概括方法,用于生成对比性总结。
- JPG - Jointly Learn to Align: Automated Disease Prediction and Radiology Report Generation
- Jingyi You, Dongyuan Li, Manabu Okumura, Kenji Suzuki
- TLDR: 我们提出了一个用于疾病预测和癌症报告生成的统一的病理诊断和癌症报告生成的JPG框架。
- Automatic Nominalization of Clauses
- John S. Y. Lee, Ho Hung Lim, Carol Webster, Anton Melser
- TLDR: 我们使用文本依赖模型来解决句法 nominalization的语义依赖模型。
- Benchmarking Compositionality with Formal Languages
- Josef Valvoda, Naomi Saphra, Jonathan Rawski, Adina Williams, Ryan Cotterell
- TLDR: 我们通过随机抽样多变量神经网络的特征,探索它们如何影响学习性。
- Source-summary Entity Aggregation in Abstractive Summarization
- José Ángel González, Annie Louis, Jackie Chi Kit Cheung
- TLDR: 本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,在本文中,
- How to Find Strong Summary Coherence Measures? A Toolbox and a Comparative Study for Summary Coherence Measure Evaluation
- Julius Steen, Katja Markert
- TLDR: 我们通过大规模的调查研究,研究了各种方法如何在总结编码中进行概括一致性建模。
- Summarizing Dialogues with Negative Cues
- Junpeng Liu, Yanyan Zou, Yuxuan Xi, Shengjie Li, Mian Ma, Zhuoye Ding
- TLDR: 我们提出了一种基于对话总结的理论,它可以直接从对话中捕捉到保留的尖锐信息,同时忽略了那些尖锐的尖锐点。
- ALEXSIS-PT: A New Resource for Portuguese Lexical Simplification
- Kai North, Marcos Zampieri, Tharindu Ranasinghe
- TLDR: 我们提出了ALEXSIS-PT,一个用于多语言LS的多候选人数据集,包含9,605的替代词。
- APPDIA: A Discourse-aware Transformer-based Style Transfer Model for Offensive Social Media Conversations
- Katherine Atwell, Sabit Hassan, Malihe Alikhani
- TLDR: 我们提出了一种用于批评者和他们的反面者之间的风格转移的新型方法。
- View Dialogue in 2D: A Two-stream Model in Time-speaker Perspective for Dialogue Summarization and beyond
- Keli Xie, Dongchen He, Jiaxin Zhuang, Siyuan Lu, Zhongfeng Wang
- TLDR: 我们提出了一个用于对话总结的2D视覺,以更好地捕捉对话信息。
- Denoising Large-Scale Image Captioning from Alt-text Data Using Content Selection Models
- Khyathi Raghavi Chandu, Piyush Sharma, Soravit Changpinyo, Ashish V. Thapliyal, Radu Soricut
- TLDR: 我们提出了一种简单的、有效的方法,通过将本文词排列为排列的排列器来生成更好的和无关的句法。
- Meta-CQG: A Meta-Learning Framework for Complex Question Generation over Knowledge Bases
- Kun Zhang, Yunqi Qiu, Yuanzhuo Wang, Long Bai, Wei Li, Xuhui Jiang, Huawei Shen, Xueqi Cheng
- TLDR: 我们提出了一个用于知识库知识问题的元学习框架,用于生成知识库知识问题的元学习。
- Graph-to-Text Generation with Dynamic Structure Pruning
- Liang Li, Ruiying Geng, Bowen Li, Can Ma, Yinliang Yue, Binhua Li, Yongbin Li
- TLDR: 我们提出了一个结构化关注交叉关注(SACA)机制,用于重新编码输入图的表示条件,以生成新的背景。
- Multi-Perspective Document Revision
- Mana Ihori, Hiroshi Sato, Tomohiro Tanaka, Ryo Masumura
- TLDR: 我们提出了一种新的多视角文件修改任务,它同时修改了五个视覺,以提高整个文件的可读性和准确性。
- A Survey of Automatic Text Summarization Using Graph Neural Networks
- Marco Ferdinand Salchner, Adam Jatowt
- TLDR: 我们通过一个基于GNN的在线学习的在线学习报告来介绍使用GNNs的快速进展方法。
- Phrase-Level Localization of Inconsistency Errors in Summarization by Weak Supervision
- Masato Takatsuka, Tetsunori Kobayashi, Yoshihiko Hayashi
- TLDR: 我们提出了一种用于解释和总结错误的通用方法。
- PoliSe: Reinforcing Politeness Using User Sentiment for Customer Care Response Generation
- Mauajama Firdaus, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: 我们提出了一种基于Transformer的多任务网络的新型方法,用于处理用户对服务中态度的偏见。
- Focus-Driven Contrastive Learning for Medical Question Summarization
- Ming Zhang, Shuai Dou, Ziyang Wang, Yunfang Wu
- TLDR: 我们提出了一个基于问题目标的对比学习框架,它可以捕捉到问题目标,并利用对比性学习来获得更好的句法表征。
- ArgLegalSumm: Improving Abstractive Summarization of Legal Documents with Argument Mining
- Mohamed Elaraby, Diane Litman
- TLDR: 我们提出了一种简单的方法来捕捉法律文件的论证结构,并将其应用于法律文件的总结过程。
- Semantic Overlap Summarization among Multiple Alternative Narratives: An Exploratory Study
- Naman Bansal, Mousumi Akter, Shubhra Kanti Karmaker
- TLDR: 我们提出了一个重要的NLP任务,称为语义叠加总结(SOS),它要求从多个相反的句法中生成一个单一的总结。
- Analyzing the Dialect Diversity in Multi-document Summaries
- Olubusayo Olabisi, Aaron Hudson, Antonie Jetter, Ameeta Agrawal
- TLDR: 我们使用一个新颖的DVM数据集来分析和改进基于语法多样性的总结。
- Multi-Document Scientific Summarization from a Knowledge Graph-Centric View
- Pancheng Wang, Shasha Li, Kunyuan Pang, Liangliang He, Dong Li, Jintao Tang, Ting Wang
- TLDR: 我们提出了一个知识图谱,用于知识图谱上的科学总结。
- Generation of Patient After-Visit Summaries to Support Physicians
- Pengshan Cai, Fei Liu, Adarsha Bajracharya, Joe Sills, Alok Kapoor, Weisong Liu, Dan Berlowitz, David Levy, Richeek Pradhan, Hong Yu
- TLDR: 我们研究了自动生成的后访问总结的问题,并表明,当总结失败时,患者会失去信心。
- HeterGraphLongSum: Heterogeneous Graph Neural Network with Passage Aggregation for Extractive Long Document Summarization
- Tuan-Anh Phan, Ngoc-Dung Ngoc Nguyen, Khac-Hoai Nam Bui
- TLDR: 本文提出了一种新的基于图的神经网络(HeterGNN)模型,用于提高长文总结的性能。
- GRETEL: Graph Contrastive Topic Enhanced Language Model for Long Document Extractive Summarization
- Qianqian Xie, Jimin Huang, Tulika Saha, Sophia Ananiadou
- TLDR: 我们提出了一个基于图对比性主题增强的语言模型,它结合了图对比性主题模型和以前的语言模型,可以完全利用全域和區域语义,用于长文的总结。
- PINEAPPLE: Personifying INanimate Entities by Acquiring Parallel Personification Data for Learning Enhanced Generation
- Sedrick Scott Keh, Kevin Lu, Varun Gangal, Steven Y. Feng, Harsh Jhamtani, Malihe Alikhani, Eduard Hovy
- TLDR: 我们提出了PINEAPPLE:通过利用同等身份数据来生成具有不同身份的实体的实体的实体的实体。
- Mind the Gap! Injecting Commonsense Knowledge for Abstractive Dialogue Summarization
- Seungone Kim, Se June Joo, Hyungjoo Chae, Chaehyeong Kim, Seung-won Hwang, Jinyoung Yeo
- TLDR: 我们提出了SICK,一个用于多任务学习的框架,使用通用性推理作为额外的背景。
- Type-dependent Prompt CycleQAG : Cycle Consistency for Multi-hop Question Generation
- Seungyeon Lee, Minho Lee
- TLDR: 我们提出了一种基于类型的提问循环QAG(CycleQG),它使用了循环熵损失来生成句法上不同的问题。
- UPER: Boosting Multi-Document Summarization with an Unsupervised Prompt-based Extractor
- Shangqing Tu, Jifan Yu, Fangwei Zhu, Juanzi Li, Lei Hou, Jian-Yun Nie
- TLDR: 我们使用一个基于PLM的框架来评估文件的 salience,并使用它来生成一个抽象的文件。
- DISK: Domain-constrained Instance Sketch for Math Word Problem Generation
- Tianyang Cao, Shuang Zeng, Xiaodan Xu, Mairgup Mansur, Baobao Chang
- TLDR: 我们提出了一个用于生成数学词典的神经模型,该模型通过将数学上最相似的例子纳入到模型中来生成数学词典。
- Context-Tuning: Learning Contextualized Prompts for Natural Language Generation
- Tianyi Tang, Junyi Li, Wayne Xin Zhao, Ji-Rong Wen
- TLDR: 使用PLMs生成语言的简单方法
- PSP: Pre-trained Soft Prompts for Few-Shot Abstractive Summarization
- Xiaochen Liu, Yang Gao, Yu Bai, Jiawei Li, Yinan Hu, Heyan Huang, Boxing Chen
- TLDR: 我们提出了一种基于soft prompts的新型软性提醒的架构,它可以提高模型的概括能力。
- Continuous Decomposition of Granularity for Neural Paraphrase Generation
- Xiaodong Gu, Zhaowei Zhang, Sang-Woo Lee, Kang Min Yoo, Jung-Woo Ha
- TLDR: 我们提出了一个用于多头自我注意的多头自我关注的新方法,它可以捕捉到高层次的 granular性,并使用它来生成句法。
- Paraphrase Generation as Unsupervised Machine Translation
- Xiaofei Sun, Yufei Tian, Yuxian Meng, Nanyun Peng, Fei Wu, Jiwei Li, Chun Fan
- TLDR: 我们提出了一种新的非监督机器翻译(UMT)方法,用于生成多语种句法的句法句法。
- Summarize, Outline, and Elaborate: Long-Text Generation via Hierarchical Supervision from Extractive Summaries
- Xiaofei Sun, Zijun Sun, Yuxian Meng, Jiwei Li, Chun Fan
- TLDR: 我们提出了一种用于生成长文本的新型方法,该方法基于人类的写法,并提出了一种用于生成长文本的新型方法。
- CoCGAN: Contrastive Learning for Adversarial Category Text Generation
- Xin Sheng, Linli Xu, Yinlong Xu, Changcun Bao, Huang Chen, Bo Ren
- TLDR: 本文提出了一种新的对抗性类文本生成对抗网络(CoCGAN),用于将对比性学习纳入分类文本生成模型。
- An Efficient Coarse-to-Fine Facet-Aware Unsupervised Summarization Framework Based on Semantic Blocks
- Xinnian Liang, Jing Li, Shuangzhi Wu, Jiali Zeng, Yufan Jiang, Mu Li, Zhoujun Li
- TLDR: 我们提出了一个高效的Coarse-to-Fine Facet-Aware Ranking(C2F-FAR)框架,用于非监督的文件总结。
- CHAE: Fine-Grained Controllable Story Generation with Characters, Actions and Emotions
- Xinpeng Wang, Han Jiang, Zhihua Wei, Shanlin Zhou
- TLDR: 本文提出了一个用于故事生成的模型,该模型允许生成个性化的故事,与对应的行动和情感任意分配。
- Chinese Couplet Generation with Syntactic Information
- Yan Song
- TLDR: 我们提出了一种用于汉字结合生成的新型方法,该方法在汉字生成方面的表现良好。
- Noise-injected Consistency Training and Entropy-constrained Pseudo Labeling for Semi-supervised Extractive Summarization
- Yiming Wang, Qianren Mao, Junnan Liu, Weifeng Jiang, Hongdong Zhu, Jianxin Li
- TLDR: 我们提出了一种用于生成总结数据的非监督方法,可以获得高信心标签。
- Question Generation Based on Grammar Knowledge and Fine-grained Classification
- Yuan Sun, Sisi Liu, Zhengcuo Dan, Xiaobing Zhao
- TLDR: 我们提出了一个问题类型分类器和一个问题生成器,用于生成问题类型分类器。
- CM-Gen: A Neural Framework for Chinese Metaphor Generation with Explicit Context Modelling
- Yucheng Li, Chenghua Lin, Frank Guerin
- TLDR: 我们提出了一种新的多任务框架,用于生成具有不同语义特征的句法。
- Psychology-guided Controllable Story Generation
- Yuqiang Xie, Yue Hu, Yunpeng Li, Guanqun Bi, Luxi Xing, Wei Peng
- TLDR: 我们提出了一个用于生成心理导向的控制性故事生成系统(PICS),它可以生成故事,并利用它们来捕捉他们的内在心理状态。
- Few-shot Table-to-text Generation with Prefix-Controlled Generator
- Yutao Luo, Menghua Lu, Gongshen Liu, Shilin Wang
- TLDR: 我们提出了一种基于预先训练好的语言模型(PLM)的简单表到文本生成方法,用于少樣本的表到文本生成。
- Text Simplification of College Admissions Instructions: A Professionally Simplified and Verified Corpus
- Zachary W. Taylor, Maximus H. Chu, Junyi Jessy Li
- TLDR: 我们提出了PSAT,一个用于高质量的大学入额的一般通用解释数据集。
- On the Role of Pre-trained Language Models in Word Ordering: A Case Study with BART
- Zebin Ou, Meishan Zhang, Yue Zhang
- TLDR: 我们使用BART作为例子,证明它可以帮助句法顺序。
- Visual Information Guided Zero-Shot Paraphrase Generation
- Zhe Lin, Xiaojun Wan
- TLDR: 我们提出了一种基于视觉信息的零樣本引用生成(ViPG)方法,它使用一个单个图像标记模型和一个paraphrasing模型来指导训练。
- Improving Abstractive Dialogue Summarization with Speaker-Aware Supervised Contrastive Learning
- Zhichao Geng, Ming Zhong, Zhangyue Yin, Xipeng Qiu, Xuanjing Huang
- TLDR: 我们提出了一个用于对话总结的新型的自上而下的对话总结任务。
- Diversifying Neural Text Generation with Part-of-Speech Guided Softmax and Sampling
- Zhixian Yang, Pengxuan Xu, Xiaojun Wan
- TLDR: 我们提出了一种基于语言注释的文本生成方法,用于解决语言表达的低多样性问题。
- Enhancing Pre-trained Models with Text Structure Knowledge for Question Generation
- Zichen Wu, Xin Jia, Fanyi Qu, Yunfang Wu
- TLDR: 我们提出了一种基于语义的學習方法,用于QG任务的學習。
- LFKQG: A Controlled Generation Framework with Local Fine-tuning for Question Generation over Knowledge Bases
- Zichu Fei, Xin Zhou, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: 我们提出了LFKQG,这是一个控制知识库的提问生成框架。
- Demystifying Neural Fake News via Linguistic Feature-Based Interpretation
- Ankit Aich, Souvik Bhattacharya, Natalie Parde
- TLDR: 我们通过使用特征特征来解释神经假消息的最常见特征特征。
- Measuring Geographic Performance Disparities of Offensive Language Classifiers
- Brandon Lwowski, Paul Rad, Anthony Rios
- TLDR: 我们提出了一个新颖的地理OLID数据集,它可以解决分类器中存在的偏见。
- Offensive Content Detection via Synthetic Code-Switched Text
- Cesa Salaam, Franck Dernoncourt, Trung Bui, Danda Rawat, Seunghyun Yoon
- TLDR: 我们介绍了使用基于代码的非监督性标签的色情内容数据的实例集。
- A Survey on Multimodal Disinformation Detection
- Firoj Alam, Stefano Cresci, Tanmoy Chakraborty, Fabrizio Silvestri, Dimiter Dimitrov, Giovanni Da San Martino, Shaden Shaar, Hamed Firooz, Preslav Nakov
- TLDR: 我们提出了一个关于多模态的虚假信息检测的最先进的调查结果。
- Why Is It Hate Speech? Masked Rationale Prediction for Explainable Hate Speech Detection
- Jiyun Kim, Byounghan Lee, Kyung-Ah Sohn
- TLDR: 我们提出了一种用于反叛的语言检测方法,它可以检测到偏见和解释性。
- Domain Classification-based Source-specific Term Penalization for Domain Adaptation in Hate-speech Detection
- Tulika Bose, Nikolaos Aletras, Irina Illina, Dominique Fohr
- TLDR: 我们提出了一种基于特征的分类方法,用于追踪和惩罚对不洁言词的偏见。
- Generalizable Implicit Hate Speech Detection Using Contrastive Learning
- Youngwook Kim, Shinwoo Park, Yo-Sub Han
- TLDR: 我们提出了一种新的反向学习方法,用于检测和解决不相关的主题。
- Social Bot-Aware Graph Neural Network for Early Rumor Detection
- Zhen Huang, Zhilong Lv, Xiaoyun Han, Binyang Li, Menglong Lu, Dongsheng Li
- TLDR: 本文提出了一个基于社会机器人行为的图神经网络,它可以从图中捕捉到在谣言传播中表现出来的意图。
- A Contrastive Cross-Channel Data Augmentation Framework for Aspect-Based Sentiment Analysis
- Bing Wang, Liang Ding, Qihuang Zhong, Ximing Li, Dacheng Tao
- TLDR: 我们提出了一个用于多维情感分析的新型D3DA,用于生成句法的跨域生成。
- Sentiment Interpretable Logic Tensor Network for Aspect-Term Sentiment Analysis
- Bowen Zhang, Xu Huang, Zhichao Huang, Hu Huang, Baoquan Zhang, Xianghua Fu, Liwen Jing
- TLDR: 我们提出了一种用于情感理解的神经符号网络,它可以解释为神经符号的符号化形式,并支持学习和推理。
- Detecting Minority Arguments for Mutual Understanding: A Moderation Tool for the Online Climate Change Debate
- Cedric Waterschoot, Ernst van den Hemel, Antal van den Bosch
- TLDR: 我们提出了一个用于主题讨论的在线监督器,用于帮助主题讨论者和研究人员在主题中进行相互理解。
- A Multi-turn Machine Reading Comprehension Framework with Rethink Mechanism for Emotion-Cause Pair Extraction
- Changzhi Zhou, Dandan Song, Jing Xu, Zhijing Wu
- TLDR: 我们提出了一个基于多旋的MRC框架,可以从情感和原因的表征中提取情感因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因果因
- Structural Bias for Aspect Sentiment Triplet Extraction
- Chen Zhang, Lei Ren, Fang Ma, Jingang Wang, Wei Wu, Dawei Song
- TLDR: 我们提出了一种用于PLMs的结构化替代方案,该方案使用一个低成本的近似位置结构来解决结构偏差问题。
- Unsupervised Data Augmentation for Aspect Based Sentiment Analysis
- David Z. Chen, Adam Faulkner, Sahil Badyal
- TLDR: 我们提出了一个用于半监督学习的非监督数据增强的适应性,用于ASC和视觉感知分析的统一。
- A Sentiment and Emotion Aware Multimodal Multiparty Humor Recognition in Multilingual Conversational Setting
- Dushyant Singh Chauhan, Gopendra Vikram Singh, Aseem Arora, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: 我们提出了一个多任务框架,用于感知和情感识别。
- TSAM: A Two-Stream Attention Model for Causal Emotion Entailment
- Duzhen Zhang, Zhen Yang, Fandong Meng, Xiuyi Chen, Jie Zhou
- TLDR: 我们提出了一个基于多通道注意力的双流注意力模型(TSAM),用于有效地学习说话者的心理影响。
- Entity-Level Sentiment Analysis (ELSA): An Exploratory Task Survey
- Egil Rønningstad, Erik Velldal, Lilja Øvrelid
- TLDR: 我们提出了一个用于文件、句法、目标和主题的情感分析的框架,并展示了其在本文中的表现。
- Learning from Adjective-Noun Pairs: A Knowledge-enhanced Framework for Target-Oriented Multimodal Sentiment Classification
- Fei Zhao, Zhen Wu, Siyu Long, Xinyu Dai, Shujian Huang, Jiajun Chen
- TLDR: 我们提出了一个知识增强的框架,可以成功地利用词典-句法对头的引用来提高视觉注意力和情感预测能力。
- Towards Exploiting Sticker for Multimodal Sentiment Analysis in Social Media: A New Dataset and Baseline
- Feng Ge, Weizhao Li, Haopeng Ren, Yi Cai
- TLDR: 我们提出了一个用于多模态情感分析的统一的标签数据集。
- Natural Language Inference Prompts for Zero-shot Emotion Classification in Text across Corpora
- Flor Miriam Plaza-del-Arco, María-Teresa Martín-Valdivia, Roman Klinger
- TLDR: 我们表明,如果一个词语表达的愤怒是基于一个自然语言推理模型,那么,一个特定的回应应该被选择出来。
- CommunityLM: Probing Partisan Worldviews from Language Models
- Hang Jiang, Doug Beeferman, Brandon Roy, Deb Roy
- TLDR: 我们使用一个框架来衡量社区LMs对社会成员的回应。
- Composition-based Heterogeneous Graph Multi-channel Attention Network for Multi-aspect Multi-sentiment Classification
- Hao Niu, Yun Xiong, Jian Gao, Zhongchen Miao, Xiaosu Wang, Hongrun Ren, Yao Zhang, Yangyong Zhu
- TLDR: 我们提出了一种基于语义的基于图的多通道注意力网络,用于解释和分析多维情感分析。
- CoNTACT: A Dutch COVID-19 Adapted BERT for Vaccine Hesitancy and Argumentation Detection
- Jens Lemmens, Jens Van Nooten, Tim Kreutz, Walter Daelemans
- TLDR: 我们提出了CoNTACT:一个用于COVID-19相关tweets的NLP模型,它适应了COVID-19的tweets的领域。
- SSR: Utilizing Simplified Stance Reasoning Process for Robust Stance Detection
- Jianhua Yuan, Yanyan Zhao, Yanyue Lu, Bing Qin
- TLDR: 我们提出了一个基于stance reasoning过程的任务知识框架,用于学习真实的偏见特征和减少偏见偏见的依赖性。
- Transferring Confluent Knowledge to Argument Mining
- João António Rodrigues, António Branco
- TLDR: 本文通过引入一个转移学习方法来评估理论采样知识的潜在可能性。
- When to Laugh and How Hard? A Multimodal Approach to Detecting Humor and Its Intensity
- Khalid Alnajjar, Mika Hämäläinen, Jörg Tiedemann, Jorma Laaksonen, Mikko Kurimo
- TLDR: 我们提出了一种基于多模态数据的自动检测幽默的视频中的方法。
- Modeling Aspect Correlation for Aspect-based Sentiment Analysis via Recurrent Inverse Learning Guidance
- Longfeng Li, Haifeng Sun, Qi Qi, Jingyu Wang, Jing Wang, Jianxin Liao
- TLDR: 我们提出了一种基于逆向学习的网络,它可以提高对主题的相互作用的建模和选择。
- Analyzing Persuasion Strategies of Debaters on Social Media
- Matti Wiegmann, Khalid Al Khatib, Vishal Khanna, Benno Stein
- TLDR: 我们提出了一个用于在线讨论的在线讨论平台的衡量标准,用于衡量和评估网络讨论者在不同程度上的有效性。
- KC-ISA: An Implicit Sentiment Analysis Model Combining Knowledge Enhancement and Context Features
- Minghao Xu, Daling Wang, Shi Feng, Zhenfei Yang, Yifei Zhang
- TLDR: 我们提出了一种新的基于知识增强和背景特征的基于情感分析模型,它可以有效地整合外部知识和背景特征。
- Domain Generalization for Text Classification with Memory-Based Supervised Contrastive Learning
- Qingyu Tan, Ruidan He, Lidong Bing, Hwee Tou Ng
- TLDR: 我们提出了一种基于监督的对比学习的新方法,它可以从多个源领域中学习,并可以从多个源领域中学习。
- A Zero-Shot Claim Detection Framework Using Question Answering
- Revanth Gangi Reddy, Sai Chetan Chinthakindi, Yi R. Fung, Kevin Small, Heng Ji
- TLDR: 我们提出了一个用于非监督的批评问题的QA,使用直接提问解决一个多样化的主题滤波器、主题检测和主题追踪任务。
- Asymmetric Mutual Learning for Multi-source Unsupervised Sentiment Adaptation with Dynamic Feature Network
- Rui Li, Cheng Liu, Dazhi Jiang
- TLDR: 我们提出了一种基于逆向学习的新型对抗性对抗方法,可以对目标领域的 pseudo标签进行准确估计。
- Target Really Matters: Target-aware Contrastive Learning and Consistency Regularization for Few-shot Stance Detection
- Rui Liu, Zheng Lin, Huishan Ji, Jiangnan Li, Peng Fu, Weiping Wang
- TLDR: 我们提出了一个用于少樣本行动检测的新型目标感知的半监督框架。
- Joint Alignment of Multi-Task Feature and Label Spaces for Emotion Cause Pair Extraction
- Shunjie Chen, Xiaochuan Shi, Jingye Li, Shengqiong Wu, Hao Fei, Fei Li, Donghong Ji
- TLDR: 我们提出了一个基于Aˆ2Net的特征-任务对齐框架,用于改善情感因果分析。
- Causal Intervention Improves Implicit Sentiment Analysis
- Siyin Wang, Jie Zhou, Changzhi Sun, Junjie Ye, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: 我们提出了一个用于隐性情感分析的因果性介入模型,该模型使用了用于隐性情感分析的动机变量(CLEAN)。
- COMMA-DEER: COmmon-sense Aware Multimodal Multitask Approach for Detection of Emotion and Emotional Reasoning in Conversations
- Soumitra Ghosh, Gopendra Vikram Singh, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: 我们提出了一个基于多任务的多语义对话集,用于检测情感推理和相关情感。
- EmoMent: An Emotion Annotated Mental Health Corpus from Two South Asian Countries
- Thushari Atapattu, Mahen Herath, Charitha Elvitigala, Piyanjali de Zoysa, Kasun Gunawardana, Menasha Thilakaratne, Kasun de Zoysa, Katrina Falkner
- TLDR: 我们提出了一个情感标签的情绪健康库,它包含了2802的Facebook帖子(14845句)。
- LEGO-ABSA: A Prompt-based Task Assemblable Unified Generative Framework for Multi-task Aspect-based Sentiment Analysis
- Tianhao Gao, Jun Fang, Hanyu Liu, Zhiyuan Liu, Chao Liu, Pengzhang Liu, Yongjun Bao, Weipeng Yan
- TLDR: 我们提出了一个统一的多任务框架,可以解决多种ABSA任务。
- A Hierarchical Interactive Network for Joint Span-based Aspect-Sentiment Analysis
- Wei Chen, Jinglong Du, Zhao Zhang, Fuzhen Zhuang, Zhongshi He
- TLDR: 我们提出了一个层次化互动网络,用于在两个任务之间进行二元互动。
- MuCDN: Mutual Conversational Detachment Network for Emotion Recognition in Multi-Party Conversations
- Weixiang Zhao, Yanyan Zhao, Bing Qin
- TLDR: 我们提出了MuCDN,用于在多聚对话中明确理解对话中对话的背景。
- UECA-Prompt: Universal Prompt for Emotion Cause Analysis
- Xiaopeng Zheng, Zhiyue Liu, Zizhen Zhang, Zhaoyang Wang, Jiahai Wang
- TLDR: 通过使用一个通用的随机学习模块和一个方向性限制模块来解决不同ECA任务的统一框架。
- One-Teacher and Multiple-Student Knowledge Distillation on Sentiment Classification
- Xiaoqin Chang, Sophia Yat Mei Lee, Suyang Zhu, Shoushan Li, Guodong Zhou
- TLDR: 我们提出了一种新的、高效的、知识提炼方法,用于从深度先验模型中提炼出多个浅层学生模型。
- Making Parameter-efficient Tuning More Efficient: A Unified Framework for Classification Tasks
- Xin Zhou, Ruotian Ma, Yicheng Zou, Xuanting Chen, Tao Gui, Qi Zhang, Xuanjing Huang, Rui Xie, Wei Wu
- TLDR: 我们提出了一种用于文本分类的PLM,它可以提高现有的PLM的效率,同时可以节省50%的参数。
- A Multi-Task Dual-Tree Network for Aspect Sentiment Triplet Extraction
- Yichun Zhao, Kui Meng, Gongshen Liu, Jintao Du, Huijia Zhu
- TLDR: 我们提出了一个多任务多表征网络(MTDTN),用于解决情感triplet提取问题。
- Exploiting Unlabeled Data for Target-Oriented Opinion Words Extraction
- Yidong Wang, Hao Wu, Ao Liu, Wenxin Hou, Zhen Wu, Jindong Wang, Takahiro Shinozaki, Manabu Okumura, Yue Zhang
- TLDR: 我们提出了一种基于多层次一致性规范的多语义情感表征提取方法,用于从句法中提取有偏见的意見词。
- Learnable Dependency-based Double Graph Structure for Aspect-based Sentiment Analysis
- Yinglong Ma, Yunhe Pang
- TLDR: 我们提出了一种用于情感分类的依赖性基于双图的双图模型,用于背景的情感分类。
- A Structure-Aware Argument Encoder for Literature Discourse Analysis
- Yinzi Li, Wei Chen, Zhongyu Wei, Yujun Huang, Chujun Wang, Siyuan Wang, Qi Zhang, Xuanjing Huang, Libo Wu
- TLDR: 我们提出了一个用于语言建模的结构感的argument编码器,它可以从句法中捕捉语义信息。
- Mere Contrastive Learning for Cross-Domain Sentiment Analysis
- Yun Luo, Fang Guo, Zihan Liu, Yue Zhang
- TLDR: 我们提出了一种基于对比性学习的跨域情感分析任务的新型对抗性目标。
- Exploiting Sentiment and Common Sense for Zero-shot Stance Detection
- Yun Luo, Zihan Liu, Yuefeng Shi, Stan Z. Li, Yue Zhang
- TLDR: 我们提出了一种基于情感和常识的行动检测方法,用于零樣本和少樣本上检测。
- Modeling Intra- and Inter-Modal Relations: Hierarchical Graph Contrastive Learning for Multimodal Sentiment Analysis
- Zijie Lin, Bin Liang, Yunfei Long, Yixue Dang, Min Yang, Min Zhang, Ruifeng Xu
- TLDR: 我们提出了一个新颖的层次性图对比学习框架,用于多模态情感分析。
- AMOA: Global Acoustic Feature Enhanced Modal-Order-Aware Network for Multimodal Sentiment Analysis
- Ziming Li, Yan Zhou, Weibo Zhang, Yaxin Liu, Chuanpeng Yang, Zheng Lian, Songlin Hu
- TLDR: 我们提出了一种用于多语义情感分析的新型方法,它可以从单个视频中获得多语义融合特征。
- Keyphrase Prediction from Video Transcripts: New Dataset and Directions
- Amir Pouran Ben Veyseh, Quan Hung Tran, Seunghyun Yoon, Varun Manjunatha, Hanieh Deilamsalehy, Rajiv Jain, Trung Bui, Walter W. Chang, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: 我们首次提出了一个用于视频的在线视频转录的全域自动标记的KP数据集。
- Event Extraction in Video Transcripts
- Amir Pouran Ben Veyseh, Viet Dac Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: 我们提出了第一个用于视频转录的全域全域全域在线视频数据集。
- Recycle Your Wav2Vec2 Codebook: A Speech Perceiver for Keyword Spotting
- Guillermo Cámbara, Jordi Luque, Mireia Farrús
- TLDR: 我们使用潜在的代码书来从潜在的代码书中提取语音信息,以获得更好的语音表示。
- Improving Code-switched ASR with Linguistic Information
- Jie Chi, Peter Bell
- TLDR: 我们提出了一种通过使用语言理论来解决ASR中代码转換问题的方法。
- Language-specific Effects on Automatic Speech Recognition Errors for World Englishes
- June Choe, Yiran Chen, May Pik Yu Chan, Aini Li, Xin Gao, Nicole Holliday
- TLDR: 我们通过对Otter的自动标记系统在不同语言背景的口语者的表现进行了语言分析。
- A Transformer-based Threshold-Free Framework for Multi-Intent NLU
- Lisung Chen, Nuo Chen, Yuexian Zou, Yong Wang, Xinzhong Sun
- TLDR: 我们提出了一种基于变换器的多目标神经理解的模型,它可以从句法中检测多个意图,同时无需额外的注释。
- Unsupervised Multi-scale Expressive Speaking Style Modeling with Hierarchical Context Information for Audiobook Speech Synthesis
- Xueyuan Chen, Shun Lei, Zhiyong Wu, Dong Xu, Weifeng Zhao, Helen Meng
- TLDR: 我们提出了一个非监督的多尺度上下文到语音的语音合成模型,用于学习和理解语音风格。
- Incorporating Instructional Prompts into a Unified Generative Framework for Joint Multiple Intent Detection and Slot Filling
- Yangjun Wu, Han Wang, Dongxiang Zhang, Gang Chen, Hao Zhang
- TLDR: 我们提出了一个统一的生成框架,它基于一个提问的框架,并将其任务表述为一个问题回答问题。
- Adaptive Unsupervised Self-training for Disfluency Detection
- Zhongyuan Wang, Yixuan Wang, Shaolei Wang, Wanxiang Che
- TLDR: 我们提出了一种适应性的非监督自我训练方法,用于不偏差的检测。