ACL 2022 in German
TLDRs
- AdapLeR: Speeding up Inference by Adaptive Length Reduction
- Ali Modarressi, Hosein Mohebbi, Mohammad Taher Pilehvar
- TLDR: Wir schlagen einen neuartigen Ansatz vor, BERT mit minimalem Verlust in der Downstream-Leistung zu skalieren.
- Quantified Reproducibility Assessment of NLP Results
- Anya Belz, Maja Popovic, Simon Mille
- TLDR: Wir schlagen eine Methode vor, die die Quantifizierung der Reproduktionsgenauigkeit (QRA) erlernt und die Verbesserung der Reproduzierbarkeit (QRA) ermöglicht.
- Rare Tokens Degenerate All Tokens: Improving Neural Text Generation via Adaptive Gradient Gating for Rare Token Embeddings
- Sangwon Yu, Jongyoon Song, Heeseung Kim, Seongmin Lee, Woo-Jong Ryu, Sungroh Yoon
- TLDR: Wir analysieren die Trainingsdynamik von Zeicheneinbettungen und stellen eine adaptive Gradienten-Gating-Methode vor, die das Problem der Degeneration von Zeicheneinbettungen behebt.
- AlephBERT: Language Model Pre-training and Evaluation from Sub-Word to Sentence Level
- Amit Seker, Elron Bandel, Dan Bareket, Idan Brusilovsky, Refael Greenfeld, Reut Tsarfaty
- TLDR: Wir stellen AlephBERT vor, einen großen PLM für Modern Hebrew, trained auf größerer Sprachgröße und einem größeren Datensatz als any Hebrew PLM before.
- Learning to Imagine: Integrating Counterfactual Thinking in Neural Discrete Reasoning
- Moxin Li, Fuli Feng, Hanwang Zhang, Xiangnan He, Fengbin Zhu, Tat-Seng Chua
- TLDR: Wir stellen eine Lernmodul-Architektur vor, die in Deep Learning-Modelle integriert werden kann, um die Wahrnehmung von Gegenwahrheiten zu trainieren.
- Domain Adaptation in Multilingual and Multi-Domain Monolingual Settings for Complex Word Identification
- George-Eduard Zaharia, Răzvan-Alexandru Smădu, Dumitru Cercel, Mihai Dascalu
- TLDR: Wir schlagen eine neue Trainingstechnik vor, die auf Domänenanpassung basiert, um die Wortidentifikation zu verbessern.
- JointCL: A Joint Contrastive Learning Framework for Zero-Shot Stance Detection
- Bin Liang, Qinglin Zhu, Xiang Li, Min Yang, Lin Gui, Yulan He, Ruifeng Xu
- TLDR: Wir schlagen einen Rahmen für das gemeinsames contrastive Lernen vor, der auf räumliche Sichtweisen und auf Zielen basierendes graphisches contrastives Lernen basiert.
- [CASPI] Causal-aware Safe Policy Improvement for Task-oriented Dialogue
- Govardana Sachithanandam Ramachandran, Kazuma Hashimoto, Caiming Xiong
- TLDR: Wir schlagen einen Batch-RL-Rahmen für das Lernen von Dialogstrategien vor, der die Aufmerksamkeit der Menschen auf die Handlungen von Dialogen erfasst und eine Garantie auf die gesamte Dialogstrategie bietet.
- UniTranSeR: A Unified Transformer Semantic Representation Framework for Multimodal Task-Oriented Dialog System
- Zhiyuan Ma, Jianjun Li, Guohui Li, Yongjing Cheng
- TLDR: Wir schlagen einen Rahmen vor, der die Merkmalsanpassung und Intentionsbegründung für Multimodal-Dialogsysteme nutzt.
- Dynamic Schema Graph Fusion Network for Multi-Domain Dialogue State Tracking
- Yue Feng, Aldo Lipani, Fanghua Ye, Qiang Zhang, Emine Yilmaz
- TLDR: Wir schlagen eine neue Methode vor, die die Beziehungen zwischen Domänen und SLOTs modelliert.
- Attention Temperature Matters in Abstractive Summarization Distillation
- Shengqiang Zhang, Xingxing Zhang, Hangbo Bao, Furu Wei
- TLDR: Wir stellen eine Methode vor, die Aufmerksamkeitstemperaturen in Transformers manipuliert, um pseudo-beschriftete Texterzeugungen zu erstellen.
- Towards Making the Most of Cross-Lingual Transfer for Zero-Shot Neural Machine Translation
- Guanhua Chen, Shuming Ma, Yun Chen, Dongdong Zhang, Jia Pan, Wenping Wang, Furu Wei
- TLDR: Wir stellen eine neue Methode zur Multi-Lingualisierung vor, die auf einer großen Anzahl von Sprachfamilien trainiert wird, und zeigen, dass sie die Übertragung von Sprachfamilien in einer Zero-Shot-Umgebung ermöglicht.
- TopWORDS-Seg: Simultaneous Text Segmentation and Word Discovery for Open-Domain Chinese Texts via Bayesian Inference
- Changzai Pan, Maosong Sun, Ke Deng
- TLDR: Wir stellen Bayes’sche Inferenz vor, die eine robuste Leistung und transparente Interpretation bietet, wenn kein Trainingsrahmen und -sprachen verfügbar sind.
- An Unsupervised Multiple-Task and Multiple-Teacher Model for Cross-lingual Named Entity Recognition
- Zhuoran Li, Chunming Hu, Xiaohui Guo, Junfan Chen, Wenyi Qin, Richong Zhang
- TLDR: Wir stellen das Ähnlichkeitsbewerter-Modell vor, um die Leistung von NER-Netzwerken bei der Entitätserkennung zu verbessern.
- Discriminative Marginalized Probabilistic Neural Method for Multi-Document Summarization of Medical Literature
- Gianluca Moro, Luca Ragazzi, Lorenzo Valgimigli, Davide Freddi
- TLDR: Wir schlagen eine diskriminativ marginalisierte probabilistische Methode vor, die die Wichtigkeit von Arztdokumenten in einer Reihe von Arztdokumenten erfasst und eine Multi-Document Summary erzeugt.
- Sparse Progressive Distillation: Resolving Overfitting under Pretrain-and-Finetune Paradigm
- Shaoyi Huang, Dongkuan Xu, Ian Yen, Yijue Wang, Sung-En Chang, Bingbing Li, Shiyang Chen, Mimi Xie, Sanguthevar Rajasekaran, Hang Liu, Caiwen Ding
- TLDR: Wir stellen fest, dass Pruning die Übertragung von Transformer-Modellen verbessert und die Pruning-Leistung verbessert.
- CipherDAug: Ciphertext based Data Augmentation for Neural Machine Translation
- Nishant Kambhatla, Logan Born, Anoop Sarkar
- TLDR: Wir schlagen eine neue Methode zur Datenerweiterung vor, die auf ROT-Netzwerken verwendet werden kann.
- Overlap-based Vocabulary Generation Improves Cross-lingual Transfer Among Related Languages
- Vaidehi Patil, Partha Talukdar, Sunita Sarawagi
- TLDR: Wir schlagen eine neue Methode zur Sprachverknüpfung vor, die die Überlappung von Sprachfamilien verbessert und gleichzeitig die Sprachrepräsentation von LRLs verbessert.
- Long-range Sequence Modeling with Predictable Sparse Attention
- Yimeng Zhuang, Jing Zhang, Mei Tu
- TLDR: Wir stellen eine neue Perspektive vor, um die Aufmerksamkeitsmetrik für Transformer zu konstruieren.
- Improving Personalized Explanation Generation through Visualization
- Shijie Geng, Zuohui Fu, Yingqiang Ge, Lei Li, Gerard de Melo, Yongfeng Zhang
- TLDR: Wir schlagen einen visuellen Ansatz vor, der die Textwahrnehmung und die Erklärungsqualität verbessern kann.
- New Intent Discovery with Pre-training and Contrastive Learning
- Yuwei Zhang, Haode Zhang, Li-Ming Zhan, Xiao-Ming Wu, Albert Lam
- TLDR: Wir stellen eine Multi-Task-Vortraining-Strategie vor, um unbeschriftete Daten mit externen Labels für das Erkennen von Zielen zu nutzen.
- Modeling U.S. State-Level Policies by Extracting Winners and Losers from Legislative Texts
- Maryam Davoodi, Eric Waltenburg, Dan Goldwasser
- TLDR: Wir stellen ein textuelles Graphenmodell vor, das die Auswirkungen von Richtlinien auf die Entscheidungsfindung von Experten in den meisten US-Bundesstaaten kennt.
- Structural Characterization for Dialogue Disentanglement
- Xinbei Ma, Zhuosheng Zhang, Hai Zhao
- TLDR: Wir modellieren die Struktur von Dialogen in zwei Aspekten: 1) Sprachpropagation, die die Sprachausgangs- und Zielpropagation zeigt, und 2) Referenzpropagation, die die Zielpropagation zeigt, um zu verstehen, zu welchem Ziel die Dialoge abgeleitet werden.
- Multi-Party Empathetic Dialogue Generation: A New Task for Dialog Systems
- Ling.Yu Zhu, Zhengkun Zhang, Jun Wang, Hongbin Wang, Haiying Wu, Zhenglu Yang
- TLDR: Wir stellen eine neue Aufgabe vor, die Multi-Party Empathic Dialogue Generation, SDMPED, vor.
- MISC: A Mixed Strategy-Aware Model integrating COMET for Emotional Support Conversation
- Quan Tu, Yanran Li, Jianwei Cui, Bin Wang, Ji-Rong Wen, Rui Yan
- TLDR: Wir schlagen ein neuartiges Modell vor, das die Emotionen eines Benutzers in einer Gesprächsverantwortung erfasst.
- GLM: General Language Model Pretraining with Autoregressive Blank Infilling
- Zhengxiao Du, Yujie Qian, Xiao Liu, Ming Ding, Jiezhong Qiu, Zhilin Yang, Jie Tang
- TLDR: Wir schlagen ein Generalisierungsmodell vor, das auf autoregressive Blätterfüllung basiert und die beste Leistung bei einer Vielzahl von Aufgaben auf der Grundlage von BERT und T5 erzielt.
- QuoteR: A Benchmark of Quote Recommendation for Writing
- Fanchao Qi, Yanhui Yang, Jing Yi, Zhili Cheng, Zhiyuan Liu, Maosong Sun
- TLDR: Wir schlagen ein neues, vollständig open-Framework zur Vorhersage von Zitaten vor, das die Verwendung von Zitaten in Texten verbessert.
- Towards Comprehensive Patent Approval Predictions:Beyond Traditional Document Classification
- Xiaochen Gao, Zhaoyi Hou, Yifei Ning, Kewen Zhao, Beilei He, Jingbo Shang, Vish Krishnan
- TLDR: Wir stellen eine neue Methode vor, die die Verzerrung der Verzerrung eines bestehenden Modells in Bezug auf die Verzerrung des Modells ermöglicht.
- Hypergraph Transformer: Weakly-Supervised Multi-hop Reasoning for Knowledge-based Visual Question Answering
- Yu-Jung Heo, Eun-Sol Kim, Woo Suk Choi, Byoung-Tak Zhang
- TLDR: Wir stellen Hypergraphen vor, ein Konzept zur Kodierung von Fragen und Wissensdaten, und verwenden es, um tiefe Konsistenz- und Interaktionsmuster zu erlernen.
- Cross-Utterance Conditioned VAE for Non-Autoregressive Text-to-Speech
- Yang Li, Cheng Yu, Guangzhi Sun, Hua Jiang, Fanglei Sun, Weiqin Zu, Ying Wen, Yang Yang, Jun Wang
- TLDR: Wir schlagen eine Methode vor, die die Konditionierung von Prosody-Bemerkungen für die Sprachausgabe in Text-to-Speech-Systemen ermöglicht.
- Mix and Match: Learning-free Controllable Text Generationusing Energy Language Models
- Fatemehsadat Mireshghallah, Kartik Goyal, Taylor Berg-Kirkpatrick
- TLDR: Wir schlagen Mix and Match LM vor, eine globale Score-basierte Alternative für kontrollierte Texterzeugung, die eine beliebige Black-Box-Architektur kombiniert, um die gewünschten attributen in den generierten Text ohne Einschränkungen zu erreichen.
- So Different Yet So Alike! Constrained Unsupervised Text Style Transfer
- Abhinav Ramesh Kashyap, Devamanyu Hazarika, Min-Yen Kan, Roger Zimmermann, Soujanya Poria
- TLDR: Wir stellen zwei complementary Losses für die GAN-Architektur vor und zeigen, dass sie die Textqualität verbessern.
- e-CARE: a New Dataset for Exploring Explainable Causal Reasoning
- Li Du, Xiao Ding, Kai Xiong, Ting Liu, Bing Qin
- TLDR: Wir stellen einen Datensatz für die Erklärung von Kausalen Schlussfolgerungen vor, der über 20K Kausalen Fragen enthält.
- Fantastic Questions and Where to Find Them: FairytaleQA – An Authentic Dataset for Narrative Comprehension
- Ying Xu, Dakuo Wang, Mo Yu, Daniel Ritchie, Bingsheng Yao, Tongshuang Wu, Zheng Zhang, Toby Li, Nora Bradford, Branda Sun, Tran Hoang, Yisi Sang, Yufang Hou, Xiaojuan Ma, Diyi Yang, Nanyun Peng, Zhou Yu, Mark Warschauer
- TLDR: Wir stellen FairytaleQA vor, einen Datensatz, der die Sprachverständnisse von Kleinkindern erfasst.
- KaFSP: Knowledge-Aware Fuzzy Semantic Parsing for Conversational Question Answering over a Large-Scale Knowledge Base
- Junzhuo Li, Deyi Xiong
- TLDR: Wir schlagen einen Wissensbasierten Fuzzy-Parsing-Rahmen vor, um die Unsicherheit bei der Beantwortung von Fragen zu lösen.
- Multilingual Knowledge Graph Completion with Self-Supervised Adaptive Graph Alignment
- Zijie Huang, Zheng Li, Haoming Jiang, Tianyu Cao, Hanqing Lu, Bing Yin, Karthik Subbian, Yizhou Sun, Wei Wang
- TLDR: Wir schlagen eine selbstüberwachte adaptive Graphenabgleichung vor, die die Wissensgraphen in mehreren Sprachen vollständig überträgt.
- Modeling Hierarchical Syntax Structure with Triplet Position for Source Code Summarization
- Juncai Guo, Jin Liu, Yao Wan, Li Li, Pingyi Zhou
- TLDR: Wir schlagen eine neuartige triplet-Position vor, um die syntaktische Struktur von Code zu modellieren.
- FewNLU: Benchmarking State-of-the-Art Methods for Few-Shot Natural Language Understanding
- Yanan Zheng, Jing Zhou, Yujie Qian, Ming Ding, Chonghua Liao, Li Jian, Ruslan Salakhutdinov, Jie Tang, Sebastian Ruder, Zhilin Yang
- TLDR: Wir stellen FewNLU vor, eine Methode, die auf NLU-Aufgaben gut abschneidet.
- Learn to Adapt for Generalized Zero-Shot Text Classification
- Yiwen Zhang, Caixia Yuan, Xiaojie Wang, Ziwei Bai, Yongbin Liu
- TLDR: Wir schlagen ein neues Lernnetzwerk vor, das die Klassifizierung von Texten aus gesehenen und unbekannten Klassen adaptiv angeht.
- TableFormer: Robust Transformer Modeling for Table-Text Encoding
- Jingfeng Yang, Aditya Gupta, Shyam Upadhyay, Luheng He, Rahul Goel, Shachi Paul
- TLDR: Wir schlagen eine robuste und strukturell aufmerksame Table-Text-Encoder-Architektur TableFormer vor, die tabular struktureller Biases vollständig durch Lernable Attention Biases in die Texterzeugung integriert.
- Perceiving the World: Question-guided Reinforcement Learning for Text-based Games
- Yunqiu Xu, Meng Fang, Ling Chen, Yali Du, Joey Zhou, Chengqi Zhang
- TLDR: Wir stellen Welt-persönliche Module vor, die automatisch Aufgaben und Prune-Aktions lösen, indem sie Fragen über die Umgebung beantworten.
- Neural Label Search for Zero-Shot Multi-Lingual Extractive Summarization
- Ruipeng Jia, Xingxing Zhang, Yanan Cao, Zheng Lin, Shi Wang, Furu Wei
- TLDR: Wir schlagen eine neue Methode zur Sprachauswahl vor, die hierarchisch Gewichte für die Erfassung von Texten in mehreren Sprachdatensätzen erlernt.
- Few-Shot Class-Incremental Learning for Named Entity Recognition
- Rui Wang, Tong Yu, Handong Zhao, Sungchul Kim, Subrata Mitra, Ruiyi Zhang, Ricardo Henao
- TLDR: Wir stellen ein Problem vor, das auf der Klassifizierung von Klassen basiert und das Lernen von Klassen mit mehreren Labels.
- Improving Meta-learning for Low-resource Text Classification and Generation via Memory Imitation
- Yingxiu Zhao, Zhiliang Tian, Huaxiu Yao, Yinhe Zheng, Dongkyu Lee, Yiping Song, Jian Sun, Nevin Zhang
- TLDR: Wir schlagen eine Memory Imitation Meta-Learning-Methode vor, die die Reliance auf Unterstützungssets für die Anpassung von Aufgaben erhöht.
- Quality Controlled Paraphrase Generation
- Elron Bandel, Ranit Aharonov, Michal Shmueli-Scheuer, Ilya Shnayderman, Noam Slonim, Liat Ein-Dor
- TLDR: Wir schlagen QCPG vor, ein Qualitätskontrolliertes Paraphrase-Generierungsmodell, das die Qualitätsdimensionen direkt über die Paraphrase erzeugt.
- Controllable Dictionary Example Generation: Generating Example Sentences for Specific Targeted Audiences
- Xingwei He, Siu Ming Yiu
- TLDR: Wir stellen das Problem der Erstellung von Beispielsätzen für Wörter vor, die in einer Wörterbüchern zur Verwendung von Zielwörtern verwendet werden.
- AraT5: Text-to-Text Transformers for Arabic Language Generation
- El Moatez Billah Nagoudi, AbdelRahim Elmadany, Muhammad Abdul-Mageed
- TLDR: Wir stellen eine neue Benchmark-Architektur für die Erkennung und Generierung von Sprachstilen vor und stellen eine neue SOTA vor, die auf der jüngsten ARLUE-Benchmark-Evaluierung basiert.
- Legal Judgment Prediction via Event Extraction with Constraints
- Yi Feng, Chuanyi Li, Vincent Ng
- TLDR: Wir schlagen EPM vor, ein Event-basiertes Prediction Model mit Einschränkungen, das auf einem standardmäßigen LJP-Datensätzen aufhört.
- Answer-level Calibration for Free-form Multiple Choice Question Answering
- Sawan Kumar
- TLDR: Wir modellieren kontextabhängige Biases in der Antwort-Level-Calbration, um die Wahrscheinlichkeit von Texten, die ohne Kontext verfügbar sind, zu reduzieren.
- Learning When to Translate for Streaming Speech
- Qian Dong, Yaoming Zhu, Mingxuan Wang, Lei Li
- TLDR: Wir schlagen MoSST vor, eine einfache, aber effektive Methode zur Sprachübersetzung von Texten, die auf einem Streaming-Zugriff zugewiesen sind.
- Compact Token Representations with Contextual Quantization for Efficient Document Re-ranking
- Yingrui Yang, Yifan Qiao, Tao Yang
- TLDR: Wir schlagen eine kontextuelle Quantisierung von Text-zu-Kennungen vor, die die Verwendung von Text-zu-Kennungen ermöglicht.
- Early Stopping Based on Unlabeled Samples in Text Classification
- HongSeok Choi, Dongha Choi, Hyunju Lee
- TLDR: Wir schlagen eine Methode vor, die unbeschriftete Sampling-Sampling-Sampler verwendet, um eine bessere Schlussfolgerungen zu ziehen.
- Meta-learning via Language Model In-context Tuning
- Yanda Chen, Ruiqi Zhong, Sheng Zha, George Karypis, He He
- TLDR: Wir schlagen Meta-Lernen vor, um die Fähigkeit zu trainieren, sich an eine neue Aufgabe zu adaptieren, indem wir nur eine kleine Anzahl von Beispielen verwenden.
- It is AI’s Turn to Ask Humans a Question: Question-Answer Pair Generation for Children’s Story Books
- Bingsheng Yao, Dakuo Wang, Tongshuang Wu, Zheng Zhang, Toby Li, Mo Yu, Ying Xu
- TLDR: Wir stellen eine QAG vor, die die Frage-Antwort-Generierung (QAG) ermöglicht.
- Prompt-Based Rule Discovery and Boosting for Interactive Weakly-Supervised Learning
- Rongzhi Zhang, Yue Yu, Pranav Shetty, Le Song, Chao Zhang
- TLDR: Wir stellen ein iteratives und automatisches Label-Entdeckungs- und Modell-Boosting-Modell vor, das die Label-Schwäche effektiv und effektiv beseitigen kann.
- Constrained Multi-Task Learning for Bridging Resolution
- Hideo Kobayashi, Yufang Hou, Vincent Ng
- TLDR: Wir stellen einen Rahmen vor, der die Beantwortung von Richtlinien für die Beseitigung von Abhängigkeiten ermöglicht.
- DEAM: Dialogue Coherence Evaluation using AMR-based Semantic Manipulations
- Sarik Ghazarian, Nuan Wen, Aram Galstyan, Nanyun Peng
- TLDR: Wir schlagen eine neue Methode vor, die auf Abstract Meaning Representation (AMR) beruht, um semantiker Ebenenmanipulations für incoherente (negative) Datenerzeugung zu verwenden.
- HIBRIDS: Attention with Hierarchical Biases for Structure-aware Long Document Summarization
- Shuyang Cao, Lu Wang
- TLDR: Wir stellen eine neue Aufgabe vor, eine hierarchische Frage-Summengenerierung, die die Inhaltsausgangsfrage eines Dokuments in eine hierarchische Hierarchie umwandelt.
- De-Bias for Generative Extraction in Unified NER Task
- Shuai Zhang, Yongliang Shen, Zeqi Tan, Yiquan Wu, Weiming Lu
- TLDR: Wir analysieren und lösen Probleme bei der Entitätserkennung und identifizieren sie mit Hilfe von Backdoor-Adjustment.
- An Information-theoretic Approach to Prompt Engineering Without Ground Truth Labels
- Taylor Sorensen, Joshua Robinson, Christopher Rytting, Alexander Shaw, Kyle Rogers, Alexia Delorey, Mahmoud Khalil, Nancy Fulda, David Wingate
- TLDR: Wir stellen eine Methode vor, die die Auswahl von Vorgängermustern für die Sprachmodellierung ermöglicht.
- Expanding Pretrained Models to Thousands More Languages via Lexicon-based Adaptation
- Xinyi Wang, Sebastian Ruder, Graham Neubig
- TLDR: Wir analysieren und entwickeln Methoden zur Synthese von Texten aus Texten, die in einer Zielsprache verwendet werden, und zeigen, wie diese Daten mit einem monolingualen oder parallelen Text kombiniert werden können.
- Language-agnostic BERT Sentence Embedding
- Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, Wei Wang
- TLDR: Wir stellen ein neues BERT-basiertes Multi-Lingual-Szenen-Einbettungsmodell vor, das die Leistung bei der Erfassung von Text in mehreren Sprachen übertrifft.
- Nested Named Entity Recognition with Span-level Graphs
- Juncheng Wan, Dongyu Ru, Weinan Zhang, Yong Yu
- TLDR: Wir verwenden Retrieval-basiertes Spann-Ebene-Graphen, um Entitäten in den Trainingsdaten zu verknüpfen.
- CogTaskonomy: Cognitively Inspired Task Taxonomy Is Beneficial to Transfer Learning in NLP
- Yifei Luo, Minghui Xu, Deyi Xiong
- TLDR: Wir schlagen einen kognitiven Rahmen vor, CogTaxonomy, um einen taxonomenischen Rahmen für NLP-Aufgaben zu lernen.
- RoCBert: Robust Chinese Bert with Multimodal Contrastive Pretraining
- Hui Su, Weiwei Shi, Xiaoyu Shen, Zhou Xiao, Tuo Ji, Jiarui Fang, Jie Zhou
- TLDR: Wir schlagen ein pretenartiges Chinesisch-Brett vor, das robust gegenüber verschiedenen Formen von Angriffen wie Wortstörungen, synonymen, Typos usw. ist.
- Premise-based Multimodal Reasoning: Conditional Inference on Joint Textual and Visual Clues
- Qingxiu Dong, Ziwei Qin, Heming Xia, Tian Feng, Shoujie Tong, Haoran Meng, Lin Xu, Zhongyu Wei, Weidong Zhan, Baobao Chang, Sujian Li, Tianyu Liu, Zhifang Sui
- TLDR: Wir schlagen eine Aufgabe vor, die auf einer Text-Basis-Architektur basiert, und verwenden sie, um eine Hypothese und einen Stichprobenausgleich zu erstellen.
- Parallel Instance Query Network for Named Entity Recognition
- Yongliang Shen, Xiaobin Wang, Zeqi Tan, Guangwei Xu, Pengjun Xie, Fei Huang, Weiming Lu, Yueting Zhuang
- TLDR: Wir stellen ein paralleles Instanz-Framework vor, das auf globalen und lernbaren Instanz-Frameworks verwendet werden kann, um Entitäten aus einer Satzausgabe parallel zu extrahieren.
- ProphetChat: Enhancing Dialogue Generation with Simulation of Future Conversation
- Chang Liu, Xu Tan, Chongyang Tao, Zhenxin Fu, Dongyan Zhao, Tie-Yan Liu, Rui Yan
- TLDR: Wir schlagen einen neuen Dialoggenerationsrahmen vor, der die Simulationen von Dialogen in der Inferenzphase nutzt, um eine informative Antwort zu generieren.
- Modeling Multi-hop Question Answering as Single Sequence Prediction
- Semih Yavuz, Kazuma Hashimoto, Yingbo Zhou, Nitish Shirish Keskar, Caiming Xiong
- TLDR: Wir schlagen einen einfachen generativen Ansatz vor, der die Antwort für mehrere Aufgaben erweitert.
- Learning Disentangled Semantic Representations for Zero-Shot Cross-Lingual Transfer in Multilingual Machine Reading Comprehension
- Linjuan Wu, Shaojuan Wu, Xiaowang Zhang, Deyi Xiong, Shizhan Chen, Zhiqiang Zhuang, Zhiyong Feng
- TLDR: Wir schlagen ein neues Multilingual MRC-Rahmen vor, das auf Siamesisches Semantic Disentanglement Model (S2DM) angebaut wird, um Syntax- und Semantik-Eigenschaften in Repräsentationen von mehreren Sprachen zu übertragen.
- Multi-Granularity Structural Knowledge Distillation for Language Model Compression
- Chang Liu, Chongyang Tao, Jiazhan Feng, Dongyan Zhao
- TLDR: Wir stellen einen neuartigen Wissensdestillationsrahmen vor, der die Wissensvielfalt aus mehreren Spracheinheiten in einem einzigen Satz kodiert.
- Auto-Debias: Debiasing Masked Language Models with Automated Biased Prompts
- Yue Guo, Yi Yang, Ahmed Abbasi
- TLDR: Wir schlagen eine automatische Methode vor, um die Verzerrungen in pretrierten Sprachmodellen zu beseitigen.
- Where to Go for the Holidays: Towards Mixed-Type Dialogs for Clarification of User Goals
- Zeming Liu, Jun Xu, Zeyang Lei, Haifeng Wang, Zheng-Yu Niu, Hua Wu
- TLDR: Wir schlagen ein neues menschliches-humanes Dialogmodell vor, das auf Prompt-basierter kontinuierlicher Lernmechanismus für Dialoge mit mehreren Typen und mehreren Domänen verwendet werden kann.
- Semi-supervised Domain Adaptation for Dependency Parsing with Dynamic Matching Network
- Ying Li, Shuaike Li, Min Zhang
- TLDR: Wir schlagen ein dynamisches Matching Network vor, um die Fähigkeit eines halbüberwachten Modells zur Abhängigkeitsparsing zu verbessern.
- A Closer Look at How Fine-tuning Changes BERT
- Yichu Zhou, Vivek Srikumar
- TLDR: Wir stellen fest, dass Fine-Tuning die Raumdynamik in BERT-Repräsentationen verbessert.
- Sentence-aware Contrastive Learning for Open-Domain Passage Retrieval
- Wu Hong, Zhuosheng Zhang, Jinyuan Wang, Hai Zhao
- TLDR: Wir stellen negatives Sampling vor, um eine Vielfalt von Satzrepräsentationen innerhalb eines Passagenraums zu fördern.
- FaiRR: Faithful and Robust Deductive Reasoning over Natural Language
- Soumya Sanyal, Harman Singh, Xiang Ren
- TLDR: Wir stellen eine neue Methode vor, die die Regeln und die Behauptungsgraphen kombiniert, um die Inferenz von Black-Box-Modellen zu erklären.
- HiTab: A Hierarchical Table Dataset for Question Answering and Natural Language Generation
- Zhoujun Cheng, Haoyu Dong, Zhiruo Wang, Ran Jia, Jiaqi Guo, Yan Gao, Shi Han, Jian-Guang Lou, Dongmei Zhang
- TLDR: Wir stellen einen Datensatz zur Beantwortung von Fragen und zur Generierung von Erklärungen vor, der hierarchisch strukturierte Datensätze nutzt.
- Doctor Recommendation in Online Health Forums via Expertise Learning
- Xiaoxin Lu, Yubo Zhang, Jing Li, Shi Zong
- TLDR: Wir stellen eine neue Aufgabe vor, die die Empfehlung eines Arztes anhand von Benutzerprofilen und Vorurteilen ermöglicht.
- Continual Prompt Tuning for Dialog State Tracking
- Qi Zhu, Bing Li, Fei Mi, Xiaoyan Zhu, Minlie Huang
- TLDR: Wir schlagen einen Rahmen vor, der nicht nur das Vergessen von Prompt-Tätzen ermöglicht, sondern auch Wissenstransfer zwischen Aufgaben ermöglicht.
- There’s a Time and Place for Reasoning Beyond the Image
- Xingyu Fu, Ben Zhou, Ishaan Chandratreya, Carl Vondrick, Dan Roth
- TLDR: Wir stellen ein neues Modell vor, das segmentweise Schlussfolgerungen ziehen kann, um die Bildzeit und -lokalität zu lokalisieren.
- FORTAP: Using Formulas for Numerical-Reasoning-Aware Table Pretraining
- Zhoujun Cheng, Haoyu Dong, Ran Jia, Pengfei Wu, Shi Han, Fan Cheng, Dongmei Zhang
- TLDR: Wir schlagen FORTAP vor, eine Methode zur Verwendung von Formulierungen für das Vortraining von Tabellen.
- Multimodal fusion via cortical network inspired losses
- Shiv Shankar
- TLDR: Wir stellen eine neuronale Abhängigkeitsverschiebung vor, die die Leistung bei der Erfassung von Emotionen verbessert.
- Modeling Temporal-Modal Entity Graph for Procedural Multimodal Machine Comprehension
- Huibin Zhang, Zhengkun Zhang, Yao Zhang, Jun Wang, Yufan Li, Ning Jiang, Xin Wei, Zhenglu Yang
- TLDR: Wir schlagen einen neuen, zeitlich und zeitlich konvergierenden Entity Graphen vor, der auf graphenbasiertes Modellieren und Schlussfolgerungen ziehen kann.
- Explanation Graph Generation via Pre-trained Language Models: An Empirical Study with Contrastive Learning
- Swarnadeep Saha, Prateek Yadav, Mohit Bansal
- TLDR: Wir analysieren die Strukturen und die Semantik von Erklärunggraphen und schlagen eine Methode vor, die diese Probleme lösen kann.
- Unsupervised Extractive Opinion Summarization Using Sparse Coding
- Somnath Basu Roy Chowdhury, Chao Zhao, Snigdha Chaturvedi
- TLDR: Wir stellen einen Algorithmus zur Erstellung von Zusammenfassungen vor, der die Meinung von Nutzern in Texten erfassen kann.
- LexSubCon: Integrating Knowledge from Lexical Resources into Contextual Embeddings for Lexical Substitution
- George Michalopoulos, Ian McKillop, Alexander Wong, Helen Chen
- TLDR: Wir stellen LexSubCon vor, eine lexikalische Vertauschungsmetrik, die auf kontextuellen Einbettungen für die lexikalische Vertauschung von Worten basiert.
- Think Before You Speak: Explicitly Generating Implicit Commonsense Knowledge for Response Generation
- Pei Zhou, Karthik Gopalakrishnan, Behnam Hedayatnia, Seokhwan Kim, Jay Pujara, Xiang Ren, Yang Liu, Dilek Hakkani-Tur
- TLDR: Wir stellen Think-Before-Speaking (TBS) vor, einen generativen Ansatz, der implizites, allgemeines Wissen (wie z. B. RL) first externalisiert.
- Flow-Adapter Architecture for Unsupervised Machine Translation
- Yihong Liu, Haris Jabbar, Hinrich Schuetze
- TLDR: Wir schlagen eine Flüssigkeitsverschiebungsarchitektur vor, die die Sprachverteilungen von Satzrepräsentationen auf Satzebene modelliert.
- Efficient Unsupervised Sentence Compression by Fine-tuning Transformers with Reinforcement Learning
- Demian Ghalandari, Chris Hokamp, Georgiana Ifrim
- TLDR: Wir verwenden Reinforcement Learning, um effektive Satzkompressionsmodelle zu trainieren, die auch schnell bei der Erzeugung von Vorhersagen sind.
- Tracing Origins: Coreference-aware Machine Reading Comprehension
- Baorong Huang, Zhuosheng Zhang, Hai Zhao
- TLDR: Wir verwenden Coreference-Informationen, um das Verständnis von Verständnis für die Coreference-Bemerkungen zu fördern.
- WatClaimCheck: A new Dataset for Claim Entailment and Inference
- Kashif Khan, Ruizhe Wang, Pascal Poupart
- TLDR: Wir stellen einen Datensatz für die Aufgabe der automatisierten Behauptung und eine Bewertung von State of the Art Algorithmen vor.
- FrugalScore: Learning Cheaper, Lighter and Faster Evaluation Metrics for Automatic Text Generation
- Moussa Kamal Eddine, Guokan Shang, Antoine Tixier, Michalis Vazirgiannis
- TLDR: Wir schlagen FrugalScore vor, einen Ansatz, der eine fixed, low-cost Version von jeder beliebigen NLG-Metrik lernt, während die meisten von ihrer original Leistung erhalten bleibt.
- A Well-Composed Text is Half Done! Composition Sampling for Diverse Conditional Generation
- Shashi Narayan, Gonçalo Simões, Yao Zhao, Joshua Maynez, Dipanjan Das, Michael Collins, Mirella Lapata
- TLDR: Wir schlagen eine einfache aber effektive Methode zur Bestimmung von Texten vor, die die Texterzeugung von mehreren Teilen reduziert.
- Synthetic Question Value Estimation for Domain Adaptation of Question Answering
- Xiang Yue, Ziyu Yao, Huan Sun
- TLDR: Wir stellen eine neue Idee vor, die die Verwendung synthetischer Fragen für die Verbesserung der Ziel-Domänen-QA ermöglicht.
- Better Language Model with Hypernym Class Prediction
- He Bai, Tong Wang, Alessandro Sordoni, Peng Shi
- TLDR: Wir stellen die Verzerrung in der Sprachausgangssprache vor und schlagen eine neue Methode vor, um die Verzerrung in
- Tackling Fake News Detection by Continually Improving Social Context Representations using Graph Neural Networks
- Nikhil Mehta, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: Wir stellen die Verbreitung von Verfälschungen in sozialen Medien vor und verwenden Inferenzoperatoren, um die Verbreitung von Verfälschungen zu verhindern.
- Understanding Gender Bias in Knowledge Base Embeddings
- Yupei Du, Qi Zheng, Yuanbin Wu, Man Lan, Yan Yang, Meirong Ma
- TLDR: Wir stellen eine Methode vor, die KB-Tripel in KB-Einbettungen mit genderspezifischen Biases entfernt.
- Computational Historical Linguistics and Language Diversity in South Asia
- Aryaman Arora, Adam Farris, Samopriya Basu, Suresh Kolichala
- TLDR: Wir stellen fest, dass die Datenknappheit ein Haupthindernis für die Entwicklung von Sprachtechnologien in der Region ist und schlagen neue Strategien vor, um die Datenknappheit zu überwinden.
- Faithful or Extractive? On Mitigating the Faithfulness-Abstractiveness Trade-off in Abstractive Summarization
- Faisal Ladhak, Esin Durmus, He He, Claire Cardie, Kathleen McKeown
- TLDR: Wir stellen eine Methode vor, die die Beobachtungsfreundlichkeit bei der abstrakten Zusammenfassung verbessert.
- Slangvolution: A Causal Analysis of Semantic Change and Frequency Dynamics in Slang
- Daphna Keidar, Andreas Opedal, Zhijing Jin, Mrinmaya Sachan
- TLDR: Wir analysieren und quantifizieren die Auswirkungen der Semantik und der Frequenzverschiebung auf die Sprachentwicklung und zeigen, dass die Semantik von Worttypen, die sich auf die Sprachentwicklung auswirken, weniger semantische Veränderungen und weniger Frequenzverschiebungen zeigen.
- Spurious Correlations in Reference-Free Evaluation of Text Generation
- Esin Durmus, Faisal Ladhak, Tatsunori Hashimoto
- TLDR: Wir stellen fest, dass die Referenz-Faltungsmetriken von Zusammenfassungs- und Dialoggenerierungen auf Verfälschungen beruhen.
- On The Ingredients of an Effective Zero-shot Semantic Parser
- Pengcheng Yin, John Wieting, Avirup Sil, Graham Neubig
- TLDR: Wir analysieren und lösen Sprach- und Programmabweichungen durch Sprach- und Logikverzerrungen.
- Bias Mitigation in Machine Translation Quality Estimation
- Hanna Behnke, Marina Fomicheva, Lucia Specia
- TLDR: Wir analysieren und schlagen vier Ansätze vor, um die Partial-Input-Biases zu reduzieren und gleichzeitig die Qualität von Translationen zu bewerten.
- Unified Speech-Text Pre-training for Speech Translation and Recognition
- Yun Tang, Hongyu Gong, Ning Dong, Changhan Wang, Wei-Ning Hsu, Jiatao Gu, Alexei Baevski, Xian Li, Abdelrahman Mohamed, Michael Auli, Juan Pino
- TLDR: Wir schlagen eine Methode vor, die die Sprach- und Text-Übersetzungen in einem Encoder-Decoder-Modell für die Spracherkennung und -übertragung verbindet.
- Match the Script, Adapt if Multilingual: Analyzing the Effect of Multilingual Pretraining on Cross-lingual Transferability
- Yoshinari Fujinuma, Jordan Boyd-Graber, Katharina Kann
- TLDR: Wir stellen eine neue Frage vor, die die Anzahl der Vortrainingsprachen für die Sprachauswahl von Menschen in unbekannten Sprachräumen bewirkt.
- Structured Pruning Learns Compact and Accurate Models
- Mengzhou Xia, Zexuan Zhong, Danqi Chen
- TLDR: Wir schlagen eine Strukturierte Pruning-Methode CoFi vor, die die von den Deep Learning-Methoden abhängt und die von den Pruning-Methoden vergleichbaren Modellen mit einem kleinen Bruchteil an Geschwindigkeiten und einer kleinen Genauigkeit erreicht.
- How can NLP Help Revitalize Endangered Languages? A Case Study and Roadmap for the Cherokee Language
- Shiyue Zhang, Ben Frey, Mohit Bansal
- TLDR: Wir schlagen drei Prinzipien vor, die NLP-Practitioners dazu anstellen können, die Sprachen von Menschen aus der Cherokee-Gesellschaft zu erhalten.
- Differentiable Multi-Agent Actor-Critic for Multi-Step Radiology Report Summarization
- Sanjeev Kumar Karn, Ning Liu, Hinrich Schuetze, Oladimeji Farri
- TLDR: Wir stellen eine neue Methode zur Zusammenfassung von radiologischen Berichten vor, die eine abstrakte Schlussfolgerung und eine leicht zu beschriftende IMPRESSIONS-Struktur ermöglicht.
- Online Semantic Parsing for Latency Reduction in Task-Oriented Dialogue
- Jiawei Zhou, Jason Eisner, Michael Newman, Emmanouil Antonios Platanios, Sam Thomson
- TLDR: Wir schlagen einen neuen Ansatz vor, um die latente Parsing-Qualität von Funktionen zu verbessern.
- Few-Shot Tabular Data Enrichment Using Fine-Tuned Transformer Architectures
- Asaf Harari, Gilad Katz
- TLDR: Wir schlagen Few-Shot Transformer based Enrichment (FeSTE) vor, einen Rahmen für die Erweiterung von tabellarischen Datensätzen mit strukturierten Daten.
- Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues and Documents
- Yusen Zhang, Ansong Ni, Ziming Mao, Chen Henry Wu, Chenguang Zhu, Budhaditya Deb, Ahmed Awadallah, Dragomir Radev, Rui Zhang
- TLDR: Wir schlagen Summ vor, eine Sprachmodellierung, die die Texterzeugung von Dokumenten, Nachrichten, Beobachtungen und Gesprächen ermöglicht.
- Open Domain Question Answering with A Unified Knowledge Interface
- Kaixin Ma, Hao Cheng, Xiaodong Liu, Eric Nyberg, Jianfeng Gao
- TLDR: Wir schlagen einen Verallgemeinerer-Retriever-Reader-Rahmen vor, der auf Daten und Text mit Texten verallgemeinert und die Entflechtung von Wissensdaten nutzt.
- Principled Paraphrase Generation with Parallel Corpora
- Aitor Ormazabal, Mikel Artetxe, Aitor Soroa, Gorka Labaka, Eneko Agirre
- TLDR: Wir stellen eine neue Methode zur Paraphrasegenerierung vor, die die Ähnlichkeit zwischen den Paraphrasenpaaren minimiert.
- GlobalWoZ: Globalizing MultiWoZ to Develop Multilingual Task-Oriented Dialogue Systems
- Bosheng Ding, Junjie Hu, Lidong Bing, Mahani Aljunied, Shafiq Joty, Luo Si, Chunyan Miao
- TLDR: Wir stellen GlobalWoZ vor, einen groß angelegten Datensatz für drei unexplorierte Verwendungsfälle von Multilingual Dialogsystemen.
- Domain Knowledge Transferring for Pre-trained Language Model via Calibrated Activation Boundary Distillation
- Dongha Choi, HongSeok Choi, Hyunju Lee
- TLDR: Wir schlagen einen Domänenwissentransferrahmen vor, der auf PLMs übertragen werden kann, ohne zusätzliches in-Domain-Vortraining.
- Retrieval-guided Counterfactual Generation for QA
- Bhargavi Paranjape, Matthew Lamm, Ian Tenney
- TLDR: Wir stellen eine Retrieve-Generate-Filter-Methode vor, um Datenerweiterungsprobleme mit geringen Störungen zu lösen.
- DYLE: Dynamic Latent Extraction for Abstractive Long-Input Summarization
- Ziming Mao, Chen Henry Wu, Ansong Ni, Yusen Zhang, Rui Zhang, Tao Yu, Budhaditya Deb, Chenguang Zhu, Ahmed Awadallah, Dragomir Radev
- TLDR: Wir stellen DYLE vor, einen dynamischen latenten Ansatz zur abstrakten Long-Input-Suchvervollständigung.
- Searching for fingerspelled content in American Sign Language
- Bowen Shi, Diane Brentari, Greg Shakhnarovich, Karen Livescu
- TLDR: Wir schlagen ein FSS-Net vor, das fingergeschriebene Worte oder Schlüsselwörter in signsprachenvideos erkennt und die Suche nach ihnen und die Texterzeugung kombiniert.
- Skill Induction and Planning with Latent Language
- Pratyusha Sharma, Antonio Torralba, Jacob Andreas
- TLDR: Wir stellen eine Methode vor, die auf Demonstrationen trainiert wird, um hierarchische Strategien aus Demonstrationen zu lernen.
- Fully-Semantic Parsing and Generation: the BabelNet Meaning Representation
- Abelardo Carlos Martínez Lorenzo, Marco Maru, Roberto Navigli
- TLDR: Wir stellen eine neue Sprachformalität vor, die sprachenabhängige Repräsentationen von Bedeutungen erzeugt.
- Leveraging Similar Users for Personalized Language Modeling with Limited Data
- Charles Welch, Chenxi Gu, Jonathan K. Kummerfeld, Veronica Perez-Rosas, Rada Mihalcea
- TLDR: Wir schlagen eine Lösung vor, die auf Benutzern trainiert wird, die Ähnlichkeiten mit den bestehenden Benutzern zeigen, und verwenden sie, um Sprachmodelle zu erstellen.
- DEEP: DEnoising Entity Pre-training for Neural Machine Translation
- Junjie Hu, Hiroaki Hayashi, Kyunghyun Cho, Graham Neubig
- TLDR: Wir schlagen eine neue Methode vor, die die Entitätsausbreitung in Texten verbessert und gleichzeitig die Sprachqualität erhöht.
- Multi-Modal Sarcasm Detection via Cross-Modal Graph Convolutional Network
- Bin Liang, Chenwei Lou, Xiang Li, Min Yang, Lin Gui, Yulan He, Wenjie Pei, Ruifeng Xu
- TLDR: Wir verwenden visuelle und sprachliche Informationen, um die Multi-Modal-Sarkahmuserkennung aus einer neuen Perspektive zu untersuchen.
- Composable Sparse Fine-Tuning for Cross-Lingual Transfer
- Alan Ansell, Edoardo Ponti, Anna Korhonen, Ivan Vulić
- TLDR: Wir stellen eine neue Fine-Tuning-Methode vor, die auf Lottery-Ticket Hypothesis basiert und die besten Ergebnisse bei Sprachtransfers erzielt.
- Toward Annotator Group Bias in Crowdsourcing
- Haochen Liu, Joseph Thekinen, Sinem Mollaoglu, Da Tang, Ji Yang, Youlong Cheng, Hui Liu, Jiliang Tang
- TLDR: Wir stellen eine neue Methode vor, GroupAnno, um die Gruppierung von Annotatoren zu identifizieren und zu modellieren.
- Under the Morphosyntactic Lens: A Multifaceted Evaluation of Gender Bias in Speech Translation
- Beatrice Savoldi, Marco Gaido, Luisa Bentivogli, Matteo Negri, Marco Turchi
- TLDR: Wir stellen eine empirische Studie vor, die genderspezifische Sprachverzerrungen in MuST-SHE-Korpus und in Sprachverzerrungen untersucht.
- Answering Open-Domain Multi-Answer Questions via a Recall-then-Verify Framework
- Zhihong Shao, Minlie Huang
- TLDR: Wir stellen einen ReRank-then-Verify-Rahmen vor, der die Antwort auf offene Fragen mit einer Reihe von Erklärungsverzerrungen verbindet.
- Probing as Quantifying Inductive Bias
- Alexander Immer, Lucas Torroba Hennigen, Vincent Fortuin, Ryan Cotterell
- TLDR: Wir stellen fest, dass die Aufgabe des Probens die Bestimmung von Induktiven Biasen in den Repräsentationen bewirkt.
- Probing Structured Pruning on Multilingual Pre-trained Models: Settings, Algorithms, and Efficiency
- Yanyang Li, Fuli Luo, Runxin Xu, Songfang Huang, Fei Huang, Liwei Wang
- TLDR: Wir stellen Dynamic Sparsification vor, einen einfachen Ansatz, der die Strukturierung von Pruning auf Multilingual Pre-trained Language Modellen ermöglicht.
- GPT-D: Inducing Dementia-related Linguistic Anomalies by Deliberate Degradation of Artificial Neural Language Models
- Changye Li, David Knopman, Weizhe Xu, Trevor Cohen, Serguei Pakhomov
- TLDR: Wir schlagen eine Methode vor, die ein Transformer-DL-Modell (GPT-2) vortrainiert, um allgemeine English-Texte zu lernen.
- An Empirical Survey of the Effectiveness of Debiasing Techniques for Pre-trained Language Models
- Nicholas Meade, Elinor Poole-Dayan, Siva Reddy
- TLDR: Wir schlagen eine empirische Umfrage über die jüngsten Vorschläge zur Verhinderung von Diskrepanz zwischen den Sprachmodellen vor und zeigen, dass die Ergebnisse bei der Sprachmodellierung und bei der Spracherkennung gut abschneiden.
- Exploring and Adapting Chinese GPT to Pinyin Input Method
- Minghuan Tan, Yong Dai, Duyu Tang, Zhangyin Feng, Guoping Huang, Jing Jiang, Jiwei Li, Shuming Shi
- TLDR: Wir stellen eine erste Untersuchung vor, die die Verwendung von GPT für die Pinyin-Input Methode ermöglicht.
- Enhancing Cross-lingual Natural Language Inference by Prompt-learning from Cross-lingual Templates
- Kunxun Qi, Hai Wan, Jianfeng Du, Haolan Chen
- TLDR: Wir schlagen einen prompt-learning-basierten Rahmen vor, um die Sprachinferenz von sprachen zu verbessern.
- Sense Embeddings are also Biased – Evaluating Social Biases in Static and Contextualised Sense Embeddings
- Yi Zhou, Masahiro Kaneko, Danushka Bollegala
- TLDR: Wir stellen einen Benchmark-Datensätzen für die Bewertung von sozialen Verzerrungen in Präferenzen von Worteinbettungen vor und schlagen neue Bewertungsmechanismen vor, die soziale Verzerrungen in solchen Einbettungen deutlich reduzieren.
- Hybrid Semantics for Goal-Directed Natural Language Generation
- Connor Baumler, Soumya Ray
- TLDR: Wir stellen eine hybride Methode vor, die auf logistischen Semantiken basiert und die Erzeugung von sprachen mit einer Ziel-Durchleitung optimiert.
- Predicting Intervention Approval in Clinical Trials through Multi-Document Summarization
- Georgios Katsimpras, Georgios Paliouras
- TLDR: Wir schlagen eine neue Methode vor, um die Effizienz einer Behandlung in einer klinischen Studie zu bewerten.
- BiTIIMT: A Bilingual Text-infilling Method for Interactive Machine Translation
- Yanling Xiao, Lemao Liu, Guoping Huang, Qu Cui, Shujian Huang, Shuming Shi, Jiajun Chen
- TLDR: Wir schlagen ein neuartiges BitiIMT-System vor, das auf sprachenunverzerrte Übersetzungen trainiert wird.
- Distributionally Robust Finetuning BERT for Covariate Drift in Spoken Language Understanding
- Samuel Broscheit, Quynh Do, Judith Gaspers
- TLDR: Wir schlagen eine Methode vor, die natürliche Variationen in Daten nutzt, um eine Covariate-Dėjrizierung in SLU zu erzeugen.
- Enhancing Chinese Pre-trained Language Model via Heterogeneous Linguistics Graph
- Yanzeng Li, Jiangxia Cao, Xin Cong, Zhenyu Zhang, Bowen Yu, Hongsong Zhu, Tingwen Liu
- TLDR: Wir schlagen ein Aufgabefreies Linguistik-Graphenmodell vor, das die Sprachstruktur von Chinesischen verbessert.
- Divide and Denoise: Learning from Noisy Labels in Fine-Grained Entity Typing with Cluster-Wise Loss Correction
- Kunyuan Pang, Haoyu Zhang, Jie Zhou, Ting Wang
- TLDR: Wir schlagen einen Cluster-basierten Verlustkorrekturrahmen vor, der auf der Beseitigung von Label-Nichtschwankungen basiert.
- Towards Robustness of Text-to-SQL Models Against Natural and Realistic Adversarial Table Perturbation
- Xinyu Pi, Bing Wang, Yan Gao, Jiaqi Guo, Zhoujun Li, Jian-Guang Lou
- TLDR: Wir schlagen Adversarial Table Perturbation (ATP) vor, einen neuen Angriffsrahmen zur Messung der Robustheit von Text-to-SQL-Modellen.
- Overcoming Catastrophic Forgetting beyond Continual Learning: Balanced Training for Neural Machine Translation
- Chenze Shao, Yang Feng
- TLDR: Wir stellen ein Problem vor, das auf der Verallgemeinerung von neuronalen Netzen beruht und lösen.
- Metaphors in Pre-Trained Language Models: Probing and Generalization Across Datasets and Languages
- Ehsan Aghazadeh, Mohsen Fayyaz, Yadollah Yaghoobzadeh
- TLDR: Wir stellen fest, dass Metaphoren in PLMs kodiert werden, und zwar in den Schichten, in denen sie trainiert wurden.
- Discrete Opinion Tree Induction for Aspect-based Sentiment Analysis
- Chenhua Chen, Zhiyang Teng, Zhongqing Wang, Yue Zhang
- TLDR: Wir schlagen ein diskretes und sprachenbezogenes diskretes latentes Meinungsbild vor, das die Aufmerksamkeits- und Syntaxabstände von den Aufmerksamkeitswerten und den Syntaxabschnitten verbindet.
- Investigating Non-local Features for Neural Constituency Parsing
- Leyang Cui, Sen Yang, Yue Zhang
- TLDR: Wir schlagen eine Methode vor, um nicht-lokale Merkmale in die Planung eines lokalen Parser zu integrieren, indem wir die Verallgemeinerung von Merkmalen in die Planung eines lokalen Parser vorschlagen.
- Learning from Sibling Mentions with Scalable Graph Inference in Fine-Grained Entity Typing
- Yi Chen, Jiayang Cheng, Haiyun Jiang, Lemao Liu, Haisong Zhang, Shuming Shi, Ruifeng Xu
- TLDR: Wir schlagen eine neue Methode vor, die die Verwendung von Sibling-Beschriftungen nutzt, um die typischen Merkmale von Vorurteilen zu verbessern.
- A Variational Hierarchical Model for Neural Cross-Lingual Summarization
- Yunlong Liang, Fandong Meng, Chulun Zhou, Jinan Xu, Yufeng Chen, Jinsong Su, Jie Zhou
- TLDR: Wir schlagen ein hierarchisches Modell für die CLS-Aufgabe vor, das auf einem conditionalen Variational Autoencoder basiert.
- On the Robustness of Question Rewriting Systems to Questions of Varying Hardness
- Hai Ye, Hwee Tou Ng, Wenjuan Han
- TLDR: Wir schlagen einen neuen Rahmen vor, um Fragen mit unterschiedlicher Rewriting-Größigkeit zu beantworten.
- OpenHands: Making Sign Language Recognition Accessible with Pose-based Pretrained Models across Languages
- Prem Selvaraj, Gokul Nc, Pratyush Kumar, Mitesh Khapra
- TLDR: Wir stellen OpenHands vor, eine Bibliothek, die vier Ideen aus der NLP-Community für signsprachen auf Wortsebene nutzt.
- bert2BERT: Towards Reusable Pretrained Language Models
- Cheng Chen, Yichun Yin, Lifeng Shang, Xin Jiang, Yujia Qin, Fengyu Wang, Zhi Wang, Xiao Chen, Zhiyuan Liu, Qun Liu
- TLDR: Wir schlagen BERT vor, eine Methode zur Erweiterung des Wissens eines kleineren Sprachmodells auf ein großes Modell und zur Verbesserung der Sprachausbildung.
- Vision-Language Pre-Training for Multimodal Aspect-Based Sentiment Analysis
- Yan Ling, Jianfei Yu, Rui Xia
- TLDR: Wir schlagen einen Rahmen für Vision-Language-Pre-Training vor, der die Aufgabe der Gefühlsanalyse über mehrere Sprachmodalitäten hinweg erfasst.
- “You might think about slightly revising the title”: Identifying Hedges in Peer-tutoring Interactions
- Yann Raphalen, Chloé Clavel, Justine Cassell
- TLDR: Wir verwenden ein Modell zur Erklärung von Merkmalen, die die Merkmale von Hegschaften in Gesprächen charakterisieren, und wir identifizieren einige neue Merkmale und die Vorteile eines solchen Modells.
- Efficient Cluster-Based k-Nearest-Neighbor Machine Translation
- Dexin Wang, Kai Fan, Boxing Chen, Deyi Xiong
- TLDR: Wir schlagen eine
- Headed-Span-Based Projective Dependency Parsing
- Songlin Yang, Kewei Tu
- TLDR: Wir schlagen eine neue Methode für das Parsing von Abhängigkeiten vor, die auf einem Endes-zusammenfassungssatz basiert.
- Decoding Part-of-Speech from Human EEG Signals
- Alex Murphy, Bernd Bohnet, Ryan McDonald, Uta Noppeney
- TLDR: Wir zeigen, dass die Vorhersage von Teil-of-Speech-Tags von neuronalen Signalen, die mit EEG während des Lesens erfasst werden, die Konsistenz und Klasse der Texterzeugung verbessert.
- Robust Lottery Tickets for Pre-trained Language Models
- Rui Zheng, Bao Rong, Yuhao Zhou, Di Liang, Sirui Wang, Wei Wu, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: Wir schlagen eine neue Methode vor, die auf binären Gewichtsmaschen basiert, um robuste Lotterietickets zu erkennen.
- Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classification
- Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Jingang Wang, Juanzi Li, Wei Wu, Maosong Sun
- TLDR: Wir verwenden externe Wissensdaten, um einen Wissensbearbeiter für die Textklassifizierung zu schaffen.
- Cross-Lingual Contrastive Learning for Fine-Grained Entity Typing for Low-Resource Languages
- Xu Han, Yuqi Luo, Weize Chen, Zhiyuan Liu, Maosong Sun, Zhou Botong, Hao Fei, Suncong Zheng
- TLDR: Wir schlagen einen Rahmen für das Lernen von Sprachmodellen für Sprachregionen mit geringer Rechnern vor, die ohne menschliche Etiketten auftreten.
- MELM: Data Augmentation with Masked Entity Language Modeling for Low-Resource NER
- Ran Zhou, Xin Li, Ruidan He, Lidong Bing, Erik Cambria, Luo Si, Chunyan Miao
- TLDR: Wir schlagen Masked Entity Language Modeling (MELM) vor, einen neuen Rahmen für die Datenerweiterung bei NER.
- Word2Box: Capturing Set-Theoretic Semantics of Words using Box Embeddings
- Shib Dasgupta, Michael Boratko, Siddhartha Mishra, Shriya Atmakuri, Dhruvesh Patel, Xiang Li, Andrew McCallum
- TLDR: Wir stellen Box-Repräsentationen von Wörtern vor, die mit einem Ziel verbunden sind, die Worteinbettungen zu interpretieren.
- IAM: A Comprehensive and Large-Scale Dataset for Integrated Argument Mining Tasks
- Liying Cheng, Lidong Bing, Ruidan He, Qian Yu, Yan Zhang, Luo Si
- TLDR: Wir stellen einen umfangreichen Datensatz vor, der auf eine Reihe von Argumentenbene verwendet werden kann.
- PLANET: Dynamic Content Planning in Autoregressive Transformers for Long-form Text Generation
- Zhe Hu, Hou Pong Chan, Jiachen Liu, Xinyan Xiao, Hua Wu, Lifu Huang
- TLDR: Wir schlagen einen neuen generativen Rahmen vor, der autoregressives Self-Attention nutzt, um die Texterzeugung dynamisch zu gestalten.
- CTRLEval: An Unsupervised Reference-Free Metric for Evaluating Controlled Text Generation
- Pei Ke, Hao Zhou, Yankai Lin, Peng Li, Jie Zhou, Xiaoyan Zhu, Minlie Huang
- TLDR: Wir schlagen eine unbeaufsichtigte Referenz-Faltung vor, die die Texterzeugung aus mehreren Bereichen bewertet.
- Beyond the Granularity: Multi-Perspective Dialogue Collaborative Selection for Dialogue State Tracking
- Jinyu Guo, Kai Shuang, Jijie Li, Zihan Wang, Yixuan Liu
- TLDR: Wir stellen einen dynamischen Dialog-Generator vor, der die Dialog-Eigenschaften für die Erfassung von State-Updates automatisch auswählt.
- Are Prompt-based Models Clueless?
- Pride Kavumba, Ryo Takahashi, Yusuke Oda
- TLDR: Wir analysieren, ob und wie promptbasierte Sprachmodelle auch auffällige, durchschnittliche und nicht-glatten Beschriftungen und Beschriftungen nutzen.
- Learning Confidence for Transformer-based Neural Machine Translation
- Yu Lu, Jiali Zeng, Jiajun Zhang, Shuangzhi Wu, Mu Li
- TLDR: Wir schlagen ein neuartiges, auf Vertrauen basierendes Modell vor, das die Wahrscheinlichkeiten von Softmax-Verteilungen erfasst und die Wahrscheinlichkeiten von Verteilungen, die in der Verteilung falsch sind, darstellt.
- Things not Written in Text: Exploring Spatial Commonsense from Visual Signals
- Xiao Liu, Da Yin, Yansong Feng, Dongyan Zhao
- TLDR: Wir stellen einen Benchmark für die Erkennung und die Verflechtung von spatialem Wissen vor, der auf visuellen Signalen basiert.
- Conditional Bilingual Mutual Information Based Adaptive Training for Neural Machine Translation
- Songming Zhang, Yijin Liu, Fandong Meng, Yufeng Chen, Jinan Xu, Jian Liu, Jie Zhou
- TLDR: Wir schlagen eine bedingte Bilingual Mutual Information (CBMI) vor, die es ermöglicht, die Bedingten Kontext-Informationen für die statistische Metriken zu nutzen.
- ClusterFormer: Neural Clustering Attention for Efficient and Effective Transformer
- Ningning Wang, Guobing Gan, Peng Zhang, Shuai Zhang, Junqiu Wei, Qun Liu, Xin Jiang
- TLDR: Wir stellen eine neuronale Clustering-Methode vor, die auf Transformer integriert werden kann und die Leistung bei der Zielerfassung und -auswertung erheblich verbessert.
- Bottom-Up Constituency Parsing and Nested Named Entity Recognition with Pointer Networks
- Songlin Yang, Kewei Tu
- TLDR: Wir schlagen einen neuen Punkting-Mechanismus vor, um die Klassifizierung von NERs von unten nach oben zu lösen.
- Redistributing Low-Frequency Words: Making the Most of Monolingual Data in Non-Autoregressive Translation
- Liang Ding, Longyue Wang, Shuming Shi, Dacheng Tao, Zhaopeng Tu
- TLDR: Wir stellen eine neue Methode vor, die die Verzerrung von NAT-Modellen in eine neue Richtung führt.
- Dependency Parsing as MRC-based Span-Span Prediction
- Leilei Gan, Yuxian Meng, Kun Kuang, Xiaofei Sun, Chun Fan, Fei Wu, Jiwei Li
- TLDR: Wir schlagen eine neue Methode vor, die die Spanne in den Text-Sprach-Abhängigkeiten kodiert.
- Adversarial Soft Prompt Tuning for Cross-Domain Sentiment Analysis
- Hui Wu, Xiaodong Shi
- TLDR: Wir verwenden ein Vordefiniertes Sprachmodell, um eine Stimmungsanalyse für die Sprachverarbeitung zu machen.
- Generating Scientific Claims for Zero-Shot Scientific Fact Checking
- Dustin Wright, David Wadden, Kyle Lo, Bailey Kuehl, Arman Cohan, Isabelle Augenstein, Lucy Wang
- TLDR: Wir schlagen eine neue Methode zur Beweisierung von medizinischen Behauptungen vor, die auf der Klassifizierung von Beweisen basiert.
- Modeling Dual Read/Write Paths for Simultaneous Machine Translation
- Shaolei Zhang, Yang Feng
- TLDR: Wir schlagen eine Methode vor, die duale Constraints verwendet, um die Erfassung und die Übertragung von Texten zu ermöglichen.
- ExtEnD: Extractive Entity Disambiguation
- Edoardo Barba, Luigi Procopio, Roberto Navigli
- TLDR: Wir schlagen ExtEnD vor, eine neuartige lokale Formulierung für Entity-Disambiguation, die auf Transformer-Architekturen angewendet werden kann.
- Hierarchical Sketch Induction for Paraphrase Generation
- Tom Hosking, Hao Tang, Mirella Lapata
- TLDR: Wir schlagen eine generative Modell-Generation-Architektur vor, die Syntax-Skizzen fördert, indem sie eine syntaktische Paraphrase generiert.
- Alignment-Augmented Consistent Translation for Multilingual Open Information Extraction
- Keshav Kolluru, Muqeeth Mohammed, Shubham Mittal, Soumen Chakrabarti, Mausam .
- TLDR: Wir stellen ein neuartiges generatives Modell vor, das die Beziehungen in den ersten und zweiten Sätzen in einer Reihe von Sätzen ersetzt.
- Text-to-Table: A New Way of Information Extraction
- Xueqing Wu, Jiacheng Zhang, Hang Li
- TLDR: Wir stellen Text-to-Table vor, ein Problem, das sich als Seq2seq-Problem darstellt.
- Accelerating Code Search with Deep Hashing and Code Classification
- Wenchao Gu, Yanlin Wang, Lun Du, Hongyu Zhang, Shi Han, Dongmei Zhang, Michael Lyu
- TLDR: Wir schlagen eine neue Methode zur Codesuche vor, die die Codesuche mit Deep-Hashing und Codeklassifizierung beschleunigt.
- Other Roles Matter! Enhancing Role-Oriented Dialogue Summarization via Role Interactions
- Haitao Lin, Junnan Zhu, Lu Xiang, Yu Zhou, Jiajun Zhang, Chengqing Zong
- TLDR: Wir schlagen eine neuartige Rolle-Interaktions- und Decoder-Self-Attention-Interaktionen vor, um andere Rollen auf die Aufgabe der Rollenzusammenfassung aufmerksam zu machen.
- ClarET: Pre-training a Correlation-Aware Context-To-Event Transformer for Event-Centric Generation and Classification
- Yucheng Zhou, Tao Shen, Xiubo Geng, Guodong Long, Daxin Jiang
- TLDR: Wir schlagen einen Rahmen für kontextualisiertes Ereignis- und Schlussfolgerungen vor, der auf eine breite Vielfalt von Ereignissen und Schlussfolgerungen anwendbar ist.
- Measuring and Mitigating Name Biases in Neural Machine Translation
- Jun Wang, Benjamin Rubinstein, Trevor Cohn
- TLDR: Wir zeigen, dass die Geschlechtsverschiebung bei der maschinellen Übersetzung von Aufgaben mit occupation-Bezeichnungen auch von Bedeutung für die Geschlechtsverschiebung ist.
- Understanding and Improving Sequence-to-Sequence Pretraining for Neural Machine Translation
- Wenxuan Wang, Wenxiang Jiao, Yongchang Hao, Xing Wang, Shuming Shi, Zhaopeng Tu, Michael Lyu
- TLDR: Wir stellen einen erheblichen Schritt in Richtung eines tiefen Verständnisses von Seq2Seq vor und schlagen eine neue Methode zur Anpassung von Domänen und Zielen vor.
- MSCTD: A Multimodal Sentiment Chat Translation Dataset
- Yunlong Liang, Fandong Meng, Jinan Xu, Yufeng Chen, Jie Zhou
- TLDR: Wir stellen eine neue Aufgabe vor, die Multimodal Chat Translation (MCT), eine Aufgabe zur Sprachübertragung und zur Stimmungsanalyse von Gesprächsverlusten, die auf der Verwendung von Text und Emotionen basiert.
- Learning Disentangled Textual Representations via Statistical Measures of Similarity
- Pierre Colombo, Guillaume Staerman, Nathan Noiry, Pablo Piantanida
- TLDR: Wir stellen eine Familie von Regularisierern vor, die auf der gleichen Berechnung basieren, und erreichen bessere Ergebnisse als die von pretrained und randomly initialized Textencodern.
- On the Sensitivity and Stability of Model Interpretations in NLP
- Fan Yin, Zhouxing Shi, Cho-Jui Hsieh, Kai-Wei Chang
- TLDR: Wir stellen eine neue Klasse von Interpretationsmethoden vor, die auf adversarial Robustheit und Stabilität basieren.
- Down and Across: Introducing Crossword-Solving as a New NLP Benchmark
- Saurabh Kulshreshtha, Olga Kovaleva, Namrata Shivagunde, Anna Rumshisky
- TLDR: Wir stellen eine Sammlung von Kreuzwort-Puzzles vor, die von der New York Times-Daily Crossword gesammelt wurden, und stellen eine neue Aufgabe vor, die die Aufgabe des Verständnisses von natürlichen Sprachen darstellt.
- Generating Data to Mitigate Spurious Correlations in Natural Language Inference Datasets
- Yuxiang Wu, Matt Gardner, Pontus Stenetorp, Pradeep Dasigi
- TLDR: Wir schlagen eine Methode vor, die auf SNLI-hard und MNLI-hard verwendet werden kann, um ein halb-oder halb-übergreifendes Modell zu trainieren.
- GL-CLeF: A Global–Local Contrastive Learning Framework for Cross-lingual Spoken Language Understanding
- Libo Qin, Qiguang Chen, Tianbao Xie, Qixin Li, Jian-Guang Lou, Wanxiang Che, Min-Yen Kan
- TLDR: Wir schlagen ein globales, lokales Contrastive Learning Framework vor, das die Abgleichung von Sprachrepräsentationen in mehreren Sprachen ermöglicht.
- Good Examples Make A Faster Learner: Simple Demonstration-based Learning for Low-resource NER
- Dong-Ho Lee, Akshen Kadakia, Kangmin Tan, Mahak Agarwal, Xinyu Feng, Takashi Shibuya, Ryosuke Mitani, Toshiyuki Sekiya, Jay Pujara, Xiang Ren
- TLDR: Wir stellen eine Demonstrationsstrategie vor, die die Entitätenauswertung in NER ermöglicht.
- Contextual Representation Learning beyond Masked Language Modeling
- Zhiyi Fu, Wangchunshu Zhou, Jingjing Xu, Hao Zhou, Lei Li
- TLDR: Wir schlagen einen neuen Ansatz vor, um globale Semantiken in kontextuellen Repräsentationen zu extrahieren und zu alignieren.
- Efficient Hyper-parameter Search for Knowledge Graph Embedding
- Yongqi Zhang, Zhanke Zhou, Quanming Yao, Yong Li
- TLDR: Wir schlagen KGTuner vor, einen effizienten zweistufigen Suchalgorithmus, der die besten Eigenschaften von Hyperparametern auf einem großen Teilgraphen erforscht und die besten Ergebnisse bei der Fine-Tuning auf einem großen Teilgraphen überträgt.
- A Meta-framework for Spatiotemporal Quantity Extraction from Text
- Qiang Ning, Ben Zhou, Hao Wu, Haoruo Peng, Chuchu Fan, Matt Gardner
- TLDR: Wir stellen das Problem der zeitlichen Quantitätsextraktion vor und schlagen einen Meta-Framework vor, um das Problem zu lösen.
- Leveraging Visual Knowledge in Language Tasks: An Empirical Study on Intermediate Pre-training for Cross-Modal Knowledge Transfer
- Woojeong Jin, Dong-Ho Lee, Chenguang Zhu, Jay Pujara, Xiang Ren
- TLDR: Wir stellen einen visuellen Wissenstransfer vor, der die Wahrnehmung und die Beschränkung von Objekten in der realen Welt erweitert.
- A Good Prompt Is Worth Millions of Parameters: Low-resource Prompt-based Learning for Vision-Language Models
- Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren
- TLDR: Wir stellen FewVLM vor, ein RL-Modell, das auf promptbasiertes Low-Resource Learning von VL-Aufgaben trainiert wird.
- Continual Few-shot Relation Learning via Embedding Space Regularization and Data Augmentation
- Chengwei Qin, Shafiq Joty
- TLDR: Wir schlagen eine neue Methode vor, die auf der Regularisierung und der Datenerweiterung basiert und die katastrophale Vergessen von vorherigen Aufgaben minimiert.
- Variational Graph Autoencoding as Cheap Supervision for AMR Coreference Resolution
- Irene Li, Linfeng Song, Kun Xu, Dong Yu
- TLDR: Wir schlagen eine Generalisierungsmethode vor, die AMR-Coreference-Resolution über semantiker Graphen erlernt.
- Identifying Chinese Opinion Expressions with Extremely-Noisy Crowdsourcing Annotations
- Xin Zhang, Guangwei Xu, Yueheng Sun, Meishan Zhang, Xiaobin Wang, Min Zhang
- TLDR: Wir stellen fest, dass die Verwendung von Annotatoren als gold-standard für die Meinungsausdrückenerkennung ist, und schlagen eine neue Methode vor, die die Verwendung von Synthetischen von Annotatoren für die Testphase ermöglicht.
- Sequence-to-Sequence Knowledge Graph Completion and Question Answering
- Apoorv Saxena, Adrian Kochsiek, Rainer Gemulla
- TLDR: Wir stellen eine Methode vor, die die KG-Links und Fragen-Antworten als Sequenz-zu-Sequenz-Aufgaben darstellt und die Ergebnisse bei der KG-QA und der KG-Kernen und Fragen-Antworten verbessert.
- Learning to Mediate Disparities Towards Pragmatic Communication
- Yuwei Bao, Sayan Ghosh, Joyce Chai
- TLDR: Wir schlagen einen neuen rationalen Rahmen vor, Pragmatic Rational Speaker (PRS), der die Sprachverschiebungen von Sprechern aussprechen und die Sprachaussprache entsprechend anpassen kann.
- Unsupervised Corpus Aware Language Model Pre-training for Dense Passage Retrieval
- Luyu Gao, Jamie Callan
- TLDR: Wir identifizieren und lösen zwei Probleme bei den tiefen Rechnern und schlagen eine neue Architektur vor, die den Raum für den tiefen Rechner vergrößert.
- Multimodal Dialogue Response Generation
- Qingfeng Sun, Yujing Wang, Can Xu, Kai Zheng, Yaming Yang, Huang Hu, Fei Xu, Jessica Zhang, Xiubo Geng, Daxin Jiang
- TLDR: Wir stellen eine neue Aufgabe vor, die die Text-only- und Text-Bilder-Erklärungen erzeugen, die auf Multimodal Dialogs zurückgreifen.
- CAKE: A Scalable Commonsense-Aware Framework For Multi-View Knowledge Graph Completion
- Guanglin Niu, Bo Li, Yongfei Zhang, Shiliang Pu
- TLDR: Wir schlagen ein Commonsense-Aware Knowledge Embedding (CAKE) Framework vor, um automatische Erklärungen für falsche Schlussfolgerungen mit rekurrenten Wissensgraphen zu extrahieren.
- Confidence Based Bidirectional Global Context Aware Training Framework for Neural Machine Translation
- Chulun Zhou, Fandong Meng, Jie Zhou, Min Zhang, Hongji Wang, Jinsong Su
- TLDR: Wir schlagen ein auf Vertrauensbasiertes globales Kontextbewusstsein (CBBGCA) Trainingsrahmen vor, das das NMT-Modell auf unconfidently-predicted Zielworten verallgemeinert.
- BRIO: Bringing Order to Abstractive Summarization
- Yixin Liu, Pengfei Liu, Dragomir Radev, Graham Neubig
- TLDR: Wir schlagen einen neuen Trainingsrahmen vor, der eine nicht-deterministische Verteilung verwendet, um verschiedene Kandidaten-Suchergebnisse zu bewerten.
- Leveraging Relaxed Equilibrium by Lazy Transition for Sequence Modeling
- Xi Ai, Bin Fang
- TLDR: Wir stellen eine Lazy-Transformation vor, eine Mechanismen zur Anpassung der Bedeutung von Iterationsverbeschränkungen für die Repräsentationen vor.
- FIBER: Fill-in-the-Blanks as a Challenging Video Understanding Evaluation Framework
- Santiago Castro, Ruoyao Wang, Pingxuan Huang, Ian Stewart, Oana Ignat, Nan Liu, Jonathan Stroud, Rada Mihalcea
- TLDR: Wir schlagen fill-in-the-blanks vor, einen neuen Datensatz mit 28,000 Videos und Beschreibungen in support des Videoverständnisses.
- KenMeSH: Knowledge-enhanced End-to-end Biomedical Text Labelling
- Xindi Wang, Robert Mercer, Frank Rudzicz
- TLDR: Wir schlagen ein neues Modell vor, das die Dokumentmarken in die MeSH-Kategorien integriert und die Ergebnisse bei der Erkennung von medizinischen Dokumenten verbessert.
- A Taxonomy of Empathetic Questions in Social Dialogs
- Ekaterina Svikhnushina, Iuliana Voinea, Anuradha Welivita, Pearl Pu
- TLDR: Wir haben eine neue Art der Beantwortung von Fragen entwickelt, die die Emotionen des Gegenübers regulieren.
- Enhanced Multi-Channel Graph Convolutional Network for Aspect Sentiment Triplet Extraction
- Hao Chen, Zepeng Zhai, Fangxiang Feng, Ruifan Li, Xiaojie Wang
- TLDR: Wir schlagen ein neues neuronales Graphen Convolutional Network vor, um die Beziehungen zwischen den Worten für die ASTE-Aufgabe zu nutzen.
- ProtoTEx: Explaining Model Decisions with Prototype Tensors
- Anubrata Das, Chitrank Gupta, Venelin Kovatchev, Matthew Lease, Junyi Jessy Li
- TLDR: Wir stellen Prototex vor, eine White-Box-Architektur, die auf prototypischen Netzen basiert und die Klassifizierung von Verzerrungen und Propaganda effektiv nutzt.
- Show Me More Details: Discovering Hierarchies of Procedures from Semi-structured Web Data
- Shuyan Zhou, Li Zhang, Yue Yang, Qing Lyu, Pengcheng Yin, Chris Callison-Burch, Graham Neubig
- TLDR: Wir stellen eine hierarchische Wissensbasis für die Erstellung von Videos vor, die auf WikiHow erstellt wurden.
- Cross-Modal Discrete Representation Learning
- Alexander Liu, SouYoung Jin, Cheng-I Lai, Andrew Rouditchenko, Aude Oliva, James Glass
- TLDR: Wir schlagen einen Rahmen vor, der eine diskretisierte Einbettungsfläche für die Erfassung von Konzepten und Handlungen erlernt.
- Improving Event Representation via Simultaneous Weakly Supervised Contrastive Learning and Clustering
- Jun Gao, Wei Wang, Changlong Yu, Huan Zhao, Wilfred Ng, Ruifeng Xu
- TLDR: Wir stellen SWCC vor, einen Rahmen für das Erlernen von Repräsentationen, der die Co-Co-Clustering-Informationen von Ereignissen nutzt.
- Contrastive Visual Semantic Pretraining Magnifies the Semantics of Natural Language Representations
- Robert Wolfe, Aylin Caliskan
- TLDR: Wir vergleichen GPT-2 und CLIP, einen Zero-shot Multimodal Image-Klassifikator, der die GPT-2-Architektur anpasst, um Bilder mit Bildbeschriftungen zu erstellen.
- ConTinTin: Continual Learning from Task Instructions
- Wenpeng Yin, Jia Li, Caiming Xiong
- TLDR: Wir stellen ein neues Lernparadigma vor, das auf Texten basiert und die Aufgabe-Erklärungen nutzt, um die Leistung bei einer Reihe von Aufgaben zu verbessern.
- Automated Crossword Solving
- Eric Wallace, Nicholas Tomlin, Albert Xu, Kevin Yang, Eshaan Pathak, Matthew Ginsberg, Dan Klein
- TLDR: Wir stellen den Berkeley Crossword Solver vor, einen neuen Ansatz zur automatischen Lösung von Kreuzwortwürzungen.
- Learned Incremental Representations for Parsing
- Nikita Kitaev, Thomas Lu, Dan Klein
- TLDR: Wir stellen eine Syntax-Repräsentation vor, die sich als eine Erweiterung auf die Parse-Bäumen erweist.
- Knowledge Enhanced Reflection Generation for Counseling Dialogues
- Siqi Shen, Veronica Perez-Rosas, Charles Welch, Soujanya Poria, Rada Mihalcea
- TLDR: Wir zeigen, dass die Verwendung von GANs und DLs für die Wissensverknüpfung die Qualität der Erzeugten verbessert.
- Misinfo Reaction Frames: Reasoning about Readers’ Reactions to News Headlines
- Saadia Gabriel, Skyler Hallinan, Maarten Sap, Pemi Nguyen, Franziska Roesner, Eunsol Choi, Yejin Choi
- TLDR: Wir schlagen Misinfo Reaction Frames (MRF) vor, eine pragmatische Formalität für die Modellierung, wie die Aufmerksamkeit von Menschen auf eine Nachrichteneingabe auf die erste Blick wahrnehmbar ist.
- On Continual Model Refinement in Out-of-Distribution Data Streams
- Bill Yuchen Lin, Sida Wang, Xi Lin, Robin Jia, Lin Xiao, Xiang Ren, Scott Yih
- TLDR: Wir schlagen ein kontinuierliches Lernenproblem vor, das auf dynamischen OOD-Datensätzen mit kontrollierbarer nicht-stationärer Verteilungsverschiebungen basiert.
- Achieving Conversational Goals with Unsupervised Post-hoc Knowledge Injection
- Bodhisattwa Prasad Majumder, Harsh Jhamtani, Taylor Berg-Kirkpatrick, Julian McAuley
- TLDR: Wir schlagen eine post-hoc-Knowledge-Injektion-Methode vor, bei der wir eine Vielfalt von Wissensbeschriftungen in die Dialog-Erklärung einbeziehen.
- Generated Knowledge Prompting for Commonsense Reasoning
- Jiacheng Liu, Alisa Liu, Ximing Lu, Sean Welleck, Peter West, Ronan Le Bras, Yejin Choi, Hannaneh Hajishirzi
- TLDR: Wir schlagen einen neuen Ansatz zur Erweiterung von Sprachmodellen vor, der auf die Erkennung von Wissensbeschriftungen und -vorschlägen basiert.
- Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data
- Shuohang Wang, Yichong Xu, Yuwei Fang, Yang Liu, Siqi Sun, Ruochen Xu, Chenguang Zhu, Michael Zeng
- TLDR: Wir stellen eine Methode vor, die die wichtigsten Trainingsinstanzen aus der Training datA wiederherstellen kann.
- Life after BERT: What do Other Muppets Understand about Language?
- Vladislav Lialin, Kevin Zhao, Namrata Shivagunde, Anna Rumshisky
- TLDR: Wir verwenden oLMpics und psycholinguistische Proben für eine Vielfalt von Modellfamilien, einschließlich T5, BART und ALBERT.
- Tailor: Generating and Perturbing Text with Semantic Controls
- Alexis Ross, Tongshuang Wu, Hao Peng, Matthew Peters, Matt Gardner
- TLDR: Wir stellen Tailor vor, ein semantisch kontrollierbares Texterzeugungsmodell, das Texterzeugungen aus semantischen Repräsentationen erzeugt.
- TruthfulQA: Measuring How Models Mimic Human Falsehoods
- Stephanie Lin, Jacob Hilton, Owain Evans
- TLDR: Wir schlagen einen Benchmark vor, um zu bewerten, ob ein Sprachmodell wirklich wahre Antworten auf Fragen erzeugt.
- Adaptive Testing and Debugging of NLP Models
- Marco Tulio Ribeiro, Scott Lundberg
- TLDR: Wir stellen AdaTest vor, einen Prozess, der große Sprachmodelle in Zusammenarbeit mit menschlichem Feedback automatisch unitäre Tests erstellt, um bugs in einem Zielmodell zu finden.
- Right for the Right Reason: Evidence Extraction for Trustworthy Tabular Reasoning
- Vivek Gupta, Shuo Zhang, Alakananda Vempala, Yujie He, Temma Choji, Vivek Srikumar
- TLDR: Wir stellen eine neue Aufgabe vor, die auf der Erfassung von Beweisen basiert und die Erkennung von Inferenzbeschriftungen.
- Interactive Word Completion for Plains Cree
- William Lane, Atticus Harrigan, Antti Arppe
- TLDR: Wir entwickeln einen Ansatz zur morph-basierten Auto-Kompletzierung auf der Grundlage eines finiten Zustands, der die Entflechtung von Ableitungen in einer Sprache erfasst.
- LAGr: Label Aligned Graphs for Better Systematic Generalization in Semantic Parsing
- Dora Jambor, Dzmitry Bahdanau
- TLDR: Wir schlagen LAGr vor, einen Algorithmus zur Erzeugung von Seq2seq-Parsern, der die Bedeutungsrepräsentation direkt als Graphen erzeugt.
- ToxiGen: A Large-Scale Machine-Generated Dataset for Adversarial and Implicit Hate Speech Detection
- Thomas Hartvigsen, Saadia Gabriel, Hamid Palangi, Maarten Sap, Dipankar Ray, Ece Kamar
- TLDR: Wir stellen ToxiGen vor, eine groß angelegte und maschinelle Erkennung von toxic und benignen Sätzen über 13 minority-Gruppen vor.
- Direct Speech-to-Speech Translation With Discrete Units
- Ann Lee, Peng-Jen Chen, Changhan Wang, Jiatao Gu, Sravya Popuri, Xutai Ma, Adam Polyak, Yossi Adi, Qing He, Yun Tang, Juan Pino, Wei-Ning Hsu
- TLDR: Wir stellen ein S2ST-Modell vor, das die Sprachausgabe von einer Sprache zur Sprachausgabe in einer anderen Sprache ohne Verwendung von Zwischentexten erzeugt.
- Hallucinated but Factual! Inspecting the Factuality of Hallucinations in Abstractive Summarization
- Meng Cao, Yue Dong, Jackie Cheung
- TLDR: Wir schlagen einen neuen Ansatz vor, der fäklich-wahre Ereignissen von Entitäten unterscheidet, die nicht mit Weltwissen verbunden sind.
- EntSUM: A Data Set for Entity-Centric Extractive Summarization
- Mounica Maddela, Mayank Kulkarni, Daniel Preotiuc-Pietro
- TLDR: Wir stellen einen Datensatz EntSUM vor, der für die kontrollierte Zusammenfassung von Benutzerdokumenten verwendet werden kann.
- Sentence-level Privacy for Document Embeddings
- Casey Meehan, Khalil Mrini, Kamalika Chaudhuri
- TLDR: Wir schlagen eine neue Deep-Candidate-Methode vor, die Konzepte aus robusten Statistiken und Sprachmodellierung kombiniert, um eine hohe (768) dimensionale, allgemeine und diskrete Privatsphäre zu bieten.
- Dataset Geography: Mapping Language Data to Language Users
- Fahim Faisal, Yinkai Wang, Antonios Anastasopoulos
- TLDR: Wir untersuchen, ob und wie viele NLP-Datensätzen die Erwartungen der Sprachgegensprechenden erfüllen.
- ILDAE: Instance-Level Difficulty Analysis of Evaluation Data
- Neeraj Varshney, Swaroop Mishra, Chitta Baral
- TLDR: Wir analysieren Instanz-Level Difficulty-Evaluationsdaten und zeigen Anwendungen auf die Bewertung von Aufgaben, die auf schwierigen Fragen gestellt werden.
- Image Retrieval from Contextual Descriptions
- Benno Krojer, Vaibhav Adlakha, Vibhav Vineet, Yash Goyal, Edoardo Ponti, Siva Reddy
- TLDR: Wir stellen ImageCoDE vor, ein Multimodal Image Retrieval-Framework, das auf die Erfassung von kontextuellen Beschreibungen basiert.
- Multilingual Molecular Representation Learning via Contrastive Pre-training
- Zhihui Guo, Pramod Sharma, Andy Martinez, Liang Du, Robin Abraham
- TLDR: Wir schlagen einen Multilingual-Ansatz für molekulare Repräsentation vor, der auf kontrastivem Lernen trainiert wird.
- [Investigating Failures of Automatic Translation
in the Case of Unambiguous Gender](https://aclanthology.org/2022.acl-long.243)
- Adithya Renduchintala, Adina Williams
-
TLDR: Wir stellen einen Bewertungsrahmen und einen Datensatz zur Bewertung der Fähigkeit von NMT-Modellen zur gender-Modifikation vor.
- Cross-Task Generalization via Natural Language Crowdsourcing Instructions
- Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi
- TLDR: Wir stellen NATURAL INSTRUCTIONS vor, eine Meta-Datensätzung von 61 distinctiven Aufgaben, ihre menschlichen Erzeuger- und ihre Aufgabeinstanzen, und 193k Aufgabeninstanzen (input-output pairs).
- Imputing Out-of-Vocabulary Embeddings with LOVE Makes LanguageModels Robust with Little Cost
- Lihu Chen, Gael Varoquaux, Fabian Suchanek
- TLDR: Wir stellen LOVE vor, ein kontrastives Lernverfahren, das die Worteinbettungen eines bestehenden BERT erweitert und die Robustheit gegenüber OOV verbessert.
- NumGLUE: A Suite of Fundamental yet Challenging Mathematical Reasoning Tasks
- Swaroop Mishra, Arindam Mitra, Neeraj Varshney, Bhavdeep Sachdeva, Peter Clark, Chitta Baral, Ashwin Kalyan
- TLDR: Wir schlagen NumGLUE vor, einen Multi-Task Benchmark, der die Leistung von neuronalen Sprachmodellen bei einer Vielzahl von Aufgaben bewertet.
- Upstream Mitigation Is
Not
All You Need: Testing the Bias Transfer Hypothesis in Pre-Trained Language Models
- Ryan Steed, Swetasudha Panda, Ari Kobren, Michael Wick
- TLDR: Wir untersuchen, ob und wie kleine Modelle, die von der Online-Diskriminierung inspiriert sind, schädliche Stereotypen enthalten.
- Improving Multi-label Malevolence Detection in Dialogues through Multi-faceted Label Correlation Enhancement
- Yangjun Zhang, Pengjie Ren, Wentao Deng, Zhumin Chen, Maarten Rijke
- TLDR: Wir schlagen eine Multi-Label-Erkennung von Dialog-Molevolenz vor und crowdsource einen Multi-Label-Baum-Erkennungsdatensatz, Multi-Label-Erkennung (MDMD) für die Bewertung.
- How Do We Answer Complex Questions: Discourse Structure of Long-form Answers
- Fangyuan Xu, Junyi Jessy Li, Eunsol Choi
- TLDR: Wir analysieren die Funktionsweise von Modell-Erklärungen und stellen fest, dass die Modell-Erklärungen weniger mit den Menschen übereinstimmen als die menschlichen Erklärungen.
- Understanding Iterative Revision from Human-Written Text
- Wanyu Du, Vipul Raheja, Dhruv Kumar, Zae Myung Kim, Melissa Lopez, Dongyeop Kang
- TLDR: Wir stellen IteraTeR vor, eine groß angelegte Sammlung von Textrevisionen, die auf einer Vielzahl von Domänen, Zielen und Gradienten verallgemeinert werden.
- Making Transformers Solve Compositional Tasks
- Santiago Ontanon, Joshua Ainslie, Zachary Fisher, Vaclav Cvicek
- TLDR: Wir stellen eine neue Methode zur Komposition vor, die die Intentionen von Transformer-Modellen berücksichtigt.
- Can Transformer be Too Compositional? Analysing Idiom Processing in Neural Machine Translation
- Verna Dankers, Christopher Lucas, Ivan Titov
- TLDR: Wir analysieren, ob die Nicht-Kompositionalität von Idiomen in der Architektur eines dominanten NMT-Modells, Transformer, offenbart.
- ConditionalQA: A Complex Reading Comprehension Dataset with Conditional Answers
- Haitian Sun, William Cohen, Ruslan Salakhutdinov
- TLDR: Wir stellen ConditionalQA vor, einen Datensatz mit komplexen Fragen, der nur dann beantwortet werden kann, wenn bestimmte Bedingungen gelten.
- Prompt-free and Efficient Few-shot Learning with Language Models
- Rabeeh Karimi Mahabadi, Luke Zettlemoyer, James Henderson, Lambert Mathias, Marzieh Saeidi, Veselin Stoyanov, Majid Yazdani
- TLDR: Wir schlagen eine einfache und effiziente Methode vor, die das Fine-Tuning von PLMs ohne Verwendung von handwerklichen Vektoren und Sprachverbesserungen ermöglicht.
- Continual Sequence Generation with Adaptive Compositional Modules
- Yanzhe Zhang, Xuezhi Wang, Diyi Yang
- TLDR: Wir schlagen adaptive kompositorische Module vor, um kontinuierliche Sequenzmodelle zu generieren und gleichzeitig Wissenstransfer zwischen den Modulen zu ermöglichen.
- An Investigation of the (In)effectiveness of Counterfactually Augmented Data
- Nitish Joshi, He He
- TLDR: Wir zeigen, dass die Vielfalt der Störungen in den Daten die Robustheit von Merkmalen invariant unter Verteilungsverschiebungen verstärken kann.
- Inducing Positive Perspectives with Text Reframing
- Caleb Ziems, Minzhi Li, Anthony Zhang, Diyi Yang
- TLDR: Wir stellen eine neue Aufgabe vor, die negative Reframing, die negative Schlussfolgerungen und eine neue Perspektive für den Texterzeugt.
- VALUE: Understanding Dialect Disparity in NLU
- Caleb Ziems, Jiaao Chen, Camille Harris, Jessica Anderson, Diyi Yang
- TLDR: Wir stellen eine neue Bewertungsmethode vor, die die Verallgemeinerung von sprachen in tiefen Deep Learning-Modellen ermöglicht.
- From the Detection of Toxic Spans in Online Discussions to the Analysis of Toxic-to-Civil Transfer
- John Pavlopoulos, Leo Laugier, Alexandros Xenos, Jeffrey Sorensen, Ion Androutsopoulos
- TLDR: Wir stellen eine Aufgabe vor, die die Entflechtung von Textspangen mit toxicen Spangen erkennt.
- FormNet: Structural Encoding beyond Sequential Modeling in Form Document Information Extraction
- Chen-Yu Lee, Chun-Liang Li, Timothy Dozat, Vincent Perot, Guolong Su, Nan Hua, Joshua Ainslie, Renshen Wang, Yasuhisa Fujii, Tomas Pfister
- TLDR: Wir schlagen FormNet vor, ein strukturiertes Sequenzmodell, das die suboptimale Sequenzierung von Formen mit Hilfe von Texten und Bildern minimiert.
- The Moral Integrity Corpus: A Benchmark for Ethical Dialogue Systems
- Caleb Ziems, Jane Yu, Yi-Chia Wang, Alon Halevy, Diyi Yang
- TLDR: Wir stellen ein Corpus von Regeln vor, das die moralischen Schlussfolgerungen von Chatbots erfasst und die Integrität von Gesprächsverantwortungssagen und -verzerrungen von Gesprächsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortungsverantwortung
- Token Dropping for Efficient BERT Pretraining
- Le Hou, Richard Yuanzhe Pang, Tianyi Zhou, Yuexin Wu, Xinying Song, Xiaodan Song, Denny Zhou
- TLDR: Wir schlagen eine einfache Methode vor, die BERT in Bezug auf die Beschriftung von Schlüsselwörtern trainiert.
- DialFact: A Benchmark for Fact-Checking in Dialogue
- Prakhar Gupta, Chien-Sheng Wu, Wenhao Liu, Caiming Xiong
- TLDR: Wir stellen eine Aufgabe vor, die die Beantwortung von Behauptungen in Dialogen überprüft.
- The Trade-offs of Domain Adaptation for Neural Language Models
- David Grangier, Dan Iter
- TLDR: Wir vergleichen die Sprachmodellanpassung mit dem Deep Learning und zeigen, dass die Verallgemeinerung von Sprachmodellen auf einem Ziel, das in einem Ziel liegt, besser verallgemeinert als die Lösung selbst.
- Towards Afrocentric NLP for African Languages: Where We Are and Where We Can Go
- Ife Adebara, Muhammad Abdul-Mageed
- TLDR: Wir stellen die Entwicklung von Deep Learning-Techniken für die sprachenvielfältigkeit vor und schlagen eine neue Methode vor, um die Vielfalt von sprachen zu fördern.
- Ensembling and Knowledge Distilling of Large Sequence Taggers for Grammatical Error Correction
- Maksym Tarnavskyi, Artem Chernodub, Kostiantyn Omelianchuk
- TLDR: Wir schlagen eine neue Architektur vor, die die GEC-Sequenz-Tagging-Architektur verbessert und die Entflechtung von Transformer-Modellen in großen Konfigurationen ermöglicht.
- Speaker Information Can Guide Models to Better Inductive Biases: A Case Study On Predicting Code-Switching
- Alissa Ostapenko, Shuly Wintner, Melinda Fricke, Yulia Tsvetkov
- TLDR: Wir stellen fest, dass Sprachmerkmale in neuronale Modelle für die Code-Switching-Vorhersage von Sprachmerkmalen verwendet werden können.
- Detecting Unassimilated Borrowings in Spanish: An Annotated Corpus and Approaches to Modeling
- Elena Álvarez-Mellado, Constantine Lignos
- TLDR: Wir stellen eine neue Bibliothek von Texten vor, die unausgewogenen lexikalischen Borrowings enthalten.
- Is Attention Explanation? An Introduction to the Debate
- Adrien Bibal, Rémi Cardon, David Alfter, Rodrigo Wilkens, Xiaoou Wang, Thomas François, Patrick Watrin
- TLDR: Wir stellen die wichtigsten Herausforderungen auf Aufmerksamkeit als Erklärung vor und schlagen eine neue Perspektive auf die Zukunft vor.
- There Are a Thousand Hamlets in a Thousand People’s Eyes: Enhancing Knowledge-grounded Dialogue with Personal Memory
- Tingchen Fu, Xueliang Zhao, Chongyang Tao, Ji-Rong Wen, Rui Yan
- TLDR: Wir stellen personalisiertes Gedächtnis vor, um die Personalisierung in einer tiefen und effektiven Gesprächsdynamik zu berücksichtigen.
- Neural Pipeline for Zero-Shot Data-to-Text Generation
- Zdeněk Kasner, Ondrej Dusek
- TLDR: Wir schlagen einen neuen Ansatz vor, um Text aus Texten auf der Grundlage von WikiFluent zu erzeugen.
- Not always about you: Prioritizing community needs when developing endangered language technology
- Zoey Liu, Crystal Richardson, Richard Hatcher, Emily Prud’hommeaux
- TLDR: Wir stellen fest, dass die Sprachwissenschaft und die Sprachdokumentation in einer großen Lücke liegen.
- Automatic Identification and Classification of Bragging in Social Media
- Mali Jin, Daniel Preotiuc-Pietro, A. Seza Doğruöz, Nikolaos Aletras
- TLDR: Wir stellen eine erste große Studie über die Vorhersage von Bragging vor und zeigen, dass die Verwendung von Transformations- und Fehlerinformationen die Vorhersage von Braggings erheblich beschleunigt.
- Automatic Error Analysis for Document-level Information Extraction
- Aliva Das, Xinya Du, Barry Wang, Kejian Shi, Jiayuan Gu, Thomas Porter, Claire Cardie
- TLDR: Wir schlagen einen Transformationsrahmen vor, um die Fehleranalyse bei Dokumenten-Ebene und (N-ary) Beziehungsextraktionen zu automatisieren.
- Learning Functional Distributional Semantics with Visual Data
- Yinhong Liu, Guy Emerson
- TLDR: Wir schlagen eine Methode vor, um ein funktionales neuronales Semantikmodell mit visuellen Daten zu trainieren.
- ePiC: Employing Proverbs in Context as a Benchmark for Abstract Language Understanding
- Sayan Ghosh, Shashank Srivastava
- TLDR: Wir stellen einen großen Datensatz von Vorurteilen vor, der als Benchmark für abstraktes Sprachverständnis dienen kann.
- Chart-to-Text: A Large-Scale Benchmark for Chart Summarization
- Shankar Kantharaj, Rixie Tiffany Leong, Xiang Lin, Ahmed Masry, Megh Thakkar, Enamul Hoque, Shafiq Joty
- TLDR: Wir stellen eine neue Methode zur Datenerzeugung vor, die auf Bildern von Datensätzen basiert und die Entflechtung von Datensätzen aus Datensätzen ermöglicht.
- Characterizing Idioms: Conventionality and Contingency
- Michaela Socolof, Jackie Cheung, Michael Wagner, Timothy O’Donnell
- TLDR: Wir stellen fest, dass Worte in einem Satz nicht-kononisch sind, und zeigen, dass die Dimensionen nicht correlated sind.
- Bag-of-Words vs. Graph vs. Sequence in Text Classification: Questioning the Necessity of Text-Graphs and the Surprising Strength of a Wide MLP
- Lukas Galke, Ansgar Scherp
- TLDR: Wir zeigen, dass ein Bag-of-Words-Modell (BoW) übertrifft die jüngsten graphbasierten Modelle TextGCN und HeteGCN in einer induktiven Textklassifikationssituation und ist vergleichbar mit HyperGAT.
- Generative Pretraining for Paraphrase Evaluation
- Jack Weston, Raphael Lenain, Udeepa Meepegama, Emil Fristed
- TLDR: Wir stellen ParaBLEU vor, ein Paraphrase-Repräsentations-Lernenmodell und eine Bewertungsmetrik für Texterzeugung.
- Incorporating Stock Market Signals for Twitter Stance Detection
- Costanza Conforti, Jakob Berndt, Mohammad Taher Pilehvar, Chryssi Giannitsarou, Flavio Toxvaerd, Nigel Collier
- TLDR: Wir schlagen eine robuste Multi-Task-Architektur vor, die Text mit hochfrequenzigen Nachrichten kombiniert, um eine einheitliche Positionserkennung zu ermöglichen.
- Multilingual Mix: Example Interpolation Improves Multilingual Neural Machine Translation
- Yong Cheng, Ankur Bapna, Orhan Firat, Yuan Cao, Pidong Wang, Wolfgang Macherey
- TLDR: Wir stellen einen Multi-Lingual-Decoder vor, der Sprachpaare in einer Sprachverschiebung um mehrere Sprachpaare miteinander verbindet.
- Word Segmentation as Unsupervised Constituency Parsing
- Raquel G. Alhama
- TLDR: Wir stellen einen neuen Ansatz für die Wortidentifikation vor, der die Segmentierung von kontinuierlichen Eingaben als Prozess isomorphisiert und unüberwachte Konsistenzparsingmethoden charakterisiert.
- SafetyKit: First Aid for Measuring Safety in Open-domain Conversational Systems
- Emily Dinan, Gavin Abercrombie, A. Bergman, Shannon Spruit, Dirk Hovy, Y-Lan Boureau, Verena Rieser
- TLDR: Wir stellen eine neue Methode vor, die die Auswirkungen von gegnerischen Angriffen auf die Sicherheit von Sprachassistenten erfasst.
- Zero-Shot Cross-lingual Semantic Parsing
- Tom Sherborne, Mirella Lapata
- TLDR: Wir schlagen ein Multi-Task Encoder-Decoder-Modell vor, um Sprachverständnisse mit mehreren Sprachen zu übertragen.
- The Paradox of the Compositionality of Natural Language: A Neural Machine Translation Case Study
- Verna Dankers, Elia Bruni, Dieuwke Hupkes
- TLDR: Wir stellen einen empirischen Rahmen für die Bewertung der kompositorischen Generalisierung vor und entwickeln benchmarks, die die kompositorische Generalisierung in neuronalen Netzen bewerten.
- Multilingual Document-Level Translation Enables Zero-Shot Transfer From Sentences to Documents
- Biao Zhang, Ankur Bapna, Melvin Johnson, Ali Dabirmoghaddam, Naveen Arivazhagan, Orhan Firat
- TLDR: Wir stellen einen neuen Ansatz für die Dokumenten- und Datenverschiebung vor, der die Qualität von Sprachtransfers verbessert.
- Cross-Lingual Phrase Retrieval
- Heqi Zheng, Xiao Zhang, Zewen Chi, Heyan Huang, Yan Tan, Tian Lan, Wei Wei, Xian-Ling Mao
- TLDR: Wir schlagen einen neuen Sprachrepräsentationsrepräsentationsrechner vor, der phrasenbasierte Sprachrepräsentationen aus unbeschrifteten Beispielsätzen extrahiert.
- Improving Compositional Generalization with Self-Training for Data-to-Text Generation
- Sanket Vaibhav Mehta, Jinfeng Rao, Yi Tay, Mihir Kale, Ankur Parikh, Emma Strubell
- TLDR: Wir zeigen, dass die bestehenden Modelle bei wenigen Aufnahmen zu unbeschrifteten Text-to-Speech-Aufgaben verallgemeinert werden.
- MMCoQA: Conversational Question Answering over Text, Tables, and Images
- Yongqi Li, Wenjie Li, Liqiang Nie
- TLDR: Wir stellen eine neue Aufgabe vor, i.e. Multimodal Q-Ask-Anfragen, die darauf abzielt, Benutzern Fragen mit mehreren Wissenssourcen zu beantworten.
- Effective Token Graph Modeling using a Novel Labeling Strategy for Structured Sentiment Analysis
- Wenxuan Shi, Fei Li, Jingye Li, Hao Fei, Donghong Ji
- TLDR: Wir stellen eine Labeling-Strategie vor, die zwei Etikettensätze enthält, nämlich essential Labelset und whole Label set.
- PromDA: Prompt-based Data Augmentation for Low-Resource NLU Tasks
- Yufei Wang, Can Xu, Qingfeng Sun, Huang Hu, Chongyang Tao, Xiubo Geng, Daxin Jiang
- TLDR: Wir schlagen ein Prompt-basiertes Datenerweiterungsmodell vor, das nur Soft Prompt (i.e., eine Reihe von trainierbaren Vektoren) in die frozen Pre-trained Language Models (PLMs) trainiert.
- Disentangled Sequence to Sequence Learning for Compositional Generalization
- Hao Zheng, Mirella Lapata
- TLDR: Wir schlagen eine Erweiterung vor, die die Entflechtungsverzerrung fördert und die Generalisierung ermöglicht.
- RST Discourse Parsing with Second-Stage EDU-Level Pre-training
- Nan Yu, Meishan Zhang, Guohong Fu, Min Zhang
- TLDR: Wir schlagen zwei Aufgaben vor, um EDU-Ebene prädiktive Sprachmodelle zu lernen, die auf sprachenweiten Vorkenntnissen basieren.
- SimKGC: Simple Contrastive Knowledge Graph Completion with Pre-trained Language Models
- Liang Wang, Wei Zhao, Zhuoyu Wei, Jingming Liu
- TLDR: Wir stellen ein neues Modell vor, das auf Text-basiertes contrastives Lernen basiert und die Leistung bei der Graphenableitung erheblich übertrifft.
- Do Transformer Models Show Similar Attention Patterns to Task-Specific Human Gaze?
- Oliver Eberle, Stephanie Brandl, Jonas Pilot, Anders Søgaard
- TLDR: Wir zeigen, dass die Aufmerksamkeitsfunktion in großen Sprachmodellen als Vorhersageobjekt für menschliche Aufmerksamkeit fungiert.
- LexGLUE: A Benchmark Dataset for Legal Language Understanding in English
- Ilias Chalkidis, Abhik Jana, Dirk Hartung, Michael Bommarito, Ion Androutsopoulos, Daniel Katz, Nikolaos Aletras
- TLDR: Wir stellen eine Sammlung von Datensätzen zur Bewertung von Modellen zur Generalisierung von juristischen Generalisierungsaufgaben vor und stellen eine Bewertungsplattform für juristische Generalisierungsmodelle vor.
- DiBiMT: A Novel Benchmark for Measuring Word Sense Disambiguation Biases in Machine Translation
- Niccolò Campolungo, Federico Martelli, Francesco Saina, Roberto Navigli
- TLDR: Wir stellen eine erste selbstausgewählte Bewertungsmechanismus-Benchmark vor, die die Verzerrung von Semantik in der Machine Translation beseitigt.
- Improving Word Translation via Two-Stage Contrastive Learning
- Yaoyiran Li, Fangyu Liu, Nigel Collier, Anna Korhonen, Ivan Vulić
- TLDR: Wir schlagen einen zweistufigen Rahmen für die BLI vor, der die Sprachausbreitung von static Word-Embedded-Einbettungen verbessert.
- Scheduled Multi-task Learning for Neural Chat Translation
- Yunlong Liang, Fandong Meng, Jinan Xu, Yufeng Chen, Jie Zhou
- TLDR: Wir schlagen einen Rahmen für das Multi-Task Learning vor, um die Chat-Übersetzung mit mehreren Sprachrichtungen zu verbessern.
- FairLex: A Multilingual Benchmark for Evaluating Fairness in Legal Text Processing
- Ilias Chalkidis, Tommaso Pasini, Sheng Zhang, Letizia Tomada, Sebastian Schwemer, Anders Søgaard
- TLDR: Wir stellen eine Benchmark-Suche von vier Datensätzen zur Bewertung der Fairness von Vor-Trained-Lingual Modellen und zur Verbesserung der Robustheit bei der Lösung von Abhängigkeiten vor.
- Towards Abstractive Grounded Summarization of Podcast Transcripts
- Kaiqiang Song, Chen Li, Xiaoyang Wang, Dong Yu, Fei Liu
- TLDR: Wir schlagen eine abstrakte Zusammenfassungsmethode vor, die die Fälschungen von Zusammenfassungen mit den Eingabebeschriftungen berücksichtigt.
- FiNER: Financial Numeric Entity Recognition for XBRL Tagging
- Lefteris Loukas, Manos Fergadiotis, Ilias Chalkidis, Eirini Spyropoulou, Prodromos Malakasiotis, Ion Androutsopoulos, Georgios Paliouras
- TLDR: Wir stellen BERT vor, eine BERT-Modell-Architektur für die Entitätsextraktion von Geschäftsdokumenten.
- Keywords and Instances: A Hierarchical Contrastive Learning Framework Unifying Hybrid Granularities for Text Generation
- Mingzhe Li, XieXiong Lin, Xiuying Chen, Jinxiong Chang, Qishen Zhang, Feng Wang, Taifeng Wang, Zhongyi Liu, Wei Chu, Dongyan Zhao, Rui Yan
- TLDR: Wir schlagen einen hierarchischen Kontrast-Mechanismus vor, der hybride granularitäten semantisches Verständnis in den Eingabetext vereint.
- EPT-X: An Expression-Pointer Transformer model that generates eXplanations for numbers
- Bugeun Kim, Kyung Seo Ki, Sangkyu Rhim, Gahgene Gweon
- TLDR: Wir schlagen ein neuronales Modell EPT-X vor, das naturalistische Erklärungen nutzt, um ein algebraisches Wortproblem zu lösen.
- Identifying the Human Values behind Arguments
- Johannes Kiesel, Milad Alshomary, Nicolas Handke, Xiaoni Cai, Henning Wachsmuth, Benno Stein
- TLDR: Wir stellen eine neue Methode zur Klassifizierung und Anwendung von Human Values vor, die die menschlichen Werten entspricht.
- BenchIE: A Framework for Multi-Faceted Fact-Based Open Information Extraction Evaluation
- Kiril Gashteovski, Mingying Yu, Bhushan Kotnis, Carolin Lawrence, Mathias Niepert, Goran Glavaš
- TLDR: Wir stellen BenchIE vor, einen Benchmark und Evaluierungsrahmen für die umfassende Bewertung von OIE-Systemen für Englisch, Chinesisch und Deutsch.
- Leveraging Unimodal Self-Supervised Learning for Multimodal Audio-Visual Speech Recognition
- Xichen Pan, Peiyu Chen, Yichen Gong, Helong Zhou, Xinbing Wang, Zhouhan Lin
- TLDR: Wir schlagen ein neues, unbeaufsichtigtes, selbstüberwachtes Spracherkennungsmodell vor, das die Spracherkennung in mehreren Modien ermöglicht.
- SummaReranker: A Multi-Task Mixture-of-Experts Re-ranking Framework for Abstractive Summarization
- Mathieu Ravaut, Shafiq Joty, Nancy Chen
- TLDR: Wir trainieren ein zweites Modell, um eine Reihe von Kandidaten zu bewerten und zu re-Rankieren.
- Understanding Multimodal Procedural Knowledge by Sequencing Multimodal Instructional Manuals
- Te-Lin Wu, Alex Spangher, Pegah Alipoormolabashi, Marjorie Freedman, Ralph Weischedel, Nanyun Peng
- TLDR: Wir schlagen eine Methode vor, die die Sequenz- und Bilderkennung nutzt, um die Leistung von neuronalen Netzen bei der Erfassung von ungeordneten Aufgaben zu verbessern.
- Zoom Out and Observe: News Environment Perception for Fake News Detection
- Qiang Sheng, Juan Cao, Xueyao Zhang, Rundong Li, Danding Wang, Yongchun Zhu
- TLDR: Wir schlagen einen News Environment Perception Framework (NEP) vor, um die Umweltsignale von Nachrichten zu erfassen und die Verhinderung von Falschmeldungen zu erleichtern.
- Divide and Rule: Effective Pre-Training for Context-Aware Multi-Encoder Translation Models
- Lorenzo Lupo, Marco Dinarelli, Laurent Besacier
- TLDR: Wir stellen einen neuen Ansatz vor, der die Konsistenz von Texten über die Konsistenz von Texten hinweg nutzt.
- Saliency as Evidence: Event Detection with Trigger Saliency Attribution
- Jian Liu, Yufeng Chen, Jinan Xu
- TLDR: Wir stellen einen neuen Begriff vor, der auf trigger-abhängige und kontextabhängige Typen hinweist und die Entflechtungsverzerrung in Texten erkennt.
- SRL4E – Semantic Role Labeling for Emotions: A Unified Evaluation Framework
- Cesare Campagnano, Simone Conia, Roberto Navigli
- TLDR: Wir schlagen ein Bewertungsrahmen für Emotionen vor, das die Semantik von Emotionen und semantischen Rollen labelt.
- Context Matters: A Pragmatic Study of PLMs’ Negation Understanding
- Reto Gubelmann, Siegfried Handschuh
- TLDR: Wir schlagen einen empirischen Rahmen vor, um das Verständnis von Negation zu untersuchen, insbesondere bei transformerbasierten PLMs.
- Probing for Predicate Argument Structures in Pretrained Language Models
- Simone Conia, Roberto Navigli
- TLDR: Wir untersuchen, wie und zu welchem Zeitpunkt PLMs Informationen über SRL enkoppeln.
- Multilingual Generative Language Models for Zero-Shot Cross-Lingual Event Argument Extraction
- Kuan-Hao Huang, I-Hung Hsu, Prem Natarajan, Kai-Wei Chang, Nanyun Peng
- TLDR: Wir stellen eine Methode vor, die die Sprachausgangssprachen von Sprachmodellen für die Erfassung von Sprachbehauptungen nutzt.
- Identifying Moments of Change from Longitudinal User Text
- Adam Tsakalidis, Federico Nanni, Anthony Hills, Jenny Chim, Jiayu Song, Maria Liakata
- TLDR: Wir stellen eine neue Aufgabe vor, die die Erkennung von Momenten von Veränderungen in Bezug auf die Erstellung von Benutzerzeitlinien und eine Sammlung von 500 automatisch annotierten Benutzerzeitlinien vor.
- Multi-Task Pre-Training for Plug-and-Play Task-Oriented Dialogue System
- Yixuan Su, Lei Shu, Elman Mansimov, Arshit Gupta, Deng Cai, Yi-An Lai, Yi Zhang
- TLDR: Wir stellen PPTOD vor, ein Plug-and-Play-Modell für Aufgabenoriented Dialog.
- Graph Enhanced Contrastive Learning for Radiology Findings Summarization
- Jinpeng Hu, Zhuo Li, Zhihong Chen, Zhen Li, Xiang Wan, Tsung-Hui Chang
- TLDR: Wir schlagen einen Rahmen vor, der die extra Wissensdaten und die Ergebnisse der Beobachtungsgraphen in einer integrated way nutzt, um die Wichtigkeit der wichtigsten Informationen (i.e., Schlüsselwörter und ihre Beziehungen) zu nutzen.
- Semi-Supervised Formality Style Transfer with Consistency Training
- Ao Liu, An Wang, Naoaki Okazaki
- TLDR: Wir schlagen einen halbüberwachten Rahmen vor, um unbeschriftete Sätze besser zu nutzen.
- Cross-Lingual Ability of Multilingual Masked Language Models: A Study of Language Structure
- Yuan Chai, Yaobo Liang, Nan Duan
- TLDR: Wir untersuchen, warum die Fähigkeit zur sprachenübergreifenden Kommunikation aus einem Multi-Lingual-Modell hervorgehen kann.
- Rare and Zero-shot Word Sense Disambiguation using Z-Reweighting
- Ying Su, Hongming Zhang, Yangqiu Song, Tong Zhang
- TLDR: Wir analysieren die statistische Beziehung zwischen Wortfreundlichkeitsranken und Wortwahrnehmungszählungen und schlagen eine Z-Reweighting-Methode vor, um das Training auf dem imbalancen Datensatz zu optimieren.
- Nibbling at the Hard Core of Word Sense Disambiguation
- Marco Maru, Simone Conia, Michele Bevilacqua, Roberto Navigli
- TLDR: Wir stellen fest, dass die F1-Schollen-Metrik für die Word-Sense-Disambiguation nicht einfach genommen werden sollte und stellen eine Sammlung von Testsets und Modellvorhersagen vor, die die Fehler von WSD auf traditionelle Bewertungsbenchmark-Benchmarks beseitigen.
- Large Scale Substitution-based Word Sense Induction
- Matan Eyal, Shoval Sadde, Hillel Taub-Tabib, Yoav Goldberg
- TLDR: Wir stellen eine Methode zur Wort-Sense-Indumentierung vor, die auf einem corpus-deriierten Sprachmodell basiert und die meisten Sprachmodelle auf große Sprachrepräsentationen und Sprachfamilien übertrifft.
- Can Synthetic Translations Improve Bitext Quality?
- Eleftheria Briakou, Marine Carpuat
- TLDR: Wir verwenden synthetische Übersetzungen, um die Qualität von Texten zu verbessern, die mit dem Problem der Verzerrung von Verzerrungen in einem nicht-verallgemeinerbaren Bitext verbunden sind.
- Unsupervised Dependency Graph Network
- Yikang Shen, Shawn Tan, Alessandro Sordoni, Peng Li, Jie Zhou, Aaron Courville
- TLDR: Wir schlagen ein neues Modell vor, das Unsupervised Dependency Graph Network (UDGN), das kann, um Abhängigkeitsstrukturen aus Rohen und die Masked Language Modellierung zu injizieren.
- WikiDiverse: A Multimodal Entity Linking Dataset with Diversified Contextual Topics and Entity Types
- Xuwu Wang, Junfeng Tian, Min Gui, Zhixu Li, Rui Wang, Ming Yan, Lihan Chen, Yanghua Xiao
- TLDR: Wir stellen WikiDiverse vor, einen hochmodernen, humanen MEL-Datensätzen mit mehreren Themen und Entitätstypen aus Wikinews vor.
- Rewire-then-Probe: A Contrastive Recipe for Probing Biomedical Knowledge of Pre-trained Language Models
- Zaiqiao Meng, Fangyu Liu, Ehsan Shareghi, Yixuan Su, Charlotte Collins, Nigel Collier
- TLDR: Wir stellen Contrastive-Probe vor, einen neuartigen selbstüberwachten Vergleichs- und Probensalgorithmus, der die PLMs ohne Verwendung von Proben und Daten ausprobiert.
- Fine- and Coarse-Granularity Hybrid Self-Attention for Efficient BERT
- Jing Zhao, Yifan Wang, Junwei Bao, Youzheng Wu, Xiaodong He
- TLDR: Wir schlagen eine neue Methode zur Selbstaufmerksamkeit vor, die die Kosten für die Erfassung und die FLOPs reduziert.
- Compression of Generative Pre-trained Language Models via Quantization
- Chaofan Tao, Lu Hou, Wei Zhang, Lifeng Shang, Xin Jiang, Qun Liu, Ping Luo, Ngai Wong
- TLDR: Wir schlagen eine neue Methode zur Quantisierung von BERT vor, die die Leistung von BERT auf Modulebene übertrifft.
- Visual-Language Navigation Pretraining via Prompt-based Environmental Self-exploration
- Xiwen Liang, Fengda Zhu, Li Lingling, Hang Xu, Xiaodan Liang
- TLDR: Wir schlagen eine Methode vor, die die Umwelt mit Hilfe von CLIP und einem großen Modell von Sprachdatensätzen erweitert.
- DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for Dialog Response Generation
- Wei Chen, Yeyun Gong, Song Wang, Bolun Yao, Weizhen Qi, Zhongyu Wei, Xiaowu Hu, Bartuer Zhou, Yi Mao, Weizhu Chen, Biao Cheng, Nan Duan
- TLDR: Wir schlagen DialogVED vor, eine Erweiterung des Dialog-Vortrains, die kontinuierliche latente Variablen in den Encoder-Decoder-Rahmen einführt, um die relevanz und Vielfalt der Antworten zu erhöhen.
- Contextual Fine-to-Coarse Distillation for Coarse-grained Response Selection in Open-Domain Conversations
- Wei Chen, Yeyun Gong, Can Xu, Huang Hu, Bolun Yao, Zhongyu Wei, Zhihao Fan, Xiaowu Hu, Bartuer Zhou, Biao Cheng, Daxin Jiang, Nan Duan
- TLDR: Wir schlagen ein Context-to-Coarse-Distilled Modell vor, das die Coarse-Grennung bei der Antwortauswahl in offenen Domänen berücksichtigt.
- Textomics: A Dataset for Genomics Data Summary Generation
- Mu-Chun Wang, Zixuan Liu, Sheng Wang
- TLDR: Wir stellen Textomics vor, einen Datensatz von genomischen Datensätzen, der 22,273 Paare von Genomics-Datensätzen und ihre Zusammenfassungen enthält.
- A Contrastive Framework for Learning Sentence Representations from Pairwise and Triple-wise Perspective in Angular Space
- Yuhao Zhang, Hongji Zhu, Yongliang Wang, Nan Xu, Xiaobo Li, Binqiang Zhao
- TLDR: Wir schlagen eine neue Methode ArcCSE vor, die die Gleichwertigkeit von Satzrepräsentationen verbessert und die Entailment Relation von Satzrepräsentationen modelliert.
- Packed Levitated Marker for Entity and Relation Extraction
- Deming Ye, Yankai Lin, Peng Li, Maosong Sun
- TLDR: Wir schlagen einen neuen Ansatz vor, Packed Levitated Markers (PL-Marker), um die Interrelation zwischen den Spannen (pairs) durch Strategisch Packen der Marker in den Encoder zu berücksichtigen.
- An Interpretable Neuro-Symbolic Reasoning Framework for Task-Oriented Dialogue Generation
- Shiquan Yang, Rui Zhang, Sarah Erfani, Jey Han Lau
- TLDR: Wir stellen neurosymbolisches Argumentationsverschiebungsverfahren vor, das die Interpretabilität von Aufgaben- und Beobachtungsprotokollen verbessert.
- Impact of Evaluation Methodologies on Code Summarization
- Pengyu Nie, Jiyang Zhang, Junyi Jessy Li, Ray Mooney, Milos Gligoric
- TLDR: Wir stellen eine Zeitsegmented-Evaluierungsmethode vor, die auf die Code-Übersetzungsaufgabe angewendet werden kann.
- KG-FiD: Infusing Knowledge Graph in Fusion-in-Decoder for Open-Domain Question Answering
- Donghan Yu, Chenguang Zhu, Yuwei Fang, Wenhao Yu, Shuohang Wang, Yichong Xu, Xiang Ren, Yiming Yang, Michael Zeng
- TLDR: Wir stellen KG-FiD vor, ein Wissensgraphen-basiertes Modell, das die Strukturen der Eingabebeschriftungen und die Re-Ranking-Methode nutzt.
- Which side are you on? Insider-Outsider classification in conspiracy-theoretic social media
- Pavan Holur, Tianyi Wang, Shadi Shahsavari, Timothy Tangherlini, Vwani Roychowdhury
- TLDR: Wir stellen eine neue Theorie vor, die die Aufmerksamkeit auf die
- Learning From Failure: Data Capture in an Australian Aboriginal Community
- Eric Le Ferrand, Steven Bird, Laurent Besacier
- TLDR: Wir stellen eine Studie über den Prozess der Datenerfassung in einer Aboriginal-Community vor, die die Sprachdaten von Sprachverzerrungen in einer großen Sprachdatenmenge erfasst.
- Deep Inductive Logic Reasoning for Multi-Hop Reading Comprehension
- Wenya Wang, Sinno Pan
- TLDR: Wir schlagen eine auf Deep Learning basierende induktive Logik-Übersetzung vor, die die Zielbeziehungen in strukturierten Daten erforscht.
- CICERO: A Dataset for Contextualized Commonsense Inference in Dialogues
- Deepanway Ghosal, Siqi Shen, Navonil Majumder, Rada Mihalcea, Soujanya Poria
- TLDR: Wir stellen CICERO vor, einen Datensatz von Gesprächsverzerrungen mit fünf Typen von Handlungsverzerrungen: Umstände, Prioritäten, Motivation und Emotionen.
- A Comparative Study of Faithfulness Metrics for Model Interpretability Methods
- Chun Sik Chan, Huanqi Kong, Liang Guanqing
- TLDR: Wir stellen eine umfassende und vergleichende Studie der wichtigsten Metriken vor, die für die Erkennung von internen Schlussfolgerungen verwendet werden.
- SPoT: Better Frozen Model Adaptation through Soft Prompt Transfer
- Tu Vu, Brian Lester, Noah Constant, Rami Al-Rfou’, Daniel Cer
- TLDR: Wir schlagen einen neuen, auf promptbasiertem Transferlernen basierenden Ansatz vor, der die Leistung von Prompt Tuning erheblich verbessert.
- Pass off Fish Eyes for Pearls: Attacking Model Selection of Pre-trained Models
- Biru Zhu, Yujia Qin, Fanchao Qi, Yangdong Deng, Zhiyuan Liu, Maosong Sun, Ming Gu
- TLDR: Wir stellen fest, dass die meisten FMS-Algorithmen für eine bestimmte Aufgabe geeignet sind, und schlagen eine neue Methode vor, um die Übertragbarkeit von PTMs zu einer schnellen und genauen Bewertungsmaßnahme zu bewerten.
- Educational Question Generation of Children Storybooks via Question Type Distribution Learning and Event-centric Summarization
- Zhenjie Zhao, Yufang Hou, Dakuo Wang, Mo Yu, Chengzhong Liu, Xiaojuan Ma
- TLDR: Wir schlagen eine neue Methode zur Erstellung von Fragen zur Erstellung von Fairytale-Geschichten vor, die die Themenvielfalt eines Beitrags erfassen.
- HeterMPC: A Heterogeneous Graph Neural Network for Response Generation in Multi-Party Conversations
- Jia-Chen Gu, Chao-Hong Tan, Chongyang Tao, Zhen-Hua Ling, Huang Hu, Xiubo Geng, Daxin Jiang
- TLDR: Wir stellen HeterMPC vor, eine heterogene Architektur für die Antwortgenerierung in zwei Parteien, die die Semantik von Uttern und Interferenzen gleichzeitig mit zwei Typen von Knoten in einem Graphen modelliert.
- The patient is more dead than alive: exploring the current state of the multi-document summarisation of the biomedical literature
- Yulia Otmakhova, Karin Verspoor, Timothy Baldwin, Jey Han Lau
- TLDR: Wir analysieren die Probleme bei der Multi-Document-Sucturation und schlagen einen neuen Ansatz zur menschlichen Bewertung vor.
- A Multi-Document Coverage Reward for RELAXed Multi-Document Summarization
- Jacob Parnell, Inigo Jauregi Unanue, Massimo Piccardi
- TLDR: Wir schlagen eine neue Methode vor, die eine MDS-Basislinie mit einer Belohnung kombiniert, um eine bessere Dokumentenausbreitung zu erzielen.
- KNN-Contrastive Learning for Out-of-Domain Intent Classification
- Yunhua Zhou, Peiju Liu, Xipeng Qiu
- TLDR: Wir schlagen einen neuen Algorithmus vor, der die Erkennung von Out-of-Domain-Intenzen verbessert und gleichzeitig die Klassifizierung von OODs optimiert.
- A Neural Network Architecture for Program Understanding Inspired by Human Behaviors
- Renyu Zhu, Lei Yuan, Xiang Li, Ming Gao, Wenyuan Cai
- TLDR: Wir schlagen ein graphisches neuronales Netzmodell vor, das auf Codeverschlüsselung und Codeclone-Detektoren trainiert wird.
- FaVIQ: FAct Verification from Information-seeking Questions
- Jungsoo Park, Sewon Min, Jaewoo Kang, Luke Zettlemoyer, Hannaneh Hajishirzi
- TLDR: Wir stellen einen großen Datensatz mit 188k Behauptungen vor, der aus einem corpus von ambiguoten Informationensuchenden erzeugt werden kann.
- Simulating Bandit Learning from User Feedback for Extractive Question Answering
- Ge Gao, Eunsol Choi, Yoav Artzi
- TLDR: Wir lernen, Feedback von Benutzern zu nutzen, um die Erfassung von Fragen aus Benutzern zu lösen.
- Beyond Goldfish Memory: Long-Term Open-Domain Conversation
- Jing Xu, Arthur Szlam, Jason Weston
- TLDR: Wir stellen eine neue Methode zur Wiederverwendbarkeit von Gesprächsprotokollen vor, die auf lange Kontexte trainiert wurden.
- ReCLIP: A Strong Zero-Shot Baseline for Referring Expression Comprehension
- Sanjay Subramanian, William Merrill, Trevor Darrell, Matt Gardner, Sameer Singh, Anna Rohrbach
- TLDR: Wir stellen ReCLIP vor, eine einfache aber starke Erweiterung auf die Referenzausdrücken-Klassifikation.
- Dynamic Prefix-Tuning for Generative Template-based Event Extraction
- Xiao Liu, Heyan Huang, Ge Shi, Bo Wang
- TLDR: Wir schlagen eine generative Template-basierte Erfassungsmethode mit dynamischen Präfixen vor, die auf der Suche nach Objekten und Typen von Objekten effektiv ist.
- E-LANG: Energy-Based Joint Inferencing of Super and Swift Language Models
- Mohammad Akbari, Amin Banitalebi-Dehkordi, Yong Zhang
- TLDR: Wir schlagen einen dynamischen Inferenz-Ansatz vor, der große Supermodelle und leichtgewichtige Swift-Modelle in einem latenten Raum erfasst.
- PRIMERA: Pyramid-based Masked Sentence Pre-training for Multi-document Summarization
- Wen Xiao, Iz Beltagy, Giuseppe Carenini, Arman Cohan
- TLDR: Wir stellen PRIMERA vor, ein Pre-Trained Modell für die Zusammenfassung von Dokumenten.
- Dynamic Global Memory for Document-level Argument Extraction
- Xinya Du, Sha Li, Heng Ji
- TLDR: Wir stellen einen globalen neuronalen Generativen Rahmen für die Dokumentebene vor, der die globalen Kontextinformationen nutzt, um informative Argumente von Ereignissen aus Nachrichten zu extrahieren.
- Measuring the Impact of (Psycho-)Linguistic and Readability Features and Their Spill Over Effects on the Prediction of Eye Movement Patterns
- Daniel Wiechmann, Yu Qiao, Elma Kerz, Justus Mattern
- TLDR: Wir zeigen, dass die Merkmale von transformerbasierten Sprachmodellen eine Rolle bei der Vorhersage von menschlichem Erkunden und Sprachstilen spielen.
- Alternative Input Signals Ease Transfer in Multilingual Machine Translation
- Simeng Sun, Angela Fan, James Cross, Vishrav Chaudhary, Chau Tran, Philipp Koehn, Francisco Guzmán
- TLDR: Wir verwenden Signale, die die Verwendung von Schreibsystemen unify und die Verwendung von Übersetzungsaufgaben unify.
- Phone-ing it in: Towards Flexible Multi-Modal Language Model Training by Phonetic Representations of Data
- Colin Leong, Daniel Whitenack
- TLDR: Wir schlagen einen Multi-Modal-Ansatz vor, um Sprachmodelle mit Text und/oder Audiodaten aus einer Sprache zu trainieren.
- Noisy Channel Language Model Prompting for Few-Shot Text Classification
- Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer
- TLDR: Wir stellen einen neuen Ansatz vor, der auf Sprachmodelle für Kontextvorführungen und -propagation zurückgreifen kann.
- Multilingual unsupervised sequence segmentation transfers to extremely low-resource languages
- C. Downey, Shannon Drizin, Levon Haroutunian, Shivin Thukral
- TLDR: Wir stellen ein Multilingual-Modell vor, das auf einer Sammlung von 10 Sprachfamilien mit extrem wenigen Ressourcen trainiert werden kann.
- KinyaBERT: a Morphology-aware Kinyarwanda Language Model
- Antoine Nzeyimana, Andre Niyongabo Rubungo
- TLDR: Wir schlagen eine BERT-Architektur vor, die einen morphologischen Analyzer nutzt und morphologische Kompositionalitäten in morphologischen Texten erzeugt.
- On the Calibration of Pre-trained Language Models using Mixup Guided by Area Under the Margin and Saliency
- Seo Yeon Park, Cornelia Caragea
- TLDR: Wir schlagen eine neuartige Mischung von Modellen vor, die die Modellerwartungsverzerrung verbessert und gleichzeitig die Modellerwartungswahrnehmung erhöht.
- IMPLI: Investigating NLI Models’ Performance on Figurative Language
- Kevin Stowe, Prasetya Utama, Iryna Gurevych
- TLDR: Wir stellen einen neuen Datensatz für die Sprachinferenz vor, der von Idiomatiken und Metapheren umgekehrt abgeleitet wird.
- QAConv: Question Answering on Informative Conversations
- Chien-Sheng Wu, Andrea Madotto, Wenhao Liu, Pascale Fung, Caiming Xiong
- TLDR: Wir stellen QAConv vor, einen neuen Frage-Antwort-Datensätzen, der Gespräche als Wissenssource nutzt.
- Prix-LM: Pretraining for Multilingual Knowledge Base Construction
- Wenxuan Zhou, Fangyu Liu, Ivan Vulić, Nigel Collier, Muhao Chen
- TLDR: Wir schlagen Prix-LM vor, ein modell, das Multilingual Knowledge in einem gemeinsamen Raum erzeugt und die Erstellung und Durchführung von KBs ermöglicht.
- Semantic Composition with PSHRG for Derivation Tree Reconstruction from Graph-Based Meaning Representations
- Chun Hei Lo, Wai Lam, Hong Cheng
- TLDR: Wir stellen eine Datendriven-Architektur vor, die die Entflechtungsgraphen von Texten und Syntax-Eigenschaften erzeugt und gleichzeitig die Entflechtungsgraphen wiederherstellt.
- HOLM: Hallucinating Objects with Language Models for Referring Expression Recognition in Partially-Observed Scenes
- Volkan Cirik, Louis-Philippe Morency, Taylor Berg-Kirkpatrick
- TLDR: Wir stellen eine Methode vor, die auf Sprachmodelle zurückgreifen kann, um Objekte mit tiefen Verzweigungen zu erfassen.
- Multi Task Learning For Zero Shot Performance Prediction of Multilingual Models
- Kabir Ahuja, Shanu Kumar, Sandipan Dandapat, Monojit Choudhury
- TLDR: Wir schlagen eine Methode vor, die die Zero-Shot-Leistung eines Multi-Task-Lernens vorhersagen kann.
- \infty-former: Infinite Memory Transformer
- Pedro Henrique Martins, Zita Marinho, Andre Martins
- TLDR: Wir schlagen einen neuen Algorithmus vor, um lange Zeitgedächtnisse zu modellieren.
- Systematic Inequalities in Language Technology Performance across the World’s Languages
- Damian Blasi, Antonios Anastasopoulos, Graham Neubig
- TLDR: Wir stellen eine neue Methode zur Sprachverarbeitung vor, die auf der Verwendung von Deep Learning basiert.
- CaMEL: Case Marker Extraction without Labels
- Leonie Weissweiler, Valentin Hofmann, Masoud Jalili Sabet, Hinrich Schuetze
- TLDR: Wir stellen eine neue, aufwendige, einheitliche
- Improving Generalizability in Implicitly Abusive Language Detection with Concept Activation Vectors
- Isar Nejadgholi, Kathleen Fraser, Svetlana Kiritchenko
- TLDR: Wir stellen eine Methode vor, die die Aufmerksamkeit eines trainierten Modells auf die menschlichen Konzepte von explizite und implizite Ausnutzung von Ausdrücken und Sprachstilen quantifiziert.
- Reports of personal experiences and stories in argumentation: datasets and analysis
- Neele Falk, Gabriella Lapesa
- TLDR: Wir entwickeln robuste Klassifikatoren, um Dokumente mit persönlichen Berichten und Beobachtungen zu klassifizieren.
- Non-neural Models Matter: a Re-evaluation of Neural Referring Expression Generation Systems
- Fahime Same, Guanyi Chen, Kees Van Deemter
- TLDR: Wir haben zwei sehr unterschiedliche English-Datensätzen untersucht und die Ergebnisse auf der Grundlage von Regular-Regular-Systemen bewertet.
- Bridging the Generalization Gap in Text-to-SQL Parsing with Schema Expansion
- Chen Zhao, Yu Su, Adam Pauls, Emmanouil Antonios Platanios
- TLDR: Wir schlagen einen synthetischen Datensatz mit einem neuen Squall-Datensätzen vor, um ein Problem der Domain-Verallgemeinerung über die Eingabesätze zu lösen.
- Predicate-Argument Based Bi-Encoder for Paraphrase Identification
- Qiwei Peng, David Weir, Julie Weeds, Yekun Chai
- TLDR: Wir stellen eine Methode vor, die die Paraphraseidentifikationsaufgabe nutzt, um die Bedeutung von Satzpaaren zu untersuchen.
- MINER: Improving Out-of-Vocabulary Named Entity Recognition from an Information Theoretic Perspective
- Xiao Wang, Shihan Dou, Limao Xiong, Yicheng Zou, Qi Zhang, Tao Gui, Liang Qiao, Zhanzhan Cheng, Xuanjing Huang
- TLDR: Wir schlagen MINER vor, einen neuartigen NER-Rahmen für die Entitätserkennung, der die Information maximiert und die Darstellung von Entitäten verbessert.
- Leveraging Wikipedia article evolution for promotional tone detection
- Christine De Kock, Andreas Vlachos
- TLDR: Wir stellen WikiEvolve vor, einen Datensatz für die Erkennung von Verzerrungen auf Dokumentebene.
- From text to talk: Harnessing conversational corpora for humane and diversity-aware language technology
- Mark Dingemanse, Andreas Liesenfeld
- TLDR: Wir zeigen, dass Sprachkonnektivitäten von Sprachfamilien aus 63 Sprachen (26 Families) Einblicke in die Sprachstruktur und -dynamik enthalten.
- Flooding-X: Improving BERT’s Resistance to Adversarial Attacks via Loss-Restricted Fine-Tuning
- Qin Liu, Rui Zheng, Bao Rong, Jingyi Liu, ZhiHua Liu, Zhanzhan Cheng, Liang Qiao, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: Wir schlagen einen neuen Algorithmus vor, der die Texterzeugung von Texten mit Hilfe von Hyperparametern verringert.
- RoMe: A Robust Metric for Evaluating Natural Language Generation
- Md Rashad Al Hasan Rony, Liubov Kovriguina, Debanjan Chaudhuri, Ricardo Usbeck, Jens Lehmann
- TLDR: Wir schlagen eine automatische Bewertungsmetrik vor, die mehrere Kernfaktoren des natürlichen Sprachverständniss berücksichtigt.
- Finding Structural Knowledge in Multimodal-BERT
- Victor Milewski, Miryam de Lhoneux, Marie-Francine Moens
- TLDR: Wir untersuchen die Strukturen von Sprachbildern und zeigen, dass die Bilder in den Einbettungen von BERT nicht explizite Strukturen enthalten.
- Fully Hyperbolic Neural Networks
- Weize Chen, Xu Han, Yankai Lin, Hexu Zhao, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou
- TLDR: Wir schlagen eine hyperbolische Methode vor, um tiefe Netzwerke zu schaffen, die auf Lorentz-Transformationsen basieren.
- Neural Machine Translation with Phrase-Level Universal Visual Representations
- Qingkai Fang, Yang Feng
- TLDR: Wir schlagen eine phrasenbasierte Methode vor, um visuelle Informationen für den Quelltext von bestehenden Satzbildern zu erhalten, so dass MMT die Einschränkungen von Satzbildern durchgängig überwinden kann.
- M3ED: Multi-modal Multi-scene Multi-label Emotional Dialogue Database
- Jinming Zhao, Tenggan Zhang, Jingwen Hu, Yuchen Liu, Qin Jin, Xinchao Wang, Haizhou Li
- TLDR: Wir schlagen einen Multi-modal Multi-Szenen Multi-Label Emotional Dialogue vor, M
- Few-shot Named Entity Recognition with Self-describing Networks
- Jiawei Chen, Qing Liu, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: Wir schlagen ein Modell vor, das sich auf die Selbstbeschriftung von NERs verallgemeinert und die Verwendung von Konzepten ermöglicht.
- SpeechT5: Unified-Modal Encoder-Decoder Pre-Training for Spoken Language Processing
- Junyi Ao, Rui Wang, Long Zhou, Chengyi Wang, Shuo Ren, Yu Wu, Shujie Liu, Tom Ko, Qing Li, Yu Zhang, Zhihua Wei, Yao Qian, Jinyu Li, Furu Wei
- TLDR: Wir schlagen einen neuartigen Rahmen vor, der die Entflechtung von Text und Sprachdarstellungen in einem rekurrenten neuronalen Netz nutzt.
- Human Evaluation and Correlation with Automatic Metrics in Consultation Note Generation
- Francesco Moramarco, Alex Papadopoulos Korfiatis, Mark Perera, Damir Juric, Jack Flann, Ehud Reiter, Anya Belz, Aleksandar Savkov
- TLDR: Wir stellen eine umfangreiche empirische Bewertung von Vorschlagsbeschriftungen vor, die von einer einfachen, charakterbasierten Distanzmetriken abhängt.
- Unified Structure Generation for Universal Information Extraction
- Yaojie Lu, Qing Liu, Dai Dai, Xinyan Xiao, Hongyu Lin, Xianpei Han, Le Sun, Hua Wu
- TLDR: Wir schlagen einen Rahmen vor, der die Texterzeugung universell modelliert, adaptive Strukturen erzeugt und gemeinsam mit anderen Wissenssourcen allgemeine IE-Aufgaben erbringt.
- Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering
- Jing Zhang, Xiaokang Zhang, Jifan Yu, Jian Tang, Jie Tang, Cuiping Li, Hong Chen
- TLDR: Wir schlagen einen trainierbaren Subgraph-Retriever (SR) vor, der aus einem Schlussfolgerungsprozess abgeleitet wird, um eine bessere Retrieval- und Qualitätsvergabe zu erzielen.
- Pre-training to Match for Unified Low-shot Relation Extraction
- Fangchao Liu, Hongyu Lin, Xianpei Han, Boxi Cao, Le Sun
- TLDR: Wir schlagen Multi-Choice Matching Networks vor, um eine Low-Shot Relationsextraktion zu ermöglichen.
- Can Prompt Probe Pretrained Language Models? Understanding the Invisible Risks from a Causal View
- Boxi Cao, Hongyu Lin, Xianpei Han, Fangchao Liu, Le Sun
- TLDR: Wir untersuchen und analysieren, wie man das Phänomen des Phänomenen PLM aus einer kausalen Sicht wahrnimmt und die Biasen in den Bewerten und Schlussfolgerungen verfälscht.
- Evaluating Extreme Hierarchical Multi-label Classification
- Enrique Amigo, Agustín Delgado
- TLDR: Wir stellen eine empirische Metrik vor, die auf der Information Contrast Model (ICM) inspiriert ist und die Klassifizierungsprobleme in einer Hierarchie von mehreren Klassen lösen kann.
- What does the sea say to the shore? A BERT based DST style approach for speaker to dialogue attribution in novels
- Carolina Cuesta-Lazaro, Animesh Prasad, Trevor Wood
- TLDR: Wir stellen eine vollständige Pipeline vor, die die Erfassung von Text in einer Neuveröffentlichung und die Anwendbarkeit von Texten auf Dialoge ermöglicht.
- Measuring Fairness of Text Classifiers via Prediction Sensitivity
- Satyapriya Krishna, Rahul Gupta, Apurv Verma, Jwala Dhamala, Yada Pruksachatkun, Kai-Wei Chang
- TLDR: Wir schlagen eine neue Metrik vor, die die Fairness in maschinellen Lernmodellen quantifiziert, und zeigen, dass sie die Fairness von Menschen in einer Textklassifikation erfasst.
- RotateQVS: Representing Temporal Information as Rotations in Quaternion Vector Space for Temporal Knowledge Graph Completion
- Kai Chen, Ye Wang, Yitong Li, Aiping Li
- TLDR: Wir schlagen eine neue temporale Modellierungsmethode vor, die temporale Entitäten als Rotationen in Hamilton’s Quaternion Vector Space (RotateQVS) und Beziehungen als komplexe Vektorvektoren in Hamilton’s quaternion space (RotateQVS) darstellt.
- Feeding What You Need by Understanding What You Learned
- Xiaoqiang Wang, Bang Liu, Fangli Xu, Bo Long, Siliang Tang, Lingfei Wu
- TLDR: Wir stellen eine Methode vor, die die Fähigkeit eines Texts zu verstehen und Fragen aufbauen kann.
- Probing Simile Knowledge from Pre-trained Language Models
- Weijie Chen, Yongzhu Chang, Rongsheng Zhang, Jiashu Pu, Guandan Chen, Le Zhang, Yadong Xi, Yijiang Chen, Chang Su
- TLDR: Wir verwenden das Wissen über Gesagte, um die Aufgaben von Sprachmodellen und -interpretationen in einem uneinheitlichen Rahmen zu lösen.
- An Effective and Efficient Entity Alignment Decoding Algorithm via Third-Order Tensor Isomorphism
- Xin Mao, Meirong Ma, Hao Yuan, Jianchao Zhu, ZongYu Wang, Rui Xie, Wei Wu, Man Lan
- TLDR: Wir schlagen einen effektiven und effizienten Algorithmus zur Entflechtungsdekodierung vor, der die Entitätspaare zwischen KGs erkennt.
- Entailment Graph Learning with Textual Entailment and Soft Transitivity
- Zhibin Chen, Yansong Feng, Dongyan Zhao
- TLDR: Wir schlagen eine Methode vor, die Text- und Transition-Verbindungen in Entailment-Graphen modelliert, um die Verzerrung zu reduzieren.
- Logic Traps in Evaluating Attribution Scores
- Yiming Ju, Yuanzhe Zhang, Zhao Yang, Zhongtao Jiang, Kang Liu, Jun Zhao
- TLDR: Wir stellen Logiktrampel vor, die die Bewertung von Attributen verbessern.
- Continual Pre-training of Language Models for Math Problem Understanding with Syntax-Aware Memory Network
- Zheng Gong, Kun Zhou, Xin Zhao, Jing Sha, Shijin Wang, Ji-Rong Wen
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Semantik von Texten und Formulierungen zu lösen.
- Multitasking Framework for Unsupervised Simple Definition Generation
- Cunliang Kong, Yun Chen, Hengyuan Zhang, Liner Yang, Erhong Yang
- TLDR: Wir schlagen einen Multitasking-Rahmen vor, der eine Standard-Dynamik- und eine Sammlung von Texten erzeugt, die beliebige Definitionen enthalten.
- Learning to Reason Deductively: Math Word Problem Solving as Complex Relation Extraction
- Zhanming Jie, Jierui Li, Wei Lu
- TLDR: Wir schlagen einen Ansatz vor, der Erklärungsschritte zur iterativen Konstruktion von Satzrepräsentationen vorführt, um die Beziehungen zwischen den Mengen zu erklären.
- When did you become so smart, oh wise one?! Sarcasm Explanation in Multi-modal Multi-party Dialogues
- Shivani Kumar, Atharva Kulkarni, Md Shad Akhtar, Tanmoy Chakraborty
- TLDR: Wir schlagen eine neue Aufgabe vor, die die Sprachstruktur von Sätzen in Dialogen untersucht und die beste Leistung bei der globalen Informationsfusion erzielt.
- Toward Interpretable Semantic Textual Similarity via Optimal Transport-based Contrastive Sentence Learning
- Seonghyeon Lee, Dongha Lee, Seongbo Jang, Hwanjo Yu
- TLDR: Wir schlagen CLRCMD vor, einen kontrastiven Lernrahmen für die Erkennung und Interpretation von Satzmerkmalen.
- Pre-training and Fine-tuning Neural Topic Model: A Simple yet Effective Approach to Incorporating External Knowledge
- Linhai Zhang, Xuemeng Hu, Boyu Wang, Deyu Zhou, Qian-Wen Zhang, Yunbo Cao
- TLDR: Wir schlagen eine neuartige Methode vor, um externes Wissen in die Themenmodellierung zu integrieren, die auf großen Datensätzen trainiert wird.
- Multi-View Document Representation Learning for Open-Domain Dense Retrieval
- Shunyu Zhang, Yaobo Liang, Ming Gong, Daxin Jiang, Nan Duan
- TLDR: Wir schlagen einen Multiview-Dokumentrepräsentationsrahmen vor, um Dokumente aus mehreren Ansichten darzustellen und zu steuern, dass sie sich besser mit unterschiedlichen Dokumenten identifizieren lassen.
- Graph Pre-training for AMR Parsing and Generation
- Xuefeng Bai, Yulong Chen, Yue Zhang
- TLDR: Wir stellen eine neue Methode zur Texterzeugung vor, die auf graphenbasiertem Training anwendbar ist.
- Turning Tables: Generating Examples from Semi-structured Tables for Endowing Language Models with Reasoning Skills
- Ori Yoran, Alon Talmor, Jonathan Berant
- TLDR: Wir schlagen ein halbstrukturiertes Frage-Antwort-Modell vor, das die Antwort auf die Frage über mehrere Behauptungen ersetzt.
- RNG-KBQA: Generation Augmented Iterative Ranking for Knowledge Base Question Answering
- Xi Ye, Semih Yavuz, Kazuma Hashimoto, Yingbo Zhou, Caiming Xiong
- TLDR: Wir stellen RnG-KBQA vor, einen Rank-and-Generate-Ansatz für KBQA, der die Verzerrung bei der Generierung behebt.
- Rethinking Self-Supervision Objectives for Generalizable Coherence Modeling
- Prathyusha Jwalapuram, Shafiq Joty, Xiang Lin
- TLDR: Wir verwenden eine einfache Architektur, um die Aufgabe der Umwandlung von Text zu lösen und zeigen, dass sie die Qualität der Texterzeugung verbessert.
- Just Rank: Rethinking Evaluation with Word and Sentence Similarities
- Bin Wang, C.-C. Jay Kuo, Haizhou Li
- TLDR: Wir stellen eine neue Methode zur Bewertung von Wort- und Satzeinbettungen vor, die die Semantik der Verallgemeinerung nutzt.
- MarkupLM: Pre-training of Text and Markup Language for Visually Rich Document Understanding
- Junlong Li, Yiheng Xu, Lei Cui, Furu Wei
- TLDR: Wir schlagen MarkupLM vor, eine Methode zur Dokumentenerkennung, die auf Text, Bild und Markup-Lernansätzen basiert.
- CLIP Models are Few-Shot Learners: Empirical Studies on VQA and Visual Entailment
- Haoyu Song, Li Dong, Weinan Zhang, Ting Liu, Furu Wei
- TLDR: Wir stellen eine Methode vor, die die Sprachkenntnisse von CLIP erweitert und gleichzeitig die Sprachkenntnisse von Vision-Lernen verbessert.
- KQA Pro: A Dataset with Explicit Compositional Programs for Complex Question Answering over Knowledge Base
- Shulin Cao, Jiaxin Shi, Liangming Pan, Lunyiu Nie, Yutong Xiang, Lei Hou, Juanzi Li, Bin He, Hanwang Zhang
- TLDR: Wir stellen einen KoPL-Codesatz für komplexe KBQA vor, der die Erklärungsprozesse von Fragen komplexer Natursprachen darstellt.
- Debiased Contrastive Learning of Unsupervised Sentence Representations
- Kun Zhou, Beichen Zhang, Xin Zhao, Ji-Rong Wen
- TLDR: Wir stellen einen Rahmen für contrastives Lernen vor, der die Uneinheitlichkeit der gesamten Repräsentation verbessert.
- MSP: Multi-Stage Prompting for Making Pre-trained Language Models Better Translators
- Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu
- TLDR: Wir stellen Multi-Stage Prompting vor, einen einfachen und automatischen Ansatz zur Nutzung von Vor-Training- und Übersetzungsmodellen für Übersetzungsaufgaben.
- SalesBot: Transitioning from Chit-Chat to Task-Oriented Dialogues
- Ssu Chiu, Maolin Li, Yen-Ting Lin, Yun-Nung Chen
- TLDR: Wir schlagen ein Framework vor, um automatische Dialoge aus sozialen Chats zu generieren, ohne menschliches Einbindungsverhalten.
- UCTopic: Unsupervised Contrastive Learning for Phrase Representations and Topic Mining
- Jiacheng Li, Jingbo Shang, Julian McAuley
- TLDR: Wir schlagen einen neuartigen Rahmen für kontextbewusste Phrasendarstellungen und Themenminimierung vor, der auf der Suche nach Themen und Themenbeschriftungen effektiv ist.
- XLM-E: Cross-lingual Language Model Pre-training via ELECTRA
- Zewen Chi, Shaohan Huang, Li Dong, Shuming Ma, Bo Zheng, Saksham Singhal, Payal Bajaj, Xia Song, Xian-Ling Mao, Heyan Huang, Furu Wei
- TLDR: Wir stellen ELECTRA-basierte Aufgaben vor, die auf das Vortraining von sprachen mit mehreren Sprachfamilien anwendbar sind.
- Nested Named Entity Recognition as Latent Lexicalized Constituency Parsing
- Chao Lou, Songlin Yang, Kewei Tu
- TLDR: Wir verwenden einen maskierten Algorithmus zur Teilverzerrung und Inferenz, um nested named Entity Recognition (NER) zu modellieren.
- Can Explanations Be Useful for Calibrating Black Box Models?
- Xi Ye, Greg Durrett
- TLDR: Wir stellen eine Methode vor, die die Black-Box-Erklärungen nutzt, um ein Modell zu adaptieren, das auf mehreren Domänen mit begrenzten Zieldaten trainiert wurde.
- OIE@OIA: an Adaptable and Efficient Open Information Extraction Framework
- Xin Wang, Minlong Peng, Mingming Sun, Ping Li
- TLDR: Wir stellen eine neue adaptive und effiziente OIE-Architektur vor, die auf der Open Information Annotation basiert.
- ReACC: A Retrieval-Augmented Code Completion Framework
- Shuai Lu, Nan Duan, Hojae Han, Daya Guo, Seung-won Hwang, Alexey Svyatkovskiy
- TLDR: Wir schlagen einen neuen Ansatz vor, der die Code-Erfüllung von Programmen aus Quellcode-Datensätzen erweitert und die Code-Erfüllung in Python und Java verbessert.
- Does Recommend-Revise Produce Reliable Annotations? An Analysis on Missing Instances in DocRED
- Quzhe Huang, Shibo Hao, Yuan Ye, Shengqi Zhu, Yansong Feng, Dongyan Zhao
- TLDR: Wir stellen fest, dass die Empfehlungsrevise-Schema für die Dokumentenrekonstruktion nicht geeignet ist.
- UniPELT: A Unified Framework for Parameter-Efficient Language Model Tuning
- Yuning Mao, Lambert Mathias, Rui Hou, Amjad Almahairi, Hao Ma, Jiawei Han, Scott Yih, Madian Khabsa
- TLDR: Wir schlagen ein neuartiges Framework vor, das verschiedene PELT-Methoden als Module einbezieht und lernt, die ones that best suit der aktuellen Daten oder Aufgabe setup via Gating mechanism.
- An Empirical Study of Memorization in NLP
- Xiaosen Zheng, Jing Jiang
- TLDR: Wir stellen fest, dass die meisten Top-Ranking-Memorisierungen für die Klassifizierung von Lerninstanzen eher typisch sind.
- AmericasNLI: Evaluating Zero-shot Natural Language Understanding of Pretrained Multilingual Models in Truly Low-resource Languages
- Abteen Ebrahimi, Manuel Mager, Arturo Oncevay, Vishrav Chaudhary, Luis Chiruzzo, Angela Fan, John Ortega, Ricardo Ramos, Annette Rios, Ivan Vladimir Meza Ruiz, Gustavo Giménez-Lugo, Elisabeth Mager, Graham Neubig, Alexis Palmer, Rolando Coto-Solano, Thang Vu, Katharina Kann
- TLDR: Wir stellen XLM-R vor, eine Erweiterung auf XNLI, die 10 Sprachregionen in den Vereinigten Staaten von Amerika nutzt.
- Towards Learning (Dis)-Similarity of Source Code from Program Contrasts
- Yangruibo Ding, Luca Buratti, Saurabh Pujar, Alessandro Morari, Baishakhi Ray, Saikat Chakraborty
- TLDR: Wir stellen eine neue Methode vor, die auf die Identifizierung von (dis)-Sampling-Funktionen von Quellcode basiert und die Code-Lösung und -Verschlüsselung von Programmen mit Hilfe von Programmen mit ähnlichen Programmen aus der Umgebung ermöglicht.
- Guided Attention Multimodal Multitask Financial Forecasting with Inter-Company Relationships and Global and Local News
- Gary Ang, Ee-Peng Lim
- TLDR: Wir schlagen ein neuartiges Aufmerksamkeitsmechanismus vor, das sowohl global als auch lokal Informationen erfasst, die für die Vorhersage von Börsengewinnen verwendet werden.
- On Vision Features in Multimodal Machine Translation
- Bei Li, Chuanhao Lv, Zefan Zhou, Tao Zhou, Tong Xiao, Anxiang Ma, JingBo Zhu
- TLDR: Wir untersuchen, wie die visuelle Welt die Fähigkeit von Visionmodellen nutzt, um die Bildqualität bei der maschinelle Übersetzung zu verbessern.
- CONTaiNER: Few-Shot Named Entity Recognition via Contrastive Learning
- Sarkar Snigdha Sarathi Das, Arzoo Katiyar, Rebecca Passonneau, Rui Zhang
- TLDR: Wir stellen eine neuartige Methode vor, die die Inter-Tken-Verteilungsdistanz für Few-Shot NER optimiert.
- Cree Corpus: A Collection of nêhiyawêwin Resources
- Daniela Teodorescu, Josie Matalski, Delaney Lothian, Denilson Barbosa, Carrie Demmans Epp
- TLDR: Wir haben einen Korpus mit verschiedenen Genres, Zeiträumen und Texten für eine Vielzahl von Zielgruppen entwickelt.
- Learning to Rank Visual Stories From Human Ranking Data
- Chi-Yang Hsu, Yun-Wei Chu, Vincent Chen, Kuan-Chieh Lo, Chacha Chen, Ting-Hao Huang, Lun-Wei Ku
- TLDR: Wir verwenden menschliche Bewertungsergebnisse, um Vrank zu lernen, eine neue Bewertungsmetrik für das Erlernen von Texten.
- Universal Conditional Masked Language Pre-training for Neural Machine Translation
- Pengfei Li, Liangyou Li, Meng Zhang, Minghao Wu, Qun Liu
- TLDR: Wir stellen ein bedingtes Masked Language Modell vor, das mit einem Bidirectional Decoder trainiert wird, um eine erhebliche Verbesserung bei der neuronalen Machine Translation zu erzielen.
- CARETS: A Consistency And Robustness Evaluative Test Suite for VQA
- Carlos E. Jimenez, Olga Russakovsky, Karthik Narasimhan
- TLDR: Wir stellen CARETS vor, eine Test-Suche zur Messung der Robustheit von modernen VQA-Modellen durch eine Reihe von fine-grained Capability Tests.
- Phrase-aware Unsupervised Constituency Parsing
- Xiaotao Gu, Yikang Shen, Jiaming Shen, Jingbo Shang, Jiawei Han
- TLDR: Wir schlagen eine phrasenbasierte Maskierungsstrategie vor, die die Identifikation von tiefen Strukturen ermöglicht.
- Achieving Reliable Human Assessment of Open-Domain Dialogue Systems
- Tianbo Ji, Yvette Graham, Gareth Jones, Chenyang Lyu, Qun Liu
- TLDR: Wir stellen eine neue Methode zur Bewertung von Dialogsystemen vor, die auf der Suche nach einem besseren Algorithmus für die Bewertung von Gesprächsverhältnissen ist.
- Updated Headline Generation: Creating Updated Summaries for Evolving News Stories
- Sheena Panthaplackel, Adrian Benton, Mark Dredze
- TLDR: Wir schlagen eine neue Aufgabe vor, die die Erstellung einer neuen Satzbeschriftung und die Erstellung von Texten zur allgemeinen Satzvervollständigung ermöglicht.
- SaFeRDialogues: Taking Feedback Gracefully after Conversational Safety Failures
- Megan Ung, Jing Xu, Y-Lan Boureau
- TLDR: Wir schlagen SaFeRDialogues vor, eine Aufgabe und einen Datensatz von Graceful Responses zu Gesprächsbeobachtungen, die auf die Sicherheit von Gesprächspartnern hinweisen.
- Compositional Generalization in Dependency Parsing
- Emily Goodwin, Siva Reddy, Timothy O’Donnell, Dzmitry Bahdanau
- TLDR: Wir stellen eine gold-standard-Ausgangsbasis für kompositorische Parsing-Methoden vor und verwenden sie, um die Leistung eines Klassikers zu bewerten.
- ASPECTNEWS: Aspect-Oriented Summarization of News Documents
- Ojas Ahuja, Jiacheng Xu, Akshay Gupta, Kevin Horecka, Greg Durrett
- TLDR: Wir stellen einen Datensatz von Text-zusammenfassungen vor, die auf Themen mit Themen in Nachrichten unter den Themenbereichen von Artikeln, gemeinerungen und Strafverfahren basieren.
- MemSum: Extractive Summarization of Long Documents Using Multi-Step Episodic Markov Decision Processes
- Nianlong Gu, Elliott Ash, Richard Hahnloser
- TLDR: Wir stellen MEMSum vor, einen Reinforcement Learning-basierten Satzausfassungsverschlüsseler, der die gesamte Dokumentenausfassung erfasst.
- CLUES: A Benchmark for Learning Classifiers using Natural Language Explanations
- Rakesh R. Menon, Sayan Ghosh, Shashank Srivastava
- TLDR: Wir stellen Clues vor, einen Benchmark für das Lernen von Klassifikatoren aus Erklärungen.
- Substructure Distribution Projection for Zero-Shot Cross-Lingual Dependency Parsing
- Freda Shi, Kevin Gimpel, Karen Livescu
- TLDR: Wir stellen Substructure-Verteilungsprojektion vor, eine Technik, die eine Verteilung über Strukturen in einer Domänen zu einer anderen ermöglicht.
- Multilingual Detection of Personal Employment Status on Twitter
- Manuel Tonneau, Dhaval Adjodah, Joao Palotti, Nir Grinberg, Samuel Fraiberger
- TLDR: Wir analysieren und identifizieren fünf Typen von Belegen über die Arbeitslosigkeit in drei Sprachen und zeigen, dass die Implementierung von BERT-basierten Klassifizierungsmodellen große und vielfältige Vorteile bietet.
- MultiHiertt: Numerical Reasoning over Multi Hierarchical Tabular and Textual Data
- Yilun Zhao, Yunxiang Li, Chenying Li, Rui Zhang
- TLDR: Wir stellen MultiHiertt vor, eine neue große Aufgabe, die auf der Suche nach Daten für die Beantwortung von Fragen mit mehreren Dokumenten und Texten basiert.
- Transformers in the loop: Polarity in neural models of language
- Lisa Bylinina, Alexey Tikhonov
- TLDR: Wir stellen eine empirische Bewertung von Sprachmodellen vor, die die Polarität in neuronalen Sprachmodellen probeführt.
- Bridging the Data Gap between Training and Inference for Unsupervised Neural Machine Translation
- Zhiwei He, Xing Wang, Rui Wang, Shuming Shi, Zhaopeng Tu
- TLDR: Wir stellen eine unüberwachte neuronale maschinelle Übersetzung vor, die pseudo-konvexen Daten aus mehreren Datensätzen erzeugt.
- SDR: Efficient Neural Re-ranking using Succinct Document Representation
- Nachshon Cohen, Amit Portnoy, Besnik Fetahu, Amir Ingber
- TLDR: Wir schlagen ein neues SDR-Schema vor, das die Vorkomputation von Dokumenten in einer Reihe von Architekturen ermöglicht.
- The AI Doctor Is In: A Survey of Task-Oriented Dialogue Systems for Healthcare Applications
- Mina Valizadeh, Natalie Parde
- TLDR: Wir haben eine umfangreiche technische Bewertung von Arzt- und Patientenkorrespondenzsystemen durchgeführt, und die Ergebnisse zeigen, dass die Implementierung von Arzt- und Patientenkorrespondenzsystemen auf systemebene nicht ausreichend berücksichtigt werden.
- SHIELD: Defending Textual Neural Networks against Multiple Black-Box Adversarial Attacks with Stochastic Multi-Expert Patcher
- Thai Le, Noseong Park, Dongwon Lee
- TLDR: Wir schlagen einen neuartigen Algorithmus vor, der die letzten Schichten eines Textnetzwerks patcht und so die Textverfälschungen eines gegnerischen Angriffs übertrifft.
- Accurate Online Posterior Alignments for Principled Lexically-Constrained Decoding
- Soumya Chatterjee, Sunita Sarawagi, Preethi Jyothi
- TLDR: Wir schlagen eine neue Methode vor, die wirklich online ist und die durchschnittlichen Fehlerraten von lexikalisch beschränkenden Übersetzungsaufgaben übertrifft.
- Leveraging Task Transferability to Meta-learning for Clinical Section Classification with Limited Data
- Zhuohao Chen, Jangwon Kim, Ram Bhakta, Mustafa Sir
- TLDR: Wir schlagen eine Methode vor, die die Aufgabeverschiebung bei der Meta-Lernen verbessert und gleichzeitig die Qualität der Klassifizierungsgenauigkeit erhöht.
- Reinforcement Guided Multi-Task Learning Framework for Low-Resource Stereotype Detection
- Rajkumar Pujari, Erik Oveson, Priyanka Kulkarni, Elnaz Nouri
- TLDR: Wir stellen ein Multi-Task-Lernen vor, das die Verzerrung von Stereotypen in Text erkennt und die Verbesserung der empirischen Leistung bei der Erkennung von Verzerrungen und Verzerrungen in Texten ermöglicht.
- Letters From the Past: Modeling Historical Sound Change Through Diachronic Character Embeddings
- Sidsel Boldsen, Patrizia Paggio
- TLDR: Wir schlagen eine Methode vor, die die Veränderungen von Sprachverschiebungen in den Quellen kennt, und die Ergebnisse in synthetischen Daten zu überprüfen.
- A Token-level Reference-free Hallucination Detection Benchmark for Free-form Text Generation
- Tianyu Liu, Yizhe Zhang, Chris Brockett, Yi Mao, Zhifang Sui, Weizhu Chen, Bill Dolan
- TLDR: Wir schlagen eine neuartige, auf token- und beschrifteten Ebenen, beweisungsfreie Hallucinationserkennung vor und einen neuen Datensatz für die Erkennung von Verfälschungen vor.
- Low-Rank Softmax Can Have Unargmaxable Classes in Theory but Rarely in Practice
- Andreas Grivas, Nikolay Bogoychev, Adam Lopez
- TLDR: Wir stellen einen Algorithmus zur Erkennung von unargmachtigen Zeichen in maschinellen Übersetzungsmodellen vor.
- Prompt for Extraction? PAIE: Prompting Argument Interaction for Event Argument Extraction
- Yubo Ma, Zehao Wang, Yixin Cao, Mukai Li, Meiqi Chen, Kun Wang, Jing Shao
- TLDR: Wir schlagen ein effektives und effizientes Modell vor, das auf Satz- und Dokumentebene EAE nutzt, um die besten Ergebnisse bei der Erfassung von Argumenten zu erzielen.
- Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework
- Shaolei Zhang, Yang Feng
- TLDR: Wir analysieren und lösen das Problem der Positionsbias bei der vollständigen Texterzeugung und entwickeln einen Rahmen für die Erweiterung dieser Biasen.
- A Statutory Article Retrieval Dataset in French
- Antoine Louis, Gerasimos Spanakis
- TLDR: Wir stellen einen neuen Datensatz für juristisches Leseverstehen vor, der juristische Artikel aus einem corpus von 22,600+ Belgischen Strafgesetzbüchern automatisch erfasst.
- ParaDetox: Detoxification with Parallel Data
- Varvara Logacheva, Daryna Dementieva, Sergey Ustyantsev, Daniil Moskovskiy, David Dale, Irina Krotova, Nikita Semenov, Alexander Panchenko
- TLDR: Wir stellen eine neue Pipeline für die Sammlung von parallelen Daten zur Detoxifizierung vor und zeigen, dass sie die Leistung von Detoxification-Systemen erheblich verbessert.
- Interpreting Character Embeddings With Perceptual Representations: The Case of Shape, Sound, and Color
- Sidsel Boldsen, Manex Agirrezabal, Nora Hollenstein
- TLDR: Wir verwenden eine Methode zur Bewertung von Sprachrepräsentationen, um zu verstehen, wie sich die Sprachinformationen in Text- und Phrasenrepräsentationen verallgemeinert.
- Fine-Grained Controllable Text Generation Using Non-Residual Prompting
- Fredrik Carlsson, Joey Öhman, Fangyu Liu, Severine Verlinden, Joakim Nivre, Magnus Sahlgren
- TLDR: Wir schlagen eine Methode vor, die die Verwendung von Textausfüllungen in CLMs ermöglicht, um die Texterzeugung in Textform zu beschleunigen.
- Language-Agnostic Meta-Learning for Low-Resource Text-to-Speech with Articulatory Features
- Florian Lux, Thang Vu
- TLDR: Wir verwenden GANs, um Phoneme Repräsentationen zu lernen, die sich auf Sprachfamilien übertragen lassen.
- TwittIrish: A Universal Dependencies Treebank of Tweets in Modern Irish
- Lauren Cassidy, Teresa Lynn, James Barry, Jennifer Foster
- TLDR: Wir stellen eine erste Universal-Dependencies-Baumbank von Irish-Tweets vor, die das syntaktische Parsing von Benutzer-generierten Inhalten ermöglicht.
- Length Control in Abstractive Summarization by Pretraining Information Selection
- Yizhu Liu, Qi Jia, Kenny Zhu
- TLDR: Wir schlagen einen Aufmerksamkeitsmechanismus vor, um die Encoding-Löser zu kontrollieren und die Auswahl von Informationen aus dem Quelldokument zu verkürzen.
- CQG: A Simple and Effective Controlled Generation Framework for Multi-hop Question Generation
- Zichu Fei, Qi Zhang, Tao Gui, Di Liang, Sirui Wang, Wei Wu, Xuanjing Huang
- TLDR: Wir schlagen eine kontrollierte Methode zur Multi-Hop-Erstellung vor, die die Komplexität und Qualität der Fragen erhöht.
- Word Order Does Matter and Shuffled Language Models Know It
- Mostafa Abdou, Vinit Ravishankar, Artur Kulmizev, Anders Søgaard
- TLDR: Wir zeigen, dass Sprachmodelle, die auf Texten shuffled, nachdem sie eine Subwortsegmentierung durchgeführt haben, eine bestimmte Information über die Worteinbettungen behalten.
- An Empirical Study on Explanations in Out-of-Domain Settings
- George Chrysostomou, Nikolaos Aletras
- TLDR: Wir stellen eine empirische Studie vor, die die Out-of-Domain-Faithfulness von Post-hoc-Erklärungen und die Out-of-Domain-Faithfulness von Eigenschaften und Bezeichnungen von Feature-Attribution-Methoden unter Berücksichtigung der Merkmalsverteilung und der Beantwortung von Labels vorschlägt.
- MILIE: Modular & Iterative Multilingual Open Information Extraction
- Bhushan Kotnis, Kiril Gashteovski, Daniel Rubio, Ammar Shaker, Vanesa Rodriguez-Tembras, Makoto Takamoto, Mathias Niepert, Carolin Lawrence
- TLDR: Wir schlagen ein neuronales OpenIE-System vor, das iterative Methoden zur Informationerfassung nutzt.
- What Makes Reading Comprehension Questions Difficult?
- Saku Sugawara, Nikita Nangia, Alex Warstadt, Samuel Bowman
- TLDR: Wir stellen fest, dass die Beantwortung von Fragen mit verschiedenen Begründungsarten für die Beantwortung von Texten aus Texten mit mehreren Beschriftungszusammenfassungen nicht unbedingt die Beantwortung von Fragen schwieriger macht.
- From Simultaneous to Streaming Machine Translation by Leveraging Streaming History
- Javier Iranzo Sanchez, Jorge Civera, Alfons Juan-Císcar
- TLDR: Wir schlagen eine neue Methode vor, die auf stream-Ebene die Verzerrungsverzerrung verbessert und die Qualität bei der gleichzeitigen Übersetzung erhöht.
- A Rationale-Centric Framework for Human-in-the-loop Machine Learning
- Jinghui Lu, Linyi Yang, Brian Namee, Yue Zhang
- TLDR: Wir stellen einen neuartigen Rahmen mit Human-in-the-loop vor, der rationales-centric Double-robustness Learning (RDL) nutzt, um das Modell für weniger als eine Aufgabe zu verbessern.
- Challenges and Strategies in Cross-Cultural NLP
- Daniel Hershcovich, Stella Frank, Heather Lent, Miryam de Lhoneux, Mostafa Abdou, Stephanie Brandl, Emanuele Bugliarello, Laura Cabello Piqueras, Ilias Chalkidis, Ruixiang Cui, Constanza Fierro, Katerina Margatina, Phillip Rust, Anders Søgaard
- TLDR: Wir schlagen einen Rahmen für die Bewertung und die Bewertung von Sprach- und Kulturengpässen vor.
- Prototypical Verbalizer for Prompt-based Few-shot Tuning
- Ganqu Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu
- TLDR: Wir schlagen einen neuen Algorithmus vor, der auf der Verwendung von Vorvorschlägen basiert, um die Klassifizierungs- und Entitätsausformulierung von PLMs zu verbessern.
- Clickbait Spoiling via Question Answering and Passage Retrieval
- Matthias Hagen, Maik Fröbe, Artur Jurk, Martin Potthast
- TLDR: Wir stellen eine Aufgabe vor, die auf neugierige Menschenschaften abzielt, und zeigen, dass die Verwendung von Klickbaits die Aufmerksamkeit auf eine bestimmte Aufgabe erhöht.
- BERT Learns to Teach: Knowledge Distillation with Meta Learning
- Wangchunshu Zhou, Canwen Xu, Julian McAuley
- TLDR: Wir stellen Meta-Lernen vor, eine einfache und effektive Methode zur Wissensdestillation, die das Lernen von Wissen in neuronale Netze verbessert.
- STEMM: Self-learning with Speech-text Manifold Mixup for Speech Translation
- Qingkai Fang, Rong Ye, Lei Li, Yang Feng, Mingxuan Wang
- TLDR: Wir schlagen eine Methode vor, die die Sprachrepräsentationen von Sprachmodellen in mehreren Modien gleichzeitig ersetzt.
- Integrating Vectorized Lexical Constraints for Neural Machine Translation
- Shuo Wang, Zhixing Tan, Yang Liu
- TLDR: Wir schlagen eine neue Integrationsmethode vor, die die lexikalischen Konsräints in neuronale Modelle integriert.
- MPII: Multi-Level Mutual Promotion for Inference and Interpretation
- Yan Liu, Sanyuan Chen, Yazheng Yang, Qi Dai
- TLDR: Wir schlagen einen Multi-Elebe-Mechanismus vor, um die Inferenz und Interpretation auf Satzebene zu fördern.
- StableMoE: Stable Routing Strategy for Mixture of Experts
- Damai Dai, Li Dong, Shuming Ma, Bo Zheng, Zhifang Sui, Baobao Chang, Furu Wei
- TLDR: Wir schlagen eine neue Methode zur Lösung des Routing-Frutungsproblems vor, die auf einer leichten, aber stabilen Routenstruktur basiert.
- Boundary Smoothing for Named Entity Recognition
- Enwei Zhu, Jinpeng Li
- TLDR: Wir schlagen eine Methode vor, die die Abhängigkeit von NER-Spezifikationen minimiert und gleichzeitig die Modellklassifikation verbessert.
- Incorporating Hierarchy into Text Encoder: a Contrastive Learning Approach for Hierarchical Text Classification
- Zihan Wang, Peiyi Wang, Lianzhe Huang, Xin Sun, Houfeng Wang
- TLDR: Wir schlagen Hierarchy-guided Contrastive Learning (HGCLR) vor, um die Texterweiterung in einen Textencoder zu integrieren.
- Signal in Noise: Exploring Meaning Encoded in Random Character Sequences with Character-Aware Language Models
- Mark Chu, Bhargav Srinivasa Desikan, Ethan Nadler, Donald Ruggiero Lo Sardo, Elise Darragh-Ford, Douglas Guilbeault
- TLDR: Wir zeigen, dass die Bedeutung von Wortrepräsentationen und die Entstehung von Sprachstilen in extrinsischen Sprachen miteinander verbunden sind.
- Hyperlink-induced Pre-training for Passage Retrieval in Open-domain Question Answering
- Jiawei Zhou, Xiaoguang Li, Lifeng Shang, Lan Luo, Ke Zhan, Enrui Hu, Xinyu Zhang, Hao Jiang, Zhao Cao, Fan Yu, Xin Jiang, Qun Liu, Lei Chen
- TLDR: Wir schlagen Hyperlink-induced Pre-Training (HLP) vor, eine Methode zur Vorhersage des Datenverlusts beim Deep Learning.
- AdaLoGN: Adaptive Logic Graph Network for Reasoning-Based Machine Reading Comprehension
- Xiao Li, Gong Cheng, Ziheng Chen, Yawei Sun, Yuzhong Qu
- TLDR: Wir stellen einen neuronalen Graphenabsatz vor, der logische Schlussfolgerungen über Text erzeugt.
- CAMERO: Consistency Regularized Ensemble of Perturbed Language Models with Weight Sharing
- Chen Liang, Pengcheng He, Yelong Shen, Weizhu Chen, Tuo Zhao
- TLDR: Wir schlagen einen neuen Ansatz für das Ensemble-Lernen vor, der die Vielfalt der Modelle fördert.
- Interpretability for Language Learners Using Example-Based Grammatical Error Correction
- Masahiro Kaneko, Sho Takase, Ayana Niwa, Naoaki Okazaki
- TLDR: Wir stellen eine Beispielbasierte Grammatik-Korrespondenzmethode vor, die Beispiele zur Sprachausführung verwendet.
- Rethinking Negative Sampling for Handling Missing Entity Annotations
- Yangming Li, Lemao Liu, Shuming Shi
- TLDR: Wir stellen negatives Sampling vor, das für die Entflechtung von Entitäten geeignet ist.
- Distantly Supervised Named Entity Recognition via Confidence-Based Multi-Class Positive and Unlabeled Learning
- Kang Zhou, Yuepei Li, Qi Li
- TLDR: Wir stellen ein neuartiges, auf Vertrauen basierendes Modell für das Problem der Entitätserkennung vor und schlagen einen neuen Ansatz vor, um das Problem der Entitätserkennung effektiv zu lösen.
- UniXcoder: Unified Cross-Modal Pre-training for Code Representation
- Daya Guo, Shuai Lu, Nan Duan, Yanlin Wang, Ming Zhou, Jian Yin
- TLDR: Wir stellen einen Code-Frequenz-Decoder vor, der Code-Frequenz-Repräsentationen erlernen kann.
- One Country, 700+ Languages: NLP Challenges for Underrepresented Languages and Dialects in Indonesia
- Alham Fikri Aji, Genta Indra Winata, Fajri Koto, Samuel Cahyawijaya, Ade Romadhony, Rahmad Mahendra, Kemal Kurniawan, David Moeljadi, Radityo Eko Prasojo, Timothy Baldwin, Jey Han Lau, Sebastian Ruder
- TLDR: Wir stellen einen aktuellen Stand der NLP-Forschung für die Sprachen von Indonesia vor und geben Empfehlungen für NLP-Techniken für Sprachbeschriftungen.
- Is GPT-3 Text Indistinguishable from Human Text? Scarecrow: A Framework for Scrutinizing Machine Text
- Yao Dou, Maxwell Forbes, Rik Koncel-Kedziorski, Noah A. Smith, Yejin Choi
- TLDR: Wir schlagen ein neues Framework vor, das auf die Klassifizierung von Fehlern in menschlichen Texten und auf die Bewertung von maschinellen Texten basiert.
- Transkimmer: Transformer Learns to Layer-wise Skim
- Yue Guan, Zhengyi Li, Jingwen Leng, Zhouhan Lin, Minyi Guo
- TLDR: Wir schlagen Transkimmer vor, eine Architektur, die lernt, die Verschlüsselungstoken zu erkennen, um die Entscheidung über die Verwäumungigung zu treffen.
- SkipBERT: Efficient Inference with Shallow Layer Skipping
- Jue Wang, Ke Chen, Gang Chen, Lidan Shou, Julian McAuley
- TLDR: Wir schlagen SkipBERT vor, BERT zu beschleunigen, indem wir die Erfassung von tiefen Schichten unterbrechen.
- Pretraining with Artificial Language: Studying Transferable Knowledge in Language Models
- Ryokan Ri, Yoshimasa Tsuruoka
- TLDR: Wir untersuchen, was für ein tiefes neuronales Netz lernt, um die natürliche Sprache zu beschreiben.
- mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models
- Ryokan Ri, Ikuya Yamada, Yoshimasa Tsuruoka
- TLDR: Wir stellen Entitäten vor, die in Sprachmodellen verwendet werden können, um sprachenübergreifende Aufgaben zu lösen.
- Evaluating Factuality in Text Simplification
- Ashwin Devaraj, William Sheffield, Byron Wallace, Junyi Jessy Li
- TLDR: Wir stellen eine taxonomik von Fehlern vor, die wir verwenden, um sowohl die Klassifizierungsdatensätze als auch die Modelle zu analysieren.
- Requirements and Motivations of Low-Resource Speech Synthesis for Language Revitalization
- Aidan Pine, Dan Wells, Nathan Brinklow, Patrick Littell, Korin Richmond
- TLDR: Wir schlagen eine Methode vor, die die Sprachsynthese von Sprachmodellen für die Sprachregeneration ermöglicht.
- Sharpness-Aware Minimization Improves Language Model Generalization
- Dara Bahri, Hossein Mobahi, Yi Tay
- TLDR: Wir zeigen, dass die Sharpness-Aware Minimierung (SAM) eine neue Optimierungsmethode ist, die die Konvergenz von Minimationen fördert und die Generalisierung von Sprachmodellen erheblich verbessert.
- Adversarial Authorship Attribution for Deobfuscation
- Wanyue Zhai, Jonathan Rusert, Zubair Shafiq, Padmini Srinivasan
- TLDR: Wir analysieren das Problem der Abhängigkeit von gegnerischen Autorenattributierungen und zeigen, dass die Implementierung von adversarialem Training die Abhängigkeit von gegnerischen Autorenattributierungen verringert.
- Weakly Supervised Word Segmentation for Computational Language Documentation
- Shu Okabe, Laurent Besacier, François Yvon
- TLDR: Wir zeigen, dass eine schwach überwachte Dokumentation für die Dokumentation von Wörterbüchern in Bayes’schen Modellen nützlich sein kann.
- SciNLI: A Corpus for Natural Language Inference on Scientific Text
- Mobashir Sadat, Cornelia Caragea
- TLDR: Wir stellen SciNLI vor, einen großen Datensatz für NLI, der die formalität in scientific Text erfasst und 107,412 Sätzepaare enthält.
- Neural reality of argument structure constructions
- Bai Li, Zining Zhu, Guillaume Thomas, Frank Rudzicz, Yang Xu
- TLDR: Wir stellen eine empirische Probe für die Existenz von Argumentationsformen (ASCs) in Transformer-basierten Sprachmodellen vor und zeigen, dass sie in LMs verwendet werden.
- On the Robustness of Offensive Language Classifiers
- Jonathan Rusert, Zubair Shafiq, Padmini Srinivasan
- TLDR: Wir analysieren die Robustheit von gegnerischen Sprachklassifikationssystemen gegen maschinelles Lernen und zeigen, dass sie die Genauigkeit von gegnerischen Angriffen reduzieren können.
- Few-shot Controllable Style Transfer for Low-Resource Multilingual Settings
- Kalpesh Krishna, Deepak Nathani, Xavier Garcia, Bidisha Samanta, Partha Talukdar
- TLDR: Wir stellen eine Methode vor, die die Unterschiede zwischen Paraphrasen modelliert und die Leistung bei der Stilisierung und der Code-Mixierung verbessert.
- ABC: Attention with Bounded-memory Control
- Hao Peng, Jungo Kasai, Nikolaos Pappas, Dani Yogatama, Zhaofeng Wu, Lingpeng Kong, Roy Schwartz, Noah A. Smith
- TLDR: Wir stellen eine neue Aufmerksamkeitsarchitektur vor, die die Aufmerksamkeitsfunktion eines Speichers erweitert und gleichzeitig die Speichergröße verringert.
- The Dangers of Underclaiming: Reasons for Caution When Reporting How NLP Systems Fail
- Samuel Bowman
- TLDR: Wir schlagen eine neue Kommunikationsstrategie vor, die die Verzerrung von Vorhersagen in Bezug auf die Grenzen von NLP verhindert.
- RELiC: Retrieving Evidence for Literary Claims
- Katherine Thai, Yapei Chang, Kalpesh Krishna, Mohit Iyyer
- TLDR: Wir stellen eine Aufgabe vor, die die Aufgabe der Literatur-Evidenzretretrieval darstellt, in der Modelle einen Satz von Literaturanalysen erhalten, um einen Satz von Texten aus den Texten zu extrahieren.
- Analyzing Generalization of Vision and Language Navigation to Unseen Outdoor Areas
- Raphael Schumann, Stefan Riezler
- TLDR: Wir zeigen, dass die VLN-Architekturen in den meisten Fällen auf unbeaufsichtigten Umgebungen zu unbeaufsichtigten Sprachausführungen und -verallgemeinerungsaufgaben verallgemeinert werden.
- Adapting Coreference Resolution Models through Active Learning
- Michelle Yuan, Patrick Xia, Chandler May, Benjamin Van Durme, Jordan Boyd-Graber
- TLDR: Wir vergleichen unsichere Etiketten und ihre Vorteile bei der Coreference-Resolution.
- An Imitation Learning Curriculum for Text Editing with Non-Autoregressive Models
- Sweta Agrawal, Marine Carpuat
- TLDR: Wir schlagen einen Rahmen für das Training von nicht-autoregressiven Sequenz-zu-Sequenz-Modellen für die maschinelle Übersetzung vor und zeigen, dass die Imitation Learning Algorithmen die Fehler in der Inferenz und die Fehler in der Übersetzung verursachen.
- Memorisation versus Generalisation in Pre-trained Language Models
- Michael Tänzer, Sebastian Ruder, Marek Rei
- TLDR: Wir schlagen eine Erweiterung auf prototypische Netzwerke vor, die die Entitätserkennung bei geringen Ressourcen verbessert.
- ChatMatch: Evaluating Chatbots by Autonomous Chat Tournaments
- Ruolan Yang, Zitong Li, Haifeng Tang, Kenny Zhu
- TLDR: Wir schlagen einen interaktiven Rahmen vor, in dem Chatbots miteinander trainieren, wie in einer großen Spielumgebung.
- Do self-supervised speech models develop human-like perception biases?
- Juliette Millet, Ewan Dunbar
- TLDR: Wir vergleichen die Repräsentationsräume von Sprachmodellen mit den Repräsentationsraumen von French-Speaking und English-Speaking.
- Vision-and-Language Navigation: A Survey of Tasks, Methods, and Future Directions
- Jing Gu, Eliana Stefani, Qi Wu, Jesse Thomason, Xin Wang
- TLDR: Wir analysieren und bewerten VLN-Studien und bieten eine umfassende Bewertung und Perspektive auf zukünftige VLN-Aufgaben.
- Learning to Generate Programs for Table Fact Verification via Structure-Aware Semantic Parsing
- Suixin Ou, Yongmei Liu
- TLDR: Wir stellen Structure-Aware Semantic Parsing vor, eine Methode zur Bestimmung der richtigen Schlussfolgerungen bei der Beantwortung von Texten, die auf rekurrenten Daten basieren, und verwenden sie zur Programmerzeugung.
- Cluster & Tune: Boost Cold Start Performance in Text Classification
- Eyal Shnarch, Ariel Gera, Alon Halfon, Lena Dankin, Leshem Choshen, Ranit Aharonov, Noam Slonim
- TLDR: Wir stellen eine neue Aufgabe vor, die BERT für die Textklassifikation verwendet.
- Overcoming a Theoretical Limitation of Self-Attention
- David Chiang, Peter Cholak
- TLDR: Wir stellen eine Methode vor, die die Einschränkungen von GANs überwinden kann, und zeigen, wie sie die Generalisierung in der maschinelle Übersetzung verbessern.
- Prediction Difference Regularization against Perturbation for Neural Machine Translation
- Dengji Guo, Zhengrui Ma, Min Zhang, Yang Feng
- TLDR: Wir verwenden Vorhersagedifferenzen für zufällige Zeichen, um die Übertragung und die Unterfindung zu reduzieren.
- Make the Best of Cross-lingual Transfer: Evidence from POS Tagging with over 100 Languages
- Wietse de Vries, Martijn Wieling, Malvina Nissim
- TLDR: Wir zeigen, dass die Vor- und Nachbearbeitung von Sprachfamilien, Schreibsystemen, Wortzustands- und -distanz die Sprachverallgemeinerung verbessern.
- Should a Chatbot be Sarcastic? Understanding User Preferences Towards Sarcasm Generation
- Silviu Vlad Oprea, Steven Wilson, Walid Magdy
- TLDR: Wir stellen fest, dass Menschen, die als Sätze von Vorurteilen bezeichnet werden, für die Erzeugung von Sätzen mit Sätzen mit Sätzen mit Sätzen mit Vorurteilen entscheiden.
- How Do Seq2Seq Models Perform on End-to-End Data-to-Text Generation?
- Xunjian Yin, Xiaojun Wan
- TLDR: Wir verwenden Multidimensional Quality Metric(MQM) für die Bewertung von Seq2Seq-Modellen.
- Probing for Labeled Dependency Trees
- Max Müller-Eberstein, Rob van der Goot, Barbara Plank
- TLDR: Wir stellen DepProbe vor, eine lineare Probe, die Labels und direkten Parse-Bäumen aus Einbettungen extrahieren kann, während sie weniger Parameter und Komputes als Prioritäten verwendet.
- DoCoGen: Domain Counterfactual Generation for Low Resource Domain Adaptation
- Nitay Calderon, Eyal Ben-David, Amir Feder, Roi Reichart
- TLDR: Wir schlagen einen kontrollierbaren Generatorsalgorithmus vor, um die Domänenanpassung bei Text-Erklärungen zu lösen.
- LiLT: A Simple yet Effective Language-Independent Layout Transformer for Structured Document Understanding
- Jiapeng Wang, Lianwen Jin, Kai Ding
- TLDR: Wir schlagen eine einfache, aber effektive Sprachindependent Layout Transformer (LiLT) vor, die auf strukturierte Dokumente von einer einzigen Sprache abgeleitet werden kann.
- Dependency-based Mixture Language Models
- Zhixian Yang, Xiaojun Wan
- TLDR: Wir stellen eine neuartige Dependenzmodellierung vor, die die Wahrscheinlichkeiten von zukünftigen Zusätzen in neuronalen Sprachmodellen lernt.
- Can Unsupervised Knowledge Transfer from Social Discussions Help Argument Mining?
- Subhabrata Dutta, Jeevesh Juneja, Dipankar Das, Tanmoy Chakraborty
- TLDR: Wir schlagen eine neuartige Transfer-Lernenstrategie vor, um argumentationsreiche Gespräche aus sozialen Netzwerken zu nutzen.
- Entity-based Neural Local Coherence Modeling
- Sungho Jeon, Michael Strube
- TLDR: Wir schlagen ein neuronales lokales Coherence-Modell vor, das sowohl sprachlich als auch sprachlich deutlich besser abschneidet als die meisten bestehenden Modelle.
- “That Is a Suspicious Reaction!”: Interpreting Logits Variation to Detect NLP Adversarial Attacks
- Edoardo Mosca, Shreyash Agarwal, Javier Rando Ramírez, Georg Groh
- TLDR: Wir stellen einen Modellagnostischen Detektor vor, der Texterzeugungen von Gegnern erkennt.
- Local Languages, Third Spaces, and other High-Resource Scenarios
- Steven Bird
- TLDR: Wir stellen eine neue Sprachentechnik vor, die die Vielfalt der Weltsprachen erfasst und eine neue Sprachenstrategie für die Erhaltung und Verwendung von sprachen entwickelt.
- That Slepen Al the Nyght with Open Ye! Cross-era Sequence Segmentation with Switch-memory
- Xuemei Tang, Qi Su
- TLDR: Wir schlagen einen neuen Rahmen für die sprachenübergreifende Sprachsynthese vor, der auf die Zeit des Ereigniss basiert.
- Fair and Argumentative Language Modeling for Computational Argumentation
- Carolin Holtermann, Anne Lauscher, Simone Ponzetto
- TLDR: Wir stellen ABBA vor, einen neuartigen Rahmen für die Beseitigung und Verhinderung von Diskrepanz in Argumentationsmodellen.
- Learning Adaptive Segmentation Policy for End-to-End Simultaneous Translation
- Ruiqing Zhang, Zhongjun He, Hua Wu, Haifeng Wang
- TLDR: Wir schlagen eine adaptive Segmentierungsstrategie vor, um die Sprachausgabe von Sprachquellen zu Sprachzielen mit hoher Qualität und geringer latenz zu ersetzen.
- Can Pre-trained Language Models Interpret Similes as Smart as Human?
- Qianyu He, Sijie Cheng, Zhixu Li, Rui Xie, Yanghua Xiao
- TLDR: Wir stellen eine neuartige Aufgabe vor, die die Ähnlichkeit von Sätzen in PLMs erfasst und gleichzeitig die Leistung von Menschen übertrifft.
- CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark
- Ningyu Zhang, Mosha Chen, Zhen Bi, Xiaozhuan Liang, Lei Li, Xin Shang, Kangping Yin, Chuanqi Tan, Jian Xu, Fei Huang, Luo Si, Yuan Ni, Guotong Xie, Zhifang Sui, Baobao Chang, Hui Zong, Zheng Yuan, Linfeng Li, Jun Yan, Hongying Zan, Kunli Zhang, Buzhou Tang, Qingcai Chen
- TLDR: Wir stellen eine erste Chinese-Biomedizinische Sprachverständnisbewertung vor, die auf einer Sammlung von Sprachbewertungen basiert.
- Learning Non-Autoregressive Models from Search for Unsupervised Sentence Summarization
- Puyuan Liu, Chenyang Huang, Lili Mou
- TLDR: Wir schlagen einen Algorithmus zur unbeaufsichtigten Zusammenfassung vor, der die Suche nach einem Score nutzt.
- Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation
- Xiangpeng Wei, Heng Yu, Yue Hu, Rongxiang Weng, Weihua Luo, Rong Jin
- TLDR: Wir stellen eine neuartige Datenerweiterung vor, die die Anzahl der parallelen Daten erweitert und so die Generalisierungsleistung verbessert.
- Lexical Knowledge Internalization for Neural Dialog Generation
- Zhiyong Wu, Wei Bi, Xiang Li, Lingpeng Kong, Ben Kao
- TLDR: Wir schlagen Wissensverwandlung (KI) vor, eine Methode zur Erweiterung des lexikalischen Wissens in neuronale Dialogmodelle.
- Modeling Syntactic-Semantic Dependency Correlations in Semantic Role Labeling Using Mixture Models
- Junjie Chen, Xiangheng He, Yusuke Miyao
- TLDR: Wir schlagen eine Methode vor, die die Syntax-Semantik-Abhängigkeiten in SRL modelliert und die Verbesserung der Long-Distance-Semantik-Vorhersage bei der Klassifizierung von Long-Distance-Abhängigkeiten ermöglicht.
- Learning the Beauty in Songs: Neural Singing Voice Beautifier
- Jinglin Liu, Chengxi Li, Yi Ren, Zhiying Zhu, Zhou Zhao
- TLDR: Wir stellen eine neue Methode zur Verbesserung der Stimme vor, die auf Zeitverschiebungen basiert und die Verbesserung der Intonation und der Stimme bei gleichzeitiger Wiederholung.
- A Model-agnostic Data Manipulation Method for Persona-based Dialogue Generation
- Yu Cao, Wei Bi, Meng Fang, Shuming Shi, Dacheng Tao
- TLDR: Wir schlagen eine Methode vor, die die Daten eines Dialogmodells in ein Datensatz packt, um die Leistung eines Dialogmodells zu verbessern.
- LinkBERT: Pretraining Language Models with Document Links
- Michihiro Yasunaga, Jure Leskovec, Percy Liang
- TLDR: Wir schlagen LinkBERT vor, eine LM-Vortrainierungsmethode, die links zwischen Dokumenten nutzt, um Dokumenten relationale Beziehungen vorherzusagen.
- Improving Time Sensitivity for Question Answering over Temporal Knowledge Graphs
- Chao Shang, Guangtao Wang, Peng Qi, Jing Huang
- TLDR: Wir stellen einen Zeitsensitiven Fragen-Antwort-Framework vor, der die Zeitstamp-Hilf nutzt, um zeitliche Zeiträume zu beantworten.
- Self-supervised Semantic-driven Phoneme Discovery for Zero-resource Speech Recognition
- Liming Wang, Siyuan Feng, Mark Hasegawa-Johnson, Chang Yoo
- TLDR: Wir schlagen ein neuronales diskretes Repräsentationslernen vor, das die Phoneme-Inventory mit wenigen Worten und Wortbeschriftungen erlernt.
- Softmax Bottleneck Makes Language Models Unable to Represent Multi-mode Word Distributions
- Haw-Shiuan Chang, Andrew McCallum
- TLDR: Wir schlagen eine neue Softmax-Baumschicht vor, die die Verteilungen über die nächsten Worte durch einen Softmax über das Sprachgedächtnis ermittelt.
- Ditch the Gold Standard: Re-evaluating Conversational Question Answering
- Huihan Li, Tianyu Gao, Manan Goenka, Danqi Chen
- TLDR: Wir stellen eine erste große empirische Bewertung von maschinellen Gesprächsverantwortungssystemen vor, die auf menschlichen und gold-History-Evaluierungen basieren.
- Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity
- Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp
- TLDR: Wir stellen fest, dass die Anzahl der Proben, die in GPT-3 vorgegeben werden, entscheidend für die Leistung von Sprachmodellen ist.
- Situated Dialogue Learning through Procedural Environment Generation
- Prithviraj Ammanabrolu, Renee Jia, Mark Riedl
- TLDR: Wir schlagen eine Methode vor, die die Verzerrung von Aufgaben aus der tail-of-a-Verteilung nutzt, um Ziel-driven Agenten interaktiv zu erlernen und zu sprechen.
- UniTE: Unified Translation Evaluation
- Yu Wan, Dayiheng Liu, Baosong Yang, Haibo Zhang, Boxing Chen, Derek Wong, Lidia Chao
- TLDR: Wir stellen eine Bewertungsmethode vor, die die Qualität von Texten in Bezug auf die Übersetzungsqualität bewertet.
- Program Transfer for Answering Complex Questions over Knowledge Bases
- Shulin Cao, Jiaxin Shi, Zijun Yao, Xin Lv, Jifan Yu, Lei Hou, Juanzi Li, Zhiyuan Liu, Jinghui Xiao
- TLDR: Wir schlagen einen neuen Parsing-Rahmen vor, der die Programmeinbettung für KBs, die ohne Programmankündigungen funktionieren, nutzt.
- EAG: Extract and Generate Multi-way Aligned Corpus for Complete Multi-lingual Neural Machine Translation
- Yulin Xu, Zhen Yang, Fandong Meng, Jie Zhou
- TLDR: Wir schlagen einen zweistufigen Ansatz vor, um eine große Vielfalt und einen hochmodernen Multi-Way-Ansatz für die maschinelle Übersetzung von Sprachdaten aus mehreren Sprachpaaren zu schaffen.
- Using Context-to-Vector with Graph Retrofitting to Improve Word Embeddings
- Jiangbin Zheng, Yile Wang, Ge Wang, Jun Xia, Yufei Huang, Guojiang Zhao, Yue Zhang, Stan Li
- TLDR: Wir stellen eine post-processing-Retrofit-Methode für static Einbettungen vor, die auf synonyme und intrinsische Aufgaben angewendet werden kann.
- Multimodal Sarcasm Target Identification in Tweets
- Jiquan Wang, Lin Sun, Yi Liu, Meizhi Shao, Zengwei Zheng
- TLDR: Wir schlagen ein neuartiges Multimodales Sprachmodell vor, das gleichzeitig die Texterkennung und die visuelle Erkennung von Sätzen erledigt.
- Flexible Generation from Fragmentary Linguistic Input
- Peng Qian, Roger Levy
- TLDR: Wir stellen eine Reihe von Texterfüllungsaufgaben vor, die durch flexible Inferenz durch die Verwendung von Berechnungen von Beschriftungsmustern charakterisiert werden.
- Revisiting Over-Smoothness in Text to Speech
- Yi Ren, Xu Tan, Tao Qin, Zhou Zhao, Tie-Yan Liu
- TLDR: Wir stellen eine Studie vor, die die Komplexität von Datenverteilungen und die Fähigkeit von Modellen zur Modellierung von Texten ausgleicht.
- Coherence boosting: When your pretrained language model is not paying enough attention
- Nikolay Malkin, Zhen Wang, Nebojsa Jojic
- TLDR: Wir stellen Coherence Boosting vor, eine Inferenzmethode, die eine LM auf einen Long-Scale-Kontext erhöht.
- Uncertainty Estimation of Transformer Predictions for Misclassification Detection
- Artem Vazhentsev, Gleb Kuzmin, Artem Shelmanov, Akim Tsvigun, Evgenii Tsymbalov, Kirill Fedyanin, Maxim Panov, Alexander Panchenko, Gleb Gusev, Mikhail Burtsev, Manvel Avetisian, Leonid Zhukov
- TLDR: Wir analysieren und schlagen zwei neue UE-Methoden vor, die auf der Unsicherheit von Deep Learning basieren.
- VALSE: A Task-Independent Benchmark for Vision and Language Models Centered on Linguistic Phenomena
- Letitia Parcalabescu, Michele Cafagna, Lilitta Muradjan, Anette Frank, Iacer Calixto, Albert Gatt
- TLDR: Wir schlagen VALSE vor, einen neuen Benchmark für pretrained Vision and Language (V&L) Modelle, der die Sprachstrukturen von VAE und VAE-Modellen erfasst.
- The Grammar-Learning Trajectories of Neural Language Models
- Leshem Choshen, Guy Hacohen, Daphna Weinshall, Omri Abend
- TLDR: Wir zeigen, dass neuronale Sprachmodelle, die gleichen initialisierungs-, Architekturs- und Trainingsdaten haben, sprachliche Phänomene in einer ähnlichen Reihenfolge erlernen.
- Generating Scientific Definitions with Controllable Complexity
- Tal August, Katharina Reinecke, Noah A. Smith
- TLDR: Wir stellen eine Aufgabe und einen Datensatz vor, die die Komplexität von generierten Definitionen kontrolliert und die Anpassung eines bestimmten Wissensbereichs anpasst.
- Label Semantic Aware Pre-training for Few-shot Text Classification
- Aaron Mueller, Jason Krone, Salvatore Romeo, Saab Mansour, Elman Mansimov, Yi Zhang, Dan Roth
- TLDR: Wir schlagen Label-Semantik-Aware Pre-Training vor, um die Generalisierung und Dateneffizienz von Textklassifikationssystemen zu verbessern.
- ODE Transformer: An Ordinary Differential Equation-Inspired Model for Sequence Generation
- Bei Li, Quan Du, Tao Zhou, Yi Jing, Shuhan Zhou, Xin Zeng, Tong Xiao, JingBo Zhu, Xuebo Liu, Min Zhang
- TLDR: Wir zeigen, dass ein residuales Teilstück von Schichten in Transformer als eine höhere Ordnungslösung für ODE bezeichnet werden kann.
- A Comparison of Strategies for Source-Free Domain Adaptation
- Xin Su, Yiyun Zhao, Steven Bethard
- TLDR: Wir stellen eine Methode vor, die aktives Lernen, Selbsttraining und Datenerweiterung kombiniert, um eine sourcefreie Domänenanpassung durchzuführen.
- Ethics Sheets for AI Tasks
- Saif Mohammad
- TLDR: Wir stellen ethische Merkmale für die Erkennung von Emotionen vor und schlagen eine neue Form von Ethics Sheets für AI-Tasks vor, die die ethischen Merkmale in den Aufgaben, Methode und Evaluierungen verbergen.
- Learning Disentangled Representations of Negation and Uncertainty
- Jake Vasilakes, Chrysoula Zerva, Makoto Miwa, Sophia Ananiadou
- TLDR: Wir lösen die Probleme der Negation und Unsicherheit mit einem Variational Autoencoder.
- latent-GLAT: Glancing at Latent Variables for Parallel Text Generation
- Yu Bao, Hao Zhou, Shujian Huang, Dongqi Wang, Lihua Qian, Xinyu Dai, Jiajun Chen, Lei Li
- TLDR: Wir schlagen GLAT vor, eine diskrete latente Variablen-Methode, die die Multi-Modalitäten in einem Datensatz überwinden kann.
- PPT: Pre-trained Prompt Tuning for Few-shot Learning
- Yuxian Gu, Xu Han, Zhiyuan Liu, Minlie Huang
- TLDR: Wir schlagen vor, die Vortrain-Prüfungen für die Übertragung von Aufgaben zu nutzen.
- Deduplicating Training Data Makes Language Models Better
- Katherine Lee, Daphne Ippolito, Andrew Nystrom, Chiyuan Zhang, Douglas Eck, Chris Callison-Burch, Nicholas Carlini
- TLDR: Wir stellen einen Algorithmus vor, der die Texterzeugung in Sprachmodellen deduplikat.
- Improving the Generalizability of Depression Detection by Leveraging Clinical Questionnaires
- Thong Nguyen, Andrew Yates, Ayah Zirikly, Bart Desmet, Arman Cohan
- TLDR: Wir schlagen Methoden vor, die die Erkennung von Depressionsymptomen in PHQ9 ermöglichen, die in den Tests von PHQ9 enthalten sind.
- Internet-Augmented Dialogue Generation
- Mojtaba Komeili, Kurt Shuster, Jason Weston
- TLDR: Wir schlagen einen Ansatz vor, der lernt, eine Suchbeantworterseite auf der Suche nach Wissen zu nutzen, um Wissensgedächtnis zu generieren.
- SUPERB-SG: Enhanced Speech processing Universal PERformance Benchmark for Semantic and Generative Capabilities
- Hsiang-Sheng Tsai, Heng-Jui Chang, Wen-Chin Huang, Zili Huang, Kushal Lakhotia, Shu-wen Yang, Shuyan Dong, Andy Liu, Cheng-I Lai, Jiatong Shi, Xuankai Chang, Phil Hall, Hsuan-Jui Chen, Shang-Wen Li, Shinji Watanabe, Abdelrahman Mohamed, Hung-yi Lee
- TLDR: Wir stellen SUPERB-SG vor, eine neue Benchmark-Methode zur Bewertung von Modellrepräsentationen, die von vortrainierten Modellen erlernt wurden.
- Knowledge Neurons in Pretrained Transformers
- Damai Dai, Li Dong, Yaru Hao, Zhifang Sui, Baobao Chang, Furu Wei
- TLDR: Wir stellen Wissensneuronen vor, die in pretrained Transformers gespeichert werden.
- Meta-Learning for Fast Cross-Lingual Adaptation in Dependency Parsing
- Anna Langedijk, Verna Dankers, Phillip Lippe, Sander Bos, Bryan Cardenas Guevara, Helen Yannakoudakis, Ekaterina Shutova
- TLDR: Wir verwenden Meta-Lernen, um eine Sprachparametrisierung für die Parsing-Problemstellung zu lernen.
- French CrowS-Pairs: Extending a challenge dataset for measuring social bias in masked language models to a language other than English
- Aurélie Névéol, Yoann Dupont, Julien Bezançon, Karën Fort
- TLDR: Wir stellen eine neue CrowS-Paaren-Datensatzarchitektur vor, die die Sprachverzerrung in LMs erfasst und die Identifikation von US-zentrierten kulturellen Merkmalen ermöglicht.
- Few-Shot Learning with Siamese Networks and Label Tuning
- Thomas Müller, Guillermo Pérez-Torró, Marc Franco-Salvador
- TLDR: Wir stellen eine neue Methode vor, die die Textklassifikationen mit wenigen Aufnahmen und wenigen Labels verbessert.
- Inferring Rewards from Language in Context
- Jessy Lin, Daniel Fried, Dan Klein, Anca Dragan
- TLDR: Wir stellen ein Modell vor, das Belohnungen aus sprachen in einer interaktiven Flugausführung inszeniert.
- Generating Biographies on Wikipedia: The Impact of Gender Bias on the Retrieval-Based Generation of Women Biographies
- Angela Fan, Claire Gardent
- TLDR: Wir stellen eine Methode vor, die auf der Suche nach Web-Evidenzdaten verwendet, um biographien zu generieren, die gut formuliert sind.
- Your Answer is Incorrect… Would you like to know why? Introducing a Bilingual Short Answer Feedback Dataset
- Anna Filighera, Siddharth Parihar, Tim Steuer, Tobias Meuser, Sebastian Ochs
- TLDR: Wir stellen einen neuen Datensatz für die Bewertung von Fehlern vor, der die Bewertung von Fehlern und Erklärungen ermöglicht.
- Towards Better Characterization of Paraphrases
- Timothy Liu, De Wen Soh
- TLDR: Wir schlagen eine neue Metrik vor, die die Merkmale von Paraphrasenpaaren charakterisiert und die Generalisierung von Modellen verbessert.
- SummScreen: A Dataset for Abstractive Screenplay Summarization
- Mingda Chen, Zewei Chu, Sam Wiseman, Kevin Gimpel
- TLDR: Wir stellen SummScreen vor, einen Datensatz, der eine Reihe von TV-Trap- und menschlichen Rückkopplungsprotokollen enthält.
- Sparsifying Transformer Models with Trainable Representation Pooling
- Michał Pietruszka, Łukasz Borchmann, Łukasz Garncarek
- TLDR: Wir schlagen eine Methode vor, die die Aufmerksamkeit in einem Transformer-Modell vertauscht, indem wir die meisten Informationen aus den Eingabedaten verwenden.
- Uncertainty Determines the Adequacy of the Mode and the Tractability of Decoding in Sequence-to-Sequence Models
- Felix Stahlberg, Ilia Kulikov, Shankar Kumar
- TLDR: Wir schlagen einen Algorithmus zur Bestimmung von Unsicherheiten vor, der die Wahrscheinlichkeit von Beam-Such-Ergebungen verteilt.
- FlipDA: Effective and Robust Data Augmentation for Few-Shot Learning
- Jing Zhou, Yanan Zheng, Jie Tang, Li Jian, Zhilin Yang
- TLDR: Wir schlagen eine neue Methode zur Texterweiterung vor, die Label-Faltungen nutzt, um Labels-verzerrte Daten zu erzeugen.
- Text-Free Prosody-Aware Generative Spoken Language Modeling
- Eugene Kharitonov, Ann Lee, Adam Polyak, Yossi Adi, Jade Copet, Kushal Lakhotia, Tu Anh Nguyen, Morgane Riviere, Abdelrahman Mohamed, Emmanuel Dupoux, Wei-Ning Hsu
- TLDR: Wir stellen ein Prosodik-bewusstes generatives Sprachmodell vor, das auf Textfreie Sprachmodelle und auf Sprachausführungen trainiert wird.
- Lite Unified Modeling for Discriminative Reading Comprehension
- Yilin Zhao, Hai Zhao, Libin Shen, Yinggong Zhao
- TLDR: Wir schlagen ein leichtgewichtes POS-Enhanced Iterative Co-Attention Network (POI-Net) vor, das auf vielfältige diskriminative MRC-Aufgaben mit synchroner Aufmerksamkeit trainiert werden kann.
- Bilingual alignment transfers to multilingual alignment for unsupervised parallel text mining
- Chih-chan Tien, Shane Steinert-Threlkeld
- TLDR: Wir stellen eine Methode vor, die auf unbeaufsichtigten Sprachmodellen mit mehreren Sprachpaaren trainiert werden kann, um sprachenübergreifende Satzrepräsentationen mit Multilingual Alignment zu erlernen.
- End-to-End Modeling via Information Tree for One-Shot Natural Language Spatial Video Grounding
- Mengze Li, Tianbao Wang, Haoyu Zhang, Shengyu Zhang, Zhou Zhao, Jiaxu Miao, Wenqiao Zhang, Wenming Tan, Jin Wang, Peng Wang, Shiliang Pu, Fei Wu
- TLDR: Wir untersuchen und lösen eine Aufgabe des One-Shot Video Groundings und lernen, die natürliche Sprache in allen VideoFragen mit solely one Frame zu fassen.
- RNSum: A Large-Scale Dataset for Automatic Release Note Generation via Commit Logs Summarization
- Hisashi Kamezawa, Noriki Nishida, Nobuyuki Shimizu, Takashi Miyazaki, Hideki Nakayama
- TLDR: Wir schlagen eine neue Methode vor, um release-Notes automatisch zu generieren, die von den Online-Repositorien in GitHub generiert werden.
- Improving Machine Reading Comprehension with Contextualized Commonsense Knowledge
- Kai Sun, Dian Yu, Jianshu Chen, Dong Yu, Claire Cardie
- TLDR: Wir schlagen einen neuen Ansatz vor, um strukturiertes Wissen aus Texten zu extrahieren und zu verwenden, um die MRC zu verbessern.
- Modeling Persuasive Discourse to Adaptively Support Students’ Argumentative Writing
- Thiemo Wambsganss, Christina Niklaus
- TLDR: Wir stellen einen Ansatz vor, um die Struktur des Argumentationsstils in studentischen Geschäftsmodell-Plätzen zu modellieren.
- Active Evaluation: Efficient NLG Evaluation with Few Pairwise Comparisons
- Akash Kumar Mohankumar, Mitesh Khapra
- TLDR: Wir stellen eine Methode vor, die pairweise Vergleiche nutzt, um die Bewertung von NLG-Systemen zu verbessern.
- The Moral Debater: A Study on the Computational Generation of Morally Framed Arguments
- Milad Alshomary, Roxanne El Baff, Timon Gurcke, Henning Wachsmuth
- TLDR: Wir schlagen eine Methode vor, die automatisch moralisch gerichtete Begründungen erzeugt, und zeigen, dass sie die Stimmungen bei den Menschen in Bezug auf die moralischen Grundsätze verbessert.
- Pyramid-BERT: Reducing Complexity via Successive Core-set based Token Selection
- Xin Huang, Ashish Khetan, Rene Bidart, Zohar Karnin
- TLDR: Wir stellen eine neuartige Lösung vor, die die Verwendung von Heuristiken in BERT ermöglicht, um eine Sprachmodellierungsaufgabe zu lösen.
- Probing for the Usage of Grammatical Number
- Karim Lasri, Tiago Pimentel, Alessandro Lenci, Thierry Poibeau, Ryan Cotterell
- TLDR: Wir stellen BERT vor, ein neuronales Modell, das eine Grammatik kodiert, und versuchen, die Kodierung zu erklären.