NAACL 2022 in German
TLDRs
- Knowledge Router: Learning Disentangled Representations for Knowledge Graphs
- Shuai Zhang, Xi Rao, Yi Tay, Ce Zhang
- TLDR: Wir schlagen eine neue Methode vor, die die inneren latenten Eigenschaften von KG-Entitäten ersetzt.
- Distantly Supervised Relation Extraction with Sentence Reconstruction and Knowledge Base Priors
- Fenia Christopoulou, Makoto Miwa, Sophia Ananiadou
- TLDR: Wir schlagen einen Multi-Task, probabilistic Ansatz vor, um die Abfrage von Beziehungen, die von einer Knowledge-Base-Paaren bestehen, zu erleichtern.
- Cross-Task Instance Representation Interactions and Label Dependencies for Joint Information Extraction with Graph Convolutional Networks
- Minh Van Nguyen, Viet Dac Lai, Thien Huu Nguyen
- TLDR: Wir stellen ein neuartiges Deep Learning-Modell vor, das gleichzeitig die vier Aufgaben der Informationserfassung (Informationstypen) in einem einzigen Modell (called FourIE) lösen kann.
- Abstract Meaning Representation Guided Graph Encoding and Decoding for Joint Information Extraction
- Zixuan Zhang, Heng Ji
- TLDR: Wir schlagen einen AMR-basierten Graphenaggregator vor, um Entitäten, Beziehungen und Ereignissen mit Hilfe von einem vorher trainierten AMR-Parser zu entdecken.
- A Frustratingly Easy Approach for Entity and Relation Extraction
- Zexuan Zhong, Danqi Chen
- TLDR: Wir stellen einen pipelined Ansatz für Entitätsextraktion und Beziehungsmodell vor, der auf zwei Encodern basiert und die Inferenzzeit erheblich beschleunigt.
- Event Time Extraction and Propagation via Graph Attention Networks
- Haoyang Wen, Yanru Qu, Heng Ji, Qiang Ning, Jiawei Han, Avi Sil, Hanghang Tong, Dan Roth
- TLDR: Wir schlagen einen graphenbasierten Ansatz vor, um zeitliche Informationen über Dokumente hinweg zu verbreiten.
- Probing Word Translations in the Transformer and Trading Decoder for Encoder Layers
- Hongfei Xu, Josef van Genabith, Qiuhui Liu, Deyi Xiong
- TLDR: Wir zeigen, dass die Transformer-Architektur in den Encoder-Lätzen bereits eine Übersetzungsqualität erreicht.
- Mediators in Determining what Processing BERT Performs First
- Aviv Slobodkin, Leshem Choshen, Omri Abend
- TLDR: Wir zeigen, dass BERT die Konsistenzlängen von kontextuellen Datensätzen manipuliert, um die Lokalisierungsmuster zu lokalisieren.
- Automatic Generation of Contrast Sets from Scene Graphs: Probing the Compositional Consistency of GQA
- Yonatan Bitton, Gabriel Stanovsky, Roy Schwartz, Michael Elhadad
- TLDR: Wir stellen eine neuartige Methode vor, die die Verwendung von Bildern in einer Bildverschiebung nutzt, um kontrastierte Testbilder zu generieren.
- Multilingual Language Models Predict Human Reading Behavior
- Nora Hollenstein, Federico Pirovano, Ce Zhang, Lena Jäger, Lisa Beinborn
- TLDR: Wir analysieren, ob sprachenspezifische und sprachenübergreifende Transformer-Modelle menschliches Leseverstehens beschreiben.
- Do Syntactic Probes Probe Syntax? Experiments with Jabberwocky Probing
- Rowan Hall Maudslay, Ryan Cotterell
- TLDR: Wir zeigen, dass semantisch-konvexe Proben syntaktische Syntax nicht richtig kodieren.
- A Non-Linear Structural Probe
- Jennifer C. White, Tiago Pimentel, Naomi Saphra, Ryan Cotterell
- TLDR: Wir stellen eine neue Methode vor, die die Kodierung syntaktiver Strukturen in kontextuellen Repräsentationen durch lineare Transformationen ermöglicht.
- Concealed Data Poisoning Attacks on NLP Models
- Eric Wallace, Tony Zhao, Shi Feng, Sameer Singh
- TLDR: Wir entwickeln einen neuen Datenpoisoning-Angriff, der die Modellvorhersagen von Negativen in einem Testzeitraum ermöglicht.
- Backtranslation Feedback Improves User Confidence in MT, Not Quality
- Vilém Zouhar, Michal Novák, Matúš Žilinec, Ondřej Bojar, Mateo Obregón, Robin L. Hill, Frédéric Blain, Marina Fomicheva, Lucia Specia, Lisa Yankovskaya
- TLDR: Wir zeigen, dass Backward Translation Feedback auf die Qualität der Übersetzungsausgangs- und -folgen wirkt.
- Data Filtering using Cross-Lingual Word Embeddings
- Christian Herold, Jan Rosendahl, Joris Vanvinckenroye, Hermann Ney
- TLDR: Wir vergleichen die Leistung von Sprachidentifikationsmethoden mit einer WMT-Verbund-Aufgabe und stellen eine neue Methode vor, die auf der Suche nach Sprachrepräsentationen mit verrauschten Daten basiert.
- Improving the Lexical Ability of Pretrained Language Models for Unsupervised Neural Machine Translation
- Alexandra Chronopoulou, Dario Stojanovski, Alexander Fraser
- TLDR: Wir verbessern das maskierte Sprachmodell mit lexikalischen und sprachlichen Abbildungen und verwenden typische Sprachbeschriftungen für die Sprachausbreitung.
- Neural Machine Translation without Embeddings
- Uri Shaham, Omer Levy
- TLDR: Wir stellen fest, dass die Einbettungsschichten von Texten als Byte-to-Bit-Modellen funktionieren, und zwar auf Zeichenebene.
- Counterfactual Data Augmentation for Neural Machine Translation
- Qi Liu, Matt Kusner, Phil Blunsom
- TLDR: Wir schlagen eine Methode vor, die die Datenerweiterung in neuronalen Übersetzungsmaschinen ermöglicht.
- Cultural and Geographical Influences on Image Translatability of Words across Languages
- Nikzad Khani, Isidora Tourni, Mohammad Sadegh Rasooli, Chris Callison-Burch, Derry Tanti Wijaya
- TLDR: Wir untersuchen die Bildverschiebung von Wörtern, die auf Bildern von Worten mit ähnlichen Bedeutungen übertragen werden.
- Multilingual BERT Post-Pretraining Alignment
- Lin Pan, Chung-Wei Hang, Haode Qi, Abhishek Shah, Saloni Potdar, Mo Yu
- TLDR: Wir schlagen eine einfache Methode vor, die Multi-Lingual-Kommunikationseinbettungen als Post-Pretraining-Schätzer für die Verbesserung der sprachenübergreifenden Übertragbarkeit nutzt.
- A Million Tweets Are Worth a Few Points: Tuning Transformers for Customer Service Tasks
- Amir Hadifar, Sofie Labat, Veronique Hoste, Chris Develder, Thomas Demeester
- TLDR: Wir stellen eine Sammlung von Kundenbeantwortern vor, die auf mehreren Domänen mit unterschiedlichen Sprachausdrücken trainiert wurden.
- Paragraph-level Rationale Extraction through Regularization: A case study on European Court of Human Rights Cases
- Ilias Chalkidis, Manos Fergadiotis, Dimitrios Tsarapatsanis, Nikolaos Aletras, Ion Androutsopoulos, Prodromos Malakasiotis
- TLDR: Wir stellen eine neue Aufgabe vor, die die Verwendung von Argumentationsbeschriftungen als Absätze in juristischen Texten ermöglicht.
- Answering Product-Questions by Utilizing Questions from Other Contextually Similar Products
- Ohad Rozen, David Carmel, Avihai Mejer, Vitaly Mirkis, Yftah Ziser
- TLDR: Wir schlagen einen neuartigen und complementaren Ansatz zur Vorhersage der Antwort auf eine Frage vor, die von ähnlichen Produkten gestellt wird.
- EnSidNet: Enhanced Hybrid Siamese-Deep Network for grouping clinical trials into drug-development pathways
- Lucia Pagani
- TLDR: Wir stellen eine hybride neuronale Netzarchitektur vor, die die Unmetschlichkeit der Erkennung von Richtlinien für die Erkennung von Ähnlichkeiten in einer Klassifizierungsaufgabe berücksichtigt.
- DATE: Detecting Anomalies in Text via Self-Supervision of Transformers
- Andrei Manolache, Florin Brad, Elena Burceanu
- TLDR: Wir stellen eine Aufgabe vor, die eine Text-Eigenschaft mit einer Aufgabe über die Entflechtungsvergiftung ersetzt.
- A Simple Approach for Handling Out-of-Vocabulary Identifiers in Deep Learning for Source Code
- Nadezhda Chirkova, Sergey Troshin
- TLDR: Wir schlagen eine Methode vor, die auf der Identifizierung von Out-of-Order-Identifiers basiert, um Code zu beschreiben.
- Fast and Scalable Dialogue State Tracking with Explicit Modular Decomposition
- Dingmin Wang, Chenghua Lin, Qi Liu, Kam-Fai Wong
- TLDR: Wir stellen eine schnelle und skalierbare Architektur vor, die auf Klassifizierungs- und Extraktionsmethoden basiert und die Dialogzustände von mehreren Modulen gleichzeitig ersetzt.
- Augmented SBERT: Data Augmentation Method for Improving Bi-Encoders for Pairwise Sentence Scoring Tasks
- Nandan Thakur, Nils Reimers, Johannes Daxenberger, Iryna Gurevych
- TLDR: Wir stellen Augmented SBERT vor, eine einfache und effiziente Datenerweiterungsstrategie, die die Leistung von Cross-Encoders verbessert und gleichzeitig die Leistung von Bi-Encodern verbessert.
- SmBoP: Semi-autoregressive Bottom-up Semantic Parsing
- Ohad Rubin, Jonathan Berant
- TLDR: Wir schlagen einen Semi-autoregressive Bottom-Up Parser (SmBoP) vor, der die Syntax-Tree von oben nach unten autoregressiv kodiert.
- SGL: Speaking the Graph Languages of Semantic Parsing via Multilingual Translation
- Luigi Procopio, Rocco Tripodi, Roberto Navigli
- TLDR: Wir schlagen eine neue Architektur vor, die auf der Multilingual Neural Machine Translation (MNMT) trainiert wurde, und zeigen, dass sie für die Erstellung von Textgraphen geeignet ist.
- Unifying Cross-Lingual Semantic Role Labeling with Heterogeneous Linguistic Resources
- Simone Conia, Andrea Bacciu, Roberto Navigli
- TLDR: Wir stellen ein neuartiges Modell vor, das eine Sprach- und Grammatik-Architektur für die Erstellung von Sprachtheorien in mehreren Sprachen nutzt.
- Fool Me Twice: Entailment from Wikipedia Gamification
- Julian Eisenschlos, Bhuwan Dhingra, Jannis Bulian, Benjamin Börschinger, Jordan Boyd-Graber
- TLDR: Wir stellen FoolMeTwice vor, einen großen Datensatz von Herausforderungen für die Erkennung und die Erstellung von Beweisen.
- Meta-Learning for Domain Generalization in Semantic Parsing
- Bailin Wang, Mirella Lapata, Ivan Titov
- TLDR: Wir verwenden ein Meta-Lernen, um die Zero-Shot-Domänenverallgemeinerung für semantisches Parsing zu nutzen.
- Aspect-Controlled Neural Argument Generation
- Benjamin Schiller, Johannes Daxenberger, Iryna Gurevych
- TLDR: Wir stellen eine Methode zur Erzeugung von Argumenten, die auf Satzebene über Argumentationsinbettungen hinweg genutzt werden können, und stellen eine Bewertungsmethode vor, die die Eigenschaften von Argumenten in Bezug auf die Argumentationsausbreitung erfasst.
- Text Generation from Discourse Representation Structures
- Jiangming Liu, Shay B. Cohen, Mirella Lapata
- TLDR: Wir schlagen eine neuronale DRS-Generation vor, die aus formalen Sprachrepräsentationen generiert.
- APo-VAE: Text Generation in Hyperbolic Space
- Shuyang Dai, Zhe Gan, Yu Cheng, Chenyang Tao, Lawrence Carin, Jingjing Liu
- TLDR: Wir schlagen ein neuartiges VAEs-Modell vor, das auf hyperbolischem latentem Raum gelernt wird, um kontinuierliche Sprachhierarchien zu erlernen.
- DART: Open-Domain Structured Data Record to Text Generation
- Linyong Nan, Dragomir Radev, Rui Zhang, Amrit Rau, Abhinand Sivaprasad, Chiachun Hsieh, Xiangru Tang, Aadit Vyas, Neha Verma, Pranav Krishna, Yangxiaokang Liu, Nadia Irwanto, Jessica Pan, Faiaz Rahman, Ahmad Zaidi, Mutethia Mutuma, Yasin Tarabar, Ankit Gupta, Tao Yu, Yi Chern Tan, Xi Victoria Lin, Caiming Xiong, Richard Socher, Nazneen Fatema Rajani
- TLDR: Wir stellen DART vor, einen Datensatz zur Texterzeugung mit über 82k Instanzen und einem Framework zur Vereinheitlichtung von Datensätzen.
- When Being Unseen from mBERT is just the Beginning: Handling New Languages With Multilingual Language Models
- Benjamin Muller, Antonios Anastasopoulos, Benoît Sagot, Djamé Seddah
- TLDR: Wir zeigen, dass die Übertragung von Sprachmodellen auf unbekannte Sprachen nicht vollständig auf das Lernen von sprachenbezogenen Sprachmodellen anwendbar ist.
- Multi-Adversarial Learning for Cross-Lingual Word Embeddings
- Haozhou Wang, James Henderson, Paola Merlo
- TLDR: Wir schlagen eine neue Methode vor, die die Sprachausbreitung von Wörterbüchern in neuronalen Netzen ermöglicht.
- Multi-view Subword Regularization
- Xinyi Wang, Sebastian Ruder, Graham Neubig
- TLDR: Wir schlagen Multiview-Subword Regularisierung vor, eine Methode zur Verbesserung der Sprachausbreitung und zur Erweiterung von Sprachrepräsentationen.
- mT5: A Massively Multilingual Pre-trained Text-to-Text Transformer
- Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, Colin Raffel
- TLDR: Wir stellen eine neue Variante von Text-to-Text Transfer Transformer vor, die auf einem Common Crawl-basierten Datensatz für 101 Sprachen trainiert wurde.
- MetaXL: Meta Representation Transformation for Low-resource Cross-lingual Learning
- Mengzhou Xia, Guoqing Zheng, Subhabrata Mukherjee, Milad Shokouhi, Graham Neubig, Ahmed Hassan Awadallah
- TLDR: Wir schlagen MetaXL vor, einen Meta-Lernansatz, der lernt, Repräsentationen aus auxiliary Sprachen zu einem Ziel zu transformieren, und die Repräsentationen in den Zielraumen besser zu nutzen.
- Open Domain Question Answering over Tables via Dense Retrieval
- Jonathan Herzig, Thomas Müller, Syrine Krichene, Julian Eisenschlos
- TLDR: Wir stellen einen neuen Retriever vor, der auf Tables trainiert wurde, um Text zu erhalten.
- Open-Domain Question Answering Goes Conversational via Question Rewriting
- Raviteja Anantha, Svitlana Vakulenko, Zhucheng Tu, Shayne Longpre, Stephen Pulman, Srinivas Chappidi
- TLDR: Wir stellen eine neue Datensatz-Architektur für die Frage-Antwort-Übersetzung in Conversational Context vor, die 14K Gespräche mit 80K Fragen-Antwortpaaren enthält.
- QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question Answering
- Michihiro Yasunaga, Hongyu Ren, Antoine Bosselut, Percy Liang, Jure Leskovec
- TLDR: Wir schlagen ein neues Modell vor, QA-GNN, das die Herausforderungen der QA-Kommunikation und der Antwort-Auswahl lösen kann.
- XOR QA: Cross-lingual Open-Retrieval Question Answering
- Akari Asai, Jungo Kasai, Jonathan Clark, Kenton Lee, Eunsol Choi, Hannaneh Hajishirzi
- TLDR: Wir stellen eine neue Aufgabe vor, Cross-Lingual Open-Retrieval Question Answering (XOR QA), die drei neue Aufgaben involving cross-lingual Dokument retrieval aus mehreren sprachen ermöglicht.
- SPARTA: Efficient Open-Domain Question Answering via Sparse Transformer Matching Retrieval
- Tiancheng Zhao, Xiaopeng Lu, Kyusong Lee
- TLDR: Wir stellen eine neuartige neuronale Suche vor, die große Vergröberungen und Interpretierbarkeit für die Frage-Antwort-Erklärung bietet.
- Implicitly Abusive Language – What does it actually look like and why are we not getting there?
- Michael Wiegand, Josef Ruppenhofer, Elisabeth Eder
- TLDR: Wir stellen eine Reihe von Subtypen von impliciter und gegnerischer Unverwöhnlichkeit vor und formulieren Fragen zur zukünftigen Spracherkennung.
- The Importance of Modeling Social Factors of Language: Theory and Practice
- Dirk Hovy, Diyi Yang
- TLDR: Wir stellen fest, dass die Sprachbewerter in NLP-Systemen die sozialen Faktoren von Sprache ignorieren.
- On learning and representing social meaning in NLP: a sociolinguistic perspective
- Dong Nguyen, Laura Rosseel, Jack Grieve
- TLDR: Wir stellen soziales Erkennen in NLP vor und identifizieren Herausforderungen für die Arbeit auf der Grundlage von Deep Learning.
- Preregistering NLP research
- Emiel van Miltenburg, Chris van der Lee, Emiel Krahmer
- TLDR: Wir stellen eine neue Methode vor, die die Vorregistration von NLP-Studien ermöglicht, und schlagen eine neue Form der Vorregistration vor, die die Daten von NLP-Studien erfasst.
- Get Your Vitamin C! Robust Fact Verification with Contrastive Evidence
- Tal Schuster, Adam Fisch, Regina Barzilay
- TLDR: Wir stellen VitaminC vor, einen benchmark für die Beantwortung von Herausforderungen, die von Wikipedia-Revisionen abhängt.
- Representing Numbers in NLP: a Survey and a Vision
- Avijit Thawani, Jay Pujara, Filip Ilievski, Pedro Szekely
- TLDR: Wir stellen eine neue Methode zur numerischen Repräsentation vor, die auf der Suche nach Texten mit Millionen von Eingabesätzen basiert.
- Extending Multi-Document Summarization Evaluation to the Interactive Setting
- Ori Shapira, Ramakanth Pasunuru, Hadar Ronen, Mohit Bansal, Yael Amsterdamer, Ido Dagan
- TLDR: Wir entwickeln einen Rahmen für die interaktive Zusammenfassung, der die Erfassung von Benutzerprotokollen berücksichtigt.
- Identifying Helpful Sentences in Product Reviews
- Iftah Gamzu, Hila Gonen, Gilad Kutiel, Ran Levy, Eugene Agichtein
- TLDR: Wir stellen eine Aufgabe vor, die eine einzelne Empfehlungsbeschriftung aus einer Reihe von Bewertungen für ein bestimmtes Produkt extrahiert.
- Noisy Self-Knowledge Distillation for Text Summarization
- Yang Liu, Sheng Shen, Mirella Lapata
- TLDR: Wir verwenden Selbstwissen, um Texterweiterungsmodelle zu trainieren, die Probleme mit maximaler Wahrscheinlichkeit mit wenigen Referenzdaten und verrauschten Datensätzen lösen können.
- Improving Zero and Few-Shot Abstractive Summarization with Intermediate Fine-tuning and Data Augmentation
- Alexander Fabbri, Simeng Han, Haoyuan Li, Haoran Li, Marjan Ghazvininejad, Shafiq Joty, Dragomir Radev, Yashar Mehdad
- TLDR: Wir stellen WikiTransfer vor, eine neuartige und allgemeine Methode zur Fine-Tuning von Modellen zur Texterweiterung, die auf CNN-DailyMail-Datensätzen verwendet werden.
- Enhancing Factual Consistency of Abstractive Summarization
- Chenguang Zhu, William Hinthorn, Ruochen Xu, Qingkai Zeng, Michael Zeng, Xuedong Huang, Meng Jiang
- TLDR: Wir schlagen ein modell vor, das fäkmaterialische Beziehungen in die Zusammenfassungen extrahiert und die Fälschungen in den Schlussaussagen integriert.
- Few-shot Intent Classification and Slot Filling with Retrieved Examples
- Dian Yu, Luheng He, Yuan Zhang, Xinya Du, Panupong Pasupat, Qi Li
- TLDR: Wir schlagen eine Batch-softmax-Methode vor, die auf Spannebene kontextualisierte Repräsentationen für Eingabebeschriftungen mit dem gleichen Etiketten erlernt.
- “Nice Try, Kiddo”: Investigating Ad Hominems in Dialogue Responses
- Emily Sheng, Kai-Wei Chang, Prem Natarajan, Nanyun Peng
- TLDR: Wir schlagen eine Methode vor, die die Verwendung von salienten n-Graphen als ein Soft-Constraint für Top-k-Sampling verwendet, um Ad hominems in generierten Dialogzusammenrufen zu reduzieren.
- Human-like informative conversations: Better acknowledgements using conditional mutual information
- Ashwin Paranjape, Christopher Manning
- TLDR: Wir schlagen eine Dialogagenten-Architektur vor, die neue Fälschungen in die menschlichen Gespräche einbezieht und dabei die menschlichen Konversationstilistiken nutzt.
- A Comparative Study on Schema-Guided Dialogue State Tracking
- Jie Cao, Yi Zhang
- TLDR: Wir stellen eine Reihe von benchmarking-Beschreibungen vor, die die Verwendung von natürlichen Sprachen zur Erkennung von Zielen und Zufallswerten ermöglicht.
- Spoken Language Understanding for Task-oriented Dialogue Systems with Augmented Memory Networks
- Jie Wu, Ian Harris, Hongzhi Zhao
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Semantik zwischen den Zählereignissen und den Zielen zu nutzen und gleichzeitig die Optimierung zu verbessern.
- How to Motivate Your Dragon: Teaching Goal-Driven Agents to Speak and Act in Fantasy Worlds
- Prithviraj Ammanabrolu, Jack Urbanek, Margaret Li, Arthur Szlam, Tim Rocktäschel, Jason Weston
- TLDR: Wir stellen ein Reinforcement Learning System vor, das große Mengen an Sprachmodellierungs- und Logik-basiertem Vortraining verwendet, um Agenten zu motivieren, um eine Aufgabe zu lösen.
- Linking Entities to Unseen Knowledge Bases with Arbitrary Schemas
- Yogarshi Vyas, Miguel Ballesteros
- TLDR: Wir stellen einen neuen Ansatz vor, um Entitäten mit mehreren Attribut-Wertpaaren in KBs zu verknüpfen, indem wir die Entitäten in die Texterzeugung einbeziehen.
- Self-Training with Weak Supervision
- Giannis Karamanolakis, Subhabrata Mukherjee, Guoqing Zheng, Ahmed Hassan Awadallah
- TLDR: Wir entwickeln einen Rahmen für die Erstellung und Verwendung von Regeln, die nicht für die Erstellung von Trainingsdaten geeignet sind.
- Neural Language Modeling for Contextualized Temporal Graph Generation
- Aman Madaan, Yiming Yang
- TLDR: Wir verwenden große Sprachmodelle für die Erstellung von Dokumentengraphen und schlagen eine neuartige Formulierung vor, um das Problem der kontextuellen Graphenerzeugung zu lösen.
- Probabilistic Box Embeddings for Uncertain Knowledge Graph Reasoning
- Xuelu Chen, Michael Boratko, Muhao Chen, Shib Sankar Dasgupta, Xiang Lorraine Li, Andrew McCallum
- TLDR: Wir schlagen eine neuartige Wissensgraphen-Einbettungsmethode vor, die die Unsicherheit von Wissensdaten auf triple-Ebene reduziert.
- Document-Level Event Argument Extraction by Conditional Generation
- Sha Li, Heng Ji, Jiawei Han
- TLDR: Wir schlagen ein neues Modell vor, das auf Dokumentebene eine Argumentationsextraktion durch Coreference-Zerlegung erlernt.
- Template Filling with Generative Transformers
- Xinya Du, Alexander Rush, Claire Cardie
- TLDR: Wir stellen generative Transformatoren vor, die die Abhängigkeit von Entitäten zwischen mehreren Dokumenten modellieren.
- Towards Interpreting and Mitigating Shortcut Learning Behavior of NLU models
- Mengnan Du, Varun Manjunatha, Rajiv Jain, Ruchi Deshpande, Franck Dernoncourt, Jiuxiang Gu, Tong Sun, Xia Hu
- TLDR: Wir stellen einen Rahmen vor, der die Verallgemeinerung von NLU-Modellen in einem Trainingsverteilungsmodell ermöglicht.
- On Attention Redundancy: A Comprehensive Study
- Yuchen Bian, Jiaji Huang, Xingyu Cai, Jiahong Yuan, Kenneth Church
- TLDR: Wir analysieren die Aufmerksamkeitsreduzierung mit fünf Ws und zeigen, dass sie Aufgabe-agnostisch ist.
- Does BERT Pretrained on Clinical Notes Reveal Sensitive Data?
- Eric Lehman, Sarthak Jain, Karl Pichotta, Yoav Goldberg, Byron Wallace
- TLDR: Wir stellen eine battery von Methoden vor, die die Personal Health Information (PHI) aus einem BERT-Trainingsmodell wiederherstellen können.
- Low-Complexity Probing via Finding Subnetworks
- Steven Cao, Victor Sanh, Alexander Rush
- TLDR: Wir stellen eine Pruning-basierte Probe vor, die eine Sprachaufgabe erforscht, und zeigen, dass die Probe die Spracheigenschaften eines Teilnetzwerks erforscht.
- An Empirical Comparison of Instance Attribution Methods for NLP
- Pouya Pezeshkpour, Sarthak Jain, Byron Wallace, Sameer Singh
- TLDR: Wir stellen fest, dass die meisten Methoden, die auf gradientenbasierte Methoden verwendet werden, die Trainingsbeispiele von anderen Methoden unterscheiden.
- Generalization in Instruction Following Systems
- Soham Dan, Michael Zhou, Dan Roth
- TLDR: Wir stellen eine Lernstrategie vor, die die Datenerweiterung und die Sprachverständniserklärung kombiniert, um zu verstehen, ob die Sprachverständnisse von Sprachmodellen, die in einer Weltumgebung trainiert wurden, wirklich gut sind.
- LightningDOT: Pre-training Visual-Semantic Embeddings for Real-Time Image-Text Retrieval
- Siqi Sun, Yen-Chun Chen, Linjie Li, Shuohang Wang, Yuwei Fang, Jingjing Liu
- TLDR: Wir schlagen einen einfachen und effektiven Ansatz vor, der die Inferenzzeit von ITR um bis zu tausende Mal beschleunigt.
- Measuring Social Biases in Grounded Vision and Language Embeddings
- Candace Ross, Boris Katz, Andrei Barbu
- TLDR: Wir stellen drei allgemeine Metriken vor, die sich auf die Messung von Sprach- und Sichtweisen verallgemeinert.
- MTAG: Modal-Temporal Attention Graph for Unaligned Human Multimodal Language Sequences
- Jianing Yang, Yongxin Wang, Ruitao Yi, Yuying Zhu, Azaan Rehman, Amir Zadeh, Soujanya Poria, Louis-Philippe Morency
- TLDR: Wir schlagen einen neuen Rahmen vor, um einen graphenbasierten Rahmen für die Erfassung und Erkennung von Emotionen in einer Multimodalen Kommunikation zu schaffen.
- Grounding Open-Domain Instructions to Automate Web Support Tasks
- Nancy Xu, Sam Masling, Michael Du, Giovanni Campagna, Larry Heck, James Landay, Monica Lam
- TLDR: Wir stellen eine Aufgabe und einen Datensatz vor, um eine Online-Agentenausbildung für die Webnavigation zu erstellen.
- Modular Networks for Compositional Instruction Following
- Rodolfo Corona, Daniel Fried, Coline Devin, Dan Klein, Trevor Darrell
- TLDR: Wir schlagen eine modulare Architektur vor, die sich auf die Aufgabe des Lernens von Subgoalen anwenden lässt.
- Improving Cross-Modal Alignment in Vision Language Navigation via Syntactic Information
- Jialu Li, Hao Tan, Mohit Bansal
- TLDR: Wir schlagen einen Navigationsalgorithmus vor, der syntaxinformationen nutzt, um die Anordnung von Sprachaufgaben zu verbessern.
- Improving Pretrained Models for Zero-shot Multi-label Text Classification through Reinforced Label Hierarchy Reasoning
- Hui Liu, Danqing Zhang, Bing Yin, Xiaodan Zhu
- TLDR: Wir schlagen einen Reinforced Label Hierarchies Reasoning (RLHR) Ansatz vor, um die Interdependenz zwischen Labels in den Hierarchien während des Trainings zu fördern.
- Fine-Tuning Pre-trained Language Model with Weak Supervision: A Contrastive-Regularized Self-Training Approach
- Yue Yu, Simiao Zuo, Haoming Jiang, Wendi Ren, Tuo Zhao, Chao Zhang
- TLDR: Wir stellen einen kontrastiven Trainingsrahmen vor, COSINE, um das Fine-Tuning von LMs mit schwacher Überwachung zu ermöglichen.
- Posterior Differential Regularization with f-divergence for Improving Model Robustness
- Hao Cheng, Xiaodong Liu, Lis Pereira, Yaoliang Yu, Jianfeng Gao
- TLDR: Wir stellen fest, dass die Regularisierung der Modellverallgemeinerung die Modellverzerrung verbessert und die Modellerweiterung in einer Vielzahl von Szenarien verbessert.
- Understanding Hard Negatives in Noise Contrastive Estimation
- Wenzheng Zhang, Karl Stratos
- TLDR: Wir stellen die Negativverteilung als einen biased Schätzer für die Verteilung von Negativbeispielen vor und zeigen, dass die Negativverteilung die Modellverteilungen verringert.
- Certified Robustness to Word Substitution Attack with Differential Privacy
- Wenjie Wang, Pengfei Tang, Jian Lou, Li Xiong
- TLDR: Wir schlagen WordDP vor, um eine zertifizierte Robustheit gegen Wortvertauschungen bei Textklassifikationsaufgaben zu erreichen.
- DReCa: A General Task Augmentation Strategy for Few-Shot Natural Language Inference
- Shikhar Murty, Tatsunori B. Hashimoto, Christopher Manning
- TLDR: Wir schlagen eine Methode vor, die die Entflechtung von Datensätzen in tiefe, qualitativ hochwertige Aufgaben verteilt.
- Harnessing Multilinguality in Unsupervised Machine Translation for Rare Languages
- Xavier Garcia, Aditya Siddhant, Orhan Firat, Ankur Parikh
- TLDR: Wir stellen ein Modell vor, das auf 5 Sprachpaaren zu und von Englisch- und Nepali-Englisch-Distanzen abgeleitet wird, und zeigen, dass Multilinguality für die unüberwachte Übersetzung von Sprachpaaren wichtig ist.
- Macro-Average: Rare Types Are Important Too
- Thamme Gowda, Weiqiu You, Constantine Lignos, Jonathan May
- TLDR: Wir zeigen, dass die typbasierte Klassifikatorenmetricen für die Bewertung von Sprach- und Sprachausführungsmethoden konkurrenzfähig sind.
- Assessing Reference-Free Peer Evaluation for Machine Translation
- Sweta Agrawal, George Foster, Markus Freitag, Colin Cherry
- TLDR: Wir stellen BLEU vor, ein Multilingual-Modell, das die Leistung von BLEU mit Hilfe von Referenz-Faltungsverzerrungen und einer skalierbaren Übersetzungsbewertung übertrifft.
- The Curious Case of Hallucinations in Neural Machine Translation
- Vikas Raunak, Arul Menezes, Marcin Junczys-Dowmunt
- TLDR: Wir analysieren und erklären, dass tiefe Verwirrungen durch Quellstörungen verursacht werden können.
- Towards Continual Learning for Multilingual Machine Translation via Vocabulary Substitution
- Xavier Garcia, Noah Constant, Ankur Parikh, Orhan Firat
- TLDR: Wir schlagen einen einfachen Rahmen vor, um die Sprachfähigkeit von Multilingual Translationsmodellen zu erweitern.
- Towards Modeling the Style of Translators in Neural Machine Translation
- Yue Wang, Cuong Hoang, Marcello Federico
- TLDR: Wir verwenden ein Transformer-Modell, um die Vielfalt der Sprachstilvarianten von Transformer-Übersetzungsmodellen zu erfassen und zu generieren, die mit verschiedenen Sprachstilen auf neue Daten verbunden sind.
- Self-Supervised Test-Time Learning for Reading Comprehension
- Pratyay Banerjee, Tejas Gokhale, Chitta Baral
- TLDR: Wir stellen eine Methode vor, die Testzeit Lernen auf Textpassagen durchführt, ohne dass ein Training erforderlich ist.
- Capturing Row and Column Semantics in Transformer Based Question Answering over Tables
- Michael Glass, Mustafa Canim, Alfio Gliozzo, Saneem Chemmengath, Vishwajeet Kumar, Rishav Chakravarti, Avi Sil, Feifei Pan, Samarth Bharadwaj, Nicolas Rodolfo Fauceglia
- TLDR: Wir schlagen eine neue Methode vor, die die Suche nach Zellwerten über tabellarischen Listen hinweg effektiv und effektiv ausnutzt.
- Explainable Multi-hop Verbal Reasoning Through Internal Monologue
- Zhengzhong Liang, Steven Bethard, Mihai Surdeanu
- TLDR: Wir schlagen einen Verstehensverzerrungen-Verzerrungen-Erzeuger vor, der die Schlussfolgerungen in natürlicher Sprache generiert.
- Robust Question Answering Through Sub-part Alignment
- Jifan Chen, Greg Durrett
- TLDR: Wir modellieren die Antwort auf die Frage als ein räumliches Problem und verwenden BERT, um die Antwort zu finden.
- Text Modular Networks: Learning to Decompose Tasks in the Language of Existing Models
- Tushar Khot, Daniel Khashabi, Kyle Richardson, Peter Clark, Ashish Sabharwal
- TLDR: Wir schlagen Textmodulare Netzwerke vor, die lernen, komplexe Aufgaben durch Dekompositionierungen in einfachere ones zu lösen.
- RECONSIDER: Improved Re-Ranking using Span-Focused Cross-Attention for Open Domain Question Answering
- Srinivasan Iyer, Sewon Min, Yashar Mehdad, Wen-tau Yih
- TLDR: Wir stellen einen erfolgreichen Re-Ranking-Ansatz für die spanauswahl vor, der die Leistung von MRC-Modellen verbessert.
- On the Transferability of Minimal Prediction Preserving Inputs in Question Answering
- Shayne Longpre, Yi Lu, Chris DuBois
- TLDR: Wir stellen fest, dass MPPIs in neuronalen Netzen fehlen, wenn sie nicht verrauscht werden.
- Understanding by Understanding Not: Modeling Negation in Language Models
- Arian Hosseini, Siva Reddy, Dzmitry Bahdanau, R Devon Hjelm, Alessandro Sordoni, Aaron Courville
- TLDR: Wir schlagen BERT vor, um eine Sprachmodellierungsmethode zu verwenden, die auf Verzerrungen von Texten basiert.
- DuoRAT: Towards Simpler Text-to-SQL Models
- Torsten Scholak, Raymond Li, Dzmitry Bahdanau, Harm de Vries, Chris Pal
- TLDR: Wir stellen DuoRAT vor, ein neues RAT-SQL-Modell, das relationale Transformatoren nutzt, um die Antwort auf die Frage zu einer Antwort zu übertragen.
- Looking Beyond Sentence-Level Natural Language Inference for Question Answering and Text Summarization
- Anshuman Mishra, Dhruvesh Patel, Aparna Vijayakumar, Xiang Lorraine Li, Pavan Kapanipathi, Kartik Talamadupula
- TLDR: Wir verwenden MCRC und überprüfen die FALTS-Erfüllung bei Texterweiterungsaufgaben.
- Structure-Grounded Pretraining for Text-to-SQL
- Xiang Deng, Ahmed Hassan Awadallah, Christopher Meek, Oleksandr Polozov, Huan Sun, Matthew Richardson
- TLDR: Wir stellen ein weakly überwachtes Structure-Grounded Pretraining Framework (STRUG) vor, das lernt, Text-Table-Anpassung auf der Grundlage von Text-Table-Kriterien zu erfassen.
- Incremental Few-shot Text Classification with Multi-round New Classes: Formulation, Dataset and System
- Congying Xia, Wenpeng Yin, Yihao Feng, Philip Yu
- TLDR: Wir stellen eine neue Aufgabe vor, die die Klasse-Ausbreitung in einer neuen Umgebung erfasst.
- Temporal Reasoning on Implicit Events from Distant Supervision
- Ben Zhou, Kyle Richardson, Qiang Ning, Tushar Khot, Ashish Sabharwal, Dan Roth
- TLDR: Wir schlagen ein neuro-symbolisches temporales Modell vor, das die Verzerrung temporaler Beziehungen zwischen impliziten und zweckdienlichen Ereignissen und die Verzerrung temporaler Beziehungen zwischen impliziten und zweckdienlichen Ereignissen berücksichtigt.
- Disentangling Semantics and Syntax in Sentence Embeddings with Pre-trained Language Models
- James Y. Huang, Kuan-Hao Huang, Kai-Wei Chang
- TLDR: Wir stellen ParaBART vor, ein Syntax-Gadget-Paraphrasing-Modell, das lernt, Syntax- und Syntax-Eigenschaften in Satzeinbettungen zu vertauschen.
- Structure-Aware Abstractive Conversation Summarization via Discourse and Action Graphs
- Jiaao Chen, Diyi Yang
- TLDR: Wir schlagen eine Methode vor, die die Strukturen in Gesprächen modelliert, um eine bessere Konversationsumfrage zu generieren.
- A New Approach to Overgenerating and Scoring Abstractive Summaries
- Kaiqiang Song, Bingqing Wang, Zhe Feng, Fei Liu
- TLDR: Wir schlagen eine neue Methode vor, um mehrere Varianten der Zielausschreibungen mit unterschiedlicher Inhaltsvielfalt und unterschiedlichen Längen zu generieren, und schlagen eine neue Bewertungsmethode vor, die die wichtigsten Informationen erfasst.
- D2S: Document-to-Slide Generation Via Query-Based Text Summarization
- Edward Sun, Yufang Hou, Dakuo Wang, Yunfeng Zhang, Nancy X. R. Wang
- TLDR: Wir stellen eine neue Datensatzstruktur vor, die auf Dokumenten zu Dokumenten basiert und die Dokumenten-zu-Skizzen-Genauigkeit automatisiert.
- Efficient Attentions for Long Document Summarization
- Luyang Huang, Shuyang Cao, Nikolaus Parulian, Heng Ji, Lu Wang
- TLDR: Wir schlagen Hepos vor, einen effizienten Encoder-Decoder-Ansatz, der Aufmerksamkeit mit Positionsschritten nutzt, um salzige Informationen aus den Quellen zu extrahieren.
- RefSum: Refactoring Neural Summarization
- Yixin Liu, Zi-Yi Dou, Pengfei Liu
- TLDR: Wir stellen eine neue Methode vor, die eine uneinheitliche Sicht auf die Texterweiterung und die Zusammenfassungen kombiniert.
- Annotating and Modeling Fine-grained Factuality in Summarization
- Tanya Goyal, Greg Durrett
- TLDR: Wir analysieren und identifizieren fälschungen in XSum-Suchmodellen und zeigen, dass die Fälschungen in den Datensätzen nicht zufällig sind.
- Larger-Context Tagging: When and Why Does It Work?
- Jinlan Fu, Liangjing Feng, Qi Zhang, Xuanjing Huang, Pengfei Liu
- TLDR: Wir untersuchen, wie und warum das größere Kontext-Training funktioniert.
- Neural Sequence Segmentation as Determining the Leftmost Segments
- Yangming Li, Lemao Liu, Kaisheng Yao
- TLDR: Wir schlagen einen neuen Rahmen vor, der kontinuierliche Segmentierungen von Sätzen auf Segment Levels erlernt.
- PCFGs Can Do Better: Inducing Probabilistic Context-Free Grammars with Many Symbols
- Songlin Yang, Yanpeng Zhao, Kewei Tu
- TLDR: Wir stellen eine neue Parametrisierungsform von Phrasengrammbüchern vor, die auf Tensor-Dekomposition basiert und die Parsing-Leistung bei der unbeaufsichtigten Phrasengrammar verbessern kann.
- GEMNET: Effective Gated Gazetteer Representations for Recognizing Complex Entities in Low-context Input
- Tao Meng, Anjie Fang, Oleg Rokhlenko, Shervin Malmasi
- TLDR: Wir schlagen ein neuartiges Context-Gating-Netzwerk vor, das die Erkennung von Entitäten mit Hilfe von Merkmalen überwinden kann.
- Video-aided Unsupervised Grammar Induction
- Songyang Zhang, Linfeng Song, Lifeng Jin, Kun Xu, Dong Yu, Jiebo Luo
- TLDR: Wir schlagen ein Multi-Modal Compound PCFG-Modell vor, um die Vielfalt von Videos in die Grammatik zu integrieren.
- Generating Negative Samples by Manipulating Golden Responses for Unsupervised Learning of a Response Evaluation Model
- ChaeHun Park, Eugene Jang, Wonsuk Yang, Jong Park
- TLDR: Wir schlagen eine Methode vor, die negative Beispiele in einer Text-Evaluierungsdatensatzstruktur nutzt, um negative Beispiele zu generieren, die in einem kontextuellen Rahmen verwendet werden.
- How Robust are Fact Checking Systems on Colloquial Claims?
- Byeongchang Kim, Hyunwoo Kim, Seokhee Hong, Gunhee Kim
- TLDR: Wir stellen fest, dass die Dokumentenrepräsentation von WikiAPI-Retriever (Thorne et al., 2018) auf die Phrasen von Behauptungen in formaler Sprache übertragbar ist.
- Fine-grained Post-training for Improving Retrieval-based Dialogue Systems
- Janghoon Han, Taesuk Hong, Byoungjae Kim, Youngjoong Ko, Jungyun Seo
- TLDR: Wir schlagen eine fine-grained post-training Methode vor, die die Charakteristiken des Multi-Turn Dialogs wiederspiegelt.
- Put Chatbot into Its Interlocutor’s Shoes: New Framework to Learn Chatbot Responding with Intention
- Hsuan Su, Jiun-Hao Jhan, Fan-yun Sun, Saurav Sahay, Hung-yi Lee
- TLDR: Wir schlagen einen neuen Rahmen vor, um Chatbots zu trainieren, menschliche Intentionen zu haben.
- Adding Chit-Chat to Enhance Task-Oriented Dialogues
- Kai Sun, Seungwhan Moon, Paul Crook, Stephen Roller, Becka Silvert, Bing Liu, Zhiguang Wang, Honglei Liu, Eunjoon Cho, Claire Cardie
- TLDR: Wir schlagen einen Human-<-> AI-Algorithmus vor, um Aufgaben-orientierte Gespräche zu erstellen, die auf chit-chat-basiert sind.
- Incorporating Syntax and Semantics in Coreference Resolution with Heterogeneous Graph Attention Network
- Fan Jiang, Trevor Cohn
- TLDR: Wir stellen ein heterogenes graphbasiertes Modell vor, das syntaktische und semantische Strukturen von Sätzen in die Syntax und die Semantik integriert.
- Context Tracking Network: Graph-based Context Modeling for Implicit Discourse Relation Recognition
- Yingxue Zhang, Fandong Meng, Peng Li, Ping Jian, Jie Zhou
- TLDR: Wir schlagen ein graphbasiertes Context Tracking Network (CT-Net) vor, um die RL-Probleme beim RL-Modell zu lösen.
- Improving Neural RST Parsing Model with Silver Agreement Subtrees
- Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, Masaaki Nagata
- TLDR: Wir schlagen eine Methode vor, die die Verwendung von stichprobenbasierten Daten nutzt, um RST-Parser zu erlernen.
- RST Parsing from Scratch
- Thanh-Tung Nguyen, Xuan-Phi Nguyen, Shafiq Joty, Xiaoli Li
- TLDR: Wir stellen eine neue top-down-End-to-End-Formulierung vor, die auf Dokumentebene das Parsing von Satzrepräsentationen ermöglicht.
- Did they answer? Subjective acts and intents in conversational discourse
- Elisa Ferracane, Greg Durrett, Junyi Jessy Li, Katrin Erk
- TLDR: Wir stellen einen Datensatz mit mehreren und subjektiven Interpretationen von Gesprächsversuchen vor, der auf die Verzerrung von Interpretationen in Bezug auf die Sprachinterpretation basiert.
- Evaluating the Impact of a Hierarchical Discourse Representation on Entity Coreference Resolution Performance
- Sopan Khosla, James Fiacco, Carolyn Rosé
- TLDR: Wir verwenden automatische Parse-Bäumen, um die Entitätencourage-Resolution (CR) zu verbessern.
- Bridging Resolution: Making Sense of the State of the Art
- Hideo Kobayashi, Vincent Ng
- TLDR: Wir schlagen einen hybriden rule-based und MTL-Ansatz vor, um eine bessere Überwachung und Verbesserung von Fehlern zu ermöglichen.
- Explicitly Modeling Syntax in Language Models with Incremental Parsing and a Dynamic Oracle
- Yikang Shen, Shawn Tan, Alessandro Sordoni, Siva Reddy, Aaron Courville
- TLDR: Wir schlagen ein Syntax-aware Sprachmodell vor, das die Struktur der Syntax erfasst und syntaktische Generalisierung und Syntax-Modellierung durchführen kann.
- Revisiting the Weaknesses of Reinforcement Learning for Neural Machine Translation
- Samuel Kiegeland, Julia Kreutzer
- TLDR: Wir stellen eine empirische Gegendarstellung für die Verzerrung von Gradientenalgorithmen vor und zeigen, dass die Belohnungsverschiebungen für NMT entscheidend sind.
- Learning to Organize a Bag of Words into Sentences with Neural Networks: An Empirical Study
- Chongyang Tao, Shen Gao, Juntao Li, Yansong Feng, Dongyan Zhao, Rui Yan
- TLDR: Wir vergleichen die Fähigkeit von mehreren neuronalen Netzen, die eine Bag von Wörtern aus einer bedingten Satzstruktur ableiten, und stellen fest, dass die Ableitungen von Beschriftungen von Bedeutungen für das Lernen von natürlichen Sprachen sind.
- Mask Attention Networks: Rethinking and Strengthen Transformer
- Zhihao Fan, Yeyun Gong, Dayiheng Liu, Zhongyu Wei, Siyuan Wang, Jian Jiao, Nan Duan, Ruofei Zhang, Xuanjing Huang
- TLDR: Wir stellen eine neue Schicht vor, die als Maskenattention Networks bezeichnet werden, und zeigen, dass sie zwei Spezialfälle von MANs mit static Maskenmatrizen sind.
- ERNIE-Gram: Pre-Training with Explicitly N-Gram Masked Language Modeling for Natural Language Understanding
- Dongling Xiao, Yu-Kun Li, Han Zhang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: Wir schlagen ERNIE-Gram vor, eine explizite N-Gram-Maskierungsmethode zur Integration von Coarse-grained Information in das Pre-Training.
- Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese Pre-trained Language Models
- Yuxuan Lai, Yijia Liu, Yansong Feng, Songfang Huang, Dongyan Zhao
- TLDR: Wir schlagen ein neues Modell vor, das die Worteinbettungen in einer Satzrepräsentation nutzt, um eine Textsequenz zu modellieren.
- Modeling Event Plausibility with Consistent Conceptual Abstraction
- Ian Porada, Kaheer Suleman, Adam Trischler, Jackie Chi Kit Cheung
- TLDR: Wir zeigen, dass Transformer-basierte Sprachmodelle in Bezug auf die plausiblen Handlungen in einer lexikalischen Hierarchie inkonsistenz zeigen.
- UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual Embeddings Using the Unified Medical Language System Metathesaurus
- George Michalopoulos, Yuanxin Wang, Hussam Kaka, Helen Chen, Alexander Wong
- TLDR: Wir stellen UmlsBERT vor, ein kontextuelles Worteinbettungsmodell, das das Wissen aus einer Wissensbasis in ein Metathesaurus einbezieht.
- Field Embedding: A Unified Grain-Based Framework for Word Representation
- Junjie Luo, Xi Chen, Jichao Sun, Yuejia Xiang, Ningyu Zhang, Xiang Wan
- TLDR: Wir schlagen eine Rahmenstruktur vor, um Worteinbettungen und Grapheneinbettungen gemeinsam zu lernen.
- MelBERT: Metaphor Detection via Contextualized Late Interaction using Metaphorical Identification Theories
- Minjin Choi, Sunkyung Lee, Eunseong Choi, Heesoo Park, Junhyuk Lee, Dongwon Lee, Jongwuk Lee
- TLDR: Wir schlagen ein neues Metaphor-Detection-Modell vor, das die Metaphoren in einer Satzbeschriftung erkennt.
- Non-Parametric Few-Shot Learning for Word Sense Disambiguation
- Howard Chen, Mengzhou Xia, Danqi Chen
- TLDR: Wir schlagen MetricWSD vor, einen nicht-parametrischen few-shot Learning Ansatz, der die Datenverschiebung und die Verzerrung von Worten mit den Sinneswahrnehmungen minimiert.
- Why Do Document-Level Polarity Classifiers Fail?
- Karen Martins, Pedro O.S Vaz-de-Melo, Rodrygo Santos
- TLDR: Wir charakterisieren, quantifizieren und messen die Auswirkungen von harten Instanzen auf die Klassifizierung von Filmreviews.
- A Unified Span-Based Approach for Opinion Mining with Syntactic Constituents
- Qingrong Xia, Bo Zhang, Rui Wang, Zhenghua Li, Yue Zhang, Fei Huang, Luo Si, Min Zhang
- TLDR: Wir schlagen einen spanbasierten Ansatz vor, um die Sprachstrukturen von “Who expressed what opinions towards what” in einer Satzrepräsentation zu finden.
- Target-specified Sequence Labeling with Multi-head Self-attention for Target-oriented Opinion Words Extraction
- Yuhao Feng, Yanghui Rao, Yuyao Tang, Ninghua Wang, He Liu
- TLDR: Wir schlagen eine Multi-Task-Struktur für die Erfassung von Zielen und Bewerten vor, die mit einer Zielbeschriftung und einer Beobachtungstermbeschriftung kombiniert werden können.
- Does syntax matter? A strong baseline for Aspect-based Sentiment Analysis with RoBERTa
- Junqi Dai, Hang Yan, Tianxiang Sun, Pengfei Liu, Xipeng Qiu
- TLDR: Wir vergleichen die Induzierten Bäume und die Parsing-Bäumen aus PTMs und die Parser-Zuweisungen auf mehreren Modellen für die ABSA.
- Domain Divergences: A Survey and Empirical Analysis
- Abhinav Ramesh Kashyap, Devamanyu Hazarika, Min-Yen Kan, Roger Zimmermann
- TLDR: Wir stellen eine neue Klasse von Metriken vor, die Informationtheorie, Geometrics und höherer Ordnungsmaße kombinieren.
- Target-Aware Data Augmentation for Stance Detection
- Yingjie Li, Cornelia Caragea
- TLDR: Wir stellen eine Methode zur Erkennung von Positionsmerkmalen vor, die die Verwendung maskierter Worteinbettungen ermöglicht.
- End-to-end ASR to jointly predict transcriptions and linguistic annotations
- Motoi Omachi, Yuya Fujita, Shinji Watanabe, Matthew Wiesner
- TLDR: Wir schlagen ein Transformer-basiertes Sequence-to-Sequence-Modell vor, das gleichzeitige Sprachauszeichnungen und Sprachannotationen erzeugt und gleichzeitige Sprachauszeichnungen und Sprachnachweise erzeugt.
- Source and Target Bidirectional Knowledge Distillation for End-to-end Speech Translation
- Hirofumi Inaguma, Tatsuya Kawahara, Shinji Watanabe
- TLDR: Wir schlagen ein neuronales E2E-ST-Modell vor, das Paraphrase-Transferungen als eine zusätzliche Aufgabe mit einem Decoder erlernt.
- Searchable Hidden Intermediates for End-to-End Models of Decomposable Sequence Tasks
- Siddharth Dalmia, Brian Yan, Vikas Raunak, Florian Metze, Shinji Watanabe
- TLDR: Wir stellen ein Multi-Decoder-Modell vor, das die Suche nach versteckten Interferenzrepräsentationen in den Zwischenschritten eines Sequenzmodells nutzt.
- SPLAT: Speech-Language Joint Pre-Training for Spoken Language Understanding
- Yu-An Chung, Chenguang Zhu, Michael Zeng
- TLDR: Wir schlagen ein halbüberwachtes Sprachmodell vor, um die Sprachmodule gemeinsam zu trainieren.
- Worldly Wise (WoW) - Cross-Lingual Knowledge Fusion for Fact-based Visual Spoken-Question Answering
- Kiran Ramnath, Leda Sari, Mark Hasegawa-Johnson, Chang Yoo
- TLDR: Wir stellen eine neue Aufgabe und einen synthetisch generierten Datensatz vor, um Fact-based Visual Spoken-Question Answering (FVSQA) zu lösen.
- Align-Refine: Non-Autoregressive Speech Recognition via Iterative Realignment
- Ethan A. Chi, Julian Salazar, Katrin Kirchhoff
- TLDR: Wir schlagen eine neue Methode vor, um autoregressive Modelle zu übertreffen.
- Everything Has a Cause: Leveraging Causal Inference in Legal Text Analysis
- Xiao Liu, Da Yin, Yansong Feng, Yuting Wu, Dongyan Zhao
- TLDR: Wir schlagen ein Graphenbasiertes Causal Inferenzverfahren vor, das auf der Suche nach Kausalengraphen basiert und die Erkennung von Kausalen zwischen Faktoren ermöglicht.
- Counterfactual Supporting Facts Extraction for Explainable Medical Record Based Diagnosis with Graph Network
- Haoran Wu, Wei Chen, Shuang Xu, Bo Xu
- TLDR: Wir schlagen eine Methode zur Unterstützung von EMRs vor, die die Beweise für die Diagnose von Krankheiten mit Hilfe von Multigranularitätsmerkmalen extrahiert.
- Personalized Response Generation via Generative Split Memory Network
- Yuwei Wu, Xuezhe Ma, Diyi Yang
- TLDR: Wir stellen eine neue Methode vor, die auf Reddit verwendet werden kann, um Fragen zu beantworten, indem Benutzerprofile und Posts mit Benutzervergangenheiten erstellt werden.
- Towards Few-shot Fact-Checking via Perplexity
- Nayeon Lee, Yejin Bang, Andrea Madotto, Pascale Fung
- TLDR: Wir schlagen eine neue Methode vor, die die Fähigkeit des Transferlernens eines Sprachmodells nutzt, um die Beantwortung von Fragen zu beantworten.
- Active^2 Learning: Actively reducing redundancies in Active Learning methods for Sequence Tagging and Machine Translation
- Rishi Hazra, Parag Dutta, Shubham Gupta, Mohammed Abdul Qaathir, Ambedkar Dukkipati
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Verwendung von Beispielen für die automatische Ankündigung von Deep Learning zu reduzieren.
- Generating An Optimal Interview Question Plan Using A Knowledge Graph And Integer Linear Programming
- Soham Datta, Prabir Mallick, Sangameshwar Patil, Indrajit Bhattacharya, Girish Palshikar
- TLDR: Wir stellen eine Methode vor, die automatisch eine optimalen Satz von Fragen aus einer Fragebank personalisiert für einen Kandidaten auswählt.
- Model Extraction and Adversarial Transferability, Your BERT is Vulnerable!
- Xuanli He, Lingjuan Lyu, Lichao Sun, Qiongkai Xu
- TLDR: Wir zeigen, dass BERT-basierte API-Dienste für die Textverarbeitung in einer Umgebung mit begrenzten Prioritäten und Bequemlichkeiten effektiv angegriffen werden können.
- A Global Past-Future Early Exit Method for Accelerating Inference of Pre-trained Language Models
- Kaiyuan Liao, Yi Zhang, Xuancheng Ren, Qi Su, Xu Sun, Bin He
- TLDR: Wir schlagen eine neue Methode vor, die die Sprachinformationen in den Inferenzschichten nutzt, um umfassende Vorhersagen für die Zukunft zu machen.
- Masked Conditional Random Fields for Sequence Labeling
- Tianwen Wei, Jianwei Qi, Shenghuan He, Songtao Sun
- TLDR: Wir schlagen Masked Conditional Random Field (MCRF) vor, eine einfache und effektive Variante von CRF, die Einschränkungen auf Kandidatenpfade während des Trainings und der Dekodierzeit aufzeigt.
- Heterogeneous Graph Neural Networks for Concept Prerequisite Relation Learning in Educational Data
- Chenghao Jia, Yongliang Shen, Yechun Tang, Lu Sun, Weiming Lu
- TLDR: Wir schlagen einen neuen Konzept-Prerequisite Relations Learning Ansatz vor, der sowohl Konzeptrepräsentationen aus einem heterogenen Graphen als auch Konzeptpaarweise Merkmale kombiniert.
- Be Careful about Poisoned Word Embeddings: Exploring the Vulnerability of the Embedding Layers in NLP Models
- Wenkai Yang, Lei Li, Zhiyuan Zhang, Xuancheng Ren, Xu Sun, Bin He
- TLDR: Wir haben eine Methode zur Datenvergiftung vorgeschlagen, die die Einbettungsverzerrung in NLP-Modelle verfälscht.
- DA-Transformer: Distance-aware Transformer
- Chuhan Wu, Fangzhao Wu, Yongfeng Huang
- TLDR: Wir schlagen einen neuen Transformer vor, der die realen Distanzen zwischen den Zeichen kennt und die Self-Attention-Bewertungen nutzt.
- ASAP: A Chinese Review Dataset Towards Aspect Category Sentiment Analysis and Rating Prediction
- Jiahao Bu, Lei Ren, Shuang Zheng, Yang Yang, Jingang Wang, Fuzheng Zhang, Wei Wu
- TLDR: Wir stellen einen großen Datensatz für die Bewertungsverzerrung vor, der 46, 730 genuine Bewertungen aus einem Online-to-Offline-E-Commerce-Platzma in China enthält.
- Are NLP Models really able to Solve Simple Math Word Problems?
- Arkil Patel, Satwik Bhattamishra, Navin Goyal
- TLDR: Wir stellen fest, dass die meisten bestehenden MWPs auf einfache Weise gelernt haben, um eine große Anzahl von Aufgaben zu lösen.
- WRIME: A New Dataset for Emotional Intensity Estimation with Subjective and Objective Annotations
- Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, Hajime Nagahara
- TLDR: Wir analysieren die Emotionen eines durchschnittlichen Benutzers und die Emotionen der Leser, die auf einem Datensatz mit seiner Ziel- und Ziel-Emotion basieren.
- KPQA: A Metric for Generative Question Answering Using Keyphrase Weights
- Hwanhee Lee, Seunghyun Yoon, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Joongbo Shin, Kyomin Jung
- TLDR: Wir schlagen eine neue Methode zur Bewertung der Beantwortung von Fragen vor, die von einer Schlüsselphrase vorgeschlagen wurden.
- StylePTB: A Compositional Benchmark for Fine-grained Controllable Text Style Transfer
- Yiwei Lyu, Paul Pu Liang, Hai Pham, Eduard Hovy, Barnabás Póczos, Ruslan Salakhutdinov, Louis-Philippe Morency
- TLDR: Wir stellen einen großen Rahmen für die Kontrolle von Text mit Hilfe von Stilbeschriftungen vor und stellen eine neue Herausforderung vor, die die Erzeugung kontrollierbarer Text mit Hilfe von Stilbeschriftungen und kompositorischen Modellen ermöglicht.
- Blow the Dog Whistle: A Chinese Dataset for Cant Understanding with Common Sense and World Knowledge
- Canwen Xu, Wangchunshu Zhou, Tao Ge, Ke Xu, Julian McAuley, Furu Wei
- TLDR: Wir stellen eine Aufgabe vor, die die Konsistenz von Mengen aus einer tiefen Sprachwissenschaft erlernt.
- COVID-19 Named Entity Recognition for Vietnamese
- Thinh Hung Truong, Mai Hoang Dao, Dat Quoc Nguyen
- TLDR: Wir stellen einen neuen, automatisch annotierten COVID-19-Datensätzen vor, der für die Entitätserkennung von Vietnamesisch geeignet ist.
- Framing Unpacked: A Semi-Supervised Interpretable Multi-View Model of Media Frames
- Shima Khanehzar, Trevor Cohn, Gosia Mikolajczak, Andrew Turpin, Lea Frermann
- TLDR: Wir stellen ein halbüberwachtes Modell vor, das in einer News-Artikelinstanz lokalen Informationen über die Ereignisse und die Akteure nutzt, um eine neue Bilddarstellung zu schaffen.
- Automatic Classification of Neutralization Techniques in the Narrative of Climate Change Scepticism
- Shraey Bhatia, Jey Han Lau, Timothy Baldwin
- TLDR: Wir schlagen einen neuen Ansatz vor, um das Problem des Klimawandels zu lösen und die Implementierung von Neutralisierungstechniken in Text zu erklären.
- Suicide Ideation Detection via Social and Temporal User Representations using Hyperbolic Learning
- Ramit Sawhney, Harshit Joshi, Rajiv Ratn Shah, Lucie Flek
- TLDR: Wir schlagen Hyperbolic Graphen Convolution Networks vor, um die Emotionen eines Benutzers auf Twitter zu kontextualisieren.
- WikiTalkEdit: A Dataset for modeling Editors’ behaviors on Wikipedia
- Kokil Jaidka, Andrea Ceolin, Iknoor Singh, Niyati Chhaya, Lyle Ungar
- TLDR: Wir stellen WikiTalkEdit vor, einen Datensatz von Konversationen und Erstellungsprotokollen aus Wikipedia, für die Online-Kommunikation und Konversationmodellierung.
- The structure of online social networks modulates the rate of lexical change
- Jian Zhu, David Jurgens
- TLDR: Wir zeigen, dass die Struktur der Gemeinschaften die lexikalische Veränderung in der lexikalischen Regel bewirkt.
- Modeling Framing in Immigration Discourse on Social Media
- Julia Mendelsohn, Ceren Budak, David Jurgens
- TLDR: Wir stellen fest, dass die meisten Richtlinien für die Erkennung von Frames auf Twitter für die Erkennung von immigration-spezifischen Frames entscheiden.
- Modeling the Severity of Complaints in Social Media
- Mali Jin, Nikolaos Aletras
- TLDR: Wir schlagen einen neuen Algorithmus zur Klassifizierung von Beschwerden vor, der die Verwundbarkeit von Beschwerden in einer Multi-Task-Umgebung erfasst.
- What About the Precedent: An Information-Theoretic Analysis of Common Law
- Josef Valvoda, Tiago Pimentel, Niklas Stoehr, Ryan Cotterell, Simone Teufel
- TLDR: Wir stellen fest, dass die Argumente des Vorurteils die entscheidenden Determinanten für die Entscheidung eines neuen Verfahrens sind.
- Introducing CAD: the Contextual Abuse Dataset
- Bertie Vidgen, Dong Nguyen, Helen Margetts, Patricia Rossini, Rebekah Tromble
- TLDR: Wir stellen einen neuen Datensatz von Reddit-Einträgen vor, der die Grenzen von vorherigen Arbeiten aufzeigt.
- Lifelong Learning of Hate Speech Classification on Social Media
- Jing Qian, Hong Wang, Mai ElSherief, Xifeng Yan
- TLDR: Wir schlagen Variational Representation Learning (VRL) vor, um das Problem des katastrophalen Vergessens bei der Klassifizierung von gegnerischen Verzerrungen zu lösen.
- Learning to Recognize Dialect Features
- Dorottya Demszky, Devyani Sharma, Jonathan Clark, Vinodkumar Prabhakaran, Jacob Eisenstein
- TLDR: Wir stellen eine Aufgabe vor, die die Erkennung von Merkmalen in Sprachstilen und Sprachstilen ermöglicht.
- It’s Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners
- Timo Schick, Hinrich Schütze
- TLDR: Wir zeigen, dass Sprachmodelle, die eine kleine Anzahl von Parametern haben, die in der Lage sind, die Leistung von GPT-3 zu verbessern.
- Static Embeddings as Efficient Knowledge Bases?
- Philipp Dufter, Nora Kassner, Hinrich Schütze
- TLDR: Wir untersuchen, wie man mit static Einbettungen flüchtig Wissen auf der Grundlage von Texten aus Texten in rekurrenten Sprachmodellen erforscht.
- Highly Efficient Knowledge Graph Embedding Learning with Orthogonal Procrustes Analysis
- Xutan Peng, Guanyi Chen, Chenghua Lin, Mark Stevenson
- TLDR: Wir schlagen einen einfachen, aber effektiven Rahmen vor, der die Trainingszeit und den CO2-Fußabdruck reduziert.
- Rethinking Network Pruning – under the Pre-train and Fine-tune Paradigm
- Dongkuan Xu, Ian En-Hsu Yen, Jinxi Zhao, Zhibin Xiao
- TLDR: Wir stellen einen Wissens- und Erfahrungstransfer vor, der BERT bei der Pruning-Methode erheblich besser abschneidet als die bestehenden Literaturen.
- Towards a Comprehensive Understanding and Accurate Evaluation of Societal Biases in Pre-Trained Transformers
- Andrew Silva, Pradyumna Tambwekar, Matthew Gombolay
- TLDR: Wir untersuchen gender- und raciale Diskriminierungen in öffentlich-trained Sprachmodellen und schlagen eine robuste Testmethode vor, um die Verzerrung von Worten in bestehenden Sprachmodellen zu bewerten.
- Detoxifying Language Models Risks Marginalizing Minority Voices
- Albert Xu, Eshaan Pathak, Eric Wallace, Suchin Gururangan, Maarten Sap, Dan Klein
- TLDR: Wir zeigen, dass die Detoxifikation von LMs zu einer Verzerrung von gesellschaftlichen Identitäten führt.
- HONEST: Measuring Hurtful Sentence Completion in Language Models
- Debora Nozza, Federico Bianchi, Dirk Hovy
- TLDR: Wir schlagen einen Score für die Bewertung von Verzerrungen in Sprachmodellen vor, der diskriminierenden Stereotypen aufzeigt.
- EaSe: A Diagnostic Tool for VQA based on Answer Diversity
- Shailza Jolly, Sandro Pezzelle, Moin Nabi
- TLDR: Wir schlagen EASE vor, einen einfachen Diagnostik-Tool für Visual Question Answering (VQA), das die Komplexität einer Bildbeantwortung quantifiziert.
- DeCEMBERT: Learning from Noisy Instructional Videos via Dense Captions and Entropy Minimization
- Zineng Tang, Jie Lei, Mohit Bansal
- TLDR: Wir schlagen eine neue Methode vor, die den Text in den Videos automatisch aus den Frames extrahiert, um informative visuelle Hinweise für das Lernen von Video- und Sprachbeschriftungen zu liefern.
- Improving Generation and Evaluation of Visual Stories via Semantic Consistency
- Adyasha Maharana, Darryl Hannan, Mohit Bansal
- TLDR: Wir stellen eine neue Methode vor, die auf der Videobeschriftung basiert, um die Sequenz- und Handlungsausbreitung zu steuern und die Qualität der Bilder zu verbessern.
- Multilingual Multimodal Pre-training for Zero-Shot Cross-Lingual Transfer of Vision-Language Models
- Po-Yao Huang, Mandela Patrick, Junjie Hu, Graham Neubig, Florian Metze, Alexander Hauptmann
- TLDR: Wir schlagen ein Transformer-basiertes Multilingual Text-to-Video-Suchmodell vor, das kontextuelle Video-Suchvideos in mehreren Sprachen erlernt.
- Video Question Answering with Phrases via Semantic Roles
- Arka Sadhu, Kan Chen, Ram Nevatia
- TLDR: Wir stellen eine Videobeschreibungsmethode vor, die die Antwort auf die Frage beantworten kann.
- From Masked Language Modeling to Translation: Non-English Auxiliary Tasks Improve Zero-shot Spoken Language Understanding
- Rob van der Goot, Ibrahim Sharaf, Aizhan Imankulova, Ahmet Üstün, Marija Stepanović, Alan Ramponi, Siti Oryza Khairunnisa, Mamoru Komachi, Barbara Plank
- TLDR: Wir stellen eine neue Benchmark-Architektur für Spracherkennung und -verbierung vor, die auf der gemeinsamen Sprachausnutzung basiert.
- WEC: Deriving a Large-scale Cross-document Event Coreference dataset from Wikipedia
- Alon Eirew, Arie Cattan, Ido Dagan
- TLDR: Wir stellen eine effiziente Methode zur Erfassung und Lösung von Dokumenten in Wikipedia vor, die auf die Erkennung von Dokumenten in einer anderen Wikipedia-Umgebung anwendbar ist.
- Challenging distributional models with a conceptual network of philosophical terms
- Yvette Oortwijn, Jelke Bloem, Pia Sommerauer, Francois Meyer, Wei Zhou, Antske Fokkens
- TLDR: Wir vergleichen die Eigenschaften von Deep Learning und Deep Learning-Modellen für kleine Datensätze.
- KILT: a Benchmark for Knowledge Intensive Language Tasks
- Fabio Petroni, Aleksandra Piktus, Angela Fan, Patrick Lewis, Majid Yazdani, Nicola De Cao, James Thorne, Yacine Jernite, Vladimir Karpukhin, Jean Maillard, Vassilis Plachouras, Tim Rocktäschel, Sebastian Riedel
- TLDR: Wir stellen einen Benchmark für Wissensintensive Spracherfassungsaufgaben vor, der die Wikipedia-Skizzen in großen Texten berücksichtigt.
- A Survey on Recent Approaches for Natural Language Processing in Low-Resource Scenarios
- Michael A. Hedderich, Lukas Lange, Heike Adel, Jannik Strötgen, Dietrich Klakow
- TLDR: Wir stellen Methoden vor, die auf der Datensparsamkeit basieren, um die Leistung bei Sprachaufgaben zu verbessern.
- Temporal Knowledge Graph Completion using a Linear Temporal Regularizer and Multivector Embeddings
- Chengjin Xu, Yung-Yu Chen, Mojtaba Nayyeri, Jens Lehmann
- TLDR: Wir stellen einen Zeit-aware-Agenten für Wissensgraphen vor, der die Tensorfaktorisierung von Wissensgraphen durch Linear-Trennungsregularizierung und Multivektor-Einbettungsaktivierungen erlernt.
- UDALM: Unsupervised Domain Adaptation through Language Modeling
- Constantinos Karouzos, Georgios Paraskevopoulos, Alexandros Potamianos
- TLDR: Wir stellen UDALM vor, eine Fine-Tuning-Methode, die die Ziel- und Zielstrafe in einer robusten und sampleeffizienten Weise anpasst.
- Beyond Black & White: Leveraging Annotator Disagreement via Soft-Label Multi-Task Learning
- Tommaso Fornaciari, Alexandra Uma, Silviu Paun, Barbara Plank, Dirk Hovy, Massimo Poesio
- TLDR: Wir schlagen eine neue Methode vor, die Soft-Labels als Informationsquelle nutzt, um die Fehlerstrafe bei falschen Entitäten zu reduzieren.
- Clustering-based Inference for Biomedical Entity Linking
- Rico Angell, Nicholas Monath, Sunil Mohan, Nishant Yadav, Andrew McCallum
- TLDR: Wir stellen ein Cluster-basiertes Inferenzmodell vor, das die Merkmale von Wissensdatensätzen von Entitäten miteinander verbindet.
- Variance-reduced First-order Meta-learning for Natural Language Processing Tasks
- Lingxiao Wang, Kevin Huang, Tengyu Ma, Quanquan Gu, Jing Huang
- TLDR: Wir schlagen einen neuen Varianzreduktionstermin vor, der die Varianz der Gradientenschätzer in der Aufgabeanpassung reduziert.
- Diversity-Aware Batch Active Learning for Dependency Parsing
- Tianze Shi, Adrian Benton, Igor Malioutov, Ozan İrsoy
- TLDR: Wir untersuchen, ob die Vielfalt in den Sampling-Baumen, die mit Determinanten Punktprozessen (DPPs) erstellt wurden, die Vielfalt über ihre Vielfalt-agnostischen Gegenstücken verbessert.
- How many data points is a prompt worth?
- Teven Le Scao, Alexander Rush
- TLDR: Wir vergleichen prompted und head-based Fine-Tuning, um zu beweisen, dass sie einen Nutzen bieten.
- Can Latent Alignments Improve Autoregressive Machine Translation?
- Adi Haviv, Lior Vassertail, Omer Levy
- TLDR: Wir stellen fest, dass die latente Alignungszielen von CTC und AXE nicht-autoregressive Modellen verbessern.
- Smoothing and Shrinking the Sparse Seq2Seq Search Space
- Ben Peters, André F. T. Martins
- TLDR: Wir stellen fest, dass Entmax-basierte Modelle das Problem des Gehörlosen lösen können, das sich in der Sprachausgabe des Gehirns des Menschen zeigt.
- Unified Pre-training for Program Understanding and Generation
- Wasi Ahmad, Saikat Chakraborty, Baishakhi Ray, Kai-Wei Chang
- TLDR: Wir stellen ein sequenz-zu-sequenz-Modell vor, das eine breite Vielfalt von Programm- und Spracherkennungs- und -übertragungaufgaben erlernt.
- Hyperparameter-free Continuous Learning for Domain Classification in Natural Language Understanding
- Ting Hua, Yilin Shen, Changsheng Zhao, Yen-Chang Hsu, Hongxia Jin
- TLDR: Wir schlagen ein hyperparametrisches kontinuierliches Lernmodell vor, das die Leistung bei der Klassifizierungsverschiebung erheblich reduzieren kann.
- On the Embeddings of Variables in Recurrent Neural Networks for Source Code
- Nadezhda Chirkova
- TLDR: Wir entwickeln dynamische Einbettungen, die die Semantik der Variablen in Bezug auf die Aufgaben des Programms anpassen.
- Cross-Lingual Word Embedding Refinement by \ell_{1} Norm Optimisation
- Xutan Peng, Chenghua Lin, Mark Stevenson
- TLDR: Wir schlagen einen post-processing-Schema vor, um CLWEs zu verbessern.
- Semantic Frame Forecast
- Chieh-Yang Huang, Ting-Hao Huang
- TLDR: Wir stellen eine Aufgabe vor, die die Semantik von Frames vorhersagt, die in den nächsten 10, 100 oder sogar 1,000 Sätzen in einer Geschichte stattfinden.
- MUSER: MUltimodal Stress detection using Emotion Recognition as an Auxiliary Task
- Yiqun Yao, Michalis Papakostas, Mihai Burzo, Mohamed Abouelenien, Rada Mihalcea
- TLDR: Wir schlagen eine neue Architektur und einen neuen Multi-Task-Lernansatz vor, um Emotionen zu erkennen und eine effektive Stresserkennung mit internen und externen Aufgaben zu ermöglichen.
- Learning to Decompose and Organize Complex Tasks
- Yi Zhang, Sujay Kumar Jauhar, Julia Kiseleva, Ryen White, Dan Roth
- TLDR: Wir schlagen eine neuartige End-to-End-Pipeline vor, die eine komplexe Aufgabe auf der Grundlage von Text generiert, um eine neuronale Texterzeugung zu verwenden.
- Continual Learning for Text Classification with Information Disentanglement Based Regularization
- Yufan Huang, Yanzhe Zhang, Jiaao Chen, Xuezhi Wang, Diyi Yang
- TLDR: Wir schlagen eine auf Informationsdestillation basierende Regularisierungsmethode für kontinuierliches Lernen auf Textklassifikation vor.
- Learning from Executions for Semantic Parsing
- Bailin Wang, Mirella Lapata, Ivan Titov
- TLDR: Wir schlagen einen Parser vor, der Programme, die zu NL-Uttern passen, automatisch auf die Programme, die zu einer realen Umgebung abspielen, um zu parsen.
- Learning to Synthesize Data for Semantic Parsing
- Bailin Wang, Wenpeng Yin, Xi Victoria Lin, Caiming Xiong
- TLDR: Wir schlagen ein generatives Modell vor, das eine (non-neural) PCFG, eine BART-basierte Übersetzungsmodelle und eine PCFG-Erweiterung enthält.
- Edge: Enriching Knowledge Graph Embeddings with External Text
- Saed Rezayi, Handong Zhao, Sungchul Kim, Ryan Rossi, Nedim Lipka, Sheng Li
- TLDR: Wir schlagen einen Rahmen für die Erweiterung von Wissensgraphen vor, der auf negatives Sampling basiert.
- FLIN: A Flexible Natural Language Interface for Web Navigation
- Sahisnu Mazumder, Oriana Riva
- TLDR: Wir schlagen eine neue Sprachaufgabe vor, die die Konsistenz von Benutzerhandlungen auf Konzeptebene erfasst und so die Konsistenz von Benutzerhandlungen auf die Konsistenz von Benutzerhandlungen verlagert.
- Game-theoretic Vocabulary Selection via the Shapley Value and Banzhaf Index
- Roma Patel, Marta Garnelo, Ian Gemp, Chris Dyer, Yoram Bachrach
- TLDR: Wir schlagen eine neue Methode zur Sprachauswahl vor, die Worte als Teil eines gemeinsamen Spiels betrachtet, um die Leistung eines Modells zu maximieren.
- Incorporating External Knowledge to Enhance Tabular Reasoning
- J. Neeraja, Vivek Gupta, Vivek Srikumar
- TLDR: Wir schlagen wirksame Modifikationen vor, die die Information in einem Modell zur Inferenz von natürlicher Sprache enthalten.
- Compositional Generalization for Neural Semantic Parsing via Span-level Supervised Attention
- Pengcheng Yin, Hao Fang, Graham Neubig, Adam Pauls, Emmanouil Antonios Platanios, Yu Su, Sam Thomson, Jacob Andreas
- TLDR: Wir verwenden Worteinbettungen, um die kompositorische Generalisierung in semantischen Parsern zu verbessern.
- Domain Adaptation for Arabic Cross-Domain and Cross-Dialect Sentiment Analysis from Contextualized Word Embedding
- Abdellah El Mekki, Abdelkader El Mahdaouy, Ismail Berrada, Ahmed Khoumsi
- TLDR: Wir schlagen eine unbeaufsichtigte Domänenanpassung vor, die die Sprachverschiebungen von Sprachmodellen in Bezug auf die Sprachbeschriftung und die Sprachstimmung minimiert.
- Multi-task Learning of Negation and Speculation for Targeted Sentiment Classification
- Andrew Moore, Jeremy Barnes
- TLDR: Wir schlagen eine Methode vor, die Informationen aus syntaktischen und semantischen Hilfsaufgaben, einschließlich Negation und Spekulation, in die Sprachmodelle einbezieht, um Sprachmodelle, die nicht auf sprachliche Phänomene anwendbar sind, zu erstellen.
- A Disentangled Adversarial Neural Topic Model for Separating Opinions from Plots in User Reviews
- Gabriele Pergola, Lin Gui, Yulan He
- TLDR: Wir schlagen ein neuronales Themenmodell mit adversarialem Training vor, um Meinungsfragen aus Pseudo- und Neutralobjekten zu trennen.
- Graph Ensemble Learning over Multiple Dependency Trees for Aspect-level Sentiment Classification
- Xiaochen Hou, Peng Qi, Guangtao Wang, Rex Ying, Jing Huang, Xiaodong He, Bowen Zhou
- TLDR: Wir schlagen eine einfache Graphen-Einheit vor, die die Vorhersagen von verschiedenen Parsiers nutzt, um die Parsing-Ergebnisse von GNNs zu nutzen.
- Emotion-Infused Models for Explainable Psychological Stress Detection
- Elsbeth Turcan, Smaranda Muresan, Kathleen McKeown
- TLDR: Wir verwenden Emotionen, um die Erkennung von physikalischen und semantischen Emotionen in Online-Posts zu erklären.
- Aspect-based Sentiment Analysis with Type-aware Graph Convolutional Networks and Layer Ensemble
- Yuanhe Tian, Guimin Chen, Yan Song
- TLDR: Wir schlagen einen Ansatz vor, um die Bedeutung von Abhängigkeiten in graphischen Modellen zu identifizieren und daraus zu lernen.
- Supertagging-based Parsing with Linear Context-free Rewriting Systems
- Thomas Ruprecht, Richard Mörbitz
- TLDR: Wir stellen einen neuen Algorithmus vor, der lexikalische LCFRS aus einer discontinuen Treebank in eine Parse-Brettform umwandelt.
- Outside Computation with Superior Functions
- Parker Riley, Daniel Gildea
- TLDR: Wir zeigen, dass die Verwendung von Sub-Exponenten für die optimale Berechnung von outside-Werten zu einer Fehlinterpretation führt.
- Learning Syntax from Naturally-Occurring Bracketings
- Tianze Shi, Ozan İrsoy, Igor Malioutov, Lillian Lee
- TLDR: Wir stellen partial-brackets-aware Strukturen für das Lernen von Syntax vor und zeigen, dass sie syntaktische Strukturen in tiefen neuronalen Netzen erzeugen.
- Bot-Adversarial Dialogue for Safe Conversational Agents
- Jing Xu, Da Ju, Margaret Li, Y-Lan Boureau, Jason Weston, Emily Dinan
- TLDR: Wir stellen eine neue Methode zur Bewertung von gegnerischen und nicht-gegnerischen Chatbots vor, die schädliche Verhaltensweisen aufzeigt.
- Non-Autoregressive Semantic Parsing for Compositional Task-Oriented Dialog
- Arun Babu, Akshat Shrivastava, Armen Aghajanyan, Ahmed Aly, Angela Fan, Marjan Ghazvininejad
- TLDR: Wir schlagen einen nicht-autoregressiven Ansatz vor, um semantisches Parsing mit einer effizienten Seq2seq Modellarchitektur zu erlernen.
- Example-Driven Intent Prediction with Observers
- Shikib Mehri, Mihail Eric
- TLDR: Wir schlagen zwei Ansätze zur Verbesserung der Generalisierung von Utternklassifikationsmodellen vor, nämlich Beispiel- und Beispiel-driven Training.
- Imperfect also Deserves Reward: Multi-Level and Sequential Reward Modeling for Better Dialog Management
- Zhengxu Hou, Bang Liu, Ruihui Zhao, Zijing Ou, Yafei Liu, Xi Chen, Yefeng Zheng
- TLDR: Wir schlagen einen Multi-Level-Raming-Ansatz vor, der eine Belohnung in eine dreistufige Hierarchie mit den Bezeichnungen Domänen, Akt und SOT factorisiert.
- Action-Based Conversations Dataset: A Corpus for Building More In-Depth Task-Oriented Dialogue Systems
- Derek Chen, Howard Chen, Yi Yang, Alexander Lin, Zhou Yu
- TLDR: Wir stellen einen vollständigen Dialogdatensatz mit über 10K menschlichen-zu-humanen Dialogen vor, der 55 distincte Benutzeranforderungen enthält.
- Controlling Dialogue Generation with Semantic Exemplars
- Prakhar Gupta, Jeffrey Bigham, Yulia Tsvetkov, Amy Pavel
- TLDR: Wir stellen ein Exemplar-basiertes Dialoguegen vor, das die Semantik in den Antworten verwendet, um die Erzeugung von Antworten zu unterstützen.
- COIL: Revisit Exact Lexical Match in Information Retrieval with Contextualized Inverted List
- Luyu Gao, Zhuyun Dai, Jamie Callan
- TLDR: Wir stellen eine kontextualisierte, exakte Suchmaschine vor, die auf der Übertragung von Dokumenten basiert und die Repräsentationen von tiefen Sprachmodellen erweitert.
- X-Class: Text Classification with Extremely Weak Supervision
- Zihan Wang, Dheeraj Mekala, Jingbo Shang
- TLDR: Wir schlagen eine neuartige Klasse vor, die die Klassifizierung von Klassen in Textdokumenten adaptiv darstellt.
- Fine-tuning Encoders for Improved Monolingual and Zero-shot Polylingual Neural Topic Modeling
- Aaron Mueller, Mark Dredze
- TLDR: Wir schlagen Fine-Tuning-Encoder-Repräsentationen für das Thema-Modell-Training vor, um sowohl monolinguales als auch zero-shots Polylingual Themenmodelling zu verbessern.
- Exploring the Relationship Between Algorithm Performance, Vocabulary, and Run-Time in Text Classification
- Wilson Fearn, Orion Weller, Kevin Seppi
- TLDR: Wir analysieren, wie die Vorverarbeitungstechniken die Sprachgröße, die Modellleistung und die Modellerwartungsgenauigkeit verbessern.
- Faithfully Explainable Recommendation via Neural Logic Reasoning
- Yaxin Zhu, Yikun Xian, Zuohui Fu, Gerard de Melo, Yongfeng Zhang
- TLDR: Wir schlagen Logik vor, um eine vertrauenswürdige Erklärung zu erzeugen, die die Entscheidungen eines Experten über die Empfehlungen erklären kann.
- You Sound Like Someone Who Watches Drama Movies: Towards Predicting Movie Preferences from Conversational Interactions
- Sergey Volokhin, Joyce Ho, Oleg Rokhlenko, Eugene Agichtein
- TLDR: Wir stellen ConvExtr vor, eine Methode zur Vorhersage von Benutzerzufriedenheiten bei der Empfehlung von Filmvideos.
- Reading and Acting while Blindfolded: The Need for Semantics in Text Game Agents
- Shunyu Yao, Karthik Narasimhan, Matthew Hausknecht
- TLDR: Wir schlagen einen inverse Dynamik Decoder vor, um die Semantik in Texten zu verbessern und die Erkundung von Spielen zu fördern.
- SOrT-ing VQA Models : Contrastive Gradient Learning for Improved Consistency
- Sameer Dharur, Purva Tendulkar, Dhruv Batra, Devi Parikh, Ramprasaath R. Selvaraju
- TLDR: Wir stellen einen gradientenbasierten Ansatz vor, um die Frage, die die Schlussfolgerungen auf der Bildbeantwortung enthält, besser zu beantworten.
- Semi-Supervised Policy Initialization for Playing Games with Language Hints
- Tsu-Jui Fu, William Yang Wang
- TLDR: Wir schlagen eine halbüberwachte Initialisierung vor, die es einem Agenten ermöglicht, von verschiedenen möglichen Belohnungssignalen zu lernen.
- Revisiting Document Representations for Large-Scale Zero-Shot Learning
- Jihyung Kil, Wei-Lun Chao
- TLDR: Wir schlagen einen neuen Algorithmus vor, der visuelle Sätze extrahiert, um die Erkennung von Klassen mit Hilfe von visuellen Attributverteilungen zu erleichtern.
- Negative language transfer in learner English: A new dataset
- Leticia Farias Wanderley, Nicole Zhao, Carrie Demmans Epp
- TLDR: Wir stellen einen Datensatz für Fehler in der ersten Sprache vor, der auf die Fehlerquelle hinweist.
- SentSim: Crosslingual Semantic Evaluation of Machine Translation
- Yurun Song, Junchen Zhao, Lucia Specia
- TLDR: Wir schlagen eine neue Metrik vor, die die Verallgemeinerung von Texten in einer einzigen Sprache übertrifft und gleichzeitig die Qualitätsverzerrung von Texten aus Texten mit mehreren Sprachbeschriftungen verbessert.
- Quality Estimation for Image Captions Based on Large-scale Human Evaluations
- Tomer Levinboim, Ashish V. Thapliyal, Piyush Sharma, Radu Soricut
- TLDR: Wir stellen eine neue Aufgabe vor, die die Qualität von Bildbeschriftungen modelliert und die Qualität der Beschriftungen von Beschriftungsbeschriftungszeugen aus einer menschlichen Sicht erfassen soll.
- CaSiNo: A Corpus of Campsite Negotiation Dialogues for Automatic Negotiation Systems
- Kushal Chawla, Jaysa Ramirez, Rene Clever, Gale Lucas, Jonathan May, Jonathan Gratch
- TLDR: Wir stellen CaSiNo vor, eine Sammlung von über eine Million Gesprächsprotokollen in Englisch vor, die für die menschlichen Gesprächsverhandlungen verwendet werden.
- News Headline Grouping as a Challenging NLU Task
- Philippe Laban, Lucas Bandarkar, Marti A. Hearst
- TLDR: Wir stellen eine Aufgabe vor, die eine Reihe von Nachrichtenbildern zusammensetzt, und stellen eine neue Methode vor, die die Leistung von Transformer-Modellen verbessert.
- Olá, Bonjour, Salve! XFORMAL: A Benchmark for Multilingual Formality Style Transfer
- Eleftheria Briakou, Di Lu, Ke Zhang, Joel Tetreault
- TLDR: Wir stellen XFORMAL vor, einen benchmark für mehrere formalen Übertragungsansätze in Brasilien, Portuguese, French und Italien.
- Grouping Words with Semantic Diversity
- Karine Chubarian, Abdul Rafae Khan, Anastasios Sidiropoulos, Jia Xu
- TLDR: Wir stellen einen Ansatz vor, der die Semantik von Worten in einer Reihe von kontextuellen Gruppierungen kombiniert, um die Sprachrepräsentation mit geringer ambiguität zu verbessern.
- Noise Stability Regularization for Improving BERT Fine-tuning
- Hang Hua, Xingjian Li, Dejing Dou, Chengzhong Xu, Jiebo Luo
- TLDR: Wir stellen eine neue Regularisierungsmethode vor, die das Fine-Tuning auf NLP-Aufgaben verbessert und die Generalisierung und Stabilität verbessert.
- FlowPrior: Learning Expressive Priors for Latent Variable Sentence Models
- Xiaoan Ding, Kevin Gimpel
- TLDR: Wir schlagen eine neue Methode vor, um VAEs mit expressiven Priorenverteilungen zu lernen.
- HTCInfoMax: A Global Model for Hierarchical Text Classification via Information Maximization
- Zhongfen Deng, Hao Peng, Dongxiao He, Jianxin Li, Philip Yu
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Label-Ausbreitung bei der Textklassifikation zu bewältigen.
- Knowledge Guided Metric Learning for Few-Shot Text Classification
- Dianbo Sui, Yubo Chen, Binjie Mao, Delai Qiu, Kang Liu, Jun Zhao
- TLDR: Wir schlagen einen neuen Algorithmus vor, um menschliches Wissen in wenigen Aufnahmen zu nutzen, um die Klassifizierung von Texten zu verbessern.
- Ensemble of MRR and NDCG models for Visual Dialog
- Idan Schwartz
- TLDR: Wir stellen einen zweistufigen ranking-Ansatz vor, der MRR und NDCG miteinander verbindet und die meisten MRR und NDCG-Statistiken übertrifft.
- Supervised Neural Clustering via Latent Structured Output Learning: Application to Question Intents
- Iryna Haponchyk, Alessandro Moschitti
- TLDR: Wir schlagen einen neuen Ansatz für strukturiertes Clustering vor, der auf der Suche nach Beantwortungskategorien von Zielen von Beantwortungsverteilungen mit Beantwortungsverteilungen basiert.
- ConVEx: Data-Efficient and Few-Shot Slot Labeling
- Matthew Henderson, Ivan Vulić
- TLDR: Wir schlagen ConVEx vor, einen effizienten und skalierbaren Algorithmus zum Lernen von Dialog-Slot-Labelungen.
- CREAD: Combined Resolution of Ellipses and Anaphora in Dialogues
- Bo-Hsiang Tseng, Shruti Bhargava, Jiarui Lu, Joel Ruben Antony Moniz, Dhivya Piraviperumal, Lin Li, Hong Yu
- TLDR: Wir schlagen ein neues Modell vor, das die Coreference-Resolution und die Frage-Rewrite für komplexe, multi-Turn Dialogverständnis nutzt.
- Knowledge-Driven Slot Constraints for Goal-Oriented Dialogue Systems
- Piyawat Lertvittayakumjorn, Daniele Bonadiman, Saab Mansour
- TLDR: Wir stellen eine neue Aufgabe vor, die die Konsistenzverstöße in einem Dialogsystem erfasst und die Klassifizierung von Konsistenzverstößen als eine End-to-End-Schätzererkennung darstellt.
- Clipping Loops for Sample-Efficient Dialogue Policy Optimisation
- Yen-Chen Wu, Carl Edward Rasmussen
- TLDR: Wir schlagen eine neue Methode zur Optimierung von Loop-Clipping vor, um unzulängliche Dialoge zu eliminieren.
- Integrating Lexical Information into Entity Neighbourhood Representations for Relation Prediction
- Ian Wood, Mark Johnson, Stephen Wan
- TLDR: Wir stellen eine Erweiterung vor, die Text-basierte Darstellungen von Entitäten und Beziehungen in die Entitätsgraphen integriert.
- Noisy-Labeled NER with Confidence Estimation
- Kun Liu, Yao Fu, Chuanqi Tan, Mosha Chen, Ningyu Zhang, Songfang Huang, Sheng Gao
- TLDR: Wir schlagen eine Methode zur Schätzung von Verzerrungen vor, die auf der Struktur von Entitätsbeschriftungen basiert.
- TABBIE: Pretrained Representations of Tabular Data
- Hiroshi Iida, Dung Thai, Varun Manjunatha, Mohit Iyyer
- TLDR: Wir stellen ein neues Modell vor, das auf der Suche nach schädlichen Zellen und Texten mit Hilfe von tabellarischen Daten lernt.
- Better Feature Integration for Named Entity Recognition
- Lu Xu, Zhanming Jie, Wei Lu, Lidong Bing
- TLDR: Wir schlagen eine einfache und robuste Lösung vor, um die Entitätserkennung in die Synergized-LSTM zu integrieren.
- ZS-BERT: Towards Zero-Shot Relation Extraction with Attribute Representation Learning
- Chih-Yao Chen, Cheng-Te Li
- TLDR: Wir schlagen Zero-Shot BERT vor, ein Multi-Task-Lernen, das die Entflechtung von gesehenen Beziehungen direkt vorhersagen kann.
- Graph Convolutional Networks for Event Causality Identification with Rich Document-level Structures
- Minh Tran Phu, Thien Huu Nguyen
- TLDR: Wir schlagen ein graphbasiertes Modell vor, das Interaktionsgraphen nutzt, um die Kausalitätserkennung bei Dokumenten zu lösen.
- A Context-Dependent Gated Module for Incorporating Symbolic Semantics into Event Coreference Resolution
- Tuan Lai, Heng Ji, Trung Bui, Quan Hung Tran, Franck Dernoncourt, Walter Chang
- TLDR: Wir schlagen einen neuen Gated Modul-Ansatz vor, um die Informationströme aus den Eingabemerkmalen zu adaptieren.
- Multi-Style Transfer with Discriminative Feedback on Disjoint Corpus
- Navita Goyal, Balaji Vasan Srinivasan, Anandhavelu N, Abhilasha Sancheti
- TLDR: Wir stellen eine Methode vor, die die Verwendung von Texten in mehreren Stilen ermöglicht und gleichzeitig die Inhaltswahrnehmung bei der Texterzeugung und -wiederherstellung vonbezieht.
- FUDGE: Controlled Text Generation With Future Discriminators
- Kevin Yang, Dan Klein
- TLDR: Wir schlagen Future Discriminators für die Texterzeugung vor, eine flexible und modulare Methode zur Texterzeugung.
- Controllable Text Simplification with Explicit Paraphrasing
- Mounica Maddela, Fernando Alva-Manchego, Wei Xu
- TLDR: Wir schlagen einen hybriden Ansatz vor, der linguistisch motivierte Regeln zur Verzweigung und zur Verzweigung nutzt, um Texten zu verbessern.
- Knowledge Graph Based Synthetic Corpus Generation for Knowledge-Enhanced Language Model Pre-training
- Oshin Agarwal, Heming Ge, Siamak Shakeri, Rami Al-Rfou
- TLDR: Wir schlagen einen neuen Ansatz vor, um Wissensgraphen in natürliche Sprache umzuwandeln, der die KG-Suche erweitert und die Sprachverallgemeinerung verbessert.
- Choose Your Own Adventure: Paired Suggestions in Collaborative Writing for Evaluating Story Generation Models
- Elizabeth Clark, Noah A. Smith
- TLDR: Wir stellen eine neue Methode zur Erstellung von Vorschlägen vor, die von writern gemeinsam mit einem Modell erstellt werden.
- InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language Model Pre-Training
- Zewen Chi, Li Dong, Furu Wei, Nan Yang, Saksham Singhal, Wenhui Wang, Xia Song, Xian-Ling Mao, Heyan Huang, Ming Zhou
- TLDR: Wir stellen einen Informationstheoretischen Rahmen vor, der das Verständnis von gegenseitiger Information als Maximierung der gegenseitigen Information zwischen mehreren Sprachmodellen als Maximierung der gegenseitigen Information zwischen Multilingual-Multi-Graphen Texten ermöglicht.
- Context-Interactive Pre-Training for Document Machine Translation
- Pengcheng Yang, Pei Zhang, Boxing Chen, Jun Xie, Weihua Luo
- TLDR: Wir schlagen einen kontextuellen Vortrainingsalgorithmus vor, der auf der Verwendung von kontextuellen Daten für die Übersetzung von Texten auf Dokumentebene profitieren kann.
- Code-Mixing on Sesame Street: Dawn of the Adversarial Polyglots
- Samson Tan, Shafiq Joty
- TLDR: Wir stellen zwei starke Black-Box-Angriffe vor, die die Fähigkeit von Multilingual Modellen zur Code-Memierung pushen.
- X-METRA-ADA: Cross-lingual Meta-Transfer learning Adaptation to Natural Language Understanding and Question Answering
- Meryem M’hamdi, Doo Soon Kim, Franck Dernoncourt, Trung Bui, Xiang Ren, Jonathan May
- TLDR: Wir schlagen einen Meta-Lernen vor, der auf MAML anwendbar ist, um sich schnell an neue Sprachen anzupassen.
- Explicit Alignment Objectives for Multilingual Bidirectional Encoders
- Junjie Hu, Melvin Johnson, Orhan Firat, Aditya Siddhant, Graham Neubig
- TLDR: Wir stellen eine neue Methode für das Lernen von Multilingualen Encodern vor, AMBER (Aligned Multilingual Bidirectional EncodeR).
- Cross-lingual Cross-modal Pretraining for Multimodal Retrieval
- Hongliang Fei, Tan Yu, Ping Li
- TLDR: Wir schlagen einen neuen Ansatz vor, um Bilder und ihre relevanten Abschriften in mehreren Sprachen zu lernen.
- Wikipedia Entities as Rendezvous across Languages: Grounding Multilingual Language Models by Predicting Wikipedia Hyperlinks
- Iacer Calixto, Alessandro Raganato, Tommaso Pasini
- TLDR: Wir schlagen eine sprachenabhängige Entitätsvorhersageaufgabe vor, um lexikalisches Semantikwissen in neuronale Sprachmodelle zu injizieren.
- multiPRover: Generating Multiple Proofs for Improved Interpretability in Rule Reasoning
- Swarnadeep Saha, Prateek Yadav, Mohit Bansal
- TLDR: Wir stellen eine neue Aufgabe vor, die die Erzeugung von Beweisgraphen für die Erklärung von Behauptungen über natürliche Regeln ermöglicht.
- Adaptable and Interpretable Neural MemoryOver Symbolic Knowledge
- Pat Verga, Haitian Sun, Livio Baldini Soares, William Cohen
- TLDR: Wir entwickeln eine neuronale LM, die einen rekurrenten rekurrenten KB-Rahmen enthält, der für Wissensfragen verwendet werden kann.
- CLEVR_HYP: A Challenge Dataset and Baselines for Visual Question Answering with Hypothetical Actions over Images
- Shailaja Keyur Sampat, Akshay Kumar, Yezhou Yang, Chitta Baral
- TLDR: Wir stellen eine Visionsprache-Fragen-Antwort-Aufgabe vor, die auf CLEVR-Datensätzen gestellt werden.
- Refining Targeted Syntactic Evaluation of Language Models
- Benjamin Newman, Kai-Siang Ang, Julia Gong, John Hewitt
- TLDR: Wir identifizieren zwei Ziele für die syntaktische Bewertung von Sprachmodellen und schlagen neue Metriken vor, um beide Ziele zu berücksichtigen.
- Universal Adversarial Attacks with Natural Triggers for Text Classification
- Liwei Song, Xinwei Yu, Hsuan-Tung Peng, Karthik Narasimhan
- TLDR: Wir entwickeln Angriffe auf Klassifizierer, die sich wie Worteinbettungen verhalten, aber dennoch Klassifizierungssysteme verfälschen.
- QuadrupletBERT: An Efficient Model For Embedding-Based Large-Scale Retrieval
- Peiyang Liu, Sen Wang, Xi Wang, Wei Ye, Shikun Zhang
- TLDR: Wir stellen ein QuadrupletBERT-Modell vor, das auf embedding-basiertem Dokumentenretrieval erfolgreich ist.
- Dynamically Disentangling Social Bias from Task-Oriented Representations with Adversarial Attack
- Liwen Wang, Yuanmeng Yan, Keqing He, Yanan Wu, Weiran Xu
- TLDR: Wir schlagen ein adversariales Debiasing-Modell vor, um soziale Verzerrungen zu beseitigen und die Leistung bei der Aufgabe zu verbessern.
- An Empirical Investigation of Bias in the Multimodal Analysis of Financial Earnings Calls
- Ramit Sawhney, Arshiya Aggarwal, Rajiv Ratn Shah
- TLDR: Wir untersuchen die Verzerrung von Geschlechtsidentitäten in neuronalen Netzen für die Vorhersage von Risiko und können die Verzerrung von Geschlechtsidentitäten in einer großen Index-Datenbank erklären.
- Beyond Fair Pay: Ethical Implications of NLP Crowdsourcing
- Boaz Shmueli, Jan Fell, Soumya Ray, Lun-Wei Ku
- TLDR: Wir stellen fest, dass die Verwendung von Crowdworkers für die Datenerfassung in NLP-Studien zu einer ethischen Problemstellung führt.
- On Transferability of Bias Mitigation Effects in Language Model Fine-Tuning
- Xisen Jin, Francesco Barbieri, Brendan Kennedy, Aida Mostafazadeh Davani, Leonardo Neves, Xiang Ren
- TLDR: Wir stellen eine neue Methode zur Verhinderung von Verzerrungen in LM-Feed-Tuning vor, die die Auswirkungen von Bias-Mediktiken auf die Übertragung von Downstream-Aufgaben wiederverwenden kann.
- Case Study: Deontological Ethics in NLP
- Shrimai Prabhumoye, Brendon Boldt, Ruslan Salakhutdinov, Alan W Black
- TLDR: Wir untersuchen ethische Prinzipien für NLP-Systeme und zeigen, wie sie für die ethische Bewertung von Daten und Algorithmen verwendet werden können.
- Privacy Regularization: Joint Privacy-Utility Optimization in LanguageModels
- Fatemehsadat Mireshghallah, Huseyin Inan, Marcello Hasegawa, Victor Rühle, Taylor Berg-Kirkpatrick, Robert Sim
- TLDR: Wir stellen zwei Regularisierungsmethoden vor, die die Privatsphäre von Benutzern verbessern und gleichzeitig die Optimierung der Effizienz und der Privatsphäre verbessern.
- On the Impact of Random Seeds on the Fairness of Clinical Classifiers
- Silvio Amir, Jan-Willem van de Meent, Byron Wallace
- TLDR: Wir zeigen, dass die Verzerrung von Teilgruppen für die Fairness-Vorhersage von MIMIC-III nicht unbedingt auf die Verzerrung der Gesamtleistung zurückzuführen ist.
- Topic Model or Topic Twaddle? Re-evaluating Semantic Interpretability Measures
- Caitlin Doogan, Wray Buntine
- TLDR: Wir stellen vier Theorien zur Themeninterpretierung vor und analysieren ihre Validität.
- Discourse Probing of Pretrained Language Models
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: Wir stellen Dokumente-Ebene-Speicher vor, um die Fähigkeit von Richtlinien zu bewerten, die auf Dokumentebene gesprochen werden.
- UniDrop: A Simple yet Effective Technique to Improve Transformer without Extra Cost
- Zhen Wu, Lijun Wu, Qi Meng, Yingce Xia, Shufang Xie, Tao Qin, Xinyu Dai, Tie-Yan Liu
- TLDR: Wir schlagen einen neuen Ansatz vor, um drei Dropout-Methoden für die Textklassifikation und die Spracherkennung zu nutzen.
- tWT–WT: A Dataset to Assert the Role of Target Entities for Detecting Stance of Tweets
- Ayush Kaushal, Avirup Saha, Niloy Ganguly
- TLDR: Wir stellen fest, dass es möglich ist, die Position eines Twitter-Tweets oder eines Texts für eine Zielperson zu erkennen.
- Learning to Learn to be Right for the Right Reasons
- Pride Kavumba, Benjamin Heinzerling, Ana Brassard, Kentaro Inui
- TLDR: Wir schlagen vor, ein modell zu lernen, das auf der Suche nach plausiblen Alternativen und auf der Commonsense Explanation gut abschneidet.
- Double Perturbation: On the Robustness of Robustness and Counterfactual Bias Evaluation
- Chong Zhang, Jieyu Zhao, Huan Zhang, Kai-Wei Chang, Cho-Jui Hsieh
- TLDR: Wir schlagen einen Rahmen vor, um Modellverzerrungen und -verfälschungen zu untersuchen.
- Explaining Neural Network Predictions on Sentence Pairs via Learning Word-Group Masks
- Hanjie Chen, Song Feng, Jatin Ganhotra, Hui Wan, Chulaka Gunasekara, Sachindra Joshi, Yangfeng Ji
- TLDR: Wir schlagen eine Group Mask-Methode vor, um Worteinbettungen in Textpaaren zu erkennen und ihre Auswirkungen auf die NLP-Aufgaben zu messen.
- Almost Free Semantic Draft for Neural Machine Translation
- Xi Ai, Bin Fang
- TLDR: Wir stellen eine effiziente Methode vor, um globale Informationen aus dem Semantikraum zu extrahieren und eine neue Aufgabe zu lösen.
- Pruning-then-Expanding Model for Domain Adaptation of Neural Machine Translation
- Shuhao Gu, Yang Feng, Wanying Xie
- TLDR: Wir schlagen eine Methode vor, die auf der Bedeutung von Neuronen oder Parametern für das Übersetzungsmodell basiert und die Verbesserung der in- und aus-Domänen-Transferbarkeit ermöglicht.
- Multi-Hop Transformer for Document-Level Machine Translation
- Long Zhang, Tong Zhang, Haibo Zhang, Baosong Yang, Wei Ye, Shikun Zhang
- TLDR: Wir schlagen einen Multi-Hop Transformer (MHT) vor, der NMT-Leistungen auf Dokumentebene nutzt, um menschliches Verhalten zu modellieren und zu bewerten.
- Continual Learning for Neural Machine Translation
- Yue Cao, Hao-Ran Wei, Boxing Chen, Xiaojun Wan
- TLDR: Wir schlagen einen kontinuierlichen Lernrahmen vor, um katastrophales Vergessen zu reduzieren.
- Self-Training for Unsupervised Neural Machine Translation in Unbalanced Training Data Scenarios
- Haipeng Sun, Rui Wang, Kehai Chen, Masao Utiyama, Eiichiro Sumita, Tiejun Zhao
- TLDR: Wir schlagen einen neuen Algorithmus zur unbalanced Trainingsdaten-Ausnutzung vor, um ein robustes neuronales Übersetzungsmodell zu trainieren.
- Smart-Start Decoding for Neural Machine Translation
- Jian Yang, Shuming Ma, Dongdong Zhang, Juncheng Wan, Zhoujun Li, Ming Zhou
- TLDR: Wir schlagen eine neue Methode vor, die die monotone Dekodierordnungen von Vorwärts- und Rückwärts umgeht.
- Multi-Task Learning with Shared Encoder for Non-Autoregressive Machine Translation
- Yongchang Hao, Shilin He, Wenxiang Jiao, Zhaopeng Tu, Michael Lyu, Xing Wang
- TLDR: Wir stellen Multi-Task-Netzwerke vor, um die Autoregressive Machine Translation (AT)-Knowledge von NAT-Modellen durch Encoder-Shared Learning zu übertragen.
- ER-AE: Differentially Private Text Generation for Authorship Anonymization
- Haohan Bo, Steven H. H. Ding, Benjamin C. M. Fung, Farkhund Iqbal
- TLDR: Wir schlagen ein neues Textmodell vor, das die Autorenschaft anonymisiert und die Stiltransformation und die Semantik von Texten entfernt.
- Distantly Supervised Transformers For E-Commerce Product QA
- Happy Mittal, Aniket Chakrabarti, Belhassen Bayar, Animesh Anant Sharma, Nikhil Rasiwasia
- TLDR: Wir schlagen ein transformerbasiertes QA-System vor, das für jede Benutzerfrage, eine Community-Q-Antwort (CQA)-Paare ersetzt.
- Quantitative Day Trading from Natural Language using Reinforcement Learning
- Ramit Sawhney, Arnav Wadhwa, Shivam Agarwal, Rajiv Ratn Shah
- TLDR: Wir schlagen einen Deep Reinforcement Learning Ansatz vor, der die Zeiteffiziente Entscheidungen für die Vorhersage von Börsenwerten und die Optimierung von Gewinnen mit Texten kombiniert.
- Restoring and Mining the Records of the Joseon Dynasty via Neural Language Modeling and Machine Translation
- Kyeongpil Kang, Kyohoon Jin, Soyoung Yang, Soojin Jang, Jaegul Choo, Youngbin Kim
- TLDR: Wir stellen einen Multi-Task-Lernen-Ansatz vor, um die meisten von den meisten Klassikern aus Korea zu erhalten und zu übersetzen.
- Modeling Diagnostic Label Correlation for Automatic ICD Coding
- Shang-Chi Tsai, Chao-Wei Huang, Yun-Nung Chen
- TLDR: Wir schlagen einen neuen Rahmen vor, um die Label-Verteilung als einen Reranking-Modul für ICD-Vorhersagen zu lernen.
- Self-Supervised Contrastive Learning for Efficient User Satisfaction Prediction in Conversational Agents
- Mohammad Kachuee, Hao Yuan, Young-Bum Kim, Sungjin Lee
- TLDR: Wir schlagen einen neuen, selbstüberwachten Lernalgorithmus vor, der die Benutzerzufriedenheitsvorhersage auf die Benutzerfreundlichkeit überträgt.
- A recipe for annotating grounded clarifications
- Luciana Benotti, Patrick Blackburn
- TLDR: Wir stellen Dialoge clarifying Mechanismen vor, die die Kommunikationsintentionen von den Sprechern darstellen.
- Grey-box Adversarial Attack And Defence For Sentiment Classification
- Ying Xu, Xu Zhong, Antonio Jimeno Yepes, Jey Han Lau
- TLDR: Wir stellen einen Rahmen für die Klassifizierung von Gefühlen vor, der die Klassifizierung von Angriffen und Verteidigungsmaßnahmen aufzeigt.
- How low is too low? A monolingual take on lemmatisation in Indian languages
- Kumar Saunack, Kumar Saurav, Pushpak Bhattacharyya
- TLDR: Wir stellen eine neue Methode zur Lemmatisierung von Wörterformen vor, die auf neuronalen Methoden trainiert werden können.
- Causal Effects of Linguistic Properties
- Reid Pryzant, Dallas Card, Dan Jurafsky, Victor Veitch, Dhanya Sridhar
- TLDR: Wir stellen TextCause vor, einen Algorithmus zur Schätzung der Kausalen Effekte von Spracheigenschaften vor.
- Dynabench: Rethinking Benchmarking in NLP
- Douwe Kiela, Max Bartolo, Yixin Nie, Divyansh Kaushik, Atticus Geiger, Zhengxuan Wu, Bertie Vidgen, Grusha Prasad, Amanpreet Singh, Pratik Ringshia, Zhiyi Ma, Tristan Thrush, Sebastian Riedel, Zeerak Waseem, Pontus Stenetorp, Robin Jia, Mohit Bansal, Christopher Potts, Adina Williams
- TLDR: Wir stellen Dynabench vor, eine Open-Source-Architektur für die Datenerfassung und die Modellbewertung und stellen eine neue Standard-Architektur für das Training von Modellen vor.
- Translational NLP: A New Paradigm and General Principles for Natural Language Processing Research
- Denis Newman-Griffis, Jill Fain Lehman, Carolyn Rosé, Harry Hochheiser
- TLDR: Wir stellen Translational Networking vor, eine neue Methode zur Sprachverarbeitung, die die Herausforderungen von Anwendungsbedarfen erfasst und die Innovation in der Grundlagenforschung und in der Technik ermöglicht.
- Predicting Discourse Trees from Transformer-based Neural Summarizers
- Wen Xiao, Patrick Huber, Giuseppe Carenini
- TLDR: Wir zeigen, dass die Zusammenfassung von Informationen für die Erstellung von sprachlichen Phrasen nutzt.
- Probing for Bridging Inference in Transformer Language Models
- Onkar Pandit, Yufang Hou
- TLDR: Wir probe pre-trained transformer-Lingual Modelle für die Verzweigung von Aufmerksamkeiten und zeigen, dass die Distanz zwischen anaphor-antecedenten und der Kontext, der zu ihnen gegeben ist, eine wichtige Rolle bei der Inferenz spielt.
- Is Incoherence Surprising? Targeted Evaluation of Coherence Prediction from Language Models
- Anne Beyer, Sharid Loáiciga, David Schlangen
- TLDR: Wir stellen einen neuen Bewertungsrahmen für neuronale Sprachmodelle vor, der die Sprachwahrnehmung und die Konsistenz in neuronalen Netzen erfasst.
- Stay Together: A System for Single and Split-antecedent Anaphora Resolution
- Juntao Yu, Nafise Sadat Moosavi, Silviu Paun, Massimo Poesio
- TLDR: Wir stellen ein System vor, das sowohl single- als auch split-antecedent-Anaphors lösen kann und gleichzeitig die Bewertung von Coreferences und Coreferences mit Hilfe von Metriken und Bewertungsdatensätzen berücksichtigt.
- Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness
- Florian Boudin, Ygor Gallina
- TLDR: Wir stellen eine finergrained categorization scheme vor, die die Auswirkungen von Abwesenheitsmerkmalen auf die Dokumentverschiebung erforscht.
- CoRT: Complementary Rankings from Transformers
- Marco Wrzalik, Dirk Krechel
- TLDR: Wir schlagen CoRT vor, ein neuronales erstes-zu-näheres Rankingmodell, das kontextuelle Repräsentationen aus BERT nutzt, um die Kandidatenrepräsentation zu verbessern.
- Multi-source Neural Topic Modeling in Multi-view Embedding Spaces
- Pankaj Gupta, Yatin Chaudhary, Hinrich Schütze
- TLDR: Wir verwenden mehrere Sichtweisen, um Themenmodelle aus mehreren Quellen zu erstellen.
- Inductive Topic Variational Graph Auto-Encoder for Text Classification
- Qianqian Xie, Jimin Huang, Pan Du, Min Peng, Jian-Yun Nie
- TLDR: Wir schlagen ein neues Modell vor, das ein Themenmodell in einen Variational Graphen Autoencoder (VGAE) einbezieht, um die versteckten Informationen zwischen Dokumenten und Wörtern zu erfassen.
- Self-Alignment Pretraining for Biomedical Entity Representations
- Fangyu Liu, Ehsan Shareghi, Zaiqiao Meng, Marco Basaldella, Nigel Collier
- TLDR: Wir schlagen ein skalierbares metric-Lernen vor, das die Darstellung von gemeinerbaren Entitäten in der biomedizinischen Domänen ersetzt.
- TaxoClass: Hierarchical Multi-Label Text Classification Using Only Class Names
- Jiaming Shen, Wenda Qiu, Yu Meng, Jingbo Shang, Xiang Ren, Jiawei Han
- TLDR: Wir schlagen einen neuartigen Rahmen für die Klassifizierung von Dokumenten vor, der auf der Klassifizierung von Klassifizierungsaufgaben basiert.
- MERMAID: Metaphor Generation with Symbolism and Discriminative Decoding
- Tuhin Chakrabarty, Xurui Zhang, Smaranda Muresan, Nanyun Peng
- TLDR: Wir schlagen eine Methode vor, die Metapheren in einem tiefen Verständnis von Satzrepräsentationen generiert, indem wir sie aus dem Gutenberg-Poet’schen Corpus (CITATION) zu ihren Satzrepräsentationen umwandeln.
- On Learning Text Style Transfer with Direct Rewards
- Yixin Liu, Graham Neubig, John Wieting
- TLDR: Wir schlagen ein neues, aufgabenspezifisches Belohnungsmodell vor, das die Verwahrzeit von Texten zwischen den Systemen und den Eingabetexten berücksichtigt.
- Focused Attention Improves Document-Grounded Generation
- Shrimai Prabhumoye, Kazuma Hashimoto, Yingbo Zhou, Alan W Black, Ruslan Salakhutdinov
- TLDR: Wir stellen zwei neue Modelle vor, die auf die Dokumentengrundierung und die Dialog-Erklärungsgenerierung anwendbar sind.
- NeuroLogic Decoding: (Un)supervised Neural Text Generation with Predicate Logic Constraints
- Ximing Lu, Peter West, Rowan Zellers, Ronan Le Bras, Chandra Bhagavatula, Yejin Choi
- TLDR: Wir schlagen NeuroLogic Decoding vor, einen einfachen, aber effektiven Algorithmus zur Texterzeugung, der auf der Vorhersage der Logik basiert.
- Ask what’s missing and what’s useful: Improving Clarification Question Generation using Global Knowledge
- Bodhisattwa Prasad Majumder, Sudha Rao, Michel Galley, Julian McAuley
- TLDR: Wir schlagen ein Modell vor, das die Suche nach der Vermischung zwischen globaler und lokaler Sicht ermöglicht und eine Frage über die Vermischung generiert.
- Progressive Generation of Long Text with Pretrained Language Models
- Bowen Tan, Zichao Yang, Maruan Al-Shedivat, Eric Xing, Zhiting Hu
- TLDR: Wir schlagen eine einfache, aber effektive Methode vor, die Text in einer progressiven Weise erzeugt, um die gesamte Zieldomäne zu erreichen.
- SOCCER: An Information-Sparse Discourse State Tracking Collection in the Sports Commentary Domain
- Ruochen Zhang, Carsten Eickhoff
- TLDR: Wir schlagen eine Aufgabe vor, die die Erkennung von Spielen in der Zeit angeht, und zeigen, dass die meisten bestehenden Methoden nicht auf die Erkennung von Spielen reagieren.
- Plot-guided Adversarial Example Construction for Evaluating Open-domain Story Generation
- Sarik Ghazarian, Zixi Liu, Akash S M, Ralph Weischedel, Aram Galstyan, Nanyun Peng
- TLDR: Wir stellen eine neue Methode zur Bewertung von Geschichten vor, die auf der Suche nach plausiblen und unplausiblen Klassifikatoren basiert.
- MultiOpEd: A Corpus of Multi-Perspective News Editorials
- Siyi Liu, Sihao Chen, Xander Uyttendaele, Dan Roth
- TLDR: Wir schlagen MultiOpEd vor, einen Rahmen für die Erkennung von Argumentationsstrukturen in Nachrichten, der die Perspektivesauswertung in einer Multi-Task-Umgebung ermöglicht.
- Swords: A Benchmark for Lexical Substitution with Improved Data Coverage and Quality
- Mina Lee, Chris Donahue, Robin Jia, Alexander Iyabor, Percy Liang
- TLDR: Wir stellen eine neue Benchmark-Architektur für die lexikalische Verwechslung vor und zeigen, dass die Verwendung von kontextuellen Beschriftungen die optimale Lösung für die lexikalische Verwechrung ist.
- “I’m Not Mad”: Commonsense Implications of Negation and Contradiction
- Liwei Jiang, Antoine Bosselut, Chandra Bhagavatula, Yejin Choi
- TLDR: Wir stellen eine erste empirische Studie vor, die die Auswirkungen von Abwehrverzerrungen und -verzerrungen auf die Sprachinferenz darstellt.
- Identifying Medical Self-Disclosure in Online Communities
- Mina Valizadeh, Pardis Ranjbar-Noiey, Cornelia Caragea, Natalie Parde
- TLDR: Wir stellen einen neuen Datensatz von Gesundheitsposts vor, die von Online-Such-Apps gesammelt wurden, und stellen fest, dass die Selbstbeschriftung in den Gesprächen von Nutzen ist.
- Language in a (Search) Box: Grounding Language Learning in Real-World Human-Machine Interaction
- Federico Bianchi, Ciro Greco, Jacopo Tagliabue
- TLDR: Wir untersuchen die Entdeckung von Semantik und die Verwendung von Kompositionsfunktionen, um die Entwirrungen von Texten aus unbeaufsichtigten Umgebungen zu erklären.
- Finding Concept-specific Biases in Form–Meaning Associations
- Tiago Pimentel, Brian Roark, Søren Wichmann, Ryan Cotterell, Damián Blasi
- TLDR: Wir stellen eine empirische Operationalisierung der Cross-Linguistic Non-Arbitrariness vor, die die Auswirkungen von nicht-arbitarischen Abhängigkeiten auf die Sprachwahrnehmung minimiert.
- How (Non-)Optimal is the Lexicon?
- Tiago Pimentel, Irene Nikkarinen, Kyle Mahowald, Ryan Cotterell, Damián Blasi
- TLDR: Wir stellen eine generative Statistik-Architektur vor, die die Komplexität von Codes quantifiziert und die relativen Kosten von Konsistenz- und Sprachbeschränkungen aufzeigt.
- Word Complexity is in the Eye of the Beholder
- Sian Gooding, Ekaterina Kochmar, Seid Muhie Yimam, Chris Biemann
- TLDR: Wir untersuchen, welche Merkmale die lexikalische Komplexität in verschiedenen Gruppen von Lesern steuern.
- Linguistic Complexity Loss in Text-Based Therapy
- Jason Wei, Kelly Finn, Emma Templeton, Thalia Wheatley, Soroush Vosoughi
- TLDR: Wir analysieren sprachliche Komplexitätsregressionen in Text-basierten Gesprächen und zeigen, dass sie als Merkmals für Anxietaten dienen.
- Ab Antiquo: Neural Proto-language Reconstruction
- Carlo Meloni, Shauli Ravfogel, Yoav Goldberg
- TLDR: Wir stellen eine neue Methode zur Erkennung von Phrasen vor, die auf der Sprachveränderung basiert.
- On Biasing Transformer Attention Towards Monotonicity
- Annette Rios, Chantal Amrhein, Noëmi Aepli, Rico Sennrich
- TLDR: Wir stellen eine monotone Aufmerksamkeitsfunktion vor, die auf mehreren Sequenz-to-Sequenz-Aufgaben kompatibel ist und die Aufmerksamkeit von mehreren Gehirnen fördert.
- Extracting a Knowledge Base of Mechanisms from COVID-19 Papers
- Tom Hope, Aida Amini, David Wadden, Madeleine van Zuylen, Sravanthi Parasa, Eric Horvitz, Daniel Weld, Roy Schwartz, Hannaneh Hajishirzi
- TLDR: Wir schlagen eine Knowledge-Base von Mechanismen vor, die die natürliche Sprache von Forschungsschriften extrahiert.
- Constrained Multi-Task Learning for Event Coreference Resolution
- Jing Lu, Vincent Ng
- TLDR: Wir schlagen ein neuronales Co-Reference-Modell vor, das mit fünf Aufgaben trainiert wird, nämlich Entitätserkennung, Entitätsbeweisung, Entitätsbeweisung, Entitätsbeweisung und Entitätsbeweisung.
- Empirical Evaluation of Pre-trained Transformers for Human-Level NLP: The Role of Sample Size and Dimensionality
- Adithya V Ganesan, Matthew Matero, Aravind Reddy Ravula, Huy Vu, H. Andrew Schwartz
- TLDR: Wir stellen eine empirische Studie über die Dimensionalität von Einbettungen und die Dimensionalität von Autoencodern vor und zeigen, dass die Dimensionalität von Einbettungen und die Dimensionalität der Einbettungen als ein Maß der Vorhersageleistung verwendet werden kann.
- Leveraging Deep Representations of Radiology Reports in Survival Analysis for Predicting Heart Failure Patient Mortality
- Hyun Gi Lee, Evan Sholle, Ashley Beecy, Subhi Al’Aref, Yifan Peng
- TLDR: Wir verwenden BERT-basierte versteckte Schichtendarstellungen von Texten als Covariates für proportionale Modelle zur Vorhersage von Patientenversterbungen.
- On the Use of Context for Predicting Citation Worthiness of Sentences in Scholarly Articles
- Rakesh Gosangi, Ravneet Arora, Mohsen Gheisarieha, Debanjan Mahata, Haimin Zhang
- TLDR: Wir stellen einen neuen Benchmark-Datensätzen vor, der über zwei Millionen Sätze und ihre Etiketten enthält.
- Data and Model Distillation as a Solution for Domain-transferable Fact Verification
- Mitch Paul Mithun, Sandeep Suntwal, Mihai Surdeanu
- TLDR: Wir stellen eine Datendestillation-Methode vor, die die Verzerrung von lexikalischen Daten in der Verifikation von Wissensdatensätzen verhindert.
- Adapting Coreference Resolution for Processing Violent Death Narratives
- Ankith Uppunda, Susan Cochran, Jacob Foster, Alina Arseniev-Koehler, Vickie Mays, Kai-Wei Chang
- TLDR: Wir haben eine Datenerweiterungsregeln zur Verbesserung von Coreference-Modellen entwickelt, die die Aufmerksamkeit von LGBT-Interessenten auf die Coreference-Resolution erreichen.
- Time-Stamped Language Model: Teaching Language Models to Understand The Flow of Events
- Hossein Rajaby Faghihi, Parisa Kordjamshidi
- TLDR: Wir schlagen ein Time-Stamped Language Model (TSLM) vor, um die Zeitstamp-Informationen in LMs zu kodieren.
- If You Want to Go Far Go Together: Unsupervised Joint Candidate Evidence Retrieval for Multi-hop Question Answering
- Vikas Yadav, Steven Bethard, Mihai Surdeanu
- TLDR: Wir schlagen einen einfachen Ansatz vor, der mehrere Belege in einer Multi-Hop-Framework zusammen retrieft und dann wiederkehrt.
- SPARTQA: A Textual Question Answering Benchmark for Spatial Reasoning
- Roshanak Mirzaee, Hossein Rajaby Faghihi, Qiang Ning, Parisa Kordjamshidi
- TLDR: Wir schlagen eine neue Methode zur räumlichen Begründung vor, die die Aufmerksamkeit von LMs auf die Frage des Menschen ermöglicht.
- A Dataset of Information-Seeking Questions and Answers Anchored in Research Papers
- Pradeep Dasigi, Kyle Lo, Iz Beltagy, Arman Cohan, Noah A. Smith, Matt Gardner
- TLDR: Wir stellen Qasper vor, einen Datensatz von 5049 Fragen über 1585 Natural Language Processing Papiers.
- Differentiable Open-Ended Commonsense Reasoning
- Bill Yuchen Lin, Haitian Sun, Bhuwan Dhingra, Manzil Zaheer, Xiang Ren, William Cohen
- TLDR: Wir schlagen einen neuen Ansatz für die Lösung von Fragen, die mit Wissensfakten verbunden sind, vor, um das Problem der offenen Verallgemeinerung zu lösen.
- Does Structure Matter? Encoding Documents for Machine Reading Comprehension
- Hui Wan, Song Feng, Chulaka Gunasekara, Siva Sankalp Patel, Sachindra Joshi, Luis Lastras
- TLDR: Wir schlagen eine Transformer-basierte Methode vor, die Dokumente als Tree-Slices (z.B. Dokumente mit tiefen und interkonsistenten Dokumenten) erkundet.
- Multi-Step Reasoning Over Unstructured Text with Beam Dense Retrieval
- Chen Zhao, Chenyan Xiong, Jordan Boyd-Graber, Hal Daumé III
- TLDR: Wir schlagen einen neuen Multi-Step-Retrieval-Ansatz vor, der eine Schlussfolgerungskette durch Beam-Such in den Raum erfassen kann.
- Scalable and Interpretable Semantic Change Detection
- Syrielle Montariol, Matej Martinc, Lidia Pivovarova
- TLDR: Wir schlagen eine skalierbare Methode vor, die die Verwendung von Wörtern in Bezug auf die Verwendung von Wörtern in einer Cluster-Architektur ermöglicht.
- Scalar Adjective Identification and Multilingual Ranking
- Aina Garí Soler, Marianna Apidianaki
- TLDR: Wir stellen einen Multilingual Datensatz für die Erkennung von Scalar-Axiomen vor und stellen eine neue binäre Klassifikationsaufgabe vor, die die Fähigkeit von Sprachmodellen zur Erkennung von Scalar unterscheidet.
- ESC: Redesigning WSD with Extractive Sense Comprehension
- Edoardo Barba, Tommaso Pasini, Roberto Navigli
- TLDR: Wir schlagen ESCHER vor, eine transformerbasierte neuronale Architektur, die die Sprachausbreitung von neuronalen Netzen erweitert und gleichzeitig die Sprachverständnisseinwendigkeit verbessert.
- Recent advances in neural metaphor processing: A linguistic, cognitive and social perspective
- Xiaoyu Tong, Ekaterina Shutova, Martha Lewis
- TLDR: Wir stellen eine umfassende Bewertung und Diskussion von Automatisierungsmethoden zur Metaphorisierung vor, in light der Ergebnisse der Forschung und der aktuellen Entwicklungen in NLP.
- Constructing Taxonomies from Pretrained Language Models
- Catherine Chen, Kevin Lin, Dan Klein
- TLDR: Wir stellen eine Methode vor, die die Trennbeziehungen von Sprachmodellen in Tree-Modelle umwandelt und die Leistung bei der Erstellung von Sprachbildern verbessert.
- Event Representation with Sequential, Semi-Supervised Discrete Variables
- Mehdi Rezaee, Francis Ferraro
- TLDR: Wir schlagen eine neue Methode vor, die partiell beobachtbare Sequenzen von diskreten, externen Wissensdaten nutzt.
- Seq2Emo: A Sequence to Multi-Label Emotion Classification Model
- Chenyang Huang, Amine Trabelsi, Xuebin Qin, Nawshad Farruque, Lili Mou, Osmar Zaïane
- TLDR: Wir schlagen einen seq2emo-Ansatz vor, der implizit Emotionen in einen Dekodierer einbezieht.
- Knowledge Enhanced Masked Language Model for Stance Detection
- Kornraphop Kawintiranon, Lisa Singh
- TLDR: Wir schlagen eine BERT-basierte Fine-Tuning Methode vor, die das maskierte Sprachmodell für die Erkennung von Sätzen verbessert.
- Learning Paralinguistic Features from Audiobooks through Style Voice Conversion
- Zakaria Aldeneh, Matthew Perez, Emily Mower Provost
- TLDR: Wir stellen ein neuronales Netz vor, das lernt, Paralinguistisches aus Sprachstilen zu extrahieren, indem es Daten, die nicht annotiert werden, nutzt.
- Adapting BERT for Continual Learning of a Sequence of Aspect Sentiment Classification Tasks
- Zixuan Ke, Hu Xu, Bing Liu
- TLDR: Wir schlagen ein auf Kapselnetzwerke basierendes Modell vor, das die Leistung bei der Dokumentenentscheidung erheblich verbessert.
- Adversarial Learning for Zero-Shot Stance Detection on Social Media
- Emily Allaway, Malavika Srikanth, Kathleen McKeown
- TLDR: Wir schlagen ein neues Modell vor, das auf adversarialem Lernen basiert, um Zero-Shot-Szenz-Anzeigen zu ermöglichen.
- Efficiently Summarizing Text and Graph Encodings of Multi-Document Clusters
- Ramakanth Pasunuru, Mengwen Liu, Mohit Bansal, Sujith Ravi, Markus Dreyer
- TLDR: Wir stellen einen effizienten Graphen-Enhanced-Ansatz zur Multi-Document-Suchverteilung vor, der die Speicherdynamik eines Transformer-Decoders nutzt.
- Enriching Transformers with Structured Tensor-Product Representations for Abstractive Summarization
- Yichen Jiang, Asli Celikyilmaz, Paul Smolensky, Paul Soulos, Sudha Rao, Hamid Palangi, Roland Fernandez, Caitlin Smith, Mohit Bansal, Jianfeng Gao
- TLDR: Wir stellen ein neues Modell vor, das die Transformer-Architektur erweitert und die syntaktische und semantische Interpretierbarkeit verbessert.
- What’s in a Summary? Laying the Groundwork for Advances in Hospital-Course Summarization
- Griffin Adams, Emily Alsentzer, Mert Ketenci, Jason Zucker, Noémie Elhadad
- TLDR: Wir stellen eine Aufgabe vor, die die Krankenhaus-Kurse zusammenfassen soll.
- Understanding Factuality in Abstractive Summarization with FRANK: A Benchmark for Factuality Metrics
- Artidoro Pagnoni, Vidhisha Balachandran, Yulia Tsvetkov
- TLDR: Wir stellen eine typologie von Fälschungen vor, die für die Erzeugung von Zusammenfassungen verwendet werden können.
- GSum: A General Framework for Guided Neural Abstractive Summarization
- Zi-Yi Dou, Pengfei Liu, Hiroaki Hayashi, Zhengbao Jiang, Graham Neubig
- TLDR: Wir schlagen einen allgemeinen und extensiblen Rahmen für die Erstellung von Zusammenfassungen vor, der die Kontrolle über die Ausgabe und die Zuverlässigkeit erhöht.
- What Will it Take to Fix Benchmarking in Natural Language Understanding?
- Samuel R. Bowman, George Dahl
- TLDR: Wir stellen vier Kriterien vor, die NLU-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Benchmark-Ben
- TuringAdvice: A Generative and Dynamic Evaluation of Language Use
- Rowan Zellers, Ari Holtzman, Elizabeth Clark, Lianhui Qin, Ali Farhadi, Yejin Choi
- TLDR: Wir schlagen TuringAdvice vor, eine neue Aufgabe und Datensatz für Sprachmodelle.
- Multitask Learning for Emotionally Analyzing Sexual Abuse Disclosures
- Ramit Sawhney, Puneet Mathur, Taru Jain, Akash Kumar Gautam, Rajiv Ratn Shah
- TLDR: Wir stellen fest, dass die Emotionen in Texten, die von Menschen, die sich sexuell überführt haben, bekannt sind, für die Identifizierung von Vorurteilen und die Erkennung von Vergiftungsverdächtungen nützlich sind.
- Self Promotion in US Congressional Tweets
- Jun Wang, Kelly Cui, Bei Yu
- TLDR: Wir haben BERT-basiertes NLP-Modell für die Selbstpromotion von CNN-Präsidenten entwickelt und analysiert, ob ein gender-Abbrechneingeschränkter zwischen CNN-Präsidenten und CNN-Präsidenten besteht.
- Profiling of Intertextuality in Latin Literature Using Word Embeddings
- Patrick J. Burns, James A. Brofos, Kyle Li, Pramit Chaudhuri, Joseph P. Dexter
- TLDR: Wir stellen eine empirische Analyse von Intertextuality in Klassikern der Lateinzeit vor und zeigen, dass die Einbettung von Texten auf sehr kleinen corporationen salienten Aspekten der Literatur wiederspiegelt.
- Identifying inherent disagreement in natural language inference
- Xinliang Frederick Zhang, Marie-Catherine de Marneffe
- TLDR: Wir schlagen einen Algorithmus vor, der die Unsicherheit in der Annotation simuliert und die Sprachinferenz in Texten erkennt.
- Modeling Human Mental States with an Entity-based Narrative Graph
- I-Ta Lee, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: Wir schlagen einen Entity-basierten Narrative Graphen vor, um die internen Zustandsmerkmale von Charakteren in einer Geschichte zu modellieren.
- A Simple and Efficient Multi-Task Learning Approach for Conditioned Dialogue Generation
- Yan Zeng, Jian-Yun Nie
- TLDR: Wir schlagen einen Multi-Task-Lernen-Ansatz vor, um Text- und Label-Datensätzen zu nutzen, um Conditioned Dialogs zu generieren.
- Hurdles to Progress in Long-form Question Answering
- Kalpesh Krishna, Aurko Roy, Mohit Iyyer
- TLDR: Wir stellen fest, dass die Aufgabe der Longform Question Answering (LFQA) zu einer schwierigen Aufgabe für das Modellierungs- und Datensatzmodell führt.
- ENTRUST: Argument Reframing with Language Models and Entailment
- Tuhin Chakrabarty, Christopher Hidey, Smaranda Muresan
- TLDR: Wir schlagen eine Methode vor, die die Negativität von Argumenten wiederverwenden kann.
- Paragraph-level Simplification of Medical Texts
- Ashwin Devaraj, Iain Marshall, Byron Wallace, Junyi Jessy Li
- TLDR: Wir stellen eine neue Sammlung von Texten in Englisch vor, die technische und lay Zusammenfassungen von allen veröffentlichten Behauptungen auf medizinische Themen enthalten.
- An Empirical Study on Neural Keyphrase Generation
- Rui Meng, Xingdi Yuan, Tong Wang, Sanqiang Zhao, Adam Trischler, Daqing He
- TLDR: Wir analysieren die wichtigsten Faktoren, die die Generalisierungsleistung von neuronalen Schlüsselphrasenmodellen beeinflussen.
- Attention Head Masking for Inference Time Content Selection in Abstractive Summarization
- Shuyang Cao, Lu Wang
- TLDR: Wir stellen eine Aufmerksamkeitsmechanismus-Methode vor, die auf CNN/DailyMail und CNN/NYT verwendet werden kann, um die Auswahl von Dokumenten in Transformer-basierten Zusammenfassungsmodellen zu steuern.
-
- Zexuan Zhong, Dan Friedman, Danqi Chen
- TLDR: Wir schlagen eine neue Methode vor, die die Wahrscheinlichkeit von Sprachmodellen in einem kontinuierlichen Einbettungsraum optimiert.
- Evaluating Saliency Methods for Neural Language Models
- Shuoyang Ding, Philipp Koehn
- TLDR: Wir identifizieren und bewerten die Qualität von Vorhersagenmethoden, die von neuronalen Sprachmodellen interpretiert werden.
- Contextualized Perturbation for Textual Adversarial Attack
- Dianqi Li, Yizhe Zhang, Hao Peng, Liqun Chen, Chris Brockett, Ming-Ting Sun, Bill Dolan
- TLDR: Wir stellen ein Contextualizisiertes Adversarial Example-Generierungsmodell vor, das fluent und grammatische Ausgaben durch ein Maskenverfahren erzeugt.
- DirectProbe: Studying Representations without Classifiers
- Yichu Zhou, Vivek Srikumar
- TLDR: Wir stellen eine heuristische Methode vor, die die Geometrie einer Repräsentation direkt untersucht.
- Evaluating the Values of Sources in Transfer Learning
- Md Rizwan Parvez, Kai-Wei Chang
- TLDR: Wir entwickeln einen Rahmen für die Bewertung von Quellwerten, der die Nutzen der Quellwerte für das Transferlernen quantifiziert.
- Too Much in Common: Shifting of Embeddings in Transformer Language Models and its Implications
- Daniel Biś, Maksim Podkorytov, Xiuwen Liu
- TLDR: Wir zeigen, dass die Transformer-Architektur nicht eine tiefe Konne aufweist, sondern sich in allen Modellen wie ein Konnekt verallgemeinert.
- On the Inductive Bias of Masked Language Modeling: From Statistical to Syntactic Dependencies
- Tianyi Zhang, Tatsunori B. Hashimoto
- TLDR: Wir zeigen, dass die Erfolgsausbreitung von Masken und Vorhersagen von Token in einer unüberwachten Fashion zu Sprachstrukturen und Leistungsgewinnen führt.
- Limitations of Autoregressive Models and Their Alternatives
- Chu-Cheng Lin, Aaron Jaech, Xin Li, Matthew R. Gormley, Jason Eisner
- TLDR: Wir schlagen eine neue Methode vor, um die Wahrscheinlichkeit eines nächsten Zeichens zu quantifizieren.
- On the Transformer Growth for Progressive BERT Training
- Xiaotao Gu, Liyuan Liu, Hongkun Yu, Jing Li, Chen Chen, Jiawei Han
- TLDR: Wir stellen eine neue Methode zur Erweiterung von BERT vor, die die Transformer-Architektur skaliert und gleichzeitig die Leistung verbessert.
- Revisiting Simple Neural Probabilistic Language Models
- Simeng Sun, Mohit Iyyer
- TLDR: Wir schlagen ein neuronales probabilistisches Sprachmodell vor, das Worteinbettungen innerhalb eines Fensters koncatiert und die nächste Worte vorhersagt.
- ReadTwice: Reading Very Large Documents with Memories
- Yury Zemlyanskiy, Joshua Ainslie, Michiel de Jong, Philip Pham, Ilya Eckstein, Fei Sha
- TLDR: Wir schlagen eine einfache und effektive Methode vor, die mehrere Stärken von Prior-Ansätzen kombiniert, um lange Zeitverschiebungen mit Transformers zu modellieren.
- SCRIPT: Self-Critic PreTraining of Transformers
- Erik Nijkamp, Bo Pang, Ying Nian Wu, Caiming Xiong
- TLDR: Wir stellen Self-Critic Pretraining Transformers (SCRIPT) vor, eine Methode zum Erlernen von Textrepräsentationen und zur Verbesserung der Leistung bei der Erstellung von Textrepräsentationen.
- Learning How to Ask: Querying LMs with Mixtures of Soft Prompts
- Guanghui Qin, Jason Eisner
- TLDR: Wir lernen, mit Hilfe von Sprachplänen, um fächerübergreifende Informationen zu erhalten.
- Nutri-bullets Hybrid: Consensual Multi-document Summarization
- Darsh Shah, Lili Yu, Tao Lei, Regina Barzilay
- TLDR: Wir stellen eine Methode vor, die Vergleichsaussagen mit Texten erzeugt, die Ähnlichkeiten und Verzerrungen in den Eingabedokumenten zeigen.
- AVA: an Automatic eValuation Approach for Question Answering Systems
- Thuy Vu, Alessandro Moschitti
- TLDR: Wir stellen AVA vor, einen automatischen Bewertungsalgorithmus für Fragen, die mit Gold Standard-Antworten verbunden sind, und können die Systemabschwächung mit einer Fehlerrate von weniger als 7% übertreffen.
- SpanPredict: Extraction of Predictive Document Spans with Neural Attention
- Vivek Subramanian, Matthew Engelhard, Sam Berchuck, Liqun Chen, Ricardo Henao, Lawrence Carin
- TLDR: Wir stellen eine Methode vor, die die Aufmerksamkeit eines neuronalen Algorithmus nutzt, um Vorhersagen zu extrahieren und zu bewerten.
- Text Editing by Command
- Felix Faltings, Michel Galley, Gerold Hintz, Chris Brockett, Chris Quirk, Jianfeng Gao, Bill Dolan
- TLDR: Wir schlagen eine neuartige Texterzeugungsaufgabe vor, die auf Wikipedias Datensätzen von Texten mit wenigen Sätzen gefunden werden kann.
- A Deep Metric Learning Approach to Account Linking
- Aleem Khan, Elizabeth Fleming, Noah Schofield, Marcus Bishop, Nicholas Andrews
- TLDR: Wir schlagen ein neues Framework vor, das die Aufgabe der Linkerstellung auf die Benutzervervollständigung automatisiert.
- Improving Factual Completeness and Consistency of Image-to-Text Radiology Report Generation
- Yasuhide Miura, Yuhao Zhang, Emily Tsai, Curtis Langlotz, Dan Jurafsky
- TLDR: Wir schlagen eine neue Belohnungsmethode vor, die die Generierung von stichprobenweisen und konsistenten radiologischen Berichten fördert.
- Multimodal End-to-End Sparse Model for Emotion Recognition
- Wenliang Dai, Samuel Cahyawijaya, Zihan Liu, Pascale Fung
- TLDR: Wir stellen eine Erweiterung auf ein halbes Ende-zu-Ende-Modell vor, die die Aufmerksamkeit von mehreren Phasen miteinander verbindet und gleichzeitig optimiert.
- MIMOQA: Multimodal Input Multimodal Output Question Answering
- Hrituraj Singh, Anshul Nasery, Denil Mehta, Aishwarya Agarwal, Jatin Lamba, Balaji Vasan Srinivasan
- TLDR: Wir schlagen eine neue Aufgabe vor, MIMOQA, die Multimodal Input Multimodal Output Question Answering in der output ist also Multimodal.
- OCID-Ref: A 3D Robotic Dataset With Embodied Language For Clutter Scene Grounding
- Ke-Jyun Wang, Yun-Hsuan Liu, Hung-Ting Su, Jen-Wei Wang, Yu-Siang Wang, Winston Hsu, Wen-Chin Chen
- TLDR: Wir schlagen einen neuen OCID-Ref-Datensätzen vor, der eine Referenzzusammenfassungssegmentierungsaufgabe mit Referenzzusammenfassungen von Abrufobjekten enthält.
- Unsupervised Vision-and-Language Pre-training Without Parallel Images and Captions
- Liunian Harold Li, Haoxuan You, Zhecan Wang, Alireza Zareian, Shih-Fu Chang, Kai-Wei Chang
- TLDR: Wir stellen fest, dass ein VAE-Modell, das mit alignierten Daten trainiert wird, eine bessere Leistung als ein Modell, das mit Text-only und Bild-only-Corporationen erzielt.
- Multitasking Inhibits Semantic Drift
- Athul Paul Jacob, Mike Lewis, Jacob Andreas
- TLDR: Wir zeigen, dass Multitasking-Training die Semantik von Signalen und die Sprachdynamik in Strategien reduziert.
- Probing Contextual Language Models for Common Ground with Visual Representations
- Gabriel Ilharco, Rowan Zellers, Ali Farhadi, Hannaneh Hajishirzi
- TLDR: Wir stellen fest, dass sprachliche Repräsentationen in Bezug auf die visuelle Darstellungen von Objekten eine starke Signalwirkung auf die Objektsuche haben.
- BBAEG: Towards BERT-based Biomedical Adversarial Example Generation for Text Classification
- Ishani Mondal
- TLDR: Wir schlagen BBAEG vor, einen Black-Box-Angriffsalgorithmus für biomedizinische Texte, der die Sprachwahrnehmung und BERT-MLMs nutzt.
- Targeted Adversarial Training for Natural Language Understanding
- Lis Pereira, Xiaodong Liu, Hao Cheng, Hoifung Poon, Jianfeng Gao, Ichiro Kobayashi
- TLDR: Wir stellen einen Algorithmus vor, der das Training von Gegnern für das Verständnis von natürlicher Sprache verbessert.
- Latent-Optimized Adversarial Neural Transfer for Sarcasm Detection
- Xu Guo, Boyang Li, Han Yu, Chunyan Miao
- TLDR: Wir schlagen eine Generalisierung vor, die die Verzerrung von Verlusten in einem Zielgebiet ermöglicht und die Trainingsdynamik verbessert.
- Self-training Improves Pre-training for Natural Language Understanding
- Jingfei Du, Edouard Grave, Beliz Gunel, Vishrav Chaudhary, Onur Celebi, Michael Auli, Veselin Stoyanov, Alexis Conneau
- TLDR: Wir stellen SentAugment vor, eine Datenerweiterung, die die Aufgabe der Texterweiterung erweitert.
- Supporting Clustering with Contrastive Learning
- Dejiao Zhang, Feng Nan, Xiaokai Wei, Shang-Wen Li, Henghui Zhu, Kathleen McKeown, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: Wir schlagen einen neuartigen Rahmen vor, um kontrastives Lernen zu nutzen, um eine bessere Trennung zwischen den kategorischen Daten zu erreichen.
- TITA: A Two-stage Interaction and Topic-Aware Text Matching Model
- Xingwu Sun, Yanling Cui, Hongyin Tang, Qiuyu Zhu, Fuzheng Zhang, Beihong Jin
- TLDR: Wir schlagen ein neues neuronales Themenmodell vor, um die Themenvielfalt beim Erlernen von Dokumenten zu identifizieren.
- Neural Quality Estimation with Multiple Hypotheses for Grammatical Error Correction
- Zhenghao Liu, Xiaoyuan Yi, Maosong Sun, Liner Yang, Tat-Seng Chua
- TLDR: Wir stellen das Vernetzte Grammatik-Ergebnisses-Schätzernetzwerk vor, das die Grammatik-Ergebnisse von mehreren Hypothesen erfasst und die GEC-Qualität vergröbern kann.
- Neural Network Surgery: Injecting Data Patterns into Pre-trained Models with Minimal Instance-wise Side Effects
- Zhiyuan Zhang, Xuancheng Ren, Qi Su, Xu Sun, Bin He
- TLDR: Wir stellen fest, dass die Anzahl der Änderungen die Auswirkungen auf die Konsistenz von neuronalen Netzen verringert.
- Discrete Argument Representation Learning for Interactive Argument Pair Identification
- Lu Ji, Zhongyu Wei, Jing Li, Qi Zhang, Xuanjing Huang
- TLDR: Wir identifizieren und lösen interaktive Argumentationspaare aus zwei Beitragen, die sich auf einen bestimmten Themenbereich beziehen.
- On Unifying Misinformation Detection
- Nayeon Lee, Belinda Z. Li, Sinong Wang, Pascale Fung, Hao Ma, Wen-tau Yih, Madian Khabsa
- TLDR: Wir stellen UnifiedM2 vor, ein allgemeines, aber effektives Misinformationsmodell, das mehrere Domänen von Misinformation mit einem einzigen, uneinheitlichen setup modelliert.
- Frustratingly Easy Edit-based Linguistic Steganography with a Masked Language Model
- Honai Ueoka, Yugo Murawaki, Sadao Kurohashi
- TLDR: Wir stellen eine neue Methode vor, die auf einer Texterzeugung basiert und die Sprachdetektoren von Texten mit einem maskierten Sprachmodell nutzt.
- Few-Shot Text Classification with Triplet Networks, Data Augmentation, and Curriculum Learning
- Jason Wei, Chengyu Huang, Soroush Vosoughi, Yu Cheng, Shiqi Xu
- TLDR: Wir stellen eine neue Methode zur Datenerweiterung vor, die die Leistung von Textklassifikationsnetzwerken verbessert.
- Do RNN States Encode Abstract Phonological Alternations?
- Miikka Silfverberg, Francis Tyers, Garrett Nicolai, Mans Hulden
- TLDR: Wir analysieren, ob sich Konsonant-Gramierungsprozesse in einem RNN automatisch auf die Konsonnanz-Gramierungsprozesse übertragen lassen.
- Pre-training with Meta Learning for Chinese Word Segmentation
- Zhen Ke, Liang Shi, Songtao Sun, Erli Meng, Bin Wang, Xipeng Qiu
- TLDR: Wir schlagen MetaSeg vor, ein CWS-spezifisches Pre-Training-Modell, das einen Meta-Lernansatz in eine Multi-Criteria-Pre-Training-Aufgabe integriert.
- Decompose, Fuse and Generate: A Formation-Informed Method for Chinese Definition Generation
- Hua Zheng, Damai Dai, Lei Li, Tianyu Liu, Zhifang Sui, Baobao Chang, Yang Liu
- TLDR: Wir schlagen ein neues Modell vor, das Worte in Form von Merkmalen ersetzt, und generaT Wortedefinitionen.
- User-Generated Text Corpus for Evaluating Japanese Morphological Analysis and Lexical Normalization
- Shohei Higashiyama, Masao Utiyama, Taro Watanabe, Eiichiro Sumita
- TLDR: Wir haben einen öffentlich zugänglichen Konkormus für UGT vorgeschlagen, der 929 Sätze enthält, die mit morphologischer und lexikalischer Normalisierungsinformationen ausgestattet sind.
- GPT Perdetry Test: Generating new meanings for new words
- Nikolay Malkin, Sameera Lanka, Pranav Goel, Sudha Rao, Nebojsa Jojic
- TLDR: Wir stellen eine Aufgabe vor, die GPT-3 stellt, um Wörter zu generieren, die mit menschlichen Beurteilungen kompatibel sind.
- Universal Semantic Tagging for English and Mandarin Chinese
- Wenxi Li, Yiyang Hou, Yajie Ye, Li Liang, Weiwei Sun
- TLDR: Wir schlagen ein neues annotationsschema vor, um die Unzulänglichkeit von Sprachrepräsentationen für mehrere Sprachen zu untersuchen.
- ShadowGNN: Graph Projection Neural Network for Text-to-SQL Parser
- Zhi Chen, Lu Chen, Yanbin Zhao, Ruisheng Cao, Zihan Xu, Su Zhu, Kai Yu
- TLDR: Wir schlagen eine neue Architektur vor, die schematische und semantische Daten in einem tiefen neuronalen Netzen nutzt, um eine natürliche Frage in eine SQL-Such zu interpretieren.
- Contextualized and Generalized Sentence Representations by Contrastive Self-Supervised Learning: A Case Study on Discourse Relation Analysis
- Hirokazu Kiyomaru, Sadao Kurohashi
- TLDR: Wir schlagen eine Methode vor, die kontextualisierte und allgemeine Satzrepräsentationen lernt, indem wir kontrastive Selbstsupervised Learning verwenden.
- AMR Parsing with Action-Pointer Transformer
- Jiawei Zhou, Tahira Naseem, Ramón Fernandez Astudillo, Radu Florian
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Aufmerksamkeit auf die Parser zu nutzen und die Ausdruckskraft zu verbessern.
- NL-EDIT: Correcting Semantic Parse Errors through Natural Language Interaction
- Ahmed Elgohary, Christopher Meek, Matthew Richardson, Adam Fourney, Gonzalo Ramos, Ahmed Hassan Awadallah
- TLDR: Wir stellen NL-EDIT vor, ein Modell zur Interpretation von natürlichen Sprachbefehl in der Interaktion, das automatische Änderungen zur Verbesserung der Semantik von Text-to-SQL-Parsern generiert.
- Unsupervised Concept Representation Learning for Length-Varying Text Similarity
- Xuchao Zhang, Bo Zong, Wei Cheng, Jingchao Ni, Yanchi Liu, Haifeng Chen
- TLDR: Wir schlagen ein Konzept-basiertes Dokumenten-Matching-Modell vor, um Dokumentenähnlichkeit bei der Dokumentenverallgemeinerung zu verbessern.
- Augmenting Knowledge-grounded Conversations with Sequential Knowledge Transition
- Haolan Zhan, Hainan Zhang, Hongshen Chen, Zhuoye Ding, Yongjun Bao, Yanyan Lan
- TLDR: Wir schlagen einen Wissensverschiebungsgenerator vor, um die Wissensverschiebung in Wissensverschiebungen in strukturierten und unstrukturierten Gesprächen zu modellieren.
- Adversarial Self-Supervised Learning for Out-of-Domain Detection
- Zhiyuan Zeng, Keqing He, Yuanmeng Yan, Hong Xu, Weiran Xu
- TLDR: Wir schlagen einen Rahmen für das contrastive Lernen vor, um diskriminative Merkmale von In- und In-Domänenannätzen zu extrahieren und die Erkennung von OOD-Intenzen aus unbeschrifteten Daten zu ermöglichen.
- Leveraging Slot Descriptions for Zero-Shot Cross-Domain Dialogue StateTracking
- Zhaojiang Lin, Bing Liu, Seungwhan Moon, Paul Crook, Zhenpeng Zhou, Zhiguang Wang, Zhou Yu, Andrea Madotto, Eunjoon Cho, Rajen Subba
- TLDR: Wir schlagen einen neuen generativen Ansatz für Zero-Shot Dialog State Tracking vor, der die Dialog-Status-Tracking-Fährungen verbessert.
- Hierarchical Transformer for Task Oriented Dialog Systems
- Bishal Santra, Potnuru Anusha, Pawan Goyal
- TLDR: Wir schlagen einen Rahmen für Hierarchical Transformer Encoders vor und zeigen, wie ein Standardtransformer in einen Hierarchical Encoder umgewandelt werden kann, indem wir Aufmerksamkeitsmechanismen und Positionsbeschriftungen verwenden.
- Measuring the ‘I don’t know’ Problem through the Lens of Gricean Quantity
- Huda Khayrallah, João Sedoc
- TLDR: Wir schlagen eine Methode zur Diagnose von I don’t know vor, die auf der Quantität basiert und die Generierung von Antworten auf die Frage des Gegenstücks ermöglicht.
- RTFE: A Recursive Temporal Fact Embedding Framework for Temporal Knowledge Graph Completion
- Youri Xu, Haihong E, Meina Song, Wenyu Song, Xiaodong Lv, Wang Haotian, Yang Jinrui
- TLDR: Wir schlagen einen Rahmen vor, um die Zeitumwandlung von Wissensgraphen in zeitliche Wissensgraphen zu integrieren und die Leistung von bestehenden TKGEs für die TKG-Erfüllung zu verbessern.
- Open Hierarchical Relation Extraction
- Kai Zhang, Yuan Yao, Ruobing Xie, Xu Han, Zhiyuan Liu, Fen Lin, Leyu Lin, Maosong Sun
- TLDR: Wir schlagen eine neuartige Aufgabe vor, die die hierarchischen Beziehungen extrahiert, und stellen einen neuartigen Rahmen für die Aufgabe vor.
- Jointly Extracting Explicit and Implicit Relational Triples with Reasoning Pattern Enhanced Binary Pointer Network
- Yubo Chen, Yunqi Zhang, Changran Hu, Yongfeng Huang
- TLDR: Wir schlagen ein binäres Pointernetzwerk vor, um überlapping relational triples relevant zu jeder Wortsequenz zu extrahieren.
- Multi-Grained Knowledge Distillation for Named Entity Recognition
- Xuan Zhou, Xiao Zhang, Chenyang Tao, Junya Chen, Bing Xu, Wei Wang, Jing Xiao
- TLDR: Wir schlagen eine neue Methode vor, die Wissen aus großen Modellen in ein studentisches Modell umwandelt.
- SGG: Learning to Select, Guide, and Generate for Keyphrase Generation
- Jing Zhao, Junwei Bao, Yifan Wang, Youzheng Wu, Xiaodong He, Bowen Zhou
- TLDR: Wir schlagen einen neuen Ansatz zur Erzeugung von Schlüsselphrasen vor, der die Erzeugung von Texten auf mehreren Ebenen separatermaßen behebt.
- Towards Sentiment and Emotion aided Multi-modal Speech Act Classification in Twitter
- Tulika Saha, Apoorva Upadhyaya, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: Wir stellen eine neue Multi-Modal, Emotions-TA vor, die auf Twitter verwendet werden kann.
- Generative Imagination Elevates Machine Translation
- Quanyu Long, Mingxuan Wang, Lei Li
- TLDR: Wir schlagen ImagiT vor, eine visuelle Übersetzungsmethode, die die visuelle Erkennung von Quellsätzen nutzt, um eine Zielsprache zu ersetzen.
- Non-Autoregressive Translation by Learning Target Categorical Codes
- Yu Bao, Shujian Huang, Tong Xiao, Dongqi Wang, Xinyu Dai, Jiajun Chen
- TLDR: Wir schlagen CNAT vor, eine Methode zur nicht-autoregressive Texterzeugung, die implizit categorische Codes als latente Variablen in die nicht-autoregressive Decoding integriert.
- Training Data Augmentation for Code-Mixed Translation
- Abhirut Gupta, Aditya Vavre, Sunita Sarawagi
- TLDR: Wir stellen eine Methode vor, die Code-Mixed-Inputs von Benutzern in einer Hindi-English-Code-Mixed-Transfer-Aufgabe umwandelt.
- Rethinking Perturbations in Encoder-Decoders for Fast Training
- Sho Takase, Shun Kiyono
- TLDR: Wir vergleichen mehrere Störungen in sequenz- und sequenzfolger-Problemen mit der Berechnung von Zeit.
- Context-aware Decoder for Neural Machine Translation using a Target-side Document-Level Language Model
- Amane Sugiyama, Naoki Yoshinaga
- TLDR: Wir stellen eine Methode zur kontextuellen Übersetzung vor, die auf Dokumentebene parallele Dokumenten mit korrespondierenden Kontexten abbildet.
- Machine Translated Text Detection Through Text Similarity with Round-Trip Translation
- Hoang-Quoc Nguyen-Son, Tran Thao, Seira Hidano, Ishita Gupta, Shinsaku Kiyomoto
- TLDR: Wir schlagen einen neuen Detektor vor, der Texten mit Textenähnlichkeiten in einer Sprachkombination identifiziert.
- TR-BERT: Dynamic Token Reduction for Accelerating BERT Inference
- Deming Ye, Yankai Lin, Yufei Huang, Maosong Sun
- TLDR: Wir schlagen einen dynamischen Algorithmus zur Beschleunigung der Inferenz vor, der die Zuweisung von Token reduziert.
- Breadth First Reasoning Graph for Multi-hop Question Answering
- Yongjie Huang, Meng Yang
- TLDR: Wir schlagen ein neues Modell vor, das eine neue Message-Passage-Methode vorführt, die besser entspricht dem Schlussfolgerungsprozess.
- Improving Zero-Shot Cross-lingual Transfer for Multilingual Question Answering over Knowledge Graph
- Yucheng Zhou, Xiubo Geng, Tao Shen, Wenqiang Zhang, Daxin Jiang
- TLDR: Wir nutzen unüberwachte Bilingual Lexicon Induction (BLI) um Sprachausnutzungen in einer Zielsprache in einer anderen Sprachausnutzung zu umgehen.
- RocketQA: An Optimized Training Approach to Dense Passage Retrieval for Open-Domain Question Answering
- Yingqi Qu, Yuchen Ding, Jing Liu, Kai Liu, Ruiyang Ren, Wayne Xin Zhao, Daxiang Dong, Hua Wu, Haifeng Wang
- TLDR: Wir schlagen einen Optimierungsalgorithmus vor, der den Bereich des Deep-Passage-Retrievals verbessert.
- DAGN: Discourse-Aware Graph Network for Logical Reasoning
- Yinya Huang, Meng Fang, Yu Cao, Liwei Wang, Xiaodan Liang
- TLDR: Wir schlagen ein discourse-aware graph-Netzwerk vor, das Argumentationsinformationen als Graphen nutzt, um logische Schlussfolgerungen zu ziehen.
- Designing a Minimal Retrieve-and-Read System for Open-Domain Question Answering
- Sohee Yang, Minjoon Seo
- TLDR: Wir stellen eine neue Methode vor, die den Speicherbedarf eines Retrieve-and-Read-Modells erheblich reduzieren kann.
- Unsupervised Multi-hop Question Answering by Question Generation
- Liangming Pan, Wenhu Chen, Wenhan Xiong, Min-Yen Kan, William Yang Wang
- TLDR: Wir schlagen MQA-QG vor, eine unbeaufsichtigte Multi-Hop-QA, die aus heterogenen und homogenen Datensätzen erstellt werden kann.
- Sliding Selector Network with Dynamic Memory for Extractive Summarization of Long Documents
- Peng Cui, Le Hu
- TLDR: Wir schlagen ein tiefes neuronales Modell vor, das die Zusammenfassung von Dokumenten in einer Reihe von Fenstern ersetzt.
- AdaptSum: Towards Low-Resource Domain Adaptation for Abstractive Summarization
- Tiezheng Yu, Zihan Liu, Pascale Fung
- TLDR: Wir stellen eine empirische Studie zur Domänenanpassung vor, die die Probleme der katastrophalen Vergessen und des katastrophalen Vergessens beseitigt.
- QMSum: A New Benchmark for Query-based Multi-domain Meeting Summarization
- Ming Zhong, Da Yin, Tao Yu, Ahmad Zaidi, Mutethia Mutuma, Rahul Jha, Ahmed Hassan Awadallah, Asli Celikyilmaz, Yang Liu, Xipeng Qiu, Dragomir Radev
- TLDR: Wir stellen QMSum vor, einen neuen Benchmark für die Zusammenfassung von Meetings in mehreren Domänen.
- MM-AVS: A Full-Scale Dataset for Multi-modal Summarization
- Xiyan Fu, Jun Wang, Zhenglu Yang
- TLDR: Wir stellen einen vollständigen Multimodal-Datensätzen vor, der alle modalitäten und alle Arten von Materialien enthält.
- MediaSum: A Large-scale Media Interview Dataset for Dialogue Summarization
- Chenguang Zhu, Yang Liu, Jie Mei, Michael Zeng
- TLDR: Wir stellen einen großen Datensatz mit 463.6K Gesprächsstimmen vor, der eine große Vielfalt von Gesprächsprotokollen mit abstrakten Zusammenfassungen enthält.
- Improving Faithfulness in Abstractive Summarization with Contrast Candidate Generation and Selection
- Sihao Chen, Fan Zhang, Kazoo Sone, Dan Roth
- TLDR: Wir analysieren und korrigieren extrinsische Wahrnehmungen, indem wir eine diskriminative Korrekturmodelle erzeugen.
- Inference Time Style Control for Summarization
- Shuyang Cao, Lu Wang
- TLDR: Wir stellen zwei Methoden vor, die während der Zusammenfassungsdecodierung eingesetzt werden können, um mehrere Stile zu generieren.
- ReinforceBug: A Framework to Generate Adversarial Textual Examples
- Bushra Sabir, Muhammad Ali Babar, Raj Gaire
- TLDR: Wir stellen ReinforceBug vor, einen Reinforcement Learning Framework, das lernt, eine Policy, die ist über Datensätze hinweg zu generieren, und die AEs nutzt.