Background
- NAACL 2022 papers with one sentence summaries (data was obtained from official github repository.)
- Summaries were automatically generated by a mBART fine-tuned on the XSCITLDR dataset.
No human validation on summaries, so you can’t trust them, please just use them as a starting point of your work.
For other languages,
Summaries
- Social Norms Guide Reference Resolution
- Mitchell Abrams, Matthias Scheutz
- TLDR: Wir zeigen, dass soziale Normen die Interpretation von Referenzbeschriftungen in einem kontextuellen Fall beeinflussen.
- Learning Natural Language Generation with Truncated Reinforcement Learning
- Alice Martin, Guillaume Quispe, Charles Ollion, Sylvain Le Corff, Florian Strub, Olivier Pietquin
- TLDR: Wir stellen TRUncated Reinforcement Learning für Sprache (TrufLL) vor, einen originalen Ansatz zum Erlernen von Sprachstrategien ohne Überwachung.
- Language Model Augmented Monotonic Attention for Simultaneous Translation
- Sathish Reddy Indurthi, Mohd Abbas Zaidi, Beomseok Lee, Nikhil Kumar Lakumarapu, Sangha Kim
- TLDR: Wir schlagen einen Rahmen vor, um monotonische Aufmerksamkeit mit einem externen Sprachmodell zu fördern.
- What Makes a Good and Useful Summary? Incorporating Users in Automatic Summarization Research
- Maartje Ter Hoeve, Julia Kiseleva, Maarten Rijke
- TLDR: Wir stellen eine Umfrage vor, die die Bedürfnisse von Benutzern von automatisch generierten Zusammenfassungen erfasst.
- ErAConD: Error Annotated Conversational Dialog Dataset for Grammatical Error Correction
- Xun Yuan, Derek Pham, Sam Davidson, Zhou Yu
- TLDR: Wir stellen einen neuen GEC-Datensätzen vor, der parallele und korrigierte Sätze aus Chatbot-Gesprächungen enthält.
- Semantic Diversity in Dialogue with Natural Language Inference
- Katherine Stasaski, Marti Hearst
- TLDR: Wir schlagen eine neue Methode zur Erfassung und Verbesserung der semantischen Vielfalt vor, die die semantische Vielfalt von Modell-Respondenzen für die Gesprächsausführung erfasst.
- LEA: Meta Knowledge-Driven Self-Attentive Document Embedding for Few-Shot Text Classification
- S. K. Hong, Tae Young Jang
- TLDR: Wir schlagen eine neue Methode vor, die auf Meta-Ebene Aufmerksamkeitsmerkmale erzeugt, und die Ergebnisse zeigen, dass sie die Leistung bei der Textklassifikation robuster und effektiver stellt als die von wenigen-Shot Learning.
- Enhancing Self-Attention with Knowledge-Assisted Attention Maps
- Jiangang Bai, Yujing Wang, Hong Sun, Ruonan Wu, Tianmeng Yang, Pengfei Tang, Defu Cao, Mingliang Zhang1, Yunhai Tong, Yaming Yang, Jing Bai, Ruofei Zhang, Hao Sun, Wei Shen
- TLDR: Wir schlagen eine neuartige und generic Lösung vor, KAM-BERT, die Wissensgenerationen in den Selbst-Attentionsmechanismus integriert.
- Batch-Softmax Contrastive Loss for Pairwise Sentence Scoring Tasks
- Anton Chernyavskiy, Dmitry Ilvovsky, Pavel Kalinin, Preslav Nakov
- TLDR: Wir verwenden Batch-softmax-Verluste, um die Verwendung von kontrastierenden Verlusten für das Erlernen von Satzrepräsentationen zu verbessern.
- NewsEdits: A News Article Revision Dataset and a Novel Document-Level Reasoning Challenge
- Alexander Spangher, Xiang Ren, Jonathan May, Nanyun Peng
- TLDR: Wir stellen einen Datensatz für die Erfassung von Artikelverbesserungen vor, NewsEdits, und zeigen, dass die meisten Änderungen in den Artikelverbesserungen flüchtig sind.
- Putting the Con in Context: Identifying Deceptive Actors in the Game of Mafia
- Samee Ibraheem, Gaoyue Zhou, John DeNero
- TLDR: Wir stellen fest, dass die Sprache von Spielern, die eine Sprachbezeichnung verwenden, für die Wahrnehmung von Spielern mit einem anderen Sprachverständnis, die Sprachausnutzung durch das Spiel von Mafia, negativ beeinflusst.
- SUBS: Subtree Substitution for Compositional Semantic Parsing
- Jingfeng Yang, Le Zhang, Diyi Yang
- TLDR: Wir schlagen eine Subtree-Methode vor, die die Verwendung von Subtree-Abhängigkeiten für die Datenerweiterung ermöglicht.
- Two Contrasting Data Annotation Paradigms for Subjective NLP Tasks
- Paul Rottger, Bertie Vidgen, Dirk Hovy, Janet Pierrehumbert
- TLDR: Wir schlagen zwei kontrastive Modelle vor, um die Aufgabe der Datenerwährung zu erfüllen.
- Do Deep Neural Nets Display Human-like Attention in Short Answer Scoring?
- Zijie Zeng, Xinyu Li, Dragan Gasevic, Guanliang Chen
- TLDR: Wir haben eine userstudie durchgeführt, um herauszufinden, ob DL-basierte Gradler mit Menschen alignieren, wenn sie wichtige Worte auf der Grundlage von Fragen markieren.
- Knowledge-Grounded Dialogue Generation with a Unified Knowledge Representation
- Yu Li, Baolin Peng, Yelong Shen, Yi Mao, Lars Liden, Zhou Yu, Jianfeng Gao
- TLDR: Wir stellen ein sprachliches Modell vor, das Wissensobjekte zu einer uneinheitlichen Wissensrepräsentation für Wissensausbreitungs- und Dialogerzeugungsaufgaben verbindet.
- CERES: Pretraining of Graph-Conditioned Transformer for Semi-Structured Session Data
- Rui Feng, Chen Luo, Qingyu Yin, Bing Yin, Tuo Zhao, Chao Zhang
- TLDR: Wir schlagen ein graphbasiertes Transformatormodell vor, das sowohl Inter- und Instanzsemantiken als auch Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-Inter-
- Political Ideology and Polarization: A Multi-dimensional Approach
- Barea Sinno, Bernardo Oviedo, Katherine Atwell, Malihe Alikhani, Junyi Jessy Li
- TLDR: Wir stellen einen neuen Datensatz für die Erkennung von Ideen und die Klassifizierung von Positionen vor, der auf die Sichtweise des Autors abhängt.
- Cooperative Self-training of Machine Reading Comprehension
- Hongyin Luo, Shang-Wen Li, Mingye Gao, Seunghak Yu, James Glass
- TLDR: Wir schlagen einen Rahmen vor, der automatisch generierte Fragen-Antwort-Paare für die Erstellung von nicht-trivialen Fragen-Antwort-Paaren verbessert.
- GlobEnc: Quantifying Global Token Attribution by Incorporating the Whole Encoder Layer in Transformers
- Ali Modarressi, Mohsen Fayyaz, Yadollah Yaghoobzadeh, Mohammad Taher Pilehvar
- TLDR: Wir stellen eine globale Belohnungsanalyse vor, die die gesamte Encoder-Baumstruktur in den Encoder-Block einbezieht und diese während der gesamten Skalierungsschichten aggregatiert.
- A Robustly Optimized BMRC for Aspect Sentiment Triplet Extraction
- Shu Liu, Kaiwen Li, Zuhe Li
- TLDR: Wir stellen eine robuste und optimierte BMRC-Methode vor, die die Problemstellungen bei der Bildbewertung und -auswertung von Bedeutungen und Gefühlen lösen kann.
- Seed-Guided Topic Discovery with Out-of-Vocabulary Seeds
- Yu Zhang, Yu Meng, Xuan Wang, Sheng Wang, Jiawei Han
- TLDR: Wir schlagen einen neuen Rahmen für die Erkennung von Themen vor, der aus PLMs und den lokalen Semantik gelernt wird, und schlagen einen neuen Rahmen vor, der auf Themen mit mehreren Domänen anwendbar ist.
- Towards Process-Oriented, Modular, and Versatile Question Generation that Meets Educational Needs
- Xu Wang, Simin Fan, Jessica Houghton, Lu Wang
- TLDR: Wir analysieren, wie Lehrer Fragen und touchpoints verwenden, um die NLP-Modelle für die Erstellung von QGs zu verbessern.
- SwahBERT: Language Model of Swahili
- Gati Martin, Medard Edmund Mswahili, Young-Seob Jeong, Jeong Young-Seob
- TLDR: Wir stellen zwei Datensätze von Swahili vor, die für die Emotionenklassifikation verwendet werden können.
- Deconstructing NLG Evaluation: Evaluation Practices, Assumptions, and Their Implications
- Kaitlyn Zhou, Su Lin Blodgett, Adam Trischler, Hal Daumé III, Kaheer Suleman, Alexandra Olteanu
- TLDR: Wir analysieren Ziele, community practices, Annahmen und Konsistenzen, die die NLG-Evaluierungen steuern.
- TSTR: Too Short to Represent, Summarize with Details! Intro-Guided Extended Summary Generation
- Sajad Sotudeh, Nazli Goharian
- TLDR: Wir schlagen einen neuen Algorithmus vor, der die Einführungsinformationen von Dokumenten als Pointer für die salienten Informationen nutzt.
- Empathic Machines: Using Intermediate Features as Levers to Emulate Emotions in Text-To-Speech Systems
- Saiteja Kosgi, Sarath Sivaprasad, Niranjan Pedanekar, Anil Nelakanti, Vineet Gandhi
- TLDR: Wir stellen eine Methode vor, die Emotionen von Text-to-Speech-Systemen auf Phoneme-Ebene über die Emotionen der Gesprächsgäste hinweg kodiert.
- The Why and The How: A Survey on Natural Language Interaction in Visualization
- Henrik Voigt, Ozge Alacam, Monique Meuschke, Kai Lawonn, Sina Zarrieß
- TLDR: Wir stellen eine neue Sprachausrichtung vor, die auf natürlicher Sprache basiert und die Leistung von Visualisierungsaufgaben verbessert.
- Understand before Answer: Improve Temporal Reading Comprehension via Precise Question Understanding
- Hao Huang, Xiubo Geng, Guodong Long, Daxin Jiang
- TLDR: Wir schlagen einen neuartigen Ansatz für das Verständnis von Zeitlichen Beziehungen vor, der die Aufmerksamkeit auf die Frage der Zeitverschiebung ermöglicht.
- User-Driven Research of Medical Note Generation Software
- Tom Knoll, Francesco Moramarco, Alex Papadopoulos Korfiatis, Rachel Young, Claudia Ruffini, Mark Perera, Christian Perstl, Ehud Reiter, Anya Belz, Aleksandar Savkov
- TLDR: Wir stellen drei Benutzerstudien vor, die im Kontext von einer medizinischen Notiz generieren.
- Ask Me Anything in Your Native Language
- Nikita Sorokin, Dmitry Abulkhanov, Irina Piontkovskaya, Valentin Malykh
- TLDR: Wir stellen einen neuen Ansatz vor, der auf einer Sprachkopplung basiert, um eine Sprachausgangsbeantwortung in mehreren Sprachen zu ermöglichen.
- Diversifying Neural Dialogue Generation via Negative Distillation
- Yiwei Li, Shaoxiong Feng, Bin Sun, Kan Li
- TLDR: Wir schlagen negatives Training vor, um negatives Feedback zu generieren, und erreichen damit eine bessere Leistung als negatives Feedback.
- On Synthetic Data for Back Translation
- Jiahao Xu, Yubin Ruan, Wei Bi, Guoping Huang, Shuming Shi, Lihui Chen, Lemao Liu
- TLDR: Wir identifizieren zwei Schlüsselfaktoren für die Qualität und Wichtigkeit von Synthetischen Daten beim Back-Translation-Training und schlagen eine einfache Methode vor, um sie zu nutzen.
- Mapping the Design Space of Human-AI Interaction in Text Summarization
- Ruijia Cheng, Alison Smith-Renner, Ke Zhang, Joel Tetreault, Alejandro Jaimes-Larrarte
- TLDR: Wir analysieren und schlagen Design-Möglichkeiten für menschliche-AI-Interaktionen in Texterzeugung und Texterzeugung vor.
- Towards Robust and Semantically Organised Latent Representations for Unsupervised Text Style Transfer
- Sharan Narasimhan, Suvodip Dey, Maunendra Desarkar
- TLDR: Wir stellen eine neuartige Methode vor, die die Spracherzeugung, die Stiltransfer über unbeschriftete Datensätze und die Spracherkennung von Texten mit mehreren Sprachbeschriftungen ermöglicht.
- An Exploration of Post-Editing Effectiveness in Text Summarization
- Vivian Lai, Alison Smith-Renner, Ke Zhang, Ruijia Cheng, Wenjuan Zhang, Joel Tetreault, Alejandro Jaimes-Larrarte
- TLDR: Wir haben eine experimentelle Studie durchgeführt, um zu bewerten, wenn die Post-Eigenschaften von Texten zur Texterfassung nützlich sind.
- Automatic Correction of Human Translations
- Jessy Lin, Geza Kovacs, Aditya Shastry, Joern Wuebker, John DeNero
- TLDR: Wir stellen die Fehlerkorrektion (TEC) vor, die automatisch menschliche Übersetzungen korrigiert.
- On the Robustness of Reading Comprehension Models to Entity Renaming
- Jun Yan, Yang Xiao, Sagnik Mukherjee, Bill Yuchen Lin, Robin Jia, Xiang Ren
- TLDR: Wir stellen eine pipeline vor, um automatisch Testbilder von Entitäten zu generieren, die von verschiedenen Datensätzen mit unterschiedlichen Namen in einem Testsatz verwendet werden.
- Explaining Why: How Instructions and User Interfaces Impact Annotator Rationales When Labeling Text Data
- Cynthia Sullivan, William Brackenbury, Andrew McNut, Kevin Bryson, Kbyllofficial@gmail.com Kbyllofficial@gmail.com, Yuxin Chen, Michael Littman, Chenhao Tan, Blase Ur
- TLDR: Wir haben eine Online-Umfrage durchgeführt, um zu verstehen, wie Menschen die Bedeutung von Datenbeschriftungen als Wahrnehmungsmerkmalen auswählen.
- Fine-tuning Pre-trained Language Models for Few-shot Intent Detection: Supervised Pre-training and Isotropization
- Haode Zhang, Haowen Liang, Yuwei Zhang, Li-Ming Zhan, Xiao-Ming Wu, Xiaolei Lu, Albert Lam
- TLDR: Wir schlagen einen Regularisierer vor, der die Aufmerksamkeitsmechanismen von Sprachmodellen mit wenigen Stichproben verringert.
- Cross-document Misinformation Detection based on Event Graph Reasoning
- Xueqing Wu, Kung-Hsiang Huang, Yi Fung, Heng Ji
- TLDR: Wir schlagen eine neue Aufgabe vor, die die Erkennung von Verfälschungen auf Dokumentebene und auf Ereignisebene ermöglicht.
- Disentangled Action Recognition with Knowledge Bases
- Zhekun Luo, Shalini Ghosh, Devin Guillory, Keizo Kato, Trevor Darrell, Huijuan Xu
- TLDR: Wir schlagen einen neuen Ansatz zur Bestimmung von Aktionsbeschriftungen vor, der die kompositorischen Eigenschaften von Beschriftungen nutzt.
- Machine-in-the-Loop Rewriting for Creative Image Captioning
- Vishakh Padmakumar, He He
- TLDR: Wir schlagen ein Rewriting-Modell vor, das die Texterzeugung von Texten auf Satzebene automatisiert und gleichzeitig die Texterzeugung auf Satzebene verbessert.
- A Word is Worth A Thousand Dollars: Adversarial Attack on Tweets Fools Stock Prediction
- Yong Xie, Dakuo Wang, Pin-Yu Chen, Jinjun Xiong, Sijia Liu, Oluwasanmi Koyejo
- TLDR: Wir lösen komplexe Kombinationsoptimierungsprobleme mit Hilfe von Twitter und Reddit und erzielen große Erfolge bei der Simulation von Börsen.
- Building Multilingual Machine Translation Systems That Serve Arbitrary XY Translations
- Akiko Eriguchi, Shufang Xie, Tao Qin, Hany Hassan
- TLDR: Wir stellen eine Methode vor, die eine Multilingual Machine Translation (MNMT) ermöglicht, die aus mehreren Sprachfamilien zu einer Sprachfamilie zugreifen kann.
- Non-Autoregressive Neural Machine Translation with Consistency Regularization Optimized Variational Framework
- Minghao Zhu, Junli Wang, Chungang Yan
- TLDR: Wir schlagen eine Methode vor, die die Verzerrung von VAE und VAE-basierten NAT-Frameworks berücksichtigt.
- User-Centric Gender Rewriting
- Bashar Alhafni, Nizar Habash, Houda Bouamor
- TLDR: Wir stellen eine Methode vor, die die negativen Aspekte von Regeln und neuronalen Rewriting-Modellen kombiniert, um die gender-identifikation in kontexten zu verbessern.
- Reframing Human-AI Collaboration for Generating Free-Text Explanations
- Sarah Wiegreffe, Jack Hessel, Swabha Swayamdipta, Mark Riedl, Yejin Choi
- TLDR: Wir stellen GPT-3 vor, eine Methode zur Generierung von Erklärungen, die von Menschen vorgeschlagen wurden, und zeigen, dass sie die Bewertbarkeit von Erklärungen übertrifft.
- EmRel: Joint Representation of Entities and Embedded Relations for Multi-triple Extraction
- Benfeng Xu, Quan Wang, Yajuan Lyu, Yabing Shi, Yong Zhu, Jie Gao, Zhendong Mao
- TLDR: Wir schlagen eine neue Methode vor, um Entitätenrepräsentationen zu extrahieren, die auf informative Inter-Triple-Korrelationen basieren.
- Meta Learning for Natural Language Processing: A Survey
- Hung-yi Lee, Shang-Wen Li, Thang Vu
- TLDR: Wir stellen Meta-Lernen vor und stellen die Entwicklung eines Meta-Lernens in der NLP-Community vor.
- Analyzing Modality Robustness in Multimodal Sentiment Analysis
- Devamanyu Hazarika, Yingting Li, Bo Cheng, Shuai Zhao, Roger Zimmermann, Soujanya Poria
- TLDR: Wir stellen eine einfache Test- und Trainingsmethode vor, die die Robustheit von Multimodalen Modellen verbessert.
- Fuse It More Deeply! A Variational Transformer with Layer-Wise Latent Variable Inference for Text Generation
- Jinyi Hu, Xiaoyuan Yi, Wenhao Li, Maosong Sun, Xing Xie
- TLDR: Wir stellen Variational Auto-Encoder vor, einen Auto-Regressive Decoder, der sich auf Texterzeugung spezialisiert hat.
- Easy Adaptation to Mitigate Gender Bias in Multilingual Text Classification
- Xiaolei Huang
- TLDR: Wir stellen ein Standard-Domänenanpassungsmodell vor, um die genderspezifischen Unterschiede bei Textklassifikationsaufgaben zu reduzieren und die Leistung von Textklassifiern bei Multilingualitäten zu verbessern.
- On the Use of External Data for Spoken Named Entity Recognition
- Ankita Pasad, Felix Wu, Suwon Shon, Karen Livescu, Kyu Han
- TLDR: Wir verwenden externe Sprachdaten, um Sprachrepräsentationen mit geringen Ressourcen zu erlernen.
- Long-term Control for Dialogue Generation: Methods and Evaluation
- Ramya Ramakrishnan, Hashan Narangodage, Mauro Schilman, Kilian Weinberger, Ryan McDonald
- TLDR: Wir stellen das Problem der Konsistenz von Dialogen zur Erzeugung von Antworten dar und schlagen eine neue Metrik zur Bewertung und Verbesserung der Dialogsteuerung vor.
- Learning Dialogue Representations from Consecutive Utterances
- Zhihan Zhou, Dejiao Zhang, Wei Xiao, Nicholas Dingwall, Xiaofei Ma, Andrew Arnold, Bing Xiang
- TLDR: Wir stellen Dialogue-Sentenzbeschriftungen vor, eine Selbstüberwachung, die effektive Dialogrepräsentationen erlernt, die für eine Vielzahl von Dialogaufgaben geeignet sind.
- On the Machine Learning of Ethical Judgments from Natural Language
- Zeerak Talat, Hagen Blix, Josef Valvoda, Maya Indira Ganesh, Ryan Cotterell, Adina Williams
- TLDR: Wir schlagen eine kritische Bewertung von Deep Learning-Methoden vor, die ethische Entscheidungen automatisieren können.
- NeuroLogic A*esque Decoding: Constrained Text Generation with Lookahead Heuristics
- Ximing Lu, Sean Welleck, Peter West, Liwei Jiang, Jungo Kasai, Daniel Khashabi, Ronan Le Bras, Lianhui Qin, Youngjae Yu, Rowan Zellers, Noah Smith, Yejin Choi
- TLDR: Wir stellen eine Methode vor, die die neuronale Texterzeugung von autoregressiven Sprachmodellen ermöglicht.
- PARADISE: Exploiting Parallel Data for Multilingual Sequence-to-Sequence Pretraining
- Machel Reid, Mikel Artetxe
- TLDR: Wir stellen PARADISE vor, eine Erweiterung des Rahmens der Denoising-Methode für die Sequenz-zu-Sequenz-Modelle.
- Explaining Toxic Text via Knowledge Enhanced Text Generation
- Rohit Sridhar, Diyi Yang
- TLDR: Wir stellen einen Wissensinformierten Encoder-Decoder-Rahmen vor, um Informationen über schädliche oder toxice Sätze zu generieren.
- Teaching BERT to Wait: Balancing Accuracy and Latency for Streaming Disfluency Detection
- Angelica Chen, Vicky Zayats, Daniel Walker, Dirk Padfield
- TLDR: Wir schlagen ein BERT-basiertes Sequence-Tagging-Modell vor, das in realen Umgebungen die Entflechtungen in Echtzeit erkennt und gleichzeitig die Qualität und Stabilität bei der Erkennung von Verzerrungen und Neuverschiebungen optimiert.
- GRAM: Fast Fine-tuning of Pre-trained Language Models for Content-based Collaborative Filtering
- Yoonseok Yang, Kyu Seok Kim, Minsam Kim, Juneyoung Park
- TLDR: Wir schlagen eine neue Methode zur Optimierung von Text-Eigenschaften vor, die die Gradienten für Backpropagation nutzt.
- Generating Repetitions with Appropriate Repeated Words
- Toshiki Kawamoto, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura
- TLDR: Wir schlagen Weighted Label Smoothing vor, eine Methode zur Wiederholung von Wörtern während der Fine-Tuning und eine Methode zur Bewertung von Wiederholungsfehlern.
- Textless Speech-to-Speech Translation on Real Data
- Ann Lee, Hongyu Gong, Paul-Ambroise Duquenne, Holger Schwenk, Peng-Jen Chen, Changhan Wang, Sravya Popuri, Yossi Adi, Juan Pino, Jiatao Gu, Wei-Ning Hsu
- TLDR: Wir stellen eine Textfreie Sprachverschlüsselung vor, die aus einer Sprache in eine andere Sprache umwandelt und ohne Textdaten zu einer Sprachverschlüsselungsmaschine kombiniert.
- WALNUT: A Benchmark on Semi-weakly Supervised Learning for Natural Language Understanding
- Guoqing Zheng, Giannis Karamanolakis, Kai Shu, Ahmed Awadallah
- TLDR: Wir schlagen einen Benchmark für halb-weakly-supervised NLU-Aufgaben vor, der die Wirksamkeit von weaken Überwachungsmaßnahmen und -regeln deutlich identifizieren kann.
- CompactIE: Compact Facts in Open Information Extraction
- Farima Fatahi Bayat, Nikita Bhutani, H. Jagadish
- TLDR: Wir schlagen CompactIE vor, ein neuronales System, das kompakte Extraktionen mit überschneidenden Korrespondenzen erzeugt.
- CoSIm: Commonsense Reasoning for Counterfactual Scene Imagination
- Hyounghun Kim, Abhay Zala, Mohit Bansal
- TLDR: Wir stellen Commonsense Reasoning für Counter-Factual Scene Imagination (CoSIm) vor, eine Bewertungsplattform für die Fähigkeit von AI-Systemen zur Erklärung von Szenenveränderungen.
- Abstraction not Memory: BERT and the English Article System
- Harish Tayyar Madabushi, Dagmar Divjak, Petar Milin
- TLDR: Wir vergleichen BERT mit einem Sprachmodell, das die Artikelvorhersage von Texten mit einem Textsatz auswählt.
- OmniTab: Pretraining with Natural and Synthetic Data for Few-shot Table-based Question Answering
- Zhengbao Jiang, Yi Mao, Pengcheng He, Graham Neubig, Weizhu Chen
- TLDR: Wir stellen OmniTab vor, ein einfaches, aber effektives, auf Text basierendes QA-Modell, das sowohl auf natürlichen als auch auf synthetischen Daten verwendet werden kann.
- Provably Confidential Language Modelling
- Xuandong Zhao, Lei Li, Yu-Xiang Wang
- TLDR: Wir schlagen eine Methode vor, die die Privatsphäre von Sprachmodellen verringert und gleichzeitig die Wichtigkeit der Privatsphäre der Modelle erhöht.
- KAT: A Knowledge Augmented Transformer for Vision-and-Language
- Liangke Gui, Borui Wang, Qiuyuan Huang, Alexander Hauptmann, Yonatan Bisk, Jianfeng Gao
- TLDR: Wir stellen einen neuen Ansatz vor, der implizites und explizites Wissen in die Entscheidungsprozesse integriert.
- When a sentence does not introduce a discourse entity, Transformer-based models still sometimes refer to it
- Sebastian Schuster, Tal Linzen
- TLDR: Wir stellen eine English-Evaluierungssuite vor, die die Interaktionen zwischen generischen Operatoren und indefiniten NPs erfasst.
- On Curriculum Learning for Commonsense Reasoning
- Adyasha Maharana, Mohit Bansal
- TLDR: Wir verwenden schrittweises Curriculum Lernen, um die Leistung von Sprachmodellen bei commonsense reasoning Aufgaben zu verbessern.
- DocTime: A Document-level Temporal Dependency Graph Parser
- Puneet Mathur, Vlad Morariu, Verena Kaynig-Fittkau, Jiuxiang Gu, Franck Dernoncourt, Quan Tran, Ani Nenkova, Dinesh Manocha, Rajiv Jain
- TLDR: Wir stellen DocTime vor, einen neuen Parser, der als Eingabe ein Textdokument nimmt und einen temporalen Abhängigkeitsgraphen erzeugt.
- FactPEGASUS: Factuality-Aware Pre-training and Fine-tuning for Abstractive Summarization
- David Wan, Mohit Bansal
- TLDR: Wir stellen FactPEGASUS vor, eine abstrakte Zusammenfassungsstrategie, die das Problem der Fälschung von Schlussfolgerungen während des Trainings und der Fine-Tuning berücksichtigt.
- ScAN: Suicide Attempt and Ideation Events Dataset
- Bhanu Pratap Singh Rawat, Samuel Kovaly, Hong Yu, Wilfred Pigeon
- TLDR: Wir haben einen neuen Datensatz für die Erkennung und Vorhersage von Suicide Attempt und Ideation Events (ScAN) erstellt.
- Socially Aware Bias Measurements for Hindi Language Representations
- Vijit Malik, Sunipa Dev, Akihiro Nishi, Nanyun Peng, Kai-Wei Chang
- TLDR: Wir zeigen, dass Sprachrepräsentationen mit Geschlechtsverzerrungen und Homo-Biases in der Regel diskriminierend sind, und zeigen, dass soziale Biases in Sprachrepräsentationen wie Homo-Biases und Homo-Biases häufig sind.
- AmbiPun: Generating Humorous Puns with Ambiguous Context
- Anirudh Mittal, Yufei Tian, Nanyun Peng
- TLDR: Wir schlagen eine einfache, aber effektive Methode vor, um Konsistenzbefehle zu generieren, die ohne Training bestehen.
- EmpHi: Generating Empathetic Responses with Human-like Intents
- Mao Yan Chen, Siheng Li, Yujiu Yang
- TLDR: Wir schlagen ein neuartiges Modell vor, das empathische Antworten mit menschlichen Konsistenz-Interferenzen erzeugt.
- Yes, No or IDK: The Challenge of Unanswerable Yes/No Questions
- Elior Sulem, Jamaal Hay, Dan Roth
- TLDR: Wir erweitern die BoolQ-QA-Aufgabe auf eine 2-Ballgebung und stellen fest, dass die Antwort auf die Frage “Did sie in New York?” oft nicht eindeutig ist.
- Inducing and Using Alignments for Transition-based AMR Parsing
- Andrew Drozdov, Jiawei Zhou, Radu Florian, Andrew McCallum, Tahira Naseem, Yoon Kim, Ramón Astudillo
- TLDR: Wir schlagen einen neuronalen Aligner vor, der die Abfrage von Wörtern aus einer unvollkommenen Handlungsverteilung lernt.
- Masked Part-Of-Speech Model: Does Modeling Long Context Help Unsupervised POS-tagging?
- Xiang Zhou, Shiyue Zhang, Mohit Bansal
- TLDR: Wir schlagen ein Masked Part-of-Speech Model (MPoSM) vor, das tagsähnliche Abhängigkeiten modelliert und die POS-Induction durch die maskierte POS-Rekonstruktion durchführt.
- DREAM: Improving Situational QA by First Elaborating the Situation
- Yuling Gu, Bhavana Dalvi, Peter Clark
- TLDR: Wir stellen fest, dass die Verwendung von Szenenausführungen als zusätzliches Kontext für ein QA-Modell verbessert die Antwortgenauigkeit.
- CoSe-Co: Text Conditioned Generative CommonSense Contextualizer
- Rachit Bansal, Milan Aggarwal, Sumit Bhatia, Jivat Kaur, Balaji Krishnamurthy
- TLDR: Wir schlagen einen neuen Contextualizer vor, der auf Sätze als Eingabebeschriftungen abhängt, um das generische Verständnis für die Erzeugung von Wissen zu generieren.
- Probing via Prompting
- Jiaoda Li, Ryan Cotterell, Mrinmaya Sachan
- TLDR: Wir stellen einen modellfreien Ansatz vor, der die Aufgabe des Probenmodells als Belohnungsaufgabe formuliert.
- Database Search Results Disambiguation for Task-Oriented Dialog Systems
- Kun Qian, Satwik Kottur, Ahmad Beirami, Shahin Shayandeh, Paul Crook, Alborz Geramifard, Zhou Yu, Chinnadhurai Sankar
- TLDR: Wir schlagen eine neue Aufgabe vor, die darauf abzielt, die Sucheergebnisse von mehreren Suchergebnissen zu vertauschen, und die Ergebnisse von mehreren Suchergebnissen zu vergleichen.
- Unsupervised Slot Schema Induction for Task-oriented Dialog
- Dian Yu, Mingqiu Wang, Yuan Cao, Izhak Shafran, Laurent Shafey, Hagen Soltau
- TLDR: Wir schlagen einen unbeaufsichtigten Ansatz zur Induzierten Dialogschema-Induziertheit vor, der die Erzeugung von Dialogkodierungen aus unbeschrifteten Dialogen ermöglicht.
- Towards a Progression-Aware Autonomous Dialogue Agent
- Abraham Sanders, Tomek Strzalkowski, Mei Si, Albert Chang, Deepanshu Dey, Jonas Braasch, Dakuo Wang
- TLDR: Wir schlagen einen Rahmen vor, der die Entwicklung von Dialogagenten ermöglicht, die Dialogfolgen in einer Gesprächsdynamik zu verfolgen.
- Cross-Domain Detection of GPT-2-Generated Technical Text
- Juan Rodriguez, Todd Hay, David Gros, Zain Shamsi, Ravi Srinivasan
- TLDR: Wir stellen fest, dass die Verwendung von Labels zur Erkennung von GPT-2-generierten Texten die Erzeugung von vollständigen Dokumenten erheblich beschleunigt.
- DISAPERE: A Dataset for Discourse Structure in Peer Review Discussions
- Neha Kennard, Tim O’Gorman, Rajarshi Das, Akshay Sharma, Chhandak Bagchi, Matthew Clinton, Pranay Kumar Yelugam, Hamed Zamani, Andrew McCallum
- TLDR: Wir stellen DISAPERE vor, einen Labeled Dataset von 20k Sätzen, der in 506 Bewertungsrebuttal Paaren in Englisch, annotiert wurden, enthält.
- MultiSpanQA: A Dataset for Multi-Span Question Answering
- Haonan Li, Martin Tomko, Maria Vasardani, Timothy Baldwin
- TLDR: Wir stellen MultiSpanQA vor, einen neuen Datensatz, der auf Multi-Sponsen-Fragen und Multi-Sponsen-Antworten spezialisiert ist.
- Context-Aware Abbreviation Expansion Using Large Language Models
- Shanqing Cai, Subhashini Venugopalan, Katrin Tomanek, Ajit Narayanan, Meredith Morris, Michael Brenner
- TLDR: Wir schlagen einen neuen Ansatz vor, der abkürzungen als Wort-Itimals verwendet, um die Texterzeugung für Menschen mit schweren motorischen Beeinträchtigungen zu beschleunigen.
- Theory-Grounded Measurement of U.S. Social Stereotypes in English Language Models
- Yang Cao, Anna Sotnikova, Hal Daumé III, Rachel Rudinger, Linda Zou
- TLDR: Wir stellen eine Testmethode vor, die die sensitivitätskriterien von Sprachmodellen erfasst und die Entflechtung von LM-Störthemen erfasst.
- Sort by Structure: Language Model Ranking as Dependency Probing
- Max Müller-Eberstein, Rob Goot, Barbara Plank
- TLDR: Wir identifizieren und analysieren eine neuartige LM-Architektur und schlagen einen neuen Ansatz vor, um sie für die Parsing-Abhängigkeiten in einer bestimmten Sprache zu ranken.
- Quantifying Synthesis and Fusion and their Impact on Machine Translation
- Arturo Oncevay, Duygu Ataman, Niels Van Berkel, Barry Haddow, Alexandra Birch, Johannes Bjerva
- TLDR: Wir schlagen eine halbautomatische Methode vor, um morphologische Typologien auf Wort- und Segment-Ebene zu quantifizieren.
- Commonsense and Named Entity Aware Knowledge Grounded Dialogue Generation
- Deeksha Varshney, Akshara Prabhakar, Asif Ekbal
- TLDR: Wir schlagen ein neues, auf Gemeinschaftswissen und Entitäten basierendes Dialogmodell vor, das die große Vielfalt von bekannten und auf Gemeinschaftswissen basierendem Wissen nutzt.
- Efficient Hierarchical Domain Adaptation for Pretrained Language Models
- Alexandra Chronopoulou, Matthew Peters, Jesse Dodge
- TLDR: Wir stellen eine Methode vor, die die Domänenanpassung für viele Bereiche ermöglicht und gleichzeitig die Inferenzzeit minimiert.
- Hatemoji: A Test Suite and Adversarially-Generated Dataset for Benchmarking and Detecting Emoji-Based Hate
- Hannah Kirk, Bertie Vidgen, Paul Rottger, Tristan Thrush, Scott Hale
- TLDR: Wir stellen eine Test-Suche von 3,930 Kurzformsätzen vor, die die Erkennung von Online-Hämlichkeit mit Hilfe von Emojis ermöglicht.
- On the Economics of Multilingual Few-shot Learning: Modeling the Cost-Performance Trade-offs of Machine Translated and Manual Data
- Kabir Ahuja, Monojit Choudhury, Sandipan Dandapat
- TLDR: Wir stellen einen Rahmen vor, um die Leistung und die Kosten der maschinellen Übersetzungen bei der fine-tuned Translationsvergabe zu vergleichen.
- Learning to Selectively Learn for Weakly Supervised Paraphrase Generation with Model-based Reinforcement Learning
- Haiyan Yin, Dingcheng Li, Ping Li
- TLDR: Wir schlagen ein Modell vor, das die Probleme der Paraphrasegenerierung partial überwinden könnte.
- Quality-Aware Decoding for Neural Machine Translation
- Patrick Fernandes, António Farinhas, Ricardo Rei, José De Souza, Perez Ogayo, Graham Neubig, Andre Martins
- TLDR: Wir stellen eine Methode zur Beam-Such vor, die die meisten wahrscheinlichen Übersetzungen aus dem Modell mit Hilfe von Beam-Such und MAP-Decoding durchführen kann.
- Pretrained Models for Multilingual Federated Learning
- Orion Weller, Marc Marone, Vladimir Braverman, Dawn Lawrie, Benjamin Van Durme
- TLDR: Wir zeigen, dass die Verwendung von föderierten und nicht-federierten Lernalgorithmen die negative Auswirkungen von FL auf die Sprachverarbeitung reduzieren kann.
- AcTune: Uncertainty-Based Active Self-Training for Active Fine-Tuning of Pretrained Language Models
- Yue Yu, Lingkai Kong, Jieyu Zhang, Rongzhi Zhang, Chao Zhang
- TLDR: Wir stellen einen neuen Rahmen vor, der die Label-Effizienz von aktiven PLM-Feed-Tuning verbessert und gleichzeitig die Unsicherheit von unbeschrifteten Daten reduziert.
- Label Anchored Contrastive Learning for Language Understanding
- Zhenyu Zhang, Yuming Zhao, Meng Chen, Xiaodong He
- TLDR: Wir schlagen einen neuen Label-Anchorred Contrastive Learning Ansatz vor, der auf Label-Eigenschaften basiert und auf die Klassifizierung von Labels und Labels-Benchmarking-Benchmarks bei Sprachaufgaben effektiv ist.
- Go Back in Time: Generating Flashbacks in Stories with Event Temporal Prompts
- Rujun Han, Hong Chen, Yufei Tian, Nanyun Peng
- TLDR: Wir schlagen eine Methode vor, die auf strukturiertem Schreibstil basiert, um Geschichten zu erzeugen und zu erzählen.
- Forecasting COVID-19 Caseloads Using Unsupervised Embedding Clusters of Social Media Posts
- Felix Drinkall, Stefan Zohren, Janet Pierrehumbert
- TLDR: Wir verwenden transformerbasierte Sprachmodelle, um die Vorhersage von Inferenzerkrankungen zu verbessern.
- Many Hands Make Light Work: Using Essay Traits to Automatically Score Essays
- Rahul Kumar, Sandeep Mathias, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: Wir stellen eine Automatisierung vor, die die Bewertung von Werken automatisch erfasst.
- Natural Language Inference with Self-Attention for Veracity Assessment of Pandemic Claims
- Miguel Arana-Catania, Elena Kochkina, Arkaitz Zubiaga, Maria Liakata, Robert Procter, Yulan He
- TLDR: Wir stellen eine umfassende Arbeit auf automatisierter Verzerrungserkennung vor, die auf der Natural Language Inference basiert.
- Beyond Emotion: A Multi-Modal Dataset for Human Desire Understanding
- Ao Jia, Yu He, Yazhou Zhang, Sagar Uprety, Dawei Song, Christina Lioma
- TLDR: Wir stellen MSED vor, einen neuen Multi-Task- und Multi-Task-Meta-Benchmark für menschliches Erkunden und Gefühle.
- Relation-Specific Attentions over Entity Mentions for Enhanced Document-Level Relation Extraction
- Jiaxin Yu, Deqing Yang, Shuyu Tian
- TLDR: Wir schlagen eine neue Methode zur Dokumentenrelationsextraktion vor, die auf der Suche nach Entitäten auf Dokumentebene aufgeht.
- Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal Misinformation
- Giscard Biamby, Grace Luo, Trevor Darrell, Anna Rohrbach
- TLDR: Wir schlagen eine neue Methode zur Erkennung von Verfälschungen vor, die auf automatisch generierten Bildern und Texten basiert.
- BlonDe: An Automatic Evaluation Metric for Document-level Machine Translation
- Yuchen Jiang, Tianyu Liu, Shuming Ma, Dongdong Zhang, Jian Yang, Haoyang Huang, Rico Sennrich, Ryan Cotterell, Mrinmaya Sachan, Ming Zhou
- TLDR: Wir stellen eine neuartige Automatisierungsmetricle vor, die die Spracherkennung von Satzaufgaben erweitert und gleichzeitig die Konsistenz der Sprachsprache berücksichtigt.
- Disentangled Learning of Stance and Aspect Topics for Vaccine Attitude Detection in Social Media
- Lixing Zhu, Zheng Fang, Gabriele Pergola, Robert Procter, Yulan He
- TLDR: Wir schlagen VADet vor, eine halbüberwachte Methode zur Erkennung von Vorurteilen bei der Vorhersage von Vorurteilen auf Twitter.
- SKILL: Structured Knowledge Infusion for Large Language Models
- Fedor Moiseev, Zhe Dong, Enrique Alfonseca, Martin Jaggi
- TLDR: Wir schlagen eine Methode vor, um strukturiertes Wissen in LLMs zu integrieren, indem wir factual triples von Wissensgraphen (KGs), WikiMovies und WikiHop auf Wikidata KGs trainieren.
- Same Neurons, Different Languages: Probing Morphosyntax in Multilingual Pre-trained Models
- Karolina Stanczak, Edoardo Ponti, Lucas Torroba Hennigen, Ryan Cotterell, Isabelle Augenstein
- TLDR: Wir untersuchen, ob sprachenübergreifende Informationen in neuronalen Netzen kodiert werden, die in unterschiedlichen Sprachen gesprochen werden.
- Aspect Is Not You Need: No-aspect Differential Sentiment Framework for Aspect-based Sentiment Analysis
- Jiahao Cao, Rui Liu, Huailiang Peng, Lei Jiang, Xu Bai
- TLDR: Wir schlagen einen Rahmen für die Abstraktive Gefühlsanalyse vor, der die Gefühle von Absichten und Emotionen in einer Satzstruktur vertauscht.
- MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided Adaptation
- Simiao Zuo, Qingru Zhang, Chen Liang, Pengcheng He, Tuo Zhao, Weizhu Chen
- TLDR: Wir schlagen eine Methode zur Wissensdestillation vor, die die Leistung von Sprachmodellen bei Aufgaben wie Fragen und Beantwortungsfragen erhöht.
- Implicit n-grams Induced by Recurrence
- Xiaobing Sun, Wei Lu
- TLDR: Wir zeigen, dass Erklärungsmerkmale aus RNNs für tiefe Gefühlsanalysen und Sprachmodellierungen verwendet werden können.
- Guiding Visual Question Generation
- Nihir Vedd, Zixu Wang, Marek Rei, Yishu Miao, Lucia Specia
- TLDR: Wir stellen eine neue Variante vor, die auf die Beantwortung von Fragen basiert, die von einem Bild generiert werden, und schlagen zwei Varianten vor, die auf die Beantwortung von Fragen basieren.
- OPERA: Operation-Pivoted Discrete Reasoning over Text
- Yongwei Zhou, Junwei Bao, Chaoqun Duan, Haipeng Sun, Jiahui Liang, Yifan Wang, Jing Zhao, Youzheng Wu, Xiaodong He, Tiejun Zhao
- TLDR: Wir schlagen OPERA vor, einen Operationspivoted discrete reasoning Framework, der leichtgewichtige symbolisch operations (compared mit Logik) als neuronale Module nutzt, um die Schlussfolgerungen und Interpretationen zu ermöglichen.
- Improving Multi-Document Summarization through Referenced Flexible Extraction with Credit-Awareness
- Yun-Zhu Song, Yi-Syuan Chen, Hong-Han Shuai
- TLDR: Wir stellen einen extractor-basierten Transformer-Rahmen vor, der die Texterzeugung und die Zusammenfassungen in einer Reihe von Dokumenten ermöglicht.
- Improving Constituent Representation with Hypertree Neural Networks
- Hao Zhou, Gongshen Liu, Kewei Tu
- TLDR: Wir stellen eine hypertree-Architektur vor, die die Struktur von Parse-Bäumen nutzt, um die Repräsentation von Textspannen zu verbessern.
- Measuring Fairness with Biased Rulers: A Comparative Study on Bias Metrics for Pre-trained Language Models
- Pieter Delobelle, Ewoenam Tokpo, Toon Calders, Bettina Berendt
- TLDR: Wir vergleichen die Literatur und die Arbeiten, die mit fairness-Metriken kompatibel sind, und schlagen eine neue Methode vor, um die Verzerrung von Fairness-Metriken in Sprachmodellen und in deren Downstream-Aufgaben zu bewerten.
- MuCPAD: A Multi-Domain Chinese Predicate-Argument Dataset
- Yahui Liu, Haoping Yang, Chen Gong, Qingrong Xia, Zhenghua Li, Min Zhang
- TLDR: Wir stellen MuCPAD vor, einen Datensatz mit 30,897 Sätzen und 92,051 Vorsätzen aus sechs verschiedenen Domänen.
- Representation Learning for Conversational Data using Discourse Mutual Information Maximization
- Bishal Santra, Sumegh Roychowdhury, Aishik Mandal, Vasu Gurram, Atharva Naik, Manish Gupta, Pawan Goyal
- TLDR: Wir schlagen eine auf strukturunbewussten Texten basierende Verlustfunktion vor, die die Unsicherheit in der Antwortvorhersage erfasst.
- ValCAT: Variable-Length Contextualized Adversarial Transformations Using Encoder-Decoder Language Model
- Chuyun Deng, Mingxuan Liu, Yue Qin, Jia Zhang, Hai-Xin Duan, Donghong Sun
- TLDR: Wir schlagen einen Black-Box-Angriff vor, der das Sprachmodell verfälscht und die Semantik der Beispiele verfälscht.
- A Study of Syntactic Multi-Modality in Non-Autoregressive Machine Translation
- Kexun Zhang, Rui Wang, Xu Tan, Junliang Guo, Yi Ren, Tao Qin, Tie-Yan Liu
- TLDR: Wir stellen eine empirische Studie über das syntaktische Multi-Modality-Problem vor und zeigen, dass die Connections-TTL- und die Order-Agnostische Cross-Entropie-Verlustfunktionen besser funktionieren als die Syntaktische Multi-Modality.
- CIAug: Equipping Interpolative Augmentation with Curriculum Learning
- Ramit Sawhney, Ritesh Soun, Shrey Pandit, Megh Thakkar, Sarvagya Malaviya, Yuval Pinter
- TLDR: Wir schlagen eine neue Methode vor, die auf Mixup basiert, um die Interpolation von Datensätzen zu verbessern.
- Proposition-Level Clustering for Multi-Document Summarization
- Ori Ernst, Avi Caciularu, Ori Shapira, Ramakanth Pasunuru, Mohit Bansal, Jacob Goldberger, Ido Dagan
- TLDR: Wir schlagen eine neue Methode vor, die salienten Proben erkennt und sie in Paraphras-Clustering-Clustering-Clusters umwandelt.
- Non-Autoregressive Machine Translation: It’s Not as Fast as it Seems
- Jindřich Helcl, Barry Haddow, Alexandra Birch
- TLDR: Wir stellen eine vergleichende Bewertung von maschinellen Übersetzungsmodellen vor, die auf neuronalen Netzen trainiert wurden.
- BAD-X: Bilingual Adapters Improve Zero-Shot Cross-Lingual Transfer
- Marinela Parović, Goran Glavaš, Ivan Vulić, Anna Korhonen
- TLDR: Wir zeigen, dass es sich für die Verwendung von Sprachausreißern in einer Zielsprache gut eignet, wenn die Zielausrichtung für eine bestimmte Zielsprache ist.
- Combining Humor and Sarcasm for Improving Political Parody Detection
- Xiao Ao, Danae Sanchez Villegas, Daniel Preotiuc-Pietro, Nikolaos Aletras
- TLDR: Wir schlagen ein Multi-Encoder-Modell vor, das drei parallele Encoder nutzt, um parodyspezifische Repräsentationen mit Humor und Sätze von Sätzen von Spärlichkeit zu erzeugen.
- TIE: Topological Information Enhanced Structural Reading Comprehension on Web Pages
- Zihan Zhao, Lu Chen, Ruisheng Cao, Hongshen Xu, Xingyu Chen, Kai Yu
- TLDR: Wir schlagen ein Topologie-Informations-Enhanced-Modell (TIE) vor, das die Aufgabe auf der Token-Ebene in eine tag-Ebene verwandelt und eine zweistufige Aufgabe erweitert.
- RSTGen: Imbuing Fine-Grained Interpretable Control into Long-FormText Generators
- Rilwan Adewoyin, Ritabrata Dutta, Yulan He
- TLDR: Wir schlagen RSTGen vor, einen Rahmen für die Kontrolle der sprachlichen Struktur und die Semantik von Texten, die von Sprachmodellen generiert wurden.
- Intent Detection and Discovery from User Logs via Deep Semi-Supervised Contrastive Clustering
- Rajat Kumar, Mayur Patidar, Vaibhav Varshney, Lovekesh Vig, Gautam Shroff
- TLDR: Wir schlagen einen Deep-Clustering-Algorithmus vor, der auf der Suche nach unbekannten Benutzerzuständen von unbeschrifteten Stichproben mit großen Mengen an unbeschrifteten Stichproben effektiv und effektiv nutzt.
- Extending Multi-Text Sentence Fusion Resources via Pyramid Annotations
- Daniela Brook Weiss, Paul Roit, Ori Ernst, Ido Dagan
- TLDR: Wir erweitern und erweitern einen bestehenden Datensatz, um eine neue Aufgabe zu lösen.
- The Devil is in the Details: On the Pitfalls of Vocabulary Selection in Neural Machine Translation
- Tobias Domhan, Eva Hasler, Ke Tran, Sony Trenous, Bill Byrne, Felix Hieber
- TLDR: Wir schlagen ein Modell vor, das die Sprachauswahl von Sprachbeschriftungen aus kontextuellen Encodern vorhersagt und die Qualität von Sprachbeschriftungen bei der Inferenz verbessert.
- MultiCite: Modeling realistic citations requires moving beyond the single-sentence single-label setting
- Anne Lauscher, Brandon Ko, Bailey Kuehl, Sophie Johnson, Arman Cohan, David Jurgens, Kyle Lo
- TLDR: Wir zeigen, dass Multicite eine neue Methode zur CCA-Analyse von Experten-annotierten Citaten-Konzeptionen enthält, die durchgängig vollständige Papiertexte enthalten.
- DEGREE: A Data-Efficient Generation-Based Event Extraction Model
- I-Hung Hsu, Kuan-Hao Huang, Elizabeth Boschee, Scott Miller, Prem Natarajan, Kai-Wei Chang, Nanyun Peng
- TLDR: Wir schlagen ein modell vor, das die Erfassung von Ereignissen als ein bedingtes Generierungsproblem versteht und die Erfassung von Ereignissen als eine automatische Schlussfolgerungen erzeugt.
- Bridging the Gap between Language Models and Cross-Lingual Sequence Labeling
- Nuo Chen, Linjun Shou, Ming Gong, Jian Pei, Daxin Jiang
- TLDR: Wir stellen fest, dass die Sprachmodellierung ein Ziel für die Maskensprache ist.
- Hero-Gang Neural Model For Named Entity Recognition
- Jinpeng Hu, Yaling Shen, Yang Liu, Xiang Wan, Tsung-Hui Chang
- TLDR: Wir schlagen eine neuartige Hero-Gang-Architektur vor, die sowohl globale als auch lokale Merkmale nutzt, um NER zu erkennen.
- MGIMN: Multi-Grained Interactive Matching Network for Few-shot Text Classification
- Jianhai Zhang, Mieradilijiang Maimaiti, Gao Xing, Yuanhang Zheng, Ji Zhang
- TLDR: Wir schlagen eine Meta-Lernanordnung vor, die die Interdependenz zwischen Beantwortern und den Unterstützungssets erfasst.
- All You May Need for VQA are Image Captions
- Soravit Changpinyo, Doron Kukliansy, Idan Szpektor, Xi Chen, Nan Ding, Radu Soricut
- TLDR: Wir schlagen eine Methode vor, die VQA-Erklärungsdaten automatisch aus Image-Caption-Ankündigungen ersetzt.
- Frustratingly Easy System Combination for Grammatical Error Correction
- Muhammad Qorib, Seung-Hoon Na, Hwee Tou Ng
- TLDR: Wir stellen eine Systemkombination für die Grammatikkorregation vor, die die Klassifizierungsprobleme lösen kann.
- Simple Local Attentions Remain Competitive for Long-Context Tasks
- Wenhan Xiong, Barlas Oguz, Anchit Gupta, Xilun Chen, Diana Liskovich, Omer Levy, Scott Yih, Yashar Mehdad
- TLDR: Wir analysieren und finetunen lange Zeitgedächtnisvarianten, um zu beweisen, dass sie die Leistung von Longformer übertreffen.
- Even the Simplest Baseline Needs Careful Re-investigation: A Case Study on XML-CNN
- Si-An Chen, Jie-jyun Liu, Tsung-Han Yang, Hsuan-Tien Lin, Chih-Jen Lin
- TLDR: Wir stellen eine empirische Studie vor, die die Leistung von XML-CNNs bei einer großen Textklassifikationsmethode bestätigt.
- Multi-Relational Graph Transformer for Automatic Short Answer Grading
- Rajat Agarwal, Varun Khurana, Karish Grover, Mukesh Mohania, Vikram Goyal
- TLDR: Wir stellen eine Graphen-Transformer-Architektur vor, die relationale Graphen in mehreren Graphen darstellt.
- Event Schema Induction with Double Graph Autoencoders
- Xiaomeng Jin, Manling Li, Heng Ji
- TLDR: Wir schlagen einen neuen Rahmen vor, der die globalen Strukturen von Events in graphen erfasst und die globalen Strukturen zwischen den Graphen erlernen kann.
- CS1QA: A Dataset for Assisting Code-based Question Answering in an Introductory Programming Course
- Changyoon Lee, Yeon Seonwoo, Alice Oh
- TLDR: Wir stellen eine Code-basierte Frage-Antwort-Suche vor, die von Chatlogs gesammelt wurden und die Code- und die Sprache kennt.
- Unsupervised Cross-Lingual Transfer of Structured Predictors without Source Data
- Kemal Kurniawan, Lea Frermann, Philip Schulz, Trevor Cohn
- TLDR: Wir stellen eine Methode vor, die die Unüberwachte Übertragung von mehreren Eingabemodellen für strukturierte Vorhersage ermöglicht.
- Don’t Take It Literally: An Edit-Invariant Sequence Loss for Text Generation
- Guangyi Liu, Zichao Yang, Tianhua Tao, Xiaodan Liang, Junwei Bao, Zhen Li, Xiaodong He, Shuguang Cui, Zhiting Hu
- TLDR: Wir schlagen ein neuartiges EIL-Programm vor, das die Matching-Verluste eines Ziels mit dem Ziel verglichen kann.
- Modeling Exemplification in Long-form Question Answering via Retrieval
- Shufan Wang, Fangyuan Xu, Laure Thompson, Eunsol Choi, Mohit Iyyer
- TLDR: Wir stellen eine erste empirische Studie zur Erkennung und Bewertung von Beispielen für die Erkennung von Erklärungen und Erklärungsvervollständigungen vor.
- D2U: Distance-to-Uniform Learning for Out-of-Scope Detection
- Eyup Yilmaz, Cagri Toraman
- TLDR: Wir schlagen einen neuen Post-Processing-Schema vor, der die Wahrscheinlichkeitsverteilungen von Klassifizierungsverteilungen nutzt, um OOS in Konversationen zu erkennen.
- Reference-free Summarization Evaluation via Semantic Correlation and Compression Ratio
- Yizhu Liu, Qi Jia, Kenny Zhu
- TLDR: Wir schlagen eine automatische Bewertungsmetrik vor, die die semantische Verteilung zwischen Quelldokument und Zusammenfassung durch pretrained Sprachmodelle vergleichen kann und die Kompressionsrate berücksichtigt.
- KroneckerBERT: Significant Compression of Pre-trained Language Models Through Kronecker Decomposition and Knowledge Distillation
- Marzieh Tahaei, Ella Charlaix, Vahid Nia, Ali Ghodsi, Mehdi Rezagholizadeh
- TLDR: Wir stellen KroneckerBERT vor, eine komprimierte Version des BERT_BASE-Modells, die durch die Einbettungsschichten und die linearen Mappings in den Multi-Head-Attentions und die Feed-Forward-Netzmodule in den Transformer-Eigenschaften ersetzt werden kann.
- Building a Role Specified Open-Domain Dialogue System Leveraging Large-Scale Language Models
- Sanghwan Bae, Donghyun Kwak, Sungdong Kim, Donghoon Ham, Soyoung Kang, Sang-Woo Lee, Woomyoung Park
- TLDR: Wir stellen eine neue Methode vor, die in einem Kontext-Datensatz einen Dialogdatensatz aus einem Textsatz erzeugt, der die Rollen von offenen Domänen-Kommunikationsmodellen erfüllen kann.
- Sentence-Level Resampling for Named Entity Recognition
- Xiaochen Wang, Yue Wang
- TLDR: Wir schlagen eine Reihe von Methoden zur Entflechtung von Entitäten vor, die auf Satzebene auf die Bedeutung von Sätzen und Entitäten beruht.
- Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem
- Ryoma Sato
- TLDR: Wir schlagen WordTour vor, eine unüberwachte Methode zur Einbettung von Wörtern, die auf einer einzigen Dimension basiert.
- On the Diversity and Limits of Human Explanations
- Chenhao Tan
- TLDR: Wir stellen eine neue Methode zur Erklärung von Aufgaben vor, die von Menschen mit unterschiedlichen Verständnissen durchgeführt werden.
- Locally Aggregated Feature Attribution on Natural Language Model Understanding
- Sheng Zhang, Jin Wang, Haitao Jiang, Rui Song
- TLDR: Wir schlagen eine neuartige Gradientenbasierte Feature-Agent-Methode vor, die die Gradienten mit Referenzdaten verwischt.
- Generic and Trend-aware Curriculum Learning for Relation Extraction
- Nidhi Vakil, Hadi Amiri
- TLDR: Wir stellen einen Rahmen für das Lernen von Textgraphen vor, der die Texterzeugung zwischen Entitäten effektiv integriert.
- On Systematic Style Differences between Unsupervised and Supervised MT and an Application for High-Resource Machine Translation
- Kelly Marchisio, Markus Freitag, David Grangier
- TLDR: Wir vergleichen unbeaufsichtigte und überwachte Maschinen und messen die Unterschiede zwischen den Methoden.
- Evidentiality-guided Generation for Knowledge-Intensive NLP Tasks
- Akari Asai, Matt Gardner, Hannaneh Hajishirzi
- TLDR: Wir stellen eine Methode vor, die die Verwendung von Texten in die Generierung von Wissensdaten erweitert.
- Modularized Transfer Learning with Multiple Knowledge Graphs for Zero-shot Commonsense Reasoning
- Yu Jin Kim, Beong-woo Kwak, Youngwook Kim, Reinald Kim Amplayo, Seung-won Hwang, Jinyoung Yeo
- TLDR: Wir schlagen einen neuen Zero-Shot-Rahmen für das Lernen von allgemeinen Schlussfolgerungen vor und zeigen, dass er die Leistung bei mehreren KGs verbessert.
- Learning to Express in Knowledge-Grounded Conversation
- Xueliang Zhao, Tingchen Fu, Chongyang Tao, Wei Wu, Dongyan Zhao, Rui Yan
- TLDR: Wir stellen ein Segmentierungsbasiertes Dialogmodell vor, das die Struktur und die Inhaltsstilen der einzelnen Teilen erlernt und die Antwort mit einem neuen Wissensstil generiert.
- End-to-End Chinese Speaker Identification
- Dian Yu, Ben Zhou, Dong Yu
- TLDR: Wir stellen eine neue Ankündigungshandlung vor, die die spanische Identifizierung als eine spanische Auswahl von Texten betrachtet.
- MINION: a Large-Scale and Diverse Dataset for Multilingual Event Detection
- Amir Pouran Ben Veyseh, Minh Van Nguyen, Franck Dernoncourt, Thien Nguyen
- TLDR: Wir stellen einen großen Multilingual Dataset für die Erkennung von Ereignissen vor, der für 8 Sprachen annotiert.
- Do Prompt-Based Models Really Understand the Meaning of Their Prompts?
- Albert Webson, Ellie Pavlick
- TLDR: Wir haben 30 Prompts für NLI selbstständig zusammengestellt und analysiert, und wir stellen fest, dass sie die Leistung von Richtlinienmodellen verbessern.
- GPL: Generative Pseudo Labeling for Unsupervised Domain Adaptation of Dense Retrieval
- Kexin Wang, Nandan Thakur, Nils Reimers, Iryna Gurevych
- TLDR: Wir schlagen eine neuartige unüberwachte Domänenanpassung vor, die die Leistung von tiefen Retriever-Ansätzen erheblich verringert.
- Sparse Distillation: Speeding Up Text Classification by Using Bigger Student Models
- Qinyuan Ye, Madian Khabsa, Mike Lewis, Sinong Wang, Xiang Ren, Aaron Jaech
- TLDR: Wir stellen eine neue Methode vor, die die Inferenzzeit von Lehrermodellen reduziert und gleichzeitig die Leistung von Lehrermodellen erhöht.
- Towards Understanding Large-Scale Discourse Structures in Pre-Trained and Fine-Tuned Language Models
- Patrick Huber, Giuseppe Carenini
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Erfassung von Konversationen für Dokumente zu untersuchen, die sehr lange sind.
- SAIS: Supervising and Augmenting Intermediate Steps for Document-Level Relation Extraction
- Yuxin Xiao, Zecheng Zhang, Yuning Mao, Carl Yang, Jiawei Han
- TLDR: Wir schlagen eine neue Methode zur Erfassung von Beziehungen vor, die die Erkennung von relevanten Kontexten und Typen ermöglicht.
- LITE: Intent-based Task Representation Learning Using Weak Supervision
- Naoki Otani, Michael Gamon, Sujay Kumar Jauhar, Mei Yang, Sri Raghu Malireddi, Oriana Riva
- TLDR: Wir stellen ein neuronales Multi-Task-Lernen vor, das Repräsentationen von Aufgaben aus Texten extrahiert, die mit einer Aufmerksamkeitsmechanismus auf der Grundlage von Texten aus Texten unter Verwendung von Labels für die Erstellung von Aufgaben ersetzt werden.
- Does Summary Evaluation Survive Translation to Other Languages?
- Spencer Braun, Oleg Vasilyev, Neslihan Iskender, John Bohannon
- TLDR: Wir stellen die Evaluierung von Zusammenfassungen in Textdatensätzen vor und zeigen, dass die Verwendung von Textdatensätzen in zusätzlichen Sprachen die Qualität der Zusammenfassungen verbessert.
- A Shoulder to Cry on: Towards A Motivational Virtual Assistant for Assuaging Mental Agony
- Tulika Saha, Saichethan Reddy, Anindya Das, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: Wir entwickeln VAs, die die Probleme von Menschen mit mentalen Gesundheitsproblemen lösen können.
- SueNes: A Weakly Supervised Approach to Evaluating Single-Document Summarization via Negative Sampling
- Forrest Bao, Ge Luo, Hebi Li, Minghui Qiu, Yinfei Yang, Youbiao He, Cen Chen
- TLDR: Wir stellen eine proof-of-Concept-Studie vor, die eine weakly überwachte Schlussfolgerungsmediktik ohne die Verwendung von Referenzschriften erweist.
- Combating the Curse of Multilinguality in Cross-Lingual WSD by Aligning Sparse Contextualized Word Representations
- Gábor Berend
- TLDR: Wir schlagen eine Methode vor, die die Verwendung von Spärlichkeit in sprachenübergreifenden Sprachmodellen ermöglicht.
- Cheat Codes to Quantify Missing Source Information in Neural Machine Translation
- Proyag Pal, Kenneth Heafield
- TLDR: Wir schlagen eine Methode vor, die die Menge der Informationen quantifiziert.
- WiC = TSV = WSD: On the Equivalence of Three Semantic Tasks
- Bradley Hauer, Grzegorz Kondrak
- TLDR: Wir stellen eine neue Hypothese auf der Grundlage von Sprach- und Semantikverzerrungen vor, die die Gleichwertigkeit von Sprach- und Semantikproblemen erklären kann.
- What do tokens know about their characters and how do they know it?
- Ayush Kaushal, Kyle Mahowald
- TLDR: Wir proben, was Worteinbettungen über Zeichenebene kodieren, um die Erkennung von Abschriften zu erklären.
- AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer Summarization
- Alexander Fabbri, Xiaojian Wu, Srini Iyer, Haoran Li, Mona Diab
- TLDR: Wir stellen einen neuen Datensatz für Fragen zur Antwortsummutzerauswahl vor, der eine neue Aufgabe der Antwortsummutzerauswahl beinhaltet.
- Paragraph-based Transformer Pre-training for Multi-Sentence Inference
- Luca Di Liello, Siddhant Garg, Luca Soldaini, Alessandro Moschitti
- TLDR: Wir stellen eine neue Aufgabe vor, die die Semantik von Text-Paar-Modellen für die Erkennung von Beweisen nutzt.
- Text Style Transfer via Optimal Transport
- Nasim Nouri
- TLDR: Wir schlagen Optimal Transport vor, um Syntax und Semantik in die Ähnlichkeitsrechner zwischen den Quelltext und den Übertragungstext zu integrieren.
- Exploring the Role of Task Transferability in Large-Scale Multi-Task Learning
- Vishakh Padmakumar, Leonard Lausen, Miguel Ballesteros, Sheng Zha, He He, George Karypis
- TLDR: Wir untersuchen die Auswirkungen der Skalen- und Verallgemeinerung auf das Multitasking-Lernen und zeigen, dass die Anzahl der Aufgaben, die in einem Multitasking-Lernansatz gelernt werden, die Leistung bei einer großen Anzahl von Aufgaben erheblich verbessert.
- Interactive Query-Assisted Summarization via Deep Reinforcement Learning
- Ori Shapira, Ramakanth Pasunuru, Mohit Bansal, Ido Dagan, Yael Amsterdamer
- TLDR: Wir schlagen Deep Reinforcement Learning für die interaktive Zusammenfassung vor, die die Informationsengpässe von Benutzern berücksichtigt.
- Data Augmentation with Dual Training for Offensive Span Detection
- Nasim Nouri
- TLDR: Wir schlagen ein neuartiges Modell vor, das auf offene Sätze hinweist, wenn ein Textausschnitt nicht für die Erkennung von Verzerrungen geeignet ist.
- Training Mixed-Domain Translation Models via Federated Learning
- Peyman Passban, Tanya Roosta, Rahul Gupta, Ankit Chadha, Clement Chung
- TLDR: Wir stellen fest, dass FL und NMT gemeinsam die Sprachausbreitung verbessern können, wenn sie eine FL-basierte Inferenz verwenden.
- QAFactEval: Improved QA-Based Factual Consistency Evaluation for Summarization
- Alexander Fabbri, Chien-Sheng Wu, Wenhao Liu, Caiming Xiong
- TLDR: Wir stellen eine neue Metrik vor, die die FALTH-Bewertung verbessert und gleichzeitig die FALTH-Verhaltensverzerrung verbessert.
- How Gender Debiasing Affects Internal Model Representations, and Why It Matters
- Hadas Orgad, Seraphina Goldfarb-Tarrant, Yonatan Belinkov
- TLDR: Wir stellen eine neue Methode zur Abwehr von Extrinsischer und intrinsischer Verzerrung vor, die auf der Verzerrung von Geschlechtsidentitäten basiert.
- A Structured Span Selector
- Tianyu Liu, Yuchen Jiang, Ryan Cotterell, Mrinmaya Sachan
- TLDR: Wir schlagen ein grammarbasiertes spannesches Modell vor, das lernt, die spanne auf spann-Ebene zu verwenden.
- Unified Semantic Typing with Meaningful Label Inference
- James Y. Huang, Bangzheng Li, Jiashu Xu, Muhao Chen
- TLDR: Wir stellen eine neuartige Methode zur semantischen Typierung vor, die Labels und Eingabebeschriftungen in einen gemeinsamen Einbettungsraum umwandelt.
- Learning To Retrieve Prompts for In-Context Learning
- Ohad Rubin, Jonathan Herzig, Jonathan Berant
- TLDR: Wir schlagen eine effiziente Methode vor, die Trainingsbeispiele als Prüfungen für das In-Context Learning ersetzt.
- Necessity and Sufficiency for Explaining Text Classifiers: A Case Study in Hate Speech Detection
- Esma Balkir, Isar Nejadgholi, Kathleen Fraser, Svetlana Kiritchenko
- TLDR: Wir stellen eine neuartige Methode zur Erklärung von Textklassifikatoren vor, und analysieren sie im Kontext der Bekämpfung von gegnerischen Verwundschwörungen.
- Learning to Retrieve Passages without Supervision
- Ori Ram, Gal Shachaf, Omer Levy, Jonathan Berant, Amir Globerson
- TLDR: Wir stellen ein neuartiges Vortrainingsschema vor, das die Verzerrung von Texten in Dokumenten für das Erlernen von Pseudo-Ergebungen nutzt.
- Re2G: Retrieve, Rerank, Generate
- Michael Glass, Gaetano Rossiello, Md Faisal Mahbub Chowdhury, Ankita Naik, Pengshan Cai, Alfio Gliozzo
- TLDR: Wir stellen eine neuartige Methode vor, die die Wissensdestillation nutzt, um die initiale Re-Initialisierung, die Reranking und die Generierung von Wissen zu kombinieren.
- Don’t sweat the small stuff, classify the rest: Sample Shielding to protect text classifiers against adversarial attacks
- Jonathan Rusert, Padmini Srinivasan
- TLDR: Wir schlagen eine neuartige und intuitive Verteidigungsstrategie vor, die auf Textklassifikationen angewendet werden kann.
- Federated Learning with Noisy User Feedback
- Rahul Sharma, Anil Ramakrishna, Ansel MacLaughlin, Anna Rumshisky, Jimit Majmudar, Clement Chung, Salman Avestimehr, Rahul Gupta
- TLDR: Wir schlagen eine Methode vor, um negative und negative Nutzerfeedbacks zu nutzen, um effizient maschinelles Lernen zu fördern.
- Gender Bias in Masked Language Models for Multiple Languages
- Masahiro Kaneko, Aizhan Imankulova, Danushka Bollegala, Naoaki Okazaki
- TLDR: Wir schlagen eine Multilingual Bias Evaluation (MBE) Score-Methode vor, um die Verzerrung von Geschlechtsidentitäten in Sprachmodellen zu bewerten.
- Multi-Domain Targeted Sentiment Analysis
- Orith Toledo-Ronen, Matan Orbach, Yoav Katz, Noam Slonim
- TLDR: Wir stellen eine Multi-Domain-Methode vor, die auf der Bewertungsauswertung von Amazon basiert und die Vielfalt der Bewertungsbewertungen auf mehreren Domänen effektiv nutzt.
- Falsesum: Generating Document-level NLI Examples for Recognizing Factual Inconsistency in Summarization
- Prasetya Utama, Joshua Bambrick, Nafise Moosavi, Iryna Gurevych
- TLDR: Wir stellen Falsesum vor, eine Datenerzeugungs-Pipeline, die eine menschlichen Ankündigung verwendet, um Fälschungen in der Zusammenfassung zu erkennen.
- Dynamic Gazetteer Integration in Multilingual Models for Cross-Lingual and Cross-Domain Named Entity Recognition
- Besnik Fetahu, Anjie Fang, Oleg Rokhlenko, Shervin Malmasi
- TLDR: Wir schlagen einen neuen Ansatz vor, der die Entitätsinformationen von Gaußschern in die Entitätserkennung integriert.
- MetaICL: Learning to Learn In Context
- Sewon Min, Mike Lewis, Luke Zettlemoyer, Hannaneh Hajishirzi
- TLDR: Wir stellen MetaICL vor, ein Meta-Trainingsrahmen für das Lernen von Kontext-Lernen, das auf einer großen Anzahl von Trainingsaufgaben trainiert wird.
- Enhancing Knowledge Selection for Grounded Dialogues via Document Semantic Graphs
- Sha Li, Mahdi Namazifar, Di Jin, Mohit Bansal, Heng Ji, Yang Liu, Dilek Hakkani-Tur
- TLDR: Wir schlagen eine automatische Methode vor, um Dokumente in semantische Graphen zu verwandeln und dann die Wissensauswahl über solche Graphen zu erlernen.
- Using Natural Sentence Prompts for Understanding Biases in Language Models
- Sarah Alnegheimish, Alicia Guo, Yi Sun
- TLDR: Wir stellen eine Methode vor, um die Verwendung von Text-Prompts bei der Untersuchung von Geschlechtsausübungen zu untersuchen.
- Robust Conversational Agents against Imperceptible Toxicity Triggers
- Ninareh Mehrabi, Ahmad Beirami, Fred Morstatter, Aram Galstyan
- TLDR: Wir schlagen Angriffe auf die Sprachausbreitung vor, die nicht auf Gegenbeispiele ableiten, und schlagen einen Gegenwehrmechanismus vor, der die Sprachausbreitung verhindert.
- Selective Differential Privacy for Language Modeling
- Weiyan Shi, Aiqi Cui, Evan Li, Ruoxi Jia, Zhou Yu
- TLDR: Wir schlagen eine neue Privacy-Framework vor, die die Privatsphäre von RNN-Sprachmodellen verbessert und gleichzeitig die Sicherheit bei verschiedenen Datenschutzangriffen verbessert.
- Do Trajectories Encode Verb Meaning?
- Dylan Ebert, Chen Sun, Ellie Pavlick
- TLDR: Wir untersuchen, inwieweit trajectory-Modelle verbäuliche Bedeutungen kodieren, und zeigen, dass die trajectory-Modelle als solche mit den meisten verblichen korrelieren.
- Long Context Question Answering via Supervised Contrastive Learning
- Avi Caciularu, Ido Dagan, Jacob Goldberger, Arman Cohan
- TLDR: Wir schlagen eine neue Methode vor, um die Suche nach den Unterstützungsbelegen für die Beantwortung von Fragen zu erleichtern.
- The USMLE® Step 2 Clinical Skills Patient Note Corpus
- Victoria Yaneva, Janet Mee, Le Ha, Polina Harik, Michael Jodoin, Alex Mechaber
- TLDR: Wir stellen eine Sammlung von 43,985 klinischen Patientenbeschriftungen (PNs) vor, die von 35,156 Experten während der USMLE® Step 2 Clinical Skills-Examenz gesammelt wurden.
- Learning to Borrow– Relation Representation for Without-Mention Entity-Pairs for Knowledge Graph Completion
- Huda Hakami, Mona Hakami, Angrosh Mandya, Danushka Bollegala
- TLDR: Wir schlagen eine Methode vor, die die Konsistenz von Texten in Texten corporatisiert und die Konsistenz von Wissensgraphen verbessert.
- Improving Entity Disambiguation by Reasoning over a Knowledge Base
- Tom Ayoola, Joseph Fisher, Andrea Pierleoni
- TLDR: Wir stellen ein neues Modell vor, das Entitäten durch Wahrnehmung in einer symbolischen Wissensbasis verbindet.
- Modal Dependency Parsing via Language Model Priming
- Jiarui Yao, Nianwen Xue, Bonan Min
- TLDR: Wir schlagen einen Parser vor, der auf der Entflechtung von Texten basiert, und zeigen, dass er auf die erste Aufgabe in Bezug auf die Sprachausgangssprache verbessert.
- Document-Level Relation Extraction with Sentences Importance Estimation and Focusing
- Wang Xu, Kehai Chen, Lili Mou, Tiejun Zhao
- TLDR: Wir schlagen einen Rahmen für die Dokumentenverschiebung vor, der die Beziehung zwischen zwei Entitäten aus einem Dokument von mehreren Sätzen ermitteln kann.
- Are All the Datasets in Benchmark Necessary? A Pilot Study of Dataset Evaluation for Text Classification
- Yang Xiao, Jinlan Fu, See-Kiong Ng, Pengfei Liu
- TLDR: Wir stellen eine Hypothese auf, ob alle Datensätze im Benchmark erforderlich sind und wenn nicht, dann sind sie nicht erforderlich.
- Triggerless Backdoor Attack for NLP Tasks with Clean Labels
- Leilei Gan, Jiwei Li, Tianwei Zhang, Xiaoya Li, Yuxian Meng, Fei Wu, Yi Yang, Shangwei Guo, Chun Fan
- TLDR: Wir schlagen eine neue Methode vor, um Texterzeugungen zu verwenden, die nicht auf externe Einflüsse zurückgreifen.
- PPL-MCTS: Constrained Textual Generation Through Discriminator-Guided MCTS Decoding
- Antoine Chaffin, Vincent Claveau, Ewa Kijak
- TLDR: Wir stellen eine Methode vor, die die Monte Carlo Tree Search (MCTS) nutzt, um eine Generation von Bildern zu extrahieren, die nicht-toxic sind, aber auch eine bestimmte Stimmung erzeugen.
- Interpretable Proof Generation via Iterative Backward Reasoning
- Hanhao Qu, Yu Cao, Jun Gao, Liang Ding, Ruifeng Xu
- TLDR: Wir stellen IBR vor, ein Iterative Backward Reasoning Modell, das die Beantwortung von Richtlinien auf rule-based Question Answering (QA) lösen kann.
- Domain Confused Contrastive Learning for Unsupervised Domain Adaptation
- Quanyu Long, Tianze Luo, Wenya Wang, Sinno Pan
- TLDR: Wir schlagen Domain Confused Contrastive Learning (DCCL) vor, das die Domain-Dynamik und die Ziel-Dynamik in einer Domain kombiniert, und die Rekonstruktionen für die Aufgabe der Diskriminierung wiederherstellen kann.
- Incorporating Centering Theory into Neural Coreference Resolution
- Haixia Chai, Michael Strube
- TLDR: Wir schlagen eine neue Methode vor, die die Aufmerksamkeit auf die Konsistenz von Texten und die Konsistenz von Phrasen in Texten verbessert.
- Progressive Class Semantic Matching for Semi-supervised Text Classification
- Haiming Xu, Lingqiao Liu, Ehsan Abbasnejad
- TLDR: Wir schlagen einen gemeinsamen halbüberwachten Lernprozess vor, der auf Themen-Matching basiert.
- Low Resource Style Transfer via Domain Adaptive Meta Learning
- Xiangyang Li, Xiang Long, Yu Xia, Sujian Li
- TLDR: Wir schlagen ein neues unbeaufsichtigtes Meta-Lernen mit Adversariale Transfer Model vor, das auf unbeaufsichtigten Textstiltransfers mit geringen Datensätzen anwendbar ist.
- Features or Spurious Artifacts? Data-centric Baselines for Fair and Robust Hate Speech Detection
- Alan Ramponi, Sara Tonelli
- TLDR: Wir analysieren lexikalische Verzerrungen bei der Erkennung von gegnerischen und nicht-gegnerischen Verzerrungen und schlagen eine neue Methode vor, die auf Datensätzen mit verrauschten und unverdächtigem Sprachstil basiert.
- Document-Level Event Argument Extraction by Leveraging Redundant Information and Closed Boundary Loss
- Hanzhang Zhou, Kezhi Mao
- TLDR: Wir schlagen eine neue Verlustfunktion vor, um Klassifikatoren mit geschlossenen Grenzen zu schaffen.
- A Few Thousand Translations Go a Long Way! Leveraging Pre-trained Models for African News Translation
- David Adelani, Jesujoba Alabi, Angela Fan, Julia Kreutzer, Xiaoyu Shen, Machel Reid, Dana Ruiter, Dietrich Klakow, Peter Nabende, Ernie Chang, Tajuddeen Gwadabe, Freshia Sackey, Bonaventure F. P. Dossou, Chris Emezue, Colin Leong, Michael Beukman, Shamsuddeen Muhammad, Guyo Jarso, Oreen Yousuf, Andre Niyongabo Rubungo, Gilles Hacheme, Eric Peter Wairagala, Muhammad Umair Nasir, Benjamin Ajibade, Tunde Ajayi, Yvonne Gitau, Jade Abbott, Mohamed Ahmed, Millicent Ochieng, Anuoluwapo Aremu, Perez Ogayo, Jonathan Mukiibi, Fatoumata Ouoba Kabore, Godson Kalipe, Derguene Mbaye, Allahsera Auguste Tapo, Victoire Memdjokam Koagne, Edwin Munkoh-Buabeng, Valencia Wagner, Idris Abdulmumin, Ayodele Awokoya, Happy Buzaaba, Blessing Sibanda, Andiswa Bukula, Sam Manthalu
- TLDR: Wir stellen fest, dass die Verwendung von Sprachmodellen zur Generierung von Sprachmodellen für die Erstellung von Sprachmodellen für die Sprachauswahl von Sprachmodellen mit geringer Qualität entscheidend ist.
- Should We Rely on Entity Mentions for Relation Extraction? Debiasing Relation Extraction with Counterfactual Analysis
- Yiwei Wang, Muhao Chen, Wenxuan Zhou, Yujun Cai, Yuxuan Liang, Dayiheng Liu, Baosong Yang, Juncheng Liu, Bryan Hooi
- TLDR: Wir schlagen eine CoRE-Methode vor, die die Entitätsverzerrung in der Relationsextraktion (RE) minimiert und gleichzeitig die Entitätsverzerrung in bestehenden RE-Systemen debias.
- Analyzing Encoded Concepts in Transformer Language Models
- Hassan Sajjad, Nadir Durrani, Fahim Dalvi, Firoj Alam, Abdul Khan, Jia Xu
- TLDR: Wir schlagen ConceptX vor, eine Methode zur Analyse von latenten Konzepten in Repräsentationen, die von vortrainierten Sprachmodellen erlernt wurden.
- Boosted Dense Retriever
- Patrick Lewis, Barlas Oguz, Wenhan Xiong, Fabio Petroni, Scott Yih, Sebastian Riedel
- TLDR: Wir schlagen einen neuen Algorithmus vor, der den Standards von densechten Retriever-Modellen entspricht und die Leistung bei der Suche erheblich reduzieren kann.
- MuCGEC: a Multi-Reference Multi-Source Evaluation Dataset for Chinese Grammatical Error Correction
- Yue Zhang, Zhenghua Li, Zuyi Bao, Jiacheng Li, Bo Zhang, Chen Li, Fei Huang, Min Zhang
- TLDR: Wir stellen MuCGEC vor, einen Multi-Reference-Evaluierungsdatensatz für die Grammatikkorrektion, der 7,063 Sätze gesammelt hat.
- NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias
- Nayeon Lee, Yejin Bang, Tiezheng Yu, Andrea Madotto, Pascale Fung
- TLDR: Wir schlagen NeuS-Title vor, ein neuartiges Multi-Task-Lernen, das die Verzerrung von Nachrichten in hierarchischer Ordnung aus Titel zu Artikel eliminiert.
- Enhance Incomplete Utterance Restoration by Joint Learning Token Extraction and Text Generation
- Shumpei Inoue, Tsungwei Liu, Son Nguyen, Minh-Tien Nguyen
- TLDR: Wir stellen ein Modell für die Entflechtungsrekonstruktion vor, das auf der Entflechtungs- und Abstraktionserkennung trainiert wird.
- Efficient Constituency Tree based Encoding for Natural Language to Bash Translation
- Shikhar Bharadwaj, Shirish Shevade
- TLDR: Wir stellen eine Segmented Invocation Transformer (SIT) vor, die die Information aus der constitutiven Parse Tree der natürlichen Sprache nutzt.
- Privacy-Preserving Text Classification on BERT Embeddings with Homomorphic Encryption
- Garam Lee, Minsoo Kim, Jai Hyun Park, Seung-won Hwang, Jung Hee Cheon
- TLDR: Wir schlagen eine homomorphe Encoder-Architektur vor, die die Privatsphäre von Textbeschriftungen verringert und gleichzeitig ihre Verwendung für Textklassifikationsaufgaben auf der Grundlage von BERT aufzeigt.
- ITA: Image-Text Alignments for Multi-Modal Named Entity Recognition
- Xinyu Wang, Min Gui, Yong Jiang, Zixia Jia, Nguyen Bach, Tao Wang, Zhongqiang Huang, Kewei Tu
- TLDR: Wir schlagen eine Aufmerksamkeitsmechanismus-Architektur vor, um die Interaktionen zwischen Bild- und Textrepräsentationen zu modellieren.
- A Dataset for N-ary Relation Extraction of Drug Combinations
- Aryeh Tiktinsky, Vijay Viswanathan, Danna Niezni, Dana Meron Azagury, Yosi Shamay, Hillel Taub-Tabib, Tom Hope, Yoav Goldberg
- TLDR: Wir stellen einen Experten-annotierten Datensatz für die Erfassung und Bewertung von Kombinationstherapien vor, der die Effizienz von Kombinationstherapien aus der Literatur ermitteln kann.
- Curriculum: A Broad-Coverage Benchmark for Linguistic Phenomena in Natural Language Understanding
- Zeming Chen, Qiyue Gao
- TLDR: Wir stellen Curriculum vor, einen neuen Rahmen für die Bewertung von Sprachmodellen, die sprachenspezifische Sprachkenntnisse aufweisen.
- Neural Language Taskonomy: Which NLP Tasks are the most Predictive of fMRI Brain Activity?
- Subba Reddy Oota, Jashn Arora, Veeral Agarwal, Mounika Marreddy, Manish Gupta, Bapi Surampudi
- TLDR: Wir stellen Ten bekannte Transformer-Aufgaben vor, die für die Spracherkennung und -auswertung von Texten verwendet werden.
- FactGraph: Evaluating Factuality in Summarization with Semantic Graph Representations
- Leonardo Ribeiro, Mengwen Liu, Iryna Gurevych, Markus Dreyer, Mohit Bansal
- TLDR: Wir schlagen eine Methode vor, die die Dokumente und die Zusammenfassung in strukturiertere Wahrnehmungsrepräsentationen (MR) umwandelt, die für die Bewertung von Ableitungsfehlern geeignet sind.
- Unsupervised Paraphrasability Prediction for Compound Nominalizations
- John Sie Yuen Lee, Ho Hung Lim, Carol Carol Webster
- TLDR: Wir stellen eine Methode vor, die die Paraphrasierung von Bezeichnungen aus rekurrenten Paraphrasen und Paraphrase-Genauigkeiten ermöglicht.
- Global Entity Disambiguation with BERT
- Ikuya Yamada, Koki Washio, Hiroyuki Shindo, Yuji Matsumoto
- TLDR: Wir schlagen ein BERT-Modell vor, das globale Entitäten in Textform abbildet.
- Clues Before Answers: Generation-Enhanced Multiple-Choice QA
- Zixian Huang, Ao Wu, Jiaying Zhou, Yu Gu, Yue Zhao, Gong Cheng
- TLDR: Wir schlagen ein generatives Decoder-Modell vor, das die Klassifizierungsfähigkeiten eines MCQA-Modells nutzt.
- Towards Efficient NLP: A Standard Evaluation and A Strong Baseline
- Xiangyang Liu, Tianxiang Sun, Junliang He, Jiawen Wu, Lingling Wu, Xinyu Zhang, Hao Jiang, Zhao Cao, Xuanjing Huang, Xipeng Qiu
- TLDR: Wir stellen ELUE vor, eine Standard-Evaluierung und ein Spitzenergebnis für effiziente NLP-Modelle.
- Stylized Knowledge-Grounded Dialogue Generation via Disentangled Template Rewriting
- Qingfeng Sun, Can Xu, Huang Hu, Yujing Wang, Jian Miao, Xiubo Geng, Yining Chen, Fei Xu, Daxin Jiang
- TLDR: Wir schlagen eine neue Methode zur Texterzeugung vor, die die Entflechtung von Texten und Inhaltsaufgaben kombiniert, um eine stylisierte Dialoggenerierung zu erzeugen.
- LUNA: Learning Slot-Turn Alignment for Dialogue State Tracking
- Yifan Wang, Jing Zhao, Junwei Bao, Chaoqun Duan, Youzheng Wu, Xiaodong He
- TLDR: Wir schlagen einen neuen Ansatz vor, um das Problem der Dialogue-State-Tracking-Probleme zu lösen.
- Crossroads, Buildings and Neighborhoods: A Dataset for Fine-grained Location Recognition
- Pei Chen, Haotian Xu, Cheng Zhang, Ruihong Huang
- TLDR: Wir stellen HarveyNER vor, einen Datensatz, der sich auf Twitter-Twetter aneignet und schwierige Standortbeschreibungen erkennt.
- Tricks for Training Sparse Translation Models
- Dheeru Dua, Shruti Bhosale, Vedanuj Goswami, James Cross, Mike Lewis, Angela Fan
- TLDR: Wir stellen eine neue Methode zur Bekämpfung von Multitasking-Problemen vor, die den Stand der Technik übertrifft und die Leistung bei mehreren Sprachbeschriftungen verbessert.
- Persona-Guided Planning for Controlling the Protagonist’s Persona in Story Generation
- Zhexin Zhang, Jiaxin Wen, Jian Guan, Minlie Huang
- TLDR: Wir schlagen ein Planungsbasiertes Modell vor, das die Beziehung zwischen Personen und Ereignissen modelliert.
- CHEF: A Pilot Chinese Dataset for Evidence-Based Fact-Checking
- Xuming Hu, Zhijiang Guo, GuanYu Wu, Aiwei Liu, Lijie Wen, Philip Yu
- TLDR: Wir stellen CHEF vor, einen ersten CHinese Evidence-based Fact-Checking Datensatz von 10K real-world claims.
- VGNMN: Video-grounded Neural Module Networks for Video-Grounded Dialogue Systems
- Hung Le, Nancy Chen, Steven Hoi
- TLDR: Wir stellen Video-Glätted Neural Module Network (VGNMN) vor, um die Informationerfassung in Video-Glätted Dialog-Aufgaben als eine pipeline von neuronalen Modulen zu modellieren.
- Multimodal Dialogue State Tracking
- Hung Le, Nancy Chen, Steven Hoi
- TLDR: Wir stellen eine neue Aufgabe vor, die die Information von visuellen Objekten, die in Video-Zusammenfassungen genannt werden, in den Dialogen erfasst.
- On the Use of Bert for Automated Essay Scoring: Joint Learning of Multi-Scale Essay Representation
- Yongjie Wang, Chuang Wang, Ruobing Li, Hui Lin
- TLDR: Wir stellen eine neue Textrepräsentation vor, die von mehreren BERT-Modellen gemeinsam genutzt werden kann.
- Recognition of They/Them as Singular Personal Pronouns in Coreference Resolution
- Connor Baumler, Rachel Rudinger
- TLDR: Wir stellen einen neuen Benchmark für Coreference-Resolutionssysteme vor, der die singulare Person als Person erkennt.
- TWEETSPIN: Fine-grained Propaganda Detection in Social Media Using Multi-View Representations
- Prashanth Vijayaraghavan, Soroush Vosoughi
- TLDR: Wir schlagen einen neuronalen Ansatz vor, um die Erkennung und Klassifizierung von Verzerrungen bei der Erkennung von Verzerrungen auf Twitter zu verbessern.
- UserIdentifier: Implicit User Representations for Simple and Effective Personalized Sentiment Analysis
- Fatemehsadat Mireshghallah, Vaishnavi Shrivastava, Milad Shokouhi, Taylor Berg-Kirkpatrick, Robert Sim, Dimitrios Dimitriadis
- TLDR: Wir schlagen UserIdentifier vor, eine neuartige Methode zur Personalisierung von Benutzeridentifikationsdatensätzen, die auf wenigen Aufnahmen und Meta-Lernen basiert.
- Improving Neural Models for Radiology Report Retrieval with Lexicon-based Automated Annotation
- Luyao Shi, Tanveer Syeda-mahmood, Tyler Baldwin
- TLDR: Wir verwenden lexikon-basierte Konzepterkennung, um Merkmalszuweisungen in Satzbeschriftungen zu ermitteln.
- Transparent Human Evaluation for Image Captioning
- Jungo Kasai, Keisuke Sakaguchi, Lavinia Dunagan, Jacob Morrison, Ronan Le Bras, Yejin Choi, Noah Smith
- TLDR: Wir stellen einen Rahmen vor, der auf einer Aufgabe basiert, die auf der Bildbeschriftung basiert und die Bewertung von Bildern und deren automatischen Metriken ermöglicht.
- Lifting the Curse of Multilinguality by Pre-training Modular Transformers
- Jonas Pfeiffer, Naman Goyal, Xi Lin, Xian Li, James Cross, Sebastian Riedel, Mikel Artetxe
- TLDR: Wir stellen sprachspezifische Modulare vor, die die Leistung von Multilingualen Modellen verbessern.
- DocAMR: Multi-Sentence AMR Representation and Evaluation
- Tahira Naseem, Austin Blodgett, Sadhana Kumaravel, Tim O’Gorman, Young-Suk Lee, Jeffrey Flanigan, Ramón Astudillo, Radu Florian, Salim Roukos, Nathan Schneider
- TLDR: Wir stellen einen Algorithmus vor, der die uneinheitliche Darstellung von Dokumenten in einer abstrakten Darstellung ersetzt.
- Learning to Transfer Prompts for Text Generation
- Junyi Li, Tianyi Tang, Jian-Yun Nie, Ji-Rong Wen, Xin Zhao
- TLDR: Wir schlagen eine neuartige PPO-basierte Methode vor, die Texterzeugung in einer Transfer-Umgebung ermöglicht.
- ElitePLM: An Empirical Study on General Language Ability Evaluation of Pretrained Language Models
- Junyi Li, Tianyi Tang, Zheng Gong, Lixin Yang, Zhuohao Yu, Zhipeng Chen, Jingyuan Wang, Xin Zhao, Ji-Rong Wen
- TLDR: Wir stellen eine empirische Studie zur Sprachauswertung von PLMs vor, die die Sprachfähigkeiten von PLMs erfasst.
- Bidimensional Leaderboards: Generate and Evaluate Language Hand in Hand
- Jungo Kasai, Keisuke Sakaguchi, Ronan Le Bras, Lavinia Dunagan, Jacob Morrison, Alexander Fabbri, Yejin Choi, Noah Smith
- TLDR: Wir schlagen eine neue Methode vor, um die Bewertung von Sprachmodellen und Metriken gleichzeitig zu verfolgen.
- Improving In-Context Few-Shot Learning via Self-Supervised Training
- Mingda Chen, Jingfei Du, Ramakanth Pasunuru, Todor Mihaylov, Srini Iyer, Veselin Stoyanov, Zornitsa Kozareva
- TLDR: Wir schlagen eine Methode vor, die sich auf die Selbstüberwachung von Modellen anwenden lässt, um in-Kontext-Few-Shot Learning zu ermöglichen.
- Exposing the Limits of Video-Text Models through Contrast Sets
- Jae Sung Park, Sheng Shen, Ali Farhadi, Trevor Darrell, Yejin Choi, Anna Rohrbach
- TLDR: Wir schlagen einen Rahmen vor, der negative Videotextmodelle probewirkt, indem wir kontrastive Sets erlernen, die die Semantik von Texten verändern, während die plausiblen Eigenschaften der Texten erhalten.
- Zero-shot Sonnet Generation with Discourse-level Planning and Aesthetics Features
- Yufei Tian, Nanyun Peng
- TLDR: Wir stellen einen Rahmen vor, der ohne das Erlernen von Gedichten, sondern ohne das Erlernen von Gedichten, die Verwendung von Bildern und Ähnlichkeiten ermöglicht, um Gedichte zu erzeugen.
- Benchmarking Intersectional Biases in NLP
- John Lalor, Yi Yang, Kendall Smith, Nicole Forsgren, Ahmed Abbasi
- TLDR: Wir vergleichen und bewerten die Fairness von biased/debiased Modellen auf der Grundlage von Geschlechts- und Altersmerkmalen.
- When is BERT Multilingual? Isolating Crucial Ingredients for Cross-lingual Transfer
- Ameet Deshpande, Partha Talukdar, Karthik Narasimhan
- TLDR: Wir analysieren und bewerten Spracheigenschaften, um Sprachverschiebungen zwischen mehreren Sprachen zu erklären.
- How Conservative are Language Models? Adapting to the Introduction of Gender-Neutral Pronouns
- Stephanie Brandl, Ruixiang Cui, Anders Søgaard
- TLDR: Wir zeigen, dass gender-neutrale Spärlichkeiten in Sprachmodellen für die menschliche Verarbeitung nicht begünstigt sind.
- Prompt Waywardness: The Curious Case of Discretized Interpretation of Continuous Prompts
- Daniel Khashabi, Xinxi Lyu, Sewon Min, Lianhui Qin, Kyle Richardson, Sean Welleck, Hannaneh Hajishirzi, Tushar Khot, Ashish Sabharwal, Sameer Singh, Yejin Choi
- TLDR: Wir stellen fest, dass sich die Aufgabe, die durch kontinuierliche Prüfungen erledigt, in der Umgebung von Texten verallgemeinert.
- Contrastive Representation Learning for Cross-Document Coreference Resolution of Events and Entities
- Benjamin Hsu, Graham Horwood
- TLDR: Wir stellen einen Ansatz zur Entitäts- und Ereigniscoreference-Resolution vor, der kontrastive Repräsentationen nutzt.
- Learning the Ordering of Coordinate Compounds and Elaborate Expressions in Hmong, Lahu, and Chinese
- Chenxuan Cui, Katherine Zhang, David Mortensen
- TLDR: Wir zeigen, dass sprachliche Hierarchien in Hmong, Lahu und Chinesen auf der Grundlage von Phonosyntax gelernt werden können.
- FRUIT: Faithfully Reflecting Updated Information in Text
- Robert Iv, Alexandre Passos, Sameer Singh, Ming-Wei Chang
- TLDR: Wir stellen eine neue Aufgabe vor, die die FRUIT-WIKI-Datensätzen nutzt, um Artikel zu aktualisieren, die von externen Quellen stammen.
- Multi2WOZ: A Robust Multilingual Dataset and Conversational Pretraining for Task-Oriented Dialog
- Chia-Chien Hung, Anne Lauscher, Ivan Vulić, Simone Ponzetto, Goran Glavaš
- TLDR: Wir stellen Multi2WOZ vor, einen neuen Sprachdatensatz für Multi-Domain-Kommunikationsaufgaben, der aus dem wellenestablished English-Datesatz MultiWOZ ersetzt wird.
- ChapterBreak: A Challenge Dataset for Long-Range Language Models
- Simeng Sun, Katherine Thai, Mohit Iyyer
- TLDR: Wir stellen ChapterBreak vor, einen Datensatz, der eine LRLM mit einem kurzen Segment aus einer Handlung abgeleitet und die Schlussfolgerungen einer neuen Kapitelinstanz erfasst.
- ColBERTv2: Effective and Efficient Retrieval via Lightweight Late Interaction
- Keshav Santhanam, Omar Khattab, Jon Saad-Falcon, Christopher Potts, Matei Zaharia
- TLDR: Wir stellen ColBERTv2 vor, einen Retriever, der aggressive Residual-Kompressionsmechanismen mit einer denoischten Überwachung kombiniert, um die Qualität und den Raumbedarf von late Interaktionsmodellen zu verbessern.
- Quantifying Language Variation Acoustically with Few Resources
- Martijn Bartelds, Martijn Wieling
- TLDR: Wir analysieren, ob tiefe akustische Modelle die Sprachverschiebungen von Sprachfamilien unterscheiden.
- Adaptable Adapters
- Nafise Moosavi, Quentin Delfosse, Kristian Kersting, Iryna Gurevych
- TLDR: Wir stellen adaptive Adapter vor, die auf die Nutzung von Aktivierungsfunktionen und Daten mit unterschiedlichen Eingabedaten trainieren.
- Models in the Loop: Aiding Crowdworkers with Generative Annotation Assistants
- Max Bartolo, Tristan Thrush, Sebastian Riedel, Pontus Stenetorp, Robin Jia, Douwe Kiela
- TLDR: Wir stellen Generative Annotation Assistants (GAAs) vor, Generator-in-the-Loop-Modelle, die real-time Vorschläge für Annotationsassistenten erbringen, die Modelle entweder approve, Modify, oder reject vollständig.
- GMN: Generative Multi-modal Network for Practical Document Information Extraction
- Haoyu Cao, Jiefeng Ma, Antai Guo, Yiqing Hu, Hao Liu, Deqiang Jiang, Yinsong Liu, Bo Ren
- TLDR: Wir schlagen eine neue Methode zur Informationserfassung vor, die auf der Suche nach Dokumenten mit verrauschten OCR-Ergebungen und zufälligen Ankündigungen anwendbar ist.
- One Reference Is Not Enough: Diverse Distillation with Reference Selection for Non-Autoregressive Translation
- Chenze Shao, Xuanfu Wu, Yang Feng
- TLDR: Wir schlagen eine Methode vor, die SeedDiv für eine Datensatzstruktur mit mehreren hochwertigen Referenz-Übersetzungen für jede Quellensatz verwendet.
- Can Rationalization Improve Robustness?
- Howard Chen, Jacqueline He, Karthik Narasimhan, Danqi Chen
- TLDR: Wir analysieren die Interplay zwischen Interpretabilität und Robustheit beim NLP-Rahmen für die Erkennung von Text, der als Erklärung für die Modellvorhersagen dienen kann.
- On the Effectiveness of Sentence Encoding for Intent Detection Meta-Learning
- Tingting Ma, Qianhui Wu, Zhiwei Yu, Tiejun Zhao, Chin-Yew Lin
- TLDR: Wir stellen fest, dass gute Satzrepräsentationen ohne Fine-Tuning für die Erkennung von Zielen mit wenigen Aufnahmen geeignet sind.
- A Computational Acquisition Model for Multimodal Word Categorization
- Uri Berger, Gabriel Stanovsky, Omri Abend, Lea Frermann
- TLDR: Wir stellen ein kognitives, multimodales Lernenmodell vor, das auf Bildern von Bildbeschriftungen trainiert wurde, und zeigen, dass es Wortklassifikationen und Objekterkennungsfähigkeiten erlernt.
- Residue-Based Natural Language Adversarial Attack Detection
- Vyas Raina, Mark Gales
- TLDR: Wir schlagen einen auf Residue-basierten Detektor vor, um adversarische Beispiele aus Einbettungen von Textmerkmalen zu identifizieren.
- Does it Really Generalize Well on Unseen Data? Systematic Evaluation of Relational Triple Extraction Methods
- Juhyuk Lee, Min-Joong Lee, June Yong Yang, Eunho Yang
- TLDR: Wir stellen eine einfache und effektive Erweiterungstechnik vor, die die Generalisierungsleistung von bestehenden Modellen verbessert.
- From spoken dialogue to formal summary: An utterance rewriting for dialogue summarization
- Yue Fang, Hainan Zhang, Hongshen Chen, Zhuoye Ding, Bo Long, Yanyan Lan, Yanquan Zhou
- TLDR: Wir schlagen ein neues Modell vor, das ReWriteSum verwendet, um das Problem der Personalisierung und des Korrespondenzstils bei der Dialogauskopplung zu lösen.
- EASE: Entity-Aware Contrastive Learning of Sentence Embedding
- Sosuke Nishikawa, Ryokan Ri, Ikuya Yamada, Yoshimasa Tsuruoka, Isao Echizen
- TLDR: Wir stellen EASE vor, eine neuartige Methode zum Erlernen von Satzeinbettungen, die sich auf die Semantik von Texten und deren Entitäten übertragen lässt.
- Is Neural Topic Modelling Better than Clustering? An Empirical Study on Clustering with Contextual Embeddings for Topics
- Zihan Zhang, Meng Fang, Ling Chen, Mohammad Reza Namazi Rad
- TLDR: Wir stellen fest, dass die Verwendung von BERT-Einbettungen in neuronale Themenmodelle (NTMs) die Themenkomplexität erhöht und gleichzeitig eine bessere Erkennung von Themen ermöglicht.
- Dynamic Multistep Reasoning based on Video Scene Graph for Video Question Answering
- Jianguo Mao, Wenbin Jiang, Xiangdong Wang, Zhifan Feng, Yajuan Lyu, Hong Liu, Yong Zhu
- TLDR: Wir schlagen ein neues Modell vor, das dynamisch Multi-Step-Bewältigung zwischen Fragen und Videos durchführt.
- TRUE: Re-evaluating Factual Consistency Evaluation
- Or Honovich, Roee Aharoni, Jonathan Herzig, Hagai Taitelbaum, Doron Kukliansy, Vered Cohen, Thomas Scialom, Idan Szpektor, Avinatan Hassidim, Yossi Matias
- TLDR: Wir stellen eine umfassende Bewertung und Bewertung von fächernisbasierten Metriken vor, die auf Beispielebene zur Fächernisverzerrung von Texten aus diversen Aufgaben herangezogen werden.
- Knowledge Inheritance for Pre-trained Language Models
- Yujia Qin, Yankai Lin, Jing Yi, Jiajie Zhang, Xu Han, Zhengyan Zhang, Yusheng Su, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou
- TLDR: Wir stellen Wissensdestillation vor, eine Methode zur Wissenstransfer- und -übertragung, die auf große PLMs angewendet werden kann.
- Bi-SimCut: A Simple Strategy for Boosting Neural Machine Translation
- Pengzhi Gao, Zhongjun He, Hua Wu, Haifeng Wang
- TLDR: Wir stellen Bi-SimCut vor, eine einfache aber effektive Trainingsstrategie zur Verbesserung der neuronalen Übersetzungsleistung.
- On Transferability of Prompt Tuning for Natural Language Processing
- Yusheng Su, Xiaozhi Wang, Yujia Qin, Chi-Min Chan, Yankai Lin, Huadong Wang, Kaiyue Wen, Zhiyuan Liu, Peng Li, Juanzi Li, Lei Hou, Maosong Sun, Jie Zhou
- TLDR: Wir untersuchen, wie PLMs die Aufmerksamkeit auffordern, um die Aufmerksamkeit von PLMs zu fördern.
- DocEE: A Large-Scale and Fine-grained Benchmark for Document-level Event Extraction
- MeiHan Tong, Bin Xu, Shuai Wang, Meihuan Han, Yixin Cao, Jiangqi Zhu, Siyu Chen, Lei Hou, Juanzi Li
- TLDR: Wir stellen DocEE vor, einen Dokumentebene-Ereignisextraktor, der 27,000+ Anwender und 180,000 Argumente enthält.
- Towards Debiasing Translation Artifacts
- Koel Dutta Chowdhury, Rricha Jalota, Cristina España-Bonet, Josef Genabith
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Bias-Regularisierungstechnik zu erweitern, und zeigen, dass die Bias-Regularisierungsmethode die NLI-Klassifikationsgenauigkeit erheblich reduziert.
- WECHSEL: Effective initialization of subword embeddings for cross-lingual transfer of monolingual language models
- Benjamin Minixhofer, Fabian Paischer, Navid Rekabsaz
- TLDR: Wir stellen eine Methode vor, die auf Englische Sprachmodelle übertragen werden kann, und verwenden sie, um Sprachmodelle in mehreren Sprachen zu lernen.
- A New Concept of Knowledge based Question Answering (KBQA) System for Multi-hop Reasoning
- Yu Wang, V.srinivasan@samsung.com V.srinivasan@samsung.com, Hongxia Jin
- TLDR: Wir stellen ein KBQA-System vor, das mehrere Schlussfolgerungen auf der Grundlage von Begründungspfaden erbringt und nur eine Labeled Answer als Überwachung benötigt.
- Bilingual Tabular Inference: A Case Study on Indic Languages
- Chaitanya Agarwal, Vivek Gupta, Anoop Kunchukuttan, Manish Shrivastava
- TLDR: Wir stellen eine Aufgabe vor, bei der die Tabular-Purpose und die Hypothese in zwei Sprachen liegen.
- Generative Biomedical Entity Linking via Knowledge Base-Guided Pre-training and Synonyms-Aware Fine-tuning
- Hongyi Yuan, Zheng Yuan, Sheng Yu
- TLDR: Wir verwenden Synonyme und Definitionen aus KB, um ein generatives Modell für die EL zu erstellen.
- Robust Self-Augmentation for Named Entity Recognition with Meta Reweighting
- Linzhi Wu, Pengjun Xie, Jie Zhou, Meishan Zhang, Ma Chunping, Guangwei Xu, Min Zhang
- TLDR: Wir schlagen eine Meta-Verbeugungsstrategie vor, um die Vorteile von NER-Methoden zu verbessern.
- Unsupervised Stem-based Cross-lingual Part-of-Speech Tagging for Morphologically Rich Low-Resource Languages
- Ramy Eskander, Cass Lowry, Sujay Khandagale, Judith Klavans, Maria Polinsky, Smaranda Muresan
- TLDR: Wir schlagen einen unbeaufsichtigten, stembasierten Ansatz für die Teil-of-Speech-Prüfung vor, der die Sprachauswahl von Sprachpaaren verbessert.
- Optimising Equal Opportunity Fairness in Model Training
- Aili Shen, Xudong Han, Trevor Cohn, Timothy Baldwin, Lea Frermann
- TLDR: Wir schlagen zwei neue Trainingszielen vor, die für das Fairness-Fragen-Fragen-Training optimiert werden.
- Leaner and Faster: Two-Stage Model Compression for Lightweight Text-Image Retrieval
- Siyu Ren, Kenny Zhu
- TLDR: Wir stellen einen effizienten Rahmen vor, um große, vortrainierte dualencoder für leichtgewichtige Text-Bilder zu verwenden.
- Joint Learning-based Heterogeneous Graph Attention Network for Timeline Summarization
- Jingyi You, Dongyuan Li, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura
- TLDR: Wir stellen eine empirische Studie vor, die die Zeitline-Summen-Suche und die Erkennung von Ereignissen in einer Zeitline unter Verwendung von Vordefinierungen und unverschlüsselten Daten unter Verwendung von Zeitzeugendarstellungen unterscheidet.
- Early Rumor Detection Using Neural Hawkes Process with a New Benchmark Dataset
- Fengzhu Zeng, Wei Gao
- TLDR: Wir schlagen ein neues Benchmark-Datensätzen für EARD vor, das auf claims von fact-checking-Netzwerken basiert.
- Emp-RFT: Empathetic Response Generation via Recognizing Feature Transitions between Utterances
- Wongyu Kim, Youbin Ahn, Donghyun Kim, Kyong-Ho Lee
- TLDR: Wir schlagen einen neuen Ansatz zur Erkennung und Generierung von Merkmalen zwischen Eingabeschritten vor, der die Dialogfluss und die Merkmale der Eingabe ermöglicht.
- KCD: Knowledge Walks and Textual Cues Enhanced Political Perspective Detection in News Media
- Wenqian Zhang, Shangbin Feng, Zilong Chen, Zhenyu Lei, Jundong Li, Minnan Luo
- TLDR: Wir schlagen einen neuen Ansatz zur Erkennung von Perspektiven vor, der die Wissenswalks nutzt und die Texterzeugung verbessert.
- Collective Relevance Labeling for Passage Retrieval
- Jihyuk Kim, Minsoo Kim, Seung-won Hwang
- TLDR: Wir schlagen eine Wissensdestillation vor, um die Etiketten für die Information Retrieval zu verbessern.
- COGMEN: COntextualized GNN based Multimodal Emotion recognitioN
- Abhinav Joshi, Ashwani Bhat, Ayush Jain, Atin Singh, Ashutosh Modi
- TLDR: Wir schlagen ein neuronales, auf GNN basierendes Multi-Molecular Emotionserkennungssystem vor, das die Komplexität der Abhängigkeiten in einer Gesprächsverantwortung modelliert.
- Revisit Overconfidence for OOD Detection: Reassigned Contrastive Learning with Adaptive Class-dependent Threshold
- Yanan Wu, Keqing He, Yuanmeng Yan, QiXiang Gao, Zhiyuan Zeng, Fujia Zheng, Lulu Zhao, Huixing Jiang, Wei Wu, Weiran Xu
- TLDR: Wir stellen eine neuartige Reassigned Contrast Learning-Methode vor, um überconfident OOD und OOD-Intenzen zu unterscheiden.
- AISFG: Abundant Information Slot Filling Generator
- Yang Yan, Junda Ye, Zhongbao Zhang, Liwen Wang
- TLDR: Wir schlagen einen Generator vor, der die Aufgabe der Zero/Few-Shot-Ziel-Ziel-Faltung und die Verwendung von Beispielen mit Konsistenz und die Verwendung von Texten mit kontextuellen Interaktionen ermöglicht.
- Improving negation detection with negation-focused pre-training
- Thinh Truong, Timothy Baldwin, Trevor Cohn, Karin Verspoor
- TLDR: Wir schlagen eine neue Negation-Focused Pre-Training Strategie vor, die die Negation-Informationen in die Sprachmodelle integriert.
- Practice Makes a Solver Perfect: Data Augmentation for Math Word Problem Solvers
- Vivek Kumar, Rishabh Maheshwary, Vikram Pudi
- TLDR: Wir schlagen mehrere Methoden zur Datenerweiterung vor, die die Generalisierung und Robustheit bestehender MWP-Solver verbessern.
- DiffCSE: Difference-based Contrastive Learning for Sentence Embeddings
- Yung-Sung Chuang, Rumen Dangovski, Hongyin Luo, Yang Zhang, Shiyu Chang, Marin Soljacic, Shang-Wen Li, Scott Yih, Yoon Kim, James Glass
- TLDR: Wir schlagen DiffCSE vor, einen unbeaufsichtigten Rahmen für das Lernen von Satzeinbettungen, der sich auf die Unterschiede zwischen der ursprünglichen und der übertragbaren Satzausfassung anwenden lässt.
- Generative Cross-Domain Data Augmentation for Aspect and Opinion Co-Extraction
- Junjie Li, Jianfei Yu, Rui Xia
- TLDR: Wir schlagen einen Rahmen vor, der die Ziel-Domain-Daten mit fine-grained Annotationen erzeugt, um die Aufmerksamkeit auf die Bewertungsreduzierung zu erhalten.
- ProQA: Structural Prompt-based Pre-training for Unified Question Answering
- Wanjun Zhong, Yifan Gao, Ning Ding, Yujia Qin, Zhiyuan Liu, Ming Zhou, Jiahai Wang, Jian Yin, Nan Duan
- TLDR: Wir stellen ProQA vor, einen neuartigen QA-Rahmen, der verschiedene Aufgaben durch ein einziges Modell lösen kann.
- A Data Cartography based MixUp for Pre-trained Language Models
- Seo Yeon Park, Cornelia Caragea
- TLDR: Wir schlagen eine neuartige MixUp-Strategie vor, die Trainingsdynamik nutzt und die Möglichkeit bietet, informativere Datensätze mit mehreren Datensätzen zu kombinieren.
- Grapheme-to-Phoneme Conversion for Thai using Neural Regression Models
- Tomohiro Yamasaki
- TLDR: Wir schlagen eine neuartige Methode zur Thaigraphem-zu-Faltung vor, die auf neuronalen Netzen trainiert wird, um die Ähnlichkeit zwischen einem Kandidaten und der korrekten Phrasenaussprache zu erklären.
- Generating Authentic Adversarial Examples beyond Meaning-preserving with Doubly Round-trip Translation
- Siyu Lai, Zhen Yang, Fandong Meng, Xue Zhang, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: Wir schlagen eine neue Definition für neuronale Beispiele vor, die auf der Doubly-Round-Trip-Transfer-Methode basieren.
- TVShowGuess: Character Comprehension in Stories as Speaker Guessing
- Yisi Sang, Xiangyang Mou, Mo Yu, Shunyu Yao, Jing Li, Jeffrey Stanton
- TLDR: Wir schlagen eine neue Aufgabe vor, die die Erkennung von fictischen Charakteren in den Handlungstexten ermöglicht.
- Causal Distillation for Language Models
- Zhengxuan Wu, Atticus Geiger, Joshua Rozner, Elisa Kreiss, Hanson Lu, Thomas Icard, Christopher Potts, Noah Goodman
- TLDR: Wir stellen fest, dass es für die Sprachmodellierung nützlich ist, die Sprachmodelle mit einem Ziel zu trennen, das die Sprachstilen eines großen Lehrers inspiriert.
- FNet: Mixing Tokens with Fourier Transforms
- James Lee-Thorp, Joshua Ainslie, Ilya Eckstein, Santiago Ontanon
- TLDR: Wir stellen eine neue Methode vor, die die Selbstaufmerksamkeit eines Transformers in einem Transformer-Encoder wiederherstellen kann.
- Answer Consolidation: Formulation and Benchmarking
- Wenxuan Zhou, Qiang Ning, Heba Elfardy, Kevin Small, Muhao Chen
- TLDR: Wir stellen eine Aufgabe vor, die die Antwortverteilung in mehrere Gruppen zusammenführt, und lösen sie.
- Informativeness and Invariance: Two Perspectives on Spurious Correlations in Natural Language
- Jacob Eisenstein
- TLDR: Wir stellen fest, dass die kompositorische Natur der Sprache impliziert, dass sie spuren kann.
- FOAM: A Follower-aware Speaker Model For Vision-and-Language Navigation
- Zi-Yi Dou, Nanyun Peng
- TLDR: Wir stellen ein FOAM-Modell vor, das sich kontinuierlich aktualisiert, um das Lernen des Ziels des Ziels zu verbessern.
- Improving Compositional Generalization with Latent Structure and Data Augmentation
- Linlu Qiu, Peter Shaw, Panupong Pasupat, Pawel Nowak, Tal Linzen, Fei Sha, Kristina Toutanova
- TLDR: Wir stellen eine neue Methode zur Datenerweiterung vor, die die kompositorische Verallgemeinerung von Beispielen in neuronalen Netzen ermöglicht.
- Joint Extraction of Entities, Relations, and Events via Modeling Inter-Instance and Inter-Label Dependencies
- Minh Van Nguyen, Bonan Min, Franck Dernoncourt, Thien Nguyen
- TLDR: Wir schlagen einen Rahmen vor, um die Abhängigkeiten zwischen den Instanzbeschriftungen zu erfassen und die optimale Abhängigkeitsverteilung für die Erfassung von Instanzbeschriftungen zu ermitteln.
- Linguistic Frameworks Go Toe-to-Toe at Neuro-Symbolic Language Modeling
- Jakob Prange, Nathan Schneider, Lingpeng Kong
- TLDR: Wir zeigen, dass syntaktische und semantische Graphendarstellungen die Sprachmodellierung verbessern können.
- Imagination-Augmented Natural Language Understanding
- Yujie Lu, Wanrong Zhu, Xin Wang, Miguel Eckstein, William Yang Wang
- TLDR: Wir stellen einen visuellen Augmented Encoder vor, der mit externem Wissen umgekehrt mit dem Verständnis von natürlicher Sprache umgehen kann.
- What company do words keep? Revisiting the distributional semantics of J.R. Firth & Zellig Harris
- Mikael Brunila, Jack LaViolette
- TLDR: Wir stellen eine neue Theorie vor, die die Bedeutung von Worten in einer neuen Unternehmensumgebung berücksichtigt.
- Compositional Task-Oriented Parsing as Abstractive Question Answering
- Wenting Zhao, Konstantine Arkoudas, Weiqi Sun, Claire Cardie
- TLDR: Wir schlagen eine neue Methode vor, die auf der Verwendung von Seq2seq2-Modellen zur Erzeugung von Parse-Bäumen basiert.
- Learning Cross-Lingual IR from an English Retriever
- Yulong Li, Martin Franz, Md Arafat Sultan, Bhavani Iyer, Young-Suk Lee, Avirup Sil
- TLDR: Wir stellen eine neue Methode zur Sprachrepräsentation vor, die auf der Wissensdestillation basiert und die Fähigkeiten von Multi-Lingual Token Alignment und Multi-Tagging nutzt.
- Testing the Ability of Language Models to Interpret Figurative Language
- Emmy Liu, Chenxuan Cui, Kenneth Zheng, Graham Neubig
- TLDR: Wir stellen eine Winograd-Methode vor, die auf die Interpretation von nicht-literalen Phrasen basiert.
- Multi-Vector Models with Textual Guidance for Fine-Grained Scientific Document Similarity
- Sheshera Mysore, Arman Cohan, Tom Hope
- TLDR: Wir stellen eine neue Methode zur Dokumentenähnlichkeit vor, die auf Fine-Grad-Attributen von Texten basiert.
- CHAI: A CHatbot AI for Task-Oriented Dialogue with Offline Reinforcement Learning
- Siddharth Verma, Justin Fu, Sherry Yang, Sergey Levine
- TLDR: Wir zeigen, dass offline-RLs die Erzeugung und Verwendung von natürlicher Sprache für Dialogagenten verbessern können.
- Connecting the Dots between Audio and Text without Parallel Data through Visual Knowledge Transfer
- Yanpeng Zhao, Jack Hessel, Youngjae Yu, Ximing Lu, Rowan Zellers, Yejin Choi
- TLDR: Wir schlagen VIP-ANT vor, eine Audio-Text-Anpassung ohne Verwendung paralleler Audio-Text-Daten.
- SURF: Semantic-level Unsupervised Reward Function for Machine Translation
- Atijit Anuchitanukul, Julia Ive
- TLDR: Wir stellen eine neue Methode vor, die die Verzerrung von Belohnungen auf semantischem Ebene aufzeigt und gleichzeitig die menschliche Bewertung mimics.
- Disentangling Categorization in Multi-agent Emergent Communication
- Washington Garcia, Hamilton Clouse, Kevin Butler
- TLDR: Wir schlagen eine Methode vor, die die Entflechtungskraft von Agenten quantifiziert, und zeigen, dass die Entflechtungskraft von Agenten die Kommunikationsfähigkeit von Agenten verbessert.
- Show, Don’t Tell: Demonstrations Outperform Descriptions for Schema-Guided Task-Oriented Dialogue
- Raghav Gupta, Harrison Lee, Jeffrey Zhao, Yuan Cao, Abhinav Rastogi, Yonghui Wu
- TLDR: Wir schlagen eine neue Methode vor, um die Semantik von Schema-Guided Dialogue-Baumelementen zu erklären, und zeigen, dass sie die Semantik von Schema-Guided Dialogue-Baumelementen direkt darstellt.
- Does Pre-training Induce Systematic Inference? How Masked Language Models Acquire Commonsense Knowledge
- Ian Porada, Alessandro Sordoni, Jackie Cheung
- TLDR: Wir stellen fest, dass BERT mit einem maskierten Sprachmodell, das auf der Grundlage von Co-Ocurrence-Methoden trainiert wird, nicht auf die Generalisierungsverallgemeinerung hinweist.
- Using Paraphrases to Study Properties of Contextual Embeddings
- Laura Burdick, Jonathan Kummerfeld, Rada Mihalcea
- TLDR: Wir verwenden Paraphrases als eine unique Quelle für die Analyse von Kontext-Eigenschaften und zeigen, dass sie sich gut auf Wortebene anwenden lassen.
- Measure and Improve Robustness in NLP Models: A Survey
- Xuezhi Wang, Haohan Wang, Diyi Yang
- TLDR: Wir stellen eine empirische Studie zur Verbesserung der Robustheit von NLP-Modellen vor, die die Robustheit von Modellen und die Robustheit von Modellen in Bezug auf die Robustheit von Modellen und die Robustheit von Modellen in Bezug auf die Robustheit von Modellen und die Robustheit der Modelle in Bezug auf die Robustheit der Modelle und die Robustheit der Modelle in Bezug auf die Robustheit der Modelle und die Robustheit der Modelle in Bezug auf die Robustheit der Modelle und die Robustheit der Modelle.
- Learning to Generate Examples for Semantic Processing Tasks
- Danilo Croce, Simone Filice, Giuseppe Castellucci, Roberto Basili
- TLDR: Wir schlagen einen neuronalen Ansatz vor, um automatisch Beispiele für die Textklassifikation und die Inferenz von Text zu generieren.
- Symbolic Knowledge Distillation: from General Language Models to Commonsense Models
- Peter West, Chandra Bhagavatula, Jack Hessel, Jena Hwang, Liwei Jiang, Ronan Le Bras, Ximing Lu, Sean Welleck, Yejin Choi
- TLDR: Wir identifizieren und lösen Probleme, die mit der Wissensdestillation verbunden sind und zeigen, dass die Verwendung von symbolischen Wissensgraphen die Lösung ist.
- GenIE: Generative Information Extraction
- Martin Josifoski, Nicola De Cao, Maxime Peyrard, Fabio Petroni, Robert West
- TLDR: Wir stellen eine autoregressive Formulierung vor, die die Sprachkenntnisse eines Vortrainers nutzt, um Informationen aus einer Wissensdatenbasis zu extrahieren.
- Entity Linking via Explicit Mention-Mention Coreference Modeling
- Dhruv Agarwal, Rico Angell, Nicholas Monath, Andrew McCallum
- TLDR: Wir stellen einen neuen Ansatz für das Lernen von Bezeichnungen und Entitäten vor, der auf minimum spanningsbasiert.
- Massive-scale Decoding for Text Generation using Lattices
- Jiacheng Xu, Siddhartha Jonnalagadda, Greg Durrett
- TLDR: Wir stellen einen Suchalgorithmus vor, der eine große Anzahl von Varianten in eine Latex-Architektur kodiert.
- Disentangling Indirect Answers to Yes-No Questions in Real Conversations
- Krishna Sanagavarapu, Jathin Singaraju, Anusha Kakileti, Anirudh Kaza, Aaron Mathews, Helen Li, Nathan Brito, Eduardo Blanco
- TLDR: Wir stellen eine Aufgabe vor, die die Antwort auf die Frage, ob man nicht mit einer Antwort auf die Frage, ob man nicht mit einer Antwort auf die Frage, ob man nicht mit einer Antwort auf die Frage, ob man nicht mit einer Antwort auf die Frage, ob man nicht mit einer Antwort auf die Frage, oder nicht, aussprechen kann.
- Quantifying Adaptability in Pre-trained Language Models with 500 Tasks
- Belinda Li, Jane Yu, Madian Khabsa, Luke Zettlemoyer, Alon Halevy, Jacob Andreas
- TLDR: Wir stellen eine empirische Studie über die Merkmale und Grenzen der LM-Anpassung vor, die die Aufmerksamkeit auf die Merkmale und die Grenzen der LM-Anpassung ermöglicht.
- Counterfactually Augmented Data and Unintended Bias: The Case of Sexism and Hate Speech Detection
- Indira Sen, Mattia Samory, Claudia Wagner, Isabelle Augenstein
- TLDR: Wir stellen eine neue Methode vor, die die Verzerrung von Modellen in Bezug auf die Kernmerkmale verbessert.
- A Study of the Attention Abnormality in Trojaned BERTs
- Weimin Lyu, Songzhu Zheng, Tengfei Ma, Chao Chen
- TLDR: Wir untersuchen das Aufmerksamkeitsmechanismus von BERT-Modellen und entwickeln einen Aufmerksamkeitsmechanismus, der die Aufmerksamkeit von BERT-Angriffen erkennt.
- EPiDA: An Easy Plug-in Data Augmentation Framework for High Performance Text Classification
- Minyi Zhao, Lu Zhang, Yi Xu, Jiandong Ding, Jihong Guan, Shuigeng Zhou
- TLDR: Wir stellen ein Plug-in-Datenmodell vor, das die Vielfalt der Datenerweiterung und die Qualität der Datenerweiterung nutzt, um effektive Textklassifikationsmodelle zu entwickeln.
- Partial-input baselines show that NLI models can ignore context, but they don’t.
- Neha Srikanth, Rachel Rudinger
- TLDR: Wir stellen eine Bewertungsdatenbank vor, die beweist, dass die meisten Teil-Input-Baumlinien in NLI-Datensätzen die default-Inferenz übertreffen.
- Lifelong Pretraining: Continually Adapting Language Models to Emerging Corpora
- Xisen Jin, Dejiao Zhang, Henghui Zhu, Wei Xiao, Shang-Wen Li, Xiaokai Wei, Andrew Arnold, Xiang Ren
- TLDR: Wir stellen eine lebenslange Sprachmodell-Vortraining-Baumsuche vor, bei der ein PTLM kontinuierlich aktualisiert, um sich an neue Daten anzupassen.
- Learning as Conversation: Dialogue Systems Reinforced for Information Acquisition
- Pengshan Cai, Hui Wan, Fei Liu, Mo Yu, Hong Yu, Sachindra Joshi
- TLDR: Wir schlagen eine neuartige Sprachbeobachtungsmethode vor, die die Aufmerksamkeit von Benutzern auf das Lernen als Konversation ermöglicht.
- Dynamic Programming in Rank Space: Scaling Structured Inference with Low-Rank HMMs and PCFGs
- Songlin Yang, Wei Liu, Kewei Tu
- TLDR: Wir verwenden Tensor-Rank-Dekomposition (aka. CPD) für eine Reihe von FGGs, um die Inferenz von HMMs und PCFGs zu reduzieren.
- What Factors Should Paper-Reviewer Assignments Rely On? Community Perspectives on Issues and Ideals in Conference Peer-Review
- Terne Thorn Jakobsen, Anna Rogers
- TLDR: Wir stellen eine erste Umfrage vor, die die NLP-Community erfasst und Empfehlungen für zukünftige NLP-Konferenzen und -Aufgaben liefert.
- Reducing Disambiguation Biases in NMT by Leveraging Explicit Word Sense Information
- Niccolò Campolungo, Tommaso Pasini, Denis Emelin, Roberto Navigli
- TLDR: Wir stellen eine neuartige Methode vor, die automatisch tiefe, empfindliche Wahrnehmungsmerkmale erzeugt, um die Verzerrung von neuronalen Netzen zu reduzieren.
- Mining Clues from Incomplete Utterance: A Query-enhanced Network for Incomplete Utterance Rewriting
- Shuzheng Si, Shuang Zeng, Baobao Chang
- TLDR: Wir schlagen eine QUEry-Enhanced Network(QUEEN) vor, um das Problem der Unvollständigkeitsrewritelung zu lösen.
- Domain-Oriented Prefix-Tuning: Towards Efficient and Generalizable Fine-tuning for Zero-Shot Dialogue Summarization
- Lulu Zhao, Fujia Zheng, Weihao Zeng, Keqing He, Weiran Xu, Huixing Jiang, Wei Wu, Yanan Wu
- TLDR: Wir schlagen ein Domain-Oriented Prefix-Tuning Modell vor, das eine Domain-Word-Initialisierung verwendet, um das Problem des Domänenengpasses zu lösen und die Generalisierung zu verbessern.
- Interactive Symbol Grounding with Complex Referential Expressions
- Rimvydas Rubavicius, Alex Lascarides
- TLDR: Wir lernen, zu groundisieren, wenn symbolische Merkmale in einer Sequenz von Stichproben enthalten.
- Generalized Quantifiers as a Source of Error in Multilingual NLU Benchmarks
- Ruixiang Cui, Daniel Hershcovich, Anders Søgaard
- TLDR: Wir stellen eine Generalisierungstheorie vor, die die Semantik von Quantifikatoren erfasst und die Sprachverzerrung reduziert.
- Exact Paired-Permutation Testing for Structured Test Statistics
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: Wir stellen einen Algorithmus zur Klassifizierung von Teststatistiken vor, der die Leistung von zwei Systemen verbessert.
- A Balanced Data Approach for Evaluating Cross-Lingual Transfer: Mapping the Linguistic Blood Bank
- Dan Malkin, Tomasz Limisiewicz, Gabriel Stanovsky
- TLDR: Wir zeigen, dass die Wahl von Vortrainingsprachen die Übertragung von BERT auf die Sprachfamilie verbessert.
- SSEGCN: Syntactic and Semantic Enhanced Graph Convolutional Network for Aspect-based Sentiment Analysis
- Zheng Zhang, Zili Zhou, Yanna Wang
- TLDR: Wir schlagen ein neues Syntax- und Semantik-Enhanced Graph Convolutional Network (SSEGCN) Modell vor, das die Aufmerksamkeitsmechanismen einer Satzrepräsentation nutzt.
- Mitigating Toxic Degeneration with Empathetic Data: Exploring the Relationship Between Toxicity and Empathy
- Allison Lahnala, Charles Welch, Béla Neuendorf, Lucie Flek
- TLDR: Wir verbessern die toxicität von Texten, indem wir Empathische Daten verwenden.
- DUCK: Rumour Detection on Social Media by Modelling User and Comment Propagation Networks
- Lin Tian, Xiuzhen Zhang, Jey Han Lau
- TLDR: Wir stellen fest, dass die meisten Nutzer, die auf Twitter-Fehler hinweisen, die Aufmerksamkeit auf sich ziehen, und das Netzwerk verfälschen.
- Jam or Cream First? Modeling Ambiguity in Neural Machine Translation with SCONES
- Felix Stahlberg, Shankar Kumar
- TLDR: Wir schlagen eine neue Softmax-Aktivierung vor, die die Ungleichverteilung über gemeinsame Beschriftungen modelliert.
- SkillSpan: Hard and Soft Skill Extraction from English Job Postings
- Mike Zhang, Kristian Jensen, Sif Sonniks, Barbara Plank
- TLDR: Wir stellen einen neuen Datensatz vor, der 14.5K Sätze und über 12.5K Annotationen enthält.
- RAAT: Relation-Augmented Attention Transformer for Relation Modeling in Document-Level Event Extraction
- Yuan Liang, Zhuoxuan Jiang, Di Yin, Bo Ren
- TLDR: Wir schlagen Relationsaugmented Attention Transformer vor, um die Beziehungen von Dokumenten auf Dokumente zu extrahieren.
- A Double-Graph Based Framework for Frame Semantic Parsing
- Ce Zheng, Xudong Chen, Runxin Xu, Baobao Chang
- TLDR: Wir schlagen einen Knowledge-guided Frame-Parser mit Double-Graphen vor, der die Frame-Knowledges nutzt, um die Beziehungen zwischen den Frames zu verbessern.
- An Enhanced Span-based Decomposition Method for Few-Shot Sequence Labeling
- Peiyi Wang, Runxin Xu, Tianyu Liu, Qingyu Zhou, Yunbo Cao, Baobao Chang, Zhifang Sui
- TLDR: Wir schlagen eine Spannbasierte Dekompositionsmethode vor, die das Problem der Entitätserkennung und -beschriftung auf spanebene lösen kann.
- A Two-Stream AMR-enhanced Model for Document-level Event Argument Extraction
- Runxin Xu, Peiyi Wang, Tianyu Liu, Shuang Zeng, Baobao Chang, Zhifang Sui
- TLDR: Wir schlagen einen Rahmen vor, um die Erfassung von Ereignissen aus mehreren Sätzen zu ermöglichen.
- Robust (Controlled) Table-to-Text Generation with Structure-Aware Equivariance Learning
- Fei Wang, Zhewei Xu, Pedro Szekely, Muhao Chen
- TLDR: Wir schlagen ein neues Framework vor, das die Strukturen von Tabellen in einer Reihenfolge von Graphen ersetzt und die Positionsverschiebung zwischen den Zellen nutzt.
- JointLK: Joint Reasoning with Language Models and Knowledge Graphs for Commonsense Question Answering
- Yueqing Sun, Qi Shi, Le Qi, Yu Zhang
- TLDR: Wir schlagen ein neuartiges Modell vor, das die Probleme der gemeinsamen Schlussfolgerungen von LM und GNN und dem dynamischen Pruning-Mechanismus lösen kann.
- Models In a Spelling Bee: Language Models Implicitly Learn the Character Composition of Tokens
- Itay Itzhak, Omer Levy
- TLDR: Wir zeigen, dass die Einbettungsschichten von RoBERTa und GPT2 die Fähigkeiten von Sprachmodellen aufzeigen, die Wörter zu lernen, ohne die Zeichen zu kennen.
- A Corpus for Understanding and Generating Moral Stories
- Jian Guan, Ziqi Liu, Minlie Huang
- TLDR: Wir stellen STORAL vor, einen Datensatz von Chinesen und Englischen menschlichen moralischen Geschichten vor.
- Modeling Multi-Granularity Hierarchical Features for Relation Extraction
- Xinnian Liang, Shuangzhi Wu, Mu Li, Zhoujun Li
- TLDR: Wir schlagen eine neue Methode vor, die Multi-Gramularity Merkmale aus Texten extrahiert, ohne externes Wissen.
- Cross-modal Contrastive Learning for Speech Translation
- Rong Ye, Mingxuan Wang, Lei Li
- TLDR: Wir schlagen ConST vor, eine cross-modal contrastive Lernmethode für die Sprach- und Textverschlüsselung.
- Meet Your Favorite Character: Open-domain Chatbot Mimicking Fictional Characters with only a Few Utterances
- Seungju Han, Beomsu Kim, Jin Yong Yoo, Seokjun Seo, Sangbum Kim, Enkhbayar Erdenee, Buru Chang
- TLDR: Wir schlagen eine neue Aufgabe vor, die nur ein paar Worte von jedem Charakter enthält, um zu lernen, ihre Eindrücke zu imitieren.
- DynamicTOC: Persona-based Table of Contents for Consumption of Long Documents
- Himanshu Maheshwari, Nethraa Sivakumar, Shelly Jain, Tanvi Karandikar, Vinay Aggarwal, Navita Goyal, Sumit Shekhar
- TLDR: Wir stellen DynamicToC vor, einen dynamischen Navigationsalgorithmus, der auf der Dokumentenbesichtigung basiert.
- KALA: Knowledge-Augmented Language Model Adaptation
- Minki Kang, Jinheon Baek, Sung Ju Hwang
- TLDR: Wir schlagen einen neuartigen Rahmen für PLMs vor, der die Interferenz von PLMs mit dem Ziel der Domänenanpassung moduliert.
- On the Effect of Pretraining Corpora on In-context Learning by a Large-scale Language Model
- Seongjin Shin, Sang-Woo Lee, Hwijeen Ahn, Sungdong Kim, HyoungSeok Kim, Boseop Kim, Kyunghyun Cho, Gichang Lee, Woomyoung Park, Jung-Woo Ha, Nako Sung
- TLDR: Wir untersuchen die Auswirkungen des Vortrainingskorpus auf das in-kontext Lernen in HyperCLOVA, ein Korean-zentriertes GPT-3 Modell.
- Sketching as a Tool for Understanding and Accelerating Self-attention for Long Sequences
- Yifan Chen, Qi Zeng, Dilek Hakkani-Tur, Di Jin, Heng Ji, Yun Yang
- TLDR: Wir schlagen einen Algorithmus zur Optimierung der Selbstaufmerksamkeit vor, der die Komplexität von Modulen reduziert und gleichzeitig die Genauigkeit erhöht.
- Partner Personas Generation for Dialogue Response Generation
- Hongyuan Lu, Wai Lam, Hong Cheng, Helen Meng
- TLDR: Wir stellen einen neuartigen Rahmen vor, der die automatische Partner-Meta-Genauigkeit nutzt, um die Erfolgsausbreitung der Dialogrespondenz zu verbessern.
- Semantically Informed Slang Interpretation
- Zhewei Sun, Richard Zemel, Yang Xu
- TLDR: Wir schlagen einen Rahmen vor, der die kontextuellen und semantischen Abhängigkeiten von Kandidaten für die Interpretation von Sätzen von Worten berücksichtigt.
- Dual-Channel Evidence Fusion for Fact Verification over Texts and Tables
- Nan Hu, Zirui Wu, Yuxuan Lai, Xiao Liu, Yansong Feng
- TLDR: Wir schlagen ein Dual Channel Unified Format fact verification Modell (DCUF) vor, das verschiedene Beweise in parallele streams, i.e., natürliche Sprachen und eine globale Evidenz-Eigenschaften-Eigenschaften-Eigenschaften, gleichzeitig verschlüsselt.
- TreeMix: Compositional Constituency-based Data Augmentation for Natural Language Understanding
- Le Zhang, Zichao Yang, Diyi Yang
- TLDR: Wir schlagen einen neuen Ansatz zur Datenerweiterung vor, der die kompositorische Struktur von NLP-Datensätzen erweitert.
- Syn2Vec: Synset Colexification Graphs for Lexical Semantic Similarity
- John Harvill, Roxana Girju, Mark Hasegawa-Johnson
- TLDR: Wir verwenden die Synthete-Architektur, um große Sprachgraphen in lexikalisch-semantisches Kontext zu schaffen.
- On the Origin of Hallucinations in Conversational Models: Is it the Datasets or the Models?
- Nouha Dziri, Sivan Milton, Mo Yu, Osmar Zaiane, Siva Reddy
- TLDR: Wir untersuchen, ob Wissensverzerrungen die hallucinationen verursacht, und stellen fest, dass sie die Qualität von bestehenden Datensätzen und Modellen trainiert haben.
- Is “My Favorite New Movie” My Favorite Movie? Probing the Understanding of Recursive Noun Phrases
- Qing Lyu, Zheng Hua, Daoxin Li, Li Zhang, Marianna Apidianaki, Chris Callison-Burch
- TLDR: Wir stellen eine Recursive Noun Phrase Challenge vor, eine Aufgabe, die auf Textausgangs- und Schlussfolgerungen basiert und die Verwendung von Recursive Noun Phrases in der Erkennung von Vergiftungsversuchen ermöglicht.
- Original or Translated? A Causal Analysis of the Impact of Translationese on Machine Translation Performance
- Jingwei Ni, Zhijing Jin, Markus Freitag, Mrinmaya Sachan, Bernhard Schölkopf
- TLDR: Wir analysieren und bewerten CausalMT, einen Datensatz, in dem die MT-Trainingsdaten auch mit den menschlichen Übersetzungsrichtungen beschriftet sind.
- Visual Commonsense in Pretrained Unimodal and Multimodal Models
- Chenyu Zhang, Benjamin Van Durme, Zhuowan Li, Elias Stengel-Eskin
- TLDR: Wir stellen einen Datensatz für visuelle Merkmale vor, der die Wahrnehmung von Texten und Bildern erfasst.
- QuALITY: Question Answering with Long Input Texts, Yes!
- Richard Yuanzhe Pang, Alicia Parrish, Nitish Joshi, Nikita Nangia, Jason Phang, Angelica Chen, Vishakh Padmakumar, Johnny Ma, Jana Thompson, He He, Samuel Bowman
- TLDR: Wir stellen QuALITY vor, einen QA-Datensätzen mit Texten mit mehreren Phrasen in Englisch, die eine Länge von über 5,000 Token erreichen.
- ExSum: From Local Explanations to Model Understanding
- Yilun Zhou, Marco Tulio Ribeiro, Julie Shah
- TLDR: Wir stellen Erklärungsausführungen vor, ein mathematisches Framework zur Quantifizierung von Modellverständnis und schlagen metrische Bewertungskriterien vor, um die Qualität des Modells zu bewerten.
- Maximum Bayes Smatch Ensemble Distillation for AMR Parsing
- Young-Suk Lee, Ramón Astudillo, Hoang Thanh Lam, Tahira Naseem, Radu Florian, Salim Roukos
- TLDR: Wir schlagen eine neue Methode vor, die die Aufmerksamkeit auf die Sprachausbreitung und die Verbesserung der Sprachqualität bei AMR-Parsing ermöglicht.
- When Does Syntax Mediate Neural Language Model Performance? Evidence from Dropout Probes
- Mycal Tucker, Tiwalayo Eisape, Peng Qian, Roger Levy, Julie Shah
- TLDR: Wir stellen eine neue Probe vor, die syntaktische Informationen in Einbettungen berücksichtigt und die Modellleistung erhöht.
- Modeling Task Interactions in Document-Level Joint Entity and Relation Extraction
- Liyan Xu, Jinho Choi
- TLDR: Wir schlagen eine Graphen-Kompatibilität vor, die auf Dokumenten-Ebene die Beziehungsextraktion und Coreference-Resolution kombiniert.
- Few-Shot Semantic Parsing with Language Models Trained on Code
- Richard Shin, Benjamin Van Durme
- TLDR: Wir stellen Codex vor, eine Sprachmodell-Architektur, die sich gut auf semantisches Parsing mit wenigen Trainingsdaten auswirkt.
- CORWA: A Citation-Oriented Related Work Annotation Dataset
- Xiangci Li, Biswadip Mandal, Jessica Ouyang
- TLDR: Wir stellen einen Rahmen für die Generierung von Texten mit Hilfe von Texten aus verschiedenen Informationsquellen vor und schlagen einen neuen Rahmen für die Human-in-the-loop, iterative, abstraktive und maschinelles Lernen vor.
- Overcoming Catastrophic Forgetting During Domain Adaptation of Seq2seq Language Generation
- Dingcheng Li, Zheng Chen, Eunah Cho, Jie Hao, Xiaohu Liu, Fan Xing, Chenlei Guo, Yang Liu
- TLDR: Wir schlagen ein neuartiges Modell vor, das eine Rekurrente Optimierungsmechanismen nutzt, um wichtige Parameter von vorherigen Aufgaben zu extrahieren, und verwenden einen Algorithmus zur Beschleunigung der Domänendynamik.
- Extreme Zero-Shot Learning for Extreme Text Classification
- Yuanhao Xiong, Wei-Cheng Chang, Cho-Jui Hsieh, Hsiang-Fu Yu, Inderjit Dhillon
- TLDR: Wir schlagen eine Methode vor, die die Verwendung von Text in rekurrenten Labels für die Klassifizierung von Text in einer Textinstanz ermöglicht.
- ConfliBERT: A Pre-trained Language Model for Political Conflict and Violence
- Yibo Hu, MohammadSaleh Hosseini, Erick Skorupa Parolin, Javier Osorio, Latifur Khan, Patrick Brandt, Vito D’Orazio
- TLDR: Wir stellen ConfliBERT vor, ein sprachspezifisches, domainspezifisches Sprachmodell für die Erkennung und Bewältigung von Konsistenz und Gewalt.
- Automatic Multi-Label Prompting: Simple and Interpretable Few-Shot Classification
- Han Wang, Canwen Xu, Julian McAuley
- TLDR: Wir schlagen Automatic Multi-Label Prompting (AMuLaP) vor, eine einfache, aber effektive Methode zur automatischen Label-Auswahl für eine kleine Textklassifikation mit Rückgabe eines Textsatzes.
- Few-shot Subgoal Planning with Language Models
- Lajanugen Logeswaran, Yao Fu, Moontae Lee, Honglak Lee
- TLDR: Wir zeigen, dass Sprachmodelle mit prädiktiven Vorhersagen von Aufgaben in realen Umgebungen gut funktionieren.
- IDPG: An Instance-Dependent Prompt Generation Method
- Zhuofeng Wu, Sinong Wang, Jiatao Gu, Rui Hou, Yuxiao Dong, V.G.Vinod Vydiswaran, Hao Ma
- TLDR: Wir schlagen eine bedingte Prompt-Generierungsmethode vor, um Aufgabenspezifische Vorgaben für jede Eingabeinstanz zu generieren.
- Embedding Hallucination for Few-shot Language Fine-tuning
- Yiren Jian, Chongyang Gao, Soroush Vosoughi
- TLDR: Wir schlagen eine Embedding-Hallucination-Methode vor, die die Verallgemeinerung von Sprachmodellen überwinden kann.
- Cryptocurrency Bubble Detection: A New Stock Market Dataset, Financial Task & Hyperbolic Models
- Ramit Sawhney, Shivam Agarwal, Vivek Mittal, Paolo Rosso, Vikram Nanda, Sudheer Chava
- TLDR: Wir stellen CryptoBubbles vor, eine neue Multi-Spread-Identification-Aufgabe für crypto- und meme-Stocks, und einen Datensatz von mehr als 400 crypto-Coins aus 9 Eintauschbörsen über fünf Jahre.
- Nearest Neighbor Knowledge Distillation for Neural Machine Translation
- Zhixian Yang, Renliang Sun, Xiaojun Wan
- TLDR: Wir schlagen eine neue, die-nearest-neighbor-maschine vor.
- DEMix Layers: Disentangling Domains for Modular Language Modeling
- Suchin Gururangan, Mike Lewis, Ari Holtzman, Noah Smith, Luke Zettlemoyer
- TLDR: Wir stellen eine neue Domänen-Experten-Mischung (DEMix)-Schicht vor, die die Konditionierung eines sprachlichen Modells auf die Domäne des Eingabetexts ermöglicht.
- Contrastive Learning for Prompt-based Few-shot Language Learners
- Yiren Jian, Chongyang Gao, Soroush Vosoughi
- TLDR: Wir schlagen einen kontrastiven Rahmen vor, der mehrere Ansichten von einer Klasse kombiniert, um eine bessere Generalisierung von Modellen zu ermöglichen.
- Cross-Lingual Event Detection via Optimized Adversarial Training
- Luis Guzman-Nateras, Minh Van Nguyen, Thien Nguyen
- TLDR: Wir stellen Cross-Lingual-Evening vor, bei dem ein Modell auf Daten aus einer
- Identifying Implicitly Abusive Remarks about Identity Groups using a Linguistically Informed Approach
- Michael Wiegand, Elisabeth Eder, Josef Ruppenhofer
- TLDR: Wir lösen die Aufgabe der Identitätsverzerrung, indem wir atomische negative Sätze über die Identitätsgruppen untersuchen.
- Label Definitions Improve Semantic Role Labeling
- Li Zhang, Ishan Jindal, Yunyao Li
- TLDR: Wir schlagen ein neues Modell vor, das die Bezeichnungen von Bearbeitern und Bearbeitern als Labels definiert, die für die Bezeichnungen von Bearbeitern und Bearbeitern verwendet werden.
- Shedding New Light on the Language of the Dark Web
- Youngjin Jin, Eugene Jang, Yongjae Lee, Seungwon Shin, Jin-Woo Chung
- TLDR: Wir stellen CoDA vor, einen Textdatensatz, der auf die Textklassifikation von Dark Webs angewendet werden kann.
- Conceptualizing Treatment Leakage in Text-based Causal Inference
- Adel Daoud, Connor Jerzak, Richard Johansson
- TLDR: Wir stellen das Problem der Behandlungsverzerrung vor und zeigen, dass die Verzerrung der Behandlungsverzerrung in den Schätzungen der durchschnittlichen Behandlungswirkung (ATE) führt.
- Consistency Training with Virtual Adversarial Discrete Perturbation
- Jungsoo Park, Gyuwan Kim, Jaewoo Kang
- TLDR: Wir schlagen eine diskrete Rauschen-Methode vor, die die divergierenden Vorhersagen eines Modells reguliert.
- CONFIT: Toward Faithful Dialogue Summarization with Linguistically-Informed Contrastive Fine-tuning
- Xiangru Tang, Arjun Nair, Borui Wang, Bingyao Wang, Jai Desai, Aaron Wade, Haoran Li, Asli Celikyilmaz, Yashar Mehdad, Dragomir Radev
- TLDR: Wir schlagen eine neue Methode vor, die die Fälschungen in der Dialogauswertung reduziert und gleichzeitig die Qualität der Zusammenfassung verbessert.
- CoMPM: Context Modeling with Speaker’s Pre-trained Memory Tracking for Emotion Recognition in Conversation
- Joosung Lee, Wooin Lee
- TLDR: Wir verwenden das Vortrainierte Sprachmodell als einen Extractor von externem Wissen, um die Emotionen in der Konversation zu erkennen.
- Investigating Crowdsourcing Protocols for Evaluating the Factual Consistency of Summaries
- Xiangru Tang, Alexander Fabbri, Haoran Li, Ziming Mao, Griffin Adams, Borui Wang, Asli Celikyilmaz, Yashar Mehdad, Dragomir Radev
- TLDR: Wir stellen eine Bewertungsmethode vor, die die Verzerrung von Zusammenfassungen deutlich reduziert und die Verzerrung von Nachrichten in mehreren Datensätzen deutlich reduziert.
- DialSummEval: Revisiting Summarization Evaluation for Dialogues
- Mingqi Gao, Xiaojun Wan
- TLDR: Wir stellen einen neuen Datensatz für die Bewertung von menschlichen Schlussfolgerungen vor, der die Ergebnisse von 14 Modellen auf SAMSum enthält.
- Hyperbolic Relevance Matching for Neural Keyphrase Extraction
- Mingyang Song, Yi Feng, Liping Jing
- TLDR: Wir schlagen Hyperbolic Matching vor, ein hyperbolisches Suchmodell, das die Bedeutung von Schlüsselphrasen in hyperbolischen Raumen erforscht.
- Template-free Prompt Tuning for Few-shot NER
- Ruotian Ma, Xin Zhou, Tao Gui, Yiding Tan, Linyang Li, Qi Zhang, Xuanjing Huang
- TLDR: Wir schlagen eine Methode vor, die NER-Aufgaben als LM-Probleme ohne Verwendung von Templates abbildet.
- Few-Shot Document-Level Relation Extraction
- Nicholas Popovic, Michael Färber
- TLDR: Wir stellen eine neue Methode zur Dokumentenverschiebung vor, die auf der Dokumenten-Ebene verwendet werden kann.
- LaMemo: Language Modeling with Look-Ahead Memory
- Haozhe Ji, Rongsheng Zhang, Zhenyu Yang, Zhipeng Hu, Minlie Huang
- TLDR: Wir schlagen Look-Ahead Memory vor, ein Memory, das die Aufmerksamkeit und die Recurrence miteinander verbindet.
- Exploiting Inductive Bias in Transformers for Unsupervised Disentanglement of Syntax and Semantics with VAEs
- Ghazi Felhi, Joseph Roux, Djamé Seddah
- TLDR: Wir schlagen ein generatives Modell vor, das sich von Syntax und Semantik trennt.
- Neighbors Are Not Strangers: Improving Non-Autoregressive Translation under Low-Frequency Lexical Constraints
- Chun Zeng, Jiangjie Chen, Tianyi Zhuang, Rui Xu, Hao Yang, Qin Ying, Shimin Tao, Yanghua Xiao
- TLDR: Wir schlagen einen Plug-in-Algorithmus vor, der das Problem der latenten Übersetzungsverzerrung in tiefen neuronalen Netzen behebt.
- What do Toothbrushes do in the Kitchen? How Transformers Think our World is Structured
- Alexander Henlein, Alexander Mehler
- TLDR: Wir vergleichen static- und kontextualisierte Sprachmodelle.
- Less is More: Learning to Refine Dialogue History for Personalized Dialogue Generation
- Hanxun Zhong, Zhicheng Dou, Yutao Zhu, Hongjin Qian, Ji-Rong Wen
- TLDR: Wir schlagen vor, die Dialogprotokolle auf große und umfassende Weise zu überarbeiten, um die Erzeugung personalisierter Antworten zu erleichtern.
- A Holistic Framework for Analyzing the COVID-19 Vaccine Debate
- Maria Pacheco, Tunazzina Islam, Monal Mahajan, Andrey Shor, Ming Yin, Lyle Ungar, Dan Goldwasser
- TLDR: Wir schlagen einen holistischen Analyserahmen vor, der die Beziehungen zwischen den verschiedenen Ebenen analysiert und menschliche Einflüsse in den Lernprozess integriert.
- Learning to Win Lottery Tickets in BERT Transfer via Task-agnostic Mask Training
- Yuanxin Liu, Fandong Meng, Zheng Lin, Peng Fu, Yanan Cao, Weiping Wang, Jie Zhou
- TLDR: Wir trainieren masken über Modellgewichte, um BERT-Subnetze zu finden, die eine universelle Übertragung auf die nächsten Aufgaben ermöglichen.
- You Don’t Know My Favorite Color: Preventing Dialogue Representations from Revealing Speakers’ Private Personas
- Haoran Li, Yangqiu Song, Lixin Fan
- TLDR: Wir schlagen wirksame Verteidigungsmaßnahmen vor, um die Privatsphäre von Chatbots zu schützen.
- Explaining Dialogue Evaluation Metrics using Adversarial Behavioral Analysis
- Baber Khalid, Sungjin Lee
- TLDR: Wir schlagen eine adversarische Testsuite vor, die Probleme mit der Verzerrung von Dialogmedikoiden und -instanzen aufweist.
- Annotators with Attitudes: How Annotator Beliefs And Identities Bias Toxic Language Detection
- Maarten Sap, Swabha Swayamdipta, Laura Vianna, Xuhui Zhou, Yejin Choi, Noah Smith
- TLDR: Wir untersuchen, was für die Spracherkennung von toxicen Wörtern spricht und wie man die Bewertungen von toxicen Wörtern interpretiert.
- Non-Autoregressive Chinese ASR Error Correction with Phonological Training
- Zheng Fang, Ruiqing Zhang, Zhongjun He, Hua Wu, Yanan Cao
- TLDR: Wir schlagen eine effiziente Methode zur Fehlerbeseitigung vor, die die Länge der Satzregressionsmethode nutzt.
- Hate Speech and Counter Speech Detection: Conversational Context Does Matter
- Xinchen Yu, Eduardo Blanco, Lingzi Hong
- TLDR: Wir analysieren, wie kontextualisiertes Online-Häter- und Gegensageverhalten effektiv ist.
- DACSA: A large-scale Dataset for Automatic summarization of Catalan and Spanish newspaper Articles
- Encarnación Segarra Soriano, Vicent Ahuir, Lluís-F. Hurtado, José González
- TLDR: Wir stellen einen Datensatz für die automatische Zusammenfassung von Catalan und Spanish-Zeitschriften vor, der auf die Erstellung von Sprachkorpusen für andere Sprachen anwendbar ist.
- Time Waits for No One! Analysis and Challenges of Temporal Misalignment
- Kelvin Luu, Daniel Khashabi, Suchin Gururangan, Karishma Mandyam, Noah Smith
- TLDR: Wir stellen eine Reihe von Aufgaben vor, die auf die Verzerrung von Textdaten hinweisen, und zeigen, dass die Verzerrung von Textdaten, die aus einem Zeitrahmen abgeleitet wurden, die Leistung bei der Lösung von Aufgaben erheblich beinträchtigt.
- MCSE: Multimodal Contrastive Learning of Sentence Embeddings
- Miaoran Zhang, Marius Mosbach, David Adelani, Michael Hedderich, Dietrich Klakow
- TLDR: Wir schlagen einen neuen Ansatz für das Erlernen von Satzeinbettungen vor, der sowohl visuelle als auch die Textinformationen nutzt.
- HiURE: Hierarchical Exemplar Contrastive Learning for Unsupervised Relation Extraction
- Shuliang Liu, Xuming Hu, Chenwei Zhang, Shu’ang Li, Lijie Wen, Philip Yu
- TLDR: Wir schlagen ein neuartiges contrastives Lernverfahren vor, das die Beziehung zwischen den Entitäten aus natürlichen Satzbeschriftungen extrahiert.
- Diagnosing Vision-and-Language Navigation: What Really Matters
- Wanrong Zhu, Yuankai Qi, Pradyumna Narayana, Kazoo Sone, Sugato Basu, Xin Wang, Qi Wu, Miguel Eckstein, William Yang Wang
- TLDR: Wir stellen eine Reihe von experimentellen Beobachtungen vor, um die Aufmerksamkeit auf die Navigationsaufgaben zu steuern.
- Aligning to Social Norms and Values in Interactive Narratives
- Prithviraj Ammanabrolu, Liwei Jiang, Maarten Sap, Hannaneh Hajishirzi, Yejin Choi
- TLDR: Wir stellen eine neue Agenten-Architektur vor, die soziale Werte in interaktiven Spielen in Abstimmung mit natürlicher Sprache erzeugt.
- MOVER: Mask, Over-generate and Rank for Hyperbole Generation
- Yunxiang Zhang, Xiaojun Wan
- TLDR: Wir schlagen eine unüberwachte Methode zur Erzeugung von Hyperbolischen Paraphrasen vor, die nicht parallele Sätze benötigt.
- Embarrassingly Simple Performance Prediction for Abductive Natural Language Inference
- Emīls Kadiķis, Vaibhav Srivastav, Roman Klinger
- TLDR: Wir schlagen eine Methode vor, die die Klassifizierungsgenauigkeit und die Genauigkeit von neuronalen Netzen miteinander verbindet.
- Re-Examining System-Level Correlations of Automatic Summarization Evaluation Metrics
- Daniel Deutsch, Rotem Dror, Dan Roth
- TLDR: Wir schlagen eine Methode vor, die die System-Evaluierungsmetricen auf systemebene verallgemeinert, und schlagen Verbesserungen vor, um die Verzerrung von System-Evaluierungswerten zu beseitigen.