EACL 2022 in German
TLDRs
- Unsupervised Sentence-embeddings by Manifold Approximation and Projection
- Subhradeep Kayal
- TLDR: Wir schlagen eine Methode vor, die die Verwendung von Manifold-Approximations und -Projektionen ermöglicht, um Texterzeugungen in einer unüberwachten Form zu generieren.
- Contrastive Multi-document Question Generation
- Woon Sang Cho, Yizhe Zhang, Sudha Rao, Asli Celikyilmaz, Chenyan Xiong, Jianfeng Gao, Mengdi Wang, Bill Dolan
- TLDR: Wir schlagen einen Multi-Source-Fragen Generator vor, der auf der Suche nach Aufmerksamkeitsgewichten für die Dokumentengenerierung und das Training von Kontrast-QGs und einem neuartigen Rahmen für das Training von Multi-Source-Fragen Generatoren basiert.
- Disambiguatory Signals are Stronger in Word-initial Positions
- Tiago Pimentel, Ryan Cotterell, Brian Roark
- TLDR: Wir stellen fest, dass Sprachwissenschaften die Konnektivität von Worten früh in den Worten und später in den Worten vorhersagen.
- On the (In)Effectiveness of Images for Text Classification
- Chunpeng Ma, Aili Shen, Hiyori Yoshikawa, Tomoya Iwakura, Daniel Beck, Timothy Baldwin
- TLDR: Wir stellen eine neue Methode vor, die Bilder in einer Wikipedia-Seite mit Text kombiniert, und zeigen, dass sie die NLP-Aufgaben verbessern.
- If you’ve got it, flaunt it: Making the most of fine-grained sentiment annotations
- Jeremy Barnes, Lilja Øvrelid, Erik Velldal
- TLDR: Wir stellen fest, dass die Verwendung von Ziel- und Polar-Eigenschaften für die Analyse von Gefühlen bei der Fine-Grad-Methode verbessert.
- Keep Learning: Self-supervised Meta-learning for Learning from Inference
- Akhil Kedia, Sai Chetan Chinthakindi
- TLDR: Wir schlagen einen neuen Ansatz für das Lernen von Deep Learning vor, der die Klassifizierungsverzerrung von Klassifikatoren verbessert.
- ResPer: Computationally Modelling Resisting Strategies in Persuasive Conversations
- Ritam Dutt, Sayan Sinha, Rishabh Joshi, Surya Shekhar Chakraborty, Meredith Riggs, Xinru Yan, Haogang Bao, Carolyn Rose
- TLDR: Wir schlagen einen Rahmen für die Identifikation und Anwendung von Widerstandsstrategien in Gesprächen vor, der die Bedeutung von Widerstandsstrategien auf das Ergebnis eines Gesprächsausgangsmodells erforscht.
- BERxiT: Early Exiting for BERT with Better Fine-Tuning and Extension to Regression
- Ji Xin, Raphael Tang, Yaoliang Yu, Jimmy Lin
- TLDR: Wir schlagen eine neue Fine-Tuning-Strategie vor, die BERT in der Lage macht, die Klassifizierungsaufgaben zu überwinden.
- Telling BERT’s Full Story: from Local Attention to Global Aggregation
- Damian Pascual, Gino Brunner, Roger Wattenhofer
- TLDR: Wir analysieren BERT von beiden Richtungen und zeigen, dass die Aufmerksamkeitsverteilungen die lokale Verhaltensweise von Aufmerksamkeitshäufern erklären.
- Effects of Pre- and Post-Processing on type-based Embeddings in Lexical Semantic Change Detection
- Jens Kaiser, Sinan Kurtyigit, Serge Kotchourko, Dominik Schlechtweg
- TLDR: Wir stellen lexikalische Semantikverschiebungserkennungsmodelle vor, die für das Lernen von lexikalischen Änderungen geeignet sind.
- The Gutenberg Dialogue Dataset
- Richard Csaky, Gábor Recski
- TLDR: Wir stellen einen Dialogdatensatz vor, der auf der Suche nach Texten aus Bibliotheken mit Hilfe von Project Gutenberg erstellt wurde.
- On the Calibration and Uncertainty of Neural Learning to Rank Models for Conversational Search
- Gustavo Penha, Claudia Hauff
- TLDR: Wir analysieren, unter welchen Umständen deterministische neuronale Ranker für die Suche nach Gesprächskorrespondenz nicht ausreichend kalibriert wurden.
- Frequency-Guided Word Substitutions for Detecting Textual Adversarial Examples
- Maximilian Mozes, Pontus Stenetorp, Bennett Kleinberg, Lewis Griffin
- TLDR: Wir schlagen einen Algorithmus vor, der die Frequenzeigenschaften von Gegnern nutzt, um Beispiele für die Erkennung von Gegenbeispielen zu erkennen.
- Maximal Multiverse Learning for Promoting Cross-Task Generalization of Fine-Tuned Language Models
- Itzik Malkiel, Lior Wolf
- TLDR: Wir stellen eine Methode vor, die BERT in zwei Phasen trainiert, indem sie parallele Klassenbeschriftungen verwendet.
- Unification-based Reconstruction of Multi-hop Explanations for Science Questions
- Marco Valentino, Mokanarangan Thayaparan, André Freitas
- TLDR: Wir schlagen einen neuen Rahmen vor, um mehrere Hops-Erklärungen in der wissenschaftlichen Question Answering zu reconstruieren.
- Dictionary-based Debiasing of Pre-trained Word Embeddings
- Masahiro Kaneko, Danushka Bollegala
- TLDR: Wir schlagen eine Methode vor, die unverzerrte Worteinbettungen aus Wörterbüchern entfernt, ohne dass die ursprünglichen Trainingsrahmen oder die Bezeichnungen von Wörterbüchern benötigt werden.
- Belief-based Generation of Argumentative Claims
- Milad Alshomary, Wei-Fan Chen, Timon Gurcke, Henning Wachsmuth
- TLDR: Wir schlagen eine Aufgabe vor, die die Bewäglichkeiten eines Benutzers in einen Satz kodiert, und zeigen empirisch, dass die Kodierung von Bewägschaften in einen Satz einen besseren Ansatz für die Argumentation führt.
- Non-Autoregressive Text Generation with Pre-trained Language Models
- Yixuan Su, Deng Cai, Yan Wang, David Vandyke, Simon Baker, Piji Li, Nigel Collier
- TLDR: Wir schlagen BERT vor, um eine schnelle Texterzeugung zu ermöglichen.
- Multi-split Reversible Transformers Can Enhance Neural Machine Translation
- Yuekai Zhao, Shuchang Zhou, Zhihua Zhang
- TLDR: Wir stellen eine neue Methode vor, die die Speicherzeit von tiefen Transformatoren reduziert und gleichzeitig die Übersetzungsgenauigkeit erhöht.
- Exploiting Cloze-Questions for Few-Shot Text Classification and Natural Language Inference
- Timo Schick, Hinrich Schütze
- TLDR: Wir stellen ein halbüberwachtes Trainingsverfahren vor, das Beispiele als Cloze-Sprache verwendet, um Sprachmodelle zu trainieren.
- CDˆ2CR: Co-reference resolution across documents and domains
- James Ravenscroft, Amanda Clare, Arie Cattan, Ido Dagan, Maria Liakata
- TLDR: Wir schlagen einen neuen Datensatz und einen Ansatz zur Dokumenten-Co-Referenz vor, der die Identifikation und Linkerklärung von Entitäten und Konzepten in mehreren Textdokumenten ermöglicht.
- AREDSUM: Adaptive Redundancy-Aware Iterative Sentence Ranking for Extractive Document Summarization
- Keping Bi, Rahul Jha, Bruce Croft, Asli Celikyilmaz
- TLDR: Wir stellen AREDSUM-SEQ vor, eine adaptive Lernmethode, die die Vielfalt in einer einzelnen Schritte berücksichtigt.
- “Talk to me with left, right, and angles”: Lexical entrainment in spoken Hebrew dialogue
- Andreas Weise, Vered Silber-Varod, Anat Lerner, Julia Hirschberg, Rivka Levitan
- TLDR: Wir analysieren Hebrew-Sprachspezialisten, die in einem Map Task miteinander in Verbindung stehen, und stellen fest, dass sie lexikalisch in Einbettungsverzerrungen verfallen.
- Recipes for Building an Open-Domain Chatbot
- Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, Jason Weston
- TLDR: Wir stellen eine Methode vor, die die Fähigkeiten von Chatbots nutzt, um menschliche Gespräche zu führen.
- Evaluating the Evaluation of Diversity in Natural Language Generation
- Guy Tevet, Jonathan Berant
- TLDR: Wir schlagen einen Rahmen für die Bewertung der Vielfalt vor und schlagen eine Bewertungsmethode vor, die die Vielfalt eines NLG-Systems bewertet.
- Retrieval, Re-ranking and Multi-task Learning for Knowledge-Base Question Answering
- Zhiguo Wang, Patrick Ng, Ramesh Nallapati, Bing Xiang
- TLDR: Wir stellen eine Methode vor, die auf KBQA verwendet wird, um Wissensdaten zu extrahieren und zu beantworten.
- Implicitly Abusive Comparisons – A New Dataset and Linguistic Analysis
- Michael Wiegand, Maja Geulig, Josef Ruppenhofer
- TLDR: Wir stellen eine neue Aufgabe vor, die die Identifikation von Abhängigkeiten von Vergleichen ermöglicht.
- Exploiting Emojis for Abusive Language Detection
- Michael Wiegand, Josef Ruppenhofer
- TLDR: Wir schlagen vor, Emojis als Proxy für das Lernen von Wörtern mit üblen Phrasen zu verwenden.
- A Systematic Review of Reproducibility Research in Natural Language Processing
- Anya Belz, Shubham Agarwal, Anastasia Shimorina, Ehud Reiter
- TLDR: Wir stellen eine umfassende und vollständige Bilddarstellung der Reproduzierbarkeit in NLP vor und schlagen eine neue Methode vor, um die Reproduzierbarkeit von Ergebnissen zu bewerten.
- Bootstrapping Multilingual AMR with Contextual Word Alignments
- Janaki Sheth, Young-Suk Lee, Ramón Fernandez Astudillo, Tahira Naseem, Radu Florian, Salim Roukos, Todd Ward
- TLDR: Wir entwickeln eine neuartige Methode zur Übersetzung von Texten aus sprachenübergreifenden Texten in Texten mit kontextuellen Worten.
- Semantic Oppositeness Assisted Deep Contextual Modeling for Automatic Rumor Detection in Social Networks
- Nisansa de Silva, Dejing Dou
- TLDR: Wir zeigen, dass die semantische Abhängigkeit von der gleichen Antwortstruktur die Leistung bei der Erkennung von Verwundschwörtern verbessert.
- Polarized-VAE: Proximity Based Disentangled Representation Learning for Text Generation
- Vikash Balasubramanian, Ivan Kobyzev, Hareesh Bahuleyan, Ilya Shapiro, Olga Vechtomova
- TLDR: Wir schlagen einen neuen Ansatz vor, der die Entflechtung von Merkmalen in den latenten Raum eines VAEs ermöglicht.
- ParaSCI: A Large Scientific Paraphrase Dataset for Longer Paraphrase Generation
- Qingxiu Dong, Xiaojun Wan, Yue Cao
- TLDR: Wir schlagen ParaSCI vor, einen groß angelegten Paraphrase-Datensätzen für die Paraphrase-Genauigkeit.
- Discourse Understanding and Factual Consistency in Abstractive Summarization
- Saadia Gabriel, Antoine Bosselut, Jeff Da, Ari Holtzman, Jan Buys, Kyle Lo, Asli Celikyilmaz, Yejin Choi
- TLDR: Wir stellen Cooperative Generator-Discriminator Networks (Co-opNet) vor, ein neuartiges Transformator-basiertes Framework, das die Fähigkeit eines Generators zur abstrakten Zusammenfassung nutzt.
- Knowledge Base Question Answering through Recursive Hypergraphs
- Naganand Yadati, Dayanidhi R S, Vaishnavi S, Indira K M, Srinidhi G
- TLDR: Wir schlagen eine neue Methode zur KBQA vor, die auf Hypergraphen basiert.
- FEWS: Large-Scale, Low-Shot Word Sense Disambiguation with the Dictionary
- Terra Blevins, Mandar Joshi, Luke Zettlemoyer
- TLDR: Wir stellen Few-Shot Examples of Word Senses vor, einen neuen Low-Shot WSD-Datensätzen, der aus Beispielsätzen in Wörterbüchern extrahiert werden.
- MONAH: Multi-Modal Narratives for Humans to analyze conversations
- Joshua Y. Kim, Kalina Yacef, Greyson Kim, Chunfeng Liu, Rafael Calvo, Silas Taylor
- TLDR: Wir stellen eine automatische Erweiterung von Texten vor, die die Verallgemeinerung von Video-Übersetzungen mit mehreren Datensätzen ermöglicht.
- Does Typological Blinding Impede Cross-Lingual Sharing?
- Johannes Bjerva, Isabelle Augenstein
- TLDR: Wir stellen fest, dass typologische Merkmale für die Erfassung von Sprachdaten von WALS für die Erfassung von Sprachdaten von Sprachdatenbanken mit mehreren Sprachfamilien geeignet sind.
- AdapterFusion: Non-Destructive Task Composition for Transfer Learning
- Jonas Pfeiffer, Aishwarya Kamath, Andreas Rücklé, Kyunghyun Cho, Iryna Gurevych
- TLDR: Wir schlagen einen neuen Lernalgorithmus vor, der Wissen aus mehreren Aufgaben kombiniert und die Wissenskonsistenz nutzt.
- CHOLAN: A Modular Approach for Neural Entity Linking on Wikipedia and Wikidata
- Manoj Prabhakar Kannan Ravi, Kuldeep Singh, Isaiah Onando Mulang’, Saeedeh Shekarpour, Johannes Hoffart, Jens Lehmann
- TLDR: Wir schlagen CHOLAN vor, einen modularen Ansatz zur Zielerweiterung von Entitäten über Wissensdatenbanken.
- Grounding as a Collaborative Process
- Luciana Benotti, Patrick Blackburn
- TLDR: Wir stellen fest, dass die Zusammenarbeit in der Sprachausbildung und im Dialog wichtig ist.
- Does She Wink or Does She Nod? A Challenging Benchmark for Evaluating Word Understanding of Language Models
- Lutfi Kerem Senel, Hinrich Schütze
- TLDR: Wir stellen Word Definitions Language Model Probing vor, eine Aufgabe, die auf Wörter definiert, die von Wörterbüchern abgeleitet wurden.
- Joint Coreference Resolution and Character Linking for Multiparty Conversation
- Jiaxin Bai, Hongming Zhang, Yangqiu Song, Kun Xu
- TLDR: Wir schlagen Cˆ2 vor, ein neues Modell zur Coreference-Resolution und zur Character-Linking-Problematik.
- Improving Factual Consistency Between a Response and Persona Facts
- Mohsen Mesgar, Edwin Simpson, Iryna Gurevych
- TLDR: Wir schlagen einen Reinforcement Learning-Ansatz vor, der die Vereinheitlichtheit zwischen den Antworten und den Personenbekennungen und die Semantik der Antwort darstellt.
- PolyLM: Learning about Polysemy through Language Modeling
- Alan Ansell, Felipe Bravo-Marquez, Bernhard Pfahringer
- TLDR: Wir stellen PolyLM vor, eine Methode zur Sprachmodellierung von Wortsichten, die die Konflationsprobleme in Bezug auf die Wahrnehmung und die Konsistenz von Konversationsverzerrungen lösen kann.
- Predicting Treatment Outcome from Patient Texts:The Case of Internet-Based Cognitive Behavioural Therapy
- Evangelia Gogoulou, Magnus Boman, Fehmi Ben Abdesslem, Nils Hentati Isacsson, Viktor Kaldo, Magnus Sahlgren
- TLDR: Wir stellen fest, dass die Depressionsdaten für die Regularisierung von depressiven, sozialen Anzeichen und Phänomene in Bezug auf die Behandlung von Neuronenstörungen sind.
- Scalable Evaluation and Improvement of Document Set Expansion via Neural Positive-Unlabeled Learning
- Alon Jacovi, Gang Niu, Yoav Goldberg, Masashi Sugiyama
- TLDR: Wir stellen PU-Lernen vor, das die Suche nach PubMed-Abschriften in einer großen Sammlung von Dokumenten als eine Frage interpretiert.
- The Role of Syntactic Planning in Compositional Image Captioning
- Emanuele Bugliarello, Desmond Elliott
- TLDR: Wir schlagen eine Methode vor, die die kompositorische Generalisierung verbessert, indem wir syntaktische Tags und Token und Syntax-Tags gemeinsam modellieren.
- Is “hot pizza” Positive or Negative? Mining Target-aware Sentiment Lexicons
- Jie Zhou, Yuanbin Wu, Changzhi Sun, Liang He
- TLDR: Wir schlagen einen neuen Algorithmus vor, um Worte mit tiefen Gefühlen zu extrahieren, indem wir sie aus großen Datensätzen extrahieren.
- Quality Estimation without Human-labeled Data
- Yi-Lin Tuan, Ahmed El-Kishky, Adithya Renduchintala, Vishrav Chaudhary, Francisco Guzmán, Lucia Specia
- TLDR: Wir schlagen eine Methode vor, die auf Beispielen von Menschen-Anklägern basiert und die Qualität von Texten ohne Referenz-Übersetzungsvergabeschätzerungen misst.
- How Fast can BERT Learn Simple Natural Language Inference?
- Yi-Chung Lin, Keh-Yih Su
- TLDR: Wir zeigen, dass BERT wirklich lernen kann, um natürliche Sprache in natürlicher Sprache zu erzeugen, ohne die Datensätze zu verfälschen.
- GRIT: Generative Role-filler Transformers for Document-level Event Entity Extraction
- Xinya Du, Alexander Rush, Claire Cardie
- TLDR: Wir stellen ein generatives Transformator-basiertes Encoder-Decoder-Framework vor, das die Dokumenten-Ebene modelliert und die Dokumenten-Eigenschaften extrahiert.
- Cross-lingual Entity Alignment with Incidental Supervision
- Muhao Chen, Weijia Shi, Ben Zhou, Dan Roth
- TLDR: Wir schlagen ein neues Modell vor, das die Entitäts-Alignment mit incidental Überwachung verbessert.
- Query Generation for Multimodal Documents
- Kyungho Kim, Kyungjae Lee, Seung-won Hwang, Young-In Song, Seungwook Lee
- TLDR: Wir stellen eine neue Methode vor, die die Klassifizierung von Dokumenten mit mehreren Ansichten verbessert.
- End-to-End Argument Mining as Biaffine Dependency Parsing
- Yuxiao Ye, Simone Teufel
- TLDR: Wir schlagen einen neuronalen Ansatz für die Argumentation vor, der auf Abhängigkeitsparsing basiert.
- FakeFlow: Fake News Detection by Modeling the Flow of Affective Information
- Bilal Ghanem, Simone Paolo Ponzetto, Paolo Rosso, Francisco Rangel
- TLDR: Wir schlagen ein neuronales Modell vor, um die Fluss der Emotionen in fake-News zu modellieren.
- CTC-based Compression for Direct Speech Translation
- Marco Gaido, Mauro Cettolo, Matteo Negri, Marco Turchi
- TLDR: Wir schlagen eine dynamische Kompression von Text in direkten Text-Übersetzungsmodellen vor, die die Spracherkennung nutzt.
- A Crowdsourced Open-Source Kazakh Speech Corpus and Initial Speech Recognition Baseline
- Yerbolat Khassanov, Saida Mussakhojayeva, Almas Mirzakhmetov, Alen Adiyev, Mukhamet Nurpeiissov, Huseyin Atakan Varol
- TLDR: Wir stellen einen offenen Sprachkorpus für die Kazakhsprache vor und stellen eine neue Methode zur Spracherkennung vor, die die Sprachqualität von Audio und Texten verbessert.
- TDMSci: A Specialized Corpus for Scientific Literature Entity Tagging of Tasks Datasets and Metrics
- Yufang Hou, Charles Jochim, Martin Gleize, Francesca Bonin, Debasis Ganguly
- TLDR: Wir stellen einen neuen Korpus vor, der eine Domain-Experten-Ankündigungen für Aufgaben, Datensätze und Bewertungsmetriken enthält.
- Top-down Discourse Parsing via Sequence Labelling
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: Wir stellen einen neuen Top-Down-Ansatz für das Parsing von Texten vor, der auf Full-Meter-Methoden basiert.
- Does the Order of Training Samples Matter? Improving Neural Data-to-Text Generation with Curriculum Learning
- Ernie Chang, Hui-Syuan Yeh, Vera Demberg
- TLDR: Wir stellen eine neue Methode vor, die die Konvergenzgeschwindigkeit bei der Texterzeugung verbessert.
- TrNews: Heterogeneous User-Interest Transfer Learning for News Recommendation
- Guangneng Hu, Qiang Yang
- TLDR: Wir schlagen ein Transformer-basiertes Lernenmodell vor, um eine neue Aufgabe zu lösen, die auf der Wissenswiedergabe von Nachrichtenreferenz für unbesehene Nutzer in Zukunft zu lösen.
- Dialogue Act-based Breakdown Detection in Negotiation Dialogues
- Atsuki Yamaguchi, Kosui Iwasa, Katsuhide Fujita
- TLDR: Wir stellen eine Dialog-Flüssigkeitserkennungsmethode vor, die auf Dialog-Aktionen basiert und die Erkennung von Abwehrmaßnahmen für die menschlichen Gesprächspartner ermöglicht.
- Neural Data-to-Text Generation with LM-based Text Augmentation
- Ernie Chang, Xiaoyu Shen, Dawei Zhu, Vera Demberg, Hui Su
- TLDR: Wir schlagen einen neuen, leicht überwachten Algorithmus vor, der die Texterweiterung automatisch auf die Datenerweiterung anwenden kann.
- Self-Training Pre-Trained Language Models for Zero- and Few-Shot Multi-Dialectal Arabic Sequence Labeling
- Muhammad Khalifa, Muhammad Abdul-Mageed, Khaled Shaalan
- TLDR: Wir schlagen einen self-Training-Ansatz vor, um Sprachmodelle in Zero-Shot- und Few-Shot-Szenarien zu verbessern, die auf Datenknappheiten mit Datenrichmen trainiert wurden.
- Multiple Tasks Integration: Tagging, Syntactic and Semantic Parsing as a Single Task
- Timothée Bernard
- TLDR: Wir schlagen Multiple Tasks Integration (MTI) vor, einen Multitasking-Rahmen, der auf die Gewichtsverteilung basiert.
- Coordinate Constructions in English Enhanced Universal Dependencies: Analysis and Computational Modeling
- Stefan Grünewald, Prisca Piccirilli, Annemarie Friedrich
- TLDR: Wir verwenden einen maschinellen Parser, um Regeln für die Konvergenzpropagation in tiefen neuronalen Netzen zu lernen.
- Ellipsis Resolution as Question Answering: An Evaluation
- Rahul Aralikatte, Matthew Lamm, Daniel Hardt, Anders Søgaard
- TLDR: Wir stellen eine neue Methode zur Erlösung von English-Emiliaptik vor, die auf Architekturen entwickelt wurde, die für die Fragenausführen (QA) und Coreference-Resolution (z.B. Sluice) trainiert wurden.
- Jointly Improving Language Understanding and Generation with Quality-Weighted Weak Supervision of Automatic Labeling
- Ernie Chang, Vera Demberg, Alex Marin
- TLDR: Wir stellen einen halbüberwachten Rahmen vor, um weiche Labels für neuronale Netze zu generieren, die auf der Suche nach einer neuen, besseren Label-Qualität sind.
- Continuous Learning in Neural Machine Translation using Bilingual Dictionaries
- Jan Niehues
- TLDR: Wir stellen einen Rahmen vor, um die Fähigkeit von neuronalen Übersetzungssystemen zur kontinuierlichen Spracherweiterung zu überprüfen.
- Adv-OLM: Generating Textual Adversaries via OLM
- Vijit Malik, Ashwani Bhat, Ashutosh Modi
- TLDR: Wir stellen Adv-OLM vor, eine Black-Box-Angriffsmethode, die die Idee von Occlusion und Language Models (OLM) zur aktuellen State of the Art Angriffsmethoden adaptiert.
- Conversational Question Answering over Knowledge Graphs with Transformer and Graph Attention Networks
- Endri Kacupaj, Joan Plepi, Kuldeep Singh, Harsh Thakkar, Jens Lehmann, Maria Maleshkova
- TLDR: Wir schlagen eine neue Methode zur Lösung von Fragen mit mehreren Aufgaben vor, die auf Graphenansichten basiert.
- DRAG: Director-Generator Language Modelling Framework for Non-Parallel Author Stylized Rewriting
- Hrituraj Singh, Gaurav Verma, Aparna Garimella, Balaji Vasan Srinivasan
- TLDR: Wir schlagen einen Rahmen vor, um Text in der Ziel-Autorenz-Auto-Auto-Erstellung in Bezug auf die Stileigenschaften der Autoren zu verwenden.
- Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering
- Gautier Izacard, Edouard Grave
- TLDR: Wir zeigen, dass sequenz-zu-sequenz-Modelle für die Antwort auf offene Fragen eine bessere Leistung als die von RL und QA-Benchmarken zeigen.
- Clinical Outcome Prediction from Admission Notes using Self-Supervised Knowledge Integration
- Betty van Aken, Jens-Michalis Papaioannou, Manuel Mayrdorfer, Klemens Budde, Felix Gers, Alexander Loeser
- TLDR: Wir schlagen einen neuen Ansatz vor, um ICD-Code-Eigenschaften in die Behandlung von Patienten zu integrieren.
- Combining Deep Generative Models and Multi-lingual Pretraining for Semi-supervised Document Classification
- Yi Zhu, Ehsan Shareghi, Yingzhen Li, Roi Reichart, Anna Korhonen
- TLDR: Wir kombinieren halbüberwachte generative Modelle und multilinguales Vortraining, um eine Dokumentenklassifikationsaufgabe zu lösen.
- Multi-facet Universal Schema
- Rohan Paul, Haw-Shiuan Chang, Andrew McCallum
- TLDR: Wir schlagen eine neuartige Methode vor, die mehrere Gesichter in einem Satzgramm darstellt, und schlagen eine Multi-Facet-Architektur vor, die die Ähnlichkeit von mehreren Satzmustern aufweist.
- Exploring Transitivity in Neural NLI Models through Veridicality
- Hitomi Yanaka, Koji Mineshima, Kentaro Inui
- TLDR: Wir analysieren und bewerten die Verallgemeinerung von Inferenzverzerrungen und die Entflechtung von Inferenzverzerrungen.
- A Neural Few-Shot Text Classification Reality Check
- Thomas Dopierre, Christophe Gravier, Wilfried Logerais
- TLDR: Wir vergleichen die besten Modelle, die in der Bildbearbeitung verwendet werden, und stellen fest, dass die meisten von ihnen bessere Leistungen als die jüngsten und einfacheren Ergebnisse erzielen.
- Multilingual Machine Translation: Closing the Gap between Shared and Language-specific Encoder-Decoders
- Carlos Escolano, Marta R. Costa-jussà, José A. R. Fonollosa, Mikel Artetxe
- TLDR: Wir schlagen einen neuen Ansatz vor, der auf sprachspezifischen Encoder-Decodern basiert und die Erweiterung auf neue Sprachen ermöglicht.
- Clustering Word Embeddings with Self-Organizing Maps. Application on LaRoSeDa - A Large Romanian Sentiment Data Set
- Anca Tache, Gaman Mihaela, Radu Tudor Ionescu
- TLDR: Wir stellen LaRoSeDa vor, einen großen Datensatz mit 15,000 positiven und negativen Bewertungen, der von der größten Online-Shop-App für das Thema “Stress” gesammelt wurde.
- Elastic weight consolidation for better bias inoculation
- James Thorne, Andreas Vlachos
- TLDR: Wir stellen fest, dass die elastic Weight Consolidation (EWC) die Biases in den Datensätzen mit geringer Genauigkeit reduziert und gleichzeitig weniger katastrophales Vergessen aufweist.
- Hierarchical Multi-head Attentive Network for Evidence-aware Fake News Detection
- Nguyen Vo, Kyumin Lee
- TLDR: Wir schlagen ein Hierarchical Multi-Head Attentive Network vor, um Texterklärungen zu überprüfen.
- Identifying Named Entities as they are Typed
- Ravneet Arora, Chen-Tse Tsai, Daniel Preotiuc-Pietro
- TLDR: Wir stellen einen neuartigen Ansatz für Named Entity Recognition (NER)-Systeme vor, der auf Anwendungen zur Entitätserkennung und -identifikation von Text in einer Online-Umgebung basiert.
- SANDI: Story-and-Images Alignment
- Sreyasi Nag Chowdhury, Simon Razniewski, Gerhard Weikum
- TLDR: Wir stellen eine Methode vor, die Bilder aus einer Bildsammlung und ihre Abhängigkeiten mit Texten von Texten von Geschichten verbindet.
- Question and Answer Test-Train Overlap in Open-Domain Question Answering Datasets
- Patrick Lewis, Pontus Stenetorp, Sebastian Riedel
- TLDR: Wir analysieren und schlagen eine Reihe von beliebten Open-Domain-Modellen vor, um zu lernen, wie man Fragen, die nicht von den Testsets erlernt werden, besser beantworten kann.
- El Volumen Louder Por Favor: Code-switching in Task-oriented Semantic Parsing
- Arash Einolghozati, Abhinav Arora, Lorena Sainz-Maza Lecanda, Anuj Kumar, Sonal Gupta
- TLDR: Wir schlagen eine Methode zur Datenerweiterung vor, die die Generalisierung von Cross-Lingual-Modellen verbessert.
- Generating Syntactically Controlled Paraphrases without Using Annotated Parallel Pairs
- Kuan-Hao Huang, Kai-Wei Chang
- TLDR: Wir schlagen Syntactically Controlled Paraphrase Generator (SynPG) vor, ein Encoder-Decoder-basiertes Modell, das lernt, die Semantik und die Syntax einer Satzrepräsentation aus einer Sammlung von unannotierten Texten zu trennen.
- Data Augmentation for Hypernymy Detection
- Thomas Kober, Julie Weeds, Lorenzo Bertolini, David Weir
- TLDR: Wir verwenden GANs, um eine neue Datenerweiterung und eine Erweiterung eines bestehenden Datensatzes durch WordNet zu generieren.
- Few-shot learning through contextual data augmentation
- Farid Arthaud, Rachel Bawden, Alexandra Birch
- TLDR: Wir schlagen einen Algorithmus zur Datenerweiterung vor, um unbekannte Wörter aus Texten zu lernen, die auf menschlichen Übersetzungsaufgaben vorkommen.
- Zero-shot Generalization in Dialog State Tracking through Generative Question Answering
- Shuyang Li, Jin Cao, Mukund Sridhar, Henghui Zhu, Shang-Wen Li, Wael Hamza, Julian McAuley
- TLDR: Wir stellen eine neuartige generative Frage-Anfragen-Methode vor, die auf unbeschrifteten Beschriftungen und Beschriftungsmerkmalen für Aufgaben- und Aufgabenbereiche verwendet werden kann.
- Zero-shot Neural Passage Retrieval via Domain-targeted Synthetic Question Generation
- Ji Ma, Ivan Korotkov, Yinfei Yang, Keith Hall, Ryan McDonald
- TLDR: Wir schlagen einen Ansatz vor, der synthetische Fragen generiert, um einen großen Rahmen für die Erfassung von Dokumenten zu schaffen.
- Discourse-Aware Unsupervised Summarization for Long Scientific Documents
- Yue Dong, Andrei Mircea, Jackie Chi Kit Cheung
- TLDR: Wir schlagen ein unbeaufsichtigtes Graphenbasiertes Ranking vor, das die Bedeutung von Forschungsdokumenten in Texten und in Textdokumenten deutlich übertrifft.
- MIDAS: A Dialog Act Annotation Scheme for Open Domain HumanMachine Spoken Conversations
- Dian Yu, Zhou Yu
- TLDR: Wir stellen ein Dialog-Akt-Ankündigungsschema vor, MIDAS, das auf menschliche Maschinen gesprochene Gespräche anwendbar ist.
- Analyzing the Forgetting Problem in Pretrain-Finetuning of Open-domain Dialogue Response Models
- Tianxing He, Jun Liu, Kyunghyun Cho, Myle Ott, Bing Liu, James Glass, Fuchun Peng
- TLDR: Wir stellen eine neue Methode zur Beobachtung und Lösung des Vergessens vor, die das Problem des Vergessens effektiv und effektiv reduziert.
- Leveraging End-to-End ASR for Endangered Language Documentation: An Empirical Study on Yolóxochitl Mixtec
- Jiatong Shi, Jonathan D. Amith, Rey Castillo García, Esteban Guadalupe Sierra, Kevin Duh, Shinji Watanabe
- TLDR: Wir stellen eine neue Methode zur Spracherkennung vor, die die Sprachengpässe von ASRs und transkribenten mit einem gemeinsamen Ziel behebt.
- Mode Effects’ Challenge to Authorship Attribution
- Haining Wang, Allen Riddell, Patrick Juola
- TLDR: Wir messen die Auswirkungen von Schreibmodus auf die Erstellung von Dokumenten und bewerten die Auswirkungen auf die Erstellung von Texten in einer Online-Umgebung.
- Generative Text Modeling through Short Run Inference
- Bo Pang, Erik Nijkamp, Tian Han, Ying Nian Wu
- TLDR: Wir schlagen eine Short-Run-Dynamik vor, die die Verzerrung von Variablen in einem tiefen Raum minimiert und gleichzeitig eine bessere Inferenz ermöglicht.
- Detecting Extraneous Content in Podcasts
- Sravana Reddy, Yongze Yu, Aasish Pappu, Aswin Sivaraman, Rezvaneh Rezapour, Rosie Jones
- TLDR: Wir stellen Klassifikatoren vor, die Text und Audiobeschreibungen nutzen, um extrane Inhalte in den Podcasts zu erkennen.
- Randomized Deep Structured Prediction for Discourse-Level Processing
- Manuel Widmoser, Maria Leonor Pacheco, Jean Honorio, Dan Goldwasser
- TLDR: Wir verwenden strukturierte Inferenz, um tiefe Strukturen und Ausdrucksmittel für komplexe Argumentationsstrukturen zu nutzen.
- Automatic Data Acquisition for Event Coreference Resolution
- Prafulla Kumar Choubey, Ruihong Huang
- TLDR: Wir schlagen eine lexikalische Paraphrase- und Regularisierungsregel vor, um automatisch Coreferential und nicht-Coreferential Ereignispaare aus unbeschrifteten English Newsartikeln zu sammeln.
- Joint Learning of Representations for Web-tables, Entities and Types using Graph Convolutional Network
- Aniket Pramanick, Indrajit Bhattacharya
- TLDR: Wir schlagen eine Graphen Convolutional Network-Architektur vor, die die Struktur von Tabellen, Wissensgraphen und den Trainingsaufgaben erfasst und gleichzeitig Einbettungen für die Entitäten und Typen erlernt.
- Multimodal Text Style Transfer for Outdoor Vision-and-Language Navigation
- Wanrong Zhu, Xin Wang, Tsu-Jui Fu, An Yan, Pradyumna Narayana, Kazoo Sone, Sugato Basu, William Yang Wang
- TLDR: Wir stellen einen Multimodal Text-Transfer-Ansatz vor, um die Datenknappheit bei der VLN zu reduzieren.
- ECOL-R: Encouraging Copying in Novel Object Captioning with Reinforcement Learning
- Yufei Wang, Ian Wood, Stephen Wan, Mark Johnson
- TLDR: Wir schlagen ein neues Modell vor, das die Erkennung von Objekten in den Beschriftungsbeschriftungen ermöglicht und gleichzeitig die Image Captioning-Qualität beibehält.
- Enriching Non-Autoregressive Transformer with Syntactic and Semantic Structures for Neural Machine Translation
- Ye Liu, Yao Wan, Jianguo Zhang, Wenting Zhao, Philip Yu
- TLDR: Wir schlagen einen Transformer vor, der syntaktische und semantische Strukturen von Sprachen enthält, um die Leistung von neuronalen Übersetzungsmodellen zu verbessern.
- NLQuAD: A Non-Factoid Long Question Answering Data Set
- Amir Soleimani, Christof Monz, Marcel Worring
- TLDR: Wir stellen NLQuAD vor, einen Datensatz mit Basismethoden für nicht-factoid Long Question Answering, eine Aufgabe, die auf Dokument-Ebene sprachenübergreifend wichtig ist.
- Debiasing Pre-trained Contextualised Embeddings
- Masahiro Kaneko, Danushka Bollegala
- TLDR: Wir schlagen eine Fine-Tuning-Methode vor, die auf Zeichenebene für die Verzerrung von diskriminierenden Diskriminatoren in kontextualisierten Einbettungen verwendet werden kann.
- Language Models for Lexical Inference in Context
- Martin Schmitt, Hinrich Schütze
- TLDR: Wir stellen eine Reihe von LMs vor, die auf lexikalischen Semantiken basieren, und zeigen, dass sie für die lexikalische Inferenz in Kontext geeignet sind.
- Few-Shot Semantic Parsing for New Predicates
- Zhuang Li, Lizhen Qu, Shuo Huang, Gholamreza Haffari
- TLDR: Wir schlagen eine Meta-Lernen-Methode vor, um das Problem des Semantischen Parsings in einer wenigen Aufnahmen Umgebung zu lösen.
- Alternating Recurrent Dialog Model with Large-scale Pre-trained Language Models
- Qingyang Wu, Yichi Zhang, Yu Li, Zhou Yu
- TLDR: Wir schlagen ein einfaches, aber effektives Dialogmodell vor, das sich auf die Erzeugung von Dialogzuständen und -instanzen verallgemeinert.
- On the Evaluation of Vision-and-Language Navigation Instructions
- Ming Zhao, Peter Anderson, Vihan Jain, Su Wang, Alexander Ku, Jason Baldridge, Eugene Ie
- TLDR: Wir schlagen ein Richtlinien- und Zielkompatibilitätsmodell vor, das ohne Referenzaufgaben funktioniert.
- Cross-lingual Visual Pre-training for Multimodal Machine Translation
- Ozan Caglayan, Menekse Kuyu, Mustafa Sercan Amac, Pranava Madhyastha, Erkut Erdem, Aykut Erdem, Lucia Specia
- TLDR: Wir erweitern das sprachenbasierte Sprachmodell auf ein visuelles Modell und schlagen eine neue Methode vor, um visuelle Sprachrepräsentationen zu lernen.
- Memorization vs. Generalization : Quantifying Data Leakage in NLP Performance Evaluation
- Aparna Elangovan, Jiayuan He, Karin Verspoor
- TLDR: Wir analysieren und bewerten die Auswirkungen der Verfälschungen auf die Fähigkeit des Modells, die Datensätze zu memorizieren, und stellen fest, dass die Verfälschungen auf mehrere Datensätze verwendet werden, die zur Bewertung von NLP-Aufgaben verwendet werden.
- An Expert Annotated Dataset for the Detection of Online Misogyny
- Ella Guest, Bertie Vidgen, Alexandros Mittos, Nishanth Sastry, Gareth Tyson, Helen Margetts
- TLDR: Wir stellen eine hierarchische Klassifizierungsmethode für Online-Äußerungsverzerrungen vor und einen Experten-Benchmark-Datensätzen zur automatischen Klassifizierung von Misogynisten vor.
- WikiMatrix: Mining 135M Parallel Sentences in 1620 Language Pairs from Wikipedia
- Holger Schwenk, Vishrav Chaudhary, Shuo Sun, Hongyu Gong, Francisco Guzmán
- TLDR: Wir stellen eine Methode vor, die auf mehreren Sprachen verwendet werden kann, um parallele Sätze aus Wikipedia-Artikel in 96 Sprachen zu extrahieren.
- ChEMU-Ref: A Corpus for Modeling Anaphora Resolution in the Chemical Domain
- Biaoyan Fang, Christian Druckenbrodt, Saber A Akhondi, Jiayuan He, Timothy Baldwin, Karin Verspoor
- TLDR: Wir schlagen einen neuronalen Ansatz vor, um einenaphora-Resolution zu erreichen, die bei mehreren Chemie-Patents gut ankommen.
- Syntactic Nuclei in Dependency Parsing – A Multilingual Exploration
- Ali Basirat, Joakim Nivre
- TLDR: Wir zeigen, wie das Konzept der Nucleus-Komposition für die syntaktische Abhängigkeit von Wörtern definiert werden kann und wie wir diese Funktion verwenden können, um einen Übertragungsbasierten Parser zu machen.
- Searching for Search Errors in Neural Morphological Inflection
- Martina Forster, Clara Meister, Ryan Cotterell
- TLDR: Wir stellen fest, dass die meisten neuronalen Modelle für die Sprachgenerierung nicht optimal sind.
- Quantifying Appropriateness of Summarization Data for Curriculum Learning
- Ryuji Kano, Takumi Takahashi, Toru Nishino, Motoki Taniguchi, Tomoki Taniguchi, Tomoko Ohkuma
- TLDR: Wir schlagen eine effektive Methode zum Curriculum Learning vor, um verrauschte Daten von Texten zu quantifizieren.
- Evaluating language models for the retrieval and categorization of lexical collocations
- Luis Espinosa Anke, Joan Codina-Filba, Leo Wanner
- TLDR: Wir analysieren und bewerten lexikalische Klassifizierungen und zeigen, dass sie gut funktionieren, wenn sie mit Licht verbächten Konsistenzen umgehen.
- BART-TL: Weakly-Supervised Topic Label Generation
- Cristian Popa, Traian Rebedea
- TLDR: Wir schlagen eine neue Lösung vor, die die Verwendung von weaking Labels in Themenmodellen ermöglicht.
- Dynamic Graph Transformer for Implicit Tag Recognition
- Yi-Ting Liou, Chung-Chi Chen, Hen-Hsen Huang, Hsin-Hsi Chen
- TLDR: Wir stellen einen dynamischen Graphentransformator vor, der die Text- und Entitätsbeziehungen in einem Text- und Entitätsgraphen wiederverwenden kann.
- Implicit Unlikelihood Training: Improving Neural Text Generation with Reinforcement Learning
- Evgeny Lagutin, Daniil Gavrilov, Pavel Kalaidin
- TLDR: Wir schlagen einen neuen Ansatz vor, um das Problem der Verzerrung in der Texterzeugung zu lösen und die Texterzeugung zu verbessern.
- Civil Rephrases Of Toxic Texts With Self-Supervised Transformers
- Léo Laugier, John Pavlopoulos, Jeffrey Sorensen, Lucas Dixon
- TLDR: Wir verwenden einen Texttransformator, um toxic-Kommunikationsbeschriftungen zu generieren.
- Generating Weather Comments from Meteorological Simulations
- Soichiro Murakami, Sora Tanaka, Masatsugu Hangyo, Hidetaka Kamigaito, Kotaro Funakoshi, Hiroya Takamura, Manabu Okumura
- TLDR: Wir schlagen ein Modell vor, das Datensätze aus meteorologischen Simulationen kodiert, um die Erfassung von Vorhersagen von Menschen, die in der Lage sind, ihre Umgebung zu erkunden, zu nutzen.
- SICK-NL: A Dataset for Dutch Natural Language Inference
- Gijs Wijnholds, Michael Moortgat
- TLDR: Wir stellen SICK-NL vor, einen Datensatz, der auf Natural Language Inference in Dutch zugeschnitten ist.
- A phonetic model of non-native spoken word processing
- Yevgen Matusevych, Herman Kamper, Thomas Schatz, Naomi Feldman, Sharon Goldwater
- TLDR: Wir trainieren ein neuronales Modell, das keine phonologie hat, und zeigen, dass die Sprachverarbeitungsprobleme bei nicht-nativen Sprachgehörern nicht von der Phonetik abhängen.
- Bootstrapping Relation Extractors using Syntactic Search by Examples
- Matan Eyal, Asaf Amrami, Hillel Taub-Tabib, Yoav Goldberg
- TLDR: Wir schlagen einen Bootstrapped-Prozess vor, der schnell und effektiv ist, wenn er von nicht-NLP-Experten durchgeführt wird.
- Towards a Decomposable Metric for Explainable Evaluation of Text Generation from AMR
- Juri Opitz, Anette Frank
- TLDR: Wir stellen eine Methode vor, die die Klassifizierung von Texten aus abstrakten Bedeutungsrepräsentationen ermöglicht.
- The Source-Target Domain Mismatch Problem in Machine Translation
- Jiajun Shen, Peng-Jen Chen, Matthew Le, Junxian He, Jiatao Gu, Myle Ott, Michael Auli, Marc’Aurelio Ranzato
- TLDR: Wir stellen eine empirische Studie vor, wie die Sprachverschiebung bei der Back-Translation und dem Training von Sprachmaschinen zur lokalen Sprachbewertung die Sprachverschiebung verursacht.
- Cross-Topic Rumor Detection using Topic-Mixtures
- Xiaoying Ren, Jing Jiang, Ling Min Serena Khoo, Hai Leong Chieu
- TLDR: Wir schlagen eine Methode vor, die die Themenverteilungen von Instanzen in einer Umgebung vorhersagt.
- Understanding Pre-Editing for Black-Box Neural Machine Translation
- Rei Miyata, Atsushi Fujita
- TLDR: Wir haben eine Methode zur Vorhersage von Änderungen in einer Black-Box-Methode vorgeschlagen, die die Transformer-Qualität verbessert.
- RelWalk - A Latent Variable Model Approach to Knowledge Graph Embedding
- Danushka Bollegala, Huda Hakami, Yuichi Yoshida, Ken-ichi Kawarabayashi
- TLDR: Wir erweitern das Wissensgraphen-Eigenschaften-Score-Modell auf ein Score-Framework, um die Stärke einer relation R zwischen zwei Entitäten zu bewerten.
- Few-shot Learning for Slot Tagging with Attentive Relational Network
- Cennet Oguz, Ngoc Thang Vu
- TLDR: Wir schlagen eine neue Methode zur Erweiterung von relationalen Netzen vor, die auf maschinelles Lernen und Aufmerksamkeit basiert.
- SpanEmo: Casting Multi-label Emotion Classification as Span-prediction
- Hassan Alhuzali, Sophia Ananiadou
- TLDR: Wir stellen ein neues neuronales Modell vor, das Multi-Label-Emotions als Span-Vorhersage verwendet, um ER-Modelle zu trainieren, die sich auf die Erkennung von Emotionen von mehreren Klassen und Wörtern aus einer Satzbeschriftung übertragen lassen.
- Exploiting Position and Contextual Word Embeddings for Keyphrase Extraction from Scientific Papers
- Krutarth Patel, Cornelia Caragea
- TLDR: Wir stellen einen Algorithmus zur Schlüsselphraseextraktion vor, der Positionsinformationen und kontextuellen Worteinbettungen nutzt, um einen PageRank zu erhalten.
- Benchmarking Machine Reading Comprehension: A Psychological Perspective
- Saku Sugawara, Pontus Stenetorp, Akiko Aizawa
- TLDR: Wir stellen eine theoretische Grundlage für das Design von MRC-Datensätzen auf psychologischen und psychometrischen Grundlagen vor und stellen fest, dass die Erklärungsfähigkeit eines Modells für die Erkennung von kontextualisierten Situationen entscheidend ist.
- Multilingual Neural Machine Translation with Deep Encoder and Multiple Shallow Decoders
- Xiang Kong, Adithya Renduchintala, James Cross, Yuqing Tang, Jiatao Gu, Xian Li
- TLDR: Wir schlagen einen tiefen Decoder vor, der eine Reihe von tiefen Decoder gleichzeitig verwendet, um eine Sprachverschiebung zu umgehen.
- With Measured Words: Simple Sentence Selection for Black-Box Optimization of Sentence Compression Algorithms
- Yotam Shichel, Meir Kalech, Oren Tsur
- TLDR: Wir schlagen einen Black-Box Optimizer für die Kompression vor, der die besten Kandidaten für die Kompressionen berücksichtigt.
- WiC-TSV: An Evaluation Benchmark for Target Sense Verification of Words in Context
- Anna Breit, Artem Revenko, Kiamehr Rezaee, Mohammad Taher Pilehvar, Jose Camacho-Collados
- TLDR: Wir stellen eine neue Multi-Domain-Evaluierungsbenchmark für die Verunreinigung von Wörtern in Kontext vor und stellen einen neuen Rahmen für die Verifikation von Wörtern in Kontext vor.
- Self-Supervised and Controlled Multi-Document Opinion Summarization
- Hady Elsahar, Maximin Coavoux, Jos Rozen, Matthias Gallé
- TLDR: Wir schlagen einen Selbstüberwachungsalgorithmus vor, der eine Sammlung von Benutzerbeschriftungen als Zielausgangsbeschriftungen für eine Reihe von Dokumenten nutzt.
- NewsMTSC: A Dataset for (Multi-)Target-dependent Sentiment Classification in Political News Articles
- Felix Hamborg, Karsten Donnay
- TLDR: Wir stellen NewsMTSC vor, einen hochmodernen Datensatz für TSC auf Nachrichtenartikeln mit key Unterschieden gegenüber den bisherigen Datensätzen.
- Cross-lingual Contextualized Topic Models with Zero-shot Learning
- Federico Bianchi, Silvia Terragni, Dirk Hovy, Debora Nozza, Elisabetta Fersini
- TLDR: Wir stellen ein Zero-Shot-Feedback-Problemmodell vor, das Themen in mehreren Sprachen erlernt und Themen für Dokumente in mehreren Sprachen vorhersagt.
- Dependency parsing with structure preserving embeddings
- Ákos Kádár, Lan Xiao, Mete Kemertas, Federico Fancellu, Allan Jepson, Afsaneh Fazly
- TLDR: Wir stellen das Problem des Abhängigkeitsparsings als eine Tree-Einbettungsproblem dar und zeigen, dass die meisten von ihnen die Tree-Distanz-Verbewahrungen und die Parsing-Leistung auf par mit einem graphbasierten Parser erreichen.
- Active Learning for Sequence Tagging with Deep Pre-trained Models and Bayesian Uncertainty Estimates
- Artem Shelmanov, Dmitri Puzyrev, Lyubov Kupriyanova, Denis Belyakov, Daniil Larionov, Nikita Khromov, Olga Kozlova, Ekaterina Artemova, Dmitry V. Dylov, Alexander Panchenko
- TLDR: Wir analysieren Bayes’sche Unsicherheitsschätzer und Monte Carlo Dropout-Optionen für tiefe Modelle und zeigen, dass sie für aktives Lernen geeignet sind.
- MultiHumES: Multilingual Humanitarian Dataset for Extractive Summarization
- Jenny Paola Yela-Bello, Ewan Oglethorpe, Navid Rekabsaz
- TLDR: Wir stellen eine neue Multi-Lingual-Summarium-Datensätzensammlung vor, die auf der Erfassung von Informationen in den Datensätzen für die Hilfeleistung von Menschen in der Region basiert.
- Learning From Revisions: Quality Assessment of Claims in Argumentation at Scale
- Gabriella Skitalinskaya, Jonas Klaff, Henning Wachsmuth
- TLDR: Wir vergleichen die Qualität von Behauptungen und die Qualität der Begründungen, die sie erzeugen, und schlagen eine Aufgabe vor, die die Qualität von Behauptungen und der Begründungen, die sie erzeugen, bewertet.
- Few Shot Dialogue State Tracking using Meta-learning
- Saket Dingliwal, Shuyang Gao, Sanchit Agarwal, Chien-Wei Lin, Tagyoung Chung, Dilek Hakkani-Tur
- TLDR: Wir schlagen einen Meta-Lernansatz vor, der auf das Problem des Zero-Shot-Statement-Trackings anwendbar ist und die Leistung bei unbekannten Domänen verbessert.
- BERT Prescriptions to Avoid Unwanted Headaches: A Comparison of Transformer Architectures for Adverse Drug Event Detection
- Beatrice Portelli, Edoardo Lenzi, Emmanuele Chersoni, Giuseppe Serra, Enrico Santus
- TLDR: Wir stellen SpanBERT und PubMedBERT vor, die für die Erkennung von Adverse Drug Events auf der Grundlage von Texten aus sozialen Medien geeignet sind.
- Semantic Parsing of Disfluent Speech
- Priyanka Sen, Isabel Groves
- TLDR: Wir stellen fest, dass ein semantisches Parsing-Modell nicht seamlessly handlet, wenn die Sprachausgänge in einem ATIS-Datensätzen vertauscht werden.
- Joint Energy-based Model Training for Better Calibrated Natural Language Understanding Models
- Tianxing He, Bryan McCann, Caiming Xiong, Ehsan Hosseini-Asl
- TLDR: Wir verwenden kontrastive Schätzungsmethoden, um das EBM-Training bei der Finetuning von Texten zu verbessern.
- What Sounds “Right” to Me? Experiential Factors in the Perception of Political Ideology
- Qinlan Shen, Carolyn Rose
- TLDR: Wir stellen eine empirische Untersuchung vor, die die Bedeutung von Emotionen in Texten für die Wahrnehmung von gesellschaftlichen Ideen untersuchen.
- Language Models as Knowledge Bases: On Entity Representations, Storage Capacity, and Paraphrased Queries
- Benjamin Heinzerling, Kentaro Inui
- TLDR: Wir stellen eine empirische Studie vor, die die Paraphrasierung von Behauptungen in LMs als Knowledge-Bases darstellt.
- Globalizing BERT-based Transformer Architectures for Long Document Summarization
- Quentin Grail, Julien Perez, Eric Gaussier
- TLDR: Wir stellen eine neuartige Hierarchie vor, die Informationen zwischen mehreren Transformatoren verteilt und die Dokumenten zusammen mit den Transformatoren zusammen mit den Transformatoren zusammen erfasst.
- Through the Looking Glass: Learning to Attribute Synthetic Text Generated by Language Models
- Shaoor Munir, Brishna Batool, Zubair Shafiq, Padmini Srinivasan, Fareed Zaffar
- TLDR: Wir schlagen eine maschinelles Lernen-Architektur vor, die die Autorenschaft von synthetischen Texten angeht.
- We Need To Talk About Random Splits
- Anders Søgaard, Sebastian Ebert, Jasmijn Bastings, Katja Filippova
- TLDR: Wir schlagen eine neue Methode vor, die die Verzerrung von Daten in biased oder adversarial Weise simuliert, und die Verzerrung von Daten in einer beliebigen Weise, die in einer beliebigen Domänendatenverzerrung verwendet werden, verfälschen.
- How Certain is Your Transformer?
- Artem Shelmanov, Evgenii Tsymbalov, Dmitri Puzyrev, Kirill Fedyanin, Alexander Panchenko, Maxim Panov
- TLDR: Wir analysieren die Unsicherheit bei der Erkennung von Fehlerinstanzen und stellen fest, dass die Ergebnisse die Qualität der Fehlererkennung verbessern.
- Alignment verification to improve NMT translation towards highly inflectional languages with limited resources
- George Tambouratzis
- TLDR: Wir schlagen eine hybridisierte Methode vor, die die Qualität von morphologischen Texten verbessert, wenn sie mit begrenzten Trainingsdaten trainiert werden.
- Data Augmentation for Voice-Assistant NLU using BERT-based Interchangeable Rephrase
- Akhila Yerukola, Mason Bretan, Hongxia Jin
- TLDR: Wir stellen eine Datenerweiterungstechnik vor, die auf BERT-Like-Attention und eine BERT-Like-Schätzerinbettung basiert, um sprachliche Sprachkenntnisse zu verbessern.
- How to Evaluate a Summarizer: Study Design and Statistical Analysis for Manual Linguistic Quality Evaluation
- Julius Steen, Katja Markert
- TLDR: Wir vergleichen Likert-Typ und Rangierungsmerkmale und zeigen, dass die beste Wahl für die Bewertung von Texten die Qualität der Texterzeugung und die Fehlerrate erhöhen kann.
- Open-Mindedness and Style Coordination in Argumentative Discussions
- Aviv Ben-Haim, Oren Tsur
- TLDR: Wir zeigen, dass die offene Wahrnehmung von Experten in einer offenen Umgebung die Kommunikationsqualität fördert.
- Error Analysis and the Role of Morphology
- Marcel Bollmann, Anders Søgaard
- TLDR: Wir stellen fest, dass morphologische Merkmale die Fehlervorhersage verbessern.
- Applying the Transformer to Character-level Transduction
- Shijie Wu, Ryan Cotterell, Mans Hulden
- TLDR: Wir stellen einen neuen Transformator vor, der auf Zeichenebene die Leistung von Recurrent Neural Networks übertrifft.
- Exploring Supervised and Unsupervised Rewards in Machine Translation
- Julia Ive, Zixu Wang, Marina Fomicheva, Lucia Specia
- TLDR: Wir schlagen eine neue RL-Methode vor, die eine dynamische Belohnungsfunktion nutzt, um die Verzerrung zwischen Belohnungsfunktionen zu beseitigen.
- Us vs. Them: A Dataset of Populist Attitudes, News Bias and Emotions
- Pere-Lluís Huguet Cabot, David Abadi, Agneta Fischer, Ekaterina Shutova
- TLDR: Wir stellen einen neuen Datensatz vor, der 6861 Reddit-Beiträge enthält, die für populistische Einstellungen charakterisiert sind und die erste groß angelegte Rechner-Modelle dieser Phänomene.
- Multilingual Entity and Relation Extraction Dataset and Model
- Alessandro Seganti, Klaudia Firląg, Helena Skowronska, Michał Satława, Piotr Andruszkiewicz
- TLDR: Wir stellen ein BERT-Modell vor, das auf einer Multilingual Umgebung trainiert werden kann, um die Aufgabe der Joint Entity and Relation Extraktion zu lösen.
- A New View of Multi-modal Language Analysis: Audio and Video Features as Text “Styles”
- Zhongkai Sun, Prathusha K Sarma, Yingyu Liang, William Sethares
- TLDR: Wir schlagen einen neuen Transformer-Graphensatz vor, der die Sprachstilen von Texten in Texten überträgt.
- Multilingual and cross-lingual document classification: A meta-learning approach
- Niels van der Heijden, Helen Yannakoudakis, Pushkar Mishra, Ekaterina Shutova
- TLDR: Wir schlagen einen Meta-Lernansatz vor, der die Dokumentenklassifikation in geringen Ressourcen ermöglicht und gleichzeitig auf stabile und stabile Weise lernt.
- Boosting Low-Resource Biomedical QA via Entity-Aware Masking Strategies
- Gabriele Pergola, Elena Kochkina, Lin Gui, Maria Liakata, Yulan He
- TLDR: Wir schlagen eine neue Methode zur Ableitung von Entitätsmasking vor, die auf der Entitätsidentifikation basiert und die LM-Faltung von gemeinert Wissen ermöglicht.
- Attention-based Relational Graph Convolutional Network for Target-Oriented Opinion Words Extraction
- Junfeng Jiang, An Wang, Akiko Aizawa
- TLDR: Wir schlagen ein Aufmerksamkeitsbasiertes relationales Graphen Convolutional Network vor, um syntaktische Informationen über Abhängigkeitsgraphen zu nutzen.
- “Laughing at you or with you”: The Role of Sarcasm in Shaping the Disagreement Space
- Debanjan Ghosh, Ritvik Shrivastava, Smaranda Muresan
- TLDR: Wir stellen eine neue Methode zur Erkennung von Sätzen vor, die für die Klassifizierung von Argumentationsrelationen geeignet sind.
- Learning Relatedness between Types with Prototypes for Relation Extraction
- Lisheng Fu, Ralph Grishman
- TLDR: Wir schlagen eine Methode vor, die Multi-Task-Lernen verwendet, um die Beziehungen zwischen den Typen zu verbessern.
- I Beg to Differ: A study of constructive disagreement in online conversations
- Christine De Kock, Andreas Vlachos
- TLDR: Wir analysieren, was für die konstruktive Lösung von Bewährungen wichtig ist und wie diese zu einer Lösung führt.
- Acquiring a Formality-Informed Lexical Resource for Style Analysis
- Elisabeth Eder, Ulrike Krieg-Holz, Udo Hahn
- TLDR: Wir stellen ein neues Modell von lexikalischen Wörterbüchern vor, das auf formalen Sprachstilen basiert und die formalen Scores von Sprachstilen vorhersagt.
- Probing into the Root: A Dataset for Reason Extraction of Structural Events from Financial Documents
- Pei Chen, Kang Liu, Yubo Chen, Taifeng Wang, Jun Zhao
- TLDR: Wir schlagen eine neue Aufgabe vor, die die Erkennung von Kausalitäten in Dokumenten ermöglicht.
- Language Modelling as a Multi-Task Problem
- Lucas Weber, Jaap Jumelet, Elia Bruni, Dieuwke Hupkes
- TLDR: Wir schlagen vor, Sprachmodelle als Multi-Task-Probleme zu betrachten und zeigen, dass die Verallgemeinerung von Negativen Polaritätseingaben (NPIs) in Sprachmodellen natürlich zu einer Sprachmodellierungsaufgabe führt.
- ChainCQG: Flow-Aware Conversational Question Generation
- Jing Gu, Mostafa Mirshekari, Zhou Yu, Aaron Sisto
- TLDR: Wir stellen eine neue Architektur vor, die Fragen erzeugt, um eine neue Sprachdynamik zu schaffen.
- The Interplay of Task Success and Dialogue Quality: An in-depth Evaluation in Task-Oriented Visual Dialogues
- Alberto Testoni, Raffaella Bernardi
- TLDR: Wir zeigen, dass die Sprachqualität von Modellen und Aufgabenagnostizitäten die Sprachqualität von Modellen und Aufgaben verbessern können.
- “Are you kidding me?”: Detecting Unpalatable Questions on Reddit
- Sunyam Bagga, Andrew Piper, Derek Ruths
- TLDR: Wir schlagen eine Aufgabe vor, die eine subtle Form von Ausnutzung von Ausdrücken in sozialen Netzwerken erkennt.
- Neural-Driven Search-Based Paraphrase Generation
- Betty Fabre, Tanguy Urvoy, Jonathan Chevelu, Damien Lolive
- TLDR: Wir stellen Monte-Carlo-Baumsuche für Paraphrase-Generierung vor und zeigen, dass sie gut funktionieren.
- Word Alignment by Fine-tuning Embeddings on Parallel Corpora
- Zi-Yi Dou, Graham Neubig
- TLDR: Wir stellen Methoden vor, die die Verwendung von LMs auf parallelen Texten aufwerten, um die Wortanpassung über parallele Korpora zu verbessern.
- Paraphrases do not explain word analogies
- Louis Fournier, Ewan Dunbar
- TLDR: Wir stellen fest, dass Worte2vec und GloVe für die Kodierung von Sprachregularitäten entscheiden.
- An Empirical Study on the Generalization Power of Neural Representations Learned via Visual Guessing Games
- Alessandro Suglia, Yonatan Bisk, Ioannis Konstas, Antonio Vergari, Emanuele Bastianelli, Andrea Vanzo, Oliver Lemon
- TLDR: Wir schlagen eine neue Methode vor, um Spiele mit Hilfe von Deep Learning zu lernen, die auf Visual Question Answering (VQA) übertragen werden können.
- A Unified Feature Representation for Lexical Connotations
- Emily Allaway, Kathleen McKeown
- TLDR: Wir verwenden Distanzlabeling, um eine lexikalische Repräsentation zu erstellen, die Konnotations für Worte und Phrasen erfasst.
- FAST: Financial News and Tweet Based Time Aware Network for Stock Trading
- Ramit Sawhney, Arnav Wadhwa, Shivam Agarwal, Rajiv Ratn Shah
- TLDR: Wir schlagen einen hierarchischen Lernalgorithmus vor, der Textdaten nutzt, um die Stimmung im Bereich der Börsen zu steuern.
- Building Representative Corpora from Illiterate Communities: A Reviewof Challenges and Mitigation Strategies for Developing Countries
- Stephanie Hirmer, Alycia Leonard, Josephine Tumwesige, Costanza Conforti
- TLDR: Wir identifizieren und schlagen eine Reihe von Strategien zur Vermeidung von Verzerrungen vor, die auf Daten aus landschaftstypischen Gemeinschaften mit hoher illiteracy basieren.
- Process-Level Representation of Scientific Protocols with Interactive Annotation
- Ronen Tamari, Fan Bai, Alan Ritter, Gabriel Stanovsky
- TLDR: Wir entwickeln eine Text-Eigenschafts-Architektur, die auf Dokumentebene eine realen Weltendokumente erfüllt.
- Machine Translationese: Effects of Algorithmic Bias on Linguistic Complexity in Machine Translation
- Eva Vanmassenhove, Dimitar Shterionov, Matthew Gwilliam
- TLDR: Wir stellen fest, dass die Verzerrung von Phrasen in den Trainingsdaten die Sprachverzerrung in der menschlichen Übersetzungstechnik erhöht.
- First Align, then Predict: Understanding the Cross-Lingual Ability of Multilingual BERT
- Benjamin Muller, Yanai Elazar, Benoît Sagot, Djamé Seddah
- TLDR: Wir stellen fest, dass BERT ein Multilingual BERT ist und dass die Aufgabe-Vorhersage für einen Sprachtransfer von Bedeutung ist.
- Stereotype and Skew: Quantifying Gender Bias in Pre-trained and Fine-tuned Language Models
- Daniel de Vassimon Manela, David Errington, Thomas Fisher, Boris van Breugel, Pasquale Minervini
- TLDR: Wir schlagen zwei metrische Metriken vor, die gender-skenhafte Stereotype und gender-skenhafte Verzerrungen quantifizieren und analysieren.
- On the evolution of syntactic information encoded by BERT’s contextualized representations
- Laura Pérez-Mayos, Roberto Carlini, Miguel Ballesteros, Leo Wanner
- TLDR: Wir analysieren die Evolution der Syntax-Bäumen während des Fine-Tuning-Prozesses von BERT und zeigen, dass die Kodierung von Syntax-Informationen in den BERT-Modellen nicht vollständig entfernt wird.
- Identify, Align, and Integrate: Matching Knowledge Graphs to Commonsense Reasoning Tasks
- Lisa Bauer, Mohit Bansal
- TLDR: Wir stellen einen Ansatz zur Bewertung und Bewertung von Wissensgraphen vor, der die Fähigkeit eines Kandidaten zur Wissensausbreitung und zur Wissensverknüpfung nutzt.
- Calculating the optimal step of arc-eager parsing for non-projective trees
- Mark-Jan Nederhof
- TLDR: Wir stellen eine Theorie vor, die die optimalen nächsten Schritten von Parsern in Bezug auf eine nicht-projective Abhängigkeitsstruktur darstellt.
- Subword Pooling Makes a Difference
- Judit Ács, Ákos Kádár, Andras Kornai
- TLDR: Wir untersuchen, wie die Wahl der ersten Worte die Leistung bei morphologischen Proben, POS-Tagging und NER verbessert.
- Content-based Models of Quotation
- Ansel MacLaughlin, David Smith
- TLDR: Wir identifizieren, welche Passagen in einem Dokument die meisten Zitate enthalten, und schlagen eine Methode zur Bewertung dieser Zitate vor, die die meisten Zitate direkt von den Dokumenten kennt.
- L2C: Describing Visual Differences Needs Semantic Understanding of Individuals
- An Yan, Xin Wang, Tsu-Jui Fu, William Yang Wang
- TLDR: Wir stellen ein Learning-to-Compare-Modell vor, das lernt, die semantischen Strukturen von zwei Bildern zu verstehen und während des Lernens zu beschreiben, wie sie sich unterscheiden.
- VoiSeR: A New Benchmark for Voice-Based Search Refinement
- Simone Filice, Giuseppe Castellucci, Marcus Collins, Eugene Agichtein, Oleg Rokhlenko
- TLDR: Wir stellen einen großen Datensatz von Sprachbefehlungen vor, der auf der Suche nach Konversationalitäten und -Interpretierbarkeit basiert.
- Event-Driven News Stream Clustering using Entity-Aware Contextual Embeddings
- Kailash Karthik Saravanakumar, Miguel Ballesteros, Muthu Kumar Chandrasekaran, Kathleen McKeown
- TLDR: Wir schlagen eine Methode vor, die die Dokumenten-Clustering-Verallgemeinerung nutzt und die Klassifizierung von Nachrichten in einem stream-Clustering-Datensätzen verbessert.
- Adversarial Learning of Poisson Factorisation Model for Gauging Brand Sentiment in User Reviews
- Runcong Zhao, Lin Gui, Gabriele Pergola, Yulan He
- TLDR: Wir schlagen ein neues Modell vor, das auf der Poisson-Faktorisierung basiert, um brand-associierte Themen aus Bewertungsreviews zu extrahieren.
- Lexical Normalization for Code-switched Data and its Effect on POS Tagging
- Rob van der Goot, Özlem Çetinoğlu
- TLDR: Wir schlagen drei Normalisierungsmodelle vor, die auf Code-Switched Daten angewendet werden, und zeigen, dass sie die Leistung von monolingualen Modellen erheblich übertreffen.
- Structural Encoding and Pre-training Matter: Adapting BERT for Table-Based Fact Verification
- Rui Dong, David Smith
- TLDR: Wir stellen fest, dass die Modellierung von Texten in tabellarischen Daten die Sprachvervollständigung verbessert.
- A Study of Automatic Metrics for the Evaluation of Natural Language Explanations
- Miruna-Adriana Clinciu, Arash Eshghi, Helen Hastie
- TLDR: Wir vergleichen die Bewertung von embedded-NL-Erklärungsmethoden mit den Wortverschiebungsmetriken und zeigen, dass sie eine bessere Bewertung als menschliche Bewertungen haben.
- Adversarial Stylometry in the Wild: Transferable Lexical Substitution Attacks on Author Profiling
- Chris Emmery, Ákos Kádár, Grzegorz Chrupała
- TLDR: Wir stellen eine Transformator-basierte Erweiterung vor, die die Übertragbarkeit von Texten mit Hilfe von Texten aus Texten mit Hilfe von Texten mit Textstilen ermöglicht.
- Cross-Cultural Similarity Features for Cross-Lingual Transfer Learning of Pragmatically Motivated Tasks
- Jimin Sun, Hwijeen Ahn, Chan Young Park, Yulia Tsvetkov, David R. Mortensen
- TLDR: Wir stellen drei sprachenspezifische Merkmale vor, die auf spracheninterferenzbene identifiziert werden können und die Sprachwahrnehmung in Sprachanalysen unterstützen.
- PHASE: Learning Emotional Phase-aware Representations for Suicide Ideation Detection on Social Media
- Ramit Sawhney, Harshit Joshi, Lucie Flek, Rajiv Ratn Shah
- TLDR: Wir schlagen PHASE vor, einen Zeit- und Phase-aware Rahmen, der adaptively lernt, Merkmale aus einem Benutzers’s emotionalen Spektrum auf Twitter für die Erkennung von Suicid Intentions zu verwenden.
- Exploiting Definitions for Frame Identification
- Tianyu Jiang, Ellen Riloff
- TLDR: Wir stellen ein neues Modell vor, das eine Transformator-Architektur nutzt, um Bilder und Bildersätze in FrameNet zu erkennen.
- ADePT: Auto-encoder based Differentially Private Text Transformation
- Satyapriya Krishna, Rahul Gupta, Christophe Dupuy
- TLDR: Wir stellen einen differentiell privaten Texttransformationsalgorithmus vor, der auf der Schutz der Privatsphäre basiert und gute Leistungen bei NLP-Aufgaben erbringt.
- Conceptual Grounding Constraints for Truly Robust Biomedical Name Representations
- Pieter Fivez, Simon Suster, Walter Daelemans
- TLDR: Wir stellen einen neuen Ansatz vor, um biomedizinische Namen in tiefe neuronale Kodierungsarchitekturen zu integrieren, die die Synonyme und die allgemeine Semantik der Namen besser erkennen.
- Adaptive Mixed Component LDA for Low Resource Topic Modeling
- Suzanna Sia, Kevin Duh
- TLDR: Wir stellen eine adaptive Methode vor, die die Themenkomplexität von diskreten und kontinuierlichen Themenverteilungen verbessert.
- Evaluating Neural Model Robustness for Machine Comprehension
- Winston Wu, Dustin Arendt, Svitlana Volkova
- TLDR: Wir analysieren und schlagen eine neue Methode vor, die die Wahrscheinlichkeit von Fehlern bei Strategischen Satz- und Phrasenverfälschungen minimiert.
- Hidden Biases in Unreliable News Detection Datasets
- Xiang Zhou, Heba Elfardy, Christos Christodoulopoulos, Thomas Butler, Mohit Bansal
- TLDR: Wir stellen fest, dass die Auswahlverzerrung bei der Datenerfassung zu einer schlechten Bilddarstellung führt.
- Annealing Knowledge Distillation
- Aref Jafari, Mehdi Rezagholizadeh, Pranav Sharma, Ali Ghodsi
- TLDR: Wir schlagen eine neue Methode zur Wissensdestillation vor, die die Wissensverschiebung von Lehrern in ein kleines Modell überträgt.
- Unsupervised Extractive Summarization using Pointwise Mutual Information
- Vishakh Padmakumar, He He
- TLDR: Wir schlagen eine Methode zur Erstellung von Texten aus Dokumenten vor, die die Bedeutung von Sätzen und Dokumenten berücksichtigt.
- Context-aware Neural Machine Translation with Mini-batch Embedding
- Makoto Morishita, Jun Suzuki, Tomoharu Iwata, Masaaki Nagata
- TLDR: Wir schlagen Mini-Battle-Einbettung (MBE) vor, eine Methode zur Darstellung von Merkmalen in einer Mini-Battle-Einbettung.
- Deep Subjecthood: Higher-Order Grammatical Features in Multilingual BERT
- Isabel Papadimitriou, Ethan A. Chi, Richard Futrell, Kyle Mahowald
- TLDR: Wir trainieren Klassen, um die Themenwürdigkeit von mBERT-Einbettungen in Transformer-Szenarien wiederherzustellen und die Klassifizierungsverzerrung in Sprachregionen zu erklären.
- Streaming Models for Joint Speech Recognition and Translation
- Orion Weller, Matthias Sperber, Christian Gollan, Joris Kluivers
- TLDR: Wir stellen ein neues Ende-zu-Ende-Storing-Modell vor, das sowohl transkribierte als auch Übersetzungen in die Syntax integriert.
- DOCENT: Learning Self-Supervised Entity Representations from Large Document Collections
- Yury Zemlyanskiy, Sudeep Gandhe, Ruining He, Bhargav Kanagal, Anirudh Ravula, Juraj Gottweis, Fei Sha, Ilya Eckstein
- TLDR: Wir lernen, Worte und Entitäten gemeinsam zu lernen, um sie für die Erkennung von Personen und Objekten zu verwenden.
- Scientific Discourse Tagging for Evidence Extraction
- Xiangci Li, Gully Burns, Nanyun Peng
- TLDR: Wir verwenden Deep-Learning-Techniken zur Erfassung und Erkennung von Beweiseinbettungen aus Forschungsschriften, um die Qualität von Forschungsergebnissen bei der Bewertung von medizinischen Behauptungen zu verbessern.
- Incremental Beam Manipulation for Natural Language Generation
- James Hargreaves, Andreas Vlachos, Guy Emerson
- TLDR: Wir schlagen eine neue Methode zur Beam-Suche vor, die die Beam-Suche verbessert und gleichzeitig die Beam-Matching-Methode nutzt.
- StructSum: Summarization via Structured Representations
- Vidhisha Balachandran, Artidoro Pagnoni, Jay Yoon Lee, Dheeraj Rajagopal, Jaime Carbonell, Yulia Tsvetkov
- TLDR: Wir schlagen einen Rahmen vor, der auf Dokumentebene Strukturen in die Zusammenfassungen integriert, um die Wichtigkeit von Dokumenten zu erhalten.
- Project-then-Transfer: Effective Two-stage Cross-lingual Transfer for Semantic Dependency Parsing
- Hiroaki Ozaki, Gaku Morio, Terufumi Morishita, Toshinori Miyoshi
- TLDR: Wir schlagen einen neuen Parser vor, der auf graphenbasiertem Sprachtransfer basiert.
- LSOIE: A Large-Scale Dataset for Supervised Open Information Extraction
- Jacob Solawetz, Stefan Larson
- TLDR: Wir stellen einen neuen Datensatz vor, der einen großen Datensatz für die Informationsextraktion von Texten darstellt.
- Changing the Mind of Transformers for Topically-Controllable Language Generation
- Haw-Shiuan Chang, Jiaming Yuan, Mohit Iyyer, Andrew McCallum
- TLDR: Wir stellen einen Rahmen vor, der mehrere Kandidaten für Themen vorschlagen kann, von denen ein Benutzer eine Aufgabe erzeugt.
- Unsupervised Abstractive Summarization of Bengali Text Documents
- Radia Rayan Chowdhury, Mir Tafseer Nayeem, Tahsin Tasnim Mim, Md. Saifur Rahman Chowdhury, Taufiqul Jannat
- TLDR: Wir schlagen ein graphbasiertes unbeaufsichtigtes abstraktes Zusammenfassungsmodell vor, das auf Bengali-Textdokumenten funktioniert.
- From Toxicity in Online Comments to Incivility in American News: Proceed with Caution
- Anushree Hede, Oshin Agarwal, Linda Lu, Diana C. Mutz, Ani Nenkova
- TLDR: Wir zeigen, dass toxicity Modelle, wie Perspective, ineffizient für die Bewertung von Intoleranz in Nachrichten sind.
- On the Computational Modelling of Michif Verbal Morphology
- Fineen Davis, Eddie Antonio Santos, Heather Souter
- TLDR: Wir stellen ein finite-state-Modell der Sprachmorphologie von Michif vor und zeigen, dass die Sprachregeln für die Sprachausbreitung von Algonquien und French-Eigenschaften sehr unterschiedlich sind.
- A Few Topical Tweets are Enough for Effective User Stance Detection
- Younes Samih, Kareem Darwish
- TLDR: Wir schlagen einen neuen Ansatz zur Erkennung von Sätzen vor, der auf Benutzerebene interpretiert werden kann, und erreichen eine hohe Genauigkeit und eine hohe F-Measurierung auf Twitter.
- Do Syntax Trees Help Pre-trained Transformers Extract Information?
- Devendra Sachan, Yuhao Zhang, Peng Qi, William L. Hamilton
- TLDR: Wir schlagen eine neue Methode vor, die syntaktische Strukturen in die Aufmerksamkeitsschichten von BERT integriert.
- Informative and Controllable Opinion Summarization
- Reinald Kim Amplayo, Mirella Lapata
- TLDR: Wir schlagen einen Rahmen vor, der die Verwendung von Bewertungen für die Zusammenfassung von Empfehlungen ermöglicht.
- Coloring the Black Box: What Synesthesia Tells Us about Character Embeddings
- Katharina Kann, Mauro M. Monsalve-Mercado
- TLDR: Wir vergleichen graphemähnliche Zeicheneinbettungen mit der Wahrnehmung von Zeichen.
- How Good (really) are Grammatical Error Correction Systems?
- Alla Rozovskaya, Dan Roth
- TLDR: Wir zeigen, dass die Grammatikerklärungsmethoden, die von Experten vorgeschlagen wurden, die beste Leistung zeigen.
- BERTective: Language Models and Contextual Information for Deception Detection
- Tommaso Fornaciari, Federico Bianchi, Massimo Poesio, Dirk Hovy
- TLDR: Wir stellen eine neue Methode zur Erkennung von Verfälschungen vor, die auf Aufmerksamkeitsbeschränkungen basiert.
- Learning Coupled Policies for Simultaneous Machine Translation using Imitation Learning
- Philip Arthur, Trevor Cohn, Gholamreza Haffari
- TLDR: Wir stellen einen Algorithmus vor, der die Aufgabe der Erfassung von Satzbeschriftungen für die gleichzeitige Übersetzung von Sprachmodellen erlernt.
- Complementary Evidence Identification in Open-Domain Question Answering
- Xiangyang Mou, Mo Yu, Shiyu Chang, Yufei Feng, Li Zhang, Hui Su
- TLDR: Wir schlagen eine Methode vor, die vector-Repräsentationen von Passagen erlernt und die Vielfalt innerhalb der ausgewählten Menge berücksichtigt.
- Entity-level Factual Consistency of Abstractive Text Summarization
- Feng Nan, Ramesh Nallapati, Zhiguo Wang, Cicero Nogueira dos Santos, Henghui Zhu, Dejiao Zhang, Kathleen McKeown, Bing Xiang
- TLDR: Wir schlagen eine neue Metrik vor, um die Entitätswahrnehmung bei der Erzeugung von Zusammenfassungen zu beheben.
- On Hallucination and Predictive Uncertainty in Conditional Language Generation
- Yijun Xiao, William Yang Wang
- TLDR: Wir schlagen eine Erweiterung auf Beam Search vor, um die Wahrnehmung von Beam-Bäumen zu reduzieren.
- Fine-Grained Event Trigger Detection
- Duong Le, Thien Huu Nguyen
- TLDR: Wir schlagen eine Methode vor, um den Semcor-Datensätzen für Word-Sense-Abgleichungen zu transformieren, und zeigen, dass die Ergebnisse für die FED sehr gut abschneiden.
- Extremely Small BERT Models from Mixed-Vocabulary Training
- Sanqiang Zhao, Raghav Gupta, Yang Song, Denny Zhou
- TLDR: Wir schlagen eine Methode vor, BERT-LARGE zu einem modell mit kleineren Sprachstilen und unbekannten Dimensionen zu integrieren.
- Diverse Adversaries for Mitigating Bias in Training
- Xudong Han, Timothy Baldwin, Trevor Cohn
- TLDR: Wir schlagen einen neuartigen Ansatz für das adversarische Lernen vor, der auf mehreren Diversity-Discriminatoren basiert.
- ‘Just because you are right, doesn’t mean I am wrong’: Overcoming a bottleneck in development and evaluation of Open-Ended VQA tasks
- Man Luo, Shailaja Keyur Sampat, Riley Tallman, Yankai Zeng, Manuha Vancha, Akarshan Sajja, Chitta Baral
- TLDR: Wir stellen eine neue Methode zur Erklärung von VQA vor, die auf der Suche nach plausiblen Antworten für die Frage des GQA-Datensätzens verwendet werden kann.
- Better Neural Machine Translation by Extracting Linguistic Information from BERT
- Hassan S. Shavarani, Anoop Sarkar
- TLDR: Wir verwenden BERT, um die Sprachinformationen von neuronalen Übersetzungsmodellen zu integrieren.
- CLiMP: A Benchmark for Chinese Language Model Evaluation
- Beilei Xiang, Changbing Yang, Yu Li, Alex Warstadt, Katharina Kann
- TLDR: Wir stellen ein corpus von minimalen Paaren (CLiMP) vor, um herauszufinden, wie Wissen Chinese LMs aus Sprachmodellen erlernen.
- Measuring and Improving Faithfulness of Attention in Neural Machine Translation
- Pooya Moradi, Nishant Kambhatla, Anoop Sarkar
- TLDR: Wir stellen eine neue Zielfunktion vor, die die Zuverlässigkeit von NMT-Modellen verbessert und die Qualität der Übersetzung verbessert.
- Progressively Pretrained Dense Corpus Index for Open-Domain Question Answering
- Wenhan Xiong, Hong Wang, William Yang Wang
- TLDR: Wir stellen die Suche nach den besten Inhaltsaussagen (MIPS) mit den besten Verzerrungen (QAE) vor und zeigen, dass die Verwendung von Verzerrungen die Suche nach den besten Inhaltsaussagen (QAE) beschleunigt.
- Exploring the Limits of Few-Shot Link Prediction in Knowledge Graphs
- Dora Jambor, Komal Teru, Joelle Pineau, William L. Hamilton
- TLDR: Wir stellen fest, dass die Zero-Shot-Architektur für die Few-Shot-Lernen von Beziehungen eine bessere Leistung als die Zero-Shot-Architektur erbringt.
- ProFormer: Towards On-Device LSH Projection Based Transformers
- Chinnadhurai Sankar, Sujith Ravi, Zornitsa Kozareva
- TLDR: Wir stellen ProFormer vor, eine projection based Transformator-Architektur, die auf Speichernetzen und IoT-Geräten geeignet ist, um Textrepräsentationen auf der Grundlage von Text zu generieren.
- Joint Learning of Hyperbolic Label Embeddings for Hierarchical Multi-label Classification
- Soumya Chatterjee, Ayush Maheshwari, Ganesh Ramakrishnan, Saketha Nath Jagarlapudi
- TLDR: Wir schlagen ein neues Konzept vor, das auf Label-Co-Ocurrence-Informationen basiert und die Label-Eigenschaften verbessert.
- Segmenting Subtitles for Correcting ASR Segmentation Errors
- David Wan, Chris Kedzie, Faisal Ladhak, Elsbeth Turcan, Petra Galuscakova, Elena Zotkina, Zhengping Jiang, Peter Bell, Kathleen McKeown
- TLDR: Wir schlagen ein Modell vor, das die akustische Segmentierung von ASR-Modellen für Sprachdokumente verbessert.
- Crisscrossed Captions: Extended Intramodal and Intermodal Semantic Similarity Judgments for MS-COCO
- Zarana Parekh, Jason Baldridge, Daniel Cer, Austin Waters, Yinfei Yang
- TLDR: Wir stellen Crisscrossed Captions vor, eine Erweiterung des MS-COCO-Datensätzens mit semantischem Ähnlichkeitsnachweis für 267,095 Einbettungen und Intermodale Kapuzen.
- On-Device Text Representations Robust To Misspellings via Projections
- Chinnadhurai Sankar, Sujith Ravi, Zornitsa Kozareva
- TLDR: Wir zeigen, dass LSH-basierte Klassifikatoren robust gegenüber Verfälschungen und Störungen sind.
- ENPAR:Enhancing Entity and Entity Pair Representations for Joint Entity Relation Extraction
- Yijun Wang, Changzhi Sun, Yuanbin Wu, Hao Zhou, Lei Li, Junchi Yan
- TLDR: Wir schlagen eine neue Methode vor, die die Entitätenpaar-Informationen nutzt, um die gemeinsame Entitätsbeziehungen zu extrahieren.
- Text Augmentation in a Multi-Task View
- Jason Wei, Chengyu Huang, Shiqi Xu, Soroush Vosoughi
- TLDR: Wir schlagen eine Multi-Task-View-Architektur vor, die die Aufmerksamkeit auf die Datenerweiterung erhöht.
- Representations for Question Answering from Documents with Tables and Text
- Vicky Zayats, Kristina Toutanova, Mari Ostendorf
- TLDR: Wir stellen Text- und Tabellen-Vorhersagen vor, um Fragen zu beantworten, die von Textdokumenten gestellt werden.
- PPT: Parsimonious Parser Transfer for Unsupervised Cross-Lingual Adaptation
- Kemal Kurniawan, Lea Frermann, Philip Schulz, Trevor Cohn
- TLDR: Wir stellen eine Methode vor, die über die Übertragung von Sprachen hinweg verbessert und gleichzeitig die Sprachauswahl bei der Sprachvergabe optimiert.
- Modelling Context Emotions using Multi-task Learning for Emotion Controlled Dialog Generation
- Deeksha Varshney, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: Wir schlagen ein neuronales Encoder-Decoder-Modell vor, das automatisch eine Antwort auf eine bestimmte Emotionen generiert.
- Gender and Racial Fairness in Depression Research using Social Media
- Carlos Aguirre, Keith Harrigian, Mark Dredze
- TLDR: Wir analysieren, wie soziale Netzwerke die Fairness von Depressionsklassifikationsmodellen mit den Geschlechts- und Rassengruppen verzerren.
- MTOP: A Comprehensive Multilingual Task-Oriented Semantic Parsing Benchmark
- Haoran Li, Abhinav Arora, Shuohui Chen, Anchit Gupta, Sonal Gupta, Yashar Mehdad
- TLDR: Wir stellen einen neuen Multilingual Datensatz vor, der 100k annotierte Utterances in 6 Sprachen enthält.
- Adapting Event Extractors to Medical Data: Bridging the Covariate Shift
- Aakanksha Naik, Jill Fain Lehman, Carolyn Rose
- TLDR: Wir stellen eine neue Methode zur Anpassung von Ereignissen vor, die auf Texten aus Arzt-Patienten-Gesprächungen basiert.
- NoiseQA: Challenge Set Evaluation for User-Centric Question Answering
- Abhilasha Ravichander, Siddharth Dalmia, Maria Ryskina, Florian Metze, Eduard Hovy, Alan W Black
- TLDR: Wir zeigen, dass die Komponenten in den Pipelines, die den Antwortensenden precedieren, für die Fehler in der Regel enthalten sind, und stellen fest, dass die meisten von ihnen die Leistung erheblich reduzieren.
- Co-evolution of language and agents in referential games
- Gautier Dagan, Dieuwke Hupkes, Elia Bruni
- TLDR: Wir stellen einen Simulator vor, der kulturelle und architektonische Evolution in einer Population von Agenten modelliert.
- Modeling Context in Answer Sentence Selection Systems on a Latency Budget
- Rujun Han, Luca Soldaini, Alessandro Moschitti
- TLDR: Wir stellen einen Ansatz vor, um kontextualisierte Informationen in die Tests von Fragen zu integrieren.
- Syntax-BERT: Improving Pre-trained Transformers with Syntax Trees
- Jiangang Bai, Yujing Wang, Yiren Chen, Yaming Yang, Jing Bai, Jing Yu, Yunhai Tong
- TLDR: Wir stellen Syntax-BERT vor, einen Framework zur Implementierung von Syntax-Bäumen in Vortrainierte Sprachmodelle.
- DISK-CSV: Distilling Interpretable Semantic Knowledge with a Class Semantic Vector
- Housam Khalifa Bashier, Mi-Young Kim, Randy Goebel
- TLDR: Wir schlagen eine neue Technik vor, die Wissen gleichzeitig aus einer neuronalen Netzarchitektur für die Textklassifikation abgeleitet und als Klassifikator dargestellt wird.
- Attention Can Reflect Syntactic Structure (If You Let It)
- Vinit Ravishankar, Artur Kulmizev, Mostafa Abdou, Anders Søgaard, Joakim Nivre
- TLDR: Wir stellen eine experimentelle Methode vor, die die Behauptung auf der Grundlage der Abhängigkeitssyntax widerspiegelt, und zeigen, dass die Aufmerksamkeit als Erklärungsmechanismus für die Sprachauskodierung verwendet werden kann.
- Extractive Summarization Considering Discourse and Coreference Relations based on Heterogeneous Graph
- Yin Jou Huang, Sadao Kurohashi
- TLDR: Wir schlagen heterogene Graphen vor, um die Beziehungen zwischen Textspannen zu extrahieren.
- CDA: a Cost Efficient Content-based Multilingual Web Document Aligner
- Thuy Vu, Alessandro Moschitti
- TLDR: Wir stellen einen Content-basierten Dokumentenansatz (CDA) vor, eine effiziente Methode zur Anreicherung von Textdokumenten, die auf der gleichen Sprache trainiert wurden, und die Skalierung von Sprachdaten auf neue und low-resourced Sprachen.
- Metric-Type Identification for Multi-Level Header Numerical Tables in Scientific Papers
- Lya Hulliyyatus Suadaa, Hidetaka Kamigaito, Manabu Okumura, Hiroya Takamura
- TLDR: Wir stellen eine neue Aufgabe vor, die die Identifikation von Metriken aus mehreren Ebenen von Tabellen, Tabellenbeschriftungen und Tabellenbeschriftungen, und stellen zwei Modelle vor, die sowohl in- als auch aus- und außerhalb von Tabellen metric-typenidentifikationsprobleme lösen können.
- EmpathBERT: A BERT-based Framework for Demographic-aware Empathy Prediction
- Bhanu Prakash Reddy Guda, Aparna Garimella, Niyati Chhaya
- TLDR: Wir verwenden die Benutzerdaten, um die Empathy-Vorhersage von Nutzern zu nutzen.
- Are Neural Networks Extracting Linguistic Properties or Memorizing Training Data? An Observation with a Multilingual Probe for Predicting Tense
- Bingzhi Li, Guillaume Wisniewski
- TLDR: Wir zeigen, dass Bert Tenseinformationen aus Satzrepräsentationen erzeugt, während er in Chinesisch und Französisch Tenseinformationen erzeugt.
- Is Supervised Syntactic Parsing Beneficial for Language Understanding Tasks? An Empirical Investigation
- Goran Glavaš, Ivan Vulić
- TLDR: Wir stellen fest, dass die Überwachung von Sprachausdrucken für das semantisches Verständnis von LM-pretrierten Transformatoren nicht unbedingt erforderlich ist.
- Facilitating Terminology Translation with Target Lemma Annotations
- Toms Bergmanis, Mārcis Pinnis
- TLDR: Wir schlagen eine Methode vor, die auf der Verwendung von Sprachausschnitten basiert, um die Erfassung von Begriffen in einer Zielsprache zu erleichtern.
- Enhancing Sequence-to-Sequence Neural Lemmatization with External Resources
- Kirill Milintsevich, Kairit Sirts
- TLDR: Wir schlagen einen hybriden Ansatz vor, der die Lemma-Informationen aus externen Phrasen oder Regeln erweitert.
- Summarising Historical Text in Modern Languages
- Xutan Peng, Yi Zheng, Chenghua Lin, Advaith Siddharthan
- TLDR: Wir stellen eine Aufgabe vor, die die Klassifizierung von Texten aus einer modernen Sprache in einer Klassifizierungsaufgabe von Klassifizierungsmerkmalen unterscheidet.
- Challenges in Automated Debiasing for Toxic Language Detection
- Xuhui Zhou, Maarten Sap, Swabha Swayamdipta, Yejin Choi, Noah Smith
- TLDR: Wir schlagen eine automatische, sprachbewusste Datenverzerrungsmethode vor, die die Negativ-Attribute von toxic-Texten entfernt.
- Adaptive Fusion Techniques for Multimodal Data
- Gaurav Sahu, Olga Vechtomova
- TLDR: Wir schlagen adaptive Netzwerke vor, die die Einbeziehung von Daten aus mehreren Methoden effektiv modellieren.
- Detecting Scenes in Fiction: A new Segmentation Task
- Albin Zehe, Leonard Konle, Lea Katharina Dümpelmann, Evelyn Gius, Andreas Hotho, Fotis Jannidis, Lucas Kaufmann, Markus Krug, Frank Puppe, Nils Reiter, Annekea Schreiber, Nathalie Wiedmer
- TLDR: Wir stellen eine Aufgabe vor, die die Szenensegmentierung auf narrative Texten ermöglicht und zeigen, dass die Aufgabe sehr schwierig ist.
- LESA: Linguistic Encapsulation and Semantic Amalgamation Based Generalised Claim Detection from Online Content
- Shreya Gupta, Parantak Singh, Megha Sundriyal, Md. Shad Akhtar, Tanmoy Chakraborty
- TLDR: Wir schlagen eine neue Methode vor, die die Entflechtung von Behauptungen in einem großen Datensatz ermöglicht.
- Interpretability for Morphological Inflection: from Character-level Predictions to Subword-level Rules
- Tatyana Ruzsics, Olga Sozinova, Ximena Gutierrez-Vasques, Tanja Samardzic
- TLDR: Wir schlagen eine neuartige Methode zur Ableitung von Mustergewichten vor, um zu interpretieren, was das Modell lernt.
- Expanding, Retrieving and Infilling: Diversifying Cross-Domain Question Generation with Flexible Templates
- Xiaojing Yu, Anxiao Jiang
- TLDR: Wir schlagen eine neue Methode zur Fragegenerierung vor, die flexible Templates mit einem neuronalen Modell kombiniert, um vielfältige Fragen mit Satzstrukturen zu generieren.
- Handling Out-Of-Vocabulary Problem in Hangeul Word Embeddings
- Ohjoon Kwon, Dohyun Kim, Soo-Ryeon Lee, Junyoung Choi, SangKeun Lee
- TLDR: Wir schlagen ein robustes Hangeul-Word-Embedding-Modell vor, das typische Wörter aus typischen Texten entfernt.
- Exploiting Multimodal Reinforcement Learning for Simultaneous Machine Translation
- Julia Ive, Andy Mingren Li, Yishu Miao, Ozan Caglayan, Pranava Madhyastha, Lucia Specia
- TLDR: Wir schlagen einen Multimodal Ansatz für die simultane maschinelle Übersetzung mit Reinforcement Learning vor, mit Strategien zur Integration von visueller und sprachlicher Information.
- STAR: Cross-modal [STA]tement [R]epresentation for selecting relevant mathematical premises
- Deborah Ferreira, André Freitas
- TLDR: Wir schlagen STAR vor, ein Modell, das cross-modal Aufmerksamkeit verwendet, um die Aufgabe der Natural Language Premise Selection zu lösen.
- Do Multi-Hop Question Answering Systems Know How to Answer the Single-Hop Sub-Questions?
- Yixuan Tang, Hwee Tou Ng, Anthony Tung
- TLDR: Wir schlagen eine zusätzliche Frage-Evaluierung vor, um die Erklärung des Multi-Hop-Frameworks zu ermöglichen.
- Multilingual LAMA: Investigating Knowledge in Multilingual Pretrained Language Models
- Nora Kassner, Philipp Dufter, Hinrich Schütze
- TLDR: Wir verwenden mBERT als Wissensbasis und zeigen, dass die Sprachverschiebungen bei der Suche nach einer neuen Sprache zu einer neuen Sprachverschiebung führen.
- Variational Weakly Supervised Sentiment Analysis with Posterior Regularization
- Ziqian Zeng, Yangqiu Song
- TLDR: Wir schlagen einen posterioren Regularisierungsrahmen vor, um die Etikettenverteilungen bei der weacked-Überwachung zu regulieren.
- Framing Word Sense Disambiguation as a Multi-Label Problem for Model-Agnostic Knowledge Integration
- Simone Conia, Roberto Navigli
- TLDR: Wir stellen Word Sense Disambiguation (WSD) vor, eine Multi-Label-Klassifikationsproblem, bei der mehrere Sinnesmerkmale für die Verwendung von Text verwendet werden können.
- Graph-based Fake News Detection using a Summarization Technique
- Gihwan Kim, Youngjoong Ko
- TLDR: Wir schlagen eine neue Methode zur Erkennung von Verfälschungen vor, die die Dokumenteneigenen Informationen nutzt.
- Cognition-aware Cognate Detection
- Diptesh Kanojia, Prashant Sharma, Sayali Ghodekar, Pushpak Bhattacharyya, Gholamreza Haffari, Malhar Kulkarni
- TLDR: Wir schlagen eine neue Methode vor, die die gazebasierte Merkmale von Menschen in Bezug auf ihre Sichtweisen extrahiert.
- A Simple Three-Step Approach for the Automatic Detection of Exaggerated Statements in Health Science News
- Jasabanta Patro, Sabyasachee Baruah
- TLDR: Wir stellen einen einfachen, aber rationalen Ansatz vor, der die Identifikation von Exaggerationsverzerrungen ermöglicht.
- Modeling Coreference Relations in Visual Dialog
- Mingxiao Li, Marie-Francine Moens
- TLDR: Wir schlagen zwei neue und linguistisch inspirierte Soft-Constraints für die Lösung von Coreferences in Dialogen vor, die die Erkennung von Coreferences in einem Dialog verbessern.
- Increasing Robustness to Spurious Correlations using Forgettable Examples
- Yadollah Yaghoobzadeh, Soroush Mehri, Remi Tachet des Combes, T. J. Hazen, Alessandro Sordoni
- TLDR: Wir schlagen einen neuen Ansatz vor, um Beispiele zu vergessen, um minority-Eigenschaften in den Datensätzen zu finden.
- On Robustness of Neural Semantic Parsers
- Shuo Huang, Zhuang Li, Lizhen Qu, Lei Pan
- TLDR: Wir stellen eine empirische Studie vor, die die Robustheit von semantischen Parsern in der Gegenwart von Angriffen unter Berücksichtigung der Sprachwahrnehmung unter Berücksichtigung der Sprachwahrnehmung unter Beweis stellt.
- Benchmarking a transformer-FREE model for ad-hoc retrieval
- Tiago Almeida, Sérgio Matos
- TLDR: Wir stellen eine Analyse und eine effiziente Inferenztechnik vor, die auf Transformatoren basiert.
- Reanalyzing the Most Probable Sentence Problem: A Case Study in Explicating the Role of Entropy in Algorithmic Complexity
- Eric Corlett, Gerald Penn
- TLDR: Wir verwenden statistische Meßwerte zur Bewertung der Komplexität des NP-complete Most Probable Sentence Problems für pCFGs, um eine neue Analyse zu erstellen.
- Probing the Probing Paradigm: Does Probing Accuracy Entail Task Relevance?
- Abhilasha Ravichander, Yonatan Belinkov, Eduard Hovy
- TLDR: Wir zeigen, dass neuronale Modelle lernen, Spracheigenschaften zu kodieren, selbst wenn sie nicht für die Aufgabe des Modells trainiert wurden.
- One-class Text Classification with Multi-modal Deep Support Vector Data Description
- Chenlong Hu, Yukun Feng, Hidetaka Kamigaito, Hiroya Takamura, Manabu Okumura
- TLDR: Wir stellen eine Multi-Modal Deep SVDD (mSVDD) vor, die eine bessere Beschreibung für eine Klasse von Texten ermöglicht.
- Unsupervised Word Polysemy Quantification with Multiresolution Grids of Contextual Embeddings
- Christos Xypolopoulos, Antoine Tixier, Michalis Vazirgiannis
- TLDR: Wir schlagen eine neuartige Methode vor, die auf der Verwendung von Daten zur Bewertung von Polysemy basiert.
- Mega-COV: A Billion-Scale Dataset of 100+ Languages for COVID-19
- Muhammad Abdul-Mageed, AbdelRahim Elmadany, El Moatez Billah Nagoudi, Dinesh Pabbi, Kunal Verma, Rannie Lin
- TLDR: Wir verwenden Twitter, um einen Datensatz für die Studie von COVID-19 zu erstellen.
- Disfluency Correction using Unsupervised and Semi-supervised Learning
- Nikhil Saini, Drumil Trivedi, Shreya Khare, Tejas Dhamecha, Preethi Jyothi, Samarth Bharadwaj, Pushpak Bhattacharyya
- TLDR: Wir stellen ein Modell vor, das sprachenfreie Texte übersetzt und gleichzeitig sprachenstilfreie Sätze verwendet.
- Complex Question Answering on knowledge graphs using machine translation and multi-task learning
- Saurabh Srivastava, Mayur Patidar, Sudip Chowdhury, Puneet Agarwal, Indrajit Bhattacharya, Gautam Shroff
- TLDR: Wir schlagen BERT vor, ein neuronales Multi-Task BERT-Modell zur Lösung von Fragen über Wissensgraphen.
- Recipes for Adapting Pre-trained Monolingual and Multilingual Models to Machine Translation
- Asa Cooper Stickland, Xian Li, Marjan Ghazvininejad
- TLDR: Wir stellen fest, dass die Fine-Tuning-Methoden für das Training von Sprachmodellen auf mehreren Sprachpaaren besser geeignet sind als die von Encodern.
- From characters to words: the turning point of BPE merges
- Ximena Gutierrez-Vasques, Christian Bentz, Olga Sozinova, Tanja Samardzic
- TLDR: Wir vergleichen BPE und Informationentheorie, um zu bestimmen, ob Sprachverteilungen sich ähnlich entwickeln, wenn sie auf Wortebene zueinander verwandt.
- A Large-scale Evaluation of Neural Machine Transliteration for Indic Languages
- Anoop Kunchukuttan, Siddharth Jain, Rahul Kejriwal
- TLDR: Wir stellen eine groß angelegte Bewertung von neuronalen Übersetzungsmaschinen zwischen Englisch und indischen Sprachen vor und schlagen eine neue Methode zur Multilingualisierung vor.
- Communicative-Function-Based Sentence Classification for Construction of an Academic Formulaic Expression Database
- Kenichi Iwatsuki, Akiko Aizawa
- TLDR: Wir schlagen eine vollständig automatisierte Konstruktion von Fes vor, die auf der Verwendung von Klassifikatoren und Datensätzen für die Klassifizierung von Wissensgebieten basiert.
- Regulatory Compliance through Doc2Doc Information Retrieval: A case study in EU/UK legislation where text similarity has limitations
- Ilias Chalkidis, Manos Fergadiotis, Nikolaos Manginas, Eva Katakalou, Prodromos Malakasiotis
- TLDR: Wir stellen eine neue Methode zur Dokumenten-Informationsrechnerzeugung vor, die die Aufgabe des Dokumenten-Informations-Rechners verbessert.
- The Chinese Remainder Theorem for Compact, Task-Precise, Efficient and Secure Word Embeddings
- Patricia Thaine, Gerald Penn
- TLDR: Wir haben eine Methode zur Beschleunigung des neuronalen Sprachtrainings mit Hilfe von Reminder Theorem vorgeschlagen, die die Genauigkeit und die Leistung bei zwei NLP-Aufgaben verbessert.
- Don’t Change Me! User-Controllable Selective Paraphrase Generation
- Mohan Zhang, Luchen Tan, Zihang Fu, Kun Xiong, Jimmy Lin, Ming Li, Zhengkai Tu
- TLDR: Wir stellen eine neuartige Datenerzeugungstechnik vor, die darauf abzielt, dass die Verwendung von Paraphrasen zu einer Texterzeugung zu erklären.
- Rethinking Coherence Modeling: Synthetic vs. Downstream Tasks
- Tasnim Mohiuddin, Prathyusha Jwalapuram, Xiang Lin, Shafiq Joty
- TLDR: Wir vergleichen die Leistung von traditionellen und neuronalen Coherence-Modellen bei synthetischen Aufgaben und den Anwendungsbereichen, die sie verwenden.
- From the Stage to the Audience: Propaganda on Reddit
- Oana Balalau, Roxana Horincar
- TLDR: Wir analysieren, wie die Verfälschungen von Nachrichten auf Reddit die Stimmungen auf politische Themen verändern.
- Probing for idiomaticity in vector space models
- Marcos Garcia, Tiago Kramer Vieira, Carolina Scarton, Marco Idiart, Aline Villavicencio
- TLDR: Wir schlagen eine Probenmethode vor, um zu bewerten, ob kontextualisierte Worterepräsentationen die Intellektualität in Sprache darstellen.
- Is the Understanding of Explicit Discourse Relations Required in Machine Reading Comprehension?
- Yulong Wu, Viktor Schlegel, Riza Batista-Navarro
- TLDR: Wir schlagen eine ablationsbasierte Methode vor, um die Sprachverständnisse von MRC-Benchmark-Datensätzen zu bewerten.
- Why Is MBTI Personality Detection from Texts a Difficult Task?
- Sanja Stajner, Seren Yenikent
- TLDR: Wir stellen die theoretischen Gründe für die schlechte Leistung bei der Erkennung von MBTI vor und schlagen eine annotationsstudie vor, die die Licht in dieses Problem scheinen lässt.
- Enconter: Entity Constrained Progressive Sequence Generation via Insertion-based Transformer
- Lee Hsun Hsieh, Yang-Yin Lee, Ee-Peng Lim
- TLDR: Wir schlagen einen neuen Transformer vor, der die Probleme der Entflechtungsverzerrung und -erzeugung effektiv lösen kann.
- Meta-Learning for Effective Multi-task and Multilingual Modelling
- Ishan Tarunesh, Sushil Khyalia, Vishwajeet Kumar, Ganesh Ramakrishnan, Preethi Jyothi
- TLDR: Wir schlagen einen Meta-Lernen-Ansatz vor, um die Interaktionen zwischen den Aufgaben und den Sprachen zu lernen.
- “Killing Me” Is Not a Spoiler: Spoiler Detection Model using Graph Neural Networks with Dependency Relation-Aware Attention Mechanism
- Buru Chang, Inggeol Lee, Hyunjae Kim, Jaewoo Kang
- TLDR: Wir schlagen ein neues neuronales Augmented Network vor, das auf syntaxbewussten Graphen neuronalen Netzen basiert.
- BERTese: Learning to Speak to BERT
- Adi Haviv, Jonathan Berant, Amir Globerson
- TLDR: Wir schlagen BERTese vor, eine Paraphrase-Framework, die auf die Wissensextraktion von Sprachmodellen direkt optimiert ist.
- Lifelong Knowledge-Enriched Social Event Representation Learning
- Prashanth Vijayaraghavan, Deb Roy
- TLDR: Wir schlagen einen Rahmen für das Lernen von Repräsentationen vor, der soziales Gedächtnis mit dem Bereich des lebenslangen Sprachlernens verbindet.
- GLaRA: Graph-based Labeling Rule Augmentation for Weakly Supervised Named Entity Recognition
- Xinyan Zhao, Haibo Ding, Zhe Feng
- TLDR: Wir schlagen GLARA vor, einen graphbasierten Labeling-Rahmen für die Erstellung von Labels aus unbeschrifteten Daten.
- An End-to-end Model for Entity-level Relation Extraction using Multi-instance Learning
- Markus Eberts, Adrian Ulges
- TLDR: Wir stellen ein gemeinsames Modell vor, das auf Entitäts-Ebene relationale Beziehungen extrahieren kann.
- WER-BERT: Automatic WER Estimation with BERT in a Balanced Ordinal Classification Paradigm
- Akshay Krishna Sheshadri, Anvesh Rao Vijjini, Sukhdeep Kharbanda
- TLDR: Wir schlagen einen neuen Rahmen für die Klassifizierung von Text-zu-Speech-Systemen vor, der die Wort-Ergebnisse von Text-zu-Speech-Systemen automatisch erfasst.
- Two Training Strategies for Improving Relation Extraction over Universal Graph
- Qin Dai, Naoya Inoue, Ryo Takahashi, Kentaro Inui
- TLDR: Wir schlagen eine neue Methode vor, die die Komplexitätsklassifikation und die Aufmerksamkeitsspanne verringert, um die Leistung von DS-RE bei der Relationsextraktion zu verbessern.
- Adaptation of Back-translation to Automatic Post-Editing for Synthetic Data Generation
- WonKee Lee, Baikjin Jung, Jaehun Shin, Jong-Hyeok Lee
- TLDR: Wir schlagen eine Back-Translation-Methode vor, die die Post-Editing-Probleme bei einer maschinellen Übersetzungsaufgabe lösen kann.
- Removing Word-Level Spurious Alignment between Images and Pseudo-Captions in Unsupervised Image Captioning
- Ukyo Honda, Yoshitaka Ushiku, Atsushi Hashimoto, Taro Watanabe, Yuji Matsumoto
- TLDR: Wir schlagen einen Gating-Mechanismus vor, der die Erkennung von Objektbeschriftungen mit nur den bekanntesten Wörtern in pseudo-Captions ermöglicht.
- Towards More Fine-grained and Reliable NLP Performance Prediction
- Zihuiwen Ye, Pengfei Liu, Jinlan Fu, Graham Neubig
- TLDR: Wir schlagen performance-predictor-Modelle vor, die für NLP-Aufgaben geeignet sind.
- Metrical Tagging in the Wild: Building and Annotating Poetry Corpora with Rhythmic Features
- Thomas Haider
- TLDR: Wir stellen eine große Sammlung von Texten vor, die in großen corporan für Englisch und Deutsch annotiert werden, um corpus driven neuronale Modelle für die große Sprachanalyse zu trainieren.
- Enhancing Aspect-level Sentiment Analysis with Word Dependencies
- Yuanhe Tian, Guimin Chen, Yan Song
- TLDR: Wir schlagen einen Ansatz vor, um die Bedeutung von Worten auf aspect-Ebene zu verbessern und gleichzeitig die Leistung bei der Bildbewertung zu verbessern.