EMNLP 2021 in German
TLDRs
- AligNART: Non-autoregressive Neural Machine Translation by Jointly Learning to Estimate Alignment and Translate
- Jongyoon Song, Sungwon Kim, Sungroh Yoon
- TLDR: Wir stellen AligNART vor, eine neuartige Methode zur Anpassung von Texten, die auf der Verzerrung von Zielen basiert.
- Zero-Shot Cross-Lingual Transfer of Neural Machine Translation with Multilingual Pretrained Encoders
- Guanhua Chen, Shuming Ma, Yun Chen, Li Dong, Dongdong Zhang, Jia Pan, Wenping Wang, Furu Wei
- TLDR: Wir schlagen ein Modell vor, das auf eine Zero-Shot-Transfer-Aufgabe trainiert wird, und erreichen eine Verbesserung von 7.1 BLEU auf zero-shot-Eigenschaften.
- ERNIE-M: Enhanced Multilingual Representation by Aligning Cross-lingual Semantics with Monolingual Corpora
- Xuan Ouyang, Shuohuan Wang, Chao Pang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: Wir schlagen Ernie-M vor, eine neue Methode zur Anpassung von Sprachbildern an die Darstellung von mehreren Sprachen, die mit parallelen Korpusen verbunden sind, um die Konsistenz von Sprachmodellen zu verbessern.
- Cross Attention Augmented Transducer Networks for Simultaneous Translation
- Dan Liu, Mengge Du, Xiaoxi Li, Ya Li, Enhong Chen
- TLDR: Wir schlagen eine neuartige Architektur vor, Cross Attention Augmented Transducer (CAAT), für simultane Übersetzung.
- Translating Headers of Tabular Data: A Pilot Study of Schema Translation
- Kunrui Zhu, Yan Gao, Jiaqi Guo, Jian-Guang Lou
- TLDR: Wir schlagen ein neues neuronales Modell vor, das auf der Suche nach Texten von tabellarischen Daten mit Hilfe von Texten von Texten mit Hilfe von Texten mit Hilfe von Texten mit Hilfe von Texten mit Hilfe von Texten mit Hilfe von Texten mit Hilfe von Texten mit Hilfe von Texten mit Hilfe von Texten mit Hilfe von Texten mit Hilfe von Texten.
- Towards Making the Most of Dialogue Characteristics for Neural Chat Translation
- Yunlong Liang, Chulun Zhou, Fandong Meng, Jinan Xu, Yufeng Chen, Jinsong Su, Jie Zhou
- TLDR: Wir schlagen vor, die Modellierung von Dialogmerkmalen in das NCT-Modell zu integrieren, um die Sprachübertragung von Gesprächskorrespondenz zwischen Sprachspechtschaften zu fördern.
- Low-Resource Dialogue Summarization with Domain-Agnostic Multi-Source Pretraining
- Yicheng Zou, Bolin Zhu, Xingwu Hu, Tao Gui, Qi Zhang
- TLDR: Wir schlagen einen Multi-Source Pretraining-Rahmen vor, um die externen Zusammenfassungsdaten für die Dialogauswertung zu nutzen.
- Controllable Neural Dialogue Summarization with Personal Named Entity Planning
- Zhengyuan Liu, Nancy Chen
- TLDR: Wir schlagen einen kontrollierbaren neuronalen Generators vor, der die Dialogauswertung mit personalisierten Entitäten durchführen kann.
- Fine-grained Factual Consistency Assessment for Abstractive Summarization Models
- Sen Zhang, Jianwei Niu, Chuyuan Wei
- TLDR: Wir schlagen einen fine-grained two-stage Fact Consistency Assessment Framework für Summarisierungsmodelle vor, der die Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung der Beantwortung.
- Decision-Focused Summarization
- Chao-Chun Hsu, Chenhao Tan
- TLDR: Wir schlagen DecSum vor, eine Text-only-Such-Methode, die die erste Bewertungen eines Lokals über die Zukunft vorhersagt.
- Multiplex Graph Neural Network for Extractive Text Summarization
- Baoyu Jing, Zeyu You, Tao Yang, Wei Fan, Hanghang Tong
- TLDR: Wir schlagen Multiplex Graphen Convolutional Network (Multi-GCN) vor, um mehrere Typen von Beziehungen zwischen Sätzen und Wörtern zu modellieren.
- A Thorough Evaluation of Task-Specific Pretraining for Summarization
- Sascha Rothe, Joshua Maynez, Shashi Narayan
- TLDR: Wir vergleichen Aufgaben-agnostisches Pretraining mit dem corrupted span prediction Pretraining und stellen fest, dass die Aufgabe-Agnostische Vorhersage für die Aufgabe-Simplified-Summaries ausreichend ist.
- HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text Extractive Summarization
- Ye Liu, Jianguo Zhang, Yao Wan, Congying Xia, Lifang He, Philip Yu
- TLDR: Wir schlagen ein Transformer-basiertes Modell vor, das die Struktur von Text in den Quelltext nutzt, um eine vollständige Textausbreitung zu erfassen.
- Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context
- Xinnian Liang, Shuangzhi Wu, Mu Li, Zhoujun Li
- TLDR: Wir schlagen eine neue Methode vor, die globaler und lokaler Kontext gleichzeitig modelliert.
- Distantly Supervised Relation Extraction using Multi-Layer Revision Network and Confidence-based Multi-Instance Learning
- Xiangyu Lin, Tianyi Liu, Weijia Jia, Zhiguo Gong
- TLDR: Wir schlagen ein neuartiges Multi-Layer Revision Network (MLRN) vor, das die Auswirkungen von Wortsebene auf die Nachbarschaft reduziert.
- Logic-level Evidence Retrieval and Graph-based Verification Network for Table-based Fact Verification
- Qi Shi, Yu Zhang, Qingyu Yin, Ting Liu
- TLDR: Wir stellen eine Aufgabe vor, die auf Logik-Ebene eine Beweisaufnahme und Schlussfolgerungen auf Graphenebene ermöglicht.
- A Partition Filter Network for Joint Entity and Relation Extraction
- Zhiheng Yan, Chong Zhang, Jinlan Fu, Qi Zhang, Zhongyu Wei
- TLDR: Wir schlagen eine partition-filter-Netzwerke vor, um eine zweistufige Interaktion zwischen Aufgaben zu modellieren.
- TEBNER: Domain Specific Named Entity Recognition with Type Expanded Boundary-aware Network
- Zheng Fang, Yanan Cao, Tai Li, Ruipeng Jia, Fang Fang, Yanmin Shang, Yuhai Lu
- TLDR: Wir schlagen eine neue Methode vor, die Wörterbücher erweitert, um Entitäten aus dem Typen zu extrahieren.
- Beta Distribution Guided Aspect-aware Graph for Aspect Category Sentiment Analysis with Affective Knowledge
- Bin Liang, Hang Su, Rongdi Yin, Lin Gui, Min Yang, Qin Zhao, Xiaoqi Yu, Ruifeng Xu
- TLDR: Wir verwenden Beta-Distanz, um die Bedeutung von aspectaler Worte für die Erkennung von Emotionen in der Sichtweise zu steuern.
- DILBERT: Customized Pre-Training for Domain Adaptation with Category Shift, with an Application to Aspect Extraction
- Entony Lekhtman, Yftah Ziser, Roi Reichart
- TLDR: Wir stellen eine neue Fine-Tuning-Schema für BERT vor, die die Herausforderungen bei der Domänenanpassung und -verbesserung lösen soll.
- Improving Multimodal fusion via Mutual Dependency Maximisation
- Pierre Colombo, Emile Chapuis, Matthieu Labeau, Chloé Clavel
- TLDR: Wir haben eine neue Methode zur Multimodal-Faltung von Gefühlen vorgeschlagen, die die Einbeziehung von unterschiedlichen Emotionen in eine Synthese ermöglicht.
- Learning Implicit Sentiment in Aspect-based Sentiment Analysis with Supervised Contrastive Pre-Training
- Zhengyan Li, Yicheng Zou, Chong Zhang, Qi Zhang, Zhongyu Wei
- TLDR: Wir schlagen Supervised Contrastive Pre-Training vor, um die Gefühlsverteilung von Teilen in Bewertungen zu untersuchen.
- Progressive Self-Training with Discriminator for Aspect Term Extraction
- Qianlong Wang, Zhiyuan Wen, Qin Zhao, Min Yang, Ruifeng Xu
- TLDR: Wir verwenden einen Filter, um pseudo-beschriftete Daten zu extrahieren, die durch das Lernen von Richtlinien für die Erfassung von Aspekten generiert werden.
- Reinforced Counterfactual Data Augmentation for Dual Sentiment Classification
- Hao Chen, Rui Xia, Jianfei Yu
- TLDR: Wir schlagen einen neuen Algorithmus vor, der die Entflechtung von Gefühlen in einer Deep Learning-Architektur lösen kann.
- Idiosyncratic but not Arbitrary: Learning Idiolects in Online Registers Reveals Distinctive yet Consistent Individual Styles
- Jian Zhu, David Jurgens
- TLDR: Wir stellen eine Methode vor, die idiosyntaktische Stile in Texten identifiziert und die Kodierung und Interpretation von Stilen in Texten kodiert.
- Narrative Theory for Computational Narrative Understanding
- Andrew Piper, Richard Jean So, David Bamman
- TLDR: Wir stellen die dominanten theoretischen Rahmens für NLP vor und stellen eine Reihe von empirischen Fragen vor, die die Entflechtung von Theorie und Praxis erklären.
- (Mis)alignment Between Stance Expressed in Social Media Data and Public Opinion Surveys
- Kenneth Joseph, Sarah Shugars, Ryan Gallagher, Jon Green, Alexi Quintana Mathé, Zijian An, David Lazer
- TLDR: Wir vergleichen die Selbstbeschriftungen von Personen, die auf Twitter-Gesichtsmerkmale abstimmen, und stellen fest, dass die Selbstbeschriftungen die Aufmerksamkeit auf sich ziehen.
- How Does Counterfactually Augmented Data Impact Models for Social Computing Constructs?
- Indira Sen, Mattia Samory, Fabian Flöck, Claudia Wagner, Isabelle Augenstein
- TLDR: Wir analysieren die Auswirkungen von maschinellen Erklärungen auf die Leistung von Modellen, die mit und ohne eine gegnerische Augmented-Daten-Architektur trainiert wurden.
- Latent Hatred: A Benchmark for Understanding Implicit Hate Speech
- Mai ElSherief, Caleb Ziems, David Muchlinski, Vaishnavi Anupindi, Jordyn Seybolt, Munmun De Choudhury, Diyi Yang
- TLDR: Wir stellen eine theoretisch-justierte Sprachtaxonomik vor, die implizite, übermäßige und diskriminierende Worte kennt.
- Distilling Linguistic Context for Language Model Compression
- Geondo Park, Gyeongman Kim, Eunho Yang
- TLDR: Wir stellen eine neue Wissensdestillation-Methode vor, die die Konsistenzinformationen von sprachenmodellen in Bezug auf die Konsistenz in Bezug auf die Konsistenz von Wörtern und Layer Transforming Relations überträgt.
- Dynamic Knowledge Distillation for Pre-trained Language Models
- Lei Li, Yankai Lin, Shuhuai Ren, Peng Li, Jie Zhou, Xu Sun
- TLDR: Wir stellen eine dynamische Wissensdestillation vor, die die Fähigkeit eines Schülermodells nutzt, die Aufgabe des Lernens zu adaptieren.
- Few-Shot Text Generation with Natural Language Instructions
- Timo Schick, Hinrich Schütze
- TLDR: Wir stellen eine Methode vor, die auf pattern-exploiting Training basiert und die Texterzeugung für eine Reihe von Aufgaben ermöglicht.
- SOM-NCSCM : An Efficient Neural Chinese Sentence Compression Model Enhanced with Self-Organizing Map
- Kangli Zi, Shi Wang, Yu Liu, Jicun Li, Yanan Cao, Cungen Cao
- TLDR: Wir schlagen ein neuronales Chinesisches SC-Modell vor, das die Ähnlichkeit zwischen den Daten untersucht und die Verbesserung der Leistung in einer validen Weise ermöglicht.
- Efficient Multi-Task Auxiliary Learning: Selecting Auxiliary Data by Feature Similarity
- Po-Nien Kung, Sheng-Siang Yin, Yi-Cheng Chen, Tse-Hsuan Yang, Yun-Nung Chen
- TLDR: Wir schlagen eine Zeiteffiziente Sampling-Methode vor, um die Daten, die für die Hauptaufgabe relevant sind, zu extrahieren.
- GOLD: Improving Out-of-Scope Detection in Dialogues using Data Augmentation
- Derek Chen, Zhou Yu
- TLDR: Wir stellen GOLD vor, eine neue Methode zur Erkennung von Out-of-Schound-Aufrufen und eine neue Methode zur Optimierung von OOS-Ergebungen.
- Graph Based Network with Contextualized Representations of Turns in Dialogue
- Bongseok Lee, Yong Suk Choi
- TLDR: Wir schlagen ein Dialog-basiertes relationales Modell vor, das die Emotionenerkennung in Gesprächen (ERC) als eine Dialog-basierte RE nutzt.
- Automatically Exposing Problems with Neural Dialog Models
- Dian Yu, Kenji Sagae
- TLDR: Wir schlagen Reinforcement Learning vor, um ein Dialogmodell automatisch dazu zu verleiten, negative und unzulängliche Antworten zu erzeugen.
- Event Coreference Data (Almost) for Free: Mining Hyperlinks from Online News
- Michael Bugert, Iryna Gurevych
- TLDR: Wir stellen HyperCoref vor, eine Sammlung von Dokumenten und 2.7M Dokumenten, die sich auf die Co-Reference-Resolution von Dokumenten verallgemeinert.
- Inducing Stereotypical Character Roles from Plot Structure
- Labiba Jahan, Rahul Mittal, Mark Finlayson
- TLDR: Wir stellen einen neuartigen k-means-Clustering-Ansatz für das Erlernen von Charakterrollen vor, die nur strukturierte Daten enthalten.
- Multitask Semi-Supervised Learning for Class-Imbalanced Discourse Classification
- Alexander Spangher, Jonathan May, Sz-Rung Shiang, Lingjia Deng
- TLDR: Wir zeigen, dass ein Multitasking-Ansatz, der mehrere Datensätze aus ähnlichen und vielfältigen Domänen kombiniert, die Sprache besser klassifizieren kann.
- Low Frequency Names Exhibit Bias and Overfitting in Contextualizing Language Models
- Robert Wolfe, Aylin Caliskan
- TLDR: Wir verwenden einen Datensatz von U.S.-First-Namen mit Labeln, die auf der Verteilung von Geschlecht und Racial Group basieren, um die Auswirkungen der Trainingskorpusfrequenz auf die Tokenisierung, Konsistenz und Bias zu untersuchen.
- Mitigating Language-Dependent Ethnic Bias in BERT
- Jaimeen Ahn, Alice Oh
- TLDR: Wir analysieren und lindern ethnische Diskrepanz in BERT für Englisch, Französisch, Spanisch, Koreanisch, Tschechisch und Chinesisch.
- Adversarial Scrubbing of Demographic Information for Text Classification
- Somnath Basu Roy Chowdhury, Sayan Ghosh, Yiyuan Li, Junier Oliva, Shashank Srivastava, Snigdha Chaturvedi
- TLDR: Wir stellen einen adversarischen Rahmen vor, der die Konvergenz von kontextuellen Repräsentationen ermöglicht.
- Open-domain clarification question generation without question examples
- Julia White, Gabriel Poesia, Robert Hawkins, Dorsa Sadigh, Noah Goodman
- TLDR: Wir schlagen ein visuelles Fragen-Ask-Modell vor, das auf die Lösung von Unsicherheiten in der Kommunikation basiert.
- Improving Sequence-to-Sequence Pre-training via Sequence Span Rewriting
- Wangchunshu Zhou, Tao Ge, Canwen Xu, Ke Xu, Furu Wei
- TLDR: Wir schlagen eine neue Methode vor, um
- Coarse2Fine: Fine-grained Text Classification on Coarsely-grained Annotated Data
- Dheeraj Mekala, Varun Gangal, Jingbo Shang
- TLDR: Wir stellen ein Problem vor, das auf der Fine-Graphen-Schätzer-Methode basiert und eine neue Methode zur Klassifizierung von Texten mit geringer Genauigkeit vor.
- Text2Mol: Cross-Modal Molecule Retrieval with Natural Language Queries
- Carl Edwards, ChengXiang Zhai, Heng Ji
- TLDR: Wir schlagen Text2Mol vor, eine Aufgabe zu lösen, die moleküle als Beschreibende nutzt, um Textbeschriftungen als Beantwortern zu erhalten.
- Classification of hierarchical text using geometric deep learning: the case of clinical trials corpus
- Sohrab Ferdowsi, Nikolay Borissov, Julien Knafou, Poorya Amini, Douglas Teodoro
- TLDR: Wir verwenden Deep Learning, um hierarchische Dokumente als Graphen zu betrachten und zu klassifizieren.
- The Devil is in the Detail: Simple Tricks Improve Systematic Generalization of Transformers
- Róbert Csordás, Kazuki Irie, Juergen Schmidhuber
- TLDR: Wir stellen fest, dass die Generalisierungsfähigkeit von Transformers erheblich verbessert.
- Artificial Text Detection via Examining the Topology of Attention Maps
- Laida Kushnareva, Daniil Cherniavskii, Vladislav Mikhailov, Ekaterina Artemova, Serguei Barannikov, Alexander Bernstein, Irina Piontkovskaya, Dmitri Piontkovski, Evgeny Burnaev
- TLDR: Wir schlagen drei neue Topologiemerkmale vor, die auf BERT-Modelle basieren, um die besten Ergebnisse bei der Texterkennung zu erzielen.
- Active Learning by Acquiring Contrastive Examples
- Katerina Margatina, Giorgos Vernikos, Loïc Barrault, Nikolaos Aletras
- TLDR: Wir schlagen eine acquisition-Funktion vor, die auf kontrastive Beispiele abhängt, und zeigen, dass sie die beste Leistung bei allen Aufgaben aufweist.
- Conditional Poisson Stochastic Beams
- Clara Meister, Afra Amini, Tim Vieira, Ryan Cotterell
- TLDR: Wir schlagen eine neue Methode zur Beam Search vor, die die Conditional Poisson stochastische Beam Search verwendet.
- Building Adaptive Acceptability Classifiers for Neural NLG
- Soumya Batra, Shashank Jain, Peyman Heidari, Ankit Arun, Catharine Youngs, Xintong Li, Pinar Donmez, Shawn Mei, Shiunzu Kuo, Vikas Bhardwaj, Anuj Kumar, Michael White
- TLDR: Wir schlagen einen neuen Rahmen vor, um die Annahmefähigkeit von Antworten zu verbessern, die durch NLG-Modelle erzeugt werden, und schlagen einen neuen Rahmen vor, um die Annahmefähigkeit von Klassen zu verbessern.
- Moral Stories: Situated Reasoning about Norms, Intents, Actions, and their Consequences
- Denis Emelin, Ronan Le Bras, Jena D. Hwang, Maxwell Forbes, Yejin Choi
- TLDR: Wir stellen Moral Stories vor, einen crowdsourced Datensatz von strukturierten, branching narrativen für die Untersuchung von Ziel- und Normoriented social reasoning.
- Truth-Conditional Captions for Time Series Data
- Harsh Jhamtani, Taylor Berg-Kirkpatrick
- TLDR: Wir schlagen ein neuronales Modell vor, das die Textbeschreibungen von salienten Mustern in Zeitreihen automatisch erzeugt.
- Injecting Entity Types into Entity-Guided Text Generation
- Xiangyu Dong, Wenhao Yu, Chenguang Zhu, Meng Jiang
- TLDR: Wir stellen ein neues Modell vor, das die Typen von Entitäten in die Entitätsbeschriftung einbezieht, um kontextuelle Worte zu generieren.
- Smelting Gold and Silver for Improved Multilingual AMR-to-Text Generation
- Leonardo F. R. Ribeiro, Jonas Pfeiffer, Yue Zhang, Iryna Gurevych
- TLDR: Wir untersuchen, welche Methode für die automatische AMR-Genauigkeit besser geeignet ist.
- Learning Compact Metrics for MT
- Amy Pu, Hyung Won Chung, Ankur Parikh, Sebastian Gehrmann, Thibault Sellam
- TLDR: Wir stellen fest, dass die Modellgröße für die Übertragung von Wissen zwischen mehreren Sprachfamilien ist, und zeigen, wie die Verwendung synthetischer Daten zur Lösung dieser Aufgabe hilft.
- The Impact of Positional Encodings on Multilingual Compression
- Vinit Ravishankar, Anders Søgaard
- TLDR: Wir stellen fest, dass sinusoidale Positionsbeschriftungen für die Erstellung von Sprachmodellen geeignet sind.
- Disentangling Representations of Text by Masking Transformers
- Xiongyi Zhang, Jan-Willem van de Meent, Byron Wallace
- TLDR: Wir identifizieren und lösen Probleme mit der Entflechtung von Merkmalen, indem wir Masken verwenden.
- Exploring the Role of BERT Token Representations to Explain Sentence Probing Results
- Hosein Mohebbi, Ali Modarressi, Mohammad Taher Pilehvar
- TLDR: Wir analysieren BERT und zeigen, dass es sich bei der Suche nach Sprachmerkmalen und -repräsentationen für die Entflechtung von Wissenswerten verhält.
- Do Long-Range Language Models Actually Use Long-Range Context?
- Simeng Sun, Kalpesh Krishna, Andrew Mattarella-Micke, Mohit Iyyer
- TLDR: Wir analysieren zwei lange Zeitgedächtnismodelle und zeigen, dass sie einen neuen Long-Layout-Kontext für die Textvorhersage verwenden.
- The World of an Octopus: How Reporting Bias Influences a Language Model’s Perception of Color
- Cory Paik, Stéphane Aroca-Ouellette, Alessandro Roncone, Katharina Kann
- TLDR: Wir zeigen, dass die Verzerrung von Texten negative Auswirkungen auf das Verständnis von Menschen hat, die nicht die Verzerrung bewerten.
- SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers
- Dheeraj Rajagopal, Vidhisha Balachandran, Eduard H Hovy, Yulia Tsvetkov
- TLDR: Wir stellen SelfExplain vor, ein neuartiges Selbstausführendes Modell, das eine Textklassifikationsvorhersage mit Phrasen erklärt.
- Memory and Knowledge Augmented Language Models for Inferring Salience in Long-Form Stories
- David Wilmot, Frank Keller
- TLDR: Wir verwenden eine unüberwachte Methode zur Erkennung von Zufallsbesuchen und verwenden sie für lange Werke.
- Semantic Novelty Detection in Natural Language Descriptions
- Nianzu Ma, Alexander Politowicz, Sahisnu Mazumder, Jiahua Chen, Bing Liu, Eric Robertson, Scott Grigsby
- TLDR: Wir schlagen ein neuartiges Modell vor, das auf der Suche nach unbekannten Szenen mit einem GAN-Framework verwendet werden kann.
- Jump-Starting Item Parameters for Adaptive Language Tests
- Arya D. McCarthy, Kevin P. Yancey, Geoffrey T. LaFlair, Jesse Egbert, Manqian Liao, Burr Settles
- TLDR: Wir stellen ein Multi-Task-Verallgemeinerungsmodell vor, das die Klassifizierung von Sprachproblemen ohne Pilotierung ermöglicht.
- Voice Query Auto Completion
- Raphael Tang, Karun Kumar, Kendra Chalkley, Ji Xin, Liming Zhang, Wenyan Li, Gefei Yang, Yajie Mao, Junho Shin, Geoffrey Craig Murray, Jimmy Lin
- TLDR: Wir schlagen eine ASR-basierte Conditional QAC-Methode vor, um die Auto-Erfüllung von Text-Such-Benchmarks zu verbessern.
- CoPHE: A Count-Preserving Hierarchical Evaluation Metric in Large-Scale Multi-Label Text Classification
- Matúš Falis, Hang Dong, Alexandra Birch, Beatrice Alex
- TLDR: Wir schlagen eine Metrik vor, die die Entflechtungsverzerrung in neuronalen LMTC-Modellen erfasst und eine neue Metrik für die Bewertung von ICD-9-Codes vorschlagen kann.
- Learning Universal Authorship Representations
- Rafael A. Rivera-Soto, Olivia Elizabeth Miano, Juanita Ordonez, Barry Y. Chen, Aleem Khan, Marcus Bishop, Nicholas Andrews
- TLDR: Wir stellen eine groß angelegte Studie über die Übertragung von Autorendarstellungen vor, die auf mehreren Domänen durchgeführt werden.
- Predicting emergent linguistic compositions through time: Syntactic frame extension via multimodal chaining
- Lei Yu, Yang Xu
- TLDR: Wir stellen ein syntaktisches Frame-Extension Modell vor, das die neuronalen Mechanismen von Chaining und Wissen nutzt, um neue kompositorische Ausdrucksformen durch Zeit zu erlernen.
- Frequency Effects on Syntactic Rule Learning in Transformers
- Jason Wei, Dan Garrette, Tal Linzen, Ellie Pavlick
- TLDR: Wir trainieren BERT von Grund auf, um die Abstimmung von Texten zu erklären, die nicht in der Trainingsphase stattgefunden haben.
- A surprisal–duration trade-off across and within the world’s languages
- Tiago Pimentel, Clara Meister, Elizabeth Salesky, Simone Teufel, Damián Blasi, Ryan Cotterell
- TLDR: Wir stellen fest, dass die Wahrscheinlichkeitswahrnehmung in natürlichen Sprachen eine wichtige Rolle spielt.
- Revisiting the Uniform Information Density Hypothesis
- Clara Meister, Tiago Pimentel, Patrick Haller, Lena Jäger, Ryan Cotterell, Roger Levy
- TLDR: Wir analysieren, wie sich die Uneinheitlichkeit in einer Sprachsignalen-Architektur auf die Sprachverständnis und die Sprachanerkennung verallgemeinert.
- Condenser: a Pre-training Architecture for Dense Retrieval
- Luyu Gao, Jamie Callan
- TLDR: Wir schlagen einen neuen Transformer-Architekturenrahmen vor, Condenser, und zeigen, dass Condenser über Standard-Lernmodelle hinweg besser abschneidet als Standard-Lernmodelle.
- Monitoring geometrical properties of word embeddings for detecting the emergence of new topics.
- Clément Christophe, Julien Velcin, Jairo Cugliari, Manel Boumghar, Philippe Suignard
- TLDR: Wir schlagen einen Rahmen für die quantitative Bewertung von Themen vor, die langsam aufkommen, und zeigen, dass die Ergebnisse auf beiden Datensätzen gut abschneiden.
- Contextualized Query Embeddings for Conversational Search
- Sheng-Chieh Lin, Jheng-Hong Yang, Jimmy Lin
- TLDR: Wir schlagen eine Methode vor, die die Sprachausgangsrepräsentation in einem tiefen Retrievalmodell integriert und die Fehlererkennung und die Fehlerbewertung nutzt.
- Ultra-High Dimensional Sparse Representations with Binarization for Efficient Text Retrieval
- Kyoung-Rok Jang, Junmo Kang, Giwon Hong, Sung-Hyon Myaeng, Joohee Park, Taewon Yoon, Heecheol Seo
- TLDR: Wir schlagen eine neue Methode vor, um die Verzerrung von Bildern in tiefen Repräsentationen zu reduzieren und die Suche nach symbolischen und latenten Repräsentationen zu erleichtern.
- IR like a SIR: Sense-enhanced Information Retrieval for Multiple Languages
- Rexhina Blloshmi, Tommaso Pasini, Niccolò Campolungo, Somnath Banerjee, Roberto Navigli, Gabriella Pasi
- TLDR: Wir stellen ein neuronales Suchverfahren vor, das die Bedeutung von Worten in einer Textquelle erweitert und gleichzeitig die Konsistenz der Suchergebnisse verbessert.
- Neural Attention-Aware Hierarchical Topic Model
- Yuan Jin, He Zhao, Ming Liu, Lan Du, Wray Buntine
- TLDR: Wir schlagen VAEs vor, ein neuronales Themenmodell, das die Dokumente und die Satzbeschriftungen gleichzeitig rekonstruktionsfähig und semantisch relevante Themen erforscht.
- Relational World Knowledge Representation in Contextual Language Models: A Review
- Tara Safavi, Danai Koutra
- TLDR: Wir stellen eine neue taxonomik für Wissensrepräsentationen in tiefen kontextuellen Sprachmodellen vor, die die Aufgabe der Wissenserfassung in LMs erweitert.
- Certified Robustness to Programmable Transformations in LSTMs
- Yuhao Zhang, Aws Albarghouthi, Loris D’Antoni
- TLDR: Wir stellen einen Ansatz vor, um die Robustheit von LSTMs und Trainingsmodellen zu bewerten und zu certifizieren.
- ReGen: Reinforcement Learning for Text and Knowledge Base Generation using Pretrained Language Models
- Pierre Dognin, Inkit Padhi, Igor Melnyk, Payel Das
- TLDR: Wir stellen ReGen vor, eine bidirektionale Texterzeugung und Graphenerzeugung, die Reinforcement Learning nutzt.
- Contrastive Out-of-Distribution Detection for Pretrained Transformers
- Wenxuan Zhou, Fangyu Liu, Muhao Chen
- TLDR: Wir stellen eine unüberwachte OOD-Detection-Methode vor, die nur die in-Distribution-Daten verwendet, um die Testdaten zu trainieren.
- MindCraft: Theory of Mind Modeling for Situated Dialogue in Collaborative Tasks
- Cristian-Paul Bara, Sky CH-Wang, Joyce Chai
- TLDR: Wir stellen einen fine-grained Datensatz von Aufgaben vor, die von Menschen mit unterschiedlichen Begründungen durchgeführt wurden, die in der Minecraft-Welt auftreten.
- Detecting Speaker Personas from Conversational Texts
- Jia-Chen Gu, Zhenhua Ling, Yu Wu, Quan Liu, Zhigang Chen, Xiaodan Zhu
- TLDR: Wir stellen eine neue Aufgabe vor, die die Erkennung von Personen aus Gesprächstexten ermöglicht.
- Cross-lingual Intermediate Fine-tuning improves Dialogue State Tracking
- Nikita Moghe, Mark Steedman, Alexandra Birch
- TLDR: Wir verwenden parallele und sprachenübergreifende Datensätze, um sprachenübergreifende Interpretierungen für die Spracherkennung zu verwenden.
- ConvFiT: Conversational Fine-Tuning of Pretrained Language Models
- Ivan Vulić, Pei-Hao Su, Samuel Coope, Daniela Gerz, Paweł Budzianowski, Iñigo Casanueva, Nikola Mrkšić, Tsung-Hsien Wen
- TLDR: Wir schlagen ConvFiT vor, eine einfache und effiziente zweistufige Verfahren zur Spracherkennung von Gesprächsvervollständigungen, die die Klassifizierung von Konversationen und Aufgabenspecialisierungen ermöglicht.
- We’ve had this conversation before: A Novel Approach to Measuring Dialog Similarity
- Ofer Lavi, Ella Rabinovich, Segev Shlomov, David Boaz, Inbal Ronen, Ateret Anaby Tavor
- TLDR: Wir schlagen eine neue Methode zur Erfassung und Vergleichsverallgemeinerung von Dialogen vor, die die menschliche Wahrnehmung von Dialogen in Bezug auf die Konversation identifiziert.
- Towards Incremental Transformers: An Empirical Analysis of Transformer Models for Incremental NLU
- Patrick Kahardipraja, Brielen Madureira, David Schlangen
- TLDR: Wir stellen eine neue Methode vor, die die Transformer-Architekturen in tiefen neuronalen Netzen erweitert und die Inferenzzeit erheblich reduzieren kann.
- Feedback Attribution for Counterfactual Bandit Learning in Multi-Domain Spoken Language Understanding
- Tobias Falke, Patrick Lehnen
- TLDR: Wir stellen eine Simulation vor, die das Problem des Feedbacks beim kontrafaktischen Bandit Lernen untersucht.
- Label Verbalization and Entailment for Effective Zero and Few-Shot Relation Extraction
- Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Ander Barrena, Eneko Agirre
- TLDR: Wir stellen die relationale Extraktion als eine Entailment-Aufgabe vor und zeigen, dass die Leistung bei niedrigen Datensätzen deutlich besser abschneidet als bei den meisten anderen Entailment-Modellen.
- Extend, don’t rebuild: Phrasing conditional graph modification as autoregressive sequence labelling
- Leon Weber, Jannes Münchmeyer, Samuele Garda, Ulf Leser
- TLDR: Wir schlagen ein autoregressives Graphenverbesserungsproblem vor, das auf autoregressive Sequenzbeschriftungen basiert.
- Zero-Shot Information Extraction as a Unified Text-to-Triple Translation
- Chenguang Wang, Xiao Liu, Zui Chen, Haoyun Hong, Jie Tang, Dawn Song
- TLDR: Wir stellen einen Text-to-Triple-Transformer-Rahmen vor, der die Aufgabe aus einer Reihe von Texten extrahiert und gleichzeitig eine Text-to-Triple-Transformer-Umgebung ermöglicht.
- Learning Logic Rules for Document-Level Relation Extraction
- Dongyu Ru, Changzhi Sun, Jiangtao Feng, Lin Qiu, Hao Zhou, Weinan Zhang, Yong Yu, Lei Li
- TLDR: Wir schlagen LogiRE vor, ein probabilistisches Modell für Dokumente, das logical Regeln nutzt, um Dokumente auf Dokumentebene zu extrahieren.
- A Large-Scale Dataset for Empathetic Response Generation
- Anuradha Welivita, Yubo Xie, Pearl Pu
- TLDR: Wir haben einen großen Datensatz mit 32 Emotionen und 8 Neutral-Anwendungen vorgeschlagen, der auf die Erzeugung von Empathie und Neutralität anwendbar ist.
- The Perils of Using Mechanical Turk to Evaluate Open-Ended Text Generation
- Marzena Karpinska, Nader Akoury, Mohit Iyyer
- TLDR: Wir stellen fest, dass die meisten AMT- und English-Schüler nicht ausreichend über die Erfassung von Modellen und menschlichen Referenzen berichten.
- Documenting Large Webtext Corpora: A Case Study on the Colossal Clean Crawled Corpus
- Jesse Dodge, Maarten Sap, Ana Marasović, William Agnew, Gabriel Ilharco, Dirk Groeneveld, Margaret Mitchell, Matt Gardner
- TLDR: Wir stellen einen neuen Datensatz vor, der von einer Entflechtung der Netze erstellt wurde, und zeigen, dass blocklist-Faltungen diskriminierend und über das Verständnis von und die Identität von Menschen mit geringem Sprachverständnis.
- AfroMT: Pretraining Strategies and Reproducible Benchmarks for Translation of 8 African Languages
- Machel Reid, Junjie Hu, Graham Neubig, Yutaka Matsuo
- TLDR: Wir schlagen AfroMT vor, einen standardisierten, clean und reproduzierbaren Benchmark für die sprachenvielfalt von Afrikaans.
- Evaluating the Evaluation Metrics for Style Transfer: A Case Study in Multilingual Formality Transfer
- Eleftheria Briakou, Sweta Agrawal, Joel Tetreault, Marine Carpuat
- TLDR: Wir stellen eine erste Multilinguale Bewertung von Metriken für die formalitätsübertragung vor und identifizieren Modelle, die gut mit menschlichen Beurteilungen korrelieren.
- MS-Mentions: Consistently Annotating Entity Mentions in Materials Science Procedural Text
- Tim O’Gorman, Zach Jensen, Sheshera Mysore, Kevin Huang, Rubayyat Mahbub, Elsa Olivetti, Andrew McCallum
- TLDR: Wir stellen eine neue Sammlung von Bezeichnungen vor, die für die Named Entity Recognition-Aufgabe verwendet werden können.
- Understanding Politics via Contextualized Discourse Processing
- Rajkumar Pujari, Dan Goldwasser
- TLDR: Wir schlagen ein kompositorisches Reader-Modell vor, das auf Twitter, auf der Arbeit und auf mehreren Themen oder Ereignissen repräsentiert.
- Conundrums in Event Coreference Resolution: Making Sense of the State of the Art
- Jing Lu, Vincent Ng
- TLDR: Wir stellen eine empirische Analyse von spanbasierten Referenzsystemen vor, die die NLP-Architekturen in Bezug auf die Erkennung von Ereignissen verbessert.
- Weakly supervised discourse segmentation for multiparty oral conversations
- Lila Gravellier, Julie Hunter, Philippe Muller, Thomas Pellegrini, Isabelle Ferrané
- TLDR: Wir stellen einen neuartigen Sprachsegmenter vor, der auf French-Konversationen transkribiert werden kann.
- Narrative Embedding: Re-Contextualization Through Attention
- Sean Wilner, Daniel Woolridge, Madeleine Glick
- TLDR: Wir stellen einen neuartigen Ansatz für die Erstellung von Ereignissen vor, der Aufmerksamkeit verwendet, um die Kontextualität von Ereignissen zu verbessern.
- Focus on what matters: Applying Discourse Coherence Theory to Cross Document Coreference
- William Held, Dan Iter, Dan Jurafsky
- TLDR: Wir stellen eine Methode vor, die die Coreference-Probleme in Dokumenten deutlich reduziert.
- Salience-Aware Event Chain Modeling for Narrative Understanding
- Xiyang Zhang, Muhao Chen, Jonathan May
- TLDR: Wir stellen eine Methode vor, die die wichtigsten Teilschichten von Texten aus natürlichen Sprachtexten extrahiert, indem sie sie aus nicht-salienten und unterstützenden Sätzen filtert.
- Asking It All: Generating Contextualized Questions for any Semantic Role
- Valentina Pyatkin, Paul Roit, Julian Michael, Yoav Goldberg, Reut Tsarfaty, Ido Dagan
- TLDR: Wir stellen eine Aufgabe vor, die die Aufgabe der Rollenfrage ersetzt, und zwar für die Erzeugung von Fragen über die möglichen Rollen von Vorbildern und Rollen.
- Fast, Effective, and Self-Supervised: Transforming Masked Language Models into Universal Lexical and Sentence Encoders
- Fangyu Liu, Ivan Vulić, Anna Korhonen, Nigel Collier
- TLDR: Wir stellen eine neue Methode vor, die auf der Suche nach einheitlichen lexikalischen und Satzencodern und deren Verwendung für die Identitätsfindung basiert.
- RuleBERT: Teaching Soft Rules to Pre-Trained Language Models
- Mohammed Saeed, Naser Ahmadi, Preslav Nakov, Paolo Papotti
- TLDR: Wir stellen eine Aufgabe vor, bei der PLMs lernen, mit Hilfe von Regeln zu reasonieren, die von anderen PLMs bekannt sind.
- Stepmothers are mean and academics are pretentious: What do pretrained language models learn about you?
- Rochelle Choenni, Ekaterina Shutova, Robert van Rooij
- TLDR: Wir stellen eine Methode vor, um Stereotypen aus Sprachmodellen zu extrahieren und zu interpretieren.
- ConSeC: Word Sense Disambiguation as Continuous Sense Comprehension
- Edoardo Barba, Luigi Procopio, Roberto Navigli
- TLDR: Wir schlagen ConSeC vor, einen neuartigen Ansatz zur Word Sense Disambiguation, der die Konsistenz von Wörtern in kontextuellen Sprachmodellen bewahrt.
- Shortcutted Commonsense: Data Spuriousness in Deep Learning of Commonsense Reasoning
- Ruben Branco, António Branco, João António Rodrigues, João Ricardo Silva
- TLDR: Wir untersuchen, ob die Transformer-Modelle in Bezug auf die commonsense-Frequenz gelernt haben, und stellen fest, dass die meisten Modelle nicht auf die Aufgabe des Lernens und der Verallgemeinerung hinweisen.
- When differential privacy meets NLP: The devil is in the detail
- Ivan Habernal
- TLDR: Wir stellen fest, dass die Fehlerverletzung nicht differentially private ist, und zwar mit einem diskreten Rahmen.
- Achieving Model Robustness through Discrete Adversarial Training
- Maor Ivgi, Jonathan Berant
- TLDR: Wir schlagen einen neuen Ansatz vor, der auf der Suche nach einem Ziel basiert, das die Robustheit eines Online-Ansatzes verbessert.
- Debiasing Methods in Natural Language Understanding Make Bias More Accessible
- Michael Mendelson, Yonatan Belinkov
- TLDR: Wir schlagen einen Informationstheoretischen Ansatz vor, um die Ausnutzung von Verzerrungen in Sprachmodellen zu bewerten.
- Evaluating the Robustness of Neural Language Models to Input Perturbations
- Milad Moradi, Matthias Samwald
- TLDR: Wir untersuchen die Robustheit von Sprachmodellen bei der Erzeugung von Texten, die leicht verrauscht oder unterschiedlich sind.
- How much pretraining data do language models need to learn syntax?
- Laura Pérez-Mayos, Miguel Ballesteros, Leo Wanner
- TLDR: Wir analysieren die Auswirkungen von Vortrainingsdaten auf die syntaktische Generalisierung von Sprachmodellen und stellen fest, dass die Vortrainingsdatengröße die syntaktische Generalisierungsleistung der Modelle beinträchtigt.
- Sorting through the noise: Testing robustness of information processing in pre-trained language models
- Lalchand Pandia, Allyson Ettinger
- TLDR: Wir analysieren die Robustheit von Modellen bei der Erkennung und Anwendung von Informationen aus vorherigen Kontexten und stellen fest, dass die meisten Modelle, die in tiefen Kontexten auftreten, auf kontextuellen Stichproben mit relevanter Information reagieren.
- Contrastive Explanations for Model Interpretability
- Alon Jacovi, Swabha Swayamdipta, Shauli Ravfogel, Yanai Elazar, Yejin Choi, Yoav Goldberg
- TLDR: Wir schlagen eine Methode vor, die Label-contrastive Erklärungen ermöglicht, um die Interpretation von Label-Eigenschaften zu verbessern.
- On the Transferability of Adversarial Attacks against Neural Text Classifier
- Liping Yuan, Xiaoqing Zheng, Yi Zhou, Cho-Jui Hsieh, Kai-Wei Chang
- TLDR: Wir untersuchen die Übertragbarkeit von Beispielen für Textklassifikationsmodelle und schlagen einen Algorithmus vor, um die Übertragbarkeit von Beispielen zu verbessern.
- Conditional probing: measuring usable information beyond a baseline
- John Hewitt, Kawin Ethayarajh, Percy Liang, Christopher Manning
- TLDR: Wir schlagen einen neuen Ansatz für die Erkennung von Teil-of-Speech vor, der die Information in der Basislinie verwendet.
- GFST: Gender-Filtered Self-Training for More Accurate Gender in Translation
- Prafulla Kumar Choubey, Anna Currey, Prashant Mathur, Georgiana Dinu
- TLDR: Wir schlagen gender-filtered self-training (GFST) vor, um die Gender-Generierung bei falschen Übersetzungen zu verbessern.
- “Wikily” Supervised Neural Translation Tailored to Cross-Lingual Tasks
- Mohammad Sadegh Rasooli, Chris Callison-Burch, Derry Tanti Wijaya
- TLDR: Wir stellen einen einfachen Ansatz für die Verwendung von Wikipedia für die Übersetzung von Texten in die Sprache von zwei Nachbarn vor und zeigen, dass die ersten Sätze und Titel von Wikipedia-Seiten sowohl für die Übersetzung als auch für die Abhängigkeitsparsing geeignet sind.
- mT6: Multilingual Pretrained Text-to-Text Transformer with Translation Pairs
- Zewen Chi, Li Dong, Shuming Ma, Shaohan Huang, Saksham Singhal, Xian-Ling Mao, Heyan Huang, Xia Song, Furu Wei
- TLDR: Wir verbessern die sprachenübergreifende Text-to-Speech-Transfer-Transfer-Transfer-Methode mit Translationspaaren.
- Improving Zero-Shot Cross-Lingual Transfer Learning via Robust Training
- Kuan-Hao Huang, Wasi Ahmad, Nanyun Peng, Kai-Wei Chang
- TLDR: Wir schlagen eine Lernstrategie vor, die die Fähigkeit eines robusten Multilingual-Transfer-Modells verbessert, um die Zero-Shot-Few-Shot-Few-Shot-Übertragung zu erreichen.
- Speechformer: Reducing Information Loss in Direct Speech Translation
- Sara Papi, Marco Gaido, Matteo Negri, Marco Turchi
- TLDR: Wir schlagen Speechformer vor, eine Architektur, die die Aufmerksamkeitsschichten in den Aufmerksamkeitsbereichen verringert und gleichzeitig die Verzerrung der Verzerrung der Verzerrung der Verzerrung der Verzerrungsinformationen minimiert.
- Is “moby dick” a Whale or a Bird? Named Entities and Terminology in Speech Translation
- Marco Gaido, Susana Rodríguez, Matteo Negri, Luisa Bentivogli, Marco Turchi
- TLDR: Wir stellen eine empirische Analyse vor, wie sich Sprachverfassungs- und -terminologien in den Texten von Parlamentsstimmen darstellen lassen.
- HintedBT: Augmenting Back-Translation with Quality and Transliteration Hints
- Sahana Ramnath, Melvin Johnson, Abhirut Gupta, Aravindan Raghuveer
- TLDR: Wir schlagen eine neue Methode vor, die sowohl gute als auch schlechte Sprachdaten nutzt, um das Verständnis von Sprachverschiebungen zu verbessern.
- Translation-based Supervision for Policy Generation in Simultaneous Neural Machine Translation
- Ashkan Alinejad, Hassan S. Shavarani, Anoop Sarkar
- TLDR: Wir schlagen einen neuartigen Trainingsalgorithmus vor, der die maximale Anzahl von Sätzen für die Erzeugung von Zieltoken erkennt.
- Nearest Neighbour Few-Shot Learning for Cross-lingual Classification
- M Saiful Bari, Batool Haider, Saab Mansour
- TLDR: Wir untersuchen die Übertragung von Sprachmodellen auf Englisch und zeigen, dass die Anpassung von Sprachmodellen mit wenigen Sprachstimmen zu einer Erfolgsgarantie führt.
- Cross-Attention is All You Need: Adapting Pretrained Transformers for Machine Translation
- Mozhdeh Gheini, Xiang Ren, Jonathan May
- TLDR: Wir stellen eine Studie über die Fähigkeit von Cross-Attention vor, die die Aufmerksamkeit von Transformer-Architekturen auf die Sprachverschiebung erweitert.
- Effects of Parameter Norm Growth During Transformer Training: Inductive Bias from Gradient Descent
- William Merrill, Vivek Ramanujan, Yoav Goldberg, Roy Schwartz, Noah A. Smith
- TLDR: Wir untersuchen die Tendenz der Transformatorparameter, die in der Lage sind, in der Größe zu wachsen.
- Foreseeing the Benefits of Incidental Supervision
- Hangfeng He, Mingyuan Zhang, Qiang Ning, Dan Roth
- TLDR: Wir quantifizieren die Nutzen von PAC-Bayes’schen motivierten informativen Signalen für eine bestimmte Aufgabe und stellen eine uneinheitliche PAC-Bayes’sche informativeness-Methode vor, PABI, die die Unsicherheitsreduktion bei der Erkennung von Entitäten und Fragen minimiert.
- Competency Problems: On Finding and Removing Artifacts in Language Data
- Matt Gardner, William Merrill, Jesse Dodge, Matthew Peters, Alexis Ross, Sameer Singh, Noah A. Smith
- TLDR: Wir analysieren die Probleme beim Verständnis von Sprachstilen und stellen fest, dass die meisten Merkmale, die in einem Datensatz enthalten, spärlich sind.
- Knowledge-Aware Meta-learning for Low-Resource Text Classification
- Huaxiu Yao, Ying-xin Wu, Maruan Al-Shedivat, Eric Xing
- TLDR: Wir schlagen KGML vor, um die Verallgemeinerung von Wissensgraphen in Meta-Lernen und Meta-Tests zu verbessern.
- Sentence Bottleneck Autoencoders from Transformer Language Models
- Ivan Montero, Nikolaos Pappas, Noah A. Smith
- TLDR: Wir stellen eine Methode vor, die die Verwendung von Transformers auf Satzebene ermöglicht, um Text mit Textähnlichkeiten zu lernen.
- Efficient Contrastive Learning via Novel Data Augmentation and Curriculum Learning
- Seonghyeon Ye, Jiseon Kim, Alice Oh
- TLDR: Wir stellen EfficientCL vor, eine Speichereffiziente kontinuierliche Vortrainingmethode, die auf die Datenerweiterung und das Curriculum-Lernen anwendbar ist.
- CR-Walker: Tree-Structured Graph Reasoning and Dialog Acts for Conversational Recommendation
- Wenchang Ma, Ryuichi Takanobu, Minlie Huang
- TLDR: Wir schlagen CR-Walker vor, ein Modell, das Tree-structured Reasoning auf einem Wissensgraphen erzeugt, und generative Dialogaktionen zur Sprachgenerierung nutzt.
- DIALKI: Knowledge Identification in Conversational Systems through Dialogue-Document Contextualization
- Zeqiu Wu, Bo-Ru Lu, Hannaneh Hajishirzi, Mari Ostendorf
- TLDR: Wir stellen ein Wissensidentifikationsmodell vor, das die Dokumentstruktur nutzt, um Informationen über die Themen der Gesprächskorrespondenz zu finden.
- Iconary: A Pictionary-Based Game for Testing Multimodal Communication with Drawings and Text
- Christopher Clark, Jordi Salvador, Dustin Schwenk, Derrick Bonafilia, Mark Yatskar, Eric Kolve, Alvaro Herrasti, Jonghyun Choi, Sachin Mehta, Sam Skjonsberg, Carissa Schoenick, Aaron Sarnat, Hannaneh Hajishirzi, Aniruddha Kembhavi, Oren Etzioni, Ali Farhadi
- TLDR: Wir schlagen Iconary vor, ein Spiel zur Sprachbeobachtung und zum Lernen von Zeichen und symbolischen Kommunikationsstrategien.
- Self-training Improves Pre-training for Few-shot Learning in Task-oriented Dialog Systems
- Fei Mi, Wanhao Zhou, Lingjing Kong, Fengyu Cai, Minlie Huang, Boi Faltings
- TLDR: Wir schlagen einen neuen Ansatz vor, um die unbeschrifteten Dialogdaten für das Lernen von Aufgaben in wenigen Aufnahmen zu verwenden.
- Contextual Rephrase Detection for Reducing Friction in Dialogue Systems
- Zhuoyi Wang, Saurabh Gupta, Jie Hao, Xing Fan, Dingcheng Li, Alexander Hanbo Li, Chenlei Guo
- TLDR: Wir schlagen ContReph vor, ein kontextualisches Rephrase-Detektorenmodell, das automatisch Reformulierungen aus mehreren Turmen von Dialogen erkennt.
- Few-Shot Intent Detection via Contrastive Pre-Training and Fine-Tuning
- Jianguo Zhang, Trung Bui, Seunghyun Yoon, Xiang Chen, Zhiwei Liu, Congying Xia, Quan Hung Tran, Walter Chang, Philip Yu
- TLDR: Wir stellen eine einfache Methode zur Few-Shot-Erkennung vor, die sich auf schwierige Datensätze übertragen lässt.
- “It doesn’t look good for a date”: Transforming Critiques into Preferences for Conversational Recommendation Systems
- Victor Bursztyn, Jennifer Healey, Nedim Lipka, Eunyee Koh, Doug Downey, Larry Birnbaum
- TLDR: Wir stellen eine Methode vor, die eine Kritik zu einer Empfehlung transformiert, um Empfehlungen zu erhalten, die auf den Bereich der Vorhersage und Empfehlungen zutreffen.
- AttentionRank: Unsupervised Keyphrase Extraction using Self and Cross Attentions
- Haoran Ding, Xiao Luo
- TLDR: Wir schlagen AttentionRank vor, ein hybrides Aufmerksamkeitsmechanismus, das die Bedeutung von Schlüsselwörtern in Dokumenten erkennt.
- Unsupervised Relation Extraction: A Variational Autoencoder Approach
- Chenhan Yuan, Hoda Eldardiry
- TLDR: Wir schlagen eine VAE-basierte unbeaufsichtigte relationale Extraktion vor, die die Klassifikationen als einen Zwischenvariablen verwendet.
- Robust Retrieval Augmented Generation for Zero-shot Slot Filling
- Michael Glass, Gaetano Rossiello, Md Faisal Mahbub Chowdhury, Alfio Gliozzo
- TLDR: Wir stellen einen neuen Ansatz für die Zero-Shot-Zerfüllung vor, der den Eingangszugriff erweitert und robuste Trainingsverfahren für die Generierung von Werten und die Erfassung von Werten in den Dokumenten ermöglicht.
- Everything Is All It Takes: A Multipronged Strategy for Zero-Shot Cross-Lingual Information Extraction
- Mahsa Yarmohammadi, Shijie Wu, Marc Marone, Haoran Xu, Seth Ebner, Guanghui Qin, Yunmo Chen, Jialiang Guo, Craig Harman, Kenton Murray, Aaron Steven White, Mark Dredze, Benjamin Van Durme
- TLDR: Wir zeigen, dass die Verwendung von Datenverschiebung und Selbsttraining für die Erfassung von Sprachinformationen in einer Zielsprache verbessert die Leistung bei der Sprachübertragung.
- Harms of Gender Exclusivity and Challenges in Non-Binary Representation in Language Technologies
- Sunipa Dev, Masoud Monajatipoor, Anaelia Ovalle, Arjun Subramonian, Jeff Phillips, Kai-Wei Chang
- TLDR: Wir erklären, dass die Behandlung von Geschlechtsaussagen als binäres Problem für die Erkennung und Verwendung von Geschlechtsidentitäten in Sprachrepräsentationen nicht-binarisch ist.
- Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias in Image Search
- Jialu Wang, Yang Liu, Xin Wang
- TLDR: Wir identifizieren und lösen eine genderspezifische Verzerrung bei der Bildsuche und schlagen Fair-Sampling-Methoden vor, um die Verzerrung zu reduzieren.
- Style Pooling: Automatic Text Style Obfuscation for Improved Classification Fairness
- Fatemehsadat Mireshghallah, Taylor Berg-Kirkpatrick
- TLDR: Wir schlagen einen VAE-basierten Rahmen vor, der die Stilmerkmale von menschlichen Texten durch Stiltransfers abschwächt.
- Modeling Disclosive Transparency in NLP Application Descriptions
- Michael Saxon, Sharon Levy, Xinyi Wang, Alon Albalak, William Yang Wang
- TLDR: Wir verwenden neuronale Sprachmodelle, um die Disklosive Transparenz zu modellieren.
- Reconstruction Attack on Instance Encoding for Language Understanding
- Shangyu Xie, Yuan Hong
- TLDR: Wir schlagen einen neuartigen Angriff vor, um das private TextHide zu zerlegen und die Datenschutzrisiken von Instanzencodern zu unveilieren.
- Fairness-aware Class Imbalanced Learning
- Shivashankar Subramanian, Afshin Rahimi, Timothy Baldwin, Trevor Cohn, Lea Frermann
- TLDR: Wir schlagen Methoden vor, die die Klassenverzerrung und die Diskrepanz mit dem Fairness-Prinzip lösen, und verwenden sie zur Verbesserung des Fairness-Prinzips.
- CRYPTOGRU: Low Latency Privacy-Preserving Text Analysis With GRU
- Bo Feng, Qian Lou, Lei Jiang, Geoffrey Fox
- TLDR: Wir stellen eine hybride Struktur vor, die eine tiefe Inferenz mit tiefen Inferenzfunktionen ermöglicht.
- Local Word Discovery for Interactive Transcription
- William Lane, Steven Bird
- TLDR: Wir schlagen eine neue Aufgabe vor, die auf die Wissens- und Interessensvielfalt von Sprachfamilien anwendbar ist und die Entwicklung von Texten und Phrasen ermöglicht.
- Segment, Mask, and Predict: Augmenting Chinese Word Segmentation with Self-Supervision
- Mieradilijiang Maimaiti, Yang Liu, Yuanhang Zheng, Gang Chen, Kaiyu Huang, Ji Zhang, Huanbo Luan, Maosong Sun
- TLDR: Wir schlagen einen neuen Ansatz für die Sprachsegmentierung vor, der auf der Selbstüberwachung basiert.
- Minimal Supervision for Morphological Inflection
- Omer Goldman, Reut Tsarfaty
- TLDR: Wir bootstrapieren Labelsed Daten aus einem Seed, um eine morphologische Reinflechtungsaufgabe zu lösen.
- Fast WordPiece Tokenization
- Xinying Song, Alex Salcianu, Yang Song, Dave Dopson, Denny Zhou
- TLDR: Wir schlagen einen neuen Algorithmus vor, der die WordPiece-Tokenisierung von BERT aus mehreren Worten umwandelt.
- You should evaluate your language model on marginal likelihood over tokenisations
- Kris Cao, Laura Rimell
- TLDR: Wir schlagen eine Methode vor, die die marginale Wahrscheinlichkeit von Tokenisierungen über die marginale Wahrscheinlichkeit von Perplexitäten minimiert.
- Broaden the Vision: Geo-Diverse Visual Commonsense Reasoning
- Da Yin, Liunian Harold Li, Ziniu Hu, Nanyun Peng, Kai-Wei Chang
- TLDR: Wir stellen einen Geo-Diverse Visual Commonsense Reasoning Datensatz (GD-VCR) vor, um die Fähigkeit von Vision- und Sprachmodellen zu verstehen, kulturelle und geo-location-spezifische Ähnlichkeiten zu erklären.
- Reference-Centric Models for Grounded Collaborative Dialogue
- Daniel Fried, Justin Chiu, Dan Klein
- TLDR: Wir stellen ein neuronales Dialogmodell vor, das erfolgreich mit Menschen in einem partially-observable reference game zusammenarbeitet.
- CrossVQA: Scalably Generating Benchmarks for Systematically Testing VQA Generalization
- Arjun Akula, Soravit Changpinyo, Boqing Gong, Piyush Sharma, Song-Chun Zhu, Radu Soricut
- TLDR: Wir stellen eine kontrollierbare visuelle Frage-Antwort-Genauigkeit vor, die die Verteilungsverschiebungen von VQA-Modellen in einer Multi-Modal-Umgebung erfasst.
- Visual Goal-Step Inference using wikiHow
- Yue Yang, Artemis Panagopoulou, Qing Lyu, Li Zhang, Mark Yatskar, Chris Callison-Burch
- TLDR: Wir schlagen eine Visualisierungsaufgabe vor, bei der ein Modell eine Textaufgabe erwählt, die einen plausiblen Schritt zu einer Zielaufgabe führt.
- Systematic Generalization on gSCAN: What is Nearly Solved and What is Next?
- Linlu Qiu, Hexiang Hu, Bowen Zhang, Peter Shaw, Fei Sha
- TLDR: Wir analysieren und
- Effect of Visual Extensions on Natural Language Understanding in Vision-and-Language Models
- Taichi Iki, Akiko Aizawa
- TLDR: Wir vergleichen V&L-Modelle, die mit einem einzigen Weg trainiert wurden, und stellen fest, dass die dualen Wegen die NLU-Capability besser erhalten.
- Neural Path Hunter: Reducing Hallucination in Dialogue Systems via Path Grounding
- Nouha Dziri, Andrea Madotto, Osmar Zaïane, Avishek Joey Bose
- TLDR: Wir schlagen einen neuen Algorithmus vor, der die Wahrnehmung von neuronalen Dialogsystemen bei bekannten Wissensgraphen reduziert.
- Thinking Clearly, Talking Fast: Concept-Guided Non-Autoregressive Generation for Open-Domain Dialogue Systems
- Yicheng Zou, Zhihua Liu, Xingwu Hu, Qi Zhang
- TLDR: Wir schlagen ein Konzept-Gäusch-Gesteuertes Modell (CG-nAR) vor, das eine offene Domänen-Kommunikation erzeugt.
- Perspective-taking and Pragmatics for Generating Empathetic Responses Focused on Emotion Causes
- Hyunwoo Kim, Byeongchang Kim, Gunhee Kim
- TLDR: Wir stellen eine Methode vor, die die Emotionen aus Text mit Hilfe von Beispielen erzeugt.
- Generation and Extraction Combined Dialogue State Tracking with Hierarchical Ontology Integration
- Xinmeng Li, Qian Li, Wansen Wu, Quanjun Yin
- TLDR: Wir lösen das Out-of-Word-Problem und die Erkennung von Zustandswerten in mehreren Domänen.
- CoLV: A Collaborative Latent Variable Model for Knowledge-Grounded Dialogue Generation
- Haolan Zhan, Lei Shen, Hongshen Chen, Hainan Zhang
- TLDR: Wir schlagen ein CoLV-Modell vor, das Wissensauswahl und -anpassung gleichzeitig in separate latente Räume integriert.
- A Three-Stage Learning Framework for Low-Resource Knowledge-Grounded Dialogue Generation
- Shilei Liu, Xiaofeng Zhao, Bochao Li, Feiliang Ren, Longhui Zhang, Shujuan Yin
- TLDR: Wir schlagen einen neuen Rahmen vor, der auf weakly überwachte Lernen basiert, um Wissensnetzwerke für Wissensausbreitung und Wissensverwenden zu schaffen.
- Intention Reasoning Network for Multi-Domain End-to-end Task-Oriented Dialogue
- Zhiyuan Ma, Jianjun Li, Zezheng Zhang, Guohui Li, Yongjing Cheng
- TLDR: Wir schlagen ein intentionsbasiertes Modell vor, das die Konzeptverschiebungen erfasst und die Realität in Aufgabenverantwortung besser erkennt.
- More is Better: Enhancing Open-Domain Dialogue Generation via Multi-Source Heterogeneous Knowledge
- Sixing Wu, Ying Li, Minghui Wang, Dawei Zhang, Yang Zhou, Zhonghai Wu
- TLDR: Wir schlagen ein neues Dialogmodell vor, MSKE-Dialog, vor, um das Problem der Wissensverteilung in Wissenstausch mit mehreren Wissenssourcen zu lösen.
- Domain-Lifelong Learning for Dialogue State Tracking via Knowledge Preservation Networks
- Qingbin Liu, Pengfei Cao, Cao Liu, Jiansong Chen, Xunliang Cai, Fan Yang, Shizhu He, Kang Liu, Jun Zhao
- TLDR: Wir schlagen eine neuartige Knowledge Preservation Networks (KPN) vor, die die Probleme der Vielfalt und Kombinationsexplosion lösen kann.
- CSAGN: Conversational Structure Aware Graph Network for Conversational Semantic Role Labeling
- Han Wu, Kun Xu, Linqi Song
- TLDR: Wir stellen eine einfache Architektur vor, die die Struktur von Gesprächsverhältern kennt und die Sprachausgangsinformationen kodiert.
- Different Strokes for Different Folks: Investigating Appropriate Further Pre-training Approaches for Diverse Dialogue Tasks
- Yao Qiu, Jinchao Zhang, Jie Zhou
- TLDR: Wir stellen eine empirische Studie vor, die die Aufmerksamkeit auf die Suche nach weiterer Aufgaben in tiefen Sprachmodellen und deren Anwendungen auf die Suche nach einer Lösung für die Suche nach Aufgaben in tiefen Sprachmodellen ermöglicht.
- Knowledge Enhanced Fine-Tuning for Better Handling Unseen Entities in Dialogue Generation
- Leyang Cui, Yu Wu, Shujie Liu, Yue Zhang
- TLDR: Wir stellen eine Wissensbasis vor, die die Entitäten in den Dialogen generiert und die Antwort auf die Frage nach der Entität kennt.
- An Evaluation Dataset and Strategy for Building Robust Multi-turn Response Selection Model
- Kijong Han, Seojin Lee, Dong-hun Lee
- TLDR: Wir analysieren und schlagen eine neue Methode vor, um das Problem der falschen Antwort zu lösen.
- Unsupervised Conversation Disentanglement through Co-Training
- Hui Liu, Zhan Shi, Xiaodan Zhu
- TLDR: Wir trainieren ein Gesprächsdeutigkeitsmodell ohne menschliche Ankündigungen und verwenden die Message-Paar-Klassifikatoren als Reinforcement Learning-Kommunikationsstrategien.
- Don’t be Contradicted with Anything! CI-ToD: Towards Benchmarking Consistency for Task-oriented Dialogue System
- Libo Qin, Tianbao Xie, Shijue Huang, Qiguang Chen, Xiao Xu, Wanxiang Che
- TLDR: Wir stellen eine Methode zur Identifikation von Konsistenzmerkmalen vor, die auf der Verbesserung von offenen Dialogen angewendet werden kann.
- Transferable Persona-Grounded Dialogues via Grounded Minimal Edits
- Chen Henry Wu, Yinhe Zheng, Xiaoxi Mao, Minlie Huang
- TLDR: Wir stellen eine neue Aufgabe vor, die die Aufmerksamkeit auf die Fragen der Menschen in Bezug auf bestimmte Konzepte ermöglicht.
- EARL: Informative Knowledge-Grounded Conversation Generation with Entity-Agnostic Representation Learning
- Hao Zhou, Minlie Huang, Yong Liu, Wei Chen, Xiaoyan Zhu
- TLDR: Wir schlagen eine Entity-Agnostische Repräsentationsmethode vor, um Wissensgraphen für die informative Gesprächsgenerierung zu nutzen.
- DialogueCSE: Dialogue-based Contrastive Learning of Sentence Embeddings
- Che Liu, Rui Wang, Jinghua Liu, Jian Sun, Fei Huang, Luo Si
- TLDR: Wir schlagen DialogueCSE vor, einen Dialog-basierten Kontrast- und Rekonstruktionsrahmen für die Erstellung von Satzeinbettungen aus Dialogen.
- Improving Graph-based Sentence Ordering with Iteratively Predicted Pairwise Orderings
- Shaopeng Lai, Ante Wang, Fandong Meng, Jie Zhou, Yubin Ge, Jiali Zeng, Junfeng Yao, Degen Huang, Jinsong Su
- TLDR: Wir schlagen einen neuen Rahmen vor, der zwei Klassifikatoren nutzt, um die Verwendung von Phänomenen in der Satzordnung zu verbessern.
- Not Just Classification: Recognizing Implicit Discourse Relation on Joint Modeling of Classification and Generation
- Feng Jiang, Yaxin Fan, Xiaomin Chu, Peifeng Li, Qiaoming Zhu
- TLDR: Wir schlagen ein neues Modell vor, CG-T5, das die Beziehungsbeschriftung erkennt und die Zielsprach mit den Merkmalen von Beziehungen gleichzeitig erzeugt.
- A Language Model-based Generative Classifier for Sentence-level Discourse Parsing
- Ying Zhang, Hidetaka Kamigaito, Manabu Okumura
- TLDR: Wir schlagen einen generativen Klassifikator vor, der Labels als Eingabe und damit als Ziel für die Sprachsegmentierung nutzt.
- Multimodal Phased Transformer for Sentiment Analysis
- Junyan Cheng, Iordanis Fostiropoulos, Barry Boehm, Mohammad Soleymani
- TLDR: Wir schlagen eine Methode vor, die die Komplexität von Multimodalen Aufmerksamkeitsmechanismen reduziert und gleichzeitig die Effizienz bei der Erfassung von Multimodalen Interaktionen erhöht.
- Hierarchical Multi-label Text Classification with Horizontal and Vertical Category Correlations
- Linli Xu, Sijie Teng, Ruoyu Zhao, Junliang Guo, Chi Xiao, Deqiang Jiang, Bo Ren
- TLDR: Wir schlagen einen neuen Rahmen vor, der sowohl die Verzerrung von Verzeichnissen als auch die Verzerrung von Verzerrungen zwischen den Klassen berücksichtigt.
- RankNAS: Efficient Neural Architecture Search by Pairwise Ranking
- Chi Hu, Chenglong Wang, Xiangnan Ma, Xia Meng, Yinqiao Li, Tong Xiao, Jingbo Zhu, Changliang Li
- TLDR: Wir schlagen eine Methode zur effizienten Architektursuche vor, die auf pairwise Ranking basiert.
- FLiText: A Faster and Lighter Semi-Supervised Text Classification with Convolution Networks
- Chen Liu, Zhang Mengchao, Fu Zhibing, Panpan Hou, Yu Li
- TLDR: Wir stellen FLiText vor, eine SSL-Methode für Faster und Lighter semi-supervised Textklassifikation.
- Evaluating Debiasing Techniques for Intersectional Biases
- Shivashankar Subramanian, Xudong Han, Timothy Baldwin, Trevor Cohn, Lea Frermann
- TLDR: Wir stellen ein neuartiges nullspace-Projektionsmodell vor, das mehrere identiten mit mehreren Eigenschaften aufweist.
- Definition Modelling for Appropriate Specificity
- Han Huang, Tomoyuki Kajiwara, Yuki Arase
- TLDR: Wir schlagen eine Methode vor, die die Über- und Unterbezeichnungen mit einer geeigneten Genauigkeit erfasst.
- Transductive Learning for Unsupervised Text Style Transfer
- Fei Xiao, Liang Pang, Yanyan Lan, Yan Wang, Huawei Shen, Xueqi Cheng
- TLDR: Wir schlagen einen neuen Ansatz vor, der auf kontextualisch aware Stilrepräsentationen basiert, um das Problem der Inkonsistenz bei unüberwachten Stiltransfers zu lösen.
- Integrating Semantic Scenario and Word Relations for Abstractive Sentence Summarization
- Yong Guan, Shaoru Guo, Ru Li, Xiaoli Li, Hu Zhang
- TLDR: Wir schlagen ein Duales Graphennetz vor, um die Wortbeziehungen und die Strukturen von Sätzen gleichzeitig zu erfassen.
- Coupling Context Modeling with Zero Pronoun Recovering for Document-Level Natural Language Generation
- Xin Tan, Longyin Zhang, Guodong Zhou
- TLDR: Wir stellen einen adaptiven Ansatz zur Konsistenzverwächerung vor, der die ZP-Probleme bei NLG-Aufgaben minimiert.
- Adaptive Bridge between Training and Inference for Dialogue Generation
- Haoran Xu, Hainan Zhang, Yanyan Zou, Hongshen Chen, Zhuoye Ding, Yanyan Lan
- TLDR: Wir schlagen einen adaptiven Wechselmechanismus vor, der lernt, automatisch zwischen Ground Truth und Generated Learning zu übersetzen, um die Wort-Ebene zu übertreffen.
- ConRPG: Paraphrase Generation using Contexts as Regularizer
- Yuxian Meng, Xiang Ao, Qing He, Xiaofei Sun, Qinghong Han, Fei Wu, Chun Fan, Jiwei Li
- TLDR: Wir schlagen einen neuen Rahmen für die Paraphrase-Genauigkeit vor, der auf der Annahme basiert, dass die Wahrscheinlichkeiten für die Erzeugung zweier Sätze mit dem gleichen Kontext gleich sind.
- Building the Directed Semantic Graph for Coherent Long Text Generation
- Ziao Wang, Xiaofeng Zhang, Hongwei Du
- TLDR: Wir schlagen einen neuen Ansatz vor, um Konsistenz von Texten auf Dokumentebene zu generieren, die sich auf Dokumentebene aufbauen.
- Iterative GNN-based Decoder for Question Generation
- Zichu Fei, Qi Zhang, Yaqian Zhou
- TLDR: Wir schlagen einen Graphennetzwerk-basierten Decoder vor, um die vorherigen Generationen zu modellieren, indem wir eine Graphen Neural Network-Architektur verwenden.
- Asking Questions Like Educational Experts: Automatically Generating Question-Answer Pairs on Real-World Examination Data
- Fanyi Qu, Xin Jia, Yunfang Wu
- TLDR: Wir schlagen ein Multi-Agenten-Kommunikationsmodell vor, um die Frage-Antwort-Paare-Generierung auf RACE zu lösen.
- Syntactically-Informed Unsupervised Paraphrasing with Non-Parallel Data
- Erguang Yang, Mingtong Liu, Deyi Xiong, Yujie Zhang, Yao Meng, Changjian Hu, Jinan Xu, Yufeng Chen
- TLDR: Wir schlagen ein syntaktisch-informiertes Paraphrasing-Modell vor, das auf nicht-parallelen Daten trainiert werden kann, um syntaktische Sätze mit einer bestimmten Syntax zu generieren.
- Exploring Task Difficulty for Few-Shot Relation Extraction
- Jiale Han, Bo Cheng, Wei Lu
- TLDR: Wir stellen einen neuen Ansatz für das Lernen von Repräsentationen vor, der die Aufmerksamkeit auf schwierige Aufgaben verlagert.
- MuVER: Improving First-Stage Entity Retrieval with Multi-View Entity Representations
- Xinyin Ma, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Weiming Lu
- TLDR: Wir schlagen MultiView Entity Representations (MuVER) vor, eine neue Architektur für Entity Retrieval, die Multiview-Modelle für Entitäten erzeugt und die optimalen Ansichten für Beschriftungen nutzt.
- Treasures Outside Contexts: Improving Event Detection via Global Statistics
- Rui Li, Wenlin Zhao, Cheng Yang, Sen Su
- TLDR: Wir schlagen ein neues, auf statistischen Merkmalen basierendes und aufschlussreiche Weise diskriminierendes Netzwerk vor, das die Erkennung von Ereignissen in Texten ermöglicht.
- Uncertain Local-to-Global Networks for Document-Level Event Factuality Identification
- Pengfei Cao, Yubo Chen, Yuqing Yang, Kang Liu, Jun Zhao
- TLDR: Wir schlagen eine Unsicherheits-Evaluierungsmodulation vor, um die Unsicherheit von lokalen Informationen zu modellieren.
- A Novel Global Feature-Oriented Relational Triple Extraction Model based on Table Filling
- Feiliang Ren, Longhui Zhang, Shujuan Yin, Xiaofeng Zhao, Shilei Liu, Bochao Li, Yaduo Liu
- TLDR: Wir schlagen ein globales Merkmals- und Aktionsmodell vor, das auf der Entflechtung von Beziehungen und den zugehörigen Tokenpaaren basiert.
- Structure-Augmented Keyphrase Generation
- Jihyuk Kim, Myeongho Jeong, Seungtaek Choi, Seung-won Hwang
- TLDR: Wir schlagen eine neue Methode zur Strukturerweiterung vor, die die Texterzeugung in Dokumenten mit fehlenden oder unvollkommenen Schlüsselphrasen erweitert.
- An Empirical Study on Multiple Information Sources for Zero-Shot Fine-Grained Entity Typing
- Yi Chen, Haiyun Jiang, Lemao Liu, Shuming Shi, Chuang Fan, Min Yang, Ruifeng Xu
- TLDR: Wir analysieren und schlagen ein Multi-Source-Faltungsmodell vor, um die Wichtigkeit von Auxiliarischen Informationen für Zero-Shot Fine-Grad Entity Typing zu verbessern.
- DyLex: Incorporating Dynamic Lexicons into BERT for Sequence Labeling
- Baojun Wang, Zhao Zhang, Kun Xu, Guang-Yuan Hao, Yuyang Zhang, Lifeng Shang, Linlin Li, Xiao Chen, Xin Jiang, Qun Liu
- TLDR: Wir schlagen einen neuen Ansatz vor, um lexikalisches Wissen in BERT-basiertes Deep Learning zu integrieren.
- MapRE: An Effective Semantic Mapping Approach for Low-resource Relation Extraction
- Manqing Dong, Chunguang Pan, Zhipeng Luo
- TLDR: Wir schlagen einen Rahmen für label-agnostisch und label-bewusste semantische Labels vor, um die Erfassung von Beziehungen mit geringen Ressourcen zu verbessern.
- Heterogeneous Graph Neural Networks for Keyphrase Generation
- Jiacheng Ye, Ruijian Cai, Tao Gui, Qi Zhang
- TLDR: Wir schlagen eine neue Graphenbasierte Methode vor, die Wissen aus Dokumenten und Referenzdokumenten abfragen kann.
- Machine Reading Comprehension as Data Augmentation: A Case Study on Implicit Event Argument Extraction
- Jian Liu, Yufeng Chen, Jinan Xu
- TLDR: Wir stellen eine neue Perspektive vor, um das Problem der Datensparsamkeit bei impliziten EAEs zu lösen.
- Importance Estimation from Multiple Perspectives for Keyphrase Extraction
- Mingyang Song, Liping Jing, Lin Xiao
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Bedeutung von Schlüsselphrasen aus mehreren Perspektiven (called as
- Gradient Imitation Reinforcement Learning for Low Resource Relation Extraction
- Xuming Hu, Chenwei Zhang, Yawen Yang, Xiaohe Li, Li Lin, Lijie Wen, Philip S. Yu
- TLDR: Wir schlagen einen Rahmen für Low-Resource Relations Extraktion vor, der zwei Probleme in einer Low-Resource Relations Extraktion behebt.
- Low-resource Taxonomy Enrichment with Pretrained Language Models
- Kunihiro Takeoka, Kosuke Akimoto, Masafumi Oyamada
- TLDR: Wir schlagen Musubu vor, einen effizienten Rahmen für das Erlernen von Sprachmodellen zur Bewältigung des Problems der Low-Resource-Taxonomy-Enrichment.
- Entity Relation Extraction as Dependency Parsing in Visually Rich Documents
- Yue Zhang, Zhang Bo, Rui Wang, Junjie Cao, Chen Li, Zuyi Bao
- TLDR: Wir schlagen ein neues Modell vor, das sich auf die Entitätsbeschriftung und die Beziehungsextraktion von VRDs anwenden kann.
- Synchronous Dual Network with Cross-Type Attention for Joint Entity and Relation Extraction
- Hui Wu, Xiaodong Shi
- TLDR: Wir schlagen eine neuartige synchrone dual-Netzwerk-Architektur vor, die die Interdependenz zwischen Entitätstypen und Beziehungstypen modelliert.
- Less is More: Pretrain a Strong Siamese Encoder for Dense Text Retrieval Using a Weak Decoder
- Shuqi Lu, Di He, Chenyan Xiong, Guolin Ke, Waleed Malik, Zhicheng Dou, Paul Bennett, Tie-Yan Liu, Arnold Overwijk
- TLDR: Wir stellen eine neue Methode vor, die den Autoencoder für den Textretrieval nutzt.
- TransPrompt: Towards an Automatic Transferable Prompting Framework for Few-shot Text Classification
- Chengyu Wang, Jianing Wang, Minghui Qiu, Jun Huang, Ming Gao
- TLDR: Wir schlagen TransPrompt vor, einen Transferable Prompting Framework für das Lernen von Texten mit wenigen Aufnahmen.
- Weakly-supervised Text Classification Based on Keyword Graph
- Lu Zhang, Jiandong Ding, Yi Xu, Yingyao Liu, Shuigeng Zhou
- TLDR: Wir schlagen einen neuen Rahmen vor, der die Keyword-Körper-Korrelation auf einem keyword-Graphen durch ein GNN untersucht.
- Efficient-FedRec: Efficient Federated Learning Framework for Privacy-Preserving News Recommendation
- Jingwei Yi, Fangzhao Wu, Chuhan Wu, Ruixuan Liu, Guangzhong Sun, Xing Xie
- TLDR: Wir schlagen einen föderierten Rahmen für die Privatsphäre von Benutzern vor, der die Daten von Benutzern und Nutzermodellen gemeinsam nutzt.
- RocketQAv2: A Joint Training Method for Dense Passage Retrieval and Passage Re-ranking
- Ruiyang Ren, Yingqi Qu, Jing Liu, Wayne Xin Zhao, QiaoQiao She, Hua Wu, Haifeng Wang, Ji-Rong Wen
- TLDR: Wir schlagen einen neuen Trainingsalgorithmus vor, der den Klassifizierungsprozess eines Rechners und eines Re-Rankers verbindet.
- Dealing with Typos for BERT-based Passage Retrieval and Ranking
- Shengyao Zhuang, Guido Zuccon
- TLDR: Wir stellen typosbewusste und typobewusste Re-Ranking-Methoden vor, die auf der Suche nach Text typisieren.
- From Alignment to Assignment: Frustratingly Simple Unsupervised Entity Alignment
- Xin Mao, Wenting Wang, Yuanbin Wu, Man Lan
- TLDR: Wir schlagen eine einfache aber effektive Unüberwachte Entitätsalignment-Methode vor, die auf neuronalen Netzen basiert.
- Simple and Effective Unsupervised Redundancy Elimination to Compress Dense Vectors for Passage Retrieval
- Xueguang Ma, Minghan Li, Kai Sun, Ji Xin, Jimmy Lin
- TLDR: Wir schlagen eine einfache unüberwachte Kompressionspipeline vor, die die Standardgröße von 768 Pixeln übertrifft.
- Relation Extraction with Word Graphs from N-grams
- Han Qin, Yuanhe Tian, Yan Song
- TLDR: Wir schlagen aufmerksame Graphen Convolutional Networks (A-GCN) vor, um neuronale RE-Methoden mit einer unüberwachten Methode zu verbessern, die einen kontextuellen Graphengraphen aufbauen.
- A Bayesian Framework for Information-Theoretic Probing
- Tiago Pimentel, Ryan Cotterell
- TLDR: Wir schlagen einen Rahmen vor, um Bayes’sche mutual Information zu verstehen, und zeigen, dass diese Information die Wahrscheinlichkeitsverteilungen von Variablen kennt.
- Masked Language Modeling and the Distributional Hypothesis: Order Word Matters Pre-training for Little
- Koustuv Sinha, Robin Jia, Dieuwke Hupkes, Joelle Pineau, Adina Williams, Douwe Kiela
- TLDR: Wir stellen fest, dass MLMs auf der Grundlage von Syntax-Informationen erfolgreich sind, wenn sie auf Aufgaben mit Satzrepräsentationen mit beliebigen Worten umgestiegen werden.
- What’s Hidden in a One-layer Randomly Weighted Transformer?
- Sheng Shen, Zhewei Yao, Douwe Kiela, Kurt Keutzer, Michael Mahoney
- TLDR: Wir stellen fest, dass die meisten Transformer-Netzwerke eine gute Leistung erzielen, ohne die Gewichtsinitialisierungen zu ändern.
- Rethinking Denoised Auto-Encoding in Language Pre-Training
- Fuli Luo, Pengcheng Yang, Shicheng Li, Xuancheng Ren, Xu Sun, Songfang Huang, Fei Huang
- TLDR: Wir stellen ContrAstive Pre-Training (CAPT) vor, eine Methode zur Ersetzung von Rauschen invarianter Sequenzrepräsentationen.
- Lifelong Explainer for Lifelong Learners
- Xuelin Situ, Sameen Maruf, Ingrid Zukerman, Cecile Paris, Gholamreza Haffari
- TLDR: Wir schlagen einen neuen Lifelong Explanation (LLE) Ansatz vor, der einen Schüler-Erklärer kontinuierlich trainiert, um katastrophales Vergessen zu verhindern.
- Linguistic Dependencies and Statistical Dependence
- Jacob Louis Hoover, Wenyu Du, Alessandro Sordoni, Timothy J. O’Donnell
- TLDR: Wir verwenden große pretrained Sprachmodelle, um kontextualisierte Schätzungen der gegenseitigen Information zwischen Wörtern zu generieren.
- Modeling Human Sentence Processing with Left-Corner Recurrent Neural Network Grammars
- Ryo Yoshida, Hiroshi Noji, Yohei Oseki
- TLDR: Wir haben hierarchische Strukturen in Sprachmodellen untersucht, und wir zeigen, dass sie menschlicherähert.
- A Simple and Effective Positional Encoding for Transformers
- Pu-Chin Chen, Henry Tsai, Srinadh Bhojanapalli, Hyung Won Chung, Yin-Wen Chang, Chun-Sung Ferng
- TLDR: Wir stellen eine Methode vor, die Positions- und Segmentierungsinformationen in die Transformer-Modelle kodiert.
- Explore Better Relative Position Embeddings from Encoding Perspective for Transformer Models
- Anlin Qu, Jianwei Niu, Shasha Mo
- TLDR: Wir schlagen eine neue Low-Level Fine-Graded Low-Level Coarse-Graded (LFHC) RPE und eine neue Gaußsche Distribution Function (GCDF) RPE vor, die die Positionsbeschriftung in XL-RPE deutlich verbessert.
- Adversarial Mixing Policy for Relaxing Locally Linear Constraints in Mixup
- Guang Liu, Yuzhao Mao, Huang Hailong, Gao Weiguo, Li Xuan
- TLDR: Wir schlagen eine neue Methode zur Regularisierung von Textklassifikationsnetzwerken vor, die die Fehlerrate bei Mixup-Varianten erheblich reduzieren kann.
- Is this the end of the gold standard? A straightforward reference-less grammatical error correction metric
- Md Asadul Islam, Enrico Magnani
- TLDR: Wir schlagen ein neues, auf reference-based metrics basierendes Bewertungssystem vor, das die Probleme der Verwendung von Referenztexten und der Verwendung von Abhängigkeiten lösen kann.
- Augmenting BERT-style Models with Predictive Coding to Improve Discourse-level Representations
- Vladimir Araujo, Andrés Villa, Marcelo Mendoza, Marie-Francine Moens, Alvaro Soto
- TLDR: Wir verwenden Ideen aus dem BERT-Modell, um sprachliche Modelle mit einem Mechanismus zu lernen, der sprachliche Beziehungen vorhersagen kann.
- Backdoor Attacks on Pre-trained Models by Layerwise Weight Poisoning
- Linyang Li, Demin Song, Xiaonan Li, Jiehang Zeng, Ruotian Ma, Xipeng Qiu
- TLDR: Wir schlagen eine
- GAML-BERT: Improving BERT Early Exiting by Gradient Aligned Mutual Learning
- Wei Zhu, Xiaoling Wang, Yuan Ni, Guotong Xie
- TLDR: Wir schlagen einen Gradientenabgleich-Rahmen vor, der BERT in den frühen EInstiegserfolgen steuert.
- The Power of Scale for Parameter-Efficient Prompt Tuning
- Brian Lester, Rami Al-Rfou, Noah Constant
- TLDR: Wir verwenden Soft-Punkts, um ein frozen Modell mit Soft-Punkts zu bestrafen, um bestimmte Aufgaben zu lösen.
- Scalable Font Reconstruction with Dual Latent Manifolds
- Nikita Srivatsan, Si Wu, Jonathan Barron, Taylor Berg-Kirkpatrick
- TLDR: Wir schlagen ein tiefes generatives Modell vor, das typographische Analyse und Font-Rekonstruktion durch Entflechtungsausgleichen und -verzerrungen durch die Entflechtung von Schriftstil und Zeichenform durch die Entflechtung von Schriftarten und Zeichenformen erbringt.
- Neuro-Symbolic Approaches for Text-Based Policy Learning
- Subhajit Chaudhury, Prithviraj Sen, Masaki Ono, Daiki Kimura, Michiaki Tatsubori, Asim Munawar
- TLDR: Wir stellen eine Methode vor, die interpretierbare Handlungsregeln aus symbolischen Ababstraktionen von Texten lernt, um eine bessere Generalisierung zu erreichen.
- Layer-wise Model Pruning based on Mutual Information
- Chun Fan, Jiwei Li, Tianwei Zhang, Xiang Ao, Fei Wu, Yuxian Meng, Xiaofei Sun
- TLDR: Wir schlagen eine neue Methode vor, die auf gegenseitigen Informationen basiert, um die Leistung von neuronalen Netzen zu verbessern.
- Hierarchical Heterogeneous Graph Representation Learning for Short Text Classification
- Yaqing Wang, Song Wang, Quanming Yao, Dejing Dou
- TLDR: Wir schlagen eine neue Methode vor, die auf graphenbasiertem neuronalen Netzen basiert, die die Klassifizierung von Kurztexten ermöglicht.
- kFolden: k-Fold Ensemble for Out-Of-Distribution Detection
- Xiaoya Li, Jiwei Li, Xiaofei Sun, Chun Fan, Tianwei Zhang, Fei Wu, Yuxian Meng, Jun Zhang
- TLDR: Wir schlagen einen einfachen Rahmen vor, um OOD-Erkennungsprobleme zu lösen.
- Frustratingly Simple Pretraining Alternatives to Masked Language Modeling
- Atsuki Yamaguchi, George Chrysostomou, Katerina Margatina, Nikolaos Aletras
- TLDR: Wir stellen fünf einfache Sprachmodelle vor, die als Ersatz für MLM dienen können.
- HRKD: Hierarchical Relational Knowledge Distillation for Cross-domain Language Model Compression
- Chenhe Dong, Yaliang Li, Ying Shen, Minghui Qiu
- TLDR: Wir schlagen eine hierarchische relationale Wissensdestillation vor, die die Beziehungen zwischen den Domänen erfasst.
- Searching for an Effective Defender: Benchmarking Defense against Adversarial Word Substitution
- Zongyi Li, Jianhan Xu, Jiehang Zeng, Linyang Li, Xiaoqing Zheng, Qi Zhang, Kai-Wei Chang, Cho-Jui Hsieh
- TLDR: Wir schlagen eine neue Methode zur Text-Angriffsgegnerischen Verteidigung vor, die auf die Text-Ausnutzung von neuronalen Textklassifikationsmodellen angewendet werden kann.
- Re-embedding Difficult Samples via Mutual Information Constrained Semantically Oversampling for Imbalanced Text Classification
- Jiachen Tian, Shizhan Chen, Xiaowang Zhang, Zhiyong Feng, Deyi Xiong, Shaojuan Wu, Chunliu Dou
- TLDR: Wir schlagen ein Modell vor, das die Anwendbarkeit von Entangled Semantiken bei schwierigen und Mehrheitsstimmen verbessert.
- Beyond Text: Incorporating Metadata and Label Structure for Multi-Label Document Classification using Heterogeneous Graphs
- Chenchen Ye, Linhai Zhang, Yulan He, Deyu Zhou, Jie Wu
- TLDR: Wir schlagen einen neuronalen Neural Network-Ansatz für die Multi-Label-Dokumentenklassifikation vor, der zwei heterogene Graphenmodelle nutzt.
- Natural Language Processing Meets Quantum Physics: A Survey and Categorization
- Sixuan Wu, Jian Li, Peng Zhang, Yue Zhang
- TLDR: Wir stellen eine Literaturreview über Quanten-NLP-Methoden vor, die die Interaktion zwischen NLP und physik untersucht.
- MetaTS: Meta Teacher-Student Network for Multilingual Sequence Labeling with Minimal Supervision
- Zheng Li, Danqing Zhang, Tianyu Cao, Ying Wei, Yiwei Song, Bing Yin
- TLDR: Wir schlagen Meta-Täsch-Student-Netzwerke vor, eine neuartige Meta-Lernenmethode zur Sprachbeschriftung mit minimalen Überwachung.
- Neural Machine Translation with Heterogeneous Topic Knowledge Embeddings
- Weixuan Wang, Wei Peng, Meng Zhang, Qun Liu
- TLDR: Wir schlagen heterogene Methoden vor, um Themeninformationen auf der Ebene des Satzes in ein neuronales Modell zu integrieren, um die Leistung bei der Sprachübersetzung zu verbessern.
- Allocating Large Vocabulary Capacity for Cross-Lingual Language Model Pre-Training
- Bo Zheng, Li Dong, Shaohan Huang, Saksham Singhal, Wanxiang Che, Ting Liu, Xia Song, Furu Wei
- TLDR: Wir schlagen einen Algorithmus VoCap vor, um die gewünschten Sprachkenntnisse von Sprachmodellen zu ermitteln.
- Recurrent Attention for Neural Machine Translation
- Jiali Zeng, Shuangzhi Wu, Yongjing Yin, Yufan Jiang, Mu Li
- TLDR: Wir schlagen einen neuen Mechanismus zur Wiederholung von Aufmerksamkeit vor, der die Aufmerksamkeitsmeße von Transformer-Modellen verbessert.
- Learning from Multiple Noisy Augmented Data Sets for Better Cross-Lingual Spoken Language Understanding
- Yingmei Guo, Linjun Shou, Jian Pei, Ming Gong, Mingxing Xu, Zhiyong Wu, Daxin Jiang
- TLDR: Wir stellen einen neuen Ansatz vor, um das Rauschen in den Daten zu reduzieren und die Sprachkenntnisse in geringen Ressourcen zu skalieren.
- Enlivening Redundant Heads in Multi-head Self-attention for Machine Translation
- Tianfu Zhang, Heyan Huang, Chong Feng, Longbing Cao
- TLDR: Wir schlagen eine Methode vor, die syntaktisches Potenzial von redundanten, aber auch das Potenzial wichtiger, aber weniger nützlicher, Gesichts vor.
- Unsupervised Neural Machine Translation with Universal Grammar
- Zuchao Li, Masao Utiyama, Eiichiro Sumita, Hai Zhao
- TLDR: Wir schlagen eine Methode vor, die parallele Korporas nutzt, um Sprachparametrische Signale für das Training von unbeaufsichtigten Übersetzungsmodellen zu erhalten.
- Encouraging Lexical Translation Consistency for Document-Level Neural Machine Translation
- Xinglin Lyu, Junhui Li, Zhengxian Gong, Min Zhang
- TLDR: Wir schlagen einen neuen Ansatz vor, um lexikalische Übersetzungseinheiten auf Dokumentebene zu fördern.
- Improving Neural Machine Translation by Bidirectional Training
- Liang Ding, Di Wu, Dacheng Tao
- TLDR: Wir stellen eine einfache und effektive Vortrainingstrategie vor, die die neuronale Übersetzungstechniken verbessert.
- Scheduled Sampling Based on Decoding Steps for Neural Machine Translation
- Yijin Liu, Fandong Meng, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: Wir schlagen eine neue Methode vor, die auf der Erkennung von Vorhersagenten zugeschnitten ist und die Verzerrung von Vorhersagenten in der Texterzeugung minimiert.
- Learning to Rewrite for Non-Autoregressive Neural Machine Translation
- Xinwei Geng, Xiaocheng Feng, Bing Qin
- TLDR: Wir schlagen eine Architektur vor, die darauf trainiert, die Fehler in der Übersetzung zu beseitigen, indem sie die Fehler in den Quelltexten wiederverschreibt.
- SHAPE: Shifted Absolute Position Embedding for Transformers
- Shun Kiyono, Sosuke Kobayashi, Jun Suzuki, Kentaro Inui
- TLDR: Wir stellen eine neue Methode vor, die die Positionsrepräsentationen in Transformers verbessert und gleichzeitig die Leistung bei der Testausführung erhöht.
- Self-Supervised Quality Estimation for Machine Translation
- Yuanhang Zheng, Zhixing Tan, Meng Zhang, Mieradilijiang Maimaiti, Huanbo Luan, Maosong Sun, Qun Liu, Yang Liu
- TLDR: Wir schlagen eine Selbstüberwachung vor, die die Qualität von maschinellen Übersetzungen mit Hilfe von Masken und Etikettenschätzern erfasst.
- Generalised Unsupervised Domain Adaptation of Neural Machine Translation with Cross-Lingual Data Selection
- Thuy-Trang Vu, Xuanli He, Dinh Phung, Gholamreza Haffari
- TLDR: Wir schlagen eine Methode vor, die aus einer großen Vielfalt von Texten in einem gemeinsamen Sprachkorpus extrahiert werden kann, und verwenden sie zur Anpassung von BERT.
- STANKER: Stacking Network based on Level-grained Attention-masked BERT for Rumor Detection on Social Media
- Dongning Rao, Xin Miao, Zhihua Jiang, Ran Li
- TLDR: Wir schlagen ein neues BERT-Modell vor, das auf Weibo20 und drei bestehende Datensätzen die Aufmerksamkeit auf sich zieht.
- ActiveEA: Active Learning for Neural Entity Alignment
- Bing Liu, Harrisen Scells, Guido Zuccon, Wen Hua, Genghong Zhao
- TLDR: Wir schlagen eine strukturierte Unsicherheitssampling-Strategie vor, die die Unsicherheiten von Entitäten in KGs erfasst und die Auswirkungen auf die Nachbarschaften von Entitäten in KGs berücksichtigt.
- Cost-effective End-to-end Information Extraction for Semi-structured Document Images
- Wonseok Hwang, Hyunji Lee, Jinyeong Yim, Geewook Kim, Minjoon Seo
- TLDR: Wir stellen eine neue Aufgabe vor, die die Dokumentenausgabe als eine Sequenz generiert und gleichzeitig eine competent Leistung erzielt.
- Improving Math Word Problems with Pre-trained Knowledge and Hierarchical Reasoning
- Weijiang Yu, Yingpeng Wen, Fudan Zheng, Nong Xiao
- TLDR: Wir schlagen einen Algorithmus vor, der die Konsistenz zwischen Worten und Sätzen nutzt, um hierarchisch zu lernen.
- GraphMR: Graph Neural Network for Mathematical Reasoning
- Weijie Feng, Binbin Liu, Dongpeng Xu, Qilong Zheng, Yun Xu
- TLDR: Wir haben eine Graphen-to-Sequence-Architektur vorgeschlagen, die die Struktur von Graphengraphen nutzt, um die hierarchischen Informationen von graphen Eingaben zu lösen und zu spekulieren.
- What Changes Can Large-scale Language Models Bring? Intensive Study on HyperCLOVA: Billions-scale Korean Generative Pretrained Transformers
- Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, Minyoung Jeong, Sungjae Lee, Minsub Kim, Suk Hyun Ko, Seokhun Kim, Taeyong Park, Jinuk Kim, Soyoung Kang, Na-Hyeon Ryu, Kang Min Yoo, Minsuk Chang, Soobin Suh, Sookyo In, Jinseong Park, Kyungduk Kim, Hiun Kim, Jisu Jeong, Yong Goo Yeo, Donghoon Ham, Dongju Park, Min Young Lee, Jaewook Kang, Inho Kang, Jung-Woo Ha, Woomyoung Park, Nako Sung
- TLDR: Wir stellen HyperCLOVA vor, eine Korean-Variante von 82B GPT-3, die auf einem Korean-zentrierten corpus von 560B Token trainiert wurde.
- APIRecX: Cross-Library API Recommendation via Pre-Trained Language Model
- Yuning Kang, Zan Wang, Hongyu Zhang, Junjie Chen, Hanmo You
- TLDR: Wir schlagen APIRecX vor, einen neuen Ansatz zur API-Empfehlung vor, der BPE verwendet, um jede API-Frequenz in jede API-Frequenz zu splitten und ein GPT-basiertes Sprachmodell zu trainieren.
- GMH: A General Multi-hop Reasoning Model for KG Completion
- Yao Zhang, Hongru Liang, Adam Jatowt, Wenqiang Lei, Xin Wei, Ning Jiang, Zhenglu Yang
- TLDR: Wir schlagen ein allgemeines Multi-Hop-Framework vor, das die Probleme bei der Schlussfolgerungen von Long-Long Distance-Problemen lösen kann.
- BPM_MT: Enhanced Backchannel Prediction Model using Multi-Task Learning
- Jin Yea Jang, San Kim, Minyoung Jung, Saim Shin, Gahgene Gweon
- TLDR: Wir stellen ein Backchannel-Vorhersagemodell vor, das KoBERT verwendet, um die Klassifizierung von Backchannels in Gesprächen zu erleichtern.
- Graphine: A Dataset for Graph-aware Terminology Definition Generation
- Zequn Liu, Shukai Wang, Yiyang Gu, Ruiyi Zhang, Ming Zhang, Sheng Wang
- TLDR: Wir schlagen ein graph-awares Textmodell Graphex vor, das die Graphenstruktur von Begriffen nutzt, um die Definition von medizinischen Themen zu ermitteln.
- Leveraging Order-Free Tag Relations for Context-Aware Recommendation
- Junmo Kang, Jeonghwan Kim, Suwon Shin, Sung-Hyon Myaeng
- TLDR: Wir schlagen eine sequenz-obliviole Generierungsmethode vor, die die nächsten Tags für die Empfehlung von Top-k-Tags generiert.
- End-to-End Conversational Search for Online Shopping with Utterance Transfer
- Liqiang Xiao, Jun Ma, Xin Luna Dong, Pascual Martínez-Gómez, Nasser Zalmout, Wei Chen, Tong Zhao, Hao He, Yaohui Jin
- TLDR: Wir schlagen ConvSearch vor, ein Ende-zu-Ende Konversationales Suchsystem, das die Dialogsuche mit der Suche kombiniert.
- Self-Supervised Curriculum Learning for Spelling Error Correction
- Zifa Gan, Hongfei Xu, Hongying Zan
- TLDR: Wir schlagen einen Self-Supervised Curriculum Learning (SSCL) Ansatz vor, um die Leistung von Klassifizierungsfehlern bei der Sprachkorregation zu verbessern.
- Fix-Filter-Fix: Intuitively Connect Any Models for Effective Bug Fixing
- Haiwen Hong, Jingfeng Zhang, Yin Zhang, Yao Wan, Yulei Sui
- TLDR: Wir schlagen einen neuen Rahmen vor, der die Unveränderlichkeit von Codes in NMT-basierten Ansätzen berücksichtigt.
- Neuro-Symbolic Reinforcement Learning with First-Order Logic
- Daiki Kimura, Masaki Ono, Subhajit Chaudhury, Ryosuke Kohita, Akifumi Wachi, Don Joven Agravante, Michiaki Tatsubori, Asim Munawar, Alexander Gray
- TLDR: Wir schlagen eine neuartige RL-Methode vor, die symbolische Regeln in einem Logical Neural Network lernt, um sie in Text-basierte Spiele zu integrieren.
- Biomedical Concept Normalization by Leveraging Hypernyms
- Cheng Yan, Yuanzhe Zhang, Kang Liu, Jun Zhao, Yafei Shi, Shengping Liu
- TLDR: Wir schlagen einen neuen Rahmen vor, der hypernämliche Konzepte und synonyme verwendet, um die Normalisierung von biomedizinischen Konzepten zu fördern.
- Leveraging Capsule Routing to Associate Knowledge with Medical Literature Hierarchically
- Xin Liu, Qingcai Chen, Junying Chen, Wenxiu Zhou, Tingyu Liu, Xinlan Yang, Weihua Peng
- TLDR: Wir schlagen eine Kapsel-Routing-Architektur vor, um Wissen mit medizinischer Literatur hierarchisch zu verbinden.
- Label-Enhanced Hierarchical Contextualized Representation for Sequential Metaphor Identification
- Shuqun Li, Liang Yang, Weidong He, Shiqi Zhang, Jingjie Zeng, Hongfei Lin
- TLDR: Wir schlagen ein neues Metaphor-Informationsmodell vor, das hierarchische Repräsentationen von Phrasen und Phrasenverallgemeinerung nutzt, um die Wahrnehmung von Sprachmodellen zu verbessern.
- SpellBERT: A Lightweight Pretrained Model for Chinese Spelling Check
- Tuo Ji, Hang Yan, Xipeng Qiu
- TLDR: Wir schlagen BERT vor, ein pretrained Modell mit graphbasierten Merkmalen und unabhängig auf confusion set.
- Automated Generation of Accurate & Fluent Medical X-ray Reports
- Hoang Nguyen, Dong Nie, Taivanbat Badamdorj, Yujie Liu, Yingying Zhu, Jason Truong, Li Cheng
- TLDR: Wir stellen eine Automatisierung der Erstellung von medizinischen Berichten aus Brust-X-Ray-Bildern vor und zeigen, dass die Ergebnisse gut funktionieren.
- Enhancing Document Ranking with Task-adaptive Training and Segmented Token Recovery Mechanism
- Xingwu Sun, Yanling Cui, Hongyin Tang, Fuzheng Zhang, Beihong Jin, Shi Wang
- TLDR: Wir schlagen ein neues Ranking-Modell vor, das die Dokumentensuche durch einen Aufgabenadaptiven Trainingsprozess und einen Segmented Token Recovery Mechanismus verbessert.
- Abstract, Rationale, Stance: A Joint Model for Scientific Claim Verification
- Zhiwei Zhang, Jiyi Li, Fumiyo Fukumoto, Yanming Ye
- TLDR: Wir schlagen einen Ansatz vor, der die Module für die drei Aufgaben von abstrakten Repräsentationen, RL und RL-Vorhersage nutzt.
- A Fine-Grained Domain Adaption Model for Joint Word Segmentation and POS Tagging
- Peijie Jiang, Dingkun Long, Yueheng Sun, Meishan Zhang, Guangwei Xu, Pengjun Xie
- TLDR: Wir stellen eine fine-grained Domänenanpassung vor, die die Lücke zwischen den Zieldomänen und den Quelldomänen minimiert.
- Answering Open-Domain Questions of Varying Reasoning Steps from Text
- Peng Qi, Haejun Lee, Tg Sido, Christopher Manning
- TLDR: Wir entwickeln einen Multi-Task-Transformer-Modell, der auf Wikipedia-Baumfragen direkt von Texten beantwortet werden kann.
- Adaptive Information Seeking for Open-Domain Question Answering
- Yunchang Zhu, Liang Pang, Yanyan Lan, Huawei Shen, Xueqi Cheng
- TLDR: Wir schlagen eine adaptive Information-Seeking-Strategie für die Antwort auf offene Fragen vor, die die Beantwortung von Fragen auf mehreren Schritten ermöglicht.
- Mapping probability word problems to executable representations
- Simon Suster, Pieter Fivez, Pietro Totis, Angelika Kimmig, Jesse Davis, Luc de Raedt, Walter Daelemans
- TLDR: Wir verwenden neuronale Netze, um probabilistische Programme zu lösen.
- Enhancing Multiple-choice Machine Reading Comprehension by Punishing Illogical Interpretations
- Yiming Ju, Yuanzhe Zhang, Zhixing Tian, Kang Liu, Xiaohuan Cao, Wenting Zhao, Jinlong Li, Jun Zhao
- TLDR: Wir analysieren und verbessern das Multiple-Choice-Modell, indem wir die Lügen beseitigen.
- Large-Scale Relation Learning for Question Answering over Knowledge Bases with Pre-trained Language Models
- Yuanmeng Yan, Rumei Li, Sirui Wang, Hongzhi Zhang, Zan Daoguang, Fuzheng Zhang, Wei Wu, Weiran Xu
- TLDR: Wir schlagen relationale Aufgaben vor, um die inkrementellen Schlussfolgerungen in Wissensdatenbanken zu beantworten.
- Phrase Retrieval Learns Passage Retrieval, Too
- Jinhyuk Lee, Alexander Wettig, Danqi Chen
- TLDR: Wir zeigen, dass Phrasen-Überwachung die Grundlage für das Erlernen von Phrasen auf Dokumenten und Dokumenten bildet.
- Neural Natural Logic Inference for Interpretable Question Answering
- Jihao Shi, Xiao Ding, Li Du, Ting Liu, Bing Qin
- TLDR: Wir schlagen einen neuronalen symbolischen QA-Ansatz vor, der die natürliche Logik in tiefen neuronalen Netzen integriert, um effektive Fragen-Antwortmodelle zu entwickeln.
- Smoothing Dialogue States for Open Conversational Machine Reading
- Zhuosheng Zhang, Siru Ouyang, Hai Zhao, Masao Utiyama, Eiichiro Sumita
- TLDR: Wir schlagen eine effektive Gating-Strategie vor, die die Dialogdynamik in nur einem Decoder smoothen und die Dialogdynamik für die Fragegenerierung nutzt.
- FinQA: A Dataset of Numerical Reasoning over Financial Data
- Zhiyu Chen, Wenhu Chen, Charese Smiley, Sameena Shah, Iana Borova, Dylan Langdon, Reema Moussa, Matt Beane, Ting-Hao Huang, Bryan Routledge, William Yang Wang
- TLDR: Wir stellen einen großen Datensatz für die Analyse von Finanzen vor, der mit Fragen-Answering-Paaren über Finanzauskünfte erstellt wurde.
- FiD-Ex: Improving Sequence-to-Sequence Models for Extractive Rationale Generation
- Kushal Lakhotia, Bhargavi Paranjape, Asish Ghoshal, Scott Yih, Yashar Mehdad, Srini Iyer
- TLDR: Wir stellen eine neue Architektur vor, die die Fehler von Seq2seq-Modellen eliminiert und die Erklärungsverfälschungen von RL-Aufgaben reduziert.
- RockNER: A Simple Method to Create Adversarial Examples for Evaluating the Robustness of Named Entity Recognition Models
- Bill Yuchen Lin, Wenyang Gao, Jun Yan, Ryan Moreno, Xiang Ren
- TLDR: Wir schlagen RockNER vor, eine einfache, aber effektive Methode zur Erstellung von natürlichen Gegenbeispielen, die die Robustheit von NER-Modellen verbessern.
- Diagnosing the First-Order Logical Reasoning Ability Through LogicNLI
- Jidong Tian, Yitian Li, Wenqing Chen, Liqiang Xiao, Hao He, Yaohui Jin
- TLDR: Wir schlagen LogicNLI vor, einen benchmark-Benchmark-Datensätzen, der die erste Ordnung der Logik (FOL) aus der Inferenz abschwächt.
- Constructing a Psychometric Testbed for Fair Natural Language Processing
- Ahmed Abbasi, David Dobolyi, John P. Lalor, Richard G. Netemeyer, Kendall Smith, Yi Yang
- TLDR: Wir stellen eine corpus-Architektur für psychometrisches Lernen vor, die die Bedeutung von Menschen in Bezug auf die Erwartungen, die Wahrnehmung und die Fairness erfasst.
- COUGH: A Challenge Dataset and Models for COVID-19 FAQ Retrieval
- Xinliang Frederick Zhang, Heming Sun, Xiang Yue, Simon Lin, Huan Sun
- TLDR: Wir stellen einen groß angelegten Datensatz, COUGH, vor, der für das COVID-19-FAQ-Retrieval geeignet ist.
- Chinese WPLC: A Chinese Dataset for Evaluating Pretrained Language Models on Word Prediction Given Long-Range Context
- Huibin Ge, Chenxi Sun, Deyi Xiong, Qun Liu
- TLDR: Wir stellen einen Datensatz für die Bewertung von Sprachmodellen vor, die auf Word-Prediktion given Long-Term Context (Chinese WPLC) trainiert wurden.
- WinoLogic: A Zero-Shot Logic-based Diagnostic Dataset for Winograd Schema Challenge
- Weinan He, Canming Huang, Yongmei Liu, Xiaodan Zhu
- TLDR: Wir schlagen einen logischen Rahmen vor, um die Verzerrung von Wissenssätzen bei der Winograd Schema Challenge zu bewerten.
- Pseudo Zero Pronoun Resolution Improves Zero Anaphora Resolution
- Ryuto Konno, Shun Kiyono, Yuichiroh Matsubayashi, Hiroki Ouchi, Kentaro Inui
- TLDR: Wir stellen eine neue Aufgabe vor, die MLMs auf anaphore Beziehungen trainiert, und eine neue Fine-Tuning-Methode vor, die die Diskrepanz zwischen den Vorhersagen und der Zielersetzung löst.
- Aligning Cross-lingual Sentence Representations with Dual Momentum Contrast
- Liang Wang, Wei Zhao, Jingming Liu
- TLDR: Wir schlagen eine Methode vor, um Synonyme aus mehreren Sprachen in einen Einbettungsraum zu integrieren, der semantisches Text mit einer einfachen Domänenbeschriftung erzeugt.
- Total Recall: a Customized Continual Learning Method for Neural Semantic Parsers
- Zhuang Li, Lizhen Qu, Gholamreza Haffari
- TLDR: Wir schlagen TotalRecall vor, eine kontinuierliche Lernmethode, die die Generalisierungsfähigkeit von neuronalen Semantikparsern verbessert.
- Exophoric Pronoun Resolution in Dialogues with Topic Regularization
- Xintong Yu, Hongming Zhang, Yangqiu Song, Changshui Zhang, Kun Xu, Dong Yu
- TLDR: Wir schlagen eine Themenregularisierung vor, um exophore Sprüche zu lösen.
- Context-Aware Interaction Network for Question Matching
- Zhe Hu, Zuohui Fu, Yu Yin, Gerard de Melo
- TLDR: Wir schlagen ein kontextbewusstes Interpolationsnetzwerk vor, um zwei Satzrepräsentationen zu alignieren und ihre semantische Beziehungen zu ermitteln.
- TEMP: Taxonomy Expansion with Dynamic Margin Loss through Taxonomy-Paths
- Zichen Liu, Hongyuan Xu, Yanlong Wen, Ning Jiang, HaiYing Wu, Xiaojie Yuan
- TLDR: Wir schlagen eine selbstüberwachte Steuerungsmethode vor, die die Position von Konzepten durch die Erstellung von Taxonomien ermittelt.
- A Graph-Based Neural Model for End-to-End Frame Semantic Parsing
- ZhiChao Lin, Yueheng Sun, Meishan Zhang
- TLDR: Wir schlagen ein neuronales Modell vor, das die Aufgabe des Frame-Semantik-Parsings als Graphenkonstruktionsproblem lösen kann.
- Virtual Data Augmentation: A Robust and General Framework for Fine-tuning Pre-trained Models
- Kun Zhou, Wayne Xin Zhao, Sirui Wang, Fuzheng Zhang, Wei Wu, Ji-Rong Wen
- TLDR: Wir stellen eine neue Methode zur Datenerweiterung vor, die die Robustheit von PLMs verbessert und gleichzeitig die Leistung bei der Verzerrung und dem Ausbleiben von Gegnern verringert.
- CATE: A Contrastive Pre-trained Model for Metaphor Detection with Semi-supervised Learning
- Zhenxi Lin, Qianli Ma, Jiangyue Yan, Jieyu Chen
- TLDR: Wir schlagen eine ContrAstive Pre-Trained ModEl (CATE) vor, die Metaphoren mit semi-supervised Learning erkennt.
- To be Closer: Learning to Link up Aspects with Opinions
- Yuxiang Zhou, Lejian Liao, Yang Gao, Zhanming Jie, Wei Lu
- TLDR: Wir stellen eine neue Methode zur Anpassung von Ansichts- und Beobachtungsworten vor, die die Beziehungen zwischen den Ansichtsworten und den Beobachtungsworten erfasst.
- Seeking Common but Distinguishing Difference, A Joint Aspect-based Sentiment Analysis Model
- Hongjiang Jing, Zuchao Li, Hai Zhao, Shu Jiang
- TLDR: Wir schlagen ein dualencoder-Design vor, das die Vorteile des Encoders-Hilfs und der Unterschied nutzt, um die Robustheit und die Effizienz des Modells zu verbessern.
- Argument Pair Extraction with Mutual Guidance and Inter-sentence Relation Graph
- Jianzhu Bao, Bin Liang, Jingyi Sun, Yice Zhang, Min Yang, Ruifeng Xu
- TLDR: Wir schlagen einen Rahmen vor, der die Information eines Arguments in einem Satz nutzt, um die Identifikation von Argumenten zu fördern, die sich in einem anderen Passagen wiederfinden.
- Emotion Inference in Multi-Turn Conversations with Addressee-Aware Module and Ensemble Strategy
- Dayu Li, Xiaodan Zhu, Yang Li, Suge Wang, Deyu Li, Jian Liao, Jianxing Zheng
- TLDR: Wir schlagen eine neue Architektur vor, die die Emotionen in Gesprächsprotokollen erfasst und eine neue Methode zur Emotionsinferenz in Multi-Turn-Gesprächungen vor.
- Improving Federated Learning for Aspect-based Sentiment Analysis via Topic Memories
- Han Qin, Guimin Chen, Yuanhe Tian, Yan Song
- TLDR: Wir schlagen ein neuartiges ABSA-Modell mit föderiertem Lernen vor, das die Datenisolationsgrenze überwinden kann und Themenspeicher in die Analyse einbezieht.
- Comparative Opinion Quintuple Extraction from Product Reviews
- Ziheng Liu, Rui Xia, Jianfei Yu
- TLDR: Wir stellen eine neue Aufgabe vor, die die Bewertungsmerkmale von Produkten aus den Bewertungsverzerrungen extrahieren soll.
- CTAL: Pre-training Cross-modal Transformer for Audio-and-Language Representations
- Hang Li, Wenbiao Ding, Yu Kang, Tianqiao Liu, Zhongqin Wu, Zitao Liu
- TLDR: Wir stellen eine Cross-Modal-Transformer-Architektur für Audio- und Sprache vor, i.e., CTAL, und zeigen, dass die Verwendung von Audio- und Sprachbeschriftungen die Leistung bei mehreren Audio- und Sprachaufgaben verbessert.
- Relation-aware Video Reading Comprehension for Temporal Language Grounding
- Jialin Gao, Xin Sun, Mengmeng Xu, Xi Zhou, Bernard Ghanem
- TLDR: Wir schlagen ein Relationsware Network (RaNet) vor, um eine Videobestimmungsaufgabe zu lösen.
- Mutual-Learning Improves End-to-End Speech Translation
- Jiawei Zhao, Wei Luo, Boxing Chen, Andrew Gilman
- TLDR: Wir schlagen einen trainierbaren mutual-learning-Ansatz vor, der die Leistung von End-to-End-Sprachübersetzungen verbessert.
- Vision Guided Generative Pre-trained Language Models for Multimodal Abstractive Summarization
- Tiezheng Yu, Wenliang Dai, Zihan Liu, Pascale Fung
- TLDR: Wir stellen eine Aufmerksamkeitsbasierte Lösung vor, die die visuelle Information in die Texterzeugung von GPLMs inkrementell integriert.
- Natural Language Video Localization with Learnable Moment Proposals
- Shaoning Xiao, Long Chen, Jian Shao, Yueting Zhuang, Jun Xiao
- TLDR: Wir schlagen LPNet vor, eine neuartige Methode zur Videolokalisierung, die die Videomoment-Vorschläge von NLVL erfasst.
- Language-Aligned Waypoint (LAW) Supervision for Vision-and-Language Navigation in Continuous Environments
- Sonia Raychaudhuri, Saim Wani, Shivansh Patel, Unnat Jain, Angel Chang
- TLDR: Wir schlagen ein einfaches und effektives Sprach-Aligned-Schema vor, das die Anzahl der Sprachaufgaben erfasst, die der Agent während der Navigationsaufgaben erlernt.
- How to leverage the multimodal EHR data for better medical prediction?
- Bo Yang, Lijun Wu
- TLDR: Wir stellen eine Methode vor, die die EHR-Daten aus clinical Notes nutzt, um die Vorhersageleistung bei medizinischen Aufgaben zu verbessern.
- Considering Nested Tree Structure in Sentence Extractive Summarization with Pre-trained Transformer
- Jingun Kwon, Naoki Kobayashi, Hidetaka Kamigaito, Manabu Okumura
- TLDR: Wir schlagen ein neuartiges BERT-basiertes Modell vor, das eine Textausbreitung aus mehreren Dokumenten ersetzt.
- Frame Semantic-Enhanced Sentence Modeling for Sentence-level Extractive Text Summarization
- Yong Guan, Shaoru Guo, Ru Li, Xiaoli Li, Hongye Tan
- TLDR: Wir schlagen Frame-Semantik-Enhanced Sentence Modeling für Extraktionsaufgaben vor, das Frame-Semantik nutzt, um Sätze aus sowohl Instanz- als auch Interstanz-Ebene zu modellieren.
- CAST: Enhancing Code Summarization with Hierarchical Splitting and Reconstruction of Abstract Syntax Trees
- Ensheng Shi, Yanlin Wang, Lun Du, Hongyu Zhang, Shi Han, Dongmei Zhang, Hongbin Sun
- TLDR: Wir schlagen ein neuartiges Modell vor, das hierarchisch splitt und wiederverschlüsselt, um Codeausschlüsselungen zu generieren.
- SgSum:Transforming Multi-document Summarization into Sub-graph Selection
- Moye Chen, Wei Li, Jiachen Liu, Xinyan Xiao, Hua Wu, Haifeng Wang
- TLDR: Wir schlagen ein neues MDS-Framework vor, das die MDS-Aufgabe als eine Subgraph-Auswahl eines Dokuments stellt und die Zusammenfassung als eine Zusammenfassung erzeugt.
- Event Graph based Sentence Fusion
- Ruifeng Yuan, Zili Wang, Wenjie Li
- TLDR: Wir schlagen einen Rahmen für die Erstellung von Ereignissengraphen vor, um die Erzeugung von Satzreduktionen zu unterstützen.
- Transformer-based Lexically Constrained Headline Generation
- Kosuke Yamada, Yuta Hitomi, Hideaki Tamori, Ryohei Sasano, Naoaki Okazaki, Kentaro Inui, Koichi Takeda
- TLDR: Wir schlagen eine neue Methode vor, die die Verwendung einer bestimmten Phrasen in den generativen Satz mit einer bestimmten Beschriftung ermöglicht.
- Learn to Copy from the Copying History: Correlational Copy Network for Abstractive Summarization
- Haoran Li, Song Xu, Peng Yuan, Yujia Wang, Youzheng Wu, Xiaodong He, Bowen Zhou
- TLDR: Wir schlagen ein neues Modell vor, das die Klassifizierungsfunktion verbessert und die Aufmerksamkeit von Encodern und CoCoNets nutzt.
- Gradient-Based Adversarial Factual Consistency Evaluation for Abstractive Summarization
- Zhiyuan Zeng, Jiaze Chen, Weiran Xu, Lei Li
- TLDR: Wir schlagen einen effizienten weak-supervised adversarial Data-Ansatz vor, um einen factual-Consistenz-Datensatz zu schaffen.
- Word Reordering for Zero-shot Cross-lingual Structured Prediction
- Tao Ji, Yong Jiang, Tao Wang, Zhongqiang Huang, Fei Huang, Yuanbin Wu, Xiaoling Wang
- TLDR: Wir stellen ein reordering Modul vor, das die Sprachordnung von einem allgemeinen Sprachverzerrungsvorhersagemodell auf die Zielsprache überträgt.
- A Unified Encoding of Structures in Transition Systems
- Tao Ji, Yong Jiang, Tao Wang, Zhongqiang Huang, Fei Huang, Yuanbin Wu, Xiaoling Wang
- TLDR: Wir schlagen einen Aufmerksamkeitsmechanismus vor, um strukturelle Strukturen in einem Übergangssystem zu kodieren.
- Improving Unsupervised Question Answering via Summarization-Informed Question Generation
- Chenyang Lyu, Lifeng Shang, Yvette Graham, Jennifer Foster, Xin Jiang, Qun Liu
- TLDR: Wir schlagen eine neuartige QG-Methode vor, die Fragen aus Zusammenfassungen nutzt, um eine plausible Frage für eine gegebene Passage, Antwort zu generieren.
- TransferNet: An Effective and Transparent Framework for Multi-hop Question Answering over Relation Graph
- Jiaxin Shi, Shulin Cao, Lei Hou, Juanzi Li, Hanwang Zhang
- TLDR: Wir schlagen TransferNet vor, ein effektives und interpretierbares Modell für die Multi-Hop-QA, das sowohl Label- als auch Text-Relationen in einem uneinheitlichen Rahmen unterstützt.
- Topic Transferable Table Question Answering
- Saneem Chemmengath, Vishwajeet Kumar, Samarth Bharadwaj, Jaydeep Sen, Mustafa Canim, Soumen Chakrabarti, Alfio Gliozzo, Karthik Sankaranarayanan
- TLDR: Wir stellen eine empirische Anpassung von BERT vor, die auf Themenverschiebungen und Themenverschiebungen basiert.
- WebSRC: A Dataset for Web-Based Structural Reading Comprehension
- Xingyu Chen, Zihan Zhao, Lu Chen, JiaBao Ji, Danyang Zhang, Ao Luo, Yuxuan Xiong, Kai Yu
- TLDR: Wir stellen eine Aufgabe vor, die auf Web-Basis auf die Struktur von Webseiten abhängt und die Antwort auf die Frage, ob eine Textspanne auf der Webseite zu beantworten ist, abhängt.
- Cryptonite: A Cryptic Crossword Benchmark for Extreme Ambiguity in Language
- Avia Efrat, Uri Shaham, Dan Kilman, Omer Levy
- TLDR: Wir stellen Cryptonite vor, einen großen Datensatz auf cryptic Crosswords, der sowohl linguistisch komplex und naturally sourced ist als auch Weltwissen beinhaltet.
- End-to-End Entity Resolution and Question Answering Using Differentiable Knowledge Graphs
- Amir Saffari, Armin Oliya, Priyanka Sen, Tom Ayoola
- TLDR: Wir erweitern die Grenzen des E2E-Lernens für die Frage-Antwort-Überwachung auf Wissensgraphen auf einen Stand-alone-QA-Modell und stellen ein neues KG vor, das die Aufgabe der Entitätsresolution erfüllt.
- Improving Query Graph Generation for Complex Question Answering over Knowledge Base
- Kechen Qin, Cheng Li, Virgil Pavlu, Javed Aslam
- TLDR: Wir schlagen eine neue Methode zur Erstellung von Wissensgraphen vor, die die Aufgabe des Wissensgraphen ersetzt.
- DiscoDVT: Generating Long Text with Discourse-Aware Discrete Variational Transformer
- Haozhe Ji, Minlie Huang
- TLDR: Wir schlagen einen diskreten Variational Transformer vor, der die Konsistenz von Texten mit tiefen neuronalen Netzen steuert.
- Mathematical Word Problem Generation from Commonsense Knowledge Graph and Equations
- Tianqiao Liu, Qiang Fang, Wenbiao Ding, Hang Li, Zhongqin Wu, Zitao Liu
- TLDR: Wir entwickeln ein neuronales Modell, das aus symbolischen Graphen und allgemeinen Wissensgraphen generierte Wortprobleme erzeugt.
- Generic resources are what you need: Style transfer tasks without task-specific parallel training data
- Huiyuan Lai, Antonio Toral, Malvina Nissim
- TLDR: Wir schlagen einen neuen Ansatz vor, der die Aufgabe der Stilerweiterung und des Polarisierungstauschs ermöglicht.
- Revisiting Pivot-Based Paraphrase Generation: Language Is Not the Only Optional Pivot
- Yitao Cai, Yue Cao, Xiaojun Wan
- TLDR: Wir stellen eine Methode vor, die die Verwendung von Semantik und Syntax als Parameter zur Paraphrasegenerierung ermöglicht.
- Structural Adapters in Pretrained Language Models for AMR-to-Text Generation
- Leonardo F. R. Ribeiro, Yue Zhang, Iryna Gurevych
- TLDR: Wir schlagen StructAdapt vor, eine Adapter-Methode zur Erstellung von Graphenstrukturen in PLMs.
- Data-to-text Generation by Splicing Together Nearest Neighbors
- Sam Wiseman, Arturs Backurs, Karl Stratos
- TLDR: Wir schlagen eine Methode vor, die direkt die Daten von Nachbarn in die Erzeugung von Text umwandelt, indem sie zufällige Segmente von Text aus Quell-Target-Paaren zusammen mit den Quell-Tags kombiniert.
- Contextualize Knowledge Bases with Transformer for End-to-end Task-Oriented Dialogue Systems
- Yanjie Gou, Yinjie Lei, Lingqiao Liu, Yong Dai, Chunxu Shen
- TLDR: Wir schlagen einen neuen Memory Enhanced Transformer-Rahmen vor, um die Entitätenrepräsentation zu erweitern und die Dialog-Ereignissen zu vermeiden.
- Efficient Dialogue Complementary Policy Learning via Deep Q-network Policy and Episodic Memory Policy
- Yangyang Zhao, Zhenyu Wang, Changxi Zhu, Shihan Wang
- TLDR: Wir schlagen einen neuartigen Rahmen für das Dialog-Policy-Lernen vor, der die complementarischen Vorteile der EM- und der Q-Network-Politik nutzt.
- CRFR: Improving Conversational Recommender Systems via Flexible Fragments Reasoning on Knowledge Graphs
- Jinfeng Zhou, Bo Wang, Ruifang He, Yuexian Hou
- TLDR: Wir schlagen CRFR vor, eine neue Methode zur Begründung von Empfehlungen und zur Interpretierbarkeit von Konversationen, die auf kontextualisiertem Reinforcement Learning basiert.
- DuRecDial 2.0: A Bilingual Parallel Corpus for Conversational Recommendation
- Zeming Liu, Haifeng Wang, Zheng-Yu Niu, Hua Wu, Wanxiang Che
- TLDR: Wir stellen einen neuen Dialogdatensatz vor, der auf sprachenübergreifende Empfehlungen abzielt, um eine schwierige Aufgabe der Multi-Lingual- und Cross-Lingual-Kommunikationsbewertung zu lösen.
- End-to-End Learning of Flowchart Grounded Task-Oriented Dialogs
- Dinesh Raghu, Shantanu Agarwal, Sachindra Joshi, None Mausam
- TLDR: Wir schlagen ein neues Problem vor, das auf dem Lernen von Aufgabenoriented Dialogs (TOD) basiert, in dem der Dialogsystem einen Ansatz für die Lösung eines Problems mimics.
- Dimensional Emotion Detection from Categorical Emotion
- Sungjoon Park, Jiseon Kim, Seonghyeon Ye, Jaeyeol Jeon, Hee Young Park, Alice Oh
- TLDR: Wir stellen ein Modell vor, das fine-grained Emotionen über die kontinuierlichen Dimensionen von Verwundbarkeit, Erwartungsrauschen und Überlegenheit (VAD) mit einem corpus mit categorischen Emotionen kennt.
- Not All Negatives are Equal: Label-Aware Contrastive Loss for Fine-grained Text Classification
- Varsha Suresh, Desmond Ong
- TLDR: Wir stellen Label-aware Contrastive Loss vor, eine Methode zur Differenzierung von Klassifizierungsaufgaben, die auf der Suche nach besseren Klassen und Emotionen basiert.
- Joint Multi-modal Aspect-Sentiment Analysis with Auxiliary Cross-modal Relation Detection
- Xincheng Ju, Dong Zhang, Rong Xiao, Junhui Li, Shoushan Li, Min Zhang, Guodong Zhou
- TLDR: Wir schlagen einen Multi-Modal-Lernen-Ansatz mit einer zusätzlichen Text-Bild-Relationenerkennung vor, um die optimale Nutzung visueller Informationen bei der Text-Bild-Relationen-Analyse zu ermöglichen.
- Solving Aspect Category Sentiment Analysis as a Text Generation Task
- Jian Liu, Zhiyang Teng, Leyang Cui, Hanmeng Liu, Yue Zhang
- TLDR: Wir verwenden natürliche Sprache, um die Gefühle von Vorurteilen in seq2seq-Frameworks zu analysieren.
- Semantics-Preserved Data Augmentation for Aspect-Based Sentiment Analysis
- Ting-Wei Hsu, Chung-Chi Chen, Hen-Hsen Huang, Hsin-Hsi Chen
- TLDR: Wir schlagen einen neuen Ansatz zur Verbesserung der Semantik vor, der die Bedeutung von Worten in einer Textsequenz berücksichtigt.
- The Effect of Round-Trip Translation on Fairness in Sentiment Analysis
- Jonathan Gabel Christiansen, Mathias Gammelgaard, Anders Søgaard
- TLDR: Wir zeigen, dass die Verwendung von Teilen von Texten zur Verbesserung der Klassifizierungsfairness bei der Testzeit führt.
- CHoRaL: Collecting Humor Reaction Labels from Millions of Social Media Users
- Zixiaofan Yang, Shayan Hooshmand, Julia Hirschberg
- TLDR: Wir schlagen einen Rahmen vor, um selbst verrauschte Etiketten für die Erkennung von Gedächtnismerkmalen auf Facebook-Beiträgen zu generieren.
- CSDS: A Fine-Grained Chinese Dataset for Customer Service Dialogue Summarization
- Haitao Lin, Liqun Ma, Junnan Zhu, Lu Xiang, Yu Zhou, Jiajun Zhang, Chengqing Zong
- TLDR: Wir stellen einen neuen Datensatz für die Dialogauswertung vor, der die Themenstrukturen von Gesprächsprotokollen auf Themenebene erfasst.
- CodRED: A Cross-Document Relation Extraction Dataset for Acquiring Knowledge in the Wild
- Yuan Yao, Jiaju Du, Yankai Lin, Peng Li, Zhiyuan Liu, Jie Zhou, Maosong Sun
- TLDR: Wir stellen das Problem der Cross-Document Relations extraktion vor, das für die Wissensausbreitung in der Praxis entscheidend ist.
- Building and Evaluating Open-Domain Dialogue Corpora with Clarifying Questions
- Mohammad Aliannejadi, Julia Kiseleva, Aleksandr Chuklin, Jeff Dalton, Mikhail Burtsev
- TLDR: Wir stellen einen neuen Datensatz zur Beantwortung von Fragen in offenen Domänen vor, der auf die Frage, ob man eine Antwort auf eine Anfrage benötigt, abhängt.
- We Need to Talk About train-dev-test Splits
- Rob van der Goot
- TLDR: Wir schlagen einen tune-set vor, der für die Modellauswahl verwendet werden kann, um die Unterschiede zwischen den Tests zu bewerten.
- PhoMT: A High-Quality and Large-Scale Benchmark Dataset for Vietnamese-English Machine Translation
- Long Doan, Linh The Nguyen, Nguyen Luong Tran, Thai Hoang, Dat Quoc Nguyen
- TLDR: Wir stellen einen groß angelegten Datensatz für die Vietnamese-English-Machine-Übersetzung vor, der 3.02 Millionen Wortepaare übertrifft.
- Lying Through One’s Teeth: A Study on Verbal Leakage Cues
- Min-Hsuan Yeh, Lun-Wei Ku
- TLDR: Wir untersuchen und bewerten die Verzerrung von Vorurteilen in liegeerkennungsdatensätzen und schlagen eine neue Methode vor, um die Verzerrung von Vorurteilen zu untersuchen.
- Multi-granularity Textual Adversarial Attack with Behavior Cloning
- Yangyi Chen, Jin Su, Wei Wei
- TLDR: Wir schlagen ein Multi-Granuality-Angriffsmodell vor, das die Aufmerksamkeit von Text-Eigenschaften auf die Angriffszielen reduziert und gleichzeitig die Angriffsqualität erhöht.
- All Bark and No Bite: Rogue Dimensions in Transformer Language Models Obscure Representational Quality
- William Timkey, Marten van Schijndel
- TLDR: Wir stellen die informativen Dimensionen für die Erkennung von Ähnlichkeitsmechanismen für kontextualisierte Sprachmodelle vor und zeigen, dass sie für die Erkennung von Repräsentationsqualitäten entscheidend sind.
- Incorporating Residual and Normalization Layers into Analysis of Masked Language Models
- Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, Kentaro Inui
- TLDR: Wir analysieren Transformer-basierte Sprachmodelle, indem wir Aufmerksamkeitsmustern und -verschiebungen auf einen Blick zusammenfassen.
- Mind the Style of Text! Adversarial and Backdoor Attacks Based on Text Style Transfer
- Fanchao Qi, Yangyi Chen, Xurui Zhang, Mukai Li, Zhiyuan Liu, Maosong Sun
- TLDR: Wir stellen eine erste Methode vor, die auf Textstiltransfer basiert, und zeigen, dass die meisten NLP-Modelle anfällig für adversariale und Backdoor-Angriffe sind.
- Sociolectal Analysis of Pretrained Language Models
- Sheng Zhang, Xin Zhang, Weiming Zhang, Anders Søgaard
- TLDR: Wir zeigen, dass BERT-Modelle nicht nur soziale Biases (stereotypische Abhängigkeiten) lernen, sondern auch sociologische Biases (wie z. B. die Verzerrung von Geschlecht, Alter, Ausbildung und Rasse) und lernen, sich besser zu verstehen.
- Examining Cross-lingual Contextual Embeddings with Orthogonal Structural Probes
- Tomasz Limisiewicz, David Mareček
- TLDR: Wir stellen eine neue Methode zur Bewertung von Syntax- und lexikalenstrukturen vor, die auf der Verwendung von Texten in einer gemeinsamen Sprachraum basiert.
- Are Transformers a Modern Version of ELIZA? Observations on French Object Verb Agreement
- Bingzhi Li, Guillaume Wisniewski, Benoit Crabbé
- TLDR: Wir zeigen, dass neuronale Netze die Syntax von Verbänden erlernen können, wenn sie die Abstimmung von Verbänden vorhersagen.
- Fine-grained Entity Typing via Label Reasoning
- Qing Liu, Hongyu Lin, Xinyan Xiao, Xianpei Han, Le Sun, Hua Wu
- TLDR: Wir schlagen Label Reasoning Network(LRN) vor, eine neuartige Architektur, die Labels-Abhängigkeiten in einer Sequence-to-Set, Ende-zu-Ende und in einer neuronalen Umgebung erforscht und nutzt.
- Enhanced Language Representation with Label Knowledge for Span Extraction
- Pan Yang, Xin Cong, Zhenyu Sun, Xingwu Liu
- TLDR: Wir schlagen ein neues Modell vor, das Label-Knowledge in die Textrepräsentationen integriert und damit die Texterzeugung erheblich verbessert.
- PRIDE: Predicting Relationships in Conversations
- Anna Tigunova, Paramita Mirza, Andrew Yates, Gerhard Weikum
- TLDR: Wir schlagen BERT und Transformer vor, einen neuronalen Multi-Label-Klassifikator, der die Konversation in Texten erzeugt.
- Extracting Fine-Grained Knowledge Graphs of Scientific Claims: Dataset and Transformer-Based Results
- Ian Magnusson, Scott Friedman
- TLDR: Wir stellen SciClaim vor, einen Datensatz von Forschungsbehauptungen, die aus Social and Behavior Science (SBS), PubMed, und CORD-19 papers erstellt wurden.
- Sequential Cross-Document Coreference Resolution
- Emily Allaway, Shuai Wang, Miguel Ballesteros
- TLDR: Wir schlagen ein neues Modell vor, das die Coreference-Resolution in Texten erweitert und gleichzeitig gute Ergebnisse bei der Erkennung von Entitäten und Ereignissen erzielt.
- Mixture-of-Partitions: Infusing Large Biomedical Knowledge Graphs into BERT
- Zaiqiao Meng, Fangyu Liu, Thomas Clark, Ehsan Shareghi, Nigel Collier
- TLDR: Wir schlagen einen Mixture-of-Partitions-Ansatz vor, der eine sehr große Wissensgraphenmenge durch Partitionierung in kleinere Teilgraphen und Inffusions in BERTs erledigt.
- Filling the Gaps in Ancient Akkadian Texts: A Masked Language Modelling Approach
- Koren Lazar, Benny Saret, Asaf Yehudai, Wayne Horowitz, Nathan Wasserman, Gabriel Stanovsky
- TLDR: Wir stellen eine Methode vor, die die Vermischung von Texten aus Texten aus Mesopotamendokumenten mit Hilfe von greedy-Decoding und Pretraining aus anderen Sprachen und Zeiträumen vorhersagt.
- AVocaDo: Strategy for Adapting Vocabulary to Downstream Domain
- Jimin Hong, TaeHee Kim, Hyesu Lim, Jaegul Choo
- TLDR: Wir schlagen eine Methode vor, die die Verwendung von Wissen aus einem pretrierten Sprachmodell mit einem Regularisierungstermin nutzt, um die Sprachverzerrung zu bewältigen.
- Can We Improve Model Robustness through Secondary Attribute Counterfactuals?
- Ananth Balashankar, Xuezhi Wang, Ben Packer, Nithum Thain, Ed Chi, Alex Beutel
- TLDR: Wir schlagen eine kontextualisch aware Methode vor, die die Auswirkungen von Nebenbeschriftungen auf das Modell berücksichtigt und die Robustheit verbessert.
- Long-Range Modeling of Source Code Files with eWASH: Extended Window Access by Syntax Hierarchy
- Colin Clement, Shuai Lu, Xiaoyu Liu, Michele Tufano, Dawn Drain, Nan Duan, Neel Sundaresan, Alexey Svyatkovskiy
- TLDR: Wir stellen einen Architektur-independent Ansatz vor, um syntaktische Hierarchien von Quellcode für die Kodierung und die Zusammenfassung von Programmen zu nutzen.
- Can Language Models be Biomedical Knowledge Bases?
- Mujeen Sung, Jinhyuk Lee, Sean Yi, Minji Jeon, Sungdong Kim, Jaewoo Kang
- TLDR: Wir stellen einen Benchmark für biomedizinisches Wissen vor, der biomedizinisches Wissen als Knowledge Base nutzt.
- LayoutReader: Pre-training of Text and Layout for Reading Order Detection
- Zilong Wang, Yiheng Xu, Lei Cui, Jingbo Shang, Furu Wei
- TLDR: Wir stellen eine erste große Datensammlung vor, die die Fähigkeiten von tiefen neuronalen Netzen zur Erkennung von Texten und zur Vorhersage von Textorders nutzt.
- Region under Discussion for visual dialog
- Mauricio Mazuecos, Franco M. Luque, Jorge Sánchez, Hernán Maina, Thomas Vadora, Luciana Benotti
- TLDR: Wir schlagen eine neuartige Interpretation vor, die die Region unter der Beantwortung visualisiert.
- Learning grounded word meaning representations on similarity graphs
- Mariella Dimiccoli, Herwig Wendt, Pau Batlle Franch
- TLDR: Wir stellen eine visuelle Sichtweise auf die Bedeutung von Wortrepräsentationen vor, die als Graphen dargestellt werden können.
- WhyAct: Identifying Action Reasons in Lifestyle Vlogs
- Oana Ignat, Santiago Castro, Hanwen Miao, Weiji Li, Rada Mihalcea
- TLDR: Wir stellen einen neuen Datensatz für visuelle Erklärungen von Handlungsgründen vor, der die Erklärungen von Menschen in Videos erfasst.
- Genre as Weak Supervision for Cross-lingual Dependency Parsing
- Max Müller-Eberstein, Rob van der Goot, Barbara Plank
- TLDR: Wir stellen fest, dass die Verwendung von Genre-Informationen für die Datenerfassung von Sprachvariationen eine effektive Signalwirkung auf die Datenerfassung in Sprachverzerrungsszenarien bietet.
- On the Relation between Syntactic Divergence and Zero-Shot Performance
- Ofir Arviv, Dmitry Nikolaev, Taelin Karidi, Omri Abend
- TLDR: Wir analysieren die Sprachstabilität von Universal Dependencies (UD) beim Parsing von Texten aus mehreren Sprachen und stellen eine neue Methode zur Bewertung der Sprachstabilität vor.
- Improved Latent Tree Induction with Distant Supervision via Span Constraints
- Zhiyang Xu, Andrew Drozdov, Jay Yoon Lee, Tim O’Gorman, Subendhu Rongali, Dylan Finkbeiner, Shilpa Suresh, Mohit Iyyer, Andrew McCallum
- TLDR: Wir verwenden spanische Einschränkungen, um die Konsistenz beim syntaktischen Parsing zu verbessern.
- Aligning Multidimensional Worldviews and Discovering Ideological Differences
- Jeremiah Milbauer, Adarsh Mathew, James Evans
- TLDR: Wir schlagen eine neue Methode vor, die die Vielfalt von Weltviews und Weltbildern von Gemeinschaften erfasst und die Identitäten von Gemeinschaften und deren Weltbilder erforscht.
- Just Say No: Analyzing the Stance of Neural Dialogue Generation in Offensive Contexts
- Ashutosh Baheti, Maarten Sap, Alan Ritter, Mark Riedl
- TLDR: Wir analysieren und identifizieren inkrementell schädliche Verhaltensweisen in neuronalen Dialogmodellen und schlagen eine Methode vor, die die Vergiftungsgefahr minimiert.
- Multi-Modal Open-Domain Dialogue
- Kurt Shuster, Eric Michael Smith, Da Ju, Jason Weston
- TLDR: Wir schlagen ein neues Modell vor, das Text-only-Interaktionen in einem Multi-Modal Dialog ermöglicht.
- A Label-Aware BERT Attention Network for Zero-Shot Multi-Intent Detection in Spoken Language Understanding
- Ting-Wei Wu, Ruolin Su, Biing Juang
- TLDR: Wir schlagen Label-Aware BERT Attention Network (LABAN) vor, um Multi-Intennt-Erklärungen mit wenigen/zero-Shot-Eingabewerten zu ermitteln.
- Zero-Shot Dialogue Disentanglement by Self-Supervised Entangled Response Selection
- Ta-Chung Chi, Alexander Rudnicky
- TLDR: Wir labelieren alle Eingaben in einem Dialog als Teilsätze und stellen fest, dass sie nicht in einer Reihenfolge von Eingaben sind.
- SIMMC 2.0: A Task-oriented Dialog Dataset for Immersive Multimodal Conversations
- Satwik Kottur, Seungwhan Moon, Alborz Geramifard, Babak Damavandi
- TLDR: Wir stellen einen neuen Datensatz für die Erzeugung von Aufgaben- und Interaktionsinteraktionen vor, der 11K Aufgaben- und Assistenteninteraktionen enthält.
- RAST: Domain-Robust Dialogue Rewriting as Sequence Tagging
- Jie Hao, Linfeng Song, Liwei Wang, Kun Xu, Zhaopeng Tu, Dong Yu
- TLDR: Wir stellen ein sequenzbasiertes Modell vor, das den Suchraum erheblich reduziert, und zwar so, dass die Dialogausgangsausgabe vollständig wiedergegeben wird.
- MRF-Chat: Improving Dialogue with Markov Random Fields
- Ishaan Grover, Matthew Huggins, Cynthia Breazeal, Hae Won Park
- TLDR: Wir schlagen einen probabilistischen Ansatz vor, um bestehende Deep-Learning-Methoden für die nächste Utterung vorherzusagen.
- Dialogue State Tracking with a Language Model using Schema-Driven Prompting
- Chia-Hsuan Lee, Hao Cheng, Mari Ostendorf
- TLDR: Wir stellen eine neue Variation des Sprachmodells vor, die schema-driven Prüfungen verwendet, um eine kontextualisierte und kontextualisierte Sprachdarstellung zu erstellen.
- Signed Coreference Resolution
- Kayo Yin, Kenneth DeHaan, Malihe Alikhani
- TLDR: Wir stellen Signed Coreference Resolution (SCR) vor, eine neue Herausforderung für Coreference Modellierung und Sign Language Processing; wir stellen eine Sammlung von Signed Coreferences vor und schlagen eine Reihe von Modellen für die Aufgabe vor.
- Consistent Accelerated Inference via Confident Adaptive Transformers
- Tal Schuster, Adam Fisch, Tommi Jaakkola, Regina Barzilay
- TLDR: Wir stellen eine neue Methode vor, die die Inferenz in großen und teueren Transformern beschleunigt.
- Improving and Simplifying Pattern Exploiting Training
- Derek Tam, Rakesh R. Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel
- TLDR: Wir stellen eine neue Methode vor, die den Begriff Pattern Exploiting Training nutzt, um das Lernen von wenigen Aufnahmen zu beschleunigen.
- Unsupervised Data Augmentation with Naive Augmentation and without Unlabeled Data
- David Lowell, Brian Howard, Zachary C. Lipton, Byron Wallace
- TLDR: Wir stellen eine empirische Studie über die Verwendung von Back-Translations in der Textklassifikation vor und zeigen, dass sie für die Erstellung von Texten und die Datenerweiterung geeignet sind.
- Pre-train or Annotate? Domain Adaptation with a Constrained Budget
- Fan Bai, Alan Ritter, Wei Xu
- TLDR: Wir analysieren, wie die Datenerkündigung und das Training in einem Ziel helfen, die Leistung bei der Anpassung von NLP-Modellen zu erhöhen.
- Lawyers are Dishonest? Quantifying Representational Harms in Commonsense Knowledge Resources
- Ninareh Mehrabi, Pei Zhou, Fred Morstatter, Jay Pujara, Xiang Ren, Aram Galstyan
- TLDR: Wir stellen eine neue Methode zur Filterung von Richtlinien vor, die die Verzerrung von Richtlinien und die Verzerrung von Repräsentationen in Richtlinien und Modellen deutlich reduzieren.
- OSCaR: Orthogonal Subspace Correction and Rectification of Biases in Word Embeddings
- Sunipa Dev, Tao Li, Jeff M Phillips, Vivek Srikumar
- TLDR: Wir schlagen OSCaR vor, eine Methode zur Abwehrung von Geschlechtsverzerrungen und zur Informationerfassung.
- Sentence-Permuted Paragraph Generation
- Wenhao Yu, Chenguang Zhu, Tong Zhao, Zhichun Guo, Meng Jiang
- TLDR: Wir schlagen einen neuen Rahmen vor, der die logische Wahrscheinlichkeit von Ausgabeparadigmen optimal berücksichtigt.
- Extract, Denoise and Enforce: Evaluating and Improving Concept Preservation for Text-to-Text Generation
- Yuning Mao, Wenchang Ma, Deren Lei, Jiawei Han, Xiang Ren
- TLDR: Wir stellen eine empirische Analyse vor, die untersucht, ob bestehende Seq2seq-Modelle gut genug sind, um wichtige Eingabethemen zu erhalten und zu zu schützen.
- Paraphrase Generation: A Survey of the State of the Art
- Jianing Zhou, Suma Bhat
- TLDR: Wir stellen verschiedene Methoden zur Paraphrase-Genauigkeit vor und zeigen, dass sie die Spracherzeugung von Menschen verbessern.
- Exposure Bias versus Self-Recovery: Are Distortions Really Incremental for Autoregressive Text Generation?
- Tianxing He, Jingzhao Zhang, Zhiming Zhou, James Glass
- TLDR: Wir schlagen metrische Metriken vor, um die Auswirkungen von Ausbreitungsbeeinträchtigungen auf die Qualität, Vielfalt und Konsistenz zu quantifizieren.
- Generating Self-Contained and Summary-Centric Question Answer Pairs via Differentiable Reward Imitation Learning
- Li Zhou, Kevin Small, Yong Zhang, Sandeep Atluri
- TLDR: Wir schlagen eine Methode vor, die Fragen-Antwort-Paare (QAPaare) mit sich bringt, um die Aufmerksamkeit auf die Themen der Nachrichten zu erhalten.
- Unsupervised Paraphrasing with Pretrained Language Models
- Tong Niu, Semih Yavuz, Yingbo Zhou, Nitish Shirish Keskar, Huan Wang, Caiming Xiong
- TLDR: Wir schlagen einen Transfer-Lernen-Ansatz vor, der auf Sprachmodelle übertragen werden kann, um Paraphrase zu generieren.
- Profanity-Avoiding Training Framework for Seq2seq Models with Certified Robustness
- Hengtong Zhang, Tianhang Zheng, Yaliang Li, Jing Gao, Lu Su, Bo Li
- TLDR: Wir schlagen einen Rahmen vor, der die Generierung von Phänomenen mit profanität wirksam verhindert.
- Journalistic Guidelines Aware News Image Captioning
- Xuewen Yang, Svebor Karaman, Joel Tetreault, Alejandro Jaimes
- TLDR: Wir schlagen einen neuen Ansatz für die Bildbeschriftung vor, der auf Journalistenguidelines Aware News Image Captioning (JoGANIC) basiert.
- AESOP: Paraphrase Generation with Adaptive Syntactic Control
- Jiao Sun, Xuezhe Ma, Nanyun Peng
- TLDR: Wir schlagen eine neue Methode vor, die Syntax-Eigenschaften nutzt, um Paraphrase zu generieren.
- Refocusing on Relevance: Personalization in NLG
- Shiran Dudy, Steven Bedrick, Bonnie Webber
- TLDR: Wir stellen die Bedeutung von Relevanz in NLG-Systemen für die Texterzeugung vor und schlagen eine neue Methode vor, um die Bedeutung von Relevanz zu messen.
- The Future is not One-dimensional: Complex Event Schema Induction by Graph Modeling for Event Prediction
- Manling Li, Sha Li, Zhenhailong Wang, Lifu Huang, Kyunghyun Cho, Heng Ji, Jiawei Han, Clare Voss
- TLDR: Wir stellen eine neue Konzeptreihe vor, die sich auf graphbasierte Szenarien für die Erkennung von Zeit- und Zeitabweichungen anwenden lässt.
- Learning Constraints and Descriptive Segmentation for Subevent Detection
- Haoyu Wang, Hongming Zhang, Muhao Chen, Dan Roth
- TLDR: Wir schlagen einen Ansatz vor, um Constraints für die Erkennung von Teilevents zu nutzen.
- ChemNER: Fine-Grained Chemistry Named Entity Recognition with Ontology-Guided Distant Supervision
- Xuan Wang, Vivian Hu, Xiangchen Song, Shweta Garg, Jinfeng Xiao, Jiawei Han
- TLDR: Wir schlagen eine ontologie-geführte, distanzierte Methode für die Klassifizierung von NERs vor, die die Klassifizierung von NERs mit Hilfe von KBs ermöglicht.
- Moving on from OntoNotes: Coreference Resolution Model Transfer
- Patrick Xia, Benjamin Van Durme
- TLDR: Wir quantifizieren die Übertragbarkeit von Coreference-Resolutions, indem wir die Anzahl der Annotierten Dokumente im Zieldatensatz quantifizieren.
- Document-level Entity-based Extraction as Template Generation
- Kung-Hsiang Huang, Sam Tang, Nanyun Peng
- TLDR: Wir schlagen einen generativen Rahmen für Dokumentebene vor, um Entitäts- und Beziehungsextraktionen zu generieren.
- Learning Prototype Representations Across Few-Shot Tasks for Event Detection
- Viet Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Wir schlagen eine Methode vor, die die Wahrscheinlichkeit von Ausreißern und Ausnutzungen in wenigen-Shot Learning modelliert.
- Lifelong Event Detection with Knowledge Transfer
- Pengfei Yu, Heng Ji, Prem Natarajan
- TLDR: Wir schlagen einen Lifelong Learning-Rahmen vor, um die Erkennung von Wissenseignissen über die Zeit zu verbessern.
- Modular Self-Supervision for Document-Level Relation Extraction
- Sheng Zhang, Cliff Wong, Naoto Usuyama, Sarthak Jain, Tristan Naumann, Hoifung Poon
- TLDR: Wir schlagen eine neue Methode zur Dokumenten-Eigene Relationsextraktion vor, die die Aufmerksamkeit auf die Dokumenten-Eigene Relations erzeugt.
- Unsupervised Paraphrasing Consistency Training for Low Resource Named Entity Recognition
- Rui Wang, Ricardo Henao
- TLDR: Wir verwenden Paraphrasing als ein mehrschichtiges Datenvergrößerungsschema für NER und schlagen eine neue Methode vor, um die Entitätsausprägungen zwischen den Paraphrasierten und den Paragraphen zu fördern.
- Fine-grained Entity Typing without Knowledge Base
- Jing Qian, Yibin Liu, Lemao Liu, Yangming Li, Haiyun Jiang, Haisong Zhang, Shuming Shi
- TLDR: Wir schlagen einen neuen Rahmen vor, um Fine-grained Entity Typing (FET) zu trainieren.
- Adversarial Attack against Cross-lingual Knowledge Graph Alignment
- Zeru Zhang, Zijie Zhang, Yang Zhou, Lingfei Wu, Sixing Wu, Xiaoying Han, Dejing Dou, Tianshi Che, Da Yan
- TLDR: Wir schlagen ein adversariales Angriffsmodell mit zwei neuen Angriffstechniken vor, um die Qualität tiefer cross-lingueller Entitätenabgleichungen zu schwächen.
- Towards Realistic Few-Shot Relation Extraction
- Sam Brody, Sichao Wu, Adrian Benton
- TLDR: Wir zeigen, dass die meisten wenigen-Shot-Modelle die Klassifizierung von Beziehungen in Bezug auf Entitätentypen übertreffen.
- Data Augmentation for Cross-Domain Named Entity Recognition
- Shuguang Chen, Gustavo Aguilar, Leonardo Neves, Thamar Solorio
- TLDR: Wir schlagen eine neuartige Architektur vor, die die Daten aus einer hochresourcen Domänentransformation zu einer Low-Resource-Domänenrepräsentation umwandelt.
- Incorporating medical knowledge in BERT for clinical relation extraction
- Arpita Roy, Shimei Pan
- TLDR: Wir stellen eine umfassende Untersuchung von Methoden vor, die medizinisches Wissen in BERT einbeziehen, um eine clinical relational extraktion zu bewältigen.
- ECONET: Effective Continual Pretraining of Language Models for Event Temporal Reasoning
- Rujun Han, Xiang Ren, Nanyun Peng
- TLDR: Wir stellen einen kontinuierlichen Rahmen für das Lernen von event-temporären Schlussfolgerungen vor, der die Aufmerksamkeit auf Ereignis- und Zeitanwendbarkeit erhöht.
- Learning from Noisy Labels for Entity-Centric Information Extraction
- Wenxuan Zhou, Muhao Chen
- TLDR: Wir schlagen einen Rahmen vor, der auf Entitätszentren-Informationen extrahiert, um die Überanpassung von Etiketten zu verhindern.
- Extracting Material Property Measurement Data from Scientific Articles
- Gihan Panapitiya, Fred Parks, Jonathan Sepulveda, Emily Saldanha
- TLDR: Wir stellen eine Methode vor, die die Materialssolubilität als Zieleigenschaft nutzt, um eine große Datensatzmenge mit tiefen neuronalen Netzen zu erzeugen.
- Modeling Document-Level Context for Event Detection via Important Context Selection
- Amir Pouran Ben Veyseh, Minh Van Nguyen, Nghia Ngo Trung, Bonan Min, Thien Huu Nguyen
- TLDR: Wir schlagen eine Methode vor, die auf Dokumentebene kontextualisierte Sätze in Texten modelliert, die für die Erkennung von Ereignissen geeignet sind.
- Crosslingual Transfer Learning for Relation and Event Extraction via Word Category and Class Alignments
- Minh Van Nguyen, Tuan Ngo Nguyen, Bonan Min, Thien Huu Nguyen
- TLDR: Wir schlagen eine neuartige Methode vor, die die Klasse- und Sprachinformationen von REE-Aufgaben nutzt, um eine Klasse- und Sprachidentifikation zu schaffen.
- Corpus-based Open-Domain Event Type Induction
- Jiaming Shen, Yunyi Zhang, Heng Ji, Jiawei Han
- TLDR: Wir stellen eine corpus-basierte, auf der event-typische Merkmale erfasst werden können, die aus einem Quell gesammelt wurden.
- PDALN: Progressive Domain Adaptation over a Pre-trained Model for Low-Resource Cross-Domain Named Entity Recognition
- Tao Zhang, Congying Xia, Philip S. Yu, Zhiwei Liu, Shu Zhao
- TLDR: Wir schlagen einen neuen Ansatz zur Wissensdestillation vor, der die Wissenstransferfunktion von NER auf die NER erweitert.
- Multi-Vector Attention Models for Deep Re-ranking
- Giulio Zhou, Jacob Devlin
- TLDR: Wir zeigen, dass die gemeinsame Dokumentrepräsentation und die gemeinsame Dokumentrepräsentation für die Dokumentvergabe und die Dokumentenspeicherung effektiv sind.
- Toward Deconfounding the Effect of Entity Demographics for Question Answering Accuracy
- Maharshi Gor, Kellie Webster, Jordan Boyd-Graber
- TLDR: Wir stellen eine neue Methode zur Beantwortung von Fragen vor, die die Vielfalt in Bezug auf Geschlecht, Beruf und Nationalität widerspiegelt.
- Exploring Strategies for Generalizable Commonsense Reasoning with Pre-trained Models
- Kaixin Ma, Filip Ilievski, Jonathan Francis, Satoru Ozaki, Eric Nyberg, Alessandro Oltramari
- TLDR: Wir analysieren, wie man die Generalisierung und die Genauigkeit von Modellen verbessert.
- Transformer Feed-Forward Layers Are Key-Value Memories
- Mor Geva, Roei Schuster, Jonathan Berant, Omer Levy
- TLDR: Wir zeigen, dass Feed-Forward-Lätzer als Schlüssel-Werte-Memoraten fungieren, und zwar in Bezug auf die Sprachauswahl.
- Connecting Attributions and QA Model Behavior on Realistic Counterfactuals
- Xi Ye, Rohan Nair, Greg Durrett
- TLDR: Wir zeigen, dass die Verwendung von Zufallsmerkmalen für die Erkennung von Korrespondenzen gut funktioniert.
- How Do Neural Sequence Models Generalize? Local and Global Cues for Out-of-Distribution Prediction
- D. Anthony Bau, Jacob Andreas
- TLDR: Wir stellen fest, dass die Generalisierung neuronaler Sprachmodelle in Textvorhersagen strukturiert und konsistent ist.
- Comparing Text Representations: A Theory-Driven Approach
- Gregory Yauney, David Mimno
- TLDR: Wir stellen eine Methode vor, die die compatibilität zwischen Repräsentationen und Aufgaben bewertet.
- Human Rationales as Attribution Priors for Explainable Stance Detection
- Sahil Jayaram, Emily Allaway
- TLDR: Wir stellen eine Methode vor, die menschliche Logik in ein RL-Modell einbringt, indem wir eine kleine Anzahl von Texten verwenden.
- The Stem Cell Hypothesis: Dilemma behind Multi-Task Learning with Transformer Encoders
- Han He, Jinho D. Choi
- TLDR: Wir stellen eine Hypothese vor, die die Existenz von Aufmerksamkeitshäufern in einer Reihe von Aufgaben offenbart, die nicht gemeinsam trainiert werden können, und zeigen, wie Aufmerksamkeitshäufer sich über die Aufgaben hinweg verändern.
- Text Counterfactuals via Latent Optimization and Shapley-Guided Search
- Xiaoli Fern, Quintin Pope
- TLDR: Wir verwenden Shapley-Wertwerte, um die Qualität der generierten Korrespondenz zu verbessern.
- “Average” Approximates “First Principal Component”? An Empirical Analysis on Representations from Neural Language Models
- Zihan Wang, Chengyu Dong, Jingbo Shang
- TLDR: Wir stellen eine empirische Eigenschaft vor, die die erste Hauptkomponente der Matrix darstellt, und zeigen, dass sie von der Verteilung der Repräsentationen abhängt.
- Controlled Evaluation of Grammatical Knowledge in Mandarin Chinese Language Models
- Yiwen Wang, Jennifer Hu, Roger Levy, Peng Qian
- TLDR: Wir untersuchen, ob die hierarchischen Verzerrungen in der Sprachauswahl von Syntax- und Semantik-Abhängigkeiten die Leistung von Sprachmodellen verbessern können.
- GradTS: A Gradient-Based Automatic Auxiliary Task Selection Method Based on Transformer Networks
- Weicheng Ma, Renze Lou, Kai Zhang, Lili Wang, Soroush Vosoughi
- TLDR: Wir stellen GradTS vor, eine automatische Anreicherungsmethode, die auf Gradientenausrechnungen in Transformer-basierten Modellen basiert.
- NegatER: Unsupervised Discovery of Negatives in Commonsense Knowledge Bases
- Tara Safavi, Jing Zhu, Danai Koutra
- TLDR: Wir schlagen einen Rahmen vor, der negative negative KBs in einem kontextuellen Sprachmodell rankt, und zeigen, dass negative KBs in LMs wiederum negatives Wissen erzeugen.
- Instance-adaptive training with noise-robust losses against noisy labels
- Lifeng Jin, Linfeng Song, Kun Xu, Dong Yu
- TLDR: Wir schlagen eine neue Methode vor, um die Widerstandsfähigkeit gegen Rauschen in NLP-Modellen zu verändern, die mit verrauschten und schädigten Datensätzen trainiert wurden.
- Distributionally Robust Multilingual Machine Translation
- Chunting Zhou, Daniel Levy, Xian Li, Marjan Ghazvininejad, Graham Neubig
- TLDR: Wir schlagen einen neuen Lernziel vor, der auf der Verteilungsresistenten Optimierung basiert, und zeigen, wie man das Problem der Sprachverschiebung effektiv lösen kann.
- Model Selection for Cross-lingual Transfer
- Yang Chen, Alan Ritter
- TLDR: Wir schlagen einen Algorithmus zur Modellauswahl vor, der die Sprachverifikationsdaten eines Zielsprachenmodells nutzt, um die Fähigkeiten eines Modells zu verbessern.
- Continual Few-Shot Learning for Text Classification
- Ramakanth Pasunuru, Veselin Stoyanov, Mohit Bansal
- TLDR: Wir schlagen eine Aufgabe vor, die ein System mit einem schwierigen Phänomen konfrontiert und auf die Aufgabe des Lernens von Fehlern mit wenigen Trainingsbeispielen zurückgreifen kann.
- Efficient Nearest Neighbor Language Models
- Junxian He, Graham Neubig, Taylor Berg-Kirkpatrick
- TLDR: Wir schlagen Methoden vor, um das k-nearest neighbors-Klangalgorithmus zu verbessern, indem wir die Inferenzzeit reduzieren und gleichzeitig die Inferenzleistung verbessern.
- STraTA: Self-Training with Task Augmentation for Better Few-shot Learning
- Tu Vu, Minh-Thang Luong, Quoc Le, Grady Simon, Mohit Iyyer
- TLDR: Wir schlagen eine neue Methode zur Erweiterung des Sprachmodells vor, die die Aufgabevergrößerung nutzt, um die Genauigkeit bei wenigen Aufnahmen zu verbessern.
- TADPOLE: Task ADapted Pre-Training via AnOmaLy DEtection
- Vivek Madan, Ashish Khetan, Zohar Karnin
- TLDR: Wir schlagen TADPOLE vor, einen Rahmen für das Vortraining von Daten, der auf die Datenauswahl von Daten adaptiert ist.
- Gradient-based Adversarial Attacks against Text Transformers
- Chuan Guo, Alexandre Sablayrolles, Hervé Jégou, Douwe Kiela
- TLDR: Wir schlagen einen gradientenbasierten Angriff vor, der auf der Suche nach einem einzigen Beispiel für die Optimierung von Transformationen führt.
- Do Transformer Modifications Transfer Across Implementations and Applications?
- Sharan Narang, Hyung Won Chung, Yi Tay, Liam Fedus, Thibault Fevry, Michael Matena, Karishma Malkan, Noah Fiedel, Noam Shazeer, Zhenzhong Lan, Yanqi Zhou, Wei Li, Nan Ding, Jake Marcus, Adam Roberts, Colin Raffel
- TLDR: Wir stellen fest, dass die meisten Transformer-Modifikationen nicht wirklich effektiv sind.
- Paired Examples as Indirect Supervision in Latent Decision Models
- Nitish Gupta, Sameer Singh, Matt Gardner, Dan Roth
- TLDR: Wir stellen eine Methode vor, die die Verwendung von Paaren von Beispielen für die Erkennung von kompositorischen Fragen in DROP ermöglicht.
- Pairwise Supervised Contrastive Learning of Sentence Representations
- Dejiao Zhang, Shang-Wen Li, Wei Xiao, Henghui Zhu, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: Wir schlagen ein auf Instanzdiskriminierungsbasiertes Verständnis von Semantik und Contradiktion vor, das die Semantik und die Konsistenz von Satzrepräsentationen auf hoher Ebene erfasst.
- Muppet: Massive Multi-task Representations with Pre-Finetuning
- Armen Aghajanyan, Anchit Gupta, Akshat Shrivastava, Xilun Chen, Luke Zettlemoyer, Sonal Gupta
- TLDR: Wir schlagen Pre-Fine-Tuning vor, eine zusätzliche große Lernphase zwischen Sprachmodellierung und Fine-Tuning.
- Diverse Distributions of Self-Supervised Tasks for Meta-Learning in NLP
- Trapit Bansal, Karthick Prasad Gunasekaran, Tong Wang, Tsendsuren Munkhdalai, Andrew McCallum
- TLDR: Wir stellen eine Methode zur Selbstüberwachung vor, die auf Meta-Lernen angewendet werden kann, und zeigen, wie diese Eigenschaften die Leistung bei der Lösung von Aufgaben erheblich steigern.
- A Simple and Effective Method To Eliminate the Self Language Bias in Multilingual Representations
- Ziyi Yang, Yinfei Yang, Daniel Cer, Eric Darve
- TLDR: Wir stellen eine neue Methode zur Sprachidentifikation vor, die die Sprachenidentitäten von semantischen Teilen in Multi-Lingual Repräsentationen entfernt.
- A Massively Multilingual Analysis of Cross-linguality in Shared Embedding Space
- Alexander Jones, William Yang Wang, Kyle Mahowald
- TLDR: Wir analysieren und bewerten sprachenübergreifende Merkmale, die für die Anpassung von Satzrepräsentationen von Bedeutungsausrichtungen in BERT-basierten Sprachmodellen geeignet sind.
- Frustratingly Simple but Surprisingly Strong: Using Language-Independent Features for Zero-shot Cross-lingual Semantic Parsing
- Jingfeng Yang, Federico Fancellu, Bonnie Webber, Diyi Yang
- TLDR: Wir stellen eine Methode vor, die auf der Verwendung von Universal Dependency Relations und Universal POS tags (UPOS) basiert, und zeigen, dass sie die Leistung von Semantikparsern verbessert.
- Improving Simultaneous Translation by Incorporating Pseudo-References with Fewer Reorderings
- Junkun Chen, Renjie Zheng, Atsuhito Kita, Mingbo Ma, Liang Huang
- TLDR: Wir schlagen eine Methode vor, die die Zielseiten von bestehenden vollständigen Satzkodierungen in eine simultane Übersetzung umwandelt.
- Classification-based Quality Estimation: Small and Efficient Models for Real-world Applications
- Shuo Sun, Ahmed El-Kishky, Vishrav Chaudhary, James Cross, Lucia Specia, Francisco Guzmán
- TLDR: Wir stellen fest, dass die Modellkompressionstechniken für die Qualitätsschätzung von maschinellen Übersetzungen zu schlechten Ergebnissen führen.
- A Large-Scale Study of Machine Translation in Turkic Languages
- Jamshidbek Mirzakhalov, Anoop Babu, Duygu Ataman, Sherzod Kariev, Francis Tyers, Otabek Abduraufov, Mammad Hajili, Sardana Ivanova, Abror Khaytbaev, Antonio Laverghetta Jr., Bekhzodbek Moydinboyev, Esra Onal, Shaxnoza Pulatova, Ahsan Wahab, Orhan Firat, Sriram Chellappan
- TLDR: Wir stellen eine erste groß angelegte empirische Studie zur Anwendung neuronaler maschineller Übersetzungen vor, die die Vorteile von NMT für die Sprachfamilien deutlich unter Berücksichtigung der Datenknappheit deutlich reduzieren.
- Analyzing the Surprising Variability in Word Embedding Stability Across Languages
- Laura Burdick, Jonathan K. Kummerfeld, Rada Mihalcea
- TLDR: Wir untersuchen die Stabilität von Worteinbettungen und schlagen eine neue Methode vor, um die Stabilität von Worteinbettungen zu untersuchen.
- Rule-based Morphological Inflection Improves Neural Terminology Translation
- Weijia Xu, Marine Carpuat
- TLDR: Wir stellen ein neues neuronales Inflechtungsmodul vor, das die Sprachbeschränkungen von neuronalen MT-Modulen inkrementell und auf der Grundlage von Sprachrechnern auswählen kann.
- Data and Parameter Scaling Laws for Neural Machine Translation
- Mitchell A Gordon, Kevin Duh, Jared Kaplan
- TLDR: Wir stellen eine Theorie vor, die die Entwicklung von Cross-Entropy-Verlusten von neuronalen Übersetzungsmodellen verringert und die ROI-Ziele von Labels in Sprachpaaren vorhersagt.
- Good-Enough Example Extrapolation
- Jason Wei
- TLDR: Wir stellen einen einfachen Datenerweiterungsprotokoll vor, der gute Beispiele extrapoliert.
- Learning to Selectively Learn for Weakly-supervised Paraphrase Generation
- Kaize Ding, Dingcheng Li, Alexander Hanbo Li, Xing Fan, Chenlei Guo, Yang Liu, Huan Liu
- TLDR: Wir schlagen einen Meta-Lernansatz vor, um unüberwachte Paraphrase-Generierungsprobleme zu lösen.
- Effective Convolutional Attention Network for Multi-label Clinical Document Classification
- Yang Liu, Hua Cheng, Russell Klopfer, Matthew R. Gormley, Thomas Schaaf
- TLDR: Wir stellen ein Convolutional Attention Network vor, das die Codevorhersage von Arztdokumenten aus medizinischen Dokumenten ermöglicht.
- Contrastive Code Representation Learning
- Paras Jain, Ajay Jain, Tianjun Zhang, Pieter Abbeel, Joseph Gonzalez, Ion Stoica
- TLDR: Wir schlagen ContraCode vor, eine kontrastive Vortrainingsaufgabe, die Codefunktionen erlernen, nicht Form.
- IGA: An Intent-Guided Authoring Assistant
- Simeng Sun, Wenlong Zhao, Varun Manjunatha, Rajiv Jain, Vlad Morariu, Franck Dernoncourt, Balaji Vasan Srinivasan, Mohit Iyyer
- TLDR: Wir stellen einen maschinellen Lernassistenten vor, der Texterzeugt und Rewrites, die von den Autoren mit Hilfe von Texten aus einer Texterzeugung anhand von Labels kodiert.
- Math Word Problem Generation with Mathematical Consistency and Problem Context Constraints
- Zichao Wang, Andrew Lan, Richard Baraniuk
- TLDR: Wir stellen einen neuen Ansatz zur Generierung von Aufgaben mit numerischen Worten vor, der die Sprachqualität von generierten MWPs verbessert.
- Navigating the Kaleidoscope of COVID-19 Misinformation Using Deep Learning
- Yuanzhi Chen, Mohammad Hasan
- TLDR: Wir stellen fest, dass die Deep-Transfer-Modelle, die auf der Grundlage von COVID-19-Datensätzen verwendet werden, nicht gut auf die lokalen und die globalen Kontexte abstimmen.
- Detecting Health Advice in Medical Research Literature
- Yingya Li, Jun Wang, Bei Yu
- TLDR: Wir haben BERT-basiertes Modell zur Vorhersage von Gesundheitsinformationen in PubMed-Publikationen entwickelt und validated.
- A Semantic Feature-Wise Transformation Relation Network for Automatic Short Answer Grading
- Zhaohui Li, Yajur Tomar, Rebecca J. Passonneau
- TLDR: Wir schlagen ein relationales Featurewise Transformationsnetz vor, das die verschiedenen Komponenten von ASAG-Datensätzen effektiv nutzt.
- Evaluating Scholarly Impact: Towards Content-Aware Bibliometrics
- Saurav Manchanda, George Karypis
- TLDR: Wir stellen Methoden zur Schätzung der Bedeutung von Texten vor, die die Bedeutung der cited publications quantifizieren.
- A Scalable Framework for Learning From Implicit User Feedback to Improve Natural Language Understanding in Large-Scale Conversational AI Systems
- Sunghyun Park, Han Li, Ameen Patel, Sidharth Mudgal, Sungjin Lee, Young-Bum Kim, Spyros Matsoukas, Ruhi Sarikaya
- TLDR: Wir schlagen einen skalierbaren und automatischen Ansatz vor, um die NLU in einem großen Sprachsystem zu verbessern.
- Summarize-then-Answer: Generating Concise Explanations for Multi-hop Reading Comprehension
- Naoya Inoue, Harsh Trivedi, Steven Sinha, Niranjan Balasubramanian, Kentaro Inui
- TLDR: Wir schlagen einen abstrakten Erklärungsvervollständiger vor, der die Antwort auf eine Frage in mehreren Absätzen erzeugt.
- FewshotQA: A simple framework for few-shot learning of question answering tasks using pre-trained text-to-text models
- Rakesh Chada, Pradeep Natarajan
- TLDR: Wir schlagen einen fine-tuned-Framework vor, der die Aufgabe der Fragenausführung aus wenigen Beispielen lösen kann.
- Multi-stage Training with Improved Negative Contrast for Neural Passage Retrieval
- Jing Lu, Gustavo Hernandez Abrego, Ji Ma, Jianmo Ni, Yinfei Yang
- TLDR: Wir stellen negatives Sampling vor, eine Methode zur Erzeugung von Negativbeispielen und eine Fusion von Negativbeispielen vor.
- Perhaps PTLMs Should Go to School – A Task to Assess Open Book and Closed Book QA
- Manuel Ciosici, Joe Cecil, Dong-Ho Lee, Alex Hedges, Marjorie Freedman, Ralph Weischedel
- TLDR: Wir stellen eine Aufgabe vor, die zwei Einführungswerke auf dem Gebiet der Politik und der Geschichte enthält, und stellen fest, dass die Textbücher nicht vortrainiert werden.
- ReasonBERT: Pre-trained to Reason with Distant Supervision
- Xiang Deng, Yu Su, Alyssa Lees, You Wu, Cong Yu, Huan Sun
- TLDR: Wir stellen ReasonBert vor, eine Pre-Training-Methode, die die Fähigkeit nutzt, lange Zeitbeziehungen und mehrere, möglicherweise hybride Kontexte zu erklären.
- Single-dataset Experts for Multi-dataset Question Answering
- Dan Friedman, Ben Dodge, Danqi Chen
- TLDR: Wir stellen eine Sammlung von Modulen vor, die auf mehreren Datensätzen gemeinsam genutzt werden können, um Multi-Adapter-Datensätzen zu lösen.
- Simple Entity-Centric Questions Challenge Dense Retrievers
- Christopher Sciavolino, Zexuan Zhong, Jinhyuk Lee, Danqi Chen
- TLDR: Wir stellen EntityQuestions vor, eine Reihe von Fragen, die auf Wikidaten basieren, und stellen fest, dass die Entitätenverallgemeinerung zu allgemeinen Entitäten führt.
- Mitigating False-Negative Contexts in Multi-document Question Answering with Retrieval Marginalization
- Ansong Ni, Matt Gardner, Pradeep Dasigi
- TLDR: Wir stellen eine neue Parametrisierung von Satz-Wert-Retrieval vor, die unanswerbare Fragen mit Hilfe von Beweisen behandelt.
- MultiDoc2Dial: Modeling Dialogues Grounded in Multiple Documents
- Song Feng, Siva Sankalp Patel, Hui Wan, Sachindra Joshi
- TLDR: Wir schlagen MultiDoc2Dial vor, einen neuen Aufgabe- und Datensatz für die Modellierung von Ziel-oriented Dialogen, die auf Dokumenten basieren.
- GupShup: Summarizing Open-Domain Code-Switched Conversations
- Laiba Mehnaz, Debanjan Mahata, Rakesh Gosangi, Uma Sushmitha Gunturi, Riya Jain, Gauri Gupta, Amardeep Kumar, Isabelle G. Lee, Anish Acharya, Rajiv Ratn Shah
- TLDR: Wir stellen eine abstrakte Aufgabe vor, die die Code-Switched-Konversationen in Hindi-English zusammenfassen soll.
- BiSECT: Learning to Split and Rephrase Sentences with Bitexts
- Joongwon Kim, Mounica Maddela, Reno Kriz, Wei Xu, Chris Callison-Burch
- TLDR: Wir stellen einen neuen Datensatz und ein neues Modell für die Aufgabe der Split und Rephrase vor.
- Data Collection vs. Knowledge Graph Completion: What is Needed to Improve Coverage?
- Kenneth Church, Yuchen Bian
- TLDR: Wir stellen fest, dass die Knowledge Graphen Completion (KGC) die Vermissteninformationen aus Teilsätzen besser erforscht.
- Universal Sentence Representation Learning with Conditional Masked Language Model
- Ziyi Yang, Yinfei Yang, Daniel Cer, Jax Law, Eric Darve
- TLDR: Wir stellen Conditional Masked Language Modeling (CMLM) vor, eine Methode zur Erstellung von Satzrepräsentationen auf großen Mengen unbeschrifteten corpora.
- On the Benefit of Syntactic Supervision for Cross-lingual Transfer in Semantic Role Labeling
- Zhisong Zhang, Emma Strubell, Eduard Hovy
- TLDR: Wir untersuchen die Nutzen von Syntax-Überwachung für das Cross-Lingual Learning.
- Implicit Premise Generation with Discourse-aware Commonsense Knowledge Models
- Tuhin Chakrabarty, Aadit Trivedi, Smaranda Muresan
- TLDR: Wir schlagen eine Methode vor, die die Verallgemeinerung von Hypothesen und Schlussfolgerungen ermöglicht.
- Inducing Transformer’s Compositional Generalization Ability via Auxiliary Sequence Prediction Tasks
- Yichen Jiang, Mohit Bansal
- TLDR: Wir schlagen eine neue Methode zur Erkennung und Beantwortung von Kompositionsstrukturen vor, die die Aufmerksamkeitsdeterministik nutzt.
- Flexible Generation of Natural Language Deductions
- Kaj Bostrom, Xinyu Zhao, Swarat Chaudhuri, Greg Durrett
- TLDR: Wir verwenden ParaPattern, um neuronale Sprachmodelle, die aus mehreren Sprachbeschriftungen generiert werden, um die Erklärung von Begründungen in einer transparenten Form zu erzeugen.
- Structure-aware Fine-tuning of Sequence-to-sequence Transformers for Transition-based AMR Parsing
- Jiawei Zhou, Tahira Naseem, Ramón Fernandez Astudillo, Young-Suk Lee, Radu Florian, Salim Roukos
- TLDR: Wir schlagen einen neuen Parser vor, der die Strukturen von Vortrainierten Sprachmodellen nutzt, um strukturiertes Fine-Tuning zu ermöglichen.
- Think about it! Improving defeasible reasoning by first modeling the question scenario.
- Aman Madaan, Niket Tandon, Dheeraj Rajagopal, Peter Clark, Yiming Yang, Eduard Hovy
- TLDR: Wir stellen eine Methode vor, die die Frage-Szenario-Vorhersage in neuronalen Netzen ermöglicht.
- Open Aspect Target Sentiment Classification with Natural Language Prompts
- Ronald Seoh, Ian Birle, Mrinal Tak, Haw-Shiuan Chang, Brian Pinette, Alfred Hough
- TLDR: Wir schlagen eine neue Methode zur Verbesserung der Attribute-Klassifikation vor, die die Aufmerksamkeit auf die Gefühle von Kunden und Geschäftskunden erfasst.
- Does BERT Learn as Humans Perceive? Understanding Linguistic Styles through Lexica
- Shirley Anugrah Hayati, Dongyeop Kang, Lyle Ungar
- TLDR: Wir analysieren, wie Menschen die Sprache interpretieren, um zu verstehen, wie sie ihre Stimmungen und Emotionen in Texten darstellen.
- Improving Stance Detection with Multi-Dataset Learning and Knowledge Distillation
- Yingjie Li, Chenye Zhao, Cornelia Caragea
- TLDR: Wir schlagen eine adaptive Knowledge Distillation (AKD) Methode vor, die die Aufmerksamkeit eines Lehrermodells auf die Positionserkennung überträgt.
- Discovering the Unknown Knowns: Turning Implicit Knowledge in the Dataset into Explicit Training Examples for Visual Question Answering
- Jihyung Kil, Cheng Zhang, Dong Xuan, Wei-Lun Chao
- TLDR: Wir stellen SimpleAug vor, eine Datenerweiterungspipeline, die die Wissenswerte von VQA-Modellen in einem Datensatz erweitert und die Leistung verbessert.
- Improving Pre-trained Vision-and-Language Embeddings for Phrase Grounding
- Zi-Yi Dou, Nanyun Peng
- TLDR: Wir schlagen eine Methode vor, um Phrasenzustandsausrichtungen aus Vision- und Sprachmodellen zu extrahieren und verwenden sie zur Sprachausrichtung bei Aufgaben, die auf sprachenbasiertem Verständnis basieren.
- Sequential Randomized Smoothing for Adversarially Robust Speech Recognition
- Raphael Olivier, Bhiksha Raj
- TLDR: Wir stellen eine adaptive Verteidigung vor, die auf Störungen und Störungen von ASRs angewendet werden kann.
- Hitting your MARQ: Multimodal ARgument Quality Assessment in Long Debate Video
- Md Kamrul Hasan, James Spann, Masum Hasan, Md Saiful Islam, Kurtis Haut, Rada Mihalcea, Ehsan Hoque
- TLDR: Wir stellen eine neue Methode zur Bewertung der Argumentationsqualität vor, die die Vielfalt der Signale in einem Multimodalen Kontext erfasst.
- Mind the Context: The Impact of Contextualization in Neural Module Networks for Grounding Visual Referring Expressions
- Arjun Akula, Spandana Gella, Keze Wang, Song-Chun Zhu, Siva Reddy
- TLDR: Wir schlagen eine Methode vor, die kontextualisierte Modulnetzwerke verbessert und gleichzeitig die Leistung von NMN-Modellen verbessert.
- Weakly-Supervised Visual-Retriever-Reader for Knowledge-based Question Answering
- Man Luo, Yankai Zeng, Pratyay Banerjee, Chitta Baral
- TLDR: Wir stellen einen Visual Retriever-Reader-Reader-Framework vor, der Wissensbasierte VQA angeht.
- NDH-Full: Learning and Evaluating Navigational Agents on Full-Length Dialogue
- Hyounghun Kim, Jialu Li, Mohit Bansal
- TLDR: Wir schlagen einen neuen Ansatz für die Navigation aus Dialogen vor, der die gesamte Dialogfolge und den gesamten Navigationsweg als eine Einheit nutzt.
- Timeline Summarization based on Event Graph Compression via Time-Aware Optimal Transport
- Manling Li, Tengfei Ma, Mo Yu, Lingfei Wu, Tian Gao, Heng Ji, Kathleen McKeown
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Erkennung und Beschreibung von Nachrichten zu einem Zeitgraphen zu erlernen.
- StreamHover: Livestream Transcript Summarization and Annotation
- Sangwoo Cho, Franck Dernoncourt, Tim Ganter, Trung Bui, Nedim Lipka, Walter Chang, Hailin Jin, Jonathan Brandt, Hassan Foroosh, Fei Liu
- TLDR: Wir schlagen StreamHover vor, einen Rahmen für die Ankündigung und Zusammenfassung von Audio-Tracks vor und zeigen, dass das Modell die Leistung bei der Streaming-Überwachung verbessert.
- Cross-Register Projection for Headline Part of Speech Tagging
- Adrian Benton, Hanyang Li, Igor Malioutov
- TLDR: Wir stellen eine neue Methode vor, um Nachrichtenbilder mit Pos-Tags zu markieren, die die Aufmerksamkeit von Menschen auf die Bedeutung von Worten und den Inhalt von Nachrichtenoberflächen verbessern.
- Editing Factual Knowledge in Language Models
- Nicola De Cao, Wilker Aziz, Ivan Titov
- TLDR: Wir stellen KnowledgeEditor vor, eine Methode zur Aktualisierung und Lösung von Fehlern und Unvorhergesehenen.
- Sparse Attention with Linear Units
- Biao Zhang, Ivan Titov, Rico Sennrich
- TLDR: Wir stellen eine neuartige Methode vor, die die SPARS in Aufmerksamkeit schafft.
- Knowledge Base Completion Meets Transfer Learning
- Vid Kocijan, Thomas Lukasiewicz
- TLDR: Wir stellen einen neuen Ansatz vor, der die Wissensverschiebung von Wissensdaten aus Wissensdatenbanken ermöglicht.
- SPECTRA: Sparse Structured Text Rationalization
- Nuno M. Guerreiro, André F. T. Martins
- TLDR: Wir stellen einen Rahmen für deterministische Erklärungen vor, der die Entflechtung von Argumenten durch Konsistenzinferenz reguliert.
- Towards Zero-Shot Knowledge Distillation for Natural Language Processing
- Ahmad Rashid, Vasileios Lioutas, Abbas Ghaddar, Mehdi Rezagholizadeh
- TLDR: Wir stellen Zero-Shot Knowledge Distillation vor, eine Methode zur Wissensdestillation, die aus einem großen Lehrer lernt.
- Adversarial Regularization as Stackelberg Game: An Unrolled Optimization Approach
- Simiao Zuo, Chen Liang, Haoming Jiang, Xiaodong Liu, Pengcheng He, Jianfeng Gao, Weizhu Chen, Tuo Zhao
- TLDR: Wir schlagen eine neue Methode zur Stackelberg-Regularisierung vor, die die Generalisierung von Deep Learning verbessert.
- Aspect-Controllable Opinion Summarization
- Reinald Kim Amplayo, Stefanos Angelidis, Mirella Lapata
- TLDR: Wir schlagen einen Ansatz vor, der die Erstellung von Zusammenfassungen auf der Grundlage von Bewertungsergebnissen ermöglicht.
- QuestEval: Summarization Asks for Fact-based Evaluation
- Thomas Scialom, Paul-Alexis Dray, Sylvain Lamprier, Benjamin Piwowarski, Jacopo Staiano, Alex Wang, Patrick Gallinari
- TLDR: Wir schlagen einen neuen Rahmen vor, der die Klassifizierungskriterien von ROUGE und BERTScore verbessert.
- Simple Conversational Data Augmentation for Semi-supervised Abstractive Dialogue Summarization
- Jiaao Chen, Diyi Yang
- TLDR: Wir stellen eine einfache, aber effektive Methode zur halbüberwachten Abfrage von Gesprächsprotokollen vor, die auf beschrifteten Gesprächsausschlüssen basiert.
- Finding a Balanced Degree of Automation for Summary Evaluation
- Shiyue Zhang, Mohit Bansal
- TLDR: Wir schlagen eine neue Methode zur automatischen Bewertung von Text-Evaluierungsmetriken vor, die auf der Pyramid-Human-Evaluierungsmethode basiert.
- CLIFF: Contrastive Learning for Improving Faithfulness and Factuality in Abstractive Summarization
- Shuyang Cao, Lu Wang
- TLDR: Wir stellen eine neuartige Methode vor, die sowohl Referenz- als auch Negativaussagen erzeugt, um die Differenz zwischen den Daten zu trainieren.
- Multilingual Unsupervised Neural Machine Translation with Denoising Adapters
- Ahmet Üstün, Alexandre Berard, Laurent Besacier, Matthias Gallé
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Back-Translation von Sprachkopplungen zu lösen, indem wir eine Erweiterung von Adapterschichten verwenden.
- BERT, mBERT, or BiBERT? A Study on Contextualized Embeddings for Neural Machine Translation
- Haoran Xu, Benjamin Van Durme, Kenton Murray
- TLDR: Wir stellen fest, dass ein bilinguales Übersetzungsmodell, das BERT als Übersetzungsausgangsmodell verwendet, die beste Ergebnisse bei der Sprachverarbeitung erzielt.
- Controlling Machine Translation for Multiple Attributes with Additive Interventions
- Andrea Schioppa, David Vilar, Artem Sokolov, Katja Filippova
- TLDR: Wir stellen eine vektor-basierte Steuerung vor, die die Kontrolle über mehrere Attributen gleichzeitig erlernt.
- A Generative Framework for Simultaneous Machine Translation
- Yishu Miao, Phil Blunsom, Lucia Specia
- TLDR: Wir schlagen einen generativen Rahmen für die simultane maschinelle Übersetzung vor.
- It Is Not As Good As You Think! Evaluating Simultaneous Machine Translation on Interpretation Data
- Jinming Zhao, Philip Arthur, Gholamreza Haffari, Trevor Cohn, Ehsan Shareghi
- TLDR: Wir schlagen einen Interpretationstestsatz vor und eine realistische Bewertung von SiMT trainiert auf offline Übersetzungen vor.
- Boosting Cross-Lingual Transfer via Self-Learning with Uncertainty Estimation
- Liyan Xu, Xuchao Zhang, Xujiang Zhao, Haifeng Chen, Feng Chen, Jinho D. Choi
- TLDR: Wir schlagen einen neuen Rahmen vor, der unbeaufsichtigte Sprachmodelle nutzt, um unbeaufsichtigte Sprachverschiebungen zu vermeiden.
- Levenshtein Training for Word-level Quality Estimation
- Shuoyang Ding, Marcin Junczys-Dowmunt, Matt Post, Philipp Koehn
- TLDR: Wir schlagen einen Levenshtein Transformer vor, um die Aufgabe der Qualitätsschätzung auf Wortebene zu lösen.
- Interactive Machine Comprehension with Dynamic Knowledge Graphs
- Xingdi Yuan
- TLDR: Wir stellen vier verschiedene Arten von Graphen vor, die Textinformationen auf verschiedenen Ebenen erfassen können.
- Residual Adapters for Parameter-Efficient ASR Adaptation to Atypical and Accented Speech
- Katrin Tomanek, Vicky Zayats, Dirk Padfield, Kara Vaillancourt, Fadi Biadsy
- TLDR: Wir stellen fest, dass die Erweiterung von Modellen auf die Encoderschichten die Leistung bei der Anpassung von Typen und Anpassung von Anpassungszeit verbessert.
- Visual News: Benchmark and Challenges in News Image Captioning
- Fuxiao Liu, Yinghan Wang, Tianlu Wang, Vicente Ordonez
- TLDR: Wir schlagen Visual News Captioner vor, ein Entitätsbewusstes Modell für die Aufgabe der Bildbeschriftung.
- Integrating Visuospatial, Linguistic, and Commonsense Structure into Story Visualization
- Adyasha Maharana, Mohit Bansal
- TLDR: Wir verwenden strukturierte Eingabesätze, um visuelle Geschichten zu erzeugen.
- VideoCLIP: Contrastive Pre-training for Zero-shot Video-Text Understanding
- Hu Xu, Gargi Ghosh, Po-Yao Huang, Dmytro Okhonko, Armen Aghajanyan, Florian Metze, Luke Zettlemoyer, Christoph Feichtenhofer
- TLDR: Wir stellen VideoCLIP vor, einen kontrastiven Ansatz zur Vortrainierung eines uneinheitlichen Modells für Video- und Textverständnis, ohne Verwendung von Labels.
- NewsCLIPpings: Automatic Generation of Out-of-Context Multimodal Media
- Grace Luo, Trevor Darrell, Anna Rohrbach
- TLDR: Wir stellen einen neuen Datensatz vor, der Bilder und Text unvertauscht und in einer bestimmten Umgebung verwendet.
- Powering Comparative Classification with Sentiment Analysis via Domain Adaptive Knowledge Transfer
- Zeyu Li, Yilong Qin, Zihan Liu, Wei Wang
- TLDR: Wir schlagen eine neue Methode vor, die die Gefühle von Entitäten analysiert und die Bewertungen von Entitäten übertrifft.
- Tribrid: Stance Classification with Neural Inconsistency Detection
- Song Yang, Jacopo Urbani
- TLDR: Wir stellen eine neuronale Architektur vor, die automatisch generierte Verzerrungen über die ursprünglichen Ansichten berücksichtigt.
- SYSML: StYlometry with Structure and Multitask Learning: Implications for Darknet Forum Migrant Analysis
- Pranav Maneriker, Yuntian He, Srinivasan Parthasarathy
- TLDR: Wir entwickeln einen stylographenbasierten Multitasking-Ansatz für die Erstellung von Benutzeraktivitäten, die auf einem darknet-Forum verwendet werden können.
- Few-Shot Emotion Recognition in Conversation with Sequential Prototypical Networks
- Gaël Guibon, Matthieu Labeau, Hélène Flamein, Luce Lefeuvre, Chloé Clavel
- TLDR: Wir stellen eine Methode vor, die auf die Klassifizierung von Emotionen in Gesprächen anwendbar ist und die Sprachauswahl für Sprachbeschriftungen und sparse Etiketten ermöglicht.
- CLASSIC: Continual and Contrastive Learning of Aspect Sentiment Classification Tasks
- Zixuan Ke, Bing Liu, Hu Xu, Lei Shu
- TLDR: Wir schlagen ein neues Modell vor, das auf kontinuierliches Lernen und Wissenstransfer basiert.
- Implicit Sentiment Analysis with Event-centered Text Representation
- Deyu Zhou, Jianan Wang, Linhai Zhang, Yulan He
- TLDR: Wir schlagen ein neuartiges Modell mit hierarchischer Tensorbasiertem Kompositionsmechanismus vor, um implizite Gefühle in Text zu erkennen.
- SimCSE: Simple Contrastive Learning of Sentence Embeddings
- Tianyu Gao, Xingcheng Yao, Danqi Chen
- TLDR: Wir schlagen einen unüberwachten Rahmen vor, der die Klassifizierung von Satzeinbettungen verbessert und gleichzeitig die Klassifizierung von Satzeinbettungen verbessert.
- When is Wall a Pared and when a Muro?: Extracting Rules Governing Lexical Selection
- Aditi Chaudhary, Kayo Yin, Antonios Anastasopoulos, Graham Neubig
- TLDR: Wir stellen eine Methode vor, die fine-grained lexikalische Abgrenzungen automatisch erkennt und Regeln zur Erklärung dieser Abgrenzungen extrahiert.
- Aligning Actions Across Recipe Graphs
- Lucia Donatelli, Theresa Schmidt, Debanjali Biswas, Arne Köhn, Fangzhou Zhai, Alexander Koller
- TLDR: Wir stellen ein neuartiges und vollständigparsed English Recipe-Küchnis vor, das auf der Suche nach Informationen für das Verständnis von Rezepten mit dem Ziel der Erfassung von Informationen impliziter für das Verständnis von Rezepten ist.
- Generating Datasets with Pretrained Language Models
- Timo Schick, Hinrich Schütze
- TLDR: Wir verwenden generative Fähigkeiten von großen und hochleistungsfähigen PLMs, um Texterzeugungen ohne Labeldaten zu erhalten.
- Continuous Entailment Patterns for Lexical Inference in Context
- Martin Schmitt, Hinrich Schütze
- TLDR: Wir verwenden Textmustern, um sprachenähnliche Inferenz in Kontext zu ermöglichen.
- Numeracy enhances the Literacy of Language Models
- Avijit Thawani, Jay Pujara, Filip Ilievski
- TLDR: Wir stellen Wiki-Convert vor, eine 900,000 Satzdatensatzannotierte und numerische Repräsentationen, die mit numerischen Daten umgehen.
- Students Who Study Together Learn Better: On the Importance of Collective Knowledge Distillation for Domain Transfer in Fact Verification
- Mitch Paul Mithun, Sandeep Suntwal, Mihai Surdeanu
- TLDR: Wir schlagen Group Learning vor, einen Wissens- und Modell-Destillationsansatz für die Beantwortung von Fragen, die mit lexikalischen Informationen verbunden sind.
- MultiEURLEX - A multi-lingual and multi-label legal document classification dataset for zero-shot cross-lingual transfer
- Ilias Chalkidis, Manos Fergadiotis, Ion Androutsopoulos
- TLDR: Wir stellen MULTI-EURLEX vor, einen neuen Multilingual-Datensätzen für die Themenklassifikation von juristischen Dokumenten.
- Joint Passage Ranking for Diverse Multi-Answer Retrieval
- Sewon Min, Kenton Lee, Ming-Wei Chang, Kristina Toutanova, Hannaneh Hajishirzi
- TLDR: Wir stellen ein neues Modell vor, das auf die Reranking-Problematik von mehreren Fragen basiert.
- Generative Context Pair Selection for Multi-hop Question Answering
- Dheeru Dua, Cicero Nogueira dos Santos, Patrick Ng, Ben Athiwaratkun, Bing Xiang, Matt Gardner, Sameer Singh
- TLDR: Wir schlagen ein generatives Kontextauswahlmodell vor, das Argumente darüber gibt, wie die Frage aus einer kontextuellen Sicht beantwortet werden könnte.
- Synthetic Data Augmentation for Zero-Shot Cross-Lingual Question Answering
- Arij Riabi, Thomas Scialom, Rachel Keraron, Benoît Sagot, Djamé Seddah, Jacopo Staiano
- TLDR: Wir schlagen eine Methode vor, die die Fähigkeit von Multilingual Question Answering verbessert, ohne dass zusätzliche annotierte Daten benötigt werden.
- Have You Seen That Number? Investigating Extrapolation in Question Answering Models
- Jeonghwan Kim, Giwon Hong, Kyung-min Kim, Junmo Kang, Sung-Hyon Myaeng
- TLDR: Wir stellen fest, dass die meisten Modelle, die auf numerischen Datensätzen trainiert wurden, nicht auf numerische Schlussfolgerungen reagieren.
- Surface Form Competition: Why the Highest Probability Answer Isn’t Always Right
- Ari Holtzman, Peter West, Vered Shwartz, Yejin Choi, Luke Zettlemoyer
- TLDR: Wir stellen Domain Conditional Pointwise Mutual Information vor, eine neue Score-Funktion, die die Wahrscheinlichkeiten von Variablen in einer Sprachmodellumgebung reduziert.
- Entity-Based Knowledge Conflicts in Question Answering
- Shayne Longpre, Kartik Perisetla, Anthony Chen, Nikhil Ramesh, Chris DuBois, Sameer Singh
- TLDR: Wir stellen eine Methode vor, die die Überreliance auf Parametrisches Wissen minimiert und die Generalisierung fördert.
- Back-Training excels Self-Training at Unsupervised Domain Adaptation of Question Generation and Passage Retrieval
- Devang Kulshreshtha, Robert Belfer, Iulian Vlad Serban, Siva Reddy
- TLDR: Wir stellen Back-Training vor, einen alternativen zum Selbsttraining für die unbeaufsichtigte Domänenanpassung.
- DWUG: A large Resource of Diachronic Word Usage Graphs in Four Languages
- Dominik Schlechtweg, Nina Tahmasebi, Simon Hengchen, Haim Dubossarsky, Barbara McGillivray
- TLDR: Wir stellen eine große Sammlung von kontextualisierten, diachronischen Worten-Erklärungen vor, die auf 100,000 menschlichen Sequenz-Benchmark-Erwägungen basieren.
- I Wish I Would Have Loved This One, But I Didn’t – A Multilingual Dataset for Counterfactual Detection in Product Review
- James O’Neill, Polina Rozenshtein, Ryuichi Kiryo, Motoko Kubota, Danushka Bollegala
- TLDR: Wir stellen einen Multilingual CFD-Datensätzen vor, der counterfaktische Sätze enthält, die in mehreren Sprachen auf Amazon-Produktbewertungen verwendet werden.
- Does It Capture STEL? A Modular, Similarity-based Linguistic Style Evaluation Framework
- Anna Wegmann, Dong Nguyen
- TLDR: Wir schlagen ein auf BERT basierendes, fine-grained und auf Inhaltskontrolle basierendes STyle EvaLuation Framework vor, um die Leistung von Modellen, die zwei Sätze vergleichen, zu bewerten.
- Evaluating the Morphosyntactic Well-formedness of Generated Texts
- Adithya Pratapa, Antonios Anastasopoulos, Shruti Rijhwani, Aditi Chaudhary, David R. Mortensen, Graham Neubig, Yulia Tsvetkov
- TLDR: Wir schlagen L’AMBRE vor, eine Methode zur Bewertung der Morphosyntaktik von Texten, die von Texten mit Abhängigkeiten generiert werden.
- AM2iCo: Evaluating Word Meaning in Context across Low-Resource Languages with Adversarial Examples
- Qianchu Liu, Edoardo Maria Ponti, Diana McCarthy, Ivan Vulić, Anna Korhonen
- TLDR: Wir stellen AM2iCo vor, einen breiten Rahmen für die Bewertung von Worten in Kontexten und die Erkennung von Wortenmerkmalen in sprachenübergreifenden Texten.
- CrossFit: A Few-shot Learning Challenge for Cross-task Generalization in NLP
- Qinyuan Ye, Bill Yuchen Lin, Xiang Ren
- TLDR: Wir stellen CrossFit vor, eine Problem-Architektur zur Testung der Few-Shot Learning Fähigkeit, die auf unbesehene Aufgaben verallgemeinert und die Analyse von Few-Shot Learning und die Verbesserung von Few-Shot Learning in einer neuen Umgebung ermöglicht.
- On the Influence of Masking Policies in Intermediate Pre-training
- Qinyuan Ye, Belinda Z. Li, Sinong Wang, Benjamin Bolte, Hao Ma, Wen-tau Yih, Xiang Ren, Madian Khabsa
- TLDR: Wir untersuchen die Effektivität von maskierten Sprachmodellierungsstrategien beim Einführungstraining von zweistufigen Pre-Training- und Fine-Tuning-Pipeline.
- ValNorm Quantifies Semantics to Reveal Consistent Valence Biases Across Languages and Over Centuries
- Autumn Toney, Aylin Caliskan
- TLDR: Wir verwenden eine neue Aufgabe und Methode zur Messung der Verzerrung von menschlichen Verzerrungen in Worteinbettungen und zeigen, dass soziale Biases unterschiedlicher Sprachen sind.
- Perturbation CheckLists for Evaluating NLG Evaluation Metrics
- Ananya B. Sai, Tanay Dixit, Dev Yashpal Sheth, Sreyas Mohan, Mitesh M. Khapra
- TLDR: Wir schlagen CheckLists vor, um die Bewertung von automatischen Bewertungsmetriken für NLG zu verbessern.
- Robust Open-Vocabulary Translation from Visual Text Representations
- Elizabeth Salesky, David Etter, Matt Post
- TLDR: Wir schlagen visuelle Textrepräsentationen vor, die die Verzerrung von Texten reduzieren und gleichzeitig eine offene Sprache schaffen.
- Don’t Go Far Off: An Empirical Study on Neural Poetry Translation
- Tuhin Chakrabarty, Arkadiy Saakyan, Smaranda Muresan
- TLDR: Wir stellen eine empirische Untersuchung für die automatische poetische Übersetzung vor, die die Größe und die Typen von Texten (poetisch vs. nicht-poetic), einschließlich eines Zero-Shot-Setup, berücksichtigt.
- Improving Multilingual Translation by Representation and Gradient Regularization
- Yilin Yang, Akiko Eriguchi, Alexandre Muzio, Prasad Tadepalli, Stefan Lee, Hany Hassan
- TLDR: Wir schlagen einen gemeinsamen Ansatz vor, um die Off-Task-Transfer-Ereignissen und die Zero-Shot-Transfer-Leistung zu reduzieren.
- Learning Kernel-Smoothed Machine Translation with Retrieved Examples
- Qingnan Jiang, Mingxuan Wang, Jun Cao, Shanbo Cheng, Shujian Huang, Lei Li
- TLDR: Wir schlagen Kernel-Smoothed Translation mit Example Retrieval (KSTER) vor, einen effektiven Ansatz zur Anpassung neuronaler Übersetzungsmodelle an neue Probleme.
- Uncertainty-Aware Balancing for Multilingual and Multi-Domain Neural Machine Translation Training
- Minghao Wu, Yitong Li, Meng Zhang, Liangyou Li, Gholamreza Haffari, Qun Liu
- TLDR: Wir schlagen MultiUAT vor, eine dynamische und static Methode zur Anpassung von Datensätzen, die auf der Unsicherheit basieren, um das Multi-Domain-Modell für die maschinelle Übersetzung zu optimieren.
- Universal Simultaneous Machine Translation with Mixture-of-Experts Wait-k Policy
- Shaolei Zhang, Yang Feng
- TLDR: Wir schlagen ein universelles SiMT-Modell mit einer Mixture-of-Experts-Waiting-K Policy vor, um die beste Übersetzung mit beliebiger latenz zu erzielen.
- How much coffee was consumed during EMNLP 2019? Fermi Problems: A New Reasoning Challenge for AI
- Ashwin Kalyan, Abhinav Kumar, Arjun Chandrasekaran, Ashish Sabharwal, Peter Clark
- TLDR: Wir stellen eine neue Herausforderung vor, die die Beantwortung von Fermi-Problemen (FPs), die Antwort auf die Frage, wie viel ice in der Welt wachsen könnte, ermöglicht.
- Will this Question be Answered? Question Filtering via Answer Model Distillation for Efficient Question Answering
- Siddhant Garg, Alessandro Moschitti
- TLDR: Wir schlagen einen neuen Ansatz zur Verbesserung der Qualität von Fragen vor, indem wir Transformer-basierte Fragenmodelle verwenden.
- Learning with Instance Bundles for Reading Comprehension
- Dheeru Dua, Pradeep Dasigi, Sameer Singh, Matt Gardner
- TLDR: Wir stellen eine neue Methode zur Vergleichsverteilung von Fragen und Antworten vor, die die Interaktion von Fragen und Antworten ermöglicht.
- Explaining Answers with Entailment Trees
- Bhavana Dalvi, Peter Jansen, Oyvind Tafjord, Zhengnan Xie, Hannah Smith, Leighanna Pipatanangkura, Peter Clark
- TLDR: Wir stellen eine Methode vor, die die Entwirrungen von Texten in einer Textenvielfalt darstellt, und zeigen, dass sie die Erklärung von Fragen + Antworten verbessert.
- SituatedQA: Incorporating Extra-Linguistic Contexts into QA
- Michael Zhang, Eunsol Choi
- TLDR: Wir stellen SituatedQA vor, einen öffentlich zugänglichen QA-Benchmark für Fragen, die aus extra-linguistischen Kontexten beantwortet werden.
- ConvAbuse: Data, Analysis, and Benchmarks for Nuanced Abuse Detection in Conversational AI
- Amanda Cercas Curry, Gavin Abercrombie, Verena Rieser
- TLDR: Wir stellen eine erste English corpus study vor, die auf die erste Vergiftungsverteilung von ConvAI basiert und die erste Sprachausbreitung gegen drei Chat-Systeme enthält.
- Conversational Multi-Hop Reasoning with Neural Commonsense Knowledge and Symbolic Logic Rules
- Forough Arabshahi, Jennifer Lee, Antoine Bosselut, Yejin Choi, Tom Mitchell
- TLDR: Wir schlagen einen neuen und iterativen Wissensfragemechanismus vor, um die Suche nach Wissensverlusten bei menschlichen Benutzern zu reduzieren.
- Towards Automatic Evaluation of Dialog Systems: A Model-Free Off-Policy Evaluation Approach
- Haoming Jiang, Bo Dai, Mengjiao Yang, Tuo Zhao, Wei Wei
- TLDR: Wir schlagen eine neue Methode vor, die auf der Bewertung von Dialogsystemen basiert, die auf der Off-Policy-Evaluierung in Reinforcement Learning basiert.
- Continual Learning in Task-Oriented Dialogue Systems
- Andrea Madotto, Zhaojiang Lin, Zhenpeng Zhou, Seungwhan Moon, Paul Crook, Bing Liu, Zhou Yu, Eunjoon Cho, Pascale Fung, Zhiguang Wang
- TLDR: Wir schlagen einen neuen Benchmark für kontinuierliches Lernen vor, der die Leistung von Multitasking-Lernen und die Speichergröße und -zeit berücksichtigt.
- Multilingual and Cross-Lingual Intent Detection from Spoken Data
- Daniela Gerz, Pei-Hao Su, Razvan Kusztos, Avishek Mondal, Michał Lis, Eshan Singhal, Nikola Mrkšić, Tsung-Hsien Wen, Ivan Vulić
- TLDR: Wir stellen eine systematic study auf die Multi-Lingual und Cross-Lingual Intention Detection (ID) vor, die die Verwendung von Sprachdaten zur Identifikation von Zielen ermöglicht.
- Investigating Robustness of Dialog Models to Popular Figurative Language Constructs
- Harsh Jhamtani, Varun Gangal, Eduard Hovy, Taylor Berg-Kirkpatrick
- TLDR: Wir analysieren und schlagen Lösungen vor, um die Verwendung von Bildsprache in Dialogen zu verbessern.
- Effective Sequence-to-Sequence Dialogue State Tracking
- Jeffrey Zhao, Mahdis Mahdieh, Ye Zhang, Yuan Cao, Yonghui Wu
- TLDR: Wir zeigen, dass die Wahl eines Ziels für das State-Training für die Dialog-Status-Trainingsqualität entscheidend ist.
- MSˆ2: Multi-Document Summarization of Medical Studies
- Jay DeYoung, Iz Beltagy, Madeleine van Zuylen, Bailey Kuehl, Lucy Wang
- TLDR: Wir stellen MSˆ2 vor, einen Datensatz von über 470k Dokumenten und 20K Zusammenfassungen, der aus der medizinischen Literatur erstellt wurden.
- CLIPScore: A Reference-free Evaluation Metric for Image Captioning
- Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Le Bras, Yejin Choi
- TLDR: Wir stellen eine neue, auf reference-basiertem Wissen basierende Bildbeschriftungsmetrica vor, die die beste Abhängigkeit von Menschen übertrifft.
- On the Challenges of Evaluating Compositional Explanations in Multi-Hop Inference: Relevance, Completeness, and Expert Ratings
- Peter Jansen, Kelly J. Smith, Dan Moreno, Huitzilin Ortiz
- TLDR: Wir stellen fest, dass Experten-Erweiterungen die Qualität von Erklärungen verbessern, die von Experten-Erweiterungen generiert wurden.
- ESTER: A Machine Reading Comprehension Dataset for Reasoning about Event Semantic Relations
- Rujun Han, I-Hung Hsu, Jiao Sun, Julia Baylon, Qiang Ning, Dan Roth, Nanyun Peng
- TLDR: Wir stellen ESTER vor, einen umfassenden MRC-Datensätzen für die Erkennung und die Begründung semantischer Beziehungen.
- RICA: Evaluating Robust Inference Capabilities Based on Commonsense Axioms
- Pei Zhou, Rahul Khanna, Seyeon Lee, Bill Yuchen Lin, Daniel Ho, Jay Pujara, Xiang Ren
- TLDR: Wir schlagen eine neue Herausforderung vor, RICA: Robust Inference using Commonsense Axioms, die robuste, robuste und robuste Sprachmodelle über Textstörungen erzeugt.
- Compression, Transduction, and Creation: A Unified Framework for Evaluating Natural Language Generation
- Mingkai Deng, Bowen Tan, Zhengzhong Liu, Eric Xing, Zhiting Hu
- TLDR: Wir schlagen eine neue Metrik vor, die für die Bewertung von NLG-Aufgaben geeignet ist.
- MATE: Multi-view Attention for Table Transformer Efficiency
- Julian Eisenschlos, Maharshi Gor, Thomas Müller, William Cohen
- TLDR: Wir schlagen eine neue Architektur vor, die die Struktur von Web-Tablets modelliert und die Aufmerksamkeit von Benutzern nutzt.
- Learning with Different Amounts of Annotation: From Zero to Many Labels
- Shujian Zhang, Chengyue Gong, Eunsol Choi
- TLDR: Wir schlagen einen neuen Algorithmus vor, der aus einer Reihe von Beispielen lernt, ohne eine einzige Etikette zu verwenden.
- When Attention Meets Fast Recurrence: Training Language Models with Reduced Compute
- Tao Lei
- TLDR: Wir stellen SRU++ vor, eine Architektur, die fast Recurrence und Aufmerksamkeit für die Sequenzmodellierung kombiniert.
- Universal-KD: Attention-based Output-Grounded Intermediate Layer Knowledge Distillation
- Yimeng Wu, Mehdi Rezagholizadeh, Abbas Ghaddar, Md Akmal Haidar, Ali Ghodsi
- TLDR: Wir schlagen Universal-KD vor, um die Intermediate Schichten von Lehrern und Schülern in den Quellraum zu matchen.
- Highly Parallel Autoregressive Entity Linking with Discriminative Correction
- Nicola De Cao, Wilker Aziz, Ivan Titov
- TLDR: Wir schlagen einen neuen generativen Algorithmus vor, der autoregressive Linking über alle Potentialen Beschriftungen parallelisiert und gleichzeitig eine diskriminierende Komponente verwendet.
- Word-Level Coreference Resolution
- Vladimir Dobrovolskii
- TLDR: Wir stellen eine neue Methode vor, um Coreference-Netzwerke zwischen Wortspannen zu finden.
- A Secure and Efficient Federated Learning Framework for NLP
- Chenghong Wang, Jieren Deng, Xianrui Meng, Yijue Wang, Ji Li, Sheng Lin, Shuo Han, Fei Miao, Sanguthevar Rajasekaran, Caiwen Ding
- TLDR: Wir schlagen ein neues Framework vor, das die Verwendung von vertrauenswürdigen Akteuren eliminiert und gleichzeitig eine bessere Modellgenauigkeit und Resistance auf Kundenrückgängigkeiten erbringt.
- Controllable Semantic Parsing via Retrieval Augmentation
- Panupong Pasupat, Yuan Zhang, Kelvin Guu
- TLDR: Wir schlagen einen Controllerable Semantic Parser via Exemplar Retrieval vor, der die Eingabe eines Quelltexts in eine neue Domänenanpassung oder einen neuen Satz anpasst.
- Constrained Language Models Yield Few-Shot Semantic Parsers
- Richard Shin, Christopher Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Pauls, Dan Klein, Jason Eisner, Benjamin Van Durme
- TLDR: Wir verwenden Sprachmodelle, um Paraphrase Eingaben in eine kontrollierte Sprachrepräsentation zu extrahieren, die automatisch zu einer Zielsprache mit einer Struktur der Bedeutungsrepräsentation abgeleitet werden kann.
- ExplaGraphs: An Explanation Graph Generation Task for Structured Commonsense Reasoning
- Swarnadeep Saha, Prateek Yadav, Lisa Bauer, Mohit Bansal
- TLDR: Wir stellen ExplaGraphs vor, eine neue generative und strukturierte Aufgabe zur Erklärung von Vorhersagen und zur Begründung von Gegenbeispielen.
- Connect-the-Dots: Bridging Semantics between Words and Definitions via Aligning Word Sense Inventories
- Wenlin Yao, Xiaoman Pan, Lifeng Jin, Jianshu Chen, Dian Yu, Dong Yu
- TLDR: Wir schlagen einen Algorithmus zur Abgleichung von Wörtern vor, der die Bedeutung von Wörtern aus mehreren Wörtern kennt.
- LM-Critic: Language Models for Unsupervised Grammatical Error Correction
- Michihiro Yasunaga, Jure Leskovec, Percy Liang
- TLDR: Wir verwenden eine LM-Critic und BIFI, um eine große Menge von unbeschrifteten Sätzen für das Training eines korrigierendens Modells zu bootstrapieren.
- Language-agnostic Representation from Multilingual Sentence Encoders for Cross-lingual Similarity Estimation
- Nattapong Tiyajamorn, Tomoyuki Kajiwara, Yuki Arase, Makoto Onizuka
- TLDR: Wir schlagen eine Methode vor, die eine sprachenbedingte Bedeutungsbeschriftung aus einem Multi-Lingual-Szenario entfernt.
- Classifying Dyads for Militarized Conflict Analysis
- Niklas Stoehr, Lucas Torroba Hennigen, Samin Ahbab, Robert West, Ryan Cotterell
- TLDR: Wir stellen eine Aufgabe vor, die die Entitäten in einem Wikipedia-Artikel zusammenfassen, und stellen fest, dass die Merkmale von Entitäten, die sich in einem Wikipedia-Artikel verallgemeinert, sich wie Enemies und Allies verallgemeinert.
- Point-of-Interest Type Prediction using Text and Images
- Danae Sánchez Villegas, Nikolaos Aletras
- TLDR: Wir stellen eine empirische Studie zur POI-Typenvorhersage vor, die die Vielfalt der Text- und Bild-Modulitäten erfasst und die Interaktionen zwischen Text und Bild erfasst.
- Come hither or go away? Recognising pre-electoral coalition signals in the news
- Ines Rehbein, Simone Paolo Ponzetto, Anna Adendorf, Oke Bahnsen, Lukas Stoetzer, Heiner Stuckenschmidt
- TLDR: Wir stellen eine Aufgabe vor, die die Signale von Parteien aus Texten vorhersagt, und verwenden sie zur Vorhersage von möglichen Koalitionen.
- #HowYouTagTweets: Learning User Hashtagging Preferences via Personalized Topic Attention
- Yuji Zhang, Yubo Zhang, Chunpu Xu, Jing Li, Ziyan Jiang, Baolin Peng
- TLDR: Wir schlagen einen neuen Algorithmus vor, um Hashtags zu verwenden, um die Aufmerksamkeit von Nutzern auf die Themen zu steuern.
- Learning Neural Templates for Recommender Dialogue System
- Zujie Liang, Huang Hu, Can Xu, Jian Miao, Yingying He, Yining Chen, Xiubo Geng, Fan Liang, Daxin Jiang
- TLDR: Wir stellen ein neues Framework vor, das die Dialoggenerierung von Empfehlungstexten aus der Empfehlung eines Benutzers ermöglicht.
- Proxy Indicators for the Quality of Open-domain Dialogues
- Rostislav Nedelchev, Jens Lehmann, Ricardo Usbeck
- TLDR: Wir verwenden ein Deep Learning-Modell, das auf GLUE trainiert wurde, um als Qualitätsbeweis für offene Domänenkorrespondenz zu dienen.
- Q^{2}: Evaluating Factual Consistency in Knowledge-Grounded Dialogues via Question Generation and Question Answering
- Or Honovich, Leshem Choshen, Roee Aharoni, Ella Neeman, Idan Szpektor, Omri Abend
- TLDR: Wir schlagen eine automatische Bewertungsmetrik für die FALTH-Strukturierung in Wissensgepräsentationen vor.
- Knowledge-Aware Graph-Enhanced GPT-2 for Dialogue State Tracking
- Weizhe Lin, Bo-Hsiang Tseng, Bill Byrne
- TLDR: Wir stellen eine hybride Architektur vor, die GPT-2 mit Graphen Attention Networks kombiniert, um eine kontinuierliche State-Tracking-Leistung zu erzielen.
- A Collaborative Multi-agent Reinforcement Learning Framework for Dialog Action Decomposition
- Huimin Wang, Kam-Fai Wong
- TLDR: Wir stellen ein neues Multi-Agenten-Rahmen vor, das die Handlungen von mehreren Agenten in einer Aktion kodiert.
- Zero-Shot Dialogue State Tracking via Cross-Task Transfer
- Zhaojiang Lin, Bing Liu, Andrea Madotto, Seungwhan Moon, Zhenpeng Zhou, Paul Crook, Zhiguang Wang, Zhou Yu, Eunjoon Cho, Rajen Subba, Pascale Fung
- TLDR: Wir schlagen TransferQA vor, ein Transferable Generative QA Modell, das seamlessly combines extractive QA und Multi-Choice QA, und trackt sowohl categorical als auch nicht-categorical slots in DST.
- Uncertainty Measures in Neural Belief Tracking and the Effects on Dialogue Policy Performance
- Carel van Niekerk, Andrey Malinin, Christian Geishauser, Michael Heck, Hsien-chin Lin, Nurul Lubis, Shutong Feng, Milica Gasic
- TLDR: Wir schlagen eine neue Methode zur Bewältigung von Unsicherheiten vor, die die Implementierung von Dialog-Bewährungsmaßnahmen verbessert.
- Dynamic Forecasting of Conversation Derailment
- Yova Kementchedjhieva, Anders Søgaard
- TLDR: Wir stellen eine Aufgabe vor, die auf static Training basiert und die Vorhersage von Verwundbarkeiten in öffentlichen Online-Gesprächungen ermöglicht.
- A Semantic Filter Based on Relations for Knowledge Graph Completion
- Zongwei Liang, Junan Yang, Hui Liu, Keju Huang
- TLDR: Wir verwenden einen semantisch Filter, um die rationalität von Beziehungen zu untersuchen.
- AdapterDrop: On the Efficiency of Adapters in Transformers
- Andreas Rücklé, Gregor Geigle, Max Glockner, Tilman Beck, Jonas Pfeiffer, Nils Reimers, Iryna Gurevych
- TLDR: Wir schlagen AdapterDrop vor, eine Erweiterung von AdapterFusion auf adaptive Modelle, die die Leistung bei mehreren Aufgaben gleichzeitig reduziert.
- Understanding and Overcoming the Challenges of Efficient Transformer Quantization
- Yelysei Bondarenko, Markus Nagel, Tijmen Blankevoort
- TLDR: Wir stellen eine neue Methode zur Quantisierung von Gewichten und Einbettungen vor, die auf post-training-Methoden und quantisierungsbewusstem Training basiert.
- CAPE: Context-Aware Private Embeddings for Private Language Learning
- Richard Plant, Dimitra Gkatzia, Valerio Giuffrida
- TLDR: Wir schlagen Context-Aware Private Embeddings (CAPE) vor, eine neuartige Kombination aus differential privacy und adversarial learning, um die Privatsphäre von Textrepräsentationen zu schützen.
- Text Detoxification using Large Pre-trained Neural Models
- David Dale, Anton Voronov, Daryna Dementieva, Varvara Logacheva, Olga Kozlova, Nikita Semenov, Alexander Panchenko
- TLDR: Wir stellen zwei neue Methoden zur Erleichterung der Entflechtung von Text vor, die von style-conditional Sprachmodellen trainiert wurden.
- Document-Level Text Simplification: Dataset, Criteria and Baseline
- Renliang Sun, Hanqi Jin, Xiaojun Wan
- TLDR: Wir schlagen eine neue Aufgabe auf Dokumentebene vor, die die Texterweiterung auf Dokumentebene ermöglicht.
- A Bag of Tricks for Dialogue Summarization
- Muhammad Khalifa, Miguel Ballesteros, Kathleen McKeown
- TLDR: Wir schlagen eine Methode vor, die die Aufgabe der Zusammenfassung von Texten verbessert und gleichzeitig die Leistung bei der Erstellung von Dokumenten verbessert.
- Paraphrasing Compound Nominalizations
- John Lee, Ho Hung Lim, Carol Webster
- TLDR: Wir verwenden kontextualisiertes sprachliches Modell, um nominalisierungen mit rekurrenten Paraphrasen zu interpretieren.
- Data-QuestEval: A Referenceless Metric for Data-to-Text Semantic Evaluation
- Clement Rebuffel, Thomas Scialom, Laure Soulier, Benjamin Piwowarski, Sylvain Lamprier, Jacopo Staiano, Geoffrey Scoutheeten, Patrick Gallinari
- TLDR: Wir schlagen eine Methode vor, die synthetische Multimodal Corpora für eine Daten-QuestEval-Methode entwickelt.
- Low-Rank Subspaces for Unsupervised Entity Linking
- Akhil Arora, Alberto Garcia-Duran, Robert West
- TLDR: Wir schlagen Eigenthemes vor, eine leichtgewichtige und skalierbare Entitätsverschiebungsmethode, die auf der Erkennung von Entitäten und deren Verwendung für die Entitätsverschiebung basiert.
- TDEER: An Efficient Translating Decoding Schema for Joint Extraction of Entities and Relations
- Xianming Li, Xiaotian Luo, Chenghao Dong, Daichuan Yang, Beidi Luan, Zhen He
- TLDR: Wir schlagen ein effizientes Entitäten- und Beziehungsextraktionsmodell vor, das auf die Übertragung von Entitäten und Beziehungen von Texten hinweist.
- Extracting Event Temporal Relations via Hyperbolic Geometry
- Xingwei Tan, Gabriele Pergola, Yulan He
- TLDR: Wir stellen hyperbolische Einbettungen vor, die sich auf die Erfassung von Zeitabfolgen übertragen lassen.
- Honey or Poison? Solving the Trigger Curse in Few-shot Event Detection via Causal Intervention
- Jiawei Chen, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: Wir lösen das Phänomen des Phänomens des Phänomens des Phänomens des Phänomens des Phänomens des Phänomens des Phänomens des Phänomens des Phänomens des Phänomens.
- Back to the Basics: A Quantitative Analysis of Statistical and Graph-Based Term Weighting Schemes for Keyword Extraction
- Asahi Ushio, Federico Liberatore, Jose Camacho-Collados
- TLDR: Wir vergleichen statistische und graphische Begriffsgewichtsmethoden und stellen eine empirische Vergleichsstudie vor, die die lexikalischen Eigenschaften von tf-Idf und der lexikalischen Spezifikation von tf-Idf nutzt.
- Time-dependent Entity Embedding is not All You Need: A Re-evaluation of Temporal Knowledge Graph Completion Models under a Unified Framework
- Zhen Han, Gengyuan Zhang, Yunpu Ma, Volker Tresp
- TLDR: Wir analysieren und quantifizieren die Leistung von zeitlichen Einbettungen und bewerten ihre Leistung bei einer Vielzahl von Szenarien.
- Matching-oriented Embedding Quantization For Ad-hoc Retrieval
- Shitao Xiao, Zheng Liu, Yingxia Shao, Defu Lian, Xing Xie
- TLDR: Wir schlagen eine neue Methode zur Quantisierung vor, die Multinoulli-Contrast-Loss (MCL) verwendet.
- Efficient Mind-Map Generation via Sequence-to-Graph and Reinforced Graph Refinement
- Mengting Hu, Honglei Guo, Shiwan Zhao, Hang Gao, Zhong Su
- TLDR: Wir schlagen eine neue Methode zur Generierung von Mind-Mappings vor, die die Beziehungen von Sätzen in einem Graphen ersetzt.
- Deep Attention Diffusion Graph Neural Networks for Text Classification
- Yonghao Liu, Renchu Guan, Fausto Giunchiglia, Yanchun Liang, Xiaoyue Feng
- TLDR: Wir schlagen ein Deep Attention Diffusion Graphen Neural Network (DADGNN) vor, um Textrepräsentationen zu lernen, die die Aufmerksamkeit von Worten und Nachbarn brechen.
- Balancing Methods for Multi-label Text Classification with Long-Tailed Class Distribution
- Yi Huang, Buse Giledereli, Abdullatif Köksal, Arzucan Özgür, Elif Ozkirimli
- TLDR: Wir stellen eine Verteilungsbalanced Loss-Funktion vor, die sowohl die Klassifizierung als auch die Label-Verbindungen berücksichtigt.
- Bayesian Topic Regression for Causal Inference
- Maximilian Ahrens, Julian Ashwin, Jan-Peter Calliess, Vu Nguyen
- TLDR: Wir stellen ein Bayes’sches Themenmodell vor, das sowohl Text als auch numerische Informationen verwendet, um eine Zielvariable zu modellieren.
- Enjoy the Salience: Towards Better Transformer-based Faithful Explanations with Word Salience
- George Chrysostomou, Nikolaos Aletras
- TLDR: Wir stellen fest, dass die salienten Informationen aus den Trainingsdaten die Erklärungen von BERT ergänzen.
- What’s in Your Head? Emergent Behaviour in Multi-Task Transformer Models
- Mor Geva, Uri Katz, Aviv Ben-Arie, Jonathan Berant
- TLDR: Wir zeigen, dass nicht-target-Heads emergent sind, und zwar in Bezug auf die Aufgabe, die sie erlernen.
- Don’t Search for a Search Method — Simple Heuristics Suffice for Adversarial Text Attacks
- Nathaniel Berger, Stefan Riezler, Sebastian Ebert, Artem Sokolov
- TLDR: Wir stellen einen Algorithmus vor, der auf Optimierungsaufgaben inspiriert ist und die Ergebnisse von TextAttack und Black-Box-Benchmark-Benchmarks übertrifft.
- Adversarial Attacks on Knowledge Graph Embeddings via Instance Attribution Methods
- Peru Bhardwaj, John Kelleher, Luca Costabello, Declan O’Sullivan
- TLDR: Wir schlagen eine heuristische Methode vor, um die Instanzen der Einflussfaktoren zu identifizieren, die die Testinstanzen bestimmen.
- Locke’s Holiday: Belief Bias in Machine Reading
- Anders Søgaard
- TLDR: Wir zeigen, dass die meisten maschinellen Lesesysteme nicht mit den meisten Menschen in Bezug auf die Einhaltung von Richtlinien alignieren.
- Sequence Length is a Domain: Length-based Overfitting in Transformer Models
- Dusan Varis, Ondřej Bojar
- TLDR: Wir zeigen, dass die Leistung von neuronalen Netzen bei der Texterzeugung und bei der Übersetzungsaufgabe erheblich schwächt.
- Contrasting Human- and Machine-Generated Word-Level Adversarial Examples for Text Classification
- Maximilian Mozes, Max Bartolo, Pontus Stenetorp, Bennett Kleinberg, Lewis Griffin
- TLDR: Wir analysieren, wie menschliche Beispiele die Semantik- und Grammatikverbesserungsgenauigkeit von TextFooler, Genetic, BAE und SememePSO übertreffen.
- Is Information Density Uniform in Task-Oriented Dialogues?
- Mario Giulianelli, Arabella Sinclair, Raquel Fernández
- TLDR: Wir zeigen, dass das Prinzip der optimalen Informationdynamik in Aufgaben- und Sprachgedächtnisbeobachtungen für die Informationdynamik sorgt.
- On Homophony and Rényi Entropy
- Tiago Pimentel, Clara Meister, Simone Teufel, Ryan Cotterell
- TLDR: Wir schlagen eine neue Informationtheorie vor, die die Homophony in natürlichen Sprachen quantifiziert.
- Synthetic Textual Features for the Large-Scale Detection of Basic-level Categories in English and Mandarin
- Yiwen Chen, Simone Teufel
- TLDR: Wir stellen eine Methode vor, die auf der Erkennung von BLC-merkmalen in Wordnet basiert und die Ergebnisse bei der Spracherkennung übertrifft.
- TimeTraveler: Reinforcement Learning for Temporal Knowledge Graph Forecasting
- Haohai Sun, Jialun Zhong, Yunpu Ma, Zhen Han, Kun He
- TLDR: Wir schlagen eine neue Methode zur Vorhersage von Zeitspangen vor, die die Zeitspanne der Zeit in einem rekurrenten Wissensgraphen erfasst.
- Code-switched inspired losses for spoken dialog representations
- Pierre Colombo, Emile Chapuis, Matthieu Labeau, Chloé Clavel
- TLDR: Wir stellen eine neue Aufgabe vor, die die Sprache als Ziel hat und die Fähigkeiten von Dialogsystemen, die mehrere Sprachen und Multilingualitäten verwenden, um die Kommunikation zu verbessern.
- BiQUE: Biquaternionic Embeddings of Knowledge Graphs
- Jia Guo, Stanley Kok
- TLDR: Wir schlagen BiQUE vor, ein neuartiges modell, das die Multi-Relational Knowledge Graphen vollständig erfasst.
- Learning Neural Ordinary Equations for Forecasting Future Links on Temporal Knowledge Graphs
- Zhen Han, Zifeng Ding, Yunpu Ma, Yujia Gu, Volker Tresp
- TLDR: Wir schlagen ein neues, neuronales, dynamisches Graphenmodell vor, das die Zeit in dynamischen Graphen verzweigt.
- RAP: Robustness-Aware Perturbations for Defending against Backdoor Attacks on NLP Models
- Wenkai Yang, Yankai Lin, Peng Li, Jie Zhou, Xu Sun
- TLDR: Wir schlagen eine robustness-bewusste Störungen-basierte Verteidigungsmethode vor, die die Vergiftungserzeugung und die Entflechtungserkennung effektiver schützt.
- FAME: Feature-Based Adversarial Meta-Embeddings for Robust Input Representations
- Lukas Lange, Heike Adel, Jannik Strötgen, Dietrich Klakow
- TLDR: Wir schlagen eine Aufmerksamkeitsmethodikte vor, die auf Merkmale basiert und die Aufgabe der Aufgabe der Aufgabe der Aufgabe der Aufgabe der Aufgabe der Aufgabe der Aufgabe der Aufgabe der Aufgabe erfasst.
- A Strong Baseline for Query Efficient Attacks in a Black Box Setting
- Rishabh Maheshwary, Saket Maheshwary, Vikram Pudi
- TLDR: Wir schlagen eine query efficient attack strategy vor, um plausible Beispiele für die Textklassifikation und Entailment zu generieren.
- Machine Translation Decoding beyond Beam Search
- Rémi Leblond, Jean-Baptiste Alayrac, Laurent Sifre, Miruna Pislar, Lespiau Jean-Baptiste, Ioannis Antonoglou, Karen Simonyan, Oriol Vinyals
- TLDR: Wir stellen eine Monte-Carlo Tree Search (MCTS) auf die Suche nach Sprachmodellen vor und zeigen, dass MCTS eine gute Leistung bei der Dekodierzeit erbringt.
- Document Graph for Neural Machine Translation
- Mingzhou Xu, Liangyou Li, Derek F. Wong, Qun Liu, Lidia S. Chao
- TLDR: Wir stellen fest, dass die Dokumentgraphen für die Erfassung von Sprachstilen nützlich sind.
- An Empirical Investigation of Word Alignment Supervision for Zero-Shot Multilingual Neural Machine Translation
- Alessandro Raganato, Raúl Vázquez, Mathias Creutz, Jörg Tiedemann
- TLDR: Wir untersuchen die Vorteile einer expliziten Anpassung von Worten und Phrasen in Transformer-basierten MNMTs für die Zero-Shot-Transferation und zeigen, dass die Anpassung von Worten und Phrasen die Biasen bei der Übersetzung reduzieren.
- Graph Algorithms for Multiparallel Word Alignment
- Ayyoob ImaniGooghari, Masoud Jalili Sabet, Lutfi Kerem Senel, Philipp Dufter, François Yvon, Hinrich Schütze
- TLDR: Wir nutzen die Multiparalleliität von Korpora, um die Verzerrung von Wörtern in Texten zu erklären.
- Improving the Quality Trade-Off for Neural Machine Translation Multi-Domain Adaptation
- Eva Hasler, Tobias Domhan, Jonay Trenous, Ke Tran, Bill Byrne, Felix Hieber
- TLDR: Wir stellen Elastic Weight Consolidation vor, eine effiziente Methode zur Optimierung neuronaler Übersetzungssysteme für mehrere Zielgebiete.
- Language Modeling, Lexical Translation, Reordering: The Training Process of NMT through the Lens of Classical SMT
- Elena Voita, Rico Sennrich, Ivan Titov
- TLDR: Wir zeigen, dass die neuronale Übersetzungstechniken von Sprachmodellen, die auf Ziel- und Ziel-zusammenfassungen trainiert wurden, die Übersetzungsqualität verbessern.
- Effective Fine-Tuning Methods for Cross-lingual Adaptation
- Tao Yu, Shafiq Joty
- TLDR: Wir schlagen eine neuartige Fine-Tuning-Methode vor, die darauf abzielt, die Generalisierung von Semantik-Eigenschaften in Sprachmodellen zu verbessern.
- Rethinking Data Augmentation for Low-Resource Neural Machine Translation: A Multi-Task Learning Approach
- Víctor M. Sánchez-Cartagena, Miquel Esplà-Gomis, Juan Antonio Pérez-Ortiz, Felipe Sánchez-Martínez
- TLDR: Wir schlagen einen Multi-Task-Ansatz vor, der die Unterstützung für die empirische Datenverteilung erweitert.
- Wino-X: Multilingual Winograd Schemas for Commonsense Reasoning and Coreference Resolution
- Denis Emelin, Rico Sennrich
- TLDR: Wir stellen Wino-X vor, einen parallelen Datensatz von German, French, und Russian schemas, aligned mit ihren English counterparts. Wir verwenden dieses Datenset, um zu untersuchen, ob neuronale Sprachmodelle CoR und/oder commonsense reasoning (CSR) können.
- One Source, Two Targets: Challenges and Rewards of Dual Decoding
- Jitao Xu, François Yvon
- TLDR: Wir stellen eine Analyse von möglichen Implementierungen von dualen Übersetzungen vor und experimentieren mit vier Anwendungsfällen.
- Discrete and Soft Prompting for Multilingual Models
- Mengjie Zhao, Hinrich Schütze
- TLDR: Wir zeigen, dass diskrete und softe PPOs besser als Finetuning sind, wenn sie auf Multilingual Transfer und in-language Training von Multilingual natural language Inferenz trainiert werden.
- Vision Matters When It Should: Sanity Checking Multimodal Machine Translation Models
- Jiaoda Li, Duygu Ataman, Rico Sennrich
- TLDR: Wir stellen eine qualitative Studie vor, die die Bedeutung visueller Signale in den Datensätzen untersucht und die Auswirkungen auf die Reliance von MMT auf die Bildquelle aufzeigt.
- Efficient Inference for Multilingual Neural Machine Translation
- Alexandre Berard, Dain Lee, Stephane Clinchant, Kweonwoo Jung, Vassilina Nikoulina
- TLDR: Wir zeigen, dass eine tiefe Dekodierarchitektur mit Wortfiltering eine fast doppelte Inferenz ermöglicht.
- Role of Language Relatedness in Multilingual Fine-tuning of Language Models: A Case Study in Indo-Aryan Languages
- Tejas Dhamecha, Rudra Murthy, Samarth Bharadwaj, Karthik Sankaranarayanan, Pushpak Bhattacharyya
- TLDR: Wir stellen eine erste empirische Studie vor, die die Beziehungen von Sprachen, die zu einer Familie von Sprachfamilien gehören, in NLP-Modelle mit mehreren Sprachfamilien berücksichtigt.
- Comparing Feature-Engineering and Feature-Learning Approaches for Multilingual Translationese Classification
- Daria Pylypenko, Kwabena Amponsah-Kaakyire, Koel Dutta Chowdhury, Josef van Genabith, Cristina España-Bonet
- TLDR: Wir vergleichen neuronale und klassische Spracharchitekturen und analysieren ihre Leistung bei der Übersetzungssprache.
- Multi-Sentence Resampling: A Simple Approach to Alleviate Dataset Length Bias and Beam-Search Degradation
- Ivan Provilkov, Andrey Malinin
- TLDR: Wir analysieren Fehler, die die Qualitätsverschlechterung mit großen Beamen mit tiefen Beschriftungen verstärken.
- Cross-Policy Compliance Detection via Question Answering
- Marzieh Saeidi, Majid Yazdani, Andreas Vlachos
- TLDR: Wir schlagen eine Methode vor, die die Policy-Compliance-Detection durch Frage-Antwort-Dekomposition ermöglicht.
- Meta-LMTC: Meta-Learning for Large-Scale Multi-Label Text Classification
- Ran Wang, Xi’ao Su, Siyu Long, Xinyu Dai, Shujian Huang, Jiajun Chen
- TLDR: Wir schlagen einen Meta-Lernen vor, der die Aufgabe der Multi-Label-Klassifikation auf der Grundlage von sorgfältigen Sampling-Strategien und einer neuen Low-Resource-Aufgabe angeht.
- Unsupervised Multi-View Post-OCR Error Correction With Language Models
- Harsh Gupta, Luciano Del Corro, Samuel Broscheit, Johannes Hoffart, Eliot Brenner
- TLDR: Wir analysieren, ob ein pretrained Language-Modell (LM) verwendet werden kann, um die Fehlerkorrektion bei einer Dokumentenverschiebung zu verbessern.
- Parallel Refinements for Lexically Constrained Text Generation with BART
- Xingwei He
- TLDR: Wir schlagen Constrained BART (CBART) vor, eine lexikalisch begrenzte Texterzeugung, die die Sprachqualität verbessert.
- BERT-Beta: A Proactive Probabilistic Approach to Text Moderation
- Fei Tan, Yifan Hu, Kevin Yen, Changwei Hu
- TLDR: Wir schlagen eine neue Text-Toxizitätspropagation vor, die die Texterzeugung in einem linearen Modell charakterisiert.
- STaCK: Sentence Ordering with Temporal Commonsense Knowledge
- Deepanway Ghosal, Navonil Majumder, Rada Mihalcea, Soujanya Poria
- TLDR: Wir stellen eine Methode vor, die auf graphischen Netzen und temporalem commonsense Wissen basiert, um die Ordnung von Sätzen zu ermitteln.
- Preventing Author Profiling through Zero-Shot Multilingual Back-Translation
- David Adelani, Miaoran Zhang, Xiaoyu Shen, Ali Davody, Thomas Kleinbauer, Dietrich Klakow
- TLDR: Wir schlagen eine einfache, zero-shot Methode vor, um das Risiko von Autorenprofiling durch Multilingual Back-Translation mit einem Modell zu reduzieren.
- CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code Understanding and Generation
- Yue Wang, Weishi Wang, Shafiq Joty, Steven C.H. Hoi
- TLDR: Wir stellen CodeT5 vor, ein unified Pre-Trained Encoder-Decoder Transformer Modell, das die Code-Semantik besser nutzt und gleichzeitig die NL-PL-Annäherung verbessert.
- Detect and Classify – Joint Span Detection and Classification for Health Outcomes
- Micheal Abaho, Danushka Bollegala, Paula Williamson, Susanna Dodd
- TLDR: Wir schlagen eine Methode vor, die sowohl Wort- und Satzebene als auch die Inhaltsbeschriftung nutzt, um die Erkennung von Gesundheitsaussichten aus Text zu ermitteln.
- Multi-Class Grammatical Error Detection for Correction: A Tale of Two Systems
- Zheng Yuan, Shiva Taslimipoor, Christopher Davis, Christopher Bryant
- TLDR: Wir stellen eine neue Methode zur Grammatikerklärung vor, die auf der ELECTRA basiert und die Ergebnisse bei der Beantwortung von Fehlern in mehreren Klassen verbessert.
- Towards Zero-shot Commonsense Reasoning with Self-supervised Refinement of Language Models
- Tassilo Klein, Moin Nabi
- TLDR: Wir schlagen einen neuen Ansatz vor, der das Zero-Shot-Few-Shot-Gedächtnis für die Winograd Schema Challenge nutzt.
- To Share or not to Share: Predicting Sets of Sources for Model Transfer Learning
- Lukas Lange, Jannik Strötgen, Heike Adel, Dietrich Klakow
- TLDR: Wir schlagen einen Algorithmus vor, um automatisch zu entscheiden, welche und wie viele Quellen für die Erkennung von Neuzugänge genutzt werden sollten.
- Self-Supervised Detection of Contextual Synonyms in a Multi-Class Setting: Phenotype Annotation Use Case
- Jingqing Zhang, Luis Bolanos Trujillo, Tong Li, Ashwani Tanwar, Guilherme Freire, Xian Yang, Julia Ive, Vibhor Gupta, Yike Guo
- TLDR: Wir schlagen einen selbstüberwachten Vortrainingsalgorithmus vor, der kontextualisierte Worteinbettungen erkennt und die Klassifizierung von Konzepten aus ICU-Benchmarks ermöglicht.
- ClauseRec: A Clause Recommendation Framework for AI-aided Contract Authoring
- Vinay Aggarwal, Aparna Garimella, Balaji Vasan Srinivasan, Anandhavelu N, Rajiv Jain
- TLDR: Wir stellen eine Aufgabe vor, die die Empfehlung von Konditionen für bestimmte Verträge ermöglicht.
- Finnish Dialect Identification: The Effect of Audio and Text
- Mika Hämäläinen, Khalid Alnajjar, Niko Partanen, Jack Rueter
- TLDR: Wir stellen einen Ansatz vor, um automatisch den Sprachstil eines Sprechers zu ermitteln, indem wir eine Sprachausgabe und eine Audioausgabe in einem Datensatz mit 23 verschiedenen Sprachen verwenden.
- English Machine Reading Comprehension Datasets: A Survey
- Daria Dzendzik, Jennifer Foster, Carl Vogel
- TLDR: Wir stellen 60 English Machine Reading Comprehension-Datensätzen vor und stellen fest, dass Wikipedia der beliebteste Datensatz ist.
- Expanding End-to-End Question Answering on Differentiable Knowledge Graphs with Intersection
- Priyanka Sen, Armin Oliya, Amir Saffari
- TLDR: Wir schlagen ein neues Intersection-Framework vor, das die Interaktion zwischen mehreren Entitäten erfasst.
- Structured Context and High-Coverage Grammar for Conversational Question Answering over Knowledge Graphs
- Pierre Marion, Pawel Nowak, Francesco Piccinno
- TLDR: Wir stellen eine neue Logical Form (LF) Grammatik vor, die eine breite Vielfalt von Fragen auf einem Knowledge Graphen modelliert und gleichzeitig die Erfassung von Wikidaten ermöglicht.
- Improving Question Answering Model Robustness with Synthetic Adversarial Data Generation
- Max Bartolo, Tristan Thrush, Robin Jia, Sebastian Riedel, Pontus Stenetorp, Douwe Kiela
- TLDR: Wir verwenden synthetische adversarische Daten zur Datenerzeugung, um die Robustheit von Modellen gegenüber Menschen zu verbessern.
- BeliefBank: Adding Memory to a Pre-Trained Language Model for a Systematic Notion of Belief
- Nora Kassner, Oyvind Tafjord, Hinrich Schütze, Peter Clark
- TLDR: Wir stellen fest, dass die Beobachtungen eines PTLM-Modells, die in einem Speicher von Bewäsichtigungsverzerrungen enthalten, die in der Welt bekannt sind, in der es verwendet wird, einen Rahmen für die Überwachung und die Verbesserung der Bewährungskonsistenz darstellen.
- MLEC-QA: A Chinese Multi-Choice Biomedical Question Answering Dataset
- Jing Li, Shangping Zhong, Kaizhi Chen
- TLDR: Wir stellen MLEC-QA vor, einen großen Datensatz mit 136,236 biomedizinischen Multi-Choice-Fragen mit extra Materialien (Bilder oder Tables) und einen neuen, aufgabenbasierten Test vor.
- IndoNLG: Benchmark and Resources for Evaluating Indonesian Natural Language Generation
- Samuel Cahyawijaya, Genta Indra Winata, Bryan Wilie, Karissa Vincentio, Xiaohong Li, Adhiguna Kuncoro, Sebastian Ruder, Zhi Yuan Lim, Syafri Bahar, Masayu Khodra, Ayu Purwarianti, Pascale Fung
- TLDR: Wir stellen IndoNLG vor, einen benchmark zur Sprachgenerierung in drei low-resource -yet widely spoken - Sprachen von Indonesia: Indonesian, Javanese, und Sundanese.
- Is Multi-Hop Reasoning Really Explainable? Towards Benchmarking Reasoning Interpretability
- Xin Lv, Yixin Cao, Lei Hou, Juanzi Li, Zhiyuan Liu, Yichi Zhang, Zelin Dai
- TLDR: Wir schlagen einen Rahmen vor, um die Interpretierbarkeit von Multi-Hop-Schätzern zu bewerten und zu verbessern.
- Global Explainability of BERT-Based Evaluation Metrics by Disentangling along Linguistic Factors
- Marvin Kaster, Wei Zhao, Steffen Eger
- TLDR: Wir verwenden eine regressionsbasierte globale Erklärungstechnik, um die Bewertungsmetriken auf sprachlichen Merkmalen zu untersuchen.
- Exploring Underexplored Limitations of Cross-Domain Text-to-SQL Generalization
- Yujian Gan, Xinyun Chen, Matthew Purver
- TLDR: Wir stellen Spider-DK vor, einen Datensatz, der auf Spider-Benchmark für Text-to-SQL-Übersetzungen basiert.
- What happens if you treat ordinal ratings as interval data? Human evaluations in NLP are even more under-powered than you think
- David M. Howcroft, Verena Rieser
- TLDR: Wir stellen fest, dass die menschlichen Bewertungen in NLP oft unter-powered sind.
- NeuTral Rewriter: A Rule-Based and Neural Approach to Automatic Rewriting into Gender Neutral Alternatives
- Eva Vanmassenhove, Chris Emmery, Dimitar Shterionov
- TLDR: Wir stellen einen rule-basierten und einen neuronalen Ansatz zur gender-neutralen Übersetzung vor, der auf synthetischen und natürlichen Daten und Tests mit geringen Wortfehlerraten gut abschneidet.
- Benchmarking Commonsense Knowledge Base Population with an Effective Evaluation Dataset
- Tianqing Fang, Weiqi Wang, Sehyun Choi, Shibo Hao, Hongming Zhang, Yangqiu Song, Bin He
- TLDR: Wir stellen eine neue Aufgabe vor, die die Generalisierung von Wissensdaten über graphen ermöglicht.
- Enhancing the Context Representation in Similarity-based Word Sense Disambiguation
- Ming Wang, Jianzhang Zhang, Yinglin Wang
- TLDR: Wir untersuchen, wie Kontext-Oriented Embeddings die Leistung eines WSD-Systems verbessern können.
- Data Augmentation with Hierarchical SQL-to-Question Generation for Cross-domain Text-to-SQL Parsing
- Kun Wu, Lijie Wang, Zhenghua Li, Ao Zhang, Xinyan Xiao, Hua Wu, Min Zhang, Haifeng Wang
- TLDR: Wir schlagen ein hierarchisches SQL-to-Questions-Generierungsmodell vor, um eine große Anzahl von Text-zu-SQL-Erhebungen zu generieren.
- SPARQLing Database Queries from Intermediate Question Decompositions
- Irina Saparina, Anton Osokin
- TLDR: Wir verwenden Deep Learning, um die Interferenz von Datensätzen zu lösen und die Antwort auf die Frage zu interpretieren.
- Time-aware Graph Neural Network for Entity Alignment between Temporal Knowledge Graphs
- Chengjin Xu, Fenglong Su, Jens Lehmann
- TLDR: Wir schlagen einen neuen Ansatz zur Entflechtung von Entitätspaaren vor, der auf Graphennetzen basiert.
- Cross-Domain Label-Adaptive Stance Detection
- Momchil Hardalov, Arnav Arora, Preslav Nakov, Isabelle Augenstein
- TLDR: Wir analysieren und schlagen einen unüberwachten Rahmen für die Erkennung von Statuen in einem Bereich vor und zeigen die Vorteile bei der Anpassung von Domänen.
- Text AutoAugment: Learning Compositional Augmentation Policy for Text Classification
- Shuhuai Ren, Jinchao Zhang, Lei Li, Xu Sun, Jie Zhou
- TLDR: Wir schlagen Text AutoAugment vor, einen kompositorischen und lerbaren Rahmen für die Datenerweiterung.
- Distilling Relation Embeddings from Pretrained Language Models
- Asahi Ushio, Jose Camacho-Collados, Steven Schockaert
- TLDR: Wir verwenden relationale Einbettungen, um sprachliche Wissensdaten aus einem vorher trainierten Sprachmodell zu extrahieren.
- Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning
- Prasetya Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych
- TLDR: Wir stellen fest, dass Few-Shot Fine-Tuning für die Klassifizierung von Satzpaaren zu einer Destruktivität führt.
- A Differentiable Relaxation of Graph Segmentation and Alignment for AMR Parsing
- Chunchuan Lyu, Shay B. Cohen, Ivan Titov
- TLDR: Wir stellen eine differentiable Relaxation vor, die die Segmentierung und Alignment-Probleme in einem Alignment-Modell effektiver lösen kann.
- Integrating Personalized PageRank into Neural Word Sense Disambiguation
- Ahmed El Sheikh, Michele Bevilacqua, Roberto Navigli
- TLDR: Wir verwenden einen PageRank, um die globale Struktur des WordNet-Graphens zu nutzen.
- Cross-lingual Sentence Embedding using Multi-Task Learning
- Koustava Goswami, Sourav Dutta, Haytham Assem, Theodorus Fransen, John P. McCrae
- TLDR: Wir schlagen einen neuen Satzeinbettungsrahmen vor, der auf einer Multi-Task-Verlustfunktion für die Erfassung und Verwendung von Ähnlichkeitsmerkmalen und Ähnlichkeitsverwandtungen basiert.
- NB-MLM: Efficient Domain Adaptation of Masked Language Models for Sentiment Analysis
- Nikolay Arefyev, Dmitrii Kharchev, Artem Shelmanov
- TLDR: Wir schlagen eine neue Methode vor, die auf die Vorhersage von Wörtern konzentriert ist, die nicht unbedingt zu einer Aufgabe mit dem Ziel der Anpassung führen.
- Revisiting Self-training for Few-shot Learning of Language Model
- Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li
- TLDR: Wir stellen einen auf promptbasiertem Lernen basierenden Few-Shot Learning-Ansatz vor, der auf einer Aufgabe mit unbeschrifteten Daten basiert.
- Bridging Perception, Memory, and Inference through Semantic Relations
- Johanna Björklund, Adam Dahlgren Lindström, Frank Drewes
- TLDR: Wir proben und entwickeln sprachmodelle, die auf der Oberflächenform trainiert werden können, um die Bedeutung und das Verständnis von Sprache zu verbessern.
- Unimodal and Crossmodal Refinement Network for Multimodal Sequence Fusion
- Xiaobao Guo, Adams Kong, Huan Zhou, Xianfeng Wang, Min Wang
- TLDR: Wir schlagen ein uneinheitliches und crossmodales Repräsentationsnetzwerk vor, das uneinheitliche und crossmodale Repräsentationen verbessert.
- YASO: A Targeted Sentiment Analysis Evaluation Dataset for Open-Domain Reviews
- Matan Orbach, Orith Toledo-Ronen, Artem Spector, Ranit Aharonov, Yoav Katz, Noam Slonim
- TLDR: Wir stellen YASO vor, einen neuen TSA-Evaluierungsdatensatz von Benutzerbewertungen, der 2,215 English Sätze aus mehreren Bewertungsdomänen enthält.
- An Empirical Study on Leveraging Position Embeddings for Target-oriented Opinion Words Extraction
- Samuel Mensah, Kai Sun, Nikolaos Aletras
- TLDR: Wir verwenden ein graphisches Convolutional Network (GCN) um die Positionsinformationen von Wortrepräsentationen zu extrahieren und verwenden diese Informationen, um Syntaxinformationen zu integrieren.
- Improving Multimodal Fusion with Hierarchical Mutual Information Maximization for Multimodal Sentiment Analysis
- Wei Han, Hui Chen, Soujanya Poria
- TLDR: Wir schlagen einen Rahmen vor, der die Multimodale Information in unverschlüsselten Eingabepaaren maximiert und zwischen Multimodalen Fusion result und unverschlüsselten Eingabepaaren (inter-Modality) und zwischen Multimodalen Eingabeergebnis und unverschlüsselten Eingabepaaren (inter-Modality) verwahrt.
- BERT4GCN: Using BERT Intermediate Layers to Augment GCN for Aspect-based Sentiment Classification
- Zeguan Xiao, Jiarun Wu, Qingliang Chen, Congjian Deng
- TLDR: Wir schlagen BERT4GCN vor, eine BERT-Architektur für die Abhängigkeitsgraphen, die die Konsistenzmerkmale von BERT integriert.
- Does Social Pressure Drive Persuasion in Online Fora?
- Ayush Jain, Shashank Srivastava
- TLDR: Wir stellen fest, dass soziale Merkmale für die Erstellung von Argumenten und die Erstellung von Empfehlungen für die Erstellung von Ideen sind.
- Aspect Sentiment Quad Prediction as Paraphrase Generation
- Wenxuan Zhang, Yang Deng, Xin Li, Yifei Yuan, Lidong Bing, Wai Lam
- TLDR: Wir stellen eine Aufgabe vor, die die Aufmerksamkeitsmetzen in Quads für eine bestimmte Ansichtsbeschriftung erkennt, und lösen sie in einer Paraphrase-Generierungsmethode.
- Cross-lingual Aspect-based Sentiment Analysis with Aspect Term Code-Switching
- Wenxuan Zhang, Ruidan He, Haiyun Peng, Lidong Bing, Wai Lam
- TLDR: Wir schlagen eine alignment-free Label-Projektionsmethode vor, um die Sprachbeschriftungen der Zielsprache zu verwenden und die Sprachkenntnisse in der Zielsprache zu erhalten.
- Towards Label-Agnostic Emotion Embeddings
- Sven Buechel, Luise Modersohn, Udo Hahn
- TLDR: Wir schlagen ein neues Trainingsschema vor, das eine gemeinsame latente Repräsentation von Emotionen erlernt, unabhängig von Labelformaten, Sprachstilen und Modellarchitekturen.
- Collaborative Learning of Bidirectional Decoders for Unsupervised Text Style Transfer
- Yun Ma, Yangbin Chen, Xudong Mao, Qing Li
- TLDR: Wir schlagen einen kollaborativen Lernrahmen vor, um unüberwachte Textstilverschiebungen mit Hilfe von zweien Dekodierern zu lösen.
- Exploring Non-Autoregressive Text Style Transfer
- Yun Ma, Qing Li
- TLDR: Wir schlagen ein neues NAR-Modell vor, das die Autoregressive (AR) übertrifft und die Leistung bei einem unbeaufsichtigten Texttransfer erheblich verbessert.
- PASTE: A Tagging-Free Decoding Framework Using Pointer Networks for Aspect Sentiment Triplet Extraction
- Rajdeep Mukherjee, Tapas Nayak, Yash Butala, Sourangshu Bhattacharya, Pawan Goyal
- TLDR: Wir stellen eine auf Pointer Networks basierende Lösung vor, die die Gefühle von Ansichtsteilen extrahiert und gleichzeitig die Semantik der Spanne erfasst.
- Adaptive Proposal Generation Network for Temporal Sentence Localization in Videos
- Daizong Liu, Xiaoye Qu, Jianfeng Dong, Pan Zhou
- TLDR: Wir schlagen ein adaptives Proposal Generating Network (APGN) vor, um die Segment-Ebene zu erhalten und gleichzeitig die Segment-Eigenschaften zu nutzen.
- Progressively Guide to Attend: An Iterative Alignment Framework for Temporal Sentence Grounding
- Daizong Liu, Xiaoye Qu, Pan Zhou
- TLDR: Wir schlagen ein Iterative Alignment Network (IA-Net) vor, das iterativ inter- und intra-modale Merkmale innerhalb mehrerer Schritte iterativ erzieht, um die Sprachmerkmale zu berücksichtigen.
- Language Models are Few-Shot Butlers
- Vincent Micheli, Francois Fleuret
- TLDR: Wir stellen eine Methode vor, die die Aufmerksamkeit von Experten auf die Erkennung von Experten-Demonstrationen ermöglicht.
- Rˆ3Net:Relation-embedded Representation Reconstruction Network for Change Captioning
- Yunbin Tu, Liang Li, Chenggang Yan, Shengxiang Gao, Zhengtao Yu
- TLDR: Wir schlagen eine Relationsembedded Representation Reconstruction Network (Rˆ3Net) vor, um die realen Änderungen von den großen Mengen clutter und irrelevanten Änderungen zu unterscheiden.
- Looking for Confirmations: An Effective and Human-Like Visual Dialogue Strategy
- Alberto Testoni, Raffaella Bernardi
- TLDR: Wir stellen Confirm-it vor, ein beam-search-Ranking-Algorithmus, das eine Zieloriented Question-Generation ermöglicht.
- A Unified Speaker Adaptation Approach for ASR
- Yingzhu Zhao, Chongjia Ni, Cheung-Chi Leung, Shafiq Joty, Eng Siong Chng, Bin Ma
- TLDR: Wir schlagen einen neuen Pruning-Ansatz vor, um die Generalisierung von Sprachmodellen zu verbessern.
- Caption Enriched Samples for Improving Hateful Memes Detection
- Efrat Blaier, Itzik Malkiel, Lior Wolf
- TLDR: Wir stellen eine neue Aufgabe vor, die die Beantwortung der Frage stellt, ob ein Gefälschungsgedächtnis schädlich ist.
- Sparsity and Sentence Structure in Encoder-Decoder Attention of Summarization Systems
- Potsawee Manakul, Mark Gales
- TLDR: Wir zeigen, dass die Aufmerksamkeitsmechanismen eines Encoders-Decoders die Aufmerksamkeit eines Teils der Dokumenten erfordern.
- BARThez: a Skilled Pretrained French Sequence-to-Sequence Model
- Moussa Kamal Eddine, Antoine Tixier, Michalis Vazirgiannis
- TLDR: Wir stellen BARThez vor, das erste groß angelegte seq2seq-Modell für das Seq2seq-Framework.
- ARMAN: Pre-training with Semantically Selecting and Reordering of Sentences for Persian Abstractive Summarization
- Alireza Salemi, Emad Kebriaei, Ghazal Neisi Minaei, Azadeh Shakery
- TLDR: Wir schlagen ein Transformer-basiertes Encoder-Decoder-Modell vor, das auf der Interpretation von Texten basiert.
- Models and Datasets for Cross-Lingual Summarisation
- Laura Perez-Beltrachini, Mirella Lapata
- TLDR: Wir stellen eine Sammlung von Dokumenten in einer Zielsprache vor, die mit einer Sprachauswahl verbunden sind, und stellen eine neue Aufgabe vor, die auf Wikipedia-Artikeln aus mehreren Sprachpaaren abhängt.
- Learning Opinion Summarizers by Selecting Informative Reviews
- Arthur Bražinskas, Mirella Lapata, Ivan Titov
- TLDR: Wir lernen, informative Bewertungsbeschriftungen zu selectieren und zu summarizieren.
- Enriching and Controlling Global Semantics for Text Summarization
- Thong Nguyen, Anh Tuan Luu, Truc Lu, Tho Quan
- TLDR: Wir stellen ein neuronales Themenmodell vor, das mit einer normalisierten Flüssigkeit ausgestattet ist, um globale Semantiken für die Texterzeugung zu nutzen.
- Revisiting Tri-training of Dependency Parsers
- Joachim Wagner, Jennifer Foster
- TLDR: Wir vergleichen tri-training und pretrained word-embeddings, um die Aufgabe des Abhängigkeitsparsings zu lösen.
- Bridge to Target Domain by Prototypical Contrastive Learning and Label Confusion: Re-explore Zero-Shot Learning for Slot Filling
- Liwen Wang, Xuefeng Li, Jiachi Liu, Keqing He, Yuanmeng Yan, Weiran Xu
- TLDR: Wir schlagen einen neuen Ansatz für das Zero-Shot-Ziel-Färben vor, der die Labelabhängigkeit zwischen den Zieldomänen und den Quelldomänen auf einen Schlag stabilisiert.
- Neuralizing Regular Expressions for Slot Filling
- Chengyue Jiang, Zijian Jin, Kewei Tu
- TLDR: Wir stellen einen Algorithmus zur Einbeziehung von Regular-Eigenschaften vor, der die Aufgabe des slot-filling erledigt.
- Causal Direction of Data Collection Matters: Implications of Causal and Anticausal Learning for NLP
- Zhijing Jin, Julius von Kügelgen, Jingwei Ni, Tejas Vaidhya, Ayush Kaushal, Mrinmaya Sachan, Bernhard Schoelkopf
- TLDR: Wir analysieren ICM-Prinzipien für die Datenerfassung und stellen eine neue Meta-Analyse vor, die die Verzerrung von SSL und DA erklären kann.
- Raise a Child in Large Language Model: Towards Effective and Generalizable Fine-tuning
- Runxin Xu, Fuli Luo, Zhiyuan Zhang, Chuanqi Tan, Baobao Chang, Songfang Huang, Fei Huang
- TLDR: Wir schlagen eine einfache, aber effektive Fine-Tuning-Methode vor, die eine Teilmenge von Parametern (so genannte Kindernetzwerke) von großen pretrained Modellen aktualisiert.
- Knowledge Graph Representation Learning using Ordinary Differential Equations
- Mojtaba Nayyeri, Chengjin Xu, Franca Hoffmann, Mirza Mohtashim Alam, Jens Lehmann, Sahar Vahdati
- TLDR: Wir schlagen eine neuro-differenziale Grapheneinbettung vor, die die Form von Graphen in einem Wissensgraphen nutzt, um heterogene Graphen zu erzeugen.
- KnowMAN: Weakly Supervised Multinomial Adversarial Networks
- Luisa März, Ehsaneddin Asgari, Fabienne Braune, Franziska Zimmermann, Benjamin Roth
- TLDR: Wir schlagen KnowMAN vor, eine adversarische Methode zur Kontrolle der Einflussnahme von Signalen, die mit Labeling-Funktionen verbunden sind, und schlagen eine neue Methode vor, die die Auswirkungen dieser Signale kontrolliert.
- ONION: A Simple and Effective Defense Against Textual Backdoor Attacks
- Fanchao Qi, Yangyi Chen, Mukai Li, Yuan Yao, Zhiyuan Liu, Maosong Sun
- TLDR: Wir schlagen eine Text-Backdoor-Defense vor, die auf der Erkennung von Verzerrungen und auf die Bekämpfung von Backdoor-Angriffen basiert.
- Value-aware Approximate Attention
- Ankit Gupta, Jonathan Berant
- TLDR: Wir schlagen einen Wertvektor vor, der die wahren Ausgaben des Aufmerksamkeitsmechanismus enthält.
- Contrastive Domain Adaptation for Question Answering using Limited Text Corpora
- Zhenrui Yue, Bernhard Kratzwald, Stefan Feuerriegel
- TLDR: Wir schlagen einen neuen Rahmen für die Domänenanpassung vor, der auf Fragen aus einer Domänen-Genauigkeit und Domäneninvariant Lernen basiert.
- Case-based Reasoning for Natural Language Queries over Knowledge Bases
- Rajarshi Das, Manzil Zaheer, Dung Thai, Ameya Godbole, Ethan Perez, Jay Yoon Lee, Lizhen Tan, Lazaros Polymenakos, Andrew McCallum
- TLDR: Wir schlagen einen neuro-symbolischen CBR-Ansatz vor, um Fragen zu beantworten, die auf einer Wissensdatenbank bestehen.
- Distantly-Supervised Dense Retrieval Enables Open-Domain Question Answering without Evidence Annotation
- Chen Zhao, Chenyan Xiong, Jordan Boyd-Graber, Hal Daumé III
- TLDR: Wir stellen einen neuartigen Ansatz vor, der iterativ die Evidenz von einem großen Korpus iterativ verbessert.
- What’s in a Name? Answer Equivalence For Open-Domain Question Answering
- Chenglei Si, Chen Zhao, Jordan Boyd-Graber
- TLDR: Wir verwenden alias-Entitäten aus Wissensdatenbanken, um sie als zusätzliche gold-Antworten für die Bewertung von Tests zu verwenden.
- Evaluation Paradigms in Question Answering
- Pedro Rodriguez, Jordan Boyd-Graber
- TLDR: Wir stellen eine neue Methode zur Beantwortung vor, die auf der Suche nach Wissensdaten und dem Verständnis von QA-Systemen basiert.
- Numerical reasoning in machine reading comprehension tasks: are we there yet?
- Hadeel Al-Negheimish, Pranava Madhyastha, Alessandra Russo
- TLDR: Wir stellen eine kontrollierte Studie über die Top-Leistungen von Modellen zur numerischen Schlussfolgerung vor, die die StandardMetriken übertreffen.
- Set Generation Networks for End-to-End Knowledge Base Population
- Dianbo Sui, Chenhao Wang, Yubo Chen, Kang Liu, Jun Zhao, Wei Bi
- TLDR: Wir stellen eine neue Aufgabe vor, die die Wissensdaten von Texten aus einer Wissensdatenbank erzeugt, und schlagen eine neue Methode vor, um die Aufgabe zu lösen.
- Knowing False Negatives: An Adversarial Training Method for Distantly Supervised Relation Extraction
- Kailong Hao, Botao Yu, Wei Hu
- TLDR: Wir schlagen einen neuen Ansatz vor, um falsche negative Schlussfolgerungen zu ziehen, indem wir die unbeschrifteten Daten mit den KBs in einen neuen Merkmalsraum einbeziehen.
- Progressive Adversarial Learning for Bootstrapping: A Case Study on Entity Set Expansion
- Lingyong Yan, Xianpei Han, Le Sun
- TLDR: Wir schlagen BootstrapGAN vor, eine neue Lernmethode für das Bootstrapping, die die Bootstrap-Baumgrenzen und das Lernen von Grenzen in einem GAN-Rahmen modelliert.
- Uncovering Main Causalities for Long-tailed Information Extraction
- Guoshun Nan, Jiaqi Zeng, Rui Qiao, Zhijiang Guo, Wei Lu
- TLDR: Wir schlagen eine neue Methode zur Extraktion von Strukturen vor, die die Hauptprobleme der Verzerrung in den Blickwinkel der Kausalen in Bezug auf die Inferenz beseitigt.
- Maximal Clique Based Non-Autoregressive Open Information Extraction
- Bowen Yu, Yucheng Wang, Tingwen Liu, Hongsong Zhu, Limin Sun, Bin Wang
- TLDR: Wir schlagen einen neuen Rahmen für die Informationserfassung vor, der die Fehlerverbreitung zwischen den Behauptungen minimiert.
- A Relation-Oriented Clustering Method for Open Relation Extraction
- Jun Zhao, Tao Gui, Qi Zhang, Yaqian Zhou
- TLDR: Wir schlagen ein relationales Clustering-Modell vor, das auf unbeschrifteten Daten von relationalen Klassen mit gleichen Beziehungen lernt.
- Exploring Methods for Generating Feedback Comments for Writing Learning
- Kazuaki Hanawa, Ryo Nagata, Kentaro Inui
- TLDR: Wir analysieren und bewerten die Auswirkungen neuronaler Retrieval-Methoden auf die Kommentargenerierung und stellen fest, dass sie die Bewertung von Feedback-Beispielen für Vorpositionsausnutzung verbessern.
- A Role-Selected Sharing Network for Joint Machine-Human Chatting Handoff and Service Satisfaction Analysis
- Jiawei Liu, Kaisong Song, Yangyang Kang, Guoxiu He, Zhuoren Jiang, Changlong Sun, Wei Lu, Xiaozhong Liu
- TLDR: Wir schlagen ein neuartiges neuronales Netzwerk vor, das sowohl Dialog-Satisfaction-Schätzer als auch Handoff-Vorhersage in einem Multi-Task-Lernen integriert.
- Meta Distant Transfer Learning for Pre-trained Language Models
- Chengyu Wang, Haojie Pan, Minghui Qiu, Jun Huang, Fei Yang, Yin Zhang
- TLDR: Wir schlagen Meta-DTL vor, um das Wissen über die Übertragung von Wissen zwischen mehreren Aufgaben zu lernen.
- UniKER: A Unified Framework for Combining Embedding and Definite Horn Rule Reasoning for Knowledge Graph Inference
- Kewei Cheng, Ziqing Yang, Ming Zhang, Yizhou Sun
- TLDR: Wir schlagen einen neuen Rahmen vor, der die Logik und die Wissensgraphen kombiniert, um die gegenseitige Verbesserung von Wissensgraphen und Wissensgraphen zu ermöglichen.
- Wasserstein Selective Transfer Learning for Cross-domain Text Mining
- Lingyun Feng, Minghui Qiu, Yaliang Li, Haitao Zheng, Ying Shen
- TLDR: Wir schlagen eine Wasserstein-basierte Methode zum Erlernen von Daten aus Quelldaten vor, die in einer Zieldomänenabwandlungsverteilungen verwendet werden.
- Jointly Learning to Repair Code and Generate Commit Message
- Jiaqi Bai, Long Zhou, Ambrosio Blanco, Shujie Liu, Furu Wei, Ming Zhou, Zhoujun Li
- TLDR: Wir schlagen eine neue Aufgabe vor, die die Codereparatur und die Kommit-Benefizit-Benefizit-Genauigkeit miteinander verbindet.
- Inflate and Shrink:Enriching and Reducing Interactions for Fast Text-Image Retrieval
- Haoliang Liu, Tan Yu, Ping Li
- TLDR: Wir schlagen einen Inflations- und Stärkungsansatz vor, um die Effizienz und Genauigkeit von Late-Interaktionsmethoden zu verbessern.
- On Pursuit of Designing Multi-modal Transformer for Video Grounding
- Meng Cao, Long Chen, Mike Zheng Shou, Can Zhang, Yuexian Zou
- TLDR: Wir schlagen ein neues Multi-Modal Transformer-Modell vor, das auf Video- und Spracherkennungsvorhersagen basiert.
- COVR: A Test-Bed for Visually Grounded Compositional Generalization with Real Images
- Ben Bogin, Shivanshu Gupta, Matt Gardner, Jonathan Berant
- TLDR: Wir schlagen COVR vor, einen neuen Test-Bed für visuelle Sichtweisen zur Kompositionsverallgemeinerung mit realen Bildern.
- Vision-and-Language or Vision-for-Language? On Cross-Modal Influence in Multimodal Transformers
- Stella Frank, Emanuele Bugliarello, Desmond Elliott
- TLDR: Wir schlagen eine diagnostische Methode vor, die auf der Ablation von visuellen Eingaben basiert, um zu bewerten, ob BERTs die Informationen von beiden Methoden kombinieren.
- HypMix: Hyperbolic Interpolative Data Augmentation
- Ramit Sawhney, Megh Thakkar, Shivam Agarwal, Di Jin, Diyi Yang, Lucie Flek
- TLDR: Wir schlagen eine neue Modell-, Daten- und Methoden-Architektur für die Datenerweiterung vor, die in hyperbolischen Raumen funktioniert.
- Integrating Deep Event-Level and Script-Level Information for Script Event Prediction
- Long Bai, Saiping Guan, Jiafeng Guo, Zixuan Li, Xiaolong Jin, Xueqi Cheng
- TLDR: Wir schlagen MCPredictor vor, eine Transformer-basierte Methode zur Vorhersage von Events auf Texten vor.
- QA-Align: Representing Cross-Text Content Overlap by Aligning Question-Answer Propositions
- Daniela Brook Weiss, Paul Roit, Ayal Klein, Ori Ernst, Ido Dagan
- TLDR: Wir schlagen eine Aufgabe vor, die die Übertragung von Texten mit Hilfe von Q-Frameworks darstellt, und verwenden QA-SRL, um die Übertragung von Texten zu erfassen.
- PICARD: Parsing Incrementally for Constrained Auto-Regressive Decoding from Language Models
- Torsten Scholak, Nathan Schucher, Dzmitry Bahdanau
- TLDR: Wir schlagen PICARD vor, eine Methode zur Konstraining von Auto-Regressive Decodern von Sprachmodellen durch Parsing.
- Exploiting Twitter as Source of Large Corpora of Weakly Similar Pairs for Semantic Sentence Embeddings
- Marco Di Giovanni, Marco Brambilla
- TLDR: Wir schlagen einen sprachenabhängigen Ansatz vor, um große Datensätze von Paaren von Satzeinbettungen mit semantisch Ähnlichkeit zu erzeugen.
- Guilt by Association: Emotion Intensities in Lexical Representations
- Shahab Raji, Gerard de Melo
- TLDR: Wir zeigen, dass sprachliche Modelle emotionsbewusste Menschen in tiefen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen Neuronalen
- Using Sociolinguistic Variables to Reveal Changing Attitudes Towards Sexuality and Gender
- Sky CH-Wang, David Jurgens
- TLDR: Wir analysieren die Sprachwahl in einer lexikalischen Variablen, um die Veränderungen in den Einstellungen von Homo- und Transgender-Agenzen in den Vereinigten Staaten zu untersuchen.
- Identifying Morality Frames in Political Tweets using Relational Learning
- Shamik Roy, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: Wir stellen eine relationale Analyse vor, die die moralische Gefühle von Personen und Wertegrundlagen erfasst.
- Measuring Sentence-Level and Aspect-Level (Un)certainty in Science Communications
- Jiaxin Pei, David Jurgens
- TLDR: Wir stellen eine neue Studie vor, die sowohl die Ebenen als auch die Aspekte der Unsicherheit in Forschungsergebnissen modelliert.
- Assessing the Reliability of Word Embedding Gender Bias Measures
- Yupei Du, Qixiang Fang, Dong Nguyen
- TLDR: Wir analysieren und bewerten die Verzerrung von Worteinbettungen, die auf genderspezifischen Tests basieren.
- Rumor Detection on Twitter with Claim-Guided Hierarchical Graph Attention Networks
- Hongzhan Lin, Jing Ma, Mingfei Cheng, Zhiwei Yang, Liangliang Chen, Guang Chen
- TLDR: Wir stellen eine neue Methode vor, die die Aufmerksamkeit auf die Vermuglichkeiten nutzt und die Erkennung von Verwundwörtern in Twitter ermöglicht.
- Learning Bill Similarity with Annotated and Augmented Corpora of Bills
- Jiseon Kim, Elden Griggs, In Song Kim, Alice Oh
- TLDR: Wir stellen eine Aufgabe vor, die die Art und Weise des Erfassungsprozesses von Gesetzen dar und verwenden BERT-Varianten, um die Ähnlichkeiten zwischen den Dokumenten zu ermitteln.
- SWEAT: Scoring Polarization of Topics across Different Corpora
- Federico Bianchi, Marco Marelli, Paolo Nicoli, Matteo Palmonari
- TLDR: Wir schlagen SWEAT vor, eine statistische Messung, die die relative Polarisierung von Themensätzen über zwei Verteilungen ermittelt.
- “So You Think You’re Funny?”: Rating the Humour Quotient in Standup Comedy
- Anirudh Mittal, Pranav Jeevan P, Prerak Gandhi, Diptesh Kanojia, Pushpak Bhattacharyya
- TLDR: Wir stellen einen Multi-Modal-Algorithmus für die Bewertung von humour-quotienten vor, der die Stimmung der Zufallsgedächtnisstimmen nutzt.
- “Was it “stated” or was it “claimed”?: How linguistic bias affects generative language models
- Roma Patel, Ellie Pavlick
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Sprache zu nutzen, um zu bezeugen, dass wir
- PAUSE: Positive and Annealed Unlabeled Sentence Embedding
- Lele Cao, Emil Larsson, Vilhelm von Ehrenheim, Dhiana Deva Cavalcanti Rocha, Anna Martin, Sonja Horn
- TLDR: Wir schlagen PAUSE vor, eine neuartige und effektive Methode zur Texterweiterung, die auf einem Teilbeschrifteten Datensatz gelernt werden kann.
- A Simple Geometric Method for Cross-Lingual Linguistic Transformations with Pre-trained Autoencoders
- Maarten De Raedt, Fréderic Godin, Pieter Buteneers, Chris Develder, Thomas Demeester
- TLDR: Wir verwenden geometrische Markierungen in Einbettungsraumen, um sprachliche Eigenschaften zu transformieren, ohne dass die Einbettungsraume mit einem neuen Autoencoder überwacht werden müssen.
- An Information-Theoretic Characterization of Morphological Fusion
- Neil Rathi, Michael Hahn, Richard Futrell
- TLDR: Wir stellen eine Information-theoretische Maßnahme zur Bestimmung der Gradientenabgleichung von morphologischen Merkmalen vor, die die Gradientenabgleichung in einer Oberfläche darstellt.
- The Effect of Efficient Messaging and Input Variability on Neural-Agent Iterated Language Learning
- Yuchen Lian, Arianna Bisazza, Tessa Verhoef
- TLDR: Wir schlagen einen neuen Algorithmus vor, um die Syntax zu verbessern, und zeigen, dass die Sprachverteilungen während des Lernens nicht auf die optimale Sprachverteilungen zurückgreifen.
- On Classifying whether Two Texts are on the Same Side of an Argument
- Erik Körner, Gregor Wiedemann, Ahmad Dawar Hakimi, Gerhard Heyer, Martin Potthast
- TLDR: Wir stellen fest, dass die Klassifizierung von Argumentationsstadienten mit Hilfe von Transformationsmethoden nicht identisch ist.
- Chinese Opinion Role Labeling with Corpus Translation: A Pivot Study
- Ranran Zhen, Rui Wang, Guohong Fu, Chengguo Lv, Meishan Zhang
- TLDR: Wir stellen eine erste Arbeit vor, die auf die erste Aufgabe des Role Labeling basiert.
- MassiveSumm: a very large-scale, very multilingual, news summarisation dataset
- Daniel Varab, Natalie Schluter
- TLDR: Wir stellen einen großen, vollständigen und universellen Datensatz für die automatische Zusammenfassung von Artikeln vor, der in über 28.8 Millionen Artikeln auf mehr als 35 Sprachausführungen abrufbar ist.
- AUTOSUMM: Automatic Model Creation for Text Summarization
- Sharmila Reddy Nangi, Atharv Tyagi, Jay Mundra, Sagnik Mukherjee, Raj Snehal, Niyati Chhaya, Aparna Garimella
- TLDR: Wir schlagen Methoden vor, die automatische Modellsuche und -kompression für Texterzeugungsaufgaben vor, die mit Deep Learning verbunden sind.
- Investigating the Helpfulness of Word-Level Quality Estimation for Post-Editing Machine Translation Output
- Raksha Shenoy, Nico Herbig, Antonio Krüger, Josef van Genabith
- TLDR: Wir stellen fest, dass die meisten maschinellen Übersetzungsmodelle noch nicht ausreichend für die menschliche Übersetzung sind.
- UNKs Everywhere: Adapting Multilingual Language Models to New Scripts
- Jonas Pfeiffer, Ivan Vulić, Iryna Gurevych, Sebastian Ruder
- TLDR: Wir schlagen eine Reihe von Methoden vor, die die Anpassung von pretrierten Sprachmodellen an Sprachstilen mit unbeaufsichtigten Texten ermöglicht.
- Neural Machine Translation Quality and Post-Editing Performance
- Vilém Zouhar, Martin Popel, Ondřej Bojar, Aleš Tamchyna
- TLDR: Wir zeigen, dass phrasenbasierte MT die Qualität der Übersetzungen verbessern und die Zeit für die Übertragung und die Qualität der Texterzeugung reduzieren.
- XTREME-R: Towards More Challenging and Nuanced Multilingual Evaluation
- Sebastian Ruder, Noah Constant, Jan Botha, Aditya Siddhant, Orhan Firat, Jinlan Fu, Pengfei Liu, Junjie Hu, Dan Garrette, Graham Neubig, Melvin Johnson
- TLDR: Wir erweitern XTREME auf XTREME-R, um eine neue Reihe von Sprachaufgaben zu erlernen, die typisch unterschiedliche Sprachen aufweist.
- Contrastive Conditioning for Assessing Disambiguation in MT: A Case Study of Distilled Bias
- Jannis Vamvas, Rico Sennrich
- TLDR: Wir schlagen contrastive Conditional Conditional Conditions vor, eine Black-Box-Methode zur Erkennung von Abweichungen von der Sprachausgangssprache.
- Measuring Association Between Labels and Free-Text Rationales
- Sarah Wiegreffe, Ana Marasović, Noah A. Smith
- TLDR: Wir stellen fest, dass die Modelle, die jointly vorhersagen und rationalisieren, eine Klasse von hocheffizienten Modellen für die Erklärung von Erklärungsversuchen und natürlicher Sprache sind.
- Discretized Integrated Gradients for Explaining Language Models
- Soumya Sanyal, Xiang Ren
- TLDR: Wir schlagen eine neue Methode vor, die die Gradienten in den Eingaberaum eines Labels nutzt, um die Zuverlässigkeit der Gradienten zu bewerten.
- Putting Words in BERT’s Mouth: Navigating Contextualized Vector Spaces with Pseudowords
- Taelin Karidi, Yichu Zhou, Nathan Schneider, Omri Abend, Vivek Srikumar
- TLDR: Wir stellen eine Methode vor, die die Geometrie von BERT-Speicherraumen untersucht, und zeigen, wie diese Regionen zu Wortwahrnehmungen verwandt sind.
- Rationales for Sequential Predictions
- Keyon Vafa, Yuntian Deng, David Blei, Alexander Rush
- TLDR: Wir schlagen einen greedy-Rangument-Algorithmus vor, um die Optimierung des sequentiellen Ziels zu erleichtern.
- FastIF: Scalable Influence Functions for Efficient Model Interpretation and Debugging
- Han Guo, Nazneen Rajani, Peter Hase, Mohit Bansal, Caiming Xiong
- TLDR: Wir stellen FastIF vor, eine einfache Modifikation von Einflussfunktionen, die die Laufzeit erheblich beschleunigt.
- Studying word order through iterative shuffling
- Nikolay Malkin, Sameera Lanka, Pranav Goel, Nebojsa Jojic
- TLDR: Wir stellen eine neue Methode vor, die die Worteinferenz in Sprachmodellen durch iterative Shuffling erforscht.
- Distantly-Supervised Named Entity Recognition with Noise-Robust Learning and Language Model Augmented Self-Training
- Yu Meng, Yunyi Zhang, Jiaxin Huang, Xuan Wang, Yu Zhang, Heng Ji, Jiawei Han
- TLDR: Wir schlagen ein neues, auf verrauschten Labels basierendes Lernschema vor, das auf Sprachmodelle mit verrauschten Labels basiert.
- Open Knowledge Graphs Canonicalization using Variational Autoencoders
- Sarthak Dash, Gaetano Rossiello, Nandana Mihindukulasooriya, Sugato Bagchi, Alfio Gliozzo
- TLDR: Wir schlagen Canonicalizing Using Variational Autoencoders und Side Information (CUVA) vor, ein joint Modell, um sowohl Einbettungen als auch Clustering-Aufgaben in einem End-to-End Ansatz zu lernen.
- HittER: Hierarchical Transformers for Knowledge Graph Embeddings
- Sanxing Chen, Xiaodong Liu, Jianfeng Gao, Jian Jiao, Ruofei Zhang, Yangfeng Ji
- TLDR: Wir schlagen ein Hierarchisch-Transformer-Modell vor, das Entitätsrelationen und -konzeptionierungen gemeinsam lernt.
- Few-Shot Named Entity Recognition: An Empirical Baseline Study
- Jiaxin Huang, Chunyuan Li, Krishan Subudhi, Damien Jose, Shobana Balakrishnan, Weizhu Chen, Baolin Peng, Jianfeng Gao, Jiawei Han
- TLDR: Wir stellen eine empirische Studie zur Entitätserkennung vor, die die Generalisierungsfähigkeit von NERs verbessert.
- XLEnt: Mining a Large Cross-lingual Entity Dataset with Lexical-Semantic-Phonetic Word Alignment
- Ahmed El-Kishky, Adithya Renduchintala, James Cross, Francisco Guzmán, Philipp Koehn
- TLDR: Wir schlagen Lexical-Semantic-Phonetic Align (LSP-Align) vor, eine Technik zur automatischen Erfassung und Verwendung von sprachenübergreifenden Entitätspaaren.
- Utilizing Relative Event Time to Enhance Event-Event Temporal Relation Extraction
- Haoyang Wen, Heng Ji
- TLDR: Wir schlagen ein gemeinsames Modell für die Erkennung und die Verallgemeinerung von Zeit- und Zeitzeit-Informationen vor.
- Separating Retention from Extraction in the Evaluation of End-to-end Relation Extraction
- Bruno Taillé, Vincent Guigue, Geoffrey Scoutheeten, Patrick Gallinari
- TLDR: Wir schlagen zwei Experimente vor, die belegen, dass die Retention bekannter Daten für die Generalisierung von NLP-Modellen wichtiger ist als die Generalisierung von Modellen.
- Automatic Text Evaluation through the Lens of Wasserstein Barycenters
- Pierre Colombo, Guillaume Staerman, Chloé Clavel, Pablo Piantanida
- TLDR: Wir verwenden BaryScore, um Texterzeugung auf der Grundlage von Deep-CoCoding-Instanzen zu bewerten.
- Visually Grounded Reasoning across Languages and Cultures
- Fangyu Liu, Emanuele Bugliarello, Edoardo Maria Ponti, Siva Reddy, Nigel Collier, Desmond Elliott
- TLDR: Wir stellen ImageNet vor, eine ImageNet-Architektur, die die Vielfalt von Sprachen und Kulturen erfasst.
- Back to Square One: Artifact Detection, Training and Commonsense Disentanglement in the Winograd Schema
- Yanai Elazar, Hongming Zhang, Yoav Goldberg, Dan Roth
- TLDR: Wir stellen fest, dass die bisherige Bewertungsmethode für WS-ähnliche Sätze nicht unbedingt auf die Verbesserung des commonsense-Gedächtniss anwendbar ist.
- Robustness Evaluation of Entity Disambiguation Using Prior Probes: the Case of Entity Overshadowing
- Vera Provatorova, Samarth Bhargav, Svitlana Vakulenko, Evangelos Kanoulas
- TLDR: Wir stellen einen neuen Rahmen für die Bewertung und die Bewertung von EL-Systemen vor, der mit Texten von Entitäten in Bezug auf die Prioritätenabgleichung befasst ist.
- IndoNLI: A Natural Language Inference Dataset for Indonesian
- Rahmad Mahendra, Alham Fikri Aji, Samuel Louvan, Fahrurrozi Rahman, Clara Vania
- TLDR: Wir stellen IndoNLI vor, einen Datensatz für NLP, der von Experten und Experten für die NLI-Erklärungen verwendet wird.
- Agreeing to Disagree: Annotating Offensive Language Datasets with Annotators’ Disagreement
- Elisa Leonardelli, Stefano Menini, Alessio Palmero Aprosio, Marco Guerini, Sara Tonelli
- TLDR: Wir stellen eine Studie vor, die die Konsistenz von Twitter-Tweets in Bezug auf die Konsistenz von Annotatoren untersucht.
- A Root of a Problem: Optimizing Single-Root Dependency Parsing
- Miloš Stanojević, Shay B. Cohen
- TLDR: Wir identifizieren die optimalen Parse-Bäumen für die Einbeziehung von graphen in die Parsing-Architektur und zeigen, dass die erste Methode die optimalen Parse-Bäumen gefunden hat.
- Efficient Sampling of Dependency Structure
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: Wir adaptieren einen neuen Algorithmus zum Sampling von spanningen Blättern aus einem direkten Graphen und stellen eine Erweiterung vor, die K-Blätter ohne Verwendung von Ersatzzeit mit einer Zeitstrafe erfassen kann.
- Reducing Discontinuous to Continuous Parsing with Pointer Network Reordering
- Daniel Fernández-González, Carlos Gómez-Rodríguez
- TLDR: Wir schlagen einen neuen Algorithmus vor, der kontinuierliche Parser in einem Problem mit einem kontinuierlichen Problem kombiniert.
- A New Representation for Span-based CCG Parsing
- Yoshihide Kato, Shigeki Matsubara
- TLDR: Wir schlagen eine neue Repräsentation vor, die die Regeln der CCG-Schemata überträgt und verhindern kann, dass spanische Parsingmodelle die Regeln der Regelschemata verstöbern.
- What to Pre-Train on? Efficient Intermediate Task Selection
- Clifton Poth, Jonas Pfeiffer, Andreas Rücklé, Iryna Gurevych
- TLDR: Wir vergleichen Methoden zum effizienten Lernen von Zielen für das Intermediate-Transferlernen und zeigen, dass sie auf die optimale Einbettungsverteilung zurückgreifen.
- PermuteFormer: Efficient Relative Position Encoding for Long Sequences
- Peng Chen
- TLDR: Wir schlagen PermuteFormer vor, ein Modell mit relativer Positionsbeschriftung, das auf Long-Range-Arena und WikiText-103 skaliert.
- Block Pruning For Faster Transformers
- François Lagunas, Ella Charlaix, Victor Sanh, Alexander Rush
- TLDR: Wir stellen einen Pruning-Ansatz vor, der auf strukturierte Modelle und Aufmerksamkeitsbeschriftungen abzielt.
- Finetuning Pretrained Transformers into RNNs
- Jungo Kasai, Hao Peng, Yizhe Zhang, Dani Yogatama, Gabriel Ilharco, Nikolaos Pappas, Yi Mao, Weizhu Chen, Noah A. Smith
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Aufmerksamkeit eines pretrained Transformators zu einem effizienten Recurrent-Modell zu machen.
- How to Train BERT with an Academic Budget
- Peter Izsak, Moshe Berchansky, Omer Levy
- TLDR: Wir stellen eine Methode vor, die BERT-basierte Sprachmodelle in 24 Stunden durch einen einzigen Deep Learning-Server ersetzt.
- Beyond Preserved Accuracy: Evaluating Loyalty and Robustness of BERT Compression
- Canwen Xu, Wangchunshu Zhou, Tao Ge, Ke Xu, Julian McAuley, Furu Wei
- TLDR: Wir schlagen eine neue Metrik, Label-Lloyalität und Wahrscheinlichkeits-Lernen vor, die die Genauigkeit eines vorgegebenen Modells bewerten.
- IndoBERTweet: A Pretrained Language Model for Indonesian Twitter with Effective Domain-Specific Vocabulary Initialization
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: Wir stellen IndoBERTweet vor, ein groß angelegtes BERT-Modell für Indonesian Twitter, das durch die Erweiterung eines monolingual trainierten BERT-Modells mit additivem Sprachverallgemeinerungsverstehen lernt.
- Pushing on Text Readability Assessment: A Transformer Meets Handcrafted Linguistic Features
- Bruce W. Lee, Yoo Sung Jang, Jason Lee
- TLDR: Wir stellen eine neue Merkmalskombination vor, die die Klassifizierungsgenauigkeit bei der Erfassung von Texten verbessert.
- Types of Out-of-Distribution Texts and How to Detect Them
- Udit Arora, William Huang, He He
- TLDR: Wir stellen fest, dass die Klassifizierung von Out-of-Distribution Beispielen (OOD) für die Erkennung von OOD-Daten mit Hintergrundverschiebungen und denselben Merkmalen führt.
- Self-training with Few-shot Rationalization
- Meghana Moorthy Bhat, Alessandro Sordoni, Subhabrata Mukherjee
- TLDR: Wir stellen einen Multi-Task-Rahmen für das Lernen von rationalen Sprachmodellen vor, der auf selbst trainierte Sprachmodelle angewendet werden kann.
- MTAdam: Automatic Balancing of Multiple Training Loss Terms
- Itzik Malkiel, Lior Wolf
- TLDR: Wir stellen einen Optimierungsalgorithmus vor, der mehrere Verlustterms gleichzeitig verwendet.
- Softmax Tree: An Accurate, Fast Classifier When the Number of Classes Is Large
- Arman Zharmagambetov, Magzhan Gabidolla, Miguel A. Carreira-Perpinan
- TLDR: Wir schlagen eine neue Methode vor, die die Softmax-Baumstrukturen nutzt, um eine tiefe Inferenz zu ermöglichen.
- Improving Distantly-Supervised Named Entity Recognition with Self-Collaborative Denoising Learning
- Xinghua Zhang, Bowen Yu, Tingwen Liu, Zhenyu Zhang, Jiawei Sheng, Xue Mengge, Hongbo Xu
- TLDR: Wir schlagen ein neues Modell vor, das auf Selbst-Kollaborative Denoising Learning basiert, um verrauschte Labels zu erzeugen.
- Multivalent Entailment Graphs for Question Answering
- Nick McKenna, Liane Guillou, Mohammad Javad Hosseini, Sander Bijl de Vroe, Mark Johnson, Mark Steedman
- TLDR: Wir verwenden die Distributional Inclusion Hypothesis, um die Inferenz von Sprachverzerrungen zwischen Vorurteilen zu modellieren.
- Is Everything in Order? A Simple Way to Order Sentences
- Somnath Basu Roy Chowdhury, Faeze Brahman, Snigdha Chaturvedi
- TLDR: Wir stellen Reorder-BART (Re-BART) vor, eine Transformer-basierte Methode zur Erstellung von Textzusammenfassungen, die eine Ordnung für die Erstellung von Texten in einem Satz darstellen.
- VeeAlign: Multifaceted Context Representation Using Dual Attention for Ontology Alignment
- Vivek Iyer, Arvind Agarwal, Harshit Kumar
- TLDR: Wir schlagen ein Deep Learning-basiertes Modell vor, das syntaktische und semantische Informationen nutzt, um alignment-basierte Konzepte zu ermitteln.
- Finding needles in a haystack: Sampling Structurally-diverse Training Sets from Synthetic Data for Compositional Generalization
- Inbar Oren, Jonathan Herzig, Jonathan Berant
- TLDR: Wir verwenden synthetische Programme, um die kompositorische Generalisierung bei semantischem Parsing zu verbessern.
- GeneSis: A Generative Approach to Substitutes in Context
- Caterina Lacerra, Rocco Tripodi, Roberto Navigli
- TLDR: Wir schlagen Genesis vor, einen generativen Ansatz zur lexikalischen Vertauschung von Wörtern, der die Bedeutung der Änderungen in Bezug auf die ursprüngliche Aufgabe berücksichtigt.
- Semi-Supervised Exaggeration Detection of Health Science Press Releases
- Dustin Wright, Isabelle Augenstein
- TLDR: Wir stellen eine neue Methode zur Erkennung von Verfälschungen vor, die auf Deep Learning und überwachtes Lernen angewendet werden kann.
- Phrase-BERT: Improved Phrase Embeddings from BERT with an Application to Corpus Exploration
- Shufan Wang, Laure Thompson, Mohit Iyyer
- TLDR: Wir schlagen ein neues Phrasenmodell vor, das auf der Suche nach Nachbarschaften und Phrasen auf Wort- und Phrasenebene identifiziert.
- Detecting Contact-Induced Semantic Shifts: What Can Embedding-Based Methods Do in Practice?
- Filip Miletic, Anne Przewozny-Desriaux, Ludovic Tanguy
- TLDR: Wir stellen einen neuen Testsatz vor, der auf die Erkennung von Kontakt-induziven Änderungen in der Synchrony anwendbar ist.