ACL 2022 in German
TLDRs
- Investigating label suggestions for opinion mining in German Covid-19 social media
- Tilman Beck, Ji-Ung Lee, Christina Viehmann, Marcus Maurer, Oliver Quiring, Iryna Gurevych
- TLDR: Wir verwenden Labels-Vorschläge, um die Effizienz beim Erlernen von Bewerten in Covid-19 zu verbessern.
- How Did This Get Funded?! Automatically Identifying Quirky Scientific Achievements
- Chen Shani, Nadav Borenstein, Dafna Shahaf
- TLDR: Wir stellen eine neue Aufgabe vor, die automatisch erwächst, und zwar die Erkennung von witzigen und erstaunlichen Forschungsarbeiten.
- Engage the Public: Poll Question Generation for Social Media Posts
- Zexin Lu, Keyang Ding, Yuji Zhang, Jing Li, Baolin Peng, Lemao Liu
- TLDR: Wir stellen eine Aufgabe vor, die die Stimmen aus den sozialen Medien erzeugt und daraus Fragen und Antworten auf wichtige Themen erzeugt.
- HateCheck: Functional Tests for Hate Speech Detection Models
- Paul Röttger, Bertie Vidgen, Dong Nguyen, Zeerak Waseem, Helen Margetts, Janet Pierrehumbert
- TLDR: Wir stellen eine Reihe von Tests vor, die die Klassifizierung von Online-Hätern und die Bewertung von Online-Hätern verbessern.
- Unified Dual-view Cognitive Model for Interpretable Claim Verification
- Lianwei Wu, Yuan Rao, Yuqian Lan, Ling Sun, Zhaoyin Qi
- TLDR: Wir schlagen ein Dualview-Modell vor, das auf der Sicht der Gemeinschaftscognition für die Interpretable Erklärung von Behauptungen verwendet werden kann.
- DeepRapper: Neural Rap Generation with Rhyme and Rhythm Modeling
- Lanqing Xue, Kaitao Song, Duocai Wu, Xu Tan, Nevin L. Zhang, Tao Qin, Wei-Qiang Zhang, Tie-Yan Liu
- TLDR: Wir entwickeln DeepRapper, einen Transformer-basierten Generator von R&B-Songs, der sowohl R&B-Lernansätze als auch R&B-Rhythmen modelliert.
- PENS: A Dataset and Generic Framework for Personalized News Headline Generation
- Xiang Ao, Xiting Wang, Ling Luo, Ying Qiao, Qing He, Xing Xie
- TLDR: Wir stellen das Problem der personalisierten Nachrichteneingabe vor, das auf die Interessen und die Interessensauswahl von Nutzern abhängt.
- Enhancing Content Preservation in Text Style Transfer Using Reverse Attention and Conditional Layer Normalization
- Dongkyu Lee, Zhiliang Tian, Lanqing Xue, Nevin L. Zhang
- TLDR: Wir schlagen eine neue Methode zur Umwandlung von Stil vor, die die Inhaltswahrnehmung verbessert und gleichzeitig die Inhaltsverwahrnehmung fördert.
- Mention Flags (MF): Constraining Transformer-based Text Generators
- Yufei Wang, Ian Wood, Stephen Wan, Mark Dras, Mark Johnson
- TLDR: Wir schlagen eine Methode vor, die die Verzerrung von Konsistenzstrafen in den Ausgaben eines S2S-Decoders trace.
- Generalising Multilingual Concept-to-Text NLG with Language Agnostic Delexicalisation
- Giulio Zhou, Gerasimos Lampouras
- TLDR: Wir schlagen eine neue Methode zur Konzept-zu-Text-Erzeugung vor, die auf mehreren Sprachbeschriftungen verwendet werden kann.
- Conversations Are Not Flat: Modeling the Dynamic Information Flow across Dialogue Utterances
- Zekang Li, Jinchao Zhang, Zhengcong Fei, Yang Feng, Jie Zhou
- TLDR: Wir verwenden die Dialogprotokolle als Vorhersagen, um die Antwort zu ermitteln, die wir vorschlagen.
- Dual Slot Selector via Local Reliability Verification for Dialogue State Tracking
- Jinyu Guo, Kai Shuang, Jijie Li, Zihan Wang
- TLDR: Wir stellen einen Dual-Slot-Selector vor, der die Dialogfolgen von jedem Dialog aus zwei Aspekten erfasst.
- Transferable Dialogue Systems and User Simulators
- Bo-Hsiang Tseng, Yinpei Dai, Florian Kreyssig, Bill Byrne
- TLDR: Wir stellen einen Rahmen vor, der die Fähigkeiten von Dialogsystemen nutzt, um neue Dialogszenarien durch Selbstspiel zu integrieren.
- BoB: BERT Over BERT for Training Persona-based Dialogue Models from Limited Personalized Data
- Haoyu Song, Yan Wang, Kaiyan Zhang, Wei-Nan Zhang, Ting Liu
- TLDR: Wir stellen BERT vor, ein BERT-basiertes BERT-Modell, das die Erzeugung und die Vereinheitlichtheit von Dialogen verbessert.
- GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple Intent Detection and Slot Filling
- Libo Qin, Fuxuan Wei, Tianbao Xie, Xiao Xu, Wanxiang Che, Ting Liu
- TLDR: Wir schlagen ein globales, lokales Graphennetzwerk vor, das eine globale Graphenanbindung nutzt, um die Interaktion zwischen mehreren Intentionen und allen Slots in der Eingabe zu modellieren.
- Accelerating BERT Inference for Sequence Labeling via Early-Exit
- Xiaonan Li, Yunfan Shao, Tianxiang Sun, Hang Yan, Xipeng Qiu, Xuanjing Huang
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Inferenz von PTMs auf Satzebene zu beschleunigen.
- Modularized Interaction Network for Named Entity Recognition
- Fei Li, Zheng Wang, Siu Cheung Hui, Lejian Liao, Dandan Song, Jing Xu, Guoxiu He, Meihuizi Jia
- TLDR: Wir schlagen ein Modularized Interaction Network (MIN) Modell vor, das sowohl segmentebene als auch die Wortebene verwendet.
- Capturing Event Argument Interaction via A Bi-Directional Entity-Level Recurrent Decoder
- Xi Xiangyu, Wei Ye, Shikun Zhang, Quanxiu Wang, Huixing Jiang, Wei Wu
- TLDR: Wir stellen ein neuronales Lernproblem vor, das die Argumentationsrolle von kontextuellen Entitäten auf Entitätslevels erzeugt.
- UniRE: A Unified Label Space for Entity Relation Extraction
- Yijun Wang, Changzhi Sun, Yuanbin Wu, Hao Zhou, Lei Li, Junchi Yan
- TLDR: Wir stellen eine Methode vor, die die Entitäten und Beziehungen in einer Tabelle darstellt, und verwenden sie zur Entflechtung von Entitäten und Beziehungen.
- Refining Sample Embeddings with Relation Prototypes to Enhance Continual Relation Extraction
- Li Cui, Deqing Yang, Jiaxin Yu, Chengwei Hu, Jiayang Cheng, Jingjie Yi, Yanghua Xiao
- TLDR: Wir verwenden relationales Modell, um die Beziehungen zwischen den Entitäten zu extrahieren und die Erinnerungen zu nutzen.
- Contrastive Learning for Many-to-many Multilingual Neural Machine Translation
- Xiao Pan, Mingxuan Wang, Liwei Wu, Lei Li
- TLDR: Wir schlagen eine neue Methode vor, um ein Multilingual Translationsmodell zu erhalten, das auf Englisch- und nicht-Englisch-Distanzen gut abschneidet.
- Understanding the Properties of Minimum Bayes Risk Decoding in Neural Machine Translation
- Mathias Müller, Rico Sennrich
- TLDR: Wir analysieren die Eigenschaften von Minimum Bayes Risk (MBR) auf ein Reihe von Biases und Erfolgsfällen bei der Beam Search.
- Multi-Head Highly Parallelized LSTM Decoder for Neural Machine Translation
- Hongfei Xu, Qiuhui Liu, Josef van Genabith, Deyi Xiong, Meng Zhang
- TLDR: Wir stellen eine neue Methode vor, die auf der Interpolation basiert und die Transformer-Architektur erweitert.
- A Bidirectional Transformer Based Alignment Model for Unsupervised Word Alignment
- Jingyi Zhang, Josef van Genabith
- TLDR: Wir stellen ein auf Transformer-basiertes RL-Modell für die Wortanpassung vor und zeigen, dass unser Modell die Leistung bei mehreren Wortanpassungsaufgaben übertrifft.
- Learning Language Specific Sub-network for Multilingual Machine Translation
- Zehui Lin, Liwei Wu, Mingxuan Wang, Lei Li
- TLDR: Wir schlagen LaSS vor, ein Multilingual Translationsmodell, das für jede Sprache ein eigenes Subnetz lernt, um Sprachparameterinferenz zu counteren.
- Exploring the Efficacy of Automatically Generated Counterfactuals for Sentiment Analysis
- Linyi Yang, Jiazheng Li, Padraig Cunningham, Yue Zhang, Barry Smyth, Ruihai Dong
- TLDR: Wir schlagen einen Ansatz vor, um automatisch generierte Gegenfaktische Daten für die Aufgabe der Datenerweiterung und Erklärung zu verwenden.
- Bridge-Based Active Domain Adaptation for Aspect Term Extraction
- Zhuang Chen, Tieyun Qian
- TLDR: Wir schlagen eine aktive Domänenanpassung vor, die die Bedeutung von Nebenbeschriftungen in Bezug auf die Domänen verbindet.
- Multimodal Sentiment Detection Based on Multi-channel Graph Neural Networks
- Xiaocui Yang, Shi Feng, Yifei Zhang, Daling Wang
- TLDR: Wir schlagen Multichannel Graphenneural Networks mit Sentiment-Awareness (MGNNS) vor, um Bilder- und Text-Eigenschaften mit mehreren Ansichten zu erkennen.
- Aspect-Category-Opinion-Sentiment Quadruple Extraction with Implicit Aspects and Opinions
- Hongjie Cai, Rui Xia, Jianfei Yu
- TLDR: Wir stellen eine neue Aufgabe vor, die die Quadruple-Opinion-Sentiment-Ausbreitung (ACOS) beinhaltet und die Unterstützung für die aspectbasierte Gefühlsanalyse mit impliziten Aspekten und Äußerungen bietet.
- PASS: Perturb-and-Select Summarizer for Product Reviews
- Nadav Oved, Ran Levy
- TLDR: Wir schlagen ein neues, auf Transformer-basiertem Modell basierendes Modell vor, das die Bewertungsauswertung automatisch erzeugt.
- Deep Differential Amplifier for Extractive Summarization
- Ruipeng Jia, Yanan Cao, Fang Fang, Yuchen Zhou, Zheng Fang, Yanbing Liu, Shi Wang
- TLDR: Wir stellen die Erfassungsverschiebung als ein rebalanced Problem und stellen einen tiefen differential-invergifier-Rahmen vor, der die Semantik der einzelnen Dokumente berücksichtigt.
- Multi-TimeLine Summarization (MTLS): Improving Timeline Summarization by Generating Multiple Summaries
- Yi Yu, Adam Jatowt, Antoine Doucet, Kazunari Sugiyama, Masatoshi Yoshikawa
- TLDR: Wir schlagen einen neuen Rahmen für die Multiple Timeline Summarization vor, der die Flexibilität und die versatilität von Time-Layout-Summing erweitert.
- Self-Supervised Multimodal Opinion Summarization
- Jinbae Im, Moonki Kim, Hoyeop Lee, Hyunsouk Cho, Sehee Chung
- TLDR: Wir schlagen einen Rahmen für die Zusammenfassung von Meinungen vor, der auf Text- und nicht-text-Modulitäten basiert.
- A Training-free and Reference-free Summarization Evaluation Metric via Centrality-weighted Relevance and Self-referenced Redundancy
- Wang Chen, Piji Li, Irwin King
- TLDR: Wir schlagen eine Trainingsfreie und Referenzfreie Bewertungsmetrik vor, die die Bedeutung von pseudo-Repräsentationen und die Verwendung von redundanz-Scores berücksichtigt.
- DESCGEN: A Distantly Supervised Datasetfor Generating Entity Descriptions
- Weijia Shi, Mandar Joshi, Luke Zettlemoyer
- TLDR: Wir stellen eine neue Aufgabe vor, die die Entitätenausschriften von Wikipedia und Fandom zusammen mit Dokumenten zur Dokumentenauswertung erzeugt.
- Introducing Orthogonal Constraint in Structural Probes
- Tomasz Limisiewicz, David Mareček
- TLDR: Wir stellen eine neue Methode vor, die syntaktische und syntaktische Informationen separatermaßen interpretiert.
- Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger
- Fanchao Qi, Mukai Li, Yangyi Chen, Zhengyan Zhang, Zhiyuan Liu, Yasheng Wang, Maosong Sun
- TLDR: Wir schlagen vor, die Syntax als einen Stichprobenangriff auf die Texterzeugung zu verwenden, um die Instanz eines Texts als einen Stichprobenangriff zu verwenden.
- Examining the Inductive Bias of Neural Language Models with Artificial Languages
- Jennifer C. White, Ryan Cotterell
- TLDR: Wir schlagen eine Methode vor, um die Induvidualisierung von Sprachmodellen zu untersuchen und zu trainieren.
- Explaining Contextualization in Language Models using Visual Analytics
- Rita Sevastjanova, Aikaterini-Lida Kalouli, Christin Beck, Hanna Schäfer, Mennatallah El-Assady
- TLDR: Wir zeigen, dass die Konsistenz von Funktionen und Inhaltswörtern in BERT nicht durch Polysemy oder durch pure Konsistenzvarianz verursacht wird.
- Improving the Faithfulness of Attention-based Explanations with Task-specific Information for Text Classification
- George Chrysostomou, Nikolaos Aletras
- TLDR: Wir schlagen eine Familie von Aufmerksamkeitsmechanismen vor, die auf Aufgabenspezifische nicht-kontextuierte Informationen trainiert werden, um die Aufmerksamkeitsgewichte zu skalieren.
- Generating Landmark Navigation Instructions from Maps as a Graph-to-Text Problem
- Raphael Schumann, Stefan Riezler
- TLDR: Wir stellen ein neuronales Modell vor, das OpenStreetMap-Repräsentationen nutzt und lernt, Navigationsaufgaben mit sichtbaren und salienten Merkmalen zu generieren.
- E2E-VLP: End-to-End Vision-Language Pre-training Enhanced by Visual Learning
- Haiyang Xu, Ming Yan, Chenliang Li, Bin Bi, Songfang Huang, Wenming Xiao, Fei Huang
- TLDR: Wir schlagen E2E-VLP vor, ein Vision-Lernen-Framework, das die visuelle Erkennung und die Erzeugung von V+L kombiniert.
- Learning Relation Alignment for Calibrated Cross-modal Retrieval
- Shuhuai Ren, Junyang Lin, Guangxiang Zhao, Rui Men, An Yang, Jingren Zhou, Xu Sun, Hongxia Yang
- TLDR: Wir schlagen eine neue Metrik vor, Intermodale Alignment, die die Beziehungsmuster zwischen sprachen und visuellen Beziehungen quantifiziert und die Kalibrierung von ISD und IAIS-Regularisierungen verbessert.
- KM-BART: Knowledge Enhanced Multimodal BART for Visual Commonsense Generation
- Yiran Xing, Zai Shi, Zhao Meng, Gerhard Lakemeyer, Yunpu Ma, Roger Wattenhofer
- TLDR: Wir stellen eine neue Aufgabe vor, die die Knowledge-based Commonsense Generation (KCG) verbessert.
- Cascaded Head-colliding Attention
- Lin Zheng, Zhiyong Wu, Lingpeng Kong
- TLDR: Wir stellen eine Methode vor, die die Multi-Head Attention-Architektur nutzt, um die Aufmerksamkeit von mehreren Gesichtern zu erhalten.
- Structural Knowledge Distillation: Tractably Distilling Information for Structured Predictor
- Xinyu Wang, Yong Jiang, Zhaohui Yan, Zixia Jia, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: Wir stellen eine factorisierte Form des Wissensdestillationsziels für strukturierte Vorhersage vor, die für viele typische Entscheidungen des Lehrers und des Schülers geeignet ist.
- Parameter-efficient Multi-task Fine-tuning for Transformers via Shared Hypernetworks
- Rabeeh Karimi Mahabadi, Sebastian Ruder, Mostafa Dehghani, James Henderson
- TLDR: Wir stellen eine Methode vor, die die Fähigkeit eines Multi-Task-Lernens nutzt, um die Leistung bei einer Vielzahl von Aufgaben zu verbessern.
- COSY: COunterfactual SYntax for Cross-Lingual Understanding
- Sicheng Yu, Hao Zhang, Yulei Niu, Qianru Sun, Jing Jiang
- TLDR: Wir verwenden eine COunterfactual Training Methode, um die Syntax von Sprachmodellen zu lernen.
- OoMMix: Out-of-manifold Regularization in Contextual Embedding Space for Text Classification
- Seonghyeon Lee, Dongha Lee, Hwanjo Yu
- TLDR: Wir schlagen OoMMix vor, einen Ansatz zur Erkennung und Regularisierung von Out-of-Manifold-Einbettungen, der die Einbettungen von Texten, die nicht von tatsächlichen Beschriftungen beschriftet wurden, in einem tiefen Bereich erfassen.
- Understanding and Countering Stereotypes: A Computational Approach to the Stereotype Content Model
- Kathleen C. Fraser, Isar Nejadgholi, Svetlana Kiritchenko
- TLDR: Wir stellen eine Methode vor, um Stereotypisches zu interpretieren, indem wir die warmth und die Fähigkeitsmerkmale in Texten definieren.
- Structurizing Misinformation Stories via Rationalizing Fact-Checks
- Shan Jiang, Christo Wilson
- TLDR: Wir stellen ten Typen von Misinformationen vor und vergleichen ihre Prävalenz bei den 2016/2020 US-Präsidentschaftswahlen und den H1N1/COVID-19-Pativerminimations.
- Modeling Language Usage and Listener Engagement in Podcasts
- Sravana Reddy, Mariya Lazarova, Yongze Yu, Rosie Jones
- TLDR: Wir analysieren, wie sprachliche Merkmale mit dem Erreichen von tiefen Interaktionen in tiefen Podcasts korrelieren.
- Breaking Down the Invisible Wall of Informal Fallacies in Online Discussions
- Saumya Sahai, Oana Balalau, Roxana Horincar
- TLDR: Wir analysieren und lösen Fallacies auf Reddit, indem wir einen neuen Datensatz von Fallacies erstellen.
- SocAoG: Incremental Graph Parsing for Social Relation Inference in Dialogues
- Liang Qiu, Yuan Liang, Yizhou Zhao, Pan Lu, Baolin Peng, Zhou Yu, Ying Nian Wu, Song-Chun Zhu
- TLDR: Wir schlagen eine Aufgabe vor, die die Struktur von sozialen Netzwerken vorhersagt, und schlagen eine sequentielle Strukturvorhersage vor, die die Struktur von sozialen Beziehungen aus Gesprächen verbessert.
- TicketTalk: Toward human-level performance with end-to-end, transaction-based dialog systems
- Bill Byrne, Karthik Krishnamoorthi, Saravanan Ganesh, Mihir Kale
- TLDR: Wir stellen TicketTalk vor, ein Dialog-Datensätzen mit 23,789 annotierten Gesprächen.
- Improving Dialog Systems for Negotiation with Personality Modeling
- Runzhe Yang, Jingxiao Chen, Karthik Narasimhan
- TLDR: Wir verwenden probabilistische Formulierungen, um die Typen von Gegnern zu modellieren und zu bestimmen.
- Learning from Perturbations: Diverse and Informative Dialogue Generation with Inverse Adversarial Training
- Wangchunshu Zhou, Qifei Li, Chenle Li
- TLDR: Wir schlagen Inverse Adversarial Training vor, um die Vielfalt der Dialogrespondenzmodelle zu verbessern.
- Increasing Faithfulness in Knowledge-Grounded Dialogue with Controllable Features
- Hannah Rashkin, David Reitter, Gaurav Singh Tomar, Dipanjan Das
- TLDR: Wir schlagen eine neue Methode zur Messung und Bewertung von Objektivität und Evidenz vor, die die Erwartungen von Experten und Nutzern angeht.
- CitationIE: Leveraging the Citation Graph for Scientific Information Extraction
- Vijay Viswanathan, Graham Neubig, Pengfei Liu
- TLDR: Wir stellen einen neuen Rahmen für die Verwendung von Texten vor, die auf der Verwendung von citationsgraphen basieren, um die Bedeutung von Forschungsdokumenten zu identifizieren.
- From Discourse to Narrative: Knowledge Projection for Event Relation Extraction
- Jialong Tang, Hongyu Lin, Meng Liao, Yaojie Lu, Xianpei Han, Le Sun, Weijian Xie, Jin Xu
- TLDR: Wir schlagen ein neues Wissensprojektionsmodell vor, das die Erfassung von Wissensbeziehungen zwischen den Ereignissen ermöglicht.
- AdvPicker: Effectively Leveraging Unlabeled Data via Adversarial Discriminator for Cross-Lingual NER
- Weile Chen, Huiqiang Jiang, Qianhui Wu, Börje Karlsson, Yi Guan
- TLDR: Wir schlagen einen neuen Ansatz vor, um unbeschriftete Daten in einer Zielsprache zu verwenden, um die Spracherkennung zu verbessern.
- Compare to The Knowledge: Graph Neural Fake News Detection with External Knowledge
- Linmei Hu, Tianchi Yang, Luhao Zhang, Wanjun Zhong, Duyu Tang, Chuan Shi, Nan Duan, Ming Zhou
- TLDR: Wir schlagen ein neues neuronales Modell vor, das die Nachrichten von Experten in einer Knowledge-Base unter Verwendung von Themen miteinander vergleichen.
- Discontinuous Named Entity Recognition as Maximal Clique Discovery
- Yucheng Wang, Bowen Yu, Hongsong Zhu, Tingwen Liu, Nan Yu, Limin Sun
- TLDR: Wir stellen einen neuen Algorithmus zur Entflechtung von Entitäten vor, der die Aufmerksamkeit auf die Entitätenerkennung verlagert.
- LNN-EL: A Neuro-Symbolic Approach to Short-text Entity Linking
- Hang Jiang, Sairam Gurajada, Qiuhao Lu, Sumit Neelam, Lucian Popa, Prithviraj Sen, Yunyao Li, Alexander Gray
- TLDR: Wir verwenden Neuro-Symbole, um die Vorteile von interpretierbaren Regeln auf der Grundlage von erster Ordnungen zu nutzen.
- Do Context-Aware Translation Models Pay the Right Attention?
- Kayo Yin, Patrick Fernandes, Danish Pruthi, Aditi Chaudhary, André F. T. Martins, Graham Neubig
- TLDR: Wir stellen SCAT vor, einen neuen Sprachdatensatz, der für die Konsistenzverschiebung von Präferenzen verwendet werden kann.
- Adapting High-resource NMT Models to Translate Low-resource Related Languages without Parallel Data
- Wei-Jen Ko, Ahmed El-Kishky, Adithya Renduchintala, Vishrav Chaudhary, Naman Goyal, Francisco Guzmán, Pascale Fung, Philipp Koehn, Mona Diab
- TLDR: Wir nutzen die Sprachüberlappung, um eine Sprachanpassung in einer Low-Resource-Löser zu ermöglichen.
- Bilingual Lexicon Induction via Unsupervised Bitext Construction and Word Alignment
- Haoyue Shi, Luke Zettlemoyer, Sida I. Wang
- TLDR: Wir zeigen, dass es möglich ist, lexikalische Einbettungen mit unbeaufsichtigten und halbbeaufsichtigten Texten zu erzeugen.
- Multilingual Speech Translation from Efficient Finetuning of Pretrained Models
- Xian Li, Changhan Wang, Yun Tang, Chau Tran, Yuqing Tang, Juan Pino, Alexei Baevski, Alexis Conneau, Michael Auli
- TLDR: Wir stellen einen einfachen, aber effektiven Ansatz vor, um eine sprachenübergreifende Texterzeugung durch effizientes Transferlernen aus einem pretrierten Sprachencoder und Textencoder zu erreichen.
- Learning Faithful Representations of Causal Graphs
- Ananth Balashankar, Lakshminarayanan Subramanian
- TLDR: Wir verwenden die Few-Faith-Schritt-Schwächenzeigenschaften von kontextuellen Texteinbettungen, um geometrische Distanz-basierte Eigenschaften von direkten acyclischen Kausalgraphen zu erfassen.
- What Context Features Can Transformer Language Models Use?
- Joe O’Connor, Jacob Andreas
- TLDR: Wir stellen eine Reihe von Experimenten vor, die die Mechanismen von Texten in transformer-Lernansätzen erfassen, und zeigen, dass sie die Wirksamkeit von Texten in tiefen Kontexten reduzieren.
- Integrated Directional Gradients: Feature Interaction Attribution for Neural NLP Models
- Sandipan Sikdar, Parantapa Bhattacharya, Kieran Heese
- TLDR: Wir stellen Integrated Directional Gradients (IDG) vor, eine Methode zur Angabe von Bedeutungszuschlägen zu Gruppen von Merkmalen, die ihre Bedeutung bei der Erzeugung eines neuronalen Netzmodells für einen gegebenen Eingabeausgangs darstellen.
- DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations
- John Giorgi, Osvald Nitski, Bo Wang, Gary Bader
- TLDR: Wir stellen DeCLUTR vor, eine Deep-Methoden-Architektur für die Erstellung von Satzeinbettungen, die keine Label-Datensätzen benötigt.
- XLPT-AMR: Cross-Lingual Pre-Training via Multi-Task Learning for Zero-Shot AMR Parsing and Text Generation
- Dongqin Xu, Junhui Li, Muhua Zhu, Min Zhang, Guodong Zhou
- TLDR: Wir schlagen einen neuen Multi-Task-Lernen-Ansatz vor, der sowohl AMR-Parsing als auch AMR-to-Text-Generierung ermöglicht.
- Span-based Semantic Parsing for Compositional Generalization
- Jonathan Herzig, Jonathan Berant
- TLDR: Wir schlagen SpanBasedSP vor, einen Parser, der eine spanische Blättervorhersage über eine Eingabeausgangsbeschriftung erlernt.
- Compositional Generalization and Natural Language Variation: Can a Semantic Parsing Approach Handle Both?
- Peter Shaw, Ming-Wei Chang, Panupong Pasupat, Kristina Toutanova
- TLDR: Wir stellen eine neue Methode zur Semantik-Verallgemeinerung vor, die sowohl kompositorische Variation als auch kompositorische Generalisierung erlernt.
- A Targeted Assessment of Incremental Processing in Neural Language Models and Humans
- Ethan Wilcox, Pranali Vani, Roger Levy
- TLDR: Wir vergleichen menschliche Reaktionszeiten mit By-Word-Wahrscheinlichkeiten und zeigen, dass die Syntax-Verstöße bei Sprachmodellen zu einer deutlichen Verzerrung führen.
- The Possible, the Plausible, and the Desirable: Event-Based Modality Detection for Language Processing
- Valentina Pyatkin, Shoval Sadde, Aynat Rubinstein, Paul Portner, Reut Tsarfaty
- TLDR: Wir schlagen eine Aufgabe vor, die auf der Erkennung und Klassifizierung von Modifikationen von modalen Konzepten basiert und die Erkennung von Modifikationen in ihrer Eigenschaft verbessert.
- To POS Tag or Not to POS Tag: The Impact of POS Tags on Morphological Learning in Low-Resource Settings
- Sarah Moeller, Ling Liu, Mans Hulden
- TLDR: Wir haben eine empirische Studie über die Auswirkungen von Pos-Tags auf die Leistung von Transformer-Architekturen durchgeführt.
- Prosodic segmentation for parsing spoken dialogue
- Elizabeth Nielsen, Mark Steedman, Sharon Goldwater
- TLDR: Wir analysieren, wie Prosody die Sprachausbreitung von Gesprächsaussagen in einem Satz verringert.
- VoxPopuli: A Large-Scale Multilingual Speech Corpus for Representation Learning, Semi-Supervised Learning and Interpretation
- Changhan Wang, Morgane Riviere, Ann Lee, Anne Wu, Chaitanya Talnikar, Daniel Haziza, Mary Williamson, Juan Pino, Emmanuel Dupoux
- TLDR: Wir stellen VoxPopuli vor, eine groß angelegte Sprachdatensammlung, die 400K Stunden von unbeschrifteten Sprachdaten in 23 Sprachen enthält.
- Stereotyping Norwegian Salmon: An Inventory of Pitfalls in Fairness Benchmark Datasets
- Su Lin Blodgett, Gilsinia Lopez, Alexandra Olteanu, Robert Sim, Hanna Wallach
- TLDR: Wir analysieren und lösen Probleme bei Sprachbewertungen und Coreference Resolution.
- Robust Knowledge Graph Completion with Stacked Convolutions and a Student Re-Ranking Network
- Justin Lovelace, Denis Newman-Griffis, Shikhar Vashishth, Jill Fain Lehman, Carolyn Rosé
- TLDR: Wir stellen ein tiefes Convolutional Network vor, das Texterzeugungen verwendet, um die KG-Erfüllung in realistischen Umgebungen zu untersuchen.
- A DQN-based Approach to Finding Precise Evidences for Fact Verification
- Hai Wan, Haicheng Chen, Jianfeng Du, Weilin Luo, Rongzhen Ye
- TLDR: Wir schlagen einen DQN-basierten Ansatz zur Beantwortung von Beweisen für die Behauptung von Beweisen vor, der die Behauptung von Beweisen widerspiegelt.
- The Art of Abstention: Selective Prediction and Error Regularization for Natural Language Processing
- Ji Xin, Raphael Tang, Yaoliang Yu, Jimmy Lin
- TLDR: Wir schlagen eine einfache Fehlerregularisierungstrick vor, die die Schätzung der Verzerrung bei NLP verbessert.
- Unsupervised Out-of-Domain Detection via Pre-trained Transformers
- Keyang Xu, Tongzheng Ren, Shikun Zhang, Yihao Feng, Caiming Xiong
- TLDR: Wir schlagen eine Methode vor, die aus allen Schichten von Merkmalen herauszufinden, um aus einem Bereich herauszufinden, in dem keine in-Domain-Aufgaben erledigt werden.
- MATE-KD: Masked Adversarial TExt, a Companion to Knowledge Distillation
- Ahmad Rashid, Vasileios Lioutas, Mehdi Rezagholizadeh
- TLDR: Wir stellen einen Textbasierten Trainingsalgorithmus vor, der die Leistung von Wissensdestillation verbessert.
- Selecting Informative Contexts Improves Language Model Fine-tuning
- Richard Antonello, Nicole Beckage, Javier Turek, Alexander Huth
- TLDR: Wir schlagen einen neuen Rahmen für das Fine-Tuning vor, der die Energiekosten und die Gesamtleistung von Sprachmodellen reduziert.
- Explainable Prediction of Text Complexity: The Missing Preliminaries for Text Simplification
- Cristina Garbacea, Mengtian Guo, Samuel Carton, Qiaozhu Mei
- TLDR: Wir stellen fest, dass die Texterweiterung in einer kompakten Pipeline von Aufgaben zusammen mit Deep Learning und Erklärungsvervollständigung durchgeführt werden kann, um die Transparenz und Erklärungsfähigkeit des gesamten Texts zu gewährleisten.
- Multi-Task Retrieval for Knowledge-Intensive Tasks
- Jean Maillard, Vladimir Karpukhin, Fabio Petroni, Wen-tau Yih, Barlas Oguz, Veselin Stoyanov, Gargi Ghosh
- TLDR: Wir schlagen ein neuronales Retrievermodell vor, das auf mehreren Aufgaben trainiert werden kann und robust ist.
- When Do You Need Billions of Words of Pretraining Data?
- Yian Zhang, Alex Warstadt, Xiaocheng Li, Samuel R. Bowman
- TLDR: Wir haben MiniBERTas untersucht, eine Gruppe von Transformer-LMs, die auf Millionen von Wörtern trainiert wurden, die nicht aus weniger Daten lernen können.
- Analyzing the Source and Target Contributions to Predictions in Neural Machine Translation
- Elena Voita, Rico Sennrich, Ivan Titov
- TLDR: Wir stellen eine neue Methode zur Bestimmung von Bedeutungsverbreitern vor, die auf der Reinforcement Learning Policy basiert.
- Comparing Test Sets with Item Response Theory
- Clara Vania, Phu Mon Htut, William Huang, Dhara Mungra, Richard Yuanzhe Pang, Jason Phang, Haokun Liu, Kyunghyun Cho, Samuel R. Bowman
- TLDR: Wir schlagen eine Methode vor, um die Klassifizierung von Transformer-Modellen zu verbessern.
- Uncovering Constraint-Based Behavior in Neural Models via Targeted Fine-Tuning
- Forrest Davis, Marten van Schijndel
- TLDR: Wir stellen fest, dass Sprachwettbewerbe in einer Sprache als Konsistenz für das Modellverhalten eines Menschen gelten.
- More Identifiable yet Equally Performant Transformers for Text Classification
- Rishabh Bhardwaj, Navonil Majumder, Soujanya Poria, Eduard Hovy
- TLDR: Wir stellen eine theoretische Analyse und empirische Belege vor, die die Identität von Aufmerksamkeitsgewichten erklären.
- AugNLG: Few-shot Natural Language Generation using Self-trained Data Augmentation
- Xinnuo Xu, Guoyin Wang, Young-Bum Kim, Sungjin Lee
- TLDR: Wir schlagen AugNLG vor, einen neuartigen Datenerweiterungsansatz, der ein neuronales Retrieval-Modell mit einem paar-Shot-Lernen kombiniert, um automatisch MR-to-Text-Daten aus Texten aus einem Bereich zu erzeugen.
- Can vectors read minds better than experts? Comparing data augmentation strategies for the automated scoring of children’s mindreading ability
- Venelin Kovatchev, Phillip Smith, Mark Lee, Rory Devine
- TLDR: Wir implementieren und vergleichen 7 verschiedene Datenerweiterungsstrategien für die Aufgabe der automatischen Auswertung von Kindern, die die Fähigkeit zur Erkennung von anderen Gedanken, Gefühlen und Wünschen (oder “Mindreading”) erlernen.
- A Dataset and Baselines for Multilingual Reply Suggestion
- Mozhi Zhang, Wei Wang, Budhaditya Deb, Guoqing Zheng, Milad Shokouhi, Ahmed Hassan Awadallah
- TLDR: Wir stellen einen Datensatz mit mehreren Sprachvarianten vor, der eine Antwort in mehreren Sprachen auswählt.
- What Ingredients Make for an Effective Crowdsourcing Protocol for Difficult NLU Data Collection Tasks?
- Nikita Nangia, Saku Sugawara, Harsh Trivedi, Alex Warstadt, Clara Vania, Samuel R. Bowman
- TLDR: Wir vergleichen die Effizienz von Crowdsourcing-Methoden für die Datenerfassung und die Bewertung von Expertenbewertungen.
- Align Voting Behavior with Public Statements for Legislator Representation Learning
- Xinyi Mou, Zhongyu Wei, Lei Chen, Shangyi Ning, Yancheng He, Changjian Jiang, Xuanjing Huang
- TLDR: Wir verwenden relationale Graphen-Netzwerke zur Vorhersage von Ideen und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von Politik und zur Modellierung von
- Measure and Evaluation of Semantic Divergence across Two Languages
- Syrielle Montariol, Alexandre Allauzen
- TLDR: Wir schlagen BERT- und CBOW-Einbettungen vor, um eine Synthese von Semantikverschiebungen zwischen zwei Sprachen zu charakterisieren.
- Improving Zero-Shot Translation by Disentangling Positional Information
- Danni Liu, Jan Niehues, James Cross, Francisco Guzmán, Xian Li
- TLDR: Wir stellen eine Methode vor, die die Sprachpaare in einer Sprachschicht direkt übersetzt und gleichzeitig die Qualität der Übersetzungsausführungen verbessert.
- Common Sense Beyond English: Evaluating and Improving Multilingual Language Models for Commonsense Reasoning
- Bill Yuchen Lin, Seyeon Lee, Xiaoyang Qiao, Xiang Ren
- TLDR: Wir schlagen Mickey Probe vor, eine Sprachprobenaufgabe, die die Sprachwahrnehmung von populären ML-LMs über mehrere Sprachen hinweg verbessert.
- Attention Calibration for Transformer in Neural Machine Translation
- Yu Lu, Jiali Zeng, Jiajun Zhang, Shuangzhi Wu, Mu Li
- TLDR: Wir stellen eine Masken-Pumpenausbutter vor, die die Aufmerksamkeitsmechanismen in neuronalen Übersetzungsmodellen automatisch erfasst.
- Diverse Pretrained Context Encodings Improve Document Translation
- Domenic Donato, Lei Yu, Chris Dyer
- TLDR: Wir schlagen eine neue Architektur vor, die die Verwendung von Dokumenten in der Übersetzung verbessert und gleichzeitig die Qualität der Dokumentenausnutzung erhöht.
- Exploiting Language Relatedness for Low Web-Resource Language Model Adaptation: An Indic Languages Study
- Yash Khemchandani, Sarvesh Mehtani, Vaidehi Patil, Abhijeet Awasthi, Partha Talukdar, Sunita Sarawagi
- TLDR: Wir schlagen eine Methode vor, die die Verbindung von Sprachen in einem Sprachmodell nutzt, um die corpora-Probleme bei LRLs zu lösen.
- On Finding the K-best Non-projective Dependency Trees
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: Wir stellen eine Erweiterung des Algorithmus zur Dekodierbarkeit von K-Best-Baumen vor, die auf der Suche nach den besten Baumen für die optimale Beziehung zwischen den Beschriftungsgraphen und dem Ziel der Lösung sind.
- Towards Argument Mining for Social Good: A Survey
- Eva Maria Vecchi, Neele Falk, Iman Jundi, Gabriella Lapesa
- TLDR: Wir schlagen eine neue Definition vor, die die Qualität der Argumentationsqualität in die Social Science Literatur integriert.
- Automated Generation of Storytelling Vocabulary from Photographs for use in AAC
- Mauricio Fontana de Vargas, Karyn Moffatt
- TLDR: Wir stellen eine neuartige Methode vor, die kontextbezogene Wörter aus Bildern von öffentlich relevanten Ereignissen erzeugt, die für die Unterstützung von Menschen mit sprachlichen Einschränkungen geeignet sind.
- CLIP: A Dataset for Extracting Action Items for Physicians from Hospital Discharge Notes
- James Mullenbach, Yada Pruksachatkun, Sean Adler, Jennifer Seale, Jordan Swartz, Greg McKelvey, Hui Dai, Yi Yang, David Sontag
- TLDR: Wir schlagen einen neuen Datensatz von Handlungsbeschriftungen vor, der von Arzten annotiert wurde, und verwenden ihn zur Erstellung von Handlungsbeschriftungen.
- Assessing Emoji Use in Modern Text Processing Tools
- Abu Awal Md Shoeb, Gerard de Melo
- TLDR: Wir analysieren, wie gut die Emojis in Texten enthalten sind, die auf Twitter verwendet werden.
- Select, Extract and Generate: Neural Keyphrase Generation with Layer-wise Coverage Attention
- Wasi Ahmad, Xiao Bai, Soomin Lee, Kai-Wei Chang
- TLDR: Wir stellen eine neue Methode vor, die die Verwendung von Schlüsselwörtern ermöglicht.
- Factorising Meaning and Form for Intent-Preserving Paraphrasing
- Tom Hosking, Mirella Lapata
- TLDR: Wir schlagen eine Methode vor, die Paraphrases von Fragen erzeugt, die die ursprünglichen Zielen und einer neuen Oberflächenform entsprechen.
- AggGen: Ordering and Aggregating while Generating
- Xinnuo Xu, Ondřej Dušek, Verena Rieser, Ioannis Konstas
- TLDR: Wir stellen AggGen vor, ein neuronales Daten-zu-Text-Modell, das eine neue Satzplanungsphase in die neuronale Daten-zu-Text-Systeme einführt.
- Reflective Decoding: Beyond Unidirectional Generation with Off-the-Shelf Language Models
- Peter West, Ximing Lu, Ari Holtzman, Chandra Bhagavatula, Jena D. Hwang, Yejin Choi
- TLDR: Wir stellen Reflective Decoding vor, einen neuartigen Algorithmus zur direkten Anwendung von unbeaufsichtigten Texten auf nicht-sequentiale Aufgaben.
- Towards Table-to-Text Generation with Numerical Reasoning
- Lya Hulliyyatus Suadaa, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura, Hiroya Takamura
- TLDR: Wir schlagen einen Rahmen für die numerische Texterzeugung vor, der die Texterzeugung von tabellarischen Texten erweitert.
- BACO: A Background Knowledge- and Content-Based Framework for Citing Sentence Generation
- Yubin Ge, Ly Dinh, Xiaofeng Liu, Jinsong Su, Ziyao Lu, Ante Wang, Jana Diesner
- TLDR: Wir stellen BACO vor, einen BAckground-wissen- und COntent-basierten Rahmen für die Erstellung von Sätzen zur Ersetzung von Hintergrundinformationen.
- Language Model as an Annotator: Exploring DialoGPT for Dialogue Summarization
- Xiachong Feng, Xiaocheng Feng, Libo Qin, Bing Qin, Ting Liu
- TLDR: Wir verwenden DialoGPT, ein pre-trained Modell für die Erzeugung von Gesprächsaussagen, um eine neue Klasse von Merkmalen für die Dialogauswahl zu verwenden.
- Challenges in Information-Seeking QA: Unanswerable Questions and Paragraph Retrieval
- Akari Asai, Eunsol Choi
- TLDR: Wir analysieren, warum Informationensuchende Fragen besser beantworten können, und stellen eine neue Methode zur Antwortbarkeitsvorhersage vor, die die Antwort auf die Frage eindeutig darstellt.
- A Gradually Soft Multi-Task and Data-Augmented Approach to Medical Question Understanding
- Khalil Mrini, Franck Dernoncourt, Seunghyun Yoon, Trung Bui, Walter Chang, Emilia Farcas, Ndapa Nakashole
- TLDR: Wir schlagen eine neue Multi-Task-Lernen-Methode mit Datenerweiterung vor, die die medizinische Frageausgangsinformationen erfasst.
- Leveraging Type Descriptions for Zero-shot Named Entity Recognition and Classification
- Rami Aly, Andreas Vlachos, Ryan McDonald
- TLDR: Wir stellen einen neuen Ansatz für Zero-Shot-Netzwerke vor, der die Tatsache nutzt, dass Textbeschreibungen für viele Entitätsklassen natürlicherweise auftreten.
- MECT: Multi-Metadata Embedding based Cross-Transformer for Chinese Named Entity Recognition
- Shuang Wu, Xiaoning Song, Zhenhua Feng
- TLDR: Wir stellen eine Multi-Metadata-Embedding-basierte Cross-Transformer-Architektur vor, die die Struktur von Chinesen charakterisiert.
- Factuality Assessment as Modal Dependency Parsing
- Jiarui Yao, Haoling Qiu, Jin Zhao, Bonan Min, Nianwen Xue
- TLDR: Wir stellen einen neuen Parser vor, der die Wahrnehmung von Ereignissen und Ereignichten in Texten erfasst und die modale Abhängigkeitsstrukturen von Texten konstruiert.
- Directed Acyclic Graph Network for Conversational Emotion Recognition
- Weizhou Shen, Siyue Wu, Yunyi Yang, Xiaojun Quan
- TLDR: Wir schlagen eine neue Idee vor, die die intrinsische Struktur eines Gesprächsmodells modelliert, und schlagen ein directed acyclic neuronales Netz vor, um diese Idee zu implementieren.
- Improving Formality Style Transfer with Context-Aware Rule Injection
- Zonghai Yao, Hong Yu
- TLDR: Wir schlagen eine neue Methode vor, CARI, die Regeln für Vortrainierte Sprachmodelle in BERT-basiertes BERT-Encoder und Decoder einbezieht.
- Topic-Driven and Knowledge-Aware Transformer for Dialogue Emotion Detection
- Lixing Zhu, Gabriele Pergola, Lin Gui, Deyu Zhou, Yulan He
- TLDR: Wir schlagen ein Topic-Driven Knowledge-Aware Transformer vor, das die Themensuche in Dialogen effektiver und effizienter macht.
- Syntopical Graphs for Computational Argumentation Tasks
- Joe Barrow, Rajiv Jain, Nedim Lipka, Franck Dernoncourt, Vlad Morariu, Varun Manjunatha, Douglas Oard, Philip Resnik, Henning Wachsmuth
- TLDR: Wir stellen Syntopical Graphen vor, eine Datenstruktur zur Linkung von Behauptungen innerhalb einer Sammlung.
- Stance Detection in COVID-19 Tweets
- Kyle Glandt, Sarthak Khanal, Yingjie Li, Doina Caragea, Cornelia Caragea
- TLDR: Wir stellen einen neuen Datensatz für die Erkennung von Statuen vor, der von Twitter-Nutzern genutzt werden kann.
- Topic-Aware Evidence Reasoning and Stance-Aware Aggregation for Fact Verification
- Jiasheng Si, Deyu Zhou, Tongzhe Li, Xingyu Shi, Yulan He
- TLDR: Wir schlagen ein neuartiges Themenbewusstes Evidenzverständnis und Richtlinienbewusstes Akgregierungsmodell vor, das die Themenkomma-Strukturierung zwischen den Belegen und der Behauptung erfasst.
- Changes in European Solidarity Before and During COVID-19: Evidence from a Large Crowd- and Expert-Annotated Twitter Dataset
- Alexandra Ils, Dan Liu, Daniela Grunow, Steffen Eger
- TLDR: Wir stellen die soziale Gegenwehr und ihre Verwundbarkeit als Problem für das Verständnis von (anti-)solidarität vor und analysieren ihre Auswirkungen auf die globalen pandemiken.
- Measuring Conversational Uptake: A Case Study on Student-Teacher Interactions
- Dorottya Demszky, Jing Liu, Zid Mancenido, Julie Cohen, Heather Hill, Dan Jurafsky, Tatsunori Hashimoto
- TLDR: Wir schlagen einen Rahmen für die computationale Messung und Verbesserung der Lehrer-Studenten-Übersetzung vor, indem wir einen Datensatz von Schüler-Studenten-Übersetzungen aus US-Lernen extrahieren und eine Methode zur Verbesserung der Lehrer-Studenten-Übersetzungen verwenden.
- A Survey of Code-switching: Linguistic and Social Perspectives for Language Technologies
- A. Seza Doğruöz, Sunayana Sitaram, Barbara E. Bullock, Almeida Jacqueline Toribio
- TLDR: Wir stellen eine Studie über Code-Switching vor, die die Literatur in Sprachtechnologien aufzeigt, und stellen eine empirische Analyse vor, wie Sprachmodelle unterschiedlicher Sprachformen zu einer Sprachidentitätsidentifikation beitragen.
- Learning from the Worst: Dynamically Generated Datasets to Improve Online Hate Detection
- Bertie Vidgen, Tristan Thrush, Zeerak Waseem, Douwe Kiela
- TLDR: Wir stellen einen menschlichen und modellbasierten Prozess vor, der die Erkennung von Lügen und Beleidigungen in einer großen Datenmenge ermöglicht.
- InfoSurgeon: Cross-Media Fine-grained Information Consistency Checking for Fake News Detection
- Yi Fung, Christopher Thomas, Revanth Gangi Reddy, Sandeep Polisetty, Heng Ji, Shih-Fu Chang, Kathleen McKeown, Mohit Bansal, Avi Sil
- TLDR: Wir stellen einen neuen Benchmark zur Erkennung von Verfälschungen auf Wissenselemente vor und stellen eine Lösung vor, die die Verfälschungen von Wissenselementen erkennt.
- I like fish, especially dolphins: Addressing Contradictions in Dialogue Modeling
- Yixin Nie, Mary Williamson, Mohit Bansal, Douwe Kiela, Jason Weston
- TLDR: Wir stellen eine neue Aufgabe vor, die die Konsistenz in einer allgemeinen Gesprächsverzerrung erfasst.
- A Sequence-to-Sequence Approach to Dialogue State Tracking
- Yue Feng, Yang Wang, Hang Li
- TLDR: Wir schlagen einen BERT-basierten Algorithmus zur Dialog-Status-Tracking vor, der die Dialog-Status-Tracking-Probleme in einem Dialogsystem als Seq2Seq-Seq-Du bezeichnet.
- Discovering Dialog Structure Graph for Coherent Dialog Generation
- Jun Xu, Zeyang Lei, Haifeng Wang, Zheng-Yu Niu, Hua Wu, Wanxiang Che
- TLDR: Wir stellen ein unbeaufsichtigtes Modell vor, das diskrete Dialogstrukturen aus menschlichen Gesprächen erkennt und die Dialogerzeugung in RL-basierten Dialogsystemen ermöglicht.
- Dialogue Response Selection with Hierarchical Curriculum Learning
- Yixuan Su, Deng Cai, Qingyu Zhou, Zibo Lin, Simon Baker, Yunbo Cao, Shuming Shi, Nigel Collier, Yan Wang
- TLDR: Wir schlagen einen hierarchischen Rahmen vor, der das Matching-Modell für die Dialogauswahl von Gegenbeispielen trainiert.
- A Joint Model for Dropped Pronoun Recovery and Conversational Discourse Parsing in Chinese Conversational Speech
- Jingxuan Yang, Kerui Xu, Jun Xu, Si Li, Sheng Gao, Jun Guo, Nianwen Xue, Ji-Rong Wen
- TLDR: Wir stellen ein neuronales Modell vor, das Dropped Pronoun Recovery und Konversationelles Parsing (CDP) in Chinese conversational speech kombiniert.
- A Systematic Investigation of KB-Text Embedding Alignment at Scale
- Vardaan Pahuja, Yu Gu, Wenhu Chen, Mehdi Bahrami, Lei Liu, Wei-Peng Chen, Yu Su
- TLDR: Wir stellen eine groß angelegte empirische Untersuchung vor, um Text- und KB-Einbettungen für gemeinsame Schlussfolgerungen zu nutzen.
- Named Entity Recognition with Small Strongly Labeled and Large Weakly Labeled Data
- Haoming Jiang, Danqing Zhang, Tianyu Cao, Bing Yin, Tuo Zhao
- TLDR: Wir schlagen einen neuen Multi-Stage-Rechner vor, der die Kritik an weichen Labels und den schlechten Überwachungsaufgaben effektiv abschwächt.
- Ultra-Fine Entity Typing with Weak Supervision from a Masked Language Model
- Hongliang Dai, Yangqiu Song, Haixun Wang
- TLDR: Wir schlagen BERT vor, ein BERT Masked Language Model, das auf die typische Entitätszeichnung hinweist.
- Improving Named Entity Recognition by External Context Retrieving and Cooperative Learning
- Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: Wir schlagen einen Algorithmus vor, der die externen Kontexte von Sätzen und ihren externen Kontexten in einer Textsuche erfasst.
- Implicit Representations of Meaning in Neural Language Models
- Belinda Z. Li, Maxwell Nye, Jacob Andreas
- TLDR: Wir identifizieren kontextuelle Worterepräsentationen, die als Modelle von Entitäten und Situationen funktionieren, und verwenden sie zur Sprachmodellierung.
- Causal Analysis of Syntactic Agreement Mechanisms in Neural Language Models
- Matthew Finlayson, Aaron Mueller, Sebastian Gehrmann, Stuart Shieber, Tal Linzen, Yonatan Belinkov
- TLDR: Wir untersuchen, ob neuronale Sprachmodelle die Konsistenz von Satzbeschriftungen ähnlich empfinden, wenn sie mit Satzbeschriftungen mit ähnlicher Syntaxurbeschriftung abstimmen.
- Bird’s Eye: Probing for Linguistic Graph Structures with a Simple Information-Theoretic Approach
- Yifan Hou, Mrinmaya Sachan
- TLDR: Wir schlagen Bird’s Eye vor, eine neuartige Probe, die syntaktische und semantische Informationen in neuronalen Graphenkodierungen kodiert.
- Knowledgeable or Educated Guess? Revisiting Language Models as Knowledge Bases
- Boxi Cao, Hongyu Lin, Xianpei Han, Le Sun, Lingyong Yan, Meng Liao, Tong Xue, Jin Xu
- TLDR: Wir untersuchen die Hypothese, dass MLMs als zuverlässige Wissensdatenbanken dienen können.
- Poisoning Knowledge Graph Embeddings via Relation Inference Patterns
- Peru Bhardwaj, John Kelleher, Luca Costabello, Declan O’Sullivan
- TLDR: Wir schlagen eine Methode vor, die die Schätzung der Vorhersageunsicherheit auf Wissensgraphen verbessert.
- Bad Seeds: Evaluating Lexical Methods for Bias Measurement
- Maria Antoniak, David Mimno
- TLDR: Wir stellen soziale Verzerrungen und sprachliche Merkmale vor, die in den Seed-Lexikonen kodiert sind und die Bias-Mediktationen erheblich beinträchtigen können.
- A Survey of Race, Racism, and Anti-Racism in NLP
- Anjalie Field, Su Lin Blodgett, Zeerak Waseem, Yulia Tsvetkov
- TLDR: Wir identifizieren, wo und wie die NLP-Lernzeitzeugung und -ausführungen nicht auf die Frage der Rasse hinweisen.
- Intrinsic Bias Metrics Do Not Correlate with Application Bias
- Seraphina Goldfarb-Tarrant, Rebecca Marchant, Ricardo Muñoz Sánchez, Mugdha Pandya, Adam Lopez
- TLDR: Wir vergleichen intrinsische und extrinsische Metriken für die Sprachbewertung und zeigen, dass sie sich gut ergänzen.
- RedditBias: A Real-World Resource for Bias Evaluation and Debiasing of Conversational Language Models
- Soumya Barikeri, Anne Lauscher, Ivan Vulić, Goran Glavaš
- TLDR: Wir stellen REDDITBIAS vor, die erste Konversationsmetriken, die auf reale menschliche Gespräche abgeleitet wurden, die in Reddit basieren.
- Contributions of Transformer Attention Heads in Multi- and Cross-lingual Tasks
- Weicheng Ma, Kai Zhang, Renze Lou, Lili Wang, Soroush Vosoughi
- TLDR: Wir zeigen, dass Aufmerksamkeitshäufigkeiten für Transformer-basiertes Lernen wichtig sind und dass sie die Interpretation von Texten verbessern können.
- Crafting Adversarial Examples for Neural Machine Translation
- Xinze Zhang, Junzhe Zhang, Zhenhua Chen, Kun He
- TLDR: Wir schlagen eine neue Methode vor, um NMT-Angriffe effektiv zu bewerten und die Verzerrung der Übersetzung zu beeinflussen.
- UXLA: A Robust Unsupervised Data Augmentation Framework for Zero-Resource Cross-Lingual NLP
- M Saiful Bari, Tasnim Mohiuddin, Shafiq Joty
- TLDR: Wir schlagen UXLA vor, einen neuartigen unbeaufsichtigten Datensatz für zero-resources Sprachtransferlernen.
- Glancing Transformer for Non-Autoregressive Neural Machine Translation
- Lihua Qian, Hao Zhou, Yu Bao, Mingxuan Wang, Lin Qiu, Weinan Zhang, Yong Yu, Lei Li
- TLDR: Wir schlagen ein neues neuronales Sprachmodell vor, das auf der gleichen Architektur wie Transformer basiert und gleichzeitig eine bessere Leistung als Transformer bietet.
- Hierarchical Context-aware Network for Dense Video Event Captioning
- Lei Ji, Xianglin Guo, Haoyang Huang, Xilin Chen
- TLDR: Wir stellen eine neuartige Hierarchie für den Einsatz von Video-Eigenschaften vor, die kontextualisch aus verschiedenen Aspekten abbildet.
- Control Image Captioning Spatially and Temporally
- Kun Yan, Lei Ji, Huaishao Luo, Ming Zhou, Nan Duan, Shuai Ma
- TLDR: Wir schlagen ein neues Modell vor, das Contrastive Constraints und Attention Guidance miteinander verbindet, und das generative Modell lernt, die richtigen visuellen Objekte zu erkennen.
- Edited Media Understanding Frames: Reasoning About the Intent and Implications of Visual Misinformation
- Jeff Da, Maxwell Forbes, Rowan Zellers, Anthony Zheng, Jena D. Hwang, Antoine Bosselut, Yejin Choi
- TLDR: Wir stellen eine Aufgabe vor, die die Erkennung von manipulierten Bildern und ihre Auswirkungen auf die Verhinderung von Wissensverfälschungen und die Verhinderung von Wissensverfälschungen untersucht.
- PIGLeT: Language Grounding Through Neuro-Symbolic Interaction in a 3D World
- Rowan Zellers, Ari Holtzman, Matthew Peters, Roozbeh Mottaghi, Aniruddha Kembhavi, Ali Farhadi, Yejin Choi
- TLDR: Wir schlagen PIGLeT vor, ein Modell, das physikalisches Wissen durch Interaktion erlernt und dann verwendet dieses Wissen, um sprachliche Formen und Ausdrucksmittel zu entwickeln.
- Modeling Fine-Grained Entity Types with Box Embeddings
- Yasumasa Onoe, Michael Boratko, Andrew McCallum, Greg Durrett
- TLDR: Wir zeigen, dass Box-basiertes typographisches Modell die latenten Typenhierarchien besser erfasst als das vectorbasierte Modell.
- ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin Information
- Zijun Sun, Xiaoya Li, Xiaofei Sun, Yuxian Meng, Xiang Ao, Qing He, Fei Wu, Jiwei Li
- TLDR: Wir schlagen ChineseBERT vor, eine Erweiterung auf die Chinesische Sprache, die syntaktische und semantische Informationen für das Verständnis von Chinesisch enthält.
- Weight Distillation: Transferring the Knowledge in Neural Network Parameters
- Ye Lin, Yanyang Li, Ziyang Wang, Bei Li, Quan Du, Tong Xiao, Jingbo Zhu
- TLDR: Wir schlagen Weight Distillation vor, um Wissen aus einem großen neuronalen Netz zu einem kleinen neuronalen Netz zu transferieren.
- Optimizing Deeper Transformers on Small Datasets
- Peng Xu, Dhruv Kumar, Wei Yang, Wenjie Zi, Keyi Tang, Chenyang Huang, Jackie Chi Kit Cheung, Simon J.D. Prince, Yanshuai Cao
- TLDR: Wir trainieren 48 Schichten von Transformatoren, die von den Vortrainierten RobertTa und RoberTa trainiert wurden, und erreichen eine neue Spitzenleistung auf der Grundlage von Datenabhängigen Transformers.
- BERTAC: Enhancing Transformer-based Language Models with Adversarially Pretrained Convolutional Neural Networks
- Jong-Hoon Oh, Ryu Iida, Julien Kloetzer, Kentaro Torisawa
- TLDR: Wir pretrieren eine CNN mit einem GAN-Modell und Wikipedia-Datensätzen und entwickeln eine neue CNN-Architektur, die auf GLUE- und Qasar-T-QA-QAs eine ähnliche Leistung wie SOTA erbringt.
- COVID-Fact: Fact Extraction and Verification of Real-World Claims on COVID-19 Pandemic
- Arkadiy Saakyan, Tuhin Chakrabarty, Smaranda Muresan
- TLDR: Wir stellen einen FEVER-Like-Datensätzen COVID-Fact vor, der 4,086 Behauptungen über die COVID-19-Pamperung enthält.
- Explaining Relationships Between Scientific Documents
- Kelvin Luu, Xinyi Wu, Rik Koncel-Kedziorski, Kyle Lo, Isabel Cachola, Noah A. Smith
- TLDR: Wir stellen einen Datensatz von 622K Beispielen aus 154K Dokumenten vor, die als Sprachmodelle dienen können, um Beziehungen zwischen zwei Forschungsdokumenten zu erklären.
- IrEne: Interpretable Energy Prediction for Transformers
- Qingqing Cao, Yash Kumar Lal, Harsh Trivedi, Aruna Balasubramanian, Niranjan Balasubramanian
- TLDR: Wir stellen IrEne vor, eine energieeffiziente Vorhersage und Analyse von Transformer-basierten NLP-Modellen.
- Mitigating Bias in Session-based Cyberbullying Detection: A Non-Compromising Approach
- Lu Cheng, Ahmadreza Mosallanezhad, Yasin Silva, Deborah Hall, Huan Liu
- TLDR: Wir schlagen eine kontextualisch und modell-agnostische Detektorenstrategie vor, die eine Reinforcement Learning Technik nutzt, ohne dass die Aufmerksamkeit auf die Cyberbullying-Instanzen benötigt wird.
- PlotCoder: Hierarchical Decoding for Synthesizing Visualization Code in Programmatic Context
- Xinyun Chen, Linyuan Gong, Alvin Cheung, Dawn Song
- TLDR: Wir schlagen eine neue Aufgabe vor, die die Kombination von natürlichen Sprachausdrücken und Code-Interferenz modelliert.
- Changing the World by Changing the Data
- Anna Rogers
- TLDR: Wir schlagen eine neue Methode zur Datenerweiterung vor, die auf die Datenerweiterung anwendbar ist.
- EarlyBERT: Efficient BERT Training via Early-bird Lottery Tickets
- Xiaohan Chen, Yu Cheng, Shuohang Wang, Zhe Gan, Zhangyang Wang, Jingjing Liu
- TLDR: Wir schlagen EarlyBERT vor, einen allgemeinen, effizienten und skalierbaren Trainingsalgorithmus für das Vortraining und die Fine-Tuning von großen Sprachmodellen.
- On the Effectiveness of Adapter-based Tuning for Pretrained Language Model Adaptation
- Ruidan He, Linlin Liu, Hai Ye, Qingyu Tan, Bosheng Ding, Liying Cheng, Jiawei Low, Lidong Bing, Luo Si
- TLDR: Wir zeigen, dass adaptives Lernen besser mit Vergessen umgehen kann als fine-tuning.
- Data Augmentation for Text Generation Without Any Augmented Data
- Wei Bi, Huayang Li, Jiacheng Huang
- TLDR: Wir stellen das Problem der Datenerweiterung auf Texterzeugungsaufgaben ohne Verwendung von Datenmapping-Funktionen vor und schlagen einen Ansatz vor, um die Probleme der Datenerweiterung bei Texterzeugungsaufgaben zu lösen.
- Integrating Semantics and Neighborhood Information with Graph-Driven Generative Models for Document Retrieval
- Zijing Ou, Qinliang Su, Jianxing Yu, Bang Liu, Jingwen Wang, Ruihui Zhao, Changyou Chen, Yefeng Zheng
- TLDR: Wir schlagen eine Tree-Strukturierte approximationsmethode vor, um das Problem der Korrelation zwischen Dokumenten zu lösen.
- SMURF: SeMantic and linguistic UndeRstanding Fusion for Caption Evaluation via Typicality Analysis
- Joshua Feinglass, Yezhou Yang
- TLDR: Wir stellen Typicality vor, eine neue Bewertungsmaßnahme, die sich auf die Klassifizierung von Bildern und die Verbesserung der menschlichen Korrelation anwenden lässt.
- KaggleDBQA: Realistic Evaluation of Text-to-SQL Parsers
- Chia-Hsuan Lee, Oleksandr Polozov, Matthew Richardson
- TLDR: Wir stellen eine neue Aufgabe vor, die auf realen Web-Datensätzen zur Beantwortung von Text-to-SQL-Fragen verwendet werden kann.
- QASR: QCRI Aljazeera Speech Resource A Large Scale Annotated Arabic Speech Corpus
- Hamdy Mubarak, Amir Hussein, Shammur Absar Chowdhury, Ahmed Ali
- TLDR: Wir stellen einen neuen Sprachkorpus vor, der aus einer CNN-Domänenabfrage abgeleitet wurde.
- An Empirical Study on Hyperparameter Optimization for Fine-Tuning Pre-trained Language Models
- Xueqing Liu, Chi Wang
- TLDR: Wir analysieren und bewerten HPO-Algorithmen, die mit grid-Such und Zeitbudgets übertreffen.
- Better than Average: Paired Evaluation of NLP systems
- Maxime Peyrard, Wei Zhao, Steffen Eger, Robert West
- TLDR: Wir stellen eine Methode zur Bewertung von Bewertungsergebnissen vor, die auf der Schätzung der Wahrscheinlichkeit basiert, dass ein System die meisten Punkte besser als ein anderes auf dem Testsatz hat.
- Chase: A Large-Scale and Pragmatic Chinese Dataset for Cross-Database Context-Dependent Text-to-SQL
- Jiaqi Guo, Ziliang Si, Yu Wang, Qian Liu, Ming Fan, Jian-Guang Lou, Zijiang Yang, Ting Liu
- TLDR: Wir stellen Chase vor, einen großen und praxisorientierten Datensatz für das Problem des kontextabhängigen Text-to-SQL-Problems.
- CLINE: Contrastive Learning with Semantic Negative Examples for Natural Language Understanding
- Dong Wang, Ning Ding, Piji Li, Haitao Zheng
- TLDR: Wir schlagen Contrastive Learning mit semantIc Negative Examples (CLINE) vor, um die Robustheit bei der Abwehr von semantischen Störungen zu verbessern.
- Tree-Structured Topic Modeling with Nonparametric Neural Variational Inference
- Ziye Chen, Cheng Ding, Zusheng Zhang, Yanghui Rao, Haoran Xie
- TLDR: Wir stellen ein Tree-Structurated Topics-Modell vor, das auf der neuronalen Variationsinferenz basiert.
- ExCAR: Event Graph Knowledge Enhanced Explainable Causal Reasoning
- Li Du, Xiao Ding, Kai Xiong, Ting Liu, Bing Qin
- TLDR: Wir stellen eine neue Methode vor, um die Logik der Kausalität zu erklären.
- Distributed Representations of Emotion Categories in Emotion Space
- Xiangyu Wang, Chengqing Zong
- TLDR: Wir schlagen einen Rahmen vor, um Emotionen in Emotionsraum zu lernen, die mit einem neuronalen Netzen dargestellt werden können.
- Style is NOT a single variable: Case Studies for Cross-Stylistic Language Understanding
- Dongyeop Kang, Eduard Hovy
- TLDR: Wir stellen eine neue Benchmark-Architektur vor, die auf Satzebene eine neue Methode zur Spracherkennung und Bewertung von Stilen enthält.
- DynaSent: A Dynamic Benchmark for Sentiment Analysis
- Christopher Potts, Zhengxuan Wu, Atticus Geiger, Douwe Kiela
- TLDR: Wir stellen DynaSent vor, eine neue English-language Benchmark-Aufgabe zur ternary (negative/neutral) Gefühlsanalyse.
- A Hierarchical VAE for Calibrating Attributes while Generating Text using Normalizing Flow
- Bidisha Samanta, Mohit Agrawal, NIloy Ganguly
- TLDR: Wir schlagen eine hierarchische Architektur vor, die die Kontrolle über die Attributen eines bestimmten Merkmals ermöglicht.
- A Unified Generative Framework for Aspect-based Sentiment Analysis
- Hang Yan, Junqi Dai, Tuo Ji, Xipeng Qiu, Zheng Zhang
- TLDR: Wir verwenden das Vortrainingsmodell BART, um alle ABSA-Subtasks in einem End-to-End-Rahmen zu lösen.
- Discovering Dialogue Slots with Weak Supervision
- Vojtěch Hudeček, Ondřej Dušek, Zhou Yu
- TLDR: Wir schlagen ein neuronales Netzmodell vor, das automatisch Dialogzugriffe auf Dialogräume mit Hilfe von Texten aus den Trainingsdaten erlernt.
- Enhancing the generalization for Intent Classification and Out-of-Domain Detection in SLU
- Yilin Shen, Yen-Chang Hsu, Avik Ray, Hongxia Jin
- TLDR: Wir schlagen eine neue Methode vor, die die Überconfident-Faltung eines Klassifizierers reduziert und gleichzeitig die Erkennung von Absichten in einem Bereich unterstützt.
- PROTAUGMENT: Unsupervised diverse short-texts paraphrasing for intent detection meta-learning
- Thomas Dopierre, Christophe Gravier, Wilfried Logerais
- TLDR: Wir schlagen ProtAugment vor, einen Meta-Lernansatz für die Erkennung von wenigen Bildern.
- Robustness Testing of Language Understanding in Task-Oriented Dialog
- Jiexi Liu, Ryuichi Takanobu, Jiaxin Wen, Dazhen Wan, Hongguang Li, Weiran Nie, Cheng Li, Wei Peng, Minlie Huang
- TLDR: Wir stellen drei wichtige Aspekte für das Verständnis von sprachen in realen Dialogsystemen vor und schlagen ein Modell-Agnostisches Werkzeugkit zur Testung der Robustheit bei Aufgabenoriented Dialogs vor.
- Comprehensive Study: How the Context Information of Different Granularity Affects Dialogue State Tracking?
- Puhai Yang, Heyan Huang, Xian-Ling Mao
- TLDR: Wir untersuchen und bewerten, wie die Kontextinformationen von verschiedenen Gradienten für die Dialog-Status-Training-Training-Strategie entscheidend sind.
- OTTers: One-turn Topic Transitions for Open-Domain Dialogue
- Karin Sevegnani, David M. Howcroft, Ioannis Konstas, Verena Rieser
- TLDR: Wir stellen eine Aufgabe vor, die eine GAN-Architektur für die Themenübertragung und die Texterzeugung nutzt.
- Towards Robustness of Text-to-SQL Models against Synonym Substitution
- Yujian Gan, Xinyun Chen, Qiuping Huang, Matthew Purver, John R. Woodward, Jinxia Xie, Pengsheng Huang
- TLDR: Wir stellen Spider-Syn vor, eine maschinelles Lernen-Architektur für die Text-to-SQL-Übersetzung und verwenden sie zur Verbesserung der Robustheit bei der Verwechwältigung von Synonymen.
- KACE: Generating Knowledge Aware Contrastive Explanations for Natural Language Inference
- Qianglong Chen, Feng Ji, Xiangji Zeng, Feng-Lin Li, Ji Zhang, Haiqing Chen, Yin Zhang
- TLDR: Wir schlagen eine neue Methode vor, um kontrastive Erklärungen mit kontrafaktischen Beispielen in neuronalen Netzen zu generieren.
- Self-Guided Contrastive Learning for BERT Sentence Representations
- Taeuk Kim, Kang Min Yoo, Sang-goo Lee
- TLDR: Wir schlagen eine neue Methode vor, die die Selbst-Guidance nutzt, um BERT-Szenenrepräsentationen zu verbessern.
- LGESQL: Line Graph Enhanced Text-to-SQL Model with Mixed Local and Non-Local Relations
- Ruisheng Cao, Lu Chen, Zhi Chen, Yanbin Zhao, Su Zhu, Kai Yu
- TLDR: Wir schlagen ein Line Graphen Enhanced Text-to-SQL (LGESQL) Modell vor, um die unteren relationalen Merkmale zu ermitteln, ohne die Verwendung von Meta-Paths.
- Multi-stage Pre-training over Simplified Multimodal Pre-training Models
- Tongtong Liu, Fangxiang Feng, Xiaojie Wang
- TLDR: Wir schlagen eine Multi-Stage Pre-Training-Methode vor, die Informationen mit unterschiedlicher granularität aus Worten, Phrasen und Bildern verwendet, um ein Modell in mehreren Sätzen zu pre-trainieren.
- Beyond Sentence-Level End-to-End Speech Translation: Context Helps
- Biao Zhang, Ivan Titov, Barry Haddow, Rico Sennrich
- TLDR: Wir stellen eine Ensemble-Dekodiermethode vor, die Dokumenten- und Satzebene kontextualisch interpretiert.
- LayoutLMv2: Multi-modal Pre-training for Visually-rich Document Understanding
- Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei Florencio, Cha Zhang, Wanxiang Che, Min Zhang, Lidong Zhou
- TLDR: Wir schlagen eine neue Architektur vor, die die Interaktion zwischen Text und Bild modelliert und die Erkennung von Text und Bild in einem einzigen Multi-Modal Framework nutzt.
- UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning
- Wei Li, Can Gao, Guocheng Niu, Xinyan Xiao, Hao Liu, Jiachen Liu, Hua Wu, Haifeng Wang
- TLDR: Wir schlagen eine neue Architektur vor, die sowohl single- als auch multi-modal Vortrainingsmethoden effektiv anwenden kann.
- Missing Modality Imagination Network for Emotion Recognition with Uncertain Missing Modalities
- Jinming Zhao, Ruichen Li, Qin Jin
- TLDR: Wir schlagen ein neues Modell vor, das die Vermischung von Modifikationen in einer Multimodalen Fusion vorhersagt.
- Stacked Acoustic-and-Textual Encoding: Integrating the Pre-trained Models into Speech Translation Encoders
- Chen Xu, Bojie Hu, Yanyang Li, Yuhao Zhang, Shen Huang, Qi Ju, Tong Xiao, Jingbo Zhu
- TLDR: Wir schlagen eine Stacked Acoustic-and Textual Encoding (SATE) Methode vor, die die globalen Repräsentationen von Texten aus einer Textquelle kodiert.
- N-ary Constituent Tree Parsing with Recursive Semi-Markov Model
- Xin Xin, Jinlong Li, Zeqi Tan
- TLDR: Wir schlagen ein neues graphbasiertes Modell vor, das auf der Suche nach einem geeigneten Kandidaten für die Entflechtung von Kindern mit mehreren Kindern basiert.
- Automated Concatenation of Embeddings for Structured Prediction
- Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: Wir schlagen Automatisierung vor, um die Suche nach besseren Konzentrationen von Einbettungen für strukturierte Vorhersagen zu automatisieren.
- Multi-View Cross-Lingual Structured Prediction with Minimum Supervision
- Zechuan Hu, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: Wir schlagen einen Multiview-Rahmen vor, um strukturierte Vorhersagen von Sprachmodellen aus mehreren Sprachbeschriftungen zu lösen.
- The Limitations of Limited Context for Constituency Parsing
- Yuchen Li, Andrej Risteski
- TLDR: Wir stellen eine theoretische Frage vor, die sich bei der Syntax-Erklärung und beim Parsing von Texten stellt.
- Neural Bi-Lexicalized PCFG Induction
- Songlin Yang, Yanpeng Zhao, Kewei Tu
- TLDR: Wir schlagen einen Ansatz vor, um L-PCFGs ohne implizite Instanzitäten zu parametrisieren.
- Ruddit: Norms of Offensiveness for English Reddit Comments
- Rishav Hada, Sohi Sudhir, Pushkar Mishra, Helen Yannakoudakis, Saif M. Mohammad, Ekaterina Shutova
- TLDR: Wir stellen einen neuen Datensatz von Reddit-Beiträgen vor, der mit einer Methode zur Bewertung von Ausreißern umgehen kann.
- Towards Quantifiable Dialogue Coherence Evaluation
- Zheng Ye, Liucun Lu, Lishan Huang, Liang Lin, Xiaodan Liang
- TLDR: Wir schlagen Quantifiable Dialogue Coherence Evaluation (QuantiDCE) vor, ein neuartiges Rahmenwerk, das eine quantifiable Dialogkoherenzmetrikenauswertung trainiert, die die menschlichen Bewertungsstandards wiederspiegelt.
- Assessing the Representations of Idiomaticity in Vector Models with a Noun Compound Dataset Labeled at Type and Token Levels
- Marcos Garcia, Tiago Kramer Vieira, Carolina Scarton, Marco Idiart, Aline Villavicencio
- TLDR: Wir stellen einen neuen Datensatz für die Erkennung und Verwendung von Intellektualität vor, der auf Typen und Tokenbene generiert werden kann.
- Factoring Statutory Reasoning as Language Understanding Challenges
- Nils Holzenberger, Benjamin Van Durme
- TLDR: Wir stellen statutory reasoning in vier Sprachaufgaben unter Sprachprobleme zusammen und stellen eine neue Struktur vor, die die Sprachverständnisprobleme erfasst.
- Evaluating Evaluation Measures for Ordinal Classification and Ordinal Quantification
- Tetsuya Sakai
- TLDR: Wir verwenden Daten aus der SemEval und NTCIR-Gesellschaft, um die Eigenschaften von Bewertungsmetzen für OC- und OQ-Aufgaben zu clarifizieren.
- Interpretable and Low-Resource Entity Matching via Decoupling Feature Learning from Decision Making
- Zijun Yao, Chengjiang Li, Tiansi Dong, Xin Lv, Jifan Yu, Lei Hou, Juanzi Li, Yichi Zhang, Zelin Dai
- TLDR: Wir schlagen ein EM-Rahmen vor, das die Entitätsmatching-Methode nutzt, um die Entitäten von mehreren Dokumenten zu erkennen.
- Locate and Label: A Two-stage Identifier for Nested Named Entity Recognition
- Yongliang Shen, Xinyin Ma, Zeqi Tan, Shuai Zhang, Wen Wang, Weiming Lu
- TLDR: Wir schlagen einen zweistufigen Entitätsidentifizer vor, der die Entitäten von mehreren Längen erkennt.
- Text2Event: Controllable Sequence-to-Structure Generation for End-to-end Event Extraction
- Yaojie Lu, Hongyu Lin, Jin Xu, Xianpei Han, Jialong Tang, Annan Li, Le Sun, Meng Liao, Shaoyi Chen
- TLDR: Wir schlagen Text2Event vor, einen sequenz-zu-strukturen Generators, der direkt auf die Texterzeugung von Texten zugreifen kann.
- A Large-Scale Chinese Multimodal NER Dataset with Speech Clues
- Dianbo Sui, Zhengkun Tian, Yubo Chen, Kang Liu, Jun Zhao
- TLDR: Wir schlagen ein neues, auf Texten basierendes, sprachenübergreifendes NER-Modell vor, das auf sprachenübergreifenden Texten und Audio-Anpassung basiert.
- A Neural Transition-based Joint Model for Disease Named Entity Recognition and Normalization
- Zongcheng Ji, Tian Xia, Mei Han, Jing Xiao
- TLDR: Wir schlagen ein neuronales Transformationsmodell vor, das die Entitätenerkennung und die Normalisierung von Krankheitsverallgemeinerung in einem Suchraum kombiniert.
- OntoED: Low-resource Event Detection with Ontology Embedding
- Shumin Deng, Ningyu Zhang, Luoqiu Li, Chen Hui, Tou Huaixiao, Mosha Chen, Fei Huang, Huajun Chen
- TLDR: Wir schlagen einen neuen Rahmen für die Erkennung von Ereignissen vor, der auf die Entwirrbarkeit von Datensätzen basiert.
- Self-Training Sampling with Monolingual Data Uncertainty for Neural Machine Translation
- Wenxiang Jiao, Xing Wang, Zhaopeng Tu, Shuming Shi, Michael Lyu, Irwin King
- TLDR: Wir schlagen eine unsichere Sprachauswahl vor, die die Unsicherheiten von Sprachsätzen mit geringer Unsicherheit reduziert.
- Breaking the Corpus Bottleneck for Context-Aware Neural Machine Translation with Cross-Task Pre-training
- Linqing Chen, Junhui Li, Zhengxian Gong, Boxing Chen, Weihua Luo, Min Zhang, Guodong Zhou
- TLDR: Wir schlagen einen neuen Ansatz vor, um kontextbewusste neuronale Übersetzungen zu verbessern.
- Guiding Teacher Forcing with Seer Forcing for Neural Machine Translation
- Yang Feng, Shuhao Gu, Dengji Guo, Zhengxin Yang, Chenze Shao
- TLDR: Wir stellen einen Decoder vor, der die Zukunftsinformationen nutzt, um die Vorhersagen von Vorhersagen in Bezug auf die Zielvorhersage zu steuern.
- Cascade versus Direct Speech Translation: Do the Differences Still Make a Difference?
- Luisa Bentivogli, Mauro Cettolo, Marco Gaido, Alina Karakanta, Alberto Martinelli, Matteo Negri, Marco Turchi
- TLDR: Wir vergleichen die Leistung von Sprachübersetzungssystemen und Sprachinterpretationen und stellen fest, dass die Lücke zwischen den beiden Welten geschlossen ist.
- Unsupervised Neural Machine Translation for Low-Resource Domains via Meta-Learning
- Cheonbok Park, Yunwon Tae, TaeHee Kim, Soyoung Yang, Mohammad Azam Khan, Lucy Park, Jaegul Choo
- TLDR: Wir stellen einen Meta-Lernansatz für unüberwachte neuronale maschinelle Übersetzung vor, der die Datenverschiebungen von Datensätzen reduziert.
- Lightweight Cross-Lingual Sentence Representation Learning
- Zhuoyuan Mao, Prakhar Gupta, Chenhui Chu, Martin Jaggi, Sadao Kurohashi
- TLDR: Wir stellen eine leichtgewichtige dual-Transformer-Architektur mit nur 2 Schichten für die Erstellung von speichereffizienten und sprachenübergreifenden Satzrepräsentationen vor.
- ERNIE-Doc: A Retrospective Long-Document Modeling Transformer
- SiYu Ding, Junyuan Shang, Shuohuan Wang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: Wir schlagen ERNIE-Doc vor, ein Dokumentebene-Spärlichkeitsmodell, das auf Rekurrente Transformer-Techniken basiert.
- Marginal Utility Diminishes: Exploring the Minimum Knowledge for BERT Knowledge Distillation
- Yuanxin Liu, Fandong Meng, Zheng Lin, Weiping Wang, Jie Zhou
- TLDR: Wir schlagen einen effizienten KD-Rahmen vor, um BERT zu komprimieren, ohne dass die Lehrerin während des Trainings des Schülers zu einer Lernumgebung wird.
- Rational LAMOL: A Rationale-based Lifelong Learning Framework
- Kasidis Kanwatchara, Thanapapas Horsuwan, Piyawat Lertvittayakumjorn, Boonserm Kijsirikul, Peerapon Vateekul
- TLDR: Wir stellen Rational LAMOL vor, ein neuartiges End-to-End-Lernen für Sprachmodelle.
- EnsLM: Ensemble Language Model for Data Diversity by Semantic Clustering
- Zhibin Duan, Hao Zhang, Chaojie Wang, Zhengjue Wang, Bo Chen, Mingyuan Zhou
- TLDR: Wir schlagen ein Ensemble-Modell vor, das auf der Suche nach Wissensdaten mit verschiedenen Clustern mit unterschiedlichen Backbones ist.
- LeeBERT: Learned Early Exit for BERT with cross-level optimization
- Wei Zhu
- TLDR: Wir schlagen ein neuartiges Trainingsschema vor, das lernt, frühzeitig zu schließen, um die Optimierung von BERT auf mehreren Ebenen zu verbessern.
- Unsupervised Extractive Summarization-Based Representations for Accurate and Explainable Collaborative Filtering
- Reinald Adrian Pugoy, Hung-Yu Kao
- TLDR: Wir schlagen ein neues, auf Extraktionsauswertungen basierendes Modell vor, das die Erklärungen für die einzelnen Eingaben und Benutzer ersetzt.
- PLOME: Pre-training with Misspelled Knowledge for Chinese Spelling Correction
- Shulin Liu, Tao Yang, Tianchi Yue, Feng Zhang, Di Wang
- TLDR: Wir schlagen ein maskiertes Sprachmodell mit misspelled knowledgE (PLOME) vor, das gemeinsam lernt, wie man die Sprachaussprache und die Grammatik richtig korrigiert.
- Competence-based Multimodal Curriculum Learning for Medical Report Generation
- Fenglin Liu, Shen Ge, Xian Wu
- TLDR: Wir schlagen ein Multimodales Curriculum-Lernen vor, das die Datenverzerrung und die Vielfalt der medizinischen Daten berücksichtigt.
- Learning Syntactic Dense Embedding with Correlation Graph for Automatic Readability Assessment
- Xinying Qiu, Yuan Chen, Hanwu Chen, Jian-Yun Nie, Yuming Shen, Dawei Lu
- TLDR: Wir schlagen eine BERT-Only-Methode vor, um sprachliche Merkmale in neuronale Netzmodelle zu integrieren.
- Meta-KD: A Meta Knowledge Distillation Framework for Language Model Compression across Domains
- Haojie Pan, Chengyu Wang, Minghui Qiu, Yichang Zhang, Yaliang Li, Jun Huang
- TLDR: Wir schlagen Meta-Knowledge-Distillation (Meta-KD) vor, um ein Meta-Teacher-Modell zu schaffen, das Transferable Wissen von mehreren Domänen erfasst und das Wissen auf die Schüler weiterverbringt.
- A Semantic-based Method for Unsupervised Commonsense Question Answering
- Yilin Niu, Fei Huang, Jiaming Liang, Wenkai Chen, Xiaoyan Zhu, Minlie Huang
- TLDR: Wir stellen eine neuartige Semantik-basierte Question Answering Methode vor, die die richtigen Antworten auf unbeaufsichtigte Fragen erwählt.
- Explanations for CommonsenseQA: New Dataset and Models
- Shourya Aggarwal, Divyanshu Mandowara, Vishwajeet Agrawal, Dinesh Khandelwal, Parag Singla, Dinesh Garg
- TLDR: Wir humanisieren einen Datensatz mit einer Reihe von Eigenschaften, die die Antwort auf eine Frage erklären, und generieren Erklärungen für die Antwort, die falschen Antworten oder die falschen Antworten.
- Few-Shot Question Answering by Pretraining Span Selection
- Ori Ram, Yuval Kirstain, Jonathan Berant, Amir Globerson, Omer Levy
- TLDR: Wir stellen eine neue Methode vor, die auf Fragen zur Antwort anwendbar ist und die Leistung bei der Frage-Antwort-Auswahl verbessert.
- UnitedQA: A Hybrid Approach for Open Domain Question Answering
- Hao Cheng, Yelong Shen, Xiaodong Liu, Pengcheng He, Weizhu Chen, Jianfeng Gao
- TLDR: Wir verwenden neue Techniken, um sowohl die Extraktions- als auch die Generative Leseverstehen zu verbessern.
- Database reasoning over text
- James Thorne, Majid Yazdani, Marzieh Saeidi, Fabrizio Silvestri, Sebastian Riedel, Alon Halevy
- TLDR: Wir stellen eine modulare Architektur vor, die auf Datensätzen mit mehreren spanden Text verwendet werden kann, um Datensätze mit mehreren Berechnungen zu beantworten.
- Online Learning Meets Machine Translation Evaluation: Finding the Best Systems with the Least Human Effort
- Vânia Mendonça, Ricardo Rei, Luisa Coheur, Alberto Sardinha, Ana Lúcia Santos
- TLDR: Wir schlagen eine neuartige Anwendung vor, die die besten Systeme für die Sprachauswahl eines Ensembles von Automatisierungssystemen dynamisch verlagert.
- How Good is Your Tokenizer? On the Monolingual Performance of Multilingual Language Models
- Phillip Rust, Jonas Pfeiffer, Ivan Vulić, Sebastian Ruder, Iryna Gurevych
- TLDR: Wir stellen eine empirische Vergleichsstudie von pretrierten Sprachmodellen und ihren monolingualen Gegenstücken vor, die die Leistung von monolingualen Modellen bei einer Reihe von Sprachaufgaben verbessert.
- Evaluating morphological typology in zero-shot cross-lingual transfer
- Antonio Martínez-García, Toni Badia, Jeremy Barnes
- TLDR: Wir zeigen, dass morphologische Typologien für die Sprachübertragung von Sprachfamilien und Sprachtypen eine bessere Leistung als die von anderen Typologien haben.
- From Machine Translation to Code-Switching: Generating High-Quality Code-Switched Text
- Ishan Tarunesh, Syamantak Kumar, Preethi Jyothi
- TLDR: Wir adaptieren ein neues generatives Textmodell auf eine Sprachmodellierungsaufgabe und verwenden es auf eine Sprachinferenz, um Code-Switched Text zu generieren.
- Fast and Accurate Neural Machine Translation with Translation Memory
- Qiuxiang He, Guoping Huang, Qu Cui, Li Li, Lemao Liu
- TLDR: Wir schlagen einen schnellen und genauen Ansatz für neuronale maschinelle Übersetzungen vor, der auf mehreren Sprachmodellen basiert.
- Annotating Online Misogyny
- Philine Zeinert, Nanna Inie, Leon Derczynski
- TLDR: Wir stellen eine neue Methode zur Erkennung und Bekämpfung von Misogyny vor und stellen einen Datensatz von Texten vor, die von sozialen Netzwerken mitverteilt wurden.
- Few-NERD: A Few-shot Named Entity Recognition Dataset
- Ning Ding, Guangwei Xu, Yulin Chen, Xiaobin Wang, Xu Han, Pengjun Xie, Haitao Zheng, Zhiyuan Liu
- TLDR: Wir stellen Few-NERD vor, einen großen, humanen und vollständigen NER-Datensätzen mit einer hierarchischen Hierarchie von 8 Coarse-grained und 66 Fine-grained Entitätentypen.
- MultiMET: A Multimodal Dataset for Metaphor Understanding
- Dongyu Zhang, Minghao Zhang, Heting Zhang, Liang Yang, Hongfei Lin
- TLDR: Wir stellen MultiMET vor, einen neuen Multimodal Metaphor-Datensätzen, der die Erkennung und Verständnis von Metapheren aus Text und Bildmaterial ermöglicht.
- Human-in-the-Loop for Data Collection: a Multi-Target Counter Narrative Dataset to Fight Online Hate Speech
- Margherita Fanton, Helena Bonaldi, Serra Sinem Tekiroğlu, Marco Guerini
- TLDR: Wir schlagen eine neuartige Methode zur Datenerfassung vor, die auf Experten-basiertem Multi-Tagging-Gehirn trainiert wird.
- Can Generative Pre-trained Language Models Serve As Knowledge Bases for Closed-book QA?
- Cunxiang Wang, Pai Liu, Yue Zhang
- TLDR: Wir stellen eine neue Aufgabe vor, die auf Wissensspeicherung und QA basiert, und zeigen, dass die Leistung von BART schwierig ist, wenn Wissensverluste bestehen.
- Joint Models for Answer Verification in Question Answering Systems
- Zeyu Zhang, Thuy Vu, Alessandro Moschitti
- TLDR: Wir stellen eine neuronale Architektur vor, die die Entscheidungen eines Multi-Klassifikators über die Antwortsätze ersetzt.
- Answering Ambiguous Questions through Generative Evidence Fusion and Round-Trip Prediction
- Yifan Gao, Henghui Zhu, Patrick Ng, Cicero Nogueira dos Santos, Zhiguo Wang, Feng Nan, Dejiao Zhang, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: Wir stellen ein Modell vor, das die Evidenz von mehreren Passagen kombiniert, um eine Antwort oder eine Reihe von Fragen für ambiguose Fragen zu beantworten.
- TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and Textual Content in Finance
- Fengbin Zhu, Wenqiang Lei, Youcheng Huang, Chao Wang, Shuo Zhang, Jiancheng Lv, Fuli Feng, Tat-Seng Chua
- TLDR: Wir schlagen ein neuartiges QA-Modell vor, das die Antwort auf die Frage über tabellarische und rechnerische Daten erforscht.
- Modeling Transitions of Focal Entities for Conversational Knowledge Base Question Answering
- Yunshi Lan, Jing Jiang
- TLDR: Wir schlagen ein graphbasiertes Modell vor, um die Übertragungen von Zielen zu modellieren und eine Antwortverteilung zu ermitteln.
- Evidence-based Factual Error Correction
- James Thorne, Andreas Vlachos
- TLDR: Wir stellen eine Aufgabe vor, die die Behauptungen von Personen mit Hilfe von Beweisen korrigiert.
- Probabilistic, Structure-Aware Algorithms for Improved Variety, Accuracy, and Coverage of AMR Alignments
- Austin Blodgett, Nathan Schneider
- TLDR: Wir stellen Algorithmen zur Angleichung von Graphen zu Spannen vor, die von AMR-Graphen verwendet werden.
- Meta-Learning to Compositionally Generalize
- Henry Conklin, Bailin Wang, Kenny Smith, Ivan Titov
- TLDR: Wir stellen Meta-Lernen vor, eine Erweiterung auf supervised Learning, die die Verallgemeinerung von Sprachstilen in einer großen Vielfalt von Aufgaben ermöglicht.
- Taming Pre-trained Language Models with N-gram Representations for Low-Resource Domain Adaptation
- Shizhe Diao, Ruijia Xu, Hongjin Su, Yilei Jiang, Yan Song, Tong Zhang
- TLDR: Wir stellen einen Transformer-basierten Domain-aware N-Gram Adaptor, T-DNA, vor, um die Semantik von Wörtern in die neue Domain zu integrieren.
- ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning
- Yujia Qin, Yankai Lin, Ryuichi Takanobu, Zhiyuan Liu, Peng Li, Heng Ji, Minlie Huang, Maosong Sun, Jie Zhou
- TLDR: Wir schlagen ein kontrastives Lernverfahren vor, um Entitäten und Beziehungen in Text zu lernen.
- Position Bias Mitigation: A Knowledge-Aware Graph Model for Emotion Cause Extraction
- Hanqi Yan, Lin Gui, Gabriele Pergola, Yulan He
- TLDR: Wir schlagen eine neue Methode vor, um Emotionen aus ECE-Baumen zu extrahieren und die Wahrnehmungsinformationen für die Erkennung von Emotionen zu nutzen.
- Every Bite Is an Experience: Key Point Analysis of Business Reviews
- Roy Bar-Haim, Lilach Eden, Yoav Kantor, Roni Friedman, Noam Slonim
- TLDR: Wir stellen eine neue Methode zur Bewertungsauswertung vor, die die Bedeutung von Teilpunkten in den Daten erfasst und eine Textausbreitung bietet.
- Structured Sentiment Analysis as Dependency Graph Parsing
- Jeremy Barnes, Robin Kurtz, Stephan Oepen, Lilja Øvrelid, Erik Velldal
- TLDR: Wir schlagen einen neuen Rahmen vor, um strukturiertes Gefühlsgraphenparsing zu lösen.
- Consistency Regularization for Cross-Lingual Fine-Tuning
- Bo Zheng, Li Dong, Shaohan Huang, Wenhui Wang, Zewen Chi, Saksham Singhal, Wanxiang Che, Ting Liu, Xia Song, Furu Wei
- TLDR: Wir schlagen eine neue Methode zur Verbesserung des Verständnisses von Sprachverschiebungen vor, die die Vorhersagesensitivität von Datenverschiebungen reduziert.
- Improving Pretrained Cross-Lingual Language Models via Self-Labeled Word Alignment
- Zewen Chi, Li Dong, Bo Zheng, Shaohan Huang, Xian-Ling Mao, Heyan Huang, Furu Wei
- TLDR: Wir stellen eine Methode zur Sprachverschiebung vor, die die Sprachverschiebungen in mehreren Sprachstilen verbessert.
- Rejuvenating Low-Frequency Words: Making the Most of Parallel Data in Non-Autoregressive Translation
- Liang Ding, Longyue Wang, Xuebo Liu, Derek F. Wong, Dacheng Tao, Zhaopeng Tu
- TLDR: Wir schlagen reverse KD vor, um die Qualität von NAT-Modellen zu verbessern.
- G-Transformer for Document-Level Machine Translation
- Guangsheng Bao, Yue Zhang, Zhiyang Teng, Boxing Chen, Weihua Luo
- TLDR: Wir schlagen G-Transformer vor, um die Aufmerksamkeit von Ziel zu Ziel zu trennen.
- Prevent the Language Model from being Overconfident in Neural Machine Translation
- Mengqi Miao, Fandong Meng, Yijin Liu, Xiao-Hua Zhou, Jie Zhou
- TLDR: Wir schlagen Margin-basiertes Token-Ebene-Objective vor, um die Überconfidenz von LMs zu reduzieren.
- Towards Emotional Support Dialog Systems
- Siyang Liu, Chujie Zheng, Orianna Demasi, Sahand Sabour, Yu Li, Zhou Yu, Yong Jiang, Minlie Huang
- TLDR: Wir schlagen eine Emotional Support Conversation (ESC) Aufgabe vor und schlagen ein ESC Framework vor, das auf der Hilfentheorie basiert.
- Novel Slot Detection: A Benchmark for Discovering Unknown Slot Types in the Task-Oriented Dialogue System
- Yanan Wu, Zhiyuan Zeng, Keqing He, Hong Xu, Yuanmeng Yan, Huixing Jiang, Weiran Xu
- TLDR: Wir stellen eine neue Aufgabe vor, die auf Aufgabenoriented Dialogsysteme zu finden ist, und entwickeln eine neue NSD-Architektur, die die Erkennung von unbekannten oder aus einem Bereich entfernten Slottypen verbessert.
- GTM: A Generative Triple-wise Model for Conversational Question Generation
- Lei Shen, Fandong Meng, Jinchao Zhang, Yang Feng, Jie Zhou
- TLDR: Wir schlagen ein generatives triple-wise Modell mit hierarchischen Variationen für die Erstellung von offenen Domänen-Fragen vor.
- Diversifying Dialog Generation via Adaptive Label Smoothing
- Yida Wang, Yinhe Zheng, Yong Jiang, Minlie Huang
- TLDR: Wir schlagen einen adaptiven Label Smoothing (AdaLabel) Ansatz vor, der die Zielverteilungen für verschiedene Dialogkontexte adaptiv erlernt.
- Out-of-Scope Intent Detection with Self-Supervision and Discriminative Training
- Li-Ming Zhan, Haowen Liang, Bo Liu, Lu Fan, Xiao-Ming Wu, Albert Y.S. Lam
- TLDR: Wir schlagen eine Methode vor, um einen diskriminierenden Klassifikator zu trainieren, indem wir eine Reihe von pseudo-outlierern in der Trainingsphase erlernen.
- Document-level Event Extraction via Heterogeneous Graph-based Interaction Model with a Tracker
- Runxin Xu, Tianyu Liu, Lei Li, Baobao Chang
- TLDR: Wir schlagen ein heterogenes Graphenbasiertes Interaktionsmodell mit einem Tracker vor, um die zwei Herausforderungen auf Artikelebene zu lösen.
- Nested Named Entity Recognition via Explicitly Excluding the Influence of the Best Path
- Yiran Wang, Hiroyuki Shindo, Yuji Matsumoto, Taro Watanabe
- TLDR: Wir stellen eine neue Methode zur Erkennung von Entitäten vor, die die zweite beste Weg-Erkennung nutzt.
- LearnDA: Learnable Knowledge-Guided Data Augmentation for Event Causality Identification
- Xinyu Zuo, Pengfei Cao, Yubo Chen, Kang Liu, Jun Zhao, Weihua Peng, Yuguang Chen
- TLDR: Wir stellen einen neuen Ansatz vor, um Trainingsdaten für die Erkennung von Ereignissen zu erweitern, indem wir iterativ generative Beispiele und Klassifizierungen von Ereignissen erzeugen.
- Revisiting the Negative Data of Distantly Supervised Relation Extraction
- Chenhao Xie, Jiaqing Liang, Jingping Liu, Chengsong Huang, Wenhao Huang, Yanghua Xiao
- TLDR: Wir stellen einen pipeline-Ansatz vor, der die Verzerrung von Beziehungen mit relationalen Labels mit Hilfe von Negativen Labels reduziert.
- Knowing the No-match: Entity Alignment with Dangling Cases
- Zequn Sun, Muhao Chen, Wei Hu
- TLDR: Wir schlagen drei Methoden zur Erkennung von Entitäten vor, die auf der Verteilung der Nachbarschaften beruhen.
- Superbizarre Is Not Superb: Derivational Morphology Improves BERT’s Interpretation of Complex Words
- Valentin Hofmann, Janet Pierrehumbert, Hinrich Schütze
- TLDR: Wir stellen BERT vor, ein Modell, das auf der Entflechtung von Texten basiert und die Generalisierung von Worten ermöglicht.
- BERT is to NLP what AlexNet is to CV: Can Pre-Trained Language Models Identify Analogies?
- Asahi Ushio, Luis Espinosa Anke, Steven Schockaert, Jose Camacho-Collados
- TLDR: Wir analysieren die Fähigkeiten von Transformator-basierten Sprachmodellen, um Abstraktionsverzerrungen und Ähnlichkeiten zu erkennen.
- Exploring the Representation of Word Meanings in Context: A Case Study on Homonymy and Synonymy
- Marcos Garcia
- TLDR: Wir stellen eine multilinguale Studie vor, die die Bedeutung von Wörtern in kontextuellen Sprachmodellen unter Berücksichtigung von Konsistenzdarstellungen unter Berücksichtigung von Konsistenzmerkmalen und Homonymen darstellt.
- Measuring Fine-Grained Domain Relevance of Terms: A Hierarchical Core-Fringe Approach
- Jie Huang, Kevin Chang, JinJun Xiong, Wen-mei Hwu
- TLDR: Wir schlagen hierarchisches core-fringe-Lernen vor, um die Fine-Grad-Domain-Relevanz zu bewerten.
- HERALD: An Annotation Efficient Method to Detect User Disengagement in Social Conversations
- Weixin Liang, Kai-Hui Liang, Zhou Yu
- TLDR: Wir schlagen HERALD vor, einen effizienten Ankündigungsrahmen für die Erkennung von Benutzerabschwächungen in einem offenen Bereich.
- Value-Agnostic Conversational Semantic Parsing
- Emmanouil Antonios Platanios, Adam Pauls, Subhro Roy, Yuchen Zhang, Alexander Kyte, Alan Guo, Sam Thomson, Jayant Krishnamurthy, Jason Wolfe, Jacob Andreas, Dan Klein
- TLDR: Wir schlagen ein Modell vor, das abstrakte Werte über Funktionen nutzt, um die Generalisierung von Dialogprotokollen und Programmen zu verbessern.
- MPC-BERT: A Pre-Trained Language Model for Multi-Party Conversation Understanding
- Jia-Chen Gu, Chongyang Tao, Zhenhua Ling, Can Xu, Xiubo Geng, Daxin Jiang
- TLDR: Wir stellen MPC-BERT vor, ein pre-trained Modell für MPC, das die Erkennung von Gesprächsstimmen und -auswahl in einem gemeinsamen Modell mit mehreren Aufgaben kombiniert.
- Best of Both Worlds: Making High Accuracy Non-incremental Transformer-based Disfluency Detection Incremental
- Morteza Rohanian, Julian Hough
- TLDR: Wir stellen eine Methode zur Erkennung von Sprachverfälschungen vor, die auf BERT-basiert und die Implementierung von Deep Learning-Modellen ermöglicht.
- NeuralWOZ: Learning to Collect Task-Oriented Dialogue via Model-Based Simulation
- Sungdong Kim, Minsuk Chang, Sang-Woo Lee
- TLDR: Wir schlagen NeuralWOZ vor, einen Dialog-Collector-Rahmen vor, der die Modell-basierte Dialogsimulation nutzt.
- CDRNN: Discovering Complex Dynamics in Human Language Processing
- Cory Shain
- TLDR: Wir schlagen ein neuronales, tiefes neuronales, kontinuierliches Zeitdekonvolutional Regressionsnetz vor, das die Zeitverschiebung, nichtlineare und delayed Einflussnahmen von Vorhersagen erfasst.
- Structural Guidance for Transformer Language Models
- Peng Qian, Tahira Naseem, Roger Levy, Ramón Fernandez Astudillo
- TLDR: Wir stellen eine neue Methode vor, die die Syntax in Transformer-Lernansätzen verbessert und die menschliche Generalisierung in Transformer-Lernansätzen ermöglicht.
- Surprisal Estimators for Human Reading Times Need Character Models
- Byung-Doh Oh, Christian Clark, William Schuler
- TLDR: Wir stellen ein graphisches Modell vor, das auf ein strukturelles Parser-basiertes Modell angewendet werden kann, um Worteinbettungen zu generieren.
- CogAlign: Learning to Align Textual Neural Representations to Cognitive Language Processing Signals
- Yuqi Ren, Deyi Xiong
- TLDR: Wir schlagen einen CogAlign-Ansatz vor, um Text- und kognitive Merkmale miteinander zu verbinden.
- Self-Attention Networks Can Process Bounded Hierarchical Languages
- Shunyu Yao, Binghui Peng, Christos Papadimitriou, Karthik Narasimhan
- TLDR: Wir stellen fest, dass die hierarchische Struktur von Dyck-k die Struktur von natürlichen Sprachen erfasst.
- TextSETTR: Few-Shot Text Style Extraction and Tunable Targeted Restyling
- Parker Riley, Noah Constant, Mandy Guo, Girish Kumar, David Uthus, Zarana Parekh
- TLDR: Wir stellen einen neuartigen Ansatz zur Textstilverschiebung vor, der auf unbeschrifteten Texten verwendet werden kann.
- H-Transformer-1D: Fast One-Dimensional Hierarchical Attention for Sequences
- Zhenhai Zhu, Radu Soricut
- TLDR: Wir schlagen eine effiziente Hierarchical Attention-Methode vor, die die hierarchischen Strukturen in den Sequenzen eines natürlichen Sprachstils und einer Vision erfasst.
- Making Pre-trained Language Models Better Few-shot Learners
- Tianyu Gao, Adam Fisch, Danqi Chen
- TLDR: Wir stellen eine Reihe von Methoden zur Feinabstimmung von Sprachmodellen vor, die auf promptbasiertes Feinabstimmungslernen und auf die Erstellung von Aufgabenvorführungen basieren.
- A Sweet Rabbit Hole by DARCY: Using Honeypots to Detect Universal Trigger’s Adversarial Attacks
- Thai Le, Noseong Park, Dongwon Lee
- TLDR: Wir schlagen DARCY vor, einen honeypot-basierten Angriff auf das maschinelles Lernen, der die Vorhersagegenauigkeit eines maschinellen Lernmodells verringert.
- Towards Propagation Uncertainty: Edge-enhanced Bayesian Graph Convolutional Networks for Rumor Detection
- Lingwei Wei, Dou Hu, Wei Zhou, Zhaojuan Yue, Songlin Hu
- TLDR: Wir schlagen ein Bayes’sches Graphen Convolutional Network vor, das robuste Merkmale von Texten und der propagierenden Struktur erfassen kann.
- Label-Specific Dual Graph Neural Network for Multi-Label Text Classification
- Qianwen Ma, Chunyuan Yuan, Wei Zhou, Songlin Hu
- TLDR: Wir schlagen eine neuartige dual-graphische Architektur vor, die Labels-spezifische Komponenten aus Dokumenten extrahiert und die Etiketten von Etiketten kennt.
- TAN-NTM: Topic Attention Networks for Neural Topic Modeling
- Madhur Panwar, Shashank Shailabh, Milan Aggarwal, Balaji Krishnamurthy
- TLDR: Wir schlagen einen Aufmerksamkeitsmechanismus vor, der die Themenverteilung in einer LSTM nutzt, um Themen zu entdecken.
- Cross-language Sentence Selection via Data Augmentation and Rationale Training
- Yanda Chen, Chris Kedzie, Suraj Nair, Petra Galuscakova, Rui Zhang, Douglas Oard, Kathleen McKeown
- TLDR: Wir schlagen einen Ansatz zur Sprachauswahl vor, der auf Datenerweiterung und Negativen-Samplingtechniken basiert und die Sprachauswahl von Sprachbeschriftungen in einer Low-Resource Umgebung ermöglicht.
- A Neural Model for Joint Document and Snippet Ranking in Question Answering for Large Document Collections
- Dimitris Pappas, Ion Androutsopoulos
- TLDR: Wir stellen eine Architektur vor, die die Dokumenten- und Snippet-Auswahl kombiniert und gleichzeitig die Dokumenten- und Snippet-Auswahl für die Dokumentensuche und -auswertung nutzt.
- W-RST: Towards a Weighted RST-style Discourse Framework
- Patrick Huber, Wen Xiao, Giuseppe Carenini
- TLDR: Wir zeigen, dass die Gewichtung von Satzbäumen aus Hilfsaufgaben die Bedeutung von Bedeutungsverteilungen für NLP-Applikationen erhöht.
- ABCD: A Graph Framework to Convert Complex Sentences to a Covering Set of Simple Sentences
- Yanjun Gao, Ting-Hao Huang, Rebecca J. Passonneau
- TLDR: Wir schlagen eine Aufgabe vor, die die Atom-Szenen in komplexen Satzformen dekompliert, und eine Aufgabe, die die Aufgabe der Graphendarstellung nutzt, um die Komplexität von Satzformen zu erklären.
- Which Linguist Invented the Lightbulb? Presupposition Verification for Question-Answering
- Najoung Kim, Ellie Pavlick, Burcu Karagol Ayan, Deepak Ramachandran
- TLDR: Wir stellen eine Methode vor, die die Verzerrung von Vorurteilen und ihre Verifizierung bei der Erkennung von Unbekannten und Unvollständigkeiten berücksichtigt.
- Adversarial Learning for Discourse Rhetorical Structure Parsing
- Longyin Zhang, Fang Kong, Guodong Zhou
- TLDR: Wir stellen eine neue Methode vor, die die gold- und fake-Baumdarstellungen in Tree-Dynamik-Architekturen umwandelt und die Leistung bei der globalen Optimierung erheblich verbessert.
- Exploring Discourse Structures for Argument Impact Classification
- Xin Liu, Jiefu Ou, Yangqiu Song, Xin Jiang
- TLDR: Wir schlagen einen Algorithmus vor, der die Konsistenz von Argumenten in Bezug auf die Auswirkungen eines Satzes erfasst.
- Point, Disambiguate and Copy: Incorporating Bilingual Dictionaries for Neural Machine Translation
- Tong Zhang, Long Zhang, Wei Ye, Bo Li, Jinan Sun, Xiaoyu Zhu, Wen Zhao, Shikun Zhang
- TLDR: Wir schlagen eine neuronale Architektur vor, die bilinguale Wörterbücher in neuronale Maschinen umwandelt.
- VECO: Variable and Flexible Cross-lingual Pre-training for Language Understanding and Generation
- Fuli Luo, Wei Wang, Jiahao Liu, Yijia Liu, Bin Bi, Songfang Huang, Fei Huang, Luo Si
- TLDR: Wir stellen ein cross-linguales Modell vor, das die Interdependenz zwischen Sprachen ermöglicht und gleichzeitig eine bessere Sprachgenauigkeit als Transformer-Modelle erzielt.
- A unified approach to sentence segmentation of punctuated text in many languages
- Rachel Wicks, Matt Post
- TLDR: Wir stellen eine neue Methode vor, um die Verwendung von Satzrepräsentationen in NLP-Ppiphen zu verbessern.
- Towards User-Driven Neural Machine Translation
- Huan Lin, Liang Yao, Baosong Yang, Dayiheng Liu, Haibo Zhang, Weihua Luo, Degen Huang, Jinsong Su
- TLDR: Wir stellen einen neuen Rahmen für die Benutzerbehavior-Erfassung vor, der die Benutzermerkmale von Benutzern aus ihren bisherigen Eingaben erfasst.
- End-to-End Lexically Constrained Machine Translation for Morphologically Rich Languages
- Josef Jon, João Paulo Aires, Dusan Varis, Ondřej Bojar
- TLDR: Wir stellen Methoden vor, die die Konsistenz von Wörtern in Texten mit Einschränkungen inkrementell auswerten können, ohne die Qualität zu beeinträchtigen.
- Handling Extreme Class Imbalance in Technical Logbook Datasets
- Farhad Akhbardeh, Cecilia Ovesdotter Alm, Marcos Zampieri, Travis Desell
- TLDR: Wir stellen eine Feedback-Strategie vor, die auf extreme Klassenverzerrungen angewendet werden kann.
- ILDC for CJPE: Indian Legal Documents Corpus for Court Judgment Prediction and Explanation
- Vijit Malik, Rishabh Sanjay, Shubham Kumar Nigam, Kripabandhu Ghosh, Shouvik Kumar Guha, Arnab Bhattacharya, Ashutosh Modi
- TLDR: Wir schlagen eine Aufgabe vor, die die Entscheidungen von Richtlinien-Experten über die Entscheidungen von Gerichten vorhersagen und erklären kann.
- Supporting Cognitive and Emotional Empathic Writing of Students
- Thiemo Wambsganss, Christina Niklaus, Matthias Söllner, Siegfried Handschuh, Jan Marco Leimeister
- TLDR: Wir schlagen einen Ansatz vor, um Emotionen und kognitive Empathy in Schüler- und Studentenbeschriftungen zu erfassen.
- Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open Domain Question Answering
- Alexander Hanbo Li, Patrick Ng, Peng Xu, Henghui Zhu, Zhiguo Wang, Bing Xiang
- TLDR: Wir schlagen Text2SQL vor, eine hybride Methode zur Erzeugung von Text-zu-Sql-Fragen und eine neue Methode zur Lösung von Fragen, die komplexe Schlussfolgerungen erfordern.
- Generation-Augmented Retrieval for Open-Domain Question Answering
- Yuning Mao, Pengcheng He, Xiaodong Liu, Yelong Shen, Jianfeng Gao, Jiawei Han, Weizhu Chen
- TLDR: Wir schlagen einen neuen Algorithmus zur Texterzeugung vor, der die Suche nach kontextuellen kontexten erweitert und die Erkennung von kontextuellen kontexten ohne externe Überwachung ermöglicht.
- Check It Again:Progressive Visual Question Answering via Visual Entailment
- Qingyi Si, Zheng Lin, Ming yu Zheng, Peng Fu, Weiping Wang
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Semantik der Kandidaten-Antworten zu überprüfen und die Ergebnisse zu verbessern.
- A Mutual Information Maximization Approach for the Spurious Solution Problem in Weakly Supervised Question Answering
- Zhihong Shao, Lifeng Shang, Qun Liu, Minlie Huang
- TLDR: Wir schlagen eine Methode vor, die die Semantik von Lösungsproblemen nutzt, um die Fehler in der Frage-Antwort-Verteilung zu beseitigen.
- Breaking Down Walls of Text: How Can NLP Benefit Consumer Privacy?
- Abhilasha Ravichander, Alan W Black, Thomas Norton, Shomir Wilson, Norman Sadeh
- TLDR: Wir stellen eine neue Sprache vor, die die Privatsphäre von Nutzern wiederherstellen kann und gleichzeitig die Privatsphäre von Nutzern schützt.
- Supporting Land Reuse of Former Open Pit Mining Sites using Text Classification and Active Learning
- Christopher Schröder, Kim Bürgl, Yves Annanias, Andreas Niekler, Lydia Müller, Daniel Wiegreffe, Christian Bender, Christoph Mengs, Gerik Scheuermann, Gerhard Heyer
- TLDR: Wir stellen einen automatischen Lernrahmen für die Post-Minning-Management vor, der die gesamte Dokumentation für die Ersetzung von Richtlinien und Themen erfasst.
- Reliability Testing for Natural Language Processing Systems
- Samson Tan, Shafiq Joty, Kathy Baxter, Araz Taeihagh, Gregory A. Bennett, Min-Yen Kan
- TLDR: Wir stellen eine Methode zur Testung der Robustheit von NLP-Systemen vor, die die Fairness, Robustheit und Transparenz von NLP-Systemen berücksichtigt.
- Learning Language and Multimodal Privacy-Preserving Markers of Mood from Mobile Data
- Paul Pu Liang, Terrance Liu, Anna Cai, Michal Muszynski, Ryo Ishii, Nick Allen, Randy Auerbach, David Brent, Ruslan Salakhutdinov, Louis-Philippe Morency
- TLDR: Wir analysieren und bewerten Verhaltensmechanismen, die die Privatsphäre der Nutzer darstellen.
- Anonymisation Models for Text Data: State of the art, Challenges and Future Directions
- Pierre Lison, Ildikó Pilán, David Sanchez, Montserrat Batet, Lilja Øvrelid
- TLDR: Wir analysieren und schlagen eine neue Methode zur Texterkennung vor, die auf der Verschlüsselung von Daten basiert.
- End-to-End AMR Coreference Resolution
- Qiankun Fu, Linfeng Song, Wenyu Du, Yue Zhang
- TLDR: Wir stellen ein Ende-zu-Ende AMR-Coreference-Resolutions-Modell vor, das eine Vielzahl von Texten repräsentiert.
- How is BERT surprised? Layerwise detection of linguistic anomalies
- Bai Li, Zining Zhu, Guillaume Thomas, Yang Xu, Frank Rudzicz
- TLDR: Wir verwenden Gaußsche Modelle für die Schätzung der Dichte und zeigen, dass sie bei Sprachmodellen auf den ersten Schichten weniger Surprisal zeigen als bei den Resten.
- Psycholinguistic Tripartite Graph Network for Personality Detection
- Tao Yang, Feifan Yang, Haolan Ouyang, Xiaojun Quan
- TLDR: Wir schlagen ein neuronales, auf BERT basierendes, auf tripartitegraphischen Graphen basierendes neuronales Graphennetz vor, das auf tiefen neuronalen Netzen basiert.
- Verb Metaphor Detection via Contextual Relation Learning
- Wei Song, Shuhui Zhou, Ruiji Fu, Ting Liu, Lizhen Liu
- TLDR: Wir schlagen BERT vor, ein BERT-Modell, das die Metaphor-Relation BERT (Mr-BERT) modelliert.
- Improving Speech Translation by Understanding and Learning from the Auxiliary Text Translation Task
- Yun Tang, Juan Pino, Xian Li, Changhan Wang, Dmitriy Genzel
- TLDR: Wir schlagen eine Aufmerksamkeitsbasierte Regularisierung vor, um die Sprachübertragung zu verbessern.
- Probing Toxic Content in Large Pre-Trained Language Models
- Nedjma Ousidhoum, Xinran Zhao, Tianqing Fang, Yangqiu Song, Dit-Yan Yeung
- TLDR: Wir schlagen eine Methode vor, die auf logistischen Regressionsklassifikationen verwendet wird, um schädliche und toxice Inhalte in PTLMs zu proben.
- Societal Biases in Language Generation: Progress and Challenges
- Emily Sheng, Kai-Wei Chang, Prem Natarajan, Nanyun Peng
- TLDR: Wir stellen eine Umfrage vor, die die Auswirkungen von Daten und Techniken auf die Spracherzeugung und die Verzerrung von Sprachabweichungen untersucht.
- Reservoir Transformers
- Sheng Shen, Alexei Baevski, Ari Morcos, Kurt Keutzer, Michael Auli, Douwe Kiela
- TLDR: Wir zeigen, dass Transformatoren eine Leistung erzielen, die sich auf die Übersetzungs- und Sprachmodellierungsaufgaben anwenden lässt.
- Subsequence Based Deep Active Learning for Named Entity Recognition
- Puria Radmard, Yassir Fathullah, Aldo Lipani
- TLDR: Wir schlagen einen Algorithmus vor, der die Aufgabe der Suche von Teilsätzen innerhalb von Sätzen erledigt.
- Convolutions and Self-Attention: Re-interpreting Relative Positions in Pre-trained Language Models
- Tyler Chang, Yifan Xu, Weijian Xu, Zhuowen Tu
- TLDR: Wir stellen eine neue Methode vor, die Convolutions in die Transformer-Attention integriert.
- BinaryBERT: Pushing the Limit of BERT Quantization
- Haoli Bai, Wei Zhang, Lu Hou, Lifeng Shang, Jin Jin, Xin Jiang, Qun Liu, Michael Lyu, Irwin King
- TLDR: Wir schlagen BinaryBERT vor, eine binäre BERT-Methode, die die Quantisierung auf die Spitze treiben kann.
- Are Pretrained Convolutions Better than Pretrained Transformers?
- Yi Tay, Mostafa Dehghani, Jai Prakash Gupta, Vamsi Aribandi, Dara Bahri, Zhen Qin, Donald Metzler
- TLDR: Wir stellen fest, dass CNN-basierte Sprachmodelle für Konversationen konkurrieren.
- PairRE: Knowledge Graph Embeddings via Paired Relation Vectors
- Linlin Chao, Jianshan He, Taifeng Wang, Wei Chu
- TLDR: Wir stellen ein Modell mit mehreren Vektoren vor, das die Beziehungen in Wissensgraphen kodiert.
- Hierarchy-aware Label Semantics Matching Network for Hierarchical Text Classification
- Haibin Chen, Qianli Ma, Zhenxi Lin, Jiangyue Yan
- TLDR: Wir schlagen ein hierarchisches Label-Semantik-Matching-Netzwerk vor, das die Textsemantik und die Etikettensemantik in einem gemeinsamen Einbettungsraum kombiniert.
- HiddenCut: Simple Data Augmentation for Natural Language Understanding with Better Generalizability
- Jiaao Chen, Dinghan Shen, Weizhu Chen, Diyi Yang
- TLDR: Wir schlagen eine einfache, aber effektive Datenerweiterung vor, die die Generalisierungsleistung bei der Fine-Tuning-Stage verbessert.
- Neural Stylistic Response Generation with Disentangled Latent Variables
- Qingfu Zhu, Wei-Nan Zhang, Ting Liu, William Yang Wang
- TLDR: Wir schlagen einen BERT-basierten Stilausbreitzer vor, der die Stilintensität in einem latenten Raum erhöht und gleichzeitig die Inhalts- und Stilaktualität verringert.
- Intent Classification and Slot Filling for Privacy Policies
- Wasi Ahmad, Jianfeng Chi, Tu Le, Thomas Norton, Yuan Tian, Kai-Wei Chang
- TLDR: Wir schlagen PolicyIE vor, einen English-Korpus mit 5,250 Intentionen und 11,788 Slot-Ankündigungen, der die Privatsphäre von Nutzern aufzeigt.
- RADDLE: An Evaluation Benchmark and Analysis Platform for Robust Task-oriented Dialog Systems
- Baolin Peng, Chunyuan Li, Zhu Zhang, Chenguang Zhu, Jinchao Li, Jianfeng Gao
- TLDR: Wir stellen eine Sammlung von corpora und tools für die Bewertung von Dialog-Systemen auf mehreren Domänen vor und stellen eine Analyse von Tests vor, die die Robustheit von Dialog-Kommunikationssystemen bei verschiedenen Domänen und Aufgaben ermitteln.
- Semantic Representation for Dialogue Modeling
- Xuefeng Bai, Yulong Chen, Linfeng Song, Yue Zhang
- TLDR: Wir verwenden AMRs, um die Sprachverallgemeinerung in neuronalen Dialogsystemen zu unterstützen.
- A Pre-training Strategy for Zero-Resource Response Selection in Knowledge-Grounded Conversations
- Chongyang Tao, Changyu Chen, Jiazhan Feng, Ji-Rong Wen, Rui Yan
- TLDR: Wir schlagen ein neues, auf Wissensauswahl und -Matching basiertes Dialogsystem vor, das die Suche nach Wissen und die Identifikation von Wissenswerten ermöglicht.
- Dependency-driven Relation Extraction with Attentive Graph Convolutional Networks
- Yuanhe Tian, Guimin Chen, Yan Song, Xiang Wan
- TLDR: Wir schlagen einen Aufmerksamkeitsmechanismus vor, um die Bedeutung von Abhängigkeiten zu untersuchen und die Konsistenz von Abhängigkeiten zu identifizieren.
- Evaluating Entity Disambiguation and the Role of Popularity in Retrieval-Based NLP
- Anthony Chen, Pallavi Gudipati, Shayne Longpre, Xiao Ling, Sameer Singh
- TLDR: Wir stellen einen Benchmark für die Entflechtung von Entitäten vor, der die Entitätenidentifikationsfähigkeiten von Entitäten ermitteln kann.
- Evaluation Examples are not Equally Informative: How should that change NLP Leaderboards?
- Pedro Rodriguez, Joe Barrow, Alexander Miserlis Hoyle, John P. Lalor, Robin Jia, Jordan Boyd-Graber
- TLDR: Wir stellen Bayes’sches Leaderboard-Modell vor, das auf der Erfassung von Fehlern und Übertragung von Ergebnissen basiert.
- Claim Matching Beyond English to Scale Global Fact-Checking
- Ashkan Kazemi, Kiran Garimella, Devin Gaffney, Scott Hale
- TLDR: Wir stellen eine neue Methode zur Beantwortung von Behauptungen vor, die auf die Verzerrung von Behauptungen und Behauptungen in Texten hinweist.
- SemFace: Pre-training Encoder and Decoder with a Semantic Interface for Neural Machine Translation
- Shuo Ren, Long Zhou, Shujie Liu, Furu Wei, Ming Zhou, Shuai Ma
- TLDR: Wir schlagen eine neue Methode vor, um die Übertragung von Sprachaufgaben mit neuronalen Übersetzungstechniken zu beschleunigen.
- Energy-Based Reranking: Improving Neural Machine Translation Using Energy-Based Models
- Sumanta Bhattacharyya, Amirmohammad Rooshenas, Subhajit Naskar, Simeng Sun, Mohit Iyyer, Andrew McCallum
- TLDR: Wir trainieren ein energiebasiertes Modell, um das Verhalten der Beamer-Dekodierzeit zu imitieren.
- Syntax-augmented Multilingual BERT for Cross-lingual Transfer
- Wasi Ahmad, Haoran Li, Kai-Wei Chang, Yashar Mehdad
- TLDR: Wir zeigen, dass die Verwendung von Syntax und das Training von mBERT eine gemeinsame Aufgabe für das Verständnis von Sprachsyntax und das Verständnis von Sprachstilen in mehreren Sprachen ermöglicht.
- How to Adapt Your Pretrained Multilingual Model to 1600 Languages
- Abteen Ebrahimi, Katharina Kann
- TLDR: Wir stellen eine empirische Studie vor, die die Auswirkungen des Sprachraums und der Größe auf die Leistung von Multilingual Modellen unter Berücksichtigung der Zielsprache und der Zielsprachenverschiebungen dar.
- Weakly Supervised Named Entity Tagging with Learnable Logical Rules
- Jiacheng Li, Haibo Ding, Jingbo Shang, Julian McAuley, Zhe Feng
- TLDR: Wir schlagen eine neuartige Methode vor, TALLOR, die Bootstraps hoher Qualität logischer Regeln verwendet, um einen neuronalen Tagging-Agenten in einer vollständig automatisierten Weise zu trainieren.
- Prefix-Tuning: Optimizing Continuous Prompts for Generation
- Xiang Lisa Li, Percy Liang
- TLDR: Wir schlagen prefix-tuning vor, eine leichtgewichtige Alternative zu fine-tuning für natürliche Spracherkennungsaufgaben.
- One2Set: Generating Diverse Keyphrases as a Set
- Jiacheng Ye, Tao Gui, Yichao Luo, Yige Xu, Qi Zhang
- TLDR: Wir schlagen ein neues Modell vor, das eine Reihe von Schlüsselwörtern in parallelen Programmen erzeugt.
- Continuous Language Generative Flow
- Zineng Tang, Shiyue Zhang, Hyounghun Kim, Mohit Bansal
- TLDR: Wir schlagen ein sprachbasiertes Sprachmodell vor, das auf Text- und Video-Genauigkeiten basiert und die Verbesserung der Sprachausgabe und der Qualitätsverbesserung bei der QG und der maschinellen Übersetzung ermöglicht.
- TWAG: A Topic-Guided Wikipedia Abstract Generator
- Fangwei Zhu, Shangqing Tu, Jiaxin Shi, Juanzi Li, Lei Hou, Tong Cui
- TLDR: Wir schlagen ein zweistufiges Modell vor, das die Erstellung von Absätzen mit Themeninformationen ermöglicht.
- ForecastQA: A Question Answering Challenge for Event Forecasting with Temporal Text Data
- Woojeong Jin, Rahul Khanna, Suji Kim, Dong-Ho Lee, Fred Morstatter, Aram Galstyan, Xiang Ren
- TLDR: Wir stellen eine Aufgabe vor, die eine räumliche Vorhersage von Nachrichtendokumenten simuliert, und stellen einen Datensatz für die Erstellung von Messungen mit großen Mengen an unstrukturierten Textdaten vor.
- Recursive Tree-Structured Self-Attention for Answer Sentence Selection
- Khalil Mrini, Emilia Farcas, Ndapa Nakashole
- TLDR: Wir stellen ein Tree-Architekturiertes Self-Attention Modell vor, das syntaktische Strukturen in Aufgaben mit Satzpaaren ersetzt.
- How Knowledge Graph and Attention Help? A Qualitative Analysis into Bag-level Relation Extraction
- Zikun Hu, Yixin Cao, Lifu Huang, Tat-Seng Chua
- TLDR: Wir schlagen einen Rahmen vor, um die Auswirkungen von Aufmerksamkeit und KG auf die Bag-Ebene zu quantifizieren.
- Trigger is Not Sufficient: Exploiting Frame-aware Knowledge for Implicit Event Argument Extraction
- Kaiwen Wei, Xian Sun, Zequn Zhang, Jingyuan Zhang, Guo Zhi, Li Jin
- TLDR: Wir stellen eine Frame-aware Event Argument Extraktion (FEAE) vor, die die Begründungen von Beobachtungen in einem Rahmen erfassen kann.
- Element Intervention for Open Relation Extraction
- Fangchao Liu, Lingyong Yan, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: Wir stellen fest, dass die meisten Probleme bei der Generalisierung von Beziehungen aus spurenen Korrelationen bestehen.
- AdaTag: Multi-Attribute Value Extraction from Product Profiles with Adaptive Decoding
- Jun Yan, Nasser Zalmout, Yan Liang, Christan Grant, Xiang Ren, Xin Luna Dong
- TLDR: Wir stellen einen adaptiven Decoder vor, der die Erfassung von Eigenschaften in mehreren Teilen ermöglicht.
- CoRI: Collective Relation Integration with Data Augmentation for Open Information Extraction
- Zhengbao Jiang, Jialong Han, Bunyamin Sisman, Xin Luna Dong
- TLDR: Wir schlagen ein CoRI-Modell vor, das unabhängig voneinander Vorhersagen macht, und das zweite Modell, das alle Vorhersagen nutzt, um globale Konsistenzvorhersagen zu machen.
- Benchmarking Scalable Methods for Streaming Cross Document Entity Coreference
- Robert L Logan IV, Andrew McCallum, Sameer Singh, Dan Bikel
- TLDR: Wir analysieren, welche Cluster-Algorithmen für die Erkennung von Beschriftungen am besten geeignet sind und wie die Anzahl der Beschriftungen während der Inferenz die Leistung erheblich schätzt.
- Search from History and Reason for Future: Two-stage Reasoning on Temporal Knowledge Graphs
- Zixuan Li, Xiaolong Jin, Saiping Guan, Wei Li, Jiafeng Guo, Yuanzhuo Wang, Xueqi Cheng
- TLDR: Wir schlagen CluSTeR vor, eine neuronale Knowledge Graphen-Architektur, die clues sucht und temporale Schlussfolgerungen ziehen kann.
- Employing Argumentation Knowledge Graphs for Neural Argument Generation
- Khalid Al Khatib, Lukas Trautner, Henning Wachsmuth, Yufang Hou, Benno Stein
- TLDR: Wir verwenden Wissensgraphen, um die Generierung von Argumenten mit besserer Qualität zu unterstützen.
- Learning Span-Level Interactions for Aspect Sentiment Triplet Extraction
- Lu Xu, Yew Ken Chia, Lidong Bing
- TLDR: Wir schlagen einen dualen Ansatz zur Spanne-Purierung vor, der die Interaktion zwischen den spannen von Zielen und Beobachtungen berücksichtigt.
- On Compositional Generalization of Neural Machine Translation
- Yafu Li, Yongjing Yin, Yulong Chen, Yue Zhang
- TLDR: Wir analysieren und bewerten die Auswirkungen von Faktoren auf die kompositorische Generalisierung und zeigen, dass das NMT-Modell schlecht auf die kompositorische Generalisierung abschneidet.
- Mask-Align: Self-Supervised Neural Word Alignment
- Chi Chen, Maosong Sun, Yang Liu
- TLDR: Wir schlagen Mask-Align vor, ein selbstüberwachtes Wortanpassungsmodell, das die gesamte Konsistenz nutzt.
- GWLAN: General Word-Level AutocompletioN for Computer-Aided Translation
- Huayang Li, Lemao Liu, Guoping Huang, Shuming Shi
- TLDR: Wir schlagen eine Aufgabe vor, die Generalisierung auf Wortsebene auflöst, und stellen einen neuen Benchmark vor, um die Forschung in diesem Themen zu erleichtern.
- De-biasing Distantly Supervised Named Entity Recognition via Causal Intervention
- Wenkai Zhang, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: Wir erklären die Sprachverzerrung in NER und schlagen eine neue Methode vor, die die Störungen von Wörterbüchern besser abwehrt.
- A Span-Based Model for Joint Overlapped and Discontinuous Named Entity Recognition
- Fei Li, ZhiChao Lin, Meishan Zhang, Donghong Ji
- TLDR: Wir schlagen ein spanbasiertes Modell vor, das sowohl überlapped als auch discontinue Entitäten erkennt.
- MLBiNet: A Cross-Sentence Collective Event Detection Network
- Dongfang Lou, Zhilin Liao, Shumin Deng, Ningyu Zhang, Huajun Chen
- TLDR: Wir schlagen eine Aufgabe vor, die auf der Erkennung von mehreren Ereignissen basiert und die Kodierung von Seq2Seq-Informationen ermöglicht.
- Exploiting Document Structures and Cluster Consistencies for Event Coreference Resolution
- Hieu Minh Tran, Duy Phung, Thien Huu Nguyen
- TLDR: Wir stellen ein neues Deep Learning-Modell für die Coreference-Resolution vor, das die Dokumentstrukturen nutzt, um relevante Objekte für ECR zu lokalisieren.
- StereoRel: Relational Triple Extraction from a Stereoscopic Perspective
- Xuetao Tian, Liping Jing, Lu He, Feng Liu
- TLDR: Wir stellen eine neue Methode zur relationalen triple-Exploration vor, die die Probleme der Informationsverzerrung und der Fehlerpropagation berücksichtigt.
- Knowledge-Enriched Event Causality Identification via Latent Structure Induction Networks
- Pengfei Cao, Xinyu Zuo, Yubo Chen, Kang Liu, Jun Zhao, Yuguang Chen, Weihua Peng
- TLDR: Wir schlagen ein neues neuronales Graphenmodell vor, das die Strukturen von externen Strukturen nutzt, um die Kausalitätsverteilungen von Ereignissen zu erklären.
- Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word Substitution
- Fanchao Qi, Yuan Yao, Sophia Xu, Zhiyuan Liu, Maosong Sun
- TLDR: Wir stellen eine Lernmethode vor, die auf der Verwendung von Worten substitutiert, um Backdoors für neuronale Modelle zu erstellen.
- Parameter-Efficient Transfer Learning with Diff Pruning
- Demi Guo, Alexander Rush, Yoon Kim
- TLDR: Wir stellen Diff Pruning vor, eine Methode zum parametrischen Transferlernen, die die Leistung von finetunierten Basislinien auf GLUE und GLUE-Benchmarken übertrifft.
- R2D2: Recursive Transformer based on Differentiable Tree for Interpretable Hierarchical Language Modeling
- Xiang Hu, Haitao Mi, Zujie Wen, Yafang Wang, Yi Su, Jing Zheng, Gerard de Melo
- TLDR: Wir schlagen ein Transformer-Modell vor, das auf der Architektur von CKY-Baumen basiert, um einen Sprachverständnisprozess zu modellieren.
- Risk Minimization for Zero-shot Sequence Labeling
- Zechuan Hu, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: Wir schlagen einen neuen Lernalgorithmus für die Zero-Shot Sequence Labeling vor und entwickeln eine neue Risikofunktion, die die Beziehungen zwischen den Vorhersagen und den wahren Labels modelliert.
- WARP: Word-level Adversarial ReProgramming
- Karen Hambardzumyan, Hrant Khachatrian, Jonathan May
- TLDR: Wir stellen einen neuen Ansatz für das Lernen von Sprachmodellen vor, der auf adversarial Reprogrammierung basiert.
- Lexicon Learning for Few Shot Sequence Modeling
- Ekin Akyurek, Jacob Andreas
- TLDR: Wir erweitern neuronale Dekodierer mit einem lexikalischen Translationsmechanismus, um gelernte, kontextualisierte, Zeichenebene in die Sequenzmodellierung zu integrieren.
- Personalized Transformer for Explainable Recommendation
- Lei Li, Yongfeng Zhang, Li Chen
- TLDR: Wir stellen eine neuartige Transformer-Architektur vor, die die Benutzer- und E-Mail-Id-Ausweisungen nutzt, um Erklärungen zu generieren.
- Generating SOAP Notes from Doctor-Patient Conversations Using Modular Summarization Techniques
- Kundan Krishna, Sopan Khosla, Jeffrey Bigham, Zachary C. Lipton
- TLDR: Wir stellen eine neue Methode vor, die die erste vollständige Pipelines zur Verwendung von Deep-Sucturationsmodellen nutzt, um halbstrukturierte SOAP-Beschriftungen zu erstellen.
- Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese Grammatical Error Correction
- Piji Li, Shuming Shi
- TLDR: Wir untersuchen das Problem der Grammatikkorrektion und stellen einen neuen Rahmen vor, der auf Tail-to-Tail (Tail-to-Tail) basiert.
- Early Detection of Sexual Predators in Chats
- Matthias Vogt, Ulf Leser, Alan Akbik
- TLDR: Wir analysieren und schlagen eine neue Methode zur Erkennung von Vorbildern für Online-Göming-Chats vor und entwickeln einen neuen Datensatz namens PANC für realistische Bewertungen.
- Writing by Memorizing: Hierarchical Retrieval-based Medical Report Generation
- Xingyi Yang, Muchao Ye, Quanzeng You, Fenglong Ma
- TLDR: Wir schlagen einen neuartigen hierarchischen Rechner vor, der sowohl die Berichts- als auch die Satzbeschriftung ersetzt.
- Concept-Based Label Embedding via Dynamic Routing for Hierarchical Text Classification
- Xuepeng Wang, Li Zhao, Bing Liu, Tao Chen, Feng Zhang, Di Wang
- TLDR: Wir schlagen eine Konzeptbasierte Label-Embedding-Methode vor, die die Idee und die Verteilung zwischen den Klassen für die hierarchische Textklassifikation modelliert.
- VisualSparta: An Embarrassingly Simple Approach to Large-scale Text-to-Image Search with Weighted Bag-of-words
- Xiaopeng Lu, Tiancheng Zhao, Kyusong Lee
- TLDR: Wir schlagen VisualSparta vor, ein neuartiges Text-zu-Bild-Matching-Modell, das auf transformerbasiertem Datensatzen eine große Suchanfälligkeit erbringt.
- Few-Shot Text Ranking with Meta Adapted Synthetic Weak Supervision
- Si Sun, Yingzhuo Qian, Zhenghao Liu, Chenyan Xiong, Kaitao Zhang, Jie Bao, Zhiyuan Liu, Paul Bennett
- TLDR: Wir stellen MetaAdaptRank vor, eine Domänenanpassungsmethode, die Neu-IR-Modelle von Label-rich Zieldomänen zu wenigen-Shot Zieldomänen verallgemeinert.
- Semi-Supervised Text Classification with Balanced Deep Representation Distributions
- Changchun Li, Ximing Li, Jihong Ouyang
- TLDR: Wir schlagen eine neue Methode zur Semi-Supervised Text Classification mit Balanced Deep Repräsentation Distributions vor, die die Verzerrung von Label-Eigenschaften und Label-Eigenschaften in Label-Eigenschaften reduziert.
- Improving Document Representations by Generating Pseudo Query Embeddings for Dense Retrieval
- Hongyin Tang, Xingwu Sun, Beihong Jin, Jingang Wang, Fuzheng Zhang, Wei Wu
- TLDR: Wir schlagen eine Methode vor, die die Dokumente in einem iterativen Clustering-Prozess mit mehreren pseudo-Beschriftungen darstellt, und erreichen damit Spitzenleistungen bei der Dokumentensuche.
- ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transfer
- Yuanmeng Yan, Rumei Li, Sirui Wang, Fuzheng Zhang, Wei Wu, Weiran Xu
- TLDR: Wir stellen ConSERT vor, ein Contrastive Framework für Self-Supervised Semantik Representation Transfer, das das Problem der Kollisionsverzerrung von BERT-deriierten Satzrepräsentationen lösen kann.
- Exploring Dynamic Selection of Branch Expansion Orders for Code Generation
- Hui Jiang, Chulun Zhou, Fandong Meng, Biao Zhang, Jie Zhou, Degen Huang, Qingqiang Wu, Jinsong Su
- TLDR: Wir schlagen ein Modell vor, das die Entflechtungsorder von Blättern für mehrere Blätter erwählt.
- COINS: Dynamically Generating COntextualized Inference Rules for Narrative Story Completion
- Debjit Paul, Anette Frank
- TLDR: Wir stellen ein recursives Inferenzverfahren vor, das kontextualisierte Inferenzregeln generiert, und sie zur Erzeugung von Texten für die Erzeugung von Interpretationen verwendet.
- Reasoning over Entity-Action-Location Graph for Procedural Text Understanding
- Hao Huang, Xiubo Geng, Jian Pei, Guodong Long, Daxin Jiang
- TLDR: Wir schlagen einen neuen Ansatz (REAL) vor, um die Entitäten- und Orte-Verbindungen in einem Satz zu modellieren.
- From Paraphrasing to Semantic Parsing: Unsupervised Semantic Parsing via Synchronous Semantic Decoding
- Shan Wu, Bo Chen, Chunlei Xin, Xianpei Han, Le Sun, Weipeng Zhang, Jiansong Chen, Fan Yang, Xunliang Cai
- TLDR: Wir schlagen eine Synchronous Synchronous Semantic Decoding Methode vor, die gleichzeitige Struktur- und Paraphrasingprobleme lösen kann.
- Pre-training Universal Language Representation
- Yian Li, Hai Zhao
- TLDR: Wir schlagen ein neues Sprachmodell vor, das auf Sprachrepräsentationen mit mehreren Spracheinheiten und Texten mit unterschiedlichen Längen basiert.
- Structural Pre-training for Dialogue Comprehension
- Zhuosheng Zhang, Hai Zhao
- TLDR: Wir stellen SPIDER vor, einen Structural Pre-TraIned DialoguE Reader, um Dialogmerkmale zu erfassen.
- AutoTinyBERT: Automatic Hyper-parameter Optimization for Efficient Pre-trained Language Models
- Yichun Yin, Cheng Chen, Lifeng Shang, Xin Jiang, Xiao Chen, Qun Liu
- TLDR: Wir schlagen eine neue Methode zur Suche nach Architekturen mit einem Suchraum vor, die die Suche nach Architekturen mit wenigen Dimensionen automatisch ersetzt.
- Data Augmentation with Adversarial Training for Cross-Lingual NLI
- Xin Dong, Yaxin Zhu, Zuohui Fu, Dongkuan Xu, Gerard de Melo
- TLDR: Wir schlagen eine neue Methode zur Erweiterung von Daten zur Sprachinferenz vor, die die Vielfalt in einer semantisch vertrauenswürdigen Weise berücksichtigt.
- Bootstrapped Unsupervised Sentence Representation Learning
- Yan Zhang, Ruidan He, Zuozhu Liu, Lidong Bing, Haizhou Li
- TLDR: Wir schlagen ein neues Framework vor, das die Ähnlichkeit zwischen zwei Ansichten der Eingabesätze maximiert und gleichzeitig die Leistung bei STS und Klassifizierungsaufgaben verbessert.
- Learning Event Graph Knowledge for Abductive Reasoning
- Li Du, Xiao Ding, Ting Liu, Bing Qin
- TLDR: Wir stellen eine auf Texten basierende Ableitungsproblematik vor, die die meisten plausible Erklärungen für beobachtete Ereignisse liefert.
- A Cognitive Regularizer for Language Modeling
- Jason Wei, Clara Meister, Ryan Cotterell
- TLDR: Wir stellen fest, dass die UID-Hypothese als eine induktive Bias für die Sprachmodellierung angesehen werden kann.
- Lower Perplexity is Not Always Human-Like
- Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, Kentaro Inui
- TLDR: Wir untersuchen, ob die Ergebnisse von maschinellen Sprachmodellen für die Verwendung von Englisch in neuronalen Netzen verallgemeinert werden können.
- Word Sense Disambiguation: Towards Interactive Context Exploitation from Both Word and Sense Perspectives
- Ming Wang, Yinglin Wang
- TLDR: Wir schlagen einen neuen Ansatz zur Sprachverbesserung vor, der die Konsistenz in Kontextumgebungen nutzt.
- A Knowledge-Guided Framework for Frame Identification
- Xuefeng Su, Ru Li, Xiaoli Li, Jeff Z. Pan, Hu Zhang, Qinghua Chai, Xiaoqi Han
- TLDR: Wir schlagen ein Knowledge-Guided Frame Identification Framework (KGFI) vor, das drei Typen von Frame-Knowledge, einschließlich Frame-Definitionen, Frame-Eigenschaften und Frame-to-Frame Relations, integriert.
- Obtaining Better Static Word Embeddings Using Contextual Embedding Models
- Prakhar Gupta, Martin Jaggi
- TLDR: Wir stellen eine Methode vor, die die Kontext- und static-Einbettungen miteinander verbindet und die Leistung bei einer Vielzahl von NLP-Aufgaben erheblich verbessert.
- Meta-Learning with Variational Semantic Memory for Word Sense Disambiguation
- Yingjun Du, Nithin Holla, Xiantong Zhen, Cees Snoek, Ekaterina Shutova
- TLDR: Wir schlagen ein Modell vor, das semantisches Gedächtnis für WSD nutzt, um Worte aus wenigen Beispielen zu lernen.
- LexFit: Lexical Fine-Tuning of Pretrained Language Models
- Ivan Vulić, Edoardo Maria Ponti, Anna Korhonen, Goran Glavaš
- TLDR: Wir zeigen, dass lexikalisches Wissen von LMs für die Wortkodierzeit genutzt werden kann, um lexikalisches Wissen in lexikalischen Texten zu extrahieren.
- Text-Free Image-to-Speech Synthesis Using Learned Segmental Units
- Wei-Ning Hsu, David Harwath, Tyler Miller, Christopher Song, James Glass
- TLDR: Wir stellen ein neues Modell vor, das fluent, natürliche sprachliche Abschriften für Bilder direkt aus Bildbeschriftungen synthetisiert.
- CTFN: Hierarchical Learning for Multimodal Sentiment Analysis Using Coupled-Translation Fusion Network
- Jiajia Tang, Kang Li, Xuanyu Jin, Andrzej Cichocki, Qibin Zhao, Wanzeng Kong
- TLDR: Wir schlagen ein neues, robustes und effizientes, auf Multimodal Fusions basierendes Modell vor, das die Robustheit gegenüber Verwechwünschungen berücksichtigt.
- Positional Artefacts Propagate Through Masked Language Model Embeddings
- Ziyang Luo, Artur Kulmizev, Xiaoxi Mao
- TLDR: Wir zeigen, dass Clipping von Vektoren die anisotrope Vergiftung von Encodern verursacht.
- Language Model Evaluation Beyond Perplexity
- Clara Meister, Ryan Cotterell
- TLDR: Wir stellen eine neue Methode vor, die die statistischen Verzerrungen von natürlicher Sprache und die Interaktionen zwischen den Verzerrungen quantifiziert.
- Learning to Explain: Generating Stable Explanations Fast
- Xuelin Situ, Ingrid Zukerman, Cecile Paris, Sameen Maruf, Gholamreza Haffari
- TLDR: Wir schlagen einen Lernalgorithmus vor, der die Verhaltensweise eines Erklärungsalgorithmus gleichzeitig aus allen Beispielen erlernt.
- StereoSet: Measuring stereotypical bias in pretrained language models
- Moin Nadeem, Anna Bethke, Siva Reddy
- TLDR: Wir stellen StereoSet vor, einen groß angelegten Datensatz, der Stereotypische Biases in vier Bereichen wie Geschlecht, Profession, Religion und Geschlechter erfasst.
- Alignment Rationale for Natural Language Inference
- Zhongtao Jiang, Yuanzhe Zhang, Zhao Yang, Jun Zhao, Kang Liu
- TLDR: Wir stellen einen post-hoc-Ansatz vor, um Richtlinien für die Anpassung von Merkmalen zu generieren, der die Vorhersage eines Ziels und die Erklärung eines Modells übertrifft.
- Enabling Lightweight Fine-tuning for Pre-trained Language Model Compression based on Matrix Product Operators
- Peiyu Liu, Ze-Feng Gao, Wayne Xin Zhao, Zhi-Yuan Xie, Zhong-Yi Lu, Ji-Rong Wen
- TLDR: Wir schlagen einen neuartigen Ansatz zur Komprimierung von Sprachmodellen vor, der auf Quantenvielfalt basiert.
- On Sample Based Explanation Methods for NLP: Faithfulness, Efficiency and Semantic Evaluation
- Wei Zhang, Ziming Huang, Yada Zhu, Guangnan Ye, Xiaodong Cui, Fan Zhang
- TLDR: Wir schlagen eine neue Methode vor, die die Interpretation von Erklärungen verbessert und die Menschenwürde von Erklärungen besser angeht.
- Syntax-Enhanced Pre-trained Model
- Zenan Xu, Daya Guo, Duyu Tang, Qinliang Su, Linjun Shou, Ming Gong, Wanjun Zhong, Xiaojun Quan, Daxin Jiang, Nan Duan
- TLDR: Wir stellen ein neues Modell vor, das syntaktische Distanz zwischen den Zeichen in der Domänen-Baumdarstellung nutzt.
- Matching Distributions between Model and Data: Cross-domain Knowledge Distillation for Unsupervised Domain Adaptation
- Bo Zhang, Xiaoming Zhang, Yun Liu, Lei Cheng, Zhoujun Li
- TLDR: Wir schlagen einen Rahmen vor, der die Verwendung von GANs ermöglicht, um das Zielmodell zu adaptieren.
- Counterfactual Inference for Text Classification Debiasing
- Chen Qian, Fuli Feng, Lijie Wen, Chunping Ma, Pengjun Xie
- TLDR: Wir schlagen einen Rahmen vor, der die Verzerrung von Textklassifikationsverzerrungen effektiv und fair verhindert.
- HieRec: Hierarchical User Interest Modeling for Personalized News Recommendation
- Tao Qi, Fangzhao Wu, Chuhan Wu, Peiru Yang, Yang Yu, Xing Xie, Yongfeng Huang
- TLDR: Wir schlagen eine hierarchische Benutzerannäherung vor, die die Vielfalt und die Vielfalt der Benutzerinteressen erfasst.
- PP-Rec: News Recommendation with Personalized User Interest and Time-aware News Popularity
- Tao Qi, Fangzhao Wu, Chuhan Wu, Yongfeng Huang
- TLDR: Wir schlagen einen Algorithmus zur Messung der populären Neugier vor, um die Unzulänglichkeit und Vielfalt bei der personalisierten Nachrichtenverbesserungsmethode zu verbessern.
- Article Reranking by Memory-Enhanced Key Sentence Matching for Detecting Previously Fact-Checked Claims
- Qiang Sheng, Juan Cao, Xueyao Zhang, Xirong Li, Lei Zhong
- TLDR: Wir schlagen einen neuen Reranker vor, MTM, um FC-Artikel mit event- und pattern-Informationen zu ranken.
- Defense against Synonym Substitution-based Adversarial Attacks via Dirichlet Neighborhood Ensemble
- Yi Zhou, Xiaoqing Zheng, Cho-Jui Hsieh, Kai-Wei Chang, Xuanjing Huang
- TLDR: Wir schlagen Dirichlet Neighborhood Ensemble (DNE) vor, eine neuartige Methode zum Training eines robusten Modells gegen synonymbasierte Angriffe.
- Shortformer: Better Language Modeling using Shorter Inputs
- Ofir Press, Noah A. Smith, Mike Lewis
- TLDR: Wir zeigen, dass die Länge des Eingaberaums für die Sprachmodellierung nicht unbedingt kontradiktorisch ist und dass die Länge des Eingaberaums für die Perplexität und die Effizienz erheblich verbessert.
- BanditMTL: Bandit-based Multi-task Learning for Text Classification
- Yuren Mao, Zekai Wang, Weiwei Liu, Xuemin Lin, Wenbin Hu
- TLDR: Wir schlagen BanditMTL vor, eine Methode zur Verallgemeinerung der Variablenregularisierung und eine neue Methode zur Textklassifikation.
- Unified Interpretation of Softmax Cross-Entropy and Negative Sampling: With Case Study for Knowledge Graph Embedding
- Hidetaka Kamigaito, Katsuhiko Hayashi
- TLDR: Wir verwenden Bregman-Divergenz, um eine uneinheitliche Interpretation der Softmax-Übersetzung und der Negativen-Sampling-Verlust-Funktion zu erhalten.
- De-Confounded Variational Encoder-Decoder for Logical Table-to-Text Generation
- Wenqing Chen, Jidong Tian, Yitian Li, Hao He, Yaohui Jin
- TLDR: Wir stellen eine Methode zur Texterzeugung vor, die auf der Grundlage von Tabellen erstellt wird.
- Rethinking Stealthiness of Backdoor Attack against NLP Models
- Wenkai Yang, Yankai Lin, Peng Li, Jie Zhou, Xu Sun
- TLDR: Wir schlagen eine neue Methode zur Backdoor-Angriffserkennung vor, die negative Datenerweiterung und Modifikationen kombiniert, um eine stealthy Backdoor-Angriffsmethode zu schaffen.
- Crowdsourcing Learning as Domain Adaptation: A Case Study on Named Entity Recognition
- Xin Zhang, Guangwei Xu, Yueheng Sun, Meishan Zhang, Pengjun Xie
- TLDR: Wir stellen Entitätserkennung vor, ein GAN-basiertes Lernmodell, das von den Domänenanpassungmethoden inspiriert ist.
- Exploring Distantly-Labeled Rationales in Neural Network Models
- Quzhe Huang, Shengqi Zhu, Yansong Feng, Dongyan Zhao
- TLDR: Wir schlagen zwei neue Verlustfunktionen vor, die die Aufmerksamkeit auf nicht-zutreffende Schlussfolgerungen (NoIRs) leiten und gleichzeitig die Wichtigkeit von Schlussfolgerungen (PINs) unterscheiden.
- Learning to Perturb Word Embeddings for Out-of-distribution QA
- Seanie Lee, Minki Kang, Juho Lee, Sung Ju Hwang
- TLDR: Wir schlagen eine einfache und effektive Methode vor, die die Worteinbettungen von QA-Modellen verfälscht, ohne die Semantik zu ändern.
- Maria: A Visual Experience Powered Conversational Agent
- Zujie Liang, Huang Hu, Can Xu, Chongyang Tao, Xiubo Geng, Yining Chen, Fan Liang, Daxin Jiang
- TLDR: Wir stellen eine neuartige Architektur vor, die auf Bildern basiert und die visuelle Welt nutzt.
- A Human-machine Collaborative Framework for Evaluating Malevolence in Dialogues
- Yangjun Zhang, Pengjie Ren, Maarten de Rijke
- TLDR: Wir stellen einen menschlichen-machine-Kollaborativrahmen vor, HMCEval, und stellen fest, dass die Erkennung von Verzerrungen in Dialogen eine gute Leistung bietet.
- Generating Relevant and Coherent Dialogue Responses using Self-Separated Conditional Variational AutoEncoders
- Bin Sun, Shaoxiong Feng, Yiwei Li, Jiamou Liu, Kan Li
- TLDR: Wir schlagen einen Self-separated Conditional Variational Autoencoder vor, der die Vielfalt und die Erreichbarkeit von Antworten in offenen Dialogen erheblich erhöht.
- Learning to Ask Conversational Questions by Optimizing Levenshtein Distance
- Zhongkun Liu, Pengjie Ren, Zhumin Chen, Zhaochun Ren, Maarten de Rijke, Ming Zhou
- TLDR: Wir stellen ein Reinforcement Iterative Sequence Editing (RISE) Framework vor, das die Minimum Levenshtein-Distanz optimiert und die Exploration verbessert.
- DVD: A Diagnostic Dataset for Multi-step Reasoning in Video Grounded Dialogue
- Hung Le, Chinnadhurai Sankar, Seungwhan Moon, Ahmad Beirami, Alborz Geramifard, Satwik Kottur
- TLDR: Wir stellen DVD vor, einen Diagnostic Dataset für Video-Göstungen und eine Methode zur Verbesserung von Video-Göstungen.
- MMGCN: Multimodal Fusion via Deep Graph Convolution Network for Emotion Recognition in Conversation
- Jingwen Hu, Yuchen Liu, Jinming Zhao, Qin Jin
- TLDR: Wir schlagen ein neues Modell vor, das auf Multimodalen Graphen fusiert, um die Emotion-Erkennung in Gesprächen zu nutzen.
- DynaEval: Unifying Turn and Dialogue Level Evaluation
- Chen Zhang, Yiming Chen, Luis Fernando D’Haro, Yan Zhang, Thomas Friedrichs, Grandee Lee, Haizhou Li
- TLDR: Wir schlagen DynaEval vor, ein automatisches Dialogmodell, das nicht nur die Qualität des gesamten Dialogs auf turn-Ebene bewertet, sondern auch die gesamte Dialogdynamik berücksichtigt.
- CoSQA: 20,000+ Web Queries for Code Search and Question Answering
- Junjie Huang, Duyu Tang, Linjun Shou, Ming Gong, Ke Xu, Daxin Jiang, Ming Zhou, Nan Duan
- TLDR: Wir stellen einen neuen Datensatz für die Text-Code-Matching-Erweiterung vor und zeigen, dass die Verwendung von CoCLR die Genauigkeit bei der Code-Antwortung verbessert.
- Rewriter-Evaluator Architecture for Neural Machine Translation
- Yangming Li, Kaisheng Yao
- TLDR: Wir stellen einen Rewriter-Evaluator vor, der die Verzerrung von Texten in mehreren Schritten minimiert und gleichzeitig die Qualität der Übersetzung verbessert.
- Modeling Bilingual Conversational Characteristics for Neural Chat Translation
- Yunlong Liang, Fandong Meng, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Qualität von Gesprächskorrespondenz in neuronalen Chat-Übersetzungen zu verbessern.
- Importance-based Neuron Allocation for Multilingual Neural Machine Translation
- Wanying Xie, Yang Feng, Shuhao Gu, Dong Yu
- TLDR: Wir schlagen eine Methode vor, die die Sprach- und Sprachspezifischen Teilen eines neuronalen Netzes verbindet und gleichzeitig die Sprachausgangssprachen in der Übersetzung berücksichtigt.
- Transfer Learning for Sequence Generation: from Single-source to Multi-source
- Xuancheng Huang, Jingfang Xu, Maosong Sun, Yang Liu
- TLDR: Wir schlagen eine zweistufige Fine-Fine-Methode vor, um die Diskrepanz zwischen pretrained und pretrained Modellen zu reduzieren und gleichzeitig eine bessere Repräsentation in MSG-Aufgaben zu erlernen.
- A Closer Look at Few-Shot Crosslingual Transfer: The Choice of Shots Matters
- Mengjie Zhao, Yi Zhu, Ehsan Shareghi, Ivan Vulić, Roi Reichart, Anna Korhonen, Hinrich Schütze
- TLDR: Wir stellen eine große Studie vor, die Einblicke in die lexikalischen Merkmale von wenigen Aufnahmen liefert.
- Coreference Reasoning in Machine Reading Comprehension
- Mingzhu Wu, Nafise Sadat Moosavi, Dan Roth, Iryna Gurevych
- TLDR: Wir schlagen eine Methode vor, um Coreference-Phänomene aus bestehenden Coreference-Resolution-Datensätzen zu verwenden, wenn MRC-Modelle trainiert werden.
- Adapting Unsupervised Syntactic Parsing Methodology for Discourse Dependency Parsing
- Liwen Zhang, Ge Wang, Wenjuan Han, Kewei Tu
- TLDR: Wir schlagen eine einfache, aber effektive Methode vor, um unbeaufsichtigte Syntax-Abhängigkeitsparsingmethoden an die unbeaufsichtigte Syntax-Abhängigkeitsparsingmethoden zu adaptieren.
- A Conditional Splitting Framework for Efficient Constituency Parsing
- Thanh-Tung Nguyen, Xuan-Phi Nguyen, Shafiq Joty, Xiaoli Li
- TLDR: Wir stellen ein allgemeines Seq2seq-Parsing-Framework vor, das syntaktische und discourse-Parsing lösen kann.
- A Unified Generative Framework for Various NER Subtasks
- Hang Yan, Tao Gui, Junqi Dai, Qipeng Guo, Zheng Zhang, Xipeng Qiu
- TLDR: Wir schlagen eine neue Aufgabe vor, die die Entitätsspanne erzeugt, und lösen sie gleichzeitig.
- An In-depth Study on Internal Structure of Chinese Words
- Chen Gong, Saihao Huang, Houquan Zhou, Zhenghua Li, Min Zhang, Zhefeng Wang, Baoxing Huai, Nicholas Jing Yuan
- TLDR: Wir schlagen eine neue Aufgabe vor, die die tiefen internen Strukturen von Wörtern als Abhängigkeitsbäumen bezeichnet, und verwenden sie zur Spracherkennung.
- MulDA: A Multilingual Data Augmentation Framework for Low-Resource Cross-Lingual NER
- Linlin Liu, Bosheng Ding, Lidong Bing, Shafiq Joty, Luo Si, Chunyan Miao
- TLDR: Wir schlagen eine Labeled Sequence Translation Methode vor, um Sprachmodelle für NER zu generieren, die auf mehreren Sprachen trainiert wurden.
- Lexicon Enhanced Chinese Sequence Labeling Using BERT Adapter
- Wei Liu, Xiyan Fu, Yue Zhang, Wenming Xiao
- TLDR: Wir schlagen ein neues Lexikon-Enhanced BERT vor, das externes lexikalisches Wissen in BERT-Schichtschichten direkt integriert.
- Math Word Problem Solving with Explicit Numerical Values
- Qinzhuo Wu, Qi Zhang, Zhongyu Wei, Xuanjing Huang
- TLDR: Wir schlagen NumS2T vor, eine numerische Werteinbettung, die die Leistung bei der Lösung von Satzbeschriftungen verbessert.
- Neural-Symbolic Solver for Math Word Problems with Auxiliary Tasks
- Jinghui Qin, Xiaodan Liang, Yining Hong, Jianheng Tang, Liang Lin
- TLDR: Wir schlagen einen neuronalen symbolischen Solver vor, der sich auf die Erstellung von Aufgaben und die Erkennung von symbolischen Beschriftungen anwenden lässt.
- SMedBERT: A Knowledge-Enhanced Pre-trained Language Model with Structured Semantics for Medical Text Mining
- Taolin Zhang, Zerui Cai, Chengyu Wang, Minghui Qiu, Bite Yang, Xiaofeng He
- TLDR: Wir stellen SMedBERT vor, einen PLM, der auf großen medizinischen Konzentrationen tiefe semantische Wissensschichten in die Wissensgraphen einbezieht.
- What is Your Article Based On? Inferring Fine-grained Provenance
- Yi Zhang, Zachary Ives, Dan Roth
- TLDR: Wir stellen eine empirische Bewertung von Artikeln vor, die auf die Verallgemeinerung von Behauptungen basieren.
- Cross-modal Memory Networks for Radiology Report Generation
- Zhihong Chen, Yaling Shen, Yan Song, Xiang Wan
- TLDR: Wir schlagen eine neue Methode vor, die die Abstimmung von Bildern und Texten in einem tiefen neuronalen Speichernetzwerk ermöglicht.
- Controversy and Conformity: from Generalized to Personalized Aggressiveness Detection
- Kamil Kanclerz, Alicja Figas, Marcin Gruza, Tomasz Kajdanowicz, Jan Kocon, Daria Puchalska, Przemyslaw Kazienko
- TLDR: Wir schlagen personalisierte Dokumente vor, die auf die Meinungen von Nutzern abstimmen.
- Multi-perspective Coherent Reasoning for Helpfulness Prediction of Multimodal Reviews
- Junhao Liu, Zhen Hai, Min Yang, Lidong Bing
- TLDR: Wir schlagen eine Multimodal Review Helpfulness Prediction (MRHP) vor, die die Bewertungshilfreikeit aus Texten und visuellen Mechanismen analysiert.
- Instantaneous Grammatical Error Correction with Shallow Aggressive Decoding
- Xin Sun, Tao Ge, Furu Wei, Houfeng Wang
- TLDR: Wir schlagen Shallow Aggressive Decoding vor, um die Online-Inferenzeffizientkeit von Transformer für Grammatik-Korrespondenz zu verbessern.
- Automatic ICD Coding via Interactive Shared Representation Networks with Self-distillation Mechanism
- Tong Zhou, Pengfei Cao, Yubo Chen, Kang Liu, Jun Zhao, Kun Niu, Weifeng Chong, Shengping Liu
- TLDR: Wir schlagen ein Interaktives Teilnetz mit Selbst-Distillation Mechanism vor, um die Probleme bei der ICD-Coding zu lösen.
- PHMOSpell: Phonological and Morphological Knowledge Guided Chinese Spelling Check
- Li Huang, Junjie Li, Weiwei Jiang, Zhiyu Zhang, Minchuan Chen, Shaojun Wang, Jing Xiao
- TLDR: Wir schlagen ein neuartiges End-to-End-Trainingsmodell vor, das die Leistung von CSC mit Multi-Modal Information fördert.
- Guiding the Growth: Difficulty-Controllable Question Generation through Step-by-Step Rewriting
- Yi Cheng, Siyao Li, Bang Liu, Ruihui Zhao, Sujian Li, Chenghua Lin, Yefeng Zheng
- TLDR: Wir schlagen einen neuen Rahmen vor, der die Frage-Übersetzungsprobleme durch Schrittweiser Rewritement verringert.
- Improving Encoder by Auxiliary Supervision Tasks for Table-to-Text Generation
- Liang Li, Can Ma, Yinliang Yue, Dayong Hu
- TLDR: Wir schlagen eine neue Methode zur Datenerzeugung vor, die die Beziehungen zwischen den Datensätzen erfasst.
- POS-Constrained Parallel Decoding for Non-autoregressive Generation
- Kexin Yang, Wenqiang Lei, Dayiheng Liu, Weizhen Qi, Jiancheng Lv
- TLDR: Wir stellen eine neue Methode vor, die die Entflechtung von Wissen auf sequenz-Ebene ermöglicht.
- Bridging Subword Gaps in Pretrain-Finetune Paradigm for Natural Language Generation
- Xin Liu, Baosong Yang, Dayiheng Liu, Haibo Zhang, Weihua Luo, Min Zhang, Haiying Zhang, Jinsong Su
- TLDR: Wir stellen eine Plug-and-Play-Architektur vor, die die Einbettung von Sprachstilen in tiefen NLG-Aufgaben ermöglicht.
- TGEA: An Error-Annotated Dataset and Benchmark Tasks for TextGeneration from Pretrained Language Models
- Jie He, Bo Peng, Yi Liao, Qun Liu, Deyi Xiong
- TLDR: Wir stellen ein neues Datensatz mit vollständig annotierten Texten vor, das die Erkennung von Fehlern bei PLM-basierten Texten ermöglicht.
- Long-Span Summarization via Local Attention and Content Selection
- Potsawee Manakul, Mark Gales
- TLDR: Wir lösen lange Zeitabhängigkeiten in der Dokumentenauswertung mit zwei Methoden: Lokalen Selbstaufmerksamkeit und explizitem Inhaltsauswahl.
- RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy
- Xiyan Fu, Yating Zhang, Tianyi Wang, Xiaozhong Liu, Changlong Sun, Zhenglu Yang
- TLDR: Wir schlagen eine neuartige unüberwachte Strategie zur Dialogausfassung vor, die die Texterzeugung und -klassifizierung verbessert.
- BASS: Boosting Abstractive Summarization with Unified Semantic Graph
- Wenhao Wu, Wei Li, Xinyan Xiao, Jiachen Liu, Ziqiang Cao, Sujian Li, Hua Wu, Haifeng Wang
- TLDR: Wir stellen eine neue Architektur vor, die die Abbildungsauswertung verbessert und die Dokumentdarstellung und -erzeugung verbessert.
- Capturing Relations between Scientific Papers: An Abstractive Model for Related Work Section Generation
- Xiuying Chen, Hind Alamro, Mingzhe Li, Shen Gao, Xiangliang Zhang, Dongyan Zhao, Rui Yan
- TLDR: Wir schlagen einen Relationsbewussten Werk Generator vor, der eine abstrakte Arbeit aus mehreren Forschungsschriften in einer gleichen Forschungsgebietsbereichseinheit erzeugt.
- Focus Attention: Promoting Faithfulness and Diversity in Summarization
- Rahul Aralikatte, Shashi Narayan, Joshua Maynez, Sascha Rothe, Ryan McDonald
- TLDR: Wir stellen eine Methode vor, die die Aufmerksamkeit von Dekodierern nutzt, um zu generieren, die sich auf die Dokumentenbene inspirieren lassen.
- Generating Query Focused Summaries from Query-Free Resources
- Yumo Xu, Mirella Lapata
- TLDR: Wir schlagen eine Masked ROUGE-Regression vor, die die Suche nach Dokumenten und Zusammenfassungen in einer Reihe von Dokumenten kombiniert.
- Robustifying Multi-hop QA through Pseudo-Evidentiality Training
- Kyungjae Lee, Seung-won Hwang, Sang-eun Han, Dohyeon Lee
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Wahrnehmungswahrnehmung von Multi-Hop-Fragen zu trainieren, indem wir die Beweise für die Antwortverzerrung vergleichen.
- xMoCo: Cross Momentum Contrastive Learning for Open-Domain Question Answering
- Nan Yang, Furu Wei, Binxing Jiao, Daxing Jiang, Linjun Yang
- TLDR: Wir schlagen eine neue Methode für das Erlernen eines dualen Encoders vor, um Fragen-zu-Passage-Matching-Aufgaben zu lösen.
- Learn to Resolve Conversational Dependency: A Consistency Training Framework for Conversational Question Answering
- Gangwoo Kim, Hyunjae Kim, Jungsoo Park, Jaewoo Kang
- TLDR: Wir schlagen eine neuartige Methode vor, ExCorD, um die Fähigkeiten von QA-Modellen bei der Lösung von Konversationsabhängigkeit zu verbessern.
- PhotoChat: A Human-Human Dialogue Dataset With Photo Sharing Behavior For Joint Image-Text Modeling
- Xiaoxue Zang, Lijuan Liu, Maria Wang, Yang Song, Hao Zhang, Jindong Chen
- TLDR: Wir stellen einen neuen Dialogdatensatz vor, der Einblicke in das Bild- und Textmodell in Online-Kätzen ermöglicht.
- Good for Misconceived Reasons: An Empirical Revisiting on the Need for Visual Context in Multimodal Machine Translation
- Zhiyong Wu, Lingpeng Kong, Wei Bi, Xiang Li, Ben Kao
- TLDR: Wir stellen fest, dass die Verbesserungen bei der Text-only-Übersetzung durch die Multimodal-Informationen in den MMT-Modulen tatsächlich Ergebnisse der Regularisierungseffekte sind.
- Attend What You Need: Motion-Appearance Synergistic Networks for Video Question Answering
- Ahjeong Seo, Gi-Cheon Kang, Joonhan Park, Byoung-Tak Zhang
- TLDR: Wir schlagen Motion-Appearance Synergistic Networks (MASN) vor, die zwei cross-modal Merkmale auf der Grundlage von Bewegungs- und Erscheinungsinformationen verwenden können, um eine Frage zu beantworten.
- BERTifying the Hidden Markov Model for Multi-Source Weakly Supervised Named Entity Recognition
- Yinghao Li, Pranav Shetty, Lucas Liu, Chao Zhang, Le Song
- TLDR: Wir schlagen ein bedingtes Markov-Modell vor, das die Erkennung von Entitäten aus mehreren weaken Überwachungsverschlüsselungen effektiv erlernen kann.
- CIL: Contrastive Instance Learning Framework for Distantly Supervised Relation Extraction
- Tao Chen, Haizhou Shi, Siliang Tang, Zhigang Chen, Fei Wu, Yueting Zhuang
- TLDR: Wir schlagen einen neuen Rahmen für das contrastive Instanz-Lernen vor, der die meisten Merkmale aus einer Bag von Satzbeschriftungen ersetzt.
- SENT: Sentence-level Distant Relation Extraction via Negative Training
- Ruotian Ma, Tao Gui, Linyang Li, Qi Zhang, Xuanjing Huang, Yaqian Zhou
- TLDR: Wir schlagen negatives Training vor, in dem ein Modell mit complementary Labels ausgestattet wird, um die Abhängigkeit von diesen Labels zu erklären.
- An End-to-End Progressive Multi-Task Learning Framework for Medical Named Entity Recognition and Normalization
- Baohang Zhou, Xiangrui Cai, Ying Zhang, Xiaojie Yuan
- TLDR: Wir schlagen ein progressives Multi-Task-Lernen vor, um die Entitätserkennung und die Normalisierung in einem effektiven Rahmen zu modellieren.
- PRGC: Potential Relation and Global Correspondence Based Joint Relational Triple Extraction
- Hengyi Zheng, Rui Wen, Xi Chen, Yifan Yang, Yunyan Zhang, Ziheng Zhang, Ningyu Zhang, Bin Qin, Xu Ming, Yefeng Zheng
- TLDR: Wir schlagen einen Rahmen für die relationale triple-Exploration vor, der auf Potential Relations and Global Correspondence (PRGC) basiert.
- Learning from Miscellaneous Other-Class Words for Few-shot Named Entity Recognition
- Meihan Tong, Shuai Wang, Bin Xu, Yixin Cao, Minghui Liu, Lei Hou, Juanzi Li
- TLDR: Wir schlagen ein neuartiges Modell vor, das auf der Suche nach unbekannten Klassen für die Erkennung von Entitäten mit wenigen Aufnahmen trainiert.
- Joint Biomedical Entity and Relation Extraction with Knowledge-Enhanced Collective Inference
- Tuan Lai, Heng Ji, ChengXiang Zhai, Quan Hung Tran
- TLDR: Wir schlagen einen neuen Rahmen vor, der externes Wissen für die gemeinsame Entitäts- und Beziehungsextraktion verwendet.
- Fine-grained Information Extraction from Biomedical Literature based on Knowledge-enriched Abstract Meaning Representation
- Zixuan Zhang, Nikolaus Parulian, Heng Ji, Ahmed Elsayed, Skatje Myers, Martha Palmer
- TLDR: Wir schlagen ein neuartiges biomedizinisches Informationsmodell vor, das die Entitäten und Ereignissen aus wissenschaftlichen Forschungsschriften extrahiert.
- Unleash GPT-2 Power for Event Detection
- Amir Pouran Ben Veyseh, Viet Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Wir schlagen eine Lehrer-Student-Architektur vor, die das Anwenden von Anchor-Knowledges aus den originalen Daten ermöglicht.
- CLEVE: Contrastive Pre-training for Event Extraction
- Ziqi Wang, Xiaozhi Wang, Xu Han, Yankai Lin, Lei Hou, Zhiyuan Liu, Peng Li, Juanzi Li, Jie Zhou
- TLDR: Wir schlagen CLEVE vor, einen kontrastiven Rahmen für die Erfassung und die Erstellung von Ereignissen und eine neue Methode zur Erstellung von Ereignisstrukturen vor.
- Document-level Event Extraction via Parallel Prediction Networks
- Hang Yang, Dianbo Sui, Yubo Chen, Kang Liu, Jun Zhao, Taifeng Wang
- TLDR: Wir schlagen ein End-to-End-Modell vor, das strukturierte Ereignissen aus einem Dokument in paralleler Weise erzeugt.
- StructuralLM: Structural Pre-training for Form Understanding
- Chenliang Li, Bin Bi, Ming Yan, Wei Wang, Songfang Huang, Fei Huang, Luo Si
- TLDR: Wir schlagen einen neuen Vortrainingsalgorithmus vor, StructuralLM, um die wichtigsten Informationen aus Dokumenten zu nutzen.
- Dual Graph Convolutional Networks for Aspect-based Sentiment Analysis
- Ruifan Li, Hao Chen, Fangxiang Feng, Zhanyu Ma, Xiaojie Wang, Eduard Hovy
- TLDR: Wir schlagen ein duales graphisches Convolutional Network vor, das die complementarität von Syntax- und Semantikstrukturen berücksichtigt.
- Multi-Label Few-Shot Learning for Aspect Category Detection
- Mengting Hu, Shiwan Zhao, Honglei Guo, Chao Xue, Hang Gao, Tiegang Gao, Renhong Cheng, Zhong Su
- TLDR: Wir schlagen eine Methode vor, die die Aufmerksamkeit von mehreren Beschriftungsinstanzen nutzt, um die Verzerrung von Beschriftungsinstanzen zu beseitigen.
- Argument Pair Extraction via Attention-guided Multi-Layer Multi-Cross Encoding
- Liying Cheng, Tianyu Wu, Lidong Bing, Luo Si
- TLDR: Wir schlagen ein Aufmerksamkeitsbestimmungsschema vor, um die Probleme bei der Erfassung von Argumenten von zwei Passagen zu lösen.
- A Neural Transition-based Model for Argumentation Mining
- Jianzhu Bao, Chuang Fan, Jipeng Wu, Yixue Dang, Jiachen Du, Ruifeng Xu
- TLDR: Wir schlagen ein neuronales Transformationsmodell vor, das eine Argumentationsgraphenstruktur aus Argumentationstexten extrahiert.
- Keep It Simple: Unsupervised Simplification of Multi-Paragraph Text
- Philippe Laban, Tobias Schnabel, Paul Bennett, Marti A. Hearst
- TLDR: Wir schlagen einen neuen Ansatz zur Texterweiterung vor, der lernt, die Belohnung zu gewichten, um eine Belohnung für die Fluenz, die SIE und die Einfachheit zu erhalten.
- Long Text Generation by Modeling Sentence-Level and Discourse-Level Coherence
- Jian Guan, Xiaoxi Mao, Changjie Fan, Zitao Liu, Wenbiao Ding, Minlie Huang
- TLDR: Wir schlagen ein tiefes Textmodell vor, das die Präfix-Szenzen auf Satzebene und auf Konversationsebene erzeugt.
- OpenMEVA: A Benchmark for Evaluating Open-ended Story Generation Metrics
- Jian Guan, Zhexin Zhang, Zhuoer Feng, Zitao Liu, Wenbiao Ding, Xiaoxi Mao, Changjie Fan, Minlie Huang
- TLDR: Wir stellen OpenMEVA vor, einen Benchmark für die Bewertung von Metriken zur Erzeugung von Geschichten.
- DYPLOC: Dynamic Planning of Content Using Mixed Language Models for Text Generation
- Xinyu Hua, Ashwin Sreevatsa, Lu Wang
- TLDR: Wir schlagen einen neuen Rahmen vor, der die Dynamik der Erzeugung von Meinungstexten und die Erweiterung der Erzeugung von Behauptungen nutzt.
- Controllable Open-ended Question Generation with A New Question Type Ontology
- Shuyang Cao, Lu Wang
- TLDR: Wir schlagen ein neuartiges Frage-Typen-Architekturen-Framework vor, das die Antwort auf die Frage typisiert.
- BERTGen: Multi-task Generation through BERT
- Faidon Mitzalis, Ozan Caglayan, Pranava Madhyastha, Lucia Specia
- TLDR: Wir stellen BERTGen vor, ein generatives, decoder-only Modell, das BERT durch die Fusion von mehreren Sprachmodellen erweitert.
- Selective Knowledge Distillation for Neural Machine Translation
- Fusheng Wang, Jianhao Yan, Fandong Meng, Jie Zhou
- TLDR: Wir schlagen einen neuen Algorithmus vor, um die unterschiedlichen Auswirkungen von Beispielen zu analysieren und zu bewerten.
- Measuring and Increasing Context Usage in Context-Aware Machine Translation
- Patrick Fernandes, Kayo Yin, Graham Neubig, André F. T. Martins
- TLDR: Wir stellen eine Metrik vor, die die Verwendung von Kontext in neuronalen Übersetzungsmodellen quantifiziert.
- Beyond Offline Mapping: Learning Cross-lingual Word Embeddings through Context Anchoring
- Aitor Ormazabal, Mikel Artetxe, Aitor Soroa, Gorka Labaka, Eneko Agirre
- TLDR: Wir schlagen einen neuen Ansatz vor, der die Sprachauswahlen in mehreren Sprachen verbindet und gleichzeitig die Sprachauswahlen in einer einzigen Sprache ermöglicht.
- CCMatrix: Mining Billions of High-Quality Parallel Sentences on the Web
- Holger Schwenk, Guillaume Wenzek, Sergey Edunov, Edouard Grave, Armand Joulin, Angela Fan
- TLDR: Wir stellen eine skalierbare Methode zur Verflechtung von Texten vor, die auf mehreren Sprachen mit unterschiedlichen Übersetzungsmodellen trainiert werden können.
- Length-Adaptive Transformer: Train Once with Length Drop, Use Anytime with Search
- Gyuwan Kim, Kyunghyun Cho
- TLDR: Wir schlagen einen neuen Algorithmus vor, der die Genauigkeit und die Effizienz bei der Inferenz optimiert.
- GhostBERT: Generate More Features with Cheap Operations for BERT
- Zhiqi Huang, Lu Hou, Lifeng Shang, Xin Jiang, Xiao Chen, Qun Liu
- TLDR: Wir schlagen ein ghost-Modul vor, das die Verwächerung von BERT-Modellen erheblich reduzieren kann.
- Super Tickets in Pre-Trained Language Models: From Model Compression to Improving Generalization
- Chen Liang, Simiao Zuo, Minshuo Chen, Haoming Jiang, Xiaodong Liu, Pengcheng He, Tuo Zhao, Weizhu Chen
- TLDR: Wir zeigen, dass die Verallgemeinerung von Lotteria-Tährtickets die Generalisierungsleistung eines vollständigen Modells übertrifft.
- A Novel Estimator of Mutual Information for Learning to Disentangle Textual Representations
- Pierre Colombo, Pablo Piantanida, Chloé Clavel
- TLDR: Wir stellen eine neue Variationale Obergrenze vor, die die gegenseitige Information zwischen den Entitäten und dem latenten Code eines Entcoders minimiert.
- Determinantal Beam Search
- Clara Meister, Martina Forster, Ryan Cotterell
- TLDR: Wir schlagen eine reformulierte Beam Search vor, die die Vielfalt in der Beam Search nutzt.
- Multi-hop Graph Convolutional Network with High-order Chebyshev Approximation for Text Reasoning
- Shuoran Jiang, Qingcai Chen, Xin Liu, Baotian Hu, Lisai Zhang
- TLDR: Wir schlagen eine spektrale Graphen-Architektur vor, die die Aufmerksamkeit auf die Überwachung von nicht-konsecutiven Graphen-Beobachtungen erhöht.
- Accelerating Text Communication via Abbreviated Sentence Input
- Jiban Adhikary, Jamie Berger, Keith Vertanen
- TLDR: Wir haben einen Spracherkenner entwickelt, der abbreibungsbeschränkungen und Abkürzungen kennt.
- Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing Regressions In NLP Model Updates
- Yuqing Xie, Yi-An Lai, Yuanjun Xiong, Yi Zhang, Stefano Soatto
- TLDR: Wir analysieren und lösen Regressionsfehler in neuronalen Modellen und schlagen eine neue Methode vor, die die Verzerrung von Regressionsfehlern minimiert.
- Detecting Propaganda Techniques in Memes
- Dimitar Dimitrov, Bishr Bin Ali, Shaden Shaar, Firoj Alam, Fabrizio Silvestri, Hamed Firooz, Preslav Nakov, Giovanni Da San Martino
- TLDR: Wir schlagen eine neue Multi-Label-Multi-Label-Methode vor, die die Typen von Verfälschungen in den Memos erkennt.
- On the Efficacy of Adversarial Data Collection for Question Answering: Results from a Large-Scale Randomized Study
- Divyansh Kaushik, Douwe Kiela, Zachary C. Lipton, Wen-tau Yih
- TLDR: Wir stellen eine kontrollierte Studie vor, die die Aufgabe der Datenerfassung und -auswertung aufzeigt.
- Learning Dense Representations of Phrases at Scale
- Jinhyuk Lee, Mujeen Sung, Jaewoo Kang, Danqi Chen
- TLDR: Wir stellen eine Methode vor, die den Begriffen von Phrasen in einem offenen Bereich zugeordnetermaßen zuzuschreiben, und zeigen, dass sie die Leistung von Retriever-Reader-Modellen übertrifft.
- End-to-End Training of Neural Retrievers for Open-Domain Question Answering
- Devendra Sachan, Mostofa Patwary, Mohammad Shoeybi, Neel Kant, Wei Ping, William L. Hamilton, Bryan Catanzaro
- TLDR: Wir schlagen einen unbeaufsichtigten Vortrainingsalgorithmus vor, der die Rechner und die Antwort extrahieren kann.
- Question Answering Over Temporal Knowledge Graphs
- Apoorv Saxena, Soumen Chakrabarti, Partha Talukdar
- TLDR: Wir stellen CRONKGQA vor, eine transformerbasierte Lösung für Fragen, die auf Temporal Knowledge Graphen basieren.
- Language Model Augmented Relevance Score
- Ruibo Liu, Jason Wei, Soroush Vosoughi
- TLDR: Wir schlagen eine neue Metrik vor, die die Generierungs- und Verwendungsgenehmigungen von Menschen in Bezug auf die Generierungs- und Verwendungsgenehmigungen berücksichtigt.
- DExperts: Decoding-Time Controlled Text Generation with Experts and Anti-Experts
- Alisa Liu, Maarten Sap, Ximing Lu, Swabha Swayamdipta, Chandra Bhagavatula, Noah A. Smith, Yejin Choi
- TLDR: Wir schlagen DExperts: Decoding-time Experts vor, eine decoding-time Methode zur Texterzeugung, die ein pretrained Sprachmodell mit Experten und/oder “anti-Expert” LMs in einen Paket von Experten kombiniert.
- Polyjuice: Generating Counterfactuals for Explaining, Evaluating, and Improving Models
- Tongshuang Wu, Marco Tulio Ribeiro, Jeffrey Heer, Daniel Weld
- TLDR: Wir stellen Polyjuice vor, einen allgemeinen Nutzen für die Generierung von Gegenbeispielen, der die Kontrolle über die Entflechtungsarten und Standorte ermöglicht.
- Metaphor Generation with Conceptual Mappings
- Kevin Stowe, Tuhin Chakrabarty, Nanyun Peng, Smaranda Muresan, Iryna Gurevych
- TLDR: Wir schlagen ein Metaphorenmodell vor, das auf FrameNet-basiert, um abstrakte Konzepte zu generieren.
- Learning Latent Structures for Cross Action Phrase Relations in Wet Lab Protocols
- Chaitanya Kulkarni, Jany Chan, Eric Fosler-Lussier, Raghu Machiraju
- TLDR: Wir schlagen ein neues corpus von WLP-MSTGs vor, das auf die Lösung von Inter-Sentence-Relationen und impliziten Argumenten und auf die Erfassung von Materialen mit Hilfe von Materialenströmen basiert.
- Multimodal Multi-Speaker Merger & Acquisition Financial Modeling: A New Task, Dataset, and Neural Baselines
- Ramit Sawhney, Mihir Goyal, Prakhar Goel, Puneet Mathur, Rajiv Ratn Shah
- TLDR: Wir stellen M3ANet vor, eine Architektur zur Vorhersage des Risikos bei der M&A-Faltung und zur Verbesserung von BERT-basierten Benchmarkmodellen.
- Mid-Air Hand Gestures for Post-Editing of Machine Translation
- Rashad Albo Jamara, Nico Herbig, Antonio Krüger, Josef van Genabith
- TLDR: Wir stellen eine erste Studie vor, die die Verwendung von Handbewegungen in Kombination mit der Maus und der Tasten (GK) für die Texterstellung in MT untersucht.
- Inter-GPS: Interpretable Geometry Problem Solving with Formal Language and Symbolic Reasoning
- Pan Lu, Ran Gong, Shibiao Jiang, Liang Qiu, Siyuan Huang, Xiaodan Liang, Song-Chun Zhu
- TLDR: Wir schlagen einen neuartigen Ansatz zur Interpretation von Geometrie vor, der auf Regeln basiert und die Klassifizierung von Modellen und Modelldarstellungen in formaler Sprache ermöglicht.
- Joint Verification and Reranking for Open Fact Checking Over Tables
- Michael Sejr Schlichtkrull, Vladimir Karpukhin, Barlas Oguz, Mike Lewis, Wen-tau Yih, Sebastian Riedel
- TLDR: Wir stellen ein gemeinsames Reranking- und Verifikationsmodell vor, das strukturierte Daten in den Rahmen der Verifikation einbezieht.
- Evaluation of Thematic Coherence in Microblogs
- Iman Munire Bilal, Bo Wang, Maria Liakata, Rob Procter, Adam Tsakalidis
- TLDR: Wir stellen eine corpus von Mini-Blog-Clustern vor, die aus drei Zeiträumen und drei Zeiträumen mit unterschiedlichen Themen und Zeiträumen erstellt wurden.
- Neural semi-Markov CRF for Monolingual Word Alignment
- Wuwei Lan, Chao Jiang, Wei Xu
- TLDR: Wir stellen ein neuronales semi-Markov-CRF-Modell vor, das Worte und Phrasen in Texten mit mehreren Sprachvarianten automatisch einbettungen.
- Privacy at Scale: Introducing the PrivaSeer Corpus of Web Privacy Policies
- Mukund Srinath, Shomir Wilson, C Lee Giles
- TLDR: Wir stellen ein corpus von 1,005,380 Privatsphäre-Websites vor, das aus dem Netz gesammelt wurden.
- The statistical advantage of automatic NLG metrics at the system level
- Johnny Wei, Robin Jia
- TLDR: Wir stellen fest, dass die meisten Metriken nicht so gut sind wie die Menschen, wenn die Anzahl der Menschen die Bewertungen verwendet.
- Are Missing Links Predictable? An Inferential Benchmark for Knowledge Graph Completion
- Yixin Cao, Xiang Ji, Xin Lv, Juanzi Li, Yonggang Wen, Hanwang Zhang
- TLDR: Wir stellen InferWiki vor, einen Knowledge Graphen Completion (KGC) Datensatz, der auf bestehende Benchmarks in Inferenz, Annahmen und Muster verbessert.
- ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive Summarization with Argument Mining
- Alexander Fabbri, Faiaz Rahman, Imad Rizvi, Borui Wang, Haoran Li, Yashar Mehdad, Dragomir Radev
- TLDR: Wir stellen eine neue Methode zur Sprachausbreitung von Online-Gesprächungen vor, die die Themen, Ansichten und Äußerungen in einer Gesprächsverschiebung modelliert.
- Improving Factual Consistency of Abstractive Summarization via Question Answering
- Feng Nan, Cicero Nogueira dos Santos, Henghui Zhu, Patrick Ng, Kathleen McKeown, Ramesh Nallapati, Dejiao Zhang, Zhiguo Wang, Andrew O. Arnold, Bing Xiang
- TLDR: Wir schlagen einen neuen Algorithmus vor, um die Fälschungsverzerrung bei der Zusammenfassung zu beheben.
- EmailSum: Abstractive Email Thread Summarization
- Shiyue Zhang, Asli Celikyilmaz, Jianfeng Gao, Mohit Bansal
- TLDR: Wir haben einen abstrakten Datensatz für die Zusammenfassung von E-Mail-Through-Mail-Through-Summen entwickelt und analysiert.
- Cross-Lingual Abstractive Summarization with Limited Parallel Resources
- Yu Bai, Yang Gao, Heyan Huang
- TLDR: Wir schlagen MCLAS vor, ein Multi-Task Framework für die Cross-Lingual Abstractive Summarization (MCLAS) in einem low-resource setting.
- Dissecting Generation Modes for Abstractive Summarization Models via Ablation and Attribution
- Jiacheng Xu, Greg Durrett
- TLDR: Wir stellen eine Methode vor, die die Aufmerksamkeit auf die Erzeugung von Zufallstoken aus Störungen des Eingangs darstellt.
- Learning Prototypical Functions for Physical Artifacts
- Tianyu Jiang, Ellen Riloff
- TLDR: Wir stellen eine neue Aufgabe vor, die die typischen Verwendungen von physikalischen Gegenständen für menschliches Gehirn erlernen.
- Verb Knowledge Injection for Multilingual Event Processing
- Olga Majewska, Ivan Vulić, Goran Glavaš, Edoardo Maria Ponti, Anna Korhonen
- TLDR: Wir stellen fest, dass die Einbeziehung von Verben in die Erfassung von Ereignissen die Leistung von LMs verbessert.
- Dynamic Contextualized Word Embeddings
- Valentin Hofmann, Janet Pierrehumbert, Hinrich Schütze
- TLDR: Wir stellen kontextualisierte und dynamische Worteinbettungen vor, die Worte als eine Funktion von sprachen und extralingualen Kontexten darstellen.
- Lexical Semantic Change Discovery
- Sinan Kurtyigit, Maike Park, Dominik Schlechtweg, Jonas Kuhn, Sabine Schulte im Walde
- TLDR: Wir stellen eine neue Methode zur Veränderungserkennung vor, die auf typo-basierte und tokenbasiertes Lernen von Wörtern mit Veränderungen anwendbar ist.
- The R-U-A-Robot Dataset: Helping Avoid Chatbot Deception by Detecting User Questions About Human or Non-Human Identity
- David Gros, Yu Li, Zhou Yu
- TLDR: Wir analysieren, wie die meisten Systeme, die eine Roboter-Interaktion haben, nicht-human sind.
- Using Meta-Knowledge Mined from Identifiers to Improve Intent Recognition in Conversational Systems
- Claudio Pinhanez, Paulo Cavalin, Victor Henrique Alves Ribeiro, Ana Appel, Heloisa Candello, Julio Nogima, Mauro Pichiliani, Melina Guerra, Maira de Bayser, Gabriel Malfatti, Henrique Ferreira
- TLDR: Wir verwenden neuro-symbolische Algorithmen, um die Erkennung von Zielen und Beispielen aus Chatbots zu verbessern.
- Space Efficient Context Encoding for Non-Task-Oriented Dialogue Generation with Graph Attention Transformer
- Fabian Galetzka, Jewgeni Rose, David Schlangen, Jens Lehmann
- TLDR: Wir schlagen eine neue Methode vor, um Wissensgraphen in den Hintergrund zu integrieren, indem wir die Aufmerksamkeitsgewichte auf die Aufmerksamkeitsbeschriftungen verringern.
- DialogueCRN: Contextual Reasoning Networks for Emotion Recognition in Conversations
- Dou Hu, Lingwei Wei, Xiaoyong Huai
- TLDR: Wir schlagen Contextual Reasoning Networks (DialogueCRN) vor, um den Kontext von Gesprächsverhältnissen aus einer kognitiven Sicht zu verstehen.
- Cross-replication Reliability - An Empirical Approach to Interpreting Inter-rater Reliability
- Ka Wong, Praveen Paritosh, Lora Aroyo
- TLDR: Wir stellen eine neue Methode zur Messung der Interrater-Reliability vor, die auf der Klassifizierung von Gesichtsausdrücken basiert.
- TIMEDIAL: Temporal Commonsense Reasoning in Dialog
- Lianhui Qin, Aditya Gupta, Shyam Upadhyay, Luheng He, Yejin Choi, Manaal Faruqui
- TLDR: Wir stellen eine Aufgabe und einen Aufgabensatz vor, um die temporale Schlussfolgerungen von LMs bei Gesprächsverhandlungen zu untersuchen.
- RAW-C: Relatedness of Ambiguous Words in Context (A New Lexical Resource for English)
- Sean Trott, Benjamin Bergen
- TLDR: Wir stellen eine neue Methode vor, um die Konsistenz von Wörtern in kontextuellen Einbettungen zu bewerten.
- ARBERT & MARBERT: Deep Bidirectional Transformers for Arabic
- Muhammad Abdul-Mageed, AbdelRahim Elmadany, El Moatez Billah Nagoudi
- TLDR: Wir stellen eine neue Benchmark-Architektur für das Erlernen von sprachen mit mehreren Sprachfamilien vor und stellen eine neue Bewertungsmethode vor, die auf der Multi-Dial-Englisch-Übersetzung basiert.
- Improving Paraphrase Detection with the Adversarial Paraphrasing Task
- Animesh Nighojkar, John Licato
- TLDR: Wir stellen einen adversarischen Paraphrasing-Task vor, der auf der Erkennung von Vertauschungen zwischen Satzpaaren basiert und die Erkennung von Vertauschungen auf Satzebene verbessert.
- ADEPT: An Adjective-Dependent Plausibility Task
- Ali Emami, Ian Porada, Alexandra Olteanu, Kaheer Suleman, Adam Trischler, Jackie Chi Kit Cheung
- TLDR: Wir stellen eine große Aufgabe vor, die über 16 Millionen Worte enthält, die mit einer Adjective verglichen werden, und zeigen, dass die Adjective selbst und ihre Klassifikationsklassifikationen ausreichend sind, um den richtigen Schluss zu ziehen.
- ReadOnce Transformers: Reusable Representations of Text for Transformers
- Shih-Ting Lin, Ashish Sabharwal, Tushar Khot
- TLDR: Wir stellen eine Methode vor, die aus einem Texttransformer-Modell eine Textrepräsentation erzeugt, die auf mehreren Beispielen und Aufgaben verwendet werden kann.
- Conditional Generation of Temporally-ordered Event Sequences
- Shih-Ting Lin, Nathanael Chambers, Greg Durrett
- TLDR: Wir schlagen ein Modell vor, das temporale Ordnung und event-infilling miteinander verbindet und die Erfassung von Co-Ocurrence-Ereignissen ermöglicht.
- Hate Speech Detection Based on Sentiment Knowledge Sharing
- Xianbing Zhou, Yang Yong, Xiaochao Fan, Ge Ren, Yunfeng Song, Yufeng Diao, Liang Yang, Hongfei Lin
- TLDR: Wir schlagen einen Rahmen vor, der auf Gefühle basiert, um stichprobenartige Merkmale für die Erkennung von gegnerischen Sätzen zu extrahieren.
- Transition-based Bubble Parsing: Improvements on Coordination Structure Prediction
- Tianze Shi, Lillian Lee
- TLDR: Wir schlagen einen transitionbasierten Parser vor, der die Koordinationsstrukturenidentifikation und die Abhängigkeitsbasierte Syntaxanalyse gleichzeitig erlernt.
- SpanNER: Named Entity Re-/Recognition as Span Prediction
- Jinlan Fu, Xuanjing Huang, Pengfei Liu
- TLDR: Wir stellen eine spannevorhersage-Modelle vor, die als System-Kommuter für Named Entity Recognition verwendet werden kann.
- StructFormer: Joint Unsupervised Induction of Dependency and Constituency Structure from Masked Language Modeling
- Yikang Shen, Yi Tay, Che Zheng, Dara Bahri, Donald Metzler, Aaron Courville
- TLDR: Wir schlagen StructFormer vor, ein Modell, das die Abhängigkeit und die Struktur gleichzeitig in den Parsing-Frameworks injiziert.
- Language Embeddings for Typology and Cross-lingual Transfer Learning
- Dian Yu, Taiqi He, Kenji Sagae
- TLDR: Wir zeigen, dass sprachenrepräsentationen, die Beziehungen zwischen den Sprachen erfassen, für die Übersetzung von Sprachaufgaben genutzt werden können.
- Can Sequence-to-Sequence Models Crack Substitution Ciphers?
- Nada Aldarrab, Jonathan May
- TLDR: Wir schlagen ein neuronales Sprachmodell vor, das die Sprachidentifikation von Texten ohne Sprachidentifikationen und ohne Sprachauslese ausnutzt.
- Beyond Noise: Mitigating the Impact of Fine-grained Semantic Divergences on Neural Machine Translation
- Eleftheria Briakou, Marine Carpuat
- TLDR: Wir analysieren, wie fine-grained semantische Verzerrungen auf Transformer-Modelle übertragen werden können und wie diese die Qualität der Übersetzungen erheblich beinträchtigen.
- Discriminative Reranking for Neural Machine Translation
- Ann Lee, Michael Auli, Marc’Aurelio Ranzato
- TLDR: Wir verwenden einen Transformator, um die Verteilung von BLEUs über die gewünschten Metriken zu steuern.
- Mind Your Outliers! Investigating the Negative Impact of Outliers on Active Learning for Visual Question Answering
- Siddharth Karamcheti, Ranjay Krishna, Li Fei-Fei, Christopher Manning
- TLDR: Wir stellen collective Outliers vor, die die Leistung von poolbasierten aktiven Lernmethoden erheblich reduzieren.
- All That’s ‘Human’ Is Not Gold: Evaluating Human Evaluation of Generated Text
- Elizabeth Clark, Tal August, Sofia Serrano, Nikita Haduong, Suchin Gururangan, Noah A. Smith
- TLDR: Wir stellen drei Methoden vor, die schnelle und genaue Bewertungen von Texten aus GPT2- und GPT3-authoren Texten erfassen können.
- Scientific Credibility of Machine Translation Research: A Meta-Evaluation of 769 Papers
- Benjamin Marie, Atsushi Fujita, Raphael Rubino
- TLDR: Wir schlagen eine Meta-Evaluierungssskala vor, die die Verzerrung von BLEU-Schollen und die Verzerrung von Meta-Evaluationswerten berücksichtigt.
- Neural Machine Translation with Monolingual Translation Memory
- Deng Cai, Yan Wang, Huayang Li, Wai Lam, Lemao Liu
- TLDR: Wir schlagen ein neues Translation Memory-Framework vor, das monolinguales Speicher und lernbares Speicherrechnern kombiniert.
- Intrinsic Dimensionality Explains the Effectiveness of Language Model Fine-Tuning
- Armen Aghajanyan, Sonal Gupta, Luke Zettlemoyer
- TLDR: Wir analysieren die intrinsische Dimension als einen Teilwert, um zu erklären, warum Gradientenabstiegsalgorithmen mit Millionen von Parametern auf Datensätzen mit wenigen oder wenigen Labeled Beispielen funktionieren.
- UnNatural Language Inference
- Koustuv Sinha, Prasanna Parthasarathi, Joelle Pineau, Adina Williams
- TLDR: Wir stellen fest, dass die meisten Transformer-Modelle, die invariant gegenüber Wortordnungsverschiebungen sind, die sie vorhersagen, genauso gut zu verstehen.
- Including Signed Languages in Natural Language Processing
- Kayo Yin, Amit Moryossef, Julie Hochgesang, Yoav Goldberg, Malihe Alikhani
- TLDR: Wir schlagen eine neue Methode zur Signatursprachenvervollständigung vor, die die Sprachstrukturen von Signatursprachen in SLP-Modellen erweitert.
- Vocabulary Learning via Optimal Transport for Neural Machine Translation
- Jingjing Xu, Hao Zhou, Chun Gan, Zaixiang Zheng, Lei Li
- TLDR: Wir stellen die Suche nach Wörterbüchern mit optimalen Größen vor und schlagen VOLT vor, eine einfache und effiziente Lösung für die Suche nach Wörterbüchern mit optimalen Größen.