COLING 2022 in German
TLDRs
- Do Language Models Make Human-like Predictions about the Coreferents of Italian Anaphoric Zero Pronouns?
- James A. Michaelov, Benjamin K. Bergen
- TLDR: Wir zeigen, dass Sprachmodelle, die mit zero-Proben konfrontiert sind, die menschliche Verhalten besser repräsentieren können.
- Language Acquisition through Intention Reading and Pattern Finding
- Jens Nevens, Jonas Doumen, Paul Van Eecke, Katrien Beuls
- TLDR: Wir stellen ein mechanistisches Modell des Erkennungsprozesses vor, das die Bedeutung von Beobachtungen in einem rekurrenten Sprachmodell erfasst.
- Stability of Syntactic Dialect Classification over Space and Time
- Jonathan Dunn, Sidney Wong
- TLDR: Wir analysieren, wie lange die syntaktische Repräsentationen von Sprachmodellen, die auf Verwendungs- und Zeitmodellen basieren, stabil über Raum und Zeit bleiben.
- Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans vs. BERT
- Karim Lasri, Olga Seminck, Alessandro Lenci, Thierry Poibeau
- TLDR: Wir stellen fest, dass die Bedeutung von Verbenenabschlüssen in Syntax in syntaktischen Strukturen von verschiedenen Komplexitäten nicht mit der Verallgemeinerung übereinstimmen kann.
- Measuring Morphological Fusion Using Partial Information Decomposition
- Michaela Socolof, Jacob Louis Hoover, Richard Futrell, Alessandro Sordoni, Timothy J. O’Donnell
- TLDR: Wir stellen eine Methode zur Dekomposition von gegenseitigen Informationen vor, die die Form und die Bedeutung von morphologien charakterisiert.
- Smells like Teen Spirit: An Exploration of Sensorial Style in Literary Genres
- Osama Khalid, Padmini Srinivasan
- TLDR: Wir zeigen, dass die Verwendung von sensorieller Sprache in Texten Teil des Stils ist.
- Metaphorical Polysemy Detection: Conventional Metaphor Meets Word Sense Disambiguation
- Rowan Hall Maudslay, Simone Teufel
- TLDR: Wir stellen ein neues Trainingsverfahren vor, das Metaphoren in WordNets erkennt und eine neue Methode zur Sprachverbabgleichung nutzt.
- Machine Reading, Fast and Slow: When Do Models “Understand” Language?
- Sagnik Ray Choudhury, Anna Rogers, Isabelle Augenstein
- TLDR: Wir analysieren das Verhalten von BERT-Modellen bei der Coreference-Verallgemeinerung und der Vergleichsverallgemeinerung.
- Hierarchical Attention Network for Explainable Depression Detection on Twitter Aided by Metaphor Concept Mappings
- Sooji Han, Rui Mao, Erik Cambria
- TLDR: Wir schlagen ein neuartiges, erklärenbares Modell vor, das die Erkennung von Depressionen auf Twitter ermöglicht.
- Multi-view and Cross-view Brain Decoding
- Subba Reddy Oota, Jashn Arora, Manish Gupta, Raju S. Bapi
- TLDR: Wir schlagen zwei neue Modelle vor, die eine Multiview-Decoding-Architektur verwenden können, um Konzepte aus Gehirnaufnahmen zu kodieren, die zu jeder Ansicht (Bilder, Satz, Wortwolk) von Stichpunkten passen.
- Visio-Linguistic Brain Encoding
- Subba Reddy Oota, Jashn Arora, Vijay Rowtula, Manish Gupta, Raju S. Bapi
- TLDR: Wir stellen VisualBERT vor, eine Multi-Modal-CNN-Architektur, die die Aufmerksamkeit auf visuelle und sprachliche Signale wiederherstellen kann.
- Gestures Are Used Rationally: Information Theoretic Evidence from Neural Sequential Models
- Yang Xu, Yang Cheng, Riya Bhatia
- TLDR: Wir analysieren, ob gestörte Signale die entropyrate-Storm-Regularität zeigen, und zeigen, dass sie die Information über die Kommunikation verbessern.
- Revisiting Statistical Laws of Semantic Shift in Romance Cognates
- Yoshifumi Kawasaki, Maëlys Salingre, Marzena Karpinska, Hiroya Takamura, Ryo Nagata
- TLDR: Wir zeigen, dass die Frequenz und die Polysemy die Semantik verändern, was zu einer tiefen Verzerrung führt.
- Character Jacobian: Modeling Chinese Character Meanings with Deep Learning Model
- Yu-Hsiang Tseng, Shu-Kai Hsieh
- TLDR: Wir schlagen ein neues Modell vor, das die Worteinbettungen von Worten aus ihren Bestandteilen modelliert und die Charaktere Jacobians charakterisiert.
- COMMA: Modeling Relationship among Motivations, Emotions and Actions in Language-based Human Activities
- Yuqiang Xie, Yue Hu, Wei Peng, Guanqun Bi, Luxi Xing
- TLDR: Wir stellen eine erste Studie vor, die die Möglichkeit einer Modellierung von Emotionen, Zielen und Handlungen in sprachbasierten menschlichen Aktivitäten untersucht.
- Exploring Semantic Spaces for Detecting Clustering and Switching in Verbal Fluency
- Özge Alacam, Simeon Schüz, Martin Wegrzyn, Johanna Kißler, Sina Zarrieß
- TLDR: Wir analysieren, ob lexikalisches semantisches Wissen in Worteinbettungen (GloVe, fastText, ConceptNet, BERT) geeignet ist, um abstrakte Cluster und Wechselungen zwischen den kategorischen zu erkennen.
- Neuro-Symbolic Visual Dialog
- Adnen Abdessaied, Mihai Bâce, Andreas Bulling
- TLDR: Wir schlagen Neuro-Symbolic Visual Dialog (NSVD) vor, eine Methode zur Kombination von Deep Learning und Zeichenprogrammierung für visuelle Schlussfolgerungen.
- LINGUIST: Language Model Instruction Tuning to Generate Annotated Utterances for Intent Classification and Slot Tagging
- Andy Rosenbaum, Saleh Soltan, Wael Hamza, Yannick Versley, Markus Boese
- TLDR: Wir stellen eine Methode zur Generierung von Annotierten Daten für Intent Classification und Slot Tagging (IC+ST) vor, die durch Fine-Tuning AlexaTM 5B, ein 5-billion-parameters umfassendes Seq2seq-Modell, auf einen flexiblen Anforderungsausgangs hin generiert.
- Adaptive Natural Language Generation for Task-oriented Dialogue via Reinforcement Learning
- Atsumoto Ohashi, Ryuichiro Higashinaka
- TLDR: Wir schlagen ANTOR vor, eine Methode zum Erlernen von natürlichen Sprachformen, die auf realen Dialogen verwendet werden kann.
- TAKE: Topic-shift Aware Knowledge sElection for Dialogue Generation
- Chenxu Yang, Zheng Lin, Jiangnan Li, Fandong Meng, Weiping Wang, Lanrui Wang, Jie Zhou
- TLDR: Wir schlagen eine Topic-shift Aware Knowledge SElector(TAKE) vor, die die Themenverschiebungen und Themenherinnerungsbeschriftungen in Multi-Round Dialogen mit distanten Überwachungen effektiv nutzt.
- Dynamic Dialogue Policy for Continual Reinforcement Learning
- Christian Geishauser, Carel van Niekerk, Hsien-chin Lin, Nurul Lubis, Michael Heck, Shutong Feng, Milica Gašić
- TLDR: Wir stellen einen kontinuierlichen Lernalgorithmus vor, einen Dialog-Policy-Transformer und einen leistungsstarken Simulator vor, der die Fähigkeit nutzt, sich kontinuierlich zu verbessern.
- GRAVL-BERT: Graphical Visual-Linguistic Representations for Multimodal Coreference Resolution
- Danfeng Guo, Arpit Gupta, Sanchit Agarwal, Jiun-Yu Kao, Shuyang Gao, Arijit Biswas, Chien-Wei Lin, Tagyoung Chung, Mohit Bansal
- TLDR: Wir schlagen ein neues MCR-Framework vor, das visuelle Beziehungen zwischen Objekten, Hintergrundbildern, Dialogen und Metadaten kombiniert.
- Learning to Improve Persona Consistency in Multi-party Dialogue Generation via Text Knowledge Enhancement
- Dongshi Ju, Shi Feng, Pengcheng Lv, Daling Wang, Yifei Zhang
- TLDR: Wir schlagen ein graphisches Convolution Network vor, das die Identität von Personen, die in einem Dialog miteinander sprechen, integriert.
- Improving Top-K Decoding for Non-Autoregressive Semantic Parsing via Intent Conditioning
- Geunseob Oh, Rahul Goel, Chris Hidey, Shachi Paul, Aditya Gupta, Pararth Shah, Rushin Shah
- TLDR: Wir schlagen einen neuen NAR-Parser vor, der die Top-Level-Intentions-Vorhersage von den Resten einer Parse trennt.
- Autoregressive Entity Generation for End-to-End Task-Oriented Dialog
- Guanhuan Huang, Xiaojun Quan, Qifan Wang
- TLDR: Wir schlagen eine autoregressive Entitätsgenerierung vor, um die Entitätsvereinheitlichtheit von Ende-zu-Ende-Systemen zu verbessern.
- Continual Few-shot Intent Detection
- Guodun Li, Yuchen Zhai, Qianglong Chen, Xing Gao, Ji Zhang, Yin Zhang
- TLDR: Wir schlagen einen neuen Algorithmus vor, der katastrophale Vergessen und negatives Wissenstransfer verhindern kann.
- “Mama Always Had a Way of Explaining Things So I Could Understand”: A Dialogue Corpus for Learning to Construct Explanations
- Henning Wachsmuth, Milad Alshomary
- TLDR: Wir stellen eine erste Sammlung von Dialogischen Erklärungen vor, die die Aufgabe des Lernens von Erklärungen für die menschliche Erklärung und die Aufgabe des Lernens von Erklärungsmustern für die menschliche Erklärung darstellen.
- Schema Encoding for Transferable Dialogue State Tracking
- Hyunmin Jeon, Gary Geunbae Lee
- TLDR: Wir schlagen eine neue Schema-Encoding-Architektur vor, um das Transferable Dialogue State Tracking (SET-DST) zu ermöglichen.
- A Personalized Dialogue Generator with Implicit User Persona Detection
- Itsugun Cho, Dongyang Wang, Ryota Takahashi, Hiroaki Saito
- TLDR: Wir schlagen einen neuen Dialoggenerator vor, der die Benutzeridentität erfasst und eine neue Art von Dialog mit einer neuen Aufgabe erzeugt.
- Incorporating Casual Analysis into Diversified and Logical Response Generation
- Jiayi Liu, Wei Wei, Zhixuan Chu, Xing Gao, Ji Zhang, Tan Yan, Yulin Kang
- TLDR: Wir schlagen Conditional Variational Autoencoder vor, um die Verzerrung von Verzerrungen in den Dialogen zu reduzieren.
- Reciprocal Learning of Knowledge Retriever and Response Ranker for Knowledge-Grounded Conversations
- Jiazhan Feng, Chongyang Tao, Zhen Li, Chang Liu, Tao Shen, Dongyan Zhao
- TLDR: Wir schlagen einen neuen Ansatz vor, um Wissensrepräsentationen für die Erfassung von Gesprächskorrespondenz zu verwenden.
- CR-GIS: Improving Conversational Recommendation via Goal-aware Interest Sequence Modeling
- Jinfeng Zhou, Bo Wang, Zhitong Yang, Dongming Zhao, Kun Huang, Ruifang He, Yuexian Hou
- TLDR: Wir schlagen CR-GIS vor, eine universelle Empfehlungsarchitektur, die die Ziel- und Interessenskennung von Benutzern erfasst.
- GRASP: Guiding Model with RelAtional Semantics Using Prompt for Dialogue Relation Extraction
- Junyoung Son, Jinsung Kim, Jungwoo Lim, Heuiseok Lim
- TLDR: Wir schlagen ein DialogRE-Modell vor, das relationale Merkmale von Dialogen erfassen kann und die Beziehungen zwischen den Argumenten vorhersagen kann.
- PEPDS: A Polite and Empathetic Persuasive Dialogue System for Charity Donation
- Kshitij Mishra, Azlaan Mustafa Samad, Palak Totala, Asif Ekbal
- TLDR: Wir schlagen ein differenzierbares, empathisches Gesprächsmodell vor, das die Aufmerksamkeit und die Emotion fördert.
- DialAug: Mixing up Dialogue Contexts in Contrastive Learning for Robust Conversational Modeling
- Lahari Poddar, Peiyao Wang, Julia Reinspach
- TLDR: Wir schlagen eine neue Methode zur Datenerweiterung vor, die auf Zeichenebene Störungen hinzufügt, und bieten Dialogrepräsentationen, die robust gegenüber Störungen während der Inferenz sind.
- A Closer Look at Few-Shot Out-of-Distribution Intent Detection
- Li-Ming Zhan, Haowen Liang, Lu Fan, Xiao-Ming Wu, Albert Y.S. Lam
- TLDR: Wir schlagen einen neuen Ansatz zur Erkennung von Absichten vor, der auf latente Repräsentationen und Selbstüberwachung basiert.
- CGIM: A Cycle Guided Interactive Learning Model for Consistency Identification in Task-oriented Dialogue
- Libo Qin, Qiguang Chen, Tianbao Xie, Qian Liu, Shijue Huang, Wanxiang Che, Zhou Yu
- TLDR: Wir stellen ein Cycle-Guided Interactive Learning Modell (CGIM) vor, das die Information über die drei Aufgaben in einer Cycle-Interaktion ertauscht.
- CorefDiffs: Co-referential and Differential Knowledge Flow in Document Grounded Conversations
- Lin Xu, Qixian Zhou, Jinlan Fu, Min-Yen Kan, See-Kiong Ng
- TLDR: Wir schlagen eine neue Methode zur Co-Referenz und Wissensverwandlung vor, die die Dokumenten- und Interdokumenten-Knowledge-Flows modelliert.
- SelF-Eval: Self-supervised Fine-grained Dialogue Evaluation
- Longxuan Ma, Ziyu Zhuang, Weinan Zhang, Mingda Li, Ting Liu
- TLDR: Wir schlagen ein neues Self-supervised Fine-grained Dialogue Evaluation Framework vor, das automatisch fine-grained Scores für beliebige Dialogdaten erzeugt.
- Open-Domain Dialog Evaluation Using Follow-Ups Likelihood
- Maxime De Bruyn, Ehsan Lotfi, Jeska Buhmann, Walter Daelemans
- TLDR: Wir stellen eine automatisierte Bewertungsmethode vor, die die Wahrscheinlichkeit eines Sprachmodells, das die Antwort auf eine offene Domänen-Evaluierung, nutzt.
- Joint Goal Segmentation and Goal Success Prediction on Multi-Domain Conversations
- Meiguo Wang, Benjamin Yao, Bin Guo, Xiaohu Liu, Yu Zhang, Tuan-Hung Pham, Chenlei Guo
- TLDR: Wir schlagen ein neues automatisches Dialogsystem vor, das eine Aufgabe zur Zielsegmentierung und zur Zielerfolgsvorhersage gemeinsam erledigt.
- Slot Dependency Modeling for Zero-Shot Cross-Domain Dialogue State Tracking
- Qingyue Wang, Yanan Cao, Piji Li, Yanhe Fu, Zheng Lin, Li Guo
- TLDR: Wir verwenden slot-Puzzpletts Kombination, slot-Wert-Demonstration und slot-Context-Objective, um die slot-Slot-Abhängigkeiten, slot-Wert-Abhängigkeiten und slot-Kontext-Abhängigkeiten zu modellieren.
- Section-Aware Commonsense Knowledge-Grounded Dialogue Generation with Pre-trained Language Model
- Sixing Wu, Ying Li, Ping Xue, Dawei Zhang, Zhonghai Wu
- TLDR: Wir schlagen einen neuen Rahmen für die Wissensausbreitung vor, der die Bedeutung von Wissensfakten in einer Dialogvorschlagsphase berücksichtigt.
- Using Multi-Encoder Fusion Strategies to Improve Personalized Response Selection
- Souvik Das, Sougata Saha, Rohini K. Srihari
- TLDR: Wir schlagen eine Reihe von Fusionsstrategien vor, die die Interaktion zwischen der Gefühlswahrnehmung und der Entailment-Informationen der Eingaben erfassen.
- A Multi-Dimensional, Cross-Domain and Hierarchy-Aware Neural Architecture for ISO-Standard Dialogue Act Tagging
- Stefano Mezza, Wayne Wobcke, Alan Blair
- TLDR: Wir schlagen eine neuronale Architektur vor, die die Klassifizierungsgenauigkeit von Texten mit geringer Frequenz auf der Grundlage von Konversationen erhöht.
- SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for Task-Oriented Dialog Understanding
- Wanwei He, Yinpei Dai, Binyuan Hui, Min Yang, Zheng Cao, Jianbo Dong, Fei Huang, Luo Si, Yongbin Li
- TLDR: Wir schlagen SPACE-2 vor, ein Tree-structured Pre-Training-Modell, das dialogrepräsentationen aus begrenzten, aber vollständig beschrifteten Dialogen und großenscale unbeschrifteten Dialogen lernt.
- ET5: A Novel End-to-end Framework for Conversational Machine Reading Comprehension
- Xiao Zhang, Heyan Huang, Zewen Chi, Xian-Ling Mao
- TLDR: Wir schlagen einen neuen Rahmen für die Konversationsmechanismus-Ausnutzung vor, der auf Entailment-Bewächtung basiert.
- CoHS-CQG: Context and History Selection for Conversational Question Generation
- Xuan Long Do, Bowei Zou, Liangming Pan, Nancy F. Chen, Shafiq Joty, Ai Ti Aw
- TLDR: Wir schlagen CoHS-CQG vor, ein zweistufiges CQG-Framework, das die Konversation und die Geschichte der Eingabe kürzt.
- Semantic-based Pre-training for Dialogue Understanding
- Xuefeng Bai, Linfeng Song, Yue Zhang
- TLDR: Wir schlagen einen neuen Rahmen vor, um die Semantik in Dialogen während des Vortrainings zu erfassen.
- Distribution Calibration for Out-of-Domain Detection with Bayesian Approximation
- Yanan Wu, Zhiyuan Zeng, Keqing He, Yutao Mou, Pei Wang, Weiran Xu
- TLDR: Wir schlagen Bayes’sches Deep-Learning-Lernen vor, um die Verteilungsunsicherheit bei der Erkennung von Ableitungsfehlern zu bewerten.
- Tracking Satisfaction States for Customer Satisfaction Prediction in E-commerce Service Chatbots
- Yang Sun, Liangqing Wu, Shuangyong Song, Xiaoguang Yu, Xiaodong He, Guohong Fu
- TLDR: Wir schlagen DialogueCSP vor, ein Dialog-Ebene-Modul für die kontinuierliche Erfassung von Kundenzufriedenheitszuständen bei CSP.
- Towards Multi-label Unknown Intent Detection
- Yawen Ouyang, Zhen Wu, Xinyu Dai, Shujian Huang, Jiajun Chen
- TLDR: Wir schlagen eine neue Methode zur Erkennung von Unbekannten und Unbekannten Intentenzen vor, die gleichzeitige und unbekannte Intenzen enthält.
- Pan More Gold from the Sand: Refining Open-domain Dialogue Training with Noisy Self-Retrieval Generation
- Yihe Wang, Yitong Li, Yasheng Wang, Fei Mi, Pingyi Zhou, Xin Wang, Jin Liu, Xin Jiang, Qun Liu
- TLDR: Wir verwenden BERTScore für die Erfassung und die Generierung von offenen Domänenkorrespondenzdaten.
- MulZDG: Multilingual Code-Switching Framework for Zero-shot Dialogue Generation
- Yongkang Liu, Shi Feng, Daling Wang, Yifei Zhang
- TLDR: Wir schlagen einen Multilingual Learning Framework vor, der die Zero-Shot Dialogue Generation ohne Kompromisse ermöglicht.
- Target-Guided Open-Domain Conversation Planning
- Yosuke Kishinami, Reina Akama, Shiki Sato, Ryoko Tokuhisa, Jun Suzuki, Kentaro Inui
- TLDR: Wir schlagen eine Aufgabe vor, die die Ziel-zu-denkende Konversationsplanung (TGCP) beinhaltet, um zu bewerten, ob neuronale Gesprächsagenten Ziel-zu-denkende Konversationen planen.
- Does GPT-3 Generate Empathetic Dialogues? A Novel In-Context Example Selection Method and Automatic Evaluation Metric for Empathetic Dialogue Generation
- Young-Jun Lee, Chae-Gyun Lim, Ho-Jin Choi
- TLDR: Wir zeigen, dass GPT-3 empathische Dialoge durch promptbasiertes in-context Lernen erzeugt.
- DialogueEIN: Emotion Interaction Network for Dialogue Affective Analysis
- Yuchen Liu, Jinming Zhao, Jingwen Hu, Ruichen Li, Qin Jin
- TLDR: Wir schlagen DialogueEIN vor, ein neuronales Emotion Interaction Network, das die Emotionen in Gesprächen simuliert.
- Towards Enhancing Health Coaching Dialogue in Low-Resource Settings
- Yue Zhou, Barbara Di Eugenio, Brian Ziebart, Lisa Sharp, Bing Liu, Ben Gerber, Nikolaos Agadakos, Shweta Yadav
- TLDR: Wir schlagen eine neue Methode vor, um die Emotionen von Patienten zu bewältigen und gleichzeitig eine empathische Antwort zu generieren.
- Generalized Intent Discovery: Learning from Open World Dialogue System
- Yutao Mou, Keqing He, Yanan Wu, Pei Wang, Jingang Wang, Wei Wu, Yi Huang, Junlan Feng, Weiran Xu
- TLDR: Wir stellen eine Generalisierungsaufgabe vor, die die Klassifizierung von Intenzen in einem Zielsatz erweitert und gleichzeitig die Erkennung und Erkennung von unbeschrifteten OOD-Typen ermöglicht.
- DialMed: A Dataset for Dialogue-based Medication Recommendation
- Zhenfeng He, Yuqiang Han, Zhenqiu Ouyang, Wei Gao, Hongxu Chen, Guandong Xu, Jian Wu
- TLDR: Wir stellen einen Datensatz für die Arzt-Patientenkorrespondenz vor, der medizinische Dialoge mit Hilfe von Wissensgraphen modelliert.
- Speaker Clustering in Textual Dialogue with Pairwise Utterance Relation and Cross-corpus Dialogue Act Supervision
- Zhihua Su, Qiang Zhou
- TLDR: Wir schlagen ein Sprachcluster-Modell vor, das die Worte von mehreren Parteien in Textclustergruppen, so dass die Worte identisch sind.
- TopKG: Target-oriented Dialog via Global Planning on Knowledge Graph
- Zhitong Yang, Bo Wang, Jinfeng Zhou, Yue Tan, Dongming Zhao, Kun Huang, Ruifang He, Yuexian Hou
- TLDR: Wir schlagen eine globale Planung für die Zielorientierung vor, die die globale Zielerklärung ermöglicht.
- Extractive Summarisation for German-language Data: A Text-level Approach with Discourse Features
- Freya Hewett, Manfred Stede
- TLDR: Wir analysieren die Verbindung zwischen RST und die Auswahl von Inhalt für die Erfassung von Texten.
- End-to-End Neural Bridging Resolution
- Hideo Kobayashi, Yufang Hou, Vincent Ng
- TLDR: Wir stellen bridging-Resolutions vor, die in unrealistischen Umgebungen erfolgreich sind.
- Investigating the Performance of Transformer-Based NLI Models on Presuppositional Inferences
- Jad Kabbara, Jackie Chi Kit Cheung
- TLDR: Wir analysieren und bewerten ImpPres-Modelle, um zu bewerten, ob sie eine Vorhersage von Vorhersagen machen.
- Re-Examining FactBank: Predicting the Author’s Presentation of Factuality
- John Murzaku, Peter Zeng, Magdalena Markowska, Owen Rambow
- TLDR: Wir stellen eine korrigierte Version von einem Teil von FactBank-Datensatz vor und zeigen, dass die Fehleranalysen auf FactBank für die Bewertung von Factuality wichtig sind.
- The Role of Context and Uncertainty in Shallow Discourse Parsing
- Katherine Atwell, Remi Choi, Junyi Jessy Li, Malihe Alikhani
- TLDR: Wir untersuchen die Auswirkungen von Kontext und Unsicherheit auf die Modellgenauigkeit und die Kalibrierung und schlagen eine Reihe von Experimenten vor, um die Auswirkungen von Kontext und Unsicherheit auf die Modellgenauigkeit und die Kalibrierung zu untersuchen.
- Improving Commonsense Contingent Reasoning by Pseudo-data and Its Application to the Related Tasks
- Kazumasa Omura, Sadao Kurohashi
- TLDR: Wir verwenden pseudo-Problems, um die Generalisierung von Kontingenten zu untersuchen.
- A Survey in Automatic Irony Processing: Linguistic, Cognitive, and Multi-X Perspectives
- Qingcheng Zeng, An-Ran Li
- TLDR: Wir stellen eine umfassende Analyse und Interpretation von ironischen Sprachmodellen vor, die auf Deep Learning und Deep Learning basieren.
- Towards Identifying Alternative-Lexicalization Signals of Discourse Relations
- René Knaebel, Manfred Stede
- TLDR: Wir vergleichen ein patternbasiertes und ein sequenzbasiertes Parsing-Modell, um die erste Ansätze für die Erkennung von Alternativen lexikalischen Sätzen zu verwenden.
- Topicalization in Language Models: A Case Study on Japanese
- Riki Fujihara, Tatsuki Kuribayashi, Kaori Abe, Ryoko Tokuhisa, Kentaro Inui
- TLDR: Wir analysieren, ob neuronale Sprachmodelle Themenbewertungen auf sprachenebene erfassen können.
- “No, They Did Not”: Dialogue Response Dynamics in Pre-trained Language Models
- Sanghee J. Kim, Lang Yu, Allyson Ettinger
- TLDR: Wir zeigen, dass die Reaktionssensitivität von Dialogmodellen auf dynamische Dynamiken für die Erkennung von Gegenbeispielen und Antworten entscheidend ist.
- New or Old? Exploring How Pre-Trained Language Models Represent Discourse Entities
- Sharid Loáiciga, Anne Beyer, David Schlangen
- TLDR: Wir untersuchen die Entitätsrepräsentationen von Sprachmodellen, die in einem Satz verwendet werden, und stellen fest, dass die Entitäten in einem Satz nicht von vornherein bekannt sind.
- Dialo-AP: A Dependency Parsing Based Argument Parser for Dialogues
- Sougata Saha, Souvik Das, Rohini K. Srihari
- TLDR: Wir stellen Dialo-AP vor, einen End-to-End-Ansatz zur Argumentation aus Dialogen, der argumentative Graphen aus Dialogen erzeugt.
- ConnPrompt: Connective-cloze Prompt Learning for Implicit Discourse Relation Recognition
- Wei Xiang, Zhenglin Wang, Lu Dai, Bang Wang
- TLDR: Wir entwickeln eine Connective-Cloze Prompt (ConnPrompt) und verwenden sie zur Vorhersage von Beziehungsmerkmalen zwischen zwei Textsegmenten.
- A Distance-Aware Multi-Task Framework for Conversational Discourse Parsing
- Yaxin Fan, Peifeng Li, Fang Kong, Qiaoming Zhu
- TLDR: Wir schlagen ein distanz-awares Graphen Convolutional Network (DAGCN) vor, das die Stärken von einem graphischen und einem aufkommenden Modell kombiniert, um die Dekodierzeit von zwei Modellen zu verbessern.
- Linguistically Motivated Features for Classifying Shorter Text into Fiction and Non-Fiction Genre
- Arman Kazmi, Sidharth Ranjan, Arpit Sharma, Rajakrishnan Rajkumar
- TLDR: Wir verwenden lexikalische und syntaktische Merkmale, um Dokumente auf Papierebene zu klassifizieren und zeigen, dass die meisten Dokumente, die auf Papierebene gelesen werden, weniger lexikalisch- und syntaktische Eigenschaften haben.
- Semantic Sentence Matching via Interacting Syntax Graphs
- Chen Xu, Jun Xu, Zhenhua Dong, Ji-Rong Wen
- TLDR: Wir stellen die Aufgabe der Semantik-Matching-Methode vor, die die Syntax von Satzrepräsentationen als ein Graphen darstellt.
- Hierarchical Information Matters: Text Classification via Tree Based Graph Neural Network
- Chong Zhang, He Zhu, Xingyu Peng, Junran Wu, Ke Xu
- TLDR: Wir schlagen eine neue Methode zur Textklassifikation vor, die hierarchische Informationen nutzt.
- SelfMix: Robust Learning against Textual Label Noise with Self-Mixup Training
- Dan Qiao, Chenchen Dai, Yuyang Ding, Juntao Li, Qiang Chen, Wenliang Chen, Min Zhang
- TLDR: Wir stellen eine einfache, aber effektive Methode zur Textklassifikation vor, die Label-Nächtigkeiten in Texten mit Texten mit Texten mit Texten mit Texten mit Texten mit Texten mit Texten mit Texten mit Texten mit Texten überwinden kann.
- Community Topic: Topic Model Inference by Consecutive Word Community Discovery
- Eric Austin, Osmar R. Zaïane, Christine Largeron
- TLDR: Wir stellen einen neuen, hyperparameterfreien Themenmodellieralgorithmus vor, Community Topic.
- Where to Attack: A Dynamic Locator Model for Backdoor Attack in Text Classifications
- Heng-yang Lu, Chenyou Fan, Jun Yang, Cong Hu, Wei Fang, Xiao-jun Wu
- TLDR: Wir stellen Text-based BackDoor Attack vor, eine Text-basierte BDA, die P2P aus kontextuellen und automatischen Suchstrategien automatisch und dynamisch auswählt.
- Locally Distributed Activation Vectors for Guided Feature Attribution
- Housam K. B. Bashier, Mi-Young Kim, Randy Goebel
- TLDR: Wir lernen, Erklärungsmerkmale zu nutzen, um Black-Box-Vorhersagen zu interpretieren.
- Addressing Leakage in Self-Supervised Contextualized Code Retrieval
- Johannes Villmow, Viola Campos, Adrian Ulges, Ulrich Schwanecke
- TLDR: Wir stellen einen neuen Datensatz zur direkten Bewertung von Code-Clones vor und zeigen, dass die Verwendung von Syntax-Aligned Codes die Code-Clones erheblich verbessert.
- A Domain Knowledge Enhanced Pre-Trained Language Model for Vertical Search: Case Study on Medicinal Products
- Kesong Liu, Jianhui Jiang, Feifei Lyu
- TLDR: Wir stellen ein biomedizinisches Wissensmodell vor, das auf der Suche nach pharmazeutischen Produkte spezialisiert ist.
- CONCRETE: Improving Cross-lingual Fact-checking with Cross-lingual Retrieval
- Kung-Hsiang Huang, ChengXiang Zhai, Heng Ji
- TLDR: Wir stellen einen neuen Rahmen für die Übertragung von Beweisen vor, der auf sprachenübergreifende Sprachbeschriftungen basiert.
- E-VarM: Enhanced Variational Word Masks to Improve the Interpretability of Text Classification Models
- Ling Ge, ChunMing Hu, Guanghui Ma, Junshuang Wu, Junfan Chen, JiHong Liu, Hong Zhang, Wenyi Qin, Richong Zhang
- TLDR: Wir schlagen einen neuen Variational Information Bottleneck-Ansatz vor, der die Erkennung von Aufgabenbeschriftungen und die Genauigkeit verbessern kann.
- Attribute Injection for Pretrained Language Models: A New Benchmark and an Efficient Method
- Reinald Kim Amplayo, Kang Min Yoo, Sang-Woo Lee
- TLDR: Wir stellen einen Benchmark für die Anwendbarkeit von Attribut-Injektionen vor, der auf eine Vielzahl von Aufgaben und Domänen und einer Reihe von Syntheseobjekten abhängt.
- Towards Robust Neural Retrieval with Source Domain Synthetic Pre-Finetuning
- Revanth Gangi Reddy, Vikas Yadav, Md Arafat Sultan, Martin Franz, Vittorio Castelli, Heng Ji, Avirup Sil
- TLDR: Wir schlagen eine Methode vor, die die Verallgemeinerung von Deep-Learning-Modellen in einer Zieldomäne verbessert.
- Parameter-Efficient Neural Reranking for Cross-Lingual and Multilingual Retrieval
- Robert Litschko, Ivan Vulić, Goran Glavaš
- TLDR: Wir stellen zwei Methoden zur Sprachübertragung vor, die auf der Masked Language Modellierung basieren, und zeigen, dass sie für die Erstellung von Sprachrankern und Sprachaustauscher geeignet sind.
- LIME: Weakly-Supervised Text Classification without Seeds
- Seongmin Park, Jihwa Lee
- TLDR: Wir stellen LIME vor, einen Rahmen für weakly-supervised text-klassifikation, der die brittliche Seed-Word-Genauigkeit mit Text-Entailment replaced.
- Multi-Stage Framework with Refinement Based Point Set Registration for Unsupervised Bi-Lingual Word Alignment
- Silviu Vlad Oprea, Sourav Dutta, Haytham Assem
- TLDR: Wir schlagen einen neuen Multi-Stage-Rahmen für die unüberwachte Einbettung von Wörterbüchern vor, der auf der gleichen Vektorraum-Architektur basiert.
- EM-PERSONA: EMotion-assisted Deep Neural Framework for PERSONAlity Subtyping from Suicide Notes
- Soumitra Ghosh, Dhirendra Kumar Maurya, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: Wir stellen EMotion-assisted PERSONAlity Detection Framework (EM-PERSONA) vor, das die Personality-Ausfüllung von Suizid-Notes automatisiert.
- Dense Template Retrieval for Customer Support
- Tiago Mesquita, Bruno Martins, Mariana Almeida
- TLDR: Wir schlagen einen neuen Rahmen vor, der den typischen Satz- und Satz-Eigenschaften nutzt, um den Kundenansatz zu unterstützen.
- Exploring Label Hierarchy in a Generative Way for Hierarchical Text Classification
- Wei Huang, Chen Liu, Bo Xiao, Yihua Zhao, Zhaoming Pan, Zhimin Zhang, Xinyun Yang, Guiquan Liu
- TLDR: Wir schlagen ein neuartiges PAAM-HiA-T5 Modell vor, das hierarchisches, auf mehreren Ebenen funktionierende, aufgabenabhängige und Labels-abhängige Modelle kombiniert.
- MuSeCLIR: A Multiple Senses and Cross-lingual Information Retrieval Dataset
- Wing Yan Li, Julie Weeds, David Weir
- TLDR: Wir stellen MuSeCLIR vor, einen neuen Bewertungsdatensatz für die Erkennung und die Beobachtung von Polysemous common nouns with multiple Translations.
- Complicate Then Simplify: A Novel Way to Explore Pre-trained Models for Text Classification
- Xu Zhang, Zejie Liu, Yanzheng Xiang, Deyu Zhou
- TLDR: Wir schlagen ein neues Framework vor, das auf zweistufige Trainingsstrategien basiert und die Klassifizierungsleistung verbessert.
- Adaptive Feature Discrimination and Denoising for Asymmetric Text Matching
- Yan Li, Chenliang Li, Junjun Guo
- TLDR: Wir schlagen ein neuartiges adaptives Merkmals-Diskriminierungs- und Denoising-Modell für Textpaare vor, das auf der Suche nach diskriminierenden Merkmalen und auf die Erkennung von Merkmalen auf Feature-Ebene abhängt.
- Rethinking Data Augmentation in Text-to-text Paradigm
- Yanan Chen, Yang Liu
- TLDR: Wir verwenden die Trainingsdaten, um die Generalisierungskraft von maschinellen Lernmodellen zu verbessern.
- ConTextING: Granting Document-Wise Contextual Embeddings to Graph Neural Networks for Inductive Text Classification
- Yen-Hao Huang, Yi-Hsin Chen, Yi-Shin Chen
- TLDR: Wir schlagen ConTextING vor, ein einfaches, aber effektives Modell, das Dokumenteinbettungen und Konversationen gleichzeitig erlernen kann.
- Virtual Knowledge Graph Construction for Zero-Shot Domain-Specific Document Retrieval
- Yeon Seonwoo, Seunghyun Yoon, Franck Dernoncourt, Trung Bui, Alice Oh
- TLDR: Wir schlagen VKGDR vor, eine Methode zur Dokumentendarstellung und zur Dokumentenverschiebung.
- MICO: Selective Search with Mutual Information Co-training
- Zhanyu Wang, Xiao Zhang, Hyokun Yun, Choon Hui Teo, Trishul Chilimbi
- TLDR: Wir schlagen eine neue Methode zur Auswahl von Dokumenten vor, die die Suche nach Dokumenten in mehreren Gruppen begrenzt.
- DPTDR: Deep Prompt Tuning for Dense Passage Retrieval
- Zhengyang Tang, Benyou Wang, Ting Yao
- TLDR: Wir schlagen eine modell-agnostische und eine Aufgabeagnostische Strategie vor, die die Leistung bei den meisten Deep Learning-Aufgaben übertrifft.
- BERT-Flow-VAE: A Weakly-supervised Model for Multi-Label Text Classification
- Ziwen Liu, Josep Grau-Bove, Scott Allan Allan Orr
- TLDR: Wir schlagen BERT-Flow-VAE vor, ein BERT-Flow-VAE-Modell, das die Aufgabe der Multi-Label Textklassifikation (WSMLTC) reduziert und gleichzeitig die Leistung eines vollständig überwachten Modells verbessert.
- Welcome to the Modern World of Pronouns: Identity-Inclusive Natural Language Processing beyond Gender
- Anne Lauscher, Archie Crowley, Dirk Hovy
- TLDR: Wir stellen eine Reihe von 5 Zielen vor, die die Modellierung von 3rd Person Proben in der Spracherkennung ermöglichen.
- Threat Scenarios and Best Practices to Detect Neural Fake News
- Artidoro Pagnoni, Martin Graciarena, Yulia Tsvetkov
- TLDR: Wir analysieren und schlagen Strategien vor, um die schlechten Ergebnisse von Textdetektoren zu bewerten.
- From Polarity to Intensity: Mining Morality from Semantic Space
- Chunxu Zhao, Pengyuan Liu, Dong Yu
- TLDR: Wir schlagen MoralScore vor, eine weakly-supervised Framework, das automatisch moralische Intensität von Texten ermessen kann.
- SOS: Systematic Offensive Stereotyping Bias in Word Embeddings
- Fatma Elsafoury, Steve R. Wilson, Stamos Katsigiannis, Naeem Ramzan
- TLDR: Wir stellen eine quantitative Messung der SOS-Blaibigkeit vor, und analysieren, ob sie die Leistung von Sprachdetektoren bei der Erkennung von gegnerischen Sätzen erklären könnte.
- Bigger Data or Fairer Data? Augmenting BERT via Active Sampling for Educational Text Classification
- Lele Sha, Yuheng Li, Dragan Gasevic, Guanliang Chen
- TLDR: Wir verwenden BERT, um die Fairness von PLMs bei der Vorhersage fairness zu verbessern.
- Debiasing Word Embeddings with Nonlinear Geometry
- Lu Cheng, Nayoung Kim, Huan Liu
- TLDR: Wir untersuchen und lösen soziale Biases, die sich nicht auf die Biases der einzelnen Bereiche übertragen lassen.
- Debiasing Isn’t Enough! – on the Effectiveness of Debiasing MLMs and Their Social Biases in Downstream Tasks
- Masahiro Kaneko, Danushka Bollegala, Naoaki Okazaki
- TLDR: Wir untersuchen die Beziehung zwischen intrinsischer und extrinsischer Bias-Evaluierung für MLMs und stellen fest, dass soziale Biases während des Fine-Tunings aufgaben nicht wiederkehren.
- Quantifying Bias from Decoding Techniques in Natural Language Generation
- Mayukh Das, Wolf Tilo Balke
- TLDR: Wir analysieren, wie negative Signale von Deep Learning-Methoden die Sprachgenauigkeit von Deep Learning-Modellen beeinflussen.
- A Study of Implicit Bias in Pretrained Language Models against People with Disabilities
- Pranav Narayanan Venkit, Mukund Srinath, Shomir Wilson
- TLDR: Wir analysieren und beweisen, dass PLMs für Menschen mit Einschränkungen diskriminieren.
- Social Norms-Grounded Machine Ethics in Complex Narrative Situation
- Tao Shen, Xiubo Geng, Daxin Jiang
- TLDR: Wir stellen ein norm-supported ethical judgment model vor, das die ethischen Konditionierungen von realen Handlungsszenarien und die Erkennung von Menschen mit tiefen sozialen Normen berücksichtigt.
- Bias at a Second Glance: A Deep Dive into Bias for German Educational Peer-Review Data Modeling
- Thiemo Wambsganss, Vinitra Swamy, Roman Rietsche, Tanja Käser
- TLDR: Wir analysieren und bewerten, dass die meisten Sprachmodelle, die von öffentlich zugänglichen Sprachbewertungen gesammelt wurden, keine Diskrepanz zeigen.
- Dynamic Relevance Graph Network for Knowledge-Aware Question Answering
- Chen Zheng, Parisa Kordjamshidi
- TLDR: Wir schlagen eine neuartige neuronale Graphennetzarchitektur vor, die auf der Frage und den Antworten von Entitäten basiert und die Bedeutung der Graphen als Graphen nutzt.
- SISER: Semantic-Infused Selective Graph Reasoning for Fact Verification
- Eunhwan Park, Jong-Hyeon Lee, Jeon Dong Hyeon, Seonhoon Kim, Inho Kang, Seung-Hoon Na
- TLDR: Wir schlagen eine neue Studie vor, die
- Answering Numerical Reasoning Questions in Table-Text Hybrid Contents with Graph-based Encoder and Tree-based Decoder
- Fangyu Lei, Shizhu He, Xiang Li, Jun Zhao, Kang Liu
- TLDR: Wir schlagen ein Relationsgraphenmodell vor, das die numerische Frage-Antwort-Erklärung über tabellarische und andere Inhalte als eine Ausdrucksform für die Tree-Decoder-Architektur erlernt.
- Perform like an Engine: A Closed-Loop Neural-Symbolic Learning Framework for Knowledge Graph Inference
- Guanglin Niu, Bo Li, Yongfei Zhang, Shiliang Pu
- TLDR: Wir schlagen ein neuartiges und effektives neuronales symbolisches Lernen vor, das die natürliche Verzerrung von KGs, einschließlich rule-Lernen, beseitigt.
- Table-based Fact Verification with Self-labeled Keypoint Alignment
- Guangzhen Zhao, Peng Yang
- TLDR: Wir schlagen ein selbstbeschriftetes LKA-Modell vor, um die Korrelation zwischen den zwei zu untersuchen.
- IMCI: Integrate Multi-view Contextual Information for Fact Extraction and Verification
- Hao Wang, Yangguang Li, Zhen Huang, Yong Dou
- TLDR: Wir schlagen eine Multiview-Kommunikationsinformation für die Erfassung und Verifizierung von Wissensdaten vor und zeigen, dass die Verwendung von Multiview-Kommunikationsinformationen für die Erfassung und Verifizierung von Wissensdaten einen neuen Stand der Technik darstellt.
- Prompt Combines Paraphrase: Teaching Pre-trained Models to Understand Rare Biomedical Words
- Haochun Wang, Chi Liu, Nuwa Xi, Sendong Zhao, Meizhi Ju, Shiwei Zhang, Ziheng Zhang, Yefeng Zheng, Bing Qin, Ting Liu
- TLDR: Wir schlagen einen einfachen, aber effektiven Ansatz vor, um seltene biomedizinische Worte während des Tunings mit Pünkt zu lernen.
- Self-Supervised Intermediate Fine-Tuning of Biomedical Language Models for Interpreting Patient Case Descriptions
- Israa Alghanmi, Luis Espinosa-Anke, Steven Schockaert
- TLDR: Wir schlagen eine Methode vor, um die Aufmerksamkeit auf die Verfälschungen von medizinischen Konzepten zu steuern und die Leistung von Sprachmodellen bei der Vorhersage von Krankheitsbildern zu verbessern.
- Evaluating and Mitigating Inherent Linguistic Bias of African American English through Inference
- Jamell Dacon, Haochen Liu, Jiliang Tang
- TLDR: Wir schlagen CodeSwitch vor, eine greedy unidirectional Morph-Informations-basierte Übersetzungsmethode für die Datenerweiterung.
- Can We Guide a Multi-Hop Reasoning Language Model to Incrementally Learn at Each Single-Hop?
- Jesus Lovon-Melgarejo, Jose G. Moreno, Romaric Besançon, Olivier Ferret, Lynda Tamine
- TLDR: Wir schlagen eine Reihe von Inferenzstrategien vor, die auf relevanten Datensätzen und Beobachtungen basieren, um die Beantwortung von Fragen und die Verständnisfähigkeit von PLMs zu verbessern.
- Modeling Hierarchical Reasoning Chains by Linking Discourse Units and Key Phrases for Reading Comprehension
- Jialin Chen, Zhuosheng Zhang, Hai Zhao
- TLDR: Wir schlagen ein holistisches Graphennetz vor, das mit kontextuellen Beziehungen auf sprachen- und Wortebene umgehen kann, um eine bessere Verständnisse von MRC zu ermöglichen.
- Hierarchical Representation-based Dynamic Reasoning Network for Biomedical Question Answering
- Jianguo Mao, Jiyuan Zhang, Zengfeng Zeng, Weihua Peng, Wenbin Jiang, Xiangdong Wang, Hong Liu, Yajuan Lyu
- TLDR: Wir schlagen ein neuartiges Modell vor, das hierarchische Repräsentationen von biomedizinischen Belegen nutzt, um dynamische Schlussfolgerungen zu ziehen.
- ArT: All-round Thinker for Unsupervised Commonsense Question Answering
- Jiawei Wang, Hai Zhao
- TLDR: Wir schlagen einen Ansatz für die unbeaufsichtigte Frage-Antwort-Genauigkeit vor, der die Bedeutung von Gemeinschaftserfahrungen in Bezug auf die Aufgabe und die Konsistenz der Antwort berücksichtigt.
- Teaching Neural Module Networks to Do Arithmetic
- Jiayi Chen, Xiao-Yu Guo, Yuan-Fang Li, Gholamreza Haffari
- TLDR: Wir stellen eine Methode vor, die numerische Schlussfolgerungen über Text mit Hilfe von Erweiterungs- und Subtractionmodulen durchführen kann.
- An Augmented Benchmark Dataset for Geometric Question Answering through Dual Parallel Text Encoding
- Jie Cao, Jing Xiao
- TLDR: Wir stellen GeoQA vor, eine Software, die die Aufgabe der geometrischen Problemlösung auf der Grundlage von Text und Bildinformationen kombiniert.
- Competence-based Question Generation
- Jingxuan Tu, Kyeongmin Rim, James Pustejovsky
- TLDR: Wir stellen eine Methode zur Erzeugung von Fragen über lexikalisches semantisches Wissen vor, die sich auf die Erstellung von Sprachmodellen und die Erstellung von Sprachrezepten aus Sprachmodellen anwenden lässt.
- Coalescing Global and Local Information for Procedural Text Understanding
- Kaixin Ma, Filip Ilievski, Jonathan Francis, Eric Nyberg, Alessandro Oltramari
- TLDR: Wir schlagen ein neues Modell vor, das auf Entitäten und Zeitschrittenbewusstkeiten basiert, um die Entitäten in einer Handlung zu verstehen.
- Original Content Is All You Need! an Empirical Study on Leveraging Answer Summary for WikiHowQA Answer Selection Task
- Liang Wen, Juan Li, Houfeng Wang, Yingwei Luo, Xiaolin Wang, Xiaodong Zhang, Zhicong Cheng, Dawei Yin
- TLDR: Wir stellen fest, dass die zusätzlichen Antworten-Summen nicht unbedingt nützlich sind, wenn die Antwort-Summen zu einer Frage oder einem Satz von Kandidaten beantwortet werden.
- Case-Based Abductive Natural Language Inference
- Marco Valentino, Mokanarangan Thayaparan, André Freitas
- TLDR: Wir schlagen einen abductiven Rahmen vor, um das retrieve-reuse-refine-Prinzip für die Multi-Hop-Inferenz zu nutzen.
- Semantic Structure Based Query Graph Prediction for Question Answering over Knowledge Graph
- Mingchen Li, Shihao Ji
- TLDR: Wir schlagen Structure-BERT vor, um die Semantik von Fragen aus Wissensgraphen zu ermitteln.
- Repo4QA: Answering Coding Questions via Dense Retrieval on GitHub Repositories
- Minyu Chen, Guoqiang Li, Chen Ma, Jingyang Li, Hongfei Fu
- TLDR: Wir stellen Repo4QA vor, ein CodeBERT-basiertes Modell, das die Repositories und die Fragen gleichzeitig erfassen kann.
- Addressing Limitations of Encoder-Decoder Based Approach to Text-to-SQL
- Octavian Popescu, Irene Manotas, Ngoc Phuoc An Vo, Hangu Yeo, Elahe Khorashani, Vadim Sheinin
- TLDR: Wir schlagen eine hybride Methode vor, die die Text-to-SQL-Aufgabe mit Hilfe von Encoder Decoder und Deep Learning lösen kann.
- Mintaka: A Complex, Natural, and Multilingual Dataset for End-to-End Question Answering
- Priyanka Sen, Alham Fikri Aji, Amir Saffari
- TLDR: Wir stellen Mintaka vor, einen komplexen, natürlichen und multilingualen Datensatz, der für experimentelle Fragen entwickelt wurde.
- Can Edge Probing Tests Reveal Linguistic Knowledge in QA Models?
- Sagnik Ray Choudhury, Nikita Bhutani, Isabelle Augenstein
- TLDR: Wir stellen fest, dass Fine-Tuning nicht das Wissen in LMs verändern kann, das sie in den EP-Tests kodiert.
- Conversational QA Dataset Generation with Answer Revision
- Seonjeong Hwang, Gary Geunbae Lee
- TLDR: Wir stellen einen Rahmen vor, der Fragen aus einem Satz extrahiert und dann Fragen zur Antwort auf die gestellten Fragen generiert.
- DABERT: Dual Attention Enhanced BERT for Semantic Matching
- Sirui Wang, Di Liang, Jian Song, Yuntao Li, Wei Wu
- TLDR: Wir schlagen einen neuen Dual Attention Enhanced BERT (DABERT) vor, um die Fähigkeit von BERT zu verbessern, um feine Unterschiede in Satzpaaren zu erfassen.
- Locate Then Ask: Interpretable Stepwise Reasoning for Multi-hop Question Answering
- Siyuan Wang, Zhongyu Wei, Zhihao Fan, Qi Zhang, Xuanjing Huang
- TLDR: Wir schlagen einen interpretierbaren Schrittweisen Schlussfolgerungenrahmen vor, der die Schlussfolgerungen der nächsten hops für die nächste hops nutzt.
- Less Is Better: Recovering Intended-Feature Subspace to Robustify NLU Models
- Ting Wu, Tao Gui
- TLDR: Wir stellen eine neue Methode zur Beseitigung von Verzerrungen vor, die die Kontrolle über die Verzerrung von Datensätzen ermöglicht.
- CORN: Co-Reasoning Network for Commonsense Question Answering
- Xin Guan, Biwei Cao, Qingqing Gao, Zheng Yin, Bo Liu, Jiuxin Cao
- TLDR: Wir schlagen ein Co-Reasoning Network (CORN) vor, das eine bidirectionale Verbindungsstruktur auf der Grundlage des Co-Attention Transformers verwendet, um die QA-Entititätenbeziehungen zwischen den Textencodern und den Graphenkodierern zu modellieren.
- Logical Form Generation via Multi-task Learning for Complex Question Answering over Knowledge Bases
- Xixin Hu, Xuan Wu, Yiheng Shu, Yuzhong Qu
- TLDR: Wir schlagen GMT-KBQA vor, eine Generationsbasierte KBQA-Methode, die die richtigen Antworten über Wissensdatenbanken erbringt.
- CMQA: A Dataset of Conditional Question Answering with Multiple-Span Answers
- Yiming Ju, Weikang Wang, Yuanzhe Zhang, Suncong Zheng, Kang Liu, Jun Zhao
- TLDR: Wir schlagen eine neue Aufgabe vor, die auf Multispan-Antworten basiert, und zwar auf Conditional Multiple-Span Question Answering.
- To What Extent Do Natural Language Understanding Datasets Correlate to Logical Reasoning? A Method for Diagnosing Logical Reasoning.
- Yitian Li, Jidong Tian, Wenqing Chen, Caoyun Fan, Hao He, Yaohui Jin
- TLDR: Wir schlagen eine diagnostische Methode vor, die die Bedeutung der NLU-Kennmerkmale in einem Datensatz erkennt und die Dependenz der Aufgabe auf die NLI-Kennmerkmale bewertet.
- ArcaneQA: Dynamic Program Induction and Contextualized Encoding for Knowledge Base Question Answering
- Yu Gu, Yu Su
- TLDR: Wir stellen ein generatives Modell vor, das sowohl den großen Suchraum als auch die Schema-Lernen und die Unzulänglichkeiten in der Schema-Lernen berücksichtigt.
- Unsupervised Question Answering via Answer Diversifying
- Yuxiang Nie, Heyan Huang, Zewen Chi, Xian-Ling Mao
- TLDR: Wir schlagen DiverseQA vor, eine unüberwachte Methode zur Diversifizierung von Antworten, die die Vielfalt der Antworten in der realen Welt berücksichtigt.
- Weakly Supervised Formula Learner for Solving Mathematical Problems
- Yuxuan Wu, Hideki Nakayama
- TLDR: Wir schlagen einen Rahmen vor, der die Formulierungsexploration mit weak überwachten Berechnungen mit weaken Überwachungen ermöglicht.
- Reducing Spurious Correlations for Answer Selection by Feature Decorrelation and Language Debiasing
- Zeyi Zhong, Min Yang, Ruifeng Xu
- TLDR: Wir schlagen eine Spurious Correlation Reduction Methode vor, um die Robustheit neuronaler Ansatzmodelle bei der Angabe von Merkmalen zu verbessern.
- Understanding and Improving Zero-shot Multi-hop Reasoning in Generative Question Answering
- Zhengbao Jiang, Jun Araki, Haibo Ding, Graham Neubig
- TLDR: Wir untersuchen die Multi-Hop-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz-Frequenz
- Domain Adaptation for Question Answering via Question Classification
- Zhenrui Yue, Huimin Zeng, Ziyi Kou, Lanyu Shang, Dong Wang
- TLDR: Wir schlagen eine neue Methode zur Frageklassifikation vor, die die Aufgabe der Fragenausgangsung erweitert und die Optimierung von Fragen in einer neuen Zieldomänen ermöglicht.
- Prompt-based Conservation Learning for Multi-hop Question Answering
- Zhenyun Deng, Yonghua Zhu, Yang Chen, Qianqian Qi, Michael Witbrock, Patricia Riddle
- TLDR: Wir schlagen ein Prompt-basiertes Conservation Learning (PCL) Framework für Multi-Hop-QA vor, das Wissen aus mehreren Aufgaben mit einer einzigen Aufgabe verglichen und gleichzeitig das Wissen, das auf einzelne Aufgaben gelernt wurde, mit einem neuen Wissensverlust verringert.
- GLAF: Global-to-Local Aggregation and Fission Network for Semantic Level Fact Verification
- Zhiyuan Ma, Jianjun Li, Guohui Li, Yongjing Cheng
- TLDR: Wir schlagen ein neuartiges globales Aggregation und Fission Netzwerk vor, um die Aufgabe der Beweisverifikation zu lösen.
- Exploiting Hybrid Semantics of Relation Paths for Multi-hop Question Answering over Knowledge Graphs
- Zile Qiao, Wei Ye, Tong Zhang, Tong Mo, Weiping Li, Shikun Zhang
- TLDR: Wir schlagen eine neue Methode zur Entflechtung von Wissensgraphen vor, die auf der Entflechtungsvorhersage von Entitäten basiert.
- Adaptive Threshold Selective Self-Attention for Chinese NER
- Biao Hu, Zhen Huang, Minghao Hu, Ziwen Zhang, Yong Dou
- TLDR: Wir schlagen eine adaptive Aufmerksamkeitsmechanismus vor, die die Aufmerksamkeitsgrenze für die Erkennung von Entitäten in neuronalen Netzen erweitert.
- Cluster-aware Pseudo-Labeling for Supervised Open Relation Extraction
- Bin Duan, Shusen Wang, Xingxian Liu, Yajing Xu
- TLDR: Wir schlagen eine Cluster-aware Pseudo-Labeling (CaPL) Methode vor, um die Qualität der Pseudo-Labels und die Wissenstransferrate bei der Erkennung von Neuverbeziehungen zu verbessern.
- Few-shot Named Entity Recognition with Entity-level Prototypical Network Enhanced by Dispersedly Distributed Prototypes
- Bin Ji, Shasha Li, Shaoduo Gan, Jie Yu, Jun Ma, Huijun Liu, Jing Yang
- TLDR: Wir schlagen EP-Net vor, eine Entity-Ebene-Prototypical Network, die durch dispersedly verteilte Prototypen verbessert.
- Different Data, Different Modalities! Reinforced Data Splitting for Effective Multimodal Information Extraction from Social Media Posts
- Bo Xu, Shizhou Huang, Ming Du, Hongya Wang, Hui Song, Chaofeng Sha, Yanghua Xiao
- TLDR: Wir schlagen eine Datenverteilungsstrategie vor, um mehrere soziale Medien-Posts in einen Multimodal- und einen Unmodal-Set zu verteilen.
- Augmentation, Retrieval, Generation: Event Sequence Prediction with a Three-Stage Sequence-to-Sequence Approach
- Bo Zhou, Chenhao Wang, Yubo Chen, Kang Liu, Jun Zhao, Jiexin Xu, Xiaojian Jiang, Qiuxia Li
- TLDR: Wir stellen eine Aufgabe vor, die die Fähigkeit eines Sprachmodells zu ermitteln benötigt, um mögliche Ereignisse zu ermitteln.
- Generating Temporally-ordered Event Sequences via Event Optimal Transport
- Bo Zhou, Yubo Chen, Kang Liu, Jun Zhao, Jiexin Xu, Xiaojian Jiang, Qiuxia Li
- TLDR: Wir stellen ein neuartiges Modell vor, das die Erzeugung von zeitlich beorderten und infilled Ereignissen mit Hilfe von Event Optimal Transport (EOT) modelliert.
- Improving Continual Relation Extraction through Prototypical Contrastive Learning
- Chengwei Hu, Deqing Yang, Haoliang Jin, Zhen Chen, Yanghua Xiao
- TLDR: Wir schlagen ein neues, auf contrastives Lernen basierendes Modell vor, das die katastrophale Vergessen von alten Aufgaben reduziert.
- Prompt-based Text Entailment for Low-Resource Named Entity Recognition
- Dongfang Li, Baotian Hu, Qingcai Chen
- TLDR: Wir schlagen Prompt-based Text Entailment (PTE) vor, eine Texterkennungsmethode, die die Entitätenerkennung in tiefen PLMs verbessert.
- Key Mention Pairs Guided Document-Level Relation Extraction
- Feng Jiang, Jianwei Niu, Shasha Mo, Shengda Fan
- TLDR: Wir schlagen ein neuartiges Modell vor, das auf Merkmals-Ebene relationale Beziehungen extrahiert.
- A Hybrid Model of Classification and Generation for Spatial Relation Extraction
- Feng Wang, Peifeng Li, Qiaoming Zhu
- TLDR: Wir schlagen ein hybrides Modell vor, das die Entflechtung von Texten als eine Generationsaufgabe ersetzt.
- Mining Health-related Cause-Effect Statements with High Precision at Large Scale
- Ferdinand Schlatt, Dieter Bettin, Matthias Hagen, Benno Stein, Martin Potthast
- TLDR: Wir schlagen einen neuen termischen Score vor, der die Gesundheitsverwandtschaft von Phrasen und Sätzen erfasst und die Wiederholung bei über 90% Genauigkeit erreicht.
- Find the Funding: Entity Linking with Incomplete Funding Knowledge Bases
- Gizem Aydin, Seyed Amin Tabatabaei, George Tsatsaronis, Faegheh Hasibi
- TLDR: Wir schlagen ein neues Modell vor, das die Entitätsverknüpfung von Forschungsdokumenten und die Datenverknappung in einer Zeit und Dateneffizienten Weise überwinden kann.
- KiPT: Knowledge-injected Prompt Tuning for Event Detection
- Haochen Li, Tong Mo, Hongcheng Fan, Jingkun Wang, Jiaxi Wang, Fuhao Zhang, Weiping Li
- TLDR: Wir schlagen ein Knowledge-injected Prompt Tuning (KiPT) Modell vor, das auf die Erkennung von Ereignissen von Text aufmerksam macht.
- OneEE: A One-Stage Framework for Fast Overlapping and Nested Event Extraction
- Hu Cao, Jingye Li, Fangfang Su, Fei Li, Hao Fei, Shengqiong Wu, Bobo Li, Liang Zhao, Donghong Ji
- TLDR: Wir stellen eine einfache und effektive Methode zur Erfassung von Ereignissen vor, die auf parallelen Gittern mit paralleler Inferenz basiert.
- Joint Language Semantic and Structure Embedding for Knowledge Graph Completion
- Jianhao Shen, Chenguang Wang, Linyuan Gong, Dawn Song
- TLDR: Wir schlagen einen neuen Ansatz vor, um Wissensgraphen für die Aufgabe der Wissensvollziehbarkeit zu verwenden.
- Event Detection with Dual Relational Graph Attention Networks
- Jiaxin Mi, Po Hu, Peng Li
- TLDR: Wir schlagen DualGAT vor, ein relationales Graphenattention Network, das die complementary nature der syntaktischen und semantischen Beziehungen nutzt, um die Erkennung von Ereignissen aus Text zu verbessern.
- A Multi-Format Transfer Learning Model for Event Argument Extraction via Variational Information Bottleneck
- Jie Zhou, Qi Zhang, Qin Chen, Qi Zhang, Liang He, Xuanjing Huang
- TLDR: Wir schlagen ein Multiformat-Transfer-Lernen vor, das die Information aus Datensätzen mit unterschiedlichen Formaten nutzt, um die Probleme bei der Argumentation zu lösen.
- RSGT: Relational Structure Guided Temporal Relation Extraction
- Jie Zhou, Shenpo Dong, Hongkui Tu, Xiaodong Wang, Yong Dou
- TLDR: Wir schlagen eine neue Methode zur Extraktion von relationalen Strukturen vor, die für die Inter-Sequenz- und Instanz-Relations geeignet sind.
- Learning Hierarchy-Aware Quaternion Knowledge Graph Embeddings with Representing Relations as 3D Rotations
- Jinfa Yang, Xianghua Ying, Yongjie Shi, Xin Tong, Ruibin Wang, Taiyan Chen, Bowei Xing
- TLDR: Wir schlagen ein neues Modell vor, das sich als eine relationale Einbettung erweist, und lernen, sich als eine neue Klasse von Beziehungen zu präsentieren.
- Two Languages Are Better than One: Bilingual Enhancement for Chinese Named Entity Recognition
- Jinzhong Ning, Zhihao Yang, Zhizheng Wang, Yuanyuan Sun, Hongfei Lin, Jian Wang
- TLDR: Wir schlagen ein neues, aufeinander abgestimmtes, bilinguales Interaktionsmethodikum vor, das die Interaktion von Informationen zwischen zwei Sprachen erfasst.
- Read Extensively, Focus Smartly: A Cross-document Semantic Enhancement Method for Visual Documents NER
- Jun Zhao, Xin Zhao, WenYu Zhan, Tao Gui, Qi Zhang, Liang Qiao, Zhanzhan Cheng, Shiliang Pu
- TLDR: Wir schlagen eine Methode vor, die die Aufmerksamkeit von Dokumenten auf irrelevante Regionen reduziert und gleichzeitig die Entitätserkennung verbessert.
- STAD: Self-Training with Ambiguous Data for Low-Resource Relation Extraction
- Junjie Yu, Xing Wang, Jiangjiang Zhao, Chunjie Yang, Wenliang Chen
- TLDR: Wir stellen einen einfachen, aber effektiven Selbsttrainingsalgorithmus vor, der die Unsicherheiten in den unverwundlichen Instanzen extrahiert.
- Flat Multi-modal Interaction Transformer for Named Entity Recognition
- Junyu Lu, Dixiang Zhang, Jiaxing Zhang, Pingjian Zhang
- TLDR: Wir schlagen einen neuen Transformer-Rahmen vor, um die Entitätsgrenzen zu erkennen und die Verzerrung visueller Darstellungen zu reduzieren.
- MetaSLRCL: A Self-Adaptive Learning Rate and Curriculum Learning Based Framework for Few-Shot Text Classification
- Kailin Zhao, Xiaolong Jin, Saiping Guan, Jiafeng Guo, Xueqi Cheng
- TLDR: Wir schlagen MetaSLRCL vor, einen Meta-Lernen, der die Generalisierungsfähigkeit eines Meta-Lernenlers verbessert.
- A Simple Temporal Information Matching Mechanism for Entity Alignment between Temporal Knowledge Graphs
- Li Cai, Xin Mao, Meirong Ma, Hao Yuan, Jianchao Zhu, Man Lan
- TLDR: Wir schlagen eine Methode vor, die temporale Informationen in Wissensgraphen (TKGs) nutzt, um Entitäten in unterschiedlichen Wissensgraphen (KGs) zu finden, die den gleichen Objekt in der realen Welt verwenden.
- DCT-Centered Temporal Relation Extraction
- Liang Wang, Peifeng Li, Sheng Xu
- TLDR: Wir schlagen ein DCT-zentriertes Temporal Relations Extraktionsmodell vor, um die Beziehungen zwischen den Ereignissen, Zeitxen und Dokumenten zu ermitteln.
- Document-level Biomedical Relation Extraction Based on Multi-Dimensional Fusion Information and Multi-Granularity Logical Reasoning
- Lishuang Li, Ruiyuan Lian, Hongbin Lu, Jingyao Tang
- TLDR: Wir schlagen ein neuartiges Modell vor, das auf Multidimensionalitäts- und Multi-Granularity Logical Reasoning basiert, um die gesamte Dokumentinformation aus der biomedizinischen Beziehung zu extrahieren.
- Simple Yet Powerful: An Overlooked Architecture for Nested Named Entity Recognition
- Matias Rojas, Felipe Bravo-Marquez, Jocelyn Dunstan
- TLDR: Wir verwenden ein Multiple LSTM-CRF-Modell, um nested Entity Recognition (NER) zu ermitteln.
- ERGO: Event Relational Graph Transformer for Document-level Event Causality Identification
- Meiqi Chen, Yixin Cao, Kunquan Deng, Mukai Li, Kun Wang, Jing Shao, Yan Zhang
- TLDR: Wir schlagen einen neuen Rahmen für die Erkennung von Ereignissen vor, um die Probleme der Verzerrung und des Rauschen zu lösen.
- DRK: Discriminative Rule-based Knowledge for Relieving Prediction Confusions in Few-shot Relation Extraction
- Mengru Wang, Jianming Zheng, Fei Cai, Taihua Shao, Honghui Chen
- TLDR: Wir schlagen eine diskriminierende Regelbasierte Wissensmethode vor, die die Wort-Überlappung und Entitätstype-Faltung reduziert.
- DocQueryNet: Value Retrieval with Arbitrary Queries for Form-like Documents
- Mingfei Gao, Le Xue, Chetan Ramaiah, Chen Xing, Ran Xu, Caiming Xiong
- TLDR: Wir schlagen DocQueryNet vor, eine Werterfassungsmethode mit beliebigen Anfragen für Formen, die die Erfassung von Dokumenten ermöglicht.
- DoSEA: A Domain-specific Entity-aware Framework for Cross-Domain Named Entity Recogition
- Minghao Tang, Peng Zhang, Yongquan He, Yongxiu Xu, Chengpeng Chao, Hongbo Xu
- TLDR: Wir schlagen einen Deep Learning-Rahmen vor, der auf semantisches Verständnis basiert und die Entitätserkennung von Domänen effektiver und effektiver macht.
- Incremental Prompting: Episodic Memory Prompt for Lifelong Event Detection
- Minqian Liu, Shiyu Chang, Lifu Huang
- TLDR: Wir stellen Episodische Memory Prompts (EMP) vor, um das gelernte Wissen in zukünftigen Aufgaben explizit zu nutzen.
- Recent Advances in Text-to-SQL: A Survey of What We Have and What We Expect
- Naihao Deng, Yulong Chen, Yue Zhang
- TLDR: Wir stellen Text-to-SQL vor, eine neue Architektur, die die Semantik von Text in Textformen umwandelt und die Zukunftsaussichten für die Datenverarbeitung und die Bewertung von Datensätzen berücksichtigt.
- An MRC Framework for Semantic Role Labeling
- Nan Wang, Jiwei Li, Yuxian Meng, Xiaofei Sun, Han Qiu, Ziyao Wang, Guoyin Wang, Jun He
- TLDR: Wir stellen eine Methode vor, die die neuronale Netze für die Erkennung von Vorhersagen und die Etikettierung nutzt.
- PCBERT: Parent and Child BERT for Chinese Few-shot NER
- Peichao Lai, Feiyang Ye, Lin Zhang, Zhiwei Chen, Yanggeng Fu, Yingjie Wu, Yilei Wang
- TLDR: Wir schlagen ein promptbasiertes Eltern- und Kleinkinder BERT vor, das auf wenigen-Shot-NERs funktioniert.
- Label Smoothing for Text Mining
- Peiyang Liu, Xiangyu Xi, Wei Ye, Shikun Zhang
- TLDR: Wir stellen eine keyword-basierte LS-Methode vor, die automatisch Soft-Bell-Eigenschaften aus Labels erzeugt, indem sie die Bedeutung zwischen Labels und Textinstanzen nutzt.
- Diverse Multi-Answer Retrieval with Determinantal Point Processes
- Poojitha Nandigam, Nikhil Rayaprolu, Manish Shrivastava
- TLDR: Wir schlagen einen re-Ranking-basierten Ansatz vor, um mehrere Fragen zu beantworten, die unterschiedliche Antworten aufweisen.
- Improving Deep Embedded Clustering via Learning Cluster-level Representations
- Qing Yin, Zhihua Wang, Yunya Song, Yida Xu, Shuai Niu, Liang Bai, Yike Guo, Xian Yang
- TLDR: Wir schlagen ein tiefes Clustering-Modell mit Clustering-Eigenschaften vor, das auf Cluster-Ebene Repräsentationen erlernt.
- Decoupling Mixture-of-Graphs: Unseen Relational Learning for Knowledge Graph Completion by Fusing Ontology and Textual Experts
- Ran Song, Shizhu He, Suncong Zheng, Shengxiang Gao, Kang Liu, Zhengtao Yu, Jun Zhao
- TLDR: Wir schlagen eine neue Methode vor, die die unseen Beziehungen in einem Graphen darstellen kann, indem wir eine Mischung von Graphen verwenden.
- CETA: A Consensus Enhanced Training Approach for Denoising in Distantly Supervised Relation Extraction
- Ruri Liu, Shasha Mo, Jianwei Niu, Shengda Fan
- TLDR: Wir schlagen eine neue Methode zur Abwehrung von Verzerrungen vor, die auf Satzebene verwendet werden kann, um die Klassifizierungsverzerrung zu reduzieren.
- MedDistant19: Towards an Accurate Benchmark for Broad-Coverage Biomedical Relation Extraction
- Saadullah Amin, Pasquale Minervini, David Chang, Pontus Stenetorp, Guenter Neumann
- TLDR: Wir stellen einen neuen Benchmark für die Ableitung von Beziehungen in der medizinischen Domänen vor, der die Probleme der Abhängigkeit von Wissensgraphen und der Datenerweiterung berücksichtigt.
- Decorrelate Irrelevant, Purify Relevant: Overcome Textual Spurious Correlations from a Feature Perspective
- Shihan Dou, Rui Zheng, Ting Wu, SongYang Gao, Junjie Shan, Qi Zhang, Yueming Wu, Xuanjing Huang
- TLDR: Wir schlagen eine neue Methode vor, die die Abhängigkeiten zwischen Merkmalen korrigiert und die Verzerrung von Merkmalen eliminiert.
- Event Causality Identification via Derivative Prompt Joint Learning
- Shirong Shen, Heng Zhou, Tongtong Wu, Guilin Qi
- TLDR: Wir schlagen ein neues Modell vor, das auf die Erkennung von Kausalitäten in einem Sprachmodell anwendbar ist.
- Event Causality Extraction with Event Argument Correlations
- Shiyao Cui, Jiawei Sheng, Xin Cong, Quangang Li, Tingwen Liu, Jinqiao Shi
- TLDR: Wir stellen eine neue Aufgabe vor, die die Erkennung von Kausalitätsbeziehungen zwischen Texten mit Hilfe von GANs ermöglicht.
- SCL-RAI: Span-based Contrastive Learning with Retrieval Augmented Inference for Unlabeled Entity Problem in NER
- Shuzheng Si, Shuang Zeng, Jiaxing Lin, Baobao Chang
- TLDR: Wir schlagen eine neue Methode vor, die das Unlabeled Entity Problem (UEP) in Named Entity Recognition (NER) verbessert.
- A Relation Extraction Dataset for Knowledge Extraction from Web Tables
- Siffi Singh, Alham Fikri Aji, Gaurav Singh, Christos Christodoulopoulos
- TLDR: Wir stellen REDTab vor, einen großen Datensatz für die relationale Web-Tablette extraktion.
- Automatic Keyphrase Generation by Incorporating Dual Copy Mechanisms in Sequence-to-Sequence Learning
- Siyu Wang, Jianhui Jiang, Yao Huang, Yin Wang
- TLDR: Wir schlagen ein DualCopyNet-Modell vor, das eine zusätzliche Seqn-Eigenschaften-Schätzerschicht für die Erzeugung von Schlüsselwörtern verwendet.
- Dependency-aware Prototype Learning for Few-shot Relation Classification
- Tianshu Yu, Min Yang, Xiaoyan Zhao
- TLDR: Wir stellen eine neuartige, abhängigkeitsbewusste Methode zum Lernen von Beziehungen vor, die mit wenigen Beispielen in einer Satzrepräsentation trainiert werden kann.
- MECI: A Multilingual Dataset for Event Causality Identification
- Viet Dac Lai, Amir Pouran Ben Veyseh, Minh Van Nguyen, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Wir stellen einen neuen Multilingual Datensatz für ECI vor, der auf die Erkennung von Kausalitätsbeziehungen zwischen Texten hinweist.
- Method Entity Extraction from Biomedical Texts
- Waqar Bin Kalim, Robert E. Mercer
- TLDR: Wir verwenden sprachliche Merkmale, um Methodenbezeichnungen aus einem großen Quell von biomedizinischen Text zu extrahieren.
- Optimal Partial Transport Based Sentence Selection for Long-form Document Matching
- Weijie Yu, Liang Pang, Jun Xu, Bing Su, Zhenhua Dong, Ji-Rong Wen
- TLDR: Wir schlagen einen neuartigen Ansatz vor, der auf Optimal Partial Transport (OPT) basiert, um die Schlüsselsätze für die Dokumenten-Matching-Erstellung zu verwenden.
- LightNER: A Lightweight Tuning Paradigm for Low-resource NER via Pluggable Prompting
- Xiang Chen, Lei Li, Shumin Deng, Chuanqi Tan, Changliang Xu, Fei Huang, Luo Si, Huajun Chen, Ningyu Zhang
- TLDR: Wir schlagen einen neuen Lernrahmen für NER vor, der auf Pluggable Promptings trainiert werden kann, um das Problem des Klassentransfers zu lösen.
- Cross-modal Contrastive Attention Model for Medical Report Generation
- Xiao Song, Xiaodan Zhang, Junzhong Ji, Ying Liu, Pengxu Wei
- TLDR: Wir schlagen ein Cross-Modal Contrastive Attention (CMCA) Modell vor, das sowohl visuelle als auch semantische Informationen aus ähnlichen Fällen erfasst.
- Domain-Specific NER via Retrieving Correlated Samples
- Xin Zhang, Yong Jiang, Xiaobin Wang, Xuming Hu, Yueheng Sun, Pengjun Xie, Meishan Zhang
- TLDR: Wir schlagen eine Methode vor, die die Entitätserkennung von Texten mit correlated Texten verbessert.
- Type-enriched Hierarchical Contrastive Strategy for Fine-Grained Entity Typing
- Xinyu Zuo, Haijin Liang, Ning Jing, Shuang Zeng, Zhou Fang, Yu Luo
- TLDR: Wir schlagen eine Typenverschiebungsstrategie vor, die die Unterschiede zwischen Typen in Texten modelliert und gleichzeitig die Erkennung von Typen in Texten verbessert.
- Document-Level Relation Extraction via Pair-Aware and Entity-Enhanced Representation Learning
- Xiusheng Huang, Hang Yang, Yubo Chen, Jun Zhao, Kang Liu, Weijian Sun, Zuyu Zhao
- TLDR: Wir schlagen ein PAE-Modell vor, um die Probleme bei der relationalen Entitätspaarextraktion zu lösen.
- Improving Zero-Shot Entity Linking Candidate Generation with Ultra-Fine Entity Type Information
- Xuhui Sui, Ying Zhang, Kehui Song, Baohang Zhou, Guoqing Zhao, Xin Wei, Xiaojie Yuan
- TLDR: Wir schlagen eine hierarchische Multi-Task-Architektur vor, um die Entity-Linking-Benchmark-Genauigkeit auf hoher Ebene zu verbessern.
- CofeNet: Context and Former-Label Enhanced Net for Complicated Quotation Extraction
- Yequan Wang, Xiang Li, Aixin Sun, Xuying Meng, Huaming Liao, Jiafeng Guo
- TLDR: Wir stellen eine Methode vor, die auf der Interpretation von Satzsatzen basiert.
- Supporting Medical Relation Extraction via Causality-Pruned Semantic Dependency Forest
- Yifan Jin, Jiangmeng Li, Zheng Lian, Chengbo Jiao, Xiaohui Hu
- TLDR: Wir schlagen eine Methode vor, um die Beziehungen zwischen den Patienten zu extrahieren, die von einem Arzt vorgegebenen 1-Best-Abhängigkeitsverzeichnis enthalten.
- Aspect-based Sentiment Analysis as Machine Reading Comprehension
- Yifei Yang, Hai Zhao
- TLDR: Wir schlagen einen neuen Rahmen vor, MRCOOL: MRC-PrOmpt mOdeL, der mehrere Gefühlsschichten aus einem Texterzeugungsmodell erzeugt.
- Nested Named Entity Recognition as Corpus Aware Holistic Structure Parsing
- Yifei Yang, Zuchao Li, Hai Zhao
- TLDR: Wir schlagen einen Parsing-Algorithmus vor, um die gesamte Nested Entity Recognition (NER) als eine holistische Struktur zu modellieren.
- DESED: Dialogue-based Explanation for Sentence-level Event Detection
- Yinyi Wei, Shuaipeng Liu, Jianwei Lv, Xiangyu Xi, Hailei Yan, Wei Ye, Tong Mo, Fan Yang, Guanglu Wan
- TLDR: Wir schlagen Dialogbasierte Erklärungen vor, um die Semantik von Ereignissen zu verbessern.
- Data Augmentation for Few-Shot Knowledge Graph Completion from Hierarchical Perspective
- Yuanzhou Yao, Zhao Zhang, Yongjun Xu, Chao Li
- TLDR: Wir schlagen eine Methode vor, die die Datenerweiterung und die Datenerweiterung kombiniert, um das Problem der Wissensgraphenvervollständigung zu lösen.
- CLIO: Role-interactive Multi-event Head Attention Network for Document-level Event Extraction
- Yubing Ren, Yanan Cao, Fang Fang, Ping Guo, Zheng Lin, Wei Ma, Yi Liu
- TLDR: Wir schlagen ein Rolleninteraktives Multi-Evening-Head-Attention Network (CLIO) vor, um zwei intrinsische Herausforderungen auf Dokumentebene zu lösen.
- COPNER: Contrastive Learning with Prompt Guiding for Few-shot Named Entity Recognition
- Yucheng Huang, Kai He, Yige Wang, Xianli Zhang, Tieliang Gong, Rui Mao, Chen Li
- TLDR: Wir schlagen einen neuen Ansatz für das Erlernen von Ähnlichkeitsmerkmalen vor, der die Klassifizierung von Entitäten in wenigen Aufnahmen ermöglicht.
- Few Clean Instances Help Denoising Distant Supervision
- Yufang Liu, Ziyin Huang, Yijun Wang, Changzhi Sun, Man Lan, Yuanbin Wu, Xiaofeng Mou, Ding Wang
- TLDR: Wir schlagen eine neue Methode vor, um die Klassifizierung von Beispielen auf der Grundlage von Einflussfunktionen zu verbessern.
- SEE-Few: Seed, Expand and Entail for Few-shot Named Entity Recognition
- Zeng Yang, Linhai Zhang, Deyu Zhou
- TLDR: Wir schlagen ein neues Multi-Task-Lernen vor, SEE-Few, für Few-Shot Entity Recognition.
- Ruleformer: Context-aware Rule Mining over Knowledge Graph
- Zezhong Xu, Peng Ye, Hui Chen, Meng Zhao, Huajun Chen, Wen Zhang
- TLDR: Wir schlagen einen Transformator-basierten Ansatz vor, um Regeln zu lernen, die für die Entscheidungsfindung von Wissensgraphen geeignet sind.
- Are People Located in the Places They Mention in Their Tweets? A Multimodal Approach
- Zhaomin Xiao, Eduardo Blanco
- TLDR: Wir stellen eine neue Sammlung von Twitter-Twetter vor, die sowohl Text als auch Bilder enthalten.
- Multi-modal Contrastive Representation Learning for Entity Alignment
- Zhenxi Lin, Ziheng Zhang, Meng Wang, Yinghui Shi, Xian Wu, Yefeng Zheng
- TLDR: Wir schlagen MCLEA vor, ein Multi-Modal Contrastive Learning based Entity Alignment Modell, um effektive Repräsentationen für Multi-Modal Entity Alignment zu erhalten.
- Nonparametric Forest-Structured Neural Topic Modeling
- Zhihong Zhang, Xuewen Zhang, Yanghui Rao
- TLDR: Wir stellen ein neuronales Themenmodell vor, das eine Themenhierarchie mit indefinite Anzahlen von Bäumen und Beschriftungen erlernt.
- KGE-CL: Contrastive Learning of Tensor Decomposition Based Knowledge Graph Embeddings
- Zhiping Luo, Wentao Xu, Weiqing Liu, Jiang Bian, Jian Yin, Tie-Yan Liu
- TLDR: Wir schlagen einen kontrastiven Lernrahmen vor, der die Semantik von Wissensgraphen in unterschiedlichen triples reduziert und die Leistung von KGE verbessert.
- A Coarse-to-fine Cascaded Evidence-Distillation Neural Network for Explainable Fake News Detection
- Zhiwei Yang, Jing Ma, Hechang Chen, Hongzhan Lin, Ziyang Luo, Yi Chang
- TLDR: Wir schlagen eine neuartige Coarse-to-fine Cascaded Evidence-Distillation (CofCED) vor, die auf der Erkennung von Verfälschungen und Verfälschungen von öffentlich zugänglichen Datensätzen basiert.
- Document-level Event Factuality Identification via Machine Reading Comprehension Frameworks with Transfer Learning
- Zhong Qian, Heng Zhang, Peifeng Li, Qiaoming Zhu, Guodong Zhou
- TLDR: Wir schlagen ein neues Framework vor, das die Dokumenten-Ebene als Machine Reading Comprehension (MRC) Aufgaben versteht.
- Unregulated Chinese-to-English Data Expansion Does NOT Work for Neural Event Detection
- Zhongqiu Li, Yu Hong, Jie Wang, Shiming He, Jianmin Yao, Guodong Zhou
- TLDR: Wir verwenden Regeln zur Regulierung von Sprachverfälschungen, um die Fehler in den Übersetzungsdaten zu beseitigen.
- Finding Influential Instances for Distantly Supervised Relation Extraction
- Zifeng Wang, Rui Wen, Xi Chen, Shao-Lun Huang, Ningyu Zhang, Yefeng Zheng
- TLDR: Wir schlagen eine modell-agnostische Instanz-Sampling-Methode vor, die die Aufmerksamkeit eines GAN-Modells nutzt, um die Qualität von GANs zu verbessern.
- A Simple Model for Distantly Supervised Relation Extraction
- Ziqin Rao, Fangxiang Feng, Ruifan Li, Xiaojie Wang
- TLDR: Wir schlagen eine einfache aber effektive Methode vor, um Bag-Repräsentationen aus tiefen neuronalen Netzen zu extrahieren.
- Augmenting Legal Judgment Prediction with Contrastive Case Relations
- Dugang Liu, Weihao Du, Lei Li, Weike Pan, Zhong Ming
- TLDR: Wir schlagen eine neue Perspektive vor, die kontrastive Fallbeziehungen nutzt, um case-Tpips zu konstruieren und einen Rahmen für die Vorhersage von juristischen Schlussfolgerungen zu schaffen.
- Constrained Regeneration for Cross-Lingual Query-Focused Extractive Summarization
- Elsbeth Turcan, David Wan, Faisal Ladhak, Petra Galuscakova, Sukanta Sen, Svetlana Tchistiakova, Weijia Xu, Marine Carpuat, Kenneth Heafield, Douglas Oard, Kathleen McKeown
- TLDR: Wir zeigen, dass die Verwendung von Suchbegriffen in einer Zusammenfassung hilft, die Bedeutung von Dokumenten zu verstehen.
- Programmable Annotation with Diversed Heuristics and Data Denoising
- Ernie Chang, Alex Marin, Vera Demberg
- TLDR: Wir schlagen einen neuen Datenprogrammrahmen vor, der auf der gleichen Label-Eigenschaften basiert, um tiefe Sprachmodelle zu erzeugen.
- Text-to-Text Extraction and Verbalization of Biomedical Event Graphs
- Giacomo Frisoni, Gianluca Moro, Lorenzo Balzani
- TLDR: Wir stellen eine neue Methode zur Erfassung und Verallgemeinerung von Ereignissen vor, die auf der Texterzeugung basiert.
- Multimodal Semi-supervised Learning for Disaster Tweet Classification
- Iustin Sirbu, Tiberiu Sosea, Cornelia Caragea, Doina Caragea, Traian Rebedea
- TLDR: Wir schlagen einen halbüberwachten Lernansatz vor, um die Leistung neuronaler Netze bei mehreren Multimodal-Disaster-Tweets zu verbessern.
- Automated Essay Scoring via Pairwise Contrastive Regression
- Jiayi Xie, Kaiwei Cai, Li Kong, Junsheng Zhou, Weiguang Qu
- TLDR: Wir schlagen ein neuartiges neuronales pairwise-Ranking-Modell vor, das sowohl die Bewertung als auch die Optimierung gleichzeitig als ein einziges Verlustgewicht berücksichtigt.
- Medical Question Understanding and Answering with Knowledge Grounding and Semantic Self-Supervision
- Khalil Mrini, Harpreet Singh, Franck Dernoncourt, Seunghyun Yoon, Trung Bui, Walter W. Chang, Emilia Farcas, Ndapa Nakashole
- TLDR: Wir stellen ein neuartiges, selbstüberwachtes und semantisch überwachtes Problem des Verständnisses und der Beantwortung von Gesundheitsfragen vor.
- A Progressive Framework for Role-Aware Rumor Resolution
- Lei Chen, Guanying Li, Zhongyu Wei, Yang Yang, Baohua Zhou, Qi Zhang, Xuanjing Huang
- TLDR: Wir schlagen ein graphbasiertes Modell vor, das die Richtung und Interaktion von Informationenflussen berücksichtigt, um Rollenbewusste und wahrnehmungsbewusste Gerüchtverantwortung zu implementieren.
- Uncertainty-aware Propagation Structure Reconstruction for Fake News Detection
- Lingwei Wei, Dou Hu, Wei Zhou, Songlin Hu
- TLDR: Wir schlagen ein neues Modell vor, das die Verbreitung von Falschmeldungen als Graphenstrukturen und aggregaten Merkmalen aus Benutzerinteraktionen für die Erkennung von Verfälschungen und Verfälschungen nutzt.
- A Unified Propagation Forest-based Framework for Fake News Detection
- Lingwei Wei, Dou Hu, Yantong Lai, Wei Zhou, Songlin Hu
- TLDR: Wir schlagen ein neuartiges Unified Propagation Forest-based Framework vor, um latente Korrelationen zwischen propagierenden Bäumen zu untersuchen, um die Erkennung von Verfälschungen zu verbessern.
- CLoSE: Contrastive Learning of Subframe Embeddings for Political Bias Classification of News Media
- Michelle YoungJin Kim, Kristen Marie Johnson
- TLDR: Wir schlagen CLoSE vor, ein BERT-basiertes Modell, das kontrastive Lernen nutzt, um politische Framing zu erkennen.
- Grammatical Error Correction: Are We There Yet?
- Muhammad Reza Qorib, Hwee Tou Ng
- TLDR: Wir haben die Grammatikvervollständigung von GECToR und T5 untersucht.
- CXR Data Annotation and Classification with Pre-trained Language Models
- Nina Zhou, Ai Ti Aw, Zhuo Han Liu, Cher heng Tan, Yonghan Ting, Wen Xiang Chen, Jordan sim zheng Ting
- TLDR: Wir schlagen einen neuen Rahmen vor, der die Erfassung von Daten von Privatpersonen ermöglicht.
- uChecker: Masked Pretrained Language Models as Unsupervised Chinese Spelling Checkers
- Piji Li
- TLDR: Wir haben die Aufgabe der Chinesen-Sprachprüfung auf der Grundlage von Texten in Texten untersuchen und korrigieren.
- Boosting Deep CTR Prediction with a Plug-and-Play Pre-trainer for News Recommendation
- Qijiong Liu, Jieming Zhu, Quanyu Dai, Xiaoming Wu
- TLDR: Wir schlagen einen Plug-and-Play-Pre-Trainer vor, um die Erkennung von Benutzern und Nachrichtenkodern durch Multi-Task-Interferenz zu verbessern.
- Improving Fake News Detection of Influential Domain via Domain- and Instance-Level Transfer
- Qiong Nan, Danding Wang, Yongchun Zhu, Qiang Sheng, Yuhui Shi, Juan Cao, Jintao Li
- TLDR: Wir schlagen ein Domain- und Instance-Ebene-Transfer Framework für die Erkennung von Verfälschungen vor und schlagen eine neue Methode vor, die die Leistung von Zieldomänen verbessert.
- Student Surpasses Teacher: Imitation Attack for Black-Box NLP APIs
- Qiongkai Xu, Xuanli He, Lingjuan Lyu, Lizhen Qu, Gholamreza Haffari
- TLDR: Wir schlagen einen neuen Ansatz vor, um die Imitation von Black-Box-APIs zu identifizieren und zu beweisen, dass die ursprünglichen Black-Box-APIs in der Lage sind, die Modelle von Gegnern zu übertreffen.
- Combining Compressions for Multiplicative Size Scaling on Natural Language Tasks
- Rajiv Movva, Jinhao Lei, Shayne Longpre, Ajay Gupta, Chris DuBois
- TLDR: Wir zeigen, dass die Kombination von Pruning und Quantisierung die Modellgröße drastisch reduzieren kann.
- PlugAT: A Plug and Play Module to Defend against Textual Adversarial Attack
- Rui Zheng, Rong Bao, Qin Liu, Tao Gui, Qi Zhang, Xuanjing Huang, Rui Xie, Wei Wu
- TLDR: Wir schlagen ein neuartiges, auf BERT-Architekturen trainiertes, aufgabenspezifisches Verteidigungsmodul vor, das die Leistung von bestehenden Modellen erheblich steigert.
- Automatic ICD Coding Exploiting Discourse Structure and Reconciled Code Embeddings
- Shurui Zhang, Bozheng Zhang, Fuxin Zhang, Bo Sang, Wanchun Yang
- TLDR: Wir nutzen die Struktur von Arztbeschriftungen, um ICD-Codes zu interpretieren und zu kodierern.
- Towards Summarizing Healthcare Questions in Low-Resource Setting
- Shweta Yadav, Cornelia Caragea
- TLDR: Wir stellen eine neuartige Datenauswahlstrategie vor, die auf die Erstellung von Gesundheitsfragen in einer Low-Resource Umgebung anwendbar ist.
- Doc-GCN: Heterogeneous Graph Convolutional Networks for Document Layout Analysis
- Siwen Luo, Yihao Ding, Siqu Long, Josiah Poon, Soyeon Caren Han
- TLDR: Wir stellen eine Methode vor, die heterogene Aspekte für die Dokumentenlayout-Analyse kombiniert und die Integration von Merkmalen in die Dokumentenklassifikation ermöglicht.
- Analytic Automated Essay Scoring Based on Deep Neural Networks Integrating Multidimensional Item Response Theory
- Takumi Shibata, Masaki Uto
- TLDR: Wir schlagen ein neuronales Modell vor, das die Bewertungen und die Gesamtkomma-Scores eines einzelnen AES-Modells automatisch erfasst.
- DP-Rewrite: Towards Reproducibility and Transparency in Differentially Private Text Rewriting
- Timour Igamberdiev, Thomas Arnold, Ivan Habernal
- TLDR: Wir stellen DP-Rewrite vor, einen Open-Source-Rahmen für die private Texterzeugung, der die Privatsphäre von Personen in Textdokumenten berücksichtigt.
- Harnessing Abstractive Summarization for Fact-Checked Claim Detection
- Varad Bhatnagar, Diptesh Kanojia, Kameswari Chebrolu
- TLDR: Wir schlagen einen neuen Algorithmus vor, der abstrakte Textausfassungen nutzt, um verrauschte Behauptungen aus Twitter und ihre goldlichen Zusammenfassungen zu ermitteln.
- Learning to Generate Explanation from e-Hospital Services for Medical Suggestion
- Wei-Lin Chen, An-Zi Yen, Hen-Hsen Huang, Hsin-Hsi Chen
- TLDR: Wir schlagen ein neuartiges discourse-bewusstes Modell vor, das die Beantwortung eines Patientens als Erklärung verwendet.
- DeltaNet: Conditional Medical Report Generation for COVID-19 Diagnosis
- Xian Wu, Shuxin Yang, Zhaopeng Qiu, Shen Ge, Yangtian Yan, Xingwang Wu, Yefeng Zheng, S. Kevin Zhou, Li Xiao
- TLDR: Wir schlagen ein neues Modell vor, das automatisch medizinische Belege erzeugt, wenn ein Bild von einem Arzt gestellt wird.
- MCS: An In-battle Commentary System for MOBA Games
- Xiaofeng Qi, Chao Li, Zhongping Liang, Jigang Liu, Cheng Zhang, Yuanxin Wei, Lin Yuan, Guang Yang, Lanxiao Huang, Min Li
- TLDR: Wir stellen ein generatives System vor, das in-Battle-Ergebnisse in Echtzeit mit Kommentaren in MOBA-Spielen darstellt.
- A Two Stage Adaptation Framework for Frame Detection via Prompt Learning
- Xinyi Mou, Zhongyu Wei, Changjian Jiang, Jiajie Peng
- TLDR: Wir stellen einen zweistufigen Anpassungsrahmen vor, der die Aufmerksamkeit auf die Frame-Erkennung und die Zielersetzung von Themen und Labels erweitert.
- Summarizing Patients’ Problems from Hospital Progress Notes Using Pre-trained Sequence-to-Sequence Models
- Yanjun Gao, Dmitriy Dligach, Timothy Miller, Dongfang Xu, Matthew M. M. Churpek, Majid Afshar
- TLDR: Wir schlagen eine neue Aufgabe vor, die darauf abzielt, eine Problem-Summenzettel-Ausgangsbeschriftung aus den Arztbesuchsprotokollen zu erstellen, und zeigen, dass die Leistung von T5 und BART bei der Problemsummutung erheblich verbessert.
- Human-in-the-loop Robotic Grasping Using BERT Scene Representation
- Yaoxian Song, Penglei Sun, Pengfei Fang, Linyi Yang, Yanghua Xiao, Yue Zhang
- TLDR: Wir schlagen einen humanen-in-the-Lopes-Rahmen für das Robotergrasping vor, der die Sprache des Benutzers nutzt.
- Automated Chinese Essay Scoring from Multiple Traits
- Yaqiong He, Feng Jiang, Xiaomin Chu, Peifeng Li
- TLDR: Wir schlagen einen Multi-Task-Trail-Score-Score-Score-Modeller vor, um die Qualität von Texten aus mehreren Merkmalen zu bewerten.
- Semantic-Preserving Adversarial Code Comprehension
- Yiyang Li, Hongqiu Wu, Hai Zhao
- TLDR: Wir schlagen eine neue Methode vor, um die besten Beispiele für semantische Präferenzen zu finden, die die Code-Kommunikation verbessern.
- Continually Detection, Rapidly React: Unseen Rumors Detection Based on Continual Prompt-Tuning
- Yuhui Zuo, Wei Zhu, Guoyong GUET Cai
- TLDR: Wir schlagen ein kontinuierliches Prompt-Tuning-Rahmen vor, das katastrophale Vergessen (CF) von vorherigen Aufgaben während des Sequenzial Learnings und die Bidirectional Knowledge Transfer zwischen Domänen ermöglicht.
- AiM: Taking Answers in Mind to Correct Chinese Cloze Tests in Educational Applications
- Yusen Zhang, Zhongli Li, Qingyu Zhou, Ziyi Liu, Chao Li, Mina Ma, Yunbo Cao, Hongzhi Liu
- TLDR: Wir schlagen einen Multimodal-Ansatz zur Korrektur von Chinesen-Clozen-Tests vor, der die handschriftlichen Antworten von Schülern berücksichtigt.
- TreeMAN: Tree-enhanced Multimodal Attention Network for ICD Coding
- Zichen Liu, Xuyuan Liu, Yanlong Wen, Guoqing Zhao, Fen Xia, Xiaojie Yuan
- TLDR: Wir schlagen ein Tree-enhanced Multimodal Attention Network (TreeMAN) vor, um ICD-Codes aus klinischen Beschriftungen zu lernen.
- Gated Mechanism Enhanced Multi-Task Learning for Dialog Routing
- Ziming Huang, Zhuoxuan Jiang, Ke Wang, Juntao Li, Shanshan Feng, Xian-Ling Mao
- TLDR: Wir schlagen ein neues Multi-Task-Modell vor, das die Aufgabe-zu-Task-Informationen nutzt, um hierarchische Informationen zu filtern und die Leistung bei der Erfassung von Dialogdaten zu verbessern.
- Negation, Coordination, and Quantifiers in Contextualized Language Models
- Aikaterini-Lida Kalouli, Rita Sevastjanova, Christin Beck, Maribel Romero
- TLDR: Wir stellen fest, dass funktionale Worte in LMs gelernt werden, und wir zeigen, wie die Umgebung die Einbettungen in Bezug auf die Aufgabe des Lernens bewirkt.
- Tales and Tropes: Gender Roles from Word Embeddings in a Century of Children’s Books
- Anjali Adukia, Patricia Chiril, Callista Christ, Anjali Das, Alex Eble, Emileigh Harrison, Hakizumwami Birali Runesha
- TLDR: Wir zeigen, dass die Darstellung von Geschlechtsidentitäten in Texten, die für die Erziehung von Kindern verwendet werden, die Menschen über ihre Rollen in der Welt darstellen, zu einer diskriminierenden Verzerrung führt.
- CLOWER: A Pre-trained Language Model with Contrastive Learning over Word and Character Representations
- Borun Chen, Hongyin Tang, Jiahao Bu, Kai Zhang, Jingang Wang, Qifan Wang, Hai-Tao Zheng, Wei Wu, Liqian Yu
- TLDR: Wir schlagen eine einfache und effektive PLM CLOWER vor, die die Contrastive Learning Over Words und charactER-Repräsentationen nutzt.
- On the Nature of BERT: Correlating Fine-Tuning and Linguistic Competence
- Federica Merendi, Felice Dell’Orletta, Giulia Venturi
- TLDR: Wir zeigen, wie viele sprachliche Phänomene während des Fine-Tunings verschoben werden, und zeigen, dass die Sprachkenntnisse von NLM-Modellen die Lösung einer sprachenbasierten Aufgabe erklären.
- LayerConnect: Hypernetwork-Assisted Inter-Layer Connector to Enhance Parameter Efficiency
- Haoxiang Shi, Rongsheng Zhang, Jiaan Wang, Cen Wang, Yinhe Zheng, Tetsuya Sakai
- TLDR: Wir schlagen LayerConnect vor, um die Inferenzeffizientkeit von Sprachmodellen zu verbessern.
- Effect of Post-processing on Contextualized Word Representations
- Hassan Sajjad, Firoj Alam, Fahim Dalvi, Nadir Durrani
- TLDR: Wir stellen fest, dass das Post-Processing für kontextualisierte Einbettungen nützlich ist.
- Does BERT Rediscover a Classical NLP Pipeline?
- Jingcheng Niu, Wenjie Lu, Gerald Penn
- TLDR: Wir stellen eine neue Probe vor, die die Struktur von BERT erfasst und die Möglichkeit nutzt, die Tiefe zu erklären.
- HG2Vec: Improved Word Embeddings from Dictionary and Thesaurus Based Heterogeneous Graph
- Qitong Wang, Mohammed J Zaki
- TLDR: Wir schlagen ein neues Modell vor, HG2Vec, das Worteinbettungen lernt, indem nur Wörterbücher und thesauri verwendet werden.
- Transferring Knowledge from Structure-aware Self-attention Language Model to Sequence-to-Sequence Semantic Parsing
- Ran Ji, Jianmin Ji
- TLDR: Wir schlagen ein strukturiertes Sprachmodell vor, das die Strukturen von Zielrepräsentationen erfasst und einen Wissensdestillation-Ansatz für die Verwendung von Seq2seq-Modellen in neuronale Seq2seq-Modelle vor.
- Enhancing Contextual Word Representations Using Embedding of Neighboring Entities in Knowledge Graphs
- Ryoko Tokuhisa, Keisuke Kawano, Akihiro Nakamura, Satoshi Koide
- TLDR: Wir schlagen KG-attention vor, eine neue Methode zur Integration von PLMs in Knowledge Graphen.
- Generic Overgeneralization in Pre-trained Language Models
- Sello Ralethe, Jan Buys
- TLDR: Wir stellen fest, dass die Generierung von Generalisierungsverzerrungen in Sprachmodellen zu einer Übergeneralisierung führt.
- How about Time? Probing a Multilingual Language Model for Temporal Relations
- Tommaso Caselli, Irene Dini, Felice Dell’Orletta
- TLDR: Wir stellen eine umfassende Reihe von Proben vor, die auf einem Multilingual-Modell, XLM-R, für die temporale Beziehungsklassifikation zwischen Ereignissen in vier Sprachen durchgeführt wurden.
- CogBERT: Cognition-Guided Pre-trained Language Models
- Xiao Ding, Bowen Chen, Li Du, Bing Qin, Ting Liu
- TLDR: Wir schlagen CogBERT vor, einen Rahmen, der fine-grained kognitive Merkmale aus kognitiven Daten in BERT integrieren kann und gleichzeitig die Sprachverständnisseinbettung verbessert.
- Can Transformers Process Recursive Nested Constructions, Like Humans?
- Yair Lakretz, Théo Desbordes, Dieuwke Hupkes, Stanislas Dehaene
- TLDR: Wir zeigen, dass Transformer-LMs auf lange Zeitinterferenz-Architekturen gut funktionieren.
- NSP-BERT: A Prompt-based Few-Shot Learner through an Original Pre-training Task —— Next Sentence Prediction
- Yi Sun, Yu Zheng, Chao Hao, Hangping Qiu
- TLDR: Wir stellen eine BERT-basierte Methode vor, die auf Satzebene auf promptbasierte Weise eine Aufgabe zur Bestimmung von Schlussfolgerungen und zur Sprachklassifikation von Texten erledigt.
- MetaPrompting: Learning to Learn Better Prompts
- Yutai Hou, Hongyuan Dong, Xinghao Wang, Bohan Li, Wanxiang Che
- TLDR: Wir schlagen MetaPrompting vor, eine Meta-Lernen-Methode, die automatisch eine bessere Prompting-Initialisierung findet, die die Anpassung von Prompting-Aufgaben ermöglicht.
- Parameter-Efficient Mixture-of-Experts Architecture for Pre-trained Language Models
- Ze-Feng Gao, Peiyu Liu, Wayne Xin Zhao, Zhong-Yi Lu, Ji-Rong Wen
- TLDR: Wir schlagen eine Methode vor, die die Optimierung von Sprachmodellen durch die Verteilung von Tensoren ermöglicht.
- Pre-trained Token-replaced Detection Model as Few-shot Learner
- Zicheng Li, Shoushan Li, Guodong Zhou
- TLDR: Wir schlagen einen neuartigen Ansatz für das Lernen von wenigen Bildern vor, der auf maskierte Sprachmodelle trainiert wurde.
- Evaluating Diversity of Multiword Expressions in Annotated Text
- Adam Lion-Bouton, Yagmur Ozturk, Agata Savary, Jean-Yves Antoine
- TLDR: Wir schlagen eine neue Methode zur Bewertung der Vielfalt und der Verzerrung von Texten vor, die von automatischen Annotationssystemen erstellt wurden.
- CausalQA: A Benchmark for Causal Question Answering
- Alexander Bondarenko, Magdalena Wolska, Stefan Heindorf, Lukas Blübaum, Axel-Cyrille Ngonga Ngomo, Benno Stein, Pavel Braslavski, Matthias Hagen, Martin Potthast
- TLDR: Wir stellen Webis-CausalQA-22 vor, eine Sammlung von 1.1 Millionen von Fragen mit Antworten.
- MACRONYM: A Large-Scale Dataset for Multilingual and Multi-Domain Acronym Extraction
- Amir Pouran Ben Veyseh, Nicole Meister, Seunghyun Yoon, Rajiv Jain, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Wir schlagen einen neuen Datensatz für die Erkennung von Acronymen vor, der auf mehreren Sprachen und Domänen verwendet werden kann.
- Curating a Large-Scale Motivational Interviewing Dataset Using Peer Support Forums
- Anuradha Welivita, Pearl Pu
- TLDR: Wir analysieren, inwieweit die Antworten von therapeutischen Chatbots mit den Gesprächen von gemeinernden CouchCouch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Couch-Co
- CCTC: A Cross-Sentence Chinese Text Correction Dataset for Native Speakers
- Baoxin Wang, Xingyi Duan, Dayong Wu, Wanxiang Che, Zhigang Chen, Guoping Hu
- TLDR: Wir schlagen einen neuen Datensatz zur Texterfüllung vor, der auf Texten von nicht-nativen Sprachgehörern verwendet werden kann.
- RealMedDial: A Real Telemedical Dialogue Dataset Collected from Online Chinese Short-Video Clips
- Bo Xu, Hongtong Zhang, Jian Wang, Xiaokun Zhang, Dezhi Hao, Linlin Zong, Hongfei Lin, Fenglong Ma
- TLDR: Wir stellen RealMedDial vor, einen Datensatz für medizinische Gespräche und eine Meta-Datenbank mit medizinischer Beantwortung.
- TempoWiC: An Evaluation Benchmark for Detecting Meaning Shift in Social Media
- Daniel Loureiro, Aminette D’Souza, Areej Nasser Muhajab, Isabella A. White, Gabriel Wong, Luis Espinosa-Anke, Leonardo Neves, Francesco Barbieri, Jose Camacho-Collados
- TLDR: Wir stellen TempoWiC vor, einen neuen Benchmark für NLP, der auf soziale Netzwerke spezialisiert ist.
- Automatic Generation of Large-scale Multi-turn Dialogues from Reddit
- Daniil Huryn, William M. Hutsell, Jinho D. Choi
- TLDR: Wir stellen eine neue Methode vor, die automatische Multi-Turn-Kommunikationen aus Reddit erzeugt, die die Sprachmodelle von Reddit verbessern können.
- ConFiguRe: Exploring Discourse-level Chinese Figures of Speech
- Dawei Zhu, Qiusi Zhan, Zhejian Zhou, Yifan Song, Jiebin Zhang, Sujian Li
- TLDR: Wir schlagen einen neuen Ansatz vor, um eine figurative Einheit aus sprachenähnlichen Kontexten zu extrahieren und eine Bildtyp-Klassifikation und eine Bilderkennung zu lösen.
- Twitter Topic Classification
- Dimosthenis Antypas, Asahi Ushio, Jose Camacho-Collados, Vitor Silva, Leonardo Neves, Francesco Barbieri
- TLDR: Wir stellen eine Aufgabe vor, die auf der Klassifizierung von Themen in sozialen Netzwerken basiert und veröffentlichen zwei Datensätze.
- Layer or Representation Space: What Makes BERT-based Evaluation Metrics Robust?
- Doan Nam Long Vu, Nafise Sadat Moosavi, Steffen Eger
- TLDR: Wir zeigen, dass BERTScore eine embedding-basierte Bewertungsmetrik für die Texterzeugung ist, die die meisten Verzerrungen mit menschlichen Bewertungen aufweist.
- Evaluating the Performance of Transformer-based Language Models for Neuroatypical Language
- Duanchen Liu, Zoey Liu, Qingyun Yang, Yujing Huang, Emily Prud’hommeaux
- TLDR: Wir schlagen einen Transformator-basierten Rahmen vor, um sprachliche Merkmale mit sozialen Aspekten der Kommunikation zu identifizieren.
- TERMinator: A System for Scientific Texts Processing
- Elena Bruches, Olga Tikhobaeva, Yana Dementyeva, Tatiana Batura
- TLDR: Wir stellen einen Datensatz vor, der annotierte Wörterbücher enthält und einen TERMinator für die Spracherkennung und Vergleich von verschiedenen Ansätzen für die Erfassung von Entitäten und Semantikverzerrungen.
- LipKey: A Large-Scale News Dataset for Absent Keyphrases Generation and Abstractive Summarization
- Fajri Koto, Timothy Baldwin, Jey Han Lau
- TLDR: Wir stellen LipKey vor, eine große Sammlung von Texten mit abstrakten Zusammenfassungen, fehlenden Schlüsselphrasen und Etiketten.
- Understanding Attention for Vision-and-Language Tasks
- Feiqi Cao, Soyeon Caren Han, Siqu Long, Changwei Xu, Josiah Poon
- TLDR: Wir analysieren, wie Aufmerksamkeitsscores für die Aufmerksamkeitsausgleichung verwendet werden können, um die Bedeutung visueller und sprachlicher Merkmale für die globale Bewertung zu erklären.
- Effective Data Augmentation for Sentence Classification Using One VAE per Class
- Frédéric Piedboeuf, Philippe Langlais
- TLDR: Wir verwenden Conditional-VAE, um Texterzeugungen mit einer Klasse von Klassen zu erstellen.
- NLG-Metricverse: An End-to-End Library for Evaluating Natural Language Generation
- Giacomo Frisoni, Antonella Carbonaro, Gianluca Moro, Andrea Zammarchi, Marco Avagnano
- TLDR: Wir stellen eine Bibliothek von Metriken vor, die die Bewertung von NLG-Modellen in einer unified und leichten Umgebung ermöglicht.
- TestAug: A Framework for Augmenting Capability-based NLP Tests
- Guanqun Yang, Mirazul Haque, Qiaochu Song, Wei Yang, Xueqing Liu
- TLDR: Wir stellen einen neuen Ansatz vor, der die Erzeugung von Tests aus einer einzigen Testumgebung reduziert und die Fehlererkennung mit einem validen Verzerrungsbeweis ermöglicht.
- KoCHET: A Korean Cultural Heritage Corpus for Entity-related Tasks
- Gyeongmin Kim, Jinsung Kim, Junyoung Son, Heuiseok Lim
- TLDR: Wir schlagen KoCHET vor, einen Korpus für Entitätserkennung, Entitätstypierung und Entitätsidentifikation.
- MonoByte: A Pool of Monolingual Byte-level Language Models
- Hugo Abonizio, Leandro Rodrigues de Souza, Roberto Lotufo, Rodrigo Nogueira
- TLDR: Wir stellen 10 BERT-Modelle vor, die auf mehreren Sprachen mit unterschiedlichen Sprachstilen trainiert wurden, und zeigen, dass sie eine bessere Leistung als die von SOTA-Modellen erzielen.
- Wizard of Tasks: A Novel Conversational Dataset for Solving Real-World Tasks in Conversational Settings
- Jason Ingyu Choi, Saar Kuzi, Nikhita Vedula, Jie Zhao, Giuseppe Castellucci, Marcus Collins, Shervin Malmasi, Oleg Rokhlenko, Eugene Agichtein
- TLDR: Wir stellen Wizards of Tasks vor, eine Sammlung von Gesprächen, die in zwei Bereiche von Küche und Hausaufbau durchgeführt werden.
- K-MHaS: A Multi-label Hate Speech Detection Dataset in Korean Online News Comment
- Jean Lee, Taejun Lim, Heejun Lee, Bogeun Jo, Yangsok Kim, Heegeun Yoon, Soyeon Caren Han
- TLDR: Wir stellen einen neuen Multi-Label-Datensätzen für die Erkennung von gegnerischen Sätzen vor und stellen eine neue Methode zur Spracherkennung vor, die effektiv ist.
- Domain- and Task-Adaptation for VaccinChatNL, a Dutch COVID-19 FAQ Answering Corpus and Classification Model
- Jeska Buhmann, Maxime De Bruyn, Ehsan Lotfi, Walter Daelemans
- TLDR: Wir stellen VaccinChatNL vor, einen FAQ-Klangsatz auf der Grundlage der COVID-19-Vaccination.
- Benchmarking Automated Clinical Language Simplification: Dataset, Algorithm, and Evaluation
- Junyu Luo, Junxian Lin, Chi Lin, Cao Xiao, Xinning Gui, Fenglong Ma
- TLDR: Wir schlagen ein neues Modell vor, das die Sprachkomplexierung von Arztpraxen automatisiert und die Verbesserung von Sprachverständnissen in der medizinischen Praxis ermöglicht.
- WikiHan: A New Comparative Dataset for Chinese Languages
- Kalvin Chang, Chenxuan Cui, Youngmin Kim, David R. Mortensen
- TLDR: Wir stellen einen Datensatz von Sprachvarianten vor, der auf der einheitlichen Phonetik-Architektur von IPA basiert.
- Visual Recipe Flow: A Dataset for Learning Visual State Changes of Objects with Recipe Flows
- Keisuke Shirai, Atsushi Hashimoto, Taichi Nishimura, Hirotaka Kameko, Shuhei Kurita, Yoshitaka Ushiku, Shinsuke Mori
- TLDR: Wir stellen einen neuen Multimodal-Datensätzen vor, der es uns ermöglicht, eine Koch-Aktion für jede Objekte in einem Rezept zu erlernen.
- IMPARA: Impact-Based Metric for GEC Using Parallel Data
- Koki Maeda, Masahiro Kaneko, Naoaki Okazaki
- TLDR: Wir schlagen IMPARA vor, eine Metrik für die Bewertung von Grammatikfehlern, die parallele Daten verwendet.
- Evons: A Dataset for Fake and Real News Virality Analysis and Prediction
- Kriste Krstovski, Angela Soomin Ryu, Bruce Kogut
- TLDR: Wir stellen eine neuartige Sammlung von Nachrichtenartikeln vor, die von fake und realen Nachrichtenquellen stammen, und verwenden sie zur Vorhersage und Analyse von Nachrichtenverfälschungen.
- Are Pretrained Multilingual Models Equally Fair across Languages?
- Laura Cabello Piqueras, Anders Søgaard
- TLDR: Wir stellen eine neue Studie vor, die die Fairness von Multilingual Modellen untersucht.
- Possible Stories: Evaluating Situated Commonsense Reasoning under Multiple Possible Scenarios
- Mana Ashida, Saku Sugawara
- TLDR: Wir stellen einen neuen Datensatz für die Erkennung von situativen Grundwahrnehmungsausdrücken vor, der über mehrere Szenarien hinweg beantwortet werden kann.
- DiaBiz.Kom - towards a Polish Dialogue Act Corpus Based on ISO 24617-2 Standard
- Marcin Oleksy, Jan Wieczorek, Dorota Drużyłowska, Julia Klyus, Aleksandra Domogała, Krzysztof Hwaszcz, Hanna Kędzierska, Daria Mikoś, Anita Wróż
- TLDR: Wir stellen DiaBiz.Kom vor, einen Korpus von Gesprächsprotokollen in der Polish.
- Towards Explainable Evaluation of Language Models on the Semantic Similarity of Visual Concepts
- Maria Lymperaiou, George Manoliadis, Orfeas Menis Mastromichalakis, Edmund G. Dervakos, Giorgos Stamou
- TLDR: Wir schlagen eine metrische Bewertungsmetrik vor, die die Qualität von Rechnern und die Komplexität von Rechnern erklären kann.
- Establishing Annotation Quality in Multi-label Annotations
- Marian Marchal, Merel Scholman, Frances Yung, Vera Demberg
- TLDR: Wir stellen eine Bootstrapped-Methode vor, die die Wahrscheinlichkeiten für die Erstellung von Annäherungsverschlüsselungen erhöht.
- Biographically Relevant Tweets – a New Dataset, Linguistic Analysis and Classification Experiments
- Michael Wiegand, Rebecca Wilm, Katja Markert
- TLDR: Wir stellen einen neuen Datensatz mit mehreren Twitter-Twettern vor, der die Erkennung biographisch relevanter Eingaben ermöglicht.
- BECEL: Benchmark for Consistency Evaluation of Language Models
- Myeongjun Jang, Deuk Sin Kwon, Thomas Lukasiewicz
- TLDR: Wir schlagen eine Methode vor, die auf der Behavioural consistency basiert und eine neue Benchmark-Architektur für Sprachmodelle erstellt.
- KoBEST: Korean Balanced Evaluation of Significant Tasks
- Myeongjun Jang, Dohyung Kim, Deuk Sin Kwon, Eric Davis
- TLDR: Wir stellen eine neue Benchmark-Architektur vor, die eine Korean-Linguistik nutzt, um die Bewertung von Sprachmodellen zu erleichtern.
- A New Public Corpus for Clinical Section Identification: MedSecId
- Paul Landes, Kunal Patel, Sean S. Huang, Adam Webb, Barbara Di Eugenio, Cornelia Caragea
- TLDR: Wir stellen MedSecId vor, eine vollständig annotierte medizinische Notiz aus MIMIC-III.
- A Data-driven Approach to Named Entity Recognition for Early Modern French
- Pedro Ortiz Suarez, Simon Gabay
- TLDR: Wir stellen eine neue Sammlung von Texten vor, die auf die Zeit des Mittelalters und des modernen French abhängt.
- Reproducibility and Automation of the Appraisal Taxonomy
- Pradeesh Parameswaran, Andrew Trotman, Veronica Liesaputra, David Eyers
- TLDR: Wir haben eine empirische Bewertung von Automatisierungsmethoden zur Klassifizierung von Appraisal-Kategorien vorgeschlagen und die Ergebnisse analysiert.
- Few-Shot Table Understanding: A Benchmark Dataset and Pre-Training Baseline
- Ruixue Liu, Shaozu Yuan, Aijun Dai, Lei Shen, Tiangang Zhu, Meng Chen, Xiaodong He
- TLDR: Wir stellen FewTPT vor, eine neuartige PLM mit richten Interaktionen über tabellarischen Daten.
- Tafsir Dataset: A Novel Multi-Task Benchmark for Named Entity Recognition and Topic Modeling in Classical Arabic Literature
- Sajawel Ahmed, Rob van der Goot, Misbahur Rehman, Carl Kruse, Ömer Özsoy, Alexander Mehler, Gemma Roig
- TLDR: Wir stellen einen neuen Datensatz für die Klassifizierung und Themenmodellierung von Texten vor, der mit aktuellen Sprachmodellen kompatibel ist.
- Resource of Wikipedias in 31 Languages Categorized into Fine-Grained Named Entities
- Satoshi Sekine, Kouta Nakayama, Masako Nomoto, Maya Ando, Asuka Sumida, Koji Matsuda
- TLDR: Wir stellen eine Sammlung von Wikipedia-Seiten in 31 Sprachen vor, die in einer neuen Named Entity (ENE) kategorisiert sind.
- Accuracy meets Diversity in a News Recommender System
- Shaina Raza, Syed Raza Bashir, Usman Naseem
- TLDR: Wir schlagen eine zweistufige Architektur vor, die die Nachrichtenrepräsentation durch einen News-Eigenschaften-Baum erlernt und die Informationen in einer News-Eigenschaften-Baum einbettet.
- Dynamic Nonlinear Mixup with Distance-based Sample Selection
- Shaokang Zhang, Lei Jiang, Jianlong Tan
- TLDR: Wir schlagen einen dynamischen, nichtlinearen Mixup vor, der die Anzahl der Stichproben für die Stichprobenauswahl optimiert.
- MultiCoNER: A Large-scale Multilingual Dataset for Complex Named Entity Recognition
- Shervin Malmasi, Anjie Fang, Besnik Fetahu, Sudipta Kar, Oleg Rokhlenko
- TLDR: Wir stellen AnonData vor, einen groß angelegten Multilingual Datensatz für Named Entity Recognition, der 3 Domänen (Wiki Sätze, Fragen und Suchbewerbungen) über 11 Sprachen erfasst.
- Extracting a Knowledge Base of COVID-19 Events from Social Media
- Shi Zong, Ashutosh Baheti, Wei Xu, Alan Ritter
- TLDR: Wir stellen eine automatische Sammlung von tweets vor, die von COVID-19-Ereignissen berichten, einschließlich positiver und negativer Tests, Verhinderungen, Verurteilungen und Garantien.
- Accounting for Language Effect in the Evaluation of Cross-lingual AMR Parsers
- Shira Wein, Nathan Schneider
- TLDR: Wir vergleichen die Leistung von sprachenübergreifenden AMR-Parsern mit den gold-English-Parsern und stellen fest, dass S2match (XS2match) für die Bewertung von sprachenübergreifenden AMRs geeignet ist.
- QSTS: A Question-Sensitive Text Similarity Measure for Question Generation
- Sujatha Das Gollapalli, See-Kiong Ng
- TLDR: Wir schlagen eine neuartige Question-Sensitive Text-Sampling-Methode vor, die die Zielerklärung von Fragen berücksichtigt und die Bewertung von QG-Modellen verbessert.
- Noun-MWP: Math Word Problems Meet Noun Answers
- Taehun Cha, Jaeheun Jung, Donghun Lee
- TLDR: Wir stellen eine neue Methode vor, um Noun-MWPs zu lösen, und wenden sie auf EPT auf.
- ViNLI: A Vietnamese Corpus for Studies on Open-Domain Natural Language Inference
- Tin Van Huynh, Kiet Van Nguyen, Ngan Luu-Thuy Nguyen
- TLDR: Wir stellen ein corpus für die Erfassung und Bewertung von Vietnamesisch-Linguistiken vor, das aus mehr als 800 Online-Artikeln extrahiert wurden.
- InferES : A Natural Language Inference Corpus for Spanish Featuring Negation-Based Contrastive and Adversarial Examples
- Venelin Kovatchev, Mariona Taulé
- TLDR: Wir stellen InferES vor, einen originalen Korpus für die Natural Language Inference in European Spanish.
- ParaZh-22M: A Large-Scale Chinese Parabank via Machine Translation
- Wenjie Hao, Hongfei Xu, Deyi Xiong, Hongying Zan, Lingling Mu
- TLDR: Wir stellen ParaZh-22M vor, eine größere Chinesenparabank, die 22M Satzpaare enthält, auf einer One-to-One-Transferdaten- und einer maschinellen Übersetzungsdaten-Architektur basiert.
- ESimCSE: Enhanced Sample Building Method for Contrastive Learning of Unsupervised Sentence Embedding
- Xing Wu, Chaochen Gao, Liangjun Zang, Jizhong Han, Zhongyuan Wang, Songlin Hu
- TLDR: Wir schlagen eine neue Methode zur Verbesserung der Satzeinbettung vor, die auf der Verwendung von Positionsbeschriftungen basiert.
- Measuring Robustness for NLP
- Yu Yu, Abdul Rafae Khan, Jia Xu
- TLDR: Wir verwenden Minimax-Methoden, um die Robustheit von NLP-Modellen zu bewerten.
- CSL: A Large-scale Chinese Scientific Literature Dataset
- Yudong Li, Yuqing Zhang, Zhe Zhao, Linlin Shen, Weijie Liu, Weiquan Mao, Hui Zhang
- TLDR: Wir stellen CSL vor, einen großen Datensatz für die Forschung in Chinesisch, der die wichtigsten Dokumente enthält.
- Singlish Message Paraphrasing: A Joint Task of Creole Translation and Text Normalization
- Zhengyuan Liu, Shikang Ni, Ai Ti Aw, Nancy F. Chen
- TLDR: Wir stellen eine gemeinsame Paraphrasing- und Textnormierungsaufgabe vor, die die Erfassung und die Texterweiterung von Singlish- und Standard-E-Mails ermöglicht.
- CINO: A Chinese Minority Pre-trained Language Model
- Ziqing Yang, Zihang Xu, Yiming Cui, Baoxin Wang, Min Lin, Dayong Wu, Zhigang Chen
- TLDR: Wir schlagen CINO vor, ein mehrsprachiges, vortrainiertes Sprachmodell für ethnische Minderheiten.
- One Word, Two Sides: Traces of Stance in Contextualized Word Representations
- Aina Garí Soler, Matthieu Labeau, Chloé Clavel
- TLDR: Wir zeigen, dass die Verwendung von BERT-Einbettungen die Wahrnehmung von Menschen in Bezug auf die Bestimmung von Tieren beeinflusst.
- Prepositions Matter in Quantifier Scope Disambiguation
- Aleksander Leczkowski, Justyna Grudzińska, Manuel Vargas Guzmán, Aleksander Wawer, Aleksandra Siemieniuk
- TLDR: Wir verwenden ein räumlich-sprachiges corpus, das von Experten erstellt wurde, um die Weltwisse zu integrieren.
- Modelling Commonsense Properties Using Pre-Trained Bi-Encoders
- Amit Gajbhiye, Luis Espinosa-Anke, Steven Schockaert
- TLDR: Wir stellen eine neue Methode zur Entflechtung von Konzepten vor, die die Wahrnehmungseigenschaften von Konzepten und ihren Eigenschaften modellieren.
- COIN – an Inexpensive and Strong Baseline for Predicting Out of Vocabulary Word Embeddings
- Andrew Schneider, Lihong He, Zhijia Chen, Arjun Mukherjee, Eduard Dragut
- TLDR: Wir schlagen eine schnelle Methode vor, die auf Wörtervektoren für Wörter mit unbekannten Kontexten basiert und die Ergebnisse bei der Wortvektorvorhersage übertrifft.
- DynGL-SDP: Dynamic Graph Learning for Semantic Dependency Parsing
- Bin Li, Miao Gao, Yunlong Fan, Yikemaiti Sataer, Zhiqiang Gao, Yaocheng Gui
- TLDR: Wir schlagen einen dynamischen Graphen-Lernen-Rahmen vor, um Graphenstrukturen und Graphenrepräsentationen gemeinsam zu lernen.
- Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion
- Chen Chen, Yufei Wang, Bing Li, Kwok-Yan Lam
- TLDR: Wir schlagen KG-S2S vor, ein Seq2Seq generatives Framework, das verschiedene sprachliche Graphenstrukturen effektiv angehen kann.
- Modelling Frequency, Attestation, and Corpus-Based Information with OntoLex-FrAC
- Christian Chiarcos, Elena-Simona Apostol, Besim Kabashi, Ciprian-Octavian Truică
- TLDR: Wir stellen ein neues OntoLex-Modul für Frequenz, Attestations und Corpus-basierte Information vor, das auf die Verwendung von corpora-basierter Informationen erweitert wird.
- Contrast Sets for Stativity of English Verbs in Context
- Daniel Chen, Alexis Palmer
- TLDR: Wir stellen kontrastive Paare vor, die sich auf die Klassifizierung von Verbenen in Kontexten gut verallgemeinert eignen.
- Multilingual and Multimodal Topic Modelling with Pretrained Embeddings
- Elaine Zosa, Lidia Pivovarova
- TLDR: Wir stellen M3L-Contrast vor, ein neuronales Themenmodell für vergleichbare Daten, das Texten aus mehreren Sprachen und Bildern in einen gemeinsamen Themenraum umwandelt.
- Zero-shot Script Parsing
- Fangzhou Zhai, Vera Demberg, Alexander Koller
- TLDR: Wir schlagen einen Zero-Shot Learning Ansatz vor, um das Wissen zu nutzen, das in einer Vielzahl von NLP-Aufgaben benötigt wird.
- Word Sense Disambiguation with Knowledge-Enhanced and Local Self-Attention-based Extractive Sense Comprehension
- Guobiao Zhang, Wenpeng Lu, Xueping Peng, Shoujin Wang, Baoshuo Kan, Rui Yu
- TLDR: Wir schlagen eine neuartige Methode zur Erweiterung der Semantik vor, die die Bedeutung von Wörtern mit Hilfe von Beispielen und Definitionen für die Verwirrung von Sinnen ersetzt.
- A Novel Multi-Task Learning Approach for Context-Sensitive Compound Type Identification in Sanskrit
- Jivnesh Sandhan, Ashish Gupta, Hrishikesh Terdalkar, Tushar Sandhan, Suvendu Samanta, Laxmidhar Behera, Pawan Goyal
- TLDR: Wir schlagen eine neue Multi-Task-Architektur vor, die die kontextuellen und syntaktischen Informationen der einzelnen Bestandteile des Wortes kombiniert und so die Syntax-Informationen erweitert.
- Testing Large Language Models on Compositionality and Inference with Phrase-Level Adjective-Noun Entailment
- Lorenzo Bertolini, Julie Weeds, David Weir
- TLDR: Wir stellen PLANE vor, einen benchmark für LLMs, die auf kompositorischen Entflechtungsmerkmalen trainiert werden.
- Does BERT Recognize an Agent? Modeling Dowty’s Proto-Roles with Contextual Embeddings
- Mattia Proietti, Gianluca Lebani, Alessandro Lenci
- TLDR: Wir stellen fest, dass BERT die semantischen Eigenschaften von Verbenen in einer kontextuellen Einbettung erzeugt, die von der Ereignisbeschreibung abgeleitet werden.
- Towards Structure-aware Paraphrase Identification with Phrase Alignment Using Sentence Encoders
- Qiwei Peng, David Weir, Julie Weeds
- TLDR: Wir schlagen eine neue Methode vor, um die Syntax von Satzentkopplungsmodellen zu nutzen, die auf der Suche nach Paraphrasen auf Satzebene sind.
- CILex: An Investigation of Context Information for Lexical Substitution Methods
- Sandaru Seneviratne, Elena Daskalaki, Artem Lenskiy, Hanna Suominen
- TLDR: Wir haben eine neue Methode zur lexikalischen Verwechslung vorgeschlagen, die kontextuale Worteinbettungen nutzt, um die Semantik von Verwechwünschungen mit den Zielworten zu erhalten.
- Emotion Enriched Retrofitted Word Embeddings
- Sapan Shah, Sreedhar Reddy, Pushpak Bhattacharyya
- TLDR: Wir stellen eine neuartige Methode vor, um Emotionen in tiefen Clustern zu erfassen und zu interpretieren.
- Metaphor Detection via Linguistics Enhanced Siamese Network
- Shenglong Zhang, Ying Liu
- TLDR: Wir stellen MisNet vor, ein neuartiges Modell für Metaphorenerkennung.
- Fast and Accurate End-to-End Span-based Semantic Role Labeling as Word-based Graph Parsing
- Shilin Zhou, Qingrong Xia, Zhenghua Li, Yu Zhang, Yu Hong, Min Zhang
- TLDR: Wir schlagen einen rekurrenten Rahmen vor, um Worteinbettungen auf graphen zu parsen.
- Unsupervised Lexical Substitution with Decontextualised Embeddings
- Takashi Wada, Timothy Baldwin, Yuji Matsumoto, Jey Han Lau
- TLDR: Wir schlagen eine neue unüberwachte Methode zur lexikalischen Verwechwächung vor, die auf Vorkenntnisse von sprachmodellen basiert.
- Transparent Semantic Parsing with Universal Dependencies Using Graph Transformations
- Wessel Poelman, Rik van Noord, Johan Bos
- TLDR: Wir stellen eine Methode vor, die eine syntaktische Abhängigkeitsrepräsentation von einer formalen Bedeutung repräsentiert.
- Multilingual Word Sense Disambiguation with Unified Sense Representation
- Ying Su, Hongming Zhang, Yangqiu Song, Tong Zhang
- TLDR: Wir schlagen Wissen und auf supervised-Basis Multilingual Word Sense Disambiguation (MWSD) vor, um das Problem der Annotationsschwächzigkeit für die Sprachauswahl zu lösen.
- A Transition-based Method for Complex Question Understanding
- Yu Xia, Wenbin Jiang, Yajuan Lyu, Sujian Li
- TLDR: Wir schlagen eine transition-basierte Methode vor, die die QDMR als einen graphen bezeichnet.
- Semantic Role Labeling as Dependency Parsing: Exploring Latent Tree Structures inside Arguments
- Yu Zhang, Qingrong Xia, Shilin Zhou, Yong Jiang, Guohong Fu, Min Zhang
- TLDR: Wir schlagen eine neue Methode vor, die die Verwendung von Spannen in den Satzverlauf integriert und die Verwendung von TreeCRF für die zweite Ordnung erweitert.
- Noisy Label Regularisation for Textual Regression
- Yuxia Wang, Timothy Baldwin, Karin Verspoor
- TLDR: Wir schlagen eine einfache Methode vor, die die Verbreitung von Fehlermeldungen aus der Eingangsschicht verhindert.
- Detecting Suicide Risk in Online Counseling Services: A Study in a Low-Resource Language
- Amir Bialer, Daniel Izmaylov, Avi Segal, Oren Tsur, Yossi Levi-Belz, Kobi Gal
- TLDR: Wir schlagen ein Modell vor, das eine automatische Erkennung von Suizidrisiko in Sprachmodellen kombiniert.
- Does Meta-learning Help mBERT for Few-shot Question Generation in a Cross-lingual Transfer Setting for Indic Languages?
- Aniruddha Roy, Rupak Kumar Thakur, Isha Sharma, Ashim Gupta, Amrith Krishna, Sudeshna Sarkar, Pawan Goyal
- TLDR: Wir verwenden das BERT-Modell als Basis für die QG und stellen fest, dass die Implementierung eines Meta-Lernens die Leistung von BERT erheblich verbessert.
- Revisiting Syllables in Language Modelling and Their Application on Low-Resource Machine Translation
- Arturo Oncevay, Kervy Dante Rivas Rojas, Liz Karen Chavez Sanchez, Roberto Zariquiey
- TLDR: Wir zeigen, dass die Verwendung von Wörtern und Phrasen für die Sprachmodellierung von Vorteil ist.
- Aligning Multilingual Embeddings for Improved Code-switched Natural Language Understanding
- Barah Fazili, Preethi Jyothi
- TLDR: Wir stellen eine neue Idee vor, die die Einbeziehung von parallelen Texten in die Einbettung von Sprachmodellen ermöglicht, um sprachenübergreifende Aufgaben zu lösen.
- Fashioning Local Designs from Generic Speech Technologies in an Australian Aboriginal Community
- Éric Le Ferrand, Steven Bird, Laurent Besacier
- TLDR: Wir schlagen eine Spracherkennungstechnik vor, die Aborigines in einer Abspracheerkennungsaktivität integrieren kann.
- Few-Shot Pidgin Text Adaptation via Contrastive Fine-Tuning
- Ernie Chang, Jesujoba O. Alabi, David Ifeoluwa Adelani, Vera Demberg
- TLDR: Wir verwenden BART, um Sprachaussagen in Pidgin zu generieren.
- Penalizing Divergence: Multi-Parallel Translation for Low-Resource Languages of North America
- Garrett Nicolai, Changbing Yang, Miikka Silfverberg
- TLDR: Wir stellen eine Regularisiererstrafe vor, die die Verzerrung von Sprachmodellen in divergent Weisen penalisiert.
- Assessing Digital Language Support on a Global Scale
- Gary F. Simons, Abbey L. L. Thomas, Chad K. K. White
- TLDR: Wir haben eine automatisierte Bewertungsmethode zur Bewertung von Sprachausreißern vorgeschlagen, die auf der Suche nach einer neuen Sprache sind.
- Persian Natural Language Inference: A Meta-learning Approach
- Heydar Soudani, Mohammad Hassan Mojab, Hamid Beigy
- TLDR: Wir schlagen einen Meta-Lernansatz vor, um die Inferenz von natürlicher Sprache in Persian zu erleichtern.
- Global Readiness of Language Technology for Healthcare: What Would It Take to Combat the Next Pandemic?
- Ishani Mondal, Kabir Ahuja, Mohit Jain, Jacki O’Neill, Kalika Bali, Monojit Choudhury
- TLDR: Wir stellen fest, dass die Sprachtechnologie für die Behandlung von Krankheiten in vielen Sprachen, insbesondere für die Sprachausbreitung, nicht ausreichend ist.
- Adapting Pre-trained Language Models to African Languages via Multilingual Adaptive Fine-Tuning
- Jesujoba O. Alabi, David Ifeoluwa Adelani, Marius Mosbach, Dietrich Klakow
- TLDR: Wir stellen eine Methode zur Sprachanpassung vor, die auf die Sprachausnutzung von sprachen mit mehreren Sprachmodellen angewendet werden kann.
- Noun Class Disambiguation in Runyankore and Related Languages
- Joan Byamugisha
- TLDR: Wir haben eine Syntax- und eine Semantik-Methode zur Ableitung von Klassen von Bezeichnungen verwendet, um die Einschränkungen bei der Erfassung von Bezeichnungen zu überwinden.
- Improving Low-resource RRG Parsing with Cross-lingual Self-training
- Kilian Evang, Laura Kallmeyer, Jakub Waszczuk, Kilu von Prince, Tatiana Bladier, Simon Petitjean
- TLDR: Wir schlagen eine neue Methode zum Parsing von Sprachfamilien vor, die auf der Verwendung von Role- und Reference Grammar basiert.
- A Simple and Effective Method to Improve Zero-Shot Cross-Lingual Transfer Learning
- Kunbo Ding, Weijie Liu, Yuejian Fang, Weiquan Mao, Zhe Zhao, Tao Zhu, Haoyan Liu, Rong Tian, Yiren Chen
- TLDR: Wir schlagen eine Methode zur Sprachübertragung vor, die auf der Zero-Shot-Methode basiert und die Multilingual Alignmentation verbessert.
- Towards Multi-Sense Cross-Lingual Alignment of Contextual Embeddings
- Linlin Liu, Thien Hai Nguyen, Shafiq Joty, Lidong Bing, Luo Si
- TLDR: Wir schlagen einen neuen Rahmen vor, um kontextuelle Einbettungen von sprachen zu identifizieren, indem wir einen Cross-Lingual-Speicher verwenden.
- How to Parse a Creole: When Martinican Creole Meets French
- Ludovic Mompelat, Daniel Dakota, Sandra Kübler
- TLDR: Wir analysieren Methoden zur Erstellung eines Parser für die Martinican-Crobel-Baumbank und zeigen, dass sie die Negativtransfer-Probleme lösen.
- Byte-based Multilingual NMT for Endangered Languages
- Mengjiao Zhang, Jia Xu
- TLDR: Wir schlagen ein byte-basiertes neuronales maschinelles Übersetzungsmodell vor, das die Sprachverschiebungen in unbekannten Sprachen wirksam reduziert und gleichzeitig die Übersetzungsleistung bei Sprachpaaren verbessert.
- BRCC and SentiBahasaRojak: The First Bahasa Rojak Corpus for Pretraining and Sentiment Analysis Dataset
- Nanda Putri Romadhona, Sin-En Lu, Bo-Han Lu, Richard Tzong-Han Tsai
- TLDR: Wir verwenden Datenerweiterung, um das Code-Mixing in Bahasa Rojak zu untersuchen.
- WordNet-QU: Development of a Lexical Database for Quechua Varieties
- Nelsi Melgarejo, Rodolfo Zevallos, Hector Gomez, John E. Ortega
- TLDR: Wir schlagen WordNet-QU vor, eine lexikalische Datenbank, die von Wordnet verwendet wird, um die Sprachausbreitung in Quechua zu identifizieren.
- When the Student Becomes the Master: Learning Better and Smaller Monolingual Models from mBERT
- Pranaydeep Singh, Els Lefever
- TLDR: Wir stellen einen neuen Ansatz vor, um monolinguale Modelle aus einem gemeinsam trainierten Modell zu extrahieren.
- Zero-shot Disfluency Detection for Indian Languages
- Rohit Kundu, Preethi Jyothi, Pushpak Bhattacharyya
- TLDR: Wir schlagen ein pretrained Multilingual Modell vor, das auf Englisch- und Hindi-Faltungsfehler verweist, um die Entflechtungen in Sprachrekonstruktionen zu beseitigen.
- Evaluating Word Embeddings in Extremely Under-Resourced Languages: A Case Study in Bribri
- Rolando Coto-Solano
- TLDR: Wir stellen eine empirische Studie vor, die die Funktionsweise von tiefen neuronalen Einbettungen und die Verbesserung von morphologischen und morphologischen Einbettungen in einer unterversourcenten Umgebung untersuchen.
- Applying Natural Annotation and Curriculum Learning to Named Entity Recognition for Under-Resourced Languages
- Valeriy Lobov, Alexandra Ivoylova, Serge Sharoff
- TLDR: Wir stellen eine Hypothese vor, dass die Verwendung von natürlichen Annotationen die Synthese von Trainingssets aus Ressourcen nicht initialisiert für die Zielabstiegsaufgabe ermöglicht.
- Taking Actions Separately: A Bidirectionally-Adaptive Transfer Learning Method for Low-Resource Neural Machine Translation
- Xiaolin Xing, Yu Hong, Minhan Xu, Jianmin Yao, Guodong Zhou
- TLDR: Wir stellen eine neue Methode zur Erstellung von NMT-Modellen vor, die auf der Verwendung von Eltern-Child (PC) Transfer Learning basiert.
- HCLD: A Hierarchical Framework for Zero-shot Cross-lingual Dialogue System
- Zhanyu Ma, Jian Ye, Xurui Yang, Jianfeng Liu
- TLDR: Wir schlagen einen hierarchischen Rahmen vor, um die Prädiktionen von Zielen auf Wortsebene zu kategorisieren und die slot-Faltungen auf Wortsebene zu erfüllen.
- GraDA: Graph Generative Data Augmentation for Commonsense Reasoning
- Adyasha Maharana, Mohit Bansal
- TLDR: Wir stellen GraDA vor, einen graphbasierten Rahmen für die Generierung von Fragen aus Wissensgraphen für das Verständnis von logischeren Schlussfolgerungen.
- Eureka: Neural Insight Learning for Knowledge Graph Reasoning
- Alex X. Zhang, Xun Liang, Bo Wu, Xiangping Zheng, Sensen Zhang, Yuhui Guo, Jun Wang, Xinyao Liu
- TLDR: Wir schlagen einen neuronalen Rahmen für das Erlernen von gesehenen und unseen Beziehungen vor, der die Sichtweise über die Unsichtigkeit verträgt.
- CitRet: A Hybrid Model for Cited Text Span Retrieval
- Amit Pandey, Avani Gupta, Vikram Pudi
- TLDR: Wir stellen ein neuartiges hybrides Deep Learning-Modell vor, das die Semantik und Syntax von Dokumenten nutzt, um die Verwendung von Texten mit maschinellen Lernen zu erleichtern.
- A Weak Supervision Approach for Predicting Difficulty of Technical Interview Questions
- Arpita Kundu, Subhasish Ghosh, Pratik Saini, Tapas Nayak, Indrajit Bhattacharya
- TLDR: Wir analysieren die Probleme bei der Beantwortung von Fragen, die mit wemöhnlichen Überwachungsalgorithmen trainiert wurden.
- Reinforcement Learning with Large Action Spaces for Neural Machine Translation
- Asaf Yehudai, Leshem Choshen, Lior Fox, Omri Abend
- TLDR: Wir stellen fest, dass die Größe des Aktionsraums für das Reinforcement Learning entscheidend ist, und stellen fest, dass die Verringerung der Größe des Aktionsraums die Leistung verbessert.
- Noise Learning for Text Classification: A Benchmark
- Bo Liu, Wandi Xu, Yuejia Xiang, Xiaojun Wu, Lejian He, Bowen Zhang, Li Zhu
- TLDR: Wir stellen einen neuen Datensatz für das Lernen von Rauschen vor, der ohne intrinsisches Rauschen funktioniert.
- Mitigating the Diminishing Effect of Elastic Weight Consolidation
- Canasai Kruengkrai, Junichi Yamagishi
- TLDR: Wir stellen eine Methode vor, die das katastrophale Vergessen in sequentiellen Trainingsaufgaben reduziert.
- Token and Head Adaptive Transformers for Efficient Natural Language Processing
- Chonghan Lee, Md Fahim Faysal Khan, Rita Brugarolas Brufau, Ke Ding, Vijaykrishnan Narayanan
- TLDR: Wir schlagen einen neuen Transformer vor, der die Aufmerksamkeitsgegenauigkeit und die Genauigkeit von BERT-basierten Modellen kombiniert.
- Don’t Judge a Language Model by Its Last Layer: Contrastive Learning with Layer-Wise Attention Pooling
- Dongsuk Oh, Yejin Kim, Hodong Lee, H. Howie Huang, Heuiseok Lim
- TLDR: Wir stellen eine Aufmerksamkeitsbasierte Pooling-Strategie vor, die es BERT ermöglicht, die Signale von jeder Schicht zu schützen und die Entdeckung von sprachlichen Merkmalen für die Übertragung von Texten zu nutzen.
- SHAP-Based Explanation Methods: A Review for NLP Interpretability
- Edoardo Mosca, Ferenc Szigeti, Stella Tragianni, Daniel Gallagher, Georg Groh
- TLDR: Wir stellen eine neue Methode vor, um die Verzerrung von Deep Learning zu erklären.
- A Simple Log-based Loss Function for Ordinal Text Classification
- François Castagnos, Martin Mihelich, Charles Dognin
- TLDR: Wir schlagen eine neue logische Verlustfunktion vor, die die Klassifizierung von Texten ohne Labels optimiert.
- Ask Question First for Enhancing Lifelong Language Learning
- Han Wang, Ruiliu Fu, Xuejun Zhang, Jun Zhou, Qingwei Zhao
- TLDR: Wir schlagen eine neue Aufgabe vor, die BQCA, eine neue Trainingsaufgabe zur Beantwortung von Pseudo-Fragen von vorherigen Aufgaben und eine neue Aufgabe zur Durchführung von Deep Learning vor.
- DoubleMix: Simple Interpolation-Based Data Augmentation for Text Classification
- Hui Chen, Wei Han, Diyi Yang, Soujanya Poria
- TLDR: Wir schlagen einen einfachen, aber effektiven Interpolation-basierten Datenerweiterungsansatz vor, der die Robustheit von Textklassifikationsmodellen verbessert.
- Large Sequence Representation Learning via Multi-Stage Latent Transformers
- Ionut-Catalin Sandu, Daniel Voinea, Alin-Ionut Popa
- TLDR: Wir stellen LANTERN vor, eine Multi-Stage-Transformer-Architektur für die Namenserkennung und die Erkennung von Entitäten mit mehreren Textzeigen vor.
- MockingBERT: A Method for Retroactively Adding Resilience to NLP Models
- Jan Jezabek, Akash Singh
- TLDR: Wir schlagen eine Methode vor, die die Resistance von Misverständnissen in NLP-Modelle retroaktiv anpasst, und erreichen damit eine robustere Sprachausnutzung bei Sprachverfälschungen.
- Equivariant Transduction through Invariant Alignment
- Jennifer C. White, Ryan Cotterell
- TLDR: Wir stellen eine neuartige Gruppe-Equivariant-Architektur vor, die einen group-invarianten Ansatz für SCAN nutzt.
- Where Does Linguistic Information Emerge in Neural Language Models? Measuring Gains and Contributions across Layers
- Jenny Kunz, Marco Kuhlmann
- TLDR: Wir stellen eine neue Methode vor, die die Aufgaberelevante Informationen in neuronalen Sprachmodellen aufzeigt.
- Accelerating Inference for Pretrained Language Models by Unified Multi-Perspective Early Exiting
- Jun Kong, Jin Wang, Liang-Chih Yu, Xuejie Zhang
- TLDR: Wir schlagen ein neuartiges, aufwendiges und effektives Multi-View-Early-Exit-Framework vor, das die Inferenz von PLMs mit einer besseren Leistung und einer effizienteren Effizienz ermöglicht.
- Topology Imbalance and Relation Inauthenticity Aware Hierarchical Graph Attention Networks for Fake News Detection
- Li Gao, Lingyun Song, Jie Liu, Bolin Chen, Xuequn Shang
- TLDR: Wir schlagen eine neuartige Topologie-Ausbreitung und Relations-Intoleranz-Strategie vor, um die Identität von Verfälschungen auf Twitter und anderen sozialen Medien zu identifizieren.
- Temporal Knowledge Graph Completion with Approximated Gaussian Process Embedding
- Linhai Zhang, Deyu Zhou
- TLDR: Wir schlagen eine neue TKGC-Methode, die die Entitäten und Beziehungen in einer zeitlichen Knowledge Graphen-Kompletationsmethode modelliert, vor, die auf der Verwendung von Markov-Annahmen basiert.
- CILDA: Contrastive Data Augmentation Using Intermediate Layer Knowledge Distillation
- Md Akmal Haidar, Mehdi Rezagholizadeh, Abbas Ghaddar, Khalil Bibi, Phillippe Langlais, Pascal Poupart
- TLDR: Wir schlagen eine neue Methode zur Wissensdestillation vor, die auf kontrastive Verluste basiert.
- Pro-KD: Progressive Distillation by Following the Footsteps of the Teacher
- Mehdi Rezagholizadeh, Aref Jafari, Puneeth S.M. Saladi, Pranav Sharma, Ali Saheb Pasand, Ali Ghodsi
- TLDR: Wir stellen eine Aufgabe vor, die die Suche nach den besten Kontrollpunkten für die Wissensdestillation ermöglicht.
- Classical Sequence Match Is a Competitive Few-Shot One-Class Learner
- Mengting Hu, Hang Gao, Yinhao Bai, Mingming Liu
- TLDR: Wir schlagen Meta-Lernen vor, um das Problem der Klassenverteilung zu lösen.
- Unsupervised Domain Adaptation for Text Classification via Meta Self-Paced Learning
- Nghia Ngo Trung, Linh Ngo Van, Thien Huu Nguyen
- TLDR: Wir schlagen Meta-Lernen vor, um eine neuronale Netzarchitektur für die unbeaufsichtigte Domänenanpassung zu nutzen.
- WARM: A Weakly (+Semi) Supervised Math Word Problem Solver
- Oishik Chatterjee, Isha Pandey, Aashish Waikar, Vishwajeet Kumar, Ganesh Ramakrishnan
- TLDR: Wir schlagen ein weakly überwachtes Modell vor, das die Lösung von Aufgaben mit Hilfe von Aufgabenbeschreibungen und Beantwortungen erzeugt.
- Attention Networks for Augmenting Clinical Text with Support Sets for Diagnosis Prediction
- Paul Grundmann, Tom Oberhauser, Felix Gers, Alexander Löser
- TLDR: Wir schlagen vor, die Aufmerksamkeitsnetzwerke für die Diagnosevorhersage zu verwenden.
- PARSE: An Efficient Search Method for Black-box Adversarial Text Attacks
- Pengwei Zhan, Chao Zheng, Jing Yang, Yuxiang Wang, Liming Wang, Yang Wu, Yunjian Zhang
- TLDR: Wir schlagen eine neue Methode vor, die die Suche nach Worten in dynamischen Suchräumen durch die Bereichsbestimmung auswählt.
- A Closer Look at Parameter Contributions When Training Neural Language and Translation Models
- Raúl Vázquez, Hande Celikkanat, Vinit Ravishankar, Mathias Creutz, Jörg Tiedemann
- TLDR: Wir analysieren die Lerndynamik neuronaler Sprachmodelle und zeigen, dass die Wahl eines Ziels zu einer distinctiven Optimierungsmethode führt.
- KNOT: Knowledge Distillation Using Optimal Transport for Solving NLP Tasks
- Rishabh Bhardwaj, Tushar Vaidya, Soujanya Poria
- TLDR: Wir schlagen einen neuen Ansatz vor, Knowledge Destillation using Optimal Transport (KNOT), um die semantische Wissensdestillation aus mehreren Lehrernetzwerken zu einem studentischen Netzwerk zu ermöglichen.
- An Information Minimization Based Contrastive Learning Model for Unsupervised Sentence Embeddings Learning
- Shaobin Chen, Jie Zhou, Yuling Sun, Liang He
- TLDR: Wir stellen ein InforMin-CL-Modell vor, das die Information minimiert und die Information entropy minimiert.
- Learn2Weight: Parameter Adaptation against Similar-domain Adversarial Attacks
- Siddhartha Datta
- TLDR: Wir schlagen eine neue Black-Box-Angriffsmethode vor, die einen Angriff auf die Ziel-Domänen eines anderen Domänen angeht und die Leistung in Zielmodellen katapuliert.
- Sentence-aware Adversarial Meta-Learning for Few-Shot Text Classification
- Suhe Wang, Xiaoyuan Liu, Bo Liu, Diwen Dong
- TLDR: Wir nutzen die temporale Convolutional Network-Architektur, um einen neuen Rahmen für das Meta-Lernen zu schaffen.
- Reweighting Strategy Based on Synthetic Data Identification for Sentence Similarity
- TaeHee Kim, ChaeHun Park, Jimin Hong, Radhika Dua, Edward Choi, Jaegul Choo
- TLDR: Wir schlagen einen neuen Ansatz vor, der die Bedeutung von Sätzen in einem Klassifikator nutzt, um eine gute Satzeinbettung zu lernen.
- MaxMatch-Dropout: Subword Regularization for WordPiece
- Tatsuya Hiraoka
- TLDR: Wir stellen eine neue Methode zur Subword Regularisierung vor, die auf WordPiece verwendet wird.
- Adaptive Meta-learner via Gradient Similarity for Few-shot Text Classification
- Tianyi Lei, Honghui Hu, Qiaoyang Luo, Dezhong Peng, Xu Wang
- TLDR: Wir schlagen einen adaptiven Meta-Learner vor, der die Generalisierung verbessert und gleichzeitig die Klassifizierungsleistung erhöht.
- Vocabulary-informed Language Encoding
- Xi Ai, Bin Fang
- TLDR: Wir stellen eine Methode vor, die Wörter-Informationen von Sprachbeschriftungen als Sprachrepräsentationen für eine gewünschte Sprache verwendet.
- OpticE: A Coherence Theory-Based Model for Link Prediction
- Xiangyu Gui, Feng Zhao, Langjunqing Jin, Hai Jin
- TLDR: Wir schlagen ein neues Modell vor, das auf der Theorie des Coherence-Theodus basiert, und zeigen, dass es sich bei der Linkvorhersage gut anfühlt.
- Smoothed Contrastive Learning for Unsupervised Sentence Embedding
- Xing Wu, Chaochen Gao, Yipeng Su, Jizhong Han, Zhongyuan Wang, Songlin Hu
- TLDR: Wir stellen eine einfache InfoNCE-Schwächungsstrategie vor, die negative Paare in der InfoNCE-Verlustfunktion verringert.
- Knowledge Distillation with Reptile Meta-Learning for Pretrained Language Model Compression
- Xinge Ma, Jin Wang, Liang-Chih Yu, Xuejie Zhang
- TLDR: Wir schlagen eine Methode zur Wissensdestillation vor, die die Wissensverschiebung von Lehrern auf den Schüler ermöglicht.
- RotateCT: Knowledge Graph Embedding by Rotation and Coordinate Transformation in Complex Space
- Yao Dong, Lei Wang, Ji Xiang, Xiaobo Guo, Yuqiang Xie
- TLDR: Wir schlagen eine neue Wissensgraphen-Einbettungsmethode vor, die die nicht-kommutiver Kompositionsmustern modelliert.
- Can Data Diversity Enhance Learning Generalization?
- Yu Yu, Shahram Khadivi, Jia Xu
- TLDR: Wir stellen einen Rahmen für das Deep Learning vor, der die Diversität von Trainingsbeispielen verbessert und die Generalisierung und Genauigkeit von Deep Learning verbessert.
- Generate-and-Retrieve: Use Your Predictions to Improve Retrieval for Semantic Parsing
- Yury Zemlyanskiy, Michiel de Jong, Joshua Ainslie, Panupong Pasupat, Peter Shaw, Linlu Qiu, Sumit Sanghai, Fei Sha
- TLDR: Wir schlagen einen Algorithmus vor, der die Ähnlichkeit von Beantwortern und Beschriftungen erfasst.
- Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language Understanding
- Zhaoye Fei, Yu Tian, Yongkang Wu, Xinyu Zhang, Yutao Zhu, Zheng Liu, Jiawen Wu, Dejiang Kong, Ruofei Lai, Zhao Cao, Zhicheng Dou, Xipeng Qiu
- TLDR: Wir analysieren die Aufgabe-Korrelation und schlagen einen Rahmen vor, der die Bedeutung von Textrepräsentationen für alle Aufgaben erfasst.
- Automatic Label Sequence Generation for Prompting Sequence-to-sequence Models
- Zichun Yu, Tianyu Gao, Zhengyan Zhang, Yankai Lin, Zhiyuan Liu, Maosong Sun, Jie Zhou
- TLDR: Wir schlagen AutoSeq vor, eine automatische Etikettensuche und -ausgabemethode, die die Etiketten von Sequenz-to-Sequenz-Modellen in wenigen Beispielen lernt.
- Unsupervised Sentence Textual Similarity with Compositional Phrase Semantics
- Zihao Wang, Jiaheng Dou, Yong Zhang
- TLDR: Wir schlagen eine Erweiterung der Erweiterungs-EEG vor, die die Texterweiterung und die Texterweiterung in Text- und Text-Eigenschaften verbessert.
- A Generalized Method for Automated Multilingual Loanword Detection
- Abhijnan Nath, Sina Mahdipour Saravani, Ibrahim Khebour, Sheikh Mannan, Zihui Li, Nikhil Krishnaswamy
- TLDR: Wir stellen eine Methode vor, die automatisch loanwords über verschiedene Sprachpaare erkennt, ohne dass die Verwendung von Übersetzungen erforderlich ist.
- FeatureBART: Feature Based Sequence-to-Sequence Pre-Training for Low-Resource NMT
- Abhisek Chakrabarty, Raj Dabre, Chenchen Ding, Hideki Tanaka, Masao Utiyama, Eiichiro Sumita
- TLDR: Wir stellen FeatureBART vor, eine auf Spannvorhersage basierende, auf Features basierende und auf Features orientierte Vortrainingstrategie.
- Multi-level Community-awareness Graph Neural Networks for Neural Machine Translation
- Binh Nguyen, Long Nguyen, Dien Dinh
- TLDR: Wir schlagen eine neue MC-GNN-Schicht vor, um die Community-Awareness Graphen Neural Network (MC-GNN) zu nutzen, um lokale und globale Beziehungen zwischen Wörtern und ihren sprachlichen Rollen in mehreren Gemeinschaften zu modellieren.
- On the Complementarity between Pre-Training and Random-Initialization for Resource-Rich Machine Translation
- Changtong Zan, Liang Ding, Li Shen, Yu Cao, Weifeng Liu, Dacheng Tao
- TLDR: Wir schlagen eine neue Methode zur Erweiterung von PT und RL vor, die die Verallgemeinerung und die Negativität verbessern.
- ngram-OAXE: Phrase-Based Order-Agnostic Cross Entropy for Non-Autoregressive Machine Translation
- Cunxiao Du, Zhaopeng Tu, Longyue Wang, Jing Jiang
- TLDR: Wir erweitern die Oaxe-Verluste, um eine bessere Sprachaussprache zu erzielen.
- Language Branch Gated Multilingual Neural Machine Translation
- Haoran Sun, Deyi Xiong
- TLDR: Wir schlagen eine neue Methode vor, die Wissenstransfer zwischen Sprachbäumen fördert und gleichzeitig die Sprachqualität verbessert.
- Iterative Constrained Back-Translation for Unsupervised Domain Adaptation of Machine Translation
- Hongxiao Zhang, Hui Huang, Jiale Gao, Yufeng Chen, Jinan Xu, Jian Liu
- TLDR: Wir schlagen eine Iterative Constrained Back-Translation (ICBT) Methode vor, um in einem Bereich lexikalisches Wissen zu integrieren, das auf der unbeaufsichtigten Domänenanpassung von neuronalen Übersetzungsmaschinen verwendet werden kann.
- Linguistically-Motivated Yorùbá-English Machine Translation
- Ife Adebara, Muhammad Abdul-Mageed, Miikka Silfverberg
- TLDR: Wir analysieren, wie ein SMT- und ein Transformer-Modell sich gegenüber den NMT-Modellen verhält.
- Dynamic Position Encoding for Transformers
- Joyce Zheng, Mehdi Rezagholizadeh, Peyman Passban
- TLDR: Wir stellen eine neuartige Architektur vor, die auf Feed-Forward-Backbone und Selbstattention basiert.
- PAEG: Phrase-level Adversarial Example Generation for Neural Machine Translation
- Juncheng Wan, Jian Yang, Shuming Ma, Dongdong Zhang, Weinan Zhang, Yong Yu, Zhoujun Li
- TLDR: Wir schlagen einen Rahmen für die Generierung von Beispielen auf Phrasen-Ebene vor, um die Robustheit gegenüber Rauschen zu verbessern.
- Noise-robust Cross-modal Interactive Learning with Text2Image Mask for Multi-modal Neural Machine Translation
- Junjie Ye, Junjun Guo, Yan Xiang, Kaiwen Tan, Zhengtao Yu
- TLDR: Wir schlagen einen neuen Ansatz für die neuronale Text-Bild-Übertragung vor, der auf visuelle und sprachliche Merkmale basiert.
- Speeding up Transformer Decoding via an Attention Refinement Network
- Kaixin Wu, Yue Zhang, Bojie Hu, Tong Zhang
- TLDR: Wir schlagen eine Aufmerksamkeitsstruktur vor, die die Aufmerksamkeit von Transformer in neuronalen Netzen wiederherstellen kann.
- Interactive Post-Editing for Verbosity Controlled Translation
- Prabhakar Gupta, Anil Nelakanti, Grant M. Berry, Abhishek Sharma
- TLDR: Wir verwenden BERTScore, um die Semantik bei der Texterzeugung zu bewerten und zu korrigieren.
- Addressing Asymmetry in Multilingual Neural Machine Translation with Fuzzy Task Clustering
- Qian Wang, Jiajun Zhang
- TLDR: Wir schlagen eine Aufgabeaffinity-Methode vor, die die Verlustverschiebungen von mehreren Übersetzungsaufgaben berücksichtigt.
- Learning Decoupled Retrieval Representation for Nearest Neighbour Neural Machine Translation
- Qiang Wang, Rongxiang Weng, Ming Chen
- TLDR: Wir schlagen einen neuen Ansatz zur Erstellung von Negativbeispielen vor, der die Rekonstruktionen von Text-Ebene und von Text-Eigenschaften verbessert.
- Semantically Consistent Data Augmentation for Neural Machine Translation via Conditional Masked Language Model
- Qiao Cheng, Jin Huang, Yitao Duan
- TLDR: Wir stellen eine neue Methode zur Datenerweiterung vor, die die Semantik in Sprachregionen stärker vereinheitlicht und gleichzeitig die Qualität verbessert.
- Informative Language Representation Learning for Massively Multilingual Neural Machine Translation
- Renren Jin, Deyi Xiong
- TLDR: Wir schlagen eine Methode vor, die auf einer Matrix-basierte Spracherfassung basiert, um sprachenrepräsentationen für die Sprachverschiebung zu lernen.
- Rare but Severe Neural Machine Translation Errors Induced by Minimal Deletion: An Empirical Study on Chinese and English
- Ruikang Shi, Alvin Grissom II, Duc Minh Trinh
- TLDR: Wir schlagen eine Methode vor, die die Verfälschungen von Texten in neuronalen Übersetzungsmodellen durch minimale Delete-Chargen in Bezug auf die Sprachrichtung und die Sprachrichtung verursacht.
- QUAK: A Synthetic Quality Estimation Dataset for Korean-English Neural Machine Translation
- Sugyeong Eo, Chanjun Park, Hyeonseok Moon, Jaehyung Seo, Gyeongmin Kim, Jungseob Lee, Heuiseok Lim
- TLDR: Wir stellen einen neuen Algorithmus zur Qualitätsschätzung vor, der auf sprachenabhängigen Sprachbeschränkungen basiert.
- Improving Both Domain Robustness and Domain Adaptability in Machine Translation
- Wen Lai, Jindřich Libovický, Alexander Fraser
- TLDR: Wir schlagen ein Meta-Lernen vor, das die Robustheit von bestehenden Meta-Lernansätzen verbessert.
- CoDoNMT: Modeling Cohesion Devices for Document-Level Neural Machine Translation
- Yikun Lei, Yuqi Ren, Deyi Xiong
- TLDR: Wir schlagen CoDoNMT vor, eine neuronale Übersetzungsstrategie zur Erkennung und Generierung von Kohesions-Eigenschaften auf Dokumentebene.
- Improving Non-Autoregressive Neural Machine Translation via Modeling Localness
- Yong Wang, Xinwei Geng
- TLDR: Wir schlagen eine neue Methode vor, die die Lokalität von NAT-Modellen verbessert und gleichzeitig die Konvergenz in der Übersetzung beschleunigt.
- Categorizing Semantic Representations for Neural Machine Translation
- Yongjing Yin, Yafu Li, Fandong Meng, Jie Zhou, Yue Zhang
- TLDR: Wir stellen eine Methode zur Verbesserung der Komposition vor, die die Verallgemeinerung von Texten aus verrauschten Objekten verbessert.
- Adversarial Training on Disentangling Meaning and Language Representations for Unsupervised Quality Estimation
- Yuto Kuroda, Tomoyuki Kajiwara, Yuki Arase, Takashi Ninomiya
- TLDR: Wir schlagen eine Methode vor, die sprachenbezogene Bedeutungsbeschriftungen aus mehreren Sprachbeschriftungsprogrammen entfernt und die unbeaufsichtigte Qualitätsschätzung von maschineller Übersetzung ermöglicht.
- Alleviating the Inequality of Attention Heads for Neural Machine Translation
- Zewei Sun, Shujian Huang, Xinyu Dai, Jiajun Chen
- TLDR: Wir schlagen einen Masken-Ansatz vor, um die Aufmerksamkeitshäufigkeit in Transformer zu reduzieren.
- Adapting to Non-Centered Languages for Zero-shot Multilingual Translation
- Zhi Qu, Taro Watanabe
- TLDR: Wir schlagen eine einfache, aber effektive Sprachmodellierungsmethode vor, die sich auf nicht-zentrierte Sprachen anpasst.
- Towards Robust Neural Machine Translation with Iterative Scheduled Data-Switch Training
- Zhongjian Miao, Xiang Li, Liyan Kang, Wen Zhang, Chulun Zhou, Yidong Chen, Bin Wang, Min Zhang, Jinsong Su
- TLDR: Wir stellen eine Iterative Scheduled Data-Switch Training Framework vor, um das Problem der Verzerrung von Gegenbeispielen zu lösen.
- Cross-lingual Feature Extraction from Monolingual Corpora for Low-resource Unsupervised Bilingual Lexicon Induction
- Zihao Feng, Hailong Cao, Tiejun Zhao, Weixuan Wang, Wei Peng
- TLDR: Wir schlagen eine Cross-Lingual Feature Extraktion (CFE) Methode vor, um die Vielfalt von Sprachmerkmalen aus monolingualen corpora für UBLI zu extrahieren.
- Language-Independent Approach for Morphological Disambiguation
- Alymzhan Toleu, Gulmira Tolegen, Rustam Mussabayev
- TLDR: Wir stellen einen sprachenabhängigen Ansatz für die Sprachabgleichung vor, der die Konsistenz von Texten, Phrasen und morphologischen Tags in einem Vektorraum erfasst.
- SUN: Exploring Intrinsic Uncertainties in Text-to-SQL Parsers
- Bowen Qin, Lihan Wang, Binyuan Hui, Bowen Li, Xiangpeng Wei, Binhua Li, Fei Huang, Luo Si, Min Yang, Yongbin Li
- TLDR: Wir schlagen ein Modell unzulänglichkeitsbeschränkungen vor, um die Generalisierung und Stabilität neuronaler Text-to-SQL-Parser zu verbessern.
- Deciphering and Characterizing Out-of-Vocabulary Words for Morphologically Rich Languages
- Georgie Botev, Arya D. McCarthy, Winston Wu, David Yarowsky
- TLDR: Wir stellen eine empirische Studie vor, die die Natur von Out-of-Words in modernen Texten in einer moderaten-resourcen Sprache unter Berücksichtigung der sprachenunabhängigen Sprachauswahl und -interpretation darstellt.
- PSSAT: A Perturbed Semantic Structure Awareness Transferring Method for Perturbation-Robust Slot Filling
- Guanting Dong, Daichi Guo, Liwen Wang, Xuefeng Li, Zechen Wang, Chen Zeng, Keqing He, Jinzheng Zhao, Hao Lei, Xinyue Cui, Yi Huang, Junlan Feng, Weiran Xu
- TLDR: Wir schlagen eine neuartige, auf MLM basierende und auf der Verknüpfung von Semantik und Ausdrucksform vor, die die Aufmerksamkeit von Störungen-robustem slot-filling Modellen verbessert.
- String Editing Based Chinese Grammatical Error Diagnosis
- Haihua Xie, Xiaoqing Lyu, Xuefei Chen
- TLDR: Wir schlagen ein auf Texterzeugung basierendes Grammatik-Diagnosemodell vor, das weniger Trainingsdaten benötigt und die Leistung bei der Grammatikerkennung und -correktion erheblich verbessert.
- The Fragility of Multi-Treebank Parsing Evaluation
- Iago Alonso-Alonso, David Vilares, Carlos Gómez-Rodríguez
- TLDR: Wir stellen fest, dass die Auswahl von Treebanken für die Parsing-Evaluierung zu einer schlechten Schlussfolgerung führt.
- FactMix: Using a Few Labeled In-domain Examples to Generalize to Cross-domain Named Entity Recognition
- Linyi Yang, Lifan Yuan, Leyang Cui, Wenyang Gao, Yue Zhang
- TLDR: Wir schlagen eine zweistufige rationale-centrische Datenerweiterung vor, die die Generalisierungsfähigkeit von NER verbessert.
- Speaker-Aware Discourse Parsing on Multi-Party Dialogues
- Nan Yu, Guohong Fu, Min Zhang
- TLDR: Wir schlagen ein speaker-awares Modell vor, das die Konversation in mehreren Sprachstilen durch gemeinsames Parsing erlernt.
- Iterative Span Selection: Self-Emergence of Resolving Orders in Semantic Role Labeling
- Shuhei Kurita, Hiroki Ouchi, Kentaro Inui, Satoshi Sekine
- TLDR: Wir stellen eine Iterative Argument Identifikation vor, die globalencodierung und iterative Labeling kombiniert, um die Semantik von Argumenten zu labelieren.
- Revisiting the Practical Effectiveness of Constituency Parse Extraction from Pre-trained Language Models
- Taeuk Kim
- TLDR: Wir schlagen einen neuen Parsing-Rahmen vor, der auf heterogene PLMs und Ensembles mit Hilfe von Deep Learning basiert.
- Position Offset Label Prediction for Grammatical Error Correction
- Xiuyu Wu, Jingsong Yu, Xu Sun, Yunfang Wu
- TLDR: Wir stellen einen neuen Algorithmus zur Positionsausweisbeschriftung vor, der die Bedeutung der Eingabe und die Positionsausweisbeschriftung in einer Encoder-Decoder-Architektur für die Grammatikverwundbarkeit vorhersagt.
- Parsing Natural Language into Propositional and First-Order Logic with Dual Reinforcement Learning
- Xuantao Lu, Jingping Liu, Zhouhong Gu, Hanwen Tong, Chenhao Xie, Junyang Huang, Yanghua Xiao, Wenguang Wang
- TLDR: Wir schlagen ein Modell-basiertes Score-Modell vor, um die Verzerrung von Label-Datensätzen zu kompensieren.
- Yet Another Format of Universal Dependencies for Korean
- Yige Chen, Eunkyul Leah Jo, Yundong Yao, KyungTae Lim, Miikka Silfverberg, Francis M. Tyers, Jungyeul Park
- TLDR: Wir schlagen eine morphembasierte Methode vor, um Korean-Abhängigkeiten zu parsen und schlagen eine neue Methode vor, die auf Universal Dependencies verwendet wird.
- Enhancing Structure-aware Encoder with Extremely Limited Data for Graph-based Dependency Parsing
- Yuanhe Tian, Yan Song, Fei Xia
- TLDR: Wir schlagen einen neuen Ansatz vor, um das Problem der Abhängigkeit von Worten zu lösen und die Ergebnisse zu verbessern.
- Simple and Effective Graph-to-Graph Annotation Conversion
- Yuxuan Wang, Zhilin Lei, Yuqiu Ji, Wanxiang Che
- TLDR: Wir schlagen zwei einfache und effektive Graphen-zu-Graphen-Anpassungsansätze vor, die auf graphenstrukturierten Datensätzen mit wenigen Einschränkungen konvergieren können.
- BiBL: AMR Parsing and Generation with Bidirectional Bayesian Learning
- Ziming Cheng, Zuchao Li, Hai Zhao
- TLDR: Wir schlagen eine neue Multitasking-Strategie vor, die die Dateneffizientkeit und die Transformer-Faltung verbessern kann.
- Multi-Layer Pseudo-Siamese Biaffine Model for Dependency Parsing
- Ziyao Xu, Houfeng Wang, Bingdong Wang
- TLDR: Wir schlagen ein Multi-Layer-Pseudo-Siamese-Modell vor, das neuronale Abhängigkeiten in einer Form von mehreren Schichten erfasst.
- Belief Revision Based Caption Re-ranker with Visual Semantic Information
- Ahmed Sabir, Francesc Moreno-Noguer, Pranava Madhyastha, Lluís Padró
- TLDR: Wir schlagen einen neuartigen Re-Ranking-Ansatz vor, der visuelle Semantik nutzt, um die optimale Abbildung zu finden.
- Towards Understanding the Relation between Gestures and Language
- Artem Abzaliev, Andrew Owens, Rada Mihalcea
- TLDR: Wir stellen gestörte Einbettungen vor, die die Sprache des Sprechers vorhersagen.
- Building Joint Relationship Attention Network for Image-Text Generation
- Changzhi Wang, Xiaodong Gu
- TLDR: Wir schlagen ein neuartiges Relations-basiertes Aufmerksamkeitsmechanismus vor, das die Beziehungen zwischen den Merkmalen erforscht.
- Learning to Focus on the Foreground for Temporal Sentence Grounding
- Daizong Liu, Wei Hu
- TLDR: Wir schlagen ein neuartiges Detection-free Framework vor, das effektiv lernt, die für die Zielaktivitätenbeantwortung von Textaussagen in mehreren Frames zu lokalisieren.
- Are Visual-Linguistic Models Commonsense Knowledge Bases?
- Hsiu-Yu Yang, Carina Silberer
- TLDR: Wir vergleichen sprachenfreie und visuelle Modelle, um eine Zero-Shot-Fragen-Antwort-Anwendung zu beantworten.
- Visual Prompt Tuning for Few-Shot Text Classification
- Jingyuan Wen, Yutian Luo, Nanyi Fei, Guoxing Yang, Zhiwu Lu, Hao Jiang, Jie Jiang, Zhao Cao
- TLDR: Wir schlagen Visual Prompt Tuning vor, eine visuelle Methode zur Textklassifikation, die die visuellen Anforderungen von VL-PTMs entspricht.
- Systematic Analysis of Image Schemas in Natural Language through Explainable Multilingual Neural Language Processing
- Lennart Wachowiak, Dagmar Gromann
- TLDR: Wir schlagen vor, einen neuen Algorithmus zur Erkennung von Bildschemas in natürlicher Sprache vorzuschlagen, der auf die Verwendung von Bildern als Bildschemas und die Klassifizierung von Sprachmodellen basiert.
- How to Adapt Pre-trained Vision-and-Language Models to a Text-only Input?
- Lovisa Hagström, Richard Johansson
- TLDR: Wir vergleichen und analysieren die besten Methoden zur Text-Only-Ausnutzung von VL-Modellen.
- ACT-Thor: A Controlled Benchmark for Embodied Action Understanding in Simulated Environments
- Michael Hanna, Federico Pedeni, Alessandro Suglia, Alberto Testoni, Raffaella Bernardi
- TLDR: Wir schlagen ACT-Thor vor, einen neuartigen Benchmark für das Erkennen von Handlungen und die Bewertung von Handlungen.
- In-the-Wild Video Question Answering
- Santiago Castro, Naihao Deng, Pingxuan Huang, Mihai Burzo, Rada Mihalcea
- TLDR: Wir stellen WILDQA vor, einen Videoverständnisdatensatz von Videos, die in einer Umgebung erzeugt wurden, die von Menschen genutzt werden.
- Towards Better Semantic Understanding of Mobile Interfaces
- Srinivas Sunkara, Maria Wang, Lijuan Liu, Gilles Baechler, Yu-Chung Hsiao, Jindong Chen, Abhanshu Sharma, James W. W. Stout
- TLDR: Wir stellen einen neuen Datensatz für mobile Einbettungen vor, der auf die Erkennung von Funktionen von UI-Elementen basiert.
- End-to-end Dense Video Captioning as Sequence Generation
- Wanrong Zhu, Bo Pang, Ashish V. Thapliyal, William Yang Wang, Radu Soricut
- TLDR: Wir modellieren den Bereich des Videosequenz-Generierungs- und die Aufgabe des Videosequenz-Ausdrucks gemeinsam als eine Sequenz-Generierungsaufgabe.
- SANCL: Multimodal Review Helpfulness Prediction with Selective Attention and Natural Contrastive Learning
- Wei Han, Hui Chen, Zhen Hai, Soujanya Poria, Lidong Bing
- TLDR: Wir schlagen eine neuartige Aufmerksamkeitsstrategie vor, die die Wichtigkeit von Multimodal Reviews erkennt und gleichzeitig die Speicherkosten reduziert.
- Dual Capsule Attention Mask Network with Mutual Learning for Visual Question Answering
- Weidong Tian, Haodong Li, Zhong-Qiu Zhao
- TLDR: Wir schlagen eine duale Kapsel-Attention-Maschinen-Architektur vor, die die Aufmerksamkeitsmechanismen von VQA nutzt.
- Emergence of Hierarchical Reference Systems in Multi-agent Communication
- Xenia Ohmer, Marko Duda, Elia Bruni
- TLDR: Wir entwickeln hierarchische Referenzsysteme für die Kommunikation in komplexen Welten und zeigen, dass die Entdeckung hierarchischer Referenzsysteme die Entflechtung von Kompositionalität ermöglicht.
- Scene Graph Modification as Incremental Structure Expanding
- Xuming Hu, Zhijiang Guo, Yu Fu, Lijie Wen, Philip S. Yu
- TLDR: Wir stellen eine neue Methode zur Erstellung von Szenegraphen vor, die die bestehenden Szenegraphen um eine neue Struktur erweitert.
- Overcoming Language Priors in Visual Question Answering via Distinguishing Superficially Similar Instances
- Yike Wu, Yu Zhao, Shiwan Zhao, Ying Zhang, Xiaojie Yuan, Guoqing Zhao, Ning Jiang
- TLDR: Wir schlagen ein neuartiges Trainingsverfahren vor, das die Sprachbeobachtungen von VQA-Instanzen deutlich verfremdet.
- Efficient Multilingual Multi-modal Pre-training through Triple Contrastive Loss
- Youhan Lee, KyungTae Lim, Woonhyuk Baek, Byungseok Roh, Saehoon Kim
- TLDR: Wir schlagen eine einfache, aber effektive Erweiterungsstrategie vor, die Bilder und Übersetzungspaare gleichzeitig nutzt.
- LOViS: Learning Orientation and Visual Signals for Vision and Language Navigation
- Yue Zhang, Parisa Kordjamshidi
- TLDR: Wir schlagen einen neuronalen Agenten vor, der auf visuelle und spatiale Informationen trainiert wird.
- GAP: A Graph-aware Language Model Framework for Knowledge Graph-to-Text Generation
- Anthony Colas, Mehrdad Alvandipour, Daisy Zhe Wang
- TLDR: Wir stellen eine Maskenstruktur vor, um die Umgebungsinformationen von Graphen zu nutzen und einen neuen Typenencoder vor, der die Aufmerksamkeiten der Graphengewichte verringert.
- Content Type Profiling of Data-to-Text Generation Datasets
- Ashish Upadhyay, Stewart Massie
- TLDR: Wir schlagen eine typologie vor, die wir verwenden können, um die Inhaltsvielfalt von Zusammenfassungen zu klassifizieren.
- CoLo: A Contrastive Learning Based Re-ranking Framework for One-Stage Summarization
- Chenxin An, Ming Zhong, Zhiyong Wu, Qin Zhu, Xuanjing Huang, Xipeng Qiu
- TLDR: Wir schlagen einen Contrastive Learning-Rahmen für eine One-Stage-Suchfassung vor, der die Ergebnisse von mehreren Algorithmen und Metriken verbessert.
- Of Human Criteria and Automatic Metrics: A Benchmark of the Evaluation of Story Generation
- Cyril Chhun, Pierre Colombo, Fabian M. Suchanek, Chloé Clavel
- TLDR: Wir stellen eine Reihe von Human-Evaluierungsmetriken vor, die auf der Automatisierungsgeneration basieren.
- Selective Token Generation for Few-shot Natural Language Generation
- Daejin Jo, Taehwan Kwon, Eun-Sol Kim, Sungwoong Kim
- TLDR: Wir stellen einen neuartigen Algorithmus für das Lernen von Sprachtoken vor, der auf Reinforcement Learning basiert.
- A-TIP: Attribute-aware Text Infilling via Pre-trained Language Model
- Dongyuan Li, Jingyi You, Kotaro Funakoshi, Manabu Okumura
- TLDR: Wir schlagen eine Attribute-bewusste Text-Infilling-Methode vor, die die Textfluenz minimiert und die Texterweiterung verbessert.
- Multi Graph Neural Network for Extractive Long Document Summarization
- Xuan-Dung Doan, Le-Minh Nguyen, Khac-Hoai Nam Bui
- TLDR: Wir nutzen HeterGNN, um Dokumente mit mehreren Konnektanzverbindungen zu extrahieren.
- Improving Zero-Shot Multilingual Text Generation via Iterative Distillation
- Ernie Chang, Alex Marin, Vera Demberg
- TLDR: Wir verwenden die Sprachausgabe, um eine Texterzeugung in mehreren Sprachen zu erzeugen, indem wir sie auf sequenz-Ebene in neuronale neuronale Netze übertragen.
- Using Structured Content Plans for Fine-grained Syntactic Control in Pretrained Language Model Generation
- Fei-Tzin Lee, Miguel Ballesteros, Feng Nan, Kathleen McKeown
- TLDR: Wir stellen eine Methode vor, die syntaktische Merkmale in Texten erzeugt, die von der Sprachausbreitung abhängt.
- PrefScore: Pairwise Preference Learning for Reference-free Summarization Quality Assessment
- Ge Luo, Hebi Li, Youbiao He, Forrest Sheng Bao
- TLDR: Wir schlagen eine Methode vor, die die Vorliebenbeschriftungen von Zusammenfassungen aus gegnerischen Verzerrungen nutzt, um die Qualität von Zusammenfassungen zu bewerten.
- Multi-Attribute Controlled Text Generation with Contrastive-Generator and External-Discriminator
- Guisheng Liu, Yi Li, Yanqing Guo, Xiangyang Luo, Bo Wang
- TLDR: Wir schlagen einen neuen Rahmen für die Multi-Attribute-Generierung vor, der die Kontrolle über die Texterzeugung und die Texterzeugung in Texten mit mehreren Attributen ermöglicht.
- Coordination Generation via Synchronized Text-Infilling
- Hiroki Teranishi, Yuji Matsumoto
- TLDR: Wir schlagen einen einfachen, aber effektiven Ansatz zur Erstellung von Sätzen mit einer Konjunktur vor, die die Grenzen ihrer Konjunktionen kennt.
- KHANQ: A Dataset for Generating Deep Questions in Education
- Huanli Gong, Liangming Pan, Hengchang Hu
- TLDR: Wir stellen KHANQ vor, einen Datensatz für die Erstellung von tiefen Fragen, die auf die Online-Lernen von Khan Academy basieren.
- Multi-Figurative Language Generation
- Huiyuan Lai, Malvina Nissim
- TLDR: Wir stellen eine benchmark-Methode zur Erzeugung von fünf typischen Bildformen vor, die auf der Suche nach Texten mit einer Bildform sind.
- Enhancing Task-Specific Distillation in Small Data Regimes through Language Generation
- Husam Quteineh, Spyridon Samothrakis, Richard Sutcliffe
- TLDR: Wir stellen einen neuartigen Ansatz vor, der Wissen aus einem Lehrermodell in ein studentisches Modell überträgt, indem er die Synthese von Datensätzen ermöglicht.
- Boosting Code Summarization by Embedding Code Structures
- Jikyoeng Son, Joonghyuk Hahn, HyeonTae Seo, Yo-Sub Han
- TLDR: Wir schlagen ein neues Modul vor, das Programme in Graphen einbezieht und die Implementierung von PDGs verbessert.
- Comparative Graph-based Summarization of Scientific Papers Guided by Comparative Citations
- Jingqiang Chen, Chaoxiang Cai, Xiaorui Jiang, Kejia Chen
- TLDR: Wir schlagen eine neue Methode zur Vergleichsauswertung von Texten vor, die auf der Grundlage von Vergleichsgraphen erstellt wurden.
- JPG - Jointly Learn to Align: Automated Disease Prediction and Radiology Report Generation
- Jingyi You, Dongyuan Li, Manabu Okumura, Kenji Suzuki
- TLDR: Wir schlagen ein gemeinsames Lernverfahren vor, um die Qualität von Arzt- und Patientenbeschriftungen bei der Krebsvorhersage und der Bildbeschriftung zu verbessern.
- Automatic Nominalization of Clauses
- John S. Y. Lee, Ho Hung Lim, Carol Webster, Anton Melser
- TLDR: Wir schlagen ein textuales Entailment-Modell vor, um eine clause als eine Satzphrase zu nominalisieren.
- Benchmarking Compositionality with Formal Languages
- Josef Valvoda, Naomi Saphra, Jonathan Rawski, Adina Williams, Ryan Cotterell
- TLDR: Wir verwenden deterministische finite-state Transducers, um eine unbeaufsichtigte Anzahl von Datensätzen mit kontrollierbaren Eigenschaften zu schaffen.
- Source-summary Entity Aggregation in Abstractive Summarization
- José Ángel González, Annie Louis, Jackie Chi Kit Cheung
- TLDR: Wir stellen eine Textklassifikation vor, die die Entitäten, die in einem späteren Konversationen genannt werden, kennt.
- How to Find Strong Summary Coherence Measures? A Toolbox and a Comparative Study for Summary Coherence Measure Evaluation
- Julius Steen, Katja Markert
- TLDR: Wir stellen eine groß angelegte Untersuchung vor, um die Ungleichgewichte bei der Erzeugung von Systemausschlüssen zu erkennen und eine robuste Lösung für die Verbesserung der Zusammenfassungskonvergenz zu finden.
- Summarizing Dialogues with Negative Cues
- Junpeng Liu, Yanyan Zou, Yuxuan Xi, Shengjie Li, Mian Ma, Zhuoye Ding
- TLDR: Wir schlagen vor, die Aufmerksamkeit auf die salierenden Teile des Dialogs zu steuern und die Wichtigkeit der Restinformationen zu berücksichtigen.
- ALEXSIS-PT: A New Resource for Portuguese Lexical Simplification
- Kai North, Marcos Zampieri, Tharindu Ranasinghe
- TLDR: Wir stellen ALEXSIS-PT vor, einen neuen Multi-Candidate-Datensätzen für Portuguese LS, der 9,605 Kandidaten-Spezifikationen für 387 komplexe Wörter enthält.
- APPDIA: A Discourse-aware Transformer-based Style Transfer Model for Offensive Social Media Conversations
- Katherine Atwell, Sabit Hassan, Malihe Alikhani
- TLDR: Wir stellen die erste sprachenbewusste Modelle vor, die die Ausbreitung von Ausreißern in Reddit-Kommentaren effektiv reduzieren können.
- View Dialogue in 2D: A Two-stream Model in Time-speaker Perspective for Dialogue Summarization and beyond
- Keli Xie, Dongchen He, Jiaxin Zhuang, Siyuan Lu, Zhongfeng Wang
- TLDR: Wir schlagen eine 2D-View-Architektur vor, die die Zeit-Spätzer-Informationen erfasst und gleichzeitig die Dialogverschiebungen kombiniert.
- Denoising Large-Scale Image Captioning from Alt-text Data Using Content Selection Models
- Khyathi Raghavi Chandu, Piyush Sharma, Soravit Changpinyo, Ashish V. Thapliyal, Radu Soricut
- TLDR: Wir stellen eine Methode vor, die die Entflechtungsvorhersage und die Erstellung von Bildern mit Bildern als Kapseln ermöglicht.
- Meta-CQG: A Meta-Learning Framework for Complex Question Generation over Knowledge Bases
- Kun Zhang, Yunqi Qiu, Yuanzhuo Wang, Long Bai, Wei Li, Xuhui Jiang, Huawei Shen, Xueqi Cheng
- TLDR: Wir schlagen einen Meta-Lernansatz für die Erstellung komplexer Fragen vor.
- Graph-to-Text Generation with Dynamic Structure Pruning
- Liang Li, Ruiying Geng, Bowen Li, Can Ma, Yinliang Yue, Binhua Li, Yongbin Li
- TLDR: Wir schlagen eine Structure-Aware Cross-Attention (SACA) Methode vor, um die Eingabegraphen in einem strukturierten Rahmen zu modellieren und die Konditionierung auf die neue Eingabegraphen zu bewerten.
- Multi-Perspective Document Revision
- Mana Ihori, Hiroshi Sato, Tomohiro Tanaka, Ryo Masumura
- TLDR: Wir stellen eine neue Aufgabe vor, die gleichzeitig mehrere Perspektiven nutzt, um die Lesbarkeit und Genauigkeit von Dokumenten zu verbessern.
- A Survey of Automatic Text Summarization Using Graph Neural Networks
- Marco Ferdinand Salchner, Adam Jatowt
- TLDR: Wir stellen einen neuen Ansatz vor, um GNNs für die Aufgabe der automatischen Texterfassung zu verwenden.
- Phrase-Level Localization of Inconsistency Errors in Summarization by Weak Supervision
- Masato Takatsuka, Tetsunori Kobayashi, Yoshihiko Hayashi
- TLDR: Wir schlagen eine Methode vor, um inkonsistente Fehler in der Zusammenfassung zu lokalisieren und ihre Auswirkungen auf die Dokumentenausgabe zu bewerten.
- PoliSe: Reinforcing Politeness Using User Sentiment for Customer Care Response Generation
- Mauajama Firdaus, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: Wir identifizieren und analysieren Emotionen des Benutzers und schlagen eine neue Methode vor, um diese Emotionen zu nutzen, um eine gute Kundenbeziehung zu schaffen.
- Focus-Driven Contrastive Learning for Medical Question Summarization
- Ming Zhang, Shuai Dou, Ziyang Wang, Yunfang Wu
- TLDR: Wir schlagen ein neuartiges Frage-Ziel-Dynamik-Lernen vor, das die Aufmerksamkeit eines Arztes auf die Frage konzentriert.
- ArgLegalSumm: Improving Abstractive Summarization of Legal Documents with Argument Mining
- Mohamed Elaraby, Diane Litman
- TLDR: Wir stellen eine einfache Methode vor, um die Argumentationsstruktur von Dokumenten zu erfassen und zu beschreiben.
- Semantic Overlap Summarization among Multiple Alternative Narratives: An Exploratory Study
- Naman Bansal, Mousumi Akter, Shubhra Kanti Karmaker
- TLDR: Wir stellen eine neue Aufgabe vor, die die Semantik von Überlappungen zusammen mit anderen Beispielen erzeugt.
- Analyzing the Dialect Diversity in Multi-document Summaries
- Olubusayo Olabisi, Aaron Hudson, Antonie Jetter, Ameeta Agrawal
- TLDR: Wir analysieren und verbessern die Qualität von Zusammenfassungen, die aus sozialen Medien erstellt wurden, und stellen einen neuen Datensatz für sprachenvielfältige Twitter- und Systemausschlüsse vor.
- Multi-Document Scientific Summarization from a Knowledge Graph-Centric View
- Pancheng Wang, Shasha Li, Kunyuan Pang, Liangliang He, Dong Li, Jintao Tang, Ting Wang
- TLDR: Wir stellen Knowledge Graphen vor, die kompakte und interpretierbare Informationen für Dokumente enthalten.
- Generation of Patient After-Visit Summaries to Support Physicians
- Pengshan Cai, Fei Liu, Adarsha Bajracharya, Joe Sills, Alok Kapoor, Weisong Liu, Dan Berlowitz, David Levy, Richeek Pradhan, Hong Yu
- TLDR: Wir stellen eine Automatisierung vor, die die Erfassung und die Erstellung von Nachrückschriften ermöglicht.
- HeterGraphLongSum: Heterogeneous Graph Neural Network with Passage Aggregation for Extractive Long Document Summarization
- Tuan-Anh Phan, Ngoc-Dung Ngoc Nguyen, Khac-Hoai Nam Bui
- TLDR: Wir schlagen ein heterogenes Graphennetz vor, das die Leistung von Dokumentenausbreitung verbessert.
- GRETEL: Graph Contrastive Topic Enhanced Language Model for Long Document Extractive Summarization
- Qianqian Xie, Jimin Huang, Tulika Saha, Sophia Ananiadou
- TLDR: Wir schlagen ein neues graphisches Themenmodell vor, das die globalen und lokalen Kontext-Informationen für die Dokumentenauswertung nutzt.
- PINEAPPLE: Personifying INanimate Entities by Acquiring Parallel Personification Data for Learning Enhanced Generation
- Sedrick Scott Keh, Kevin Lu, Varun Gangal, Steven Y. Feng, Harsh Jhamtani, Malihe Alikhani, Eduard Hovy
- TLDR: Wir stellen PersonifCorp vor, eine Sammlung von Personenifikationen, die automatisch generierte de-personifizierbare Satzbeschriftungen verwenden können.
- Mind the Gap! Injecting Commonsense Knowledge for Abstractive Dialogue Summarization
- Seungone Kim, Se June Joo, Hyungjoo Chae, Chaehyeong Kim, Seung-won Hwang, Jinyoung Yeo
- TLDR: Wir stellen SICK vor, einen Rahmen für die Erzeugung von Konversationinferenzen und die Lösung der Probleme bei der Zusammenfassung von Dialogen.
- Type-dependent Prompt CycleQAG : Cycle Consistency for Multi-hop Question Generation
- Seungyeon Lee, Minho Lee
- TLDR: Wir schlagen eine neue Typenabhängige Vorgabe für die Frage-Antwort-Genauigkeit vor, die die Antwort auf die Frage aus einer Reihe von Sätzen erzeugt.
- UPER: Boosting Multi-Document Summarization with an Unsupervised Prompt-based Extractor
- Shangqing Tu, Jifan Yu, Fangwei Zhu, Juanzi Li, Lei Hou, Jian-Yun Nie
- TLDR: Wir verwenden ein Pre-trained Language Model (PLM) für die Dokumentenauswertung und verwenden die Ergebnisse als Plug-ins, um andere metrische für die Dokumentenauswertung zu verbessern.
- DISK: Domain-constrained Instance Sketch for Math Word Problem Generation
- Tianyang Cao, Shuang Zeng, Xiaodan Xu, Mairgup Mansur, Baobao Chang
- TLDR: Wir schlagen ein neuronales Modell vor, das aus mathematischen Worten generiert, um ein einheitliches Sprachgedächtnis zu erzeugen.
- Context-Tuning: Learning Contextualized Prompts for Natural Language Generation
- Tianyi Tang, Junyi Li, Wayne Xin Zhao, Ji-Rong Wen
- TLDR: Wir stellen eine Methode vor, die PLMs in der Lage sind, die Sprache zu erzeugen.
- PSP: Pre-trained Soft Prompts for Few-Shot Abstractive Summarization
- Xiaochen Liu, Yang Gao, Yu Bai, Jiawei Li, Yinan Hu, Heyan Huang, Boxing Chen
- TLDR: Wir haben eine neuartige Soft-Prüfungen-Architektur entwickelt, die die Aufgabe der abstrakten Zusammenfassung ermöglicht.
- Continuous Decomposition of Granularity for Neural Paraphrase Generation
- Xiaodong Gu, Zhaowei Zhang, Sang-Woo Lee, Kang Min Yoo, Jung-Woo Ha
- TLDR: Wir stellen eine neue Aufmerksamkeitsmatrix vor, die die Aufmerksamkeit in Textformen kodiert und die Aufmerksamkeit auf Twitter und Quora übertrifft.
- Paraphrase Generation as Unsupervised Machine Translation
- Xiaofei Sun, Yufei Tian, Yuxian Meng, Nanyun Peng, Fei Wu, Jiwei Li, Chun Fan
- TLDR: Wir schlagen einen neuen Ansatz zur Paraphrase-Genauigkeit vor, der auf der Beobachtung der gleichen Satzpaare beruht und die Verwendung von UMTs ermöglicht.
- Summarize, Outline, and Elaborate: Long-Text Generation via Hierarchical Supervision from Extractive Summaries
- Xiaofei Sun, Zijun Sun, Yuxian Meng, Jiwei Li, Chun Fan
- TLDR: Wir schlagen einen neuen Algorithmus vor, der die Texterzeugung auf mehreren Ebenen erfasst.
- CoCGAN: Contrastive Learning for Adversarial Category Text Generation
- Xin Sheng, Linli Xu, Yinlong Xu, Changcun Bao, Huang Chen, Bo Ren
- TLDR: Wir schlagen ein neuartiges Contrastive Category Generative Adversarial Net (CoCGAN) vor, um kontrastives Lernen in die Texterzeugung von kategorisierten Texten zu integrieren.
- An Efficient Coarse-to-Fine Facet-Aware Unsupervised Summarization Framework Based on Semantic Blocks
- Xinnian Liang, Jing Li, Shuangzhi Wu, Jiali Zeng, Yufan Jiang, Mu Li, Zhoujun Li
- TLDR: Wir schlagen einen effizienten Rahmen für die unbeaufsichtigte Dokumentenauswertung vor, der auf der Semantikblock basiert.
- CHAE: Fine-Grained Controllable Story Generation with Characters, Actions and Emotions
- Xinpeng Wang, Han Jiang, Zhihua Wei, Shanlin Zhou
- TLDR: Wir schlagen ein Modell vor, das fine-grained Kontrolle über die Erzeugung von Geschichten ermöglicht.
- Chinese Couplet Generation with Syntactic Information
- Yan Song
- TLDR: Wir schlagen einen neuen Ansatz zur Erstellung von Phrasen vor, der syntaktische Informationen nutzt, um die Chinesen-Krüchtchen zu generieren.
- Noise-injected Consistency Training and Entropy-constrained Pseudo Labeling for Semi-supervised Extractive Summarization
- Yiming Wang, Qianren Mao, Junnan Liu, Weifeng Jiang, Hongdong Zhu, Jianxin Li
- TLDR: Wir schlagen eine neuartige entropy-beschränkte pseudo-beschriftete Methode vor, um hochklassige Labels aus unbeschrifteten Vorhersagen zu erhalten.
- Question Generation Based on Grammar Knowledge and Fine-grained Classification
- Yuan Sun, Sisi Liu, Zhengcuo Dan, Xiaobing Zhao
- TLDR: Wir stellen einen Frage-Kategorisierungs- und einen Frage-Generator vor, um die Generierung von Fragen zu verbessern.
- CM-Gen: A Neural Framework for Chinese Metaphor Generation with Explicit Context Modelling
- Yucheng Li, Chenghua Lin, Frank Guerin
- TLDR: Wir stellen einen Multitasking-Rahmen vor, der die Erkennung und die Generierung von Metapheren kombiniert.
- Psychology-guided Controllable Story Generation
- Yuqiang Xie, Yue Hu, Yunpeng Li, Guanqun Bi, Luxi Xing, Wei Peng
- TLDR: Wir schlagen ein psychologisch-gesteuertes, steuerbares, differenzierbares und gut strukturiertes PICS vor, das die Wünsche und Emotionen der Protagonisten erfasst.
- Few-shot Table-to-text Generation with Prefix-Controlled Generator
- Yutao Luo, Menghua Lu, Gongshen Liu, Shilin Wang
- TLDR: Wir schlagen einen promptbasierten Generator vor, der die Texterzeugung von Texten mit wenigen Aufnahmen optimiert.
- Text Simplification of College Admissions Instructions: A Professionally Simplified and Verified Corpus
- Zachary W. Taylor, Maximus H. Chu, Junyi Jessy Li
- TLDR: Wir stellen PSAT vor, einen Datensatz mit 112 Admissions-Erklärungen aus verschiedenen Richtlinien für die Aufnahme von Schülern vor.
- On the Role of Pre-trained Language Models in Word Ordering: A Case Study with BART
- Zebin Ou, Meishan Zhang, Yue Zhang
- TLDR: Wir stellen fest, dass syntaktisches Abhängigkeitswissen in BART eine gute Erklärung für Worteinbettungen darstellt.
- Visual Information Guided Zero-Shot Paraphrase Generation
- Zhe Lin, Xiaojun Wan
- TLDR: Wir schlagen eine visuelle Information, die als Pivot-Information bezeichnet wird, vor, die die Back-Translation ermöglicht.
- Improving Abstractive Dialogue Summarization with Speaker-Aware Supervised Contrastive Learning
- Zhichao Geng, Ming Zhong, Zhangyue Yin, Xipeng Qiu, Xuanjing Huang
- TLDR: Wir stellen eine neue Methode vor, die die Sprachausfassungserkennung verbessert und die Fälschungen von Texten mit besserer Fälschbarkeit und Genauigkeit.
- Diversifying Neural Text Generation with Part-of-Speech Guided Softmax and Sampling
- Zhixian Yang, Pengxuan Xu, Xiaojun Wan
- TLDR: Wir schlagen eine neue Methode vor, die die Sprachannotation nutzt, um die Vielfalt von Texten zu fördern.
- Enhancing Pre-trained Models with Text Structure Knowledge for Question Generation
- Zichen Wu, Xin Jia, Fanyi Qu, Yunfang Wu
- TLDR: Wir stellen eine Methode zur Lokalitätsmodellierung vor, die die syntaktische Struktur des Eingangsbereichs für die QG berücksichtigt.
- LFKQG: A Controlled Generation Framework with Local Fine-tuning for Question Generation over Knowledge Bases
- Zichu Fei, Xin Zhou, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: Wir schlagen LFKQG vor, einen generativen Rahmen für Fragen zur Erzeugung von Wissensdaten in einem Bereich, der von einer bestimmten Antwortentität abhängt.
- Demystifying Neural Fake News via Linguistic Feature-Based Interpretation
- Ankit Aich, Souvik Bhattacharya, Natalie Parde
- TLDR: Wir vergleichen neuronale fake-news-Generatoren mit maschinellen Lernmodellen und zeigen, dass die meisten Modelle die besten Strategien zeigen.
- Measuring Geographic Performance Disparities of Offensive Language Classifiers
- Brandon Lwowski, Paul Rad, Anthony Rios
- TLDR: Wir analysieren und bewerten die Auswirkungen von sprachen, sprachenähnlichen und Themenbereichen auf die Leistung von Sprachdetektoren.
- Offensive Content Detection via Synthetic Code-Switched Text
- Cesa Salaam, Franck Dernoncourt, Trung Bui, Danda Rawat, Seunghyun Yoon
- TLDR: Wir stellen einen realen Datensatz mit 30k Stichproben für die Klassifizierung von Offensivem und H.A.-Speuern vor und stellen einen Algorithmus zur Erzeugung synthetischer Code-Switched Content-Daten vor.
- A Survey on Multimodal Disinformation Detection
- Firoj Alam, Stefano Cresci, Tanmoy Chakraborty, Fabrizio Silvestri, Dimiter Dimitrov, Giovanni Da San Martino, Shaden Shaar, Hamed Firooz, Preslav Nakov
- TLDR: Wir stellen eine Umfrage zur Multimodal-Erkennung von Verfälschungen vor, die auf die Verfälschungen von Texten, Bildern, Videos, Sprachstilen und Datensätzen basiert.
- Why Is It Hate Speech? Masked Rationale Prediction for Explainable Hate Speech Detection
- Jiyun Kim, Byounghan Lee, Kyung-Ah Sohn
- TLDR: Wir schlagen Masked Rationale Prediction (MRP) vor, eine Aufgabe zur Bestimmung maskierter menschlicher Wahrnehmungsmechanismen, die für menschliches Denken und Verständnis wichtig sind.
- Domain Classification-based Source-specific Term Penalization for Domain Adaptation in Hate-speech Detection
- Tulika Bose, Nikolaos Aletras, Irina Illina, Dominique Fohr
- TLDR: Wir schlagen einen Anpassungsansatz vor, der die Bedeutung von Worten, die von Klassifikatoren für die Erkennung von Hämlichkeitsverzerrungen, automatisch erfasst und penalisiert.
- Generalizable Implicit Hate Speech Detection Using Contrastive Learning
- Youngwook Kim, Shinwoo Park, Yo-Sub Han
- TLDR: Wir schlagen ImpCon vor, eine Methode zur Ableitung von impliziten Sätzen und deren Auswirkungen auf die Erkennung von VAE vor.
- Social Bot-Aware Graph Neural Network for Early Rumor Detection
- Zhen Huang, Zhilong Lv, Xiaoyun Han, Binyang Li, Menglong Lu, Dongsheng Li
- TLDR: Wir stellen ein Graphen-Netzwerk vor, das die Erkennung von Gerüchten in 3 bis 4 Stunden ermöglicht.
- A Contrastive Cross-Channel Data Augmentation Framework for Aspect-Based Sentiment Analysis
- Bing Wang, Liang Ding, Qihuang Zhong, Ximing Li, Dacheng Tao
- TLDR: Wir schlagen einen neuen Rahmen vor, der die Vielfalt von Ansichten in einer Satzrekonstruktion nutzt, um die Stimmungsverschiebungen bei der Bewertenden zu erkennen.
- Sentiment Interpretable Logic Tensor Network for Aspect-Term Sentiment Analysis
- Bowen Zhang, Xu Huang, Zhichao Huang, Hu Huang, Baoquan Zhang, Xianghua Fu, Liwen Jing
- TLDR: Wir schlagen eine neue Methode vor, die die Syntax-Erklärungswahrnehmung nutzt, um die Gefühle von Menschen zu interpretieren.
- Detecting Minority Arguments for Mutual Understanding: A Moderation Tool for the Online Climate Change Debate
- Cedric Waterschoot, Ernst van den Hemel, Antal van den Bosch
- TLDR: Wir schlagen einen Rahmen für die Bewertung von Benutzerbeobachtungen vor und einen Rahmen für das Verständnis von gegenseitigem Verständnis.
- A Multi-turn Machine Reading Comprehension Framework with Rethink Mechanism for Emotion-Cause Pair Extraction
- Changzhi Zhou, Dandan Song, Jing Xu, Zhijing Wu
- TLDR: Wir schlagen einen Multi-Turn-Rahmen für die Erkennung von Emotionen und deren Ursachen vor und schlagen ein Rethink-Mechanismus vor, um die Etiketteverschiebung zu lösen.
- Structural Bias for Aspect Sentiment Triplet Extraction
- Chen Zhang, Lei Ren, Fang Ma, Jingang Wang, Wei Wu, Dawei Song
- TLDR: Wir schlagen einen neuen Adapter vor, der die Strukturen von PLMs berücksichtigt und die Leistung bei der Texterzeugung verbessert.
- Unsupervised Data Augmentation for Aspect Based Sentiment Analysis
- David Z. Chen, Adam Faulkner, Sahil Badyal
- TLDR: Wir stellen eine UDA-Anpassung vor, die die index-Matching-Probleme auf spannebene behebt und die Leistung bei der Bewertung von Emotionen verbessert.
- A Sentiment and Emotion Aware Multimodal Multiparty Humor Recognition in Multilingual Conversational Setting
- Dushyant Singh Chauhan, Gopendra Vikram Singh, Aseem Arora, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: Wir stellen einen Multitasking-Rahmen vor, der die Stimmung und Emotionen von mehreren Parteien erfasst und gleichzeitig eine tiefe Kontext-Transfer-Architektur nutzt.
- TSAM: A Two-Stream Attention Model for Causal Emotion Entailment
- Duzhen Zhang, Zhen Yang, Fandong Meng, Xiuyi Chen, Jie Zhou
- TLDR: Wir schlagen ein zweistufiges Attention-Modell vor, das die Emotionen und die Gesprächsverantwortlichen in einer Konversation erfasst.
- Entity-Level Sentiment Analysis (ELSA): An Exploratory Task Survey
- Egil Rønningstad, Erik Velldal, Lilja Øvrelid
- TLDR: Wir analysieren, wie sich die Stimmung von Entitäten auf Dokumente, Satzebene und Zielebene auf die Gefühle von Zielen und Empfehlungen verallgemeinert.
- Learning from Adjective-Noun Pairs: A Knowledge-enhanced Framework for Target-Oriented Multimodal Sentiment Classification
- Fei Zhao, Zhen Wu, Siyu Long, Xinyu Dai, Shujian Huang, Jiajun Chen
- TLDR: Wir schlagen ein neuartiges Knowledge-Enhanced Framework (KEF) vor, das Adjective-Noun-Paare aus den Bildern nutzt, um die visuelle Aufmerksamkeit und die Stimmungsvorhersage bei der Multimodal-Metagrammklassifikation zu verbessern.
- Towards Exploiting Sticker for Multimodal Sentiment Analysis in Social Media: A New Dataset and Baseline
- Feng Ge, Weizhao Li, Haopeng Ren, Yi Cai
- TLDR: Wir stellen einen auf stickers basierenden Datensatz vor, der auf Emotionen von Texten und Zeichnungen basiert.
- Natural Language Inference Prompts for Zero-shot Emotion Classification in Text across Corpora
- Flor Miriam Plaza-del-Arco, María-Teresa Martín-Valdivia, Roman Klinger
- TLDR: Wir stellen fest, dass die Auswahl eines bestimmten Wortes für die Beantwortung von Emotionen eine Herausforderung darstellt.
- CommunityLM: Probing Partisan Worldviews from Language Models
- Hang Jiang, Doug Beeferman, Brandon Roy, Deb Roy
- TLDR: Wir verwenden CommunityLMs, um die Weltview von Personen zu erfragen, die sich auf Twitter oder auf der ANES-Umfrage befinden.
- Composition-based Heterogeneous Graph Multi-channel Attention Network for Multi-aspect Multi-sentiment Classification
- Hao Niu, Yun Xiong, Jian Gao, Zhongchen Miao, Xiaosu Wang, Hongrun Ren, Yao Zhang, Yangyong Zhu
- TLDR: Wir schlagen ein heterogenes Graphengraphen-Multichannel Attention Network (CHGMAN) vor, um die Beziehungen zwischen den Worten zu modellieren und die Stimmungsverschiebungen zwischen den Worten zu identifizieren.
- CoNTACT: A Dutch COVID-19 Adapted BERT for Vaccine Hesitancy and Argumentation Detection
- Jens Lemmens, Jens Van Nooten, Tim Kreutz, Walter Daelemans
- TLDR: Wir stellen CoNTACT vor, ein Sprachmodell, das die Domänen von COVID-19-Tweets anpasst.
- SSR: Utilizing Simplified Stance Reasoning Process for Robust Stance Detection
- Jianhua Yuan, Yanyan Zhao, Yanyue Lu, Bing Qin
- TLDR: Wir schlagen einen neuen Ansatz vor, um das Richtlinienverständnis für die Erkennung von Gegenbeispielen zu nutzen, um die Verzerrung von Gegenbeispielen zu reduzieren.
- Transferring Confluent Knowledge to Argument Mining
- João António Rodrigues, António Branco
- TLDR: Wir stellen eine empirische Bewertung von Argumentenmining vor, die die Fähigkeit nutzt, sich auf die Suche nach Argumenten zu verlassen.
- When to Laugh and How Hard? A Multimodal Approach to Detecting Humor and Its Intensity
- Khalid Alnajjar, Mika Hämäläinen, Jörg Tiedemann, Jorma Laaksonen, Mikko Kurimo
- TLDR: Wir stellen eine Methode vor, die automatisch die Erkennung von Geselligkeit in einem TV-Spot zeigt.
- Modeling Aspect Correlation for Aspect-based Sentiment Analysis via Recurrent Inverse Learning Guidance
- Longfeng Li, Haifeng Sun, Qi Qi, Jingyu Wang, Jing Wang, Jianxin Liao
- TLDR: Wir schlagen eine neue Methode vor, die Recurrent Inverse Learning, eine Methode zur Verflechtung von Emotionen und zur Verbesserung der Auswahl von Merkmalen, verwendet.
- Analyzing Persuasion Strategies of Debaters on Social Media
- Matti Wiegmann, Khalid Al Khatib, Vishal Khanna, Benno Stein
- TLDR: Wir quantifizieren die Effizienz von Kommentaren in Online-Gesprächungen und schlagen eine neue Methode vor, um die Effizienz von Experten über mehrere Gesprächsrunden zu quantifizieren.
- KC-ISA: An Implicit Sentiment Analysis Model Combining Knowledge Enhancement and Context Features
- Minghao Xu, Daling Wang, Shi Feng, Zhenfei Yang, Yifei Zhang
- TLDR: Wir schlagen ein neuartiges Implicit Sentiment Analysis Modell vor, das externes Wissen und Kontextmerkmale kombiniert, um eine bessere Text-Sentment-Analyse zu erreichen.
- Domain Generalization for Text Classification with Memory-Based Supervised Contrastive Learning
- Qingyu Tan, Ruidan He, Lidong Bing, Hwee Tou Ng
- TLDR: Wir schlagen einen neuen Rahmen vor, der auf kontrastives Lernen basiert, um eine große Vielfalt von Klassen in einer einzigen Aufgabe zu adaptieren.
- A Zero-Shot Claim Detection Framework Using Question Answering
- Revanth Gangi Reddy, Sai Chetan Chinthakindi, Yi R. Fung, Kevin Small, Heng Ji
- TLDR: Wir schlagen einen neuen Ansatz zur Erkennung von Behauptungen vor, der auf Zero-Shot Question Answering (QA) verwendet, um eine Reihe von Aufgaben wie Themenfilterung, Behauptungsobjektenerkennung und Behauptungsobjekten zu lösen.
- Asymmetric Mutual Learning for Multi-source Unsupervised Sentiment Adaptation with Dynamic Feature Network
- Rui Li, Cheng Liu, Dazhi Jiang
- TLDR: Wir schlagen eine neue Methode vor, die die Vorhersage von Gefühlen mit Hilfe von anderen Sprachmodellen kombiniert.
- Target Really Matters: Target-aware Contrastive Learning and Consistency Regularization for Few-shot Stance Detection
- Rui Liu, Zheng Lin, Huishan Ji, Jiangnan Li, Peng Fu, Weiping Wang
- TLDR: Wir schlagen einen neuen Rahmen für die Erkennung von Gegenbeispielen vor, der auf kontrastive Weise die Wahrnehmungswahrnehmung verbessert.
- Joint Alignment of Multi-Task Feature and Label Spaces for Emotion Cause Pair Extraction
- Shunjie Chen, Xiaochuan Shi, Jingye Li, Shengqiong Wu, Hao Fei, Fei Li, Donghong Ji
- TLDR: Wir schlagen eine Feature-Task-Anpassung vor, um die Emotionen- und die Zufallsmerkmale in einer gemeinsamen interaktiven Merkmals- und Merkmalsausbreitung zu modellieren.
- Causal Intervention Improves Implicit Sentiment Analysis
- Siyin Wang, Jie Zhou, Changzhi Sun, Junjie Ye, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: Wir schlagen ein Causal-Ansatz vor, um implizite Gefühlsanalysen mit instrumentalen Variablen zu lösen.
- COMMA-DEER: COmmon-sense Aware Multimodal Multitask Approach for Detection of Emotion and Emotional Reasoning in Conversations
- Soumitra Ghosh, Gopendra Vikram Singh, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: Wir stellen eine neue Aufgabe vor, die Emotionen und Emotionen in Gesprächsverhältnissen erkennt und die Erkennung von Emotionen und Emotionen in Gesprächsverhältnissen ermöglicht.
- EmoMent: An Emotion Annotated Mental Health Corpus from Two South Asian Countries
- Thushari Atapattu, Mahen Herath, Charitha Elvitigala, Piyanjali de Zoysa, Kasun Gunawardana, Menasha Thilakaratne, Kasun de Zoysa, Katrina Falkner
- TLDR: Wir haben einen emotionsannotierten mentalen Korpus (EmoMent) entwickelt, der 2802 Facebook-Posts (14845 Sätze) enthält, darunter Krankheiten und Emotionen.
- LEGO-ABSA: A Prompt-based Task Assemblable Unified Generative Framework for Multi-task Aspect-based Sentiment Analysis
- Tianhao Gao, Jun Fang, Hanyu Liu, Zhiyuan Liu, Chao Liu, Pengzhang Liu, Yongjun Bao, Weipeng Yan
- TLDR: Wir schlagen einen Multi-Task-Rahmen vor, der mehrere Aufgaben gleichzeitig lösen kann.
- A Hierarchical Interactive Network for Joint Span-based Aspect-Sentiment Analysis
- Wei Chen, Jinglong Du, Zhao Zhang, Fuzhen Zhuang, Zhongshi He
- TLDR: Wir schlagen ein hierarchisches Interaktives Netz vor, um zwei- und mehrschichtige Interaktionen zwischen zwei Aufgaben zu modellieren.
- MuCDN: Mutual Conversational Detachment Network for Emotion Recognition in Multi-Party Conversations
- Weixiang Zhao, Yanyan Zhao, Bing Qin
- TLDR: Wir schlagen eine neue Methode vor, die die Emotionen in Gesprächsverschiebungen erkennt, indem wir sie in geschlossenen Domänen miteinander verbinden.
- UECA-Prompt: Universal Prompt for Emotion Cause Analysis
- Xiaopeng Zheng, Zhiyue Liu, Zizhen Zhang, Zhaoyang Wang, Jiahai Wang
- TLDR: Wir schlagen eine universelle PPU-Methode vor, um die Verzerrung zwischen den Zielen in einer ECA-Aufgabe zu lösen.
- One-Teacher and Multiple-Student Knowledge Distillation on Sentiment Classification
- Xiaoqin Chang, Sophia Yat Mei Lee, Suyang Zhu, Shoushan Li, Guodong Zhou
- TLDR: Wir schlagen einen neuartigen Ansatz zur Wissensdestillation vor, um ein tiefes Lehrermodell in ein kleines, kompaktes Modell zu verwandeln.
- Making Parameter-efficient Tuning More Efficient: A Unified Framework for Classification Tasks
- Xin Zhou, Ruotian Ma, Yicheng Zou, Xuanting Chen, Tao Gui, Qi Zhang, Xuanjing Huang, Rui Xie, Wei Wu
- TLDR: Wir schlagen ein Framework vor, das die Leistung von PLMs bei der Textklassifikation erheblich verbessert und gleichzeitig die Effizienz von bestehenden Parameter-Effizienzmethoden erhöht.
- A Multi-Task Dual-Tree Network for Aspect Sentiment Triplet Extraction
- Yichun Zhao, Kui Meng, Gongshen Liu, Jintao Du, Huijia Zhu
- TLDR: Wir schlagen ein Multi-Task Dual-Tree Network (MTDTN) vor, um die Ungleichgewichte zwischen den Ansichten zu erkennen und die Schlussfolgerungen zu ziehen.
- Exploiting Unlabeled Data for Target-Oriented Opinion Words Extraction
- Yidong Wang, Hao Wu, Ao Liu, Wenxin Hou, Zhen Wu, Jindong Wang, Takahiro Shinozaki, Manabu Okumura, Yue Zhang
- TLDR: Wir schlagen eine neue Multi-Grained Consistency Regularization (MGCR) Methode vor, um verrauschte Daten mit unterschiedlicher Granularität zu filtern.
- Learnable Dependency-based Double Graph Structure for Aspect-based Sentiment Analysis
- Yinglong Ma, Yunhe Pang
- TLDR: Wir schlagen ein auf LD2G basierendes double-graphen-Modell vor, das auf der Anpassung von Emotionen basiert.
- A Structure-Aware Argument Encoder for Literature Discourse Analysis
- Yinzi Li, Wei Chen, Zhongyu Wei, Yujun Huang, Chujun Wang, Siyuan Wang, Qi Zhang, Xuanjing Huang, Libo Wu
- TLDR: Wir schlagen einen neuen Ansatz vor, um strukturierte Argumentationsrepräsentationen zu lernen.
- Mere Contrastive Learning for Cross-Domain Sentiment Analysis
- Yun Luo, Fang Guo, Zihan Liu, Yue Zhang
- TLDR: Wir schlagen einen neuen Ansatz für das contrastive Lernen vor, um die Gefühle von Texten in einer Zieldomäne zu bestimmen.
- Exploiting Sentiment and Common Sense for Zero-shot Stance Detection
- Yun Luo, Zihan Liu, Yuefeng Shi, Stan Z. Li, Yue Zhang
- TLDR: Wir stellen ein graphisches Autoencoder-Modul vor, das sentimentelles und allgemeines Verständnis kombiniert, um eine Richtlinie für die Klassifizierung von Standpunkten zu erstellen.
- Modeling Intra- and Inter-Modal Relations: Hierarchical Graph Contrastive Learning for Multimodal Sentiment Analysis
- Zijie Lin, Bin Liang, Yunfei Long, Yixue Dang, Min Yang, Min Zhang, Ruifeng Xu
- TLDR: Wir schlagen einen neuartigen Rahmen für das Graphen-Vergleichen vor, um die intricate Beziehungen zwischen den Ansichten zu untersuchen.
- AMOA: Global Acoustic Feature Enhanced Modal-Order-Aware Network for Multimodal Sentiment Analysis
- Ziming Li, Yan Zhou, Weibo Zhang, Yaxin Liu, Chuanpeng Yang, Zheng Lian, Songlin Hu
- TLDR: Wir schlagen ein globales akustisches Merkmal verbessertes Modal-Order-Aware Netzwerk (AMOA) vor, um die Multimodal-Führungsmerkmale in einem Video zu erhalten.
- Keyphrase Prediction from Video Transcripts: New Dataset and Directions
- Amir Pouran Ben Veyseh, Quan Hung Tran, Seunghyun Yoon, Varun Manjunatha, Hanieh Deilamsalehy, Rajiv Jain, Trung Bui, Walter W. Chang, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Wir stellen einen großen Datensatz für die Klassifizierung von Schlüsselphrasen vor, der von einem Online-Video-Streaming-Ansatz verwendet wird.
- Event Extraction in Video Transcripts
- Amir Pouran Ben Veyseh, Viet Dac Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Wir stellen einen neuen Datensatz für Video-Transfer-Videos vor, der für die Erfassung von Texten in Form von Texten mit rekurrenten Texten verwendet werden kann.
- Recycle Your Wav2Vec2 Codebook: A Speech Perceiver for Keyword Spotting
- Guillermo Cámbara, Jordi Luque, Mireia Farrús
- TLDR: Wir verwenden die Codebücher von Wav2vec2.0, um die Phonetik von Texten zu nutzen, die beim Keywords-Suchversuchen verwendet werden.
- Improving Code-switched ASR with Linguistic Information
- Jie Chi, Peter Bell
- TLDR: Wir schlagen einen linguistischen Ansatz vor, um Code-Switching-Texte zu generieren, die für die Sprachmodellierung von ASRs geeignet sind.
- Language-specific Effects on Automatic Speech Recognition Errors for World Englishes
- June Choe, Yiran Chen, May Pik Yu Chan, Aini Li, Xin Gao, Nicole Holliday
- TLDR: Wir analysieren die Leistung von Otter auf sprachenspezifischen Fehlerprofilen und stellen fest, dass bestimmte sprachenspezifische Fehler aus der phonologischen Struktur eines Sprachgedächtnisses abgeleitet werden können.
- A Transformer-based Threshold-Free Framework for Multi-Intent NLU
- Lisung Chen, Nuo Chen, Yuexian Zou, Yong Wang, Xinzhong Sun
- TLDR: Wir schlagen ein transformerbasiertes Multi-Intennt-NLU-Modell vor, das die Anzahl der mehreren Intentionen in jeder Eingabe erkennt.
- Unsupervised Multi-scale Expressive Speaking Style Modeling with Hierarchical Context Information for Audiobook Speech Synthesis
- Xueyuan Chen, Shun Lei, Zhiyong Wu, Dong Xu, Weifeng Zhao, Helen Meng
- TLDR: Wir schlagen ein unüberwachtes Text-to-Speech-Modell vor, das auf globalen und lokalen Skalen von Sprachstilen abhängt.
- Incorporating Instructional Prompts into a Unified Generative Framework for Joint Multiple Intent Detection and Slot Filling
- Yangjun Wu, Han Wang, Dongxiang Zhang, Gang Chen, Hao Zhang
- TLDR: Wir schlagen ein neues generatives Modell vor, das auf einem Vorwärtskommentierungsrahmen basiert, und lösen eine Aufgabe als eine Frage-Antwort-Problem.
- Adaptive Unsupervised Self-training for Disfluency Detection
- Zhongyuan Wang, Yixuan Wang, Shaolei Wang, Wanxiang Che
- TLDR: Wir schlagen eine adaptive unbeaufsichtigte Selbsttrainingsmethode vor, die die Verzerrung von Daten mit Hilfe von unbeaufsichtigten Trainingsmethoden effektiv ermitteln kann.