AACL 2022 in German
TLDRs
- Chasing the Tail with Domain Generalization: A Case Study on Frequency-Enriched Datasets
- Manoj Kumar, Anna Rumshisky, Rahul Gupta
- TLDR: Wir schlagen eine Methode vor, die die Frequenz in den Trainingsdaten verwendet, um Modelle, die sich auf natürliche Sprachrepräsentationen übertragen, robuster zu machen.
- Double Trouble: How to not Explain a Text Classifier’s Decisions Using Counterfactuals Synthesized by Masked Language Models?
- Thang Pham, Trung Bui, Long Mai, Anh Nguyen
- TLDR: Wir stellen fest, dass BERT für die Eingabematrix schlechter ist als LOO.
- An Empirical Study on Cross-X Transfer for Legal Judgment Prediction
- Joel Niklaus, Matthias Stürmer, Ilias Chalkidis
- TLDR: Wir verwenden Cross-Lingual Transfer Learning, um die Leistung von juristischen und nicht-legalen Modellen zu verbessern.
- CNN for Modeling Sanskrit Originated Bengali and Hindi Language
- Chowdhury Rahman, MD. Hasibur Rahman, Mohammad Rafsan, Mohammed Eunus Ali, Samiha Zakir, Rafsanjani Muhammod
- TLDR: Wir stellen eine CNN-Architektur vor, die die Sprachausgangssprachen von Bengali und Hindi modelliert.
- Leveraging Key Information Modeling to Improve Less-Data Constrained News Headline Generation via Duality Fine-Tuning
- Zhuoxuan Jiang, Lingfeng Qiao, Di Yin, Shanshan Feng, Bo Ren
- TLDR: Wir schlagen eine neue Methode zur Sprachmodellierung vor, die die Aufmerksamkeit von Nutzern auf die Erzeugung von Nachrichten gleichzeitig berücksichtigt.
- Systematic Evaluation of Predictive Fairness
- Xudong Han, Aili Shen, Trevor Cohn, Timothy Baldwin, Lea Frermann
- TLDR: Wir vergleichen die Leistung verschiedener Debiasing-Methoden bei mehreren Aufgaben und zeigen, dass die Datenbedingungen eine starke Einflussnahme auf die Modellleistung haben.
- Graph-augmented Learning to Rank for Querying Large-scale Knowledge Graph
- Hanning Gao, Lingfei Wu, Po Hu, Zhihua Wei, Fangli Xu, Bo Long
- TLDR: Wir schlagen ein graph-augmented Learning-Methodenmodell vor, um globale Interaktionen in Wissensgraphen zu erfassen.
- An Embarrassingly Simple Approach for Intellectual Property Rights Protection on Recurrent Neural Networks
- Zhi Qin Tan, Hao Shan Wong, Chee Seng Chan
- TLDR: Wir schlagen einen neuen Ansatz vor, um IPR-Verantwortung für rekurrente neuronale Netze zu erhalten.
- WAX: A New Dataset for Word Association eXplanations
- Chunhua Liu, Trevor Cohn, Simon De Deyne, Lea Frermann
- TLDR: Wir stellen eine große Sammlung von Wortendarstellungen vor, die von Sprachmodellen erfasst werden, und entwickeln eine Analyse und eine Aufgabe, um zu proben, ob bestehende Sprachmodelle die unteren Beziehungen erfasst.
- Missing Modality meets Meta Sampling (M3S): An Efficient Universal Approach for Multimodal Sentiment Analysis with Missing Modality
- Haozhe Chi, Minghua Yang, Junhao Zhu, Guanhong Wang, Gaoang Wang
- TLDR: Wir schlagen einen Meta-Sampling-Ansatz für die Multimodal Gefühlsanalyse mit fehlenden Modalitäten vor, der die Vermischung von Vermisschtungen in die Analyse integriert.
- SPARQL-to-Text Question Generation for Knowledge-Based Conversational Applications
- Gwénolé Lecorvé, Morgan Veyret, Quentin Brabant, Lina M. Rojas Barahona
- TLDR: Wir stellen eine neue Aufgabe vor, die auf SPARQL-Fragen basiert und zeigen, dass die meisten Modelle gut funktionieren.
- S+PAGE: A Speaker and Position-Aware Graph Neural Network Model for Emotion Recognition in Conversation
- Chen Liang, Jing Xu, Yangkun Lin, Chong Yang, Yongliang Wang
- TLDR: Wir schlagen ein GNN-basiertes Modell vor, um die Spracherkennung in Gesprächen besser zu erfassen.
- Grammatical Error Correction Systems for Automated Assessment: Are They Susceptible to Universal Adversarial Attacks?
- Vyas Raina, Yiting Lu, Mark Gales
- TLDR: Wir haben einen Angriff auf die Grammatik vorgeschlagen, der auf die Fähigkeit eines Kandidaten zur Grammatikvervollständigung abzielt.
- This Patient Looks Like That Patient: Prototypical Networks for Interpretable Diagnosis Prediction from Clinical Text
- Betty van Aken, Jens-Michalis Papaioannou, Marcel Naik, Georgios Eleftheriadis, Wolfgang Nejdl, Felix Gers, Alexander Loeser
- TLDR: Wir stellen ProtoPatient vor, eine Methode, die auf prototypischen Netzen und Label-Wählern basiert, und die darauf abzielt, die Diagnose von Patienten zu ermitteln, die ähnlich zu den Patienten sind.
- Cross-lingual Similarity of Multilingual Representations Revisited
- Maksym Del, Mark Fishel
- TLDR: Wir stellen Average Neuron-Wise-Correctation (ANC) vor, eine Methode zur Anpassung von Sprachmodellen an die Sprachnormen und zeigen, dass sie für die Sprachmodellierung geeignet ist.
- Arabic Dialect Identification with a Few Labeled Examples Using Generative Adversarial Networks
- Mahmoud Yusuf, Marwan Torki, Nagwa El-Makky
- TLDR: Wir erweitern die BERT- und MARBERT-Modelle auf generative adversariale Umgebungen und verwenden sie zur Erkennung von Dialekt-Arabisch.
- Semantic Shift Stability: Efficient Way to Detect Performance Degradation of Word Embeddings and Pre-trained Language Models
- Shotaro Ishihara, Hiromu Takahashi, Hono Shirai
- TLDR: Wir schlagen eine Methode vor, die die Zeitreihenleistungsverschlechterung von Worteinbettungen und Sprachmodellen erkennt und die Entscheidung darüber, ob ein Modell für die Wiederherstellung oder für die Verbesserung von Sprachmodellen benötigt wird.
- Neural Text Sanitization with Explicit Measures of Privacy Risk
- Anthi Papadopoulou, Yunhao Yu, Pierre Lison, Lilja Øvrelid
- TLDR: Wir stellen einen neuartigen Ansatz zur Textverzerrung vor, der die Identität von Personen mit Hilfe von BERT maskiert und gleichzeitig die Privatsphäre der Personen mit Hilfe von BERT berücksichtigt.
- AGRank: Augmented Graph-based Unsupervised Keyphrase Extraction
- Haoran Ding, Xiao Luo
- TLDR: Wir schlagen ein BERT-basiertes unbeaufsichtigtes Modell vor, um Schlüsselwörter aus Dokumenten zu extrahieren.
- Towards Unified Representations of Knowledge Graph and Expert Rules for Machine Learning and Reasoning
- Zhepei Wei, Yue Wang, Jinnan Li, Zhining Liu, Erxin Yu, Yuan Tian, Xin Wang, Yi Chang
- TLDR: Wir stellen einen Rahmen vor, der die unifizierenden Repräsentationen von Wissensgraphen und Expertenregeln und relationalen Belegen verbindet.
- Who did what to Whom? Language models and humans respond diversely to features affecting argument hierarchy construction
- Xiaonan Xu, Haoshuo Chen
- TLDR: Wir analysieren, ob die Modelle und die Menschen die Argumente hierarchisch ähnlich aufbauen, wie die Auswirkungen von Agenten, Richtlinien und Individuationen.
- CrowdChecked: Detecting Previously Fact-Checked Claims in Social Media
- Momchil Hardalov, Anton Chernyavskiy, Ivan Koychev, Dmitry Ilvovsky, Preslav Nakov
- TLDR: Wir stellen eine Methode vor, die auf der Crowd-Fahtung basiert, um die Verfälschungen von Behauptungen in sozialen Medien zu überprüfen.
- Hate Speech and Offensive Language Detection in Bengali
- Mithun Das, Somnath Banerjee, Punyajoy Saha, Animesh Mukherjee
- TLDR: Wir entwickeln einen neuen Datensatz von 10K Bengali-Posts, der von aktuellen und 5K Romanisierten Bengali-Tweets besteht.
- Learning Interpretable Latent Dialogue Actions With Less Supervision
- Vojtěch Hudeček, Ondřej Dušek
- TLDR: Wir stellen eine neuartige Architektur vor, die auf Aufgaben- und Benutzerinteraktionen mit diskreten Variablen basiert und die Erkennung von Dialogverhalten ermöglicht.
- Named Entity Recognition in Twitter: A Dataset and Analysis on Short-Term Temporal Shifts
- Asahi Ushio, Francesco Barbieri, Vitor Sousa, Leonardo Neves, Jose Camacho-Collados
- TLDR: Wir stellen Twitter vor, eine Twitter-App für Sprachmodelle, und stellen einen neuen NER-Datensätzen vor, TweetNER7, der auf Twitter-Tweets abrufbar ist.
- PInKS: Preconditioned Commonsense Inference with Minimal Supervision
- Ehsan Qasemi, Piyush Khanna, Qiang Ning, Muhao Chen
- TLDR: Wir stellen ein neues Modell vor, das die Begründung mit Vorbeschränkungen durch minimum Überwachung ermöglicht.
- Cross-Lingual Open-Domain Question Answering with Answer Sentence Generation
- Benjamin Muller, Luca Soldaini, Rik Koncel-Kedziorski, Eric Lind, Alessandro Moschitti
- TLDR: Wir stellen ein neues generatives Modell vor, das vollständige Sätze erzeugt, indem es passages in mehreren Sprachen nutzt.
- Discourse Parsing Enhanced by Discourse Dependence Perception
- Yuqing Xing, Longyin Zhang, Fang Kong, Guodong Zhou
- TLDR: Wir schlagen einen gemeinsamen Rahmen vor, der die Konsistenz- und Formalitätsverknüpfung nutzt, um die Aufmerksamkeit auf die Bedeutungsverknüpfung zu richten.
- Prediction of People’s Emotional Response towards Multi-modal News
- Ge Gao, Sejin Paik, Carley Reardon, Yanling Zhao, Lei Guo, Prakash Ishwar, Margrit Betke, Derry Tanti Wijaya
- TLDR: Wir stellen einen neuen Datensatz für die Erkennung und Vorhersage von Emotionen vor, der auf Nachrichten mit gewalttätigen Inhalten angewendet werden kann.
- AugCSE: Contrastive Sentence Embedding with Diverse Augmentations
- Zilu Tang, Muhammed Yusuf Kocyigit, Derry Tanti Wijaya
- TLDR: Wir stellen AugCSE vor, ein Framework, das mehrere Datensätze in einer Satzeinbettung nutzt, um ein besseres, allgemeines, Satzverschiebungsmodell zu schaffen.
- Seamlessly Integrating Factual Information and Social Content with Persuasive Dialogue
- Maximillian Chen, Weiyan Shi, Feifan Yan, Ryan Hou, Jingwen Zhang, Saurav Sahay, Zhou Yu
- TLDR: Wir stellen einen neuen Rahmen vor, der fäklich und seamtlich fäklich in die Gesprächsdynamik integriert.
- Dual-Encoder Transformers with Cross-modal Alignment for Multimodal Aspect-based Sentiment Analysis
- Zhewen Yu, Jin Wang, Liang-Chih Yu, Xuejie Zhang
- TLDR: Wir schlagen einen dualencoder-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer-Transformer
- AVAST: Attentive Variational State Tracker in a Reinforced Navigator
- Je-Wei Jang, Mahdin Rohmatillah, Jen-Tzung Chien
- TLDR: Wir stellen einen VAAST-Rahmen vor, der die Wahrnehmung in einer Vision- und Sprachbearbeitungsaufgabe verbessert.
- Phylogeny-Inspired Adaptation of Multilingual Models to New Languages
- Fahim Faisal, Antonios Anastasopoulos
- TLDR: Wir verwenden sprachenphylologene Informationen, um sprachenübergreifende Sprachmodelle zu verbessern.
- Transferring Knowledge via Neighborhood-Aware Optimal Transport for Low-Resource Hate Speech Detection
- Tulika Bose, Irina Illina, Dominique Fohr
- TLDR: Wir schlagen eine flexible Modellierung der relativen Nähe zu Nachbarn vor, die die Menge des Übertragungss von gegnerischen Behörden in einem großen Datensatz lernt.
- Bag-of-Vectors Autoencoders for Unsupervised Conditional Text Generation
- Florian Mai, James Henderson
- TLDR: Wir schlagen Bag-of-Vectors-Autoencoders vor, die Text in eine variable Größenordnung einbeziehen, um die Texterzeugung zu beschleunigen.
- RecInDial: A Unified Framework for Conversational Recommendation with Pretrained Language Models
- Lingzhi Wang, Huang Hu, Lei Sha, Can Xu, Daxin Jiang, Kam-Fai Wong
- TLDR: Wir schlagen einen neuartigen Rahmen vor, der Empfehlungen in die Dialoggenerierung integriert und die Sprachausnutzung verbessert.
- SummVD : An efficient approach for unsupervised topic-based text summarization
- Gabriel Shenouda, Aurélien Bossard, Oussama Ayoub, Christophe Rodrigues
- TLDR: Wir stellen eine neue Methode, SummVD, vor, die automatisch unbeaufsichtigte Texterfassungen durch automatische Satzextraktion ersetzt.
- Director: Generator-Classifiers For Supervised Language Modeling
- Kushal Arora, Kurt Shuster, Sainbayar Sukhbaatar, Jason Weston
- TLDR: Wir stellen eine neue Architektur vor, die einen Generator-Klassifikator mit einer Sprachmodellierung und einem Klassifikationsbegriff für jede Ausgabe von Sprachmodellen kombiniert.
- VLStereoSet: A Study of Stereotypical Bias in Pre-trained Vision-Language Models
- Kankan Zhou, Eason Lai, Jing Jiang
- TLDR: Wir schlagen eine Aufgabe vor, die die Verzerrung von Text und Bild als Abschriften für die Entflechtung von Stereotypen erkennt.
- Dynamic Context Extraction for Citation Classification
- Suchetha Nambanoor Kunnath, David Pride, Petr Knoth
- TLDR: Wir stellen einen automatisierten Algorithmus zur Auswahl von dynamischen und potentially nicht-kontigugen CQN-Kontexten vor, der die Verwendung von transformerbasierten Dokumenten und Einbettungen verwendet.
- Affective Retrofitted Word Embeddings
- Sapan Shah, Sreedhar Reddy, Pushpak Bhattacharyya
- TLDR: Wir stellen eine neuartige Transformationsfunktion vor, die Worteinbettungen für ihre Emotionen nutzt.
- Is Encoder-Decoder Redundant for Neural Machine Translation?
- Yingbo Gao, Christian Herold, Zijian Yang, Hermann Ney
- TLDR: Wir stellen einen neuen Ansatz für die maschinelle Übersetzung vor, der auf neuronalen Netzen basiert.
- SAPGraph: Structure-aware Extractive Summarization for Scientific Papers with Heterogeneous Graph
- Siya Qi, Lei Li, Yiyang Li, Jin Jiang, Dingxin Hu, Yuze Li, Yingqi Zhu, Yanquan Zhou, Marina Litvak, Natalia Vanetik
- TLDR: Wir stellen eine Methode zur Erfassung von Text zusammen mit einer heterogenen Graphen vor, die die Papierstruktur nutzt.
- Toward Implicit Reference in Dialog: A Survey of Methods and Data
- Lindsey Vanderlyn, Talita Anthonio, Daniel Ortega, Michael Roth, Ngoc Thang Vu
- TLDR: Wir stellen eine Studie über die Automatisierung von Sprachrecherzeugungen vor, die die Sprachverständnisseinbettungen in natürlicher Sprache ermöglicht.
- A Decade of Knowledge Graphs in Natural Language Processing: A Survey
- Phillip Schneider, Tim Schopf, Juraj Vladika, Mikhail Galkin, Elena Simperl, Florian Matthes
- TLDR: Wir analysieren und bewerten KGs in NLP und stellen eine Struktur vor, die die Entwicklungen in diesem Bereich erfasst.
- Multimodal Generation of Radiology Reports using Knowledge-Grounded Extraction of Entities and Relations
- Francesco Dalla Serra, William Clackett, Hamish MacKinnon, Chaoyang Wang, Fani Deligianni, Jeff Dalton, Alison Q. O’Neil
- TLDR: Wir schlagen einen zweistufigen Pipeline-Rahmen vor, der die Texterzeugung von Bildern aus dem Krankenhaus unter Verwendung von rekurrenten Texten und der Erzeugung von Texten für die Bildbeschriftung kombiniert.
- SBERT studies Meaning Representations: Decomposing Sentence Embeddings into Explainable Semantic Features
- Juri Opitz, Anette Frank
- TLDR: Wir schlagen BERT vor, um semantisch strukturierte Sätzeinbettungen zu erlernen, die sich über menschliche Ähnlichkeit hinweg verallgemeinert.
- The Lifecycle of “Facts”: A Survey of Social Bias in Knowledge Graphs
- Angelie Kraft, Ricardo Usbeck
- TLDR: Wir analysieren und bewerten Literatur, die die Verzerrung von Wissensgraphen in verschiedenen Schritten des Wissensgraphenlebenszyklus darstellt.
- Food Knowledge Representation Learning with Adversarial Substitution
- Diya Li, Mohammed J Zaki
- TLDR: Wir schlagen eine Sammlung von Angriffsstrategien vor, die die Verwendung von Wissensgraphen in einer großen KG ermöglichen.
- Construction Repetition Reduces Information Rate in Dialogue
- Mario Giulianelli, Arabella Sinclair, Raquel Fernandez
- TLDR: Wir stellen fest, dass die Verwendung von Konstruktionen zur Informationsverzerrung die Informationsrate erhöht.
- Analogy-Guided Evolutionary Pretraining of Binary Word Embeddings
- R. Alexander Knipper, Md. Mahadi Hassan, Mehdi Sadi, Shubhra Kanti Karmaker Santu
- TLDR: Wir schlagen einen neuen Algorithmus vor, der die Beziehungen zwischen Worten aus bestehenden Wortanalogiedatensätzen lernt, und die Eigenschaften der Einbettungen selbst wiederherstellen kann.
- Contrastive Video-Language Learning with Fine-grained Frame Sampling
- Zixu Wang, Yujie Zhong, Yishu Miao, Lin Ma, Lucia Specia
- TLDR: Wir schlagen FineCo vor, einen Ansatz zum besseren Lernen von Video- und Sprachrepräsentationen mit einem fine-grained Kontrastive Loss für Frame Sampling.
- Enhancing Tabular Reasoning with Pattern Exploiting Training
- Abhilash Shankarampeta, Vivek Gupta, Shuo Zhang
- TLDR: Wir verwenden Pattern-Exploiting Training (PET) (i.e., strategic MLM) auf pre-trained Sprachmodelle, um die Fähigkeiten von Wissenswerten und Schlussfolgerungen zu verbessern.
- Re-contextualizing Fairness in NLP: The Case of India
- Shaily Bhatt, Sunipa Dev, Partha Talukdar, Shachi Dave, Vinodkumar Prabhakaran
- TLDR: Wir stellen eine holistische Forschungsagenda vor, um die NLP-Falheit in der globalen Welt zu untersuchen und zu verbessern.
- Low-Resource Multilingual and Zero-Shot Multispeaker TTS
- Florian Lux, Julia Koch, Ngoc Thang Vu
- TLDR: Wir stellen eine Methode vor, die die Sprachausbreitung von Text-to-Speech (TTS) in einer Sprachausbreitung mit wenigen Sprachbildern modelliert.
- Unsupervised Domain Adaptation for Sparse Retrieval by Filling Vocabulary and Word Frequency Gaps
- Hiroki Iida, Naoaki Okazaki
- TLDR: Wir schlagen eine unbeaufsichtigte Sprachmodellierungsmethode vor, die die Sprachverschiebungen in der Zieldomänenumgebung berücksichtigt.
- KESA: A Knowledge Enhanced Approach To Sentiment Analysis
- Qinghua Zhao, Shuai Ma, Shuo Ren
- TLDR: Wir schlagen zwei Aufgaben vor, die auf sentimentsbewusste Ansätze trainiert wurden, und die Aufgabe der Bestimmung von Gefühlswörtern und der Bestimmung von Bemerkungen für die Maskenrekonstruktion und die Etikettenauswahl.
- Cross-lingual Few-Shot Learning on Unseen Languages
- Genta Winata, Shijie Wu, Mayank Kulkarni, Thamar Solorio, Daniel Preotiuc-Pietro
- TLDR: Wir vergleichen die Effektivität von wenigen Sprachbildern und die Dynamik der Sprachauswahl und zeigen, dass die Verwendung von Sprachbildern für das Übertragungsproblem eine gute Leistung erzielt.
- Domain-aware Self-supervised Pre-training for Label-Efficient Meme Analysis
- Shivam Sharma, Mohd Khizir Siddiqui, Md. Shad Akhtar, Tanmoy Chakraborty
- TLDR: Wir stellen Ext-PIE-Net und MM-SimCLR vor, die auf Multi-Modal-Hybrid-Learning-Methoden trainiert wurden, um komplexe Multi-Modal-Meme-Analyse-Aufgaben zu lernen.
- A Prompt Array Keeps the Bias Away: Debiasing Vision-Language Models with Adversarial Learning
- Hugo Berg, Siobhan Hall, Yash Bhalgat, Hannah Kirk, Aleksandar Shtedritski, Max Bain
- TLDR: Wir analysieren und lösen bias-Methoden und verwenden Ranking-Methoden für Bild- und Textrepräsentationen.
- Some Languages are More Equal than Others: Probing Deeper into the Linguistic Disparity in the NLP World
- Surangika Ranathunga, Nisansa de Silva
- TLDR: Wir analysieren die Sprachverzerrung in der Welt und stellen eine Schlussfolgerung vor, dass Sprachbezeichnungen nicht immer richtig sind.
- Neural Readability Pairwise Ranking for Sentences in Italian Administrative Language
- Martina Miliani, Serena Auriemma, Fernando Alva-Manchego, Alessandro Lenci
- TLDR: Wir analysieren, wie ein neuronales Ranking-Modell die Sprachauswertung von Texten auf Satzebene verbessert.
- Delivering Fairness in Human Resources AI: Mutual Information to the Rescue
- Leo Hemamou, William Coleman
- TLDR: Wir schlagen eine Methode vor, die die MI zwischen den Kandidaten und einer latenten Repräsentation ihres CVs oder ihrer Biographie minimiert.
- Not another Negation Benchmark: The NaN-NLI Test Suite for Sub-clausal Negation
- Thinh Hung Truong, Yulia Otmakhova, Timothy Baldwin, Trevor Cohn, Jey Han Lau, Karin Verspoor
- TLDR: Wir stellen eine Test-Suche vor, die die Fähigkeiten von NLP-Methoden zur Spracherkennung und -quantifikation unter Berücksichtigung der Sub-Klausal Negation erlernt.
- HaRiM^+: Evaluating Summary Quality with Hallucination Risk
- Seonil (Simon) Son, Junsoo Park, Jeong-in Hwang, Junghwa Lee, Hyungjong Noh, Yeonsoo Lee
- TLDR: Wir schlagen eine neue Methode zur Bewertung von Zusammenfassungen vor, die auf der Beobachtung von Verfälschungen basiert.
- The lack of theory is painful: Modeling Harshness in Peer Review Comments
- Rajeev Verma, Rajarshi Roychoudhury, Tirthankar Ghosal
- TLDR: Wir stellen einen Datensatz von Kritikerbewerten vor, die mit harter Kritik umgehen.
- Dual Mechanism Priming Effects in Hindi Word Order
- Sidharth Ranjan, Marten van Schijndel, Sumeet Agarwal, Rajakrishnan Rajkumar
- TLDR: Wir zeigen, dass lexikalische Primierung und syntaktische Primierung sich gut ergänzen.
- Unsupervised Single Document Abstractive Summarization using Semantic Units
- Jhen-Yi Wu, Ying-Jia Lin, Hung-Yu Kao
- TLDR: Wir schlagen ein zweistufiges Trainingsverfahren vor, um die Bedeutung der Frequenz bei der Ableitung von Texten zu untersuchen.
- Detecting Incongruent News Articles Using Multi-head Attention Dual Summarization
- Sujit Kumar, Gaurav Kumar, Sanasam Ranbir Singh
- TLDR: Wir schlagen eine Multi-Head Attention Dual Summary (MADS)-basierte Methode vor, die zwei Typen von Zusammenfassungen erzeugt, die die Kongruenz und inkongruen Teile in den Absätzen separat erfassen.
- Meta-Learning based Deferred Optimisation for Sentiment and Emotion aware Multi-modal Dialogue Act Classification
- Tulika Saha, Aditya Prakash Patra, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: Wir stellen eine neue Multi-Modal-Architektur vor, die die Emotionen eines Sprechers in Bezug auf die Kommunikationsintensität erfasst.
- Enhancing Financial Table and Text Question Answering with Tabular Graph and Numerical Reasoning
- Rungsiman Nararatwong, Natthawut Kertkeidkachorn, Ryutaro Ichise
- TLDR: Wir schlagen ein neues, auf GNN basierendes graphisches Modell vor, das auf numerischen Schlussfolgerungen basiert.
- Fine-grained Contrastive Learning for Definition Generation
- Hengyuan Zhang, Dawei Li, Shiping Yang, Yanran Li
- TLDR: Wir schlagen eine neuartige Methode vor, die die Sequenz-Encoder-Decoder-Architektur verbessert und die Generative Definitionsgenerierung verbessert.
- Hengam: An Adversarially Trained Transformer for Persian Temporal Tagging
- Sajad Mirzababaei, Amir Hossein Kargaran, Hinrich Schütze, Ehsaneddin Asgari
- TLDR: Wir stellen Hengam vor, einen adversarial trainierten Transformator für die Persische Zeitgenauigkeit, der auf einer großen und vielfältigen Textsammlung verwendet werden kann.
- What’s Different between Visual Question Answering for Machine “Understanding” Versus for Accessibility?
- Yang Trista Cao, Kyle Seelman, Kyungjun Lee, Hal Daumé III
- TLDR: Wir stellen eine neue Methode zur Visualisierung von Fragen vor, die von einer visuellen Frage beantwortet werden.
- Persona or Context? Towards Building Context adaptive Personalized Persuasive Virtual Sales Assistant
- Abhisek Tiwari, Sriparna Saha, Shubhashis Sengupta, Anutosh Maitra, Roshni Ramnani, Pushpak Bhattacharyya
- TLDR: Wir schlagen einen neuen Dialog-Modul für die Lösung von Problemen mit Zielverschiebungen vor und stellen eine neuartige Bewertungsmetrica vor, die die Leistung von Menschen in Zielverschiebungen verbessert.
- Legal Case Document Summarization: Extractive and Abstractive Methods and their Evaluation
- Abhay Shukla, Paheli Bhattacharya, Soham Poddar, Rajdeep Mukherjee, Kripabandhu Ghosh, Pawan Goyal, Saptarshi Ghosh
- TLDR: Wir analysieren und bewerten die Legal-Such-Such-Such-Methoden für juristische Dokumente.
- FPC: Fine-tuning with Prompt Curriculum for Relation Extraction
- Sicheng Yang, Dandan Song
- TLDR: Wir schlagen eine neuartige Methode vor, Fine-Tuning with Prompt Curriculum (FPC), die die semantischen Merkmale von Relationsbeschriftungen erfasst und die Klassifizierungsprobleme zu einem (masked) Sprachmodell umwandelt.
- Dead or Murdered? Predicting Responsibility Perception in Femicide News Reports
- Gosse Minnema, Sara Gemelli, Chiara Zanchi, Tommaso Caselli, Malvina Nissim
- TLDR: Wir trainieren BERT, um die Aufmerksamkeit von GBV-Beteiligungsbeschriftungen auf die Bedeutung von Verantwortung zu steuern.
- PESE: Event Structure Extraction using Pointer Network based Encoder-Decoder Architecture
- Alapan Kuila, Sudeshna Sarkar
- TLDR: Wir stellen eine neue Methode vor, die die Erfassung von Ereignissen und ihre Darstellung in einer strukturierten Form darstellt.
- How do we get there? Evaluating transformer neural networks as cognitive models for English past tense inflection
- Xiaomeng Ma, Lingyu Gao
- TLDR: Wir trainieren ein neues neuronales Netzmodell, um die Regelregularität von Verbenen zu untersuchen.
- Characterizing and addressing the issue of oversmoothing in neural autoregressive sequence modeling
- Ilia Kulikov, Maksim Eremeev, Kyunghyun Cho
- TLDR: Wir stellen eine neue Regularisierung vor, die die Übersmoothing Rate eines neuronalen Modells erhöht.
- Identifying Weaknesses in Machine Translation Metrics Through Minimum Bayes Risk Decoding: A Case Study for COMET
- Chantal Amrhein, Rico Sennrich
- TLDR: Wir stellen fest, dass die Bayes-Metriken für die Bewertung von schlechten Übersetzungen nicht so empfindlich sind wie die von guten Übersetzungen.
- Whodunit? Learning to Contrast for Authorship Attribution
- Bo Ai, Yuchen Wang, Yugin Tan, Samson Tan
- TLDR: Wir schlagen Contra-X vor, einen Algorithmus zur Erkennung von Autoren, der auf sprachenbasiertes Fine-Tuning für die Erfassung von Autoren anwendbar ist.
- Higher-Order Dependency Parsing for Arc-Polynomial Score Functions via Gradient-Based Methods and Genetic Algorithm
- Xudong Zhang, Joseph Le Roux, Thierry Charnois
- TLDR: Wir stellen eine neue Methode vor, die auf der Verwendung von Score-Funktionen und der Generierung von Gradienten basiert.
- Underspecification in Scene Description-to-Depiction Tasks
- Ben Hutchinson, Jason Baldridge, Vinodkumar Prabhakaran
- TLDR: Wir schlagen eine neue Methode zur Lösung von visuellen und sprachlichen Abhängigkeiten vor und zeigen, wie Bilder, die Szenen aus Szenenbeschreibungen erzeugen, mit unterschiedlichen Bedeutungen und Abhängigkeiten verbunden sind.
- COFAR: Commonsense and Factual Reasoning in Image Search
- Prajwal Gatti, Abhirama Subramanyam Penamakuri, Revant Teotia, Anand Mishra, Shubhashis Sengupta, Roshni Ramnani
- TLDR: Wir stellen einen neuen Rahmen vor, der auf die Suche nach Bildern mit bekannten visuellen Entitäten und dem Wissen von Wikipedia basiert.