COLING 2022 in Italian
TLDRs
- Do Language Models Make Human-like Predictions about the Coreferents of Italian Anaphoric Zero Pronouns?
- James A. Michaelov, Benjamin K. Bergen
- TLDR: Proponiamo di imparare a parlare con le parole con zero pronomi da cinque studi comportamentali di ricerca di autoencoder di modelli di linguaggio naturale.
- Language Acquisition through Intention Reading and Pattern Finding
- Jens Nevens, Jonas Doumen, Paul Van Eecke, Katrien Beuls
- TLDR: Proponiamo un modello di lettura di udienze per bambini che combina la conoscenza del linguaggio naturale con la conoscenza del linguaggio naturale.
- Stability of Syntactic Dialect Classification over Space and Time
- Jonathan Dunn, Sidney Wong
- TLDR: Proponiamo un set di test per 12 lingue di origine e di origine e dimostriamo che le rappresentazioni syntatiche dei modelli di classificazione del linguaggio sono stabili nello spazio e nel tempo.
- Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans vs. BERT
- Karim Lasri, Olga Seminck, Alessandro Lenci, Thierry Poibeau
- TLDR: Proponiamo un modello di apprendimento neurale per risolvere il divario tra testo e numero di parole, e mostriamo che la sua sensitività alla semantica è più forte di quella di BERT.
- Measuring Morphological Fusion Using Partial Information Decomposition
- Michaela Socolof, Jacob Louis Hoover, Richard Futrell, Alessandro Sordoni, Timothy J. O’Donnell
- TLDR: Proponiamo un metodo per decomporre le informazioni mutue in tre componenti: unique, redundant e synergistic.
- Smells like Teen Spirit: An Exploration of Sensorial Style in Literary Genres
- Osama Khalid, Padmini Srinivasan
- TLDR: Proponiamo di esplorare il ruolo dello stile nel linguaggio e nello stile nel testo e dimostriamo che il linguaggio sensoriale è un componente del linguaggio.
- Metaphorical Polysemy Detection: Conventional Metaphor Meets Word Sense Disambiguation
- Rowan Hall Maudslay, Simone Teufel
- TLDR: Proponiamo un nuovo metodo per rilevare le metamorfe nella WordNet utilizzando la disambiguazione del senso del termine.
- Machine Reading, Fast and Slow: When Do Models “Understand” Language?
- Sagnik Ray Choudhury, Anna Rogers, Isabelle Augenstein
- TLDR: Proponiamo una nuova classe di modelli di reading comprehension che possono imparare la coerenza e la generalizzazione.
- Hierarchical Attention Network for Explainable Depression Detection on Twitter Aided by Metaphor Concept Mappings
- Sooji Han, Rui Mao, Erik Cambria
- TLDR: Proponiamo un modello spiegabile per la rilevazione della depressione su Twitter.
- Multi-view and Cross-view Brain Decoding
- Subba Reddy Oota, Jashn Arora, Manish Gupta, Raju S. Bapi
- TLDR: Proponiamo un nuovo metodo di decodifica multi-view per la predizione di concept da dati cerebrali.
- Visio-Linguistic Brain Encoding
- Subba Reddy Oota, Jashn Arora, Vijay Rowtula, Manish Gupta, Raju S. Bapi
- TLDR: Proponiamo VisualBERT, un modello multimodale per la modellazione del cervello basato sulla visione e Transformer per la modellazione del cervello basato sulla visione.
- Gestures Are Used Rationally: Information Theoretic Evidence from Neural Sequential Models
- Yang Xu, Yang Cheng, Riya Bhatia
- TLDR: Proponiamo un metodo per studiare la comunicazione non-verbale e la sua capacità di trasmissione di informazioni.
- Revisiting Statistical Laws of Semantic Shift in Romance Cognates
- Yoshifumi Kawasaki, Maëlys Salingre, Marzena Karpinska, Hiroya Takamura, Ryo Nagata
- TLDR: Proponiamo un’analisi di regressione per studiare il ruolo della semantica e della teoria del cambiamento semantico.
- Character Jacobian: Modeling Chinese Character Meanings with Deep Learning Model
- Yu-Hsiang Tseng, Shu-Kai Hsieh
- TLDR: Proponiamo un modello di trasformazione dei CHaracter embedding per word-formation e character Jacobians.
- COMMA: Modeling Relationship among Motivations, Emotions and Actions in Language-based Human Activities
- Yuqiang Xie, Yue Hu, Wei Peng, Guanqun Bi, Luxi Xing
- TLDR: Proponiamo un nuovo metodo per modellare le motivazioni, le emozioni e le azioni in modo naturale nelle attività umane basate sul linguaggio.
- Exploring Semantic Spaces for Detecting Clustering and Switching in Verbal Fluency
- Özge Alacam, Simeon Schüz, Martin Wegrzyn, Johanna Kißler, Sina Zarrieß
- TLDR: Proponiamo un modello di embedding di word/concept per la rilevazione di cluster e la loro applicazione alla classificazione delle parole e la loro applicazione alla fluency.
- Neuro-Symbolic Visual Dialog
- Adnen Abdessaied, Mihai Bâce, Andreas Bulling
- TLDR: Proponiamo Neuro-Symbolic Visual Dialog (NSVD) - il primo metodo di apprendimento multi-round per ragionamento visivo basato sul programmatore e sulla rappresentazione del programma.
- LINGUIST: Language Model Instruction Tuning to Generate Annotated Utterances for Intent Classification and Slot Tagging
- Andy Rosenbaum, Saleh Soltan, Wael Hamza, Yannick Versley, Markus Boese
- TLDR: Proponiamo un metodo per generare dati annotati per Intent Classification e Slot Tagging, tramite fine-tuning AlexaTM 5B, un modello seq2seq multilingue seq2seq, su un prompt flexible di instruction.
- Adaptive Natural Language Generation for Task-oriented Dialogue via Reinforcement Learning
- Atsumoto Ohashi, Ryuichiro Higashinaka
- TLDR: Un metodo per generare utterances di linguaggio naturale adatti al dialogo tra il dialogo e il contesto.
- TAKE: Topic-shift Aware Knowledge sElection for Dialogue Generation
- Chenxu Yang, Zheng Lin, Jiangnan Li, Fandong Meng, Weiping Wang, Lanrui Wang, Jie Zhou
- TLDR: Proponiamo un topic-shift knowledge sElector per dialogue-grounded dialogue generation.
- Dynamic Dialogue Policy for Continual Reinforcement Learning
- Christian Geishauser, Carel van Niekerk, Hsien-chin Lin, Nurul Lubis, Michael Heck, Shutong Feng, Milica Gašić
- TLDR: Proponiamo un algoritmo di continual learning per risolvere il problema della continual learning e dimostriamo che le prestazioni di apprendimento possono essere migliorate con la simulazione con due simulatori di dialogo.
- GRAVL-BERT: Graphical Visual-Linguistic Representations for Multimodal Coreference Resolution
- Danfeng Guo, Arpit Gupta, Sanchit Agarwal, Jiun-Yu Kao, Shuyang Gao, Arijit Biswas, Chien-Wei Lin, Tagyoung Chung, Mohit Bansal
- TLDR: Proponiamo un nuovo approccio per risolvere le coerenze multimodali in dialogo multi-task utilizzando Graph Neural Network e VL-BERT.
- Learning to Improve Persona Consistency in Multi-party Dialogue Generation via Text Knowledge Enhancement
- Dongshi Ju, Shi Feng, Pengcheng Lv, Daling Wang, Yifei Zhang
- TLDR: Proponiamo un modello di convoluzione graph per dialogue dialogue personalized.
- Improving Top-K Decoding for Non-Autoregressive Semantic Parsing via Intent Conditioning
- Geunseob Oh, Rahul Goel, Chris Hidey, Shachi Paul, Aditya Gupta, Pararth Shah, Rushin Shah
- TLDR: Proponiamo un nuovo decoder di semantica per la predizione di parsing semantico conversazionale.
- Autoregressive Entity Generation for End-to-End Task-Oriented Dialog
- Guanhuan Huang, Xiaojun Quan, Qifan Wang
- TLDR: Proponiamo di generare la risposta autoregressivamente per un sistema di dialogo end-to-end.
- Continual Few-shot Intent Detection
- Guodun Li, Yuchen Zhai, Qianglong Chen, Xing Gao, Ji Zhang, Yin Zhang
- TLDR: Proponiamo un metodo per rilevare gli ingressi continuali in un sistema di dialogo basato sul task per risolvere il problema di continual few shot intent detection.
- “Mama Always Had a Way of Explaining Things So I Could Understand”: A Dialogue Corpus for Learning to Construct Explanations
- Henning Wachsmuth, Milad Alshomary
- TLDR: Proponiamo un corpus di spiegazioni dialogiche per la ricerca NLP sul come gli esseri umani riducono la capacità di spiegazione e la loro applicazione alla pianificazione.
- Schema Encoding for Transferable Dialogue State Tracking
- Hyunmin Jeon, Gary Geunbae Lee
- TLDR: Proponiamo un metodo di transfer per Dialogue State Tracking Transferable (SET-DST), che è un metodo di DST neurale per il transfer di dialogue systems da nuovi domini.
- A Personalized Dialogue Generator with Implicit User Persona Detection
- Itsugun Cho, Dongyang Wang, Ryota Takahashi, Hiroaki Saito
- TLDR: Proponiamo un nuovo metodo per generare dialoghi personalizzati basati sulla conoscenza del contesto.
- Incorporating Casual Analysis into Diversified and Logical Response Generation
- Jiayi Liu, Wei Wei, Zhixuan Chu, Xing Gao, Ji Zhang, Tan Yan, Yulin Kang
- TLDR: Proponiamo un modello di conditional variational autoencoder condizionale che può rispondere a domande di conversazione e rispondere alle domande di domande di conversazione.
- Reciprocal Learning of Knowledge Retriever and Response Ranker for Knowledge-Grounded Conversations
- Jiazhan Feng, Chongyang Tao, Zhen Li, Chang Liu, Tao Shen, Dongyan Zhao
- TLDR: Proponiamo un nuovo metodo di reciprocal learning per riutilizzare il feedback del knowledge retriever e il response ranker per rispondere ai feedback basati sulla conoscenza.
- CR-GIS: Improving Conversational Recommendation via Goal-aware Interest Sequence Modeling
- Jinfeng Zhou, Bo Wang, Zhitong Yang, Dongming Zhao, Kun Huang, Ruifang He, Yuexian Hou
- TLDR: Proponiamo un modello di recommendation basato sul knowledge graph per risolvere il problema di apprendimento di un knowledge graph.
- GRASP: Guiding Model with RelAtional Semantics Using Prompt for Dialogue Relation Extraction
- Junyoung Son, Jinsung Kim, Jungwoo Lim, Heuiseok Lim
- TLDR: Proponiamo un modello di dialogo basato sulla semantica per risolvere il problema di dialogo basato sulla relation extraction.
- PEPDS: A Polite and Empathetic Persuasive Dialogue System for Charity Donation
- Kshitij Mishra, Azlaan Mustafa Samad, Palak Totala, Asif Ekbal
- TLDR: Proponiamo un dialogo di dialogo poliettico, empatico e consapevoli per la comunicazione sociale.
- DialAug: Mixing up Dialogue Contexts in Contrastive Learning for Robust Conversational Modeling
- Lahari Poddar, Peiyao Wang, Julia Reinspach
- TLDR: Proponiamo un metodo di contrastive learning per imparare rappresentazioni di dialogo robuste del contesto di dialogo.
- A Closer Look at Few-Shot Out-of-Distribution Intent Detection
- Li-Ming Zhan, Haowen Liang, Lu Fan, Xiao-Ming Wu, Albert Y.S. Lam
- TLDR: Proponiamo un metodo per rilevare gli intenti few shot out-of-distribution utilizzando la generazione di rappresentazioni latenti e la self-supervision.
- CGIM: A Cycle Guided Interactive Learning Model for Consistency Identification in Task-oriented Dialogue
- Libo Qin, Qiguang Chen, Tianbao Xie, Qian Liu, Shijue Huang, Wanxiang Che, Zhou Yu
- TLDR: Proponiamo un modello di interazione guidato da cicli per risolvere il problema del dialogo task-oriented.
- CorefDiffs: Co-referential and Differential Knowledge Flow in Document Grounded Conversations
- Lin Xu, Qixian Zhou, Jinlan Fu, Min-Yen Kan, See-Kiong Ng
- TLDR: Proponiamo un nuovo approccio di co-referenza e di differenza per dialogare con documenti documentati.
- SelF-Eval: Self-supervised Fine-grained Dialogue Evaluation
- Longxuan Ma, Ziyu Zhuang, Weinan Zhang, Mingda Li, Ting Liu
- TLDR: Proponiamo un nuovo framework di valutazione del dialogo self-supervised fine-grained che può modellare la correlazione tra la qualità del dialogo e la qualità dell’intero dialogue.
- Open-Domain Dialog Evaluation Using Follow-Ups Likelihood
- Maxime De Bruyn, Ehsan Lotfi, Jeska Buhmann, Walter Daelemans
- TLDR: Proponiamo un metodo di valutazione automatizzato basato sul follow-up per dialoghi open-domain.
- Joint Goal Segmentation and Goal Success Prediction on Multi-Domain Conversations
- Meiguo Wang, Benjamin Yao, Bin Guo, Xiaohu Liu, Yu Zhang, Tuan-Hung Pham, Chenlei Guo
- TLDR: Proponiamo un nuovo framework di valutazione automatica del dialogo multi-domain che combina due task: segmentazione e success prediction.
- Slot Dependency Modeling for Zero-Shot Cross-Domain Dialogue State Tracking
- Qingyue Wang, Yanan Cao, Piji Li, Yanhe Fu, Zheng Lin, Li Guo
- TLDR: Proponiamo un metodo di apprendimento basato sul dialogo per Dialogue State Tracking.
- Section-Aware Commonsense Knowledge-Grounded Dialogue Generation with Pre-trained Language Model
- Sixing Wu, Ying Li, Ping Xue, Dawei Zhang, Zhonghai Wu
- TLDR: Proponiamo un nuovo framework di dialogo per la generazione di conversazioni basate sulla conoscenza per due stadi di pre-screening e un nuovo metodo di apprendimento per la generazione di conversazioni.
- Using Multi-Encoder Fusion Strategies to Improve Personalized Response Selection
- Souvik Das, Sougata Saha, Rohini K. Srihari
- TLDR: Proponiamo una suite di strategie di fusione per migliorare la qualità della selezione del response.
- A Multi-Dimensional, Cross-Domain and Hierarchy-Aware Neural Architecture for ISO-Standard Dialogue Act Tagging
- Stefano Mezza, Wayne Wobcke, Alan Blair
- TLDR: Proponiamo un modello neurale per migliorare la precisione di tagger basato sulla teoria del dialogo.
- SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for Task-Oriented Dialog Understanding
- Wanwei He, Yinpei Dai, Binyuan Hui, Min Yang, Zheng Cao, Jianbo Dong, Fei Huang, Luo Si, Yongbin Li
- TLDR: Proponiamo un modello di dialogo pre-trained basato sulla struttura semantica per contrastive conversation learning.
- ET5: A Novel End-to-end Framework for Conversational Machine Reading Comprehension
- Xiao Zhang, Heyan Huang, Zewen Chi, Xian-Ling Mao
- TLDR: Proponiamo un nuovo framework end-to-end per la comprensione conversazionale del testo e la traduzione di testo da testo a testo.
- CoHS-CQG: Context and History Selection for Conversational Question Generation
- Xuan Long Do, Bowei Zou, Liangming Pan, Nancy F. Chen, Shafiq Joty, Ai Ti Aw
- TLDR: Proponiamo CoHS-CQG, un framework di question generation conversazionale che utilizza un nuovo modulo CoHS per ridurre il contesto e la storia del input.
- Semantic-based Pre-training for Dialogue Understanding
- Xuefeng Bai, Linfeng Song, Yue Zhang
- TLDR: Proponiamo un nuovo metodo per sfruttare la rappresentazione semantica per dialogue pre-training.
- Distribution Calibration for Out-of-Domain Detection with Bayesian Approximation
- Yanan Wu, Zhiyuan Zeng, Keqing He, Yutao Mou, Pei Wang, Weiran Xu
- TLDR: Proponiamo un metodo di rilevamento OOD bayesiano per calibrare la distribuzione in termini di Monte-Carlo Dropout.
- Tracking Satisfaction States for Customer Satisfaction Prediction in E-commerce Service Chatbots
- Yang Sun, Liangqing Wu, Shuangyong Song, Xiaoguang Yu, Xiaodong He, Guohong Fu
- TLDR: Proponiamo un modello di dialogo per la predizione della satisfaction per E-commerce chatbot.
- Towards Multi-label Unknown Intent Detection
- Yawen Ouyang, Zhen Wu, Xinyu Dai, Shujian Huang, Jiajun Chen
- TLDR: Proponiamo un metodo per rilevare l’intento di una uscita multi-label unknown, che può essere utilizzato per rilevare se l’uscita contiene l’intento non noto.
- Pan More Gold from the Sand: Refining Open-domain Dialogue Training with Noisy Self-Retrieval Generation
- Yihe Wang, Yitong Li, Yasheng Wang, Fei Mi, Pingyi Zhou, Xin Wang, Jin Liu, Xin Jiang, Qun Liu
- TLDR: Proponiamo un metodo di retrieval-generation per sfruttare le informazioni di BERTS per migliorare le prestazioni di generazione e di risposta.
- MulZDG: Multilingual Code-Switching Framework for Zero-shot Dialogue Generation
- Yongkang Liu, Shi Feng, Daling Wang, Yifei Zhang
- TLDR: Proponiamo un metodo di apprendimento multilingue per la generazione di dialoghi a zero-shot.
- Target-Guided Open-Domain Conversation Planning
- Yosuke Kishinami, Reina Akama, Shiki Sato, Ryoko Tokuhisa, Jun Suzuki, Kentaro Inui
- TLDR: Proponiamo un task di pianificazione del dialogo neurale per il task di Open-Domain Conversation Planning (TGCP) e la valutazione di questo task.
- Does GPT-3 Generate Empathetic Dialogues? A Novel In-Context Example Selection Method and Automatic Evaluation Metric for Empathetic Dialogue Generation
- Young-Jun Lee, Chae-Gyun Lim, Ho-Jin Choi
- TLDR: Proponiamo un nuovo metodo di in-context learning per generare dialoghi empatici.
- DialogueEIN: Emotion Interaction Network for Dialogue Affective Analysis
- Yuchen Liu, Jinming Zhao, Jingwen Hu, Ruichen Li, Qin Jin
- TLDR: Proponiamo una nuova architettura di dialogo Emotion Interaction Network per modellare implicitamente le interazioni tra speaker e speaker e le loro dinamiche di espansione e evoluzione.
- Towards Enhancing Health Coaching Dialogue in Low-Resource Settings
- Yue Zhou, Barbara Di Eugenio, Brian Ziebart, Lisa Sharp, Bing Liu, Ben Gerber, Nikolaos Agadakos, Shweta Yadav
- TLDR: Proponiamo un dialogo modulare per il coaching del benessere basato sulla comunicazione con le pazienti.
- Generalized Intent Discovery: Learning from Open World Dialogue System
- Yutao Mou, Keqing He, Yanan Wu, Pei Wang, Jingang Wang, Wei Wu, Yi Huang, Junlan Feng, Weiran Xu
- TLDR: Proponiamo un nuovo task di ricerca generalizzata degli intent per addestrare un classificatore di intent in-domain.
- DialMed: A Dataset for Dialogue-based Medication Recommendation
- Zhenfeng He, Yuqiang Han, Zhenqiu Ouyang, Wei Gao, Hongxu Chen, Guandong Xu, Jian Wu
- TLDR: Proponiamo di utilizzare il dialogo per raccomandare le medicine con le conversazioni tra i pazienti.
- Speaker Clustering in Textual Dialogue with Pairwise Utterance Relation and Cross-corpus Dialogue Act Supervision
- Zhihua Su, Qiang Zhou
- TLDR: Proponiamo un modello di clustering di voci per dialogue text, che gruppi le voci di dialogo senza annotazione di voce e senza annotazione di voce.
- TopKG: Target-oriented Dialog via Global Planning on Knowledge Graph
- Zhitong Yang, Bo Wang, Jinfeng Zhou, Yue Tan, Dongming Zhao, Kun Huang, Ruifang He, Yuexian Hou
- TLDR: Proponiamo un reinforcement learning globale per dialogare con un target-oriented knowledge graph (KG) per raggiungere un target globale attraverso conversazioni multi-turn.
- Extractive Summarisation for German-language Data: A Text-level Approach with Discourse Features
- Freya Hewett, Manfred Stede
- TLDR: Proponiamo un set di sintesi di sintesi per la sintesi di testi di testo bilingui.
- End-to-End Neural Bridging Resolution
- Hideo Kobayashi, Yufang Hou, Vincent Ng
- TLDR: Proponiamo un nuovo metodo per valutare ibridging resolver in setting end-to-end, e mostriamo che le prestazioni migliorano le prestazioni di risoluzione.
- Investigating the Performance of Transformer-Based NLI Models on Presuppositional Inferences
- Jad Kabbara, Jackie Chi Kit Cheung
- TLDR: Proponiamo un metodo per sfruttare le proprietà strutturali e le parole per fare previsioni di presupposizio.
- Re-Examining FactBank: Predicting the Author’s Presentation of Factuality
- John Murzaku, Peter Zeng, Magdalena Markowska, Owen Rambow
- TLDR: Proponiamo un nuovo metodo per valutare la f-measure per quattro corpora, FactBank e Transformer.
- The Role of Context and Uncertainty in Shallow Discourse Parsing
- Katherine Atwell, Remi Choi, Junyi Jessy Li, Malihe Alikhani
- TLDR: Proponiamo un metodo per quantificare la capacità di annotazione e calibrazione del modello con annotatori di fiducia e stimatori di fiducia.
- Improving Commonsense Contingent Reasoning by Pseudo-data and Its Application to the Related Tasks
- Kazumasa Omura, Sadao Kurohashi
- TLDR: Proponiamo un metodo per generare pseudo-problem per la teoria del ragionamento contingente.
- A Survey in Automatic Irony Processing: Linguistic, Cognitive, and Multi-X Perspectives
- Qingcheng Zeng, An-Ran Li
- TLDR: Proponiamo un’analisi completa di irony computazionale e dimostriamo che le sue applicazioni al deep NLP e al multi-X irony processing.
- Towards Identifying Alternative-Lexicalization Signals of Discourse Relations
- René Knaebel, Manfred Stede
- TLDR: Proponiamo un nuovo metodo per parsing del discorso di parole e frasi.
- Topicalization in Language Models: A Case Study on Japanese
- Riki Fujihara, Tatsuki Kuribayashi, Kaori Abe, Ryoko Tokuhisa, Kentaro Inui
- TLDR: Proponiamo un modello di apprendimento neurale per la generazione di testo topicale e la sua generalizzazione.
- “No, They Did Not”: Dialogue Response Dynamics in Pre-trained Language Models
- Sanghee J. Kim, Lang Yu, Allyson Ettinger
- TLDR: Proponiamo un’analisi del dialogue response sensitivity in modelli di apprendimento pre-trained.
- New or Old? Exploring How Pre-Trained Language Models Represent Discourse Entities
- Sharid Loáiciga, Anne Beyer, David Schlangen
- TLDR: Proponiamo di studiare le rappresentazioni di entity in grandi modelli di linguaggio naturale pre-trained in linguaggio naturale.
- Dialo-AP: A Dependency Parsing Based Argument Parser for Dialogues
- Sougata Saha, Souvik Das, Rohini K. Srihari
- TLDR: Proponiamo Dialo-AP, un parser di dialogo end-to-end che genera grafi di ragionamento da conversazioni.
- ConnPrompt: Connective-cloze Prompt Learning for Implicit Discourse Relation Recognition
- Wei Xiang, Zhenglin Wang, Lu Dai, Bang Wang
- TLDR: Proponiamo un modello di predizione di relazioni tra i testi con un modello di pre-train, predizione e fine-tuning per trasformare il task di predizione delle relazioni in un task di predizione relazionale.
- A Distance-Aware Multi-Task Framework for Conversational Discourse Parsing
- Yaxin Fan, Peifeng Li, Fang Kong, Qiaoming Zhu
- TLDR: Proponiamo un framework di multi-task learning per la predizione conversazionale basato sul grafi per la predizione di grafi.
- Linguistically Motivated Features for Classifying Shorter Text into Fiction and Non-Fiction Genre
- Arman Kazmi, Sidharth Ranjan, Arpit Sharma, Rajakrishnan Rajkumar
- TLDR: Proponiamo un modello di regressione logistica per classificare il testo a livello di paragrafo e il testo a livello di testo a livello di testo.
- Semantic Sentence Matching via Interacting Syntax Graphs
- Chen Xu, Jun Xu, Zhenhua Dong, Ji-Rong Wen
- TLDR: Proponiamo un metodo per addestrare un graph matching per la ricerca di frasi semantiche.
- Hierarchical Information Matters: Text Classification via Tree Based Graph Neural Network
- Chong Zhang, He Zhu, Xingyu Peng, Junran Wu, Ke Xu
- TLDR: Proponiamo HINT, un metodo per sfruttare le informazioni gerarchiche contenute nel testo per la task di text classification.
- SelfMix: Robust Learning against Textual Label Noise with Self-Mixup Training
- Dan Qiao, Chenchen Dai, Yuyang Ding, Juntao Li, Qiang Chen, Wenliang Chen, Min Zhang
- TLDR: Proponiamo un metodo per gestire il rumore delle label nei task di classificazione del testo.
- Community Topic: Topic Model Inference by Consecutive Word Community Discovery
- Eric Austin, Osmar R. Zaïane, Christine Largeron
- TLDR: Proponiamo Community Topic, un nuovo topic modelling che utilizza la rappresentazione di rete per trovare topic coerenti.
- Where to Attack: A Dynamic Locator Model for Backdoor Attack in Text Classifications
- Heng-yang Lu, Chenyou Fan, Jun Yang, Cong Hu, Wei Fang, Xiao-jun Wu
- TLDR: Proponiamo un metodo per addestrare un modello di back-propagation basato sul testo per prevedere la predizione di P2P dinamicamente senza human intervention.
- Locally Distributed Activation Vectors for Guided Feature Attribution
- Housam K. B. Bashier, Mi-Young Kim, Randy Goebel
- TLDR: Proponiamo un metodo per imparare rappresentazioni specifiche delle spiegazioni per la teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria.
- Addressing Leakage in Self-Supervised Contextualized Code Retrieval
- Johannes Villmow, Viola Campos, Adrian Ulges, Ulrich Schwanecke
- TLDR: Proponiamo un metodo per riutilizzare il codice contestuale per risolvere il problema del recupero del codice contestuale.
- A Domain Knowledge Enhanced Pre-Trained Language Model for Vertical Search: Case Study on Medicinal Products
- Kesong Liu, Jianhui Jiang, Feifei Lyu
- TLDR: Proponiamo un nuovo task di pre-training per la ricerca di medicinali prodotti basato sulla conoscenza biomedica per la ricerca di medicinali prodotti.
- CONCRETE: Improving Cross-lingual Fact-checking with Cross-lingual Retrieval
- Kung-Hsiang Huang, ChengXiang Zhai, Heng Ji
- TLDR: Proponiamo un metodo di cross-lingual transfer per il rilevamento del fattore di fact-checking.
- E-VarM: Enhanced Variational Word Masks to Improve the Interpretability of Text Classification Models
- Ling Ge, ChunMing Hu, Guanghui Ma, Junshuang Wu, Junfan Chen, JiHong Liu, Hong Zhang, Wenyi Qin, Richong Zhang
- TLDR: Proponiamo un approccio di word masking variazionale per risolvere il problema dell’interpretabilità e della precisione del modello di testo.
- Attribute Injection for Pretrained Language Models: A New Benchmark and an Efficient Method
- Reinald Kim Amplayo, Kang Min Yoo, Sang-Woo Lee
- TLDR: Proponiamo un metodo per incorporare gli attributi nei modelli di attributo di input neurali.
- Towards Robust Neural Retrieval with Source Domain Synthetic Pre-Finetuning
- Revanth Gangi Reddy, Vikas Yadav, Md Arafat Sultan, Martin Franz, Vittorio Castelli, Heng Ji, Avirup Sil
- TLDR: Proponiamo di aumentare la generalizzazione out-of-domain di Dense Passage Retrieval (DPR) attraverso la augmentation sintetica del dominio di origine.
- Parameter-Efficient Neural Reranking for Cross-Lingual and Multilingual Retrieval
- Robert Litschko, Ivan Vulić, Goran Glavaš
- TLDR: Proponiamo un metodo per il transfer multilingue e cross-lingue che migliora le prestazioni di transfer di un ranker basato sul fine-tuning MMT.
- LIME: Weakly-Supervised Text Classification without Seeds
- Seongmin Park, Jihwa Lee
- TLDR: Proponiamo un nuovo metodo per la classificazione del testo weakly supervisionato che combina la generazione di seed words con la pseudo-classification basata sull’entailment.
- Multi-Stage Framework with Refinement Based Point Set Registration for Unsupervised Bi-Lingual Word Alignment
- Silviu Vlad Oprea, Sourav Dutta, Haytham Assem
- TLDR: Proponiamo un nuovo framework multi-stage per il mappatura unsupervised di word embedding bi-linguali su un shared vector space, che combina la ricerca adversarial, la ricerca di embedding bi-linguali e la ricerca di embedding di parole.
- EM-PERSONA: EMotion-assisted Deep Neural Framework for PERSONAlity Subtyping from Suicide Notes
- Soumitra Ghosh, Dhirendra Kumar Maurya, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: Proponiamo EMotion-assisted PERSONAlity Detection Framework per personality subtyping da suicide note.
- Dense Template Retrieval for Customer Support
- Tiago Mesquita, Bruno Martins, Mariana Almeida
- TLDR: Proponiamo un framework di recupero denso per il customer support, utilizzando una tecnica di sampling standard per il sampling di query e template.
- Exploring Label Hierarchy in a Generative Way for Hierarchical Text Classification
- Wei Huang, Chen Liu, Bo Xiao, Yihua Zhao, Zhaoming Pan, Zhimin Zhang, Xinyun Yang, Guiquan Liu
- TLDR: Proponiamo un modello di hierarchical text classification per l’apprendimento automatico.
- MuSeCLIR: A Multiple Senses and Cross-lingual Information Retrieval Dataset
- Wing Yan Li, Julie Weeds, David Weir
- TLDR: Proponiamo un nuovo dataset di valutazione per il cross-lingual information retrieval (CLIR) che fornisce una valutazione robusta della capacità di disambiguazione dei sistemi di CLIR.
- Complicate Then Simplify: A Novel Way to Explore Pre-trained Models for Text Classification
- Xu Zhang, Zejie Liu, Yanzheng Xiang, Deyu Zhou
- TLDR: Proponiamo un nuovo framework per la classificazione del testo che implementa una strategia di training di due stadi per sfruttare la conoscenza nel modello pre-trained.
- Adaptive Feature Discrimination and Denoising for Asymmetric Text Matching
- Yan Li, Chenliang Li, Junjun Guo
- TLDR: Proponiamo un modello di matching text matching per la discriminazione e denoising delle feature di testo, chiamato ADDAX, che può essere utilizzato per risolvere il matching text matching asimmetrico.
- Rethinking Data Augmentation in Text-to-text Paradigm
- Yanan Chen, Yang Liu
- TLDR: Un’analisi di deep learning per migliorare la generalizzazione
- ConTextING: Granting Document-Wise Contextual Embeddings to Graph Neural Networks for Inductive Text Classification
- Yen-Hao Huang, Yi-Hsin Chen, Yi-Shin Chen
- TLDR: Proponiamo un modello unificato di graph neural network basato su embedding di testo e testo per imparare da entrambi i grafi di testo e testo.
- Virtual Knowledge Graph Construction for Zero-Shot Domain-Specific Document Retrieval
- Yeon Seonwoo, Seunghyun Yoon, Franck Dernoncourt, Trung Bui, Alice Oh
- TLDR: Proponiamo VKGDR per document retrieval nel dominio specifico.
- MICO: Selective Search with Mutual Information Co-training
- Zhanyu Wang, Xiao Zhang, Hyokun Yun, Choon Hui Teo, Trishul Chilimbi
- TLDR: Proponiamo un metodo di ricerca selectivo per ridurre la latency e la computazione in grandi sistemi di ricerca.
- DPTDR: Deep Prompt Tuning for Dense Passage Retrieval
- Zhengyang Tang, Benyou Wang, Ting Yao
- TLDR: Proponiamo un metodo di deep learning basato sulla teoria del pretraining per il recupero di modelli di retrieval basati sul modello di input.
- BERT-Flow-VAE: A Weakly-supervised Model for Multi-Label Text Classification
- Ziwen Liu, Josep Grau-Bove, Scott Allan Allan Orr
- TLDR: Proponiamo BERT-Flow-VAE, un modello di classificazione text-to-speech weakly supervised multilabel che riduce il bisogno di supervisione completa.
- Welcome to the Modern World of Pronouns: Identity-Inclusive Natural Language Processing beyond Gender
- Anne Lauscher, Archie Crowley, Dirk Hovy
- TLDR: Proponiamo un nuovo approccio per modellare le parole 3rd person per NLP.
- Threat Scenarios and Best Practices to Detect Neural Fake News
- Artidoro Pagnoni, Martin Graciarena, Yulia Tsvetkov
- TLDR: Proponiamo un nuovo metodo per mitigare il rischio di generare falsi aggiornamenti neural neural network.
- From Polarity to Intensity: Mining Morality from Semantic Space
- Chunxu Zhao, Pengyuan Liu, Dong Yu
- TLDR: Proponiamo MoralScore, un framework weakly-supervised che può misurare la moralità da testi.
- SOS: Systematic Offensive Stereotyping Bias in Word Embeddings
- Fatma Elsafoury, Steve R. Wilson, Stamos Katsigiannis, Naeem Ramzan
- TLDR: Proponiamo una misura quantitativa di SOS per rilevare le informazioni di bias su modelli di rilevamento del speech.
- Bigger Data or Fairer Data? Augmenting BERT via Active Sampling for Educational Text Classification
- Lele Sha, Yuheng Li, Dragan Gasevic, Guanliang Chen
- TLDR: Proponiamo un metodo per addestrare BERT per migliorare la fairness dei modelli di predizione.
- Debiasing Word Embeddings with Nonlinear Geometry
- Lu Cheng, Nayoung Kim, Huan Liu
- TLDR: Proponiamo un metodo per debiasing di parole embedding sociali multi-scala utilizzando la geometria non lineare degli individual bias.
- Debiasing Isn’t Enough! – on the Effectiveness of Debiasing MLMs and Their Social Biases in Downstream Tasks
- Masahiro Kaneko, Danushka Bollegala, Naoaki Okazaki
- TLDR: Proponiamo un nuovo metodo per valutare il bias sociale intrinseco e l’extrinsivo per MLM.
- Quantifying Bias from Decoding Techniques in Natural Language Generation
- Mayukh Das, Wolf Tilo Balke
- TLDR: Proponiamo un’analisi approfondita del bias da decodifica per la generazione di testi open-domain.
- A Study of Implicit Bias in Pretrained Language Models against People with Disabilities
- Pranav Narayanan Venkit, Mukund Srinath, Shomir Wilson
- TLDR: Proponiamo un’analisi di perturbazione per valutare le bias sociali contro le PWD.
- Social Norms-Grounded Machine Ethics in Complex Narrative Situation
- Tao Shen, Xiubo Geng, Daxin Jiang
- TLDR: Proponiamo un nuovo modello di valutazione etica basato sulla teoria della teoria della teoria per risolvere la valutazione etica di una situazione di gioco.
- Bias at a Second Glance: A Deep Dive into Bias for German Educational Peer-Review Data Modeling
- Thiemo Wambsganss, Vinitra Swamy, Roman Rietsche, Tanja Käser
- TLDR: Proponiamo un nuovo dataset per la valutazione di modelli di natural language processing pre-trained.
- Dynamic Relevance Graph Network for Knowledge-Aware Question Answering
- Chen Zheng, Parisa Kordjamshidi
- TLDR: Proponiamo una nuova graph neural network, che utilizza la dinamica dei grafi per imparare e ragionamento per Commonsense Question Answering.
- SISER: Semantic-Infused Selective Graph Reasoning for Fact Verification
- Eunhwan Park, Jong-Hyeon Lee, Jeon Dong Hyeon, Seonhoon Kim, Inho Kang, Seung-Hoon Na
- TLDR: Un nuovo studio che studia
- Answering Numerical Reasoning Questions in Table-Text Hybrid Contents with Graph-based Encoder and Tree-based Decoder
- Fangyu Lei, Shizhu He, Xiang Li, Jun Zhao, Kang Liu
- TLDR: Proponiamo un modello di ragionamento numerico con grafi relationati migliorati per question answering su testo e dati di input.
- Perform like an Engine: A Closed-Loop Neural-Symbolic Learning Framework for Knowledge Graph Inference
- Guanglin Niu, Bo Li, Yongfei Zhang, Shiliang Pu
- TLDR: Proponiamo un nuovo approccio di apprendimento neurale-symbolic per risolvere il Knowledge graph in modo open-loop.
- Table-based Fact Verification with Self-labeled Keypoint Alignment
- Guangzhen Zhao, Peng Yang
- TLDR: Proponiamo un modello di alignment self-Label basato sulla visione e sulla feature per verificare se una frase è vero o falsa.
- IMCI: Integrate Multi-view Contextual Information for Fact Extraction and Verification
- Hao Wang, Yangguang Li, Zhen Huang, Yong Dou
- TLDR: Proponiamo di utilizzare informazioni contextuali multi-view per la ricerca di fatti rilevabili e la verifica di falsità.
- Prompt Combines Paraphrase: Teaching Pre-trained Models to Understand Rare Biomedical Words
- Haochun Wang, Chi Liu, Nuwa Xi, Sendong Zhao, Meizhi Ju, Shiwei Zhang, Ziheng Zhang, Yefeng Zheng, Bing Qin, Ting Liu
- TLDR: Proponiamo un metodo per imparare le parole biomediche da pochi shot in domain biomedico.
- Self-Supervised Intermediate Fine-Tuning of Biomedical Language Models for Interpreting Patient Case Descriptions
- Israa Alghanmi, Luis Espinosa-Anke, Steven Schockaert
- TLDR: Proponiamo di fine-tuning dei language model biomedici basati sull’analisi degli abstract PubMed.
- Evaluating and Mitigating Inherent Linguistic Bias of African American English through Inference
- Jamell Dacon, Haochen Liu, Jiliang Tang
- TLDR: Proponiamo un metodo di greedy translation per la traduzione dei dati per la predizione di modelli NLP.
- Can We Guide a Multi-Hop Reasoning Language Model to Incrementally Learn at Each Single-Hop?
- Jesus Lovon-Melgarejo, Jose G. Moreno, Romaric Besançon, Olivier Ferret, Lynda Tamine
- TLDR: Proponiamo un nuovo metodo per addestrare le PLM incrementalmente.
- Modeling Hierarchical Reasoning Chains by Linking Discourse Units and Key Phrases for Reading Comprehension
- Jialin Chen, Zhuosheng Zhang, Hai Zhao
- TLDR: Proponiamo un metodo di logical reasoning che sfrutta il contesto e le relazioni di contesto per comprendere le relazioni logiche implicite.
- Hierarchical Representation-based Dynamic Reasoning Network for Biomedical Question Answering
- Jianguo Mao, Jiyuan Zhang, Zengfeng Zeng, Weihua Peng, Wenbin Jiang, Xiangdong Wang, Hong Liu, Yajuan Lyu
- TLDR: Proponiamo un modello di ragionamento dinamico basato sulla rappresentazione gerarchica delle informazioni per risolvere il question answering biomedico.
- ArT: All-round Thinker for Unsupervised Commonsense Question Answering
- Jiawei Wang, Hai Zhao
- TLDR: Proponiamo un approccio di apprendimento unsupervised per question-answering question-answering.
- Teaching Neural Module Networks to Do Arithmetic
- Jiayi Chen, Xiao-Yu Guo, Yuan-Fang Li, Gholamreza Haffari
- TLDR: Proponiamo un nuovo metodo per migliorare le capacità di ragionamento numerico delle NMN.
- An Augmented Benchmark Dataset for Geometric Question Answering through Dual Parallel Text Encoding
- Jie Cao, Jing Xiao
- TLDR: Proponiamo un nuovo metodo per risolvere problemi geometrici automatici utilizzando le reti neurali.
- Competence-based Question Generation
- Jingxuan Tu, Kyeongmin Rim, James Pustejovsky
- TLDR: Proponiamo un metodo per generare domande di testo e dimostriamo che le informazioni semantiche possono essere utilizzate per migliorare le prestazioni di comprensione del linguaggio naturale.
- Coalescing Global and Local Information for Procedural Text Understanding
- Kaixin Ma, Filip Ilievski, Jonathan Francis, Eric Nyberg, Alessandro Oltramari
- TLDR: Proponiamo un modello di coerenza globale e locale per procedural text understanding.
- Original Content Is All You Need! an Empirical Study on Leveraging Answer Summary for WikiHowQA Answer Selection Task
- Liang Wen, Juan Li, Houfeng Wang, Yingwei Luo, Xiaolin Wang, Xiaodong Zhang, Zhicong Cheng, Dawei Yin
- TLDR: Proponiamo un nuovo dataset WikiHowQA per rispondere alle domande di ricerca di risposta da candidati informativi e crowdsourced.
- Case-Based Abductive Natural Language Inference
- Marco Valentino, Mokanarangan Thayaparan, André Freitas
- TLDR: Proponiamo un modello di apprendimento di natural language inference basato sul retrieve-reuse-refine per multi-hop NLI esplorando il paradigma di retrieve-reuse-refine nel caso basato sul caso.
- Semantic Structure Based Query Graph Prediction for Question Answering over Knowledge Graph
- Mingchen Li, Shihao Ji
- TLDR: Proponiamo un nuovo metodo per generare query graph da domande di natural language questions.
- Repo4QA: Answering Coding Questions via Dense Retrieval on GitHub Repositories
- Minyu Chen, Guoqiang Li, Chen Ma, Jingyang Li, Hongfei Fu
- TLDR: Proponiamo Repo4QA, un modello di coding basato sul codice per risolvere il divario tra domande e risposte.
- Addressing Limitations of Encoder-Decoder Based Approach to Text-to-SQL
- Octavian Popescu, Irene Manotas, Ngoc Phuoc An Vo, Hangu Yeo, Elahe Khorashani, Vadim Sheinin
- TLDR: Proponiamo un nuovo metodo per addestrare automaticamente le informazioni di training per risolvere il problema di decomposizione dei dati.
- Mintaka: A Complex, Natural, and Multilingual Dataset for End-to-End Question Answering
- Priyanka Sen, Alham Fikri Aji, Amir Saffari
- TLDR: Proponiamo Mintaka, un dataset complesso, naturale e multilingue progettato per sperimentare con modelli di domande-risposte end-to-end.
- Can Edge Probing Tests Reveal Linguistic Knowledge in QA Models?
- Sagnik Ray Choudhury, Nikita Bhutani, Isabelle Augenstein
- TLDR: Proponiamo un nuovo metodo per imparare la conoscenza grammaticale in modelli di apprendimento automatico.
- Conversational QA Dataset Generation with Answer Revision
- Seonjeong Hwang, Gary Geunbae Lee
- TLDR: Proponiamo un nuovo metodo per rivedere le risposte di input e output dopo la generazione di domande.
- DABERT: Dual Attention Enhanced BERT for Semantic Matching
- Sirui Wang, Di Liang, Jian Song, Yuntao Li, Wei Wu
- TLDR: Proponiamo un nuovo modello di apprendimento di apprendimento multi-task per il matching semantico di frasi.
- Locate Then Ask: Interpretable Stepwise Reasoning for Multi-hop Question Answering
- Siyuan Wang, Zhongyu Wei, Zhihao Fan, Qi Zhang, Xuanjing Huang
- TLDR: Proponiamo un framework di ragionamento multi-hop interpretabile stepwise per risolvere il problema di spiegazione multi-hop.
- Less Is Better: Recovering Intended-Feature Subspace to Robustify NLU Models
- Ting Wu, Tao Gui
- TLDR: Proponiamo un nuovo metodo per mitigare il bias e ottenere una migliore generalizzazione del modello rispetto ai metodi precedenti.
- CORN: Co-Reasoning Network for Commonsense Question Answering
- Xin Guan, Biwei Cao, Qingqing Gao, Zheng Yin, Bo Liu, Jiuxin Cao
- TLDR: Proponiamo un nuovo modello di question answering che utilizza un approccio di co-reasoning per modellare la rappresentazione del testo e le relazioni tra le entità di controllo e le informazioni contestuali.
- Logical Form Generation via Multi-task Learning for Complex Question Answering over Knowledge Bases
- Xixin Hu, Xuan Wu, Yiheng Shu, Yuzhong Qu
- TLDR: Proponiamo un metodo di apprendimento multi-task basato sulla generazione per rispondere alle domande di apprendimento di knowledge bases.
- CMQA: A Dataset of Conditional Question Answering with Multiple-Span Answers
- Yiming Ju, Weikang Wang, Yuanzhe Zhang, Suncong Zheng, Kang Liu, Jun Zhao
- TLDR: Proponiamo un nuovo task di question answering conditional con risposte multi-span multi-question, che può essere utilizzato per risolvere il problema di QA.
- To What Extent Do Natural Language Understanding Datasets Correlate to Logical Reasoning? A Method for Diagnosing Logical Reasoning.
- Yitian Li, Jidong Tian, Wenqing Chen, Caoyun Fan, Hao He, Yaohui Jin
- TLDR: Proponiamo un metodo per diagnosticare le correlazioni tra una specifica skill di ragionamento logico e una specifica skill di logical reasoning.
- ArcaneQA: Dynamic Program Induction and Contextualized Encoding for Knowledge Base Question Answering
- Yu Gu, Yu Su
- TLDR: Proponiamo un nuovo modello di generazione basato sulla ricerca per risolvere il problema dello spazio di ricerca e dello schema linking in un framework unificato.
- Unsupervised Question Answering via Answer Diversifying
- Yuxiang Nie, Heyan Huang, Zewen Chi, Xian-Ling Mao
- TLDR: Proponiamo DiverseQA, un metodo di question answering unsupervised che combina la costruzione di dati e il denoising filter per costruire un dataset di QA con diverse risposte.
- Weakly Supervised Formula Learner for Solving Mathematical Problems
- Yuxuan Wu, Hideki Nakayama
- TLDR: Proponiamo Weakly Supervised Formula Learner, un framework di apprendimento weakly supervised che guida la ricerca di formulazioni da risposte finali.
- Reducing Spurious Correlations for Answer Selection by Feature Decorrelation and Language Debiasing
- Zeyi Zhong, Min Yang, Ruifeng Xu
- TLDR: Proponiamo un metodo di correzione di feature per migliorare la robustezza degli autoswer selection neurali.
- Understanding and Improving Zero-shot Multi-hop Reasoning in Generative Question Answering
- Zhengbao Jiang, Jun Araki, Haibo Ding, Graham Neubig
- TLDR: Proponiamo un modello di question answering generativo multi-hop che può rispondere alle domande multi-hop in modo scalabile.
- Domain Adaptation for Question Answering via Question Classification
- Zhenrui Yue, Huimin Zeng, Ziyi Kou, Lanyu Shang, Dong Wang
- TLDR: Proponiamo QC4QA per question classification per question answering.
- Prompt-based Conservation Learning for Multi-hop Question Answering
- Zhenyun Deng, Yonghua Zhu, Yang Chen, Qianqian Qi, Michael Witbrock, Patricia Riddle
- TLDR: Proponiamo Prompt-Based Conservation Learning per question answering multi-hop, che conserva la conoscenza di sottoquestion e la conoscenza di sottoquestion.
- GLAF: Global-to-Local Aggregation and Fission Network for Semantic Level Fact Verification
- Zhiyuan Ma, Jianjun Li, Guohui Li, Yongjing Cheng
- TLDR: Proponiamo una nuova architettura di aggregazione e fissione globale per risolvere il problema della verifica del fatto vero.
- Exploiting Hybrid Semantics of Relation Paths for Multi-hop Question Answering over Knowledge Graphs
- Zile Qiao, Wei Ye, Tong Zhang, Tong Mo, Weiping Li, Shikun Zhang
- TLDR: Proponiamo un metodo per risolvere la multi-hop KGQA sfruttando la semantica dei percorsi di relazioni tra le entità.
- Adaptive Threshold Selective Self-Attention for Chinese NER
- Biao Hu, Zhen Huang, Minghao Hu, Ziwen Zhang, Yong Dou
- TLDR: Proponiamo un modello di self-attention basato sulla selezione del threshold per il riconoscimento di entity named.
- Cluster-aware Pseudo-Labeling for Supervised Open Relation Extraction
- Bin Duan, Shusen Wang, Xingxian Liu, Yajing Xu
- TLDR: Proponiamo un metodo di cluster-aware pseudo-labeling per addestrare il modello per scoprire nuove relazioni open relation.
- Few-shot Named Entity Recognition with Entity-level Prototypical Network Enhanced by Dispersedly Distributed Prototypes
- Bin Ji, Shasha Li, Shaoduo Gan, Jie Yu, Jun Ma, Huijun Liu, Jing Yang
- TLDR: Proponiamo una nuova architettura di NER per l’apprendimento di entity level prototypes di qualità superiore.
- Different Data, Different Modalities! Reinforced Data Splitting for Effective Multimodal Information Extraction from Social Media Posts
- Bo Xu, Shizhou Huang, Ming Du, Hongya Wang, Hui Song, Chaofeng Sha, Yanghua Xiao
- TLDR: Proponiamo un metodo di data splitting generale per multi-modal information extraction.
- Augmentation, Retrieval, Generation: Event Sequence Prediction with a Three-Stage Sequence-to-Sequence Approach
- Bo Zhou, Chenhao Wang, Yubo Chen, Kang Liu, Jun Zhao, Jiexin Xu, Xiaojian Jiang, Qiuxia Li
- TLDR: Un task di inferenza del comportamento del target è fondamentale per il natural language processing.
- Generating Temporally-ordered Event Sequences via Event Optimal Transport
- Bo Zhou, Yubo Chen, Kang Liu, Jun Zhao, Jiexin Xu, Xiaojian Jiang, Qiuxia Li
- TLDR: Proponiamo un nuovo metodo per affrontare la generazione di sequenze temporali ordered di eventi in text utilizzando EOT.
- Improving Continual Relation Extraction through Prototypical Contrastive Learning
- Chengwei Hu, Deqing Yang, Haoliang Jin, Zhen Chen, Yanghua Xiao
- TLDR: Proponiamo un nuovo approccio di continual relation extraction con contrastive learning, che combina la classificazione e la contrastiva rete per ottenere incremental learning di CRE.
- Prompt-based Text Entailment for Low-Resource Named Entity Recognition
- Dongfang Li, Baotian Hu, Qingcai Chen
- TLDR: Proponiamo un metodo di riconoscimento testo basato sul tagger per la classificazione delle parole e la loro interpretazione.
- Key Mention Pairs Guided Document-Level Relation Extraction
- Feng Jiang, Jianwei Niu, Shasha Mo, Shengda Fan
- TLDR: Proponiamo un modello di relation extraction basato sulla teoria dell’EM per modellare le relazioni di testo-momento.
- A Hybrid Model of Classification and Generation for Spatial Relation Extraction
- Feng Wang, Peifeng Li, Qiaoming Zhu
- TLDR: Proponiamo un modello HMCGR per l’estrazione di relazioni spaziali da testi.
- Mining Health-related Cause-Effect Statements with High Precision at Large Scale
- Ferdinand Schlatt, Dieter Bettin, Matthias Hagen, Benno Stein, Martin Potthast
- TLDR: Proponiamo un nuovo metodo per misurare la correlazione tra le parole e le frasi per la valutazione della correlazione tra le parole e le frasi.
- Find the Funding: Entity Linking with Incomplete Funding Knowledge Bases
- Gizem Aydin, Seyed Amin Tabatabaei, George Tsatsaronis, Faegheh Hasibi
- TLDR: Proponiamo un modello di linking per l’identificazione e il recupero di informazioni di finanziamento da articoli di articoli di ricerca.
- KiPT: Knowledge-injected Prompt Tuning for Event Detection
- Haochen Li, Tong Mo, Hongcheng Fan, Jingkun Wang, Jiaxi Wang, Fuhao Zhang, Weiping Li
- TLDR: Proponiamo un modello di knowledge-injection per rilevare gli eventi da un testo.
- OneEE: A One-Stage Framework for Fast Overlapping and Nested Event Extraction
- Hu Cao, Jingye Li, Fangfang Su, Fei Li, Hao Fei, Shengqiong Wu, Bobo Li, Liang Zhao, Donghong Ji
- TLDR: Proponiamo un tagger per la predizione di eventi strutturati e un modello per la predizione di eventi strutturati, chiamato OneEE, che può essere utilizzato per la predizione di eventi strutturati.
- Joint Language Semantic and Structure Embedding for Knowledge Graph Completion
- Jianhao Shen, Chenguang Wang, Linyuan Gong, Dawn Song
- TLDR: Proponiamo di utilizzare la semantica per completare i knowledge graph.
- Event Detection with Dual Relational Graph Attention Networks
- Jiaxin Mi, Po Hu, Peng Li
- TLDR: Proponiamo un modello di attention relationale per il rilevamento degli eventi.
- A Multi-Format Transfer Learning Model for Event Argument Extraction via Variational Information Bottleneck
- Jie Zhou, Qi Zhang, Qin Chen, Qi Zhang, Liang He, Xuanjing Huang
- TLDR: Proponiamo un modello di apprendimento multiformat con informazioni variazionali per EAE.
- RSGT: Relational Structure Guided Temporal Relation Extraction
- Jie Zhou, Shenpo Dong, Hongkui Tu, Xiaodong Wang, Yong Dou
- TLDR: Proponiamo un metodo di extrazione temporale relazionale guidata dalla struttura relazionale per la modellazione di grafi.
- Learning Hierarchy-Aware Quaternion Knowledge Graph Embeddings with Representing Relations as 3D Rotations
- Jinfa Yang, Xianghua Ying, Yongjie Shi, Xin Tong, Ruibin Wang, Taiyan Chen, Bowei Xing
- TLDR: Proponiamo un nuovo approccio di embedding relationale per graph knowledge graph.
- Two Languages Are Better than One: Bilingual Enhancement for Chinese Named Entity Recognition
- Jinzhong Ning, Zhihao Yang, Zhizheng Wang, Yuanyuan Sun, Hongfei Lin, Jian Wang
- TLDR: Proponiamo un nuovo metodo per addestrare le NER in modo bilinguale e un nuovo metodo per addestrare le NER in modo unificato.
- Read Extensively, Focus Smartly: A Cross-document Semantic Enhancement Method for Visual Documents NER
- Jun Zhao, Xin Zhao, WenYu Zhan, Tao Gui, Qi Zhang, Liang Qiao, Zhanzhan Cheng, Shiliang Pu
- TLDR: Proponiamo un metodo di semantica per migliorare la comprensione di documenti multilingue.
- STAD: Self-Training with Ambiguous Data for Low-Resource Relation Extraction
- Junjie Yu, Xing Wang, Jiangjiang Zhao, Chunjie Yang, Wenliang Chen
- TLDR: Proponiamo un metodo di self-training semplice e efficace per l’estrazione di relazioni di relazioni a basso livello utilizzando auto-annotazioni di relazioni.
- Flat Multi-modal Interaction Transformer for Named Entity Recognition
- Junyu Lu, Dixiang Zhang, Jiaxing Zhang, Pingjian Zhang
- TLDR: Proponiamo un nuovo metodo per imparare la struttura di lattice per MNER.
- MetaSLRCL: A Self-Adaptive Learning Rate and Curriculum Learning Based Framework for Few-Shot Text Classification
- Kailin Zhao, Xiaolong Jin, Saiping Guan, Jiafeng Guo, Xueqi Cheng
- TLDR: Proponiamo un nuovo metodo di meta learning per few shot text classification.
- A Simple Temporal Information Matching Mechanism for Entity Alignment between Temporal Knowledge Graphs
- Li Cai, Xin Mao, Meirong Ma, Hao Yuan, Jianchao Zhu, Man Lan
- TLDR: Proponiamo un modello GNN per l’apprendimento di embedding temporali di knowledge graph.
- DCT-Centered Temporal Relation Extraction
- Liang Wang, Peifeng Li, Sheng Xu
- TLDR: Proponiamo un modello di extrazione temporale relazionale unificato basato sulla DCT per risolvere il problema di apprendimento multi-task di relazioni temporali.
- Document-level Biomedical Relation Extraction Based on Multi-Dimensional Fusion Information and Multi-Granularity Logical Reasoning
- Lishuang Li, Ruiyuan Lian, Hongbin Lu, Jingyao Tang
- TLDR: Proponiamo un nuovo modello di bio-docuzione di relation extraction basato sulla fusione multi-dimensionale e logical reasoning per risolvere il problema di logica.
- Simple Yet Powerful: An Overlooked Architecture for Nested Named Entity Recognition
- Matias Rojas, Felipe Bravo-Marquez, Jocelyn Dunstan
- TLDR: Proponiamo un nuovo metodo per identificare le reti neurali, multi-layer, che utilizza la semantica per misurare la capacità di rilevamento delle reti neurali.
- ERGO: Event Relational Graph Transformer for Document-level Event Causality Identification
- Meiqi Chen, Yixin Cao, Kunquan Deng, Mukai Li, Kun Wang, Jing Shao, Yan Zhang
- TLDR: Proponiamo un nuovo approccio di apprendimento per l’identificazione degli eventi causali nel documento.
- DRK: Discriminative Rule-based Knowledge for Relieving Prediction Confusions in Few-shot Relation Extraction
- Mengru Wang, Jianming Zheng, Fei Cai, Taihua Shao, Honghui Chen
- TLDR: Proponiamo un metodo di knowledge basato sulla logica per risolvere la confusione tra le relazioni a few shot e le relazioni a few shot.
- DocQueryNet: Value Retrieval with Arbitrary Queries for Form-like Documents
- Mingfei Gao, Le Xue, Chetan Ramaiah, Chen Xing, Ran Xu, Caiming Xiong
- TLDR: Proponiamo DocQueryNet, un metodo di retrieval del valore con query di documenti simili a forme simili a forme, che migliora le prestazioni di comprensione del linguaggio del documento.
- DoSEA: A Domain-specific Entity-aware Framework for Cross-Domain Named Entity Recogition
- Minghao Tang, Peng Zhang, Yongquan He, Yongxiu Xu, Chengpeng Chao, Hongbo Xu
- TLDR: Proponiamo un nuovo framework di comprehensione del reading comprehension basato sulla semantica per risolvere il problema della comunicazione tra domini.
- Incremental Prompting: Episodic Memory Prompt for Lifelong Event Detection
- Minqian Liu, Shiyu Chang, Lifu Huang
- TLDR: Proponiamo un metodo per addestrare il modello con episodi di memoria per lifelong event detection.
- Recent Advances in Text-to-SQL: A Survey of What We Have and What We Expect
- Naihao Deng, Yulong Chen, Yue Zhang
- TLDR: Proponiamo un’analisi sistematica del processo di text-to-SQL per risolvere il problema della semantica tra le forme di testo e le forme di testo.
- An MRC Framework for Semantic Role Labeling
- Nan Wang, Jiwei Li, Yuxian Meng, Xiaofei Sun, Han Qiu, Ziyao Wang, Guoyin Wang, Jun He
- TLDR: Proponiamo di utilizzare il framework di machine reading comprehension per risolvere il divario tra la semantica predicazione e il labeling degli attributi.
- PCBERT: Parent and Child BERT for Chinese Few-shot NER
- Peichao Lai, Feiyang Ye, Lin Zhang, Zhiwei Chen, Yanggeng Fu, Yingjie Wu, Yilei Wang
- TLDR: Proponiamo un metodo per imparare a rispondere ai messaggi di input per few shot NER.
- Label Smoothing for Text Mining
- Peiyang Liu, Xiangyu Xi, Wei Ye, Shikun Zhang
- TLDR: Proponiamo un metodo di apprendimento automatico basato sul metodo di smoothing delle label per generare soft label da label hard.
- Diverse Multi-Answer Retrieval with Determinantal Point Processes
- Poojitha Nandigam, Nikhil Rayaprolu, Manish Shrivastava
- TLDR: Proponiamo un metodo di re-ranking basato sul determinantal point per multi-answer retrieval.
- Improving Deep Embedded Clustering via Learning Cluster-level Representations
- Qing Yin, Zhihua Wang, Yunya Song, Yida Xu, Shuai Niu, Liang Bai, Yike Guo, Xian Yang
- TLDR: Proponiamo un modello di clustering embedding basato sul cluster per l’apprendimento di rappresentazioni di testo a livello di topic e topic.
- Decoupling Mixture-of-Graphs: Unseen Relational Learning for Knowledge Graph Completion by Fusing Ontology and Textual Experts
- Ran Song, Shizhu He, Suncong Zheng, Shengxiang Gao, Kang Liu, Zhengtao Yu, Jun Zhao
- TLDR: Proponiamo un metodo di apprendimento di grafi unseen per risolvere il problema di sovra-performance e decoupling mixture-of-graph experts per un apprendimento di grafi unseen.
- CETA: A Consensus Enhanced Training Approach for Denoising in Distantly Supervised Relation Extraction
- Ruri Liu, Shasha Mo, Jianwei Niu, Shengda Fan
- TLDR: Proponiamo un metodo di selezione di frasi a livello di frase per l’apprendimento di un modello di relation extraction che può essere utilizzato per evitare la bias di classificazione.
- MedDistant19: Towards an Accurate Benchmark for Broad-Coverage Biomedical Relation Extraction
- Saadullah Amin, Pasquale Minervini, David Chang, Pontus Stenetorp, Guenter Neumann
- TLDR: Proponiamo un benchmark di extrazione di relazioni biomedice distanti per la ricerca di biomedical relation.
- Decorrelate Irrelevant, Purify Relevant: Overcome Textual Spurious Correlations from a Feature Perspective
- Shihan Dou, Rui Zheng, Ting Wu, SongYang Gao, Junjie Shan, Qi Zhang, Yueming Wu, Xuanjing Huang
- TLDR: Proponiamo di ridurre le correlazioni spurie e dimostriamo che le feature decorrelated non sono necessarie per imparare le feature di apprendimento.
- Event Causality Identification via Derivative Prompt Joint Learning
- Shirong Shen, Heng Zhou, Tongtong Wu, Guilin Qi
- TLDR: Proponiamo un modello di apprendimento derivativo per eventi causali, che sfrutta la conoscenza potenziale della conoscenza causale nel language model pre-trained per affrontare il problema della scarsità dei dati.
- Event Causality Extraction with Event Argument Correlations
- Shiyao Cui, Jiawei Sheng, Xin Cong, Quangang Li, Tingwen Liu, Jinqiao Shi
- TLDR: Proponiamo un metodo di taggering del grid per apprendimento di eventi causali.
- SCL-RAI: Span-based Contrastive Learning with Retrieval Augmented Inference for Unlabeled Entity Problem in NER
- Shuzheng Si, Shuang Zeng, Jiaxing Lin, Baobao Chang
- TLDR: Proponiamo un metodo di contrastive learning basato sul recupero di informazioni per risolvere il problema di unlabeled entity.
- A Relation Extraction Dataset for Knowledge Extraction from Web Tables
- Siffi Singh, Alham Fikri Aji, Gaurav Singh, Christos Christodoulopoulos
- TLDR: Proponiamo un nuovo benchmark per la relation extraction.
- Automatic Keyphrase Generation by Incorporating Dual Copy Mechanisms in Sequence-to-Sequence Learning
- Siyu Wang, Jianhui Jiang, Yao Huang, Yin Wang
- TLDR: Proponiamo un modello di sequenza di parole per generare nuove parole per la generazione di keywords.
- Dependency-aware Prototype Learning for Few-shot Relation Classification
- Tianshu Yu, Min Yang, Xiaoyan Zhao
- TLDR: Proponiamo un metodo di apprendimento di modelli di relational dependency per few shot relation classification.
- MECI: A Multilingual Dataset for Event Causality Identification
- Viet Dac Lai, Amir Pouran Ben Veyseh, Minh Van Nguyen, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Proponiamo un dataset multilingue per ECI, chiamato MECI, che fornisce annotazioni per le relazioni causali tra eventi citati nel testo.
- Method Entity Extraction from Biomedical Texts
- Waqar Bin Kalim, Robert E. Mercer
- TLDR: Proponiamo un corpus di testo biomedico standard basato sulla regolarizzazione per l’apprendimento automatico.
- Optimal Partial Transport Based Sentence Selection for Long-form Document Matching
- Weijie Yu, Liang Pang, Jun Xu, Bing Su, Zhenhua Dong, Ji-Rong Wen
- TLDR: Proponiamo un nuovo approccio di matching per document matching che combina le proprietà di partial transport e OPT per selezionare le frasi chiave per il matching.
- LightNER: A Lightweight Tuning Paradigm for Low-resource NER via Pluggable Prompting
- Xiang Chen, Lei Li, Shumin Deng, Chuanqi Tan, Changliang Xu, Fei Huang, Luo Si, Huajun Chen, Ningyu Zhang
- TLDR: Proponiamo un metodo di tuning lightweight per NER low-resource tramite pluggable prompting.
- Cross-modal Contrastive Attention Model for Medical Report Generation
- Xiao Song, Xiaodan Zhang, Junzhong Ji, Ying Liu, Pengxu Wei
- TLDR: Proponiamo un modello di attention cross-modal controsviluppato per la generazione di report sanitari.
- Domain-Specific NER via Retrieving Correlated Samples
- Xin Zhang, Yong Jiang, Xiaobin Wang, Xuming Hu, Yueheng Sun, Pengjun Xie, Meishan Zhang
- TLDR: Proponiamo di modellare i modelli di Named Entity Recognition con sample correlati.
- Type-enriched Hierarchical Contrastive Strategy for Fine-Grained Entity Typing
- Xinyu Zuo, Haijin Liang, Ning Jing, Shuang Zeng, Zhou Fang, Yu Luo
- TLDR: Proponiamo un metodo di contrasto gerarchico per FET che può modellare direttamente le differenza tra i tipi gerarchici e migliorare la capacità di distinguere multi-grained similari.
- Document-Level Relation Extraction via Pair-Aware and Entity-Enhanced Representation Learning
- Xiusheng Huang, Hang Yang, Yubo Chen, Jun Zhao, Kang Liu, Weijian Sun, Zuyu Zhao
- TLDR: Proponiamo un modello di rappresentazione per la relation extraction a livello di articolo per risolvere due problemi di relation extraction.
- Improving Zero-Shot Entity Linking Candidate Generation with Ultra-Fine Entity Type Information
- Xuhui Sui, Ying Zhang, Kehui Song, Baohang Zhou, Guoqing Zhao, Xin Wei, Xiaojie Yuan
- TLDR: Proponiamo un modello multi-task per migliorare il task di generazione di candidati di entity linking a livello di basso livello utilizzando informazioni di tipo di testo e informazioni di tipo di testo.
- CofeNet: Context and Former-Label Enhanced Net for Complicated Quotation Extraction
- Yequan Wang, Xiang Li, Aixin Sun, Xuying Meng, Huaming Liao, Jiafeng Guo
- TLDR: Un metodo per addestrare la quotazione
- Supporting Medical Relation Extraction via Causality-Pruned Semantic Dependency Forest
- Yifan Jin, Jiangmeng Li, Zheng Lian, Chengbo Jiao, Xiaohui Hu
- TLDR: Proponiamo un metodo per modellare le informazioni semantiche e syntatiche da testi sanitari basati sulla teoria della spiegazione causale.
- Aspect-based Sentiment Analysis as Machine Reading Comprehension
- Yifei Yang, Hai Zhao
- TLDR: Proponiamo un nuovo framework end-to-end per l’analisi del sentiment basata sull’aspetto, MRCOOL, MRC-PrOmpt mOdeL, MRC-PrOmpt mOdeL.
- Nested Named Entity Recognition as Corpus Aware Holistic Structure Parsing
- Yifei Yang, Zuchao Li, Hai Zhao
- TLDR: Proponiamo un modello di struttura per NER che può modellare le strutture di struttura per NER.
- DESED: Dialogue-based Explanation for Sentence-level Event Detection
- Yinyi Wei, Shuaipeng Liu, Jianwei Lv, Xiangyu Xi, Hailei Yan, Wei Ye, Tong Mo, Fan Yang, Guanglu Wan
- TLDR: Proponiamo un nuovo metodo di spiegazione basato sulla conversazione per migliorare la semantica delle frasi per rilevare gli eventi.
- Data Augmentation for Few-Shot Knowledge Graph Completion from Hierarchical Perspective
- Yuanzhou Yao, Zhao Zhang, Yongjun Xu, Chao Li
- TLDR: Proponiamo di aumentare i dati di input per risolvere il problema di completamento dei knowledge graph.
- CLIO: Role-interactive Multi-event Head Attention Network for Document-level Event Extraction
- Yubing Ren, Yanan Cao, Fang Fang, Ping Guo, Zheng Lin, Wei Ma, Yi Liu
- TLDR: Proponiamo un modello di attention multi-event per risolvere il problema di apprendimento multi-event.
- COPNER: Contrastive Learning with Prompt Guiding for Few-shot Named Entity Recognition
- Yucheng Huang, Kai He, Yige Wang, Xianli Zhang, Tieliang Gong, Rui Mao, Chen Li
- TLDR: Proponiamo un nuovo metodo di apprendimento few shot per la classificazione few shot di token e metric.
- Few Clean Instances Help Denoising Distant Supervision
- Yufang Liu, Ziyin Huang, Yijun Wang, Changzhi Sun, Man Lan, Yuanbin Wu, Xiaofeng Mou, Ding Wang
- TLDR: Proponiamo un metodo per selezionare le istanze clean basate sulla selezione degli agenti e il controllo di purità dei risultati intermedi.
- SEE-Few: Seed, Expand and Entail for Few-shot Named Entity Recognition
- Zeng Yang, Linhai Zhang, Deyu Zhou
- TLDR: Proponiamo un nuovo multi-task (Seed, Expand e Entail) learning framework, SEE-Few, per Few-shot named entity recognition.
- Ruleformer: Context-aware Rule Mining over Knowledge Graph
- Zezhong Xu, Peng Ye, Hui Chen, Meng Zhao, Huajun Chen, Wen Zhang
- TLDR: Proponiamo un approccio di rule mining basato sul trasformatore per risolvere il problema di apprendimento dei knowledge graph.
- Are People Located in the Places They Mention in Their Tweets? A Multimodal Approach
- Zhaomin Xiao, Eduardo Blanco
- TLDR: Proponiamo un corpus di tweet che contiene sia testo che immagini.
- Multi-modal Contrastive Representation Learning for Entity Alignment
- Zhenxi Lin, Ziheng Zhang, Meng Wang, Yinghui Shi, Xian Wu, Yefeng Zheng
- TLDR: Proponiamo un modello di contrastive learning basato sulla teoria del contrasto per l’alignment multimodale.
- Nonparametric Forest-Structured Neural Topic Modeling
- Zhihong Zhang, Xuewen Zhang, Yanghui Rao
- TLDR: Proponiamo un topic topic neural topic model strutturato per la ricerca di topic topic.
- KGE-CL: Contrastive Learning of Tensor Decomposition Based Knowledge Graph Embeddings
- Zhiping Luo, Wentao Xu, Weiqing Liu, Jiang Bian, Jian Yin, Tie-Yan Liu
- TLDR: Proponiamo un metodo di contrasto per knowledge embedding basato sulla decomposizione tensoriale e la coppia di relazioni tra le informazioni e le relazioni tra le informazioni e le relazioni tra le informazioni e le relazioni tra le informazioni e le relazioni tra le informazioni e le relazioni inter-enti.
- A Coarse-to-fine Cascaded Evidence-Distillation Neural Network for Explainable Fake News Detection
- Zhiwei Yang, Jing Ma, Hechang Chen, Hongzhan Lin, Ziyang Luo, Yi Chang
- TLDR: Proponiamo un modello di rilevamento di fake news spiegabile basato su dati di input e output.
- Document-level Event Factuality Identification via Machine Reading Comprehension Frameworks with Transfer Learning
- Zhong Qian, Heng Zhang, Peifeng Li, Qiaoming Zhu, Guodong Zhou
- TLDR: Proponiamo un modello di apprendimento MRC che utilizza informazioni di testo per identificare eventi factuali.
- Unregulated Chinese-to-English Data Expansion Does NOT Work for Neural Event Detection
- Zhongqiu Li, Yu Hong, Jie Wang, Shiming He, Jianmin Yao, Guodong Zhou
- TLDR: Proponiamo un metodo per regolare i dati di input e output per addestrare la rilevazione neurale degli eventi neurali.
- Finding Influential Instances for Distantly Supervised Relation Extraction
- Zifeng Wang, Rui Wen, Xi Chen, Shao-Lun Huang, Ningyu Zhang, Yefeng Zheng
- TLDR: Proponiamo un metodo di sampling degli istanze di input per la supervisione di distanza tramite influence function (IF)
- A Simple Model for Distantly Supervised Relation Extraction
- Ziqin Rao, Fangxiang Feng, Ruifan Li, Xiaojie Wang
- TLDR: Proponiamo un metodo di extrazione di relazioni distanti per sfruttare le rappresentazioni di bag.
- Augmenting Legal Judgment Prediction with Contrastive Case Relations
- Dugang Liu, Weihao Du, Lei Li, Weike Pan, Zhong Ming
- TLDR: Proponiamo un modello di case modeling per la predizione del giudizio legale con un framework di apprendimento correlato con case modeling.
- Constrained Regeneration for Cross-Lingual Query-Focused Extractive Summarization
- Elsbeth Turcan, David Wan, Faisal Ladhak, Petra Galuscakova, Sukanta Sen, Svetlana Tchistiakova, Weijia Xu, Marine Carpuat, Kenneth Heafield, Douglas Oard, Kathleen McKeown
- TLDR: Proponiamo un metodo per addestrare un termine di ricerca per la sintesi di documenti di origine e di destinazione.
- Programmable Annotation with Diversed Heuristics and Data Denoising
- Ernie Chang, Alex Marin, Vera Demberg
- TLDR: Proponiamo un nuovo metodo di programmazione per generare dati di annotazione e comprensione insieme.
- Text-to-Text Extraction and Verbalization of Biomedical Event Graphs
- Giacomo Frisoni, Gianluca Moro, Lorenzo Balzani
- TLDR: Proponiamo un nuovo metodo per parsing e generazione di eventi biomedici da dati strutturati.
- Multimodal Semi-supervised Learning for Disaster Tweet Classification
- Iustin Sirbu, Tiberiu Sosea, Cornelia Caragea, Doina Caragea, Traian Rebedea
- TLDR: Proponiamo un metodo di apprendimento semi-supervisionato per migliorare le prestazioni dei modelli neurali su diversi task di classificazione dei tweet.
- Automated Essay Scoring via Pairwise Contrastive Regression
- Jiayi Xie, Kaiwei Cai, Li Kong, Junsheng Zhou, Weiguang Qu
- TLDR: Proponiamo un modello di contrastive regressione neurale pairwise per essay scoring.
- Medical Question Understanding and Answering with Knowledge Grounding and Semantic Self-Supervision
- Khalil Mrini, Harpreet Singh, Franck Dernoncourt, Seunghyun Yoon, Trung Bui, Walter W. Chang, Emilia Farcas, Ndapa Nakashole
- TLDR: Proponiamo un sistema di comprensione e risposta dei question answering medicali con knowledge grounding e self-supervision.
- A Progressive Framework for Role-Aware Rumor Resolution
- Lei Chen, Guanying Li, Zhongyu Wei, Yang Yang, Baohua Zhou, Qi Zhang, Xuanjing Huang
- TLDR: Proponiamo un modello basato sul rumor per risolvere il rumor.
- Uncertainty-aware Propagation Structure Reconstruction for Fake News Detection
- Lingwei Wei, Dou Hu, Wei Zhou, Songlin Hu
- TLDR: Proponiamo un nuovo modello di propagazione strutturale basato sulla teoria della propagazione per migliorare la rilevanza delle fake news.
- A Unified Propagation Forest-based Framework for Fake News Detection
- Lingwei Wei, Dou Hu, Yantong Lai, Wei Zhou, Songlin Hu
- TLDR: Proponiamo un nuovo metodo per sfruttare le correlazioni latenti tra le tre propagation tree per rilevare le fake news.
- CLoSE: Contrastive Learning of Subframe Embeddings for Political Bias Classification of News Media
- Michelle YoungJin Kim, Kristen Marie Johnson
- TLDR: Proponiamo CLoSE, un modello multi-task basato sul contrasto per rilevare il framing nei dati di apprendimento few shot e zero-shot.
- Grammatical Error Correction: Are We There Yet?
- Muhammad Reza Qorib, Hwee Tou Ng
- TLDR: Proponiamo un nuovo metodo per misurare le prestazioni di GEC.
- CXR Data Annotation and Classification with Pre-trained Language Models
- Nina Zhou, Ai Ti Aw, Zhuo Han Liu, Cher heng Tan, Yonghan Ting, Wen Xiang Chen, Jordan sim zheng Ting
- TLDR: Proponiamo un nuovo metodo di annotazione weak per la selezione dei sample e auto-annotazione dei dati.
- uChecker: Masked Pretrained Language Models as Unsupervised Chinese Spelling Checkers
- Piji Li
- TLDR: Proponiamo un nuovo task di rilevamento del gioco di parole e frasi nel testo.
- Boosting Deep CTR Prediction with a Plug-and-Play Pre-trainer for News Recommendation
- Qijiong Liu, Jieming Zhu, Quanyu Dai, Xiaoming Wu
- TLDR: Proponiamo un metodo per imparare le rappresentazioni di utenti e encoder attraverso multi-task pre-training.
- Improving Fake News Detection of Influential Domain via Domain- and Instance-Level Transfer
- Qiong Nan, Danding Wang, Yongchun Zhu, Qiang Sheng, Yuhui Shi, Juan Cao, Jintao Li
- TLDR: Proponiamo un metodo di transfer per rilevare le fake news nel dominio target.
- Student Surpasses Teacher: Imitation Attack for Black-Box NLP APIs
- Qiongkai Xu, Xuanli He, Lingjuan Lyu, Lizhen Qu, Gholamreza Haffari
- TLDR: Proponiamo un’analisi unsupervised di modelli di imitazione black-box per risolvere il problema di imitation.
- Combining Compressions for Multiplicative Size Scaling on Natural Language Tasks
- Rajiv Movva, Jinhao Lei, Shayne Longpre, Ajay Gupta, Chris DuBois
- TLDR: Proponiamo di combattere la riduzione della dimensione del modello con la quantizzazione e la distillazione della conoscenza.
- PlugAT: A Plug and Play Module to Defend against Textual Adversarial Attack
- Rui Zheng, Rong Bao, Qin Liu, Tao Gui, Qi Zhang, Xuanjing Huang, Rui Xie, Wei Wu
- TLDR: Proponiamo un nuovo adversarial training per addestrare un modulo di difesa plug-based per fornire previsioni robuste.
- Automatic ICD Coding Exploiting Discourse Structure and Reconciled Code Embeddings
- Shurui Zhang, Bozheng Zhang, Fuxin Zhang, Bo Sang, Wanchun Yang
- TLDR: Proponiamo un modello di coding ICD che sfrutta la struttura del discorso clinico per ottenere informazioni contestuali.
- Towards Summarizing Healthcare Questions in Low-Resource Setting
- Shweta Yadav, Cornelia Caragea
- TLDR: Proponiamo una strategia di selezione dei dati per la summarizzazione dei documenti sanitari in un setting low-resource con l’obiettivo di generare diverse domande semantiche e informative.
- Doc-GCN: Heterogeneous Graph Convolutional Networks for Document Layout Analysis
- Siwen Luo, Yihao Ding, Siqu Long, Josiah Poon, Soyeon Caren Han
- TLDR: Proponiamo un modello di analisi del layout per documenti strutturati e strutturati.
- Analytic Automated Essay Scoring Based on Deep Neural Networks Integrating Multidimensional Item Response Theory
- Takumi Shibata, Masaki Uto
- TLDR: Proponiamo un modello neurale per il rilevamento degli articoli di testo automatizzato che combina il modello di apprendimento automatico con il modello di risposta multidimensionale.
- DP-Rewrite: Towards Reproducibility and Transparency in Differentially Private Text Rewriting
- Timour Igamberdiev, Thomas Arnold, Ivan Habernal
- TLDR: Proponiamo un nuovo approccio per riscrivere il testo differenzialmente privato utilizzando un modello di pre-training modulare, scalabile e altamente customizabile.
- Harnessing Abstractive Summarization for Fact-Checked Claim Detection
- Varad Bhatnagar, Diptesh Kanojia, Kameswari Chebrolu
- TLDR: Proponiamo un algoritmo di ricerca di informazioni per rilevare le claims di fatto che utilizza la summarization per generare query.
- Learning to Generate Explanation from e-Hospital Services for Medical Suggestion
- Wei-Lin Chen, An-Zi Yen, Hen-Hsen Huang, Hsin-Hsi Chen
- TLDR: Proponiamo un modello di spiegazione neurale per il consulting medico.
- DeltaNet: Conditional Medical Report Generation for COVID-19 Diagnosis
- Xian Wu, Shuxin Yang, Zhaopeng Qiu, Shen Ge, Yangtian Yan, Xingwang Wu, Yefeng Zheng, S. Kevin Zhou, Li Xiao
- TLDR: Proponiamo una nuova architettura di elaborazione di informazioni sanitarie condizionate per la COVID-19.
- MCS: An In-battle Commentary System for MOBA Games
- Xiaofeng Qi, Chao Li, Zhongping Liang, Jigang Liu, Cheng Zhang, Yuanxin Wei, Lin Yuan, Guang Yang, Lanxiao Huang, Min Li
- TLDR: Proponiamo un sistema generativo per commentare gli eventi in-battle in MOBA giochi.
- A Two Stage Adaptation Framework for Frame Detection via Prompt Learning
- Xinyi Mou, Zhongyu Wei, Changjian Jiang, Jiajie Peng
- TLDR: Proponiamo un framework di adaptation per la rilevazione del frame per affrontare il bias del frame.
- Summarizing Patients’ Problems from Hospital Progress Notes Using Pre-trained Sequence-to-Sequence Models
- Yanjun Gao, Dmitriy Dligach, Timothy Miller, Dongfang Xu, Matthew M. M. Churpek, Majid Afshar
- TLDR: Proponiamo un nuovo task di summarization del problema del medico di ICU basato su architettura di trasformatori seq2seq.
- Human-in-the-loop Robotic Grasping Using BERT Scene Representation
- Yaoxian Song, Penglei Sun, Pengfei Fang, Linyi Yang, Yanghua Xiao, Yue Zhang
- TLDR: Proponiamo un framework umano-in-the-loop per il grasping robotico in scene cluttered, utilizzando BERT.
- Automated Chinese Essay Scoring from Multiple Traits
- Yaqiong He, Feng Jiang, Xiaomin Chu, Peifeng Li
- TLDR: Proponiamo un modello di valutazione multi-task per l’apprendimento automatico degli articoli.
- Semantic-Preserving Adversarial Code Comprehension
- Yiyang Li, Hongqiu Wu, Hai Zhao
- TLDR: Proponiamo un metodo per addestrare un adversarial language model per la comprehension del codice.
- Continually Detection, Rapidly React: Unseen Rumors Detection Based on Continual Prompt-Tuning
- Yuhui Zuo, Wei Zhu, Guoyong GUET Cai
- TLDR: Proponiamo un metodo continual prompt-tuning per il rilevamento rumore basato sulla conoscenza di un domain.
- AiM: Taking Answers in Mind to Correct Chinese Cloze Tests in Educational Applications
- Yusen Zhang, Zhongli Li, Qingyu Zhou, Ziyi Liu, Chao Li, Mina Ma, Yunbo Cao, Hongzhi Liu
- TLDR: Proponiamo un metodo multimodale per risolvere il problema della correzione dei test cloze basati sul modello di riconoscimento OCR.
- TreeMAN: Tree-enhanced Multimodal Attention Network for ICD Coding
- Zichen Liu, Xuyuan Liu, Yanlong Wen, Guoqing Zhao, Fen Xia, Xiaojie Yuan
- TLDR: Proponiamo Tree-enhanced Multimodal Attention Network per costruire rappresentazioni multimodali di dati strutturati da dati strutturati multimodali.
- Gated Mechanism Enhanced Multi-Task Learning for Dialog Routing
- Ziming Huang, Zhuoxuan Jiang, Ke Wang, Juntao Li, Shanshan Feng, Xian-Ling Mao
- TLDR: Proponiamo un modello di dialogo multi-task migliorato Gated Mechanism per risolvere il problema del dialogo umano-bot.
- Negation, Coordination, and Quantifiers in Contextualized Language Models
- Aikaterini-Lida Kalouli, Rita Sevastjanova, Christin Beck, Maribel Romero
- TLDR: Proponiamo un’analisi teorica dei language model contextuali e dimostriamo che il contesto del contesto locale influisce sulla loro apprendimento.
- Tales and Tropes: Gender Roles from Word Embeddings in a Century of Children’s Books
- Anjali Adukia, Patricia Chiril, Callista Christ, Anjali Das, Alex Eble, Emileigh Harrison, Hakizumwami Birali Runesha
- TLDR: Proponiamo StoryWords 1.0, word embedding per la rappresentazione del gender in giochi di testo per bambini.
- CLOWER: A Pre-trained Language Model with Contrastive Learning over Word and Character Representations
- Borun Chen, Hongyin Tang, Jiahao Bu, Kai Zhang, Jingang Wang, Qifan Wang, Hai-Tao Zheng, Wei Wu, Liqian Yu
- TLDR: Proponiamo un modello di contrasto per l’apprendimento di rappresentazioni linguistiche fine-grained.
- On the Nature of BERT: Correlating Fine-Tuning and Linguistic Competence
- Federica Merendi, Felice Dell’Orletta, Giulia Venturi
- TLDR: Proponiamo un nuovo task di fine-tuning per la comprensione NLP che può essere usato per prevedere la precisione NLP fine-tunned.
- LayerConnect: Hypernetwork-Assisted Inter-Layer Connector to Enhance Parameter Efficiency
- Haoxiang Shi, Rongsheng Zhang, Jiaan Wang, Cen Wang, Yinhe Zheng, Tetsuya Sakai
- TLDR: Proponiamo LayerConnect (connessioni per interlayer connector) per migliorare la precisione di inferenza.
- Effect of Post-processing on Contextualized Word Representations
- Hassan Sajjad, Firoj Alam, Fahim Dalvi, Nadir Durrani
- TLDR: Proponiamo un metodo di normalizzazione per embedding di rappresentazioni di testo contestuali.
- Does BERT Rediscover a Classical NLP Pipeline?
- Jingcheng Niu, Wenjie Lu, Gerald Penn
- TLDR: Proponiamo un nuovo metodo per studiare la struttura di BERT, chiamato GridLoc, e mostriamo che la separazione della pipeline che sostenono Jawahar et al. e Tenney et al. non fornisce alcun supporto empirico.
- HG2Vec: Improved Word Embeddings from Dictionary and Thesaurus Based Heterogeneous Graph
- Qitong Wang, Mohammed J Zaki
- TLDR: Proponiamo HG2Vec, un modello di apprendimento di word embedding che utilizza solo dizionari e lauree e dimostriamo che le informazioni di testo sono efficaci per imparare word embedding.
- Transferring Knowledge from Structure-aware Self-attention Language Model to Sequence-to-Sequence Semantic Parsing
- Ran Ji, Jianmin Ji
- TLDR: Proponiamo un modello di self-attention per incorporare il linguaggio del target nel modello di semantica seq2seq.
- Enhancing Contextual Word Representations Using Embedding of Neighboring Entities in Knowledge Graphs
- Ryoko Tokuhisa, Keisuke Kawano, Akihiro Nakamura, Satoshi Koide
- TLDR: Proponiamo KG-attention, un metodo per integrare le strutture di una classe di grafi di knowledge graph in recenti architetture PLM.
- Generic Overgeneralization in Pre-trained Language Models
- Sello Ralethe, Jan Buys
- TLDR: Proponiamo di utilizzare knowledge embedding per ridurre la generalizzazione e la sovra-generalizzazione.
- How about Time? Probing a Multilingual Language Model for Temporal Relations
- Tommaso Caselli, Irene Dini, Felice Dell’Orletta
- TLDR: Proponiamo un modello di apprendimento multilingue per la classificazione temporale delle relazioni temporali tra eventi in quattro lingue.
- CogBERT: Cognition-Guided Pre-trained Language Models
- Xiao Ding, Bowen Chen, Li Du, Bing Qin, Ting Liu
- TLDR: Proponiamo CogBERT, un framework per incorporare le feature cognitive nei modelli di linguaggio naturale come BERT e la sua attention visualization migliora la comprensione del linguaggio naturale.
- Can Transformers Process Recursive Nested Constructions, Like Humans?
- Yair Lakretz, Théo Desbordes, Dieuwke Hupkes, Stanislas Dehaene
- TLDR: Proponiamo un nuovo metodo di trasformazione per processare le dipendenze embedded nel linguaggio naturale.
- NSP-BERT: A Prompt-based Few-Shot Learner through an Original Pre-training Task —— Next Sentence Prediction
- Yi Sun, Yu Zheng, Chao Hao, Hangping Qiu
- TLDR: Proponiamo un metodo di training per l’apprendimento basato sul prompt per task di few shot e few shot.
- MetaPrompting: Learning to Learn Better Prompts
- Yutai Hou, Hongyuan Dong, Xinghao Wang, Bohan Li, Wanxiang Che
- TLDR: Proponiamo un metodo di soft-prompting generalizzato per risolvere il problema di inizializzazione soft per few shot language processing.
- Parameter-Efficient Mixture-of-Experts Architecture for Pre-trained Language Models
- Ze-Feng Gao, Peiyu Liu, Wayne Xin Zhao, Zhong-Yi Lu, Ji-Rong Wen
- TLDR: Proponiamo di aumentare la capacità di modellazione per i modelli di testo pre-trained utilizzando la condivisione di informazioni tra esperti.
- Pre-trained Token-replaced Detection Model as Few-shot Learner
- Zicheng Li, Shoushan Li, Guodong Zhou
- TLDR: Proponiamo un nuovo approccio di few shot learning con modelli di rilevamento di token ri-allocare pre-trained di token-replaced.
- Evaluating Diversity of Multiword Expressions in Annotated Text
- Adam Lion-Bouton, Yagmur Ozturk, Agata Savary, Jean-Yves Antoine
- TLDR: Proponiamo un metodo per valutare la diversità e la stabilità delle annotazioni di testo multi-word e dimostriamo che le misure di richness, normalized richness e evenness sono validi per la valutazione di diversità e diversità.
- CausalQA: A Benchmark for Causal Question Answering
- Alexander Bondarenko, Magdalena Wolska, Stefan Heindorf, Lukas Blübaum, Axel-Cyrille Ngonga Ngomo, Benno Stein, Pavel Braslavski, Matthias Hagen, Martin Potthast
- TLDR: Proponiamo un corpus di question answering causale per question answering QA.
- MACRONYM: A Large-Scale Dataset for Multilingual and Multi-Domain Acronym Extraction
- Amir Pouran Ben Veyseh, Nicole Meister, Seunghyun Yoon, Rajiv Jain, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Proponiamo un dataset per l’AE multilingue e multi-domain.
- Curating a Large-Scale Motivational Interviewing Dataset Using Peer Support Forums
- Anuradha Welivita, Pearl Pu
- TLDR: Proponiamo di annotare le risposte di apprendimento di un chatbot basato sulla motivazione e dimostriamo che le risposte di apprendimento di un chatbot sono correlate con le conversazioni di apprendimento di un chatbot.
- CCTC: A Cross-Sentence Chinese Text Correction Dataset for Native Speakers
- Baoxin Wang, Xingyi Duan, Dayong Wu, Wanxiang Che, Zhigang Chen, Guoping Hu
- TLDR: Proponiamo un dataset di correzione del testo per la traduzione tra lingue non bilingui.
- RealMedDial: A Real Telemedical Dialogue Dataset Collected from Online Chinese Short-Video Clips
- Bo Xu, Hongtong Zhang, Jian Wang, Xiaokun Zhang, Dezhi Hao, Linlin Zong, Hongfei Lin, Fenglong Ma
- TLDR: Proponiamo un dataset di dialogo medico basato sulla conversazione reale basato su video di assistenza sanitaria.
- TempoWiC: An Evaluation Benchmark for Detecting Meaning Shift in Social Media
- Daniel Loureiro, Aminette D’Souza, Areej Nasser Muhajab, Isabella A. White, Gabriel Wong, Luis Espinosa-Anke, Leonardo Neves, Francesco Barbieri, Jose Camacho-Collados
- TLDR: Proponiamo TempoWiC, un benchmark per la ricerca nel meaning shift basato sulla comunicazione sociale.
- Automatic Generation of Large-scale Multi-turn Dialogues from Reddit
- Daniil Huryn, William M. Hutsell, Jinho D. Choi
- TLDR: Proponiamo nuovi metodi per convertire i post e i loro commenti da discussioni di forum come Reddit in conversazioni multi-turne.
- ConFiguRe: Exploring Discourse-level Chinese Figures of Speech
- Dawei Zhu, Qiusi Zhan, Zhejian Zhou, Yifan Song, Jiebin Zhang, Sujian Li
- TLDR: Proponiamo un nuovo metodo per rilevare le figure di speech e dimostriamo che le informazioni di input sono state ottimizzate per risolvere il problema.
- Twitter Topic Classification
- Dimosthenis Antypas, Asahi Ushio, Jose Camacho-Collados, Vitor Silva, Leonardo Neves, Francesco Barbieri
- TLDR: Proponiamo un task di topic classification basato sulla classificazione dei topic per la valutazione di modelli di topic classification.
- Layer or Representation Space: What Makes BERT-based Evaluation Metrics Robust?
- Doan Nam Long Vu, Nafise Sadat Moosavi, Steffen Eger
- TLDR: Proponiamo BERTScore, una metrica di valutazione basata sull’embedding per la generazione di testo.
- Evaluating the Performance of Transformer-based Language Models for Neuroatypical Language
- Duanchen Liu, Zoey Liu, Qingyun Yang, Yujing Huang, Emily Prud’hommeaux
- TLDR: Proponiamo un framework basato sul trasformatore per identificare le feature linguistiche correlate agli aspetti sociali della comunicazione utilizzando un corpus di conversazioni tra adulti con e senza ASD e neurotypical conversational partners produced mentre si allenano in task collaborativi.
- TERMinator: A System for Scientific Texts Processing
- Elena Bruches, Olga Tikhobaeva, Yana Dementyeva, Tatiana Batura
- TLDR: Proponiamo un sistema di apprendimento per l’identificazione di termini e relazioni semantiche da testi scientifici.
- LipKey: A Large-Scale News Dataset for Absent Keyphrases Generation and Abstractive Summarization
- Fajri Koto, Timothy Baldwin, Jey Han Lau
- TLDR: Proponiamo LipKey, un corpus di informazioni sintetiche e sintetiche con sintesi di sintesi e sintesi di testo umano, e mostriamo che l’aggiunta di informazioni mancanti alle keyphrases e alle title migliora le prestazioni di sintesi.
- Understanding Attention for Vision-and-Language Tasks
- Feiqi Cao, Soyeon Caren Han, Siqu Long, Changwei Xu, Josiah Poon
- TLDR: Proponiamo un nuovo metodo di attention alignment per la valutazione di task VL.
- Effective Data Augmentation for Sentence Classification Using One VAE per Class
- Frédéric Piedboeuf, Philippe Langlais
- TLDR: Proponiamo un metodo semplice per utilizzare VAE per data augmentation.
- NLG-Metricverse: An End-to-End Library for Evaluating Natural Language Generation
- Giacomo Frisoni, Antonella Carbonaro, Gianluca Moro, Andrea Zammarchi, Marco Avagnano
- TLDR: Proponiamo un’architettura end-to-end open-source per la valutazione di modelli di natural language generation basati su Python.
- TestAug: A Framework for Augmenting Capability-based NLP Tests
- Guanqun Yang, Mirazul Haque, Qiaochu Song, Wei Yang, Xueqing Liu
- TLDR: Proponiamo un nuovo metodo per addestrare GPT-3 per generare test suite da pochi testi.
- KoCHET: A Korean Cultural Heritage Corpus for Entity-related Tasks
- Gyeongmin Kim, Jinsung Kim, Junyoung Son, Heuiseok Lim
- TLDR: Proponiamo un corpus culturale di Korean cultural heritage per la classificazione delle entità e la typificazione delle classi.
- MonoByte: A Pool of Monolingual Byte-level Language Models
- Hugo Abonizio, Leandro Rodrigues de Souza, Roberto Lotufo, Rodrigo Nogueira
- TLDR: Proponiamo 10 modelli di apprendimento multilingue rigorosamente pretrained sotto una configurazione di compute budget e corpora che sono 4 volte più grandi di BERT.
- Wizard of Tasks: A Novel Conversational Dataset for Solving Real-World Tasks in Conversational Settings
- Jason Ingyu Choi, Saar Kuzi, Nikhita Vedula, Jie Zhao, Giuseppe Castellucci, Marcus Collins, Shervin Malmasi, Oleg Rokhlenko, Eugene Agichtein
- TLDR: Proponiamo Wizard of Tasks, un corpus di conversazioni conversazionali per task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di task di
- K-MHaS: A Multi-label Hate Speech Detection Dataset in Korean Online News Comment
- Jean Lee, Taejun Lim, Heejun Lee, Bogeun Jo, Yangsok Kim, Heegeun Yoon, Soyeon Caren Han
- TLDR: Proponiamo un dataset multilabel per il rilevamento del speech online.
- Domain- and Task-Adaptation for VaccinChatNL, a Dutch COVID-19 FAQ Answering Corpus and Classification Model
- Jeska Buhmann, Maxime De Bruyn, Ehsan Lotfi, Walter Daelemans
- TLDR: Proponiamo VaccinChat, un chatbot di domande e risposte per rispondere alle domande degli utenti sulla vaccinazione COVID-19.
- Benchmarking Automated Clinical Language Simplification: Dataset, Algorithm, and Evaluation
- Junyu Luo, Junxian Lin, Chi Lin, Cao Xiao, Xinning Gui, Fenglong Ma
- TLDR: Proponiamo un nuovo modello di apprendimento automatico del linguaggio clinico per la diagnosi e la valutazione di nuovi approccio di apprendimento clinico.
- WikiHan: A New Comparative Dataset for Chinese Languages
- Kalvin Chang, Chenxuan Cui, Youngmin Kim, David R. Mortensen
- TLDR: Proponiamo un dataset di apprendimento per la traduzione di parole e frasi da diverse varietà.
- Visual Recipe Flow: A Dataset for Learning Visual State Changes of Objects with Recipe Flows
- Keisuke Shirai, Atsushi Hashimoto, Taichi Nishimura, Hirotaka Kameko, Shuhei Kurita, Yoshitaka Ushiku, Shinsuke Mori
- TLDR: Proponiamo un nuovo dataset multimodale chiamato Visual Recipe Flow, che permette di imparare un risultato di elaborazione per ogni azione di cucina per ciascuno degli oggetti nel testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo.
- IMPARA: Impact-Based Metric for GEC Using Parallel Data
- Koki Maeda, Masahiro Kaneko, Naoaki Okazaki
- TLDR: Proponiamo un metric basato sull’impatto per GEC utilizzando PARAllel data, IMPARA, che utilizza gli effetti di correzione per generare score di valutazione.
- Evons: A Dataset for Fake and Real News Virality Analysis and Prediction
- Kriste Krstovski, Angela Soomin Ryu, Bruce Kogut
- TLDR: Proponiamo una nuova collezione di articoli di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di rilievo di articoli di
- Are Pretrained Multilingual Models Equally Fair across Languages?
- Laura Cabello Piqueras, Anders Søgaard
- TLDR: Proponiamo un nuovo dataset di test example multilingue su cui addestrare modelli multilingue.
- Possible Stories: Evaluating Situated Commonsense Reasoning under Multiple Possible Scenarios
- Mana Ashida, Saku Sugawara
- TLDR: Proponiamo Possible Stories, un dataset di apprendimento di testo bilingui per il ragionamento situato commonsense.
- DiaBiz.Kom - towards a Polish Dialogue Act Corpus Based on ISO 24617-2 Standard
- Marcin Oleksy, Jan Wieczorek, Dorota Drużyłowska, Julia Klyus, Aleksandra Domogała, Krzysztof Hwaszcz, Hanna Kędzierska, Daria Mikoś, Anita Wróż
- TLDR: Un corpus di conversazioni tradotto in linguaggio naturale per la traduzione di testo di conversazione in linguaggio naturale.
- Towards Explainable Evaluation of Language Models on the Semantic Similarity of Visual Concepts
- Maria Lymperaiou, George Manoliadis, Orfeas Menis Mastromichalakis, Edmund G. Dervakos, Giorgos Stamou
- TLDR: Proponiamo metriche di valutazione spiegabili per la valutazione di modelli di apprendimento pre-trained.
- Establishing Annotation Quality in Multi-label Annotations
- Marian Marchal, Merel Scholman, Frances Yung, Vera Demberg
- TLDR: Proponiamo un metodo di bootstrapping per ottenere un coefficiente di agreement più simile alle previsioni di agreement su dataset multilabel.
- Biographically Relevant Tweets – a New Dataset, Linguistic Analysis and Classification Experiments
- Michael Wiegand, Rebecca Wilm, Katja Markert
- TLDR: Proponiamo un nuovo task di rilevamento di utterances biografiche che utilizzano il metodo di classificazione per stabilire le baseline per future analisi.
- BECEL: Benchmark for Consistency Evaluation of Language Models
- Myeongjun Jang, Deuk Sin Kwon, Thomas Lukasiewicz
- TLDR: Proponiamo un metodo per valutare le prestazioni di apprendimento dei modelli di apprendimento pre-trained basato sulla consistenza comportamentale.
- KoBEST: Korean Balanced Evaluation of Significant Tasks
- Myeongjun Jang, Dohyung Kim, Deuk Sin Kwon, Eric Davis
- TLDR: Proponiamo un benchmark di valutazione del linguaggio naturale per la valutazione di task rilevanti.
- A New Public Corpus for Clinical Section Identification: MedSecId
- Paul Landes, Kunal Patel, Sean S. Huang, Adam Webb, Barbara Di Eugenio, Cornelia Caragea
- TLDR: Proponiamo MedSecID, un set di 2,002 annotate medicali fully annotate da MIMIC-III.
- A Data-driven Approach to Named Entity Recognition for Early Modern French
- Pedro Ortiz Suarez, Simon Gabay
- TLDR: Proponiamo un corpus di entity annotate per la traduzione e la traduzione e un modello di fine-tuning per la traduzione e la traduzione.
- Reproducibility and Automation of the Appraisal Taxonomy
- Pradeesh Parameswaran, Andrew Trotman, Veronica Liesaputra, David Eyers
- TLDR: Proponiamo di utilizzare la classificazione Appraisal per migliorare le prestazioni di classificazione degli Appraisal.
- Few-Shot Table Understanding: A Benchmark Dataset and Pre-Training Baseline
- Ruixue Liu, Shaozu Yuan, Aijun Dai, Lei Shen, Tiangang Zhu, Meng Chen, Xiaodong He
- TLDR: Proponiamo FewTUD, un nuovo modello di comprensione few shot dei dati tabulari.
- Tafsir Dataset: A Novel Multi-Task Benchmark for Named Entity Recognition and Topic Modeling in Classical Arabic Literature
- Sajawel Ahmed, Rob van der Goot, Misbahur Rehman, Carl Kruse, Ömer Özsoy, Alexander Mehler, Gemma Roig
- TLDR: Proponiamo un nuovo dataset di apprendimento per l’apprendimento automatico di testi classici.
- Resource of Wikipedias in 31 Languages Categorized into Fine-Grained Named Entities
- Satoshi Sekine, Kouta Nakayama, Masako Nomoto, Maya Ando, Asuka Sumida, Koji Matsuda
- TLDR: Proponiamo di creare risorse di Wikipedia in 31 lingue, categorizzate in ENE e dimostriamo che le prestazioni di classificazione delle pagine di Wikipedia sono buone.
- Accuracy meets Diversity in a News Recommender System
- Shaina Raza, Syed Raza Bashir, Usman Naseem
- TLDR: Proponiamo un modello di deep learning basato su architettura a due torri che impara rappresentazioni di articoli e informazioni attraverso un tower di query e un tower di query.
- Dynamic Nonlinear Mixup with Distance-based Sample Selection
- Shaokang Zhang, Lei Jiang, Jianlong Tan
- TLDR: Proponiamo un mixup dinamico non lineare con selezione basata sulla distanza per la generazione di sample.
- MultiCoNER: A Large-scale Multilingual Dataset for Complex Named Entity Recognition
- Shervin Malmasi, Anjie Fang, Besnik Fetahu, Sudipta Kar, Oleg Rokhlenko
- TLDR: Proponiamo un dataset multilingue per Named Entity Recognition.
- Extracting a Knowledge Base of COVID-19 Events from Social Media
- Shi Zong, Ashutosh Baheti, Wei Xu, Alan Ritter
- TLDR: Proponiamo un corpus di tweet annotati per rispondere a domande di ricerca e informazioni dirette su cinque eventi COVID-19, compresi i test negativi e negativi, le cure e le prevenzioni.
- Accounting for Language Effect in the Evaluation of Cross-lingual AMR Parsers
- Shira Wein, Nathan Schneider
- TLDR: Proponiamo un’adattamento multilinguale di AMR per valutare la struttura di valutazione monolingua.
- QSTS: A Question-Sensitive Text Similarity Measure for Question Generation
- Sujatha Das Gollapalli, See-Kiong Ng
- TLDR: Proponiamo QTS, una nuova misura di testo similare per la generazione di domande.
- Noun-MWP: Math Word Problems Meet Noun Answers
- Taehun Cha, Jaeheun Jung, Donghun Lee
- TLDR: Proponiamo un nuovo metodo per risolvere problemi di word problem per risolvere Noun-MWP.
- ViNLI: A Vietnamese Corpus for Studies on Open-Domain Natural Language Inference
- Tin Van Huynh, Kiet Van Nguyen, Ngan Luu-Thuy Nguyen
- TLDR: Proponiamo un corpus di natural language inference per valutare le strutture di testo del linguaggio naturale per la traduzione del Vietnamese.
- InferES : A Natural Language Inference Corpus for Spanish Featuring Negation-Based Contrastive and Adversarial Examples
- Venelin Kovatchev, Mariona Taulé
- TLDR: Proponiamo, implementiamo e analizziamo una varietà di strategie di creazione di corpus utilizzando esperti linguisti e crowd workers.
- ParaZh-22M: A Large-Scale Chinese Parabank via Machine Translation
- Wenjie Hao, Hongfei Xu, Deyi Xiong, Hongying Zan, Lingling Mu
- TLDR: Proponiamo di aumentare la quantità di paraphrasing per la traduzione di testo multilingue e dimostriamo che questo può portare a miglioramenti su diversi task di NLP, compresi i benchmark di natural language understanding e la traduzione low-resource.
- ESimCSE: Enhanced Sample Building Method for Contrastive Learning of Unsupervised Sentence Embedding
- Xing Wu, Chaochen Gao, Liangjun Zang, Jizhong Han, Zhongyuan Wang, Songlin Hu
- TLDR: Proponiamo un nuovo metodo di embedding di frasi per la stima della correlazione tra le frasi, e mostriamo che la stima della correlazione su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA su SOTA
- Measuring Robustness for NLP
- Yu Yu, Abdul Rafae Khan, Jia Xu
- TLDR: Proponiamo un metodo per misurare la qualità dei modelli di Natural Language Processing basato sulla robustezza.
- CSL: A Large-scale Chinese Scientific Literature Dataset
- Yudong Li, Yuqing Zhang, Zhe Zhao, Linlin Shen, Weijie Liu, Weiquan Mao, Hui Zhang
- TLDR: Proponiamo un benchmark per valutare la performance di modelli di testo-to-testi per la valutazione di task di NLP scientifici.
- Singlish Message Paraphrasing: A Joint Task of Creole Translation and Text Normalization
- Zhengyuan Liu, Shikang Ni, Ai Ti Aw, Nancy F. Chen
- TLDR: Proponiamo un task di paraphrasing di testo e testo di singlish-to-singlish e dimostriamo che produce risultati allo stato dell’arte.
- CINO: A Chinese Minority Pre-trained Language Model
- Ziqing Yang, Zihang Xu, Yiming Cui, Baoxin Wang, Min Lin, Dayong Wu, Zhigang Chen
- TLDR: Proponiamo un modello multilingue pre-trained per la comprensione di etichettature etiche su diverse lingue.
- One Word, Two Sides: Traces of Stance in Contextualized Word Representations
- Aina Garí Soler, Matthieu Labeau, Chloé Clavel
- TLDR: Proponiamo un’analisi del ruolo degli embedding di parole contextuali in termini di apprendimento di embedding di parole.
- Prepositions Matter in Quantifier Scope Disambiguation
- Aleksander Leczkowski, Justyna Grudzińska, Manuel Vargas Guzmán, Aleksander Wawer, Aleksandra Siemieniuk
- TLDR: Proponiamo un corpus di scope distillato per QSD che utilizza la conoscenza della world knowledge per addestrare i classificatori QSD.
- Modelling Commonsense Properties Using Pre-Trained Bi-Encoders
- Amit Gajbhiye, Luis Espinosa-Anke, Steven Schockaert
- TLDR: Proponiamo di fine-tuning i language model per modellare le proprietà comuni dei concetti.
- COIN – an Inexpensive and Strong Baseline for Predicting Out of Vocabulary Word Embeddings
- Andrew Schneider, Lihong He, Zhijia Chen, Arjun Mukherjee, Eduard Dragut
- TLDR: Proponiamo un metodo veloce per prevedere vettori di parole e parole per la predizione di word embedding.
- DynGL-SDP: Dynamic Graph Learning for Semantic Dependency Parsing
- Bin Li, Miao Gao, Yunlong Fan, Yikemaiti Sataer, Zhiqiang Gao, Yaocheng Gui
- TLDR: Proponiamo un framework dinamico per l’apprendimento di rappresentazioni grafi basate su grafi statici.
- Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion
- Chen Chen, Yufei Wang, Bing Li, Kwok-Yan Lam
- TLDR: Proponiamo KG-S2S, un modello generativo di grafi seq2seq che può affrontare diverse strutture di knowledge graph.
- Modelling Frequency, Attestation, and Corpus-Based Information with OntoLex-FrAC
- Christian Chiarcos, Elena-Simona Apostol, Besim Kabashi, Ciprian-Octavian Truică
- TLDR: Proponiamo un nuovo modulo di OntoLex per l’informazione basata sul Corpus, che può rappresentare le informazioni di corpora.
- Contrast Sets for Stativity of English Verbs in Context
- Daniel Chen, Alexis Palmer
- TLDR: Proponiamo un modello di contrasto per la classificazione dinamica e la classificazione statica.
- Multilingual and Multimodal Topic Modelling with Pretrained Embeddings
- Elaine Zosa, Lidia Pivovarova
- TLDR: Proponiamo un topic model multilingue multimodale per dati simili.
- Zero-shot Script Parsing
- Fangzhou Zhai, Vera Demberg, Alexander Koller
- TLDR: Proponiamo un metodo di apprendimento zero-shot per risolvere il problema di apprendimento di knowledge LSLP.
- Word Sense Disambiguation with Knowledge-Enhanced and Local Self-Attention-based Extractive Sense Comprehension
- Guobiao Zhang, Wenpeng Lu, Xueping Peng, Shoujin Wang, Baoshuo Kan, Rui Yu
- TLDR: Proponiamo un nuovo metodo di comprensione del senso con knowledge-enhanced e local self-attention basato sull’apprendimento di sense comprehension.
- A Novel Multi-Task Learning Approach for Context-Sensitive Compound Type Identification in Sanskrit
- Jivnesh Sandhan, Ashish Gupta, Hrishikesh Terdalkar, Tushar Sandhan, Suvendu Samanta, Laxmidhar Behera, Pawan Goyal
- TLDR: Proponiamo un nuovo approccio multi-task per identificare le proprietà semantiche di un termine di origine saskrito.
- Testing Large Language Models on Compositionality and Inference with Phrase-Level Adjective-Noun Entailment
- Lorenzo Bertolini, Julie Weeds, David Weir
- TLDR: Proponiamo un nuovo benchmark per valutare la generalizzazione di LLM su entailmenti di parole e frasi addestrate ad obiettivo di compositional composition.
- Does BERT Recognize an Agent? Modeling Dowty’s Proto-Roles with Contextual Embeddings
- Mattia Proietti, Gianluca Lebani, Alessandro Lenci
- TLDR: Proponiamo un modello di embedding di parole e parole per modellare le proprietà semantiche dei loro attributi.
- Towards Structure-aware Paraphrase Identification with Phrase Alignment Using Sentence Encoders
- Qiwei Peng, David Weir, Julie Weeds
- TLDR: Proponiamo di utilizzare i sentence encoder per fare la comparazione tra loro per il rilevamento di paraphrase e il rilevamento di non-paraphrase.
- CILex: An Investigation of Context Information for Lexical Substitution Methods
- Sandaru Seneviratne, Elena Daskalaki, Artem Lenskiy, Hanna Suominen
- TLDR: Proponiamo un metodo per sostituire le parole con le frasi utilizzando embedding contestuali per la substitution.
- Emotion Enriched Retrofitted Word Embeddings
- Sapan Shah, Sreedhar Reddy, Pushpak Bhattacharyya
- TLDR: Proponiamo un metodo di retrofitting per updating i vettori di emozioni bearing parole come gioia, amicizia, ecc.
- Metaphor Detection via Linguistics Enhanced Siamese Network
- Shenglong Zhang, Ying Liu
- TLDR: Proponiamo MisNet, un nuovo modello per metaphor detection a livello di parole.
- Fast and Accurate End-to-End Span-based Semantic Role Labeling as Word-based Graph Parsing
- Shilin Zhou, Qingrong Xia, Zhenghua Li, Yu Zhang, Yu Hong, Min Zhang
- TLDR: Proponiamo un nuovo task di parsing dei grafi basato sul testo, chiamato SRL, che può parserli end-to-end e predicate-given.
- Unsupervised Lexical Substitution with Decontextualised Embeddings
- Takashi Wada, Timothy Baldwin, Yuji Matsumoto, Jey Han Lau
- TLDR: Proponiamo un metodo unsupervised per la predizione di substitution lexicale utilizzando modelli di apprendimento pre-trained.
- Transparent Semantic Parsing with Universal Dependencies Using Graph Transformations
- Wessel Poelman, Rik van Noord, Johan Bos
- TLDR: Proponiamo un metodo per parsing la dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza di un modello di dipendenza.
- Multilingual Word Sense Disambiguation with Unified Sense Representation
- Ying Su, Hongming Zhang, Yangqiu Song, Tong Zhang
- TLDR: Proponiamo di costruire rappresentazioni unificate di parole e frasi per diversi linguaggi e dimostriamo che le rappresentazioni unificate di parole e frasi possono essere jointly trainate per beneficiare dei task di apprendimento di nuovi linguaggi.
- A Transition-based Method for Complex Question Understanding
- Yu Xia, Wenbin Jiang, Yajuan Lyu, Sujian Li
- TLDR: Proponiamo un metodo per parser QDMR in modo computazionale utilizzando grafi di apprendimento.
- Semantic Role Labeling as Dependency Parsing: Exploring Latent Tree Structures inside Arguments
- Yu Zhang, Qingrong Xia, Shilin Zhou, Yong Jiang, Guohong Fu, Min Zhang
- TLDR: Proponiamo un nuovo metodo per addestrare le strutture di apprendimento della syntax-agnostic per il ruolo di role labeling.
- Noisy Label Regularisation for Textual Regression
- Yuxia Wang, Timothy Baldwin, Karin Verspoor
- TLDR: Proponiamo un metodo per rilevare le label rumorose e regolarizzare le label rumorose.
- Detecting Suicide Risk in Online Counseling Services: A Study in a Low-Resource Language
- Amir Bialer, Daniel Izmaylov, Avi Segal, Oren Tsur, Yossi Levi-Belz, Kobi Gal
- TLDR: Proponiamo un modello di rilevamento automatico del rischio di suicide per la ricerca di informazioni su modelli di linguaggio naturale.
- Does Meta-learning Help mBERT for Few-shot Question Generation in a Cross-lingual Transfer Setting for Indic Languages?
- Aniruddha Roy, Rupak Kumar Thakur, Isha Sharma, Ashim Gupta, Amrith Krishna, Sudeshna Sarkar, Pawan Goyal
- TLDR: Proponiamo un modello di QG few shot basato su modello agnostico per few shot QG.
- Revisiting Syllables in Language Modelling and Their Application on Low-Resource Machine Translation
- Arturo Oncevay, Kervy Dante Rivas Rojas, Liz Karen Chavez Sanchez, Roberto Zariquiey
- TLDR: Proponiamo un metodo di apprendimento di language model per la traduzione neurale multilingue utilizzando la sintassi e la morphologia.
- Aligning Multilingual Embeddings for Improved Code-switched Natural Language Understanding
- Barah Fazili, Preethi Jyothi
- TLDR: Proponiamo un metodo per addestrare modelli multilingue con obiettivo di apprendimento con semantica sottostante per accelerare le prestazioni di downstream.
- Fashioning Local Designs from Generic Speech Technologies in an Australian Aboriginal Community
- Éric Le Ferrand, Steven Bird, Laurent Besacier
- TLDR: Proponiamo un’analisi teorica e pratica per sfruttare il potenziale del riconoscimento vocale in una comunità di origine e origine.
- Few-Shot Pidgin Text Adaptation via Contrastive Fine-Tuning
- Ernie Chang, Jesujoba O. Alabi, David Ifeoluwa Adelani, Vera Demberg
- TLDR: Proponiamo di utilizzare il modello pretrained per generare le conversazioni tra linguaggi di origine e destinazione utilizzando la vicinanza tra le source e il target.
- Penalizing Divergence: Multi-Parallel Translation for Low-Resource Languages of North America
- Garrett Nicolai, Changbing Yang, Miikka Silfverberg
- TLDR: Proponiamo un regolatore di divergenza per la traduzione multi-lingue.
- Assessing Digital Language Support on a Global Scale
- Gary F. Simons, Abbey L. L. Thomas, Chad K. K. White
- TLDR: Proponiamo un metodo per valutare come bene ogni linguaggio di riconoscimento di ISO 639 è capace di sostenere il supporto del linguaggio naturale.
- Persian Natural Language Inference: A Meta-learning Approach
- Heydar Soudani, Mohammad Hassan Mojab, Hamid Beigy
- TLDR: Proponiamo un metodo di meta-learning per imparare il linguaggio naturale in diversi linguaggi.
- Global Readiness of Language Technology for Healthcare: What Would It Take to Combat the Next Pandemic?
- Ishani Mondal, Kabir Ahuja, Mohit Jain, Jacki O’Neill, Kalika Bali, Monojit Choudhury
- TLDR: Proponiamo un’analisi di testo per migliorare la qualità della comunicazione tra le lingue e la popolazione globale.
- Adapting Pre-trained Language Models to African Languages via Multilingual Adaptive Fine-Tuning
- Jesujoba O. Alabi, David Ifeoluwa Adelani, Marius Mosbach, Dietrich Klakow
- TLDR: Proponiamo un modello multilingue per il fine-tuning di un modello di linguaggi pre-trained.
- Noun Class Disambiguation in Runyankore and Related Languages
- Joan Byamugisha
- TLDR: Proponiamo un metodo combinato di syntactic e semantico per risolvere il problema della struttura grammaticale del linguaggio bantu.
- Improving Low-resource RRG Parsing with Cross-lingual Self-training
- Kilian Evang, Laura Kallmeyer, Jakub Waszczuk, Kilu von Prince, Tatiana Bladier, Simon Petitjean
- TLDR: Proponiamo un metodo per parsing di linguaggi low-resource utilizzando Grammatica Role e Reference Grammatica (RRG) e self-training per adattare il modello a un modello di parsing low-resource.
- A Simple and Effective Method to Improve Zero-Shot Cross-Lingual Transfer Learning
- Kunbo Ding, Weijie Liu, Yuejian Fang, Weiquan Mao, Zhe Zhao, Tao Zhu, Haoyan Liu, Rong Tian, Yiren Chen
- TLDR: Proponiamo Embedding-Push, Attention-Pull e Robust target per transferre i modelli multilingue da embedding multilingue a embedding multilingue.
- Towards Multi-Sense Cross-Lingual Alignment of Contextual Embeddings
- Linlin Liu, Thien Hai Nguyen, Shafiq Joty, Lidong Bing, Luo Si
- TLDR: Proponiamo un nuovo framework per imparare embedding di parole consapevoli contestualmente utilizzando il cross-lingual signal.
- How to Parse a Creole: When Martinican Creole Meets French
- Ludovic Mompelat, Daniel Dakota, Sandra Kübler
- TLDR: Proponiamo un parser per la lingua di origine Martinicana con una baseline concatenata di frasi e parole.
- Byte-based Multilingual NMT for Endangered Languages
- Mengjiao Zhang, Jia Xu
- TLDR: Proponiamo un modello di traduzione multilingue basato sul modello di apprendimento automatico per risolvere il problema di out-of-vocabulary e migliorare le prestazioni di traduzione in linguaggi endangerti.
- BRCC and SentiBahasaRojak: The First Bahasa Rojak Corpus for Pretraining and Sentiment Analysis Dataset
- Nanda Putri Romadhona, Sin-En Lu, Bo-Han Lu, Richard Tzong-Han Tsai
- TLDR: Proponiamo un modello di training per il code-mixing di Bahasa Rojak per la valutazione di un modello di training di linguaggi.
- WordNet-QU: Development of a Lexical Database for Quechua Varieties
- Nelsi Melgarejo, Rodolfo Zevallos, Hector Gomez, John E. Ortega
- TLDR: Proponiamo WordNet-QU per essere aggiunto come un’estensione di wordnet dopo dimostrare una collezione di risorse digitali per l’uso del linguaggio di origine che sono state addestrate da noi.
- When the Student Becomes the Master: Learning Better and Smaller Monolingual Models from mBERT
- Pranaydeep Singh, Els Lefever
- TLDR: Proponiamo di distillare i modelli di calcolo multilingue da un modello jointly trained per 102 lingue.
- Zero-shot Disfluency Detection for Indian Languages
- Rohit Kundu, Preethi Jyothi, Pushpak Bhattacharyya
- TLDR: Proponiamo un modello pretrained multilingue per rilevare le disfluenze nel testo di testo sintetico in linguaggi di origine e origine.
- Evaluating Word Embeddings in Extremely Under-Resourced Languages: A Case Study in Bribri
- Rolando Coto-Solano
- TLDR: Proponiamo un modello di apprendimento di parole e frasi per task di embedding di deep learning.
- Applying Natural Annotation and Curriculum Learning to Named Entity Recognition for Under-Resourced Languages
- Valeriy Lobov, Alexandra Ivoylova, Serge Sharoff
- TLDR: Proponiamo di utilizzare la natural annotation per costruire set di training sintetici da risorse non progettate per il task di downstream.
- Taking Actions Separately: A Bidirectionally-Adaptive Transfer Learning Method for Low-Resource Neural Machine Translation
- Xiaolin Xing, Yu Hong, Minhan Xu, Jianmin Yao, Guodong Zhou
- TLDR: Proponiamo un metodo di transfer learning per NMT basato sul transfer learning per la traduzione neurale neurale neurale.
- HCLD: A Hierarchical Framework for Zero-shot Cross-lingual Dialogue System
- Zhanyu Ma, Jian Ye, Xurui Yang, Jianfeng Liu
- TLDR: Proponiamo un metodo per adattare il dialogo task-oriented a livello di parole e frasi per risolvere il problema di apprendimento multilingue.
- GraDA: Graph Generative Data Augmentation for Commonsense Reasoning
- Adyasha Maharana, Mohit Bansal
- TLDR: Proponiamo GraDA, un approccio di augmentation dei dati generativi basati sul grafi per il ragionamento consapevoli.
- Eureka: Neural Insight Learning for Knowledge Graph Reasoning
- Alex X. Zhang, Xun Liang, Bo Wu, Xiangping Zheng, Sensen Zhang, Yuhui Guo, Jun Wang, Xinyao Liu
- TLDR: Proponiamo un framework di insight learning neurale per risolvere il Knowledge Graph Reasoning.
- CitRet: A Hybrid Model for Cited Text Span Retrieval
- Amit Pandey, Avani Gupta, Vikram Pudi
- TLDR: Proponiamo un nuovo modello di deep learning per CTSR che sfrutta le caratteriali e le sintattiche strutturali dei documenti scientifici.
- A Weak Supervision Approach for Predicting Difficulty of Technical Interview Questions
- Arpita Kundu, Subhasish Ghosh, Pratik Saini, Tapas Nayak, Indrajit Bhattacharya
- TLDR: Proponiamo un modello di question-to-question per question difficulty prediction weak-supervision.
- Reinforcement Learning with Large Action Spaces for Neural Machine Translation
- Asaf Yehudai, Leshem Choshen, Lior Fox, Omri Abend
- TLDR: Proponiamo di ridurre la dimensione dell’azione nello spazio di parole e frasi per migliorare le prestazioni di apprendimento.
- Noise Learning for Text Classification: A Benchmark
- Bo Liu, Wandi Xu, Yuejia Xiang, Xiaojun Wu, Lejian He, Bowen Zhang, Li Zhu
- TLDR: Proponiamo un benchmark di noise learning per la classificazione del testo.
- Mitigating the Diminishing Effect of Elastic Weight Consolidation
- Canasai Kruengkrai, Junichi Yamagishi
- TLDR: Proponiamo un metodo per ridurre il catastrophic forgetting in training sequenziale utilizzando EWC.
- Token and Head Adaptive Transformers for Efficient Natural Language Processing
- Chonghan Lee, Md Fahim Faysal Khan, Rita Brugarolas Brufau, Ke Ding, Vijaykrishnan Narayanan
- TLDR: Proponiamo un nuovo approccio per comprimere i modelli BERT basati sul token e il pruning.
- Don’t Judge a Language Model by Its Last Layer: Contrastive Learning with Layer-Wise Attention Pooling
- Dongsuk Oh, Yejin Kim, Hodong Lee, H. Howie Huang, Heuiseok Lim
- TLDR: Proponiamo una strategia di attention basata sull’attention per imparare le rappresentazioni linguistiche e la loro applicazione al contrasto.
- SHAP-Based Explanation Methods: A Review for NLP Interpretability
- Edoardo Mosca, Ferenc Szigeti, Stella Tragianni, Daniel Gallagher, Georg Groh
- TLDR: Un modello di deep learning basato sulla teoria dell’apprendimento
- A Simple Log-based Loss Function for Ordinal Text Classification
- François Castagnos, Martin Mihelich, Charles Dognin
- TLDR: Proponiamo una loss per la cross-entropy loss che supera lo stato dell’arte delle precedenti loss.
- Ask Question First for Enhancing Lifelong Language Learning
- Han Wang, Ruiliu Fu, Xuejun Zhang, Jun Zhou, Qingwei Zhao
- TLDR: Proponiamo un nuovo task di training per l’apprendimento di lifelong language learning utilizzando un nuovo formato di dati BQCA e un nuovo task di training per addestrare pseudo domande di precedenti task.
- DoubleMix: Simple Interpolation-Based Data Augmentation for Text Classification
- Hui Chen, Wei Han, Diyi Yang, Soujanya Poria
- TLDR: Proponiamo un metodo di data augmentation basato sull’interpolazione per migliorare la robustezza dei modelli di testo nella classificazione del testo.
- Large Sequence Representation Learning via Multi-Stage Latent Transformers
- Ionut-Catalin Sandu, Daniel Voinea, Alin-Ionut Popa
- TLDR: Proponiamo un nuovo modello di apprendimento per named-entity recognition che utilizza la rappresentazione latente per imparare la rappresentazione latente per la predizione.
- MockingBERT: A Method for Retroactively Adding Resilience to NLP Models
- Jan Jezabek, Akash Singh
- TLDR: Proponiamo un metodo per addestrare le resilienze dei modelli NLP contro gli attacchi adversarial.
- Equivariant Transduction through Invariant Alignment
- Jennifer C. White, Ryan Cotterell
- TLDR: Proponiamo una nuova architettura neurale e equivariante che incorpora un meccanismo di apprendimento hard per SCAN.
- Where Does Linguistic Information Emerge in Neural Language Models? Measuring Gains and Contributions across Layers
- Jenny Kunz, Marco Kuhlmann
- TLDR: Proponiamo un metodo per misurare la quantità di informazioni rilevanti in un modello neurale e mostriamo che le informazioni rilevanti in un modello neurale sono molto più importanti di quelle che suggeriscono le feature.
- Accelerating Inference for Pretrained Language Models by Unified Multi-Perspective Early Exiting
- Jun Kong, Jin Wang, Liang-Chih Yu, Xuejie Zhang
- TLDR: Proponiamo un framework di early exiting multi-perspective multi-layer per migliorare le prestazioni di inferenza dei modelli di trasformatori.
- Topology Imbalance and Relation Inauthenticity Aware Hierarchical Graph Attention Networks for Fake News Detection
- Li Gao, Lingyun Song, Jie Liu, Bolin Chen, Xuequn Shang
- TLDR: Proponiamo un nuovo metodo per rilevare le fake news sui grafi.
- Temporal Knowledge Graph Completion with Approximated Gaussian Process Embedding
- Linhai Zhang, Deyu Zhou
- TLDR: Proponiamo un metodo di apprendimento di knowledge graphs temporali, chiamato AGP, che può modellare simultaneamente le informazioni temporali e le fluctuazioni locali.
- CILDA: Contrastive Data Augmentation Using Intermediate Layer Knowledge Distillation
- Md Akmal Haidar, Mehdi Rezagholizadeh, Abbas Ghaddar, Khalil Bibi, Phillippe Langlais, Pascal Poupart
- TLDR: Proponiamo una tecnica di augmentation basata sul matching dei layer per knowledge distillation, chiamato CILDA, che migliora la qualità degli stimatori di sample.
- Pro-KD: Progressive Distillation by Following the Footsteps of the Teacher
- Mehdi Rezagholizadeh, Aref Jafari, Puneeth S.M. Saladi, Pranav Sharma, Ali Saheb Pasand, Ali Ghodsi
- TLDR: Proponiamo di distillare le informazioni del modello per la distillation.
- Classical Sequence Match Is a Competitive Few-Shot One-Class Learner
- Mengting Hu, Hang Gao, Yinhao Bai, Mingming Liu
- TLDR: Proponiamo un metodo di match few shot per risolvere il problema di few shot.
- Unsupervised Domain Adaptation for Text Classification via Meta Self-Paced Learning
- Nghia Ngo Trung, Linh Ngo Van, Thien Huu Nguyen
- TLDR: Proponiamo di addestrare un modello di apprendimento self-paced basato sulla teoria del cluster per risolvere il problema di self-paced learning.
- WARM: A Weakly (+Semi) Supervised Math Word Problem Solver
- Oishik Chatterjee, Isha Pandey, Aashish Waikar, Vishwajeet Kumar, Ganesh Ramakrishnan
- TLDR: Proponiamo un modello weakly supervised per risolvere i word problems utilizzando solo la soluzione finale come supervision.
- Attention Networks for Augmenting Clinical Text with Support Sets for Diagnosis Prediction
- Paul Grundmann, Tom Oberhauser, Felix Gers, Alexander Löser
- TLDR: Proponiamo di aumentare il testo clinico con un ulteriore supporto di un dato dato dato dato dato da un dato dato dato dato dato dato da un dato dato dato dato dato dato da un dato dato dato dato dato dato dato da un dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato dato
- PARSE: An Efficient Search Method for Black-box Adversarial Text Attacks
- Pengwei Zhan, Chao Zheng, Jing Yang, Yuxiang Wang, Liming Wang, Yang Wu, Yunjian Zhang
- TLDR: Proponiamo PAthological woRd Saliency sEarch (PARSE) che performe la ricerca sotto lo spazio dinamico sotto la sottostante importance.
- A Closer Look at Parameter Contributions When Training Neural Language and Translation Models
- Raúl Vázquez, Hande Celikkanat, Vinit Ravishankar, Mathias Creutz, Jörg Tiedemann
- TLDR: Proponiamo un metodo per studiare la dinamica di apprendimento dei modelli neurali e di transizione utilizzando la loss allocation.
- KNOT: Knowledge Distillation Using Optimal Transport for Solving NLP Tasks
- Rishabh Bhardwaj, Tushar Vaidya, Soujanya Poria
- TLDR: Proponiamo un metodo di distillazione della conoscenza semantica da più reti di insegnanti a una rete di studenti.
- An Information Minimization Based Contrastive Learning Model for Unsupervised Sentence Embeddings Learning
- Shaobin Chen, Jie Zhou, Yuling Sun, Liang He
- TLDR: Proponiamo InforMin-CL per l’apprendimento di sentence embedding basato sulla minimizzazione dell’informazione per l’apprendimento di rappresentazioni di frasi unsupervised.
- Learn2Weight: Parameter Adaptation against Similar-domain Adversarial Attacks
- Siddhartha Datta
- TLDR: Proponiamo un nuovo tipo di adversarial attack black-box per sistemi NLP.
- Sentence-aware Adversarial Meta-Learning for Few-Shot Text Classification
- Suhe Wang, Xiaoyuan Liu, Bo Liu, Diwen Dong
- TLDR: Proponiamo un nuovo framework di meta-learning few shot che sfrutta la convoluzione temporale per promuovere la rappresentazione più discriminante e il meccanismo di attention per promuovere una più completa espressione della feature.
- Reweighting Strategy Based on Synthetic Data Identification for Sentence Similarity
- TaeHee Kim, ChaeHun Park, Jimin Hong, Radhika Dua, Edward Choi, Jaegul Choo
- TLDR: Proponiamo un metodo per imparare embedding semantici di frasi da dati sintetici.
- MaxMatch-Dropout: Subword Regularization for WordPiece
- Tatsuya Hiraoka
- TLDR: Proponiamo un metodo di regolarizzazione sub-word per WordPiece, che utilizza un algoritmo di matching di massima per tokenizzazione.
- Adaptive Meta-learner via Gradient Similarity for Few-shot Text Classification
- Tianyi Lei, Honghui Hu, Qiaoyang Luo, Dezhong Peng, Xu Wang
- TLDR: Proponiamo un metodo di meta-learner per few shot text classification che allevia il sovrafitting causato dall’ottimizzazione.
- Vocabulary-informed Language Encoding
- Xi Ai, Bin Fang
- TLDR: Proponiamo un metodo per componere un encoder di linguaggio per un dato linguaggio utilizzando un vocabulary.
- OpticE: A Coherence Theory-Based Model for Link Prediction
- Xiangyu Gui, Feng Zhao, Langjunqing Jin, Hai Jin
- TLDR: Proponiamo un nuovo approccio di embedding per risolvere il problema della semantica in knowledge graph.
- Smoothed Contrastive Learning for Unsupervised Sentence Embedding
- Xing Wu, Chaochen Gao, Yipeng Su, Jizhong Han, Zhongyuan Wang, Songlin Hu
- TLDR: Proponiamo un metodo per smoothare la loss di InfoNCE per task di contrastive sentence embedding unsupervised.
- Knowledge Distillation with Reptile Meta-Learning for Pretrained Language Model Compression
- Xinge Ma, Jin Wang, Liang-Chih Yu, Xuejie Zhang
- TLDR: Proponiamo un metodo di distillation di knowledge per meta-learning e dimostriamo che le informazioni di apprendimento possono essere trasferite da una classe di insegnanti a un singolo studente.
- RotateCT: Knowledge Graph Embedding by Rotation and Coordinate Transformation in Complex Space
- Yao Dong, Lei Wang, Ji Xiang, Xiaobo Guo, Yuqiang Xie
- TLDR: Proponiamo un nuovo metodo di knowledge embedding che trasforma le coordinate di rotazione di ogni singola funzione in un modello di composizione non commutativa.
- Can Data Diversity Enhance Learning Generalization?
- Yu Yu, Shahram Khadivi, Jia Xu
- TLDR: Proponiamo un framework di actor-ritic reinforcement learning per migliorare la generalizzazione e la precisione del Natural Language Processing (NLP).
- Generate-and-Retrieve: Use Your Predictions to Improve Retrieval for Semantic Parsing
- Yury Zemlyanskiy, Michiel de Jong, Joshua Ainslie, Panupong Pasupat, Peter Shaw, Linlu Qiu, Sumit Sanghai, Fei Sha
- TLDR: Proponiamo un metodo di retrieval per parsing semantico di sample di training.
- Coarse-to-Fine: Hierarchical Multi-task Learning for Natural Language Understanding
- Zhaoye Fei, Yu Tian, Yongkang Wu, Xinyu Zhang, Yutao Zhu, Zheng Liu, Jiawen Wu, Dejiang Kong, Ruofei Lai, Zhao Cao, Zhicheng Dou, Xipeng Qiu
- TLDR: Proponiamo un modello di natural language understanding gerarchico con un paradigma coarse-to-fine per tutti i task.
- Automatic Label Sequence Generation for Prompting Sequence-to-sequence Models
- Zichun Yu, Tianyu Gao, Zhengyan Zhang, Yankai Lin, Zhiyuan Liu, Maosong Sun, Jie Zhou
- TLDR: Proponiamo un metodo di prompting automatico per few shot learning che sfrutta la ricerca di sequenze di parole e frasi per generare sequenze di parole e frasi.
- Unsupervised Sentence Textual Similarity with Compositional Phrase Semantics
- Zihao Wang, Jiaheng Dou, Yong Zhang
- TLDR: Proponiamo un metodo per misurare la similarità delle frasi text-to-speech per STS.
- A Generalized Method for Automated Multilingual Loanword Detection
- Abhijnan Nath, Sina Mahdipour Saravani, Ibrahim Khebour, Sheikh Mannan, Zihui Li, Nikhil Krishnaswamy
- TLDR: Proponiamo un metodo per rilevare automaticamente le parole di origine e destinazione in diverse lingue, e mostriamo che le prestazioni possono essere superiori allo stato dell’arte su task di rilevamento di parole di origine e destinazione.
- FeatureBART: Feature Based Sequence-to-Sequence Pre-Training for Low-Resource NMT
- Abhisek Chakrabarty, Raj Dabre, Chenchen Ding, Hideki Tanaka, Masao Utiyama, Eiichiro Sumita
- TLDR: Proponiamo FeatureBART, una strategia di pre-training monolinguale basata sulla stima dello span che incorpora automaticamente feature di sintesi e concatenazione e relevance.
- Multi-level Community-awareness Graph Neural Networks for Neural Machine Translation
- Binh Nguyen, Long Nguyen, Dien Dinh
- TLDR: Proponiamo un nuovo layer di Community-awareness Graph Neural Network (MC-GNN) per modellare le relazioni tra le parole e le loro funzioni linguistiche in più comunità.
- On the Complementarity between Pre-Training and Random-Initialization for Resource-Rich Machine Translation
- Changtong Zan, Liang Ding, Li Shen, Yu Cao, Weifeng Liu, Dacheng Tao
- TLDR: Proponiamo di combinare le informazioni di complementarità tra PT e RTM per migliorare la precisione e la generalizzazione.
- ngram-OAXE: Phrase-Based Order-Agnostic Cross Entropy for Non-Autoregressive Machine Translation
- Cunxiao Du, Zhaopeng Tu, Longyue Wang, Jing Jiang
- TLDR: Proponiamo un nuovo metodo per migliorare la qualità della traduzione non autoregressiva utilizzando la loss di ox per la traduzione non autoregressiva.
- Language Branch Gated Multilingual Neural Machine Translation
- Haoran Sun, Deyi Xiong
- TLDR: Proponiamo un metodo di traduzione multilingue gated che incentiva il transfer di conoscenza tra le stesse lingue.
- Iterative Constrained Back-Translation for Unsupervised Domain Adaptation of Machine Translation
- Hongxiao Zhang, Hui Huang, Jiale Gao, Yufeng Chen, Jinan Xu, Jian Liu
- TLDR: Proponiamo un metodo di back-translation Iterative constrained per incorporare la conoscenza in-domain nella stima della precisione e della specificità del dominio.
- Linguistically-Motivated Yorùbá-English Machine Translation
- Ife Adebara, Muhammad Abdul-Mageed, Miikka Silfverberg
- TLDR: Proponiamo un modello di traduzione SMT per la traduzione di testo in testo in forma di bare nuance.
- Dynamic Position Encoding for Transformers
- Joyce Zheng, Mehdi Rezagholizadeh, Peyman Passban
- TLDR: Proponiamo un nuovo modello di traduzione neurale con embedding di posizioni per risolvere il problema di apprendimento di token di origine e destinazione.
- PAEG: Phrase-level Adversarial Example Generation for Neural Machine Translation
- Juncheng Wan, Jian Yang, Shuming Ma, Dongdong Zhang, Weinan Zhang, Yong Yu, Zhoujun Li
- TLDR: Proponiamo un metodo per generare adversarial example a livello di parola e di caratteri per migliorare le prestazioni di apprendimento e robustezza allo rumore.
- Noise-robust Cross-modal Interactive Learning with Text2Image Mask for Multi-modal Neural Machine Translation
- Junjie Ye, Junjun Guo, Yan Xiang, Kaiwen Tan, Zhengtao Yu
- TLDR: Proponiamo un approccio di fusione multimodale con attention multi-modal per migliorare le prestazioni di traduzione neurale nel caso in cui le immagini del testo non corrispondano esattamente alla corrispondenza del testo.
- Speeding up Transformer Decoding via an Attention Refinement Network
- Kaixin Wu, Yue Zhang, Bojie Hu, Tong Zhang
- TLDR: Proponiamo un modello di attention per migliorare la precisione di Transformer.
- Interactive Post-Editing for Verbosity Controlled Translation
- Prabhakar Gupta, Anil Nelakanti, Grant M. Berry, Abhishek Sharma
- TLDR: Proponiamo un modello di post-editing per la traduzione in tempo reale umano-in-loop che migliora la qualità semantica e la preferenza di verbosità.
- Addressing Asymmetry in Multilingual Neural Machine Translation with Fuzzy Task Clustering
- Qian Wang, Jiajun Zhang
- TLDR: Proponiamo un metodo di clustering per la traduzione neurale neurale multilingue multi-task per la traduzione neurale neurale multi-task multi-task.
- Learning Decoupled Retrieval Representation for Nearest Neighbour Neural Machine Translation
- Qiang Wang, Rongxiang Weng, Ming Chen
- TLDR: Proponiamo un metodo per riutilizzare la rappresentazione del contesto per la traduzione neurale neurale.
- Semantically Consistent Data Augmentation for Neural Machine Translation via Conditional Masked Language Model
- Qiao Cheng, Jin Huang, Yitao Duan
- TLDR: Proponiamo un metodo di augmentation dei dati per la traduzione neurale che può sostenere la semantica fortemente sia tra lingue sia tra domini.
- Informative Language Representation Learning for Massively Multilingual Neural Machine Translation
- Renren Jin, Deyi Xiong
- TLDR: Proponiamo un metodo di multi-head attention per imparare rappresentazioni linguistiche informative per la traduzione multilingue.
- Rare but Severe Neural Machine Translation Errors Induced by Minimal Deletion: An Empirical Study on Chinese and English
- Ruikang Shi, Alvin Grissom II, Duc Minh Trinh
- TLDR: Proponiamo un metodo per addestrare le perturbazioni di training per la traduzione neurale in-domain che causa errori di traduzione rare ma severe.
- QUAK: A Synthetic Quality Estimation Dataset for Korean-English Neural Machine Translation
- Sugyeong Eo, Chanjun Park, Hyeonseok Moon, Jaehyung Seo, Gyeongmin Kim, Jungseob Lee, Heuiseok Lim
- TLDR: Proponiamo QUAK, un dataset di qualità sintetico per la traduzione neurale neurale.
- Improving Both Domain Robustness and Domain Adaptability in Machine Translation
- Wen Lai, Jindřich Libovický, Alexander Fraser
- TLDR: Proponiamo un nuovo approccio di meta-learning per migliorare la robustezza del modello di meta-learning esistente.
- CoDoNMT: Modeling Cohesion Devices for Document-Level Neural Machine Translation
- Yikun Lei, Yuqi Ren, Deyi Xiong
- TLDR: Proponiamo un framework di traduzione neurale per la modellazione dei dispositivi di cohesione.
- Improving Non-Autoregressive Neural Machine Translation via Modeling Localness
- Yong Wang, Xinwei Geng
- TLDR: Proponiamo un metodo per migliorare la localizzazione dei modelli di traduzione non autoregressiva utilizzando informazioni di contesto.
- Categorizing Semantic Representations for Neural Machine Translation
- Yongjing Yin, Yafu Li, Fandong Meng, Jie Zhou, Yue Zhang
- TLDR: Proponiamo un metodo per migliorare la generalizzazione della traduzione neurale utilizzando la sparsità e l’overfitting.
- Adversarial Training on Disentangling Meaning and Language Representations for Unsupervised Quality Estimation
- Yuto Kuroda, Tomoyuki Kajiwara, Yuki Arase, Takashi Ninomiya
- TLDR: Proponiamo un metodo per distillare i meaning embedding da encoder multilingue per la stima della qualità di apprendimento unsupervised di machine translation.
- Alleviating the Inequality of Attention Heads for Neural Machine Translation
- Zewei Sun, Shujian Huang, Xinyu Dai, Jiajun Chen
- TLDR: Proponiamo HeadMask, un metodo di masking per la traduzione multi-lingue.
- Adapting to Non-Centered Languages for Zero-shot Multilingual Translation
- Zhi Qu, Taro Watanabe
- TLDR: Proponiamo un metodo di modellazione del linguaggio per counterbalance la stabilità della traduzione a zero shot.
- Towards Robust Neural Machine Translation with Iterative Scheduled Data-Switch Training
- Zhongjian Miao, Xiang Li, Liyan Kang, Wen Zhang, Chulun Zhou, Yidong Chen, Bin Wang, Min Zhang, Jinsong Su
- TLDR: Proponiamo un metodo di training per la traduzione neurale robusta basato sulla stima del rumore.
- Cross-lingual Feature Extraction from Monolingual Corpora for Low-resource Unsupervised Bilingual Lexicon Induction
- Zihao Feng, Hailong Cao, Tiejun Zhao, Weixuan Wang, Wei Peng
- TLDR: Proponiamo un metodo di extrazione di feature cross-linguali per l’apprendimento di le lezioni di lezione bilingue su corpora monolingui per l’apprendimento di lezioni di lezione bilingue su corpora con lingue distanti.
- Language-Independent Approach for Morphological Disambiguation
- Alymzhan Toleu, Gulmira Tolegen, Rustam Mussabayev
- TLDR: Proponiamo un approccio indipendente dal linguaggio per la disambiguazione morphologica di un testo e un testo.
- SUN: Exploring Intrinsic Uncertainties in Text-to-SQL Parsers
- Bowen Qin, Lihan Wang, Binyuan Hui, Bowen Li, Xiangpeng Wei, Binhua Li, Fei Huang, Luo Si, Min Yang, Yongbin Li
- TLDR: Proponiamo un constraint di data uncertainty per migliorare le prestazioni di parsing text-to-SQL.
- Deciphering and Characterizing Out-of-Vocabulary Words for Morphologically Rich Languages
- Georgie Botev, Arya D. McCarthy, Winston Wu, David Yarowsky
- TLDR: Proponiamo un modello di apprendimento basato su modelli di apprendimento automatico di parole out-of-vocabulary e dimostriamo che le proprietà di elaborazione possono essere sfruttate per la traduzione di testo in un linguaggio moderato.
- PSSAT: A Perturbed Semantic Structure Awareness Transferring Method for Perturbation-Robust Slot Filling
- Guanting Dong, Daichi Guo, Liwen Wang, Xuefeng Li, Zechen Wang, Chen Zeng, Keqing He, Jinzheng Zhao, Hao Lei, Xinyue Cui, Yi Huang, Junlan Feng, Weiran Xu
- TLDR: Proponiamo un metodo di perturbed structure awareness transfer per il training di modelli di slot filling robusti perturbation-robust.
- String Editing Based Chinese Grammatical Error Diagnosis
- Haihua Xie, Xiaoqing Lyu, Xuefei Chen
- TLDR: Proponiamo un modello di Grammatical Error Diagnosis basato sul lavoro di un workflow unificato per risolvere il problema degli errori grammatici.
- The Fragility of Multi-Treebank Parsing Evaluation
- Iago Alonso-Alonso, David Vilares, Carlos Gómez-Rodríguez
- TLDR: Proponiamo un metodo per valutare la selezione di una singola classe di treebank per parsing.
- FactMix: Using a Few Labeled In-domain Examples to Generalize to Cross-domain Named Entity Recognition
- Linyi Yang, Lifan Yuan, Leyang Cui, Wenyang Gao, Yue Zhang
- TLDR: Proponiamo un metodo di augmentation dei dati basato sulla rationalità per NER few shot.
- Speaker-Aware Discourse Parsing on Multi-Party Dialogues
- Nan Yu, Guohong Fu, Min Zhang
- TLDR: Proponiamo un modello di parsing di dialogo multi-speech con input di voce e input di voce.
- Iterative Span Selection: Self-Emergence of Resolving Orders in Semantic Role Labeling
- Shuhei Kurita, Hiroki Ouchi, Kentaro Inui, Satoshi Sekine
- TLDR: Proponiamo un metodo di identification iterativa degli argomenti per la labelling semantic.
- Revisiting the Practical Effectiveness of Constituency Parse Extraction from Pre-trained Language Models
- Taeuk Kim
- TLDR: Proponiamo un nuovo metodo per parsing di modelli di rappresentazione pre-trained che può essere competitivo con i parsatori non supervisionati.
- Position Offset Label Prediction for Grammatical Error Correction
- Xiuyu Wu, Jingsong Yu, Xu Sun, Yunfang Wu
- TLDR: Proponiamo un nuovo subtask per la predizione della posizione offset delle label di posizione, che può integrare diverse operazioni di correzione del testo in un framework unificato.
- Parsing Natural Language into Propositional and First-Order Logic with Dual Reinforcement Learning
- Xuantao Lu, Jingping Liu, Zhouhong Gu, Hanwen Tong, Chenhao Xie, Junyang Huang, Yanghua Xiao, Wenguang Wang
- TLDR: Proponiamo un modello di apprendimento di reward basate sul modello per risolvere il problema di paucity nel parsing semantic.
- Yet Another Format of Universal Dependencies for Korean
- Yige Chen, Eunkyul Leah Jo, Yundong Yao, KyungTae Lim, Miikka Silfverberg, Francis M. Tyers, Jungyeul Park
- TLDR: Proponiamo un modello di parsing di dependency per la morphologia e lo usiamo per parsing di dependency.
- Enhancing Structure-aware Encoder with Extremely Limited Data for Graph-based Dependency Parsing
- Yuanhe Tian, Yan Song, Fei Xia
- TLDR: Proponiamo un metodo per migliorare il dependency parsing basato sul modello BERT, che utilizza un encoder di struttura per pre-training e fine-tuning.
- Simple and Effective Graph-to-Graph Annotation Conversion
- Yuxuan Wang, Zhilin Lei, Yuqiu Ji, Wanxiang Che
- TLDR: Proponiamo un metodo di conversione grafi-to-grafi semplice e efficace che utilizza pseudo dati per guidare le conversioni.
- BiBL: AMR Parsing and Generation with Bidirectional Bayesian Learning
- Ziming Cheng, Zuchao Li, Hai Zhao
- TLDR: Proponiamo un modello di apprendimento bayesiano per la trasformazione del testo in AMR e la generazione di AMR.
- Multi-Layer Pseudo-Siamese Biaffine Model for Dependency Parsing
- Ziyao Xu, Houfeng Wang, Bingdong Wang
- TLDR: Proponiamo un modello multilayer pseudo-Siamese biaffine per il parsing delle dipendenze neurali basato sul grafi.
- Belief Revision Based Caption Re-ranker with Visual Semantic Information
- Ahmed Sabir, Francesc Moreno-Noguer, Pranava Madhyastha, Lluís Padró
- TLDR: Proponiamo un nuovo metodo di re-ranking che sfrutta le misure semantiche per identificare il modello di image capture ottimale.
- Towards Understanding the Relation between Gestures and Language
- Artem Abzaliev, Andrew Owens, Rada Mihalcea
- TLDR: Proponiamo un modello multimodale semi-supervisionato multilingue per imparare embedding di gesti.
- Building Joint Relationship Attention Network for Image-Text Generation
- Changzhi Wang, Xiaodong Gu
- TLDR: Proponiamo una nuova attention basata sulla relazione per la generazione di testo e immagini-text.
- Learning to Focus on the Foreground for Temporal Sentence Grounding
- Daizong Liu, Wei Hu
- TLDR: Proponiamo un nuovo metodo per grounding temporali sentences utilizzando il grounding grounding learning.
- Are Visual-Linguistic Models Commonsense Knowledge Bases?
- Hsiu-Yu Yang, Carina Silberer
- TLDR: Proponiamo un task di question answering commonsense question answering per la comprensione del linguaggio naturale.
- Visual Prompt Tuning for Few-Shot Text Classification
- Jingyuan Wen, Yutian Luo, Nanyi Fei, Guoxing Yang, Zhiwu Lu, Hao Jiang, Jie Jiang, Zhao Cao
- TLDR: Proponiamo un metodo di apprendimento few shot per addestrare modelli di pre-training vision-language per few shot.
- Systematic Analysis of Image Schemas in Natural Language through Explainable Multilingual Neural Language Processing
- Lennart Wachowiak, Dagmar Gromann
- TLDR: Proponiamo di addestrare un classificatore di immagini supervisionate per la comprensione del linguaggio naturale.
- How to Adapt Pre-trained Vision-and-Language Models to a Text-only Input?
- Lovisa Hagström, Richard Johansson
- TLDR: Proponiamo un metodo per adattare tre modelli di vision-and-language (VVM) pre-trained a input testo-only senza out-of-distribution.
- ACT-Thor: A Controlled Benchmark for Embodied Action Understanding in Simulated Environments
- Michael Hanna, Federico Pedeni, Alessandro Suglia, Alberto Testoni, Raffaella Bernardi
- TLDR: Proponiamo ACT-Thor, un nuovo benchmark controllato per l’apprendimento di agenti AI che risolvono le rappresentazioni di azioni e parole.
- In-the-Wild Video Question Answering
- Santiago Castro, Naihao Deng, Pingxuan Huang, Mihai Burzo, Rada Mihalcea
- TLDR: Proponiamo un dataset di video understanding che può rispondere ai video question answering.
- Towards Better Semantic Understanding of Mobile Interfaces
- Srinivas Sunkara, Maria Wang, Lijuan Liu, Gilles Baechler, Yu-Chung Hsiao, Jindong Chen, Abhanshu Sharma, James W. W. Stout
- TLDR: Proponiamo un dataset di UI mobile umano-annodato con annotazioni per gli elementi di input e le loro funzioni.
- End-to-end Dense Video Captioning as Sequence Generation
- Wanrong Zhu, Bo Pang, Ashish V. Thapliyal, William Yang Wang, Radu Soricut
- TLDR: Proponiamo un metodo per modellare i sottotasci di video captioning denso e semantico insieme come un task di generazione di sequenze di video.
- SANCL: Multimodal Review Helpfulness Prediction with Selective Attention and Natural Contrastive Learning
- Wei Han, Hui Chen, Zhen Hai, Soujanya Poria, Lidong Bing
- TLDR: Proponiamo un modello di contrasto naturale per la predizione di review helpfulness multimodale.
- Dual Capsule Attention Mask Network with Mutual Learning for Visual Question Answering
- Weidong Tian, Haodong Li, Zhong-Qiu Zhao
- TLDR: Proponiamo un nuovo modulo di attention capsule stackable per VQA.
- Emergence of Hierarchical Reference Systems in Multi-agent Communication
- Xenia Ohmer, Marko Duda, Elia Bruni
- TLDR: Proponiamo un gioco di apprendimento per la comunicazione in ambienti semplici, il game di apprendimento gerarchico, per studiare l’ emergenza di sistemi di riferimento gerarchico in agenti artificiali.
- Scene Graph Modification as Incremental Structure Expanding
- Xuming Hu, Zhijiang Guo, Yu Fu, Lijie Wen, Philip S. Yu
- TLDR: Proponiamo un nuovo approccio per modificare i grafi scene per addestrare un nuovo graph basato sulla query naturale.
- Overcoming Language Priors in Visual Question Answering via Distinguishing Superficially Similar Instances
- Yike Wu, Yu Zhao, Shiwan Zhao, Ying Zhang, Xiaojie Yuan, Guoqing Zhao, Ning Jiang
- TLDR: Proponiamo un nuovo metodo per imparare a distinguere le risposte superficiali di un modello VQA.
- Efficient Multilingual Multi-modal Pre-training through Triple Contrastive Loss
- Youhan Lee, KyungTae Lim, Woonhyuk Baek, Byungseok Roh, Saehoon Kim
- TLDR: Proponiamo un metodo di apprendimento multilingue per la traduzione tra testo e immagini utilizzando solo un minimo di coppia di immagini e testo non-inglese.
- LOViS: Learning Orientation and Visual Signals for Vision and Language Navigation
- Yue Zhang, Parisa Kordjamshidi
- TLDR: Proponiamo un agente neurale con informazioni di orientation e visione expliciti per la navigazione.
- GAP: A Graph-aware Language Model Framework for Knowledge Graph-to-Text Generation
- Anthony Colas, Mehrdad Alvandipour, Daisy Zhe Wang
- TLDR: Proponiamo un nuovo encoder di tipo per KG-to-text che addestrato in modo pre-trained migliora le prestazioni di generazione KG-to-text.
- Content Type Profiling of Data-to-Text Generation Datasets
- Ashish Upadhyay, Stewart Massie
- TLDR: Proponiamo una nuova architettura per generare eventi summari di eventi.
- CoLo: A Contrastive Learning Based Re-ranking Framework for One-Stage Summarization
- Chenxin An, Ming Zhong, Zhiyong Wu, Qin Zhu, Xuanjing Huang, Xipeng Qiu
- TLDR: Proponiamo un metodo di contrasto per la summarization one-stage basato sul contrasto per ridurre la complessità di training e la velocità di inferenza.
- Of Human Criteria and Automatic Metrics: A Benchmark of the Evaluation of Story Generation
- Cyril Chhun, Pierre Colombo, Fabian M. Suchanek, Chloé Clavel
- TLDR: Proponiamo di valutare la generazione automatica di storie e dimostriamo che le correlazioni tra le metriche automatice e i criteri umani sono correlate.
- Selective Token Generation for Few-shot Natural Language Generation
- Daejin Jo, Taehwan Kwon, Eun-Sol Kim, Sungwoong Kim
- TLDR: Proponiamo un nuovo metodo di additive learning basato sul reinforcement learning che seleziona automaticamente il token di input per ogni task few shot.
- A-TIP: Attribute-aware Text Infilling via Pre-trained Language Model
- Dongyuan Li, Jingyi You, Kotaro Funakoshi, Manabu Okumura
- TLDR: Proponiamo un metodo di text infilling unificato per migliorare la qualità del testo senza decredere la fluency del testo.
- Multi Graph Neural Network for Extractive Long Document Summarization
- Xuan-Dung Doan, Le-Minh Nguyen, Khac-Hoai Nam Bui
- TLDR: Proponiamo un metodo per sfruttare le interazioni tra parole e frasi per ottenere informazioni semantiche.
- Improving Zero-Shot Multilingual Text Generation via Iterative Distillation
- Ernie Chang, Alex Marin, Vera Demberg
- TLDR: Proponiamo un metodo per imparare da una distribuzione di testo multilingue per 6 lingue.
- Using Structured Content Plans for Fine-grained Syntactic Control in Pretrained Language Model Generation
- Fei-Tzin Lee, Miguel Ballesteros, Feng Nan, Kathleen McKeown
- TLDR: Proponiamo di regolare il controllo della generazione di testo da una rappresentazione semantica, Abstract Meaning Representation (AMR), che è aumentata al livello di nodo con tag di controllo di syntactic.
- PrefScore: Pairwise Preference Learning for Reference-free Summarization Quality Assessment
- Ge Luo, Hebi Li, Youbiao He, Forrest Sheng Bao
- TLDR: Proponiamo di imparare il ranking di preferenza dei modelli di power ranking per valutare la qualità del testo di valutazione.
- Multi-Attribute Controlled Text Generation with Contrastive-Generator and External-Discriminator
- Guisheng Liu, Yi Li, Yanqing Guo, Xiangyang Luo, Bo Wang
- TLDR: Proponiamo un modello contrastivo per la generazione di testo multi-attribute controllato.
- Coordination Generation via Synchronized Text-Infilling
- Hiroki Teranishi, Yuji Matsumoto
- TLDR: Proponiamo un metodo per generare frasi con una struttura coordinata in cui i confini delle connessioni dei suoi componenti sono stati specificati esplicitamente.
- KHANQ: A Dataset for Generating Deep Questions in Education
- Huanli Gong, Liangming Pan, Hengchang Hu
- TLDR: Proponiamo KHANQ, un dataset QG per la generazione di domande di apprendimento in depth.
- Multi-Figurative Language Generation
- Huiyuan Lai, Malvina Nissim
- TLDR: Proponiamo un benchmark per la generazione di forme di testo multi-figurative in linguaggio naturale.
- Enhancing Task-Specific Distillation in Small Data Regimes through Language Generation
- Husam Quteineh, Spyridon Samothrakis, Richard Sutcliffe
- TLDR: Proponiamo un metodo per distillare la conoscenza da modelli di testo di classe e di testo di classe utilizzando pseudo label.
- Boosting Code Summarization by Embedding Code Structures
- Jikyoeng Son, Joonghyuk Hahn, HyeonTae Seo, Yo-Sub Han
- TLDR: Proponiamo un nuovo metodo per migliorare la qualità del modello di baseline e la robustezza del modello di baseline.
- Comparative Graph-based Summarization of Scientific Papers Guided by Comparative Citations
- Jingqiang Chen, Chaoxiang Cai, Xiaorui Jiang, Kejia Chen
- TLDR: Proponiamo un metodo di summarization basato sulla citazione per creare analisi comparative utilizzando le informazioni di citazione.
- JPG - Jointly Learn to Align: Automated Disease Prediction and Radiology Report Generation
- Jingyi You, Dongyuan Li, Manabu Okumura, Kenji Suzuki
- TLDR: Proponiamo un approccio jointly learning per la generazione di radiologimi sanitari automatizzati e la predizione di radiologi.
- Automatic Nominalization of Clauses
- John S. Y. Lee, Ho Hung Lim, Carol Webster, Anton Melser
- TLDR: Proponiamo di utilizzare un entailment text per la nominalization delle frasi.
- Benchmarking Compositionality with Formal Languages
- Josef Valvoda, Naomi Saphra, Jonathan Rawski, Adina Williams, Ryan Cotterell
- TLDR: Proponiamo un metodo per imparare le relazioni compositive da una prospettiva di linguaggi formali.
- Source-summary Entity Aggregation in Abstractive Summarization
- José Ángel González, Annie Louis, Jackie Chi Kit Cheung
- TLDR: Un’estensione del testo può essere utilizzata per identificare le informazioni di apprendimento.
- How to Find Strong Summary Coherence Measures? A Toolbox and a Comparative Study for Summary Coherence Measure Evaluation
- Julius Steen, Katja Markert
- TLDR: Proponiamo un metodo per modellare la coerenza dei sistemi di sintesi e un metodo per modellare la coerenza dei sistemi di sintesi.
- Summarizing Dialogues with Negative Cues
- Junpeng Liu, Yanyan Zou, Yuxuan Xi, Shengjie Li, Mian Ma, Zhuoye Ding
- TLDR: Proponiamo di utilizzare la teoria della semantica per risolvere il problema della summarization dei dialoghi.
- ALEXSIS-PT: A New Resource for Portuguese Lexical Simplification
- Kai North, Marcos Zampieri, Tharindu Ranasinghe
- TLDR: Proponiamo ALEXSIS-PT, un nuovo dataset multi-candidate per la LS Portuguese e la sua applicazione alla generazione di articoli di stampa.
- APPDIA: A Discourse-aware Transformer-based Style Transfer Model for Offensive Social Media Conversations
- Katherine Atwell, Sabit Hassan, Malihe Alikhani
- TLDR: Proponiamo un modello di stile-transfer per ridurre la offensiveness dei commenti di Reddit e loro controparti inoffensive annotate da esperti di linguistica.
- View Dialogue in 2D: A Two-stream Model in Time-speaker Perspective for Dialogue Summarization and beyond
- Keli Xie, Dongchen He, Jiaxin Zhuang, Siyuan Lu, Zhongfeng Wang
- TLDR: Proponiamo un modello di dialogo 2D per combinare i dati di dialogo e la stima del tempo per ottenere una visione 2D di dialogo.
- Denoising Large-Scale Image Captioning from Alt-text Data Using Content Selection Models
- Khyathi Raghavi Chandu, Piyush Sharma, Soravit Changpinyo, Ashish V. Thapliyal, Radu Soricut
- TLDR: Proponiamo di sfruttare la predizione dei secchi come input per generare immagini captioning.
- Meta-CQG: A Meta-Learning Framework for Complex Question Generation over Knowledge Bases
- Kun Zhang, Yunqi Qiu, Yuanzhuo Wang, Long Bai, Wei Li, Xuhui Jiang, Huawei Shen, Xueqi Cheng
- TLDR: Proponiamo un metodo di meta-learning per question generation complessi e multi-dimensionale.
- Graph-to-Text Generation with Dynamic Structure Pruning
- Liang Li, Ruiying Geng, Bowen Li, Can Ma, Yinliang Yue, Binhua Li, Yongbin Li
- TLDR: Proponiamo un nuovo metodo di cross-attention per graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-text graph-to-
- Multi-Perspective Document Revision
- Mana Ihori, Hiroshi Sato, Tomohiro Tanaka, Ryo Masumura
- TLDR: Proponiamo un nuovo task di revisione documentativa multi-perspective che può essere riprodotto simultaneamente da più perspective.
- A Survey of Automatic Text Summarization Using Graph Neural Networks
- Marco Ferdinand Salchner, Adam Jatowt
- TLDR: Proponiamo un’analisi dettagliata delle GNN nel contesto dell’apprendimento automatico.
- Phrase-Level Localization of Inconsistency Errors in Summarization by Weak Supervision
- Masato Takatsuka, Tetsunori Kobayashi, Yoshihiko Hayashi
- TLDR: Proponiamo una metodologia per localizzare gli errori di sintesi in termini di apprendimento e dimostriamo che le informazioni di sintesi possono essere utilizzate per rilevare gli errori di sintesi.
- PoliSe: Reinforcing Politeness Using User Sentiment for Customer Care Response Generation
- Mauajama Firdaus, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: Proponiamo un metodo per trasformare le risposte neutrali in risposte polizie.
- Focus-Driven Contrastive Learning for Medical Question Summarization
- Ming Zhang, Shuai Dou, Ziyang Wang, Yunfang Wu
- TLDR: Proponiamo un nuovo approccio di contrastive learning basato sulla question focus per risolvere il problema della semantica semantica.
- ArgLegalSumm: Improving Abstractive Summarization of Legal Documents with Argument Mining
- Mohamed Elaraby, Diane Litman
- TLDR: Proponiamo un metodo per catturare la struttura argumentative dei documenti legali attraverso il label di ruolo di azione.
- Semantic Overlap Summarization among Multiple Alternative Narratives: An Exploratory Study
- Naman Bansal, Mousumi Akter, Shubhra Kanti Karmaker
- TLDR: Proponiamo un nuovo task di summarization semanticiale che utilizza la tecnica di annotazione ground-truth per generare un singolo documento da più rappresentazioni alternative.
- Analyzing the Dialect Diversity in Multi-document Summaries
- Olubusayo Olabisi, Aaron Hudson, Antonie Jetter, Ameeta Agrawal
- TLDR: Proponiamo un nuovo dataset di summarization di testo e dimostriamo che le informazioni del testo possono rappresentare diverse perspective.
- Multi-Document Scientific Summarization from a Knowledge Graph-Centric View
- Pancheng Wang, Shasha Li, Kunyuan Pang, Liangliang He, Dong Li, Jintao Tang, Ting Wang
- TLDR: Proponiamo un metodo per produrre sintesi sintetiche e concise per cluster di articoli di ricerca.
- Generation of Patient After-Visit Summaries to Support Physicians
- Pengshan Cai, Fei Liu, Adarsha Bajracharya, Joe Sills, Alok Kapoor, Weisong Liu, Dan Berlowitz, David Levy, Richeek Pradhan, Hong Yu
- TLDR: Proponiamo un metodo per generare la sintesi di dopo-visit summari la cui qualità dipende dalla quantità di informazioni cliniche.
- HeterGraphLongSum: Heterogeneous Graph Neural Network with Passage Aggregation for Extractive Long Document Summarization
- Tuan-Anh Phan, Ngoc-Dung Ngoc Nguyen, Khac-Hoai Nam Bui
- TLDR: Proponiamo un modello di graph neural network per la summarization di documenti lunghi.
- GRETEL: Graph Contrastive Topic Enhanced Language Model for Long Document Extractive Summarization
- Qianqian Xie, Jimin Huang, Tulika Saha, Sophia Ananiadou
- TLDR: Proponiamo un topic topic enhanced language model graph contrastive, che incorpora il topic topic modello graph contrastive con il modello di apprendimento pre-trained per sfruttare la semantica globale e la semantica locale per la sintesi del testo.
- PINEAPPLE: Personifying INanimate Entities by Acquiring Parallel Personification Data for Learning Enhanced Generation
- Sedrick Scott Keh, Kevin Lu, Varun Gangal, Steven Y. Feng, Harsh Jhamtani, Malihe Alikhani, Eduard Hovy
- TLDR: Proponiamo un corpus di personification chiamato PersonifCorp, insieme con automaticamente generated depersonifiate de-personifiate delle personifications.
- Mind the Gap! Injecting Commonsense Knowledge for Abstractive Dialogue Summarization
- Seungone Kim, Se June Joo, Hyungjoo Chae, Chaehyeong Kim, Seung-won Hwang, Jinyoung Yeo
- TLDR: Proponiamo un framework di apprendimento multi-task che utilizza la conoscenza comune per generare inferenze di contesto.
- Type-dependent Prompt CycleQAG : Cycle Consistency for Multi-hop Question Generation
- Seungyeon Lee, Minho Lee
- TLDR: Proponiamo un nuovo approccio di generazione di domande multi-hop che utilizza la cross entropy per generare risposte correlate.
- UPER: Boosting Multi-Document Summarization with an Unsupervised Prompt-based Extractor
- Shangqing Tu, Jifan Yu, Fangwei Zhu, Juanzi Li, Lei Hou, Jian-Yun Nie
- TLDR: Proponiamo un metodo per sfruttare la teoria del 2-stage extract-then-abstract per generare un abstract.
- DISK: Domain-constrained Instance Sketch for Math Word Problem Generation
- Tianyang Cao, Shuang Zeng, Xiaodan Xu, Mairgup Mansur, Baobao Chang
- TLDR: Proponiamo un modello neurale per generare testo di testo matematico da equazioni e stimiamo le prestazioni di valutazione su modelli di valutazione e modelli di valutazione.
- Context-Tuning: Learning Contextualized Prompts for Natural Language Generation
- Tianyi Tang, Junyi Li, Wayne Xin Zhao, Ji-Rong Wen
- TLDR: Un metodo per sfruttare la conoscenza di apprendimento di PLM
- PSP: Pre-trained Soft Prompts for Few-Shot Abstractive Summarization
- Xiaochen Liu, Yang Gao, Yu Bai, Jiawei Li, Yinan Hu, Heyan Huang, Boxing Chen
- TLDR: Proponiamo un nuovo metodo di soft training per la summarization few shot che sfrutta la capacità di comprensione del documento per generare informazioni di sintesi.
- Continuous Decomposition of Granularity for Neural Paraphrase Generation
- Xiaodong Gu, Zhaowei Zhang, Sang-Woo Lee, Kang Min Yoo, Jung-Woo Ha
- TLDR: Proponiamo un nuovo metodo di self-attention multi-head per la generazione di paraphrase neurali.
- Paraphrase Generation as Unsupervised Machine Translation
- Xiaofei Sun, Yufei Tian, Yuxian Meng, Nanyun Peng, Fei Wu, Jiwei Li, Chun Fan
- TLDR: Proponiamo un nuovo metodo per generare parafrasi utilizzando UMT per la traduzione unsupervised di testo multilingue.
- Summarize, Outline, and Elaborate: Long-Text Generation via Hierarchical Supervision from Extractive Summaries
- Xiaofei Sun, Zijun Sun, Yuxian Meng, Jiwei Li, Chun Fan
- TLDR: Proponiamo un modello di testo per la predizione di parole locali e la loro elaborazione.
- CoCGAN: Contrastive Learning for Adversarial Category Text Generation
- Xin Sheng, Linli Xu, Yinlong Xu, Changcun Bao, Huang Chen, Bo Ren
- TLDR: Proponiamo una nuova Generative Adversarial Network per addestrare il discriminatore di contrasto per la generazione di testo di categorie.
- An Efficient Coarse-to-Fine Facet-Aware Unsupervised Summarization Framework Based on Semantic Blocks
- Xinnian Liang, Jing Li, Shuangzhi Wu, Jiali Zeng, Yufan Jiang, Mu Li, Zhoujun Li
- TLDR: Proponiamo un framework efficiente di coarse-to-fine facet-aware per la summarization unsupervised di documenti lunghi.
- CHAE: Fine-Grained Controllable Story Generation with Characters, Actions and Emotions
- Xinpeng Wang, Han Jiang, Zhihua Wei, Shanlin Zhou
- TLDR: Proponiamo un modello per fine-grained controllo sulla generazione di storie con caratteri, comportamenti e informazioni arbitrariamente assegnate.
- Chinese Couplet Generation with Syntactic Information
- Yan Song
- TLDR: Proponiamo di sfruttare le informazioni di sintesi vocale per generare coppiate di frasi.
- Noise-injected Consistency Training and Entropy-constrained Pseudo Labeling for Semi-supervised Extractive Summarization
- Yiming Wang, Qianren Mao, Junnan Liu, Weifeng Jiang, Hongdong Zhu, Jianxin Li
- TLDR: Proponiamo un metodo di pseudo labeling per ottenere label di confidenza da prediction non annotate.
- Question Generation Based on Grammar Knowledge and Fine-grained Classification
- Yuan Sun, Sisi Liu, Zhengcuo Dan, Xiaobing Zhao
- TLDR: Proponiamo un modello di question generation per question type classification e question generator.
- CM-Gen: A Neural Framework for Chinese Metaphor Generation with Explicit Context Modelling
- Yucheng Li, Chenghua Lin, Frank Guerin
- TLDR: Proponiamo un nuovo metodo multi-task per la generazione di metaphor nominalizzati da un corpus annotato di 6.3k frasi.
- Psychology-guided Controllable Story Generation
- Yuqiang Xie, Yue Hu, Yunpeng Li, Guanqun Bi, Luxi Xing, Wei Peng
- TLDR: Proponiamo un sistema di generazione di storie controllabili basato sulla teoria della psicologia per la generazione di storie controllabili controllabili.
- Few-shot Table-to-text Generation with Prefix-Controlled Generator
- Yutao Luo, Menghua Lu, Gongshen Liu, Shilin Wang
- TLDR: Proponiamo un metodo per generare pochi testo da pochi immagini utilizzando un generatore di pre-trained language model.
- Text Simplification of College Admissions Instructions: A Professionally Simplified and Verified Corpus
- Zachary W. Taylor, Maximus H. Chu, Junyi Jessy Li
- TLDR: Proponiamo un corpus di testo per la riduzione del testo per l’apprendimento di sistemi di apprendimento automatico.
- On the Role of Pre-trained Language Models in Word Ordering: A Case Study with BART
- Zebin Ou, Meishan Zhang, Yue Zhang
- TLDR: Proponiamo di utilizzare il modello di word ordering per spiegare il ruolo di apprendimento di un modello di word ordering.
- Visual Information Guided Zero-Shot Paraphrase Generation
- Zhe Lin, Xiaojun Wan
- TLDR: Proponiamo una nuova generazione di paraphrase generative information guidata da immagini per la generazione di paraphrase zero-shot.
- Improving Abstractive Dialogue Summarization with Speaker-Aware Supervised Contrastive Learning
- Zhichao Geng, Ming Zhong, Zhangyue Yin, Xipeng Qiu, Xuanjing Huang
- TLDR: Proponiamo un modello di dialogo per dialogue summarization che può riconoscere la forma del testo e la sua interpretazione.
- Diversifying Neural Text Generation with Part-of-Speech Guided Softmax and Sampling
- Zhixian Yang, Pengxuan Xu, Xiaojun Wan
- TLDR: Proponiamo un metodo di softmax per guidare la generazione di testo neurale utilizzando la struttura del linguaggio.
- Enhancing Pre-trained Models with Text Structure Knowledge for Question Generation
- Zichen Wu, Xin Jia, Fanyi Qu, Yunfang Wu
- TLDR: Proponiamo un nuovo metodo di localizzazione per question generation.
- LFKQG: A Controlled Generation Framework with Local Fine-tuning for Question Generation over Knowledge Bases
- Zichu Fei, Xin Zhou, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: Proponiamo un modello di generazione controllata di domande su knowledge base per rispondere alle domande di sottoscrizione.
- Demystifying Neural Fake News via Linguistic Feature-Based Interpretation
- Ankit Aich, Souvik Bhattacharya, Natalie Parde
- TLDR: Proponiamo un’analisi interpretativa del ruolo degli attributi linguistici che i generatori di fake news neural possono mostrover più efficacemente.
- Measuring Geographic Performance Disparities of Offensive Language Classifiers
- Brandon Lwowski, Paul Rad, Anthony Rios
- TLDR: Proponiamo GeoOLID per risolvere il bias di generalizzazione dei modelli di rilevamento del linguaggio offensivo.
- Offensive Content Detection via Synthetic Code-Switched Text
- Cesa Salaam, Franck Dernoncourt, Trung Bui, Danda Rawat, Seunghyun Yoon
- TLDR: Proponiamo un nuovo metodo per generare dati di testo sintetici di contenuto offensivo e dimostriamo che questo può essere utilizzato per classificare le parole chiave e le parole chiave.
- A Survey on Multimodal Disinformation Detection
- Firoj Alam, Stefano Cresci, Tanmoy Chakraborty, Fabrizio Silvestri, Dimiter Dimitrov, Giovanni Da San Martino, Shaden Shaar, Hamed Firooz, Preslav Nakov
- TLDR: Proponiamo una survey sul problema della rilevazione di informazioni distorte multimodali online.
- Why Is It Hate Speech? Masked Rationale Prediction for Explainable Hate Speech Detection
- Jiyun Kim, Byounghan Lee, Kyung-Ah Sohn
- TLDR: Proponiamo Masked Rational Prediction (MRP) come un intermedio task per il rilevamento del speech hate speech.
- Domain Classification-based Source-specific Term Penalization for Domain Adaptation in Hate-speech Detection
- Tulika Bose, Nikolaos Aletras, Irina Illina, Dominique Fohr
- TLDR: Proponiamo un metodo di domain adaptation che sfrutta la feature-attribution per penalizzare i termini di espressione del rumore.
- Generalizable Implicit Hate Speech Detection Using Contrastive Learning
- Youngwook Kim, Shinwoo Park, Yo-Sub Han
- TLDR: Proponiamo un metodo di contrastive learning per rilevare il speech di odio implicito.
- Social Bot-Aware Graph Neural Network for Early Rumor Detection
- Zhen Huang, Zhilong Lv, Xiaoyun Han, Binyang Li, Menglong Lu, Dongsheng Li
- TLDR: Proponiamo un graph neural network per rilevare rumore e la usiamo per costruire graph neural network.
- A Contrastive Cross-Channel Data Augmentation Framework for Aspect-Based Sentiment Analysis
- Bing Wang, Liang Ding, Qihuang Zhong, Ximing Li, Dacheng Tao
- TLDR: Proponiamo un nuovo metodo di contrastive cross-channel data augmentation per la valutazione del sentiment basata sull’aspetto.
- Sentiment Interpretable Logic Tensor Network for Aspect-Term Sentiment Analysis
- Bowen Zhang, Xu Huang, Zhichao Huang, Hu Huang, Baoquan Zhang, Xianghua Fu, Liwen Jing
- TLDR: Proponiamo una nuova GAN per interpretare il sentiment degli aspect-term.
- Detecting Minority Arguments for Mutual Understanding: A Moderation Tool for the Online Climate Change Debate
- Cedric Waterschoot, Ernst van den Hemel, Antal van den Bosch
- TLDR: Proponiamo un nuovo metodo per addestrare classifier per affrontare il problema della comprensione e dimostriamo che le informazioni di input possono essere utilizzate per migliorare la qualità del training di classifier.
- A Multi-turn Machine Reading Comprehension Framework with Rethink Mechanism for Emotion-Cause Pair Extraction
- Changzhi Zhou, Dandan Song, Jing Xu, Zhijing Wu
- TLDR: Proponiamo un nuovo task di apprendimento multi-turn per l’analisi causale degli emotion cause.
- Structural Bias for Aspect Sentiment Triplet Extraction
- Chen Zhang, Lei Ren, Fang Ma, Jingang Wang, Wei Wu, Dawei Song
- TLDR: Proponiamo un nuovo metodo per integrare il bias strutturale nella PLM e utilizzare una struttura di relative posizioni per ridurre il bias strutturale.
- Unsupervised Data Augmentation for Aspect Based Sentiment Analysis
- David Z. Chen, Adam Faulkner, Sahil Badyal
- TLDR: Proponiamo un approccio di co-apprendimento per la classificazione degli aspetti basata sull’aspetto per la stima del gradiente.
- A Sentiment and Emotion Aware Multimodal Multiparty Humor Recognition in Multilingual Conversational Setting
- Dushyant Singh Chauhan, Gopendra Vikram Singh, Aseem Arora, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: Proponiamo un nuovo dataset di apprendimento multi-task per il rilevamento del humor e la sua interpretazione.
- TSAM: A Two-Stream Attention Model for Causal Emotion Entailment
- Duzhen Zhang, Zhen Yang, Fandong Meng, Xiuyi Chen, Jie Zhou
- TLDR: Proponiamo un modello di attention per la classificazione delle utterances in modo simultane e multi-stream per la modellazione degli input degli speaker nella conversazione.
- Entity-Level Sentiment Analysis (ELSA): An Exploratory Task Survey
- Egil Rønningstad, Erik Velldal, Lilja Øvrelid
- TLDR: Proponiamo un’analisi di sentimente per document-level, sentence-level e target-level.
- Learning from Adjective-Noun Pairs: A Knowledge-enhanced Framework for Target-Oriented Multimodal Sentiment Classification
- Fei Zhao, Zhen Wu, Siyu Long, Xinyu Dai, Shujian Huang, Jiajun Chen
- TLDR: Proponiamo un nuovo approccio di apprendimento di knowledge-enhanced framework per la classificazione del sentimento multimodale basata sull’aspetto, che può sfruttare le pair di noun ad esempio adjective-noun e ad esempio adjective-noun per migliorare la capacità di attenzione e la capacità di predizione del sentimento.
- Towards Exploiting Sticker for Multimodal Sentiment Analysis in Social Media: A New Dataset and Baseline
- Feng Ge, Weizhao Li, Haopeng Ren, Yi Cai
- TLDR: Proponiamo un modello per la valutazione multimodale del sentiment per la valutazione di immagini di testo e immagini di testo basati sulla sticker.
- Natural Language Inference Prompts for Zero-shot Emotion Classification in Text across Corpora
- Flor Miriam Plaza-del-Arco, María-Teresa Martín-Valdivia, Roman Klinger
- TLDR: Proponiamo un nuovo metodo per imparare la classificazione delle emozioni basata sulla natural language inference.
- CommunityLM: Probing Partisan Worldviews from Language Models
- Hang Jiang, Doug Beeferman, Brandon Roy, Deb Roy
- TLDR: Proponiamo un framework per studiare le comunità di espressione e le loro risposte a domande di dialogo e di comunicazione attraverso il probing basato sul feedback.
- Composition-based Heterogeneous Graph Multi-channel Attention Network for Multi-aspect Multi-sentiment Classification
- Hao Niu, Yun Xiong, Jian Gao, Zhongchen Miao, Xiaosu Wang, Hongrun Ren, Yao Zhang, Yangyong Zhu
- TLDR: Proponiamo un graph heterogeneo per la valutazione del sentiment basato sull’aspetto.
- CoNTACT: A Dutch COVID-19 Adapted BERT for Vaccine Hesitancy and Argumentation Detection
- Jens Lemmens, Jens Van Nooten, Tim Kreutz, Walter Daelemans
- TLDR: Proponiamo CoNTACT: un modello di linguaggi adatti al dominio dei tweet di COVID-19.
- SSR: Utilizing Simplified Stance Reasoning Process for Robust Stance Detection
- Jianhua Yuan, Yanyan Zhao, Yanyue Lu, Bing Qin
- TLDR: Proponiamo un metodo di debiasing task-agnostic per imparare le feature genuine e ridurre la reliance sulla teoria del bias.
- Transferring Confluent Knowledge to Argument Mining
- João António Rodrigues, António Branco
- TLDR: Proponiamo un metodo di transfer learning per sfruttare la conoscenza di base per il Mining degli Arguments.
- When to Laugh and How Hard? A Multimodal Approach to Detecting Humor and Its Intensity
- Khalid Alnajjar, Mika Hämäläinen, Jörg Tiedemann, Jorma Laaksonen, Mikko Kurimo
- TLDR: Proponiamo un modello per rilevare automaticamente la ribellietà in TV show come annotazione di momenti di humor.
- Modeling Aspect Correlation for Aspect-based Sentiment Analysis via Recurrent Inverse Learning Guidance
- Longfeng Li, Haifeng Sun, Qi Qi, Jingyu Wang, Jing Wang, Jianxin Liao
- TLDR: Proponiamo un metodo di apprendimento inverso per valutare la polarità del sentiment in una frase di testo.
- Analyzing Persuasion Strategies of Debaters on Social Media
- Matti Wiegmann, Khalid Al Khatib, Vishal Khanna, Benno Stein
- TLDR: Proponiamo di quantificare la capacità di azione dei debaters nel contesto del dialogo online.
- KC-ISA: An Implicit Sentiment Analysis Model Combining Knowledge Enhancement and Context Features
- Minghao Xu, Daling Wang, Shi Feng, Zhenfei Yang, Yifei Zhang
- TLDR: Proponiamo un nuovo modello di analisi del sentiment per la valutazione del testo.
- Domain Generalization for Text Classification with Memory-Based Supervised Contrastive Learning
- Qingyu Tan, Ruidan He, Lidong Bing, Hwee Tou Ng
- TLDR: Proponiamo un nuovo metodo di contrastive contrastive learning supervised basato sul dominio per la generalizzazione del testo.
- A Zero-Shot Claim Detection Framework Using Question Answering
- Revanth Gangi Reddy, Sai Chetan Chinthakindi, Yi R. Fung, Kevin Small, Heng Ji
- TLDR: Proponiamo un framework di rilevamento dei claim fine-grained che sfrutta il question answering basato sulla domanda per risolvere diverse sottotask, tra cui topic filtering, claim object detection e rilevamento del claimer.
- Asymmetric Mutual Learning for Multi-source Unsupervised Sentiment Adaptation with Dynamic Feature Network
- Rui Li, Cheng Liu, Dazhi Jiang
- TLDR: Proponiamo un metodo di mutual learning per adattare il prLM multi-source unsupervised con le feature pre-trained.
- Target Really Matters: Target-aware Contrastive Learning and Consistency Regularization for Few-shot Stance Detection
- Rui Liu, Zheng Lin, Huishan Ji, Jiangnan Li, Peng Fu, Weiping Wang
- TLDR: Proponiamo un nuovo obiettivo di contrastive learning che sfrutta i dati non annotati per rilevare le posizioni few shot.
- Joint Alignment of Multi-Task Feature and Label Spaces for Emotion Cause Pair Extraction
- Shunjie Chen, Xiaochuan Shi, Jingye Li, Shengqiong Wu, Hao Fei, Fei Li, Donghong Ji
- TLDR: Proponiamo un nuovo metodo di apprendimento multi-task per migliorare l’apprendimento causale e l’apprendimento causale.
- Causal Intervention Improves Implicit Sentiment Analysis
- Siyin Wang, Jie Zhou, Changzhi Sun, Junjie Ye, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: Proponiamo un modello di azione causale per l’analisi del sentiment per sEntiment implicito utilizzando la variabile di azione instrumentale.
- COMMA-DEER: COmmon-sense Aware Multimodal Multitask Approach for Detection of Emotion and Emotional Reasoning in Conversations
- Soumitra Ghosh, Gopendra Vikram Singh, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: Proponiamo un nuovo task di rilevamento e comprensione dell’emozione e dimostriamo che il nostro modello produce risultati allo stato dell’arte su due task di rilevamento e dimostriamo che il nostro modello produce risultati allo stato dell’arte su due task di rilevamento e dimostriamo che il nostro modello produce risultati allo stato dell’arte su entrambi i task.
- EmoMent: An Emotion Annotated Mental Health Corpus from Two South Asian Countries
- Thushari Atapattu, Mahen Herath, Charitha Elvitigala, Piyanjali de Zoysa, Kasun Gunawardana, Menasha Thilakaratne, Kasun de Zoysa, Katrina Falkner
- TLDR: Proponiamo un corpus di emozioni annotate per rilevare le condizioni di salute mentali da post di Facebook.
- LEGO-ABSA: A Prompt-based Task Assemblable Unified Generative Framework for Multi-task Aspect-based Sentiment Analysis
- Tianhao Gao, Jun Fang, Hanyu Liu, Zhiyuan Liu, Chao Liu, Pengzhang Liu, Yongjun Bao, Weipeng Yan
- TLDR: Proponiamo un modello generativo unificato per risolvere più task di sentiment analysis.
- A Hierarchical Interactive Network for Joint Span-based Aspect-Sentiment Analysis
- Wei Chen, Jinglong Du, Zhao Zhang, Fuzhen Zhuang, Zhongshi He
- TLDR: Proponiamo un modello di apprendimento multi-task per la modellazione di interazioni tra due task.
- MuCDN: Mutual Conversational Detachment Network for Emotion Recognition in Multi-Party Conversations
- Weixiang Zhao, Yanyan Zhao, Bing Qin
- TLDR: Proponiamo una rete di rilevamento mutuo per la comprensione conversazionale multi-party.
- UECA-Prompt: Universal Prompt for Emotion Cause Analysis
- Xiaopeng Zheng, Zhiyue Liu, Zizhen Zhang, Zhaoyang Wang, Jiahai Wang
- TLDR: Proponiamo un metodo di apprendimento universale per risolvere diversi task ECA nel framework unificato.
- One-Teacher and Multiple-Student Knowledge Distillation on Sentiment Classification
- Xiaoqin Chang, Sophia Yat Mei Lee, Suyang Zhu, Shoushan Li, Guodong Zhou
- TLDR: Proponiamo un nuovo approccio di knowledge distillation per distillare un deep pre-trained modello in un modello di studenti di dimensioni compatte come CNN.
- Making Parameter-efficient Tuning More Efficient: A Unified Framework for Classification Tasks
- Xin Zhou, Ruotian Ma, Yicheng Zou, Xuanting Chen, Tao Gui, Qi Zhang, Xuanjing Huang, Rui Xie, Wei Wu
- TLDR: Proponiamo un metodo di training per migliorare la qualità dei metodi di training di modelli di calcolo pre-trained utilizzando il metodo di tuning del parametro.
- A Multi-Task Dual-Tree Network for Aspect Sentiment Triplet Extraction
- Yichun Zhao, Kui Meng, Gongshen Liu, Jintao Du, Huijia Zhu
- TLDR: Proponiamo un modello di apprendimento multi-task basato sulla trasformazione del testo per l’apprendimento di modelli di apprendimento basati sulla trasformazione del testo.
- Exploiting Unlabeled Data for Target-Oriented Opinion Words Extraction
- Yidong Wang, Hao Wu, Ao Liu, Wenxin Hou, Zhen Wu, Jindong Wang, Takahiro Shinozaki, Manabu Okumura, Yue Zhang
- TLDR: Proponiamo un nuovo metodo di regolarizzazione della consapency per la traduzione di parole di opinione target-oriented.
- Learnable Dependency-based Double Graph Structure for Aspect-based Sentiment Analysis
- Yinglong Ma, Yunhe Pang
- TLDR: Proponiamo un modello di apprendimento multi-task basato sulla dipendenza per la classificazione del sentimento basata sull’aspetto per la predizione del dominio adattivo.
- A Structure-Aware Argument Encoder for Literature Discourse Analysis
- Yinzi Li, Wei Chen, Zhongyu Wei, Yujun Huang, Chujun Wang, Siyuan Wang, Qi Zhang, Xuanjing Huang, Libo Wu
- TLDR: Proponiamo un encoder di apprendimento di rappresentazioni con struttura per la strutturazione degli argomenti.
- Mere Contrastive Learning for Cross-Domain Sentiment Analysis
- Yun Luo, Fang Guo, Zihan Liu, Yue Zhang
- TLDR: Proponiamo un modello di contrastive learning contrastivo per la rilevazione del sentiment cross-domain.
- Exploiting Sentiment and Common Sense for Zero-shot Stance Detection
- Yun Luo, Zihan Liu, Yuefeng Shi, Stan Z. Li, Yue Zhang
- TLDR: Proponiamo un modello di rilevamento della stance per la classificazione dei documenti e dei topic.
- Modeling Intra- and Inter-Modal Relations: Hierarchical Graph Contrastive Learning for Multimodal Sentiment Analysis
- Zijie Lin, Bin Liang, Yunfei Long, Yixue Dang, Min Yang, Min Zhang, Ruifeng Xu
- TLDR: Proponiamo un nuovo approccio di graph contrastive learning per MSA, che esplora le relazioni intricate tra le rappresentazioni di input e output per l’apprendimento di sentiment relations.
- AMOA: Global Acoustic Feature Enhanced Modal-Order-Aware Network for Multimodal Sentiment Analysis
- Ziming Li, Yan Zhou, Weibo Zhang, Yaxin Liu, Chuanpeng Yang, Zheng Lian, Songlin Hu
- TLDR: Proponiamo una nuova architettura per l’analisi multimodale del sentiment, che migliora le feature acoustici e multimodale per ottenere la fusione multimodale.
- Keyphrase Prediction from Video Transcripts: New Dataset and Directions
- Amir Pouran Ben Veyseh, Quan Hung Tran, Seunghyun Yoon, Varun Manjunatha, Hanieh Deilamsalehy, Rajiv Jain, Trung Bui, Walter W. Chang, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Proponiamo un dataset di testo per la predizione di video transcript.
- Event Extraction in Video Transcripts
- Amir Pouran Ben Veyseh, Viet Dac Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Proponiamo un dataset di elaborazione video per l’apprendimento di eventi e video transcript.
- Recycle Your Wav2Vec2 Codebook: A Speech Perceiver for Keyword Spotting
- Guillermo Cámbara, Jordi Luque, Mireia Farrús
- TLDR: Proponiamo un metodo efficiente per sfruttare la conoscenza linguistica di wav2vec2.0 per generare rappresentazioni più accurate.
- Improving Code-switched ASR with Linguistic Information
- Jie Chi, Peter Bell
- TLDR: Proponiamo di utilizzare le teorie linguistiche per generare testo di code-switching per ASR.
- Language-specific Effects on Automatic Speech Recognition Errors for World Englishes
- June Choe, Yiran Chen, May Pik Yu Chan, Aini Li, Xin Gao, Nicole Holliday
- TLDR: Proponiamo un metodo per studiare le prestazioni di apprendimento su speaker non nativi e non nativi di diverse lingue attraverso una valutazione linguistica di segmenti.
- A Transformer-based Threshold-Free Framework for Multi-Intent NLU
- Lisung Chen, Nuo Chen, Yuexian Zou, Yong Wang, Xinzhong Sun
- TLDR: Proponiamo un modello di natural language understanding multi-intent basato sul trasformatore che sfrutta l’informazione di input di un encoder per rilevare le molteplici intenzioni.
- Unsupervised Multi-scale Expressive Speaking Style Modeling with Hierarchical Context Information for Audiobook Speech Synthesis
- Xueyuan Chen, Shun Lei, Zhiyong Wu, Dong Xu, Weifeng Zhao, Helen Meng
- TLDR: Proponiamo un modello di testo-to-speech multi-scala per la sintesi audiobook di testo-to-speech.
- Incorporating Instructional Prompts into a Unified Generative Framework for Joint Multiple Intent Detection and Slot Filling
- Yangjun Wu, Han Wang, Dongxiang Zhang, Gang Chen, Hao Zhang
- TLDR: Proponiamo un modello generativo unificato basato sul modello per risolvere il problema di question answering.
- Adaptive Unsupervised Self-training for Disfluency Detection
- Zhongyuan Wang, Yixuan Wang, Shaolei Wang, Wanxiang Che
- TLDR: Proponiamo un metodo di self-training unsupervised per rilevare la disfluenza.