Background
- NAACL 2022 papers with one sentence summaries (data was obtained from official github repository.)
- Summaries were automatically generated by a mBART fine-tuned on the XSCITLDR dataset.
No human validation on summaries, so you can’t trust them, please just use them as a starting point of your work.
For other languages,
Summaries
- Social Norms Guide Reference Resolution
- Mitchell Abrams, Matthias Scheutz
- TLDR: Proponiamo un metodo per risolvere il problema di coerenza nel linguaggio naturale e nel contesto.
- Learning Natural Language Generation with Truncated Reinforcement Learning
- Alice Martin, Guillaume Quispe, Charles Ollion, Sylvain Le Corff, Florian Strub, Olivier Pietquin
- TLDR: Proponiamo un approccio per imparare la generazione di testi senza supervisione, utilizzando solo reinforcement learning.
- Language Model Augmented Monotonic Attention for Simultaneous Translation
- Sathish Reddy Indurthi, Mohd Abbas Zaidi, Beomseok Lee, Nikhil Kumar Lakumarapu, Sangha Kim
- TLDR: Proponiamo un framework per aiutare la monotona attention con un modello di input esterni per migliorare le decisioni di translazione.
- What Makes a Good and Useful Summary? Incorporating Users in Automatic Summarization Research
- Maartje Ter Hoeve, Julia Kiseleva, Maarten Rijke
- TLDR: Proponiamo una metodologia per studiare i bisogni degli utenti di summarization automaticamente generate.
- ErAConD: Error Annotated Conversational Dialog Dataset for Grammatical Error Correction
- Xun Yuan, Derek Pham, Sam Davidson, Zhou Yu
- TLDR: Proponiamo un nuovo dataset di correzione degli errori grammatici basato su chatbot per il training di un modello di conversazione conversazionale.
- Semantic Diversity in Dialogue with Natural Language Inference
- Katherine Stasaski, Marti Hearst
- TLDR: Proponiamo una nuova metric di Natural Language Inference per misurare la diversità semantica di un insieme di risposte per una conversazione.
- LEA: Meta Knowledge-Driven Self-Attentive Document Embedding for Few-Shot Text Classification
- S. K. Hong, Tae Young Jang
- TLDR: Proponiamo un metodo di meta-learning per imparare come attendere, chiamato LEA, attraverso il quale i meta-level attention sono derivati basati sulla strategia di meta-learning.
- Enhancing Self-Attention with Knowledge-Assisted Attention Maps
- Jiangang Bai, Yujing Wang, Hong Sun, Ruonan Wu, Tianmeng Yang, Pengfei Tang, Defu Cao, Mingliang Zhang1, Yunhai Tong, Yaming Yang, Jing Bai, Ruofei Zhang, Hao Sun, Wei Shen
- TLDR: Proponiamo KAM-BERT, un metodo di infusione di knowledge per incorporare direttamente le informazioni di apprendimento della conoscenza nelle auto-attention.
- Batch-Softmax Contrastive Loss for Pairwise Sentence Scoring Tasks
- Anton Chernyavskiy, Dmitry Ilvovsky, Pavel Kalinin, Preslav Nakov
- TLDR: Proponiamo un’analisi e un confronto di modelli di trasformazione pre-trained per l’apprendimento di sentence embedding per task di pairwise sentence scoring.
- NewsEdits: A News Article Revision Dataset and a Novel Document-Level Reasoning Challenge
- Alexander Spangher, Xiang Ren, Jonathan May, Nanyun Peng
- TLDR: Proponiamo NewsEdits, un dataset di revisione degli articoli, che può essere utilizzato per studiare la struttura del testo di articoli.
- Putting the Con in Context: Identifying Deceptive Actors in the Game of Mafia
- Samee Ibraheem, Gaoyue Zhou, John DeNero
- TLDR: Proponiamo un framework per raccogliere i dati di gioco di Mafia e un modello di classificazione per misurare il ruolo di speaker nel gioco.
- SUBS: Subtree Substitution for Compositional Semantic Parsing
- Jingfeng Yang, Le Zhang, Diyi Yang
- TLDR: Proponiamo di utilizzare subtree substitution per data augmentation, dove consideriamo sottoreti con funzioni semantiche similari come subtrees scambiabili.
- Two Contrasting Data Annotation Paradigms for Subjective NLP Tasks
- Paul Rottger, Bertie Vidgen, Dirk Hovy, Janet Pierrehumbert
- TLDR: Proponiamo due paradigmi contrastanti per la data annotation. Il descriptive paradigm incentiva la subjectivity, il prescriviive paradigm discourra il subjectivity.
- Do Deep Neural Nets Display Human-like Attention in Short Answer Scoring?
- Zijie Zeng, Xinyu Li, Dragan Gasevic, Guanliang Chen
- TLDR: Proponiamo di sfruttare le feature di apprendimento basati sul testo per migliorare il human gradient.
- Knowledge-Grounded Dialogue Generation with a Unified Knowledge Representation
- Yu Li, Baolin Peng, Yelong Shen, Yi Mao, Lars Liden, Zhou Yu, Jianfeng Gao
- TLDR: Proponiamo un nuovo metodo per costruire sistemi di dialogo knowledge-grounded basati sulla conoscenza.
- CERES: Pretraining of Graph-Conditioned Transformer for Semi-Structured Session Data
- Rui Feng, Chen Luo, Qingyu Yin, Bing Yin, Tuo Zhao, Chao Zhang
- TLDR: Proponiamo un modello di apprendimento self-supervised basato sul grafi per session data semi-strutturati.
- Political Ideology and Polarization: A Multi-dimensional Approach
- Barea Sinno, Bernardo Oviedo, Katherine Atwell, Malihe Alikhani, Junyi Jessy Li
- TLDR: Proponiamo un metodo per studiare la distanza di polarizzazione e l’ideologia basato sulla posizione del testo di origine e arrivo.
- Cooperative Self-training of Machine Reading Comprehension
- Hongyin Luo, Shang-Wen Li, Mingye Gao, Seunghak Yu, James Glass
- TLDR: Proponiamo un metodo cooperativo di self-training per generare più question-answer pair non trivial per migliorare le prestazioni di question-answering e di transfer learning.
- GlobEnc: Quantifying Global Token Attribution by Incorporating the Whole Encoder Layer in Transformers
- Ali Modarressi, Mohsen Fayyaz, Yadollah Yaghoobzadeh, Mohammad Taher Pilehvar
- TLDR: Proponiamo un metodo di attribuzione globale per la valutazione di token.
- A Robustly Optimized BMRC for Aspect Sentiment Triplet Extraction
- Shu Liu, Kaiwen Li, Zuhe Li
- TLDR: Proponiamo un metodo di apprendimento robusto per l’apprendimento semantico basato sull’aspetto per l’apprendimento di immagini e parole.
- Seed-Guided Topic Discovery with Out-of-Vocabulary Seeds
- Yu Zhang, Yu Meng, Xuan Wang, Sheng Wang, Jiawei Han
- TLDR: Proponiamo un nuovo metodo per esplorare topic topic seed guidati da seed che sfrutta la conoscenza generale delle PLM e la local semanticità apprese dal corpus del testo input.
- Towards Process-Oriented, Modular, and Versatile Question Generation that Meets Educational Needs
- Xu Wang, Simin Fan, Jessica Houghton, Lu Wang
- TLDR: Proponiamo un nuovo metodo per generare domande QG basate sulla teoria del controllo e sulla spiegabilità per l’apprendimento.
- SwahBERT: Language Model of Swahili
- Gati Martin, Medard Edmund Mswahili, Young-Seob Jeong, Jeong Young-Seob
- TLDR: Proponiamo un nuovo language model monolingue per la classificazione delle emozioni in Swahili.
- Deconstructing NLG Evaluation: Evaluation Practices, Assumptions, and Their Implications
- Kaitlyn Zhou, Su Lin Blodgett, Adam Trischler, Hal Daumé III, Kaheer Suleman, Alexandra Olteanu
- TLDR: Proponiamo un metodo per valutare le policy di apprendimento di NLG, e mostriamo che le policy di apprendimento possono essere utilizzate per valutare le policy di apprendimento.
- TSTR: Too Short to Represent, Summarize with Details! Intro-Guided Extended Summary Generation
- Sajad Sotudeh, Nazli Goharian
- TLDR: Proponiamo un nuovo metodo per la sintesi di documenti scientifici per la sintesi di testo umano e testo umano.
- Empathic Machines: Using Intermediate Features as Levers to Emulate Emotions in Text-To-Speech Systems
- Saiteja Kosgi, Sarath Sivaprasad, Niranjan Pedanekar, Anil Nelakanti, Vineet Gandhi
- TLDR: Proponiamo un metodo per regolare la prosodia emotiva dei sistemi di testo a voce (TTS) utilizzando le feature intermedie del livello di voce e le feature del livello di voce.
- The Why and The How: A Survey on Natural Language Interaction in Visualization
- Henrik Voigt, Ozge Alacam, Monique Meuschke, Kai Lawonn, Sina Zarrieß
- TLDR: Proponiamo un’analisi del dialogo umano-machine basato sul linguaggio naturale e mostriamo che le interazioni tra le lingue possono essere utilizzate per migliorare le prestazioni di apprendimento.
- Understand before Answer: Improve Temporal Reading Comprehension via Precise Question Understanding
- Hao Huang, Xiubo Geng, Guodong Long, Daxin Jiang
- TLDR: Proponiamo un nuovo approccio per la comprensione del reading comprehension con precise question understanding.
- User-Driven Research of Medical Note Generation Software
- Tom Knoll, Francesco Moramarco, Alex Papadopoulos Korfiatis, Rachel Young, Claudia Ruffini, Mark Perera, Christian Perstl, Ehud Reiter, Anya Belz, Aleksandar Savkov
- TLDR: Proponiamo un sistema di note generative per la comunicazione sanitaria basato sulla CNN.
- Ask Me Anything in Your Native Language
- Nikita Sorokin, Dmitry Abulkhanov, Irina Piontkovskaya, Valentin Malykh
- TLDR: Proponiamo un nuovo approccio per question answering cross-lingual che combina la query e il passaggio per retrieval da una collezione multilingue, insieme con il generative reader cross-lingual.
- Diversifying Neural Dialogue Generation via Negative Distillation
- Yiwei Li, Shaoxiong Feng, Bin Sun, Kan Li
- TLDR: Proponiamo un nuovo metodo di training negativo per alleviare il problema della generic response.
- On Synthetic Data for Back Translation
- Jiahao Xu, Yubin Ruan, Wei Bi, Guoping Huang, Shuming Shi, Lihui Chen, Lemao Liu
- TLDR: Proponiamo un metodo semplice e efficace per generare dati sintetici per la back-translation.
- Mapping the Design Space of Human-AI Interaction in Text Summarization
- Ruijia Cheng, Alison Smith-Renner, Ke Zhang, Joel Tetreault, Alejandro Jaimes-Larrarte
- TLDR: Proponiamo un modello di text summarization per la generazione di testo umano-AI e la sua progettazione.
- Towards Robust and Semantically Organised Latent Representations for Unsupervised Text Style Transfer
- Sharan Narasimhan, Suvodip Dey, Maunendra Desarkar
- TLDR: Proponiamo un modello di perturbazione per il transfer dello stile tra testo e immagini utilizzando EPAAE.
- An Exploration of Post-Editing Effectiveness in Text Summarization
- Vivian Lai, Alison Smith-Renner, Ke Zhang, Ruijia Cheng, Wenjuan Zhang, Joel Tetreault, Alejandro Jaimes-Larrarte
- TLDR: Proponiamo un confronto tra il post-editing e la summarization manuale per migliorare la qualità del testo e la qualità della comunicazione.
- Automatic Correction of Human Translations
- Jessy Lin, Geza Kovacs, Aditya Shastry, Joern Wuebker, John DeNero
- TLDR: Proponiamo la correzione degli errori di traduzione umano-robotica, che migliora la qualità della traduzione.
- On the Robustness of Reading Comprehension Models to Entity Renaming
- Jun Yan, Yang Xiao, Sagnik Mukherjee, Bill Yuchen Lin, Robin Jia, Xiang Ren
- TLDR: Proponiamo un metodo per rimuovere le informazioni di origine dai modelli di reading comprehension.
- Explaining Why: How Instructions and User Interfaces Impact Annotator Rationales When Labeling Text Data
- Cynthia Sullivan, William Brackenbury, Andrew McNut, Kevin Bryson, Kbyllofficial@gmail.com Kbyllofficial@gmail.com, Yuxin Chen, Michael Littman, Chenhao Tan, Blase Ur
- TLDR: Proponiamo un nuovo metodo per selezionare le ragionamento di unità di ragionamento, e mostriamo che le informazioni di input possono essere scelte come ragionamento.
- Fine-tuning Pre-trained Language Models for Few-shot Intent Detection: Supervised Pre-training and Isotropization
- Haode Zhang, Haowen Liang, Yuwei Zhang, Li-Ming Zhan, Xiao-Ming Wu, Xiaolei Lu, Albert Lam
- TLDR: Proponiamo un metodo per regolare il pre-training supervisionato con isotropizzazione per migliorare le prestazioni di rilevamento degli intent few shot.
- Cross-document Misinformation Detection based on Event Graph Reasoning
- Xueqing Wu, Kung-Hsiang Huang, Yi Fung, Heng Ji
- TLDR: Proponiamo un nuovo task di rilevamento di misinformation cross-documental che utilizza la risoluzione di cross-document coreference per rilevare la misinformazione.
- Disentangled Action Recognition with Knowledge Bases
- Zhekun Luo, Shalini Ghosh, Devin Guillory, Keizo Kato, Trevor Darrell, Huijuan Xu
- TLDR: Proponiamo un modello di riconoscimento degli atti umani di azione compositivi che sfrutta il potere dei knowledge graph.
- Machine-in-the-Loop Rewriting for Creative Image Captioning
- Vishakh Padmakumar, He He
- TLDR: Proponiamo un modello di apprendimento automatico che modifica i parametri del testo del testo del testo del testo del testo del testo del testo per addestrare un modello di apprendimento collaborativo.
- A Word is Worth A Thousand Dollars: Adversarial Attack on Tweets Fools Stock Prediction
- Yong Xie, Dakuo Wang, Pin-Yu Chen, Jinjun Xiong, Sijia Liu, Oluwasanmi Koyejo
- TLDR: Proponiamo un adversarial attack per generare modelli di predizione stocastici per la simulazione di trading.
- Building Multilingual Machine Translation Systems That Serve Arbitrary XY Translations
- Akiko Eriguchi, Shufang Xie, Tao Qin, Hany Hassan
- TLDR: Proponiamo un modello di traduzione neurale multilingue che può servire in modo arbitrario la direzione X-Y e moltiplicare la sua capacità di multilingual translation.
- Non-Autoregressive Neural Machine Translation with Consistency Regularization Optimized Variational Framework
- Minghao Zhu, Junli Wang, Chungang Yan
- TLDR: Proponiamo una regolarizzazione posteriore della consistenza per la traduzione neurale non autoregressiva.
- User-Centric Gender Rewriting
- Bashar Alhafni, Nizar Habash, Houda Bouamor
- TLDR: Proponiamo un metodo per riscrivere il testo del linguaggio del mondo reale utilizzando il modello di rewriting basato sulla regolarizzazione e il modello pretrained.
- Reframing Human-AI Collaboration for Generating Free-Text Explanations
- Sarah Wiegreffe, Jack Hessel, Swabha Swayamdipta, Mark Riedl, Yejin Choi
- TLDR: Proponiamo un metodo per utilizzare GPT-3 per generare spiegazioni di testo in modo few shot.
- EmRel: Joint Representation of Entities and Embedded Relations for Multi-triple Extraction
- Benfeng Xu, Quan Wang, Yajuan Lyu, Yabing Shi, Yong Zhu, Jie Gao, Zhendong Mao
- TLDR: Proponiamo di esplorare le rappresentazioni delle interazioni tra le rappresentazioni delle interazioni.
- Meta Learning for Natural Language Processing: A Survey
- Hung-yi Lee, Shang-Wen Li, Thang Vu
- TLDR: Proponiamo un’analisi del meta-learning e dimostriamo che le sue applicazioni nel deep learning sono note.
- Analyzing Modality Robustness in Multimodal Sentiment Analysis
- Devamanyu Hazarika, Yingting Li, Bo Cheng, Shuai Zhao, Roger Zimmermann, Soujanya Poria
- TLDR: Proponiamo un metodo per verificare la robustezza di un modello di apprendimento multimodale.
- Fuse It More Deeply! A Variational Transformer with Layer-Wise Latent Variable Inference for Text Generation
- Jinyi Hu, Xiaoyuan Yi, Wenhao Li, Maosong Sun, Xing Xie
- TLDR: Proponiamo un nuovo metodo di generazione di testo per auto-regressive decoder.
- Easy Adaptation to Mitigate Gender Bias in Multilingual Text Classification
- Xiaolei Huang
- TLDR: Proponiamo un modello di domain adaptation standard per mitigare il bias di bias di diversità e migliorare le prestazioni di classificazione dei testi sotto setting multilingue.
- On the Use of External Data for Spoken Named Entity Recognition
- Ankita Pasad, Felix Wu, Suwon Shon, Karen Livescu, Kyu Han
- TLDR: Proponiamo un metodo per imparare modelli di riconoscimento vocale low-resource spoken named entity recognition (NER) e dimostriamo che le rappresentazioni di testo e la voce possono essere utilizzate per migliorare le prestazioni di comprensione del linguaggio parlato.
- Long-term Control for Dialogue Generation: Methods and Evaluation
- Ramya Ramakrishnan, Hashan Narangodage, Mauro Schilman, Kilian Weinberger, Ryan McDonald
- TLDR: Proponiamo un metodo di generazione di dialogo consapevoli di tempo di dialogo per la generazione di risposte di dialogo a lungo termine.
- Learning Dialogue Representations from Consecutive Utterances
- Zhihan Zhou, Dejiao Zhang, Wei Xiao, Nicholas Dingwall, Xiaofei Ma, Andrew Arnold, Bing Xiang
- TLDR: Proponiamo Dialogue Sentence Embedding (DSE), un metodo di contrastive learning self-supervised che impara rappresentazioni di dialogo efficaci adatte a un ampio rango di task di dialogo.
- On the Machine Learning of Ethical Judgments from Natural Language
- Zeerak Talat, Hagen Blix, Josef Valvoda, Maya Indira Ganesh, Ryan Cotterell, Adina Williams
- TLDR: Proponiamo un analisi critica dei metodi di apprendimento automatico per la predizione della moralità.
- NeuroLogic A*esque Decoding: Constrained Text Generation with Lookahead Heuristics
- Ximing Lu, Sean Welleck, Peter West, Liwei Jiang, Jungo Kasai, Daniel Khashabi, Ronan Le Bras, Lianhui Qin, Youngjae Yu, Rowan Zellers, Noah Smith, Yejin Choi
- TLDR: Proponiamo un metodo per decodificare il testo neurale utilizzando autoregressive language model.
- PARADISE: Exploiting Parallel Data for Multilingual Sequence-to-Sequence Pretraining
- Machel Reid, Mikel Artetxe
- TLDR: Proponiamo un metodo di pretraining multilingue per addestrare modelli di sequenza-to-sequence.
- Explaining Toxic Text via Knowledge Enhanced Text Generation
- Rohit Sridhar, Diyi Yang
- TLDR: Proponiamo un nuovo encoder-decoder knowledge-informed per generare spiegazioni di speech toxico per il speech toxic.
- Teaching BERT to Wait: Balancing Accuracy and Latency for Streaming Disfluency Detection
- Angelica Chen, Vicky Zayats, Daniel Walker, Dirk Padfield
- TLDR: Proponiamo un modello di tagger selettivo basato sulla BERT per rilevare le disfluenze in tempo reale e la stabilità.
- GRAM: Fast Fine-tuning of Pre-trained Language Models for Content-based Collaborative Filtering
- Yoonseok Yang, Kyu Seok Kim, Minsam Kim, Juneyoung Park
- TLDR: Proponiamo GRAM per il filtro collaborativo basato sul contenuto, che migliora la precisione di training e la latency di aggiornamento.
- Generating Repetitions with Appropriate Repeated Words
- Toshiki Kawamoto, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura
- TLDR: Proponiamo Weighted Label Smoothing, un metodo di smoothing per imparare explicitamente quali parole sono da ripetere durante fine-tuning, e un metodo di scorrimento per generare le ripetizioni durante decodifica.
- Textless Speech-to-Speech Translation on Real Data
- Ann Lee, Hongyu Gong, Paul-Ambroise Duquenne, Holger Schwenk, Peng-Jen Chen, Changhan Wang, Sravya Popuri, Yossi Adi, Juan Pino, Jiatao Gu, Wei-Ning Hsu
- TLDR: Proponiamo un sistema di traduzione speech-to-speech che può essere costruito senza bisogno di dati di testo e che può essere addestrato con dati reali di S2ST.
- WALNUT: A Benchmark on Semi-weakly Supervised Learning for Natural Language Understanding
- Guoqing Zheng, Giannis Karamanolakis, Kai Shu, Ahmed Awadallah
- TLDR: Proponiamo un benchmark di supervisione weakly supervised per NLU.
- CompactIE: Compact Facts in Open Information Extraction
- Farima Fatahi Bayat, Nikita Bhutani, H. Jagadish
- TLDR: Proponiamo un nuovo metodo per rilevare le traiettorie di composizione di un campionamento di sample di OpenIE.
- CoSIm: Commonsense Reasoning for Counterfactual Scene Imagination
- Hyounghun Kim, Abhay Zala, Mohit Bansal
- TLDR: Proponiamo Commonsense Reasoning for Counterfactual Scene Imagination (CoSIm) per valutare la capacità di sistemi AI di ragionamento sulla scena cambia e la sua applicazione al task di apprendimento multimodale.
- Abstraction not Memory: BERT and the English Article System
- Harish Tayyar Madabushi, Dagmar Divjak, Petar Milin
- TLDR: Proponiamo BERT per la predizione degli articoli.
- OmniTab: Pretraining with Natural and Synthetic Data for Few-shot Table-based Question Answering
- Zhengbao Jiang, Yi Mao, Pengcheng He, Graham Neubig, Weizhu Chen
- TLDR: Proponiamo un modello di question answering basato sulla tavolozza per question answering.
- Provably Confidential Language Modelling
- Xuandong Zhao, Lei Li, Yu-Xiang Wang
- TLDR: Proponiamo un metodo per imparare a trattare le informazioni di privacy in modo confidenziale.
- KAT: A Knowledge Augmented Transformer for Vision-and-Language
- Liangke Gui, Borui Wang, Qiuyuan Huang, Alexander Hauptmann, Yonatan Bisk, Jianfeng Gao
- TLDR: Proponiamo un approccio di knowledge augmentation per risolvere il problema della capacità di ragionamento tra knowledge aggregate implicito e obiettivo.
- When a sentence does not introduce a discourse entity, Transformer-based models still sometimes refer to it
- Sebastian Schuster, Tal Linzen
- TLDR: Proponiamo una suite di valutazioni linguistiche per il rilevamento degli entity tracking dei modelli di Transformer basati sul modello di apprendimento di parole e frasi.
- On Curriculum Learning for Commonsense Reasoning
- Adyasha Maharana, Mohit Bansal
- TLDR: Proponiamo un metodo di apprendimento per migliorare le prestazioni di classificazione dei modelli di apprendimento per commonsense reasoning.
- DocTime: A Document-level Temporal Dependency Graph Parser
- Puneet Mathur, Vlad Morariu, Verena Kaynig-Fittkau, Jiuxiang Gu, Franck Dernoncourt, Quan Tran, Ani Nenkova, Dinesh Manocha, Rajiv Jain
- TLDR: Proponiamo DocTime - un parser parser di dependency graph temporali che prende come input un testo e produce un grafio temporali.
- FactPEGASUS: Factuality-Aware Pre-training and Fine-tuning for Abstractive Summarization
- David Wan, Mohit Bansal
- TLDR: Proponiamo FactPEGASUS, un modello di summarization abstractiva per il fine-tuning e il pre-training.
- ScAN: Suicide Attempt and Ideation Events Dataset
- Bhanu Pratap Singh Rawat, Samuel Kovaly, Hong Yu, Wilfred Pigeon
- TLDR: Proponiamo un modello di ricerca multi-task per rilevare le informazioni di comportamento suicidale nelle note sanitarie EHR.
- Socially Aware Bias Measurements for Hindi Language Representations
- Vijit Malik, Sunipa Dev, Akihiro Nishi, Nanyun Peng, Kai-Wei Chang
- TLDR: Proponiamo un’analisi di rappresentazioni linguistiche in cui il bias sociale è codificato da bias sociali.
- AmbiPun: Generating Humorous Puns with Ambiguous Context
- Anirudh Mittal, Yufei Tian, Nanyun Peng
- TLDR: Proponiamo un metodo per generare frasi di pun che non richiedono alcun training su precedenti frasi.
- EmpHi: Generating Empathetic Responses with Human-like Intents
- Mao Yan Chen, Siheng Li, Yujiu Yang
- TLDR: Proponiamo un nuovo modello per generare risposte empatiche con intenti umani con una distribuzione di intenti umani correlati.
- Yes, No or IDK: The Challenge of Unanswerable Yes/No Questions
- Elior Sulem, Jamaal Hay, Dan Roth
- TLDR: Proponiamo di addestrare il task di QA sì/no utilizzando una risposta IDK.
- Inducing and Using Alignments for Transition-based AMR Parsing
- Andrew Drozdov, Jiawei Zhou, Radu Florian, Andrew McCallum, Tahira Naseem, Yoon Kim, Ramón Astudillo
- TLDR: Proponiamo un’architettura neurale per l’apprendimento di alignmenti node-to-word senza relying su pipeline complessie.
- Masked Part-Of-Speech Model: Does Modeling Long Context Help Unsupervised POS-tagging?
- Xiang Zhou, Shiyue Zhang, Mohit Bansal
- TLDR: Proponiamo un modello di induction per la dipendenza dai tag, ispirato dalla recente applicazione di Masked Language Model (MLM), che può modellare la dipendenza dai tag e eseguire la ricostruzione di una parte di scena.
- DREAM: Improving Situational QA by First Elaborating the Situation
- Yuling Gu, Bhavana Dalvi, Peter Clark
- TLDR: Proponiamo un nuovo modello di QA che fornisce informazioni di scena per rispondere alle domande.
- CoSe-Co: Text Conditioned Generative CommonSense Contextualizer
- Rachit Bansal, Milan Aggarwal, Sumit Bhatia, Jivat Kaur, Balaji Krishnamurthy
- TLDR: Proponiamo un modello di apprendimento per la generazione di knowledge con un framework di apprendimento multi-choice e open-ended.
- Probing via Prompting
- Jiaoda Li, Ryan Cotterell, Mrinmaya Sachan
- TLDR: Proponiamo un nuovo approccio di probing via prompting che formula il probing come un task di predizione e che migliora le prestazioni di apprendimento dei modelli di apprendimento.
- Database Search Results Disambiguation for Task-Oriented Dialog Systems
- Kun Qian, Satwik Kottur, Ahmad Beirami, Shahin Shayandeh, Paul Crook, Alborz Geramifard, Zhou Yu, Chinnadhurai Sankar
- TLDR: Proponiamo un nuovo task di ricerca di risultati di ricerca di database basato sulla disambiguazione, che migliora le prestazioni di dialogo su DSR-disambiguation.
- Unsupervised Slot Schema Induction for Task-oriented Dialog
- Dian Yu, Mingqiu Wang, Yuan Cao, Izhak Shafran, Laurent Shafey, Hagen Soltau
- TLDR: Proponiamo un approccio di induction di schema da corpora dialogici non annotati per risolvere il problema dello schema di dialogo.
- Towards a Progression-Aware Autonomous Dialogue Agent
- Abraham Sanders, Tomek Strzalkowski, Mei Si, Albert Chang, Deepanshu Dey, Jonas Braasch, Dakuo Wang
- TLDR: Proponiamo un framework per dialogue agents che possono valutare la progressione di una conversazione verso o da obiettivi desiderati, e utilizzare questo signal per informersi della strategia di pianificazione.
- Cross-Domain Detection of GPT-2-Generated Technical Text
- Juan Rodriguez, Todd Hay, David Gros, Zain Shamsi, Ravi Srinivasan
- TLDR: Proponiamo un metodo per rilevare il testo di ricerca tecnica GPT-2 generato da un adversarial generatore di testo sintetico.
- DISAPERE: A Dataset for Discourse Structure in Peer Review Discussions
- Neha Kennard, Tim O’Gorman, Rajarshi Das, Akshay Sharma, Chhandak Bagchi, Matthew Clinton, Pranay Kumar Yelugam, Hamed Zamani, Andrew McCallum
- TLDR: Proponiamo DISAPERE, un dataset di 20k frasi annotate in linguaggi anglosi, annotate da esperti.
- MultiSpanQA: A Dataset for Multi-Span Question Answering
- Haonan Li, Martin Tomko, Maria Vasardani, Timothy Baldwin
- TLDR: Proponiamo un dataset di question answering multi-span che si basa su question answering multi-span.
- Context-Aware Abbreviation Expansion Using Large Language Models
- Shanqing Cai, Subhashini Venugopalan, Katrin Tomanek, Ajit Narayanan, Meredith Morris, Michael Brenner
- TLDR: Proponiamo un nuovo modo di addestrare le conversazioni per ridurre la quantità di testo che può essere usato per aumentare le prestazioni di apprendimento.
- Theory-Grounded Measurement of U.S. Social Stereotypes in English Language Models
- Yang Cao, Anna Sotnikova, Hal Daumé III, Rachel Rudinger, Linda Zou
- TLDR: Proponiamo un modello di apprendimento per la misurazione di identità interscala in modelli di apprendimento automatico.
- Sort by Structure: Language Model Ranking as Dependency Probing
- Max Müller-Eberstein, Rob Goot, Barbara Plank
- TLDR: Proponiamo un metodo per valutare le LM per la parsing delle dipendenze in un dato linguaggio.
- Quantifying Synthesis and Fusion and their Impact on Machine Translation
- Arturo Oncevay, Duygu Ataman, Niels Van Berkel, Barry Haddow, Alexandra Birch, Johannes Bjerva
- TLDR: Proponiamo di quantificare la morphological diversity per la traduzione di linguaggi e dimostriamo che le morphologie possono essere classificate utilizzando due indice: sintesi e fusion.
- Commonsense and Named Entity Aware Knowledge Grounded Dialogue Generation
- Deeksha Varshney, Akshara Prabhakar, Asif Ekbal
- TLDR: Proponiamo un nuovo modello di dialogue generation open-domain che sfrutta la conoscenza comune e la conoscenza basata sulla conoscenza basata sulla conoscenza basata sulla conoscenza basata sulla conoscenza basata sulla conoscenza.
- Efficient Hierarchical Domain Adaptation for Pretrained Language Models
- Alexandra Chronopoulou, Matthew Peters, Jesse Dodge
- TLDR: Proponiamo un metodo per adattare il dominio per molte diverse domini utilizzando un approccio efficiente di adattamento computazionale.
- Hatemoji: A Test Suite and Adversarially-Generated Dataset for Benchmarking and Detecting Emoji-Based Hate
- Hannah Kirk, Bertie Vidgen, Paul Rottger, Tristan Thrush, Scott Hale
- TLDR: Proponiamo HatemojiCheck, una test suite di 3,930 esempi brevi e lunghi che permette di valutare le prestazioni su linguaggio parlato e parlato e su parole e frasi e parole.
- On the Economics of Multilingual Few-shot Learning: Modeling the Cost-Performance Trade-offs of Machine Translated and Manual Data
- Kabir Ahuja, Monojit Choudhury, Sandipan Dandapat
- TLDR: Proponiamo un framework per valutare le prestazioni e il trade-off tra dati di translazione machine-to-machine e dati di apprendimento multilingue per fine-tuning di modelli di training multilingue.
- Learning to Selectively Learn for Weakly Supervised Paraphrase Generation with Model-based Reinforcement Learning
- Haiyan Yin, Dingcheng Li, Ping Li
- TLDR: Proponiamo un nuovo approccio di generazione di parafrasi weakly supervised che sfrutta il reinforcement learning per migliorare le prestazioni allo stato dell’arte su quattro task di generazione di parafrasi weakly supervised.
- Quality-Aware Decoding for Neural Machine Translation
- Patrick Fernandes, António Farinhas, Ricardo Rei, José De Souza, Perez Ogayo, Graham Neubig, Andre Martins
- TLDR: Un’analisi del decoding neurale per la traduzione tramite beam
- Pretrained Models for Multilingual Federated Learning
- Orion Weller, Marc Marone, Vladimir Braverman, Dawn Lawrie, Benjamin Van Durme
- TLDR: Proponiamo un metodo di Federated Learning per risolvere il problema di multilingualization.
- AcTune: Uncertainty-Based Active Self-Training for Active Fine-Tuning of Pretrained Language Models
- Yue Yu, Lingkai Kong, Jieyu Zhang, Rongzhi Zhang, Chao Zhang
- TLDR: Proponiamo AcTune, un nuovo framework per migliorare la capacità di fine-tuning delle auto-apprendimento e auto-training dei language model.
- Label Anchored Contrastive Learning for Language Understanding
- Zhenyu Zhang, Yuming Zhao, Meng Chen, Xiaodong He
- TLDR: Proponiamo un nuovo approccio di contrastive learning basato sulla label per l’apprendimento di modelli di apprendimento contrastivo.
- Go Back in Time: Generating Flashbacks in Stories with Event Temporal Prompts
- Rujun Han, Hong Chen, Yufei Tian, Nanyun Peng
- TLDR: Proponiamo un metodo per generare storie e storie end-to-end utilizzando reinforcement learning e strutturate storylines strutturate.
- Forecasting COVID-19 Caseloads Using Unsupervised Embedding Clusters of Social Media Posts
- Felix Drinkall, Stefan Zohren, Janet Pierrehumbert
- TLDR: Proponiamo un nuovo approccio incorporando i modelli di linguaggio basati sul trasformatore nel modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello di modello.
- Many Hands Make Light Work: Using Essay Traits to Automatically Score Essays
- Rahul Kumar, Sandeep Mathias, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: Un metodo per imparare il metodo per valutare il punteggio
- Natural Language Inference with Self-Attention for Veracity Assessment of Pandemic Claims
- Miguel Arana-Catania, Elena Kochkina, Arkaitz Zubiaga, Maria Liakata, Robert Procter, Yulan He
- TLDR: Proponiamo un nuovo metodo per valutare la veracezza dei dati di predizione basato sulla Natural Language Inference.
- Beyond Emotion: A Multi-Modal Dataset for Human Desire Understanding
- Ao Jia, Yu He, Yazhou Zhang, Sagar Uprety, Dawei Song, Christina Lioma
- TLDR: Proponiamo un nuovo dataset per la comprensione del desiderio umano multi-task e multi-modal.
- Relation-Specific Attentions over Entity Mentions for Enhanced Document-Level Relation Extraction
- Jiaxin Yu, Deqing Yang, Shuyu Tian
- TLDR: Proponiamo un metodo di attention selective per document-level relation extraction che può essere utilizzato per ottenere rappresentazioni di relazioni di testo e di rappresentazioni di relazioni di testo.
- Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal Misinformation
- Giscard Biamby, Grace Luo, Trevor Darrell, Anna Rohrbach
- TLDR: Proponiamo un metodo per rilevare i media fuori contesto, basato sul modello CLIP, che sfrutta automaticamente le stesse stesse stesse stesse stessezze di testo e immagini.
- BlonDe: An Automatic Evaluation Metric for Document-level Machine Translation
- Yuchen Jiang, Tianyu Liu, Shuming Ma, Dongdong Zhang, Jian Yang, Haoyang Huang, Rico Sennrich, Ryan Cotterell, Mrinmaya Sachan, Ming Zhou
- TLDR: Proponiamo una nuova metric per valutare la qualità della traduzione da livello di testo a livello di documento.
- Disentangled Learning of Stance and Aspect Topics for Vaccine Attitude Detection in Social Media
- Lixing Zhu, Zheng Fang, Gabriele Pergola, Robert Procter, Yulan He
- TLDR: Proponiamo un nuovo approccio semi-supervisionato per rilevare le attitudini di vaccinazione.
- SKILL: Structured Knowledge Infusion for Large Language Models
- Fedor Moiseev, Zhe Dong, Enrique Alfonseca, Martin Jaggi
- TLDR: Proponiamo un metodo per incoraggiare la strutturazione della conoscenza strutturata in LLM, tramite training di modelli di knowledge graph su KG.
- Same Neurons, Different Languages: Probing Morphosyntax in Multilingual Pre-trained Models
- Karolina Stanczak, Edoardo Ponti, Lucas Torroba Hennigen, Ryan Cotterell, Isabelle Augenstein
- TLDR: Proponiamo un nuovo metodo per studiare la cross-lingual overlap tra i modelli pre-trained multilingualizzati.
- Aspect Is Not You Need: No-aspect Differential Sentiment Framework for Aspect-based Sentiment Analysis
- Jiahao Cao, Rui Liu, Huailiang Peng, Lei Jiang, Xu Bai
- TLDR: Proponiamo un framework di sentiment differential per l’apprendimento basato sull’immagine per la valutazione del sentiment basato sull’immagine.
- MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided Adaptation
- Simiao Zuo, Qingru Zhang, Chen Liang, Pengcheng He, Tuo Zhao, Weizhu Chen
- TLDR: Proponiamo un metodo di distillation di knowledge per addestrare MoEBERT.
- Implicit n-grams Induced by Recurrence
- Xiaobing Sun, Wei Lu
- TLDR: Proponiamo un nuovo metodo per addestrare RNN spiegabili e robusti per la modellazione di fenomeni linguistici.
- Guiding Visual Question Generation
- Nihir Vedd, Zixu Wang, Marek Rei, Yishu Miao, Lucia Specia
- TLDR: Proponiamo una nuova generazione di domande VQG guidate da modelli impliciti guidati da un actor che possono scegliere quali oggetti e categorie per generare una domanda.
- OPERA: Operation-Pivoted Discrete Reasoning over Text
- Yongwei Zhou, Junwei Bao, Chaoqun Duan, Haipeng Sun, Jiahui Liang, Yifan Wang, Jing Zhao, Youzheng Wu, Xiaodong He, Tiejun Zhao
- TLDR: Proponiamo OPERA, un framework di ragionamento discreto che utilizza le operazioni simboliche come module neural per facilitare la ragionamento e l’interpretabilità.
- Improving Multi-Document Summarization through Referenced Flexible Extraction with Credit-Awareness
- Yun-Zhu Song, Yi-Syuan Chen, Hong-Han Shuai
- TLDR: Proponiamo un framework di apprendimento per la multi-document summarization utilizzando un modello di apprendimento per l’apprendimento di un extract-then-abstract.
- Improving Constituent Representation with Hypertree Neural Networks
- Hao Zhou, Gongshen Liu, Kewei Tu
- TLDR: Proponiamo un modello di rappresentazione dello span neurale basato su HTNN che combina le informazioni di composizione e rappresentazione dello span con le informazioni di composizione.
- Measuring Fairness with Biased Rulers: A Comparative Study on Bias Metrics for Pre-trained Language Models
- Pieter Delobelle, Ewoenam Tokpo, Toon Calders, Bettina Berendt
- TLDR: Proponiamo un’analisi empirica per valutare la compatibilità tra le metriche di fairness e le metriche di bias per i language model.
- MuCPAD: A Multi-Domain Chinese Predicate-Argument Dataset
- Yahui Liu, Haoping Yang, Chen Gong, Qingrong Xia, Zhenghua Li, Min Zhang
- TLDR: Proponiamo MuCPAD, un dataset di predicate-argument multi-domain, che contiene 30,897 frasi e 92,051 predicate da cinque diversi domini.
- Representation Learning for Conversational Data using Discourse Mutual Information Maximization
- Bishal Santra, Sumegh Roychowdhury, Aishik Mandal, Vasu Gurram, Atharva Naik, Manish Gupta, Pawan Goyal
- TLDR: Proponiamo un modello di dialogo-apprendimento basato sulla loss-function per la generazione di informazioni strutturali per la comprensione del dialogo.
- ValCAT: Variable-Length Contextualized Adversarial Transformations Using Encoder-Decoder Language Model
- Chuyun Deng, Mingxuan Liu, Yue Qin, Jia Zhang, Hai-Xin Duan, Donghong Sun
- TLDR: Proponiamo ValCAT, un attacco black-box che mislead il language model applicando trasformazioni contextuali a lunghezza variabile a un testo di origine e origine.
- A Study of Syntactic Multi-Modality in Non-Autoregressive Machine Translation
- Kexun Zhang, Rui Wang, Xu Tan, Junliang Guo, Yi Ren, Tao Qin, Tie-Yan Liu
- TLDR: Proponiamo un nuovo algoritmo di apprendimento NAT con loss per risolvere la multimodality e la cross entropy.
- CIAug: Equipping Interpolative Augmentation with Curriculum Learning
- Ramit Sawhney, Ritesh Soun, Shrey Pandit, Megh Thakkar, Sarvagya Malaviya, Yuval Pinter
- TLDR: Proponiamo un metodo di apprendimento basato sul mixup che combina la selezione del sample e la augmentation dei dati.
- Proposition-Level Clustering for Multi-Document Summarization
- Ori Ernst, Avi Caciularu, Ori Shapira, Ramakanth Pasunuru, Mohit Bansal, Jacob Goldberger, Ido Dagan
- TLDR: Proponiamo un metodo di clustering per multi-document summarization.
- Non-Autoregressive Machine Translation: It’s Not as Fast as it Seems
- Jindřich Helcl, Barry Haddow, Alexandra Birch
- TLDR: Proponiamo un modello di traduzione efficiente basato su GAN per la traduzione efficiente.
- BAD-X: Bilingual Adapters Improve Zero-Shot Cross-Lingual Transfer
- Marinela Parović, Goran Glavaš, Ivan Vulić, Anna Korhonen
- TLDR: Proponiamo un nuovo metodo per imparare language pair adattive (BA) per la traduzione multilingue.
- Combining Humor and Sarcasm for Improving Political Parody Detection
- Xiao Ao, Danae Sanchez Villegas, Daniel Preotiuc-Pietro, Nikolaos Aletras
- TLDR: Proponiamo un modello multiencoder per la modellazione di parody in tweet con la funzione di humor e la funzione di sarcasmo.
- TIE: Topological Information Enhanced Structural Reading Comprehension on Web Pages
- Zihan Zhao, Lu Chen, Ruisheng Cao, Hongshen Xu, Xingyu Chen, Kai Yu
- TLDR: Proponiamo un modello di topologia per la lettura strutturale strutturato da informazioni topologiche.
- RSTGen: Imbuing Fine-Grained Interpretable Control into Long-FormText Generators
- Rilwan Adewoyin, Ritabrata Dutta, Yulan He
- TLDR: Proponiamo un modello di generazione di testo che utilizza la teoria della struttura della lingua per controllare la struttura del linguaggio e la struttura del linguaggio.
- Intent Detection and Discovery from User Logs via Deep Semi-Supervised Contrastive Clustering
- Rajat Kumar, Mayur Patidar, Vaibhav Varshney, Lovekesh Vig, Gautam Shroff
- TLDR: Proponiamo un metodo di clustering per rilevare gli intenti degli utenti in ambienti di dialogo.
- Extending Multi-Text Sentence Fusion Resources via Pyramid Annotations
- Daniela Brook Weiss, Paul Roit, Ori Ernst, Ido Dagan
- TLDR: Proponiamo un nuovo dataset per la fusione di frasi e un nuovo dataset per la sintesi di frasi.
- The Devil is in the Details: On the Pitfalls of Vocabulary Selection in Neural Machine Translation
- Tobias Domhan, Eva Hasler, Ke Tran, Sony Trenous, Bill Byrne, Felix Hieber
- TLDR: Proponiamo un modello di selezione del linguaggio per la traduzione neurale basata sulla selezione del linguaggio.
- MultiCite: Modeling realistic citations requires moving beyond the single-sentence single-label setting
- Anne Lauscher, Brandon Ko, Bailey Kuehl, Sophie Johnson, Arman Cohan, David Jurgens, Kyle Lo
- TLDR: Proponiamo MULTICITE, un dataset di 12.6K citation context da 1.2K paper computazionali che modella le dinamiche di citazione e mostra che MULTICITE può essere utilizzato per sviluppare nuovi metodi computazionali su tre task di CCA.
- DEGREE: A Data-Efficient Generation-Based Event Extraction Model
- I-Hung Hsu, Kuan-Hao Huang, Elizabeth Boschee, Scott Miller, Prem Natarajan, Kai-Wei Chang, Nanyun Peng
- TLDR: Proponiamo un modello di extrazione degli eventi che utilizza la teoria della generazione condizionale per risolvere il problema di extrazione degli eventi.
- Bridging the Gap between Language Models and Cross-Lingual Sequence Labeling
- Nuo Chen, Linjun Shou, Ming Gong, Jian Pei, Daxin Jiang
- TLDR: Proponiamo un nuovo metodo per imparare sequenze di parole e frasi utilizzando un modello di sequenza di parole e frasi.
- Hero-Gang Neural Model For Named Entity Recognition
- Jinpeng Hu, Yaling Shen, Yang Liu, Xiang Wan, Tsung-Hui Chang
- TLDR: Proponiamo un nuovo modello di riconoscimento delle NLP basato su Transformer per sfruttare le informazioni globali e locali per promuovere la NER.
- MGIMN: Multi-Grained Interactive Matching Network for Few-shot Text Classification
- Jianhai Zhang, Mieradilijiang Maimaiti, Gao Xing, Yuanhang Zheng, Ji Zhang
- TLDR: Proponiamo un metodo di meta-learning basato sul modello MGIMN che combina la ricerca in àmbito di classe e aggregation per generare matching class-wise piuttosto che la ricerca di matching class-wise.
- All You May Need for VQA are Image Captions
- Soravit Changpinyo, Doron Kukliansy, Idan Szpektor, Xi Chen, Nan Ding, Radu Soricut
- TLDR: Proponiamo un metodo per generare VQA sample da dati di input e output utilizzando modelli di apprendimento automatico e modelli di apprendimento neurale.
- Frustratingly Easy System Combination for Grammatical Error Correction
- Muhammad Qorib, Seung-Hoon Na, Hwee Tou Ng
- TLDR: Proponiamo una combinazione di sistemi per grammatical error correction che migliora le prestazioni di apprendimento di un semplice task di binarizzazione binaria.
- Simple Local Attentions Remain Competitive for Long-Context Tasks
- Wenhan Xiong, Barlas Oguz, Anchit Gupta, Xilun Chen, Diana Liskovich, Omer Levy, Scott Yih, Yashar Mehdad
- TLDR: Proponiamo un modello di QA efficiente per task di apprendimento long-range.
- Even the Simplest Baseline Needs Careful Re-investigation: A Case Study on XML-CNN
- Si-An Chen, Jie-jyun Liu, Tsung-Han Yang, Hsuan-Tien Lin, Chih-Jen Lin
- TLDR: Proponiamo un modello di deep learning basato su XML-CNN che mostra risultati allo stato dell’arte.
- Multi-Relational Graph Transformer for Automatic Short Answer Grading
- Rajat Agarwal, Varun Khurana, Karish Grover, Mukesh Mohania, Vikram Goyal
- TLDR: Proponiamo un graph transformer multi-relazionale per automatizzare il short answer gradiering.
- Event Schema Induction with Double Graph Autoencoders
- Xiaomeng Jin, Manling Li, Heng Ji
- TLDR: Proponiamo un nuovo metodo di induction degli eventi basato su autoencoder di grafi variazionali per imparare la struttura globale degli eventi.
- CS1QA: A Dataset for Assisting Code-based Question Answering in an Introductory Programming Course
- Changyoon Lee, Yeon Seonwoo, Alice Oh
- TLDR: Proponiamo un dataset di question answering basato sul codice per question answering nel dominio dell’apprendimento.
- Unsupervised Cross-Lingual Transfer of Structured Predictors without Source Data
- Kemal Kurniawan, Lea Frermann, Philip Schulz, Trevor Cohn
- TLDR: Proponiamo un metodo per transfer di dati da più modelli di input per la predizione strutturata.
- Don’t Take It Literally: An Edit-Invariant Sequence Loss for Text Generation
- Guangyi Liu, Zichao Yang, Tianhua Tao, Xiaodan Liang, Junwei Bao, Zhen Li, Xiaodong He, Shuguang Cui, Zhiting Hu
- TLDR: Proponiamo una nuova loss di sequenza di input per la generazione di testo neurale.
- Modeling Exemplification in Long-form Question Answering via Retrieval
- Shufan Wang, Fangyuan Xu, Laure Thompson, Eunsol Choi, Mohit Iyyer
- TLDR: Proponiamo di trattare l’esemplificazione come un processo di spiegazione e di clarificazione del testo, e dimostriamo che non tutte le metriche ROUGE sono sufficientemente valutate per valutare la qualità dell’esempio.
- D2U: Distance-to-Uniform Learning for Out-of-Scope Detection
- Eyup Yilmaz, Cagri Toraman
- TLDR: Proponiamo un metodo di post-processing per rilevare le utterances fuori scope (OOS) in sistemi conversazionali.
- Reference-free Summarization Evaluation via Semantic Correlation and Compression Ratio
- Yizhu Liu, Qi Jia, Kenny Zhu
- TLDR: Proponiamo una nuova metric di valutazione automatica senza riferimento che confronta la distribuzione semantica tra il documento di sintesi e il testo di sintesi e valuta la coerenza, la rilevanza e la fluency.
- KroneckerBERT: Significant Compression of Pre-trained Language Models Through Kronecker Decomposition and Knowledge Distillation
- Marzieh Tahaei, Ella Charlaix, Vahid Nia, Ali Ghodsi, Mehdi Rezagholizadeh
- TLDR: Proponiamo un modello di compressione pre-trained di linguaggio naturale basato sulla decomposizione di Kronecker per la compressione di modelli di linguaggio naturale.
- Building a Role Specified Open-Domain Dialogue System Leveraging Large-Scale Language Models
- Sanghwan Bae, Donghyun Kwak, Sungdong Kim, Donghoon Ham, Soyoung Kang, Sang-Woo Lee, Woomyoung Park
- TLDR: Proponiamo un modello di dialogo open-domain che raggiunge risultati allo stato dell’arte su termini di dialogo e conversazione.
- Sentence-Level Resampling for Named Entity Recognition
- Xiaochen Wang, Yue Wang
- TLDR: Proponiamo un metodo di resampling dello spazio di parole per il riconoscimento delle entità named.
- Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem
- Ryoma Sato
- TLDR: Proponiamo WordTour, word embedding unsupervised one-dimensionali, e mostriamo che la loro applicazione è efficace per gestire la comunicazione tra parole e parole.
- On the Diversity and Limits of Human Explanations
- Chenhao Tan
- TLDR: Proponiamo un’analisi di diversi tipi di spiegazioni umane nel deep learning.
- Locally Aggregated Feature Attribution on Natural Language Model Understanding
- Sheng Zhang, Jin Wang, Haitao Jiang, Rui Song
- TLDR: Proponiamo un metodo di attribution basato sul gradiente per deep learning.
- Generic and Trend-aware Curriculum Learning for Relation Extraction
- Nidhi Vakil, Hadi Amiri
- TLDR: Proponiamo un approccio di curriculum learning generico e aware che integra efficacemente informazioni strutturali e testuali nei grafi per relation extraction tra entities, che possiamo considerare come nodue pair in grafi.
- On Systematic Style Differences between Unsupervised and Supervised MT and an Application for High-Resource Machine Translation
- Kelly Marchisio, Markus Freitag, David Grangier
- TLDR: Proponiamo un metodo per combinare le prestazioni di traduzione tra supervisione e unsupervisione per ottenere un output più simile alla traduzione umana.
- Evidentiality-guided Generation for Knowledge-Intensive NLP Tasks
- Akari Asai, Matt Gardner, Hannaneh Hajishirzi
- TLDR: Un metodo per incorporare la generazione di testo neurale utilizzando deep learning
- Modularized Transfer Learning with Multiple Knowledge Graphs for Zero-shot Commonsense Reasoning
- Yu Jin Kim, Beong-woo Kwak, Youngwook Kim, Reinald Kim Amplayo, Seung-won Hwang, Jinyoung Yeo
- TLDR: Proponiamo di utilizzare la knowledge aggregation per risolvere il problema di commonsense reasoning.
- Learning to Express in Knowledge-Grounded Conversation
- Xueliang Zhao, Tingchen Fu, Chongyang Tao, Wei Wu, Dongyan Zhao, Rui Yan
- TLDR: Proponiamo un modello di generazione di dialogo basato sulla segmentazione per scoprire il pattern di espressione della conoscenza in un contesto di dialogo.
- End-to-End Chinese Speaker Identification
- Dian Yu, Ben Zhou, Dong Yu
- TLDR: Proponiamo un metodo di apprendimento end-to-end per l’identificazione degli speaker in testo.
- MINION: a Large-Scale and Diverse Dataset for Multilingual Event Detection
- Amir Pouran Ben Veyseh, Minh Van Nguyen, Franck Dernoncourt, Thien Nguyen
- TLDR: Proponiamo un dataset multilingue per il rilevamento degli eventi che fornisce annotazione e conoscenza di eventi per 8 lingue.
- Do Prompt-Based Models Really Understand the Meaning of Their Prompts?
- Albert Webson, Ellie Pavlick
- TLDR: Proponiamo un modello di apprendimento basato sul predizione che può imparare in modo simile a quello di apprendimento umano quando fornito con instructions di task sintetici.
- GPL: Generative Pseudo Labeling for Unsupervised Domain Adaptation of Dense Retrieval
- Kexin Wang, Nandan Thakur, Nils Reimers, Iryna Gurevych
- TLDR: Proponiamo un metodo di domain adaptation unsupervised per risolvere il problema di domain adaptation.
- Sparse Distillation: Speeding Up Text Classification by Using Bigger Student Models
- Qinyuan Ye, Madian Khabsa, Mike Lewis, Sinong Wang, Xiang Ren, Aaron Jaech
- TLDR: Proponiamo un nuovo metodo per distillare le prestazioni di apprendimento dei modelli di trasformazione dei trasformatori in modelli di student.
- Towards Understanding Large-Scale Discourse Structures in Pre-Trained and Fine-Tuned Language Models
- Patrick Huber, Giuseppe Carenini
- TLDR: Proponiamo un nuovo metodo per catturare informazioni di comunicazione tra task di fine-tuning e apprendimento.
- SAIS: Supervising and Augmenting Intermediate Steps for Document-Level Relation Extraction
- Yuxin Xiao, Zecheng Zhang, Yuning Mao, Carl Yang, Jiawei Han
- TLDR: Proponiamo di imparare a modellare le informazioni chiave per la relation extraction tramite supervisione e augmentation dei step intermedi per RE.
- LITE: Intent-based Task Representation Learning Using Weak Supervision
- Naoki Otani, Michael Gamon, Sujay Kumar Jauhar, Mei Yang, Sri Raghu Malireddi, Oriana Riva
- TLDR: Proponiamo un modello di multi-task learning neurale per gestire il to-do task.
- Does Summary Evaluation Survive Translation to Other Languages?
- Spencer Braun, Oleg Vasilyev, Neslihan Iskender, John Bohannon
- TLDR: Proponiamo un metodo per valutare la qualità della summarization in termini di equivalenza tra testo umano e testo umano.
- A Shoulder to Cry on: Towards A Motivational Virtual Assistant for Assuaging Mental Agony
- Tulika Saha, Saichethan Reddy, Anindya Das, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: Un’analisi del problema della qualità del training di mental health
- SueNes: A Weakly Supervised Approach to Evaluating Single-Document Summarization via Negative Sampling
- Forrest Bao, Ge Luo, Hebi Li, Minghui Qiu, Yinfei Yang, Youbiao He, Cen Chen
- TLDR: Proponiamo un metodo di valutazione del testo weakly supervised senza la presenza di summari correlati.
- Combating the Curse of Multilinguality in Cross-Lingual WSD by Aligning Sparse Contextualized Word Representations
- Gábor Berend
- TLDR: Proponiamo di utilizzare grandi modelli di apprendimento multilingue pre-trained in modo di disambiguazione di parole sparse in modo di utilizzare la disambiguazione di parole sparse per la comprensione di un insieme di lingue.
- Cheat Codes to Quantify Missing Source Information in Neural Machine Translation
- Proyag Pal, Kenneth Heafield
- TLDR: Un metodo per quantificare l’atomogramma di informazioni
- WiC = TSV = WSD: On the Equivalence of Three Semantic Tasks
- Bradley Hauer, Grzegorz Kondrak
- TLDR: Proponiamo di ridurre le prestazioni di classificazione dei sistemi e di disambiguazione delle risorse di apprendimento di WSD e dimostriamo che le prestazioni di apprendimento di WSD sono equivalenti.
- What do tokens know about their characters and how do they know it?
- Ayush Kaushal, Kyle Mahowald
- TLDR: Proponiamo un metodo per imparare le informazioni di caratteri di origine e di origine in modo da poter imparare le informazioni di caratteri di origine e di origine.
- AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer Summarization
- Alexander Fabbri, Xiaojian Wu, Srini Iyer, Haoran Li, Mona Diab
- TLDR: Proponiamo un nuovo dataset di 4,631 domande CQA per rispondere alla domanda e un nuovo approccio per aumentare la qualità della risposta e la coverage.
- Paragraph-based Transformer Pre-training for Multi-Sentence Inference
- Luca Di Liello, Siddhant Garg, Luca Soldaini, Alessandro Moschitti
- TLDR: Proponiamo un nuovo obiettivo di fine-tuning per la modellazione della semantica tra più frasi per risolvere i task di inferenza multi-canale.
- Text Style Transfer via Optimal Transport
- Nasim Nouri
- TLDR: Proponiamo un metodo per convertire il testo in stile da stile formale a stile informale mantenendo il suo contenuto.
- Exploring the Role of Task Transferability in Large-Scale Multi-Task Learning
- Vishakh Padmakumar, Leonard Lausen, Miguel Ballesteros, Sheng Zha, He He, George Karypis
- TLDR: Proponiamo un metodo per imparare rappresentazioni multi-task con un grande numero di task diversi.
- Interactive Query-Assisted Summarization via Deep Reinforcement Learning
- Ori Shapira, Ramakanth Pasunuru, Mohit Bansal, Ido Dagan, Yael Amsterdamer
- TLDR: Proponiamo due nuovi modelli di deep reinforcement learning per il task di summarization interattiva che riducono la qualità di apprendimento e preservano la positive user experience.
- Data Augmentation with Dual Training for Offensive Span Detection
- Nasim Nouri
- TLDR: Proponiamo un nuovo metodo per rilevare la presenza di span in un setting di training multi-training per l’apprendimento di testi offensivi.
- Training Mixed-Domain Translation Models via Federated Learning
- Peyman Passban, Tanya Roosta, Rahul Gupta, Ankit Chadha, Clement Chung
- TLDR: Proponiamo un nuovo metodo per sfruttare le proprietà FL per migliorare la qualità della comunicazione tra le parti FL.
- QAFactEval: Improved QA-Based Factual Consistency Evaluation for Summarization
- Alexander Fabbri, Chien-Sheng Wu, Wenhao Liu, Caiming Xiong
- TLDR: Proponiamo QAFactEval, una nuova metric per valutare la factual consistency dei modelli di summarization.
- How Gender Debiasing Affects Internal Model Representations, and Why It Matters
- Hadas Orgad, Seraphina Goldfarb-Tarrant, Yonatan Belinkov
- TLDR: Proponiamo un metodo per misurare il bias intrinseco dei modelli NLP.
- A Structured Span Selector
- Tianyu Liu, Yuchen Jiang, Ryan Cotterell, Mrinmaya Sachan
- TLDR: Proponiamo un modello strutturato basato sulla grammatica per la selezione degli span per task di natural language processing.
- Unified Semantic Typing with Meaningful Label Inference
- James Y. Huang, Bangzheng Li, Jiashu Xu, Muhao Chen
- TLDR: Proponiamo un nuovo metodo per il semantic typing che cattura la semantica nelle informazioni di classe e nelle categorie di testo.
- Learning To Retrieve Prompts for In-Context Learning
- Ohad Rubin, Jonathan Herzig, Jonathan Berant
- TLDR: Proponiamo un metodo efficiente per recuperare i feedback di training di un modello di apprendimento in-context utilizzando annotati dati e un LM.
- Necessity and Sufficiency for Explaining Text Classifiers: A Case Study in Hate Speech Detection
- Esma Balkir, Isar Nejadgholi, Kathleen Fraser, Svetlana Kiritchenko
- TLDR: Proponiamo un metodo per spiegare i classificatori di testo, e analizziamo il suo impatto nel contesto del rilevamento del speech di odio.
- Learning to Retrieve Passages without Supervision
- Ori Ram, Gal Shachaf, Omer Levy, Jonathan Berant, Amir Globerson
- TLDR: Proponiamo un nuovo metodo per riutilizzare la struttura dello spazio per generare pseudo esempi per contrastive learning.
- Re2G: Retrieve, Rerank, Generate
- Michael Glass, Gaetano Rossiello, Md Faisal Mahbub Chowdhury, Ankita Naik, Pengshan Cai, Alfio Gliozzo
- TLDR: Proponiamo Re2G, un metodo di retrieval e di generazione di sequenze selettive basato sulla knowledge distillation per migliorare la capacità di trasformazione dei transformer.
- Don’t sweat the small stuff, classify the rest: Sample Shielding to protect text classifiers against adversarial attacks
- Jonathan Rusert, Padmini Srinivasan
- TLDR: Proponiamo un metodo di difesa per DL text classification che può essere difesa da adversarial attack utilizzando una strategia di sampling intuitiva.
- Federated Learning with Noisy User Feedback
- Rahul Sharma, Anil Ramakrishna, Ansel MacLaughlin, Anna Rumshisky, Jimit Majmudar, Clement Chung, Salman Avestimehr, Rahul Gupta
- TLDR: Proponiamo un metodo per addestrare modelli di Federated Learning utilizzando feedback negativi e positive.
- Gender Bias in Masked Language Models for Multiple Languages
- Masahiro Kaneko, Aizhan Imankulova, Danushka Bollegala, Naoaki Okazaki
- TLDR: Proponiamo Multilingual Bias Evaluation (MBE), un metodo per valutare il bias di bias di linguaggi diversi utilizzando solo corpora e parole di origine e destinazione.
- Multi-Domain Targeted Sentiment Analysis
- Orith Toledo-Ronen, Matan Orbach, Yoav Katz, Noam Slonim
- TLDR: Proponiamo un modello multi-domain per la valutazione del giudizio di targeted sentiment analysis.
- Falsesum: Generating Document-level NLI Examples for Recognizing Factual Inconsistency in Summarization
- Prasetya Utama, Joshua Bambrick, Nafise Moosavi, Iryna Gurevych
- TLDR: Proponiamo un modello di summarization neurale per rilevare la factual incongruenza nella generazione di informazioni.
- Dynamic Gazetteer Integration in Multilingual Models for Cross-Lingual and Cross-Domain Named Entity Recognition
- Besnik Fetahu, Anjie Fang, Oleg Rokhlenko, Shervin Malmasi
- TLDR: Proponiamo un nuovo approccio per risolvere il gap di conoscenza tra le regioni e le regioni utilizzando gating di token e gazetteer.
- MetaICL: Learning to Learn In Context
- Sewon Min, Mike Lewis, Luke Zettlemoyer, Hannaneh Hajishirzi
- TLDR: Proponiamo MetaICL, un nuovo metodo di meta-training per few shot learning dove un pretrained language model è tuned a dotare il modello di in-context learning di una buona qualità di apprendimento.
- Enhancing Knowledge Selection for Grounded Dialogues via Document Semantic Graphs
- Sha Li, Mahdi Namazifar, Di Jin, Mohit Bansal, Heng Ji, Yang Liu, Dilek Hakkani-Tur
- TLDR: Proponiamo di convertire i documenti di background conoscenza in documenti semantici e dimostriamo che la selezione basata sulla selezione dei grafi migliora la generalizzazione su topic non visti.
- Using Natural Sentence Prompts for Understanding Biases in Language Models
- Sarah Alnegheimish, Alicia Guo, Yi Sun
- TLDR: Proponiamo di utilizzare i modelli di apprendimento automatico per valutare le bias di apprendimento nei bias di occupation.
- Robust Conversational Agents against Imperceptible Toxicity Triggers
- Ninareh Mehrabi, Ahmad Beirami, Fred Morstatter, Aram Galstyan
- TLDR: Proponiamo un metodo per difendersi efficacemente dagli attacchi di toxicity da sistemi di apprendimento automatico.
- Selective Differential Privacy for Language Modeling
- Weiyan Shi, Aiqi Cui, Evan Li, Ruoxi Jia, Zhou Yu
- TLDR: Proponiamo una privacy policy per language model basati sulla privacy.
- Do Trajectories Encode Verb Meaning?
- Dylan Ebert, Chen Sun, Ellie Pavlick
- TLDR: Proponiamo un modello di apprendimento di rappresentazioni di parole da testo basato su trajectory e diamo analisi teoriche e pratiche per quantificare la semantica dei termini.
- Long Context Question Answering via Supervised Contrastive Learning
- Avi Caciularu, Ido Dagan, Jacob Goldberger, Arman Cohan
- TLDR: Proponiamo un nuovo metodo per equippare i modelli di question answering QA con un obiettivo di sequenza a livello di sequenza per migliorare l’identificazione della fonte di supporto.
- The USMLE® Step 2 Clinical Skills Patient Note Corpus
- Victoria Yaneva, Janet Mee, Le Ha, Polina Harik, Michael Jodoin, Alex Mechaber
- TLDR: Proponiamo un corpus di 43,985 patient notes cliniche scritte da 35,156 examinees durante la valutazione di clinical skills.
- Learning to Borrow– Relation Representation for Without-Mention Entity-Pairs for Knowledge Graph Completion
- Huda Hakami, Mona Hakami, Angrosh Mandya, Danushka Bollegala
- TLDR: Proponiamo diversi metodi per integrare i knowledge graph con i text corpora.
- Improving Entity Disambiguation by Reasoning over a Knowledge Base
- Tom Ayoola, Joseph Fisher, Andrea Pierleoni
- TLDR: Proponiamo un modello di disambiguazione di entity che collega le informazioni strutturate delle knowledge base con le informazioni simboliche.
- Modal Dependency Parsing via Language Model Priming
- Jiarui Yao, Nianwen Xue, Bonan Min
- TLDR: Proponiamo un parser di dependency parsing modale basato su modelli di linguaggi pre-trained, e lo valutiamo su due dataset.
- Document-Level Relation Extraction with Sentences Importance Estimation and Focusing
- Wang Xu, Kehai Chen, Lili Mou, Tiejun Zhao
- TLDR: Proponiamo un framework di stima della Importance e Focusing per DocRE, che migliora le prestazioni di apprendimento dei modelli di relation extraction.
- Are All the Datasets in Benchmark Necessary? A Pilot Study of Dataset Evaluation for Text Classification
- Yang Xiao, Jinlan Fu, See-Kiong Ng, Pengfei Liu
- TLDR: Proponiamo un modello per prevedere la discriminazione dei dati di input e output.
- Triggerless Backdoor Attack for NLP Tasks with Clean Labels
- Leilei Gan, Jiwei Li, Tianwei Zhang, Xiaoya Li, Yuxian Meng, Fei Wu, Yi Yang, Shangwei Guo, Chun Fan
- TLDR: Proponiamo un nuovo metodo per attaccare i dati di testo di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input
- PPL-MCTS: Constrained Textual Generation Through Discriminator-Guided MCTS Decoding
- Antoine Chaffin, Vincent Claveau, Ewa Kijak
- TLDR: Proponiamo un metodo di decodifica di Monte Carlo Tree Search guidato da score di discriminazione per decodificare la generazione di testo plausivo senza fine-tuning.
- Interpretable Proof Generation via Iterative Backward Reasoning
- Hanhao Qu, Yu Cao, Jun Gao, Liang Ding, Ruifeng Xu
- TLDR: Proponiamo IBR, un modello di ragionamento backward per risolvere la generazione di risposte di domande basate sul questionario.
- Domain Confused Contrastive Learning for Unsupervised Domain Adaptation
- Quanyu Long, Tianze Luo, Wenya Wang, Sinno Pan
- TLDR: Proponiamo Domain Confused Contrastive Learning (DCCL), un metodo di contrasto per l’apprendimento di augmentation di domini confusi.
- Incorporating Centering Theory into Neural Coreference Resolution
- Haixia Chai, Michael Strube
- TLDR: Proponiamo di incorporare le transition di centroing derive dalla teoria del centroing in un modello di coerenza neurale per risolvere la risoluzione di coerenza nel testo e nella forma del testo.
- Progressive Class Semantic Matching for Semi-supervised Text Classification
- Haiming Xu, Lingqiao Liu, Ehsan Abbasnejad
- TLDR: Proponiamo un approccio di apprendimento semi-supervisionato con PLM per costruire un framework di apprendimento standard.
- Low Resource Style Transfer via Domain Adaptive Meta Learning
- Xiangyang Li, Xiang Long, Yu Xia, Sujian Li
- TLDR: Proponiamo un nuovo approccio di meta-learning per il transfer di stile testo unsupervised basato su adversarial training per la preservazione del contenuto e il transfer dello stile.
- Features or Spurious Artifacts? Data-centric Baselines for Fair and Robust Hate Speech Detection
- Alan Ramponi, Sara Tonelli
- TLDR: Proponiamo un nuovo metodo per rilevare le parole di attacco nel rilevamento del speech off-distribution.
- Document-Level Event Argument Extraction by Leveraging Redundant Information and Closed Boundary Loss
- Hanzhang Zhou, Kezhi Mao
- TLDR: Proponiamo un modello di cross entropy loss per addestrare classificatori di classe.
- A Few Thousand Translations Go a Long Way! Leveraging Pre-trained Models for African News Translation
- David Adelani, Jesujoba Alabi, Angela Fan, Julia Kreutzer, Xiaoyu Shen, Machel Reid, Dana Ruiter, Dietrich Klakow, Peter Nabende, Ernie Chang, Tajuddeen Gwadabe, Freshia Sackey, Bonaventure F. P. Dossou, Chris Emezue, Colin Leong, Michael Beukman, Shamsuddeen Muhammad, Guyo Jarso, Oreen Yousuf, Andre Niyongabo Rubungo, Gilles Hacheme, Eric Peter Wairagala, Muhammad Umair Nasir, Benjamin Ajibade, Tunde Ajayi, Yvonne Gitau, Jade Abbott, Mohamed Ahmed, Millicent Ochieng, Anuoluwapo Aremu, Perez Ogayo, Jonathan Mukiibi, Fatoumata Ouoba Kabore, Godson Kalipe, Derguene Mbaye, Allahsera Auguste Tapo, Victoire Memdjokam Koagne, Edwin Munkoh-Buabeng, Valencia Wagner, Idris Abdulmumin, Ayodele Awokoya, Happy Buzaaba, Blessing Sibanda, Andiswa Bukula, Sam Manthalu
- TLDR: Proponiamo un corpus di news per 16 lingue e un corpus di news per 16 lingue.
- Should We Rely on Entity Mentions for Relation Extraction? Debiasing Relation Extraction with Counterfactual Analysis
- Yiwei Wang, Muhao Chen, Wenxuan Zhou, Yujun Cai, Yuxuan Liang, Dayiheng Liu, Baosong Yang, Juncheng Liu, Bryan Hooi
- TLDR: Proponiamo un metodo di debiasing basato sulla valutazione counterfactuale per l’apprendimento di modelli RE.
- Analyzing Encoded Concepts in Transformer Language Models
- Hassan Sajjad, Nadir Durrani, Fahim Dalvi, Firoj Alam, Abdul Khan, Jia Xu
- TLDR: Proponiamo un nuovo framework per studiare come i concetti latenti sono codificati nelle rappresentazioni apprese nei modelli di lan-guage.
- Boosted Dense Retriever
- Patrick Lewis, Barlas Oguz, Wenhan Xiong, Fabio Petroni, Scott Yih, Sebastian Riedel
- TLDR: Proponiamo un ensemble di retrieval denso ispirato al boosting per la ricerca di informazioni da dati di ricerca.
- MuCGEC: a Multi-Reference Multi-Source Evaluation Dataset for Chinese Grammatical Error Correction
- Yue Zhang, Zhenghua Li, Zuyi Bao, Jiacheng Li, Bo Zhang, Chen Li, Fei Huang, Min Zhang
- TLDR: Proponiamo MuCGEC, un dataset multi-source per Grammatical Error Correction (CGEC), che raccoglie 7,063 frasi da tre source di apprendimento di linguaggi diversi.
- NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias
- Nayeon Lee, Yejin Bang, Tiezheng Yu, Andrea Madotto, Pascale Fung
- TLDR: Proponiamo un nuovo task di apprendimento multi-task per la generazione di sintesi neurale di articoli di argomento e argomento.
- Enhance Incomplete Utterance Restoration by Joint Learning Token Extraction and Text Generation
- Shumpei Inoue, Tsungwei Liu, Son Nguyen, Minh-Tien Nguyen
- TLDR: Proponiamo un modello per la ripresa dell’utterenza incompleta che può essere utilizzato per la generazione di token e la generazione di testo.
- Efficient Constituency Tree based Encoding for Natural Language to Bash Translation
- Shikhar Bharadwaj, Shirish Shevade
- TLDR: Proponiamo un modello di invocation segmentato per risolvere il problema di traduzione da linguaggio naturale a linguaggio basato sul comando.
- Privacy-Preserving Text Classification on BERT Embeddings with Homomorphic Encryption
- Garam Lee, Minsoo Kim, Jai Hyun Park, Seung-won Hwang, Jung Hee Cheon
- TLDR: Proponiamo un metodo di privatizzazione per embedding basato sulla decryption homomorphica per la protezione degli embedding BERT.
- ITA: Image-Text Alignments for Multi-Modal Named Entity Recognition
- Xinyu Wang, Min Gui, Yong Jiang, Zixia Jia, Nguyen Bach, Tao Wang, Zhongqiang Huang, Kewei Tu
- TLDR: Proponiamo un modello di riconoscimento multi-modale di entità basato sulla rappresentazione visiva delle immagini e sulla rappresentazione del testo.
- A Dataset for N-ary Relation Extraction of Drug Combinations
- Aryeh Tiktinsky, Vijay Viswanathan, Danna Niezni, Dana Meron Azagury, Yosi Shamay, Hillel Taub-Tabib, Tom Hope, Yoav Goldberg
- TLDR: Proponiamo un dataset di relation extraction per la ricerca di combinazioni di farmaci.
- Curriculum: A Broad-Coverage Benchmark for Linguistic Phenomena in Natural Language Understanding
- Zeming Chen, Qiyue Gao
- TLDR: Proponiamo Curriculum come un nuovo formato di benchmark NLI per la valutazione di fenomeni linguistici.
- Neural Language Taskonomy: Which NLP Tasks are the most Predictive of fMRI Brain Activity?
- Subba Reddy Oota, Jashn Arora, Veeral Agarwal, Mounika Marreddy, Manish Gupta, Bapi Surampudi
- TLDR: Proponiamo un metodo di transfer learning da rappresentazioni di task popolari per l’encoding del cervello basato sul testo per la predizione di risposte cerebrali.
- FactGraph: Evaluating Factuality in Summarization with Semantic Graph Representations
- Leonardo Ribeiro, Mengwen Liu, Iryna Gurevych, Markus Dreyer, Mohit Bansal
- TLDR: Proponiamo un metodo per decomporre il documento e la sua sintesi in rappresentazioni strutturate di significato (MR) più adatte per la valutazione della factuality.
- Unsupervised Paraphrasability Prediction for Compound Nominalizations
- John Sie Yuen Lee, Ho Hung Lim, Carol Carol Webster
- TLDR: Proponiamo un metodo per generare paraphrase per la predizione di paraphrasabilità e la generazione di paraphrase per la predizione di paraphrasability.
- Global Entity Disambiguation with BERT
- Ikuya Yamada, Koki Washio, Hiroyuki Shindo, Yuji Matsumoto
- TLDR: Proponiamo un modello di disambiguazione globale delle entità basato su BERT per l’apprendimento di modelli di disambiguazione globale delle informazioni contestuali.
- Clues Before Answers: Generation-Enhanced Multiple-Choice QA
- Zixian Huang, Ao Wu, Jiaying Zhou, Yu Gu, Yue Zhao, Gong Cheng
- TLDR: Proponiamo un modello generativo per question answering multiple-choice che sfrutta la conoscenza di un decoder-decoder pre-trained per generare un clue da una domanda e sfruttare la conoscenza di un decoder-decoder per migliorare la classificazione.
- Towards Efficient NLP: A Standard Evaluation and A Strong Baseline
- Xiangyang Liu, Tianxiang Sun, Junliang He, Jiawen Wu, Lingling Wu, Xinyu Zhang, Hao Jiang, Zhao Cao, Xuanjing Huang, Xipeng Qiu
- TLDR: Proponiamo un benchmark per valutare la qualità dei modelli di NLP efficienti.
- Stylized Knowledge-Grounded Dialogue Generation via Disentangled Template Rewriting
- Qingfeng Sun, Can Xu, Huang Hu, Yujing Wang, Jian Miao, Xiubo Geng, Yining Chen, Fei Xu, Daxin Jiang
- TLDR: Proponiamo un metodo di disentangled template rewriting per la generazione di dialogo con knowledge e stile.
- LUNA: Learning Slot-Turn Alignment for Dialogue State Tracking
- Yifan Wang, Jing Zhao, Junwei Bao, Chaoqun Duan, Youzheng Wu, Xiaodong He
- TLDR: Proponiamo un metodo di dialogo state tracking migliorato per accelerare il dialogo.
- Crossroads, Buildings and Neighborhoods: A Dataset for Fine-grained Location Recognition
- Pei Chen, Haotian Xu, Cheng Zhang, Ruihong Huang
- TLDR: Proponiamo un nuovo dataset HarveyNER con informazioni di posizione annotate in tweet.
- Tricks for Training Sparse Translation Models
- Dheeru Dua, Shruti Bhosale, Vedanuj Goswami, James Cross, Mike Lewis, Angela Fan
- TLDR: Proponiamo un metodo per mitigare la distribuzione di dati in modo stabile e denso per multi-task learning.
- Persona-Guided Planning for Controlling the Protagonist’s Persona in Story Generation
- Zhexin Zhang, Jiaxin Wen, Jian Guan, Minlie Huang
- TLDR: Proponiamo un modello di generazione basato sulla pianificazione per gestire la persona del protagonista attraverso una sequenza di eventi.
- CHEF: A Pilot Chinese Dataset for Evidence-Based Fact-Checking
- Xuming Hu, Zhijiang Guo, GuanYu Wu, Aiwei Liu, Lijie Wen, Philip Yu
- TLDR: Proponiamo un dataset di fact-checking basato sulla ricerca di informazioni e la teoria della verace per la predizione di claims non bilingui.
- VGNMN: Video-grounded Neural Module Networks for Video-Grounded Dialogue Systems
- Hung Le, Nancy Chen, Steven Hoi
- TLDR: Proponiamo VGNMN per risolvere il dialogo video-grounded utilizzando la pipeline di moduli neurali.
- Multimodal Dialogue State Tracking
- Hung Le, Nancy Chen, Steven Hoi
- TLDR: Proponiamo di addestrare VDTN per dialogue state tracking multimodale.
- On the Use of Bert for Automated Essay Scoring: Joint Learning of Multi-Scale Essay Representation
- Yongjie Wang, Chuang Wang, Ruobing Li, Hui Lin
- TLDR: Proponiamo una rappresentazione multi-scala di articoli per BERT che può essere jointly addestrata.
- Recognition of They/Them as Singular Personal Pronouns in Coreference Resolution
- Connor Baumler, Rachel Rudinger
- TLDR: Proponiamo un benchmark per sistemi di coerenza che valuta il riconoscimento personal di “they” in modo singulare.
- TWEETSPIN: Fine-grained Propaganda Detection in Social Media Using Multi-View Representations
- Prashanth Vijayaraghavan, Soroush Vosoughi
- TLDR: Proponiamo un metodo neurale per rilevare e classificare la propaganda sui social media.
- UserIdentifier: Implicit User Representations for Simple and Effective Personalized Sentiment Analysis
- Fatemehsadat Mireshghallah, Vaishnavi Shrivastava, Milad Shokouhi, Taylor Berg-Kirkpatrick, Robert Sim, Dimitrios Dimitriadis
- TLDR: Proponiamo UserIdentifier, un nuovo metodo per addestrare un singolo modello per tutti gli utenti.
- Improving Neural Models for Radiology Report Retrieval with Lexicon-based Automated Annotation
- Luyao Shi, Tanveer Syeda-mahmood, Tyler Baldwin
- TLDR: Proponiamo di addestrare un modello di ricerca per la ricerca di informazioni cliniche utilizzando le informazioni di input.
- Transparent Human Evaluation for Image Captioning
- Jungo Kasai, Keisuke Sakaguchi, Lavinia Dunagan, Jacob Morrison, Ronan Le Bras, Yejin Choi, Noah Smith
- TLDR: Proponiamo un metodo di valutazione umano basato sulla valutazione della riproduzione per image captioning.
- Lifting the Curse of Multilinguality by Pre-training Modular Transformers
- Jonas Pfeiffer, Naman Goyal, Xi Lin, Xian Li, James Cross, Sebastian Riedel, Mikel Artetxe
- TLDR: Proponiamo un nuovo metodo per addestrare i moduli di cross-lingual modulation per addestrare le funzioni di riconoscimento delle immagini e la traduzione.
- DocAMR: Multi-Sentence AMR Representation and Evaluation
- Tahira Naseem, Austin Blodgett, Sadhana Kumaravel, Tim O’Gorman, Young-Suk Lee, Jeffrey Flanigan, Ramón Astudillo, Radu Florian, Salim Roukos, Nathan Schneider
- TLDR: Proponiamo un metodo per parsing grafi AMR in modo unificato, che permette di rivedere la qualità del parsing AMR.
- Learning to Transfer Prompts for Text Generation
- Junyi Li, Tianyi Tang, Jian-Yun Nie, Ji-Rong Wen, Xin Zhao
- TLDR: Proponiamo un metodo di apprendimento basato sul feedback per la generazione di testo in un setting transferable.
- ElitePLM: An Empirical Study on General Language Ability Evaluation of Pretrained Language Models
- Junyi Li, Tianyi Tang, Zheng Gong, Lixin Yang, Zhuohao Yu, Zhipeng Chen, Jingyuan Wang, Xin Zhao, Ji-Rong Wen
- TLDR: Proponiamo un ampio studio empirico sulla valutazione generalizzata della capacità di linguaggio di PLM (ElitePLM) per la valutazione di una varietà di task.
- Bidimensional Leaderboards: Generate and Evaluate Language Hand in Hand
- Jungo Kasai, Keisuke Sakaguchi, Ronan Le Bras, Lavinia Dunagan, Jacob Morrison, Alexander Fabbri, Yejin Choi, Noah Smith
- TLDR: Proponiamo un modello di leaderboard bidimensionale per la generazione di testi e metriche per la valutazione di modelli di generazione di testi e metriche di valutazione di modelli di generazione di testi e metriche di valutazione di modelli di generazione di testi e metriche di valutazione di modelli di generazione di testi.
- Improving In-Context Few-Shot Learning via Self-Supervised Training
- Mingda Chen, Jingfei Du, Ramakanth Pasunuru, Todor Mihaylov, Srini Iyer, Veselin Stoyanov, Zornitsa Kozareva
- TLDR: Proponiamo di utilizzare la self-supervision per il training di obiettivi few shot.
- Exposing the Limits of Video-Text Models through Contrast Sets
- Jae Sung Park, Sheng Shen, Ali Farhadi, Trevor Darrell, Yejin Choi, Anna Rohrbach
- TLDR: Proponiamo un framework per valutare video-text modelli con hard negatives.
- Zero-shot Sonnet Generation with Discourse-level Planning and Aesthetics Features
- Yufei Tian, Nanyun Peng
- TLDR: Proponiamo un nuovo metodo per generare sonnet senza training su testi.
- Benchmarking Intersectional Biases in NLP
- John Lalor, Yi Yang, Kendall Smith, Nicole Forsgren, Ahmed Abbasi
- TLDR: Proponiamo un metodo per debiasing i modelli di natural language processing su diversi task di predizione.
- When is BERT Multilingual? Isolating Crucial Ingredients for Cross-lingual Transfer
- Ameet Deshpande, Partha Talukdar, Karthik Narasimhan
- TLDR: Proponiamo un metodo empirico per misurare il transfer di testo multilingue tra quattro diverse lingue e loro counterparts.
- How Conservative are Language Models? Adapting to the Introduction of Gender-Neutral Pronouns
- Stephanie Brandl, Ruixiang Cui, Anders Søgaard
- TLDR: Proponiamo di risolvere il problema della conservazione dei caratteri di origine e di origine e dimostriamo che le parole gender-neutrali non sono correlate con le prestazioni di processing umano.
- Prompt Waywardness: The Curious Case of Discretized Interpretation of Continuous Prompts
- Daniel Khashabi, Xinxi Lyu, Sewon Min, Lianhui Qin, Kyle Richardson, Sean Welleck, Hannaneh Hajishirzi, Tushar Khot, Ashish Sabharwal, Sameer Singh, Yejin Choi
- TLDR: Proponiamo un modo di interpretare i risultati di fine-tuning continuo dei task utilizzando una visione discreta del problema che è fedele al problema che risolvono.
- Contrastive Representation Learning for Cross-Document Coreference Resolution of Events and Entities
- Benjamin Hsu, Graham Horwood
- TLDR: Un metodo di contrastive representation learning per risolvere la coerenza tra entity e eventi
- Learning the Ordering of Coordinate Compounds and Elaborate Expressions in Hmong, Lahu, and Chinese
- Chenxuan Cui, Katherine Zhang, David Mortensen
- TLDR: Proponiamo un modello di classificazione semantica per imparare il ordering di espressioni e composizioni complessi in Hmong, Lahu e Chinese.
- FRUIT: Faithfully Reflecting Updated Information in Text
- Robert Iv, Alexandre Passos, Sameer Singh, Ming-Wei Chang
- TLDR: Proponiamo un nuovo task di generazione di articoli in testo (FRUIT) dove il goal è quello di aggiornare un articolo di Wikipedia dato nuove informazioni.
- Multi2WOZ: A Robust Multilingual Dataset and Conversational Pretraining for Task-Oriented Dialog
- Chia-Chien Hung, Anne Lauscher, Ivan Vulić, Simone Ponzetto, Goran Glavaš
- TLDR: Proponiamo Multi2WOZ, un dataset multilingue multi-domain per il dialogo multi-task-oriented dialog (TOD), che contiene dialoghi di alto livello in diversi linguaggi.
- ChapterBreak: A Challenge Dataset for Long-Range Language Models
- Simeng Sun, Katherine Thai, Mohit Iyyer
- TLDR: Proponiamo un nuovo dataset di apprendimento per language model long-range.
- ColBERTv2: Effective and Efficient Retrieval via Lightweight Late Interaction
- Keshav Santhanam, Omar Khattab, Jon Saad-Falcon, Christopher Potts, Matei Zaharia
- TLDR: Proponiamo ColBERTv2, un retriever che combina il residuo compressione con una strategia di supervisione denoizzata per migliorare simultaneamente la qualità e lo spazio footprint di late interaction.
- Quantifying Language Variation Acoustically with Few Resources
- Martijn Bartelds, Martijn Wieling
- TLDR: Proponiamo un nuovo metodo per imparare le informazioni linguistiche da modelli acoustici profondi.
- Adaptable Adapters
- Nafise Moosavi, Quentin Delfosse, Kristian Kersting, Iryna Gurevych
- TLDR: Proponiamo di utilizzare le stesse architetture di adattamento per ogni dataset utilizzando un minimo di un layer di attivazione e un minimo di un layer di attivazione.
- Models in the Loop: Aiding Crowdworkers with Generative Annotation Assistants
- Max Bartolo, Tristan Thrush, Sebastian Riedel, Pontus Stenetorp, Robin Jia, Douwe Kiela
- TLDR: Proponiamo Generative Adversarial Data Collection (DADC) per la ricerca di modelli di annotazione che possono approssimare, modificare o riject completamente.
- GMN: Generative Multi-modal Network for Practical Document Information Extraction
- Haoyu Cao, Jiefeng Ma, Antai Guo, Yiqing Hu, Hao Liu, Deqiang Jiang, Yinsong Liu, Bo Ren
- TLDR: Proponiamo una Generative Multi-Modal Network per risolvere il problema della generazione multi-modale senza categorie definite.
- One Reference Is Not Enough: Diverse Distillation with Reference Selection for Non-Autoregressive Translation
- Chenze Shao, Xuanfu Wu, Yang Feng
- TLDR: Proponiamo diverse distillation con reference selection per la traduzione neurale neurale.
- Can Rationalization Improve Robustness?
- Howard Chen, Jacqueline He, Karthik Narasimhan, Danqi Chen
- TLDR: Proponiamo un nuovo metodo per generare ragionamento e previsioni per addestrare modelli di rationalization.
- On the Effectiveness of Sentence Encoding for Intent Detection Meta-Learning
- Tingting Ma, Qianhui Wu, Zhiwei Yu, Tiejun Zhao, Chin-Yew Lin
- TLDR: Proponiamo un metodo per migliorare la qualità della rappresentazione delle frasi per few shot intent detection.
- A Computational Acquisition Model for Multimodal Word Categorization
- Uri Berger, Gabriel Stanovsky, Omri Abend, Lea Frermann
- TLDR: Proponiamo un modello di apprendimento multimodale, cognitivamente ispirato, che impara capacità di riconoscimento e di classificazione degli oggetti e dimostriamo che le sue prestazioni sono comparabili con quelle degli auto-supervisioni.
- Residue-Based Natural Language Adversarial Attack Detection
- Vyas Raina, Mark Gales
- TLDR: Proponiamo un modello di rilevamento di adversarial image adversarial basato sulla sentence-embedding per il rilevamento di immagini di input.
- Does it Really Generalize Well on Unseen Data? Systematic Evaluation of Relational Triple Extraction Methods
- Juhyuk Lee, Min-Joong Lee, June Yong Yang, Eunho Yang
- TLDR: Proponiamo un metodo per aumentare le prestazioni di generalizzazione degli extraction model esistenti.
- From spoken dialogue to formal summary: An utterance rewriting for dialogue summarization
- Yue Fang, Hainan Zhang, Hongshen Chen, Zhuoye Ding, Bo Long, Yanyan Lan, Yanquan Zhou
- TLDR: Proponiamo ReWriteSum per risolvere il problema della sintesi del dialogo.
- EASE: Entity-Aware Contrastive Learning of Sentence Embedding
- Sosuke Nishikawa, Ryokan Ri, Ikuya Yamada, Yoshimasa Tsuruoka, Isao Echizen
- TLDR: Proponiamo EASE, un nuovo metodo per imparare sentence embedding tramite contrastive learning tra le frasi e le loro interazioni.
- Is Neural Topic Modelling Better than Clustering? An Empirical Study on Clustering with Contextual Embeddings for Topics
- Zihan Zhang, Meng Fang, Ling Chen, Mohammad Reza Namazi Rad
- TLDR: Proponiamo un modello di topic neural network per clustering sentence embedding.
- Dynamic Multistep Reasoning based on Video Scene Graph for Video Question Answering
- Jianguo Mao, Wenbin Jiang, Xiangdong Wang, Zhifan Feng, Yajuan Lyu, Hong Liu, Yong Zhu
- TLDR: Proponiamo un nuovo modello di question answering video che può eseguire ragionamento multi-step tra domande e video.
- TRUE: Re-evaluating Factual Consistency Evaluation
- Or Honovich, Roee Aharoni, Jonathan Herzig, Hagai Taitelbaum, Doron Kukliansy, Vered Cohen, Thomas Scialom, Idan Szpektor, Avinatan Hassidim, Yossi Matias
- TLDR: Proponiamo un metodo di meta-evaluazione basato sulla teoria per valutare la factual consistency dei modelli di apprendimento basati sulla generazione di domande e risposte.
- Knowledge Inheritance for Pre-trained Language Models
- Yujia Qin, Yankai Lin, Jing Yi, Jiajie Zhang, Xu Han, Zhengyan Zhang, Yusheng Su, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou
- TLDR: Proponiamo un nuovo metodo di pre-training per imparare PLM di grandi dimensioni.
- Bi-SimCut: A Simple Strategy for Boosting Neural Machine Translation
- Pengzhi Gao, Zhongjun He, Hua Wu, Haifeng Wang
- TLDR: Proponiamo Bi-SimCut: una strategia di training semplice e efficace per migliorare le prestazioni di traduzione neurale utilizzando il metodo di regolarizzazione del sistema.
- On Transferability of Prompt Tuning for Natural Language Processing
- Yusheng Su, Xiaozhi Wang, Yujia Qin, Chi-Min Chan, Yankai Lin, Huadong Wang, Kaiyue Wen, Zhiyuan Liu, Peng Li, Juanzi Li, Lei Hou, Maosong Sun, Jie Zhou
- TLDR: Proponiamo un metodo di training per migliorare la transferability dei soft prompt attraverso diversi task e PLM.
- DocEE: A Large-Scale and Fine-grained Benchmark for Document-level Event Extraction
- MeiHan Tong, Bin Xu, Shuai Wang, Meihuan Han, Yixin Cao, Jiangqi Zhu, Siyu Chen, Lei Hou, Juanzi Li
- TLDR: Proponiamo DocEE, un dataset di extraction di eventi document-level, 27,000 eventi, 180,000+ arguments.
- Towards Debiasing Translation Artifacts
- Koel Dutta Chowdhury, Rricha Jalota, Cristina España-Bonet, Josef Genabith
- TLDR: Proponiamo un nuovo metodo per ridurre la transizione e la bias-removal che riduce la qualità della traduzione.
- WECHSEL: Effective initialization of subword embeddings for cross-lingual transfer of monolingual language models
- Benjamin Minixhofer, Fabian Paischer, Navid Rekabsaz
- TLDR: Proponiamo un metodo per transferrare le LM pretrained a nuovi lingue utilizzando la tokenizzazione basata sul sottostante e l’embedding multilingue.
- A New Concept of Knowledge based Question Answering (KBQA) System for Multi-hop Reasoning
- Yu Wang, V.srinivasan@samsung.com V.srinivasan@samsung.com, Hongxia Jin
- TLDR: Proponiamo un nuovo sistema di question answering basato sulla teoria del ragionamento per question answering.
- Bilingual Tabular Inference: A Case Study on Indic Languages
- Chaitanya Agarwal, Vivek Gupta, Anoop Kunchukuttan, Manish Shrivastava
- TLDR: Proponiamo di addestrare modelli multilingue per l’apprendimento di modelli di inference naturale multilingue.
- Generative Biomedical Entity Linking via Knowledge Base-Guided Pre-training and Synonyms-Aware Fine-tuning
- Hongyi Yuan, Zheng Yuan, Sheng Yu
- TLDR: Proponiamo un metodo di pre-training e fine-tuning per l’apprendimento di un metodo di entity linking biomedical utilizzando informazioni di sintesi e sinonimi.
- Robust Self-Augmentation for Named Entity Recognition with Meta Reweighting
- Linzhi Wu, Pengjun Xie, Jie Zhou, Meishan Zhang, Ma Chunping, Guangwei Xu, Min Zhang
- TLDR: Proponiamo un metodo di meta-reweighting per migliorare le prestazioni di riconoscimento delle entità named entity in scenari low-resource.
- Unsupervised Stem-based Cross-lingual Part-of-Speech Tagging for Morphologically Rich Low-Resource Languages
- Ramy Eskander, Cass Lowry, Sujay Khandagale, Judith Klavans, Maria Polinsky, Smaranda Muresan
- TLDR: Proponiamo un approccio di apprendimento unsupervised di cross-lingual projection basato sul tagger di stem per il tagger di part-of-speech.
- Optimising Equal Opportunity Fairness in Model Training
- Aili Shen, Xudong Han, Trevor Cohn, Timothy Baldwin, Lea Frermann
- TLDR: Proponiamo due obiettivi di training per migliorare la fairness.
- Leaner and Faster: Two-Stage Model Compression for Lightweight Text-Image Retrieval
- Siyu Ren, Kenny Zhu
- TLDR: Proponiamo un framework di compressione per comprimere un grande pre-trained dual-encoder per lightweight text-image retrieval.
- Joint Learning-based Heterogeneous Graph Attention Network for Timeline Summarization
- Jingyi You, Dongyuan Li, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura
- TLDR: Proponiamo un metodo per risolvere il task di summarization timeline.
- Early Rumor Detection Using Neural Hawkes Process with a New Benchmark Dataset
- Fengzhu Zeng, Wei Gao
- TLDR: Proponiamo un nuovo modello per Early Rumor Detection, basato sul processo neurale Hawkes per Early Rumor Detection.
- Emp-RFT: Empathetic Response Generation via Recognizing Feature Transitions between Utterances
- Wongyu Kim, Youbin Ahn, Donghyun Kim, Kyong-Ho Lee
- TLDR: Proponiamo un nuovo metodo per rilevare le feature nelle transizioni tra le utterazioni e il contesto.
- KCD: Knowledge Walks and Textual Cues Enhanced Political Perspective Detection in News Media
- Wenqian Zhang, Shangbin Feng, Zilong Chen, Zhenyu Lei, Jundong Li, Minnan Luo
- TLDR: Proponiamo un approccio di analisi della prospettiva per l’apprendimento di grafi di rappresentazione neurale e di knowledge walk e dimostriamo che le informazioni di input possono essere utilizzate per ragionamento multi-hop.
- Collective Relevance Labeling for Passage Retrieval
- Jihyuk Kim, Minsoo Kim, Seung-won Hwang
- TLDR: Proponiamo di distillare la conoscenza per il labeling informed, senza incurre costi di calcolo allo stato dell’arte.
- COGMEN: COntextualized GNN based Multimodal Emotion recognitioN
- Abhinav Joshi, Ashwani Bhat, Ayush Jain, Atin Singh, Ashutosh Modi
- TLDR: Proponiamo un sistema di riconoscimento vocale multimodale e multi-modale che sfrutta le informazioni locali e globali per modellare le dipendenze tra le persone.
- Revisit Overconfidence for OOD Detection: Reassigned Contrastive Learning with Adaptive Class-dependent Threshold
- Yanan Wu, Keqing He, Yuanmeng Yan, QiXiang Gao, Zhiyuan Zeng, Fujia Zheng, Lulu Zhao, Huixing Jiang, Wei Wu, Weiran Xu
- TLDR: Proponiamo un metodo di contrasto contrastivo per rilevare l’out-of-domain e l’out-of-domain.
- AISFG: Abundant Information Slot Filling Generator
- Yang Yan, Junda Ye, Zhongbao Zhang, Liwen Wang
- TLDR: Proponiamo Abundant Information Slot Filling Generator (AISFG), un modello generativo per cross-domain slot filling.
- Improving negation detection with negation-focused pre-training
- Thinh Truong, Timothy Baldwin, Trevor Cohn, Karin Verspoor
- TLDR: Proponiamo un nuovo metodo di pre-training per rilevare la negation e il suo transfer su modelli di NLP.
- Practice Makes a Solver Perfect: Data Augmentation for Math Word Problem Solvers
- Vivek Kumar, Rishabh Maheshwary, Vikram Pudi
- TLDR: Proponiamo diverse tecniche di augmentation dei dati per migliorare la generalizzazione e robustezza degli attuali solversi.
- DiffCSE: Difference-based Contrastive Learning for Sentence Embeddings
- Yung-Sung Chuang, Rumen Dangovski, Hongyin Luo, Yang Zhang, Shiyu Chang, Marin Soljacic, Shang-Wen Li, Scott Yih, Yoon Kim, James Glass
- TLDR: Proponiamo DiffCSE, un framework di contrastive learning unsupervised per l’apprendimento di sentence embedding.
- Generative Cross-Domain Data Augmentation for Aspect and Opinion Co-Extraction
- Junjie Li, Jianfei Yu, Rui Xia
- TLDR: Proponiamo un framework di apprendimento generativo di domini unsupervised per domain adaptation unsupervised.
- ProQA: Structural Prompt-based Pre-training for Unified Question Answering
- Wanjun Zhong, Yifan Gao, Ning Ding, Yujia Qin, Zhiyuan Liu, Ming Zhou, Jiahai Wang, Jian Yin, Nan Duan
- TLDR: Proponiamo ProQA, un nuovo approccio di QA unificato che combina la capacità di QAcentrica con la capacità di apprendimento basato sul modello.
- A Data Cartography based MixUp for Pre-trained Language Models
- Seo Yeon Park, Cornelia Caragea
- TLDR: Proponiamo un nuovo metodo di MixUp che sfrutta le dinamiche di training per generare nuovi dati.
- Grapheme-to-Phoneme Conversion for Thai using Neural Regression Models
- Tomohiro Yamasaki
- TLDR: Proponiamo un metodo di conversione grafi-to-phoneme basato su un modello di regressione neurale che è addestrato utilizzando reti neurali per prevedere la corrispondenza tra un candidate e la pronuncia corretta.
- Generating Authentic Adversarial Examples beyond Meaning-preserving with Doubly Round-trip Translation
- Siyu Lai, Zhen Yang, Fandong Meng, Xue Zhang, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: Proponiamo un nuovo metodo per generare adversarial example per la traduzione neurale utilizzando la traduzione di round-trip.
- TVShowGuess: Character Comprehension in Stories as Speaker Guessing
- Yisi Sang, Xiangyang Mou, Mo Yu, Shunyu Yao, Jing Li, Jeffrey Stanton
- TLDR: Proponiamo un nuovo task per valutare le capacità delle macchine di comprensione dei personaggi narrativi nelle storie di serie TV.
- Causal Distillation for Language Models
- Zhengxuan Wu, Atticus Geiger, Joshua Rozner, Elisa Kreiss, Hanson Lu, Thomas Icard, Christopher Potts, Noah Goodman
- TLDR: Proponiamo di distillare il modello di apprendimento di un student per imparare a essere simile a un modello di apprendimento di un linguaggio.
- FNet: Mixing Tokens with Fourier Transforms
- James Lee-Thorp, Joshua Ainslie, Ilya Eckstein, Santiago Ontanon
- TLDR: Proponiamo un modello di Transformer che supera le prestazioni di BERT per un tempo di training più breve e veloce.
- Answer Consolidation: Formulation and Benchmarking
- Wenxuan Zhou, Qiang Ning, Heba Elfardy, Kevin Small, Muhao Chen
- TLDR: Proponiamo un metodo per risolvere il problema di consolidamento delle risposte, dove le risposte sono partizionate in più gruppi, ciascuno rappresentando diversi aspetti del set di risposte.
- Informativeness and Invariance: Two Perspectives on Spurious Correlations in Natural Language
- Jacob Eisenstein
- TLDR: Un problema di correlazione tra le parole e le immagini
- FOAM: A Follower-aware Speaker Model For Vision-and-Language Navigation
- Zi-Yi Dou, Nanyun Peng
- TLDR: Proponiamo un modello di follower-speech che è aggiornato da feedback del follower.
- Improving Compositional Generalization with Latent Structure and Data Augmentation
- Linlu Qiu, Peter Shaw, Panupong Pasupat, Pawel Nowak, Tal Linzen, Fei Sha, Kristina Toutanova
- TLDR: Proponiamo un metodo di ricombinazione dei dati per la generalizzazione compositiva e la generalizzazione di un ensemble di compositivi.
- Joint Extraction of Entities, Relations, and Events via Modeling Inter-Instance and Inter-Label Dependencies
- Minh Van Nguyen, Bonan Min, Franck Dernoncourt, Thien Nguyen
- TLDR: Proponiamo di addestrare un modello di apprendimento di informazioni di input per l’apprendimento di rappresentazioni di dati di input.
- Linguistic Frameworks Go Toe-to-Toe at Neuro-Symbolic Language Modeling
- Jakob Prange, Nathan Schneider, Lingpeng Kong
- TLDR: Proponiamo un ensemble di grafi per il language model neurale.
- Imagination-Augmented Natural Language Understanding
- Yujie Lu, Wanrong Zhu, Xin Wang, Miguel Eckstein, William Yang Wang
- TLDR: Proponiamo un nuovo metodo per risolvere task di natural language understanding da una prospettiva di apprendimento multimodale - l’apprendimento visivo-augmented cross-modal.
- What company do words keep? Revisiting the distributional semantics of J.R. Firth & Zellig Harris
- Mikael Brunila, Jack LaViolette
- TLDR: Proponiamo di considerare le parole in nuovi contesti linguistici e dimostriamo che le parole stesse potrebbero essere utilizzate per produrre un nuovo linguaggio.
- Compositional Task-Oriented Parsing as Abstractive Question Answering
- Wenting Zhao, Konstantine Arkoudas, Weiqi Sun, Claire Cardie
- TLDR: Proponiamo un metodo di parsing semantico basato sul testo per risolvere il task di QA.
- Learning Cross-Lingual IR from an English Retriever
- Yulong Li, Martin Franz, Md Arafat Sultan, Bhavani Iyer, Young-Suk Lee, Avirup Sil
- TLDR: Proponiamo un nuovo metodo di cross-lingual information retrieval che utilizza la knowledge distillation per imparare rappresentazioni multilingue.
- Testing the Ability of Language Models to Interpret Figurative Language
- Emmy Liu, Chenxuan Cui, Kenneth Zheng, Graham Neubig
- TLDR: Proponiamo un task di comprensione non-literale di linguaggio naturale basato su modelli di apprendimento non-telematico per risolvere il problema della comprensione non-telematica di linguaggio naturale.
- Multi-Vector Models with Textual Guidance for Fine-Grained Scientific Document Similarity
- Sheshera Mysore, Arman Cohan, Tom Hope
- TLDR: Proponiamo un modello di similarità del testo basato sul matching di aspetti ben nitidi dei testi.
- CHAI: A CHatbot AI for Task-Oriented Dialogue with Offline Reinforcement Learning
- Siddharth Verma, Justin Fu, Sherry Yang, Sergey Levine
- TLDR: Proponiamo un metodo di reinforcement learning offline per imparare il linguaggio naturale per dialogare con le persone.
- Connecting the Dots between Audio and Text without Parallel Data through Visual Knowledge Transfer
- Yanpeng Zhao, Jack Hessel, Youngjae Yu, Ximing Lu, Rowan Zellers, Yejin Choi
- TLDR: Proponiamo VIP-ANT che induce Audio-Text alignment senza utilizzare alcuna coppia di dati audio-text.
- SURF: Semantic-level Unsupervised Reward Function for Machine Translation
- Atijit Anuchitanukul, Julia Ive
- TLDR: Proponiamo una funzione di reward densa unsupervised per reinforcement learning.
- Disentangling Categorization in Multi-agent Emergent Communication
- Washington Garcia, Hamilton Clouse, Kevin Butler
- TLDR: Proponiamo di utilizzare le rappresentazioni disentangled da representation learning per misurare la potenza di categorizzazione degli agenti artificiali.
- Show, Don’t Tell: Demonstrations Outperform Descriptions for Schema-Guided Task-Oriented Dialogue
- Raghav Gupta, Harrison Lee, Jeffrey Zhao, Yuan Cao, Abhinav Rastogi, Yonghui Wu
- TLDR: Proponiamo Show, Don’t Tell, un metodo per generalizzare i sistemi di dialogo universali utilizzando la rappresentazione dello schema.
- Does Pre-training Induce Systematic Inference? How Masked Language Models Acquire Commonsense Knowledge
- Ian Porada, Alessandro Sordoni, Jackie Cheung
- TLDR: Proponiamo di utilizzare la conoscenza verbalizzata per generalizzare.
- Using Paraphrases to Study Properties of Contextual Embeddings
- Laura Burdick, Jonathan Kummerfeld, Rada Mihalcea
- TLDR: Proponiamo un metodo per studiare l’embedding contestuale di parole e frasi, e mostriamo che le rappresentazioni di parole e frasi possono essere molto diverse.
- Measure and Improve Robustness in NLP Models: A Survey
- Xuezhi Wang, Haohan Wang, Diyi Yang
- TLDR: Proponiamo un’analisi unificante di come misurare la robustezza nei modelli NLP.
- Learning to Generate Examples for Semantic Processing Tasks
- Danilo Croce, Simone Filice, Giuseppe Castellucci, Roberto Basili
- TLDR: Proponiamo un metodo per imparare a generare nuovi esempi utilizzando un modello di semantica pre-trained semantica-to-semantica.
- Symbolic Knowledge Distillation: from General Language Models to Commonsense Models
- Peter West, Chandra Bhagavatula, Jack Hessel, Jena Hwang, Liwei Jiang, Ronan Le Bras, Ximing Lu, Sean Welleck, Yejin Choi
- TLDR: Proponiamo un nuovo metodo per distillare la conoscenza di un modello di apprendimento di linguaggio naturale per addestrare modelli di apprendimento di linguaggio naturale.
- GenIE: Generative Information Extraction
- Martin Josifoski, Nicola De Cao, Maxime Peyrard, Fabio Petroni, Robert West
- TLDR: Proponiamo GenIE, un metodo autoregressivo end-to-end per l’apprendimento di informazioni parziali.
- Entity Linking via Explicit Mention-Mention Coreference Modeling
- Dhruv Agarwal, Rico Angell, Nicholas Monath, Andrew McCallum
- TLDR: Proponiamo un nuovo approccio per imparare rappresentazioni di mention e di entity che è basato sulla costruzione di arborescenze di spanning tra mention e entity per modellare le relazioni di coerenza tra le rappresentazioni di mention e le informazioni di identità.
- Massive-scale Decoding for Text Generation using Lattices
- Jiacheng Xu, Siddhartha Jonnalagadda, Greg Durrett
- TLDR: Proponiamo un metodo per costruire lattici di input per la generazione di testo condizionato da modelli di condizionamento.
- Disentangling Indirect Answers to Yes-No Questions in Real Conversations
- Krishna Sanagavarapu, Jathin Singaraju, Anusha Kakileti, Anirudh Kaza, Aaron Mathews, Helen Li, Nathan Brito, Eduardo Blanco
- TLDR: Proponiamo un nuovo task di determinizzazione delle risposte sintetiche a domande sì-non in conversazioni reali.
- Quantifying Adaptability in Pre-trained Language Models with 500 Tasks
- Belinda Li, Jane Yu, Madian Khabsa, Luke Zettlemoyer, Alon Halevy, Jacob Andreas
- TLDR: Proponiamo un benchmark per valutare la capacità di adattamento del linguaggio neurale per nuovi task.
- Counterfactually Augmented Data and Unintended Bias: The Case of Sexism and Hate Speech Detection
- Indira Sen, Mattia Samory, Claudia Wagner, Isabelle Augenstein
- TLDR: Proponiamo un modello per rilevare il sexism e il hate speech su dati di input non consapevoli.
- A Study of the Attention Abnormality in Trojaned BERTs
- Weimin Lyu, Songzhu Zheng, Tengfei Ma, Chao Chen
- TLDR: Proponiamo un modello di rilevamento basato sulla attention per distinguere i modelli di BERT da quelli di GAN.
- EPiDA: An Easy Plug-in Data Augmentation Framework for High Performance Text Classification
- Minyi Zhao, Lu Zhang, Yi Xu, Jiandong Ding, Jihong Guan, Shuigeng Zhou
- TLDR: Proponiamo un metodo di augmentation dei dati per la generazione di modelli di testo efficienti e la modellazione di modelli di testo.
- Partial-input baselines show that NLI models can ignore context, but they don’t.
- Neha Srikanth, Rachel Rudinger
- TLDR: Proponiamo un nuovo metodo per valutare la capacità di apprendimento di modelli NLI di condizionamento del contesto.
- Lifelong Pretraining: Continually Adapting Language Models to Emerging Corpora
- Xisen Jin, Dejiao Zhang, Henghui Zhu, Wei Xiao, Shang-Wen Li, Xiaokai Wei, Andrew Arnold, Xiang Ren
- TLDR: Proponiamo di addestrare un modello di apprendimento pretrained per lifelong learning.
- Learning as Conversation: Dialogue Systems Reinforced for Information Acquisition
- Pengshan Cai, Hui Wan, Fei Liu, Mo Yu, Hong Yu, Sachindra Joshi
- TLDR: Proponiamo nuovi chat bot AI-empowered per l’apprendimento astratto di conversazione in cui un user non legge ma acquisisce informazioni e conoscenze attraverso conversazione con un bot di apprendimento.
- Dynamic Programming in Rank Space: Scaling Structured Inference with Low-Rank HMMs and PCFGs
- Songlin Yang, Wei Liu, Kewei Tu
- TLDR: Proponiamo un metodo per ridurre le complessità di inferenza computazionali per HMM e PCFG.
- What Factors Should Paper-Reviewer Assignments Rely On? Community Perspectives on Issues and Ideals in Conference Peer-Review
- Terne Thorn Jakobsen, Anna Rogers
- TLDR: Proponiamo un’analisi del matching dei peer-reviewer per la valutazione di un’evidence-based peer review.
- Reducing Disambiguation Biases in NMT by Leveraging Explicit Word Sense Information
- Niccolò Campolungo, Tommaso Pasini, Denis Emelin, Roberto Navigli
- TLDR: Proponiamo un nuovo approccio per sfruttare le annotazioni di senso per generare corpora di corpora di alto livello di corpora di senso-annotazione.
- Mining Clues from Incomplete Utterance: A Query-enhanced Network for Incomplete Utterance Rewriting
- Shuzheng Si, Shuang Zeng, Baobao Chang
- TLDR: Proponiamo una query-enhanced network per risolvere il problema di rewriting incomplete e rewritten.
- Domain-Oriented Prefix-Tuning: Towards Efficient and Generalizable Fine-tuning for Zero-Shot Dialogue Summarization
- Lulu Zhao, Fujia Zheng, Weihao Zeng, Keqing He, Weiran Xu, Huixing Jiang, Wei Wu, Yanan Wu
- TLDR: Proponiamo un modello di pre-tuning per la predizione di dialogue summarization basato sul dominio efficiente e generalizzabile.
- Interactive Symbol Grounding with Complex Referential Expressions
- Rimvydas Rubavicius, Alex Lascarides
- TLDR: Proponiamo un metodo per imparare a ground simboli da una sequenza di stimuli consisting di una frase arbitraria e complessissima (e.g. “all’uomo è uno solo sotto entrambi i rioni”).
- Generalized Quantifiers as a Source of Error in Multilingual NLU Benchmarks
- Ruixiang Cui, Daniel Hershcovich, Anders Søgaard
- TLDR: Proponiamo un adversarial generalized quantifier NLI per la rappresentazione della semantica dei termini quantizzati.
- Exact Paired-Permutation Testing for Structured Test Statistics
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: Proponiamo un metodo di stima dell’evidence per paired-permutation.
- A Balanced Data Approach for Evaluating Cross-Lingual Transfer: Mapping the Linguistic Blood Bank
- Dan Malkin, Tomasz Limisiewicz, Gabriel Stanovsky
- TLDR: Proponiamo un metodo per pre-training di modelli BERT basati su linguaggi di origine e destinazione.
- SSEGCN: Syntactic and Semantic Enhanced Graph Convolutional Network for Aspect-based Sentiment Analysis
- Zheng Zhang, Zili Zhou, Yanna Wang
- TLDR: Proponiamo un modello di attention con attention e graph convolutional network per l’analisi del sentiment basato sull’aspect.
- Mitigating Toxic Degeneration with Empathetic Data: Exploring the Relationship Between Toxicity and Empathy
- Allison Lahnala, Charles Welch, Béla Neuendorf, Lucie Flek
- TLDR: Proponiamo un metodo per ridurre la quantità di dati di fine-tuning per la generazione controllabile controllabile di testo.
- DUCK: Rumour Detection on Social Media by Modelling User and Comment Propagation Networks
- Lin Tian, Xiuzhen Zhang, Jey Han Lau
- TLDR: Un’analisi del rumore del social media
- Jam or Cream First? Modeling Ambiguity in Neural Machine Translation with SCONES
- Felix Stahlberg, Shankar Kumar
- TLDR: Proponiamo di sostituire la softmax attivazione con una multilabel classification layer che può modellare l’ambiguità più efficacemente.
- SkillSpan: Hard and Soft Skill Extraction from English Job Postings
- Mike Zhang, Kristian Jensen, Sif Sonniks, Barbara Plank
- TLDR: Proponiamo un nuovo dataset di extraction di competenze soft e hard annotate da tre fonti di input annotate da esperti di domain.
- RAAT: Relation-Augmented Attention Transformer for Relation Modeling in Document-Level Event Extraction
- Yuan Liang, Zhuoxuan Jiang, Di Yin, Bo Ren
- TLDR: Proponiamo un nuovo approccio per l’estrazione di eventi a livello di documento, chiamato ReDEE, che può modellare le dipendenze di relazioni tra i documenti.
- A Double-Graph Based Framework for Frame Semantic Parsing
- Ce Zheng, Xudong Chen, Runxin Xu, Baobao Chang
- TLDR: Proponiamo un metodo di parsing del frame per l’apprendimento di grafi incrementali.
- An Enhanced Span-based Decomposition Method for Few-Shot Sequence Labeling
- Peiyi Wang, Runxin Xu, Tianyu Liu, Qingyu Zhou, Yunbo Cao, Baobao Chang, Zhifang Sui
- TLDR: Proponiamo un metodo di decomposizione dello span per la label labeling sequenziale.
- A Two-Stream AMR-enhanced Model for Document-level Event Argument Extraction
- Runxin Xu, Peiyi Wang, Tianyu Liu, Shuang Zeng, Baobao Chang, Zhifang Sui
- TLDR: Proponiamo un metodo per estrarre gli eventi da un singolo articolo.
- Robust (Controlled) Table-to-Text Generation with Structure-Aware Equivariance Learning
- Fei Wang, Zhewei Xu, Pedro Szekely, Muhao Chen
- TLDR: Proponiamo un metodo di apprendimento di table-to-text che combina la struttura con un meccanismo di self-attention per generare descrizioni di testo naturale per sottoparti di una tassa di rappresentazione.
- JointLK: Joint Reasoning with Language Models and Knowledge Graphs for Commonsense Question Answering
- Yueqing Sun, Qi Shi, Le Qi, Yu Zhang
- TLDR: Proponiamo un nuovo modello di ragionamento congiunto che combina il ragionamento joint di LM e GNN e il pruning dinamico di KG per risolvere il problema del pruning irrelevante.
- Models In a Spelling Bee: Language Models Implicitly Learn the Character Composition of Tokens
- Itay Itzhak, Omer Levy
- TLDR: Proponiamo un metodo per imparare la composizione interna dei sotto-token e dimostriamo che le informazioni di caratteri possono migliorare la qualità del linguaggio.
- A Corpus for Understanding and Generating Moral Stories
- Jian Guan, Ziqi Liu, Minlie Huang
- TLDR: Proponiamo un nuovo dataset di storie di azione umana e dimostriamo che le informazioni di apprendimento possono essere sfruttate per risolvere i problemi di comprensione e scrittura di storie di azione.
- Modeling Multi-Granularity Hierarchical Features for Relation Extraction
- Xinnian Liang, Shuangzhi Wu, Mu Li, Zhoujun Li
- TLDR: Proponiamo un metodo per sfruttare le feature strutturate in modo strutturato da input e output senza knowledge external.
- Cross-modal Contrastive Learning for Speech Translation
- Rong Ye, Mingxuan Wang, Lei Li
- TLDR: Proponiamo un metodo di contrastive learning per la traduzione end-to-end speech-to-text.
- Meet Your Favorite Character: Open-domain Chatbot Mimicking Fictional Characters with only a Few Utterances
- Seungju Han, Beomsu Kim, Jin Yong Yoo, Seokjun Seo, Sangbum Kim, Enkhbayar Erdenee, Buru Chang
- TLDR: Proponiamo un metodo di dialogo pseudo-dialogue per generare risposte che rispondono allo stile dei caratteri reali.
- DynamicTOC: Persona-based Table of Contents for Consumption of Long Documents
- Himanshu Maheshwari, Nethraa Sivakumar, Shelly Jain, Tanvi Karandikar, Vinay Aggarwal, Navita Goyal, Sumit Shekhar
- TLDR: Proponiamo un nuovo approccio per gestire il consumption basato sul contenuto per document reading non lineare, basato sulla persona.
- KALA: Knowledge-Augmented Language Model Adaptation
- Minki Kang, Jinheon Baek, Sung Ju Hwang
- TLDR: Proponiamo un nuovo approccio di domain adaptation per PLM che modula la hidden hidden knowledge di PLM con la conoscenza del dominio.
- On the Effect of Pretraining Corpora on In-context Learning by a Large-scale Language Model
- Seongjin Shin, Sang-Woo Lee, Hwijeen Ahn, Sungdong Kim, HyoungSeok Kim, Boseop Kim, Kyunghyun Cho, Gichang Lee, Woomyoung Park, Jung-Woo Ha, Nako Sung
- TLDR: Proponiamo un’analisi approfondita del ruolo del corpus di pretraining per l’apprendimento in-context.
- Sketching as a Tool for Understanding and Accelerating Self-attention for Long Sequences
- Yifan Chen, Qi Zeng, Dilek Hakkani-Tur, Di Jin, Heng Ji, Yun Yang
- TLDR: Proponiamo un modello di sketching delle matrici per migliorare la precisione di self-attention e la complessità dello spazio e dello spazio di self-attention.
- Partner Personas Generation for Dialogue Response Generation
- Hongyuan Lu, Wai Lam, Hong Cheng, Helen Meng
- TLDR: Proponiamo un nuovo metodo di reinforcement learning per sfruttare la generazione automatica di partner personas per migliorare la generazione di risposte di dialogo.
- Semantically Informed Slang Interpretation
- Zhewei Sun, Richard Zemel, Yang Xu
- TLDR: Proponiamo un framework di interpretazione semanticamente informato di slang per la traduzione automatica e la traduzione di linguaggi di origine e destinazione.
- Dual-Channel Evidence Fusion for Fact Verification over Texts and Tables
- Nan Hu, Zirui Wu, Yuxuan Lai, Xiao Liu, Yansong Feng
- TLDR: Proponiamo un modello di fact verification unificato Dual Channel per convertire le informazioni di testo e di rete in una struttura di testo e di rete.
- TreeMix: Compositional Constituency-based Data Augmentation for Natural Language Understanding
- Le Zhang, Zichao Yang, Diyi Yang
- TLDR: Proponiamo TreeMix, un metodo di data augmentation compositivi per natural language understanding.
- Syn2Vec: Synset Colexification Graphs for Lexical Semantic Similarity
- John Harvill, Roxana Girju, Mark Hasegawa-Johnson
- TLDR: Proponiamo grafi di collusione di grandezza per task di similarità tra lingue e grafi di collusione di grandezza per la progettazione di grafi di collusione di grandezza.
- On the Origin of Hallucinations in Conversational Models: Is it the Datasets or the Models?
- Nouha Dziri, Sivan Milton, Mo Yu, Osmar Zaiane, Siva Reddy
- TLDR: Proponiamo un nuovo studio umano su benchmark di conversazione knowledge-grounded e dimostriamo che le risposte di risposta a domande di input sono in grado di generare modelli che causano la visione.
- Is “My Favorite New Movie” My Favorite Movie? Probing the Understanding of Recursive Noun Phrases
- Qing Lyu, Zheng Hua, Daoxin Li, Li Zhang, Marianna Apidianaki, Chris Callison-Burch
- TLDR: Proponiamo Recursive Noun Phrase Challenge (RNPC), un dataset di tre task di inferenza testuale in cui l’obiettivo è quello di comprendere le phrase ricorrenti.
- Original or Translated? A Causal Analysis of the Impact of Translationese on Machine Translation Performance
- Jingwei Ni, Zhijing Jin, Markus Freitag, Mrinmaya Sachan, Bernhard Schölkopf
- TLDR: Proponiamo CausalMT, un dataset di training di testo umano e dimostriamo che le direzione del testo umano nel dataset sono correlate con le direzioni del testo umano.
- Visual Commonsense in Pretrained Unimodal and Multimodal Models
- Chenyu Zhang, Benjamin Van Durme, Zhuowan Li, Elias Stengel-Eskin
- TLDR: Proponiamo un dataset di test per valutare la conoscenza visiva degli oggetti.
- QuALITY: Question Answering with Long Input Texts, Yes!
- Richard Yuanzhe Pang, Alicia Parrish, Nitish Joshi, Nikita Nangia, Jason Phang, Angelica Chen, Vishakh Padmakumar, Johnny Ma, Jana Thompson, He He, Samuel Bowman
- TLDR: Proponiamo QuALITY, un dataset di QA multiple-choice con passage in linguaggi estesi in cui le domande sono scritte da contributori che hanno letto il testo completo.
- ExSum: From Local Explanations to Model Understanding
- Yilun Zhou, Marco Tulio Ribeiro, Julie Shah
- TLDR: Proponiamo explanation summary, un metodo per quantificare la comprensione del modello e la sua qualità.
- Maximum Bayes Smatch Ensemble Distillation for AMR Parsing
- Young-Suk Lee, Ramón Astudillo, Hoang Thanh Lam, Tahira Naseem, Radu Florian, Salim Roukos
- TLDR: Proponiamo di aumentare le prestazioni di parsing AMR utilizzando la distillazione ensemble e Smatch basati sulla teoria del parsing.
- When Does Syntax Mediate Neural Language Model Performance? Evidence from Dropout Probes
- Mycal Tucker, Tiwalayo Eisape, Peng Qian, Roger Levy, Julie Shah
- TLDR: Proponiamo un nuovo metodo per addestrare le rappresentazioni di sintassi nei modelli di apprendimento automatico.
- Modeling Task Interactions in Document-Level Joint Entity and Relation Extraction
- Liyan Xu, Jinho Choi
- TLDR: Proponiamo Graph Compatibility (GC) che sfrutta le proprietà del task per risolvere il divario tra grafi e grafi.
- Few-Shot Semantic Parsing with Language Models Trained on Code
- Richard Shin, Benjamin Van Durme
- TLDR: Proponiamo di utilizzare il modello di parsing semantico di OpenAI per risolvere il problema di paraphrasing.
- CORWA: A Citation-Oriented Related Work Annotation Dataset
- Xiangci Li, Biswadip Mandal, Jessica Ouyang
- TLDR: Proponiamo un nuovo metodo per generare il lavoro di ricerca e la sua applicazione alla generazione di articoli di ricerca.
- Overcoming Catastrophic Forgetting During Domain Adaptation of Seq2seq Language Generation
- Dingcheng Li, Zheng Chen, Eunah Cho, Jie Hao, Xiaohu Liu, Fan Xing, Chenlei Guo, Yang Liu
- TLDR: Proponiamo un nuovo framework per l’apprendimento seq2seq che sfrutta un meccanismo di recall per selezionare i parametri di precedenti task.
- Extreme Zero-Shot Learning for Extreme Text Classification
- Yuanhao Xiong, Wei-Cheng Chang, Cho-Jui Hsieh, Hsiang-Fu Yu, Inderjit Dhillon
- TLDR: Proponiamo di pre-trainare Transformer basati su self-supervision e dimostriamo che le informazioni di testo possono essere utilizzate per imparare le embedding semantici di rappresentazioni di testo.
- ConfliBERT: A Pre-trained Language Model for Political Conflict and Violence
- Yibo Hu, MohammadSaleh Hosseini, Erick Skorupa Parolin, Javier Osorio, Latifur Khan, Patrick Brandt, Vito D’Orazio
- TLDR: Proponiamo ConfliBERT, un modello di testo specifico per il rilevamento del conflitto e la violenza politica.
- Automatic Multi-Label Prompting: Simple and Interpretable Few-Shot Classification
- Han Wang, Canwen Xu, Julian McAuley
- TLDR: Proponiamo un metodo per imparare a selezionare automaticamente le label per few shot text classification con un metodo di apprendimento basato sul prompt.
- Few-shot Subgoal Planning with Language Models
- Lajanugen Logeswaran, Yao Fu, Moontae Lee, Honglak Lee
- TLDR: Proponiamo un metodo per ri-rankare i modelli di apprendimento automatico pre-trained basato sulla navigazione e feedback dall’ambiente.
- IDPG: An Instance-Dependent Prompt Generation Method
- Zhuofeng Wu, Sinong Wang, Jiatao Gu, Rui Hou, Yuxiao Dong, V.G.Vinod Vydiswaran, Hao Ma
- TLDR: Proponiamo un metodo di generazione condizionale di risposte per il transfer learning basato sulla generazione condizionale di risposte.
- Embedding Hallucination for Few-shot Language Fine-tuning
- Yiren Jian, Chongyang Gao, Soroush Vosoughi
- TLDR: Proponiamo Embedding Hallucination (EmbedHalluc) un metodo di training per risolvere il problema di overfitting del fine-tuning.
- Cryptocurrency Bubble Detection: A New Stock Market Dataset, Financial Task & Hyperbolic Models
- Ramit Sawhney, Shivam Agarwal, Vivek Mittal, Paolo Rosso, Vikram Nanda, Sudheer Chava
- TLDR: Proponiamo e publicizziamo CryptoBubble, un task di identification multi-span per la rilevazione dei bugie.
- Nearest Neighbor Knowledge Distillation for Neural Machine Translation
- Zhixian Yang, Renliang Sun, Xiaojun Wan
- TLDR: Un’immagine del modello k-nearest-neighbor
- DEMix Layers: Disentangling Domains for Modular Language Modeling
- Suchin Gururangan, Mike Lewis, Ari Holtzman, Noah Smith, Luke Zettlemoyer
- TLDR: Proponiamo un layer di mixture di esperti per condizionare un modello di linguaggio (LM) sul dominio del testo.
- Contrastive Learning for Prompt-based Few-shot Language Learners
- Yiren Jian, Chongyang Gao, Soroush Vosoughi
- TLDR: Proponiamo un framework di contrastive learning supervisionato che clustera input da una stessa classe per migliorare la generalità di modelli addestrati con pochi esempi.
- Cross-Lingual Event Detection via Optimized Adversarial Training
- Luis Guzman-Nateras, Minh Van Nguyen, Thien Nguyen
- TLDR: Un modello di cross-learning per rilevare eventi di eventi
- Identifying Implicitly Abusive Remarks about Identity Groups using a Linguistically Informed Approach
- Michael Wiegand, Elisabeth Eder, Josef Ruppenhofer
- TLDR: Proponiamo un nuovo dataset per risolvere implicitamente l’abuso degli attributi di gruppo.
- Label Definitions Improve Semantic Role Labeling
- Li Zhang, Ishan Jindal, Yunyao Li
- TLDR: Proponiamo un metodo per imparare le definizioni di ruolo semantici per la classificazione degli argomenti.
- Shedding New Light on the Language of the Dark Web
- Youngjin Jin, Eugene Jang, Yongjae Lee, Seungwon Shin, Jin-Woo Chung
- TLDR: Proponiamo CoDA, un dataset di Dark Web pubblico, basato sulla classificazione del testo, che può essere utilizzato per studiare le proprietà linguistiche della Dark Web.
- Conceptualizing Treatment Leakage in Text-based Causal Inference
- Adel Daoud, Connor Jerzak, Richard Johansson
- TLDR: Proponiamo di distillare il testo per mitigare il bias di pre-elaborazione del bias di pre-elaborazione del bias di pre-elaborazione del bias di pre-elaborazione del bias di pre-elaborazione del bias di pre-elaborazione del bias di pre-elaborazione del bias di pre-elaborazione del bias di pre-elaborazione del bias di pre-elaborazione del bias di pre-elaborazione del bias di pre-elaborazione del bias.
- Consistency Training with Virtual Adversarial Discrete Perturbation
- Jungsoo Park, Gyuwan Kim, Jaewoo Kang
- TLDR: Proponiamo un metodo di augmentation per regolarizzare il training del modello basato sulla semantica.
- CONFIT: Toward Faithful Dialogue Summarization with Linguistically-Informed Contrastive Fine-tuning
- Xiangru Tang, Arjun Nair, Borui Wang, Bingyao Wang, Jai Desai, Aaron Wade, Haoran Li, Asli Celikyilmaz, Yashar Mehdad, Dragomir Radev
- TLDR: Proponiamo un nuovo metodo di fine-tuning contrastivo per migliorare la qualità e la consistenza delle sintesi di dialogo.
- CoMPM: Context Modeling with Speaker’s Pre-trained Memory Tracking for Emotion Recognition in Conversation
- Joosung Lee, Wooin Lee
- TLDR: Proponiamo CoMPM, un metodo per imparare la memoria pre-trained del linguaggio di origine e dimostriamo che migliora le prestazioni del modello di riconoscimento vocale.
- Investigating Crowdsourcing Protocols for Evaluating the Factual Consistency of Summaries
- Xiangru Tang, Alexander Fabbri, Haoran Li, Ziming Mao, Griffin Adams, Borui Wang, Asli Celikyilmaz, Yashar Mehdad, Dragomir Radev
- TLDR: Proponiamo un metodo per crowdsourcing per valutare la qualità della sintesi e la precisione della valutazione umana.
- DialSummEval: Revisiting Summarization Evaluation for Dialogues
- Mingqi Gao, Xiaojun Wan
- TLDR: Proponiamo DialSummEval, un dataset di valutazione human-eval per la valutazione di modelli di dialogue summarization.
- Hyperbolic Relevance Matching for Neural Keyphrase Extraction
- Mingyang Song, Yi Feng, Liping Jing
- TLDR: Proponiamo un modello di matching per la ricerca di keyphrase in spazi di testo e documenti hyperbolici per l’apprendimento di una strategia di matching.
- Template-free Prompt Tuning for Few-shot NER
- Ruotian Ma, Xin Zhou, Tao Gui, Yiding Tan, Linyang Li, Qi Zhang, Xuanjing Huang
- TLDR: Proponiamo un metodo per riformulare i task NER come problemi LM senza bisogno di modelli di pre-training.
- Few-Shot Document-Level Relation Extraction
- Nicholas Popovic, Michael Färber
- TLDR: Proponiamo un benchmark di few shot document relation extraction (FSDLRE) basato su due dataset di supervisione supervised, DocRED e sciERC.
- LaMemo: Language Modeling with Look-Ahead Memory
- Haozhe Ji, Rongsheng Zhang, Zhenyu Yang, Zhipeng Hu, Minlie Huang
- TLDR: Proponiamo una Recurrence Memory per language modeling.
- Exploiting Inductive Bias in Transformers for Unsupervised Disentanglement of Syntax and Semantics with VAEs
- Ghazi Felhi, Joseph Roux, Djamé Seddah
- TLDR: Proponiamo un modello generativo per la generazione di testo, che mostra rappresentazioni disentangled latenti di sintassi e semantico.
- Neighbors Are Not Strangers: Improving Non-Autoregressive Translation under Low-Frequency Lexical Constraints
- Chun Zeng, Jiangjie Chen, Tianyi Zhuang, Rui Xu, Hao Yang, Qin Ying, Shimin Tao, Yanghua Xiao
- TLDR: Proponiamo un metodo di training GAN per la traduzione neurale neurale non autoregressiva.
- What do Toothbrushes do in the Kitchen? How Transformers Think our World is Structured
- Alexander Henlein, Alexander Mehler
- TLDR: Proponiamo di confrontare i modelli di trasformazione con i modelli di contesto.
- Less is More: Learning to Refine Dialogue History for Personalized Dialogue Generation
- Hanxun Zhong, Zhicheng Dou, Yutao Zhu, Hongjin Qian, Ji-Rong Wen
- TLDR: Proponiamo un modello di dialogo personalizzato multi-level per gestire la conversazione e ottenere risposte personalizzate.
- A Holistic Framework for Analyzing the COVID-19 Vaccine Debate
- Maria Pacheco, Tunazzina Islam, Monal Mahajan, Andrey Shor, Ming Yin, Lyle Ungar, Dan Goldwasser
- TLDR: Proponiamo un framework di analisi holistica per collegare la stance e la ragione, e la fine-grained entity level moral sentiment analysis.
- Learning to Win Lottery Tickets in BERT Transfer via Task-agnostic Mask Training
- Yuanxin Liu, Fandong Meng, Zheng Lin, Peng Fu, Yanan Cao, Weiping Wang, Jie Zhou
- TLDR: Proponiamo di addestrare le sottoreti di training per pre-training, e dimostriamo che le sottoreti di training BERT sono più promettenti di quelle BERT.
- You Don’t Know My Favorite Color: Preventing Dialogue Representations from Revealing Speakers’ Private Personas
- Haoran Li, Yangqiu Song, Lixin Fan
- TLDR: Proponiamo un’obiettivo di difesa efficace per impedire la leakage privacy da hidden state dei chatbot addestrati da language model.
- Explaining Dialogue Evaluation Metrics using Adversarial Behavioral Analysis
- Baber Khalid, Sungjin Lee
- TLDR: Proponiamo un adversarial test-suite per valutare la qualità delle conversazioni e la loro correlazione con la valutazione delle metriche di dialogo.
- Annotators with Attitudes: How Annotator Beliefs And Identities Bias Toxic Language Detection
- Maarten Sap, Swabha Swayamdipta, Laura Vianna, Xuhui Zhou, Yejin Choi, Noah Smith
- TLDR: Proponiamo un metodo per analizzare la toxicità del linguaggio attraverso l’identificazione degli annotatori e le loro ipotesi.
- Non-Autoregressive Chinese ASR Error Correction with Phonological Training
- Zheng Fang, Ruiqing Zhang, Zhongjun He, Hua Wu, Yanan Cao
- TLDR: Proponiamo un metodo efficiente per la correzione degli errori di riconoscimento vocale basato sulla correzione di toni fonologici per la correzione degli errori di riconoscimento vocale.
- Hate Speech and Counter Speech Detection: Conversational Context Does Matter
- Xinchen Yu, Eduardo Blanco, Lingzi Hong
- TLDR: Proponiamo un modello di classificazione basato sul contesto per rilevare il speech online e il counter speech online.
- DACSA: A large-scale Dataset for Automatic summarization of Catalan and Spanish newspaper Articles
- Encarnación Segarra Soriano, Vicent Ahuir, Lluís-F. Hurtado, José González
- TLDR: Proponiamo un corpus di articoli tratte e domini per la summarizzazione automatica delle tracce di testo e di immagini.
- Time Waits for No One! Analysis and Challenges of Temporal Misalignment
- Kelvin Luu, Daniel Khashabi, Suchin Gururangan, Karishma Mandyam, Noah Smith
- TLDR: Proponiamo un’ampia suite di task diversi su diverse domini per studiare l’impatto della miscela temporale nel NLP.
- MCSE: Multimodal Contrastive Learning of Sentence Embeddings
- Miaoran Zhang, Marius Mosbach, David Adelani, Michael Hedderich, Dietrich Klakow
- TLDR: Proponiamo un metodo di embedding di frasi per task di similarità testuale e visiva.
- HiURE: Hierarchical Exemplar Contrastive Learning for Unsupervised Relation Extraction
- Shuliang Liu, Xuming Hu, Chenwei Zhang, Shu’ang Li, Lijie Wen, Philip Yu
- TLDR: Proponiamo HiURE, un nuovo approccio di contrastive learning basato sul modello di contrasto, che può generare segnali di rappresentazione relazionale da feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio di feature dello spazio.
- Diagnosing Vision-and-Language Navigation: What Really Matters
- Wanrong Zhu, Yuankai Qi, Pradyumna Narayana, Kazoo Sone, Sugato Basu, Xin Wang, Qi Wu, Miguel Eckstein, William Yang Wang
- TLDR: Proponiamo un nuovo metodo per imparare la navigazione visiva multimodale.
- Aligning to Social Norms and Values in Interactive Narratives
- Prithviraj Ammanabrolu, Liwei Jiang, Maarten Sap, Hannaneh Hajishirzi, Yejin Choi
- TLDR: Proponiamo un agente di allineamento del valore del gioco con i valori sociali per generare agenti che agiscono in accordo con le norme sociali.
- MOVER: Mask, Over-generate and Rank for Hyperbole Generation
- Yunxiang Zhang, Xiaojun Wan
- TLDR: Proponiamo un metodo per generare frasi e parafrasi di testo e dimostriamo che è efficace per generare frasi e parafrasi di testo e dimostriamo che è efficace per generare frasi e parafrasi di testo.
- Embarrassingly Simple Performance Prediction for Abductive Natural Language Inference
- Emīls Kadiķis, Vaibhav Srivastav, Roman Klinger
- TLDR: Proponiamo un metodo per valutare le prestazioni di classificazione del modello di natural language inference senza fine di fine-tuning il modello.
- Re-Examining System-Level Correlations of Automatic Summarization Evaluation Metrics
- Daniel Deutsch, Rotem Dror, Dan Roth
- TLDR: Proponiamo di calcolare il sistema score per una valutazione di summarization che è equivalente alla valutazione umana.