NAACL 2022 in Italian
TLDRs
- Knowledge Router: Learning Disentangled Representations for Knowledge Graphs
- Shuai Zhang, Xi Rao, Yi Tay, Ce Zhang
- TLDR: Proponiamo di imparare rappresentazioni di entite KG disentangled, che dimostriamo che le proprietà latenti delle proprietà latenti delle proprietà latenti delle proprietà latenti delle proprietà latenti delle proprietà latenti delle proprietà latenti.
- Distantly Supervised Relation Extraction with Sentence Reconstruction and Knowledge Base Priors
- Fenia Christopoulou, Makoto Miwa, Sophia Ananiadou
- TLDR: Proponiamo un approccio multi-task, probabilistico per facilitare l’estrazione di relazioni tra loro distanti supervisionate tramite un VAE che è addestrato insieme con un classificatore di relazioni.
- Cross-Task Instance Representation Interactions and Label Dependencies for Joint Information Extraction with Graph Convolutional Networks
- Minh Van Nguyen, Viet Dac Lai, Thien Huu Nguyen
- TLDR: Proponiamo un modello di deep learning per risolvere simultaneamente i task di informazioni extraction in un singolo modello (called FourIE) per risolvere i task di informazioni extraction in modo multilingue e multilingue.
- Abstract Meaning Representation Guided Graph Encoding and Decoding for Joint Information Extraction
- Zixuan Zhang, Heng Ji
- TLDR: Proponiamo un nuovo framework AMR guidato da un parser AMR per la ricerca di informazioni congiunte e eventi con la partecipazione di un parser AMR pre-trained.
- A Frustratingly Easy Approach for Entity and Relation Extraction
- Zexuan Zhong, Danqi Chen
- TLDR: Proponiamo un approccio di pipelined learning per l’apprendimento di rappresentazioni di entity e relazioni, che raggiunge prestazioni allo stato dell’arte su benchmark standard.
- Event Time Extraction and Propagation via Graph Attention Networks
- Haoyang Wen, Yanru Qu, Heng Ji, Qiang Ning, Jiawei Han, Avi Sil, Hanghang Tong, Dan Roth
- TLDR: Proponiamo un nuovo approccio basato sulla graph attention network per propagare informazioni temporali su eventi grafi a livello di documenti.
- Probing Word Translations in the Transformer and Trading Decoder for Encoder Layers
- Hongfei Xu, Josef van Genabith, Qiuhui Liu, Deyi Xiong
- TLDR: Proponiamo un metodo per migliorare la qualità della traduzione utilizzando la teoria del decodifica e la teoria del transformer.
- Mediators in Determining what Processing BERT Performs First
- Aviv Slobodkin, Leshem Choshen, Omri Abend
- TLDR: Proponiamo un metodo per confrontare BERT con altri modelli neurali utilizzando la distribuzione del contesto.
- Automatic Generation of Contrast Sets from Scene Graphs: Probing the Compositional Consistency of GQA
- Yonatan Bitton, Gabriel Stanovsky, Roy Schwartz, Michael Elhadad
- TLDR: Proponiamo un metodo per generare contrasti automaticamente per il question answering.
- Multilingual Language Models Predict Human Reading Behavior
- Nora Hollenstein, Federico Pirovano, Ce Zhang, Lena Jäger, Lisa Beinborn
- TLDR: Proponiamo un modello di trasformazione pretrained per la predizione di testo umano basato su testo umano.
- Do Syntactic Probes Probe Syntax? Experiments with Jabberwocky Probing
- Rowan Hall Maudslay, Ryan Cotterell
- TLDR: Proponiamo un corpus di frasi semantiche non semantiche e sintattiche per stimare la capacità di apprendimento di modelli di linguaggio neurale.
- A Non-Linear Structural Probe
- Jennifer C. White, Tiago Pimentel, Naomi Saphra, Ryan Cotterell
- TLDR: Proponiamo un modello di probe strutturale per studiare la struttura della conoscenza nelle rappresentazioni contestuali.
- Concealed Data Poisoning Attacks on NLP Models
- Eric Wallace, Tony Zhao, Shi Feng, Sameer Singh
- TLDR: Proponiamo un nuovo attacco di data poisoning che permette agli avversari di controllare le previsioni del modello di NLP.
- Backtranslation Feedback Improves User Confidence in MT, Not Quality
- Vilém Zouhar, Michal Novák, Matúš Žilinec, Ondřej Bojar, Mateo Obregón, Robin L. Hill, Frédéric Blain, Marina Fomicheva, Lucia Specia, Lisa Yankovskaya
- TLDR: Proponiamo un feedback backward per la traduzione outbound da un testo bilingui a un testo bilingui.
- Data Filtering using Cross-Lingual Word Embeddings
- Christian Herold, Jan Rosendahl, Joris Vanvinckenroye, Hermann Ney
- TLDR: Proponiamo diversi metodi per il filtering dei dati di input per la traduzione automatica.
- Improving the Lexical Ability of Pretrained Language Models for Unsupervised Neural Machine Translation
- Alexandra Chronopoulou, Dario Stojanovski, Alexander Fraser
- TLDR: Proponiamo di pre-training il modello di traduzione neurale multilingue utilizzando informazioni di livello di sottolingua e di tipo.
- Neural Machine Translation without Embeddings
- Uri Shaham, Omer Levy
- TLDR: Proponiamo di rappresentare ogni testo computerizzato come una sequenza di numeri tramite UTF-8.
- Counterfactual Data Augmentation for Neural Machine Translation
- Qi Liu, Matt Kusner, Phil Blunsom
- TLDR: Proponiamo un metodo di data augmentation per la traduzione neurale neurale che sfrutta la interpretazione dei modelli di linguaggio e la riallineamento phrasal causalmente.
- Cultural and Geographical Influences on Image Translatability of Words across Languages
- Nikzad Khani, Isidora Tourni, Mohammad Sadegh Rasooli, Chris Callison-Burch, Derry Tanti Wijaya
- TLDR: Proponiamo di imparare la translazione dei termini utilizzando immagini.
- Multilingual BERT Post-Pretraining Alignment
- Lin Pan, Chung-Wei Hang, Haode Qi, Abhishek Shah, Saloni Potdar, Mo Yu
- TLDR: Proponiamo un metodo per alignare embedding multilinguali contestuali su livello di frase e testo per migliorare la transferibilità tra modelli pretrained.
- A Million Tweets Are Worth a Few Points: Tuning Transformers for Customer Service Tasks
- Amir Hadifar, Sofie Labat, Veronique Hoste, Chris Develder, Thomas Demeester
- TLDR: Proponiamo un modello di customer service online multilingue per task di customer service.
- Paragraph-level Rationale Extraction through Regularization: A case study on European Court of Human Rights Cases
- Ilias Chalkidis, Manos Fergadiotis, Dimitrios Tsarapatsanis, Nikolaos Aletras, Ion Androutsopoulos, Prodromos Malakasiotis
- TLDR: Proponiamo un nuovo task di apprendimento di modelli di spiegazione e dimostriamo che le informazioni dirette da una fonte di apprendimento possono migliorare la qualità delle spiegazioni.
- Answering Product-Questions by Utilizing Questions from Other Contextually Similar Products
- Ohad Rozen, David Carmel, Avihai Mejer, Vitaly Mirkis, Yftah Ziser
- TLDR: Proponiamo un nuovo approccio complementare per la predizione di risposte contestuali per questioni di prodotto.
- EnSidNet: Enhanced Hybrid Siamese-Deep Network for grouping clinical trials into drug-development pathways
- Lucia Pagani
- TLDR: Proponiamo un modello di similarity per il problema di ricostruzione del percorso di sviluppo del drug-development.
- DATE: Detecting Anomalies in Text via Self-Supervision of Transformers
- Andrei Manolache, Florin Brad, Elena Burceanu
- TLDR: Proponiamo un nuovo task di pretext per rilevare le anomalie nel testo, che può essere utilizzato per addestrato end-to-end.
- A Simple Approach for Handling Out-of-Vocabulary Identifiers in Deep Learning for Source Code
- Nadezhda Chirkova, Sergey Troshin
- TLDR: Proponiamo un metodo di identifier anonymization per gestire gli out-of-vocabulary (OOV) identifier.
- Fast and Scalable Dialogue State Tracking with Explicit Modular Decomposition
- Dingmin Wang, Chenghua Lin, Qi Liu, Kam-Fai Wong
- TLDR: Proponiamo un modello di decomposizione modulare che incorpora sia la classificazione che l’estrazione per ottenere risultati allo stato dell’arte.
- Augmented SBERT: Data Augmentation Method for Improving Bi-Encoders for Pairwise Sentence Scoring Tasks
- Nandan Thakur, Nils Reimers, Johannes Daxenberger, Iryna Gurevych
- TLDR: Proponiamo un metodo di augmentation dei dati per pairwise sentence scoring.
- SmBoP: Semi-autoregressive Bottom-up Semantic Parsing
- Ohad Rubin, Jonathan Berant
- TLDR: Proponiamo un parser semi-autoregressivo bottom-up per il decodificamento semantico.
- SGL: Speaking the Graph Languages of Semantic Parsing via Multilingual Translation
- Luigi Procopio, Rocco Tripodi, Roberto Navigli
- TLDR: Proponiamo un framework di apprendimento multilingue basato sulla traduzione neurale multi-lingue per parsing semantico.
- Unifying Cross-Lingual Semantic Role Labeling with Heterogeneous Linguistic Resources
- Simone Conia, Andrea Bacciu, Roberto Navigli
- TLDR: Proponiamo un modello unificato per eseguire SRL cross-lingual su risorse linguistiche heterogenee.
- Fool Me Twice: Entailment from Wikipedia Gamification
- Julian Eisenschlos, Bhuwan Dhingra, Jannis Bulian, Benjamin Börschinger, Jordan Boyd-Graber
- TLDR: Proponiamo FoolMeTwice, un dataset di entailment e dimostriamo che può essere utilizzato per risolvere molti task di ricerca e recupero di esempi di entailment.
- Meta-Learning for Domain Generalization in Semantic Parsing
- Bailin Wang, Mirella Lapata, Ivan Titov
- TLDR: Proponiamo un metodo di meta-learning per generalizzare il dominio per parsing semantico.
- Aspect-Controlled Neural Argument Generation
- Benjamin Schiller, Johannes Daxenberger, Iryna Gurevych
- TLDR: Proponiamo un metodo per generare argumentative sentence-level per un dato topic, stance e aspect.
- Text Generation from Discourse Representation Structures
- Jiangming Liu, Shay B. Cohen, Mirella Lapata
- TLDR: Proponiamo modelli neurali per generare testo da rappresentazioni di linguaggio naturale basate su Structure di Discourse Representation Structure (DRS) e forniamo soluzioni per il problema di condition ordering e la classificazione delle variabili.
- APo-VAE: Text Generation in Hyperbolic Space
- Shuyang Dai, Zhe Gan, Yu Cheng, Chenyang Tao, Lawrence Carin, Jingjing Liu
- TLDR: Proponiamo un adversarial autoencoder per la generazione di testo in uno spazio latente di testo per imparare rappresentazioni gerarchiche.
- DART: Open-Domain Structured Data Record to Text Generation
- Linyong Nan, Dragomir Radev, Rui Zhang, Amrit Rau, Abhinand Sivaprasad, Chiachun Hsieh, Xiangru Tang, Aadit Vyas, Neha Verma, Pranav Krishna, Yangxiaokang Liu, Nadia Irwanto, Jessica Pan, Faiaz Rahman, Ahmad Zaidi, Mutethia Mutuma, Yasin Tarabar, Ankit Gupta, Tao Yu, Yi Chern Tan, Xi Victoria Lin, Caiming Xiong, Richard Socher, Nazneen Fatema Rajani
- TLDR: Proponiamo un nuovo dataset di dataset-to-text strutturato che sfrutta le dipendenze semantiche tra i dati header e la data title per costruire un dataset di testo.
- When Being Unseen from mBERT is just the Beginning: Handling New Languages With Multilingual Language Models
- Benjamin Muller, Antonios Anastasopoulos, Benoît Sagot, Djamé Seddah
- TLDR: Proponiamo di imparare a parlare in linguaggio naturale su un insieme di lingue non viste.
- Multi-Adversarial Learning for Cross-Lingual Word Embeddings
- Haozhou Wang, James Henderson, Paola Merlo
- TLDR: Proponiamo un metodo di multi-adversarial learning per incoraggiare la seed cross-linguality per la traduzione bilinguale e la traduzione multi-lingual.
- Multi-view Subword Regularization
- Xinyi Wang, Sebastian Ruder, Graham Neubig
- TLDR: Proponiamo un metodo di regolarizzazione sub-view multilingue per migliorare la qualità del transfer multilingue.
- mT5: A Massively Multilingual Pre-trained Text-to-Text Transformer
- Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, Colin Raffel
- TLDR: Proponiamo un modello di transizione multilingue per la traduzione di testo-to-testi.
- MetaXL: Meta Representation Transformation for Low-resource Cross-lingual Learning
- Mengzhou Xia, Guoqing Zheng, Subhabrata Mukherjee, Milad Shokouhi, Graham Neubig, Ahmed Hassan Awadallah
- TLDR: Proponiamo MetaXL, un metodo di meta-learning basato sul cross-lingual transfer che migliora le prestazioni di transfer su languages ad alta risolusione.
- Open Domain Question Answering over Tables via Dense Retrieval
- Jonathan Herzig, Thomas Müller, Syrine Krichene, Julian Eisenschlos
- TLDR: Proponiamo un nuovo retriever basato su BERT per open-QA.
- Open-Domain Question Answering Goes Conversational via Question Rewriting
- Raviteja Anantha, Svitlana Vakulenko, Zhucheng Tu, Shayne Longpre, Stephen Pulman, Srinivas Chappidi
- TLDR: Proponiamo un nuovo dataset QReCC per question rewriting in contesto conversazionale.
- QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question Answering
- Michihiro Yasunaga, Hongyu Ren, Antoine Bosselut, Percy Liang, Jure Leskovec
- TLDR: Proponiamo un modello di QA-GNN che affronta il problema della ricerca di knowledge graph in un contesto di QA e può rispondere alle domande e rispondere alle risposte.
- XOR QA: Cross-lingual Open-Retrieval Question Answering
- Akari Asai, Jungo Kasai, Jonathan Clark, Kenton Lee, Eunsol Choi, Hannaneh Hajishirzi
- TLDR: Proponiamo un nuovo task per question answering open-retrieval multilingue che può rispondere a domande da più lingue.
- SPARTA: Efficient Open-Domain Question Answering via Sparse Transformer Matching Retrieval
- Tiancheng Zhao, Xiaopeng Lu, Kyusong Lee
- TLDR: Proponiamo un nuovo metodo di retrieval neurale che raggiunge risultati allo stato dell’arte su 4 task di question answering open-domain e 11 task di Retrieval question answering.
- Implicitly Abusive Language – What does it actually look like and why are we not getting there?
- Michael Wiegand, Josef Ruppenhofer, Elisabeth Eder
- TLDR: Proponiamo un’analisi del problema di apprendimento implicito di linguaggio in linguaggio implicito.
- The Importance of Modeling Social Factors of Language: Theory and Practice
- Dirk Hovy, Diyi Yang
- TLDR: Proponiamo un metodo per affrontare il problema della comprensione del linguaggio umano attraverso la comprensione del linguaggio umano.
- On learning and representing social meaning in NLP: a sociolinguistic perspective
- Dong Nguyen, Laura Rosseel, Jack Grieve
- TLDR: Proponiamo il concetto di social meaning per la NLP e mostriamo che le intuizioni dalle lingue possono essere utilizzate per migliorare il lavoro di rappresentazione nel campo della NLP.
- Preregistering NLP research
- Emiel van Miltenburg, Chris van der Lee, Emiel Krahmer
- TLDR: Proponiamo di registrare il lavoro di ricerca NLP per la ricerca di dati di ricerca per la ricerca di dati di ricerca per la ricerca di dati di ricerca per la ricerca di dati di ricerca.
- Get Your Vitamin C! Robust Fact Verification with Contrastive Evidence
- Tal Schuster, Adam Fisch, Regina Barzilay
- TLDR: Proponiamo VitaminC, un benchmark per la verifica di fonti di apprendimento per la verifica di fatti basati sulla teoria del testo.
- Representing Numbers in NLP: a Survey and a Vision
- Avijit Thawani, Jay Pujara, Filip Ilievski, Pedro Szekely
- TLDR: Proponiamo un metodo per rappresentare i numeri nel testo e un visionario per la modellazione della rappresentazione del testo.
- Extending Multi-Document Summarization Evaluation to the Interactive Setting
- Ori Shapira, Ramakanth Pasunuru, Hadar Ronen, Mohit Bansal, Yael Amsterdamer, Ido Dagan
- TLDR: Proponiamo un framework di valutazione end-to-end per la summarization interactive basato sull’interazione basata sull’apprendimento, che utilizza informazioni di input per migliorare la qualità del risultato di sintesi.
- Identifying Helpful Sentences in Product Reviews
- Iftah Gamzu, Hila Gonen, Gilad Kutiel, Ran Levy, Eugene Agichtein
- TLDR: Proponiamo un nuovo task di extracting di frasi di importanza rilevante da un insieme di reviews per un dato prodotto.
- Noisy Self-Knowledge Distillation for Text Summarization
- Yang Liu, Sheng Shen, Mirella Lapata
- TLDR: Proponiamo un framework di self-knowledge distillation per la summarization text-to-speech che migliora le prestazioni di training su dataset di riferimento e dati di ricerca.
- Improving Zero and Few-Shot Abstractive Summarization with Intermediate Fine-tuning and Data Augmentation
- Alexander Fabbri, Simeng Han, Haoyuan Li, Haoran Li, Marjan Ghazvininejad, Shafiq Joty, Dragomir Radev, Yashar Mehdad
- TLDR: Proponiamo WikiTransfer per fine-tuning pretrained modelli per la summarization in modo unsupervised, dataset-specifico.
- Enhancing Factual Consistency of Abstractive Summarization
- Chenguang Zhu, William Hinthorn, Ruochen Xu, Qingkai Zeng, Michael Zeng, Xuedong Huang, Meng Jiang
- TLDR: Proponiamo un modello di summarization fact-aware per risolvere il problema di incertezza nel processo di generazione di grafi.
- Few-shot Intent Classification and Slot Filling with Retrieved Examples
- Dian Yu, Luheng He, Yuan Zhang, Xinya Du, Panupong Pasupat, Qi Li
- TLDR: Proponiamo un metodo di recupero di span a livello di obiettivo per few shot learning.
- “Nice Try, Kiddo”: Investigating Ad Hominems in Dialogue Responses
- Emily Sheng, Kai-Wei Chang, Prem Natarajan, Nanyun Peng
- TLDR: Proponiamo un metodo per studiare le risposte di dialogo umano e dialogue system ad hominem in termini di dati di risposta.
- Human-like informative conversations: Better acknowledgements using conditional mutual information
- Ashwin Paranjape, Christopher Manning
- TLDR: Proponiamo un agente di dialogo umano-uomo che può incorporare nuovi contenuti factuali in conversazioni asincroni come gli esseri umani.
- A Comparative Study on Schema-Guided Dialogue State Tracking
- Jie Cao, Yi Zhang
- TLDR: Proponiamo di utilizzare le descrizioni naturali per definire la domain ontology e dimostriamo che le descrizioni naturali possono essere utilizzate per definire lo schema.
- Spoken Language Understanding for Task-oriented Dialogue Systems with Augmented Memory Networks
- Jie Wu, Ian Harris, Hongzhi Zhao
- TLDR: Proponiamo un nuovo approccio per modellare il contesto di gioco a lungo termine e sfruttare la correlazione semantica tra le slots e gli intenti.
- How to Motivate Your Dragon: Teaching Goal-Driven Agents to Speak and Act in Fantasy Worlds
- Prithviraj Ammanabrolu, Jack Urbanek, Margaret Li, Arthur Szlam, Tim Rocktäschel, Jason Weston
- TLDR: Proponiamo un reinforcement learning per addestrare agenti che imparino a parlare e a comportarsi in modo naturale nel raggio di un obiettivo.
- Linking Entities to Unseen Knowledge Bases with Arbitrary Schemas
- Yogarshi Vyas, Miguel Ballesteros
- TLDR: Proponiamo un metodo per collegare le informazioni di conoscenza tra le knowledge base non viste e le informazioni di training non viste.
- Self-Training with Weak Supervision
- Giannis Karamanolakis, Subhabrata Mukherjee, Guoqing Zheng, Ahmed Hassan Awadallah
- TLDR: Proponiamo un obiettivo di apprendimento semi-supervisionato per end-to-end training con dati di training non annotati, regole di apprendimento e un piccolo numero di dati di training non annotati.
- Neural Language Modeling for Contextualized Temporal Graph Generation
- Aman Madaan, Yiming Yang
- TLDR: Proponiamo un nuovo task di generazione di grafi contestuali per la generazione di documenti di testo e immagini.
- Probabilistic Box Embeddings for Uncertain Knowledge Graph Reasoning
- Xuelu Chen, Michael Boratko, Muhao Chen, Shib Sankar Dasgupta, Xiang Lorraine Li, Andrew McCallum
- TLDR: Proponiamo un nuovo metodo di knowledge graph embedding uncertain con semantica probabilistica calibrata per risolvere il problema della generalizzazione.
- Document-Level Event Argument Extraction by Conditional Generation
- Sha Li, Heng Ji, Jiawei Han
- TLDR: Proponiamo un modello di extrazione degli eventi neurali di testo e coerenza per task di informative argument extraction.
- Template Filling with Generative Transformers
- Xinya Du, Alexander Rush, Claire Cardie
- TLDR: Proponiamo un framework generativo end-to-end per il filling del template/event che modella la dipendenza tra le informazioni descritte in un documento e le informazioni descritte in un modello di pipeline.
- Towards Interpreting and Mitigating Shortcut Learning Behavior of NLU models
- Mengnan Du, Varun Manjunatha, Rajiv Jain, Ruchi Deshpande, Franck Dernoncourt, Jiuxiang Gu, Tong Sun, Xia Hu
- TLDR: Proponiamo un framework di mitigazione shortcut per il training di modelli NLU.
- On Attention Redundancy: A Comprehensive Study
- Yuchen Bian, Jiaji Huang, Xingyu Cai, Jiahong Yuan, Kenneth Church
- TLDR: Proponiamo un metodo di pruning del modello di attention per stimare la redundancy e la sua applicazione al fine di migliorare la comprensione del modello e la compressione del modello.
- Does BERT Pretrained on Clinical Notes Reveal Sensitive Data?
- Eric Lehman, Sarthak Jain, Karl Pichotta, Yoav Goldberg, Byron Wallace
- TLDR: Proponiamo un nuovo metodo per recuperare le informazioni sanitarie personali da un BERT addestrato sulla base di un corpus di EHR.
- Low-Complexity Probing via Finding Subnetworks
- Steven Cao, Victor Sanh, Alexander Rush
- TLDR: Proponiamo un metodo di pruning basato sulla sottorete per rilevare le proprietà linguistiche del modello.
- An Empirical Comparison of Instance Attribution Methods for NLP
- Pouya Pezeshkpour, Sarthak Jain, Byron Wallace, Sameer Singh
- TLDR: Proponiamo un metodo per addestrare le instance di training che non mostrano le stesse proprietà di attribuzione di precedenti metodi di stima.
- Generalization in Instruction Following Systems
- Soham Dan, Michael Zhou, Dan Roth
- TLDR: Proponiamo un metodo per imparare la comprensione del linguaggio naturale per il dominio del mondo.
- LightningDOT: Pre-training Visual-Semantic Embeddings for Real-Time Image-Text Retrieval
- Siqi Sun, Yen-Chun Chen, Linjie Li, Shuohang Wang, Yuwei Fang, Jingjing Liu
- TLDR: Proponiamo un metodo per ridurre il tempo di inferenza ITR di migliaia di volte, senza sacrificare precisione.
- Measuring Social Biases in Grounded Vision and Language Embeddings
- Candace Ross, Boris Katz, Andrei Barbu
- TLDR: Proponiamo un nuovo dataset per stimare il bias sociale nei word embedding.
- MTAG: Modal-Temporal Attention Graph for Unaligned Human Multimodal Language Sequences
- Jianing Yang, Yongxin Wang, Ruitao Yi, Yuying Zhu, Azaan Rehman, Amir Zadeh, Soujanya Poria, Louis-Philippe Morency
- TLDR: Proponiamo un modello neurale per la comunicazione multimodale basato sul grafio.
- Grounding Open-Domain Instructions to Automate Web Support Tasks
- Nancy Xu, Sam Masling, Michael Du, Giovanni Campagna, Larry Heck, James Landay, Monica Lam
- TLDR: Proponiamo un modello di grounding per grounding natural language instructions su web.
- Modular Networks for Compositional Instruction Following
- Rodolfo Corona, Daniel Fried, Coline Devin, Dan Klein, Trevor Darrell
- TLDR: Proponiamo un’architettura modulare per eseguire le instruction following di sottogoal che descrivono diverse sequenze di sottogoal.
- Improving Cross-Modal Alignment in Vision Language Navigation via Syntactic Information
- Jialu Li, Hao Tan, Mohit Bansal
- TLDR: Proponiamo un agente di navigazione per language navigation 3D che utilizza informazioni di sintesi e dependency per migliorare l’alignment tra le informazioni visive attuali e le informazioni visive passate.
- Improving Pretrained Models for Zero-shot Multi-label Text Classification through Reinforced Label Hierarchy Reasoning
- Hui Liu, Danqing Zhang, Bing Yin, Xiaodan Zhu
- TLDR: Proponiamo un metodo di reinforcement learning per imparare le gerarchie di label per la classificazione text-to-speech.
- Fine-Tuning Pre-trained Language Model with Weak Supervision: A Contrastive-Regularized Self-Training Approach
- Yue Yu, Simiao Zuo, Haoming Jiang, Wendi Ren, Tuo Zhao, Chao Zhang
- TLDR: Proponiamo un framework di contrasto per fine-tuning LM con weak supervision.
- Posterior Differential Regularization with f-divergence for Improving Model Robustness
- Hao Cheng, Xiaodong Liu, Lis Pereira, Yaoliang Yu, Jianfeng Gao
- TLDR: Proponiamo un framework per la regolarizzazione differenziale posteriore del modello per migliorare la robustezza del modello.
- Understanding Hard Negatives in Noise Contrastive Estimation
- Wenzheng Zhang, Karl Stratos
- TLDR: Proponiamo un modello di contrasto contrastivo basato sulla loss per la stima della loss contrastiva.
- Certified Robustness to Word Substitution Attack with Differential Privacy
- Wenjie Wang, Pengfei Tang, Jian Lou, Li Xiong
- TLDR: Proponiamo WordDP per ottenere una robustezza certificata contro la sostituzione di parole e parole con sinonimi.
- DReCa: A General Task Augmentation Strategy for Few-Shot Natural Language Inference
- Shikhar Murty, Tatsunori B. Hashimoto, Christopher Manning
- TLDR: Proponiamo un metodo per risolvere il meta-learning few shot utilizzando un modello BERT per scoprire e utilizzare le categorie latenti del ragionamento.
- Harnessing Multilinguality in Unsupervised Machine Translation for Rare Languages
- Xavier Garcia, Aditya Siddhant, Orhan Firat, Ankur Parikh
- TLDR: Proponiamo un modello di traduzione multilingue per 5 lingue low-resource.
- Macro-Average: Rare Types Are Important Too
- Thamme Gowda, Weiqiu You, Constantine Lignos, Jonathan May
- TLDR: Proponiamo un modello di valutazione per la traduzione neurale basato sul tipo per la valutazione di corpus-level.
- Assessing Reference-Free Peer Evaluation for Machine Translation
- Sweta Agrawal, George Foster, Markus Freitag, Colin Cherry
- TLDR: Proponiamo un metodo per valutare la traduzione multilingue utilizzando la valutazione senza riferimento.
- The Curious Case of Hallucinations in Neural Machine Translation
- Vikas Raunak, Arul Menezes, Marcin Junczys-Dowmunt
- TLDR: Proponiamo un’ipotesi per spiegare le hallucinazioni sotto perturbazioni di corpus-level rumore.
- Towards Continual Learning for Multilingual Machine Translation via Vocabulary Substitution
- Xavier Garcia, Noah Constant, Ankur Parikh, Orhan Firat
- TLDR: Proponiamo un metodo per adattare il linguaggio dei modelli di traduzione multilingue, che migliora le prestazioni di continual learning per la traduzione multilingue.
- Towards Modeling the Style of Translators in Neural Machine Translation
- Yue Wang, Cuong Hoang, Marcello Federico
- TLDR: Proponiamo un modello di traduzione neurale che può catturare le variazioni dello stile dei translatori e generare traduzioni con diverse forme di linguaggio.
- Self-Supervised Test-Time Learning for Reading Comprehension
- Pratyay Banerjee, Tejas Gokhale, Chitta Baral
- TLDR: Proponiamo un metodo di reading comprehension unsupervised che può eseguire il test-time learning (TTL) su un dato contesto (test passage) senza richiedere alcun training.
- Capturing Row and Column Semantics in Transformer Based Question Answering over Tables
- Michael Glass, Mustafa Canim, Alfio Gliozzo, Saneem Chemmengath, Vishwajeet Kumar, Rishav Chakravarti, Avi Sil, Feifei Pan, Samarth Bharadwaj, Nicolas Rodolfo Fauceglia
- TLDR: Proponiamo un nuovo approccio per risolvere il task di QA di table QA utilizzando trasformatori basati sul modello RCI.
- Explainable Multi-hop Verbal Reasoning Through Internal Monologue
- Zhengzhong Liang, Steven Bethard, Mihai Surdeanu
- TLDR: Proponiamo un modello di ragionamento multi-hop comprensivo di linguaggio naturale per risolvere il problema di multi-hop reasoning.
- Robust Question Answering Through Sub-part Alignment
- Jifan Chen, Greg Durrett
- TLDR: Proponiamo un modello di question answering strutturato per question answering testuale.
- Text Modular Networks: Learning to Decompose Tasks in the Language of Existing Models
- Tushar Khot, Daniel Khashabi, Kyle Richardson, Peter Clark, Ashish Sabharwal
- TLDR: Proponiamo un framework generale per costruire sistemi interpretabili che imparano a risolvere complessi task di apprendimento.
- RECONSIDER: Improved Re-Ranking using Span-Focused Cross-Attention for Open Domain Question Answering
- Srinivasan Iyer, Sewon Min, Yashar Mehdad, Wen-tau Yih
- TLDR: Proponiamo un metodo di re-ranking per la selezione dello span per QA.
- On the Transferability of Minimal Prediction Preserving Inputs in Question Answering
- Shayne Longpre, Yi Lu, Chris DuBois
- TLDR: Proponiamo di utilizzare MPPI per question answering.
- Understanding by Understanding Not: Modeling Negation in Language Models
- Arian Hosseini, Siva Reddy, Dzmitry Bahdanau, R Devon Hjelm, Alessandro Sordoni, Aaron Courville
- TLDR: Proponiamo di aumentare l’obiettivo di language modeling con un obiettivo di unlikelihood basato su frasi di origine e origine.
- DuoRAT: Towards Simpler Text-to-SQL Models
- Torsten Scholak, Raymond Li, Dzmitry Bahdanau, Harm de Vries, Chris Pal
- TLDR: Proponiamo DuoRAT, un modello di apprendimento text-to-SQL che utilizza solo transformer relation-aware e vanilla per costruire la baseline.
- Looking Beyond Sentence-Level Natural Language Inference for Question Answering and Text Summarization
- Anshuman Mishra, Dhruvesh Patel, Aparna Vijayakumar, Xiang Lorraine Li, Pavan Kapanipathi, Kartik Talamadupula
- TLDR: Proponiamo di convertire i tradizionali dataset di testo e lettura in dataset di testo più lunghi per risolvere il problema di apprendimento NLP.
- Structure-Grounded Pretraining for Text-to-SQL
- Xiang Deng, Ahmed Hassan Awadallah, Christopher Meek, Oleksandr Polozov, Huan Sun, Matthew Richardson
- TLDR: Proponiamo un nuovo framework di pretraining weakly supervised per text-to-SQL che può imparare a catturare la riallineatura testo-table sfruttando un corpus parallelo di testo-table.
- Incremental Few-shot Text Classification with Multi-round New Classes: Formulation, Dataset and System
- Congying Xia, Wenpeng Yin, Yihao Feng, Philip Yu
- TLDR: Proponiamo un nuovo task di apprendimento incrementale few shot di testo, che incrementalmente impara nuove classi da pochi esempi.
- Temporal Reasoning on Implicit Events from Distant Supervision
- Ben Zhou, Kyle Richardson, Qiang Ning, Tushar Khot, Ashish Sabharwal, Dan Roth
- TLDR: Proponiamo un nuovo dataset di temporale reasoning che valuta la grado di conoscenza dei sistemi di comprensione degli eventi impliciti.
- Disentangling Semantics and Syntax in Sentence Embeddings with Pre-trained Language Models
- James Y. Huang, Kuan-Hao Huang, Kai-Wei Chang
- TLDR: Proponiamo ParaBART, un modello di embedding di frasi che impara a distinguere la semantica e la sintassi in dati di embedding di frasi.
- Structure-Aware Abstractive Conversation Summarization via Discourse and Action Graphs
- Jiaao Chen, Diyi Yang
- TLDR: Proponiamo un modello di sintesi conversazionale che incorpora la struttura delle conversazioni per una migliore sintesi.
- A New Approach to Overgenerating and Scoring Abstractive Summaries
- Kaiqiang Song, Bingqing Wang, Zhe Feng, Fei Liu
- TLDR: Proponiamo un metodo per generare più varianti del target summary con diverse dimensioni e lunghezze, poi selezionare le varianti admissive secondo le esigenze degli utenti.
- D2S: Document-to-Slide Generation Via Query-Based Text Summarization
- Edward Sun, Yufang Hou, Dakuo Wang, Yunfeng Zhang, Nancy X. R. Wang
- TLDR: Proponiamo un nuovo metodo per riutilizzare le title dei documenti per riattivare il contesto di sintesi e la sintesi.
- Efficient Attentions for Long Document Summarization
- Luyang Huang, Shuyang Cao, Nikolaus Parulian, Heng Ji, Lu Wang
- TLDR: Proponiamo Hepos, un modello di attention efficiente per la summarization di documenti lunghi.
- RefSum: Refactoring Neural Summarization
- Yixin Liu, Zi-Yi Dou, Pengfei Liu
- TLDR: Proponiamo un metodo Refactor per risolvere il problema della combinazione di testo e summaries.
- Annotating and Modeling Fine-grained Factuality in Summarization
- Tanya Goyal, Greg Durrett
- TLDR: Proponiamo un metodo per rilevare la factuality di un modello di summarization di XSum.
- Larger-Context Tagging: When and Why Does It Work?
- Jinlan Fu, Liangjing Feng, Qi Zhang, Xuanjing Huang, Pengfei Liu
- TLDR: Proponiamo un metodo di valutazione basato sul training di contesti per la classificazione delle parole e il tagger di testo.
- Neural Sequence Segmentation as Determining the Leftmost Segments
- Yangming Li, Lemao Liu, Kaisheng Yao
- TLDR: Proponiamo un nuovo metodo per segmentare le frasi naturali in modo incrementale.
- PCFGs Can Do Better: Inducing Probabilistic Context-Free Grammars with Many Symbols
- Songlin Yang, Yanpeng Zhao, Kewei Tu
- TLDR: Proponiamo una nuova forma di parametrizzazione per PCFG probabilistiche senza contesto e senza tensori.
- GEMNET: Effective Gated Gazetteer Representations for Recognizing Complex Entities in Low-context Input
- Tao Meng, Anjie Fang, Oleg Rokhlenko, Shervin Malmasi
- TLDR: Proponiamo GEMNET, un nuovo approccio per l’integrazione di knowledge embedding con la gating gating per la Named Entity Recognition.
- Video-aided Unsupervised Grammar Induction
- Songyang Zhang, Linfeng Song, Lifeng Jin, Kun Xu, Dong Yu, Jiebo Luo
- TLDR: Proponiamo un modello PCFG multimodale basato sul video per l’apprendimento di una rappresentazione parser da testo e video.
- Generating Negative Samples by Manipulating Golden Responses for Unsupervised Learning of a Response Evaluation Model
- ChaeHun Park, Eugene Jang, Wonsuk Yang, Jong Park
- TLDR: Proponiamo un metodo per valutare la qualità del feedback generato da sistemi di conversazione open-domain.
- How Robust are Fact Checking Systems on Colloquial Claims?
- Byeongchang Kim, Hyunwoo Kim, Seokhee Hong, Gunhee Kim
- TLDR: Proponiamo un nuovo metodo per verificare la verazza delle informazioni da fonti formali.
- Fine-grained Post-training for Improving Retrieval-based Dialogue Systems
- Janghoon Han, Taesuk Hong, Byoungjae Kim, Youngjoong Ko, Jungyun Seo
- TLDR: Proponiamo un metodo di training fine-grained per la selezione di risposte multi-task per la ricerca di risposte multi-task.
- Put Chatbot into Its Interlocutor’s Shoes: New Framework to Learn Chatbot Responding with Intention
- Hsuan Su, Jiun-Hao Jhan, Fan-yun Sun, Saurav Sahay, Hung-yi Lee
- TLDR: Proponiamo un nuovo metodo per addestrare chatbot con intenzioni umane simili a quelle degli umani.
- Adding Chit-Chat to Enhance Task-Oriented Dialogues
- Kai Sun, Seungwhan Moon, Paul Crook, Stephen Roller, Becka Silvert, Bing Liu, Zhiguang Wang, Honglei Liu, Eunjoon Cho, Claire Cardie
- TLDR: Proponiamo un nuovo approccio di apprendimento collaborativo per addestrare modelli di chat per dialogue-oriented dialogue.
- Incorporating Syntax and Semantics in Coreference Resolution with Heterogeneous Graph Attention Network
- Fan Jiang, Trevor Cohn
- TLDR: Proponiamo un modello di attention basato sul grafi per incorporare la struttura semantica e la struttura sintattica delle frasi.
- Context Tracking Network: Graph-based Context Modeling for Implicit Discourse Relation Recognition
- Yingxue Zhang, Fandong Meng, Peng Li, Ping Jian, Jie Zhou
- TLDR: Proponiamo una nuova graph-based Context Tracking Network (CT-Net) per modellare il contesto del discorso nel riconoscimento di relazioni di dialogo implicito.
- Improving Neural RST Parsing Model with Silver Agreement Subtrees
- Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, Masaaki Nagata
- TLDR: Proponiamo un metodo per migliorare le prestazioni di parsing neurale RST sfruttando i dati di annotazione automaticamente annotati.
- RST Parsing from Scratch
- Thanh-Tung Nguyen, Xuan-Phi Nguyen, Shafiq Joty, Xiaoli Li
- TLDR: Proponiamo un modello di parsing del discorso da documenti per parsing del discorso da documenti.
- Did they answer? Subjective acts and intents in conversational discourse
- Elisa Ferracane, Greg Durrett, Junyi Jessy Li, Katrin Erk
- TLDR: Proponiamo un dataset di conversazione e dimostriamo che le interpretazioni possono essere molteplici e subjective.
- Evaluating the Impact of a Hierarchical Discourse Representation on Entity Coreference Resolution Performance
- Sopan Khosla, James Fiacco, Carolyn Rosé
- TLDR: Proponiamo un nuovo metodo per risolvere la coerenza delle parole e la frase conosciute utilizzando parsing parsed da tre tre parse di parole e frasi.
- Bridging Resolution: Making Sense of the State of the Art
- Hideo Kobayashi, Vincent Ng
- TLDR: Proponiamo un approccio di multi-task learning basato sulla regola e MTL che permette un migliore comprensione delle loro differenze.
- Explicitly Modeling Syntax in Language Models with Incremental Parsing and a Dynamic Oracle
- Yikang Shen, Shawn Tan, Alessandro Sordoni, Siva Reddy, Aaron Courville
- TLDR: Proponiamo un nuovo modello di parsing e di apprendimento automatico della sintassi, che può essere utilizzato per migliorare la generalizzazione e la generalizzazione.
- Revisiting the Weaknesses of Reinforcement Learning for Neural Machine Translation
- Samuel Kiegeland, Julia Kreutzer
- TLDR: Proponiamo un’analisi empirica del ruolo della ricerca e della reward per policy gradient.
- Learning to Organize a Bag of Words into Sentences with Neural Networks: An Empirical Study
- Chongyang Tao, Shen Gao, Juntao Li, Yansong Feng, Dongyan Zhao, Rui Yan
- TLDR: Proponiamo un nuovo metodo per imparare la codifica dei linguaggi naturali senza ordini.
- Mask Attention Networks: Rethinking and Strengthen Transformer
- Zhihao Fan, Yeyun Gong, Dayiheng Liu, Zhongyu Wei, Siyuan Wang, Jian Jiao, Nan Duan, Ruofei Zhang, Xuanjing Huang
- TLDR: Proponiamo un nuovo layer di attention per la trasformazione di Transformer in una deep attention network.
- ERNIE-Gram: Pre-Training with Explicitly N-Gram Masked Language Modeling for Natural Language Understanding
- Dongling Xiao, Yu-Kun Li, Han Zhang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: Proponiamo ERNIE-Gram, un metodo di masking di n-gram per il pre-training di informazioni linguistiche coarse-grained.
- Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese Pre-trained Language Models
- Yuxuan Lai, Yijia Liu, Yansong Feng, Songfang Huang, Dongyan Zhao
- TLDR: Proponiamo un nuovo metodo di pre-training per la comprensione del linguaggio naturale basato sulla struttura lattice per sfruttare le informazioni di input e le informazioni di input.
- Modeling Event Plausibility with Consistent Conceptual Abstraction
- Ian Porada, Kaheer Suleman, Adam Trischler, Jackie Chi Kit Cheung
- TLDR: Proponiamo un metodo per forcing la consistenza dei modelli di plausibilità basati sul trasformatore di Transformer.
- UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual Embeddings Using the Unified Medical Language System Metathesaurus
- George Michalopoulos, Yuanxin Wang, Hussam Kaka, Helen Chen, Alexander Wong
- TLDR: Proponiamo un modello di embedding contestuale di parole che integra la conoscenza del dominio durante il processo di pre-training tramite una strategia di knowledge augmentation.
- Field Embedding: A Unified Grain-Based Framework for Word Representation
- Junjie Luo, Xi Chen, Jichao Sun, Yuejia Xiang, Ningyu Zhang, Xiang Wan
- TLDR: Proponiamo un framework di embedding per imparare entrambi i word e i pesi di gerarchia.
- MelBERT: Metaphor Detection via Contextualized Late Interaction using Metaphorical Identification Theories
- Minjin Choi, Sunkyung Lee, Eunseong Choi, Heesoo Park, Junhyuk Lee, Dongwon Lee, Jongwuk Lee
- TLDR: Proponiamo un nuovo metodo per rilevare le metamorfe in termini di parole e frasi.
- Non-Parametric Few-Shot Learning for Word Sense Disambiguation
- Howard Chen, Mengzhou Xia, Danqi Chen
- TLDR: Proponiamo un metodo di few shot learning per risolvere il problema della disambiguazione del senso.
- Why Do Document-Level Polarity Classifiers Fail?
- Karen Martins, Pedro O.S Vaz-de-Melo, Rodrygo Santos
- TLDR: Proponiamo una metodologia per caratterizzare, quantificare e misurare l’impatto di eventi di polarità nella classificazione del testo e dimostriamo che le feature del testo non sono correlate alla polarità del testo.
- A Unified Span-Based Approach for Opinion Mining with Syntactic Constituents
- Qingrong Xia, Bo Zhang, Rui Wang, Zhenghua Li, Yue Zhang, Fei Huang, Luo Si, Min Zhang
- TLDR: Proponiamo un approccio unificato di stima dello span per il fine-grained opinion mining end-to-end.
- Target-specified Sequence Labeling with Multi-head Self-attention for Target-oriented Opinion Words Extraction
- Yuhao Feng, Yanghui Rao, Yuyao Tang, Ninghua Wang, He Liu
- TLDR: Proponiamo un modello di auto-attention multi-head per l’apprendimento basato sull’aspetto per l’apprendimento di sequenze di testo target-oriented.
- Does syntax matter? A strong baseline for Aspect-based Sentiment Analysis with RoBERTa
- Junqi Dai, Hang Yan, Tianxiang Sun, Pengfei Liu, Xipeng Qiu
- TLDR: Proponiamo un modello di stima del sentiment basato su RoBERTa per l’apprendimento di modelli di sentiment analysis.
- Domain Divergences: A Survey and Empirical Analysis
- Abhinav Ramesh Kashyap, Devamanyu Hazarika, Min-Yen Kan, Roger Zimmermann
- TLDR: Proponiamo una taxonomia di divergenze per la valutazione di divergenze di misure di divergenza per la valutazione di divergenze di misure di divergenza per la valutazione di divergenze di misure di divergenze.
- Target-Aware Data Augmentation for Stance Detection
- Yingjie Li, Cornelia Caragea
- TLDR: Proponiamo un nuovo task di apprendimento condizionato di stance detection che sfrutta la stima condizionata del contesto per generare frasi aware.
- End-to-end ASR to jointly predict transcriptions and linguistic annotations
- Motoi Omachi, Yuya Fujita, Shinji Watanabe, Matthew Wiesner
- TLDR: Proponiamo un modello di sequenza-to-sequenza basato sul trasformatore per automatic speech recognition capace di simultaneamente transcribire e annotare audio con informazioni linguistiche come i tag di voce e di parte del voce (POS) e i tag di voce (phono) e la sua applicazione al riconoscimento vocale.
- Source and Target Bidirectional Knowledge Distillation for End-to-end Speech Translation
- Hirofumi Inaguma, Tatsuya Kawahara, Shinji Watanabe
- TLDR: Proponiamo un modello di traduzione end-to-end che combina la knowledge distillation con la back-translation per migliorare le prestazioni di traduzione end-to-end.
- Searchable Hidden Intermediates for End-to-End Models of Decomposable Sequence Tasks
- Siddharth Dalmia, Brian Yan, Vikas Raunak, Florian Metze, Shinji Watanabe
- TLDR: Proponiamo un framework end-to-end per la traduzione speech-to-speech che sfrutta la composizionealità per imparare hidden intermediate ricercabili da sottotasci di riconoscimento vocale.
- SPLAT: Speech-Language Joint Pre-Training for Spoken Language Understanding
- Yu-An Chung, Chenguang Zhu, Michael Zeng
- TLDR: Proponiamo un nuovo framework di apprendimento semi-supervisionato per la comprensione del linguaggio parlato.
- Worldly Wise (WoW) - Cross-Lingual Knowledge Fusion for Fact-based Visual Spoken-Question Answering
- Kiran Ramnath, Leda Sari, Mark Hasegawa-Johnson, Chang Yoo
- TLDR: Proponiamo un nuovo task e un dataset sintetico per rispondere a domande di spostamento basati sulla conoscenza del mondo attraverso 3 lingue.
- Align-Refine: Non-Autoregressive Speech Recognition via Iterative Realignment
- Ethan A. Chi, Julian Salazar, Katrin Kirchhoff
- TLDR: Proponiamo un nuovo modello di decodifica per la CNN, Align-Refine, che risolve le alignment latenti per la CNN.
- Everything Has a Cause: Leveraging Causal Inference in Legal Text Analysis
- Xiao Liu, Da Yin, Yansong Feng, Yuting Wu, Dongyan Zhao
- TLDR: Proponiamo un nuovo approccio di causal inference basato sulla teoria dei grafi per la disambiguazione di charge causali.
- Counterfactual Supporting Facts Extraction for Explainable Medical Record Based Diagnosis with Graph Network
- Haoran Wu, Wei Chen, Shuang Xu, Bo Xu
- TLDR: Proponiamo un metodo di multi-granularity graph supporting facts extraction (CMGE) per ottenere informazioni accurate da EMR irregulari senza knowledge base esterne.
- Personalized Response Generation via Generative Split Memory Network
- Yuwei Wu, Xuezhe Ma, Diyi Yang
- TLDR: Proponiamo un’architettura di generazione di testo personalizzata per rispondere ai domande su Reddit utilizzando profile personalizzati degli utenti e le loro grafi.
- Towards Few-shot Fact-Checking via Perplexity
- Nayeon Lee, Yejin Bang, Andrea Madotto, Pascale Fung
- TLDR: Proponiamo una nuova metodologia per l’apprendimento few shot basato sulla perplexity score.
- Active^2 Learning: Actively reducing redundancies in Active Learning methods for Sequence Tagging and Machine Translation
- Rishi Hazra, Parag Dutta, Shubham Gupta, Mohammed Abdul Qaathir, Ambedkar Dukkipati
- TLDR: Proponiamo un metodo di apprendimento che seleziona i sample per annotare i sample per annotare i sample per annotare i sample.
- Generating An Optimal Interview Question Plan Using A Knowledge Graph And Integer Linear Programming
- Soham Datta, Prabir Mallick, Sangameshwar Patil, Indrajit Bhattacharya, Girish Palshikar
- TLDR: Proponiamo un sistema di intervista per selezionare automaticamente un insieme di domande tecniche personalizzate per un candidato.
- Model Extraction and Adversarial Transferability, Your BERT is Vulnerable!
- Xuanli He, Lingjuan Lyu, Lichao Sun, Qiongkai Xu
- TLDR: Proponiamo un adversarial framework per addestrare un modello di apprendimento automatico basato su BERT.
- A Global Past-Future Early Exit Method for Accelerating Inference of Pre-trained Language Models
- Kaiyuan Liao, Yi Zhang, Xuancheng Ren, Qi Su, Xu Sun, Bin He
- TLDR: Proponiamo un metodo di predizione per l’esordio di modelli di inferenza pre-trained che sfrutta le informazioni linguistiche di tutti i layer.
- Masked Conditional Random Fields for Sequence Labeling
- Tianwen Wei, Jianwei Qi, Shenghuan He, Songtao Sun
- TLDR: Proponiamo un nuovo metodo per risolvere il problema di classificazione delle sequenze di tag utilizzando il Conditional Random Field.
- Heterogeneous Graph Neural Networks for Concept Prerequisite Relation Learning in Educational Data
- Chenghao Jia, Yongliang Shen, Yechun Tang, Lu Sun, Weiming Lu
- TLDR: Proponiamo un nuovo approccio di relation learning per imparare le relazioni pre-requisite tra i concetti.
- Be Careful about Poisoned Word Embeddings: Exploring the Vulnerability of the Embedding Layers in NLP Models
- Wenkai Yang, Lei Li, Zhiyuan Zhang, Xuancheng Ren, Xu Sun, Bin He
- TLDR: Proponiamo un metodo per embedding dei modelli NLP senza dati per accelerare la sicurezza dei modelli.
- DA-Transformer: Distance-aware Transformer
- Chuhan Wu, Fangzhao Wu, Yongfeng Huang
- TLDR: Proponiamo un metodo per sfruttare le distanza reali per self-attention.
- ASAP: A Chinese Review Dataset Towards Aspect Category Sentiment Analysis and Rating Prediction
- Jiahao Bu, Lei Ren, Shuang Zheng, Yang Yang, Jingang Wang, Fuzheng Zhang, Wei Wu
- TLDR: Proponiamo un dataset di valutazione di ristoranti per la valutazione di review e la valutazione di rating.
- Are NLP Models really able to Solve Simple Math Word Problems?
- Arkil Patel, Satwik Bhattamishra, Navin Goyal
- TLDR: Proponiamo un modello di apprendimento NLP per risolvere la maggior parte degli argomenti di apprendimento di MWP.
- WRIME: A New Dataset for Emotional Intensity Estimation with Subjective and Objective Annotations
- Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, Hajime Nagahara
- TLDR: Proponiamo un dataset di analisi dell’emozione basato sulla valutazione della personalità per la valutazione delle emozioni.
- KPQA: A Metric for Generative Question Answering Using Keyphrase Weights
- Hwanhee Lee, Seunghyun Yoon, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Joongbo Shin, Kyomin Jung
- TLDR: Proponiamo una nuova metric per valutare la correlazione tra la valutazione umana e la valutazione generativa.
- StylePTB: A Compositional Benchmark for Fine-grained Controllable Text Style Transfer
- Yiwei Lyu, Paul Pu Liang, Hai Pham, Eduard Hovy, Barnabás Póczos, Ruslan Salakhutdinov, Louis-Philippe Morency
- TLDR: Proponiamo un benchmark di stile transfer controllabile per la generazione controllabile di testo con cambiamenti di stile.
- Blow the Dog Whistle: A Chinese Dataset for Cant Understanding with Common Sense and World Knowledge
- Canwen Xu, Wangchunshu Zhou, Tao Ge, Ke Xu, Julian McAuley, Furu Wei
- TLDR: Proponiamo un task per l’apprendimento di cant da una prospettiva computazionale.
- COVID-19 Named Entity Recognition for Vietnamese
- Thinh Hung Truong, Mai Hoang Dao, Dat Quoc Nguyen
- TLDR: Proponiamo un dataset di riconoscimento delle parole per la lingua di origine e di origine e dimostriamo che migliora le prestazioni di apprendimento dei modelli di apprendimento multilingue.
- Framing Unpacked: A Semi-Supervised Interpretable Multi-View Model of Media Frames
- Shima Khanehzar, Trevor Cohn, Gosia Mikolajczak, Andrew Turpin, Lea Frermann
- TLDR: Proponiamo un nuovo metodo per imparare a sfruttare il frame semi-supervisionato per classificare gli articoli di uscita.
- Automatic Classification of Neutralization Techniques in the Narrative of Climate Change Scepticism
- Shraey Bhatia, Jey Han Lau, Timothy Baldwin
- TLDR: Proponiamo di utilizzare la teoria della comunicazione per addestrare un modello di coding per la neutralizzazione del testo del cambiamento climatico.
- Suicide Ideation Detection via Social and Temporal User Representations using Hyperbolic Learning
- Ramit Sawhney, Harshit Joshi, Rajiv Ratn Shah, Lucie Flek
- TLDR: Proponiamo un framework per sfruttare le informazioni di una persona e le informazioni sociali da una sua neighborhood in una rete per contextualizzare la visione di un tweet di un user su Twitter.
- WikiTalkEdit: A Dataset for modeling Editors’ behaviors on Wikipedia
- Kokil Jaidka, Andrea Ceolin, Iknoor Singh, Niyati Chhaya, Lyle Ungar
- TLDR: Proponiamo WikiTalkEdit, un dataset di conversazioni e di elaborazione delle storie di dialogo da Wikipedia, per l’apprendimento di cooperazioni e modelli di dialogo.
- The structure of online social networks modulates the rate of lexical change
- Jian Zhu, David Jurgens
- TLDR: Proponiamo un’analisi di grandi comunità online che mostra un miglioramento della qualità della comunicazione e la sua struttura.
- Modeling Framing in Immigration Discourse on Social Media
- Julia Mendelsohn, Ceren Budak, David Jurgens
- TLDR: Proponiamo un nuovo dataset di tweet di immigration-related label labeled per diverse tipiologie di framing da teoria della comunicazione teorica.
- Modeling the Severity of Complaints in Social Media
- Mali Jin, Nikolaos Aletras
- TLDR: Proponiamo un modello di apprendimento multi-task per la classificazione binaria dei complaint e la loro valutazione.
- What About the Precedent: An Information-Theoretic Analysis of Common Law
- Josef Valvoda, Tiago Pimentel, Niklas Stoehr, Ryan Cotterell, Simone Teufel
- TLDR: Proponiamo di confrontare due posizioni jurisprudentiali profonde, Halsbury e Goodhart, che riducono la quantità di informazioni di input rispetto alle informazioni di input.
- Introducing CAD: the Contextual Abuse Dataset
- Bertie Vidgen, Dong Nguyen, Helen Margetts, Patricia Rossini, Rebekah Tromble
- TLDR: Proponiamo un nuovo dataset di Reddit per l’apprendimento di modelli di classificazione e modelli di annotazione per l’apprendimento di modelli di classificazione.
- Lifelong Learning of Hate Speech Classification on Social Media
- Jing Qian, Hong Wang, Mai ElSherief, Xifeng Yan
- TLDR: Proponiamo un metodo di lifelong learning per la classificazione del speech in ambienti sociali.
- Learning to Recognize Dialect Features
- Dorottya Demszky, Devyani Sharma, Jonathan Clark, Vinodkumar Prabhakaran, Jacob Eisenstein
- TLDR: Proponiamo un metodo multi-task per rilevare le feature di apprendimento del linguaggio parlato, che può essere applicato alla rilevazione delle feature di apprendimento del linguaggio parlato.
- It’s Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners
- Timo Schick, Hinrich Schütze
- TLDR: Proponiamo un nuovo metodo per imparare il linguaggio naturale utilizzando language model pretrained.
- Static Embeddings as Efficient Knowledge Bases?
- Philipp Dufter, Nora Kassner, Hinrich Schütze
- TLDR: Proponiamo un metodo per imparare le proprietà di apprendimento di embedding dinamici di un grande vocabulario.
- Highly Efficient Knowledge Graph Embedding Learning with Orthogonal Procrustes Analysis
- Xutan Peng, Guanyi Chen, Chenghua Lin, Mark Stevenson
- TLDR: Proponiamo un metodo di apprendimento di knowledge embedding basato sulla semantica per migliorare le prestazioni finali del modello.
- Rethinking Network Pruning – under the Pre-train and Fine-tune Paradigm
- Dongkuan Xu, Ian En-Hsu Yen, Jinxi Zhao, Zhibin Xiao
- TLDR: Proponiamo un metodo di pruning sparso per la teoria del pretrain-then-finetune e dimostriamo che il pruning di BERT è più veloce di quello di BERT.
- Towards a Comprehensive Understanding and Accurate Evaluation of Societal Biases in Pre-Trained Transformers
- Andrew Silva, Pradyumna Tambwekar, Matthew Gombolay
- TLDR: Proponiamo un’analisi del bias sociale nel setting di transizione per valutare la sua efficacia nel setting di word-embedding.
- Detoxifying Language Models Risks Marginalizing Minority Voices
- Albert Xu, Eshaan Pathak, Eric Wallace, Suchin Gururangan, Maarten Sap, Dan Klein
- TLDR: Proponiamo di ridurre la quantità di LM che possono essere utilizzate per la generazione di testo.
- HONEST: Measuring Hurtful Sentence Completion in Language Models
- Debora Nozza, Federico Bianchi, Dirk Hovy
- TLDR: Proponiamo un metodo per misurare la completamento di una frase con parole abrasive in linguaggio naturale.
- EaSe: A Diagnostic Tool for VQA based on Answer Diversity
- Shailza Jolly, Sandro Pezzelle, Moin Nabi
- TLDR: Proponiamo EASE, un semplice diagnostico per Visual Question Answering (VQA) che misura la difficoltà di un sample di immagine, question sample.
- DeCEMBERT: Learning from Noisy Instructional Videos via Dense Captions and Entropy Minimization
- Zineng Tang, Jie Lei, Mohit Bansal
- TLDR: Proponiamo un metodo di pre-training video-and-language migliorato per risolvere il problema di misalignment temporale e di entropia.
- Improving Generation and Evaluation of Visual Stories via Semantic Consistency
- Adyasha Maharana, Darryl Hannan, Mohit Bansal
- TLDR: Proponiamo un modello di apprendimento di immagini generative per la visualizzazione della narrazione.
- Multilingual Multimodal Pre-training for Zero-Shot Cross-Lingual Transfer of Vision-Language Models
- Po-Yao Huang, Mandela Patrick, Junjie Hu, Graham Neubig, Florian Metze, Alexander Hauptmann
- TLDR: Proponiamo un modello di ricerca multilingue basato sul trasformatore che impara embedding multilingue multimodale contestuali.
- Video Question Answering with Phrases via Semantic Roles
- Arka Sadhu, Kan Chen, Ram Nevatia
- TLDR: Proponiamo un nuovo task di question answering video che è un task di fill-in-the-phrase.
- From Masked Language Modeling to Translation: Non-English Auxiliary Tasks Improve Zero-shot Spoken Language Understanding
- Rob van der Goot, Ibrahim Sharaf, Aizhan Imankulova, Ahmet Üstün, Marija Stepanović, Alan Ramponi, Siti Oryza Khairunnisa, Mamoru Komachi, Barbara Plank
- TLDR: Proponiamo un metodo di apprendimento joint per il riconoscimento dello spoken language understanding.
- WEC: Deriving a Large-scale Cross-document Event Coreference dataset from Wikipedia
- Alon Eirew, Arie Cattan, Ido Dagan
- TLDR: Proponiamo Wikipedia Event Coreference, una metodologia efficiente per la coerenza tra documenti per cross-document coreference.
- Challenging distributional models with a conceptual network of philosophical terms
- Yvette Oortwijn, Jelke Bloem, Pia Sommerauer, Francois Meyer, Wei Zhou, Antske Fokkens
- TLDR: Proponiamo un modello di semantica distributiva per la valutazione di modelli di semantica per la ricerca di philosophy.
- KILT: a Benchmark for Knowledge Intensive Language Tasks
- Fabio Petroni, Aleksandra Piktus, Angela Fan, Patrick Lewis, Majid Yazdani, Nicola De Cao, James Thorne, Yacine Jernite, Vladimir Karpukhin, Jean Maillard, Vassilis Plachouras, Tim Rocktäschel, Sebastian Riedel
- TLDR: Proponiamo un benchmark per task di knowledge-intensive language task (KILT) basati sulla baseline di Wikipedia.
- A Survey on Recent Approaches for Natural Language Processing in Low-Resource Scenarios
- Michael A. Hedderich, Lukas Lange, Heike Adel, Jannik Strötgen, Dietrich Klakow
- TLDR: Proponiamo un’analisi strutturata dei metodi di apprendimento che permettono di imparare quando il training dei dati è sparso.
- Temporal Knowledge Graph Completion using a Linear Temporal Regularizer and Multivector Embeddings
- Chengjin Xu, Yung-Yu Chen, Mojtaba Nayyeri, Jens Lehmann
- TLDR: Proponiamo un nuovo approccio per embedding dei knowledge graph con regolarizzazione lineare temporale e multivector embedding.
- UDALM: Unsupervised Domain Adaptation through Language Modeling
- Constantinos Karouzos, Georgios Paraskevopoulos, Alexandros Potamianos
- TLDR: Proponiamo un metodo di training per adattare il dominio pretrained ai modelli di apprendimento di linguaggi pretrained.
- Beyond Black & White: Leveraging Annotator Disagreement via Soft-Label Multi-Task Learning
- Tommaso Fornaciari, Alexandra Uma, Silviu Paun, Barbara Plank, Dirk Hovy, Massimo Poesio
- TLDR: Proponiamo un nuovo metodo per incorporare la disagreement come informazioni per migliorare le prestazioni di training dei modelli di apprendimento supervised.
- Clustering-based Inference for Biomedical Entity Linking
- Rico Angell, Nicholas Monath, Sunil Mohan, Nishant Yadav, Andrew McCallum
- TLDR: Proponiamo un modello di linking che combina il clustering e la clustering per fare previsioni di linking.
- Variance-reduced First-order Meta-learning for Natural Language Processing Tasks
- Lingxiao Wang, Kevin Huang, Tengyu Ma, Quanquan Gu, Jing Huang
- TLDR: Proponiamo un metodo di meta-learning di ordine primo che riduce la varianza del modello di meta-learning e migliora le prestazioni di apprendimento.
- Diversity-Aware Batch Active Learning for Dependency Parsing
- Tianze Shi, Adrian Benton, Igor Malioutov, Ozan İrsoy
- TLDR: Proponiamo un metodo di training di dependency parsing che utilizza la diversity-agnostic per selezionare le batch diversity.
- How many data points is a prompt worth?
- Teven Le Scao, Alexander Rush
- TLDR: Proponiamo di misurare il beneficio del fine-tuning basato sul fine-tuning nel setting fair e dimostriamo che il fine-tuning può essere valutato per molti aspetti.
- Can Latent Alignments Improve Autoregressive Machine Translation?
- Adi Haviv, Lior Vassertail, Omer Levy
- TLDR: Proponiamo un metodo per addestrare modelli di traduzione autoregressivo con obiettivi di alignment latenti.
- Smoothing and Shrinking the Sparse Seq2Seq Search Space
- Ben Peters, André F. T. Martins
- TLDR: Proponiamo modelli di sequenza-to-sequenza basati sull’enorme softmax per risolvere il problema di cat got your tongue.
- Unified Pre-training for Program Understanding and Generation
- Wasi Ahmad, Saikat Chakraborty, Baishakhi Ray, Kai-Wei Chang
- TLDR: Proponiamo un modello semantico di semantica semantica per la summarizzazione e la generazione di programmi semantici.
- Hyperparameter-free Continuous Learning for Domain Classification in Natural Language Understanding
- Ting Hua, Yilin Shen, Changsheng Zhao, Yen-Chang Hsu, Hongxia Jin
- TLDR: Proponiamo un modello di continual learning senza iperparametri per la classificazione dei domini.
- On the Embeddings of Variables in Recurrent Neural Networks for Source Code
- Nadezhda Chirkova
- TLDR: Proponiamo un meccanismo di embedding dinamico che regola la semantica delle variabili nel processo di codificazione del codice.
- Cross-Lingual Word Embedding Refinement by \ell_{1} Norm Optimisation
- Xutan Peng, Chenghua Lin, Mark Stevenson
- TLDR: Proponiamo un metodo per migliorare le prestazioni di apprendimento di CLWE.
- Semantic Frame Forecast
- Chieh-Yang Huang, Ting-Hao Huang
- TLDR: Proponiamo un task di pianificazione del frame per prevedere la semantica dei frame che si verificano in un’altra serie di storie.
- MUSER: MUltimodal Stress detection using Emotion Recognition as an Auxiliary Task
- Yiqun Yao, Michalis Papakostas, Mihai Burzo, Mohamed Abouelenien, Rada Mihalcea
- TLDR: Proponiamo un nuovo modello di apprendimento multi-task basato sul sampling dinamico per rilevare la stress e la stima del suo impatto sulla regolarizzazione e la espressione della personalità.
- Learning to Decompose and Organize Complex Tasks
- Yi Zhang, Sujay Kumar Jauhar, Julia Kiseleva, Ryen White, Dan Roth
- TLDR: Proponiamo un metodo end-to-end per decomporre e gestire i sottotask in modo efficiente.
- Continual Learning for Text Classification with Information Disentanglement Based Regularization
- Yufan Huang, Yanzhe Zhang, Jiaao Chen, Xuezhi Wang, Diyi Yang
- TLDR: Proponiamo un metodo di regolarizzazione basato sull’informazione per continual learning sui task di classificazione del testo.
- Learning from Executions for Semantic Parsing
- Bailin Wang, Mirella Lapata, Ivan Titov
- TLDR: Proponiamo un metodo per imparare da esecuzione le NL utilizzando un metodo di training semi-supervisionato.
- Learning to Synthesize Data for Semantic Parsing
- Bailin Wang, Wenpeng Yin, Xi Victoria Lin, Caiming Xiong
- TLDR: Proponiamo un modello generativo basato su PCFG che modella la composizione di un programma (e.g., SQL) e un modello di traduzione basato sulla traduzione basato sulla traduzione BART che mappa un programma a un obiettivo di input.
- Edge: Enriching Knowledge Graph Embeddings with External Text
- Saed Rezayi, Handong Zhao, Sungchul Kim, Ryan Rossi, Nedim Lipka, Sheng Li
- TLDR: Proponiamo un framework di embedding per knowledge graph e dimostriamo che il nostro framework può essere utilizzato per migliorare la localizzazione e la robustezza del embedding.
- FLIN: A Flexible Natural Language Interface for Web Navigation
- Sahisnu Mazumder, Oriana Riva
- TLDR: Proponiamo FLIN, un’interfaccia naturale per la navigazione web che mappa i commandi degli utenti a livello di azione a livello di azione, così da essere in grado di adattarsi a diverse reti e gestire la loro dinamica.
- Game-theoretic Vocabulary Selection via the Shapley Value and Banzhaf Index
- Roma Patel, Marta Garnelo, Ian Gemp, Chris Dyer, Yoram Bachrach
- TLDR: Proponiamo un metodo di selezione del linguaggio per la selezione del linguaggio di gioco basato sulla regolarizzazione L1 e il coefficiente di regressione per la selezione del linguaggio di gioco.
- Incorporating External Knowledge to Enhance Tabular Reasoning
- J. Neeraja, Vivek Gupta, Vivek Srikumar
- TLDR: Proponiamo un metodo per migliorare le prestazioni di inferenza delle informazioni tabularie.
- Compositional Generalization for Neural Semantic Parsing via Span-level Supervised Attention
- Pengcheng Yin, Hao Fang, Graham Neubig, Adam Pauls, Emmanouil Antonios Platanios, Yu Su, Sam Thomson, Jacob Andreas
- TLDR: Proponiamo un’analisi per migliorare la generalizzazione composizionale nei parser semantici.
- Domain Adaptation for Arabic Cross-Domain and Cross-Dialect Sentiment Analysis from Contextualized Word Embedding
- Abdellah El Mekki, Abdelkader El Mahdaouy, Ismail Berrada, Ahmed Khoumsi
- TLDR: Proponiamo un metodo di apprendimento unsupervised di domini per la modellazione di linguaggi di origine e di destinazione.
- Multi-task Learning of Negation and Speculation for Targeted Sentiment Classification
- Andrew Moore, Jeremy Barnes
- TLDR: Proponiamo un metodo di multi-task learning per addestrare modelli di sentiment analysis robusti alla negation e alla speculazione.
- A Disentangled Adversarial Neural Topic Model for Separating Opinions from Plots in User Reviews
- Gabriele Pergola, Lin Gui, Yulan He
- TLDR: Proponiamo un topic model neurale per la classificazione delle opinioni, e un adversarial topic model per la classificazione delle opinioni.
- Graph Ensemble Learning over Multiple Dependency Trees for Aspect-level Sentiment Classification
- Xiaochen Hou, Peng Qi, Guangtao Wang, Rex Ying, Jing Huang, Xiaodong He, Bowen Zhou
- TLDR: Proponiamo GraphMerge per sfruttare le informazioni di sintesi delle grafi per migliorare la qualità della classificazione del sentiment.
- Emotion-Infused Models for Explainable Psychological Stress Detection
- Elsbeth Turcan, Smaranda Muresan, Kathleen McKeown
- TLDR: Proponiamo un task di rilevamento del stress per la predizione di eventi ricorrenti e dimostriamo che i modelli di predizione emotion-infused sono equivalenti allo stato dell’arte BERT.
- Aspect-based Sentiment Analysis with Type-aware Graph Convolutional Networks and Layer Ensemble
- Yuanhe Tian, Guimin Chen, Yan Song
- TLDR: Proponiamo un approccio per sfruttare la funzione di attention per migliorare le prestazioni di analisi del sentiment basato sull’immagine.
- Supertagging-based Parsing with Linear Context-free Rewriting Systems
- Thomas Ruprecht, Richard Mörbitz
- TLDR: Proponiamo un nuovo metodo per parsing LCFRS basato sul supertagger che può essere utilizzato per rewriting lineari senza contesto.
- Outside Computation with Superior Functions
- Parker Riley, Daniel Gildea
- TLDR: Proponiamo un algoritmo di apprendimento sub-exponential per SAT, violando la strong Exponential Hypothesis (SETH).
- Learning Syntax from Naturally-Occurring Bracketings
- Tianze Shi, Ozan İrsoy, Igor Malioutov, Lillian Lee
- TLDR: Proponiamo una loss strutturata per parsing di rappresentazioni di partial-brackets.
- Bot-Adversarial Dialogue for Safe Conversational Agents
- Jing Xu, Da Ju, Margaret Li, Y-Lan Boureau, Jason Weston, Emily Dinan
- TLDR: Proponiamo un nuovo metodo per valutare la sicurezza degli agenti conversazionali in ambienti di interazioni umane non avversarie e adversarial.
- Non-Autoregressive Semantic Parsing for Compositional Task-Oriented Dialog
- Arun Babu, Akshat Shrivastava, Armen Aghajanyan, Ahmed Aly, Angela Fan, Marjan Ghazvininejad
- TLDR: Proponiamo un metodo di predizione non autoregressivo per parsing semantico utilizzando modelli semantici semantici efficienti.
- Example-Driven Intent Prediction with Observers
- Shikib Mehri, Mihail Eric
- TLDR: Proponiamo un metodo per migliorare la generalizzazione dei modelli di interpretazione delle utterenze, e un modello di training per la predizione degli intent.
- Imperfect also Deserves Reward: Multi-Level and Sequential Reward Modeling for Better Dialog Management
- Zhengxu Hou, Bang Liu, Ruihui Zhao, Zijing Ou, Yafei Liu, Xi Chen, Yefeng Zheng
- TLDR: Proponiamo un modello di reward multi-level per dialog management basato sul reinforcement learning.
- Action-Based Conversations Dataset: A Corpus for Building More In-Depth Task-Oriented Dialogue Systems
- Derek Chen, Howard Chen, Yi Yang, Alexander Lin, Zhou Yu
- TLDR: Proponiamo un dataset di dialogo basato sulla conversazione umano-uomo per studiare la comunicazione di assistenza sanitaria in ambienti realistici.
- Controlling Dialogue Generation with Semantic Exemplars
- Prakhar Gupta, Jeffrey Bigham, Yulia Tsvetkov, Amy Pavel
- TLDR: Proponiamo un modello di generazione basato sulla generazione di dialogo di modelli di dialogo per la generazione di risposte di dialogo da risposte di dialogo di alto livello.
- COIL: Revisit Exact Lexical Match in Information Retrieval with Contextualized Inverted List
- Luyu Gao, Zhuyun Dai, Jamie Callan
- TLDR: Proponiamo COIL, un’architettura di match retrieval contextualizzato per il deep learning, che sfrutta la capacità di rappresentazione dei deep language model.
- X-Class: Text Classification with Extremely Weak Supervision
- Zihan Wang, Dheeraj Mekala, Jingbo Shang
- TLDR: Proponiamo un nuovo framework di apprendimento per la classificazione del testo weakly supervised basato sulla rappresentazione del documento per la prima volta.
- Fine-tuning Encoders for Improved Monolingual and Zero-shot Polylingual Neural Topic Modeling
- Aaron Mueller, Mark Dredze
- TLDR: Proponiamo diversi metodi per fine-tuning gli encoder per migliorare il modello di topic model neurale per topic model neural.
- Exploring the Relationship Between Algorithm Performance, Vocabulary, and Run-Time in Text Classification
- Wilson Fearn, Orion Weller, Kevin Seppi
- TLDR: Proponiamo un’analisi completa di come le tecniche di pre-elaborazione possono ridurre il tempo di esecuzione di un modello di testo.
- Faithfully Explainable Recommendation via Neural Logic Reasoning
- Yaxin Zhu, Yikun Xian, Zuohui Fu, Gerard de Melo, Yongfeng Zhang
- TLDR: Proponiamo un metodo di ragionamento logico per spiegare la raccomandazione con grafi di knowledge graph.
- You Sound Like Someone Who Watches Drama Movies: Towards Predicting Movie Preferences from Conversational Interactions
- Sergey Volokhin, Joyce Ho, Oleg Rokhlenko, Eugene Agichtein
- TLDR: Proponiamo un metodo di filtraggio collaborativo per la raccomandazione di film tramite conversazione.
- Reading and Acting while Blindfolded: The Need for Semantics in Text Game Agents
- Shunyu Yao, Karthik Narasimhan, Matthew Hausknecht
- TLDR: Proponiamo un decoder inverse per la comprensione semantica dei giochi basati sul testo.
- SOrT-ing VQA Models : Contrastive Gradient Learning for Improved Consistency
- Sameer Dharur, Purva Tendulkar, Dhruv Batra, Devi Parikh, Ramprasaath R. Selvaraju
- TLDR: Proponiamo un approccio di contrasto per interpretare la risposta di VQA basato sul gradiente.
- Semi-Supervised Policy Initialization for Playing Games with Language Hints
- Tsu-Jui Fu, William Yang Wang
- TLDR: Proponiamo un metodo di inizializzazione semi-supervisionata per imparare da diverse informazioni da diverse fonti.
- Revisiting Document Representations for Large-Scale Zero-Shot Learning
- Jihyung Kil, Wei-Lun Chao
- TLDR: Proponiamo un metodo semi-automatico per l’apprendimento di immagini e parole di testo visive.
- Negative language transfer in learner English: A new dataset
- Leticia Farias Wanderley, Nicole Zhao, Carrie Demmans Epp
- TLDR: Proponiamo un dataset di apprendimento di linguaggi secondi per la correzione di errori di apprendimento.
- SentSim: Crosslingual Semantic Evaluation of Machine Translation
- Yurun Song, Junchen Zhao, Lucia Specia
- TLDR: Proponiamo un nuovo metodo di valutazione per la traduzione multilingue unsupervised utilizzando informazioni di input multilingue.
- Quality Estimation for Image Captions Based on Large-scale Human Evaluations
- Tomer Levinboim, Ashish V. Thapliyal, Piyush Sharma, Radu Soricut
- TLDR: Proponiamo un nuovo task di valutazione per la valutazione delle qualità delle immagini, che mira a modellare la qualità delle immagini da una prospettiva umana e senza accessi a ground-truth.
- CaSiNo: A Corpus of Campsite Negotiation Dialogues for Automatic Negotiation Systems
- Kushal Chawla, Jaysa Ramirez, Rene Clever, Gale Lucas, Jonathan May, Jonathan Gratch
- TLDR: Proponiamo un metodo multi-task per imparare a parlare con le persone in modo tractabile e open-domain.
- News Headline Grouping as a Challenging NLU Task
- Philippe Laban, Lucas Bandarkar, Marti A. Hearst
- TLDR: Proponiamo un nuovo modello di generatore di headline per il task di Headline Grouping.
- Olá, Bonjour, Salve! XFORMAL: A Benchmark for Multilingual Formality Style Transfer
- Eleftheria Briakou, Di Lu, Ke Zhang, Joel Tetreault
- TLDR: Proponiamo XFORMAL, un benchmark di riformulazioni formali di testo in linguaggi tra cui la lingua grezzi e la lingua cirillico.
- Grouping Words with Semantic Diversity
- Karine Chubarian, Abdul Rafae Khan, Anastasios Sidiropoulos, Jia Xu
- TLDR: Proponiamo un metodo per classificare le parole di input per imparare la traduzione con una buona ambiguità.
- Noise Stability Regularization for Improving BERT Fine-tuning
- Hang Hua, Xingjian Li, Dejing Dou, Chengzhong Xu, Jiebo Luo
- TLDR: Proponiamo un metodo di regolarizzazione per fine-tuning dei modelli di linguaggi pre-trained.
- FlowPrior: Learning Expressive Priors for Latent Variable Sentence Models
- Xiaoan Ding, Kevin Gimpel
- TLDR: Proponiamo un metodo per imparare un prior VAE che impara distribuzioni di prior espressivi su una variabile latente.
- HTCInfoMax: A Global Model for Hierarchical Text Classification via Information Maximization
- Zhongfen Deng, Hao Peng, Dongxiao He, Jianxin Li, Philip Yu
- TLDR: Proponiamo un modello di apprendimento per la classificazione del testo gerarchico che combina informazioni di ottimizzazione e prior matching.
- Knowledge Guided Metric Learning for Few-Shot Text Classification
- Dianbo Sui, Yubo Chen, Binjie Mao, Delai Qiu, Kang Liu, Jun Zhao
- TLDR: Proponiamo di utilizzare la conoscenza esterna per few shot learning per generare metriche di input per diversi task.
- Ensemble of MRR and NDCG models for Visual Dialog
- Idan Schwartz
- TLDR: Proponiamo un metodo di ranking non lineare per migliorare le prestazioni MRR e NDCG.
- Supervised Neural Clustering via Latent Structured Output Learning: Application to Question Intents
- Iryna Haponchyk, Alessandro Moschitti
- TLDR: Proponiamo un nuovo metodo per clustering neurale basato sulla loss strutturata e trasformato per clustering supervised.
- ConVEx: Data-Efficient and Few-Shot Slot Labeling
- Matthew Henderson, Ivan Vulić
- TLDR: Proponiamo un approccio di pretraining efficiente e fine-tuning neurale per task di dialog slot-labeling.
- CREAD: Combined Resolution of Ellipses and Anaphora in Dialogues
- Bo-Hsiang Tseng, Shruti Bhargava, Jiarui Lu, Joel Ruben Antony Moniz, Dhivya Piraviperumal, Lin Li, Hong Yu
- TLDR: Proponiamo un nuovo metodo di joint learning per modellare la risoluzione di coerenza e il riwriting delle query per dialogue understanding complessi, multi-turn dialogue understanding.
- Knowledge-Driven Slot Constraints for Goal-Oriented Dialogue Systems
- Piyawat Lertvittayakumjorn, Daniele Bonadiman, Saab Mansour
- TLDR: Proponiamo un nuovo task di rilevamento del constraint violation e dimostriamo che il nostro metodo può essere utilizzato per modellare il constraint violation come un task di classificazione end-to-end.
- Clipping Loops for Sample-Efficient Dialogue Policy Optimisation
- Yen-Chen Wu, Carl Edward Rasmussen
- TLDR: Proponiamo un metodo di clipping per ridurre il tempo di dialogo e la quantità di dialogo necessari per ottenere risultati allo stato dell’arte.
- Integrating Lexical Information into Entity Neighbourhood Representations for Relation Prediction
- Ian Wood, Mark Johnson, Stephen Wan
- TLDR: Proponiamo un nuovo approccio OpenIE per addestrare un sistema che può addestrare un insieme arbitrario di informazioni di relazioni tra le informazioni di testo e informazioni di informazioni di testo.
- Noisy-Labeled NER with Confidence Estimation
- Kun Liu, Yao Fu, Chuanqi Tan, Mosha Chen, Ningyu Zhang, Songfang Huang, Sheng Gao
- TLDR: Proponiamo un metodo per stimare la fiducia sotto setting rumorosi e clean.
- TABBIE: Pretrained Representations of Tabular Data
- Hiroshi Iida, Dung Thai, Varun Manjunatha, Mohit Iyyer
- TLDR: Proponiamo un modello di rappresentazione-learning basato su dati tabulari che impara da dati di input tabulari e da risultati di predizione.
- Better Feature Integration for Named Entity Recognition
- Lu Xu, Zhanming Jie, Wei Lu, Lidong Bing
- TLDR: Proponiamo un modello di entity recognition basato su LSTM che può sfruttare le informazioni strutturate lungo la distanza per costruire modelli di NER migliorati.
- ZS-BERT: Towards Zero-Shot Relation Extraction with Attribute Representation Learning
- Chih-Yao Chen, Cheng-Te Li
- TLDR: Proponiamo BERT, un modello multi-task per l’apprendimento di relazioni relation-estraction.
- Graph Convolutional Networks for Event Causality Identification with Rich Document-level Structures
- Minh Tran Phu, Thien Huu Nguyen
- TLDR: Proponiamo un modello di deep learning per document-level ECI (DECI) per rilevare la causalità degli eventi nel testo.
- A Context-Dependent Gated Module for Incorporating Symbolic Semantics into Event Coreference Resolution
- Tuan Lai, Heng Ji, Trung Bui, Quan Hung Tran, Franck Dernoncourt, Walter Chang
- TLDR: Proponiamo un nuovo gated module per gestire la coerenza di eventi e la sua applicazione alla risoluzione di eventi.
- Multi-Style Transfer with Discriminative Feedback on Disjoint Corpus
- Navita Goyal, Balaji Vasan Srinivasan, Anandhavelu N, Abhilasha Sancheti
- TLDR: Proponiamo un metodo per gestire lo stile di un corpus di testo multi-style per la generazione di testi di origine e destinazione utilizzando modelli di stile per la generazione di testi di origine e destinazione.
- FUDGE: Controlled Text Generation With Future Discriminators
- Kevin Yang, Dan Klein
- TLDR: Proponiamo un metodo di generazione di testo controllabile e modulare per la generazione di testo da una distribuzione di interesse.
- Controllable Text Simplification with Explicit Paraphrasing
- Mounica Maddela, Fernando Alva-Manchego, Wei Xu
- TLDR: Proponiamo un modello di paraphrasing neurale per la riduzione della sintassi e la riformulazione delle parole.
- Knowledge Graph Based Synthetic Corpus Generation for Knowledge-Enhanced Language Model Pre-training
- Oshin Agarwal, Heming Ge, Siamak Shakeri, Rami Al-Rfou
- TLDR: Proponiamo un metodo per convertire i knowledge graph in testo naturale, e mostriamo che questo può essere utilizzato per integrare le informazioni strutturate e naturali nei modelli di retrieval.
- Choose Your Own Adventure: Paired Suggestions in Collaborative Writing for Evaluating Story Generation Models
- Elizabeth Clark, Noah A. Smith
- TLDR: Proponiamo un setup di scrittura collaborativo per valutare modelli di generazione di storie.
- InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language Model Pre-Training
- Zewen Chi, Li Dong, Furu Wei, Nan Yang, Saksham Singhal, Wenhui Wang, Xia Song, Xian-Ling Mao, Heyan Huang, Ming Zhou
- TLDR: Proponiamo un nuovo task di pre-training del linguaggio multilingue basato sul contrastive learning.
- Context-Interactive Pre-Training for Document Machine Translation
- Pengcheng Yang, Pei Zhang, Boxing Chen, Jun Xie, Weihua Luo
- TLDR: Proponiamo un metodo di pre-training per la traduzione di documenti multilingue utilizzando informazioni contestuali.
- Code-Mixing on Sesame Street: Dawn of the Adversarial Polyglots
- Samson Tan, Shafiq Joty
- TLDR: Proponiamo un adversarial training efficiente per modelli multilingue che migliora la precisione di apprendimento e la robustezza di apprendimento.
- X-METRA-ADA: Cross-lingual Meta-Transfer learning Adaptation to Natural Language Understanding and Question Answering
- Meryem M’hamdi, Doo Soon Kim, Franck Dernoncourt, Trung Bui, Xiang Ren, Jonathan May
- TLDR: Proponiamo un metodo di meta-learning per l’apprendimento multilingue per NLU.
- Explicit Alignment Objectives for Multilingual Bidirectional Encoders
- Junjie Hu, Melvin Johnson, Orhan Firat, Aditya Siddhant, Graham Neubig
- TLDR: Proponiamo un nuovo metodo per imparare encoder multilingue, AMBER, che può essere addestrato su dati paralleli e paralleli utilizzando obiettivi di apprendimento expliciti.
- Cross-lingual Cross-modal Pretraining for Multimodal Retrieval
- Hongliang Fei, Tan Yu, Ping Li
- TLDR: Proponiamo un nuovo approccio per imparare rappresentazioni multilingue cross-modali per matching immagini e loro rappresentazioni pertinenti.
- Wikipedia Entities as Rendezvous across Languages: Grounding Multilingual Language Models by Predicting Wikipedia Hyperlinks
- Iacer Calixto, Alessandro Raganato, Tommaso Pasini
- TLDR: Proponiamo un task di predizione di entity dipendente dal linguaggio per addestrare un modello di semantica basato sulla conoscenza semantica.
- multiPRover: Generating Multiple Proofs for Improved Interpretability in Rule Reasoning
- Swarnadeep Saha, Prateek Yadav, Mohit Bansal
- TLDR: Proponiamo un modello di generazione di proof per risolvere il problema di generazione di grafi di proof per la teoria del compositiv reasoning.
- Adaptable and Interpretable Neural MemoryOver Symbolic Knowledge
- Pat Verga, Haitian Sun, Livio Baldini Soares, William Cohen
- TLDR: Proponiamo una LM neurale che contiene un neuro-symbolic KB in forma di memoria di fatto, per la ricerca di informazioni factuali.
- CLEVR_HYP: A Challenge Dataset and Baselines for Visual Question Answering with Hypothetical Actions over Images
- Shailaja Keyur Sampat, Akshay Kumar, Yezhou Yang, Chitta Baral
- TLDR: Proponiamo un task di question answering visivo basato sul dataset CLEVR e lo usiamo per risolvere il question answering visivo.
- Refining Targeted Syntactic Evaluation of Language Models
- Benjamin Newman, Kai-Siang Ang, Julia Gong, John Hewitt
- TLDR: Proponiamo un metodo per valutare la conoscenza di sintassi dei language model.
- Universal Adversarial Attacks with Natural Triggers for Text Classification
- Liwei Song, Xinwei Yu, Hsuan-Tung Peng, Karthik Narasimhan
- TLDR: Proponiamo un adversarial attack basato sul gradiente per migliorare la precisione di classificazione dei modelli di testo.
- QuadrupletBERT: An Efficient Model For Embedding-Based Large-Scale Retrieval
- Peiyang Liu, Sen Wang, Xi Wang, Wei Ye, Shikun Zhang
- TLDR: Proponiamo un modello di retrieval per query-document retrieval basato sull’embedding che migliora significativamente la fase di recupero e sfrutta le distanza tra le esposizioni soft e hard negative per ottenere migliori embedding.
- Dynamically Disentangling Social Bias from Task-Oriented Representations with Adversarial Attack
- Liwen Wang, Yuanmeng Yan, Keqing He, Yanan Wu, Weiran Xu
- TLDR: Proponiamo un modello di debiasing adversarial disentangled per decodificare il bias sociale dai modelli di rappresentazione intermedia.
- An Empirical Investigation of Bias in the Multimodal Analysis of Financial Earnings Calls
- Ramit Sawhney, Arshiya Aggarwal, Rajiv Ratn Shah
- TLDR: Proponiamo un nuovo studio per scoprire il bias di gender nella predizione della volatilità multimodale.
- Beyond Fair Pay: Ethical Implications of NLP Crowdsourcing
- Boaz Shmueli, Jan Fell, Soumya Ray, Lun-Wei Ku
- TLDR: Proponiamo un metodo per valutare il rischio di crowdsourcing nel lavoro di ricerca NLP.
- On Transferability of Bias Mitigation Effects in Language Model Fine-Tuning
- Xisen Jin, Francesco Barbieri, Brendan Kennedy, Aida Mostafazadeh Davani, Leonardo Neves, Xiang Ren
- TLDR: Proponiamo un metodo di mitigazione del bias per fine-tuning dei modelli di apprendimento automatico.
- Case Study: Deontological Ethics in NLP
- Shrimai Prabhumoye, Brendon Boldt, Ruslan Salakhutdinov, Alan W Black
- TLDR: Proponiamo un metodo per imparare la deontologia deontologica per risolvere il bias di bias nel linguaggio naturale.
- Privacy Regularization: Joint Privacy-Utility Optimization in LanguageModels
- Fatemehsadat Mireshghallah, Huseyin Inan, Marcello Hasegawa, Victor Rühle, Taylor Berg-Kirkpatrick, Robert Sim
- TLDR: Proponiamo un metodo di regolarizzazione privacy-preserve per language model neurali che migliora la privacy e la qualità del training.
- On the Impact of Random Seeds on the Fairness of Clinical Classifiers
- Silvio Amir, Jan-Willem van de Meent, Byron Wallace
- TLDR: Proponiamo un metodo per misurare la fairness nel setting di EHR e dimostriamo che le stesse prestazioni di subgroup possono essere migliorate con jointly optimizing.
- Topic Model or Topic Twaddle? Re-evaluating Semantic Interpretability Measures
- Caitlin Doogan, Wray Buntine
- TLDR: Proponiamo quattro ipotesi teoriche sulla teoria dell’interpretabilità dei topic modelli.
- Discourse Probing of Pretrained Language Models
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: Proponiamo un metodo di probing del linguaggio per valutare la capacità di LM pretrained di catturare le relazioni a livello di testo e parole.
- UniDrop: A Simple yet Effective Technique to Improve Transformer without Extra Cost
- Zhen Wu, Lijun Wu, Qi Meng, Yingce Xia, Shufang Xie, Tao Qin, Xinyu Dai, Tie-Yan Liu
- TLDR: Proponiamo un metodo per addestrare Transformer con diverse tecniche di dropout.
- tWT–WT: A Dataset to Assert the Role of Target Entities for Detecting Stance of Tweets
- Ayush Kaushal, Avirup Saha, Niloy Ganguly
- TLDR: Proponiamo un nuovo task di rilevamento delle posizioni di stance su Twitter che può essere utilizzato per migliorare le prestazioni di classificazione dei dati di stance.
- Learning to Learn to be Right for the Right Reasons
- Pride Kavumba, Benjamin Heinzerling, Ana Brassard, Kentaro Inui
- TLDR: Proponiamo di imparare un modello che generalizza su dati di test set e hard test set con superficial cues.
- Double Perturbation: On the Robustness of Robustness and Counterfactual Bias Evaluation
- Chong Zhang, Jieyu Zhao, Huan Zhang, Kai-Wei Chang, Cho-Jui Hsieh
- TLDR: Proponiamo un framework di perturbazione doppia per rilevare le weaknesse del modello oltre il dataset del test.
- Explaining Neural Network Predictions on Sentence Pairs via Learning Word-Group Masks
- Hanjie Chen, Song Feng, Jatin Ganhotra, Hui Wan, Chulaka Gunasekara, Sachindra Joshi, Yangfeng Ji
- TLDR: Proponiamo un metodo per rilevare implicitamente le correlazioni tra le parole e le parole di gruppo e misurare il loro contributo alla risoluzione di task di NLP.
- Almost Free Semantic Draft for Neural Machine Translation
- Xi Ai, Bin Fang
- TLDR: Proponiamo un metodo efficiente per addestrare un decoder di traduzione utilizzando informazioni globali da uno spazio semantico per decoder.
- Pruning-then-Expanding Model for Domain Adaptation of Neural Machine Translation
- Shuhao Gu, Yang Feng, Wanying Xie
- TLDR: Proponiamo un metodo per adattare il dominio con knowledge distillation e pruneare il modello.
- Multi-Hop Transformer for Document-Level Machine Translation
- Long Zhang, Tong Zhang, Haibo Zhang, Baosong Yang, Wei Ye, Shikun Zhang
- TLDR: Proponiamo un modello di transizione neurale multi-hop per document-level neural machine translation.
- Continual Learning for Neural Machine Translation
- Yue Cao, Hao-Ran Wei, Boxing Chen, Xiaojun Wan
- TLDR: Proponiamo un metodo di continual learning per NMT modelli di traduzione neurale.
- Self-Training for Unsupervised Neural Machine Translation in Unbalanced Training Data Scenarios
- Haipeng Sun, Rui Wang, Kehai Chen, Masao Utiyama, Eiichiro Sumita, Tiejun Zhao
- TLDR: Proponiamo un metodo di self-training per addestrare un sistema di traduzione neurale robusto e unbalanced.
- Smart-Start Decoding for Neural Machine Translation
- Jian Yang, Shuming Ma, Dongdong Zhang, Juncheng Wan, Zhoujun Li, Ming Zhou
- TLDR: Proponiamo un metodo per decodificare il decoder di input e output per la traduzione neurale.
- Multi-Task Learning with Shared Encoder for Non-Autoregressive Machine Translation
- Yongchang Hao, Shilin He, Wenxiang Jiao, Zhaopeng Tu, Michael Lyu, Xing Wang
- TLDR: Proponiamo un metodo di apprendimento multi-task per trasferire la conoscenza di transizione da modelli di autotraduzione non auto-regressivo a modelli di auto-regressive.
- ER-AE: Differentially Private Text Generation for Authorship Anonymization
- Haohan Bo, Steven H. H. Ding, Benjamin C. M. Fung, Farkhund Iqbal
- TLDR: Proponiamo un modello di generazione di testo per la preservazione della privacy e la trasformazione dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile di scrittura dello stile.
- Distantly Supervised Transformers For E-Commerce Product QA
- Happy Mittal, Aniket Chakrabarti, Belhassen Bayar, Animesh Anant Sharma, Nikhil Rasiwasia
- TLDR: Proponiamo un sistema di question answering instant su prodotti e servizi di acquisto online basato sul trasformatore per l’apprendimento di una funzione di relevance robusta.
- Quantitative Day Trading from Natural Language using Reinforcement Learning
- Ramit Sawhney, Arnav Wadhwa, Shivam Agarwal, Rajiv Ratn Shah
- TLDR: Proponiamo un deep reinforcement learning per la predizione dei dati testuali.
- Restoring and Mining the Records of the Joseon Dynasty via Neural Language Modeling and Machine Translation
- Kyeongpil Kang, Kyohoon Jin, Soyoung Yang, Soojin Jang, Jaegul Choo, Youngbin Kim
- TLDR: Proponiamo un metodo multi-task per recuperare e tradurre i documenti storici in modo da utilizzare un meccanismo di self-attention per recuperare i documenti storici.
- Modeling Diagnostic Label Correlation for Automatic ICD Coding
- Shang-Chi Tsai, Chao-Wei Huang, Yun-Nung Chen
- TLDR: Proponiamo un modello di coding ICD per migliorare la precisione ICD e la correlazione tra le label.
- Self-Supervised Contrastive Learning for Efficient User Satisfaction Prediction in Conversational Agents
- Mohammad Kachuee, Hao Yuan, Young-Bum Kim, Sungjin Lee
- TLDR: Proponiamo un metodo di contrastive learning self-supervised che sfrutta il pool di dati non annotati per imparare le interazioni tra gli agenti.
- A recipe for annotating grounded clarifications
- Luciana Benotti, Patrick Blackburn
- TLDR: Proponiamo un metodo per grounding annotation e un metodo per grounding annotation.
- Grey-box Adversarial Attack And Defence For Sentiment Classification
- Ying Xu, Xu Zhong, Antonio Jimeno Yepes, Jey Han Lau
- TLDR: Proponiamo un adversarial framework grey-box per la classificazione del sentimento.
- How low is too low? A monolingual take on lemmatisation in Indian languages
- Kumar Saunack, Kumar Saurav, Pushpak Bhattacharyya
- TLDR: Proponiamo un metodo di lemmatizzazione per language learning low resource, morphologically rich scheduled, che può aumentare la precisione di NLP in setting low resource.
- Causal Effects of Linguistic Properties
- Reid Pryzant, Dallas Card, Dan Jurafsky, Victor Veitch, Dhanya Sridhar
- TLDR: Proponiamo TextCause, un algoritmo per stimare gli effetti causali delle proprietà linguistiche.
- Dynabench: Rethinking Benchmarking in NLP
- Douwe Kiela, Max Bartolo, Yixin Nie, Divyansh Kaushik, Atticus Geiger, Zhengxuan Wu, Bertie Vidgen, Grusha Prasad, Amanpreet Singh, Pratik Ringshia, Zhiyi Ma, Tristan Thrush, Sebastian Riedel, Zeerak Waseem, Pontus Stenetorp, Robin Jia, Mohit Bansal, Christopher Potts, Adina Williams
- TLDR: Proponiamo un nuovo approccio per la creazione di modelli dinamici e il benchmarking.
- Translational NLP: A New Paradigm and General Principles for Natural Language Processing Research
- Denis Newman-Griffis, Jill Fain Lehman, Carolyn Rosé, Harry Hochheiser
- TLDR: Proponiamo un nuovo paradigma di ricerca per la ricerca di NLP tradotto e applicato, che mira a strutturare e facilitare i processi di ricerca di base per la ricerca di NLP tradotto e applicato.
- Predicting Discourse Trees from Transformer-based Neural Summarizers
- Wen Xiao, Patrick Huber, Giuseppe Carenini
- TLDR: Proponiamo un modello di summarization neurale per imparare informazioni di comunicazione di tipo RST da modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento di modelli di apprendimento RST.
- Probing for Bridging Inference in Transformer Language Models
- Onkar Pandit, Yufang Hou
- TLDR: Proponiamo un metodo per bridging per la comprensione di transformer language model.
- Is Incoherence Surprising? Targeted Evaluation of Coherence Prediction from Language Models
- Anne Beyer, Sharid Loáiciga, David Schlangen
- TLDR: Proponiamo un nuovo metodo per valutare la coerenza nel linguaggio neurale.
- Stay Together: A System for Single and Split-antecedent Anaphora Resolution
- Juntao Yu, Nafise Sadat Moosavi, Silviu Paun, Massimo Poesio
- TLDR: Proponiamo un metodo per risolvere sia le anaphor single che le anaphor split, e mostriamo che questo metodo può essere utilizzato per valutare sia le anaphor single che le anaphor split.
- Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness
- Florian Boudin, Ygor Gallina
- TLDR: Proponiamo un classificatore per la generazione di keyphrase neurali che fornisce un’analisi più approfondita sul ruolo degli absent keyphrases nel document retrieval.
- CoRT: Complementary Rankings from Transformers
- Marco Wrzalik, Dirk Krechel
- TLDR: Proponiamo un modello di apprendimento neurale per il retrieval di informazioni neurali.
- Multi-source Neural Topic Modeling in Multi-view Embedding Spaces
- Pankaj Gupta, Yatin Chaudhary, Hinrich Schütze
- TLDR: Proponiamo un nuovo framework per topic modelling neurale utilizzando spazi multi-view embedd in modo pretrained e embedding di parole.
- Inductive Topic Variational Graph Auto-Encoder for Text Classification
- Qianqian Xie, Jimin Huang, Pan Du, Min Peng, Jian-Yun Nie
- TLDR: Proponiamo un modello di apprendimento variazionale basato sulla convoluzione per graph autoencoder variazionali.
- Self-Alignment Pretraining for Biomedical Entity Representations
- Fangyu Liu, Ehsan Shareghi, Zaiqiao Meng, Marco Basaldella, Nigel Collier
- TLDR: Proponiamo un nuovo approccio di metric learning scalable per risolvere il problema di medical entity linking.
- TaxoClass: Hierarchical Multi-Label Text Classification Using Only Class Names
- Jiaming Shen, Wenda Qiu, Yu Meng, Jingbo Shang, Xiang Ren, Jiawei Han
- TLDR: Proponiamo un nuovo metodo per HMTC basato su classi e identità per la classificazione del testo.
- MERMAID: Metaphor Generation with Symbolism and Discriminative Decoding
- Tuhin Chakrabarty, Xurui Zhang, Smaranda Muresan, Nanyun Peng
- TLDR: Proponiamo un metodo per generare frasi metamorfose da un corpus di poesie e immagini.
- On Learning Text Style Transfer with Direct Rewards
- Yixin Liu, Graham Neubig, John Wieting
- TLDR: Proponiamo un modello di training per il transfer di testo stile-to-speech che sfrutta le metriche di similarità tra i sistemi di traduzione neurale e il sistema di traduzione neurale per valutare la preservazione del contenuto tra i sistemi di traduzione neurale e il sistema di traduzione neurale.
- Focused Attention Improves Document-Grounded Generation
- Shrimai Prabhumoye, Kazuma Hashimoto, Yingbo Zhou, Alan W Black, Ruslan Salakhutdinov
- TLDR: Proponiamo un nuovo metodo per grounded generation basato sulla rappresentazione del contesto per la generazione di documenti.
- NeuroLogic Decoding: (Un)supervised Neural Text Generation with Predicate Logic Constraints
- Ximing Lu, Peter West, Rowan Zellers, Ronan Le Bras, Chandra Bhagavatula, Yejin Choi
- TLDR: Proponiamo NeuroLogic Decoding, un algoritmo di decodifica condizionale per la generazione condizionale di testo controllabile.
- Ask what’s missing and what’s useful: Improving Clarification Question Generation using Global Knowledge
- Bodhisattwa Prasad Majumder, Sudha Rao, Michel Galley, Julian McAuley
- TLDR: Proponiamo un modello per generare domande di chiarimento che combinano la visione globale e la visione locale per generare una risposta.
- Progressive Generation of Long Text with Pretrained Language Models
- Bowen Tan, Zichao Yang, Maruan Al-Shedivat, Eric Xing, Zhiting Hu
- TLDR: Proponiamo un metodo per generare testo in modo progressive per grandi corpora di testo.
- SOCCER: An Information-Sparse Discourse State Tracking Collection in the Sports Commentary Domain
- Ruochen Zhang, Carsten Eickhoff
- TLDR: Proponiamo un nuovo task per la classificazione delle frasi e il suo riconoscimento da eventi in gioco.
- Plot-guided Adversarial Example Construction for Evaluating Open-domain Story Generation
- Sarik Ghazarian, Zixi Liu, Akash S M, Ralph Weischedel, Aram Galstyan, Nanyun Peng
- TLDR: Proponiamo un’analisi di una stima di apprendimento per la generazione di storie da spettatori.
- MultiOpEd: A Corpus of Multi-Perspective News Editorials
- Siyi Liu, Sihao Chen, Xander Uyttendaele, Dan Roth
- TLDR: Proponiamo MultiOpEd, un corpus di articoli di azione open-domain che supporta diversi task per la scoperta automatica dei punti di vista, concentrandosi sulla scoperta della prospettiva.
- Swords: A Benchmark for Lexical Substitution with Improved Data Coverage and Quality
- Mina Lee, Chris Donahue, Robin Jia, Alexander Iyabor, Percy Liang
- TLDR: Proponiamo un benchmark per la ricerca di substituti di parole e parole in un contesto.
- “I’m Not Mad”: Commonsense Implications of Negation and Contradiction
- Liwei Jiang, Antoine Bosselut, Chandra Bhagavatula, Yejin Choi
- TLDR: Proponiamo un graph commonsense per la comprensione del linguaggio naturale.
- Identifying Medical Self-Disclosure in Online Communities
- Mina Valizadeh, Pardis Ranjbar-Noiey, Cornelia Caragea, Natalie Parde
- TLDR: Proponiamo un dataset di health-related posts raccolti da piattaforme online, categorizzati in tre gruppi (No Self-Disclosure, Possible Self-Disclosure e Clear Self-Disclosure) con inter-annotator agreement (k=0.88).
- Language in a (Search) Box: Grounding Language Learning in Real-World Human-Machine Interaction
- Federico Bianchi, Ciro Greco, Jacopo Tagliabue
- TLDR: Proponiamo un metodo di grounded language learning per imparare la semantica da dati reali.
- Finding Concept-specific Biases in Form–Meaning Associations
- Tiago Pimentel, Brian Roark, Søren Wichmann, Ryan Cotterell, Damián Blasi
- TLDR: Proponiamo un’analisi information-theoretic per rilevare la non-arbitrabilità tra le forme e le parole.
- How (Non-)Optimal is the Lexicon?
- Tiago Pimentel, Irene Nikkarinen, Kyle Mahowald, Ryan Cotterell, Damián Blasi
- TLDR: Proponiamo un modello generativo per misurare la compresibilità della lezione di linguaggio naturale sotto vari vincoli.
- Word Complexity is in the Eye of the Beholder
- Sian Gooding, Ekaterina Kochmar, Seid Muhie Yimam, Chris Biemann
- TLDR: Proponiamo un dataset di parole complesse annotate da milioni di lettori con diverse background.
- Linguistic Complexity Loss in Text-Based Therapy
- Jason Wei, Kelly Finn, Emma Templeton, Thalia Wheatley, Soroush Vosoughi
- TLDR: Proponiamo un nuovo metodo per studiare la complessità della comunicazione basata sulla comunicazione text-based e la sua applicazione alla valutazione di apprendimento.
- Ab Antiquo: Neural Proto-language Reconstruction
- Carlo Meloni, Shauli Ravfogel, Yoav Goldberg
- TLDR: Proponiamo un nuovo metodo per la ricostruzione di parole e frasi in cui il modello è addestrato da cognate in linguaggi di origine e generazione in cui il modello è addestrato da cognate in linguaggi di origine e generazione in generazione in linguaggi di generazione in origine.
- On Biasing Transformer Attention Towards Monotonicity
- Annette Rios, Chantal Amrhein, Noëmi Aepli, Rico Sennrich
- TLDR: Proponiamo una funzione di attention per sequenza-to-sequenza che è compatibile con gli attention mechanism standard.
- Extracting a Knowledge Base of Mechanisms from COVID-19 Papers
- Tom Hope, Aida Amini, David Wadden, Madeleine van Zuylen, Sravanthi Parasa, Eric Horvitz, Daniel Weld, Roy Schwartz, Hannaneh Hajishirzi
- TLDR: Proponiamo un framework per costruire una knowledge base di meccanismo per la ricerca scientifica di COVID-19.
- Constrained Multi-Task Learning for Event Coreference Resolution
- Jing Lu, Vincent Ng
- TLDR: Proponiamo un modello di coerenza neurale degli eventi che combina cinque task: trigger detection, entity coreference, anaphoricity determination, realis detection, e extraction.
- Empirical Evaluation of Pre-trained Transformers for Human-Level NLP: The Role of Sample Size and Dimensionality
- Adithya V Ganesan, Matthew Matero, Aravind Reddy Ravula, Huy Vu, H. Andrew Schwartz
- TLDR: Proponiamo un nuovo metodo di dimensionamento per la predizione di modelli NLP umano-level.
- Leveraging Deep Representations of Radiology Reports in Survival Analysis for Predicting Heart Failure Patient Mortality
- Hyun Gi Lee, Evan Sholle, Ashley Beecy, Subhi Al’Aref, Yifan Peng
- TLDR: Proponiamo un metodo per utilizzare le rappresentazioni hidden dei testo clinici come covariate per modelli di hazard model.
- On the Use of Context for Predicting Citation Worthiness of Sentences in Scholarly Articles
- Rakesh Gosangi, Ravneet Arora, Mohsen Gheisarieha, Debanjan Mahata, Haimin Zhang
- TLDR: Proponiamo un nuovo metodo per sfruttare il contesto per prevedere la citazione.
- Data and Model Distillation as a Solution for Domain-transferable Fact Verification
- Mitch Paul Mithun, Sandeep Suntwal, Mihai Surdeanu
- TLDR: Proponiamo una tecnica di distillation dei dati per la delexicalization e dimostriamo che le informazioni di input possono essere utilizzate per migliorare le prestazioni di training degli attuali modelli di apprendimento.
- Adapting Coreference Resolution for Processing Violent Death Narratives
- Ankith Uppunda, Susan Cochran, Jacob Foster, Alina Arseniev-Koehler, Vickie Mays, Kai-Wei Chang
- TLDR: Proponiamo un nuovo metodo per risolvere la risoluzione della coreference e la sua applicazione alla risoluzione di testi di autopsia.
- Time-Stamped Language Model: Teaching Language Models to Understand The Flow of Events
- Hossein Rajaby Faghihi, Parisa Kordjamshidi
- TLDR: Proponiamo un modello di comprensione del testo basato sul tempo per risolvere il task di question answering.
- If You Want to Go Far Go Together: Unsupervised Joint Candidate Evidence Retrieval for Multi-hop Question Answering
- Vikas Yadav, Steven Bethard, Mihai Surdeanu
- TLDR: Proponiamo un approccio di retrieval e reranking che riunisce e reranke insieme un insieme di informazioni dirette da un modello di question answering multi-hop.
- SPARTQA: A Textual Question Answering Benchmark for Spatial Reasoning
- Roshanak Mirzaee, Hossein Rajaby Faghihi, Qiang Ning, Parisa Kordjamshidi
- TLDR: Proponiamo un metodo di supervisione distanta per migliorare la capacità di ragionamento spaziale su testo naturale.
- A Dataset of Information-Seeking Questions and Answers Anchored in Research Papers
- Pradeep Dasigi, Kyle Lo, Iz Beltagy, Arman Cohan, Noah A. Smith, Matt Gardner
- TLDR: Proponiamo Qasper, un dataset di question answering per question answering question-seeking.
- Differentiable Open-Ended Commonsense Reasoning
- Bill Yuchen Lin, Haitian Sun, Bhuwan Dhingra, Manzil Zaheer, Xiang Ren, William Cohen
- TLDR: Proponiamo un modello di ragionamento consapevoli di un corpus di informazioni comuni per rispondere a domande multiple-choice.
- Does Structure Matter? Encoding Documents for Machine Reading Comprehension
- Hui Wan, Song Feng, Chulaka Gunasekara, Siva Sankalp Patel, Sachindra Joshi, Luis Lastras
- TLDR: Proponiamo un metodo di Transformer basato sul testo per la comprehension reading.
- Multi-Step Reasoning Over Unstructured Text with Beam Dense Retrieval
- Chen Zhao, Chenyan Xiong, Jordan Boyd-Graber, Hal Daumé III
- TLDR: Proponiamo un nuovo approccio multi-step di ricerca di informazioni per question answering multi-hop.
- Scalable and Interpretable Semantic Change Detection
- Syrielle Montariol, Matej Martinc, Lidia Pivovarova
- TLDR: Proponiamo un nuovo metodo scalabile per rilevare la semantica di cambiamenti nel linguaggio usando embedding contestuali.
- Scalar Adjective Identification and Multilingual Ranking
- Aina Garí Soler, Marianna Apidianaki
- TLDR: Proponiamo un dataset multilingue per l’identificazione di scalar adjective in termini di modelli di apprendimento multilingue.
- ESC: Redesigning WSD with Extractive Sense Comprehension
- Edoardo Barba, Tommaso Pasini, Roberto Navigli
- TLDR: Proponiamo un modello di Word Disambiguation per la comprensione del senso e la stima del suo potenziale.
- Recent advances in neural metaphor processing: A linguistic, cognitive and social perspective
- Xiaoyu Tong, Ekaterina Shutova, Martha Lewis
- TLDR: Proponiamo un’analisi completa e completa del processo di metaphor processing automatizzato nel linguaggio naturale e nella comunicazione.
- Constructing Taxonomies from Pretrained Language Models
- Catherine Chen, Kevin Lin, Dan Klein
- TLDR: Proponiamo un metodo per costruire tre grafi di WordNet utilizzando modelli pretrained di linguaggi.
- Event Representation with Sequential, Semi-Supervised Discrete Variables
- Mehdi Rezaee, Francis Ferraro
- TLDR: Proponiamo un metodo per modellare sequenze neurali variazionali semi-supervisionate che utilizza la reparametrizzazione di Gumbel-Softmax per guidare la conoscenza variazionale interna.
- Seq2Emo: A Sequence to Multi-Label Emotion Classification Model
- Chenyang Huang, Amine Trabelsi, Xuebin Qin, Nawshad Farruque, Lili Mou, Osmar Zaïane
- TLDR: Proponiamo un approccio di sequenza-to-emotion che modella implicitamente le correlazioni di emozioni in un decoder bi-directional.
- Knowledge Enhanced Masked Language Model for Stance Detection
- Kornraphop Kawintiranon, Lisa Singh
- TLDR: Proponiamo un metodo di fine-tuning basato sul BERT per rilevare la stance di Twitter.
- Learning Paralinguistic Features from Audiobooks through Style Voice Conversion
- Zakaria Aldeneh, Matthew Perez, Emily Mower Provost
- TLDR: Proponiamo un nuovo metodo per imparare a sfruttare le informazioni paralinguistiche da un modello di riconoscimento vocale utilizzando dati annotati per la comunicazione.
- Adapting BERT for Continual Learning of a Sequence of Aspect Sentiment Classification Tasks
- Zixuan Ke, Hu Xu, Bing Liu
- TLDR: Proponiamo un nuovo metodo per continual learning basato sulla capsule network per risolvere il problema della memoria dei modelli di input.
- Adversarial Learning for Zero-Shot Stance Detection on Social Media
- Emily Allaway, Malavika Srikanth, Kathleen McKeown
- TLDR: Proponiamo un modello di adversarial learning per rilevare la stance di Twitter in modo zero-shot.
- Efficiently Summarizing Text and Graph Encodings of Multi-Document Clusters
- Ramakanth Pasunuru, Mengwen Liu, Mohit Bansal, Sujith Ravi, Markus Dreyer
- TLDR: Proponiamo un approccio efficiente grafi-enhanced per la summarization multi-documente con un modello di Transformer encoder-decoder.
- Enriching Transformers with Structured Tensor-Product Representations for Abstractive Summarization
- Yichen Jiang, Asli Celikyilmaz, Paul Smolensky, Paul Soulos, Sudha Rao, Hamid Palangi, Roland Fernandez, Caitlin Smith, Mohit Bansal, Jianfeng Gao
- TLDR: Proponiamo un modello di summarization che combina il Transformer con la rappresentazione compositiva tensoriale per il task di sintesi e la sua applicazione alla sintesi di documenti di input.
- What’s in a Summary? Laying the Groundwork for Advances in Hospital-Course Summarization
- Griffin Adams, Emily Alsentzer, Mert Ketenci, Jason Zucker, Noémie Elhadad
- TLDR: Proponiamo un task di summarization hospital-course che utilizza la proxy clinica per la sintesi delle narrative cliniche.
- Understanding Factuality in Abstractive Summarization with FRANK: A Benchmark for Factuality Metrics
- Artidoro Pagnoni, Vidhisha Balachandran, Yulia Tsvetkov
- TLDR: Proponiamo un metodo per raccogliere annotazioni umane di modelli di sintesi per la misurazione della factuality.
- GSum: A General Framework for Guided Neural Abstractive Summarization
- Zi-Yi Dou, Pengfei Liu, Hiroaki Hayashi, Zhengbao Jiang, Graham Neubig
- TLDR: Proponiamo un framework di guida guida per la summarizzazione neurale generalizzata e esso può essere scalabile.
- What Will it Take to Fix Benchmarking in Natural Language Understanding?
- Samuel R. Bowman, George Dahl
- TLDR: Proponiamo un nuovo metodo per misurare le capacità di comprensione del linguaggio naturale.
- TuringAdvice: A Generative and Dynamic Evaluation of Language Use
- Rowan Zellers, Ari Holtzman, Elizabeth Clark, Lianhui Qin, Ali Farhadi, Yejin Choi
- TLDR: Proponiamo TuringAdvice, un task di comprensione del linguaggio naturale per modelli di comprensione del linguaggio naturale.
- Multitask Learning for Emotionally Analyzing Sexual Abuse Disclosures
- Ramit Sawhney, Puneet Mathur, Taru Jain, Akash Kumar Gautam, Rajiv Ratn Shah
- TLDR: Proponiamo un task di modellazione joint di task di rilevamento delle rivelazioni sessuali in ambienti di conversazione e dimostriamo che il multi-task learning può essere utile per task di apprendimento di task di apprendimento di modelli di apprendimento multi-task.
- Self Promotion in US Congressional Tweets
- Jun Wang, Kelly Cui, Bei Yu
- TLDR: Proponiamo un modello di deep learning basato su BERT per studiare se un gap di self-promotion esiste tra i tweet di Congress e il gap di self-promotion tra i tweet di Congress.
- Profiling of Intertextuality in Latin Literature Using Word Embeddings
- Patrick J. Burns, James A. Brofos, Kyle Li, Pramit Chaudhuri, Joseph P. Dexter
- TLDR: Proponiamo un modello di ricerca di intersection per la letteratura classica e la letteratura e lo usiamo per misurare la qualità della ricerca di intersection.
- Identifying inherent disagreement in natural language inference
- Xinliang Frederick Zhang, Marie-Catherine de Marneffe
- TLDR: Proponiamo un metodo per simulare la complessità del processo di annotazione per distinguere le inferenze systematic da quelle di disagreement.
- Modeling Human Mental States with an Entity-based Narrative Graph
- I-Ta Lee, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: Proponiamo un modello di apprendimento basato sulla rappresentazione per la comprensione del testo narrativo.
- A Simple and Efficient Multi-Task Learning Approach for Conditioned Dialogue Generation
- Yan Zeng, Jian-Yun Nie
- TLDR: Proponiamo un approccio multi-task per sfruttare i dati di dialogo non annotati per generare dialoghi condizionati.
- Hurdles to Progress in Long-form Question Answering
- Kalpesh Krishna, Aurko Roy, Mohit Iyyer
- TLDR: Proponiamo un nuovo metodo di apprendimento contrastivo per question answering long-form basato sulla sparsità e la valutazione umana per question answering.
- ENTRUST: Argument Reframing with Language Models and Entailment
- Tuhin Chakrabarty, Christopher Hidey, Smaranda Muresan
- TLDR: Proponiamo un metodo per reframing degli argomenti contro la teoria del post-decoder per la generazione controllabile di testo con un componente di entailment post-decoder.
- Paragraph-level Simplification of Medical Texts
- Ashwin Devaraj, Iain Marshall, Byron Wallace, Junyi Jessy Li
- TLDR: Proponiamo un nuovo corpus di testo paralleli in linguaggi grezzi e slavaci per la semplificazione dei testi sanitari.
- An Empirical Study on Neural Keyphrase Generation
- Rui Meng, Xingdi Yuan, Tong Wang, Sanqiang Zhao, Adam Trischler, Daqing He
- TLDR: Proponiamo un nuovo studio empirico che analizza i fattori chiave che possono influire sulla generalizzazione dei modelli di generazione di keyphrase neurali.
- Attention Head Masking for Inference Time Content Selection in Abstractive Summarization
- Shuyang Cao, Lu Wang
- TLDR: Proponiamo un metodo di attention masking semplice e efficace per la selezione del contenuto di un modello di summarization.
-
- Zexuan Zhong, Dan Friedman, Danqi Chen
- TLDR: Proponiamo OptiPrompt, un metodo di ricerca di stima dei risultati di predizione dei modelli di apprendimento pre-trained che sfrutta le informazioni di training per migliorare la precisione di predizione.
- Evaluating Saliency Methods for Neural Language Models
- Shuoyang Ding, Philipp Koehn
- TLDR: Proponiamo un’analisi completa e quantitativa dei metodi di salienza per la classificazione dei modelli NLP.
- Contextualized Perturbation for Textual Adversarial Attack
- Dianqi Li, Yizhe Zhang, Hao Peng, Liqun Chen, Chris Brockett, Ming-Ting Sun, Bill Dolan
- TLDR: Proponiamo un modello di generazione di esempi adversarial con un modello di masking per la generazione di esempi di testo e grammatica.
- DirectProbe: Studying Representations without Classifiers
- Yichu Zhou, Vivek Srikumar
- TLDR: Proponiamo un modello heuristic per studiare direttamente la struttura linguistica di una rappresentazione usando la teoria della versione per un task.
- Evaluating the Values of Sources in Transfer Learning
- Md Rizwan Parvez, Kai-Wei Chang
- TLDR: Proponiamo un metodo di valutazione efficiente delle source per quantificare la utilità delle source per il transfer learning basato sul metodo Shapley value.
- Too Much in Common: Shifting of Embeddings in Transformer Language Models and its Implications
- Daniel Biś, Maksim Podkorytov, Xiuwen Liu
- TLDR: Proponiamo un metodo per ristabilire la regolarizzazione dell’isotropità dei modelli di apprendimento basati sulla trasformazione.
- On the Inductive Bias of Masked Language Modeling: From Statistical to Syntactic Dependencies
- Tianyi Zhang, Tatsunori B. Hashimoto
- TLDR: Proponiamo un metodo per imparare le dipendenze statistiche in MLM e la usiamo per modellare le strutture di syntactic structure per parsing unsupervised.
- Limitations of Autoregressive Models and Their Alternatives
- Chu-Cheng Lin, Aaron Jaech, Xin Li, Matthew R. Gormley, Jason Eisner
- TLDR: Proponiamo un modello autoregressivo che può calcolare la probabilità di un nuovo modello.
- On the Transformer Growth for Progressive BERT Training
- Xiaotao Gu, Liyuan Liu, Hongkun Yu, Jing Li, Chen Chen, Jiawei Han
- TLDR: Proponiamo un metodo per aumentare il pre-training BERT e la crescita di compound in una singola dimensione.
- Revisiting Simple Neural Probabilistic Language Models
- Simeng Sun, Mohit Iyyer
- TLDR: Proponiamo un modello di language model probabilistico per la modellazione del linguaggio.
- ReadTwice: Reading Very Large Documents with Memories
- Yury Zemlyanskiy, Joshua Ainslie, Michiel de Jong, Philip Pham, Ilya Eckstein, Fei Sha
- TLDR: Proponiamo un metodo semplice e efficace per imparare a leggere il testo in piccoli segmenti, in parallel, summarizing ogni singolo segmente in una memoria table per essere utilizzato in un secondo lettura del testo.
- SCRIPT: Self-Critic PreTraining of Transformers
- Erik Nijkamp, Bo Pang, Ying Nian Wu, Caiming Xiong
- TLDR: Proponiamo un nuovo metodo di pretraining per l’apprendimento di rappresentazioni di testo.
- Learning How to Ask: Querying LMs with Mixtures of Soft Prompts
- Guanghui Qin, Jason Eisner
- TLDR: Proponiamo un metodo per imparare impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo impariamo i
- Nutri-bullets Hybrid: Consensual Multi-document Summarization
- Darsh Shah, Lili Yu, Tao Lei, Regina Barzilay
- TLDR: Proponiamo un metodo per generare sintesi comparative di documenti di testo e informazioni di sintesi tra loro.
- AVA: an Automatic eValuation Approach for Question Answering Systems
- Thuy Vu, Alessandro Moschitti
- TLDR: Proponiamo AVA, un approccio di valutazione automatica per question answering, che può stimare l’accuratezza del sistema.
- SpanPredict: Extraction of Predictive Document Spans with Neural Attention
- Vivek Subramanian, Matthew Engelhard, Sam Berchuck, Liqun Chen, Ricardo Henao, Lawrence Carin
- TLDR: Proponiamo un modello per identificare i testi predittivi e assegnarli ai testi di classificazione.
- Text Editing by Command
- Felix Faltings, Michel Galley, Gerold Hintz, Chris Brockett, Chris Quirk, Jianfeng Gao, Bill Dolan
- TLDR: Proponiamo WikiDocEdit, un dataset di testo addestrato su transformer basati su WikiDoc, che migliora le prestazioni di generazione di testo.
- A Deep Metric Learning Approach to Account Linking
- Aleem Khan, Elizabeth Fleming, Noah Schofield, Marcus Bishop, Nicholas Andrews
- TLDR: Proponiamo un metodo per collegare le informazioni di un account di condivisione dei documenti di testo e immagini di un author in modo automatizzato.
- Improving Factual Completeness and Consistency of Image-to-Text Radiology Report Generation
- Yasuhide Miura, Yuhao Zhang, Emily Tsai, Curtis Langlotz, Dan Jurafsky
- TLDR: Proponiamo un modello di report generativo neurale che utilizza la semantica per generare informazioni di radiologia accurate e sintetiche.
- Multimodal End-to-End Sparse Model for Emotion Recognition
- Wenliang Dai, Samuel Cahyawijaya, Zihan Liu, Pascale Fung
- TLDR: Proponiamo un modello di apprendimento end-to-end per l’apprendimento end-to-end con attention sparsa per la predizione di feature.
- MIMOQA: Multimodal Input Multimodal Output Question Answering
- Hrituraj Singh, Anshul Nasery, Denil Mehta, Aishwarya Agarwal, Jatin Lamba, Balaji Vasan Srinivasan
- TLDR: Proponiamo un nuovo task di question answering multimodale multi-task che produce un output multi-task.
- OCID-Ref: A 3D Robotic Dataset With Embodied Language For Clutter Scene Grounding
- Ke-Jyun Wang, Yun-Hsuan Liu, Hung-Ting Su, Jen-Wei Wang, Yu-Siang Wang, Winston Hsu, Wen-Chin Chen
- TLDR: Proponiamo un nuovo dataset OCID-Ref per la segmentazione delle espressioni di riferimento per risolvere problemi di grounding visivo.
- Unsupervised Vision-and-Language Pre-training Without Parallel Images and Captions
- Liunian Harold Li, Haoxuan You, Zhecan Wang, Alireza Zareian, Shih-Fu Chang, Kai-Wei Chang
- TLDR: Proponiamo di addestrare V&L senza corpora di rappresentazione e dimostriamo che le informazioni rilevanti degli oggetti possono essere utilizzate come punti di bridge tra le due modalità di training.
- Multitasking Inhibits Semantic Drift
- Athul Paul Jacob, Mike Lewis, Jacob Andreas
- TLDR: Proponiamo un nuovo metodo per imparare le policy di apprendimento latente nel gioco di strategia neurale.
- Probing Contextual Language Models for Common Ground with Visual Representations
- Gabriel Ilharco, Rowan Zellers, Ali Farhadi, Hannaneh Hajishirzi
- TLDR: Proponiamo un modello di prova per valutare le rappresentazioni visive di modelli di apprendimento contestuale basati sul testo.
- BBAEG: Towards BERT-based Biomedical Adversarial Example Generation for Text Classification
- Ishani Mondal
- TLDR: Proponiamo un adversarial attack black-box per la classificazione del testo biomedico.
- Targeted Adversarial Training for Natural Language Understanding
- Lis Pereira, Xiaodong Liu, Hao Cheng, Hoifung Poon, Jianfeng Gao, Ichiro Kobayashi
- TLDR: Proponiamo un nuovo metodo di adversarial training per natural language understanding.
- Latent-Optimized Adversarial Neural Transfer for Sarcasm Detection
- Xu Guo, Boyang Li, Han Yu, Chunyan Miao
- TLDR: Proponiamo un metodo di ottimizzazione latente generalizzato per il transfer learning e il meta-learning.
- Self-training Improves Pre-training for Natural Language Understanding
- Jingfei Du, Edouard Grave, Beliz Gunel, Vishrav Chaudhary, Onur Celebi, Michael Auli, Veselin Stoyanov, Alexis Conneau
- TLDR: Proponiamo SentAugment, un metodo di augmentation dei dati per l’apprendimento semi-supervisionato.
- Supporting Clustering with Contrastive Learning
- Dejiao Zhang, Feng Nan, Xiaokai Wei, Shang-Wen Li, Henghui Zhu, Kathleen McKeown, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: Proponiamo un nuovo framework per sfruttare il contrasto per migliorare la separazione tra le categorie.
- TITA: A Two-stage Interaction and Topic-Aware Text Matching Model
- Xingwu Sun, Yanling Cui, Hongyin Tang, Qiuyu Zhu, Fuzheng Zhang, Beihong Jin
- TLDR: Proponiamo un modello di topic-aware text matching per il matching di testo e testo.
- Neural Quality Estimation with Multiple Hypotheses for Grammatical Error Correction
- Zhenghao Liu, Xiaoyuan Yi, Maosong Sun, Liner Yang, Tat-Seng Chua
- TLDR: Proponiamo una rete neurale per la stima della qualità del testo grammatico con diverse ipotesi.
- Neural Network Surgery: Injecting Data Patterns into Pre-trained Models with Minimal Instance-wise Side Effects
- Zhiyuan Zhang, Xuancheng Ren, Qi Su, Xu Sun, Bin He
- TLDR: Proponiamo di regolarizzare i side effects durante il tuning delle reti neurali.
- Discrete Argument Representation Learning for Interactive Argument Pair Identification
- Lu Ji, Zhongyu Wei, Jing Li, Qi Zhang, Xuanjing Huang
- TLDR: Proponiamo un framework per imparare rappresentazioni di argomenti di dialogo multi-task per la generazione di informazioni post-wise.
- On Unifying Misinformation Detection
- Nayeon Lee, Belinda Z. Li, Sinong Wang, Pascale Fung, Hao Ma, Wen-tau Yih, Madian Khabsa
- TLDR: Proponiamo un modello di misinformation generalizzato che modella più domini di misinformation con un singolo setup unificato.
- Frustratingly Easy Edit-based Linguistic Steganography with a Masked Language Model
- Honai Ueoka, Yugo Murawaki, Sadao Kurohashi
- TLDR: Proponiamo un metodo di steganizzazione basato sullo stile di testo per risolvere il problema della generazione di testo.
- Few-Shot Text Classification with Triplet Networks, Data Augmentation, and Curriculum Learning
- Jason Wei, Chengyu Huang, Soroush Vosoughi, Yu Cheng, Shiqi Xu
- TLDR: Proponiamo un metodo di training per addestrare la classe di testo few shot utilizzando dati di training.
- Do RNN States Encode Abstract Phonological Alternations?
- Miikka Silfverberg, Francis Tyers, Garrett Nicolai, Mans Hulden
- TLDR: Proponiamo un modello di sequenza-to-sequenza che può imparare la consonanza e la regolarizzazione con le parole.
- Pre-training with Meta Learning for Chinese Word Segmentation
- Zhen Ke, Liang Shi, Songtao Sun, Erli Meng, Bin Wang, Xipeng Qiu
- TLDR: Proponiamo un modello di Word Sectoring pre-trained che incorpora il meta learning nel task di pre-training multi-criteria.
- Decompose, Fuse and Generate: A Formation-Informed Method for Chinese Definition Generation
- Hua Zheng, Damai Dai, Lei Li, Tianyu Liu, Zhifang Sui, Baobao Chang, Yang Liu
- TLDR: Proponiamo un modello DeFT per la generazione di definizioni di parole in linguaggio naturale.
- User-Generated Text Corpus for Evaluating Japanese Morphological Analysis and Lexical Normalization
- Shohei Higashiyama, Masao Utiyama, Taro Watanabe, Eiichiro Sumita
- TLDR: Proponiamo un corpus di testo UGT per la valutazione e la normalizzazione del testo UGT.
- GPT Perdetry Test: Generating new meanings for new words
- Nikolay Malkin, Sameera Lanka, Pranav Goel, Sudha Rao, Nebojsa Jojic
- TLDR: Proponiamo un modello di apprendimento pretrained per processare nuovi termini e decidere sul loro significato.
- Universal Semantic Tagging for English and Mandarin Chinese
- Wenxi Li, Yiyang Hou, Yajie Ye, Li Liang, Weiwei Sun
- TLDR: Proponiamo un nuovo metodo di tagger per studiare la plausibilità di rappresentazioni di significati unificate per diversi lingue.
- ShadowGNN: Graph Projection Neural Network for Text-to-SQL Parser
- Zhi Chen, Lu Chen, Yanbin Zhao, Ruisheng Cao, Zihan Xu, Su Zhu, Kai Yu
- TLDR: Proponiamo una nuova architettura di parsing text-to-SQL che processa schema a livello di immagine e semantico.
- Contextualized and Generalized Sentence Representations by Contrastive Self-Supervised Learning: A Case Study on Discourse Relation Analysis
- Hirokazu Kiyomaru, Sadao Kurohashi
- TLDR: Proponiamo un metodo per imparare rappresentazioni di frasi contestuali e generalizzate utilizzando contrastive self-supervision.
- AMR Parsing with Action-Pointer Transformer
- Jiawei Zhou, Tahira Naseem, Ramón Fernandez Astudillo, Radu Florian
- TLDR: Proponiamo un metodo di parsing basato sulla trasformazione per la predizione di rappresentazioni di grafi.
- NL-EDIT: Correcting Semantic Parse Errors through Natural Language Interaction
- Ahmed Elgohary, Christopher Meek, Matthew Richardson, Adam Fourney, Gonzalo Ramos, Ahmed Hassan Awadallah
- TLDR: Proponiamo NL-EDIT, un modello per interpretare il feedback del linguaggio naturale per migliorare la precisione di parsing semantic.
- Unsupervised Concept Representation Learning for Length-Varying Text Similarity
- Xuchao Zhang, Bo Zong, Wei Cheng, Jingchao Ni, Yanchi Liu, Haifeng Chen
- TLDR: Proponiamo un metodo di apprendimento unsupervised di rappresentazione del testo per risolvere il problema della similarità del testo.
- Augmenting Knowledge-grounded Conversations with Sequential Knowledge Transition
- Haolan Zhan, Hainan Zhang, Hongshen Chen, Zhuoye Ding, Yongjun Bao, Yanyan Lan
- TLDR: Proponiamo di utilizzare la transition knowledge per risolvere il problema della generazione di risposte irrelevanti di conversazioni di dialogo.
- Adversarial Self-Supervised Learning for Out-of-Domain Detection
- Zhiyuan Zeng, Keqing He, Yuanmeng Yan, Hong Xu, Weiran Xu
- TLDR: Proponiamo un framework di contrastive learning self-supervised per rilevare gli intenti fuori-domain (OOD) da dati non annotati.
- Leveraging Slot Descriptions for Zero-Shot Cross-Domain Dialogue StateTracking
- Zhaojiang Lin, Bing Liu, Seungwhan Moon, Paul Crook, Zhenpeng Zhou, Zhiguang Wang, Zhou Yu, Andrea Madotto, Eunjoon Cho, Rajen Subba
- TLDR: Proponiamo un approccio di dialogue state tracking basato sulla description per cross-domain dialogue state tracking.
- Hierarchical Transformer for Task Oriented Dialog Systems
- Bishal Santra, Potnuru Anusha, Pawan Goyal
- TLDR: Proponiamo un framework generale per la generazione di modelli di dialogo basati sul trasformatore, che può essere trasformato in qualsiasi modello di dialogo gerarchico, compresi i modelli HRED e HIBERT.
- Measuring the ‘I don’t know’ Problem through the Lens of Gricean Quantity
- Huda Khayrallah, João Sedoc
- TLDR: Proponiamo un diagnostico di apprendimento per risolvere il problema di I-don’t-know, in cui un sistema di dialogo produce risposte generice.
- RTFE: A Recursive Temporal Fact Embedding Framework for Temporal Knowledge Graph Completion
- Youri Xu, Haihong E, Meina Song, Wenyu Song, Xiaodong Lv, Wang Haotian, Yang Jinrui
- TLDR: Proponiamo un framework di embedding temporale per la trasformazione dei knowledge graph in knowledge graph.
- Open Hierarchical Relation Extraction
- Kai Zhang, Yuan Yao, Ruobing Xie, Xu Han, Zhiyuan Liu, Fen Lin, Leyu Lin, Maosong Sun
- TLDR: Proponiamo un nuovo obiettivo di extrazione delle relazioni neurali da corpora corpora open-domain e dimostriamo che le informazioni di gerarchia possono essere integrate in rappresentazioni di relazioni.
- Jointly Extracting Explicit and Implicit Relational Triples with Reasoning Pattern Enhanced Binary Pointer Network
- Yubo Chen, Yunqi Zhang, Changran Hu, Yongfeng Huang
- TLDR: Proponiamo un modello di relational triple extraction unificato per esplorare le relazioni tra le triple implicite e implicite.
- Multi-Grained Knowledge Distillation for Named Entity Recognition
- Xuan Zhou, Xiao Zhang, Chenyang Tao, Junya Chen, Bing Xu, Wei Wang, Jing Xiao
- TLDR: Proponiamo un metodo di distillation multi-grained per distillare la conoscenza di un modello di apprendimento di informazioni dirette da un modello di apprendimento di informazioni dirette.
- SGG: Learning to Select, Guide, and Generate for Keyphrase Generation
- Jing Zhao, Junwei Bao, Yifan Wang, Youzheng Wu, Xiaodong He, Bowen Zhou
- TLDR: Proponiamo di utilizzare la selezione guidata per la generazione di keywords.
- Towards Sentiment and Emotion aided Multi-modal Speech Act Classification in Twitter
- Tulika Saha, Apoorva Upadhyaya, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: Proponiamo un nuovo dataset multimodale, emotion-TA per la classificazione dello speech.
- Generative Imagination Elevates Machine Translation
- Quanyu Long, Mingxuan Wang, Lei Li
- TLDR: Proponiamo ImagiT, un nuovo metodo di traduzione tramite visual imagination che utilizza sia la rappresentazione visiva che la frase di origine per produrre una traduzione target.
- Non-Autoregressive Translation by Learning Target Categorical Codes
- Yu Bao, Shujian Huang, Tong Xiao, Dongqi Wang, Xinyu Dai, Jiajun Chen
- TLDR: Proponiamo un modello di decodifica non autoregressivo che impara implicitamente codici categorici come variabili latenti per il decodifica non autoregressiva.
- Training Data Augmentation for Code-Mixed Translation
- Abhirut Gupta, Aditya Vavre, Sunita Sarawagi
- TLDR: Proponiamo un metodo per addestrare un modello di sequenza semantica per la traduzione di testi e parole.
- Rethinking Perturbations in Encoder-Decoders for Fast Training
- Sho Takase, Shun Kiyono
- TLDR: Proponiamo un metodo per regolarizzare le perturbazioni neurali usando il sampling e l’adversarial adversarial.
- Context-aware Decoder for Neural Machine Translation using a Target-side Document-Level Language Model
- Amane Sugiyama, Naoki Yoshinaga
- TLDR: Proponiamo un decoder di transizione neurale con decodifica di contesto per la traduzione in linguaggio naturale.
- Machine Translated Text Detection Through Text Similarity with Round-Trip Translation
- Hoang-Quoc Nguyen-Son, Tran Thao, Seira Hidano, Ishita Gupta, Shinsaku Kiyomoto
- TLDR: Proponiamo un metodo per rilevare le translate text similarity con round-trip translation.
- TR-BERT: Dynamic Token Reduction for Accelerating BERT Inference
- Deming Ye, Yankai Lin, Yufei Huang, Maosong Sun
- TLDR: Proponiamo un metodo di riduzione dinamico dei token per l’apprendimento di modelli di inferenza pre-trained.
- Breadth First Reasoning Graph for Multi-hop Question Answering
- Yongjie Huang, Meng Yang
- TLDR: Proponiamo un modello di reasoning graph basato sulla GNN che permette un’estrazione più diretta del span di risposta e interpretabile del ragionamento.
- Improving Zero-Shot Cross-lingual Transfer for Multilingual Question Answering over Knowledge Graph
- Yucheng Zhou, Xiubo Geng, Tao Shen, Wenqiang Zhang, Daxin Jiang
- TLDR: Proponiamo un metodo di question answering multilingue per cross-streaming di knowledge graph.
- RocketQA: An Optimized Training Approach to Dense Passage Retrieval for Open-Domain Question Answering
- Yingqi Qu, Yuchen Ding, Jing Liu, Kai Liu, Ruiyang Ren, Wayne Xin Zhao, Daxiang Dong, Hua Wu, Haifeng Wang
- TLDR: Proponiamo un metodo di training ottimizzato per il recupero di passage densi end-to-end per question answering open-domain.
- DAGN: Discourse-Aware Graph Network for Logical Reasoning
- Yinya Huang, Meng Fang, Yu Cao, Liwei Wang, Xiaodan Liang
- TLDR: Proponiamo una graph network che ragiona basandosi sul linguaggio del discorso per risolvere logical reasoning.
- Designing a Minimal Retrieve-and-Read System for Open-Domain Question Answering
- Sohee Yang, Minjoon Seo
- TLDR: Proponiamo un metodo di retrieval e read per question answering open-domain.
- Unsupervised Multi-hop Question Answering by Question Generation
- Liangming Pan, Wenhu Chen, Wenhan Xiong, Min-Yen Kan, William Yang Wang
- TLDR: Proponiamo un modello di QA multi-hop unsupervised che può generare risposte multi-hop da diverse source di dati da entrambi i tipi di dati.
- Sliding Selector Network with Dynamic Memory for Extractive Summarization of Long Documents
- Peng Cui, Le Hu
- TLDR: Proponiamo una semantica semantica per la summarization di documenti lunghi, che sfrutta la dinamica per riallocare la lunghezza dei documenti.
- AdaptSum: Towards Low-Resource Domain Adaptation for Abstractive Summarization
- Tiezheng Yu, Zihan Liu, Pascale Fung
- TLDR: Proponiamo un metodo di pre-training per la summarization abstractive che può essere utilizzato per migliorare la generalizzazione.
- QMSum: A New Benchmark for Query-based Multi-domain Meeting Summarization
- Ming Zhong, Da Yin, Tao Yu, Ahmad Zaidi, Mutethia Mutuma, Rahul Jha, Ahmed Hassan Awadallah, Asli Celikyilmaz, Yang Liu, Xipeng Qiu, Dragomir Radev
- TLDR: Proponiamo QMSum, un nuovo task di summarization multi-domain di meeting, dove i modelli hanno la possibilità di selezionare e riformulare le relazioni tra i partecipanti in risposta a una query.
- MM-AVS: A Full-Scale Dataset for Multi-modal Summarization
- Xiyan Fu, Jun Wang, Zhenglu Yang
- TLDR: Proponiamo un nuovo dataset multimodale per la summarization multimodale.
- MediaSum: A Large-scale Media Interview Dataset for Dialogue Summarization
- Chenguang Zhu, Yang Liu, Jie Mei, Michael Zeng
- TLDR: Proponiamo MediaSum, un dataset di conversazione media su larga scala con transcriptions e descrizioni di topic.
- Improving Faithfulness in Abstractive Summarization with Contrast Candidate Generation and Selection
- Sihao Chen, Fan Zhang, Kazoo Sone, Dan Roth
- TLDR: Proponiamo un metodo di contrasto per la generazione di candidati e selezione di modelli di apprendimento model-agnostic per risolvere il problema delle hallucinazioni.
- Inference Time Style Control for Summarization
- Shuyang Cao, Lu Wang
- TLDR: Proponiamo un metodo per decodificare il decoder di Transformer in modo indipendente dai corpora, senza bisogno di corpora nel modello target.
- ReinforceBug: A Framework to Generate Adversarial Textual Examples
- Bushra Sabir, Muhammad Ali Babar, Raj Gaire
- TLDR: Proponiamo un reinforcement learning per generare AE utili e trasferibili.