EMNLP 2021 in Italian
TLDRs
- AligNART: Non-autoregressive Neural Machine Translation by Jointly Learning to Estimate Alignment and Translate
- Jongyoon Song, Sungwon Kim, Sungroh Yoon
- TLDR: Proponiamo un nuovo metodo di apprendimento per la traduzione neurale neurale non autoregressiva che sfrutta la stima dell’alineamento per ridurre la modalità della distribuzione target.
- Zero-Shot Cross-Lingual Transfer of Neural Machine Translation with Multilingual Pretrained Encoders
- Guanhua Chen, Shuming Ma, Yun Chen, Li Dong, Dongdong Zhang, Jia Pan, Wenping Wang, Furu Wei
- TLDR: Proponiamo un modello di transfer multilingue per NMT.
- ERNIE-M: Enhanced Multilingual Representation by Aligning Cross-lingual Semantics with Monolingual Corpora
- Xuan Ouyang, Shuohuan Wang, Chao Pang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: Proponiamo un metodo di training per addestrare modelli cross-lingualizzati che combinano la rappresentazione multilingue con corpora paralleli, per superare il constraint che la dimensione parallela del corpus occupa sulla base della quantità di corpora paralleli.
- Cross Attention Augmented Transducer Networks for Simultaneous Translation
- Dan Liu, Mengge Du, Xiaoxi Li, Ya Li, Enhong Chen
- TLDR: Proponiamo un nuovo cross attention acceleratore per la traduzione simultanea.
- Translating Headers of Tabular Data: A Pilot Study of Schema Translation
- Kunrui Zhu, Yan Gao, Jiaqi Guo, Jian-Guang Lou
- TLDR: Proponiamo un modello di schema translation che sfrutta il contesto per convertire i dati di testo in una forma di grafi.
- Towards Making the Most of Dialogue Characteristics for Neural Chat Translation
- Yunlong Liang, Chulun Zhou, Fandong Meng, Jinan Xu, Yufeng Chen, Jinsong Su, Jie Zhou
- TLDR: Proponiamo di migliorare la qualità della chat translation attraverso il training di obiettivi di training per la traduzione conversazionale.
- Low-Resource Dialogue Summarization with Domain-Agnostic Multi-Source Pretraining
- Yicheng Zou, Bolin Zhu, Xingwu Hu, Tao Gui, Qi Zhang
- TLDR: Proponiamo un nuovo metodo di pretraining multi-source per dialogue summarization.
- Controllable Neural Dialogue Summarization with Personal Named Entity Planning
- Zhengyuan Liu, Nancy Chen
- TLDR: Proponiamo un framework di generazione neurale controllabile che può guidare la sintesi del dialogo con la pianificazione di enti dirette personalizzate.
- Fine-grained Factual Consistency Assessment for Abstractive Summarization Models
- Sen Zhang, Jianwei Niu, Chuyuan Wei
- TLDR: Proponiamo un framework di valutazione della consapency per la sintesi di modelli di summarization.
- Decision-Focused Summarization
- Chao-Chun Hsu, Chenhao Tan
- TLDR: Proponiamo un nuovo metodo di summarization decisionale basato sul modello per la valutazione di un modello di spiegazione basato sul modello.
- Multiplex Graph Neural Network for Extractive Text Summarization
- Baoyu Jing, Zeyu You, Tao Yang, Wei Fan, Hanghang Tong
- TLDR: Proponiamo un modello di summarization text-to-speech per l’apprendimento di grafi con graph neural network multiplex.
- A Thorough Evaluation of Task-Specific Pretraining for Summarization
- Sascha Rothe, Joshua Maynez, Shashi Narayan
- TLDR: Proponiamo un nuovo metodo di pretraining task-agnostic per la predizione di corrupted span prediction.
- HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text Extractive Summarization
- Ye Liu, Jianguo Zhang, Yao Wan, Congying Xia, Lifang He, Philip Yu
- TLDR: Proponiamo un modello di summarization basato sul trasformatore per la sintesi di testo e immagini per long text extractive.
- Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context
- Xinnian Liang, Shuangzhi Wu, Mu Li, Zhoujun Li
- TLDR: Proponiamo un modello di embedding basato sul contesto per l’apprendimento unsupervised di keyphrase extraction.
- Distantly Supervised Relation Extraction using Multi-Layer Revision Network and Confidence-based Multi-Instance Learning
- Xiangyu Lin, Tianyi Liu, Weijia Jia, Zhiguo Gong
- TLDR: Proponiamo un metodo di apprendimento multi-instance basato sulla confidenza per ridurre il rumore di input e il rumore di input.
- Logic-level Evidence Retrieval and Graph-based Verification Network for Table-based Fact Verification
- Qi Shi, Yu Zhang, Qingyu Yin, Ting Liu
- TLDR: Proponiamo un metodo per riutilizzare la conoscenza logica di una semi-struttura di table e un approccio di apprendimento basato sul ragionamento logico basato sul grafi per risolvere il task di verifica basato sul ragionamento logico.
- A Partition Filter Network for Joint Entity and Relation Extraction
- Zhiheng Yan, Chong Zhang, Jinlan Fu, Qi Zhang, Zhongyu Wei
- TLDR: Proponiamo un encoder di feature per la predizione di modelli di interazione tra task e feature per la predizione di modelli di interazione tra task.
- TEBNER: Domain Specific Named Entity Recognition with Type Expanded Boundary-aware Network
- Zheng Fang, Yanan Cao, Tai Li, Ruipeng Jia, Fang Fang, Yanmin Shang, Yuhai Lu
- TLDR: Proponiamo un metodo di apprendimento di modelli neurali distanti per Named Entity Recognition.
- Beta Distribution Guided Aspect-aware Graph for Aspect Category Sentiment Analysis with Affective Knowledge
- Bin Liang, Hang Su, Rongdi Yin, Lin Gui, Min Yang, Qin Zhao, Xiaoqi Yu, Ruifeng Xu
- TLDR: Proponiamo un approccio di apprendimento guidato dalla conoscenza per la costruzione di grafi di sentiment analysis con grafi di sentiment per la categoria degli aspetti.
- DILBERT: Customized Pre-Training for Domain Adaptation with Category Shift, with an Application to Aspect Extraction
- Entony Lekhtman, Yftah Ziser, Roi Reichart
- TLDR: Proponiamo un nuovo fine-tuning per BERT per domain invariant learning.
- Improving Multimodal fusion via Mutual Dependency Maximisation
- Pierre Colombo, Emile Chapuis, Matthieu Labeau, Chloé Clavel
- TLDR: Proponiamo un’architettura multimodale per la valutazione del sentiment multimodale.
- Learning Implicit Sentiment in Aspect-based Sentiment Analysis with Supervised Contrastive Pre-Training
- Zhengyan Li, Yicheng Zou, Chong Zhang, Qi Zhang, Zhongyu Wei
- TLDR: Proponiamo un metodo di pre-training controsviluppo per l’apprendimento di sentimenti impliciti.
- Progressive Self-Training with Discriminator for Aspect Term Extraction
- Qianlong Wang, Zhiyuan Wen, Qin Zhao, Min Yang, Ruifeng Xu
- TLDR: Proponiamo un metodo per addestrare le pseudo-label per l’apprendimento di curriculum learning.
- Reinforced Counterfactual Data Augmentation for Dual Sentiment Classification
- Hao Chen, Rui Xia, Jianfei Yu
- TLDR: Proponiamo un approccio di reinforcement learning end-to-end per la generazione di dati di training e la classificazione del sentimento.
- Idiosyncratic but not Arbitrary: Learning Idiolects in Online Registers Reveals Distinctive yet Consistent Individual Styles
- Jian Zhu, David Jurgens
- TLDR: Proponiamo un metodo per studiare gli idioletti attraverso una massiccia cross-author comparison per identificare le feature stylistiche.
- Narrative Theory for Computational Narrative Understanding
- Andrew Piper, Richard Jean So, David Bamman
- TLDR: Proponiamo un nuovo metodo per ragionamento sulla narrative e mostriamo che questo può essere utilizzato per risolvere il problema della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria.
- (Mis)alignment Between Stance Expressed in Social Media Data and Public Opinion Surveys
- Kenneth Joseph, Sarah Shugars, Ryan Gallagher, Jon Green, Alexi Quintana Mathé, Zijian An, David Lazer
- TLDR: Proponiamo un framework per valutare le limitazioni dei modelli di rilevamento della stance e dimostriamo che le stesse possono essere utilizzate per misurare la stance.
- How Does Counterfactually Augmented Data Impact Models for Social Computing Constructs?
- Indira Sen, Mattia Samory, Fabian Flöck, Claudia Wagner, Isabelle Augenstein
- TLDR: Proponiamo un nuovo metodo per generare dati counterfactualmente aumentati per migliorare la robustezza dei modelli NLP sociali.
- Latent Hatred: A Benchmark for Understanding Implicit Hate Speech
- Mai ElSherief, Caleb Ziems, David Muchlinski, Vaishnavi Anupindi, Jordyn Seybolt, Munmun De Choudhury, Diyi Yang
- TLDR: Proponiamo un corpus di analisi teoriche per rilevare e spiegare il speech di odio implicito e il speech di odio causato da parole e immagini.
- Distilling Linguistic Context for Language Model Compression
- Geondo Park, Gyeongman Kim, Eunho Yang
- TLDR: Proponiamo un nuovo obiettivo di distillation della conoscenza per language representation learning che trasferisce la conoscenza contestuale attraverso due tipi di relazioni tra rappresentazioni: Word Relation e Layer Transformering Relation.
- Dynamic Knowledge Distillation for Pre-trained Language Models
- Lei Li, Yankai Lin, Shuhuai Ren, Peng Li, Jie Zhou, Xu Sun
- TLDR: Proponiamo un metodo di knowledge distillation dinamico che permette ai student di regolare la procedura di apprendimento secondo la sua competenza, e di conseguenza la sua efficienza di apprendimento e la sua efficienza di apprendimento.
- Few-Shot Text Generation with Natural Language Instructions
- Timo Schick, Hinrich Schütze
- TLDR: Proponiamo GenPET, un metodo per la generazione di testo che è basato sul training di pattern esploratori, un approccio di supervisione supervised per combining le informazioni testuali con il supervised learning che funziona solo per task di classificazione.
- SOM-NCSCM : An Efficient Neural Chinese Sentence Compression Model Enhanced with Self-Organizing Map
- Kangli Zi, Shi Wang, Yu Liu, Jicun Li, Yanan Cao, Cungen Cao
- TLDR: Proponiamo un modello di compressione della frase per la comprensione di testi colloquiali.
- Efficient Multi-Task Auxiliary Learning: Selecting Auxiliary Data by Feature Similarity
- Po-Nien Kung, Sheng-Siang Yin, Yi-Cheng Chen, Tse-Hsuan Yang, Yun-Nung Chen
- TLDR: Proponiamo un metodo di sampling efficiente per multi-task auxiliary learning.
- GOLD: Improving Out-of-Scope Detection in Dialogues using Data Augmentation
- Derek Chen, Zhou Yu
- TLDR: Proponiamo un metodo per addestrare modelli di rilevamento OOS in regime di dati bassi.
- Graph Based Network with Contextualized Representations of Turns in Dialogue
- Bongseok Lee, Yong Suk Choi
- TLDR: Proponiamo un nuovo metodo per risolvere il task di dialogo basato sulla conversazione utilizzando la convolutional convolutional consapency.
- Automatically Exposing Problems with Neural Dialog Models
- Dian Yu, Kenji Sagae
- TLDR: Proponiamo di utilizzare il reinforcement learning per incoraggiare le risposte di dialogo in modo da evitare la sicurezza e la contradizione.
- Event Coreference Data (Almost) for Free: Mining Hyperlinks from Online News
- Michael Bugert, Iryna Gurevych
- TLDR: Proponiamo un metodo per risolvere il cross-document event coreference tramite l’apprendimento di modelli di autoapprendimento.
- Inducing Stereotypical Character Roles from Plot Structure
- Labiba Jahan, Rahul Mittal, Mark Finlayson
- TLDR: Proponiamo un approccio di clustering k-means per imparare le rappresentazioni di personaggi stereotipici.
- Multitask Semi-Supervised Learning for Class-Imbalanced Discourse Classification
- Alexander Spangher, Jonathan May, Sz-Rung Shiang, Lingjia Deng
- TLDR: Proponiamo un metodo di multitask learning per imparare a combinare i dati di apprendimento di diversi domini per migliorare la classificazione del linguaggio.
- Low Frequency Names Exhibit Bias and Overfitting in Contextualizing Language Models
- Robert Wolfe, Aylin Caliskan
- TLDR: Proponiamo un’analisi del bias di bias tra la frequenza e la rappresentazione del nome e il bias di tokenizzazione.
- Mitigating Language-Dependent Ethnic Bias in BERT
- Jaimeen Ahn, Alice Oh
- TLDR: Proponiamo un metodo per mitigare il bias etnico in BERT per la lingua di origine e di origine.
- Adversarial Scrubbing of Demographic Information for Text Classification
- Somnath Basu Roy Chowdhury, Sayan Ghosh, Yiyuan Li, Junier Oliva, Shashank Srivastava, Snigdha Chaturvedi
- TLDR: Proponiamo un adversarial framework per imparare rappresentazioni contestuali contestuali con informazioni di rappresentazione.
- Open-domain clarification question generation without question examples
- Julia White, Gabriel Poesia, Robert Hawkins, Dorsa Sadigh, Noah Goodman
- TLDR: Proponiamo un modello di question-asking basato sulla visione per risolvere il dialogo con la comprensione.
- Improving Sequence-to-Sequence Pre-training via Sequence Span Rewriting
- Wangchunshu Zhou, Tao Ge, Canwen Xu, Ke Xu, Furu Wei
- TLDR: Proponiamo un nuovo metodo per
- Coarse2Fine: Fine-grained Text Classification on Coarsely-grained Annotated Data
- Dheeraj Mekala, Varun Gangal, Jingbo Shang
- TLDR: Proponiamo un nuovo problema di classificazione text-to-speech che mira a eseguire una classificazione fine-grained su dati annotati coarsemente annotati.
- Text2Mol: Cross-Modal Molecule Retrieval with Natural Language Queries
- Carl Edwards, ChengXiang Zhai, Heng Ji
- TLDR: Proponiamo un nuovo task, Text2Mol, per rimuovere le molecole utilizzando le descrizioni del linguaggio naturale come query.
- Classification of hierarchical text using geometric deep learning: the case of clinical trials corpus
- Sohrab Ferdowsi, Nikolay Borissov, Julien Knafou, Poorya Amini, Douglas Teodoro
- TLDR: Proponiamo un metodo di selezione selectivo dei grafi per classificare i protocolli di clinical trial clinical.
- The Devil is in the Detail: Simple Tricks Improve Systematic Generalization of Transformers
- Róbert Csordás, Kazuki Irie, Juergen Schmidhuber
- TLDR: Proponiamo di migliorare le prestazioni di generalizzazione delle reti neurali utilizzando le varianti di embedding, relative posizionial embedding e Universal Transformer.
- Artificial Text Detection via Examining the Topology of Attention Maps
- Laida Kushnareva, Daniil Cherniavskii, Vladislav Mikhailov, Ekaterina Artemova, Serguei Barannikov, Alexander Bernstein, Irina Piontkovskaya, Dmitri Piontkovski, Evgeny Burnaev
- TLDR: Proponiamo un nuovo tipo di feature topologiche interpretabili per il rilevamento del testo artificiale basate sulla topologia topologica.
- Active Learning by Acquiring Contrastive Examples
- Katerina Margatina, Giorgos Vernikos, Loïc Barrault, Nikolaos Aletras
- TLDR: Proponiamo un approccio di active learning basato sulla diversità per selezionare e selezionare i punti di contrasto, che produce risultati allo stato dell’arte su diversi task di natural language understanding.
- Conditional Poisson Stochastic Beams
- Clara Meister, Afra Amini, Tim Vieira, Ryan Cotterell
- TLDR: Proponiamo un metodo per trasformare la ricerca di beam in un processo stocastico: Conditional Poisson stochastic beam search.
- Building Adaptive Acceptability Classifiers for Neural NLG
- Soumya Batra, Shashank Jain, Peyman Heidari, Ankit Arun, Catharine Youngs, Xintong Li, Pinar Donmez, Shawn Mei, Shiunzu Kuo, Vikas Bhardwaj, Anuj Kumar, Michael White
- TLDR: Proponiamo un nuovo framework per addestrare modelli per classificare le risposte generate da modelli di generazione del linguaggio naturale, migliorando le tecniche di trasformazione della frase e di modello, e mostriamo che il training di modelli di generazione del linguaggio naturale utilizzando dati che rispondono ai modelli di generazione del linguaggio naturale e un framework di validazione migliora le prestazioni dello stato dell’arte.
- Moral Stories: Situated Reasoning about Norms, Intents, Actions, and their Consequences
- Denis Emelin, Ronan Le Bras, Jena D. Hwang, Maxwell Forbes, Yejin Choi
- TLDR: Proponiamo un modello di apprendimento per la generazione di ipotesi di azione e di conseguenza di regole sociali.
- Truth-Conditional Captions for Time Series Data
- Harsh Jhamtani, Taylor Berg-Kirkpatrick
- TLDR: Proponiamo un modello computazionale per generare descrizioni di testo naturale per la generazione di programmi.
- Injecting Entity Types into Entity-Guided Text Generation
- Xiangyu Dong, Wenhao Yu, Chenguang Zhu, Meng Jiang
- TLDR: Proponiamo un modello di deep generative learning per incorporare le informazioni di tipo in un modello di embedding di testo e parole.
- Smelting Gold and Silver for Improved Multilingual AMR-to-Text Generation
- Leonardo F. R. Ribeiro, Jonas Pfeiffer, Yue Zhang, Iryna Gurevych
- TLDR: Proponiamo un metodo per generare annotazioni AMR multilingue utilizzando la traduzione di parole e frasi.
- Learning Compact Metrics for MT
- Amy Pu, Hyung Won Chung, Ankur Parikh, Sebastian Gehrmann, Thibault Sellam
- TLDR: Proponiamo di distillare il modello di traduzione multilingue per risolvere il problema della capacità di modello multilingue.
- The Impact of Positional Encodings on Multilingual Compression
- Vinit Ravishankar, Anders Søgaard
- TLDR: Proponiamo di imparare encoder positional per multilingual training.
- Disentangling Representations of Text by Masking Transformers
- Xiongyi Zhang, Jan-Willem van de Meent, Byron Wallace
- TLDR: Proponiamo un metodo di apprendimento di rappresentazioni disentangled che utilizza le mask per imparare le sottoreti di sottosegne nei modelli pretrained.
- Exploring the Role of BERT Token Representations to Explain Sentence Probing Results
- Hosein Mohebbi, Ali Modarressi, Mohammad Taher Pilehvar
- TLDR: Proponiamo un’analisi più approfondita sulla proprietà di codificazione delle rappresentazioni di BERT per scoprire la loro funzione di codificazione.
- Do Long-Range Language Models Actually Use Long-Range Context?
- Simeng Sun, Kalpesh Krishna, Andrew Mattarella-Micke, Mohit Iyyer
- TLDR: Proponiamo un nuovo modello di Transformer language model lungorange che può processare sequenze di testo molto più brevi.
- The World of an Octopus: How Reporting Bias Influences a Language Model’s Perception of Color
- Cory Paik, Stéphane Aroca-Ouellette, Alessandro Roncone, Katharina Kann
- TLDR: Proponiamo un modello di pretraining multimodale basato sul bias per la predizione di testo.
- SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers
- Dheeraj Rajagopal, Vidhisha Balachandran, Eduard H Hovy, Yulia Tsvetkov
- TLDR: Proponiamo self-explaining, un nuovo modello self-explaining che spiega le previsioni del classificatore di testo utilizzando concetti basati sulla frase.
- Memory and Knowledge Augmented Language Models for Inferring Salience in Long-Form Stories
- David Wilmot, Frank Keller
- TLDR: Proponiamo un metodo per rilevare la salienza nelle forme temporali più brevi e usiamo un modello di apprendimento per addestrare il nostro metodo.
- Semantic Novelty Detection in Natural Language Descriptions
- Nianzu Ma, Alexander Politowicz, Sahisnu Mazumder, Jiahua Chen, Bing Liu, Eric Robertson, Scott Grigsby
- TLDR: Proponiamo un modello per rilevare le novelty e l’anomaly in termini di topic e di dataset.
- Jump-Starting Item Parameters for Adaptive Language Tests
- Arya D. McCarthy, Kevin P. Yancey, Geoffrey T. LaFlair, Jesse Egbert, Manqian Liao, Burr Settles
- TLDR: Proponiamo un modello generalizzato multi-task generalizzato con feature BERT per stimare le difficoltà di lettura e di apprendimento delle lingue.
- Voice Query Auto Completion
- Raphael Tang, Karun Kumar, Kendra Chalkley, Ji Xin, Liming Zhang, Wenyan Li, Gefei Yang, Yajie Mao, Junho Shin, Geoffrey Craig Murray, Jimmy Lin
- TLDR: Proponiamo di condizionare le transcriptions intermedie per la completazione auto-complettiva delle domande vocali.
- CoPHE: A Count-Preserving Hierarchical Evaluation Metric in Large-Scale Multi-Label Text Classification
- Matúš Falis, Hang Dong, Alexandra Birch, Beatrice Alex
- TLDR: Proponiamo un modello di apprendimento neurale per la valutazione gerarchica dei modelli di apprendimento neurale per la classificazione testo-dati.
- Learning Universal Authorship Representations
- Rafael A. Rivera-Soto, Olivia Elizabeth Miano, Juanita Ordonez, Barry Y. Chen, Aleem Khan, Marcus Bishop, Nicholas Andrews
- TLDR: Proponiamo un metodo per migliorare il transfer tra domini per verificare la loro proprietà di generalizzazione.
- Predicting emergent linguistic compositions through time: Syntactic frame extension via multimodal chaining
- Lei Yu, Yang Xu
- TLDR: Proponiamo un modello di apprendimento multimodale per la teoria del chaining e la teoria della conoscenza per la teoria del linguaggio.
- Frequency Effects on Syntactic Rule Learning in Transformers
- Jason Wei, Dan Garrette, Tal Linzen, Ellie Pavlick
- TLDR: Proponiamo un modello di apprendimento di linguaggi popolari che generalizza bene ai soggetti-verbi che non hanno fatto il training.
- A surprisal–duration trade-off across and within the world’s languages
- Tiago Pimentel, Clara Meister, Elizabeth Salesky, Simone Teufel, Damián Blasi, Ryan Cotterell
- TLDR: Proponiamo un trade-off tra la velocità di esecuzione e la surprisalduration per la comunicazione umana.
- Revisiting the Uniform Information Density Hypothesis
- Clara Meister, Tiago Pimentel, Patrick Haller, Lena Jäger, Ryan Cotterell, Roger Levy
- TLDR: Proponiamo un’ipotesi di information density per la comunicazione multilingue.
- Condenser: a Pre-training Architecture for Dense Retrieval
- Luyu Gao, Jamie Callan
- TLDR: Proponiamo di pre-trainare verso un modello di Transformer di testo denso con una nuova architettura di Transformer, Condenser, dove le previsioni di apprendimento condizionano le connessioni di DENSE.
- Monitoring geometrical properties of word embeddings for detecting the emergence of new topics.
- Clément Christophe, Julien Velcin, Jairo Cugliari, Manel Boumghar, Philippe Suignard
- TLDR: Proponiamo di utilizzare la geometria per rilevare il comportamento di rappresentazione delle parole in uno spazio di embedding per rilevare il topic emergente.
- Contextualized Query Embeddings for Conversational Search
- Sheng-Chieh Lin, Jheng-Hong Yang, Jimmy Lin
- TLDR: Proponiamo di utilizzare la trasformazione delle conversazioni per riscrivere le rappresentazioni di testo e di domande in modo da ottenere un deep learning.
- Ultra-High Dimensional Sparse Representations with Binarization for Efficient Text Retrieval
- Kyoung-Rok Jang, Junmo Kang, Giwon Hong, Sung-Hyon Myaeng, Joohee Park, Taewon Yoon, Heecheol Seo
- TLDR: Proponiamo un modello di rappresentazione neurale per il retrieval di informazioni neurali.
- IR like a SIR: Sense-enhanced Information Retrieval for Multiple Languages
- Rexhina Blloshmi, Tommaso Pasini, Niccolò Campolungo, Somnath Banerjee, Roberto Navigli, Gabriella Pasi
- TLDR: Proponiamo un nuovo metodo per l’apprendimento multilingue di informazioni di input per l’Information Retrieval.
- Neural Attention-Aware Hierarchical Topic Model
- Yuan Jin, He Zhao, Ming Liu, Lan Du, Wray Buntine
- TLDR: Proponiamo un modello variazionale NTM per topic topic modelling utilizzando embedding topicali topicalizzati e embedding semantico.
- Relational World Knowledge Representation in Contextual Language Models: A Review
- Tara Safavi, Danai Koutra
- TLDR: Proponiamo di riprogettare le knowledge base relational in LM utilizzando la supervisione di KB.
- Certified Robustness to Programmable Transformations in LSTMs
- Yuhao Zhang, Aws Albarghouthi, Loris D’Antoni
- TLDR: Proponiamo un metodo per certificare la robustezza delle reti neurali per il natural language processing.
- ReGen: Reinforcement Learning for Text and Knowledge Base Generation using Pretrained Language Models
- Pierre Dognin, Inkit Padhi, Igor Melnyk, Payel Das
- TLDR: Proponiamo ReGen, un modello di generazione bidirectionale di testo e grafi sfruttando il reinforcement learning per migliorare le prestazioni.
- Contrastive Out-of-Distribution Detection for Pretrained Transformers
- Wenxuan Zhou, Fangyu Liu, Muhao Chen
- TLDR: Proponiamo di migliorare il contrastive learning per rilevare le out-of-distribution (OOD) e dimostriamo che le rappresentazioni possono essere più compatte.
- MindCraft: Theory of Mind Modeling for Situated Dialogue in Collaborative Tasks
- Cristian-Paul Bara, Sky CH-Wang, Joyce Chai
- TLDR: Proponiamo un dataset di task collaborativi 3D per la modellazione del cervello umano in ambienti di gioco 3D.
- Detecting Speaker Personas from Conversational Texts
- Jia-Chen Gu, Zhenhua Ling, Yu Wu, Quan Liu, Zhigang Chen, Xiaodan Zhu
- TLDR: Proponiamo un task di matching per rilevare le persone di conversazione nel testo conversazionale.
- Cross-lingual Intermediate Fine-tuning improves Dialogue State Tracking
- Nikita Moghe, Mark Steedman, Alexandra Birch
- TLDR: Proponiamo un metodo di fine-tuning intermedio per il transfer learning multilingue tramite modelli pretrained multilingue.
- ConvFiT: Conversational Fine-Tuning of Pretrained Language Models
- Ivan Vulić, Pei-Hao Su, Samuel Coope, Daniela Gerz, Paweł Budzianowski, Iñigo Casanueva, Nikola Mrkšić, Tsung-Hsien Wen
- TLDR: Proponiamo un metodo per trasformare le LM pretrained in encoder di conversazione universali e specializzando le loro strutture di frasi.
- We’ve had this conversation before: A Novel Approach to Measuring Dialog Similarity
- Ofer Lavi, Ella Rabinovich, Segev Shlomov, David Boaz, Inbal Ronen, Ateret Anaby Tavor
- TLDR: Proponiamo un nuovo metodo per confrontare i dialoghi in ambienti reali.
- Towards Incremental Transformers: An Empirical Analysis of Transformer Models for Incremental NLU
- Patrick Kahardipraja, Brielen Madureira, David Schlangen
- TLDR: Proponiamo un modello di Transformer incrementale con restart-incrementality per incremental NLU in termini di prestazioni incrementali e velocità di inferenza.
- Feedback Attribution for Counterfactual Bandit Learning in Multi-Domain Spoken Language Understanding
- Tobias Falke, Patrick Lehnen
- TLDR: Proponiamo metodi di attribuzione basati sul feedback per counterfactual bandit learning.
- Label Verbalization and Entailment for Effective Zero and Few-Shot Relation Extraction
- Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Ander Barrena, Eneko Agirre
- TLDR: Proponiamo un metodo di relation extraction che utilizza un entailment textual per ottenere risultati allo stato dell’arte su TACRED.
- Extend, don’t rebuild: Phrasing conditional graph modification as autoregressive sequence labelling
- Leon Weber, Jannes Münchmeyer, Samuele Garda, Ulf Leser
- TLDR: Proponiamo un nuovo metodo per addestrare grafi di scena modificando il testo del testo del testo del testo del testo del testo.
- Zero-Shot Information Extraction as a Unified Text-to-Triple Translation
- Chenguang Wang, Xiao Liu, Zui Chen, Haoyun Hong, Jie Tang, Dawn Song
- TLDR: Proponiamo un framework di traduzione text-to-triple per l’apprendimento di informazioni di input e output.
- Learning Logic Rules for Document-Level Relation Extraction
- Dongyu Ru, Changzhi Sun, Jiangtao Feng, Lin Qiu, Hao Zhou, Weinan Zhang, Yong Yu, Lei Li
- TLDR: Proponiamo LogiRE, un modello probabilistico per document-level relation extraction, che sfrutta le regole logiche per generare regole di apprendimento per la predizione.
- A Large-Scale Dataset for Empathetic Response Generation
- Anuradha Welivita, Yubo Xie, Pearl Pu
- TLDR: Proponiamo di ridurre il numero di dialogue annotati con le label di emozioni e dimostriamo che questo può essere utilizzato per creare dataset di risposta neurali.
- The Perils of Using Mechanical Turk to Evaluate Open-Ended Text Generation
- Marzena Karpinska, Nader Akoury, Mohit Iyyer
- TLDR: Proponiamo un nuovo metodo per valutare la qualità del testo per la generazione di storie e la generazione di poesie.
- Documenting Large Webtext Corpora: A Case Study on the Colossal Clean Crawled Corpus
- Jesse Dodge, Maarten Sap, Ana Marasović, William Agnew, Gabriel Ilharco, Dirk Groeneveld, Margaret Mitchell, Matt Gardner
- TLDR: Proponiamo un dataset di testo clean che può essere costruito da una parte o dall’altra utilizzando un set di filtri.
- AfroMT: Pretraining Strategies and Reproducible Benchmarks for Translation of 8 African Languages
- Machel Reid, Junjie Hu, Graham Neubig, Yutaka Matsuo
- TLDR: Proponiamo un benchmark di traduzione automatica standardizzata e riproducibibile per 8 lingue popolari e diverse regioni del mondo.
- Evaluating the Evaluation Metrics for Style Transfer: A Case Study in Multilingual Formality Transfer
- Eleftheria Briakou, Sweta Agrawal, Joel Tetreault, Marine Carpuat
- TLDR: Proponiamo un metodo per valutare le metriche di stile in ST multilingue.
- MS-Mentions: Consistently Annotating Entity Mentions in Materials Science Procedural Text
- Tim O’Gorman, Zach Jensen, Sheshera Mysore, Kevin Huang, Rubayyat Mahbub, Elsa Olivetti, Andrew McCallum
- TLDR: Proponiamo un corpus di annotazione di entity per la sintesi di materiali scientifici procedurali.
- Understanding Politics via Contextualized Discourse Processing
- Rajkumar Pujari, Dan Goldwasser
- TLDR: Proponiamo un modello di lettura composizionale per la comunicazione e la comunicazione tra enti e eventi.
- Conundrums in Event Coreference Resolution: Making Sense of the State of the Art
- Jing Lu, Vincent Ng
- TLDR: Proponiamo un’analisi empirica dei sistemi di riferimento degli eventi basati sul modello di riferimento dello span per fornire agli utenti generali una migliore comprensione del sistema allo stato dell’arte.
- Weakly supervised discourse segmentation for multiparty oral conversations
- Lila Gravellier, Julie Hunter, Philippe Muller, Thomas Pellegrini, Isabelle Ferrané
- TLDR: Proponiamo un nuovo approccio di supervisione weak per adattare il modello di segmentazione del discorso al testo.
- Narrative Embedding: Re-Contextualization Through Attention
- Sean Wilner, Daniel Woolridge, Madeleine Glick
- TLDR: Proponiamo un nuovo approccio per rappresentare gli eventi narrativi utilizzando attention per re-contextualizzare gli eventi.
- Focus on what matters: Applying Discourse Coherence Theory to Cross Document Coreference
- William Held, Dan Iter, Dan Jurafsky
- TLDR: Un metodo di coerenza per risolvere il problema di coerenza
- Salience-Aware Event Chain Modeling for Narrative Understanding
- Xiyang Zhang, Muhao Chen, Jonathan May
- TLDR: Proponiamo un metodo per estrarre la principale catena di eventi da un testo naturale, tramite il filtro di informazioni non correlate e la selezione di frasi supportive.
- Asking It All: Generating Contextualized Questions for any Semantic Role
- Valentina Pyatkin, Paul Roit, Julian Michael, Yoav Goldberg, Reut Tsarfaty, Ido Dagan
- TLDR: Proponiamo un modello di question generation per rispondere alle domande sui predicati e ai modelli di azione.
- Fast, Effective, and Self-Supervised: Transforming Masked Language Models into Universal Lexical and Sentence Encoders
- Fangyu Liu, Ivan Vulić, Anna Korhonen, Nigel Collier
- TLDR: Proponiamo un nuovo approccio di contrastive learning per convertire le MLM in encoder di testo e parole universali e simili.
- RuleBERT: Teaching Soft Rules to Pre-Trained Language Models
- Mohammed Saeed, Naser Ahmadi, Preslav Nakov, Paolo Papotti
- TLDR: Proponiamo un task di classificazione che fornisce un modello di comprensione per la predizione di modelli di linguaggio naturale.
- Stepmothers are mean and academics are pretentious: What do pretrained language models learn about you?
- Rochelle Choenni, Ekaterina Shutova, Robert van Rooij
- TLDR: Proponiamo un metodo per estrapolare le informazioni di rappresentazione di gruppo e di classe in modo unsupervised.
- ConSeC: Word Sense Disambiguation as Continuous Sense Comprehension
- Edoardo Barba, Luigi Procopio, Roberto Navigli
- TLDR: Proponiamo un nuovo approccio per la comprensione semantica dei termini dizionari con la strategia di feedback per la disambiguazione di un termine di input.
- Shortcutted Commonsense: Data Spuriousness in Deep Learning of Commonsense Reasoning
- Ruben Branco, António Branco, João António Rodrigues, João Ricardo Silva
- TLDR: Proponiamo un nuovo studio sul ruolo degli auto-apprendimento nei task di comprensione del linguaggio naturale.
- When differential privacy meets NLP: The devil is in the detail
- Ivan Habernal
- TLDR: Proponiamo un autoencoder differenziale per il rewriting del testo che fornisce garanzie di privacy.
- Achieving Model Robustness through Discrete Adversarial Training
- Maor Ivgi, Jonathan Berant
- TLDR: Proponiamo un nuovo attacco adversarial per l’online augmentation, basato sulla ricerca basata sulla ricerca, random sampling e sacchetti di ricerca.
- Debiasing Methods in Natural Language Understanding Make Bias More Accessible
- Michael Mendelson, Yonatan Belinkov
- TLDR: Proponiamo un metodo per debiasing dei modelli di natural language understanding, e usiamo un approccio di analisi information-theoretic per misurare la dipendenza dai bias del modello.
- Evaluating the Robustness of Neural Language Models to Input Perturbations
- Milad Moradi, Matthias Samwald
- TLDR: Proponiamo diverse tecniche di perturbazione a livello di caratteri e parole per simulare scenari realistici in cui gli input sono rumorosi o diversi dalla distribuzione dei dati sulla base dei dati di input.
- How much pretraining data do language models need to learn syntax?
- Laura Pérez-Mayos, Miguel Ballesteros, Leo Wanner
- TLDR: Proponiamo un’analisi di stima della capacità di generalizzazione dei modelli di Transformer basati sulla conoscenza, utilizzando modelli addestrati su quantità incrementali di dati di testo.
- Sorting through the noise: Testing robustness of information processing in pre-trained language models
- Lalchand Pandia, Allyson Ettinger
- TLDR: Proponiamo un’analisi di modelli di apprendimento per la predizione di modelli di apprendimento per la predizione di modelli di apprendimento per la predizione di modelli di apprendimento per la predizione di modelli di apprendimento per la predizione di modelli di apprendimento per la cui applicazione è altamente probabile.
- Contrastive Explanations for Model Interpretability
- Alon Jacovi, Swabha Swayamdipta, Shauli Ravfogel, Yanai Elazar, Yejin Choi, Yoav Goldberg
- TLDR: Proponiamo un metodo per produrre spiegazioni contrastive nello spazio latente, attraverso una projection di la rappresentazione del input, così che solo le feature che differenziano due decisioni potenziali sono catturate.
- On the Transferability of Adversarial Attacks against Neural Text Classifier
- Liping Yuan, Xiaoqing Zheng, Yi Zhou, Cho-Jui Hsieh, Kai-Wei Chang
- TLDR: Proponiamo un ensemble di modelli che possono essere utilizzati per ingannare quasi tutti i modelli esistenti.
- Conditional probing: measuring usable information beyond a baseline
- John Hewitt, Kawin Ethayarajh, Percy Liang, Christopher Manning
- TLDR: Proponiamo un metodo di conditional probing per verificare la proprietà di rappresentazione delle parole e le parole.
- GFST: Gender-Filtered Self-Training for More Accurate Gender in Translation
- Prafulla Kumar Choubey, Anna Currey, Prashant Mathur, Georgiana Dinu
- TLDR: Proponiamo un metodo di self-training per migliorare la precisione della traduzione tra le lingue unambiguamente gendered.
- “Wikily” Supervised Neural Translation Tailored to Cross-Lingual Tasks
- Mohammad Sadegh Rasooli, Chris Callison-Burch, Derry Tanti Wijaya
- TLDR: Proponiamo un metodo per sfruttare la traduzione neurale e la traduzione multilingue utilizzando Wikipedia per task di parsing di immagini e immagini e parsing di dependency.
- mT6: Multilingual Pretrained Text-to-Text Transformer with Translation Pairs
- Zewen Chi, Li Dong, Shuming Ma, Shaohan Huang, Saksham Singhal, Xian-Ling Mao, Heyan Huang, Xia Song, Furu Wei
- TLDR: Proponiamo un nuovo obiettivo per il pre-training multilingue di Transformer con traduzioni tratte e traduzioni tratte.
- Improving Zero-Shot Cross-Lingual Transfer Learning via Robust Training
- Kuan-Hao Huang, Wasi Ahmad, Nanyun Peng, Kai-Wei Chang
- TLDR: Proponiamo un metodo di training robusto per cross-lingual language encoder multilingue.
- Speechformer: Reducing Information Loss in Direct Speech Translation
- Sara Papi, Marco Gaido, Matteo Negri, Marco Turchi
- TLDR: Proponiamo Speechformer, un architettura che evita la compressione loss e aggregate informazioni linguistiche a livello di layer.
- Is “moby dick” a Whale or a Bird? Named Entities and Terminology in Speech Translation
- Marco Gaido, Susana Rodríguez, Matteo Negri, Luisa Bentivogli, Marco Turchi
- TLDR: Proponiamo un benchmark per la traduzione di parole e frasi in termini di termini di dominio e termini di linguaggio.
- HintedBT: Augmenting Back-Translation with Quality and Transliteration Hints
- Sahana Ramnath, Melvin Johnson, Abhirut Gupta, Aravindan Raghuveer
- TLDR: Proponiamo un metodo per addestrare il modello di back-translation utilizzando informazioni di input e informazioni di output.
- Translation-based Supervision for Policy Generation in Simultaneous Neural Machine Translation
- Ashkan Alinejad, Hassan S. Shavarani, Anoop Sarkar
- TLDR: Proponiamo un nuovo approccio di supervisione per la traduzione simultanea che può rilevare il minimo numero di lettura per generare ogni singolo token di input.
- Nearest Neighbour Few-Shot Learning for Cross-lingual Classification
- M Saiful Bari, Batool Haider, Saab Mansour
- TLDR: Proponiamo un’analisi di cross-lingual adaptation utilizzando few shot.
- Cross-Attention is All You Need: Adapting Pretrained Transformers for Machine Translation
- Mozhdeh Gheini, Xiang Ren, Jonathan May
- TLDR: Proponiamo un fine-tuning del Transformer per migliorare la cross-attention nel transfer learning.
- Effects of Parameter Norm Growth During Transformer Training: Inductive Bias from Gradient Descent
- William Merrill, Vivek Ramanujan, Yoav Goldberg, Roy Schwartz, Noah A. Smith
- TLDR: Proponiamo un’analisi del bias di gradiente inductivo per migliorare le prestazioni di training delle reti neurali.
- Foreseeing the Benefits of Incidental Supervision
- Hangfeng He, Mingyuan Zhang, Qiang Ning, Dan Roth
- TLDR: Proponiamo un modello di informativeness unificato per la quantificazione dei vantaggi degli eventi incidentali per la supervisione di sequenze di dati.
- Competency Problems: On Finding and Removing Artifacts in Language Data
- Matt Gardner, William Merrill, Jesse Dodge, Matthew Peters, Alexis Ross, Sameer Singh, Noah A. Smith
- TLDR: Proponiamo un metodo per rilevare le correlazioni spurie tra le feature e le label di input e di output.
- Knowledge-Aware Meta-learning for Low-Resource Text Classification
- Huaxiu Yao, Ying-xin Wu, Maruan Al-Shedivat, Eric Xing
- TLDR: Proponiamo KGML per addestrare la conoscenza di apprendimento di nuovi task di meta-learning.
- Sentence Bottleneck Autoencoders from Transformer Language Models
- Ivan Montero, Nikolaos Pappas, Noah A. Smith
- TLDR: Proponiamo un autoencoder di testo per la sintesi di frasi e parole da un modello di trasformazione frozen.
- Efficient Contrastive Learning via Novel Data Augmentation and Curriculum Learning
- Seonghyeon Ye, Jiseon Kim, Alice Oh
- TLDR: Proponiamo EfficientCL, un metodo di continual pretraining che combina il contrastive learning con la teoria del curriculum learning.
- CR-Walker: Tree-Structured Graph Reasoning and Dialog Acts for Conversational Recommendation
- Wenchang Ma, Ryuichi Takanobu, Minlie Huang
- TLDR: Proponiamo CR-Walker, un modello di dialogo basato sulla strutturazione del ragionamento basato sulla conoscenza per la generazione di risposte informative e coinvolgenti.
- DIALKI: Knowledge Identification in Conversational Systems through Dialogue-Document Contextualization
- Zeqiu Wu, Bo-Ru Lu, Hannaneh Hajishirzi, Mari Ostendorf
- TLDR: Proponiamo un modello di identification della conoscenza per sistemi conversazionali grounded in documenti lunghi.
- Iconary: A Pictionary-Based Game for Testing Multimodal Communication with Drawings and Text
- Christopher Clark, Jordi Salvador, Dustin Schwenk, Derrick Bonafilia, Mark Yatskar, Eric Kolve, Alvaro Herrasti, Jonghyun Choi, Sachin Mehta, Sam Skjonsberg, Carissa Schoenick, Aaron Sarnat, Hannaneh Hajishirzi, Aniruddha Kembhavi, Oren Etzioni, Ali Farhadi
- TLDR: Proponiamo un nuovo modo di giocare Iconary, un gioco collaborativo di drawing e guessing basato sul Pictionary, che pone una nuova sfida per la ricerca community.
- Self-training Improves Pre-training for Few-shot Learning in Task-oriented Dialog Systems
- Fei Mi, Wanhao Zhou, Lingjing Kong, Fengyu Cai, Minlie Huang, Boi Faltings
- TLDR: Proponiamo un metodo di self-training per sfruttare la quantità di dati di dialogo non annotati per migliorare lo stato dell’arte degli attuali modelli pre-trained in scenari di few shot learning.
- Contextual Rephrase Detection for Reducing Friction in Dialogue Systems
- Zhuoyi Wang, Saurabh Gupta, Jie Hao, Xing Fan, Dingcheng Li, Alexander Hanbo Li, Chenlei Guo
- TLDR: Proponiamo un modello di rephrase detection per rilevare automaticamente le recriminazioni da multi-task dialogue.
- Few-Shot Intent Detection via Contrastive Pre-Training and Fine-Tuning
- Jianguo Zhang, Trung Bui, Seunghyun Yoon, Xiang Chen, Zhiwei Liu, Congying Xia, Quan Hung Tran, Walter Chang, Philip Yu
- TLDR: Proponiamo un metodo per rilevare gli intent few shot tramite contrastive pre-training e fine-tuning.
- “It doesn’t look good for a date”: Transforming Critiques into Preferences for Conversational Recommendation Systems
- Victor Bursztyn, Jennifer Healey, Nedim Lipka, Eunyee Koh, Doug Downey, Larry Birnbaum
- TLDR: Proponiamo un metodo per trasformare una critica di un visitatore in una preferenza positive (e.g., “I preferredmoremoremoremore”); usiamo un modello di apprendimento neurale per farlo.
- AttentionRank: Unsupervised Keyphrase Extraction using Self and Cross Attentions
- Haoran Ding, Xiao Luo
- TLDR: Proponiamo un modello di attention per l’apprendimento unsupervised di keywords e keyphrases.
- Unsupervised Relation Extraction: A Variational Autoencoder Approach
- Chenhan Yuan, Hoda Eldardiry
- TLDR: Proponiamo un metodo di relation extraction unsupervised basato su VAE che sfrutta le classificazioni come intermedia di input per generare automaticamente classificazioni di relazioni tra le parole e le frasi.
- Robust Retrieval Augmented Generation for Zero-shot Slot Filling
- Michael Glass, Gaetano Rossiello, Md Faisal Mahbub Chowdhury, Alfio Gliozzo
- TLDR: Proponiamo un nuovo approccio per il filling dello spazio di slot utilizzando il training di modelli di retrieval per risolvere il problema dello spazio di slot.
- Everything Is All It Takes: A Multipronged Strategy for Zero-Shot Cross-Lingual Information Extraction
- Mahsa Yarmohammadi, Shijie Wu, Marc Marone, Haoran Xu, Seth Ebner, Guanghui Qin, Yunmo Chen, Jialiang Guo, Craig Harman, Kenton Murray, Aaron Steven White, Mark Dredze, Benjamin Van Durme
- TLDR: Proponiamo un modello di cross-lingual training per la traduzione di informazioni informazioni multilingue.
- Harms of Gender Exclusivity and Challenges in Non-Binary Representation in Language Technologies
- Sunipa Dev, Masoud Monajatipoor, Anaelia Ovalle, Arjun Subramonian, Jeff Phillips, Kai-Wei Chang
- TLDR: Proponiamo un’analisi del ruolo del linguaggio nel riconoscimento e della comprensione delle identità non binarie.
- Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias in Image Search
- Jialu Wang, Yang Liu, Xin Wang
- TLDR: Proponiamo un metodo di debiasing fair per risolvere il bias di gender nella ricerca di immagini.
- Style Pooling: Automatic Text Style Obfuscation for Improved Classification Fairness
- Fatemehsadat Mireshghallah, Taylor Berg-Kirkpatrick
- TLDR: Proponiamo un metodo per addestrare lo stile umano attraverso il transfer dello stile, che permette di addestrare lo stile umano attraverso il transfer dello stile.
- Modeling Disclosive Transparency in NLP Application Descriptions
- Michael Saxon, Sharon Levy, Xinyi Wang, Alon Albalak, William Yang Wang
- TLDR: Proponiamo metriche probabilistiche per modellare la transparency discloiva, e mostriamo che le metriche possono essere utilizzate per quantificare le relazioni tra transparency, confusione e percepzioni degli utenti.
- Reconstruction Attack on Instance Encoding for Language Understanding
- Shangyu Xie, Yuan Hong
- TLDR: Proponiamo un nuovo attacco di ricostruzione per rompere il sistema di apprendimento texthide.
- Fairness-aware Class Imbalanced Learning
- Shivashankar Subramanian, Afshin Rahimi, Timothy Baldwin, Trevor Cohn, Lea Frermann
- TLDR: Proponiamo un metodo di apprendimento long-tail basato sul bias per mitigare la sovrapposizione tra class imbalance e bias di demographic bias.
- CRYPTOGRU: Low Latency Privacy-Preserving Text Analysis With GRU
- Bo Feng, Qian Lou, Lei Jiang, Geoffrey Fox
- TLDR: Proponiamo una struttura gated gated unit (GRU) per inferenza secure.
- Local Word Discovery for Interactive Transcription
- William Lane, Steven Bird
- TLDR: Proponiamo un task computazionale per la costruzione di lezioni di testo e le lezioni di lezione di lezione di parole e frasi morphologiche.
- Segment, Mask, and Predict: Augmenting Chinese Word Segmentation with Self-Supervision
- Mieradilijiang Maimaiti, Yang Liu, Yuanhang Zheng, Gang Chen, Kaiyu Huang, Ji Zhang, Huanbo Luan, Maosong Sun
- TLDR: Proponiamo un approccio di training self-supervised per la segmentazione dei termini di ricerca del linguaggio naturale.
- Minimal Supervision for Morphological Inflection
- Omer Goldman, Reut Tsarfaty
- TLDR: Proponiamo di bootstrapper i dati di annotazione per risolvere il problema di annotazione.
- Fast WordPiece Tokenization
- Xinying Song, Alex Salcianu, Yang Song, Dave Dopson, Denny Zhou
- TLDR: Proponiamo un nuovo metodo per tokenizzare WordPiece da testo a testo generalizzato.
- You should evaluate your language model on marginal likelihood over tokenisations
- Kris Cao, Laura Rimell
- TLDR: Proponiamo di valutare la robustezza del language model pretrained sulla perplessità marginale e sulla percezione di permutazione.
- Broaden the Vision: Geo-Diverse Visual Commonsense Reasoning
- Da Yin, Liunian Harold Li, Ziniu Hu, Nanyun Peng, Kai-Wei Chang
- TLDR: Proponiamo un dataset di ragionamento visivo e linguaggio per la comprensione della commonsense culturale e della geo-locazione.
- Reference-Centric Models for Grounded Collaborative Dialogue
- Daniel Fried, Justin Chiu, Dan Klein
- TLDR: Proponiamo un modello di dialogo neurale basato sul grounding per risolvere il dialogo con persone in un gioco di riferimento parziale osservabile.
- CrossVQA: Scalably Generating Benchmarks for Systematically Testing VQA Generalization
- Arjun Akula, Soravit Changpinyo, Boqing Gong, Piyush Sharma, Song-Chun Zhu, Radu Soricut
- TLDR: Proponiamo un framework semi-automatico per generare question answering visuali con una vasta gamma di question answering.
- Visual Goal-Step Inference using wikiHow
- Yue Yang, Artemis Panagopoulou, Qing Lyu, Li Zhang, Mark Yatskar, Chris Callison-Burch
- TLDR: Proponiamo un task di inferenza del percorso di goal-step per la modellazione multimodale.
- Systematic Generalization on gSCAN: What is Nearly Solved and What is Next?
- Linlu Qiu, Hexiang Hu, Bowen Zhang, Peter Shaw, Fei Sha
- TLDR: Proponiamo di Analizzare il
- Effect of Visual Extensions on Natural Language Understanding in Vision-and-Language Models
- Taichi Iki, Akiko Aizawa
- TLDR: Proponiamo di addestrare V&L utilizzando un benchmark NLU.
- Neural Path Hunter: Reducing Hallucination in Dialogue Systems via Path Grounding
- Nouha Dziri, Andrea Madotto, Osmar Zaïane, Avishek Joey Bose
- TLDR: Proponiamo Neural Path Hunter per migliorare la faithfulness e ridurre la hallucinazione dei sistemi di dialogo neurali.
- Thinking Clearly, Talking Fast: Concept-Guided Non-Autoregressive Generation for Open-Domain Dialogue Systems
- Yicheng Zou, Zhihua Liu, Xingwu Hu, Qi Zhang
- TLDR: Proponiamo un modello di dialogo non autoregressivo per open-dialogue dialogue per la generazione di risposte controllabili e coerenti.
- Perspective-taking and Pragmatics for Generating Empathetic Responses Focused on Emotion Causes
- Hyunwoo Kim, Byeongchang Kim, Gunhee Kim
- TLDR: Proponiamo un metodo per imparare a generare risposte di dialogo più profonde e profonde basate sulla teoria della dinamica per risolvere il problema della generazione di risposte di dialogo.
- Generation and Extraction Combined Dialogue State Tracking with Hierarchical Ontology Integration
- Xinmeng Li, Qian Li, Wansen Wu, Quanjun Yin
- TLDR: Proponiamo un modello di dialogue state tracking basato sulla semantica gerarchica per risolvere il problema di out-of-vocabulary.
- CoLV: A Collaborative Latent Variable Model for Knowledge-Grounded Dialogue Generation
- Haolan Zhan, Lei Shen, Hongshen Chen, Hainan Zhang
- TLDR: Proponiamo un modello collaborativo latente per la generazione di dialogo basato sulla selezione di informazioni e sulla generazione di risposte a conoscenza.
- A Three-Stage Learning Framework for Low-Resource Knowledge-Grounded Dialogue Generation
- Shilei Liu, Xiaofeng Zhao, Bochao Li, Feiliang Ren, Longhui Zhang, Shujuan Yin
- TLDR: Proponiamo un nuovo framework di apprendimento weakly supervised basato sul dialogo per la generazione di risposte neurali e la reinforcement learning.
- Intention Reasoning Network for Multi-Domain End-to-end Task-Oriented Dialogue
- Zhiyuan Ma, Jianjun Li, Zezheng Zhang, Guohui Li, Yongjing Cheng
- TLDR: Proponiamo un meccanismo di apprendimento di ipotesi di ragionamento consapevoli di rappresentazioni di token di concezione per risolvere il problema di apprendimento end-to-end nel dialogo multi-domain.
- More is Better: Enhancing Open-Domain Dialogue Generation via Multi-Source Heterogeneous Knowledge
- Sixing Wu, Ying Li, Minghui Wang, Dawei Zhang, Yang Zhou, Zhonghai Wu
- TLDR: Proponiamo un nuovo dialogue generation modello, MSKE-Dialog, per risolvere il problema della generazione di dialogo con informazioni heterogenee.
- Domain-Lifelong Learning for Dialogue State Tracking via Knowledge Preservation Networks
- Qingbin Liu, Pengfei Cao, Cao Liu, Jiansong Chen, Xunliang Cai, Fan Yang, Shizhu He, Kang Liu, Jun Zhao
- TLDR: Proponiamo un metodo di lifelong learning per il rilevamento dello stato del dialogo, chiamato Knowledge Preservation Network (KPN), che migliora la precisione di apprendimento su due benchmark di lifelong learning.
- CSAGN: Conversational Structure Aware Graph Network for Conversational Semantic Role Labeling
- Han Wu, Kun Xu, Linqi Song
- TLDR: Proponiamo un modello di deep learning per la classificazione semantica del ruolo di conversazione.
- Different Strokes for Different Folks: Investigating Appropriate Further Pre-training Approaches for Diverse Dialogue Tasks
- Yao Qiu, Jinchao Zhang, Jie Zhou
- TLDR: Proponiamo un nuovo metodo per migliorare la dialogo task-oriented con task di dialogo downstream.
- Knowledge Enhanced Fine-Tuning for Better Handling Unseen Entities in Dialogue Generation
- Leyang Cui, Yu Wu, Shujie Liu, Yue Zhang
- TLDR: Proponiamo un nuovo metodo per imparare rappresentazioni semantiche più accurate basate sul contesto.
- An Evaluation Dataset and Strategy for Building Robust Multi-turn Response Selection Model
- Kijong Han, Seojin Lee, Dong-hun Lee
- TLDR: Proponiamo un adversarial framework per valutare le weaknesse dei modelli di selezione di risposta multi-turn.
- Unsupervised Conversation Disentanglement through Co-Training
- Hui Liu, Zhan Shi, Xiaodan Zhu
- TLDR: Proponiamo un metodo di deep co-training per disentanglement di conversazioni consapevoli senza ricorrere a annotazioni umane.
- Don’t be Contradicted with Anything! CI-ToD: Towards Benchmarking Consistency for Task-oriented Dialogue System
- Libo Qin, Tianbao Xie, Shijue Huang, Qiguang Chen, Xiao Xu, Wanxiang Che
- TLDR: Un metodo per identificare la consistenza nel dialogo open-domain
- Transferable Persona-Grounded Dialogues via Grounded Minimal Edits
- Chen Henry Wu, Yinhe Zheng, Xiaoxi Mao, Minlie Huang
- TLDR: Un modello di dialogo basato sul dialogo grounded genera risposte che sono grounded sui concetti.
- EARL: Informative Knowledge-Grounded Conversation Generation with Entity-Agnostic Representation Learning
- Hao Zhou, Minlie Huang, Yong Liu, Wei Chen, Xiaoyan Zhu
- TLDR: Proponiamo un metodo di Entity-Agnostic Representation Learning per incorporare i knowledge graph nella generazione di conversazioni informative.
- DialogueCSE: Dialogue-based Contrastive Learning of Sentence Embeddings
- Che Liu, Rui Wang, Jinghua Liu, Jian Sun, Fei Huang, Luo Si
- TLDR: Proponiamo DialogueCSE, un approccio di contrastive learning basato sul dialogo per imparare embedding di frasi da conversazioni.
- Improving Graph-based Sentence Ordering with Iteratively Predicted Pairwise Orderings
- Shaopeng Lai, Ante Wang, Fandong Meng, Jie Zhou, Yubin Ge, Jiali Zeng, Junfeng Yao, Degen Huang, Jinsong Su
- TLDR: Proponiamo un nuovo metodo di sentence ordering basato sul graph per sentence ordering.
- Not Just Classification: Recognizing Implicit Discourse Relation on Joint Modeling of Classification and Generation
- Feng Jiang, Yaxin Fan, Xiaomin Chu, Peifeng Li, Qiaoming Zhu
- TLDR: Proponiamo un modello di relation recognition per la generazione di frasi di dialogo e la classificazione.
- A Language Model-based Generative Classifier for Sentence-level Discourse Parsing
- Ying Zhang, Hidetaka Kamigaito, Manabu Okumura
- TLDR: Proponiamo un modello generativo basato sul linguaggio per la segmentazione del discorso e il parsing del discorso.
- Multimodal Phased Transformer for Sentiment Analysis
- Junyan Cheng, Iordanis Fostiropoulos, Barry Boehm, Mohammad Soleymani
- TLDR: Proponiamo un nuovo metodo di apprendimento multimodale sparso per risolvere il problema della complessità di self-attention e del footprint di memoria.
- Hierarchical Multi-label Text Classification with Horizontal and Vertical Category Correlations
- Linli Xu, Sijie Teng, Ruoyu Zhao, Junliang Guo, Chi Xiao, Deqiang Jiang, Bo Ren
- TLDR: Proponiamo un nuovo approccio per la classificazione del testo multilabel basato sulla correlazione tra le categorie e le dipendenze tra le categorie.
- RankNAS: Efficient Neural Architecture Search by Pairwise Ranking
- Chi Hu, Chenglong Wang, Xiangnan Ma, Xia Meng, Yinqiao Li, Tong Xiao, Jingbo Zhu, Changliang Li
- TLDR: Proponiamo un metodo di ricerca neurale di architetture che combina il ranking pairwise e il training di modelli di architettura.
- FLiText: A Faster and Lighter Semi-Supervised Text Classification with Convolution Networks
- Chen Liu, Zhang Mengchao, Fu Zhibing, Panpan Hou, Yu Li
- TLDR: Proponiamo FLiText, un framework di apprendimento semi-supervisionato basato sulla regolarizzazione per la classificazione del testo semi-supervisionato.
- Evaluating Debiasing Techniques for Intersectional Biases
- Shivashankar Subramanian, Xudong Han, Timothy Baldwin, Trevor Cohn, Lea Frermann
- TLDR: Proponiamo un modello di debiasing che può gestire più attributi binari.
- Definition Modelling for Appropriate Specificity
- Han Huang, Tomoyuki Kajiwara, Yuki Arase
- TLDR: Proponiamo un metodo per generare definizioni di parole e frasi con specificità.
- Transductive Learning for Unsupervised Text Style Transfer
- Fei Xiao, Liang Pang, Yanyan Lan, Yan Wang, Huawei Shen, Xueqi Cheng
- TLDR: Proponiamo un nuovo metodo di transductive learning per il transfer dello stile unsupervised.
- Integrating Semantic Scenario and Word Relations for Abstractive Sentence Summarization
- Yong Guan, Shaoru Guo, Ru Li, Xiaoli Li, Hu Zhang
- TLDR: Proponiamo un modello di graph learning per l’apprendimento di grafi semantici per l’apprendimento di grafi semantici.
- Coupling Context Modeling with Zero Pronoun Recovering for Document-Level Natural Language Generation
- Xin Tan, Longyin Zhang, Guodong Zhou
- TLDR: Proponiamo un approccio di recupero di rappresentazione per NLG che combina il recupero di rappresentazione con il recupero di ZP per mitigare il problema di ZP nei task di NLG.
- Adaptive Bridge between Training and Inference for Dialogue Generation
- Haoran Xu, Hainan Zhang, Yanyan Zou, Hongshen Chen, Zhuoye Ding, Yanyan Lan
- TLDR: Proponiamo un nuovo approccio di apprendimento adattivo per dialogue response generation, che può imparare automaticamente il matching tra ground-truth learning e generated learning.
- ConRPG: Paraphrase Generation using Contexts as Regularizer
- Yuxian Meng, Xiang Ao, Qing He, Xiaofei Sun, Qinghong Han, Fei Wu, Chun Fan, Jiwei Li
- TLDR: Proponiamo un nuovo metodo per la generazione di parafrasi unsupervised basato sul modello di contest regolatore per la generazione di frasi.
- Building the Directed Semantic Graph for Coherent Long Text Generation
- Ziao Wang, Xiaofeng Zhang, Hongwei Du
- TLDR: Proponiamo un nuovo metodo per generare testo coerente da input a testo lungo condizionato da input a testo lungo.
- Iterative GNN-based Decoder for Question Generation
- Zichu Fei, Qi Zhang, Yaqian Zhou
- TLDR: Proponiamo un modello di apprendimento per question generation basato sulla Graph Neural Network per decodificare il testo generato da un passaggio.
- Asking Questions Like Educational Experts: Automatically Generating Question-Answer Pairs on Real-World Examination Data
- Fanyi Qu, Xin Jia, Yunfang Wu
- TLDR: Proponiamo un modello di comunicazione multi-agente per question-answer generation e generare automaticamente le domande e le keywords.
- Syntactically-Informed Unsupervised Paraphrasing with Non-Parallel Data
- Erguang Yang, Mingtong Liu, Deyi Xiong, Yujie Zhang, Yao Meng, Changjian Hu, Jinan Xu, Yufeng Chen
- TLDR: Proponiamo un modello di paraphrasing unsupervised basato sul conditional variational autoencoder (VAE) che può generare diverse paraphrase con una struttura di sintassi specificata.
- Exploring Task Difficulty for Few-Shot Relation Extraction
- Jiale Han, Bo Cheng, Wei Lu
- TLDR: Proponiamo un metodo di contrastive learning per addestrare un modello di relation extraction few shot che impara rappresentazioni di dati generici.
- MuVER: Improving First-Stage Entity Retrieval with Multi-View Entity Representations
- Xinyin Ma, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Weiming Lu
- TLDR: Proponiamo un nuovo approccio per l’identificazione di entity e la ricerca di candidati tramite il metodo heuristic.
- Treasures Outside Contexts: Improving Event Detection via Global Statistics
- Rui Li, Wenlin Zhao, Cheng Yang, Sen Su
- TLDR: Proponiamo un’architettura di apprendimento per il rilevamento degli eventi che combina le feature semantiche e statistiche per cooperare con le feature contestuali.
- Uncertain Local-to-Global Networks for Document-Level Event Factuality Identification
- Pengfei Cao, Yubo Chen, Yuqing Yang, Kang Liu, Jun Zhao
- TLDR: Proponiamo un modello di apprendimento per la rilevazione di eventi factuali da documenti.
- A Novel Global Feature-Oriented Relational Triple Extraction Model based on Table Filling
- Feiliang Ren, Longhui Zhang, Shujuan Yin, Xiaofeng Zhao, Shilei Liu, Bochao Li, Yaduo Liu
- TLDR: Proponiamo un modello di extrazione di triple basato sulla feature per la modellazione globale delle feature.
- Structure-Augmented Keyphrase Generation
- Jihyuk Kim, Myeongho Jeong, Seungtaek Choi, Seung-won Hwang
- TLDR: Proponiamo un nuovo metodo di encoding struttura-augmented per la generazione di keywords.
- An Empirical Study on Multiple Information Sources for Zero-Shot Fine-Grained Entity Typing
- Yi Chen, Haiyun Jiang, Lemao Liu, Shuming Shi, Chuang Fan, Min Yang, Ruifeng Xu
- TLDR: Proponiamo un modello multisource fusion per il typing di entity neurali.
- DyLex: Incorporating Dynamic Lexicons into BERT for Sequence Labeling
- Baojun Wang, Zhao Zhang, Kun Xu, Guang-Yuan Hao, Yuyang Zhang, Lifeng Shang, Linlin Li, Xiao Chen, Xin Jiang, Qun Liu
- TLDR: Proponiamo DyLex, un approccio di incorporazione di lezioni di knowledge per il labeling selettivo basato su BERT.
- MapRE: An Effective Semantic Mapping Approach for Low-resource Relation Extraction
- Manqing Dong, Chunguang Pan, Zhipeng Luo
- TLDR: Proponiamo un framework per valutare le informazioni di mappatura e di apprendimento di label-agnostic e dimostriamo che le informazioni di mappatura di label possono migliorare le prestazioni di extrazione di relazioni neurali low-resource.
- Heterogeneous Graph Neural Networks for Keyphrase Generation
- Jiacheng Ye, Ruijian Cai, Tao Gui, Qi Zhang
- TLDR: Proponiamo un metodo basato sul grafi per decodificare le keyphrase da documenti di origine e di nuovo di origine.
- Machine Reading Comprehension as Data Augmentation: A Case Study on Implicit Event Argument Extraction
- Jian Liu, Yufeng Chen, Jinan Xu
- TLDR: Proponiamo un nuovo metodo per affrontare il problema della sparsità dei dati per EAE, che combina la lettura comprehension con la teoria della lettura automatica.
- Importance Estimation from Multiple Perspectives for Keyphrase Extraction
- Mingyang Song, Liping Jing, Lin Xiao
- TLDR: Proponiamo un metodo per stimare la rilevanza della frase di input e la sua importance.
- Gradient Imitation Reinforcement Learning for Low Resource Relation Extraction
- Xuming Hu, Chenwei Zhang, Yawen Yang, Xiaohe Li, Li Lin, Lijie Wen, Philip S. Yu
- TLDR: Proponiamo un metodo di reinforcement learning per sfruttare il feedback per addestrare pseudo dati per ottenere una migliore efficienza di ottimizzazione.
- Low-resource Taxonomy Enrichment with Pretrained Language Models
- Kunihiro Takeoka, Kosuke Akimoto, Masafumi Oyamada
- TLDR: Proponiamo un metodo efficiente per l’enrichimento delle proprietà delle proprietà delle proprietà delle proprietà delle proprietà delle proprietà delle proprietà delle proprietà delle proprietà delle proprietà delle proprietà delle proprietà delle proprietà delle proprietà.
- Entity Relation Extraction as Dependency Parsing in Visually Rich Documents
- Yue Zhang, Zhang Bo, Rui Wang, Junjie Cao, Chen Li, Zuyi Bao
- TLDR: Proponiamo un modello di dependency parsing per l’identificazione di relazioni tra parole e parole utilizzando informazioni di layout.
- Synchronous Dual Network with Cross-Type Attention for Joint Entity and Relation Extraction
- Hui Wu, Xiaodong Shi
- TLDR: Proponiamo un modello di apprendimento multi-task con attention multi-task per la ricerca di relazioni tra i tipi di informazioni.
- Less is More: Pretrain a Strong Siamese Encoder for Dense Text Retrieval Using a Weak Decoder
- Shuqi Lu, Di He, Chenyan Xiong, Guolin Ke, Waleed Malik, Zhicheng Dou, Paul Bennett, Tie-Yan Liu, Arnold Overwijk
- TLDR: Proponiamo un metodo di self-learning per risolvere il problema di dense retrieval utilizzando un modello di autoencoder.
- TransPrompt: Towards an Automatic Transferable Prompting Framework for Few-shot Text Classification
- Chengyu Wang, Jianing Wang, Minghui Qiu, Jun Huang, Ming Gao
- TLDR: Proponiamo TransPrompt, un framework di apprendimento transferbile per few shot learning che cattura la conoscenza di meta transferable per la classificazione del testo.
- Weakly-supervised Text Classification Based on Keyword Graph
- Lu Zhang, Jiandong Ding, Yi Xu, Yingyao Liu, Shuigeng Zhou
- TLDR: Proponiamo un metodo per sfruttare la correlazione tra le parole chiave e le parole chiave per generare pseudo label per i sottografi.
- Efficient-FedRec: Efficient Federated Learning Framework for Privacy-Preserving News Recommendation
- Jingwei Yi, Fangzhao Wu, Chuhan Wu, Ruixuan Liu, Guangzhong Sun, Xing Xie
- TLDR: Proponiamo un framework di apprendimento efficiente federato per la raccomandazione di informazioni sulla privacy.
- RocketQAv2: A Joint Training Method for Dense Passage Retrieval and Passage Re-ranking
- Ruiyang Ren, Yingqi Qu, Jing Liu, Wayne Xin Zhao, QiaoQiao She, Hua Wu, Haifeng Wang, Ji-Rong Wen
- TLDR: Proponiamo un nuovo approccio di training unificato di liste e frequenze per il recupero di passage e il re-ranking.
- Dealing with Typos for BERT-based Passage Retrieval and Ranking
- Shengyao Zhuang, Guido Zuccon
- TLDR: Proponiamo un metodo di retrieval e ranking dei passage re-ranker e BERT re-ranker per risolvere il problema del mismatch di keyword.
- From Alignment to Assignment: Frustratingly Simple Unsupervised Entity Alignment
- Xin Mao, Wenting Wang, Yuanbin Wu, Man Lan
- TLDR: Proponiamo un metodo di alignment di entity senza neural network per risolvere il cross-lingual task di apprendimento.
- Simple and Effective Unsupervised Redundancy Elimination to Compress Dense Vectors for Passage Retrieval
- Xueguang Ma, Minghan Li, Kai Sun, Ji Xin, Jimmy Lin
- TLDR: Proponiamo una semplice pipeline di compressione per question answering open-domain.
- Relation Extraction with Word Graphs from N-grams
- Han Qin, Yuanhe Tian, Yan Song
- TLDR: Proponiamo una convolutional con attention per migliorare le tecniche di relation extraction neurali.
- A Bayesian Framework for Information-Theoretic Probing
- Tiago Pimentel, Ryan Cotterell
- TLDR: Proponiamo un nuovo metodo per misurare le informazioni mutuali bayesiane, che analizza le informazioni da una prospettiva di agenti bayesiani.
- Masked Language Modeling and the Distributional Hypothesis: Order Word Matters Pre-training for Little
- Koustuv Sinha, Robin Jia, Dieuwke Hupkes, Joelle Pineau, Adina Williams, Douwe Kiela
- TLDR: Proponiamo un nuovo metodo per pre-trainare MLM su dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di valutazione di dati di
- What’s Hidden in a One-layer Randomly Weighted Transformer?
- Sheng Shen, Zhewei Yao, Douwe Kiela, Kurt Keutzer, Michael Mahoney
- TLDR: Proponiamo un’analisi di Transformer per una rete neurale randommente weighted per un’unità di fattore.
- Rethinking Denoised Auto-Encoding in Language Pre-Training
- Fuli Luo, Pengcheng Yang, Shicheng Li, Xuancheng Ren, Xu Sun, Songfang Huang, Fei Huang
- TLDR: Proponiamo un metodo di pre-training contro-senso per imparare rappresentazioni semantiche invarianti di sequenze di parole e frasi.
- Lifelong Explainer for Lifelong Learners
- Xuelin Situ, Sameen Maruf, Ingrid Zukerman, Cecile Paris, Gholamreza Haffari
- TLDR: Proponiamo un nuovo approccio di explanation lifelong per l’apprendimento di modelli black-box.
- Linguistic Dependencies and Statistical Dependence
- Jacob Louis Hoover, Wenyu Du, Alessandro Sordoni, Timothy J. O’Donnell
- TLDR: Proponiamo un’analisi approfondita delle relazioni tra le dipendenze linguistiche e la dipendenza statistica tra le parole.
- Modeling Human Sentence Processing with Left-Corner Recurrent Neural Network Grammars
- Ryo Yoshida, Hiroshi Noji, Yohei Oseki
- TLDR: Proponiamo architettura di apprendimento neurale per language model più umani.
- A Simple and Effective Positional Encoding for Transformers
- Pu-Chin Chen, Henry Tsai, Srinadh Bhojanapalli, Hyung Won Chung, Yin-Wen Chang, Chun-Sung Ferng
- TLDR: Proponiamo di addestrare i modelli di trasformazione utilizzando un metodo di attention decoupled per convertire le informazioni di posizione e segmenti.
- Explore Better Relative Position Embeddings from Encoding Perspective for Transformer Models
- Anlin Qu, Jianwei Niu, Shasha Mo
- TLDR: Proponiamo RPE e RPE, che migliora le prestazioni di predizione e di distribuzione delle posizioni relative.
- Adversarial Mixing Policy for Relaxing Locally Linear Constraints in Mixup
- Guang Liu, Yuzhao Mao, Huang Hailong, Gao Weiguo, Li Xuan
- TLDR: Proponiamo un adversarial mixing policy per ridurre la regolarizzazione di Mixup.
- Is this the end of the gold standard? A straightforward reference-less grammatical error correction metric
- Md Asadul Islam, Enrico Magnani
- TLDR: Proponiamo un modello di valutazione GEC che è fortemente correlato con la valutazione umana, non richiede un dataset annotato per fine-tuning, è indipendente dal metodo di correzione e non ha bisogno di alcun dataset annotato per fine-tuning.
- Augmenting BERT-style Models with Predictive Coding to Improve Discourse-level Representations
- Vladimir Araujo, Andrés Villa, Marcelo Mendoza, Marie-Francine Moens, Alvaro Soto
- TLDR: Proponiamo un metodo per addestrare language model BERT che imparino rappresentazioni di parole e frasi.
- Backdoor Attacks on Pre-trained Models by Layerwise Weight Poisoning
- Linyang Li, Demin Song, Xiaonan Li, Jiehang Zeng, Ruotian Ma, Xipeng Qiu
- TLDR: Un’architettura per L’architettura
- GAML-BERT: Improving BERT Early Exiting by Gradient Aligned Mutual Learning
- Wei Zhu, Xiaoling Wang, Yuan Ni, Guotong Xie
- TLDR: Proponiamo GAML-BERT, un framework di mutual learning a gradiente, per migliorare l’early exiting di BERT.
- The Power of Scale for Parameter-Efficient Prompt Tuning
- Brian Lester, Rami Al-Rfou, Noah Constant
- TLDR: Proponiamo un metodo per imparare soft prompt per condizionare i modelli frozen per specifici task di downstream.
- Scalable Font Reconstruction with Dual Latent Manifolds
- Nikita Srivatsan, Si Wu, Jonathan Barron, Taylor Berg-Kirkpatrick
- TLDR: Proponiamo un modello generativo profondo che risolve la ricostruzione del font e la caratterizzazione del caratterio utilizzando manifold di stile e forma.
- Neuro-Symbolic Approaches for Text-Based Policy Learning
- Subhajit Chaudhury, Prithviraj Sen, Masaki Ono, Daiki Kimura, Michiaki Tatsubori, Asim Munawar
- TLDR: Proponiamo un metodo per imparare policy di azione da osservazioni simboliche per ambienti text-based.
- Layer-wise Model Pruning based on Mutual Information
- Chun Fan, Jiwei Li, Tianwei Zhang, Xiang Ao, Fei Wu, Yuxian Meng, Xiaofei Sun
- TLDR: Proponiamo un metodo di pruning basato sulla mutual information per la selezione delle feature basate sulla selezione delle feature nelle SVM e logistic regressione.
- Hierarchical Heterogeneous Graph Representation Learning for Short Text Classification
- Yaqing Wang, Song Wang, Quanming Yao, Dejing Dou
- TLDR: Proponiamo un metodo chiamato SHINE basato sulla graph neural network per la classificazione dei testo brevi.
- kFolden: k-Fold Ensemble for Out-Of-Distribution Detection
- Xiaoya Li, Jiwei Li, Xiaofei Sun, Chun Fan, Tianwei Zhang, Fei Wu, Yuxian Meng, Jun Zhang
- TLDR: Un framework per il rilevamento dell’out-of-distribution
- Frustratingly Simple Pretraining Alternatives to Masked Language Modeling
- Atsuki Yamaguchi, George Chrysostomou, Katerina Margatina, Nikolaos Aletras
- TLDR: Proponiamo cinque obiettivi di pretraining basate su task di classificazione a livello di token e sequenza per sostituire le MLM.
- HRKD: Hierarchical Relational Knowledge Distillation for Cross-domain Language Model Compression
- Chenhe Dong, Yaliang Li, Ying Shen, Minghui Qiu
- TLDR: Proponiamo un metodo di knowledge distillation relationale per comprimere le PLM con knowledge distillation.
- Searching for an Effective Defender: Benchmarking Defense against Adversarial Word Substitution
- Zongyi Li, Jianhan Xu, Jiehang Zeng, Linyang Li, Xiaoqing Zheng, Qi Zhang, Kai-Wei Chang, Cho-Jui Hsieh
- TLDR: Proponiamo un metodo per difendersi efficacemente dai adversarial example basati sulla deep learning.
- Re-embedding Difficult Samples via Mutual Information Constrained Semantically Oversampling for Imbalanced Text Classification
- Jiachen Tian, Shizhan Chen, Xiaowang Zhang, Zhiyong Feng, Deyi Xiong, Shaojuan Wu, Chunliu Dou
- TLDR: Proponiamo un framework di semantic fusion per l’apprendimento di rappresentazioni semantiche dirette dalla classe minorile.
- Beyond Text: Incorporating Metadata and Label Structure for Multi-Label Document Classification using Heterogeneous Graphs
- Chenchen Ye, Linhai Zhang, Yulan He, Deyu Zhou, Jie Wu
- TLDR: Proponiamo un nuovo approccio basato sulla rete neurale per la classificazione multi-label documenti.
- Natural Language Processing Meets Quantum Physics: A Survey and Categorization
- Sixuan Wu, Jian Li, Peng Zhang, Yue Zhang
- TLDR: Proponiamo un’analisi di metodi di NLP basati sulla teoria della fisica quantizzata e sulla teoria della fisica quantizzata.
- MetaTS: Meta Teacher-Student Network for Multilingual Sequence Labeling with Minimal Supervision
- Zheng Li, Danqing Zhang, Tianyu Cao, Ying Wei, Yiwei Song, Bing Yin
- TLDR: Proponiamo Meta Teacher-Student, un metodo di meta learning per multilingual labeling selettivo utilizzando un singolo modello unificato per più lingue.
- Neural Machine Translation with Heterogeneous Topic Knowledge Embeddings
- Weixuan Wang, Wei Peng, Meng Zhang, Qun Liu
- TLDR: Proponiamo un modo di incorporare informazioni topic per migliorare le prestazioni di traduzione.
- Allocating Large Vocabulary Capacity for Cross-Lingual Language Model Pre-Training
- Bo Zheng, Li Dong, Shaohan Huang, Saksham Singhal, Wanxiang Che, Ting Liu, Xia Song, Furu Wei
- TLDR: Proponiamo un metodo di target sampling basato sulla k-NN per imparare la multilingualità.
- Recurrent Attention for Neural Machine Translation
- Jiali Zeng, Shuangzhi Wu, Yongjing Yin, Yufan Jiang, Mu Li
- TLDR: Proponiamo Recurrent AtteNtion (RAN) per imparare direttamente i pesi di attenzione senza alcuna interazione token-token e migliorano ulteriormente la loro capacità di apprendimento.
- Learning from Multiple Noisy Augmented Data Sets for Better Cross-Lingual Spoken Language Understanding
- Yingmei Guo, Linjun Shou, Jian Pei, Ming Gong, Mingxing Xu, Zhiyong Wu, Daxin Jiang
- TLDR: Proponiamo un metodo di training per mitigare il rumore dei dati di input in input di input di input.
- Enlivening Redundant Heads in Multi-head Self-attention for Machine Translation
- Tianfu Zhang, Heyan Huang, Chong Feng, Longbing Cao
- TLDR: Proponiamo un metodo di attention multi-head per identificare e vitalizzare i redundanti.
- Unsupervised Neural Machine Translation with Universal Grammar
- Zuchao Li, Masao Utiyama, Eiichiro Sumita, Hai Zhao
- TLDR: Proponiamo un metodo per sfruttare le informazioni di Grammatica Universale per migliorare la qualità della traduzione unsupervised.
- Encouraging Lexical Translation Consistency for Document-Level Neural Machine Translation
- Xinglin Lyu, Junhui Li, Zhengxian Gong, Min Zhang
- TLDR: Proponiamo un metodo per migliorare la qualità della traduzione per la traduzione neurale document-level, che migliora notevolmente la precisione di traduzione e la consistenza della traduzione.
- Improving Neural Machine Translation by Bidirectional Training
- Liang Ding, Di Wu, Dacheng Tao
- TLDR: Proponiamo un metodo di pretraining per il training bidirectionale del modello di traduzione neurale.
- Scheduled Sampling Based on Decoding Steps for Neural Machine Translation
- Yijin Liu, Fandong Meng, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: Proponiamo un metodo di sampling scheduled basato sul decodificatore per il training di testi di testo.
- Learning to Rewrite for Non-Autoregressive Neural Machine Translation
- Xinwei Geng, Xiaocheng Feng, Bing Qin
- TLDR: Proponiamo RewriteNAT per imparare a riscrivere i pesi di traduzione erroneamente addestrati.
- SHAPE: Shifted Absolute Position Embedding for Transformers
- Shun Kiyono, Sosuke Kobayashi, Jun Suzuki, Kentaro Inui
- TLDR: Proponiamo un metodo di embedding di posizioni absolute shifted per risolvere il problema della rappresentazione della posizione.
- Self-Supervised Quality Estimation for Machine Translation
- Yuanhang Zheng, Zhixing Tan, Meng Zhang, Mieradilijiang Maimaiti, Huanbo Luan, Maosong Sun, Qun Liu, Yang Liu
- TLDR: Proponiamo un metodo self-supervised per la valutazione della qualità della traduzione utilizzando la stima della qualità delle parole e le frasi.
- Generalised Unsupervised Domain Adaptation of Neural Machine Translation with Cross-Lingual Data Selection
- Thuy-Trang Vu, Xuanli He, Dinh Phung, Gholamreza Haffari
- TLDR: Proponiamo un metodo di selezione dei dati per la traduzione neurale multilingue utilizzando il contrasto per adattare il modello di classificazione del dominio multilingue.
- STANKER: Stacking Network based on Level-grained Attention-masked BERT for Rumor Detection on Social Media
- Dongning Rao, Xin Miao, Zhihua Jiang, Ran Li
- TLDR: Proponiamo un nuovo ensemble di STANKER per il rumor detection sui social media.
- ActiveEA: Active Learning for Neural Entity Alignment
- Bing Liu, Harrisen Scells, Guido Zuccon, Wen Hua, Genghong Zhao
- TLDR: Proponiamo un framework di apprendimento embedding per l’apprendimento di modelli di apprendimento neurale per la classificazione degli enti.
- Cost-effective End-to-end Information Extraction for Semi-structured Document Images
- Wonseok Hwang, Hyunji Lee, Jinyeong Yim, Geewook Kim, Minjoon Seo
- TLDR: Proponiamo un sistema di informazioni extrazione end-to-end per la generazione di sequenze di documenti semi-strutturati.
- Improving Math Word Problems with Pre-trained Knowledge and Hierarchical Reasoning
- Weijiang Yu, Yingpeng Wen, Fudan Zheng, Nong Xiao
- TLDR: Proponiamo un algoritmo per risolvere il problema di apprendimento di parole e frasi.
- GraphMR: Graph Neural Network for Mathematical Reasoning
- Weijie Feng, Binbin Liu, Dongpeng Xu, Qilong Zheng, Yun Xu
- TLDR: Proponiamo un modello di apprendimento graph-to-seq che può imparare le informazioni gerarchiche dei grafi input per risolvere la matrice e risolvere la teoria.
- What Changes Can Large-scale Language Models Bring? Intensive Study on HyperCLOVA: Billions-scale Korean Generative Pretrained Transformers
- Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, Minyoung Jeong, Sungjae Lee, Minsub Kim, Suk Hyun Ko, Seokhun Kim, Taeyong Park, Jinuk Kim, Soyoung Kang, Na-Hyeon Ryu, Kang Min Yoo, Minsuk Chang, Soobin Suh, Sookyo In, Jinseong Park, Kyungduk Kim, Hiun Kim, Jisu Jeong, Yong Goo Yeo, Donghoon Ham, Dongju Park, Min Young Lee, Jaewook Kang, Inho Kang, Jung-Woo Ha, Woomyoung Park, Nako Sung
- TLDR: Proponiamo HyperCLOVA, una variante GPT-3 di 82B GPT-3 addestrato su un corpus di token di 560B token.
- APIRecX: Cross-Library API Recommendation via Pre-Trained Language Model
- Yuning Kang, Zan Wang, Hongyu Zhang, Junjie Chen, Hanmo You
- TLDR: Proponiamo APIRecX, un metodo di recommendation di API cross-library che utilizza BPE per splitre ogni API in ogni sequenza e pre-train un modello GPT basato sul linguaggio per finetuning il modello pre-trained.
- GMH: A General Multi-hop Reasoning Model for KG Completion
- Yao Zhang, Hongru Liang, Adam Jatowt, Wenqiang Lei, Xin Wei, Ning Jiang, Zhenglu Yang
- TLDR: Proponiamo un modello generalizzato per risolvere il problema di multi-hop reasoning.
- BPM_MT: Enhanced Backchannel Prediction Model using Multi-Task Learning
- Jin Yea Jang, San Kim, Minyoung Jung, Saim Shin, Gahgene Gweon
- TLDR: Proponiamo un modello di predizione backchannel basato su multitask learning per migliorare le prestazioni di apprendimento.
- Graphine: A Dataset for Graph-aware Terminology Definition Generation
- Zequn Liu, Shukai Wang, Yiyang Gu, Ruiyi Zhang, Ming Zhang, Sheng Wang
- TLDR: Proponiamo un modello di elaborazione del testo graph-aware per la generazione di definizioni di termini.
- Leveraging Order-Free Tag Relations for Context-Aware Recommendation
- Junmo Kang, Jeonghwan Kim, Suwon Shin, Sung-Hyon Myaeng
- TLDR: Proponiamo un metodo di generazione semantica per tag recommendation, che sfrutta le relazioni semantiche tra i tag generati e il training dei tag.
- End-to-End Conversational Search for Online Shopping with Utterance Transfer
- Liqiang Xiao, Jun Ma, Xin Luna Dong, Pascual Martínez-Gómez, Nasser Zalmout, Wei Chen, Tong Zhao, Hao He, Yaohui Jin
- TLDR: Proponiamo un sistema di ricerca conversazionale end-to-end end-to-end che combina il dialogo con la ricerca.
- Self-Supervised Curriculum Learning for Spelling Error Correction
- Zifa Gan, Hongfei Xu, Hongying Zan
- TLDR: Proponiamo un metodo di Curriculum Learning self-supervised per migliorare le prestazioni allo stato dell’arte dello stato dell’arte del metodo di Curriculum Learning con CL.
- Fix-Filter-Fix: Intuitively Connect Any Models for Effective Bug Fixing
- Haiwen Hong, Jingfeng Zhang, Yin Zhang, Yao Wan, Yulei Sui
- TLDR: Proponiamo un framework generale per il bug fixing che può essere utilizzato per risolvere il problema di bug fixing.
- Neuro-Symbolic Reinforcement Learning with First-Order Logic
- Daiki Kimura, Masaki Ono, Subhajit Chaudhury, Ryosuke Kohita, Akifumi Wachi, Don Joven Agravante, Michiaki Tatsubori, Asim Munawar, Alexander Gray
- TLDR: Proponiamo un metodo di reinforcement learning per giochi basati su text-based che può imparare regole simboliche e interpretabili in una rete differenziabile.
- Biomedical Concept Normalization by Leveraging Hypernyms
- Cheng Yan, Yuanzhe Zhang, Kang Liu, Jun Zhao, Yafei Shi, Shengping Liu
- TLDR: Proponiamo un nuovo metodo per normalizzare il concetto di concept con i suoi esempi.
- Leveraging Capsule Routing to Associate Knowledge with Medical Literature Hierarchically
- Xin Liu, Qingcai Chen, Junying Chen, Wenxiu Zhou, Tingyu Liu, Xinlan Yang, Weihua Peng
- TLDR: Proponiamo di utilizzare il routing capsule per associare la conoscenza con la letteratura medica hierarchicamente.
- Label-Enhanced Hierarchical Contextualized Representation for Sequential Metaphor Identification
- Shuqun Li, Liang Yang, Weidong He, Shiqi Zhang, Jingjie Zeng, Hongfei Lin
- TLDR: Proponiamo un modello di metaphor identification che combina le informazioni di contesto e la rappresentazione gerarchica contestuale per imparare la dipendenza tra parole e parole.
- SpellBERT: A Lightweight Pretrained Model for Chinese Spelling Check
- Tuo Ji, Hang Yan, Xipeng Qiu
- TLDR: Proponiamo un modello pretrained con grafi basati su feature e indipendente dal set di confusione.
- Automated Generation of Accurate & Fluent Medical X-ray Reports
- Hoang Nguyen, Dong Nie, Taivanbat Badamdorj, Yujie Liu, Yingying Zhu, Jason Truong, Li Cheng
- TLDR: Proponiamo un nuovo metodo per generare report sanitari da immagini di chesto che possono essere correlati con la precisione clinica.
- Enhancing Document Ranking with Task-adaptive Training and Segmented Token Recovery Mechanism
- Xingwu Sun, Yanling Cui, Hongyin Tang, Fuzheng Zhang, Beihong Jin, Shi Wang
- TLDR: Proponiamo un nuovo modello di classificazione del documento che migliora il task di Document Retrieval.
- Abstract, Rationale, Stance: A Joint Model for Scientific Claim Verification
- Zhiwei Zhang, Jiyi Li, Fumiyo Fukumoto, Yanming Ye
- TLDR: Proponiamo un metodo per imparare i module per i task di ricerca scientifica, ricerca scientifica e ricerca scientifica.
- A Fine-Grained Domain Adaption Model for Joint Word Segmentation and POS Tagging
- Peijie Jiang, Dingkun Long, Yueheng Sun, Meishan Zhang, Guangwei Xu, Pengjun Xie
- TLDR: Proponiamo un metodo di apprendimento domain-mixed per la costruzione di corpus di dominio basati su subdominio.
- Answering Open-Domain Questions of Varying Reasoning Steps from Text
- Peng Qi, Haejun Lee, Tg Sido, Christopher Manning
- TLDR: Proponiamo un modello di risposta da testi open-domain che può rispondere direttamente da testi open-domain che richiedono un gran numero di ritrieval steps.
- Adaptive Information Seeking for Open-Domain Question Answering
- Yunchang Zhu, Liang Pang, Yanyan Lan, Huawei Shen, Xueqi Cheng
- TLDR: Proponiamo un nuovo metodo di informazioni-scending per question answering open-domain.
- Mapping probability word problems to executable representations
- Simon Suster, Pieter Fivez, Pietro Totis, Angelika Kimmig, Jesse Davis, Luc de Raedt, Walter Daelemans
- TLDR: Proponiamo un metodo per risolvere problemi di calcolo matematici di semantica probabilità utilizzando modelli di semantica semantica e semantica semantica.
- Enhancing Multiple-choice Machine Reading Comprehension by Punishing Illogical Interpretations
- Yiming Ju, Yuanzhe Zhang, Zhixing Tian, Kang Liu, Xiaohuan Cao, Wenting Zhao, Jinlong Li, Jun Zhao
- TLDR: Proponiamo un metodo di self-training per interpretare la comprensione del reading comprehension multi-choice.
- Large-Scale Relation Learning for Question Answering over Knowledge Bases with Pre-trained Language Models
- Yuanmeng Yan, Rumei Li, Sirui Wang, Hongzhi Zhang, Zan Daoguang, Fuzheng Zhang, Wei Wu, Weiran Xu
- TLDR: Proponiamo un metodo di relation learning basato su BERT per question answering su knowledge base.
- Phrase Retrieval Learns Passage Retrieval, Too
- Jinhyuk Lee, Alexander Wettig, Danqi Chen
- TLDR: Proponiamo un metodo di phrase retrieval denso per il multi-granularity retrieval.
- Neural Natural Logic Inference for Interpretable Question Answering
- Jihao Shi, Xiao Ding, Li Du, Ting Liu, Bing Qin
- TLDR: Proponiamo un modello di question answering che combina il ragionamento logico naturale con la teoria per costruire modelli di question answering efficaci e spiegabili.
- Smoothing Dialogue States for Open Conversational Machine Reading
- Zhuosheng Zhang, Siru Ouyang, Hai Zhao, Masao Utiyama, Eiichiro Sumita
- TLDR: Proponiamo un metodo per leggere conversazionalmente le informazioni del background in modo efficiente.
- FinQA: A Dataset of Numerical Reasoning over Financial Data
- Zhiyu Chen, Wenhu Chen, Charese Smiley, Sameena Shah, Iana Borova, Dylan Langdon, Reema Moussa, Matt Beane, Ting-Hao Huang, Bryan Routledge, William Yang Wang
- TLDR: Proponiamo un nuovo dataset di apprendimento per question-answering su documenti di bilancio.
- FiD-Ex: Improving Sequence-to-Sequence Models for Extractive Rationale Generation
- Kushal Lakhotia, Bhargavi Paranjape, Asish Ghoshal, Scott Yih, Yashar Mehdad, Srini Iyer
- TLDR: Proponiamo un nuovo metodo per risolvere il problema della spiegazione seq2seq per QA.
- RockNER: A Simple Method to Create Adversarial Examples for Evaluating the Robustness of Named Entity Recognition Models
- Bill Yuchen Lin, Wenyang Gao, Jun Yan, Ryan Moreno, Xiang Ren
- TLDR: Proponiamo RockNER, un metodo semplice e efficace per creare adversarial example naturali.
- Diagnosing the First-Order Logical Reasoning Ability Through LogicNLI
- Jidong Tian, Yitian Li, Wenqing Chen, Liqiang Xiao, Hao He, Yaohui Jin
- TLDR: Proponiamo un metodo di diagnostico per logic reasoning secondo ordine con LogicNLI.
- Constructing a Psychometric Testbed for Fair Natural Language Processing
- Ahmed Abbasi, David Dobolyi, John P. Lalor, Richard G. Netemeyer, Kendall Smith, Yi Yang
- TLDR: Proponiamo un corpus di testo per la misurazione e la valutazione delle dimensioni PSI nel domain del natural language processing.
- COUGH: A Challenge Dataset and Models for COVID-19 FAQ Retrieval
- Xinliang Frederick Zhang, Heming Sun, Xiang Yue, Simon Lin, Huan Sun
- TLDR: Proponiamo un dataset di ricerca di domande dirette per il recupero di risposte di domande dirette.
- Chinese WPLC: A Chinese Dataset for Evaluating Pretrained Language Models on Word Prediction Given Long-Range Context
- Huibin Ge, Chenxi Sun, Deyi Xiong, Qun Liu
- TLDR: Proponiamo strategie di selezione automatica e manuale per Word Prediction given Long-term Context.
- WinoLogic: A Zero-Shot Logic-based Diagnostic Dataset for Winograd Schema Challenge
- Weinan He, Canming Huang, Yongmei Liu, Xiaodan Zhu
- TLDR: Proponiamo un nuovo dataset di apprendimento per risolvere il problema di WSC con la conoscenza comune.
- Pseudo Zero Pronoun Resolution Improves Zero Anaphora Resolution
- Ryuto Konno, Shun Kiyono, Yuichiroh Matsubayashi, Hiroki Ouchi, Kentaro Inui
- TLDR: Proponiamo un nuovo task di finetuning per MLM che risolve la discrepanza pretrain-finetune.
- Aligning Cross-lingual Sentence Representations with Dual Momentum Contrast
- Liang Wang, Wei Zhao, Jingming Liu
- TLDR: Proponiamo di alignare le rappresentazioni di frasi da diverse lingue in un spazio unificato di embedding, dove le similarità semantiche possono essere composte con un semplice prodotto di dot.
- Total Recall: a Customized Continual Learning Method for Neural Semantic Parsers
- Zhuang Li, Lizhen Qu, Gholamreza Haffari
- TLDR: Proponiamo TotalRecall, un metodo di continual learning per parsing semantico neurale che migliora la generalizzazione e la velocità di apprendimento.
- Exophoric Pronoun Resolution in Dialogues with Topic Regularization
- Xintong Yu, Hongming Zhang, Yangqiu Song, Changshui Zhang, Kun Xu, Dong Yu
- TLDR: Proponiamo di sfruttare il contesto locale e globale per risolvere il problema di coerenza dei pronomoni fuori testo.
- Context-Aware Interaction Network for Question Matching
- Zhe Hu, Zuohui Fu, Yu Yin, Gerard de Melo
- TLDR: Proponiamo un’intera architettura di interfacciamento per il matching del testo e la traduzione e un framework per la cross-attention.
- TEMP: Taxonomy Expansion with Dynamic Margin Loss through Taxonomy-Paths
- Zichen Liu, Hongyuan Xu, Yanlong Wen, Ning Jiang, HaiYing Wu, Xiaojie Yuan
- TLDR: Proponiamo un metodo di expansion self-supervised della teoria della costruzione di modelli di identità per la costruzione di modelli di identità.
- A Graph-Based Neural Model for End-to-End Frame Semantic Parsing
- ZhiChao Lin, Yueheng Sun, Meishan Zhang
- TLDR: Proponiamo un metodo per parsing i frame utilizzando grafi.
- Virtual Data Augmentation: A Robust and General Framework for Fine-tuning Pre-trained Models
- Kun Zhou, Wayne Xin Zhao, Sirui Wang, Fuzheng Zhang, Wei Wu, Ji-Rong Wen
- TLDR: Proponiamo un mix di embedding dei dati per migliorare la robustezza delle PLM.
- CATE: A Contrastive Pre-trained Model for Metaphor Detection with Semi-supervised Learning
- Zhenxi Lin, Qianli Ma, Jiangyue Yan, Jieyu Chen
- TLDR: Proponiamo un metodo per rilevare i metamorfi con semi-supervisione.
- To be Closer: Learning to Link up Aspects with Opinions
- Yuxiang Zhou, Lejian Liao, Yang Gao, Zhanming Jie, Wei Lu
- TLDR: Proponiamo un modello di dependency parsing basato sull’aspetto per la valutazione del sentiment basato sullo stato dell’arte.
- Seeking Common but Distinguishing Difference, A Joint Aspect-based Sentiment Analysis Model
- Hongjiang Jing, Zuchao Li, Hai Zhao, Shu Jiang
- TLDR: Proponiamo un modello di sentiment analysis joint che sfrutta la condivisione degli encoder per migliorare la qualità del modello.
- Argument Pair Extraction with Mutual Guidance and Inter-sentence Relation Graph
- Jianzhu Bao, Bin Liang, Jingyi Sun, Yice Zhang, Min Yang, Ruifeng Xu
- TLDR: Proponiamo un metodo per addestrare le pair di arguments inter-sentence, che può rappresentare meglio la semantica a livello di azione e quindi catturare le correlazioni tra le pair di arguments inter-sentence.
- Emotion Inference in Multi-Turn Conversations with Addressee-Aware Module and Ensemble Strategy
- Dayu Li, Xiaodan Zhu, Yang Li, Suge Wang, Deyu Li, Jian Liao, Jianxing Zheng
- TLDR: Proponiamo un modulo di inferenza della traiettoria di emozioni per la predizione delle emozioni in conversazioni multi-turn.
- Improving Federated Learning for Aspect-based Sentiment Analysis via Topic Memories
- Han Qin, Guimin Chen, Yuanhe Tian, Yan Song
- TLDR: Proponiamo un nuovo modello di sentiment analysis basato sulla teoria del topic per risolvere il problema della isolation dei dati.
- Comparative Opinion Quintuple Extraction from Product Reviews
- Ziheng Liu, Rui Xia, Jianfei Yu
- TLDR: Proponiamo un nuovo task di comparative opinion extraction (COQE) per il quale usiamo un modello BERT per addestrare un modello di stima di stima di stima di stima di stima BERT per stimare stima di stima BERT.
- CTAL: Pre-training Cross-modal Transformer for Audio-and-Language Representations
- Hang Li, Wenbiao Ding, Yu Kang, Tianqiao Liu, Zhongqin Wu, Zitao Liu
- TLDR: Proponiamo un cross-modal transformer per l’apprendimento audio-and-language attraverso due task di proxy su un grande numero di pair di voci audio-e-language: masked language modeling e masked cross-modal acoustic modeling.
- Relation-aware Video Reading Comprehension for Temporal Language Grounding
- Jialin Gao, Xin Sun, Mengmeng Xu, Xi Zhou, Bernard Ghanem
- TLDR: Proponiamo una rete di relazioni per il grounding del linguaggio nel reading comprehension video.
- Mutual-Learning Improves End-to-End Speech Translation
- Jiawei Zhao, Wei Luo, Boxing Chen, Andrew Gilman
- TLDR: Proponiamo un scenario di mutual learning che combina le informazioni di knowledge distillation e la conoscenza di peer learning per migliorare le prestazioni di traduzione end-to-end.
- Vision Guided Generative Pre-trained Language Models for Multimodal Abstractive Summarization
- Tiezheng Yu, Wenliang Dai, Zihan Liu, Pascale Fung
- TLDR: Proponiamo un metodo per costruire vision guidati (VG) per il task di summarization multimodale utilizzando add-on layer basati sull’attention per incorporare informazioni visive.
- Natural Language Video Localization with Learnable Moment Proposals
- Shaoning Xiao, Long Chen, Jian Shao, Yueting Zhuang, Jun Xiao
- TLDR: Proponiamo un nuovo metodo di apprendimento per la localizzazione video naturale che sfrutta le informazioni del frame-level e la loss di boundary-aware.
- Language-Aligned Waypoint (LAW) Supervision for Vision-and-Language Navigation in Continuous Environments
- Sonia Raychaudhuri, Saim Wani, Shivansh Patel, Unnat Jain, Angel Chang
- TLDR: Proponiamo un metodo di supervisione che misura il numero di sotto-instruzioni che l’agente ha seguito durante la navigazione.
- How to leverage the multimodal EHR data for better medical prediction?
- Bo Yang, Lijun Wu
- TLDR: Proponiamo un metodo per integrare i dati sanitari sanitari sanitari da EHR e la loro applicazione al deep learning.
- Considering Nested Tree Structure in Sentence Extractive Summarization with Pre-trained Transformer
- Jingun Kwon, Naoki Kobayashi, Hidetaka Kamigaito, Manabu Okumura
- TLDR: Proponiamo un modello di summarization che utilizza un encoder BERT per rappresentare le informazioni di sintesi delle frasi.
- Frame Semantic-Enhanced Sentence Modeling for Sentence-level Extractive Text Summarization
- Yong Guan, Shaoru Guo, Ru Li, Xiaoli Li, Hongye Tan
- TLDR: Proponiamo un nuovo metodo di semantica per la modellazione di frasi per l’apprendimento extractivo del testo.
- CAST: Enhancing Code Summarization with Hierarchical Splitting and Reconstruction of Abstract Syntax Trees
- Ensheng Shi, Yanlin Wang, Lun Du, Hongyu Zhang, Shi Han, Dongmei Zhang, Hongbin Sun
- TLDR: Proponiamo un modello di summarization che riunisce e ricostruisce le AST per generare descrizioni sintetiche del codice sorgente.
- SgSum:Transforming Multi-document Summarization into Sub-graph Selection
- Moye Chen, Wei Li, Jiachen Liu, Xinyan Xiao, Hua Wu, Haifeng Wang
- TLDR: Proponiamo un nuovo metodo di summarization multi-document per risolvere il task di selezione dei sottografi.
- Event Graph based Sentence Fusion
- Ruifeng Yuan, Zili Wang, Wenjie Li
- TLDR: Proponiamo di costruire un graph per la fusione delle frasi da una coppia di frasi per la generazione di testo.
- Transformer-based Lexically Constrained Headline Generation
- Kosuke Yamada, Yuta Hitomi, Hideaki Tamori, Ryohei Sasano, Naoaki Okazaki, Kentaro Inui, Koichi Takeda
- TLDR: Proponiamo un metodo di generazione di headline basato sul trasformatore per generare una frase da una frase di origine.
- Learn to Copy from the Copying History: Correlational Copy Network for Abstractive Summarization
- Haoran Li, Song Xu, Peng Yuan, Yujia Wang, Youzheng Wu, Xiaodong He, Bowen Zhou
- TLDR: Proponiamo un nuovo metodo di copying per migliorare il meccanismo di sintesi standard.
- Gradient-Based Adversarial Factual Consistency Evaluation for Abstractive Summarization
- Zhiyuan Zeng, Jiaze Chen, Weiran Xu, Lei Li
- TLDR: Proponiamo un metodo di adversarial training efficiente weak-supervised per generare automaticamente modelli di valutazione factuali.
- Word Reordering for Zero-shot Cross-lingual Structured Prediction
- Tao Ji, Yong Jiang, Tao Wang, Zhongqiang Huang, Fei Huang, Yuanbin Wu, Xiaoling Wang
- TLDR: Proponiamo un modello di predizione strutturata per la predizione di strutture strutturate multilingue.
- A Unified Encoding of Structures in Transition Systems
- Tao Ji, Yong Jiang, Tao Wang, Zhongqiang Huang, Fei Huang, Yuanbin Wu, Xiaoling Wang
- TLDR: Proponiamo un encoder di attention basato sulla struttura per la codifica di strutture in un sistema di transition.
- Improving Unsupervised Question Answering via Summarization-Informed Question Generation
- Chenyang Lyu, Lifeng Shang, Yvette Graham, Jennifer Foster, Xin Jiang, Qun Liu
- TLDR: Proponiamo un metodo di QG distantly-supervised che utilizza le informazioni di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi dei risultati di sintesi.
- TransferNet: An Effective and Transparent Framework for Multi-hop Question Answering over Relation Graph
- Jiaxin Shi, Shulin Cao, Lei Hou, Juanzi Li, Hanwang Zhang
- TLDR: Proponiamo un modello di QA multi-hop che supporta sia la funzione di label e testo in un framework unificato.
- Topic Transferable Table Question Answering
- Saneem Chemmengath, Vishwajeet Kumar, Samarth Bharadwaj, Jaydeep Sen, Mustafa Canim, Soumen Chakrabarti, Alfio Gliozzo, Karthik Sankaranarayanan
- TLDR: Proponiamo un nuovo approccio di apprendimento per question answering transferable utilizzando un nuovo approccio di trasformazione text-to-text basato sulla trasformazione text-to-text.
- WebSRC: A Dataset for Web-Based Structural Reading Comprehension
- Xingyu Chen, Zihan Zhao, Lu Chen, JiaBao Ji, Danyang Zhang, Ao Luo, Yuxuan Xiong, Kai Yu
- TLDR: Proponiamo un nuovo task di lettura strutturale basato sul web per la comprensione del reading strutturale.
- Cryptonite: A Cryptic Crossword Benchmark for Extreme Ambiguity in Language
- Avia Efrat, Uri Shaham, Dan Kilman, Omer Levy
- TLDR: Proponiamo un dataset di crossword che può risolvere la predizione di clue di apprendimento di una lingua di origine naturale.
- End-to-End Entity Resolution and Question Answering Using Differentiable Knowledge Graphs
- Amir Saffari, Armin Oliya, Priyanka Sen, Tom Ayoola
- TLDR: Proponiamo un modello di QA end-to-end che può rispondere alle domande dei knowledge graph senza addestrare un componente ER.
- Improving Query Graph Generation for Complex Question Answering over Knowledge Base
- Kechen Qin, Cheng Li, Virgil Pavlu, Javed Aslam
- TLDR: Proponiamo un metodo per generare grafi di query utilizzando knowledge base e knowledge base.
- DiscoDVT: Generating Long Text with Discourse-Aware Discrete Variational Transformer
- Haozhe Ji, Minlie Huang
- TLDR: Proponiamo DiscoDVT, un Transformer variazionale discreto di apprendimento di informazioni di apprendimento di linguaggio naturale per affrontare il problema della coerenza.
- Mathematical Word Problem Generation from Commonsense Knowledge Graph and Equations
- Tianqiao Liu, Qiang Fang, Wenbiao Ding, Hang Li, Zhongqin Wu, Zitao Liu
- TLDR: Proponiamo un modello end-to-end per la generazione di word problem nel contesto del training di un modello di valutazione per la generazione di word problem nel contesto del training di un modello di valutazione.
- Generic resources are what you need: Style transfer tasks without task-specific parallel training data
- Huiyuan Lai, Antonio Toral, Malvina Nissim
- TLDR: Proponiamo un nuovo approccio per il transfer dello stile utilizzando risorse generice e senza utilizzare alcun parallelo task specifico (source–target) e che supera gli attuali approccio di transfer dello stile unsupervised.
- Revisiting Pivot-Based Paraphrase Generation: Language Is Not the Only Optional Pivot
- Yitao Cai, Yue Cao, Xiaojun Wan
- TLDR: Proponiamo un metodo per convertire una frase in una varietà di rappresentazioni semantiche e sintattiche, e decodificare la frase da quelle rappresentazioni semantiche e sintattiche.
- Structural Adapters in Pretrained Language Models for AMR-to-Text Generation
- Leonardo F. R. Ribeiro, Yue Zhang, Iryna Gurevych
- TLDR: Proponiamo StructAdapt, un metodo di apprendimento per convertire i grafi in grafi.
- Data-to-text Generation by Splicing Together Nearest Neighbors
- Sam Wiseman, Arturs Backurs, Karl Stratos
- TLDR: Proponiamo di imparare una policy di generazione di testo da dati di input e dimostriamo che le policy di apprendimento in modo da splicire insieme i segmenti di testo da “neighbor” source-target possono essere utilizzate per generare testo token-by-token, a partire da una coppia di parole.
- Contextualize Knowledge Bases with Transformer for End-to-end Task-Oriented Dialogue Systems
- Yanjie Gou, Yinjie Lei, Lingqiao Liu, Yong Dai, Chunxu Shen
- TLDR: Proponiamo un nuovo approccio per trasformare le knowledge bases in dialogo end-to-end, che sfrutta la memoria per sfruttare la memoria per concentrarsi sulle informazioni pertinenti.
- Efficient Dialogue Complementary Policy Learning via Deep Q-network Policy and Episodic Memory Policy
- Yangyang Zhao, Zhenyu Wang, Changxi Zhu, Shihan Wang
- TLDR: Proponiamo un nuovo approccio di complementary policy learning (CPL) che sfrutta i vantaggi complementari della policy EM e della deep Q-network per imparare rapidamente policy di dialogo.
- CRFR: Improving Conversational Recommender Systems via Flexible Fragments Reasoning on Knowledge Graphs
- Jinfeng Zhou, Bo Wang, Ruifang He, Yuexian Hou
- TLDR: Proponiamo CRFR, un modello di reinforcement learning basato sul contesto per l’apprendimento di ragionamento multi-hop su knowledge graph.
- DuRecDial 2.0: A Bilingual Parallel Corpus for Conversational Recommendation
- Zeming Liu, Haifeng Wang, Zheng-Yu Niu, Hua Wu, Wanxiang Che
- TLDR: Proponiamo un dataset di recommendation conversazionale parallelo umano-uomo per la multilingual recommendation e la cross-lingual recommendation.
- End-to-End Learning of Flowchart Grounded Task-Oriented Dialogs
- Dinesh Raghu, Shantanu Agarwal, Sachindra Joshi, None Mausam
- TLDR: Proponiamo un nuovo problema nel apprendimento end-to-end di dialoghi task-oriented (TOD), in cui il sistema dialoga con un agente di troubleshooting che aiuta a risolvere il problema degli utenti.
- Dimensional Emotion Detection from Categorical Emotion
- Sungjoon Park, Jiseon Kim, Seonghyeon Ye, Jaeyeol Jeon, Hee Young Park, Alice Oh
- TLDR: Proponiamo un modello per classificare le emozioni fine-grained lungo le dimensioni di valenza, arousal e dominance con un corpus di annotazione di emozioni categoriche.
- Not All Negatives are Equal: Label-Aware Contrastive Loss for Fine-grained Text Classification
- Varsha Suresh, Desmond Ong
- TLDR: Proponiamo un metodo di fine-tuning contrastivo per fine-grained text classification.
- Joint Multi-modal Aspect-Sentiment Analysis with Auxiliary Cross-modal Relation Detection
- Xincheng Ju, Dong Zhang, Rong Xiao, Junhui Li, Shoushan Li, Min Zhang, Guodong Zhou
- TLDR: Proponiamo un approccio di joint learning multi-modal per la valutazione del sentiment multi-level.
- Solving Aspect Category Sentiment Analysis as a Text Generation Task
- Jian Liu, Zhiyang Teng, Leyang Cui, Hanmeng Liu, Yue Zhang
- TLDR: Proponiamo un metodo per sfruttare la conoscenza pre-trained per la valutazione degli aspetti di categoria.
- Semantics-Preserved Data Augmentation for Aspect-Based Sentiment Analysis
- Ting-Wei Hsu, Chung-Chi Chen, Hen-Hsen Huang, Hsin-Hsi Chen
- TLDR: Proponiamo un metodo per aumentare la semantica dei dati di analisi del sentiment utilizzando due strategie di sostituzione.
- The Effect of Round-Trip Translation on Fairness in Sentiment Analysis
- Jonathan Gabel Christiansen, Mathias Gammelgaard, Anders Søgaard
- TLDR: Proponiamo di addestrare i classificatori di sentiment su dati traslati in modo round-trip.
- CHoRaL: Collecting Humor Reaction Labels from Millions of Social Media Users
- Zixiaofan Yang, Shayan Hooshmand, Julia Hirschberg
- TLDR: Proponiamo un framework per generare label di humour percettive su post di testo di COVID su larga scala utilizzando le reazioni naturali ai post di testo di COVID.
- CSDS: A Fine-Grained Chinese Dataset for Customer Service Dialogue Summarization
- Haitao Lin, Liqun Ma, Junnan Zhu, Lu Xiang, Yu Zhou, Jiajun Zhang, Chengqing Zong
- TLDR: Proponiamo un nuovo dataset per dialogue summarization e la sua struttura è basata sulla struttura del topic.
- CodRED: A Cross-Document Relation Extraction Dataset for Acquiring Knowledge in the Wild
- Yuan Yao, Jiaju Du, Yankai Lin, Peng Li, Zhiyuan Liu, Jie Zhou, Maosong Sun
- TLDR: Proponiamo un dataset di cross-document relation extraction umano-annodato per la ricerca di informazioni relationali tra le parole e i documenti.
- Building and Evaluating Open-Domain Dialogue Corpora with Clarifying Questions
- Mohammad Aliannejadi, Julia Kiseleva, Aleksandr Chuklin, Jeff Dalton, Mikhail Burtsev
- TLDR: Proponiamo un nuovo dataset per la valutazione della qualità delle domande di risposta nel dialogo open-domain.
- We Need to Talk About train-dev-test Splits
- Rob van der Goot
- TLDR: Proponiamo di utilizzare un tune-set per la progettazione di reti neurali per confrontare le diverse versioni di un modello durante la fase di sviluppo.
- PhoMT: A High-Quality and Large-Scale Benchmark Dataset for Vietnamese-English Machine Translation
- Long Doan, Linh The Nguyen, Nguyen Luong Tran, Thai Hoang, Dat Quoc Nguyen
- TLDR: Proponiamo un dataset di traduzione tra tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tradotto tra
- Lying Through One’s Teeth: A Study on Verbal Leakage Cues
- Min-Hsuan Yeh, Lun-Wei Ku
- TLDR: Proponiamo un modello di rilevamento del rumore per la rilevazione del rumore.
- Multi-granularity Textual Adversarial Attack with Behavior Cloning
- Yangyi Chen, Jin Su, Wei Wei
- TLDR: Proponiamo un adversarial attack multi-granularity per la generazione di adversarial sample.
- All Bark and No Bite: Rogue Dimensions in Transformer Language Models Obscure Representational Quality
- William Timkey, Marten van Schijndel
- TLDR: Proponiamo un’analisi di similarità basata sulla dimensione per language model contextuali.
- Incorporating Residual and Normalization Layers into Analysis of Masked Language Models
- Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, Kentaro Inui
- TLDR: Proponiamo un nuovo metodo per analizzare le Transformer basate sulla multi-head attention.
- Mind the Style of Text! Adversarial and Backdoor Attacks Based on Text Style Transfer
- Fanchao Qi, Yangyi Chen, Xurui Zhang, Mukai Li, Zhiyuan Liu, Maosong Sun
- TLDR: Proponiamo un adversarial attack e un backdoor attack basati sul testo stile transfer, e mostriamo che le feature di stile del testo sono compatibili con gli adversarial attack.
- Sociolectal Analysis of Pretrained Language Models
- Sheng Zhang, Xin Zhang, Weiming Zhang, Anders Søgaard
- TLDR: Proponiamo un’analisi comparativa di language model pretrained e white-speech.
- Examining Cross-lingual Contextual Embeddings with Orthogonal Structural Probes
- Tomasz Limisiewicz, David Mareček
- TLDR: Proponiamo un modello di embedding multilingue per la valutazione di rappresentazioni strutturali contestuali.
- Are Transformers a Modern Version of ELIZA? Observations on French Object Verb Agreement
- Bingzhi Li, Guillaume Wisniewski, Benoit Crabbé
- TLDR: Proponiamo un nuovo metodo per imparare la struttura grammaticale delle parole e le frasi utilizzando la teoria della struttura grammaticale.
- Fine-grained Entity Typing via Label Reasoning
- Qing Liu, Hongyu Lin, Xinyan Xiao, Xianpei Han, Le Sun, Hua Wu
- TLDR: Proponiamo una GAN per risolvere il problema di classificazione delle label, che sfrutta la conoscenza di base delle dipendenze tra le label per spiegare le label fine-grained.
- Enhanced Language Representation with Label Knowledge for Span Extraction
- Pan Yang, Xin Cong, Zhenyu Sun, Xingwu Liu
- TLDR: Proponiamo un nuovo metodo per integrare la conoscenza delle label nella traduzione del testo e la QA per question answering.
- PRIDE: Predicting Relationships in Conversations
- Anna Tigunova, Paramita Mirza, Andrew Yates, Gerhard Weikum
- TLDR: Proponiamo un classificatore multilabel per la predizione di relazioni interpersone fine-grained.
- Extracting Fine-Grained Knowledge Graphs of Scientific Claims: Dataset and Transformer-Based Results
- Ian Magnusson, Scott Friedman
- TLDR: Proponiamo SciClaim, un dataset di claims scientifiche basate sulla trasformazione e sulla teoria della comunicazione per l’apprendimento di knowledge graph.
- Sequential Cross-Document Coreference Resolution
- Emily Allaway, Shuai Wang, Miguel Ballesteros
- TLDR: Proponiamo un nuovo modello di coerenza che risolve la coerenza tra documenti e eventi in setting cross-document.
- Mixture-of-Partitions: Infusing Large Biomedical Knowledge Graphs into BERT
- Zaiqiao Meng, Fangyu Liu, Thomas Clark, Ehsan Shareghi, Nigel Collier
- TLDR: Proponiamo Mixture-of-Partitions (MoP), un approccio di infusione che può gestire un knowledge graph molto grande (KG) attraverso la partizione di piccoli sottografi.
- Filling the Gaps in Ancient Akkadian Texts: A Masked Language Modelling Approach
- Koren Lazar, Benny Saret, Asaf Yehudai, Wayne Horowitz, Nathan Wasserman, Gabriel Stanovsky
- TLDR: Proponiamo un nuovo task di masked language modelling per risolvere il problema della traduzione di documenti di testo di origine e origine e dimostriamo che può essere formulato come un task di pretraining per language model contextualizzati.
- AVocaDo: Strategy for Adapting Vocabulary to Downstream Domain
- Jimin Hong, TaeHee Kim, Hyesu Lim, Jaegul Choo
- TLDR: Proponiamo di addestrare il linguaggio di apprendimento tramite knowledge learned da un modello di apprendimento pretrained.
- Can We Improve Model Robustness through Secondary Attribute Counterfactuals?
- Ananth Balashankar, Xuezhi Wang, Ben Packer, Nithum Thain, Ed Chi, Alex Beutel
- TLDR: Proponiamo un metodo per modellare le correlazioni spurie e il counterfactual per migliorare la robustezza del modello.
- Long-Range Modeling of Source Code Files with eWASH: Extended Window Access by Syntax Hierarchy
- Colin Clement, Shuai Lu, Xiaoyu Liu, Michele Tufano, Dawn Drain, Nan Duan, Neel Sundaresan, Alexey Svyatkovskiy
- TLDR: Proponiamo un approccio indipendente dall’architettura per sfruttare le gerarchie di syntactic hierarchie dei source code per incorporare tutto il contesto del livello di esecuzione del codice nel contesto del livello di esecuzione del codice.
- Can Language Models be Biomedical Knowledge Bases?
- Mujeen Sung, Jinhyuk Lee, Sean Yi, Minji Jeon, Sungdong Kim, Jaewoo Kang
- TLDR: Proponiamo un benchmark di apprendimento biomedico per LM.
- LayoutReader: Pre-training of Text and Layout for Reading Order Detection
- Zilong Wang, Yiheng Xu, Lei Cui, Jingbo Shang, Furu Wei
- TLDR: Proponiamo un nuovo metodo per rilevare il reading order di documenti WORD.
- Region under Discussion for visual dialog
- Mauricio Mazuecos, Franco M. Luque, Jorge Sánchez, Hernán Maina, Thomas Vadora, Luciana Benotti
- TLDR: Proponiamo un modello interpretabile per dialogare basato sulla storia del dialogo.
- Learning grounded word meaning representations on similarity graphs
- Mariella Dimiccoli, Herwig Wendt, Pau Batlle Franch
- TLDR: Proponiamo Hierarchical Multi-Modal Similarity Graph Embedding (HM-SGE) per imparare rappresentazioni visive grounded del significato di parole come nodo di nodo di nodo di embedding su grafi sottostanti.
- WhyAct: Identifying Action Reasons in Lifestyle Vlogs
- Oana Ignat, Santiago Castro, Hanwen Miao, Weiji Li, Rada Mihalcea
- TLDR: Proponiamo un modello multimodale per identificare le ragioni umane di una scena video.
- Genre as Weak Supervision for Cross-lingual Dependency Parsing
- Max Müller-Eberstein, Rob van der Goot, Barbara Plank
- TLDR: Proponiamo un metodo per recuperare il genere per la selezione dei dati di training nel parsing dependency parsing.
- On the Relation between Syntactic Divergence and Zero-Shot Performance
- Ofir Arviv, Dmitry Nikolaev, Taelin Karidi, Omri Abend
- TLDR: Proponiamo un metodo per valutare la stabilità di cross-lingual parsing e la parsabilità di un modello di apprendimento multilingue.
- Improved Latent Tree Induction with Distant Supervision via Span Constraints
- Zhiyang Xu, Andrew Drozdov, Jay Yoon Lee, Tim O’Gorman, Subendhu Rongali, Dylan Finkbeiner, Shilpa Suresh, Mohit Iyyer, Andrew McCallum
- TLDR: Proponiamo un metodo di parsing di rappresentazioni non supervisionate basato sulla distanza per parsing di rappresentazioni non supervisionate.
- Aligning Multidimensional Worldviews and Discovering Ideological Differences
- Jeremiah Milbauer, Adarsh Mathew, James Evans
- TLDR: Proponiamo un nuovo metodo per esplorare le molteplici caratterizzazioni di mondi e di identità delle comunità.
- Just Say No: Analyzing the Stance of Neural Dialogue Generation in Offensive Contexts
- Ashutosh Baheti, Maarten Sap, Alan Ritter, Mark Riedl
- TLDR: Proponiamo un modello di dialogo neurale per rispondere alle conversazioni di Reddit in modo contestuale e contestuale.
- Multi-Modal Open-Domain Dialogue
- Kurt Shuster, Eric Michael Smith, Da Ju, Jason Weston
- TLDR: Proponiamo un agente conversazionale multi-modale che può rispondere in modo text-only e multi-modale.
- A Label-Aware BERT Attention Network for Zero-Shot Multi-Intent Detection in Spoken Language Understanding
- Ting-Wei Wu, Ruolin Su, Biing Juang
- TLDR: Proponiamo una label-aware attention network per multi-intent detection.
- Zero-Shot Dialogue Disentanglement by Self-Supervised Entangled Response Selection
- Ta-Chung Chi, Alexander Rudnicky
- TLDR: Un metodo di disentanglement del dialogo per la selezione del contesto/response
- SIMMC 2.0: A Task-oriented Dialog Dataset for Immersive Multimodal Conversations
- Satwik Kottur, Seungwhan Moon, Alborz Geramifard, Babak Damavandi
- TLDR: Proponiamo un nuovo dataset per la generazione di dialoghi multimodali, basati sulla visione, per confrontare le conversazioni tra loro.
- RAST: Domain-Robust Dialogue Rewriting as Sequence Tagging
- Jie Hao, Linfeng Song, Liwei Wang, Kun Xu, Zhaopeng Tu, Dong Yu
- TLDR: Proponiamo un nuovo tagger basato sul sequenza-tagger per dialogue rewriting.
- MRF-Chat: Improving Dialogue with Markov Random Fields
- Ishaan Grover, Matthew Huggins, Cynthia Breazeal, Hae Won Park
- TLDR: Proponiamo un nuovo approccio per aumentare le prestazioni degli attuali modelli di recupero di conversazione conversazionale per open-domain.
- Dialogue State Tracking with a Language Model using Schema-Driven Prompting
- Chia-Hsuan Lee, Hao Cheng, Mari Ostendorf
- TLDR: Proponiamo un nuovo approccio di language modeling basato sul prompting basato sul modello di apprendimento basato sul modello di apprendimento pretrained basato sul modello di apprendimento pretrained.
- Signed Coreference Resolution
- Kayo Yin, Kenneth DeHaan, Malihe Alikhani
- TLDR: Proponiamo di risolvere la risoluzione di coreference per il linguaggio parlato basato sul riconoscimento vocale.
- Consistent Accelerated Inference via Confident Adaptive Transformers
- Tal Schuster, Adam Fisch, Tommi Jaakkola, Regina Barzilay
- TLDR: Proponiamo un nuovo approccio per migliorare la precisione di inferenza in Transformer multilayer, e mostriamo risultati promettenti su quattro task di classificazione e regressione.
- Improving and Simplifying Pattern Exploiting Training
- Derek Tam, Rakesh R. Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel
- TLDR: Proponiamo un metodo per few shot learning senza dati di input specificati.
- Unsupervised Data Augmentation with Naive Augmentation and without Unlabeled Data
- David Lowell, Brian Howard, Zachary C. Lipton, Byron Wallace
- TLDR: Proponiamo un nuovo metodo di apprendimento semi-supervisionato per la data augmentation unsupervised.
- Pre-train or Annotate? Domain Adaptation with a Constrained Budget
- Fan Bai, Alan Ritter, Wei Xu
- TLDR: Proponiamo di addestrare un modello NLP per adattare il dominio sotto budget con vincoli di budget.
- Lawyers are Dishonest? Quantifying Representational Harms in Commonsense Knowledge Resources
- Ninareh Mehrabi, Pei Zhou, Fred Morstatter, Jay Pujara, Xiang Ren, Aram Galstyan
- TLDR: Proponiamo un approccio di filtraggio per mitigare il bias di condivisione e dimostriamo che le informazioni di condivisione possono essere utilizzate per costruire modelli di apprendimento più robusti e robusti.
- OSCaR: Orthogonal Subspace Correction and Rectification of Biases in Word Embeddings
- Sunipa Dev, Tao Li, Jeff M Phillips, Vivek Srikumar
- TLDR: Proponiamo un metodo di bias-mitigating che risolve il bias di apprendimento e riduce il bias di apprendimento.
- Sentence-Permuted Paragraph Generation
- Wenhao Yu, Chenguang Zhu, Tong Zhao, Zhichun Guo, Meng Jiang
- TLDR: Proponiamo PermGen per la generazione di paragrafi multi-sentence per migliorare la diversità del contenuto di un singolo paragraph.
- Extract, Denoise and Enforce: Evaluating and Improving Concept Preservation for Text-to-Text Generation
- Yuning Mao, Wenchang Ma, Deren Lei, Jiawei Han, Xiang Ren
- TLDR: Proponiamo un nuovo metodo per sfruttare la generazione di testo da testo con seq2seq per conservare i concetti di input importanti.
- Paraphrase Generation: A Survey of the State of the Art
- Jianing Zhou, Suma Bhat
- TLDR: Proponiamo un’analisi di diversi metodi per la generazione di parafrasi.
- Exposure Bias versus Self-Recovery: Are Distortions Really Incremental for Autoregressive Text Generation?
- Tianxing He, Jingzhao Zhang, Zhiming Zhou, James Glass
- TLDR: Proponiamo metriche per misurare l’impatto dello bias di exposure sulla qualità, la diversità e la consistenza.
- Generating Self-Contained and Summary-Centric Question Answer Pairs via Differentiable Reward Imitation Learning
- Li Zhou, Kevin Small, Yong Zhang, Sandeep Atluri
- TLDR: Proponiamo un modello per generare question-answer pair (QA pair) con domande self-contained, risposte basate sul ragionamento del testo e risposte a lungo termine.
- Unsupervised Paraphrasing with Pretrained Language Models
- Tong Niu, Semih Yavuz, Yingbo Zhou, Nitish Shirish Keskar, Huan Wang, Caiming Xiong
- TLDR: Proponiamo un metodo di transfer learning per generare paraphrase in modo unsupervised.
- Profanity-Avoiding Training Framework for Seq2seq Models with Certified Robustness
- Hengtong Zhang, Tianhang Zheng, Yaliang Li, Jing Gao, Lu Su, Bo Li
- TLDR: Proponiamo un nuovo approccio per imparare seq2seq e il suo utilizzo per risolvere il problema della generazione di frasi e di stile.
- Journalistic Guidelines Aware News Image Captioning
- Xuewen Yang, Svebor Karaman, Joel Tetreault, Alejandro Jaimes
- TLDR: Proponiamo un nuovo approccio per l’immagine captioning di articoli di uscita, che sfrutta la struttura delle caption per migliorare la qualità della generazione e guida il design della rappresentazione.
- AESOP: Paraphrase Generation with Adaptive Syntactic Control
- Jiao Sun, Xuezhe Ma, Nanyun Peng
- TLDR: Proponiamo un modello di selezione per paraphrasing che sfrutta il controllo syntatico per generare paraphrases più accurate e di qualità.
- Refocusing on Relevance: Personalization in NLG
- Shiran Dudy, Steven Bedrick, Bonnie Webber
- TLDR: Proponiamo un nuovo metodo per imparare a gestire il contesto di input e il contesto di input per la progettazione di task di input-to-speech.
- The Future is not One-dimensional: Complex Event Schema Induction by Graph Modeling for Event Prediction
- Manling Li, Sha Li, Zhenhailong Wang, Lifu Huang, Kyunghyun Cho, Heng Ji, Jiawei Han, Clare Voss
- TLDR: Proponiamo un nuovo schema di eventi complessi temporali e strutturati basato su grafi per la predizione degli eventi futuri.
- Learning Constraints and Descriptive Segmentation for Subevent Detection
- Haoyu Wang, Hongming Zhang, Muhao Chen, Dan Roth
- TLDR: Proponiamo un metodo per imparare e regolare i constraint per subevent detection.
- ChemNER: Fine-Grained Chemistry Named Entity Recognition with Ontology-Guided Distant Supervision
- Xuan Wang, Vivian Hu, Xiangchen Song, Shweta Garg, Jinfeng Xiao, Jiawei Han
- TLDR: Proponiamo un metodo di apprendimento distanto per la classificazione delle proprietà della teoria della fisica che può essere utilizzato per risolvere il problema della classificazione delle proprietà della teoria della fisica.
- Moving on from OntoNotes: Coreference Resolution Model Transfer
- Patrick Xia, Benjamin Van Durme
- TLDR: Proponiamo un metodo per misurare la transferability dei modelli di coref basati sul numero di annotati annotati nel dataset target.
- Document-level Entity-based Extraction as Template Generation
- Kung-Hsiang Huang, Sam Tang, Nanyun Peng
- TLDR: Proponiamo un modello generativo per due task di extraction document-based basati sulla dipendenza dai documenti: role-filler entity extraction (REE) e relation extraction (RE).
- Learning Prototype Representations Across Few-Shot Tasks for Event Detection
- Viet Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Proponiamo di modellare le relazioni tra training task e few shot learning attraverso cross-task prototypes.
- Lifelong Event Detection with Knowledge Transfer
- Pengfei Yu, Heng Ji, Prem Natarajan
- TLDR: Proponiamo un nuovo task di lifelong learning per il rilevamento degli eventi lifelong.
- Modular Self-Supervision for Document-Level Relation Extraction
- Sheng Zhang, Cliff Wong, Naoto Usuyama, Sarthak Jain, Tristan Naumann, Hoifung Poon
- TLDR: Proponiamo di decomporre la relation extraction a livello di documenti in un metodo di self-supervision modulare per risolvere il problema di apprendimento di grafi.
- Unsupervised Paraphrasing Consistency Training for Low Resource Named Entity Recognition
- Rui Wang, Ricardo Henao
- TLDR: Proponiamo un metodo di training di consistenza per Named Entity Recognition unsupervised.
- Fine-grained Entity Typing without Knowledge Base
- Jing Qian, Yibin Liu, Lemao Liu, Yangming Li, Haiyun Jiang, Haisong Zhang, Shuming Shi
- TLDR: Proponiamo un setting per addestrare modelli di apprendimento automatico con knowledge base senza accedere a nessuna knowledge base.
- Adversarial Attack against Cross-lingual Knowledge Graph Alignment
- Zeru Zhang, Zijie Zhang, Yang Zhou, Lingfei Wu, Sixing Wu, Xiaoying Han, Dejing Dou, Tianshi Che, Da Yan
- TLDR: Proponiamo un adversarial attack per perturbare la struttura del knowledge graph e degradare la qualità della RL.
- Towards Realistic Few-Shot Relation Extraction
- Sam Brody, Sichao Wu, Adrian Benton
- TLDR: Proponiamo di utilizzare modelli di classificazione few shot per risolvere la classificazione di relazioni a few shot.
- Data Augmentation for Cross-Domain Named Entity Recognition
- Shuguang Chen, Gustavo Aguilar, Leonardo Neves, Thamar Solorio
- TLDR: Proponiamo un nuovo metodo per trasformare i dati da un dominio alto a un dominio basso utilizzando la trasformazione dei dati da un dominio alto a un dominio basso.
- Incorporating medical knowledge in BERT for clinical relation extraction
- Arpita Roy, Shimei Pan
- TLDR: Proponiamo un modello di apprendimento pre-trained per la clinical relation extraction.
- ECONET: Effective Continual Pretraining of Language Models for Event Temporal Reasoning
- Rujun Han, Xiang Ren, Nanyun Peng
- TLDR: Proponiamo un metodo di continual training per addestrare PTLM con una conoscenza targeta sulle relazioni temporali degli eventi.
- Learning from Noisy Labels for Entity-Centric Information Extraction
- Wenxuan Zhou, Muhao Chen
- TLDR: Proponiamo un framework di regolarizzazione per l’informazione extrazione basata sulla teoria della predizione, che regolarizza le informazioni di input e le informazioni di input per generare previsioni di predizione.
- Extracting Material Property Measurement Data from Scientific Articles
- Gihan Panapitiya, Fred Parks, Jonathan Sepulveda, Emily Saldanha
- TLDR: Proponiamo un nuovo approccio per addestrare un framework di property extraction basato sulla solubilità utilizzando la combinazione di regolarizzazione e tagging.
- Modeling Document-Level Context for Event Detection via Important Context Selection
- Amir Pouran Ben Veyseh, Minh Van Nguyen, Nghia Ngo Trung, Bonan Min, Thien Huu Nguyen
- TLDR: Proponiamo un nuovo metodo per modellare il contesto document-level per l’EDD che può essere utilizzato per imparare la selezione di frasi per l’EDD.
- Crosslingual Transfer Learning for Relation and Event Extraction via Word Category and Class Alignments
- Minh Van Nguyen, Tuan Ngo Nguyen, Bonan Min, Thien Huu Nguyen
- TLDR: Proponiamo un nuovo metodo di apprendimento multilingue per l’apprendimento di rappresentazioni multilingue.
- Corpus-based Open-Domain Event Type Induction
- Jiaming Shen, Yunyi Zhang, Heng Ji, Jiawei Han
- TLDR: Proponiamo un metodo di induction open-domain di eventi type in cui l’apprendimento di un corpus di eventi può essere utilizzato per scoprire eventi di tipo e modelli di eventi.
- PDALN: Progressive Domain Adaptation over a Pre-trained Model for Low-Resource Cross-Domain Named Entity Recognition
- Tao Zhang, Congying Xia, Philip S. Yu, Zhiwei Liu, Shu Zhao
- TLDR: Proponiamo un metodo di domain adaptation progressive per risolvere il cross-domain NER.
- Multi-Vector Attention Models for Deep Re-ranking
- Giulio Zhou, Jacob Devlin
- TLDR: Proponiamo un modello di deep learning che combina la joint computation e la downprojection per ottenere una rappresentazione altamente compressed del documento e una joint computation in modo efficiente.
- Toward Deconfounding the Effect of Entity Demographics for Question Answering Accuracy
- Maharshi Gor, Kellie Webster, Jordan Boyd-Graber
- TLDR: Proponiamo di rappresentare la diversità globale attraverso dataset di QA.
- Exploring Strategies for Generalizable Commonsense Reasoning with Pre-trained Models
- Kaixin Ma, Filip Ilievski, Jonathan Francis, Satoru Ozaki, Eric Nyberg, Alessandro Oltramari
- TLDR: Proponiamo un metodo di apprendimento per migliorare la generalizzazione e la precisione dei modelli di Commonsense reasoning.
- Transformer Feed-Forward Layers Are Key-Value Memories
- Mor Geva, Roei Schuster, Jonathan Berant, Omer Levy
- TLDR: Proponiamo un modello di apprendimento di deep learning basato sul feed-forward layer che utilizza le memorie dei key per generare la distribuzione del linguaggio.
- Connecting Attributions and QA Model Behavior on Realistic Counterfactuals
- Xi Ye, Rohan Nair, Greg Durrett
- TLDR: Proponiamo un metodo di attribution per la comprensione della lettura comprehension.
- How Do Neural Sequence Models Generalize? Local and Global Cues for Out-of-Distribution Prediction
- D. Anthony Bau, Jacob Andreas
- TLDR: Proponiamo un modello di generalizzazione per la predizione di sequenze neurali in contesti di contesti di contesto e contesto.
- Comparing Text Representations: A Theory-Driven Approach
- Gregory Yauney, David Mimno
- TLDR: Proponiamo un metodo per valutare la compatibilità tra le rappresentazioni e i task.
- Human Rationales as Attribution Priors for Explainable Stance Detection
- Sahil Jayaram, Emily Allaway
- TLDR: Proponiamo un metodo per imparare la rationalizzazione umana per un modello di rilevamento delle posizioni basato sulla stima del comportamento.
- The Stem Cell Hypothesis: Dilemma behind Multi-Task Learning with Transformer Encoders
- Han He, Jinho D. Choi
- TLDR: Proponiamo la Stem Cell Hypothesis per scoprire che gli attention head naturali sono in grado di addestrare un insieme di cellule cerebrali per molti task che non possono essere jointmente addestrati a creare embedding adeguati per tutti gli task.
- Text Counterfactuals via Latent Optimization and Shapley-Guided Search
- Xiaoli Fern, Quintin Pope
- TLDR: Proponiamo un metodo per ottimizzare il testo di un classificatore usando stime di Shapley per generare testo di counterfactual text.
- “Average” Approximates “First Principal Component”? An Empirical Analysis on Representations from Neural Language Models
- Zihan Wang, Chengyu Dong, Jingbo Shang
- TLDR: Proponiamo un’evidence proprietà empirica per la distribuzione delle rappresentazioni.
- Controlled Evaluation of Grammatical Knowledge in Mandarin Chinese Language Models
- Yiwen Wang, Jennifer Hu, Roger Levy, Peng Qian
- TLDR: Proponiamo un modello di apprendimento di Grammatica per la grammatica in linguaggio naturale.
- GradTS: A Gradient-Based Automatic Auxiliary Task Selection Method Based on Transformer Networks
- Weicheng Ma, Renze Lou, Kai Zhang, Lili Wang, Soroush Vosoughi
- TLDR: Proponiamo un metodo di selezione automatica degli auxiliary task basato sulla stima del gradiente per multi-task learning.
- NegatER: Unsupervised Discovery of Negatives in Commonsense Knowledge Bases
- Tara Safavi, Jing Zhu, Danai Koutra
- TLDR: Proponiamo un framework per classificare le informazioni negative in KB utilizzando un language model contextual.
- Instance-adaptive training with noise-robust losses against noisy labels
- Lifeng Jin, Linfeng Song, Kun Xu, Dong Yu
- TLDR: Proponiamo un nuovo metodo di training adattivo agli istanti per regolare la resistenza del rumore nelle loss di NLP.
- Distributionally Robust Multilingual Machine Translation
- Chunting Zhou, Daniel Levy, Xian Li, Marjan Ghazvininejad, Graham Neubig
- TLDR: Proponiamo un obiettivo di apprendimento per la traduzione neurale neurale multilingue basato sulla robustezza della distribuzione per la traduzione multilingue.
- Model Selection for Cross-lingual Transfer
- Yang Chen, Alan Ritter
- TLDR: Proponiamo un metodo di selezione per migliorare le prestazioni di selezione dei modelli di transformer multilingue.
- Continual Few-Shot Learning for Text Classification
- Ramakanth Pasunuru, Veselin Stoyanov, Mohit Bansal
- TLDR: Proponiamo un task di continual few shot learning, in cui un sistema è confrontato con un fenomeno difficile e viene chiesto di imparare a correggere le sue ipotesi con pochi training example.
- Efficient Nearest Neighbor Language Models
- Junxian He, Graham Neubig, Taylor Berg-Kirkpatrick
- TLDR: Proponiamo un nuovo language model neurale per la traduzione non-parametrica del testo.
- STraTA: Self-Training with Task Augmentation for Better Few-shot Learning
- Tu Vu, Minh-Thang Luong, Quoc Le, Grady Simon, Mohit Iyyer
- TLDR: Proponiamo un metodo per migliorare la qualità del training di modelli di linguaggi NLP few shot utilizzando task augmentation e self-training.
- TADPOLE: Task ADapted Pre-Training via AnOmaLy DEtection
- Vivek Madan, Ashish Khetan, Zohar Karnin
- TLDR: Proponiamo un nuovo metodo per pre-training basato sul modello di selezione dei dati per il downstream.
- Gradient-based Adversarial Attacks against Text Transformers
- Chuan Guo, Alexandre Sablayrolles, Hervé Jégou, Douwe Kiela
- TLDR: Proponiamo un adversarial attack basato sul gradiente per risolvere il problema di ottimizzazione del modello di trasformatore.
- Do Transformer Modifications Transfer Across Implementations and Applications?
- Sharan Narang, Hyung Won Chung, Yi Tay, Liam Fedus, Thibault Fevry, Michael Matena, Karishma Malkan, Noah Fiedel, Noam Shazeer, Zhenzhong Lan, Yanqi Zhou, Wei Li, Nan Ding, Jake Marcus, Adam Roberts, Colin Raffel
- TLDR: Proponiamo un’architettura di Transformer che migliora le prestazioni di natural language processing.
- Paired Examples as Indirect Supervision in Latent Decision Models
- Nitish Gupta, Sameer Singh, Matt Gardner, Dan Roth
- TLDR: Proponiamo un metodo per sfruttare le informazioni di input di due sample per imparare le decisioni latenti.
- Pairwise Supervised Contrastive Learning of Sentence Representations
- Dejiao Zhang, Shang-Wen Li, Wei Xiao, Henghui Zhu, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: Proponiamo un nuovo metodo per bridge il ragionamento semantico e la comprensione della contradizione con un encoder di concept encoder di alto livello.
- Muppet: Massive Multi-task Representations with Pre-Finetuning
- Armen Aghajanyan, Anchit Gupta, Akshat Shrivastava, Xilun Chen, Luke Zettlemoyer, Sonal Gupta
- TLDR: Proponiamo di pre-finetuning, un ulteriore stage di apprendimento large-scale tra training del linguaggio del modello e fine-tuning.
- Diverse Distributions of Self-Supervised Tasks for Meta-Learning in NLP
- Trapit Bansal, Karthick Prasad Gunasekaran, Tong Wang, Tsendsuren Munkhdalai, Andrew McCallum
- TLDR: Proponiamo una distribuzione di task self-supervised per meta-learning.
- A Simple and Effective Method To Eliminate the Self Language Bias in Multilingual Representations
- Ziyi Yang, Yinfei Yang, Daniel Cer, Eric Darve
- TLDR: Proponiamo un metodo per rimuovere le informazioni linguistiche dai modelli di rappresentazione multilingue.
- A Massively Multilingual Analysis of Cross-linguality in Shared Embedding Space
- Alexander Jones, William Yang Wang, Kyle Mahowald
- TLDR: Proponiamo un modello di apprendimento multilingue pretrained per la comprensione multilingue di testi e parole.
- Frustratingly Simple but Surprisingly Strong: Using Language-Independent Features for Zero-shot Cross-lingual Semantic Parsing
- Jingfeng Yang, Federico Fancellu, Bonnie Webber, Diyi Yang
- TLDR: Proponiamo di addestrare parser semantici multilingue per cross-lingual parsing.
- Improving Simultaneous Translation by Incorporating Pseudo-References with Fewer Reorderings
- Junkun Chen, Renjie Zheng, Atsuhito Kita, Mingbo Ma, Liang Huang
- TLDR: Proponiamo un metodo per trasformare le corpora di traduzione simultanea in corpora di traduzione.
- Classification-based Quality Estimation: Small and Efficient Models for Real-world Applications
- Shuo Sun, Ahmed El-Kishky, Vishrav Chaudhary, James Cross, Lucia Specia, Francisco Guzmán
- TLDR: Proponiamo un metodo per comprimere i modelli di apprendimento multilingue per QE e dimostriamo che le metriche di classificazione delle QE dovrebbero essere utilizzate per valutare le prestazioni reali degli QE.
- A Large-Scale Study of Machine Translation in Turkic Languages
- Jamshidbek Mirzakhalov, Anoop Babu, Duygu Ataman, Sherzod Kariev, Francis Tyers, Otabek Abduraufov, Mammad Hajili, Sardana Ivanova, Abror Khaytbaev, Antonio Laverghetta Jr., Bekhzodbek Moydinboyev, Esra Onal, Shaxnoza Pulatova, Ahsan Wahab, Orhan Firat, Sriram Chellappan
- TLDR: Proponiamo un’analisi approfondita del problema della traduzione neurale multilingue in termini di corpus di testi e testi paralleli.
- Analyzing the Surprising Variability in Word Embedding Stability Across Languages
- Laura Burdick, Jonathan K. Kummerfeld, Rada Mihalcea
- TLDR: Proponiamo un’analisi teorica e empirica dei word embedding in diverse lingue.
- Rule-based Morphological Inflection Improves Neural Terminology Translation
- Weijia Xu, Marine Carpuat
- TLDR: Proponiamo un framework modulare per incorporare le lemma constraint in una nuova architettura di infianza per la traduzione neurale.
- Data and Parameter Scaling Laws for Neural Machine Translation
- Mitchell A Gordon, Kevin Duh, Jared Kaplan
- TLDR: Proponiamo un modello di traduzione neurale supervisionato che può essere utilizzato per prevedere BLEU e ROI.
- Good-Enough Example Extrapolation
- Jason Wei
- TLDR: Proponiamo un metodo di augmentation dei dati per l’apprendimento di modelli di testo.
- Learning to Selectively Learn for Weakly-supervised Paraphrase Generation
- Kaize Ding, Dingcheng Li, Alexander Hanbo Li, Xing Fan, Chenlei Guo, Yang Liu, Huan Liu
- TLDR: Proponiamo un nuovo metodo per generare paraphrase weakly supervised con dati di supervisione weakly supervised.
- Effective Convolutional Attention Network for Multi-label Clinical Document Classification
- Yang Liu, Hua Cheng, Russell Klopfer, Matthew R. Gormley, Thomas Schaaf
- TLDR: Proponiamo un modello di attention con convoluzione per la classificazione dei documenti multilabel.
- Contrastive Code Representation Learning
- Paras Jain, Ajay Jain, Tianjun Zhang, Pieter Abbeel, Joseph Gonzalez, Ion Stoica
- TLDR: Proponiamo un task di contrasto per imparare la rappresentazione contestuale del codice da parte del contesto.
- IGA: An Intent-Guided Authoring Assistant
- Simeng Sun, Wenlong Zhao, Varun Manjunatha, Rajiv Jain, Vlad Morariu, Franck Dernoncourt, Balaji Vasan Srinivasan, Mohit Iyyer
- TLDR: Proponiamo un approccio per addestrare un Intent-Guided Assistant per la generazione e la riproduzione di testo secondo le specificazioni del testo del testo del testo del testo del testo.
- Math Word Problem Generation with Mathematical Consistency and Problem Context Constraints
- Zichao Wang, Andrew Lan, Richard Baraniuk
- TLDR: Proponiamo un nuovo metodo per generare word problems di tipo MWP utilizzando modelli di testo pre-trained e un modello di contesto per migliorare la qualità del linguaggio di generazione di word problems.
- Navigating the Kaleidoscope of COVID-19 Misinformation Using Deep Learning
- Yuanzhi Chen, Mohammad Hasan
- TLDR: Proponiamo un mixed-domain transfer learning per rilevare le informazioni di misinformation dai dati di social media.
- Detecting Health Advice in Medical Research Literature
- Yingya Li, Jun Wang, Bei Yu
- TLDR: Proponiamo un modello di predizione basato sulla NLP per identificare le informazioni sanitarie in articoli di ricerca e mostriamo che può essere utilizzato per riutilizzare la navigazione della letteratura nella ricerca di informazioni sanitarie.
- A Semantic Feature-Wise Transformation Relation Network for Automatic Short Answer Grading
- Zhaohui Li, Yajur Tomar, Rebecca J. Passonneau
- TLDR: Proponiamo una trasformazione relazionale per l’apprendimento di rappresentazioni semantiche di feature per la valutazione automatica delle risposte a breve termine.
- Evaluating Scholarly Impact: Towards Content-Aware Bibliometrics
- Saurav Manchanda, George Karypis
- TLDR: Proponiamo un metodo per misurare l’impatto delle informazioni nella citazione di una ricerca scientifica, e la usiamo per misurare il ruolo di informazioni nella citazione.
- A Scalable Framework for Learning From Implicit User Feedback to Improve Natural Language Understanding in Large-Scale Conversational AI Systems
- Sunghyun Park, Han Li, Ameen Patel, Sidharth Mudgal, Sungjin Lee, Young-Bum Kim, Spyros Matsoukas, Ruhi Sarikaya
- TLDR: Proponiamo un approccio scalabile e automatico per migliorare la Natural Language Understanding in un sistema di conversazione a grandezza naturale.
- Summarize-then-Answer: Generating Concise Explanations for Multi-hop Reading Comprehension
- Naoya Inoue, Harsh Trivedi, Steven Sinha, Niranjan Balasubramanian, Kentaro Inui
- TLDR: Proponiamo un explainer di testo sintetico e abstractivo per multi-hop reading comprehension.
- FewshotQA: A simple framework for few-shot learning of question answering tasks using pre-trained text-to-text models
- Rakesh Chada, Pradeep Natarajan
- TLDR: Proponiamo un fine-tuning per question answering few shot che sfrutta il pre-training per migliorare le prestazioni di apprendimento.
- Multi-stage Training with Improved Negative Contrast for Neural Passage Retrieval
- Jing Lu, Gustavo Hernandez Abrego, Ji Ma, Jianmo Ni, Yinfei Yang
- TLDR: Proponiamo un framework multi-stage per il recupero di passage neurali che combina la generazione sintetica e il sampling negativo.
- Perhaps PTLMs Should Go to School – A Task to Assess Open Book and Closed Book QA
- Manuel Ciosici, Joe Cecil, Dong-Ho Lee, Alex Hedges, Marjorie Freedman, Ralph Weischedel
- TLDR: Proponiamo un task di question answering e un leaderboard per question answering e language model pre-trained.
- ReasonBERT: Pre-trained to Reason with Distant Supervision
- Xiang Deng, Yu Su, Alyssa Lees, You Wu, Cong Yu, Huan Sun
- TLDR: Proponiamo un metodo di pre-training che aumenta i language model con la capacità di ragionamento su relazioni a lungo orizzonte e multiple contesti, potrebbe essere utilizzato per risolvere il problema di apprendimento di question answering.
- Single-dataset Experts for Multi-dataset Question Answering
- Dan Friedman, Ben Dodge, Danqi Chen
- TLDR: Proponiamo di modellare la risposta multi-dataset question answering con un ensemble di esperti di dataset, utilizzando una collezione di moduli di adattamento sottostanti un sottomodello di Transformer.
- Simple Entity-Centric Questions Challenge Dense Retrievers
- Christopher Sciavolino, Zexuan Zhong, Jinhyuk Lee, Danqi Chen
- TLDR: Proponiamo EntityQuestions, un set di domande semplici, riccamente composte da informazioni di origine e origine, che generalizzano alle stesse distribuzioni di input.
- Mitigating False-Negative Contexts in Multi-document Question Answering with Retrieval Marginalization
- Ansong Ni, Matt Gardner, Pradeep Dasigi
- TLDR: Proponiamo un modello di retrieval che può mitigare le false negative nelle annotazioni di supporto delle informazioni di supporto delle domande.
- MultiDoc2Dial: Modeling Dialogues Grounded in Multiple Documents
- Song Feng, Siva Sankalp Patel, Hui Wan, Sachindra Joshi
- TLDR: Proponiamo MultiDoc2Dial, un nuovo task e dataset per modellare dialoghi di dialogo goal-oriented basati su documenti da quattro domini.
- GupShup: Summarizing Open-Domain Code-Switched Conversations
- Laiba Mehnaz, Debanjan Mahata, Rakesh Gosangi, Uma Sushmitha Gunturi, Riya Jain, Gauri Gupta, Amardeep Kumar, Isabelle G. Lee, Anish Acharya, Rajiv Ratn Shah
- TLDR: Proponiamo un task di summarizzazione delle conversazioni tra Hindi-English (Hi-En) e English-English (Hi-En) code-switched.
- BiSECT: Learning to Split and Rephrase Sentences with Bitexts
- Joongwon Kim, Mounica Maddela, Reno Kriz, Wei Xu, Chris Callison-Burch
- TLDR: Proponiamo un nuovo dataset e un nuovo modello per il task di Split e Rephrase.
- Data Collection vs. Knowledge Graph Completion: What is Needed to Improve Coverage?
- Kenneth Church, Yuchen Bian
- TLDR: Proponiamo WordNet, un’architettura di calcolo per la predizione di informazioni mancanti.
- Universal Sentence Representation Learning with Conditional Masked Language Model
- Ziyi Yang, Yinfei Yang, Daniel Cer, Jax Law, Eric Darve
- TLDR: Proponiamo un metodo di training multilingue per imparare rappresentazioni di frasi in corpora non annotati.
- On the Benefit of Syntactic Supervision for Cross-lingual Transfer in Semantic Role Labeling
- Zhisong Zhang, Emma Strubell, Eduard Hovy
- TLDR: Proponiamo un’analisi empirica della funzione di supervisione della sintassi per SRL multilingue.
- Implicit Premise Generation with Discourse-aware Commonsense Knowledge Models
- Tuhin Chakrabarty, Aadit Trivedi, Smaranda Muresan
- TLDR: Proponiamo un metodo per generare enthymememe per risolvere il problema
- Inducing Transformer’s Compositional Generalization Ability via Auxiliary Sequence Prediction Tasks
- Yichen Jiang, Mohit Bansal
- TLDR: Proponiamo un nuovo metodo per imparare la struttura compositiva del comando, che migliora la precisione su più split di training.
- Flexible Generation of Natural Language Deductions
- Kaj Bostrom, Xinyu Zhao, Swarat Chaudhuri, Greg Durrett
- TLDR: Proponiamo ParaPattern, un metodo per costruire modelli per generare inferenze deductive da diverse input naturali senza supervisione diretta umana.
- Structure-aware Fine-tuning of Sequence-to-sequence Transformers for Transition-based AMR Parsing
- Jiawei Zhou, Tahira Naseem, Ramón Fernandez Astudillo, Young-Suk Lee, Radu Florian, Salim Roukos
- TLDR: Proponiamo un nuovo metodo per parsing AMR basato sulla struttura per la modellazione dello stato di parsing.
- Think about it! Improving defeasible reasoning by first modeling the question scenario.
- Aman Madaan, Niket Tandon, Dheeraj Rajagopal, Peter Clark, Yiming Yang, Eduard Hovy
- TLDR: Proponiamo un modello di ragionamento defeasible che utilizza la teoria dell’apprendimento neurale per generare un modello di apprendimento per rispondere alle domande defeasive.
- Open Aspect Target Sentiment Classification with Natural Language Prompts
- Ronald Seoh, Ian Birle, Mrinal Tak, Haw-Shiuan Chang, Brian Pinette, Alfred Hough
- TLDR: Proponiamo un metodo per riformulare la classificazione del sentimento per l’Aspetto, che può risolvere il problema di ATSC con natural language prompt.
- Does BERT Learn as Humans Perceive? Understanding Linguistic Styles through Lexica
- Shirley Anugrah Hayati, Dongyeop Kang, Lyle Ungar
- TLDR: Proponiamo un nuovo dataset, Hummingbird, per raccogliere le label di percezione umana e la loro valutazione.
- Improving Stance Detection with Multi-Dataset Learning and Knowledge Distillation
- Yingjie Li, Chenye Zhao, Cornelia Caragea
- TLDR: Proponiamo un metodo di distillation della conoscenza per il rilevamento delle stance e dimostriamo che il nostro metodo di distillation della conoscenza può essere utilizzato per migliorare le prestazioni di training.
- Discovering the Unknown Knowns: Turning Implicit Knowledge in the Dataset into Explicit Training Examples for Visual Question Answering
- Jihyung Kil, Cheng Zhang, Dong Xuan, Wei-Lun Chao
- TLDR: Proponiamo un modello VQA che può sfruttare la conoscenza di un modello umano per rispondere alle domande.
- Improving Pre-trained Vision-and-Language Embeddings for Phrase Grounding
- Zi-Yi Dou, Nanyun Peng
- TLDR: Proponiamo un metodo per grounding le phrase utilizzando embedding di vision-and-language.
- Sequential Randomized Smoothing for Adversarially Robust Speech Recognition
- Raphael Olivier, Bhiksha Raj
- TLDR: Proponiamo un modello di autoapprendimento automatico che è robusto alla perturbazione e alle GAN.
- Hitting your MARQ: Multimodal ARgument Quality Assessment in Long Debate Video
- Md Kamrul Hasan, James Spann, Masum Hasan, Md Saiful Islam, Kurtis Haut, Rada Mihalcea, Ehsan Hoque
- TLDR: Proponiamo un modello di valutazione della qualità degli argomenti multimodale per la predizione degli argomenti.
- Mind the Context: The Impact of Contextualization in Neural Module Networks for Grounding Visual Referring Expressions
- Arjun Akula, Spandana Gella, Keze Wang, Song-Chun Zhu, Siva Reddy
- TLDR: Proponiamo un metodo per sfruttare la capacità di contestuazione del modello per migliorare le prestazioni di NMN.
- Weakly-Supervised Visual-Retriever-Reader for Knowledge-based Question Answering
- Man Luo, Yankai Zeng, Pratyay Banerjee, Chitta Baral
- TLDR: Proponiamo un retriever di immagini e testo per VQA basato sulla conoscenza.
- NDH-Full: Learning and Evaluating Navigational Agents on Full-Length Dialogue
- Hyounghun Kim, Jialu Li, Mohit Bansal
- TLDR: Proponiamo un nuovo task setup chiamato NDH-Full che utilizza la conversazione completa e il percorso di navigazione sotto il sotto-path come un’istanza.
- Timeline Summarization based on Event Graph Compression via Time-Aware Optimal Transport
- Manling Li, Tengfei Ma, Mo Yu, Lingfei Wu, Tian Gao, Heng Ji, Kathleen McKeown
- TLDR: Proponiamo di rappresentare le news articoli come grafi di eventi, compresi i sottografi salenti.
- StreamHover: Livestream Transcript Summarization and Annotation
- Sangwoo Cho, Franck Dernoncourt, Tim Ganter, Trung Bui, Nedim Lipka, Walter Chang, Hailin Jin, Jonathan Brandt, Hassan Foroosh, Fei Liu
- TLDR: Proponiamo StreamHover, un framework per annotare e sintetizzare i transcript dei video di streaming.
- Cross-Register Projection for Headline Part of Speech Tagging
- Adrian Benton, Hanyang Li, Igor Malioutov
- TLDR: Proponiamo un tagger di speech tagger multi-domain per la rilevazione delle headlines e la loro aggiunta al corpus di parole e frasi.
- Editing Factual Knowledge in Language Models
- Nicola De Cao, Wilker Aziz, Ivan Titov
- TLDR: Proponiamo KnowledgeEditor, un metodo per modificare la conoscenza fattuale dei modelli di apprendimento linguistico.
- Sparse Attention with Linear Units
- Biao Zhang, Ivan Titov, Rico Sennrich
- TLDR: Proponiamo un nuovo metodo per ottenere la sparsità in attention utilizzando ReLU e ReLU.
- Knowledge Base Completion Meets Transfer Learning
- Vid Kocijan, Thomas Lukasiewicz
- TLDR: Proponiamo un metodo per trasferire la conoscenza da una collezione di dati di input a una collezione di dati di input.
- SPECTRA: Sparse Structured Text Rationalization
- Nuno M. Guerreiro, André F. T. Martins
- TLDR: Proponiamo un metodo per l’estrazione deterministica di spiegazioni strutturate tramite inferenza consapevoli dei fattori di input e output.
- Towards Zero-Shot Knowledge Distillation for Natural Language Processing
- Ahmad Rashid, Vasileios Lioutas, Abbas Ghaddar, Mehdi Rezagholizadeh
- TLDR: Proponiamo un metodo di distillation di knowledge per NLP basato sul deep learning.
- Adversarial Regularization as Stackelberg Game: An Unrolled Optimization Approach
- Simiao Zuo, Chen Liang, Haoming Jiang, Xiaodong Liu, Pengcheng He, Jianfeng Gao, Weizhu Chen, Tuo Zhao
- TLDR: Proponiamo un metodo di regolarizzazione adversarial per risolvere il gioco di Stackelberg.
- Aspect-Controllable Opinion Summarization
- Reinald Kim Amplayo, Stefanos Angelidis, Mirella Lapata
- TLDR: Proponiamo un metodo per generare sintesi sintetiche di informazioni specifiche basate su query di aspect.
- QuestEval: Summarization Asks for Fact-based Evaluation
- Thomas Scialom, Paul-Alexis Dray, Sylvain Lamprier, Benjamin Piwowarski, Jacopo Staiano, Alex Wang, Patrick Gallinari
- TLDR: Proponiamo un nuovo metodo per valutare la correlazione tra le previsioni umane e la valutazione del documento di sintesi.
- Simple Conversational Data Augmentation for Semi-supervised Abstractive Dialogue Summarization
- Jiaao Chen, Diyi Yang
- TLDR: Proponiamo un metodo di apprendimento di conversazioni semi-supervisionate per la summarization conversazionale.
- Finding a Balanced Degree of Automation for Summary Evaluation
- Shiyue Zhang, Mohit Bansal
- TLDR: Proponiamo un nuovo metodo di valutazione semi-automatico per la valutazione del testo e la meta-evaluazione del testo, che migliora le prestazioni di valutazione del testo e riduce le prestazioni di predizione del testo.
- CLIFF: Contrastive Learning for Improving Faithfulness and Factuality in Abstractive Summarization
- Shuyang Cao, Lu Wang
- TLDR: Proponiamo un nuovo metodo di contrastive learning per generare summari fedeli e factualmente correlati agli articoli.
- Multilingual Unsupervised Neural Machine Translation with Denoising Adapters
- Ahmet Üstün, Alexandre Berard, Laurent Besacier, Matthias Gallé
- TLDR: Proponiamo di utilizzare i denoising layer per la traduzione multilingue unsupervised.
- BERT, mBERT, or BiBERT? A Study on Contextualized Embeddings for Neural Machine Translation
- Haoran Xu, Benjamin Van Durme, Kenton Murray
- TLDR: Proponiamo un metodo per incorporare i modelli di transizione pre-trained nel sistema di apprendimento neurale.
- Controlling Machine Translation for Multiple Attributes with Additive Interventions
- Andrea Schioppa, David Vilar, Artem Sokolov, Katja Filippova
- TLDR: Proponiamo un metodo per regolare il controllo di traduzione tramite diversi attributi.
- A Generative Framework for Simultaneous Machine Translation
- Yishu Miao, Phil Blunsom, Lucia Specia
- TLDR: Proponiamo un framework generativo per la traduzione simultanea di testo e parole da una fonte di origine a una destinazione.
- It Is Not As Good As You Think! Evaluating Simultaneous Machine Translation on Interpretation Data
- Jinming Zhao, Philip Arthur, Gholamreza Haffari, Trevor Cohn, Ehsan Shareghi
- TLDR: Proponiamo un’analisi realistica di SiMT addestrato su corpora di traduzione simultanea e dimostriamo che le prestazioni di SiMT sono migliorate rispetto alle precedenti analisi.
- Boosting Cross-Lingual Transfer via Self-Learning with Uncertainty Estimation
- Liyan Xu, Xuchao Zhang, Xujiang Zhao, Haifeng Chen, Feng Chen, Jinho D. Choi
- TLDR: Proponiamo un framework di self-learning per il transfer multilingue che utilizza informazioni non annotate di target per la valutazione e la stima della probabilità di selezione di label di qualità.
- Levenshtein Training for Word-level Quality Estimation
- Shuoyang Ding, Marcin Junczys-Dowmunt, Matt Post, Philipp Koehn
- TLDR: Proponiamo un nuovo metodo per utilizzare Levenshtein Transformer per il task di qualità della parola a livello di livello di testo.
- Interactive Machine Comprehension with Dynamic Knowledge Graphs
- Xingdi Yuan
- TLDR: Proponiamo un modello per costruire grafi dinamici per i task di reading comprehension.
- Residual Adapters for Parameter-Efficient ASR Adaptation to Atypical and Accented Speech
- Katrin Tomanek, Vicky Zayats, Dirk Padfield, Kara Vaillancourt, Fadi Biadsy
- TLDR: Proponiamo un metodo per migliorare le prestazioni di apprendimento degli autospeech recognition systems.
- Visual News: Benchmark and Challenges in News Image Captioning
- Fuxiao Liu, Yinghan Wang, Tianlu Wang, Vicente Ordonez
- TLDR: Proponiamo Visual News Captioner, un modello di entity-aware per il task di image captioning.
- Integrating Visuospatial, Linguistic, and Commonsense Structure into Story Visualization
- Adyasha Maharana, Mohit Bansal
- TLDR: Proponiamo un modello di apprendimento di immagini dense per la sintesi text-to-image e la sua analisi.
- VideoCLIP: Contrastive Pre-training for Zero-shot Video-Text Understanding
- Hu Xu, Gargi Ghosh, Po-Yao Huang, Dmytro Okhonko, Armen Aghajanyan, Florian Metze, Luke Zettlemoyer, Christoph Feichtenhofer
- TLDR: Proponiamo VideoCLIP, un approccio contrastivo per pre-tradare un modello unificato per video e testo, senza utilizzare label di input.
- NewsCLIPpings: Automatic Generation of Out-of-Context Multimodal Media
- Grace Luo, Trevor Darrell, Anna Rohrbach
- TLDR: Proponiamo NewsCLIPpings, un dataset di apprendimento multimodale per rilevare la mismatch tra immagini e testo.
- Powering Comparative Classification with Sentiment Analysis via Domain Adaptive Knowledge Transfer
- Zeyu Li, Yilong Qin, Zihan Liu, Wei Wang
- TLDR: Proponiamo una nuova graph neural network per la classificazione comparativa basata sulla conoscenza del sentimento.
- Tribrid: Stance Classification with Neural Inconsistency Detection
- Song Yang, Jacopo Urbani
- TLDR: Proponiamo un metodo weakly supervised per combattere le previsioni negative e generare automaticamente perspective negativi.
- SYSML: StYlometry with Structure and Multitask Learning: Implications for Darknet Forum Migrant Analysis
- Pranav Maneriker, Yuntian He, Srinivasan Parthasarathy
- TLDR: Proponiamo un metodo di multitask learning basato sulla stylometra per la modellazione e la traduzione del linguaggio naturale e del modello per risolvere il problema della comunicazione tra utenti maliziosi.
- Few-Shot Emotion Recognition in Conversation with Sequential Prototypical Networks
- Gaël Guibon, Matthieu Labeau, Hélène Flamein, Luce Lefeuvre, Chloé Clavel
- TLDR: Proponiamo un metodo per rilevare le emozioni e le traiettorie di dialogo in conversazioni chat.
- CLASSIC: Continual and Contrastive Learning of Aspect Sentiment Classification Tasks
- Zixuan Ke, Bing Liu, Hu Xu, Lei Shu
- TLDR: Proponiamo un nuovo metodo per continual learning che migliora la qualità del transfer della conoscenza tra task e domini.
- Implicit Sentiment Analysis with Event-centered Text Representation
- Deyu Zhou, Jianan Wang, Linhai Zhang, Yulan He
- TLDR: Proponiamo un modello di analisi del sentiment basato sull’evento per l’analisi implicita del testo.
- SimCSE: Simple Contrastive Learning of Sentence Embeddings
- Tianyu Gao, Xingcheng Yao, Danqi Chen
- TLDR: Proponiamo un framework di contrastive learning unsupervised che incorpora la teoria del contrasto e la teoria del contrasto.
- When is Wall a Pared and when a Muro?: Extracting Rules Governing Lexical Selection
- Aditi Chaudhary, Kayo Yin, Antonios Anastasopoulos, Graham Neubig
- TLDR: Proponiamo un metodo per identificare automaticamente le distinzioni di parole e frasi nel linguaggio naturale e usiamo le regole per spiegare queste distinzioni.
- Aligning Actions Across Recipe Graphs
- Lucia Donatelli, Theresa Schmidt, Debanjali Biswas, Arne Köhn, Fangzhou Zhai, Alexander Koller
- TLDR: Proponiamo un corpus di testo di ricette in cui annotiamo le corrispondenti tra le azioni di esecuzione e le informazioni strutturali per l’apprendimento accuratezza.
- Generating Datasets with Pretrained Language Models
- Timo Schick, Hinrich Schütze
- TLDR: Proponiamo un metodo per ottenere sentence embedding senza bisogno di dati di pre-training, finetuning o modifiche alla strategia di pre-training.
- Continuous Entailment Patterns for Lexical Inference in Context
- Martin Schmitt, Hinrich Schütze
- TLDR: Proponiamo un metodo per imparare i modelli di comprensione naturale utilizzando pattern di testo.
- Numeracy enhances the Literacy of Language Models
- Avijit Thawani, Jay Pujara, Filip Ilievski
- TLDR: Proponiamo Wiki-Convert, un dataset di testo annotato con numeri e unit, per valutare la capacità di apprendimento migliorate della rappresentazione di numeri.
- Students Who Study Together Learn Better: On the Importance of Collective Knowledge Distillation for Domain Transfer in Fact Verification
- Mitch Paul Mithun, Sandeep Suntwal, Mihai Surdeanu
- TLDR: Proponiamo Group Learning, un approccio di knowledge distillation e distillation per la verifica di fattibilità del training di modelli di apprendimento di gruppo.
- MultiEURLEX - A multi-lingual and multi-label legal document classification dataset for zero-shot cross-lingual transfer
- Ilias Chalkidis, Manos Fergadiotis, Ion Androutsopoulos
- TLDR: Proponiamo MULTI-EURLEX, un dataset multilingue per la classificazione topicale dei documenti legali.
- Joint Passage Ranking for Diverse Multi-Answer Retrieval
- Sewon Min, Kenton Lee, Ming-Wei Chang, Kristina Toutanova, Hannaneh Hajishirzi
- TLDR: Proponiamo un modello di retrieval di passage joint basato sul reranking per multi-answer retrieval.
- Generative Context Pair Selection for Multi-hop Question Answering
- Dheeru Dua, Cicero Nogueira dos Santos, Patrick Ng, Ben Athiwaratkun, Bing Xiang, Matt Gardner, Sameer Singh
- TLDR: Proponiamo un modello di selezione generativa del contesto per question answering multi-hop che sfrutta i bias sottostanti per ottenere prestazioni di risposta più robuste.
- Synthetic Data Augmentation for Zero-Shot Cross-Lingual Question Answering
- Arij Riabi, Thomas Scialom, Rachel Keraron, Benoît Sagot, Djamé Seddah, Jacopo Staiano
- TLDR: Proponiamo un metodo per migliorare le prestazioni di cross-lingual question answering utilizzando modelli di generazione di domande e di annotazione.
- Have You Seen That Number? Investigating Extrapolation in Question Answering Models
- Jeonghwan Kim, Giwon Hong, Kyung-min Kim, Junmo Kang, Sung-Hyon Myaeng
- TLDR: Proponiamo un metodo per addestrare modelli di ragionamento numerico per MRC.
- Surface Form Competition: Why the Highest Probability Answer Isn’t Always Right
- Ari Holtzman, Peter West, Vered Shwartz, Yejin Choi, Luke Zettlemoyer
- TLDR: Proponiamo Domain Conditional Pointwise Mutual Information, una funzione di scoring alternativo per language model di choice multiple.
- Entity-Based Knowledge Conflicts in Question Answering
- Shayne Longpre, Kartik Perisetla, Anthony Chen, Nikhil Ramesh, Chris DuBois, Sameer Singh
- TLDR: Proponiamo un metodo per mitigare la sovra-reliance sulla conoscenza parametric, che riduce la generalizzazione e migliora la generalizzazione.
- Back-Training excels Self-Training at Unsupervised Domain Adaptation of Question Generation and Passage Retrieval
- Devang Kulshreshtha, Robert Belfer, Iulian Vlad Serban, Siva Reddy
- TLDR: Proponiamo un metodo di training per domain adaptation unsupervised che migliora la qualità di sintesi e la precisione di generazione di domande e passaggi.
- DWUG: A large Resource of Diachronic Word Usage Graphs in Four Languages
- Dominik Schlechtweg, Nina Tahmasebi, Simon Hengchen, Haim Dubossarsky, Barbara McGillivray
- TLDR: Proponiamo un metodo di annotazione multi-round per la capture del significato del testo.
- I Wish I Would Have Loved This One, But I Didn’t – A Multilingual Dataset for Counterfactual Detection in Product Review
- James O’Neill, Polina Rozenshtein, Ryuichi Kiryo, Motoko Kubota, Danushka Bollegala
- TLDR: Proponiamo un dataset multilingue di counterfactual statement basato sulla selezione delle frasi per il rilevamento di falsità nel rilevamento di controfattualità nei prodotti.
- Does It Capture STEL? A Modular, Similarity-based Linguistic Style Evaluation Framework
- Anna Wegmann, Dong Nguyen
- TLDR: Proponiamo un framework di stima dello stile basato sulla similarità per valutare le prestazioni di qualsiasi modello che può confrontare due frasi nello stile.
- Evaluating the Morphosyntactic Well-formedness of Generated Texts
- Adithya Pratapa, Antonios Anastasopoulos, Shruti Rijhwani, Aditi Chaudhary, David R. Mortensen, Graham Neubig, Yulia Tsvetkov
- TLDR: Proponiamo una metrica per valutare la qualità della sintassi del testo utilizzando la parsing di dependency e la regolarizzazione morpho-syntactica.
- AM2iCo: Evaluating Word Meaning in Context across Low-Resource Languages with Adversarial Examples
- Qianchu Liu, Edoardo Maria Ponti, Diana McCarthy, Ivan Vulić, Anna Korhonen
- TLDR: Proponiamo un nuovo set di valutazione multilingue e multilingue per comprendere il significato dei termini in contesti linguistici.
- CrossFit: A Few-shot Learning Challenge for Cross-task Generalization in NLP
- Qinyuan Ye, Bill Yuchen Lin, Xiang Ren
- TLDR: Proponiamo CrossFit, un problema setup per studiare la generalizzazione della few shot learning, che standardizza le partizioni visive/non visive, il data access durante diverse fasi di apprendimento, i metodi di valutazione e la distribuzione dei risultati.
- On the Influence of Masking Policies in Intermediate Pre-training
- Qinyuan Ye, Belinda Z. Li, Sinong Wang, Benjamin Bolte, Hao Ma, Wen-tau Yih, Xiang Ren, Madian Khabsa
- TLDR: Proponiamo un metodo per imparare policy di masking per il training intermedio.
- ValNorm Quantifies Semantics to Reveal Consistent Valence Biases Across Languages and Over Centuries
- Autumn Toney, Aylin Caliskan
- TLDR: Proponiamo ValNorm, un task intrinseco di valutazione per word embedding, un metodo per quantificare la dimensione di effetto nella valutazione di bias sociali in word embedding.
- Perturbation CheckLists for Evaluating NLG Evaluation Metrics
- Ananya B. Sai, Tanay Dixit, Dev Yashpal Sheth, Sreyas Mohan, Mitesh M. Khapra
- TLDR: Proponiamo un modello per valutare le metriche di valutazione automatica per la generazione di testo strutturato.
- Robust Open-Vocabulary Translation from Visual Text Representations
- Elizabeth Salesky, David Etter, Matt Post
- TLDR: Proponiamo di utilizzare le rappresentazioni visive per migliorare le prestazioni di traduzione dei modelli di testo umano.
- Don’t Go Far Off: An Empirical Study on Neural Poetry Translation
- Tuhin Chakrabarty, Arkadiy Saakyan, Smaranda Muresan
- TLDR: Proponiamo un’indagine empirica per la traduzione automatica di testi e testi non poesi.
- Improving Multilingual Translation by Representation and Gradient Regularization
- Yilin Yang, Akiko Eriguchi, Alexandre Muzio, Prasad Tadepalli, Stefan Lee, Hany Hassan
- TLDR: Proponiamo un metodo per regolarizzare i modelli di traduzione neurale multilingue multi-task per ridurre le traiettorie di off-target e migliorare le prestazioni di zero-shot translation.
- Learning Kernel-Smoothed Machine Translation with Retrieved Examples
- Qingnan Jiang, Mingxuan Wang, Jun Cao, Shanbo Cheng, Shujian Huang, Lei Li
- TLDR: Proponiamo di imparare la traduzione kernel-smoothed con esempi riutilizzabili online utilizzando il metodo di apprendimento di test-retrieval.
- Uncertainty-Aware Balancing for Multilingual and Multi-Domain Neural Machine Translation Training
- Minghao Wu, Yitong Li, Meng Zhang, Liangyou Li, Gholamreza Haffari, Qun Liu
- TLDR: Proponiamo un metodo per regolare la quantità di dati di training per la traduzione multi-domain e multi-language.
- Universal Simultaneous Machine Translation with Mixture-of-Experts Wait-k Policy
- Shaolei Zhang, Yang Feng
- TLDR: Proponiamo un modello SiMT universale con Mixture-of-Experts Wait-k Policy per ottenere la migliore qualità di traduzione sotto latency arbitraria con solo un modello addestrato.
- How much coffee was consumed during EMNLP 2019? Fermi Problems: A New Reasoning Challenge for AI
- Ashwin Kalyan, Abhinav Kumar, Arjun Chandrasekaran, Ashish Sabharwal, Peter Clark
- TLDR: Proponiamo un nuovo approccio per risolvere problemi di ragionamento invarianti nel mondo reale utilizzando FP sintetici.
- Will this Question be Answered? Question Filtering via Answer Model Distillation for Efficient Question Answering
- Siddhant Garg, Alessandro Moschitti
- TLDR: Proponiamo un nuovo approccio per migliorare l’efficienza dei sistemi di Question Answering (QA) che filtrano le domande che non saranno risposte da loro.
- Learning with Instance Bundles for Reading Comprehension
- Dheeru Dua, Pradeep Dasigi, Sameer Singh, Matt Gardner
- TLDR: Proponiamo un metodo per addestrare un modello di reading comprehension che combina la stima di contrasto e la supervisione.
- Explaining Answers with Entailment Trees
- Bhavana Dalvi, Peter Jansen, Oyvind Tafjord, Zhengnan Xie, Hannah Smith, Leighanna Pipatanangkura, Peter Clark
- TLDR: Proponiamo ENTAILMENTBANK, un dataset di entailment multi-step per question-answering testuale.
- SituatedQA: Incorporating Extra-Linguistic Contexts into QA
- Michael Zhang, Eunsol Choi
- TLDR: Proponiamo SituatedQA, un dataset di QA open-retrieval che può rispondere alle domande di informazioni che sono in un contesto temporale o geographico.
- ConvAbuse: Data, Analysis, and Benchmarks for Nuanced Abuse Detection in Conversational AI
- Amanda Cercas Curry, Gavin Abercrombie, Verena Rieser
- TLDR: Proponiamo un corpus di studi di corpus di testo per l’abusing del linguaggio parlato verso tre sistemi di conversazione artificiale gathered in RL: un open-domain social bot, un sistema di rule-based chatbot e un sistema di task-based system.
- Conversational Multi-Hop Reasoning with Neural Commonsense Knowledge and Symbolic Logic Rules
- Forough Arabshahi, Jennifer Lee, Antoine Bosselut, Yejin Choi, Tom Mitchell
- TLDR: Proponiamo un sistema di ragionamento commonsense per conversatori che utilizza la conoscenza generativa per risolvere il problema della ricerca di informazioni da parte degli utenti.
- Towards Automatic Evaluation of Dialog Systems: A Model-Free Off-Policy Evaluation Approach
- Haoming Jiang, Bo Dai, Mengjiao Yang, Tuo Zhao, Wei Wei
- TLDR: Proponiamo un nuovo metodo per stimare i punteggi di valutazione umani basato sulla valutazione off-policy del reinforcement learning.
- Continual Learning in Task-Oriented Dialogue Systems
- Andrea Madotto, Zhaojiang Lin, Zhenpeng Zhou, Seungwhan Moon, Paul Crook, Bing Liu, Zhou Yu, Eunjoon Cho, Pascale Fung, Zhiguang Wang
- TLDR: Proponiamo un benchmark di continual learning per sistemi di dialogo task-oriented con 37 domini da imparare continuamente in entrambi i setting di modularizzazione e end-to-end learning.
- Multilingual and Cross-Lingual Intent Detection from Spoken Data
- Daniela Gerz, Pei-Hao Su, Razvan Kusztos, Avishek Mondal, Michał Lis, Eshan Singhal, Nikola Mrkšić, Tsung-Hsien Wen, Ivan Vulić
- TLDR: Proponiamo un nuovo metodo per rilevare gli intente multilingue e cross-lingue da dati di testo.
- Investigating Robustness of Dialog Models to Popular Figurative Language Constructs
- Harsh Jhamtani, Varun Gangal, Eduard Hovy, Taylor Berg-Kirkpatrick
- TLDR: Proponiamo un metodo per imparare il linguaggio naturale per dialogare in ambienti di dialogo con modelli di dialogo.
- Effective Sequence-to-Sequence Dialogue State Tracking
- Jeffrey Zhao, Mahdis Mahdieh, Ye Zhang, Yuan Cao, Yonghui Wu
- TLDR: Proponiamo un nuovo obiettivo di pre-training per il dialogue state tracking.
- MSˆ2: Multi-Document Summarization of Medical Studies
- Jay DeYoung, Iz Beltagy, Madeleine van Zuylen, Bailey Kuehl, Lucy Wang
- TLDR: Proponiamo un nuovo metodo di summarization multi-document per la valutazione di studi sanitari.
- CLIPScore: A Reference-free Evaluation Metric for Image Captioning
- Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Le Bras, Yejin Choi
- TLDR: Proponiamo una nuova metric di valutazione di immagini che è complementare alle metriche di riferimento basate sul testo e che raggiunge una correlazione allo stato dell’arte con le previsioni umane.
- On the Challenges of Evaluating Compositional Explanations in Multi-Hop Inference: Relevance, Completeness, and Expert Ratings
- Peter Jansen, Kelly J. Smith, Dan Moreno, Huitzilin Ortiz
- TLDR: Proponiamo un corpus di spiegazioni composte che aumentano la qualità delle spiegazioni originali e auto-generate.
- ESTER: A Machine Reading Comprehension Dataset for Reasoning about Event Semantic Relations
- Rujun Han, I-Hung Hsu, Jiao Sun, Julia Baylon, Qiang Ning, Dan Roth, Nanyun Peng
- TLDR: Proponiamo un dataset di reading comprehension per eventi semantici.
- RICA: Evaluating Robust Inference Capabilities Based on Commonsense Axioms
- Pei Zhou, Rahul Khanna, Seyeon Lee, Bill Yuchen Lin, Daniel Ho, Jay Pujara, Xiang Ren
- TLDR: Proponiamo un nuovo benchmark per la valutazione robusta della conoscenza comune per la predizione di modelli di linguaggio naturale.
- Compression, Transduction, and Creation: A Unified Framework for Evaluating Natural Language Generation
- Mingkai Deng, Bowen Tan, Zhengzhong Liu, Eric Xing, Zhiting Hu
- TLDR: Proponiamo un nuovo metodo per valutare la generazione di testo naturale utilizzando metriche di valutazione interpretabili.
- MATE: Multi-view Attention for Table Transformer Efficiency
- Julian Eisenschlos, Maharshi Gor, Thomas Müller, William Cohen
- TLDR: Proponiamo un nuovo approccio di sparse attention per modellare documenti che contengono molte tazze.
- Learning with Different Amounts of Annotation: From Zero to Many Labels
- Shujian Zhang, Chengyue Gong, Eunsol Choi
- TLDR: Proponiamo un metodo di apprendimento multi-label per la comprensione del linguaggio.
- When Attention Meets Fast Recurrence: Training Language Models with Reduced Compute
- Tao Lei
- TLDR: Proponiamo SRU++, un’architettura altamente efficiente che combina la recurrenza veloce con l’attention per il training di modelli semantici.
- Universal-KD: Attention-based Output-Grounded Intermediate Layer Knowledge Distillation
- Yimeng Wu, Mehdi Rezagholizadeh, Abbas Ghaddar, Md Akmal Haidar, Ali Ghodsi
- TLDR: Proponiamo un metodo per distillare il knowledge matching intermedio utilizzando la projection basata sull’attention.
- Highly Parallel Autoregressive Entity Linking with Discriminative Correction
- Nicola De Cao, Wilker Aziz, Ivan Titov
- TLDR: Proponiamo un metodo di autoregressive learning efficiente che parallelizza il linking autoregressivo tra tutti i potenziali dati e che basa su un decoder efficiente e profondo.
- Word-Level Coreference Resolution
- Vladimir Dobrovolskii
- TLDR: Un modello di coerenza che utilizza rappresentazioni dello span per trovare collegamenti tra i word span.
- A Secure and Efficient Federated Learning Framework for NLP
- Chenghong Wang, Jieren Deng, Xianrui Meng, Yijue Wang, Ji Li, Sheng Lin, Shuo Han, Fei Miao, Sanguthevar Rajasekaran, Caiwen Ding
- TLDR: Proponiamo un framework di federated learning sicuro e efficiente per NLP.
- Controllable Semantic Parsing via Retrieval Augmentation
- Panupong Pasupat, Yuan Zhang, Kelvin Guu
- TLDR: Proponiamo un modello di parsing semantic per l’apprendimento tramite Exemplar Retrieval.
- Constrained Language Models Yield Few-Shot Semantic Parsers
- Richard Shin, Christopher Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Pauls, Dan Klein, Jason Eisner, Benjamin Van Durme
- TLDR: Proponiamo un metodo per bootstrapperre la semantica utilizzando language model pretrained.
- ExplaGraphs: An Explanation Graph Generation Task for Structured Commonsense Reasoning
- Swarnadeep Saha, Prateek Yadav, Lisa Bauer, Mohit Bansal
- TLDR: Proponiamo ExplaGraphs, un task di explanation graph generazione per la predizione della stance per la comprensione del linguaggio naturale.
- Connect-the-Dots: Bridging Semantics between Words and Definitions via Aligning Word Sense Inventories
- Wenlin Yao, Xiaoman Pan, Lifeng Jin, Jianshu Chen, Dian Yu, Dong Yu
- TLDR: Proponiamo un metodo di apprendimento di word sense dimostriamo che può catturare meglio le parole nel contesto.
- LM-Critic: Language Models for Unsupervised Grammatical Error Correction
- Michihiro Yasunaga, Jure Leskovec, Percy Liang
- TLDR: Proponiamo un metodo per bootstrapped un modello di critic per la correzione degli errori grammatici.
- Language-agnostic Representation from Multilingual Sentence Encoders for Cross-lingual Similarity Estimation
- Nattapong Tiyajamorn, Tomoyuki Kajiwara, Yuki Arase, Makoto Onizuka
- TLDR: Proponiamo un metodo per distillare il meaning embedding da un encoder multilingue.
- Classifying Dyads for Militarized Conflict Analysis
- Niklas Stoehr, Lucas Torroba Hennigen, Samin Ahbab, Robert West, Ryan Cotterell
- TLDR: Proponiamo un approccio di analisi per confrontare le cause di conflitto tra due enti.
- Point-of-Interest Type Prediction using Text and Images
- Danae Sánchez Villegas, Nikolaos Aletras
- TLDR: Proponiamo un metodo per POI type prediction utilizzando informazioni multimodali da dati di testo e immagini disponibili a tempo di post-speech.
- Come hither or go away? Recognising pre-electoral coalition signals in the news
- Ines Rehbein, Simone Paolo Ponzetto, Anna Adendorf, Oke Bahnsen, Lukas Stoetzer, Heiner Stuckenschmidt
- TLDR: Proponiamo un metodo di multi-task learning per la predizione di segnali di coalizione da testo, che è il task di rilevamento della (un)willingness delle parti politiche a formare una coalizione.
- #HowYouTagTweets: Learning User Hashtagging Preferences via Personalized Topic Attention
- Yuji Zhang, Yubo Zhang, Chunpu Xu, Jing Li, Ziyan Jiang, Baolin Peng
- TLDR: Proponiamo un nuovo topic attention personalizzato per sfruttare la semantica per costruire contesti di condivisione e condivisione.
- Learning Neural Templates for Recommender Dialogue System
- Zujie Liang, Huang Hu, Can Xu, Jian Miao, Yingying He, Yining Chen, Xiubo Geng, Fan Liang, Daxin Jiang
- TLDR: Proponiamo un nuovo framework per il dialogo recommender per la generazione di risposte di dialogo.
- Proxy Indicators for the Quality of Open-domain Dialogues
- Rostislav Nedelchev, Jens Lehmann, Ricardo Usbeck
- TLDR: Proponiamo un metodo di valutazione basato sul deep learning per valutare la qualità delle conversazioni open-domain.
- Q^{2}: Evaluating Factual Consistency in Knowledge-Grounded Dialogues via Question Generation and Question Answering
- Or Honovich, Leshem Choshen, Roee Aharoni, Ella Neeman, Idan Szpektor, Omri Abend
- TLDR: Proponiamo una valutazione automatica per valutare la consistency del dialogo knowledge-grounded utilizzando question generation e question answering.
- Knowledge-Aware Graph-Enhanced GPT-2 for Dialogue State Tracking
- Weizhe Lin, Bo-Hsiang Tseng, Bill Byrne
- TLDR: Proponiamo un modello di tracking dello stato basato su grafi per il dialogo multi-domain.
- A Collaborative Multi-agent Reinforcement Learning Framework for Dialog Action Decomposition
- Huimin Wang, Kam-Fai Wong
- TLDR: Proponiamo un nuovo reinforcement learning multi-agente per dialog policy learning.
- Zero-Shot Dialogue State Tracking via Cross-Task Transfer
- Zhaojiang Lin, Bing Liu, Andrea Madotto, Seungwhan Moon, Zhenpeng Zhou, Paul Crook, Zhiguang Wang, Zhou Yu, Eunjoon Cho, Rajen Subba, Pascale Fung
- TLDR: Proponiamo un modello generativo di QA transfer per dialogue state tracking.
- Uncertainty Measures in Neural Belief Tracking and the Effects on Dialogue Policy Performance
- Carel van Niekerk, Andrey Malinin, Christian Geishauser, Michael Heck, Hsien-chin Lin, Nurul Lubis, Shutong Feng, Milica Gasic
- TLDR: Proponiamo di addestrare un’ampia classe di misura di sicurezza per il dialogue dialogue tracking neurale.
- Dynamic Forecasting of Conversation Derailment
- Yova Kementchedjhieva, Anders Søgaard
- TLDR: Proponiamo un pretrained language encoder per il task di conversazione online, che migliora le prestazioni di training rispetto agli approcci precedenti.
- A Semantic Filter Based on Relations for Knowledge Graph Completion
- Zongwei Liang, Junan Yang, Hui Liu, Keju Huang
- TLDR: Proponiamo un metodo per misurare la rationalità delle triple utilizzando il filtro semantico basato sulle relazioni.
- AdapterDrop: On the Efficiency of Adapters in Transformers
- Andreas Rücklé, Gregor Geigle, Max Glockner, Tilman Beck, Jonas Pfeiffer, Nils Reimers, Iryna Gurevych
- TLDR: Proponiamo AdapterDrop, un metodo per rimuovere gli adattatori dai layer di training e inferenza, che migliora la precisione di inferenza e la stabilità.
- Understanding and Overcoming the Challenges of Efficient Transformer Quantization
- Yelysei Bondarenko, Markus Nagel, Tijmen Blankevoort
- TLDR: Proponiamo un metodo di quantizzazione per trasformatori.
- CAPE: Context-Aware Private Embeddings for Private Language Learning
- Richard Plant, Dimitra Gkatzia, Valerio Giuffrida
- TLDR: Proponiamo un nuovo approccio di privacy differenziale per embedding di testo e di adversarial learning per embedding di informazioni private.
- Text Detoxification using Large Pre-trained Neural Models
- David Dale, Anton Voronov, Daryna Dementieva, Varvara Logacheva, Olga Kozlova, Nikita Semenov, Alexander Panchenko
- TLDR: Proponiamo un metodo per rimuovere la tossicità nel testo utilizzando modelli di paraphrasing e BERT.
- Document-Level Text Simplification: Dataset, Criteria and Baseline
- Renliang Sun, Hanqi Jin, Xiaojun Wan
- TLDR: Proponiamo un nuovo task di apprendimento automatico del testo di document-level, che mira a semplificare il testo di un documento composto da più frasi.
- A Bag of Tricks for Dialogue Summarization
- Muhammad Khalifa, Miguel Ballesteros, Kathleen McKeown
- TLDR: Proponiamo un metodo per risolvere il problema della summarization dialogale.
- Paraphrasing Compound Nominalizations
- John Lee, Ho Hung Lim, Carol Webster
- TLDR: Proponiamo un metodo per interpretare le nozioni di nominalizzazione e le paraphrase.
- Data-QuestEval: A Referenceless Metric for Data-to-Text Semantic Evaluation
- Clement Rebuffel, Thomas Scialom, Laure Soulier, Benjamin Piwowarski, Sylvain Lamprier, Jacopo Staiano, Geoffrey Scoutheeten, Patrick Gallinari
- TLDR: Proponiamo un metodo per costruire corpora sintetici multimodali per una metrica di testo-QuestEval.
- Low-Rank Subspaces for Unsupervised Entity Linking
- Akhil Arora, Alberto Garcia-Duran, Robert West
- TLDR: Proponiamo un metodo di linking di entity che sfrutta il fatto che le informazioni di riferimento delle stesse entity siano realmente citate in un documento (the “gold entities”) e una knowledge base di riferimento per la sua valutazione.
- TDEER: An Efficient Translating Decoding Schema for Joint Extraction of Entities and Relations
- Xianming Li, Xiaotian Luo, Chenghao Dong, Daichuan Yang, Beidi Luan, Zhen He
- TLDR: Un nuovo modello di extrazione efficiente di relazioni e entity e relazioni per la decodifica di KnowledgeBase
- Extracting Event Temporal Relations via Hyperbolic Geometry
- Xingwei Tan, Gabriele Pergola, Yulan He
- TLDR: Proponiamo di addestrare un’architettura end-to-end per l’apprendimento di eventi temporali.
- Honey or Poison? Solving the Trigger Curse in Few-shot Event Detection via Causal Intervention
- Jiawei Chen, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: Proponiamo di addestrare il modello causale strutturale per few shot event detection.
- Back to the Basics: A Quantitative Analysis of Statistical and Graph-Based Term Weighting Schemes for Keyword Extraction
- Asahi Ushio, Federico Liberatore, Jose Camacho-Collados
- TLDR: Proponiamo un confronto empirico di entrambi i metodi di term weighting statistico e grafi nel contesto della ricerca di parole chiave.
- Time-dependent Entity Embedding is not All You Need: A Re-evaluation of Temporal Knowledge Graph Completion Models under a Unified Framework
- Zhen Han, Gengyuan Zhang, Yunpu Ma, Volker Tresp
- TLDR: Proponiamo un nuovo approccio di embedding temporale per knowledge graph completion.
- Matching-oriented Embedding Quantization For Ad-hoc Retrieval
- Shitao Xiao, Zheng Liu, Yingxia Shao, Defu Lian, Xing Xie
- TLDR: Proponiamo un nuovo obiettivo di quantizzazione del prodotto matching, Multinoulli Contrastive Loss (MCL), che è formulato per ottimizzare la precisione di quantizzazione del prodotto.
- Efficient Mind-Map Generation via Sequence-to-Graph and Reinforced Graph Refinement
- Mengting Hu, Honglei Guo, Shiwan Zhao, Hang Gao, Zhong Su
- TLDR: Proponiamo un modello di generazione di grafi per convertire il testo in una graph semantico.
- Deep Attention Diffusion Graph Neural Networks for Text Classification
- Yonghao Liu, Renchu Guan, Fausto Giunchiglia, Yanchun Liang, Xiaoyue Feng
- TLDR: Proponiamo un modello di apprendimento di rappresentazioni di testo per la classificazione del testo.
- Balancing Methods for Multi-label Text Classification with Long-Tailed Class Distribution
- Yi Huang, Buse Giledereli, Abdullatif Köksal, Arzucan Özgür, Elif Ozkirimli
- TLDR: Proponiamo un’architettura di loss per risolvere il problema della distribuzione multilabel.
- Bayesian Topic Regression for Causal Inference
- Maximilian Ahrens, Julian Ashwin, Jan-Peter Calliess, Vu Nguyen
- TLDR: Proponiamo un modello di topic regressione bayesiano supervised che utilizza informazioni di testo e numerici per modellare una variabile di risultato.
- Enjoy the Salience: Towards Better Transformer-based Faithful Explanations with Word Salience
- George Chrysostomou, Nikolaos Aletras
- TLDR: Proponiamo di addestrare modelli di apprendimento con informazioni salenti per la spiegazione.
- What’s in Your Head? Emergent Behaviour in Multi-Task Transformer Models
- Mor Geva, Uri Katz, Aviv Ben-Arie, Jonathan Berant
- TLDR: Proponiamo un modello di multi-task training per la modellazione del linguaggio naturale.
- Don’t Search for a Search Method — Simple Heuristics Suffice for Adversarial Text Attacks
- Nathaniel Berger, Stefan Riezler, Sebastian Ebert, Artem Sokolov
- TLDR: Proponiamo un metodo per confrontare il testo adversarial con il testo adversarial basato sulla ricerca e l’ottimizzazione.
- Adversarial Attacks on Knowledge Graph Embeddings via Instance Attribution Methods
- Peru Bhardwaj, John Kelleher, Luca Costabello, Declan O’Sullivan
- TLDR: Proponiamo un metodo per addestrare le triple di adversarial attention per generare addestramento adversarial.
- Locke’s Holiday: Belief Bias in Machine Reading
- Anders Søgaard
- TLDR: Un mode di failure dello stato dell’arte dei sistemi di lettura
- Sequence Length is a Domain: Length-based Overfitting in Transformer Models
- Dusan Varis, Ondřej Bojar
- TLDR: Proponiamo un modello di Transformer basato sulla semantica per la traduzione semantica.
- Contrasting Human- and Machine-Generated Word-Level Adversarial Examples for Text Classification
- Maximilian Mozes, Max Bartolo, Pontus Stenetorp, Bennett Kleinberg, Lewis Griffin
- TLDR: Proponiamo un adversarial example umano per la preservazione del sentimento e la grammatica.
- Is Information Density Uniform in Task-Oriented Dialogues?
- Mario Giulianelli, Arabella Sinclair, Raquel Fernández
- TLDR: Proponiamo un nuovo metodo per misurare la densità dell’informazione per la comunicazione tra contesti.
- On Homophony and Rényi Entropy
- Tiago Pimentel, Clara Meister, Simone Teufel, Ryan Cotterell
- TLDR: Proponiamo un nuovo metodo per quantificare la qualità del linguaggio naturale e dimostriamo che le parole sono più probabili di essere composte.
- Synthetic Textual Features for the Large-Scale Detection of Basic-level Categories in English and Mandarin
- Yiwen Chen, Simone Teufel
- TLDR: Proponiamo un metodo per rilevare le categorie di categoria a livello di parola e frase per Wordnet.
- TimeTraveler: Reinforcement Learning for Temporal Knowledge Graph Forecasting
- Haohai Sun, Jialun Zhong, Yunpu Ma, Zhen Han, Kun He
- TLDR: Proponiamo un metodo di reinforcement learning per risolvere il task di predizione del knowledge graph.
- Code-switched inspired losses for spoken dialog representations
- Pierre Colombo, Emile Chapuis, Matthieu Labeau, Chloé Clavel
- TLDR: Un sistema di dialogo multilinguale può gestire sia la comunicazione multilinguale che la comunicazione multilinguale.
- BiQUE: Biquaternionic Embeddings of Knowledge Graphs
- Jia Guo, Stanley Kok
- TLDR: Proponiamo BiQUE, un nuovo modello che utilizza la rotazione e la geometria per modellare le relazioni gerarchiche.
- Learning Neural Ordinary Equations for Forecasting Future Links on Temporal Knowledge Graphs
- Zhen Han, Zifeng Ding, Yunpu Ma, Yujia Gu, Volker Tresp
- TLDR: Proponiamo un nuovo approccio per ragionamento del link futuro sui knowledge graph.
- RAP: Robustness-Aware Perturbations for Defending against Backdoor Attacks on NLP Models
- Wenkai Yang, Yankai Lin, Peng Li, Jie Zhou, Xu Sun
- TLDR: Proponiamo un metodo di difesa online basato sulla perturbazione robustezza-aware per affrontare gli attacchi backdoor.
- FAME: Feature-Based Adversarial Meta-Embeddings for Robust Input Representations
- Lukas Lange, Heike Adel, Jannik Strötgen, Dietrich Klakow
- TLDR: Proponiamo adversarial meta-embedding basati sulla feature per risolvere il problema dell’apprendimento multi-lingue.
- A Strong Baseline for Query Efficient Attacks in a Black Box Setting
- Rishabh Maheshwary, Saket Maheshwary, Vikram Pudi
- TLDR: Proponiamo un adversarial attack che sfrutta il meccanismo di attention e il locality sensitive hashing per ridurre il count di query.
- Machine Translation Decoding beyond Beam Search
- Rémi Leblond, Jean-Baptiste Alayrac, Laurent Sifre, Miruna Pislar, Lespiau Jean-Baptiste, Ioannis Antonoglou, Karen Simonyan, Oriol Vinyals
- TLDR: Proponiamo Monte-Carlo Tree Search (MCTS) basato sulla ricerca di Monte-Carlo Tree Tree e mostriamo la sua competitiveness.
- Document Graph for Neural Machine Translation
- Mingzhou Xu, Liangyou Li, Derek F. Wong, Qun Liu, Lidia S. Chao
- TLDR: Proponiamo un graph per la traduzione neurale utilizzando informazioni contestuali.
- An Empirical Investigation of Word Alignment Supervision for Zero-Shot Multilingual Neural Machine Translation
- Alessandro Raganato, Raúl Vázquez, Mathias Creutz, Jörg Tiedemann
- TLDR: Proponiamo di addestrare un cross attention head con una supervisione di parole e lingue per migliorare le prestazioni di translazione.
- Graph Algorithms for Multiparallel Word Alignment
- Ayyoob ImaniGooghari, Masoud Jalili Sabet, Lutfi Kerem Senel, Philipp Dufter, François Yvon, Hinrich Schütze
- TLDR: Proponiamo un approccio per sfruttare la multiparallelità dei corpora per la predizione degli edge.
- Improving the Quality Trade-Off for Neural Machine Translation Multi-Domain Adaptation
- Eva Hasler, Tobias Domhan, Jonay Trenous, Ke Tran, Bill Byrne, Felix Hieber
- TLDR: Proponiamo un’architettura di traduzione neurale che combina la teoria del trade-off Elastic Weight con la strategia di mixing dei dati per migliorare le prestazioni.
- Language Modeling, Lexical Translation, Reordering: The Training Process of NMT through the Lens of Classical SMT
- Elena Voita, Rico Sennrich, Ivan Titov
- TLDR: Proponiamo un metodo per imparare la traduzione neurale non autoregressiva utilizzando la selezione del modello di traduzione guidata dalla selezione del modello di teacher.
- Effective Fine-Tuning Methods for Cross-lingual Adaptation
- Tao Yu, Shafiq Joty
- TLDR: Proponiamo un metodo di fine-tuning multilingue basato sul co-training per imparare più generalizzate equivalenze semantiche.
- Rethinking Data Augmentation for Low-Resource Neural Machine Translation: A Multi-Task Learning Approach
- Víctor M. Sánchez-Cartagena, Miquel Esplà-Gomis, Juan Antonio Pérez-Ortiz, Felipe Sánchez-Martínez
- TLDR: Proponiamo un metodo multi-task per aumentare la distribuzione dei dati empirici.
- Wino-X: Multilingual Winograd Schemas for Commonsense Reasoning and Coreference Resolution
- Denis Emelin, Rico Sennrich
- TLDR: Proponiamo un dataset parallelo di schema di apprendimento neurale e dimostriamo che le MLLM multilingue possono eseguire la risoluzione coreference e il ragionamento comune.
- One Source, Two Targets: Challenges and Rewards of Dual Decoding
- Jitao Xu, François Yvon
- TLDR: Proponiamo un metodo per decodificare due testi in modo che entrambi i testi siano dipendenti.
- Discrete and Soft Prompting for Multilingual Models
- Mengjie Zhao, Hinrich Schütze
- TLDR: Proponiamo un metodo di training per few shot learning che combina il prompting discreto e soft.
- Vision Matters When It Should: Sanity Checking Multimodal Machine Translation Models
- Jiaoda Li, Duygu Ataman, Rico Sennrich
- TLDR: Proponiamo un nuovo metodo per sfruttare il ruolo dei dati per la traduzione multimodale.
- Efficient Inference for Multilingual Neural Machine Translation
- Alexandre Berard, Dain Lee, Stephane Clinchant, Kweonwoo Jung, Vassilina Nikoulina
- TLDR: Proponiamo un decoder multilingue per l’inferenza multi-parallel.
- Role of Language Relatedness in Multilingual Fine-tuning of Language Models: A Case Study in Indo-Aryan Languages
- Tejas Dhamecha, Rudra Murthy, Samarth Bharadwaj, Karthik Sankaranarayanan, Pushpak Bhattacharyya
- TLDR: Proponiamo un fine-tuning multilingue per NLP che può migliorare le prestazioni di fine-tuning monolingue.
- Comparing Feature-Engineering and Feature-Learning Approaches for Multilingual Translationese Classification
- Daria Pylypenko, Kwabena Amponsah-Kaakyire, Koel Dutta Chowdhury, Josef van Genabith, Cristina España-Bonet
- TLDR: Proponiamo un nuovo approccio di feature-engineering basato sul feature learning per la traduzione neurale.
- Multi-Sentence Resampling: A Simple Approach to Alleviate Dataset Length Bias and Beam-Search Degradation
- Ivan Provilkov, Andrey Malinin
- TLDR: Proponiamo un nuovo metodo di augmentation dei dati per migliorare la qualità della traduzione neurale.
- Cross-Policy Compliance Detection via Question Answering
- Marzieh Saeidi, Majid Yazdani, Andreas Vlachos
- TLDR: Proponiamo di decomporre il question answering in un modo di question answering, dove le domande controllano se le condizioni state nella policy apprese appresi a uno scenario corrispondano alle condizioni state nello scenario.
- Meta-LMTC: Meta-Learning for Large-Scale Multi-Label Text Classification
- Ran Wang, Xi’ao Su, Siyu Long, Xinyu Dai, Shujian Huang, Jiajun Chen
- TLDR: Proponiamo un metodo di meta-learning per la multi-label text classification.
- Unsupervised Multi-View Post-OCR Error Correction With Language Models
- Harsh Gupta, Luciano Del Corro, Samuel Broscheit, Johannes Hoffart, Eliot Brenner
- TLDR: Proponiamo un metodo per risolvere il problema della correzione post-OCR utilizzando un modello pretrained.
- Parallel Refinements for Lexically Constrained Text Generation with BART
- Xingwei He
- TLDR: Proponiamo un modello di generazione di testo consapevoli della generazione di parole e frasi, che può generare testo plausivo e diversissimo.
- BERT-Beta: A Proactive Probabilistic Approach to Text Moderation
- Fei Tan, Yifan Hu, Kevin Yen, Changwei Hu
- TLDR: Proponiamo un nuovo metodo per migliorare la moderazione del testo per i modelli di apprendimento automatico.
- STaCK: Sentence Ordering with Temporal Commonsense Knowledge
- Deepanway Ghosal, Navonil Majumder, Rada Mihalcea, Soujanya Poria
- TLDR: Proponiamo un metodo per prevedere il comportamento di ordine delle frasi in un documento di testo ordinato.
- Preventing Author Profiling through Zero-Shot Multilingual Back-Translation
- David Adelani, Miaoran Zhang, Xiaoyu Shen, Ali Davody, Thomas Kleinbauer, Dietrich Klakow
- TLDR: Proponiamo un metodo per ridurre il rischio di author profiling attraverso la back-translation multilinguale utilizzando modelli di traduzione off-the-shelf.
- CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code Understanding and Generation
- Yue Wang, Weishi Wang, Shafiq Joty, Steven C.H. Hoi
- TLDR: Proponiamo un nuovo task di pre-training per la generazione di programmi NL e NL.
- Detect and Classify – Joint Span Detection and Classification for Health Outcomes
- Micheal Abaho, Danushka Bollegala, Paula Williamson, Susanna Dodd
- TLDR: Proponiamo un metodo per rilevare i risultati sanitari sanitari da un testo utilizzando informazioni di testo e informazioni di testo per la detection e la classificazione degli outcome.
- Multi-Class Grammatical Error Detection for Correction: A Tale of Two Systems
- Zheng Yuan, Shiva Taslimipoor, Christopher Davis, Christopher Bryant
- TLDR: Proponiamo un sistema di rilevamento grammatical errore multi-classe basato su ELECTRA e GED per migliorare la correzione del linguaggio parlato.
- Towards Zero-shot Commonsense Reasoning with Self-supervised Refinement of Language Models
- Tassilo Klein, Moin Nabi
- TLDR: Proponiamo un nuovo approccio di apprendimento self-supervised per migliorare il modello di apprendimento per commonsense reasoning.
- To Share or not to Share: Predicting Sets of Sources for Model Transfer Learning
- Lukas Lange, Jannik Strötgen, Heike Adel, Dietrich Klakow
- TLDR: Proponiamo un metodo per sfruttare il transfer del modello per prevedere le source di transfer.
- Self-Supervised Detection of Contextual Synonyms in a Multi-Class Setting: Phenotype Annotation Use Case
- Jingqing Zhang, Luis Bolanos Trujillo, Tong Li, Ashwani Tanwar, Guilherme Freire, Xian Yang, Julia Ive, Vibhor Gupta, Yike Guo
- TLDR: Proponiamo un metodo di pre-training self-supervised per rilevare synonymi contestuali di concept.
- ClauseRec: A Clause Recommendation Framework for AI-aided Contract Authoring
- Vinay Aggarwal, Aparna Garimella, Balaji Vasan Srinivasan, Anandhavelu N, Rajiv Jain
- TLDR: Proponiamo un metodo per stimare la relevance delle clause per diversi tipi di contratti.
- Finnish Dialect Identification: The Effect of Audio and Text
- Mika Hämäläinen, Khalid Alnajjar, Niko Partanen, Jack Rueter
- TLDR: Proponiamo un metodo per rilevare automaticamente il linguaggio di uno speaker basato su transcription e transcription e audio recording in dataset di 23 diversi linguaggi.
- English Machine Reading Comprehension Datasets: A Survey
- Daria Dzendzik, Jennifer Foster, Carl Vogel
- TLDR: Proponiamo di confrontare i dataset di comprensione dell’apprendimento automatico con la loro dimensione, il metodo di creazione, il metodo di creazione, il primo parola del primo testo.
- Expanding End-to-End Question Answering on Differentiable Knowledge Graphs with Intersection
- Priyanka Sen, Armin Oliya, Amir Saffari
- TLDR: Proponiamo un modello che può rispondere a domande multiple utilizzando knowledge graph differentiabili end-to-end.
- Structured Context and High-Coverage Grammar for Conversational Question Answering over Knowledge Graphs
- Pierre Marion, Pawel Nowak, Francesco Piccinno
- TLDR: Proponiamo un nuovo metodo per rispondere alle domande conversazionali weakly-supervised su Knowledge Graph utilizzando un modello di parsing neurale basato sulla struttura strutturata per trasformare la struttura strutturata come input per incorporare contesti conversazionali.
- Improving Question Answering Model Robustness with Synthetic Adversarial Data Generation
- Max Bartolo, Tristan Thrush, Robin Jia, Sebastian Riedel, Pontus Stenetorp, Douwe Kiela
- TLDR: Proponiamo un nuovo metodo di adversarial data generation sintetico per migliorare la robustezza dei modelli di risposta a domande sintetiche.
- BeliefBank: Adding Memory to a Pre-Trained Language Model for a Systematic Notion of Belief
- Nora Kassner, Oyvind Tafjord, Hinrich Schütze, Peter Clark
- TLDR: Proponiamo un framework per migliorare la consistenza delle credenze nel sistema generale.
- MLEC-QA: A Chinese Multi-Choice Biomedical Question Answering Dataset
- Jing Li, Shangping Zhong, Kaizhi Chen
- TLDR: Proponiamo MLEC-QA, il dataset di QA biomedico multi-choice su scala di domande e risposte, che raccoglie 136,236 domande biomediche multi-choice annotate da esperti.
- IndoNLG: Benchmark and Resources for Evaluating Indonesian Natural Language Generation
- Samuel Cahyawijaya, Genta Indra Winata, Bryan Wilie, Karissa Vincentio, Xiaohong Li, Adhiguna Kuncoro, Sebastian Ruder, Zhi Yuan Lim, Syafri Bahar, Masayu Khodra, Ayu Purwarianti, Pascale Fung
- TLDR: Proponiamo IndoNLG, un benchmark per la generazione di lingue naturali in tre lingue low-resource, Javanese e Sundanese.
- Is Multi-Hop Reasoning Really Explainable? Towards Benchmarking Reasoning Interpretability
- Xin Lv, Yixin Cao, Lei Hou, Juanzi Li, Zhiyuan Liu, Yichi Zhang, Zelin Dai
- TLDR: Proponiamo un benchmark per valutare la capacità di ragionamento multi-hop basato sulla regola per la valutazione della qualità della comprensione.
- Global Explainability of BERT-Based Evaluation Metrics by Disentangling along Linguistic Factors
- Marvin Kaster, Wei Zhao, Steffen Eger
- TLDR: Proponiamo diverse metriche di valutazione per la qualità del testo, e mostriamo che tutte le metriche di valutazione sono sensibili allo sloop della sintassi e alla morfologia.
- Exploring Underexplored Limitations of Cross-Domain Text-to-SQL Generalization
- Yujian Gan, Xinyun Chen, Matthew Purver
- TLDR: Proponiamo Spider-DK, un dataset di apprendimento per la traduzione text-to-SQL basato su Spider per la conoscenza del dominio.
- What happens if you treat ordinal ratings as interval data? Human evaluations in NLP are even more under-powered than you think
- David M. Howcroft, Verena Rieser
- TLDR: Proponiamo un modello di mixed effects per valutare la potenza statistica dei modelli di apprendimento automatico.
- NeuTral Rewriter: A Rule-Based and Neural Approach to Automatic Rewriting into Gender Neutral Alternatives
- Eva Vanmassenhove, Chris Emmery, Dimitar Shterionov
- TLDR: Proponiamo un approccio basato su regole per rewriting di testi di origine e di origine e dimostriamo che il nostro Rewriter neurale, addestrato su dati generati da un approccio basato sulla rule, raggiunge prestazioni di rewriting su testi di origine e di origine.
- Benchmarking Commonsense Knowledge Base Population with an Effective Evaluation Dataset
- Tianqing Fang, Weiqi Wang, Sehyun Choi, Shibo Hao, Hongming Zhang, Yangqiu Song, Bin He
- TLDR: Proponiamo una popolazione di probabilità basata sulla teoria del ragionamento comune per risolvere il problema della generalizzazione del ragionamento commonsense su asserzioni non viste.
- Enhancing the Context Representation in Similarity-based Word Sense Disambiguation
- Ming Wang, Jianzhang Zhang, Yinglin Wang
- TLDR: Proponiamo un metodo per imparare il contesto per la disambiguazione di un termine ambiguo.
- Data Augmentation with Hierarchical SQL-to-Question Generation for Cross-domain Text-to-SQL Parsing
- Kun Wu, Lijie Wang, Zhenghua Li, Ao Zhang, Xinyan Xiao, Hua Wu, Min Zhang, Haifeng Wang
- TLDR: Proponiamo un modello di generazione di domande di testo-SQL gerarchico per parsing text-to-SQL.
- SPARQLing Database Queries from Intermediate Question Decompositions
- Irina Saparina, Anton Osokin
- TLDR: Proponiamo un modello di parsing neurale per convertire le domande del linguaggio naturale in query.
- Time-aware Graph Neural Network for Entity Alignment between Temporal Knowledge Graphs
- Chengjin Xu, Fenglong Su, Jens Lehmann
- TLDR: Proponiamo un nuovo approccio di alignment delle entità per la modellazione di knowledge graph.
- Cross-Domain Label-Adaptive Stance Detection
- Momchil Hardalov, Arnav Arora, Preslav Nakov, Isabelle Augenstein
- TLDR: Proponiamo un framework end-to-end unsupervised per la predizione di stance in-domain e out-of-domain.
- Text AutoAugment: Learning Compositional Augmentation Policy for Text Classification
- Shuhuai Ren, Jinchao Zhang, Lei Li, Xu Sun, Jie Zhou
- TLDR: Proponiamo un framework di apprendimento per data augmentation compositivamente e learnable per migliorare la generalizzazione dei modelli.
- Distilling Relation Embeddings from Pretrained Language Models
- Asahi Ushio, Jose Camacho-Collados, Steven Schockaert
- TLDR: Proponiamo di distillare le informazioni relazionali da un modello di apprendimento pre-trained.
- Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning
- Prasetya Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych
- TLDR: Proponiamo un metodo per finetuning few shot basato sul finetuning del modello di fine training per sentence pair classification.
- A Differentiable Relaxation of Graph Segmentation and Alignment for AMR Parsing
- Chunchuan Lyu, Shay B. Cohen, Ivan Titov
- TLDR: Proponiamo un metodo per addestrare parsatori di AMR end-to-end che sfrutta la segmentazione e l’apprendimento latente.
- Integrating Personalized PageRank into Neural Word Sense Disambiguation
- Ahmed El Sheikh, Michele Bevilacqua, Roberto Navigli
- TLDR: Proponiamo un metodo per sfruttare la struttura globale del grafi WordNet per migliorare la classificazione.
- Cross-lingual Sentence Embedding using Multi-Task Learning
- Koustava Goswami, Sourav Dutta, Haytham Assem, Theodorus Fransen, John P. McCrae
- TLDR: Proponiamo un nuovo metodo di sentence embedding multilingue per il training di encoder multilingue.
- NB-MLM: Efficient Domain Adaptation of Masked Language Models for Sentiment Analysis
- Nikolay Arefyev, Dmitrii Kharchev, Artem Shelmanov
- TLDR: Proponiamo un metodo per adattare le MLM più velocemente e efficientmente.
- Revisiting Self-training for Few-shot Learning of Language Model
- Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li
- TLDR: Proponiamo un modello di few shot learning basato sul self-training per language model fine-tuning.
- Bridging Perception, Memory, and Inference through Semantic Relations
- Johanna Björklund, Adam Dahlgren Lindström, Frank Drewes
- TLDR: Proponiamo un modello di apprendimento multi-task per la percezione e la memoria.
- Unimodal and Crossmodal Refinement Network for Multimodal Sequence Fusion
- Xiaobao Guo, Adams Kong, Huan Zhou, Xianfeng Wang, Min Wang
- TLDR: Proponiamo un’architettura di apprendimento multimodale per migliorare le rappresentazioni unimodali e crossmodali.
- YASO: A Targeted Sentiment Analysis Evaluation Dataset for Open-Domain Reviews
- Matan Orbach, Orith Toledo-Ronen, Artem Spector, Ranit Aharonov, Yoav Katz, Noam Slonim
- TLDR: Proponiamo un nuovo dataset di valutazione TSA di open-domain user reviews.
- An Empirical Study on Leveraging Position Embeddings for Target-oriented Opinion Words Extraction
- Samuel Mensah, Kai Sun, Nikolaos Aletras
- TLDR: Proponiamo un nuovo metodo di apprendimento di grafi basato su embedding di posizioni per la stima del livello di sentiment.
- Improving Multimodal Fusion with Hierarchical Mutual Information Maximization for Multimodal Sentiment Analysis
- Wei Han, Hui Chen, Soujanya Poria
- TLDR: Proponiamo InfoMax MultiModal (MMIM), un framework per la valutazione del sentiment multimodale basato sulla fusione multimodale.
- BERT4GCN: Using BERT Intermediate Layers to Augment GCN for Aspect-based Sentiment Classification
- Zeguan Xiao, Jiarun Wu, Qingliang Chen, Congjian Deng
- TLDR: Proponiamo BERT4GCN, un modello di apprendimento basato sulla convoluzione per la classificazione dei sentimenti.
- Does Social Pressure Drive Persuasion in Online Fora?
- Ayush Jain, Shashank Srivastava
- TLDR: Proponiamo un modello strutturato per catturare il sentiment della comunità locale nella conversazione e il suo effetto sulla strategia di persuasione.
- Aspect Sentiment Quad Prediction as Paraphrase Generation
- Wenxuan Zhang, Yang Deng, Xin Li, Yifei Yuan, Lidong Bing, Wai Lam
- TLDR: Proponiamo un nuovo task di analisi del sentiment basato sull’immagine per la predizione del sentiment.
- Cross-lingual Aspect-based Sentiment Analysis with Aspect Term Code-Switching
- Wenxuan Zhang, Ruidan He, Haiyun Peng, Lidong Bing, Wai Lam
- TLDR: Proponiamo un metodo di transfer unsupervised per risolvere il problema dell’absa basato sull’aspetto utilizzando informazioni di linguaggio.
- Towards Label-Agnostic Emotion Embeddings
- Sven Buechel, Luise Modersohn, Udo Hahn
- TLDR: Proponiamo un metodo per imparare una rappresentazione latente di emozioni indipendente da diversi tipi di label, lingue e modelli di modellazione.
- Collaborative Learning of Bidirectional Decoders for Unsupervised Text Style Transfer
- Yun Ma, Yangbin Chen, Xudong Mao, Qing Li
- TLDR: Proponiamo un metodo di apprendimento collaborativo per il transfer di stile del testo unsupervised utilizzando decodifici bidirectionali.
- Exploring Non-Autoregressive Text Style Transfer
- Yun Ma, Qing Li
- TLDR: Proponiamo un modello di decodifica non autoregressiva per il transfer di testo unsupervised.
- PASTE: A Tagging-Free Decoding Framework Using Pointer Networks for Aspect Sentiment Triplet Extraction
- Rajdeep Mukherjee, Tapas Nayak, Yash Butala, Sourangshu Bhattacharya, Pawan Goyal
- TLDR: Proponiamo un metodo per estrarre tripletti di opinione, che sfrutta la semantica per catturare la semantica e la semantica per catturare la semantica.
- Adaptive Proposal Generation Network for Temporal Sentence Localization in Videos
- Daizong Liu, Xiaoye Qu, Jianfeng Dong, Pan Zhou
- TLDR: Proponiamo una nuova architettura per la localizzazione temporale delle frasi in video.
- Progressively Guide to Attend: An Iterative Alignment Framework for Temporal Sentence Grounding
- Daizong Liu, Xiaoye Qu, Pan Zhou
- TLDR: Proponiamo un’architettura di apprendimento Iterative Alignment per task di grounding temporale.
- Language Models are Few-Shot Butlers
- Vincent Micheli, Francois Fleuret
- TLDR: Proponiamo un metodo per imparare da una piccola quantità di dimostrazioni di esperti e migliorare le prestazioni di apprendimento in ambienti di testo.
- Rˆ3Net:Relation-embedded Representation Reconstruction Network for Change Captioning
- Yunbin Tu, Liang Li, Chenggang Yan, Shengxiang Gao, Zhengtao Yu
- TLDR: Proponiamo una nuova architettura di rappresentazione embedding per distinguere il cambiamento reale da quello irrilevante.
- Looking for Confirmations: An Effective and Human-Like Visual Dialogue Strategy
- Alberto Testoni, Raffaella Bernardi
- TLDR: Proponiamo un modello di dialogo basato sul re-ranking di beam search per risolvere il problema di goal-oriented questions.
- A Unified Speaker Adaptation Approach for ASR
- Yingzhu Zhao, Chongjia Ni, Cheung-Chi Leung, Shafiq Joty, Eng Siong Chng, Bin Ma
- TLDR: Proponiamo un metodo di apprendimento unificato di feature adaptation e modello adaptation per migliorare le prestazioni di generalizzazione.
- Caption Enriched Samples for Improving Hateful Memes Detection
- Efrat Blaier, Itzik Malkiel, Lior Wolf
- TLDR: Proponiamo di utilizzare un’immagine captioning off-the-shelf per catturare il primo.
- Sparsity and Sentence Structure in Encoder-Decoder Attention of Summarization Systems
- Potsawee Manakul, Mark Gales
- TLDR: Proponiamo un nuovo encoder-decoder per la summarization.
- BARThez: a Skilled Pretrained French Sequence-to-Sequence Model
- Moussa Kamal Eddine, Antoine Tixier, Michalis Vazirgiannis
- TLDR: Proponiamo un modello di transfer learning induttivo pretrained seq2seq per la traduzione in linguaggio naturale.
- ARMAN: Pre-training with Semantically Selecting and Reordering of Sentences for Persian Abstractive Summarization
- Alireza Salemi, Emad Kebriaei, Ghazal Neisi Minaei, Azadeh Shakery
- TLDR: Proponiamo un modello di summarization text-to-speech basato su Transformer per la sintesi di testo abstractivo.
- Models and Datasets for Cross-Lingual Summarisation
- Laura Perez-Beltrachini, Mirella Lapata
- TLDR: Proponiamo un corpus di summarisation multilingue con documenti lunghi in un dato linguaggio e un target di linguaggi.
- Learning Opinion Summarizers by Selecting Informative Reviews
- Arthur Bražinskas, Mirella Lapata, Ivan Titov
- TLDR: Proponiamo di imparare a selezionare sottosegni di valutazione informative e a sintetizzare le loro informazioni.
- Enriching and Controlling Global Semantics for Text Summarization
- Thong Nguyen, Anh Tuan Luu, Truc Lu, Tho Quan
- TLDR: Proponiamo un topic model neurale empowered con normalizing flow per catturare la semantica globale del documento, che è integrato nel modello di sintesi del testo.
- Revisiting Tri-training of Dependency Parsers
- Joachim Wagner, Jennifer Foster
- TLDR: Proponiamo un metodo di apprendimento semi-supervisionato che combina il training tri-training e i pretrained word embedding.
- Bridge to Target Domain by Prototypical Contrastive Learning and Label Confusion: Re-explore Zero-Shot Learning for Slot Filling
- Liwen Wang, Xuefeng Li, Jiachi Liu, Keqing He, Yuanmeng Yan, Weiran Xu
- TLDR: Proponiamo un nuovo approccio basato sul contrastive learning per cross-domain filling dello spazio di gioco zero-shot.
- Neuralizing Regular Expressions for Slot Filling
- Chengyue Jiang, Zijian Jin, Kewei Tu
- TLDR: Proponiamo un modello neurale ricorrente neurale per il filling dei posti di blocchi.
- Causal Direction of Data Collection Matters: Implications of Causal and Anticausal Learning for NLP
- Zhijing Jin, Julius von Kügelgen, Jingwei Ni, Tejas Vaidhya, Ayush Kaushal, Mrinmaya Sachan, Bernhard Schoelkopf
- TLDR: Proponiamo un metodo per misurare la validità ICM per la generazione di dati di testo utilizzando minimo description length.
- Raise a Child in Large Language Model: Towards Effective and Generalizable Fine-tuning
- Runxin Xu, Fuli Luo, Zhiyuan Zhang, Chuanqi Tan, Baobao Chang, Songfang Huang, Fei Huang
- TLDR: Proponiamo un metodo di fine-tuning semplice e efficace per migliorare le prestazioni di generalizzazione dei modelli pretrained.
- Knowledge Graph Representation Learning using Ordinary Differential Equations
- Mojtaba Nayyeri, Chengjin Xu, Franca Hoffmann, Mirza Mohtashim Alam, Jens Lehmann, Sahar Vahdati
- TLDR: Proponiamo un modello di embedding di knowledge graph che può rappresentare le relazioni tra le manifold e le manifolde di manifold.
- KnowMAN: Weakly Supervised Multinomial Adversarial Networks
- Luisa März, Ehsaneddin Asgari, Fabienne Braune, Franziska Zimmermann, Benjamin Roth
- TLDR: Proponiamo un adversarial framework per imparare rappresentazioni invarianti ai segnali di input e di output.
- ONION: A Simple and Effective Defense Against Textual Backdoor Attacks
- Fanchao Qi, Yangyi Chen, Mukai Li, Yuan Yao, Zhiyuan Liu, Maosong Sun
- TLDR: Proponiamo un metodo di difesa textuale per affrontare gli attacchi backdoor.
- Value-aware Approximate Attention
- Ankit Gupta, Jonathan Berant
- TLDR: Proponiamo un obiettivo di attention che è in grado di approssimare il true output del sottolayer di attention, e mostriamo che la qualità degli approssimativi sparsi può essere significativamente influenzata dalla quantità di stima dei valori.
- Contrastive Domain Adaptation for Question Answering using Limited Text Corpora
- Zhenrui Yue, Bernhard Kratzwald, Stefan Feuerriegel
- TLDR: Proponiamo un nuovo approccio per adattare il dominio per question answering.
- Case-based Reasoning for Natural Language Queries over Knowledge Bases
- Rajarshi Das, Manzil Zaheer, Dung Thai, Ameya Godbole, Ethan Perez, Jay Yoon Lee, Lizhen Tan, Lazaros Polymenakos, Andrew McCallum
- TLDR: Proponiamo un approccio neuro-symbolico per question answering su knowledge base grandi.
- Distantly-Supervised Dense Retrieval Enables Open-Domain Question Answering without Evidence Annotation
- Chen Zhao, Chenyan Xiong, Jordan Boyd-Graber, Hal Daumé III
- TLDR: Proponiamo un nuovo approccio per question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering question answering.
- What’s in a Name? Answer Equivalence For Open-Domain Question Answering
- Chenglei Si, Chen Zhao, Jordan Boyd-Graber
- TLDR: Proponiamo un metodo per addestrare le risposte di alias e dimostriamo che le risposte di alias sono validi.
- Evaluation Paradigms in Question Answering
- Pedro Rodriguez, Jordan Boyd-Graber
- TLDR: Un’analisi epistemica del question answering e del suo ruolo nel processo di ricerca di QA.
- Numerical reasoning in machine reading comprehension tasks: are we there yet?
- Hadeel Al-Negheimish, Pranava Madhyastha, Alessandra Russo
- TLDR: Proponiamo un controllo controllato su alcune architetture di modelli di ragionamento numerico top-performer per risolvere il task di reading comprehension basato sul ragionamento numerico.
- Set Generation Networks for End-to-End Knowledge Base Population
- Dianbo Sui, Chenhao Wang, Yubo Chen, Kang Liu, Jun Zhao, Wei Bi
- TLDR: Proponiamo un problema di generazione di set per risolvere il task di knowledge base population end-to-end.
- Knowing False Negatives: An Adversarial Training Method for Distantly Supervised Relation Extraction
- Kailong Hao, Botao Yu, Wei Hu
- TLDR: Proponiamo un metodo di ricerca di informazioni per addestrare le informazioni di training di pseudo label.
- Progressive Adversarial Learning for Bootstrapping: A Case Study on Entity Set Expansion
- Lingyong Yan, Xianpei Han, Le Sun
- TLDR: Proponiamo un metodo di adversarial learning per bootstrapping che modella il processo di bootstrapping e il processo di apprendimento GAN in un framework GAN.
- Uncovering Main Causalities for Long-tailed Information Extraction
- Guoshun Nan, Jiaqi Zeng, Rui Qiao, Zhijiang Guo, Wei Lu
- TLDR: Proponiamo un nuovo framework per l’apprendimento di modelli causali strutturati per l’informazione extra-scolastica.
- Maximal Clique Based Non-Autoregressive Open Information Extraction
- Bowen Yu, Yucheng Wang, Tingwen Liu, Hongsong Zhu, Limin Sun, Bin Wang
- TLDR: Proponiamo un nuovo framework per l’Information Extraction non autoregressivo che può essere riprogettato per produrre un graph di fatto basato sul graph per la ricerca di informazioni testuali.
- A Relation-Oriented Clustering Method for Open Relation Extraction
- Jun Zhao, Tao Gui, Qi Zhang, Yaqian Zhou
- TLDR: Proponiamo un modello di clustering basato sul cluster per la scoperta di relazioni relazionali.
- Exploring Methods for Generating Feedback Comments for Writing Learning
- Kazuaki Hanawa, Ryo Nagata, Kentaro Inui
- TLDR: Proponiamo un metodo per generare feedback di input per la generazione di note di apprendimento.
- A Role-Selected Sharing Network for Joint Machine-Human Chatting Handoff and Service Satisfaction Analysis
- Jiawei Liu, Kaisong Song, Yangyang Kang, Guoxiu He, Zhuoren Jiang, Changlong Sun, Wei Lu, Xiaozhong Liu
- TLDR: Proponiamo un modello di apprendimento multi-task per chatbot.
- Meta Distant Transfer Learning for Pre-trained Language Models
- Chengyu Wang, Haojie Pan, Minghui Qiu, Jun Huang, Fei Yang, Yin Zhang
- TLDR: Proponiamo Meta-DTL per imparare la conoscenza transferable per metodi di meta transfer basati su modelli di apprendimento multi-task.
- UniKER: A Unified Framework for Combining Embedding and Definite Horn Rule Reasoning for Knowledge Graph Inference
- Kewei Cheng, Ziqing Yang, Ming Zhang, Yizhou Sun
- TLDR: Proponiamo un nuovo framework UniKER per risolvere il problema della knowledge graph inference utilizzando regole logiche e regole logiche.
- Wasserstein Selective Transfer Learning for Cross-domain Text Mining
- Lingyun Feng, Minghui Qiu, Yaliang Li, Haitao Zheng, Ying Shen
- TLDR: Proponiamo un metodo di transfer learning basato sul gradiente per selezionare i dati di transfer per il transfer learning.
- Jointly Learning to Repair Code and Generate Commit Message
- Jiaqi Bai, Long Zhou, Ambrosio Blanco, Shujie Liu, Furu Wei, Ming Zhou, Zhoujun Li
- TLDR: Proponiamo un nuovo task di riparazione dei programmi e generazione di messaggi di commit.
- Inflate and Shrink:Enriching and Reducing Interactions for Fast Text-Image Retrieval
- Haoliang Liu, Tan Yu, Ping Li
- TLDR: Proponiamo un approccio di inflating e shrinking per migliorare la precisione e la precisione dei metodi di retrieval a breve termine.
- On Pursuit of Designing Multi-modal Transformer for Video Grounding
- Meng Cao, Long Chen, Mike Zheng Shou, Can Zhang, Yuexian Zou
- TLDR: Proponiamo un modello di grounding video end-to-end multi-modale per la predizione del grounding video.
- COVR: A Test-Bed for Visually Grounded Compositional Generalization with Real Images
- Ben Bogin, Shivanshu Gupta, Matt Gardner, Jonathan Berant
- TLDR: Proponiamo un nuovo test-bed per la generalizzazione compositiva con immagini reali annotate con scene graph.
- Vision-and-Language or Vision-for-Language? On Cross-Modal Influence in Multimodal Transformers
- Stella Frank, Emanuele Bugliarello, Desmond Elliott
- TLDR: Proponiamo un metodo di diagnostico basato sulla cross-modal input ablation per valutare la capacità di modellazione di rappresentazioni multimodali.
- HypMix: Hyperbolic Interpolative Data Augmentation
- Ramit Sawhney, Megh Thakkar, Shivam Agarwal, Di Jin, Diyi Yang, Lucie Flek
- TLDR: Proponiamo un nuovo metodo di augmentation dei dati basato sulla regolarizzazione degli input per la data augmentation.
- Integrating Deep Event-Level and Script-Level Information for Script Event Prediction
- Long Bai, Saiping Guan, Jiafeng Guo, Zixuan Li, Xiaolong Jin, Xueqi Cheng
- TLDR: Proponiamo un modello di predizione degli eventi basato sul trasformatore per l’apprendimento di eventi strutturati.
- QA-Align: Representing Cross-Text Content Overlap by Aligning Question-Answer Propositions
- Daniela Brook Weiss, Paul Roit, Ayal Klein, Ori Ernst, Ido Dagan
- TLDR: Proponiamo di modellare il sovrapposto di informazioni tra i documenti per ottenere un’ampia applicazione multi-text.
- PICARD: Parsing Incrementally for Constrained Auto-Regressive Decoding from Language Models
- Torsten Scholak, Nathan Schucher, Dzmitry Bahdanau
- TLDR: Proponiamo un metodo per constraining auto-regressive decoder di modelli di testo attraverso parsing incrementale.
- Exploiting Twitter as Source of Large Corpora of Weakly Similar Pairs for Semantic Sentence Embeddings
- Marco Di Giovanni, Marco Brambilla
- TLDR: Proponiamo un metodo per costruire grandi dataset di testo e parole simili, sfruttando i segnali di collegamento di Twitter e la sua potenza di apprendimento.
- Guilt by Association: Emotion Intensities in Lexical Representations
- Shahab Raji, Gerard de Melo
- TLDR: Proponiamo un metodo di self-supervision per stimare la traiettoria di intensità delle emozioni per le parole.
- Using Sociolinguistic Variables to Reveal Changing Attitudes Towards Sexuality and Gender
- Sky CH-Wang, David Jurgens
- TLDR: Proponiamo un metodo computazionale per studiare la scelta di parole nella variabile di apprendimento sociolinguistico nella popolazione degli Usa.
- Identifying Morality Frames in Political Tweets using Relational Learning
- Shamik Roy, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: Proponiamo un modello di relational learning per rappresentare le fondamenta del sentimento umano verso le entità.
- Measuring Sentence-Level and Aspect-Level (Un)certainty in Science Communications
- Jiaxin Pei, David Jurgens
- TLDR: Proponiamo un nuovo studio di probabilità che modella sia il livello di certezza e il livello di apprendimento nelle analisi di ricerca scientifica.
- Assessing the Reliability of Word Embedding Gender Bias Measures
- Yupei Du, Qixiang Fang, Dong Nguyen
- TLDR: Proponiamo di valutare la qualità della misura di bias di embedding dei testi per word embedding gender bias.
- Rumor Detection on Twitter with Claim-Guided Hierarchical Graph Attention Networks
- Hongzhan Lin, Jing Ma, Mingfei Cheng, Zhiwei Yang, Liangliang Chen, Guang Chen
- TLDR: Proponiamo un metodo di rumor detection per Twitter che sfrutta la struttura di conversazione per generare informazioni di rappresentazione per la classificazione rumorosa.
- Learning Bill Similarity with Annotated and Augmented Corpora of Bills
- Jiseon Kim, Elden Griggs, In Song Kim, Alice Oh
- TLDR: Proponiamo un task di classificazione della rappresentazione del documento per il documento di testo e il documento di testo.
- SWEAT: Scoring Polarization of Topics across Different Corpora
- Federico Bianchi, Marco Marelli, Paolo Nicoli, Matteo Palmonari
- TLDR: Proponiamo SWEAT, un nuovo metodo statistico per competere la polarizzazione di un topical word e l’apprendimento di modelli di word embedding.
- “So You Think You’re Funny?”: Rating the Humour Quotient in Standup Comedy
- Anirudh Mittal, Pranav Jeevan P, Prerak Gandhi, Diptesh Kanojia, Pushpak Bhattacharyya
- TLDR: Proponiamo un nuovo metodo per misurare la quantità di humour in un dataset multimodale annotato utilizzando la riproduzione di stand-up comedy.
- “Was it “stated” or was it “claimed”?: How linguistic bias affects generative language models
- Roma Patel, Ellie Pavlick
- TLDR: Un metodo per dire la stessa cosa
- PAUSE: Positive and Annealed Unlabeled Sentence Embedding
- Lele Cao, Emil Larsson, Vilhelm von Ehrenheim, Dhiana Deva Cavalcanti Rocha, Anna Martin, Sonja Horn
- TLDR: Proponiamo un metodo per imparare sentence embedding da un dataset di particella non annotato.
- A Simple Geometric Method for Cross-Lingual Linguistic Transformations with Pre-trained Autoencoders
- Maarten De Raedt, Fréderic Godin, Pieter Buteneers, Chris Develder, Thomas Demeester
- TLDR: Proponiamo un metodo per trasformare le proprietà linguistiche in rappresentazioni vettoriali.
- An Information-Theoretic Characterization of Morphological Fusion
- Neil Rathi, Michael Hahn, Richard Futrell
- TLDR: Proponiamo un’analisi teorica per misurare la fusione morfologica dei sistemi linguistici non concatenati.
- The Effect of Efficient Messaging and Input Variability on Neural-Agent Iterated Language Learning
- Yuchen Lian, Arianna Bisazza, Tessa Verhoef
- TLDR: Proponiamo un’analisi di apprendimento neurale con agenti di apprendimento neurale per valutare il trade-off tra strategie di apprendimento e strategie di apprendimento.
- On Classifying whether Two Texts are on the Same Side of an Argument
- Erik Körner, Gregor Wiedemann, Ahmad Dawar Hakimi, Gerhard Heyer, Martin Potthast
- TLDR: Proponiamo un modello di classificazione delle posizioni di fronte e di contro per risolvere il problema di classificazione delle posizioni di fronte e di contro.
- Chinese Opinion Role Labeling with Corpus Translation: A Pivot Study
- Ranran Zhen, Rui Wang, Guohong Fu, Chengguo Lv, Meishan Zhang
- TLDR: Proponiamo un metodo di apprendimento multilingue per la valutazione di modelli di azione e dimostriamo che le informazioni di input possono essere utilizzate per migliorare la qualità di apprendimento multilingue.
- MassiveSumm: a very large-scale, very multilingual, news summarisation dataset
- Daniel Varab, Natalie Schluter
- TLDR: Proponiamo un dataset di summarisation multilingue per task di NLP.
- AUTOSUMM: Automatic Model Creation for Text Summarization
- Sharmila Reddy Nangi, Atharv Tyagi, Jay Mundra, Sagnik Mukherjee, Raj Snehal, Niyati Chhaya, Aparna Garimella
- TLDR: Proponiamo un metodo per creare modelli di deep learning per task di sintesi del testo e dimostriamo che le tecniche di ricerca neurale e distillation possono essere utilizzate per sviluppare modelli più piccoli, personalizzati per qualsiasi dato dato dato dato.
- Investigating the Helpfulness of Word-Level Quality Estimation for Post-Editing Machine Translation Output
- Raksha Shenoy, Nico Herbig, Antonio Krüger, Josef van Genabith
- TLDR: Proponiamo un nuovo metodo per stimare la qualità del testo a livello di parola per la traduzione post-elaborazione.
- UNKs Everywhere: Adapting Multilingual Language Models to New Scripts
- Jonas Pfeiffer, Ivan Vulić, Iryna Gurevych, Sebastian Ruder
- TLDR: Proponiamo un nuovo metodo per adattare i modelli multilingue pretrained multi-task a languages sotto-resource e a script non visti durante il pretraining.
- Neural Machine Translation Quality and Post-Editing Performance
- Vilém Zouhar, Martin Popel, Ondřej Bojar, Aleš Tamchyna
- TLDR: Proponiamo un nuovo metodo per migliorare le prestazioni di post-editing e la qualità della traduzione.
- XTREME-R: Towards More Challenging and Nuanced Multilingual Evaluation
- Sebastian Ruder, Noah Constant, Jan Botha, Aditya Siddhant, Orhan Firat, Jinlan Fu, Pengfei Liu, Junjie Hu, Dan Garrette, Graham Neubig, Melvin Johnson
- TLDR: Proponiamo un nuovo approccio di transfer learning multilingue per risolvere il problema del transfer learning multilingue.
- Contrastive Conditioning for Assessing Disambiguation in MT: A Case Study of Distilled Bias
- Jannis Vamvas, Rico Sennrich
- TLDR: Proponiamo il conditioning contrastivo per rilevare la disambiguazione di un modello di distillation di knowledge di sequenza.
- Measuring Association Between Labels and Free-Text Rationales
- Sarah Wiegreffe, Ana Marasović, Noah A. Smith
- TLDR: Proponiamo modelli di predizione e rationalization che combinano le proprietà di sicurezza e robustezza per spiegare la teoria del question-answering e natural language inference.
- Discretized Integrated Gradients for Explaining Language Models
- Soumya Sanyal, Xiang Ren
- TLDR: Proponiamo Discretized Integrated Gradient (DIG), un metodo di spiegazione basato sulla regolarizzazione per la stima del gradiente.
- Putting Words in BERT’s Mouth: Navigating Contextualized Vector Spaces with Pseudowords
- Taelin Karidi, Yichu Zhou, Nathan Schneider, Omri Abend, Vivek Srikumar
- TLDR: Proponiamo un metodo per esplorare le regioni di confine tra punti individuali nello spazio vector contestualeizzato, come un modo per studiare come queste regioni corrispondano ai segni di linguaggio.
- Rationales for Sequential Predictions
- Keyon Vafa, Yuntian Deng, David Blei, Alexander Rush
- TLDR: Proponiamo un metodo di rationalizzazione greedy per ottimizzare l’obiettivo di sequenza e la sua applicazione al language model e alla traduzione automatica.
- FastIF: Scalable Influence Functions for Efficient Model Interpretation and Debugging
- Han Guo, Nazneen Rajani, Peter Hase, Mohit Bansal, Caiming Xiong
- TLDR: Proponiamo un metodo per aumentare la velocità di esecuzione delle funzioni di influenza che migliora la precisione di interpretazione e correzione degli errori di modellazione.
- Studying word order through iterative shuffling
- Nikolay Malkin, Sameera Lanka, Pranav Goel, Nebojsa Jojic
- TLDR: Proponiamo un metodo di inferenza per iterare il modello di apprendimento neurale per la generazione di parole e frasi.
- Distantly-Supervised Named Entity Recognition with Noise-Robust Learning and Language Model Augmented Self-Training
- Yu Meng, Yunyi Zhang, Jiaxin Huang, Xuan Wang, Yu Zhang, Heng Ji, Jiawei Han
- TLDR: Proponiamo un metodo di self-training per addestrare modelli di riconoscimento delle entità named da solo dati distanti.
- Open Knowledge Graphs Canonicalization using Variational Autoencoders
- Sarthak Dash, Gaetano Rossiello, Nandana Mihindukulasooriya, Sugato Bagchi, Alfio Gliozzo
- TLDR: Proponiamo un modello di apprendimento di embedding e clustering per risolvere il problema della canonizzazione.
- HittER: Hierarchical Transformers for Knowledge Graph Embeddings
- Sanxing Chen, Xiaodong Liu, Jianfeng Gao, Jian Jiao, Ruofei Zhang, Yangfeng Ji
- TLDR: Proponiamo un modello di Transformer Hierarchico per imparare la composizione delle relazioni tra le entità e la loro contestualizzazioni relazionali.
- Few-Shot Named Entity Recognition: An Empirical Baseline Study
- Jiaxin Huang, Chunyuan Li, Krishan Subudhi, Damien Jose, Shobana Balakrishnan, Weizhu Chen, Baolin Peng, Jianfeng Gao, Jiawei Han
- TLDR: Proponiamo tre metodi di meta-learning per migliorare la generalizzazione nel few shot setting.
- XLEnt: Mining a Large Cross-lingual Entity Dataset with Lexical-Semantic-Phonetic Word Alignment
- Ahmed El-Kishky, Adithya Renduchintala, James Cross, Francisco Guzmán, Philipp Koehn
- TLDR: Proponiamo Lexical-Semantic-Phonetic Align (LSP-Align), un metodo per sfruttare la cross-lingualità per ottenere la traduzione multilingue.
- Utilizing Relative Event Time to Enhance Event-Event Temporal Relation Extraction
- Haoyang Wen, Heng Ji
- TLDR: Proponiamo un modello di classificazione temporale degli eventi e un auxiliary task, relative event time prediction, che predice il tempo di eventi come numeri reali.
- Separating Retention from Extraction in the Evaluation of End-to-end Relation Extraction
- Bruno Taillé, Vincent Guigue, Geoffrey Scoutheeten, Patrick Gallinari
- TLDR: Proponiamo un modello di RNN che può utilizzare rappresentazioni intermedie di tipo e di eventi per ridurre la quantità di retention.
- Automatic Text Evaluation through the Lens of Wasserstein Barycenters
- Pierre Colombo, Guillaume Staerman, Chloé Clavel, Pablo Piantanida
- TLDR: Un nuovo metodo per valutare la generazione di testo basati su embedding contextualizzati
- Visually Grounded Reasoning across Languages and Cultures
- Fangyu Liu, Emanuele Bugliarello, Edoardo Maria Ponti, Siva Reddy, Nigel Collier, Desmond Elliott
- TLDR: Proponiamo un nuovo metodo per costruire una gerarchia di immagini e concept multilingue basata sulla selezione di testi e parole da utilizzare per discriminare le proprietà grounded di ciascuna affermazione.
- Back to Square One: Artifact Detection, Training and Commonsense Disentanglement in the Winograd Schema
- Yanai Elazar, Hongming Zhang, Yoav Goldberg, Dan Roth
- TLDR: Proponiamo un metodo per valutare le capacità di ragionamento comune dei modelli di apprendimento automatico.
- Robustness Evaluation of Entity Disambiguation Using Prior Probes: the Case of Entity Overshadowing
- Vera Provatorova, Samarth Bhargav, Svitlana Vakulenko, Evangelos Kanoulas
- TLDR: Proponiamo un benchmark di valutazione per l’apprendimento di modelli di linking di entity.
- IndoNLI: A Natural Language Inference Dataset for Indonesian
- Rahmad Mahendra, Alham Fikri Aji, Samuel Louvan, Fahrurrozi Rahman, Clara Vania
- TLDR: Proponiamo IndoNLI, il primo dataset di NLP umano-elicited per Indonesian.
- Agreeing to Disagree: Annotating Offensive Language Datasets with Annotators’ Disagreement
- Elisa Leonardelli, Stefano Menini, Alessio Palmero Aprosio, Marco Guerini, Sara Tonelli
- TLDR: Proponiamo di addestrare un classificatore di linguaggi per addestrare un classificatore di linguaggi per addestrare un classificatore di linguaggi.
- A Root of a Problem: Optimizing Single-Root Dependency Parsing
- Miloš Stanojević, Shay B. Cohen
- TLDR: Proponiamo un metodo per parsing di dependency graphs singolo-root che raggiunge prestazioni allo stato dell’arte.
- Efficient Sampling of Dependency Structure
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: Proponiamo un nuovo metodo di sampling di tree spanning per la stima di tre grafi di input.
- Reducing Discontinuous to Continuous Parsing with Pointer Network Reordering
- Daniel Fernández-González, Carlos Gómez-Rodríguez
- TLDR: Proponiamo di ridurre il parsing discontinuo per risolvere il problema di parsing continuo utilizzando un metodo di pointer network.
- A New Representation for Span-based CCG Parsing
- Yoshihide Kato, Shigeki Matsubara
- TLDR: Proponiamo una rappresentazione per le derivate di calcolo crediti che violano la schemata di regolarizzazione della rule schemata.
- What to Pre-Train on? Efficient Intermediate Task Selection
- Clifton Poth, Jonas Pfeiffer, Andreas Rücklé, Iryna Gurevych
- TLDR: Proponiamo un confronto completo di diversi metodi per identificare i task di transfer learning ottimali per l’apprendimento intermedio.
- PermuteFormer: Efficient Relative Position Encoding for Long Sequences
- Peng Chen
- TLDR: Proponiamo PermuteFormer, un modello basato sul modello di Transformer che scala linearmente su sequenze di sequenze di video.
- Block Pruning For Faster Transformers
- François Lagunas, Ella Charlaix, Victor Sanh, Alexander Rush
- TLDR: Proponiamo un metodo di pruning strutturato per la predizione di modelli di grandi dimensioni e dimostriamo che questo migliora la precisione di predizione per la classificazione e la generazione.
- Finetuning Pretrained Transformers into RNNs
- Jungo Kasai, Hao Peng, Yizhe Zhang, Dani Yogatama, Gabriel Ilharco, Nikolaos Pappas, Yi Mao, Weizhu Chen, Noah A. Smith
- TLDR: Proponiamo un metodo per convertire un pretrained transformer in un efficiente recurrent alternativa lineare-complexity e poi finetuning.
- How to Train BERT with an Academic Budget
- Peter Izsak, Moshe Berchansky, Omer Levy
- TLDR: Proponiamo un metodo per pretraining un modello di masking in 24 ore utilizzando un singolo deep learning server.
- Beyond Preserved Accuracy: Evaluating Loyalty and Robustness of BERT Compression
- Canwen Xu, Wangchunshu Zhou, Tao Ge, Ke Xu, Julian McAuley, Furu Wei
- TLDR: Proponiamo un metodo per comprimere le informazioni di classe e la fiducia del modello di testo per migliorare la robustezza sotto gli attacchi adversarial.
- IndoBERTweet: A Pretrained Language Model for Indonesian Twitter with Effective Domain-Specific Vocabulary Initialization
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: Proponiamo IndoBERTweet, un modello pretrained per Twitter che è addestrato da un modello BERT monolinguale di Indonesia con un linguaggio specifico del dominio.
- Pushing on Text Readability Assessment: A Transformer Meets Handcrafted Linguistic Features
- Bruce W. Lee, Yoo Sung Jang, Jason Lee
- TLDR: Proponiamo un modello di apprendimento multi-task che combina le feature handcrafted con le feature di trasformazione tradizionali per migliorare le prestazioni di apprendimento.
- Types of Out-of-Distribution Texts and How to Detect Them
- Udit Arora, William Huang, He He
- TLDR: Proponiamo di definire il shift di distribuzione degli esempi OOD come un cambiamento di background o di semantica, e dimostriamo che entrambi hanno un comportamento di calibrazione e di stima della densità.
- Self-training with Few-shot Rationalization
- Meghana Moorthy Bhat, Alessandro Sordoni, Subhabrata Mukherjee
- TLDR: Proponiamo un metodo per addestrare language model pre-trained con label specifiche del task e ration per la comprensione del linguaggio naturale.
- MTAdam: Automatic Balancing of Multiple Training Loss Terms
- Itzik Malkiel, Lior Wolf
- TLDR: Proponiamo un metodo di ottimizzazione multi-term per gestire la combinazione di loss e il trade-off tra i termini di recupero e la loss.
- Softmax Tree: An Accurate, Fast Classifier When the Number of Classes Is Large
- Arman Zharmagambetov, Magzhan Gabidolla, Miguel A. Carreira-Perpinan
- TLDR: Proponiamo una softmax tree, una tree binaria con hyperplane sparso e softmax classifier, che è veloce di inferenza e più accurate nella predizione e nella elaborazione.
- Improving Distantly-Supervised Named Entity Recognition with Self-Collaborative Denoising Learning
- Xinghua Zhang, Bowen Yu, Tingwen Liu, Zhenyu Zhang, Jiawei Sheng, Xue Mengge, Hongbo Xu
- TLDR: Proponiamo un metodo di self-denoising collaborativo per risolvere il problema della riproduzione delle label.
- Multivalent Entailment Graphs for Question Answering
- Nick McKenna, Liane Guillou, Mohammad Javad Hosseini, Sander Bijl de Vroe, Mark Johnson, Mark Steedman
- TLDR: Proponiamo un approccio di apprendimento unsupervised di grafi di entailment per modellare l’enorme entità tra predicati di diverse valenze, come DEFEAT, WIN, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT, DEFEAT,
- Is Everything in Order? A Simple Way to Order Sentences
- Somnath Basu Roy Chowdhury, Faeze Brahman, Snigdha Chaturvedi
- TLDR: Proponiamo Reorder-BART (Re-BART) che sfrutta un modello di Transformer basato sul testo per generare un ordine coerente per un dato insieme di frasi shuffle.
- VeeAlign: Multifaceted Context Representation Using Dual Attention for Ontology Alignment
- Vivek Iyer, Arvind Agarwal, Harshit Kumar
- TLDR: Proponiamo VeeAlign, un modello di apprendimento basato sul dual-attention per l’apprendimento di embedding di modelli di apprendimento automatico.
- Finding needles in a haystack: Sampling Structurally-diverse Training Sets from Synthetic Data for Compositional Generalization
- Inbar Oren, Jonathan Herzig, Jonathan Berant
- TLDR: Proponiamo un metodo per generare un insieme di programmi sintetici per migliorare la generalizzazione composizionale nel parsing semantico.
- GeneSis: A Generative Approach to Substitutes in Context
- Caterina Lacerra, Rocco Tripodi, Roberto Navigli
- TLDR: Proponiamo GeneSis, un metodo generativo per la sostituzione di parole e frasi in contesti.
- Semi-Supervised Exaggeration Detection of Health Science Press Releases
- Dustin Wright, Isabelle Augenstein
- TLDR: Proponiamo un metodo per rilevare l’espressività nei documenti scientifici.
- Phrase-BERT: Improved Phrase Embeddings from BERT with an Application to Corpus Exploration
- Shufan Wang, Laure Thompson, Mohit Iyyer
- TLDR: Proponiamo un obiettivo di fine-tuning contrastivo per produrre embedding di frasi più efficaci.
- Detecting Contact-Induced Semantic Shifts: What Can Embedding-Based Methods Do in Practice?
- Filip Miletic, Anne Przewozny-Desriaux, Ludovic Tanguy
- TLDR: Proponiamo un nuovo set di test per rilevare cambiamenti semantici in termini di token-level e word embedding.