ACL 2022 in Italian
TLDRs
- Investigating label suggestions for opinion mining in German Covid-19 social media
- Tilman Beck, Ji-Ung Lee, Christina Viehmann, Marcus Maurer, Oliver Quiring, Iryna Gurevych
- TLDR: Proponiamo di utilizzare le suggestioni di annotazione interactive per migliorare la qualità degli annotatori di opinione sui dati di apprendimento di CoDVM.
- How Did This Get Funded?! Automatically Identifying Quirky Scientific Achievements
- Chen Shani, Nadav Borenstein, Dafna Shahaf
- TLDR: Proponiamo un nuovo setting per il Mining del Humor, che può imparare a rilevare articoli scientifici e sorprendenti.
- Engage the Public: Poll Question Generation for Social Media Posts
- Zexin Lu, Keyang Ding, Yuji Zhang, Jing Li, Baolin Peng, Lemao Liu
- TLDR: Proponiamo di generare domande di poll per i messaggi di testo e colloquio.
- HateCheck: Functional Tests for Hate Speech Detection Models
- Paul Röttger, Bertie Vidgen, Dong Nguyen, Zeerak Waseem, Helen Margetts, Janet Pierrehumbert
- TLDR: Proponiamo HateCheck, un insieme di test per la rilevazione del speech online e la valutazione dei modelli di rilevamento del speech online.
- Unified Dual-view Cognitive Model for Interpretable Claim Verification
- Lianwei Wu, Yuan Rao, Yuqian Lan, Ling Sun, Zhaoyin Qi
- TLDR: Proponiamo un modello di apprendimento multi-utente basato sulla visione di coerenza e cognizione per la verifica interpretabile del claim.
- DeepRapper: Neural Rap Generation with Rhyme and Rhythm Modeling
- Lanqing Xue, Kaitao Song, Duocai Wu, Xu Tan, Nevin L. Zhang, Tao Qin, Wei-Qiang Zhang, Tie-Yan Liu
- TLDR: Proponiamo un modello autoregressivo basato sul trasformatore per generare rap con le righe e le rhythm.
- PENS: A Dataset and Generic Framework for Personalized News Headline Generation
- Xiang Ao, Xiting Wang, Ling Luo, Ying Qiao, Qing He, Xing Xie
- TLDR: Proponiamo un framework per la generazione personalizzata di headline di uscita da articoli di uscita di News Feed per la generazione di articoli di uscita di News Feed.
- Enhancing Content Preservation in Text Style Transfer Using Reverse Attention and Conditional Layer Normalization
- Dongkyu Lee, Zhiliang Tian, Lanqing Xue, Nevin L. Zhang
- TLDR: Proponiamo di addestrare la rappresentazione dello stile in modo indipendente dal contenuto, e dimostriamo che questo migliora la qualità dello stile.
- Mention Flags (MF): Constraining Transformer-based Text Generators
- Yufei Wang, Ian Wood, Stephen Wan, Mark Dras, Mark Johnson
- TLDR: Proponiamo un modello di decodifica S2S con vincoli di testo per la generazione di token di testo consapevoli dei vincoli di testo.
- Generalising Multilingual Concept-to-Text NLG with Language Agnostic Delexicalisation
- Giulio Zhou, Gerasimos Lampouras
- TLDR: Proponiamo Language Agnostic Delexicalisation, un nuovo metodo di delorazione del linguaggio naturale per concept-to-text.
- Conversations Are Not Flat: Modeling the Dynamic Information Flow across Dialogue Utterances
- Zekang Li, Jinchao Zhang, Zhengcong Fei, Yang Feng, Jie Zhou
- TLDR: Proponiamo un nuovo metodo per generare dialoghi open-domain.
- Dual Slot Selector via Local Reliability Verification for Dialogue State Tracking
- Jinyu Guo, Kai Shuang, Jijie Li, Zihan Wang
- TLDR: Proponiamo un metodo di dialogue state tracking per risolvere il problema del dialogue state tracking.
- Transferable Dialogue Systems and User Simulators
- Bo-Hsiang Tseng, Yinpei Dai, Florian Kreyssig, Bill Byrne
- TLDR: Proponiamo un framework per addestrare dialogue systems che possono incorporare nuovi scenari di dialogo attraverso il self-play tra due agenti.
- BoB: BERT Over BERT for Training Persona-based Dialogue Models from Limited Personalized Data
- Haoyu Song, Yan Wang, Kaiyan Zhang, Wei-Nan Zhang, Ting Liu
- TLDR: Proponiamo un modello BERT-over-BERT per la generazione di dialogo basato sulla persona.
- GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple Intent Detection and Slot Filling
- Libo Qin, Fuxuan Wei, Tianbao Xie, Xiao Xu, Wanxiang Che, Ting Liu
- TLDR: Proponiamo un modello di interazione grafi globale multi-intent per il rilevamento e il riempimento dello spazio di intent, che raggiunge prestazioni allo stato dell’arte.
- Accelerating BERT Inference for Sequence Labeling via Early-Exit
- Xiaonan Li, Yunfan Shao, Tianxiang Sun, Hang Yan, Xipeng Qiu, Xuanjing Huang
- TLDR: Proponiamo un meccanismo di early-exit per sequenza labeling a livello di token e dimostriamo che può ridurre significativamente il costo di inferenza.
- Modularized Interaction Network for Named Entity Recognition
- Fei Li, Zheng Wang, Siu Cheung Hui, Lejian Liao, Dandan Song, Jing Xu, Guoxiu He, Meihuizi Jia
- TLDR: Proponiamo un modello di Named Entity Recognition basato sulla semantica per la rilevazione di entiti a livello di segmenti e word-level.
- Capturing Event Argument Interaction via A Bi-Directional Entity-Level Recurrent Decoder
- Xi Xiangyu, Wei Ye, Shikun Zhang, Quanxiu Wang, Huixing Jiang, Wei Wu
- TLDR: Proponiamo un metodo per addestrare gli eventi argument per la prima volta.
- UniRE: A Unified Label Space for Entity Relation Extraction
- Yijun Wang, Changzhi Sun, Yuanbin Wu, Hao Zhou, Lei Li, Junchi Yan
- TLDR: Proponiamo un modello di extrazione di relazioni tra entity relation e subtask per la ricerca di square e rectangle.
- Refining Sample Embeddings with Relation Prototypes to Enhance Continual Relation Extraction
- Li Cui, Deqing Yang, Jiaxin Yu, Chengwei Hu, Jiayang Cheng, Jingjie Yi, Yanghua Xiao
- TLDR: Proponiamo un modello di continual relation extraction che sfrutta le informazioni della memoria per imparare le relazioni tra le rappresentazioni.
- Contrastive Learning for Many-to-many Multilingual Neural Machine Translation
- Xiao Pan, Mingxuan Wang, Liwei Wu, Lei Li
- TLDR: Proponiamo un metodo per ottenere un modello di traduzione multilingue unificato.
- Understanding the Properties of Minimum Bayes Risk Decoding in Neural Machine Translation
- Mathias Müller, Rico Sennrich
- TLDR: Proponiamo di utilizzare il decoder minimo bayesiano per la traduzione neurale utilizzando decodifica minimizzata per la ricerca di beam.
- Multi-Head Highly Parallelized LSTM Decoder for Neural Machine Translation
- Hongfei Xu, Qiuhui Liu, Josef van Genabith, Deyi Xiong, Meng Zhang
- TLDR: Un modello di self-attention per la modellazione del contesto
- A Bidirectional Transformer Based Alignment Model for Unsupervised Word Alignment
- Jingyi Zhang, Josef van Genabith
- TLDR: Proponiamo un modello di apprendimento unsupervised di alignment di parole per la traduzione neurale e la traduzione automatica.
- Learning Language Specific Sub-network for Multilingual Machine Translation
- Zehui Lin, Liwei Wu, Mingxuan Wang, Lei Li
- TLDR: Proponiamo un metodo per imparare un singolo modello di traduzione multilingue unificato per più lingue.
- Exploring the Efficacy of Automatically Generated Counterfactuals for Sentiment Analysis
- Linyi Yang, Jiazheng Li, Padraig Cunningham, Yue Zhang, Barry Smyth, Ruihai Dong
- TLDR: Proponiamo un approccio per generare automaticamente dati falsi per il fine di spiegare i modelli NLP.
- Bridge-Based Active Domain Adaptation for Aspect Term Extraction
- Zhuang Chen, Tieyun Qian
- TLDR: Proponiamo un metodo di domain adaptation active che può trasferire la conoscenza tra domini.
- Multimodal Sentiment Detection Based on Multi-channel Graph Neural Networks
- Xiaocui Yang, Shi Feng, Yifei Zhang, Daling Wang
- TLDR: Proponiamo graph neural network multicanale con apprendimento multimodale per rilevare il sentiment multimodale.
- Aspect-Category-Opinion-Sentiment Quadruple Extraction with Implicit Aspects and Opinions
- Hongjie Cai, Rui Xia, Jianfei Yu
- TLDR: Proponiamo un nuovo task di elaborazione del sentiment basato sull’aspetto per la valutazione dello stile, chiamato ACOS, che contiene la rielaborazione di aspetti e opinione.
- PASS: Perturb-and-Select Summarizer for Product Reviews
- Nadav Oved, Ran Levy
- TLDR: Proponiamo un metodo per produrre sintesi sintetiche e informative di review e prodotti per la valutazione delle reviews.
- Deep Differential Amplifier for Extractive Summarization
- Ruipeng Jia, Yanan Cao, Fang Fang, Yuchen Zhou, Zheng Fang, Yanbing Liu, Shi Wang
- TLDR: Proponiamo un modello di summarization multi-documento che sfrutta la residual unit per deepen la struttura di apprendimento.
- Multi-TimeLine Summarization (MTLS): Improving Timeline Summarization by Generating Multiple Summaries
- Yi Yu, Adam Jatowt, Antoine Doucet, Kazunari Sugiyama, Masatoshi Yoshikawa
- TLDR: Proponiamo un nuovo task di summarization unsupervised multi-task basato sulla propagazione di affinità di due stadi per la summarization di testo e immagini.
- Self-Supervised Multimodal Opinion Summarization
- Jinbae Im, Moonki Kim, Hoyeop Lee, Hyunsouk Cho, Sehee Chung
- TLDR: Proponiamo un framework di summarization multimodale self-supervised multimodale chiamato MultimodalSum.
- A Training-free and Reference-free Summarization Evaluation Metric via Centrality-weighted Relevance and Self-referenced Redundancy
- Wang Chen, Piji Li, Irwin King
- TLDR: Proponiamo una misura di valutazione della summarizzazione che utilizza la centralità per fornire informazioni sulla valutazione.
- DESCGEN: A Distantly Supervised Datasetfor Generating Entity Descriptions
- Weijia Shi, Mandar Joshi, Luke Zettlemoyer
- TLDR: Proponiamo un task di summarization multi-documento per generare descrizioni di entity.
- Introducing Orthogonal Constraint in Structural Probes
- Tomasz Limisiewicz, David Mareček
- TLDR: Proponiamo un metodo di probing strutturale per risolvere la dipendenza sintattica e la sintassi nella predizione di modelli NLP.
- Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger
- Fanchao Qi, Mukai Li, Yangyi Chen, Zhengyan Zhang, Zhiyuan Liu, Yasheng Wang, Maosong Sun
- TLDR: Proponiamo di utilizzare la struttura della sintassi per utilizzare la struttura del trigger per attacchi backdoor.
- Examining the Inductive Bias of Neural Language Models with Artificial Languages
- Jennifer C. White, Ryan Cotterell
- TLDR: Proponiamo un metodo per studiare i bias di induttività dei modelli di linguaggio naturale utilizzando language model artificiali.
- Explaining Contextualization in Language Models using Visual Analytics
- Rita Sevastjanova, Aikaterini-Lida Kalouli, Christin Beck, Hanna Schäfer, Mennatallah El-Assady
- TLDR: Proponiamo un nuovo metodo di analisi visiva per misurare la contestualizzazione e la comprensione del linguaggio.
- Improving the Faithfulness of Attention-based Explanations with Task-specific Information for Text Classification
- George Chrysostomou, Nikolaos Aletras
- TLDR: Proponiamo una famiglia di meccanismo di Task-Scaling (TaSc) che imparano informazioni non contextuali per scalare i pesi di attention originali.
- Generating Landmark Navigation Instructions from Maps as a Graph-to-Text Problem
- Raphael Schumann, Stefan Riezler
- TLDR: Proponiamo un modello neurale per generare informazioni di navigazione da OpenStreetMap che utilizza rappresentazioni di OpenStreetMap come input e apprende a generare informazioni di navigazione da esse.
- E2E-VLP: End-to-End Vision-Language Pre-training Enhanced by Visual Learning
- Haiyang Xu, Ming Yan, Chenliang Li, Bin Bi, Songfang Huang, Wenming Xiao, Fei Huang
- TLDR: Proponiamo E2E-VLP, un modello di pre-training di linguaggi visivi end-to-end per V+L understanding e generazione, che combina la visione e la comprensione con un approccio di Transformer per migliorare il visual learning.
- Learning Relation Alignment for Calibrated Cross-modal Retrieval
- Shuhuai Ren, Junyang Lin, Guangxiang Zhao, Rui Men, An Yang, Jingren Zhou, Xu Sun, Hongxia Yang
- TLDR: Proponiamo un metodo di training regolarizzato per migliorare la qualità delle self-attention intra-modali e inter-modali e la stima della self-attention intra-modali.
- KM-BART: Knowledge Enhanced Multimodal BART for Visual Commonsense Generation
- Yiran Xing, Zai Shi, Zhao Meng, Gerhard Lakemeyer, Yunpu Ma, Roger Wattenhofer
- TLDR: Proponiamo un task di pretraining per migliorare le prestazioni del modello su VCG.
- Cascaded Head-colliding Attention
- Lin Zheng, Zhiyong Wu, Lingpeng Kong
- TLDR: Proponiamo un modello di multi-head attention per il natural language processing.
- Structural Knowledge Distillation: Tractably Distilling Information for Structured Predictor
- Xinyu Wang, Yong Jiang, Zhaohui Yan, Zixia Jia, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: Proponiamo di distillare la conoscenza tra le classi di modelli di sequenza e di dependency parsing per la predizione strutturata.
- Parameter-efficient Multi-task Fine-tuning for Transformers via Shared Hypernetworks
- Rabeeh Karimi Mahabadi, Sebastian Ruder, Mostafa Dehghani, James Henderson
- TLDR: Proponiamo un metodo di multi-task learning efficiente per imparare i parametri di apprendimento per tutti i layer e i task utilizzando le informazioni di condivisione tra i layer e le informazioni di input tra i layer.
- COSY: COunterfactual SYntax for Cross-Lingual Understanding
- Sicheng Yu, Hao Zhang, Yulei Niu, Qianru Sun, Jing Jiang
- TLDR: Proponiamo un metodo di training per addestrare language model multilingue per task di natural language inference e question answering.
- OoMMix: Out-of-manifold Regularization in Contextual Embedding Space for Text Classification
- Seonghyeon Lee, Dongha Lee, Hwanjo Yu
- TLDR: Proponiamo un nuovo approccio per trovare e regolarizzare il manifold, che può essere facilmente identificato come out-of-manifold.
- Understanding and Countering Stereotypes: A Computational Approach to the Stereotype Content Model
- Kathleen C. Fraser, Isar Nejadgholi, Svetlana Kiritchenko
- TLDR: Proponiamo un modello computazionale per interpretare i modelli di testo di stereotipo e dimostriamo che le dimensioni del testo possono essere rappresentate come le differenze di apprendimento.
- Structurizing Misinformation Stories via Rationalizing Fact-Checks
- Shan Jiang, Christo Wilson
- TLDR: Proponiamo di strutturare le storie di misinformazione utilizzando articoli di fact-check.
- Modeling Language Usage and Listener Engagement in Podcasts
- Sravana Reddy, Mariya Lazarova, Yongze Yu, Rosie Jones
- TLDR: Proponiamo un modello di apprendimento per la comunicazione audio-to-speech che combina lo stile linguistico con l’engagement.
- Breaking Down the Invisible Wall of Informal Fallacies in Online Discussions
- Saumya Sahai, Oana Balalau, Roxana Horincar
- TLDR: Proponiamo un nuovo dataset di fallimenti su Reddit, e usiamo la teoria del metodo di Dialectical Dialogue per rimuovere le falle.
- SocAoG: Incremental Graph Parsing for Social Relation Inference in Dialogues
- Liang Qiu, Yuan Liang, Yizhou Zhao, Pan Lu, Baolin Peng, Zhou Yu, Ying Nian Wu, Song-Chun Zhu
- TLDR: Proponiamo un algoritmo di struttura per la predizione della struttura della rete e la comunicazione
- TicketTalk: Toward human-level performance with end-to-end, transaction-based dialog systems
- Bill Byrne, Karthik Krishnamoorthi, Saravanan Ganesh, Mihir Kale
- TLDR: Proponiamo un approccio di training basato sulla datadriven, end-to-end, che migliora la qualità della risposta tra la risposta verbale e la grounding accuracy.
- Improving Dialog Systems for Negotiation with Personality Modeling
- Runzhe Yang, Jingxiao Chen, Karthik Narasimhan
- TLDR: Proponiamo un metodo per modellare e inferere le personalità degli avversari, e utilizzare questa informazioni per adattare la strategia di dialogo a livello di alto livello alla strategia di dialogo.
- Learning from Perturbations: Diverse and Informative Dialogue Generation with Inverse Adversarial Training
- Wangchunshu Zhou, Qifei Li, Chenle Li
- TLDR: Proponiamo un metodo di adversarial training inverso per migliorare la qualità della comunicazione neurale e la sua capacità di generare risposte diverse e coerentemente.
- Increasing Faithfulness in Knowledge-Grounded Dialogue with Controllable Features
- Hannah Rashkin, David Reitter, Gaurav Singh Tomar, Dipanjan Das
- TLDR: Proponiamo diverse misure di valutazione per dibattere la diversità di risposte di dialogo e rispondere alle domande.
- CitationIE: Leveraging the Citation Graph for Scientific Information Extraction
- Vijay Viswanathan, Graham Neubig, Pengfei Liu
- TLDR: Proponiamo un nuovo metodo per sfruttare la struttura e il contenuto del citation graph per ottenere informazioni di sintesi end-to-end da documenti di testo.
- From Discourse to Narrative: Knowledge Projection for Event Relation Extraction
- Jialong Tang, Hongyu Lin, Meng Liao, Yaojie Lu, Xianpei Han, Le Sun, Weijian Xie, Jin Xu
- TLDR: Proponiamo un nuovo metodo di knowledge projection per l’estratto di relazioni tra eventi.
- AdvPicker: Effectively Leveraging Unlabeled Data via Adversarial Discriminator for Cross-Lingual NER
- Weile Chen, Huiqiang Jiang, Qianhui Wu, Börje Karlsson, Yi Guan
- TLDR: Proponiamo un nuovo approccio di adversarial learning per imparare la conoscenza del dominio da dati di input di origine e di destinazione.
- Compare to The Knowledge: Graph Neural Fake News Detection with External Knowledge
- Linmei Hu, Tianchi Yang, Luhao Zhang, Wanjun Zhong, Duyu Tang, Chuan Shi, Nan Duan, Ming Zhou
- TLDR: Proponiamo un modello end-to-end neural network per rilevare le fake news.
- Discontinuous Named Entity Recognition as Maximal Clique Discovery
- Yucheng Wang, Bowen Yu, Hongsong Zhu, Tingwen Liu, Nan Yu, Limin Sun
- TLDR: Proponiamo un metodo per imparare NER discontinuo che combina le informazioni di segmentazione e le informazioni di grid.
- LNN-EL: A Neuro-Symbolic Approach to Short-text Entity Linking
- Hang Jiang, Sairam Gurajada, Qiuhao Lu, Sumit Neelam, Lucian Popa, Prithviraj Sen, Yunyao Li, Alexander Gray
- TLDR: Proponiamo un metodo per l’apprendimento di regole logiche interpretabili basate sulla logica del primo ordine.
- Do Context-Aware Translation Models Pay the Right Attention?
- Kayo Yin, Patrick Fernandes, Danish Pruthi, Aditi Chaudhary, André F. T. Martins, Graham Neubig
- TLDR: Proponiamo SCAT, un nuovo dataset di apprendimento per la disambiguazione di parole e frasi.
- Adapting High-resource NMT Models to Translate Low-resource Related Languages without Parallel Data
- Wei-Jen Ko, Ahmed El-Kishky, Adithya Renduchintala, Vishrav Chaudhary, Naman Goyal, Francisco Guzmán, Pascale Fung, Philipp Koehn, Mona Diab
- TLDR: Proponiamo un metodo per sfruttare i dati monolinguali per adattare il linguaggio low-resource a un linguaggio di origine e destinazione.
- Bilingual Lexicon Induction via Unsupervised Bitext Construction and Word Alignment
- Haoyue Shi, Luke Zettlemoyer, Sida I. Wang
- TLDR: Proponiamo un modello di lezione bilingue per il bitext mining e l’apprendimento unsupervised di le lezioni di parole e frasi.
- Multilingual Speech Translation from Efficient Finetuning of Pretrained Models
- Xian Li, Changhan Wang, Yun Tang, Chau Tran, Yuqing Tang, Juan Pino, Alexei Baevski, Alexis Conneau, Michael Auli
- TLDR: Proponiamo un metodo efficiente per costruire traduzioni multilingue speech-to-text attraverso efficient transfer learning da un pretrained speech encoder e decoder.
- Learning Faithful Representations of Causal Graphs
- Ananth Balashankar, Lakshminarayanan Subramanian
- TLDR: Proponiamo embedding contestuali di testo che catturano le proprietà geometriche basate sulla distanza dei grafi causali aciclici.
- What Context Features Can Transformer Language Models Use?
- Joe O’Connor, Jacob Andreas
- TLDR: Proponiamo un’analisi di trasformazione per valutare la qualità del contesto e la quantità di informazioni usabili.
- Integrated Directional Gradients: Feature Interaction Attribution for Neural NLP Models
- Sandipan Sikdar, Parantapa Bhattacharya, Kieran Heese
- TLDR: Proponiamo un metodo per addestrare le feature di gruppo e la stima degli score di importance per le feature di gruppo.
- DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations
- John Giorgi, Osvald Nitski, Bo Wang, Gary Bader
- TLDR: Proponiamo DeCLUTR: un obiettivo di apprendimento di sentence embedding universali che non richiede dati di training.
- XLPT-AMR: Cross-Lingual Pre-Training via Multi-Task Learning for Zero-Shot AMR Parsing and Text Generation
- Dongqin Xu, Junhui Li, Muhua Zhu, Min Zhang, Guodong Zhou
- TLDR: Proponiamo un nuovo approccio di pre-training multi-task per parsing e generazione di testo per AMR parsing e AMR generazione.
- Span-based Semantic Parsing for Compositional Generalization
- Jonathan Herzig, Jonathan Berant
- TLDR: Proponiamo un parser basato sul span per parsing semantico.
- Compositional Generalization and Natural Language Variation: Can a Semantic Parsing Approach Handle Both?
- Peter Shaw, Ming-Wei Chang, Panupong Pasupat, Kristina Toutanova
- TLDR: Proponiamo un nuovo approccio di parsing semantico per gestire la variazione naturale e la composizione nella generalizzazione semantica.
- A Targeted Assessment of Incremental Processing in Neural Language Models and Humans
- Ethan Wilcox, Pranali Vani, Roger Levy
- TLDR: Proponiamo un confronto targeted, scalabile e scalabile di processi incrementali in modelli neurali e contemporari e dimostriamo che le prestazioni di apprendimento dei modelli neurali sono in grado di affrontare le violazioni della sintassi.
- The Possible, the Plausible, and the Desirable: Event-Based Modality Detection for Language Processing
- Valentina Pyatkin, Shoval Sadde, Aynat Rubinstein, Paul Portner, Reut Tsarfaty
- TLDR: Proponiamo un task di rilevamento di rappresentazioni di eventi dinamici basato su eventi per la rilevazione di rappresentazioni di eventi dinamici.
- To POS Tag or Not to POS Tag: The Impact of POS Tags on Morphological Learning in Low-Resource Settings
- Sarah Moeller, Ling Liu, Mans Hulden
- TLDR: Proponiamo un’analisi empirica su due task di morphological task con Transformer.
- Prosodic segmentation for parsing spoken dialogue
- Elizabeth Nielsen, Mark Steedman, Sharon Goldwater
- TLDR: Proponiamo un modello di parsing che utilizza la funzione di turn per parsing la conversazione.
- VoxPopuli: A Large-Scale Multilingual Speech Corpus for Representation Learning, Semi-Supervised Learning and Interpretation
- Changhan Wang, Morgane Riviere, Ann Lee, Anne Wu, Chaitanya Talnikar, Daniel Haziza, Mary Williamson, Juan Pino, Emmanuel Dupoux
- TLDR: Proponiamo un corpus multilingue di dati di espressione vocale non annotati per l’apprendimento semi-supervisionato e la traduzione speech-to-text.
- Stereotyping Norwegian Salmon: An Inventory of Pitfalls in Fairness Benchmark Datasets
- Su Lin Blodgett, Gilsinia Lopez, Alexandra Olteanu, Robert Sim, Hanna Wallach
- TLDR: Proponiamo un nuovo metodo per modellare i benchmark per la predizione di modelli di predizione per la predizione di modelli di predizione per la predizione di modelli di predizione.
- Robust Knowledge Graph Completion with Stacked Convolutions and a Student Re-Ranking Network
- Justin Lovelace, Denis Newman-Griffis, Shikhar Vashishth, Jill Fain Lehman, Carolyn Rosé
- TLDR: Proponiamo un metodo di convoluzione per completare il Knowledge Graph completando i dati di benchmark di knowledge gathering.
- A DQN-based Approach to Finding Precise Evidences for Fact Verification
- Hai Wan, Haicheng Chen, Jianfeng Du, Weilin Luo, Rongzhen Ye
- TLDR: Proponiamo un approccio di deep Q-learning basato sulla ricerca di esempi precise per la verifica del claim.
- The Art of Abstention: Selective Prediction and Error Regularization for Natural Language Processing
- Ji Xin, Raphael Tang, Yaoliang Yu, Jimmy Lin
- TLDR: Proponiamo una semplice regolarizzazione del modello di trasformazione per la predizione selectiva.
- Unsupervised Out-of-Domain Detection via Pre-trained Transformers
- Keyang Xu, Tongzheng Ren, Shikun Zhang, Yihao Feng, Caiming Xiong
- TLDR: Proponiamo un metodo per trasformare le feature di input in input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input di input.
- MATE-KD: Masked Adversarial TExt, a Companion to Knowledge Distillation
- Ahmad Rashid, Vasileios Lioutas, Mehdi Rezagholizadeh
- TLDR: Proponiamo un nuovo metodo di adversarial training basato sul testo per la distillazione della conoscenza.
- Selecting Informative Contexts Improves Language Model Fine-tuning
- Richard Antonello, Nicole Beckage, Javier Turek, Alexander Huth
- TLDR: Proponiamo un metodo di fine-tuning generale per migliorare la generalizzazione e la finalità del fine-tuning del modello di linguaggi.
- Explainable Prediction of Text Complexity: The Missing Preliminaries for Text Simplification
- Cristina Garbacea, Mengtian Guo, Samuel Carton, Qiaozhu Mei
- TLDR: Proponiamo un metodo per decomporre la procedura di apprendimento di un modello di text simplification in una pipeline di task per la valutazione della complessità spiegabile del testo.
- Multi-Task Retrieval for Knowledge-Intensive Tasks
- Jean Maillard, Vladimir Karpukhin, Fabio Petroni, Wen-tau Yih, Barlas Oguz, Veselin Stoyanov, Gargi Ghosh
- TLDR: Proponiamo un modello di retrieval neurale multi-task per task di ricerca di contesti.
- When Do You Need Billions of Words of Pretraining Data?
- Yian Zhang, Alex Warstadt, Xiaocheng Li, Samuel R. Bowman
- TLDR: Proponiamo un metodo di valutazione per valutare la capacità di apprendimento di Transformer LM con un grande volume di dati.
- Analyzing the Source and Target Contributions to Predictions in Neural Machine Translation
- Elena Voita, Rico Sennrich, Ivan Titov
- TLDR: Proponiamo Layerwise Relevance Propagation (LRP) per valutare la partecipazione relative alla source e target nella generazione di token.
- Comparing Test Sets with Item Response Theory
- Clara Vania, Phu Mon Htut, William Huang, Dhara Mungra, Richard Yuanzhe Pang, Jason Phang, Haokun Liu, Kyunghyun Cho, Samuel R. Bowman
- TLDR: Proponiamo un metodo per misurare la qualità dei modelli di apprendimento naturale utilizzando modelli di apprendimento tramite Item Response Theory.
- Uncovering Constraint-Based Behavior in Neural Models via Targeted Fine-Tuning
- Forrest Davis, Marten van Schijndel
- TLDR: Proponiamo un’analisi di un singolo fenomeno di apprendimento di modelli di linguaggi diversi per studiare la conoscenza linguistica sottostante.
- More Identifiable yet Equally Performant Transformers for Text Classification
- Rishabh Bhardwaj, Navonil Majumder, Soujanya Poria, Eduard Hovy
- TLDR: Proponiamo un encoder layer che decouple la relazione tra key e valore vector e fornisce pesi di attention identificabili.
- AugNLG: Few-shot Natural Language Generation using Self-trained Data Augmentation
- Xinnuo Xu, Guoyin Wang, Young-Bum Kim, Sungjin Lee
- TLDR: Proponiamo AugNLG, un nuovo approccio di data augmentation che combina un modello di recupero neurale self-trained con un modello NLU few shot, per generare automaticamente dati di testo e parole da testi open-domain.
- Can vectors read minds better than experts? Comparing data augmentation strategies for the automated scoring of children’s mindreading ability
- Venelin Kovatchev, Phillip Smith, Mark Lee, Rory Devine
- TLDR: Proponiamo UK-MIND-20 - un corpus di bambini su test di mindreading, composto da 10,320 question-answer pairs.
- A Dataset and Baselines for Multilingual Reply Suggestion
- Mozhi Zhang, Wei Wang, Budhaditya Deb, Guoqing Zheng, Milad Shokouhi, Ahmed Hassan Awadallah
- TLDR: Proponiamo un modello di feedback multilingue per la generazione e la generazione di risposte.
- What Ingredients Make for an Effective Crowdsourcing Protocol for Difficult NLU Data Collection Tasks?
- Nikita Nangia, Saku Sugawara, Harsh Trivedi, Alex Warstadt, Clara Vania, Samuel R. Bowman
- TLDR: Proponiamo di utilizzare il question answering multiple-choice per migliorare la qualità dei dati di raccolta.
- Align Voting Behavior with Public Statements for Legislator Representation Learning
- Xinyi Mou, Zhongyu Wei, Lei Chen, Shangyi Ning, Yancheng He, Changjian Jiang, Xuanjing Huang
- TLDR: Proponiamo un modello di rappresentazione di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni
- Measure and Evaluation of Semantic Divergence across Two Languages
- Syrielle Montariol, Alexandre Allauzen
- TLDR: Proponiamo un corpus di cambiamenti semantici sintetici per rilevare la divergenza tra due lingue.
- Improving Zero-Shot Translation by Disentangling Positional Information
- Danni Liu, Jan Niehues, James Cross, Francisco Guzmán, Xian Li
- TLDR: Proponiamo un modello di traduzione neurale multilingue che migliora la qualità di uscita su direzione supervisionate.
- Common Sense Beyond English: Evaluating and Improving Multilingual Language Models for Commonsense Reasoning
- Bill Yuchen Lin, Seyeon Lee, Xiaoyang Qiao, Xiang Ren
- TLDR: Proponiamo un task di probing generale per valutare e migliorare le popolari ML-LM per il ragionamento comune.
- Attention Calibration for Transformer in Neural Machine Translation
- Yu Lu, Jiali Zeng, Jiajun Zhang, Shuangzhi Wu, Mu Li
- TLDR: Proponiamo di calibrare i pesi di attention per la traduzione neurale utilizzando un modello di mask perturbation.
- Diverse Pretrained Context Encodings Improve Document Translation
- Domenic Donato, Lei Yu, Chris Dyer
- TLDR: Proponiamo un nuovo approccio per adattare un trasformatore sequence-to-sequence a livello di selettore di frasi utilizzando più segnali di contesto pre-trained.
- Exploiting Language Relatedness for Low Web-Resource Language Model Adaptation: An Indic Languages Study
- Yash Khemchandani, Sarvesh Mehtani, Vaidehi Patil, Abhijeet Awasthi, Partha Talukdar, Sunita Sarawagi
- TLDR: Proponiamo un nuovo metodo per sfruttare la relazione tra le lingue per adattare le LM per l’apprendimento di testi LRL.
- On Finding the K-best Non-projective Dependency Trees
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: Proponiamo un nuovo metodo per decodificare le tre dipendenze migliori di un grafio.
- Towards Argument Mining for Social Good: A Survey
- Eva Maria Vecchi, Neele Falk, Iman Jundi, Gabriella Lapesa
- TLDR: Proponiamo un nuovo metodo per misurare la qualità del ragionamento e dimostriamo che questo può essere utilizzato per migliorare la qualità del discorso.
- Automated Generation of Storytelling Vocabulary from Photographs for use in AAC
- Mauricio Fontana de Vargas, Karyn Moffatt
- TLDR: Proponiamo un nuovo metodo per generare il linguaggio di contesto da immagini di eventi personali.
- CLIP: A Dataset for Extracting Action Items for Physicians from Hospital Discharge Notes
- James Mullenbach, Yada Pruksachatkun, Sean Adler, Jennifer Seale, Jordan Swartz, Greg McKelvey, Hui Dai, Yi Yang, David Sontag
- TLDR: Proponiamo un dataset di attribuzione clinica annotati da una ricca fonte di documenti per il task di pre-training dei linguaggi in-domain.
- Assessing Emoji Use in Modern Text Processing Tools
- Abu Awal Md Shoeb, Gerard de Melo
- TLDR: Proponiamo un’analisi del ruolo degli emojis nel processo di elaborazione del testo.
- Select, Extract and Generate: Neural Keyphrase Generation with Layer-wise Coverage Attention
- Wasi Ahmad, Xiao Bai, Soomin Lee, Kai-Wei Chang
- TLDR: Un metodo per generare keyphrases per la generazione di testo
- Factorising Meaning and Form for Intent-Preserving Paraphrasing
- Tom Hosking, Mirella Lapata
- TLDR: Proponiamo un metodo per generare paraphrases di domande di apprendimento automatico che utilizzano una forma di superficie diversa.
- AggGen: Ordering and Aggregating while Generating
- Xinnuo Xu, Ondřej Dušek, Verena Rieser, Ioannis Konstas
- TLDR: Proponiamo AggGen, un modello di pianificazione e apprendimento di testo che introduce due stage di pianificazione esplicita delle frasi in sistemi di dati-to-text.
- Reflective Decoding: Beyond Unidirectional Generation with Off-the-Shelf Language Models
- Peter West, Ximing Lu, Ari Holtzman, Chandra Bhagavatula, Jena D. Hwang, Yejin Choi
- TLDR: Proponiamo un metodo di decodifica unsupervised per l’apprendimento di LM multi-task per task non sequential.
- Towards Table-to-Text Generation with Numerical Reasoning
- Lya Hulliyyatus Suadaa, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura, Hiroya Takamura
- TLDR: Proponiamo un framework per la generazione di testo numerico da dati strutturati utilizzando modelli pre-trained e un meccanismo di rielaborazione per la generazione di testo.
- BACO: A Background Knowledge- and Content-Based Framework for Citing Sentence Generation
- Yubin Ge, Ly Dinh, Xiaofeng Liu, Jinsong Su, Ziyao Lu, Ante Wang, Jana Diesner
- TLDR: Proponiamo BACO, un framework basato sulla conoscenza e sulla COntent per la generazione di frasi.
- Language Model as an Annotator: Exploring DialoGPT for Dialogue Summarization
- Xiachong Feng, Xiaocheng Feng, Libo Qin, Bing Qin, Ting Liu
- TLDR: Proponiamo DialoGPT, un modello di dialogo annotato pre-trained per la generazione di risposte conversazionali, che può essere sviluppato come un annotatore di dialogo unsupervised.
- Challenges in Information-Seeking QA: Unanswerable Questions and Paragraph Retrieval
- Akari Asai, Eunsol Choi
- TLDR: Proponiamo un nuovo metodo per rispondere alle domande di informazioni-seeking che può essere utilizzato per migliorare la comprensione del reading comprehension.
- A Gradually Soft Multi-Task and Data-Augmented Approach to Medical Question Understanding
- Khalil Mrini, Franck Dernoncourt, Seunghyun Yoon, Trung Bui, Walter Chang, Emilia Farcas, Ndapa Nakashole
- TLDR: Proponiamo un metodo di Multi-Task Learning con data augmentation per question understanding medico-medico.
- Leveraging Type Descriptions for Zero-shot Named Entity Recognition and Classification
- Rami Aly, Andreas Vlachos, Ryan McDonald
- TLDR: Proponiamo un nuovo approccio per NERC basato sulla teoria del testo per la classificazione delle classi.
- MECT: Multi-Metadata Embedding based Cross-Transformer for Chinese Named Entity Recognition
- Shuang Wu, Xiaoning Song, Zhenhua Feng
- TLDR: Proponiamo un nuovo metodo multi-metadata basato sul cross-Transformer per migliorare le prestazioni di riconoscimento delle entità di origine cinese per NER.
- Factuality Assessment as Modal Dependency Parsing
- Jiarui Yao, Haoling Qiu, Jin Zhao, Bonan Min, Nianwen Xue
- TLDR: Proponiamo un metodo per parsing la dipendenza di eventi e conceiversi in modo da determinare la loro esistenza.
- Directed Acyclic Graph Network for Conversational Emotion Recognition
- Weizhou Shen, Siyue Wu, Yunyi Yang, Xiaojun Quan
- TLDR: Proponiamo un modello neurale basato su grafi per ERC.
- Improving Formality Style Transfer with Context-Aware Rule Injection
- Zonghai Yao, Hong Yu
- TLDR: Proponiamo un metodo per addestrare un encoder e decoder basato sul contesto per FST.
- Topic-Driven and Knowledge-Aware Transformer for Dialogue Emotion Detection
- Lixing Zhu, Gabriele Pergola, Lin Gui, Deyu Zhou, Yulan He
- TLDR: Proponiamo un topic-driven knowledge-aware transformer per risolvere il problema della rilevazione degli emozioni nelle conversazioni.
- Syntopical Graphs for Computational Argumentation Tasks
- Joe Barrow, Rajiv Jain, Nedim Lipka, Franck Dernoncourt, Vlad Morariu, Varun Manjunatha, Douglas Oard, Philip Resnik, Henning Wachsmuth
- TLDR: Proponiamo un approccio di lettura di grafi syntopici per affrontare il problema di analisi di grafi di rappresentazione.
- Stance Detection in COVID-19 Tweets
- Kyle Glandt, Sarthak Khanal, Yingjie Li, Doina Caragea, Cornelia Caragea
- TLDR: Proponiamo un nuovo dataset di rilevamento delle stance per la prevenzione della pandemia di COVID-19.
- Topic-Aware Evidence Reasoning and Stance-Aware Aggregation for Fact Verification
- Jiasheng Si, Deyu Zhou, Tongzhe Li, Xingyu Shi, Yulan He
- TLDR: Proponiamo un nuovo modello di ragionamento topicale e aggregato per la verifica del fatto vero.
- Changes in European Solidarity Before and During COVID-19: Evidence from a Large Crowd- and Expert-Annotated Twitter Dataset
- Alexandra Ils, Dan Liu, Daniela Grunow, Steffen Eger
- TLDR: Proponiamo un modello di apprendimento supervised per valutare come le espressione di (anti)solidarità sviluppano in modo dinamico e contestuale.
- Measuring Conversational Uptake: A Case Study on Student-Teacher Interactions
- Dorottya Demszky, Jing Liu, Zid Mancenido, Julie Cohen, Heather Hill, Dan Jurafsky, Tatsunori Hashimoto
- TLDR: Proponiamo un metodo per misurare la quantità di input di input di conversazione per migliorare la qualità dell’apprendimento nei dati di apprendimento.
- A Survey of Code-switching: Linguistic and Social Perspectives for Language Technologies
- A. Seza Doğruöz, Sunayana Sitaram, Barbara E. Bullock, Almeida Jacqueline Toribio
- TLDR: Proponiamo una survey di code-switching (C-S) che riguarda la letteratura in ambito linguistico e la teoria della multilingualizzazione.
- Learning from the Worst: Dynamically Generated Datasets to Improve Online Hate Detection
- Bertie Vidgen, Tristan Thrush, Zeerak Waseem, Douwe Kiela
- TLDR: Proponiamo un nuovo dataset di 40,000 entries, generati e annotati da annotatori addestrati, che migliora le prestazioni di rilevamento di attacchi di odio online.
- InfoSurgeon: Cross-Media Fine-grained Information Consistency Checking for Fake News Detection
- Yi Fung, Christopher Thomas, Revanth Gangi Reddy, Sandeep Polisetty, Heng Ji, Shih-Fu Chang, Kathleen McKeown, Mohit Bansal, Avi Sil
- TLDR: Proponiamo un nuovo metodo per rilevare le fake news nel knowledge graph e un nuovo metodo di sintesi dei dati per il rilevamento delle fake news nel knowledge graph.
- I like fish, especially dolphins: Addressing Contradictions in Dialogue Modeling
- Yixin Nie, Mary Williamson, Mohit Bansal, Douwe Kiela, Jason Weston
- TLDR: Proponiamo un nuovo task di dialogo con conversazioni umane e bot controcorrente e dimostriamo che le strutture di espressione del linguaggio naturale possono essere utilizzate per rilevare la contradizione nel task di dialogo.
- A Sequence-to-Sequence Approach to Dialogue State Tracking
- Yue Feng, Yang Wang, Hang Li
- TLDR: Proponiamo un nuovo metodo per dialogue state tracking, Seq2Seq-DU, che formalize il dialogue state tracking come un problema sequence-to-sequence.
- Discovering Dialog Structure Graph for Coherent Dialog Generation
- Jun Xu, Zeyang Lei, Haifeng Wang, Zheng-Yu Niu, Hua Wu, Wanxiang Che
- TLDR: Proponiamo Discrete Variational Auto-Encoder con Graph Neural Network per scoprire la struttura del dialogo discreto da corpora chitchat.
- Dialogue Response Selection with Hierarchical Curriculum Learning
- Yixuan Su, Deng Cai, Qingyu Zhou, Zibo Lin, Simon Baker, Yunbo Cao, Shuming Shi, Nigel Collier, Yan Wang
- TLDR: Proponiamo un modello di matching learning gerarchico per dialogue response selection.
- A Joint Model for Dropped Pronoun Recovery and Conversational Discourse Parsing in Chinese Conversational Speech
- Jingxuan Yang, Kerui Xu, Jun Xu, Si Li, Sheng Gao, Jun Guo, Nianwen Xue, Ji-Rong Wen
- TLDR: Proponiamo DiscProReco, un modello neurale per la recovery di dropped pronoun e parsing conversazionale del speech conversational.
- A Systematic Investigation of KB-Text Embedding Alignment at Scale
- Vardaan Pahuja, Yu Gu, Wenhu Chen, Mehdi Bahrami, Lei Liu, Wei-Peng Chen, Yu Su
- TLDR: Proponiamo un nuovo metodo di embedding di KB e testo per risolvere il divario tra le knowledge base e le knowledge text.
- Named Entity Recognition with Small Strongly Labeled and Large Weakly Labeled Data
- Haoming Jiang, Danqing Zhang, Tianyu Cao, Bing Yin, Tuo Zhao
- TLDR: Proponiamo un nuovo metodo per addestrare deep NER con supervisione weakly supervised che migliora le prestazioni di apprendimento di query query NER e biomedical NER.
- Ultra-Fine Entity Typing with Weak Supervision from a Masked Language Model
- Hongliang Dai, Yangqiu Song, Haixun Wang
- TLDR: Proponiamo di utilizzare BERT per imparare il typing di entity.
- Improving Named Entity Recognition by External Context Retrieving and Cooperative Learning
- Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: Proponiamo di trovare contesti esterni di una frase per Named Entity Recognition.
- Implicit Representations of Meaning in Neural Language Models
- Belinda Z. Li, Maxwell Nye, Jacob Andreas
- TLDR: Proponiamo un modello di apprendimento neurale per la modellazione del linguaggio e la sua applicazione alla generazione di parole e frasi.
- Causal Analysis of Syntactic Agreement Mechanisms in Neural Language Models
- Matthew Finlayson, Aaron Mueller, Sebastian Gehrmann, Stuart Shieber, Tal Linzen, Yonatan Belinkov
- TLDR: Proponiamo un metodo per studiare la struttura e la struttura di un modello di apprendimento neurale per subject-verb agreement.
- Bird’s Eye: Probing for Linguistic Graph Structures with a Simple Information-Theoretic Approach
- Yifan Hou, Mrinmaya Sachan
- TLDR: Proponiamo Bird Eye, un metodo di probe per rilevare se e come queste rappresentazioni codificano le informazioni linguistiche nei grafi linguistici.
- Knowledgeable or Educated Guess? Revisiting Language Models as Knowledge Bases
- Boxi Cao, Hongyu Lin, Xianpei Han, Le Sun, Lingyong Yan, Meng Liao, Tong Xue, Jin Xu
- TLDR: Proponiamo un’analisi rigorosa dei meccanismi di predizione sottostanti per studiare il ruolo degli MLM nel processo di extrazione della conoscenza.
- Poisoning Knowledge Graph Embeddings via Relation Inference Patterns
- Peru Bhardwaj, John Kelleher, Luca Costabello, Declan O’Sullivan
- TLDR: Proponiamo di addestrare i modelli di Knowledge Graph Embedding (KGE) per migliorare la fiducia nella predizione dei link.
- Bad Seeds: Evaluating Lexical Methods for Bias Measurement
- Maria Antoniak, David Mimno
- TLDR: Proponiamo un metodo per misurare il bias di bias per la valutazione di corpora linguistici.
- A Survey of Race, Racism, and Anti-Racism in NLP
- Anjalie Field, Su Lin Blodgett, Zeerak Waseem, Yulia Tsvetkov
- TLDR: Proponiamo un’analisi di studi di ricerca sulla condizione della popolazione in cui la letteratura NLP ha e non ha considerato la questione della popolazione.
- Intrinsic Bias Metrics Do Not Correlate with Application Bias
- Seraphina Goldfarb-Tarrant, Rebecca Marchant, Ricardo Muñoz Sánchez, Mugdha Pandya, Adam Lopez
- TLDR: Proponiamo un nuovo metodo per debianare i sistemi di natural language processing utilizzando metriche di bias intrinseca e di bias extrinsivo.
- RedditBias: A Real-World Resource for Bias Evaluation and Debiasing of Conversational Language Models
- Soumya Barikeri, Anne Lauscher, Ivan Vulić, Goran Glavaš
- TLDR: Proponiamo un nuovo metodo per misurare e mitigare il bias nei modelli di testo conversazionale.
- Contributions of Transformer Attention Heads in Multi- and Cross-lingual Tasks
- Weicheng Ma, Kai Zhang, Renze Lou, Lili Wang, Soroush Vosoughi
- TLDR: Proponiamo un modello multilingue per la pruned attention per task di natural language processing.
- Crafting Adversarial Examples for Neural Machine Translation
- Xinze Zhang, Junzhe Zhang, Zhenhua Chen, Kun He
- TLDR: Proponiamo un nuovo metodo per costruire adversarial example per la traduzione neurale utilizzando la tecnica di round-trip.
- UXLA: A Robust Unsupervised Data Augmentation Framework for Zero-Resource Cross-Lingual NLP
- M Saiful Bari, Tasnim Mohiuddin, Shafiq Joty
- TLDR: Proponiamo un nuovo framework di augmentation dei dati per il transfer learning zero-resource.
- Glancing Transformer for Non-Autoregressive Neural Machine Translation
- Lihua Qian, Hao Zhou, Yu Bao, Mingxuan Wang, Lin Qiu, Weinan Zhang, Yong Yu, Lei Li
- TLDR: Proponiamo un nuovo metodo di traduzione neurale per la generazione di modelli di generazione di testo parallelo.
- Hierarchical Context-aware Network for Dense Video Event Captioning
- Lei Ji, Xianglin Guo, Haoyang Huang, Xilin Chen
- TLDR: Proponiamo una nuova architettura per dense video event captioning (HCN) che sfrutta il contesto locale e globale per catturare il contesto da diversi aspetti.
- Control Image Captioning Spatially and Temporally
- Kun Yan, Lei Ji, Huaishao Luo, Ming Zhou, Nan Duan, Shuai Ma
- TLDR: Proponiamo un modello di contrasto per l’apprendimento di immagini captioning basato sulla traduzione tramite contrasto.
- Edited Media Understanding Frames: Reasoning About the Intent and Implications of Visual Misinformation
- Jeff Da, Maxwell Forbes, Rowan Zellers, Anthony Zheng, Jena D. Hwang, Antoine Bosselut, Yejin Choi
- TLDR: Proponiamo un nuovo metodo per comprendere la manipolazione dei media come strutture strutturate con respect alle emozioni, alle reazioni, agli attacchi degli individui e alle implicazioni della disinformazione.
- PIGLeT: Language Grounding Through Neuro-Symbolic Interaction in a 3D World
- Rowan Zellers, Ari Holtzman, Matthew Peters, Roozbeh Mottaghi, Aniruddha Kembhavi, Ali Farhadi, Yejin Choi
- TLDR: Proponiamo un modello di apprendimento fisico comune che impara la conoscenza fisica comune attraverso l’interazione, e poi utilizza questa conoscenza per ground language.
- Modeling Fine-Grained Entity Types with Box Embeddings
- Yasumasa Onoe, Michael Boratko, Andrew McCallum, Greg Durrett
- TLDR: Proponiamo un modello di typing neurale basato sul box per catturare le gerarchie latenti dei tipi.
- ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin Information
- Zijun Sun, Xiaoya Li, Xiaofei Sun, Yuxian Meng, Xiang Ao, Qing He, Fei Wu, Jiwei Li
- TLDR: Proponiamo un modello di pretraining che incorpora la sintattica e la semantica per il linguaggio parlato.
- Weight Distillation: Transferring the Knowledge in Neural Network Parameters
- Ye Lin, Yanyang Li, Ziyang Wang, Bei Li, Quan Du, Tong Xiao, Jingbo Zhu
- TLDR: Proponiamo di distillare la conoscenza in parametri di una piccola rete neurale attraverso un generatore di parametri.
- Optimizing Deeper Transformers on Small Datasets
- Peng Xu, Dhruv Kumar, Wei Yang, Wenjie Zi, Keyi Tang, Chenyang Huang, Jackie Chi Kit Cheung, Simon J.D. Prince, Yanshuai Cao
- TLDR: Proponiamo un nuovo schema di inizializzazione per deep transformer, basato sulla teoria del parsing semantico e logico.
- BERTAC: Enhancing Transformer-based Language Models with Adversarially Pretrained Convolutional Neural Networks
- Jong-Hoon Oh, Ryu Iida, Julien Kloetzer, Kentaro Torisawa
- TLDR: Proponiamo un’architettura di rete neurale pretrained con un modello di apprendimento GAN per risolvere il problema di apprendimento di un linguaggio naturale.
- COVID-Fact: Fact Extraction and Verification of Real-World Claims on COVID-19 Pandemic
- Arkadiy Saakyan, Tuhin Chakrabarty, Smaranda Muresan
- TLDR: Proponiamo un modello di dataset FEVER per rilevare le claims contro le previsioni di COVID-19 e generare contro-claim.
- Explaining Relationships Between Scientific Documents
- Kelvin Luu, Xinyi Wu, Rik Koncel-Kedziorski, Kyle Lo, Isabel Cachola, Noah A. Smith
- TLDR: Proponiamo un modello di testo naturale per spiegare le relazioni tra due documenti scientifici utilizzando il testo naturale.
- IrEne: Interpretable Energy Prediction for Transformers
- Qingqing Cao, Yash Kumar Lal, Harsh Trivedi, Aruna Balasubramanian, Niranjan Balasubramanian
- TLDR: Proponiamo un modello di predizione energetica interpretabile e extensible basato su Transformer che stima la consumazione energetica di una vasta gamma di modelli NLP basati su trasformatori.
- Mitigating Bias in Session-based Cyberbullying Detection: A Non-Compromising Approach
- Lu Cheng, Ahmadreza Mosallanezhad, Yasin Silva, Deborah Hall, Huan Liu
- TLDR: Proponiamo una strategia di debiasing per rilevare il comportamento di cyberbullying basato sulla sessione.
- PlotCoder: Hierarchical Decoding for Synthesizing Visualization Code in Programmatic Context
- Xinyun Chen, Linyuan Gong, Alvin Cheung, Dawn Song
- TLDR: Proponiamo un nuovo task di apprendimento di visualization che combina la combinazione di utterances e contesto del linguaggio naturale per generare programmi di elaborazione di immagini.
- Changing the World by Changing the Data
- Anna Rogers
- TLDR: Proponiamo di ridurre la qualità dei dati per migliorare la qualità del training.
- EarlyBERT: Efficient BERT Training via Early-bird Lottery Tickets
- Xiaohan Chen, Yu Cheng, Shuohang Wang, Zhe Gan, Zhangyang Wang, Jingjing Liu
- TLDR: Proponiamo EarlyBERT, un metodo di training computazionalmente efficiente per il pre-training e il fine-tuning di grandi modelli NLP.
- On the Effectiveness of Adapter-based Tuning for Pretrained Language Model Adaptation
- Ruidan He, Linlin Liu, Hai Ye, Qingyu Tan, Bosheng Ding, Liying Cheng, Jiawei Low, Lidong Bing, Luo Si
- TLDR: Proponiamo un metodo di tuning basato sull’adversarial learning che migliora le prestazioni di apprendimento su diversi task NLP.
- Data Augmentation for Text Generation Without Any Augmented Data
- Wei Bi, Huayang Li, Jiacheng Huang
- TLDR: Proponiamo un obiettivo per risolvere il problema della data augmentation su task di generazione di testo senza alcuna costruzione di dati di input di input di input di input di input.
- Integrating Semantics and Neighborhood Information with Graph-Driven Generative Models for Document Retrieval
- Zijing Ou, Qinliang Su, Jianxing Yu, Bang Liu, Jingwen Wang, Ruihui Zhao, Changyou Chen, Yefeng Zheng
- TLDR: Proponiamo un modello generativo basato sulla distribuzione gaussiana per il training di un modello di apprendimento di grafi.
- SMURF: SeMantic and linguistic UndeRstanding Fusion for Caption Evaluation via Typicality Analysis
- Joshua Feinglass, Yezhou Yang
- TLDR: Proponiamo un nuovo metodo di valutazione basato sulla teoria dell’informazione per risolvere il problema della comprensione visiva.
- KaggleDBQA: Realistic Evaluation of Text-to-SQL Parsers
- Chia-Hsuan Lee, Oleksandr Polozov, Matthew Richardson
- TLDR: Proponiamo KaggleDBQA, un dataset di valutazione di deep learning di deep relational database.
- QASR: QCRI Aljazeera Speech Resource A Large Scale Annotated Arabic Speech Corpus
- Hamdy Mubarak, Amir Hussein, Shammur Absar Chowdhury, Ahmed Ali
- TLDR: Proponiamo un corpus di speech transcription di alta qualità per la traduzione di testo parlato da 16kHz.
- An Empirical Study on Hyperparameter Optimization for Fine-Tuning Pre-trained Language Models
- Xueqing Liu, Chi Wang
- TLDR: Proponiamo strategie generali e procedure sperimentali per risolvere problemi di ottimizzazione degli iperparametri.
- Better than Average: Paired Evaluation of NLP systems
- Maxime Peyrard, Wei Zhao, Steffen Eger, Robert West
- TLDR: Proponiamo un metodo di apprendimento pairwise per valutare la valutazione di sistemi NLP.
- Chase: A Large-Scale and Pragmatic Chinese Dataset for Cross-Database Context-Dependent Text-to-SQL
- Jiaqi Guo, Ziliang Si, Yu Wang, Qian Liu, Ming Fan, Jian-Guang Lou, Zijiang Yang, Ting Liu
- TLDR: Proponiamo Chase, un dataset di QSO per la transizione text-to-SQL.
- CLINE: Contrastive Learning with Semantic Negative Examples for Natural Language Understanding
- Dong Wang, Ning Ding, Piji Li, Haitao Zheng
- TLDR: Proponiamo un metodo di adversarial training per imparare la semantica in modo confrontabile con altre semantiche.
- Tree-Structured Topic Modeling with Nonparametric Neural Variational Inference
- Ziye Chen, Cheng Ding, Zusheng Zhang, Yanghui Rao, Haoran Xie
- TLDR: Proponiamo un topic model strutturato da una rete neurale variazionale per topic modelling.
- ExCAR: Event Graph Knowledge Enhanced Explainable Causal Reasoning
- Li Du, Xiao Ding, Kai Xiong, Ting Liu, Bing Qin
- TLDR: Proponiamo un metodo per addestrare il sistema di causal reasoning.
- Distributed Representations of Emotion Categories in Emotion Space
- Xiangyu Wang, Chengqing Zong
- TLDR: Proponiamo un framework generale per imparare rappresentazioni distribuite per le categorie di emozioni nello spazio dello spazio emotivo.
- Style is NOT a single variable: Case Studies for Cross-Stylistic Language Understanding
- Dongyeop Kang, Eduard Hovy
- TLDR: Proponiamo un benchmark per la comprensione e la correlazione del linguaggio parlato in stile e stile.
- DynaSent: A Dynamic Benchmark for Sentiment Analysis
- Christopher Potts, Zhengxuan Wu, Atticus Geiger, Douwe Kiela
- TLDR: Proponiamo un nuovo task di analisi del sentiment negativo/negativo/neutrale per l’apprendimento di modelli di sentiment analysis.
- A Hierarchical VAE for Calibrating Attributes while Generating Text using Normalizing Flow
- Bidisha Samanta, Mohit Agrawal, NIloy Ganguly
- TLDR: Proponiamo un modello gerarchico per il transfer di attributi di stile e sentiment, che può gestire il controllo della potenza di espressione di un dato attributo.
- A Unified Generative Framework for Aspect-based Sentiment Analysis
- Hang Yan, Junqi Dai, Tuo Ji, Xipeng Qiu, Zheng Zhang
- TLDR: Proponiamo un framework di analisi del sentimento basato sull’aspect per risolvere tutti gli subtask dell’ASR.
- Discovering Dialogue Slots with Weak Supervision
- Vojtěch Hudeček, Ondřej Dušek, Zhou Yu
- TLDR: Proponiamo un metodo per risolvere il problema dello slot tagging senza annotare i dialogue slots in dati di training.
- Enhancing the generalization for Intent Classification and Out-of-Domain Detection in SLU
- Yilin Shen, Yen-Chang Hsu, Avik Ray, Hongxia Jin
- TLDR: Proponiamo di addestrare un modello di intent classificazione con solo dati di indicizzazione in-domain per sostenere sia la classificazione degli intent che la rilevazione OOD.
- PROTAUGMENT: Unsupervised diverse short-texts paraphrasing for intent detection meta-learning
- Thomas Dopierre, Christophe Gravier, Wilfried Logerais
- TLDR: Proponiamo ProtAugment, un metodo di meta-learning per l’identificazione degli intent di testo, che riduce il bias di bias introduceto dalla classificazione few shot.
- Robustness Testing of Language Understanding in Task-Oriented Dialog
- Jiexi Liu, Ryuichi Takanobu, Jiaxin Wen, Dazhen Wan, Hongguang Li, Weiran Nie, Cheng Li, Wei Peng, Minlie Huang
- TLDR: Proponiamo un modello di comprensione del linguaggio naturale per dialogare con un task-oriented dialog.
- Comprehensive Study: How the Context Information of Different Granularity Affects Dialogue State Tracking?
- Puhai Yang, Heyan Huang, Xian-Ling Mao
- TLDR: Proponiamo di utilizzare le informazioni del contesto per dialogue state tracking.
- OTTers: One-turn Topic Transitions for Open-Domain Dialogue
- Karin Sevegnani, David M. Howcroft, Ioannis Konstas, Verena Rieser
- TLDR: Proponiamo un task di topic transition per la comunicazione multi-topic.
- Towards Robustness of Text-to-SQL Models against Synonym Substitution
- Yujian Gan, Xinyun Chen, Qiuping Huang, Matthew Purver, John R. Woodward, Jinxia Xie, Pengsheng Huang
- TLDR: Proponiamo Spider-Syn, un dataset di testo-to-SQL per la sostituzione di synonym per la traduzione text-to-SQL.
- KACE: Generating Knowledge Aware Contrastive Explanations for Natural Language Inference
- Qianglong Chen, Feng Ji, Xiangji Zeng, Feng-Lin Li, Ji Zhang, Haiqing Chen, Yin Zhang
- TLDR: Proponiamo un nuovo metodo per generare spiegazioni contrastive con spiegazioni contrastive.
- Self-Guided Contrastive Learning for BERT Sentence Representations
- Taeuk Kim, Kang Min Yoo, Sang-goo Lee
- TLDR: Proponiamo un metodo di contrastive learning che utilizza la guida guida self-supervised per migliorare la qualità delle rappresentazioni di BERT delle frasi.
- LGESQL: Line Graph Enhanced Text-to-SQL Model with Mixed Local and Non-Local Relations
- Ruisheng Cao, Lu Chen, Zhi Chen, Yanbin Zhao, Su Zhu, Kai Yu
- TLDR: Proponiamo un modello di graph encoding text-to-SQL per sfruttare le feature relational per graph iteration.
- Multi-stage Pre-training over Simplified Multimodal Pre-training Models
- Tongtong Liu, Fangxiang Feng, Xiaojie Wang
- TLDR: Proponiamo un metodo di pre-training multi-stage per il downstream pre-training.
- Beyond Sentence-Level End-to-End Speech Translation: Context Helps
- Biao Zhang, Ivan Titov, Barry Haddow, Rico Sennrich
- TLDR: Proponiamo ensemble decoding per la traduzione speech-to-speech end-to-end e la concatenazione con feature adattive per la traduzione speech-to-speech end-to-end.
- LayoutLMv2: Multi-modal Pre-training for Visually-rich Document Understanding
- Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei Florencio, Cha Zhang, Wanxiang Che, Min Zhang, Lidong Zhou
- TLDR: Proponiamo una nuova architettura di Transformer per il pre-training del testo e della layout per il riconoscimento di documenti visivi.
- UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning
- Wei Li, Can Gao, Guocheng Niu, Xinyan Xiao, Hao Liu, Jiachen Liu, Hua Wu, Haifeng Wang
- TLDR: Un modello di pre-training multi-modali basato su GAN per l’apprendimento multi-modali
- Missing Modality Imagination Network for Emotion Recognition with Uncertain Missing Modalities
- Jinming Zhao, Ruichen Li, Qin Jin
- TLDR: Proponiamo un modello di apprendimento multimodale per risolvere il problema di missing modality.
- Stacked Acoustic-and-Textual Encoding: Integrating the Pre-trained Models into Speech Translation Encoders
- Chen Xu, Bojie Hu, Yanyang Li, Yuhao Zhang, Shen Huang, Qi Ju, Tong Xiao, Jingbo Zhu
- TLDR: Proponiamo un metodo di apprendimento stacked Acoustic-and-Textual per la traduzione vocale end-to-end end-to-end.
- N-ary Constituent Tree Parsing with Recursive Semi-Markov Model
- Xin Xin, Jinlong Li, Zeqi Tan
- TLDR: Proponiamo un nuovo approccio basato sul modello semi-markov per parsing di rappresentazioni di grafi basati su grafi.
- Automated Concatenation of Embeddings for Structured Prediction
- Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: Proponiamo un metodo per connettare più tipi di embedding per la strutturad prediction.
- Multi-View Cross-Lingual Structured Prediction with Minimum Supervision
- Zechuan Hu, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: Proponiamo un framework multi-view per combinare più modelli di input e output per ottenere una visione aggregata di una view di origine e destinazione.
- The Limitations of Limited Context for Constituency Parsing
- Yuchen Li, Andrej Risteski
- TLDR: Proponiamo un’architettura di Parsing-Reading-Predict per parsing di parole e frasi.
- Neural Bi-Lexicalized PCFG Induction
- Songlin Yang, Yanpeng Zhao, Kewei Tu
- TLDR: Proponiamo un metodo per parametrizzare le L-PCFG senza fare implausiamente previsioni di independence.
- Ruddit: Norms of Offensiveness for English Reddit Comments
- Rishav Hada, Sohi Sudhir, Pushkar Mishra, Helen Yannakoudakis, Saif M. Mohammad, Ekaterina Shutova
- TLDR: Proponiamo un nuovo dataset di Reddit di commenti negativi e offensivi che ha score di valutazione reale e scalabili.
- Towards Quantifiable Dialogue Coherence Evaluation
- Zheng Ye, Liucun Lu, Lishan Huang, Liang Lin, Xiaodan Liang
- TLDR: Proponiamo un nuovo metodo per addestrare una valutazione di dialogo coerenziale quantifiabile che può rispondere alle standard di valutazione umana.
- Assessing the Representations of Idiomaticity in Vector Models with a Noun Compound Dataset Labeled at Type and Token Levels
- Marcos Garcia, Tiago Kramer Vieira, Carolina Scarton, Marco Idiart, Aline Villavicencio
- TLDR: Proponiamo un nuovo dataset per la rilevazione della linguaggità dei compound noun e toni e la loro annotazione.
- Factoring Statutory Reasoning as Language Understanding Challenges
- Nils Holzenberger, Benjamin Van Durme
- TLDR: Proponiamo un nuovo metodo per decomporre il problema del ragionamento statuario in quattro tipi di problemi di comprensione del linguaggio.
- Evaluating Evaluation Measures for Ordinal Classification and Ordinal Quantification
- Tetsuya Sakai
- TLDR: Proponiamo un nuovo metodo per valutare le proprietà di valutazione degli strumenti di valutazione per la classificazione ordinale.
- Interpretable and Low-Resource Entity Matching via Decoupling Feature Learning from Decision Making
- Zijun Yao, Chengjiang Li, Tiansi Dong, Xin Lv, Jifan Yu, Lei Hou, Juanzi Li, Yichi Zhang, Zelin Dai
- TLDR: Proponiamo un nuovo approccio di apprendimento neurale per matching entity.
- Locate and Label: A Two-stage Identifier for Nested Named Entity Recognition
- Yongliang Shen, Xinyin Ma, Zeqi Tan, Shuai Zhang, Wen Wang, Weiming Lu
- TLDR: Proponiamo un metodo per imparare a riconoscere le reti neurali e a sfruttare le informazioni di boundary matching per risolvere il problema di riconoscimento delle reti neurali.
- Text2Event: Controllable Sequence-to-Structure Generation for End-to-end Event Extraction
- Yaojie Lu, Hongyu Lin, Jin Xu, Xianpei Han, Jialong Tang, Annan Li, Le Sun, Meng Liao, Shaoyi Chen
- TLDR: Proponiamo un metodo di apprendimento semantico per l’apprendimento semantico di eventi semantici.
- A Large-Scale Chinese Multimodal NER Dataset with Speech Clues
- Dianbo Sui, Zhengkun Tian, Yubo Chen, Kang Liu, Jun Zhao
- TLDR: Proponiamo un modello di riconoscimento delle entità multimodali named entity, che può sfruttare le feature testuali o multimodali.
- A Neural Transition-based Joint Model for Disease Named Entity Recognition and Normalization
- Zongcheng Ji, Tian Xia, Mei Han, Jing Xiao
- TLDR: Proponiamo un modello di riconoscimento end-to-end della malattia basato sulla trasformazione del task di riconoscimento end-to-end della malattia come un task di sequenza di sequenze di attacchi, che sfrutta la forma del testo di ciascuno dei candidati per migliorare le prestazioni di normalizzazione.
- OntoED: Low-resource Event Detection with Ontology Embedding
- Shumin Deng, Ningyu Zhang, Luoqiu Li, Chen Hui, Tou Huaixiao, Mosha Chen, Fei Huang, Huajun Chen
- TLDR: Proponiamo un nuovo metodo di rilevamento degli eventi per l’ontologia degli eventi.
- Self-Training Sampling with Monolingual Data Uncertainty for Neural Machine Translation
- Wenxiang Jiao, Xing Wang, Zhaopeng Tu, Shuming Shi, Michael Lyu, Irwin King
- TLDR: Proponiamo un metodo di sampling basato sulla teoria della probabilità per sfruttare i dati di training monolingue per migliorare le prestazioni di training NMT.
- Breaking the Corpus Bottleneck for Context-Aware Neural Machine Translation with Cross-Task Pre-training
- Linqing Chen, Junhui Li, Zhengxian Gong, Boxing Chen, Weihua Luo, Min Zhang, Guodong Zhou
- TLDR: Proponiamo un metodo per imparare la traduzione neurale con contesto e la traduzione consapevoli di documenti multilingue.
- Guiding Teacher Forcing with Seer Forcing for Neural Machine Translation
- Yang Feng, Shuhao Gu, Dengji Guo, Zhengxin Yang, Chenze Shao
- TLDR: Proponiamo un metodo di training per addestrare un decoder di seer con knowledge distillation.
- Cascade versus Direct Speech Translation: Do the Differences Still Make a Difference?
- Luisa Bentivogli, Mauro Cettolo, Marco Gaido, Alina Karakanta, Alberto Martinelli, Matteo Negri, Marco Turchi
- TLDR: Proponiamo un confronto di sistemi di traduzione del testo e di speech translation allo stato dell’arte per la precisione.
- Unsupervised Neural Machine Translation for Low-Resource Domains via Meta-Learning
- Cheonbok Park, Yunwon Tae, TaeHee Kim, Soyoung Yang, Mohammad Azam Khan, Lucy Park, Jaegul Choo
- TLDR: Proponiamo un metodo di meta-learning per la traduzione neurale neurale unsupervised neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale neurale
- Lightweight Cross-Lingual Sentence Representation Learning
- Zhuoyuan Mao, Prakhar Gupta, Chenhui Chu, Martin Jaggi, Sadao Kurohashi
- TLDR: Proponiamo un nuovo task di training multilingue per la modellazione di frasi e dimostriamo che le prestazioni di apprendimento di questo task sono migliorate rispetto agli attuali task di training multilingue.
- ERNIE-Doc: A Retrospective Long-Document Modeling Transformer
- SiYu Ding, Junyuan Shang, Shuohuan Wang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: Proponiamo ERNIE-Doc, un modello di pretraining del linguaggio a livello di documenti basato sui trasformatori di Recurrenza.
- Marginal Utility Diminishes: Exploring the Minimum Knowledge for BERT Knowledge Distillation
- Yuanxin Liu, Fandong Meng, Zheng Lin, Weiping Wang, Jie Zhou
- TLDR: Proponiamo un metodo efficiente di knowledge distillation per comprimere BERT, che non richiede il trasporto del teacher durante il training del student.
- Rational LAMOL: A Rationale-based Lifelong Learning Framework
- Kasidis Kanwatchara, Thanapapas Horsuwan, Piyawat Lertvittayakumjorn, Boonserm Kijsirikul, Peerapon Vateekul
- TLDR: Proponiamo un nuovo framework end-to-end per lifelong learning per la generazione di ragionamento unsupervised di ragionamento.
- EnsLM: Ensemble Language Model for Data Diversity by Semantic Clustering
- Zhibin Duan, Hao Zhang, Chaojie Wang, Zhengjue Wang, Bo Chen, Mingyuan Zhou
- TLDR: Proponiamo un topic model autoencoding con mixture prior (mATM) per eseguire il clustering per i dati, dove la semantica descrive la diversità dei dati.
- LeeBERT: Learned Early Exit for BERT with cross-level optimization
- Wei Zhu
- TLDR: Proponiamo un metodo di training per imparare da più layer di BERT per migliorare le prestazioni di ottimizzazione.
- Unsupervised Extractive Summarization-Based Representations for Accurate and Explainable Collaborative Filtering
- Reinald Adrian Pugoy, Hung-Yu Kao
- TLDR: Proponiamo un modello di collaborative filtering basato sulla summarization che produce sintesi e spiegazioni a livello di testo e immagini.
- PLOME: Pre-training with Misspelled Knowledge for Chinese Spelling Correction
- Shulin Liu, Tao Yang, Tianchi Yue, Feng Zhang, Di Wang
- TLDR: Proponiamo un modello di masking per la correzione del gioco di parole e frasi.
- Competence-based Multimodal Curriculum Learning for Medical Report Generation
- Fenglin Liu, Shen Ge, Xian Wu
- TLDR: Proponiamo un modello di apprendimento multimodale basato sulla competenza per la generazione di report sanitari.
- Learning Syntactic Dense Embedding with Correlation Graph for Automatic Readability Assessment
- Xinying Qiu, Yuan Chen, Hanwu Chen, Jian-Yun Nie, Yuming Shen, Dawei Lu
- TLDR: Proponiamo di incorporare le feature linguistiche nei modelli di deep learning.
- Meta-KD: A Meta Knowledge Distillation Framework for Language Model Compression across Domains
- Haojie Pan, Chengyu Wang, Minghui Qiu, Yichang Zhang, Yaliang Li, Jun Huang
- TLDR: Proponiamo un metodo di meta-distillation per distillare la conoscenza tra domini e passeggere la conoscenza transferbile tra domini.
- A Semantic-based Method for Unsupervised Commonsense Question Answering
- Yilin Niu, Fei Huang, Jiaming Liang, Wenkai Chen, Xiaoyan Zhu, Minlie Huang
- TLDR: Proponiamo un nuovo metodo di question answering semantico basato sulla semantica per question answering unsupervised.
- Explanations for CommonsenseQA: New Dataset and Models
- Shourya Aggarwal, Divyanshu Mandowara, Vishwajeet Agrawal, Dinesh Khandelwal, Parag Singla, Dinesh Garg
- TLDR: Proponiamo un nuovo dataset di question answering common-sense per question answering.
- Few-Shot Question Answering by Pretraining Span Selection
- Ori Ram, Yuval Kirstain, Jonathan Berant, Amir Globerson, Omer Levy
- TLDR: Proponiamo un nuovo metodo per question answering basato sulla selezione di spanne ricorrenti.
- UnitedQA: A Hybrid Approach for Open Domain Question Answering
- Hao Cheng, Yelong Shen, Xiaodong Liu, Pengcheng He, Weizhu Chen, Jianfeng Gao
- TLDR: Proponiamo un approccio di apprendimento hybrid per sfruttare le risorse di entrambi i modelli di apprendimento.
- Database reasoning over text
- James Thorne, Majid Yazdani, Marzieh Saeidi, Fabrizio Silvestri, Sebastian Riedel, Alon Halevy
- TLDR: Proponiamo un modello di trasformazione per rispondere a query di testo e aggregato da più fonti di informazioni.
- Online Learning Meets Machine Translation Evaluation: Finding the Best Systems with the Least Human Effort
- Vânia Mendonça, Ricardo Rei, Luisa Coheur, Alberto Sardinha, Ana Lúcia Santos
- TLDR: Proponiamo un algoritmo di apprendimento online che, dato un ensemble di sistemi di traduzione automatica, converge automaticamente ai sistemi migliori, sfruttando il feedback umano.
- How Good is Your Tokenizer? On the Monolingual Performance of Multilingual Language Models
- Phillip Rust, Jonas Pfeiffer, Ivan Vulić, Sebastian Ruder, Iryna Gurevych
- TLDR: Proponiamo un confronto empirico e completo di modelli di linguaggi multilingue pretrained multilingue con loro controparti monolingue con la rivisitazione del token per la rappresentazione del linguaggio.
- Evaluating morphological typology in zero-shot cross-lingual transfer
- Antonio Martínez-García, Toni Badia, Jeremy Barnes
- TLDR: Proponiamo un metodo di tagger per cross-shot cross-language transfer basato sulla morphological typology.
- From Machine Translation to Code-Switching: Generating High-Quality Code-Switched Text
- Ishan Tarunesh, Syamantak Kumar, Preethi Jyothi
- TLDR: Proponiamo un modello di traduzione neurale per generare testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di testo di
- Fast and Accurate Neural Machine Translation with Translation Memory
- Qiuxiang He, Guoping Huang, Qu Cui, Li Li, Lemao Liu
- TLDR: Proponiamo un metodo per la traduzione neurale basata sulla traduzione multilingue utilizzando una memoria di traduzione.
- Annotating Online Misogyny
- Philine Zeinert, Nanna Inie, Leon Derczynski
- TLDR: Proponiamo un nuovo metodo per annotare la misogynity online.
- Few-NERD: A Few-shot Named Entity Recognition Dataset
- Ning Ding, Guangwei Xu, Yulin Chen, Xiaobin Wang, Xu Han, Pengjun Xie, Haitao Zheng, Zhiyuan Liu
- TLDR: Proponiamo Few-NERD, un dataset NER few shot umano-annodato con una hierarchia di 8 tipi di entity coarse-grained e 66 tipi di entity fine-grained.
- MultiMET: A Multimodal Dataset for Metaphor Understanding
- Dongyu Zhang, Minghao Zhang, Heting Zhang, Liang Yang, Hongfei Lin
- TLDR: Proponiamo un nuovo dataset multimodale per l’apprendimento automatico di metaphor.
- Human-in-the-Loop for Data Collection: a Multi-Target Counter Narrative Dataset to Fight Online Hate Speech
- Margherita Fanton, Helena Bonaldi, Serra Sinem Tekiroğlu, Marco Guerini
- TLDR: Proponiamo una nuova metodologia di human-in-the-loop per la generazione di speech/discussion counter-propagation.
- Can Generative Pre-trained Language Models Serve As Knowledge Bases for Closed-book QA?
- Cunxiang Wang, Pai Liu, Yue Zhang
- TLDR: Proponiamo un nuovo dataset di QA closed-book utilizzando SQuAD e SQuAD.
- Joint Models for Answer Verification in Question Answering Systems
- Zeyu Zhang, Thuy Vu, Alessandro Moschitti
- TLDR: Proponiamo un modello multi-classifier per la selezione delle risposte tra le risposte date da moduli di risposta (AS2).
- Answering Ambiguous Questions through Generative Evidence Fusion and Round-Trip Prediction
- Yifan Gao, Henghui Zhu, Patrick Ng, Cicero Nogueira dos Santos, Zhiguo Wang, Feng Nan, Dejiao Zhang, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: Proponiamo un nuovo metodo di round-trip prediction per rispondere alle domande open-domain.
- TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and Textual Content in Finance
- Fengbin Zhu, Wenqiang Lei, Youcheng Huang, Chao Wang, Shuo Zhang, Jiancheng Lv, Fuli Feng, Tat-Seng Chua
- TLDR: Proponiamo un nuovo modello di QA per question answering su dati di testo e dati di forma e TAT-QA per question answering su dati di forma e forma.
- Modeling Transitions of Focal Entities for Conversational Knowledge Base Question Answering
- Yunshi Lan, Jing Jiang
- TLDR: Proponiamo un modello basato sul grafi per modellare le informazioni di focalizzazione delle conversazioni.
- Evidence-based Factual Error Correction
- James Thorne, Andreas Vlachos
- TLDR: Proponiamo un metodo per correggere gli errori di verifica del testo basato sulla teoria del punto di vista dell’evidence per addestrare sistemi di errore correzione factual da dati di verifica del testo.
- Probabilistic, Structure-Aware Algorithms for Improved Variety, Accuracy, and Coverage of AMR Alignments
- Austin Blodgett, Nathan Schneider
- TLDR: Proponiamo un approccio per parsing, generazione e valutazione di grafi AMR senza bisogno di parsing di syntactic parsing.
- Meta-Learning to Compositionally Generalize
- Henry Conklin, Bailin Wang, Kenny Smith, Ivan Titov
- TLDR: Proponiamo un metodo di meta-learning che ottimizza la generalizzazione fuori distribuzione per il meta-learning.
- Taming Pre-trained Language Models with N-gram Representations for Low-Resource Domain Adaptation
- Shizhe Diao, Ruijia Xu, Hongjin Su, Yilei Jiang, Yan Song, Tong Zhang
- TLDR: Proponiamo un modello pretrained generico basato su n-gram per downstream NLP.
- ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning
- Yujia Qin, Yankai Lin, Ryuichi Takanobu, Zhiyuan Liu, Peng Li, Heng Ji, Minlie Huang, Maosong Sun, Jie Zhou
- TLDR: Proponiamo un nuovo approccio di contrastive learning per imparare a comprendere le relazioni tra le entità e le relazioni nel testo.
- Position Bias Mitigation: A Knowledge-Aware Graph Model for Emotion Cause Extraction
- Hanqi Yan, Lin Gui, Gabriele Pergola, Yulan He
- TLDR: Proponiamo un nuovo metodo per addestrare modelli di causalizzazione per ECE che esplorano informazioni relative alla posizione di una causale candidata.
- Every Bite Is an Experience: Key Point Analysis of Business Reviews
- Roy Bar-Haim, Lilach Eden, Yoav Kantor, Roni Friedman, Noam Slonim
- TLDR: Proponiamo un nuovo metodo di summarization per la valutazione di review che fornisce una sintesi testuale e quantitativa della sintesi del testo e della frase.
- Structured Sentiment Analysis as Dependency Graph Parsing
- Jeremy Barnes, Robin Kurtz, Stephan Oepen, Lilja Øvrelid, Erik Velldal
- TLDR: Proponiamo un nuovo metodo per strutturare il sentiment parsing basato sulla dipendenza dai grafi.
- Consistency Regularization for Cross-Lingual Fine-Tuning
- Bo Zheng, Li Dong, Shaohan Huang, Wenhui Wang, Zewen Chi, Saksham Singhal, Wanxiang Che, Ting Liu, Xia Song, Furu Wei
- TLDR: Proponiamo di migliorare il fine-tuning del linguaggio multilingue con regolarizzazione della consistenza.
- Improving Pretrained Cross-Lingual Language Models via Self-Labeled Word Alignment
- Zewen Chi, Li Dong, Bo Zheng, Shaohan Huang, Xian-Ling Mao, Heyan Huang, Furu Wei
- TLDR: Proponiamo un task di pre-training multilingue per l’apprendimento di language model pretrained.
- Rejuvenating Low-Frequency Words: Making the Most of Parallel Data in Non-Autoregressive Translation
- Liang Ding, Longyue Wang, Xuebo Liu, Derek F. Wong, Dacheng Tao, Zhaopeng Tu
- TLDR: Proponiamo di utilizzare la distillation per migliorare le prestazioni di apprendimento non autoregressivo della traduzione utilizzando il pretraining.
- G-Transformer for Document-Level Machine Translation
- Guangsheng Bao, Yue Zhang, Zhiyang Teng, Boxing Chen, Weihua Luo
- TLDR: Proponiamo G-Transformer, un modello di MT che può convergere più velocemente e più stabilmente di Transformer.
- Prevent the Language Model from being Overconfident in Neural Machine Translation
- Mengqi Miao, Fandong Meng, Yijin Liu, Xiao-Hua Zhou, Jie Zhou
- TLDR: Proponiamo un metodo per sfruttare la Margin per migliorare la qualità della traduzione e la fluenza.
- Towards Emotional Support Dialog Systems
- Siyang Liu, Chujie Zheng, Orianna Demasi, Sahand Sabour, Yu Li, Zhou Yu, Yong Jiang, Minlie Huang
- TLDR: Proponiamo un task di Emotion Support Conversation (ESC) basato sulla teoria della cognizione aiutando le conversazioni di supporto emotivo.
- Novel Slot Detection: A Benchmark for Discovering Unknown Slot Types in the Task-Oriented Dialogue System
- Yanan Wu, Zhiyuan Zeng, Keqing He, Hong Xu, Yuanmeng Yan, Huixing Jiang, Weiran Xu
- TLDR: Proponiamo un nuovo task di rilevamento del slot nel dialogue system basato sul training in-domain.
- GTM: A Generative Triple-wise Model for Conversational Question Generation
- Lei Shen, Fandong Meng, Jinchao Zhang, Yang Feng, Jie Zhou
- TLDR: Proponiamo un modello generativo triple-wise con variazioni gerarchiche per open-domain conversational question generation (CQG).
- Diversifying Dialog Generation via Adaptive Label Smoothing
- Yida Wang, Yinhe Zheng, Yong Jiang, Minlie Huang
- TLDR: Proponiamo un approccio di stima delle distribuzioni di target per dialogue generation neurali.
- Out-of-Scope Intent Detection with Self-Supervision and Discriminative Training
- Li-Ming Zhan, Haowen Liang, Bo Liu, Lu Fan, Xiao-Ming Wu, Albert Y.S. Lam
- TLDR: Proponiamo un metodo per addestrare un classificatore di intent discriminante in modo end-to-end utilizzando pseudo outliers.
- Document-level Event Extraction via Heterogeneous Graph-based Interaction Model with a Tracker
- Runxin Xu, Tianyu Liu, Lei Li, Baobao Chang
- TLDR: Proponiamo un modello di interazione grafi per l’apprendimento di eventi document-level.
- Nested Named Entity Recognition via Explicitly Excluding the Influence of the Best Path
- Yiran Wang, Hiroyuki Shindo, Yuji Matsumoto, Taro Watanabe
- TLDR: Proponiamo un metodo per riconoscere le proprietà di apprendimento di un insieme di enti di origine nested named.
- LearnDA: Learnable Knowledge-Guided Data Augmentation for Event Causality Identification
- Xinyu Zuo, Pengfei Cao, Yubo Chen, Kang Liu, Jun Zhao, Weihua Peng, Yuguang Chen
- TLDR: Proponiamo un metodo per aumentare i dati di training per eventi causali per eventi causali.
- Revisiting the Negative Data of Distantly Supervised Relation Extraction
- Chenhao Xie, Jiaqing Liang, Jingping Liu, Chengsong Huang, Wenhao Huang, Yanghua Xiao
- TLDR: Proponiamo un metodo di apprendimento unlabeled per risolvere il problema di extrazione delle relazioni.
- Knowing the No-match: Entity Alignment with Dangling Cases
- Zequn Sun, Muhao Chen, Wei Hu
- TLDR: Proponiamo un framework multi-task per l’apprendimento di alignment e la rilevamento delle entity.
- Superbizarre Is Not Superb: Derivational Morphology Improves BERT’s Interpretation of Complex Words
- Valentin Hofmann, Janet Pierrehumbert, Hinrich Schütze
- TLDR: Proponiamo un modello di derivazione di parole complesse che può essere interpretato come un modello di dual-route, e mostriamo che le capacità di generalizzazione potrebbero essere migliorate se un vocabulario morphologicalmente informato degli input token e un vocabulario di input token utilizzate.
- BERT is to NLP what AlexNet is to CV: Can Pre-Trained Language Models Identify Analogies?
- Asahi Ushio, Luis Espinosa Anke, Steven Schockaert, Jose Camacho-Collados
- TLDR: Proponiamo un metodo per imparare le proprietà di apprendimento dei language model basati sul trasformatore.
- Exploring the Representation of Word Meanings in Context: A Case Study on Homonymy and Synonymy
- Marcos Garcia
- TLDR: Proponiamo un nuovo dataset multilingue per valutare la rappresentazione dei significati dei termini nel contesto.
- Measuring Fine-Grained Domain Relevance of Terms: A Hierarchical Core-Fringe Approach
- Jie Huang, Kevin Chang, JinJun Xiong, Wen-mei Hwu
- TLDR: Proponiamo di misurare la rilevanza del dominio fine-grained, cioè la quantità di termini di dominio che sono rilevanti per un dominio ampio o piccolo.
- HERALD: An Annotation Efficient Method to Detect User Disengagement in Social Conversations
- Weixin Liang, Kai-Hui Liang, Zhou Yu
- TLDR: Proponiamo un metodo di annotazione efficiente per rilevare il disengagement degli utenti.
- Value-Agnostic Conversational Semantic Parsing
- Emmanouil Antonios Platanios, Adam Pauls, Subhro Roy, Yuchen Zhang, Alexander Kyte, Alan Guo, Sam Thomson, Jayant Krishnamurthy, Jason Wolfe, Jacob Andreas, Dan Klein
- TLDR: Proponiamo un modello di parsing conversazionale che abstracta i valori per concentrare la predizione sul contesto del tipo e del modello del modello del tipo.
- MPC-BERT: A Pre-Trained Language Model for Multi-Party Conversation Understanding
- Jia-Chen Gu, Chongyang Tao, Zhenhua Ling, Can Xu, Xiubo Geng, Daxin Jiang
- TLDR: Proponiamo un modello di comprensione multi-party per la predizione e la selezione del comportamento di risposta.
- Best of Both Worlds: Making High Accuracy Non-incremental Transformer-based Disfluency Detection Incremental
- Morteza Rohanian, Julian Hough
- TLDR: Proponiamo un metodo per processare le parole e le frasi incrementalmente per processare le parole e le frasi.
- NeuralWOZ: Learning to Collect Task-Oriented Dialogue via Model-Based Simulation
- Sungdong Kim, Minsuk Chang, Sang-Woo Lee
- TLDR: Proponiamo NeuralWOZ, un nuovo framework di dialogue collection basato sulla simulazione del dialogo che utilizza la simulazione del dialogo per generare dialogue.
- CDRNN: Discovering Complex Dynamics in Human Language Processing
- Cory Shain
- TLDR: Proponiamo una deep neural network regressiva per il processo di comprensione umano.
- Structural Guidance for Transformer Language Models
- Peng Qian, Tahira Naseem, Roger Levy, Ramón Fernandez Astudillo
- TLDR: Proponiamo un modello di Transformer per la parsing e la semantica, e mostriamo che le supervisione strutturali possono produrre una generalizzazione più robusta e umana come la generalizzazione in Transformer senza il bisogno di data intensive di training.
- Surprisal Estimators for Human Reading Times Need Character Models
- Byung-Doh Oh, Christian Clark, William Schuler
- TLDR: Proponiamo un modello di processo strutturale per la modellazione del linguaggio per la generazione di frasi.
- CogAlign: Learning to Align Textual Neural Representations to Cognitive Language Processing Signals
- Yuqi Ren, Deyi Xiong
- TLDR: Proponiamo un approccio di coerenza per risolvere il problema del divario tra le rappresentazioni neurali e le feature cognitive.
- Self-Attention Networks Can Process Bounded Hierarchical Languages
- Shunyu Yao, Binghui Peng, Christos Papadimitriou, Karthik Narasimhan
- TLDR: Proponiamo di addestrare self-attention network per processare i linguaggi naturali.
- TextSETTR: Few-Shot Text Style Extraction and Tunable Targeted Restyling
- Parker Riley, Noah Constant, Mandy Guo, Girish Kumar, David Uthus, Zarana Parekh
- TLDR: Proponiamo un nuovo approccio per risolvere il problema dello stile del testo utilizzando un testo non annotato e leggibile da utilizzare per il transfer dello stile del testo.
- H-Transformer-1D: Fast One-Dimensional Hierarchical Attention for Sequences
- Zhenhai Zhu, Radu Soricut
- TLDR: Proponiamo un metodo efficiente gerarchico per competere attention in Transformer.
- Making Pre-trained Language Models Better Few-shot Learners
- Tianyu Gao, Adam Fisch, Danqi Chen
- TLDR: Proponiamo un metodo per fine-tuning few shot dei language model utilizzando una suite di tecniche complementarie per fine-tuning language model.
- A Sweet Rabbit Hole by DARCY: Using Honeypots to Detect Universal Trigger’s Adversarial Attacks
- Thai Le, Noseong Park, Dongwon Lee
- TLDR: Proponiamo DARCY, un framework di difesa basato sul concetto di honeypot per difendersi efficacemente dagli attacchi di UniTrigger.
- Towards Propagation Uncertainty: Edge-enhanced Bayesian Graph Convolutional Networks for Rumor Detection
- Lingwei Wei, Dou Hu, Wei Zhou, Zhaojuan Yue, Songlin Hu
- TLDR: Proponiamo un modello di Graph Convolutional Network Edge-enhanced per rilevare rumore sui social media.
- Label-Specific Dual Graph Neural Network for Multi-Label Text Classification
- Qianwen Ma, Chunyuan Yuan, Wei Zhou, Songlin Hu
- TLDR: Proponiamo un modello di apprendimento multilabel basato sulla co-occurrenza statistica e dinamica per la classificazione del testo multilabel.
- TAN-NTM: Topic Attention Networks for Neural Topic Modeling
- Madhur Panwar, Shashank Shailabh, Milan Aggarwal, Balaji Krishnamurthy
- TLDR: Proponiamo un nuovo modello topic-aware per la scoperta del topic.
- Cross-language Sentence Selection via Data Augmentation and Rationale Training
- Yanda Chen, Chris Kedzie, Suraj Nair, Petra Galuscakova, Rui Zhang, Douglas Oard, Kathleen McKeown
- TLDR: Proponiamo un approccio per la selezione di frasi tra lingue nel setting low-resource.
- A Neural Model for Joint Document and Snippet Ranking in Question Answering for Large Document Collections
- Dimitris Pappas, Ion Androutsopoulos
- TLDR: Proponiamo un modello di QA basato sul documento e sul ranking per question answering.
- W-RST: Towards a Weighted RST-style Discourse Framework
- Patrick Huber, Wen Xiao, Giuseppe Carenini
- TLDR: Proponiamo un framework di valutazione per la valutazione di RST Nuclearity, che può essere utilizzato per sostituire la valutazione binaria di importance, generata automaticamente, con score reali.
- ABCD: A Graph Framework to Convert Complex Sentences to a Covering Set of Simple Sentences
- Yanjun Gao, Ting-Hao Huang, Rebecca J. Passonneau
- TLDR: Proponiamo un nuovo task per decomporre le frasi in termini di grafi, e un nuovo task di formulazione del problema come un task di graph edit.
- Which Linguist Invented the Lightbulb? Presupposition Verification for Question-Answering
- Najoung Kim, Ellie Pavlick, Burcu Karagol Ayan, Deepak Ramachandran
- TLDR: Proponiamo un nuovo metodo per risolvere il problema di QA end-to-end utilizzando presupposizio e spiegazioni.
- Adversarial Learning for Discourse Rhetorical Structure Parsing
- Longyin Zhang, Fang Kong, Guodong Zhou
- TLDR: Proponiamo un nuovo metodo per parsing la struttura del testo a livello di testo per la predizione di DRS.
- Exploring Discourse Structures for Argument Impact Classification
- Xin Liu, Jiefu Ou, Yangqiu Song, Xin Jiang
- TLDR: Proponiamo DisCOC per addestrare le strutture strutturali del discorso tra i concetti di discorso e la comunicazione tra i concetti.
- Point, Disambiguate and Copy: Incorporating Bilingual Dictionaries for Neural Machine Translation
- Tong Zhang, Long Zhang, Wei Ye, Bo Li, Jinan Sun, Xiaoyu Zhu, Wen Zhao, Shikun Zhang
- TLDR: Proponiamo un nuovo metodo per incorporare dizionari bilingui in modelli di Neural Machine Translation (NMT) utilizzando informazioni semantiche e contestuali.
- VECO: Variable and Flexible Cross-lingual Pre-training for Language Understanding and Generation
- Fuli Luo, Wei Wang, Jiahao Liu, Yijia Liu, Bin Bi, Songfang Huang, Fei Huang, Luo Si
- TLDR: Proponiamo un modello di transformer multilingue per la comprensione e la generazione di sequenze di testo e sequenze di frasi.
- A unified approach to sentence segmentation of punctuated text in many languages
- Rachel Wicks, Matt Post
- TLDR: Un’analisi di testo per NLP
- Towards User-Driven Neural Machine Translation
- Huan Lin, Liang Yao, Baosong Yang, Dayiheng Liu, Haibo Zhang, Weihua Luo, Degen Huang, Jinsong Su
- TLDR: Proponiamo un nuovo metodo di apprendimento basato sul comportamento per la traduzione neurale neurale basata sulla trasformazione del testo originale in rappresentazioni personalizzate del testo originale.
- End-to-End Lexically Constrained Machine Translation for Morphologically Rich Languages
- Josef Jon, João Paulo Aires, Dusan Varis, Ondřej Bojar
- TLDR: Proponiamo un metodo per addestrare il modello di traduzione neurale per la traduzione di termini con vincoli di apprendimento.
- Handling Extreme Class Imbalance in Technical Logbook Datasets
- Farhad Akhbardeh, Cecilia Ovesdotter Alm, Marcos Zampieri, Travis Desell
- TLDR: Proponiamo un metodo di feedback per gestire la classificazione degli eventi technical logbook.
- ILDC for CJPE: Indian Legal Documents Corpus for Court Judgment Prediction and Explanation
- Vijit Malik, Rishabh Sanjay, Shubham Kumar Nigam, Kripabandhu Ghosh, Shouvik Kumar Guha, Arnab Bhattacharya, Ashutosh Modi
- TLDR: Proponiamo il task di predizioni e esecuzione del giudizio di giudice e dimostriamo che le spiegazioni legali possono essere spiegate.
- Supporting Cognitive and Emotional Empathic Writing of Students
- Thiemo Wambsganss, Christina Niklaus, Matthias Söllner, Siegfried Handschuh, Jan Marco Leimeister
- TLDR: Proponiamo un metodo di annotazione per capturing la capacità di empatia nelle reviews di peer review scritte da studenti su modelli di apprendimento di testo umano e cognitivo.
- Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open Domain Question Answering
- Alexander Hanbo Li, Patrick Ng, Peng Xu, Henghui Zhu, Zhiguo Wang, Bing Xiang
- TLDR: Proponiamo un nuovo metodo di question answering open-domain che utilizza informazioni strutturate come input e genera risposte strutturate da dati strutturati.
- Generation-Augmented Retrieval for Open-Domain Question Answering
- Yuning Mao, Pengcheng He, Xiaodong Liu, Yelong Shen, Jianfeng Gao, Jiawei Han, Weizhu Chen
- TLDR: Proponiamo un metodo di generazione di contesti per rispondere alle domande open-domain.
- Check It Again:Progressive Visual Question Answering via Visual Entailment
- Qingyi Si, Zheng Lin, Ming yu Zheng, Peng Fu, Weiping Wang
- TLDR: Proponiamo un metodo di selezione e rerank basato sul visual entailment per VQA-CP.
- A Mutual Information Maximization Approach for the Spurious Solution Problem in Weakly Supervised Question Answering
- Zhihong Shao, Lifeng Shang, Qun Liu, Minlie Huang
- TLDR: Proponiamo un metodo per sfruttare le correlazioni semantiche tra le domande e le soluzioni.
- Breaking Down Walls of Text: How Can NLP Benefit Consumer Privacy?
- Abhilasha Ravichander, Alan W Black, Thomas Norton, Shomir Wilson, Norman Sadeh
- TLDR: Proponiamo un framework per sviluppare tecnologie di linguaggio per gestire la privacy attraverso la lettura e la comprensione del testo delle policy di privacy.
- Supporting Land Reuse of Former Open Pit Mining Sites using Text Classification and Active Learning
- Christopher Schröder, Kim Bürgl, Yves Annanias, Andreas Niekler, Lydia Müller, Daniel Wiegreffe, Christian Bender, Christoph Mengs, Gerik Scheuermann, Gerhard Heyer
- TLDR: Proponiamo un nuovo approccio di active learning per gestire il post-mining nel dominio delle open pit.
- Reliability Testing for Natural Language Processing Systems
- Samson Tan, Shafiq Joty, Kathy Baxter, Araz Taeihagh, Gregory A. Bennett, Min-Yen Kan
- TLDR: Proponiamo un framework per la valutazione della robustezza e la trasparenza dei sistemi di apprendimento automatico.
- Learning Language and Multimodal Privacy-Preserving Markers of Mood from Mobile Data
- Paul Pu Liang, Terrance Liu, Anna Cai, Michal Muszynski, Ryo Ishii, Nick Allen, Randy Auerbach, David Brent, Ruslan Salakhutdinov, Louis-Philippe Morency
- TLDR: Proponiamo un modello di apprendimento per misurare il comportamento umano in modo indipendente dalla privacy.
- Anonymisation Models for Text Data: State of the art, Challenges and Future Directions
- Pierre Lison, Ildikó Pilán, David Sanchez, Montserrat Batet, Lilja Øvrelid
- TLDR: Proponiamo un nuovo metodo per trattare il problema della text anonymization.
- End-to-End AMR Coreference Resolution
- Qiankun Fu, Linfeng Song, Wenyu Du, Yue Zhang
- TLDR: Proponiamo un metodo per costruire AMR end-to-end che può rappresentare informazioni multi-sentence.
- How is BERT surprised? Layerwise detection of linguistic anomalies
- Bai Li, Zining Zhu, Guillaume Thomas, Yang Xu, Frank Rudzicz
- TLDR: Proponiamo un metodo per rilevare le anomalie linguistiche nei modelli di transformer.
- Psycholinguistic Tripartite Graph Network for Personality Detection
- Tao Yang, Feifan Yang, Haolan Ouyang, Xiaojun Quan
- TLDR: Proponiamo una nuova graph attention network basata sulla conoscenza della linguaggi per graph learning.
- Verb Metaphor Detection via Contextual Relation Learning
- Wei Song, Shuhui Zhou, Ruiji Fu, Ting Liu, Lizhen Liu
- TLDR: Proponiamo BERT, un modello di metaphor-relation che modella esplicitamente la relazione tra un termine e i suoi contesti grammatici, letterali, semantici e semantici.
- Improving Speech Translation by Understanding and Learning from the Auxiliary Text Translation Task
- Yun Tang, Juan Pino, Xian Li, Changhan Wang, Dmitriy Genzel
- TLDR: Proponiamo un nuovo metodo per migliorare la qualità della traduzione tra testo e espressione vocale.
- Probing Toxic Content in Large Pre-Trained Language Models
- Nedjma Ousidhoum, Xinran Zhao, Tianqing Fang, Yangqiu Song, Dit-Yan Yeung
- TLDR: Proponiamo un metodo di analisi per rilevare le informazioni negative dei modelli di linguaggio naturale pre-trained e il loro contenuto potenzialmente toxic.
- Societal Biases in Language Generation: Progress and Challenges
- Emily Sheng, Kai-Wei Chang, Prem Natarajan, Nanyun Peng
- TLDR: Proponiamo un’indagine sul bias sociale nella generazione del linguaggio e dimostriamo che le tecniche di decodifica possono essere utilizzate per ridurre il bias.
- Reservoir Transformers
- Sheng Shen, Alexei Baevski, Ari Morcos, Kurt Keutzer, Michael Auli, Douwe Kiela
- TLDR: Proponiamo un nuovo metodo per addestrare transformer che migliora le prestazioni di convergenza e la precisione di apprendimento.
- Subsequence Based Deep Active Learning for Named Entity Recognition
- Puria Radmard, Yassir Fathullah, Aldo Lipani
- TLDR: Proponiamo un metodo per query subsequenze e propagarle attraverso altre frasi.
- Convolutions and Self-Attention: Re-interpreting Relative Positions in Pre-trained Language Models
- Tyler Chang, Yifan Xu, Weijian Xu, Zhuowen Tu
- TLDR: Proponiamo un metodo di attention composite per integrare le convoluzioni dinamiche e le convoluzioni dinamiche nel training di language model.
- BinaryBERT: Pushing the Limit of BERT Quantization
- Haoli Bai, Wei Zhang, Lu Hou, Lifeng Shang, Jin Jin, Xin Jiang, Qun Liu, Michael Lyu, Irwin King
- TLDR: Proponiamo un modello binario di calcolo per language model compressione.
- Are Pretrained Convolutions Better than Pretrained Transformers?
- Yi Tay, Mostafa Dehghani, Jai Prakash Gupta, Vamsi Aribandi, Dara Bahri, Zhen Qin, Donald Metzler
- TLDR: Proponiamo un nuovo metodo per confrontare le convoluzioni con le Transformer.
- PairRE: Knowledge Graph Embeddings via Paired Relation Vectors
- Linlin Chao, Jianshan He, Taifeng Wang, Wei Chu
- TLDR: Proponiamo un modello di embedding basato sulla distanza per risolvere il task di predizione dei grafi.
- Hierarchy-aware Label Semantics Matching Network for Hierarchical Text Classification
- Haibin Chen, Qianli Ma, Zhenxi Lin, Jiangyue Yan
- TLDR: Proponiamo HiMatch, un modello di matching learning per la semantica tra testo e label.
- HiddenCut: Simple Data Augmentation for Natural Language Understanding with Better Generalizability
- Jiaao Chen, Dinghan Shen, Weizhu Chen, Diyi Yang
- TLDR: Proponiamo un metodo di augmentation dei dati per fine-tuning di modelli pre-trained con dati specifici del task.
- Neural Stylistic Response Generation with Disentangled Latent Variables
- Qingfu Zhu, Wei-Nan Zhang, Ting Liu, William Yang Wang
- TLDR: Proponiamo di distolarizzare il contenuto e lo stile nello spazio latente di conversazione e dimostriamo che questo migliora la qualità dello stile e la sua importanza nella comunicazione.
- Intent Classification and Slot Filling for Privacy Policies
- Wasi Ahmad, Jianfeng Chi, Tu Le, Thomas Norton, Yuan Tian, Kai-Wei Chang
- TLDR: Proponiamo PolicyIE, un corpus di annotazione e annotazione di policy privacy di applicazioni web e mobile.
- RADDLE: An Evaluation Benchmark and Analysis Platform for Robust Task-oriented Dialog Systems
- Baolin Peng, Chunyuan Li, Zhu Zhang, Chenguang Zhu, Jinchao Li, Jianfeng Gao
- TLDR: Proponiamo un benchmark di robustezza basato sul pre-training e il fine-tuning per dialogare con un modello di dialogo multi-task.
- Semantic Representation for Dialogue Modeling
- Xuefeng Bai, Yulong Chen, Linfeng Song, Yue Zhang
- TLDR: Proponiamo un modello di dialogo neurale che sfrutta la rappresentazione semantica dell’AMR per migliorare la comprensione e la generazione di risposte.
- A Pre-training Strategy for Zero-Resource Response Selection in Knowledge-Grounded Conversations
- Chongyang Tao, Changyu Chen, Jiazhan Feng, Ji-Rong Wen, Rui Yan
- TLDR: Proponiamo un nuovo metodo per selezionare le risposte di dialogo basato sulla conoscenza del contesto, che può essere addestrato per rispondere a una grande quantità di conversazioni multi-turn.
- Dependency-driven Relation Extraction with Attentive Graph Convolutional Networks
- Yuanhe Tian, Guimin Chen, Yan Song, Xiang Wan
- TLDR: Proponiamo un approccio di dependency-driven per relation extraction con graph convolutional network attentive.
- Evaluating Entity Disambiguation and the Role of Popularity in Retrieval-Based NLP
- Anthony Chen, Pallavi Gudipati, Shayne Longpre, Xiao Ling, Sameer Singh
- TLDR: Proponiamo un benchmark per valutare le capacità di disambiguazione delle reti di retrieval popolari per open-domain task.
- Evaluation Examples are not Equally Informative: How should that change NLP Leaderboards?
- Pedro Rodriguez, Joe Barrow, Alexander Miserlis Hoyle, John P. Lalor, Robin Jia, Jordan Boyd-Graber
- TLDR: Proponiamo un modello di leaderboard bayesiano basato sul training per valutare la robustezza dei modelli di classificazione basati sulla capacità di predizione.
- Claim Matching Beyond English to Scale Global Fact-Checking
- Ashkan Kazemi, Kiran Garimella, Devin Gaffney, Scott Hale
- TLDR: Proponiamo un nuovo dataset di testo e testo di WhatsApp per il matching di claim.
- SemFace: Pre-training Encoder and Decoder with a Semantic Interface for Neural Machine Translation
- Shuo Ren, Long Zhou, Shujie Liu, Furu Wei, Ming Zhou, Shuai Ma
- TLDR: Proponiamo un metodo di pre-training per la traduzione neurale utilizzando un’interfaccia semantica tra il decoder pre-trained e il decoder pre-trained.
- Energy-Based Reranking: Improving Neural Machine Translation Using Energy-Based Models
- Sumanta Bhattacharyya, Amirmohammad Rooshenas, Subhajit Naskar, Simeng Sun, Mohit Iyyer, Andrew McCallum
- TLDR: Proponiamo un modello di training basato sulla stima della massima probabilità per la traduzione neurale neurale autoregressiva.
- Syntax-augmented Multilingual BERT for Cross-lingual Transfer
- Wasi Ahmad, Haoran Li, Kai-Wei Chang, Yashar Mehdad
- TLDR: Proponiamo la sintassi per multilingual text encoder e il transfer migliora il transfer tra lingue.
- How to Adapt Your Pretrained Multilingual Model to 1600 Languages
- Abteen Ebrahimi, Katharina Kann
- TLDR: Proponiamo un metodo per adattare le multilingual model a nuovi linguaggi utilizzando una risorsa di testo disponibile per close a 1600 lingue.
- Weakly Supervised Named Entity Tagging with Learnable Logical Rules
- Jiacheng Li, Haibo Ding, Jingbo Shang, Julian McAuley, Zhe Feng
- TLDR: Proponiamo un metodo di training di tagger neurale che bootstrappa regole logiche di alto livello per addestrare un tagger neurale in modo completamente automatizzato.
- Prefix-Tuning: Optimizing Continuous Prompts for Generation
- Xiang Lisa Li, Percy Liang
- TLDR: Proponiamo un metodo di fine-tuning per la generazione di testi e di immagini utilizzando la semantica per generare le informazioni.
- One2Set: Generating Diverse Keyphrases as a Set
- Jiacheng Ye, Tao Gui, Yichao Luo, Yige Xu, Qi Zhang
- TLDR: Proponiamo un nuovo metodo per generare sequenze di parole e frasi in modo semantico senza predefinire un ordine di concattazione.
- Continuous Language Generative Flow
- Zineng Tang, Shiyue Zhang, Hyounghun Kim, Mohit Bansal
- TLDR: Proponiamo un modello di generazione di linguaggio basato sul flusso per la generazione di testi autoregressivi.
- TWAG: A Topic-Guided Wikipedia Abstract Generator
- Fangwei Zhu, Shangqing Tu, Jiaxin Shi, Juanzi Li, Lei Hou, Tong Cui
- TLDR: Proponiamo un modello di generazione di abstract che guida la generazione di informazioni topicali per Wikipedia.
- ForecastQA: A Question Answering Challenge for Event Forecasting with Temporal Text Data
- Woojeong Jin, Rahul Khanna, Suji Kim, Dong-Ho Lee, Fred Morstatter, Aram Galstyan, Xiang Ren
- TLDR: Proponiamo un task di question-answering per la predizione degli eventi temporali.
- Recursive Tree-Structured Self-Attention for Answer Sentence Selection
- Khalil Mrini, Emilia Farcas, Ndapa Nakashole
- TLDR: Proponiamo Tree Aggregation Transformer: un modello di self-attention strutturato da tre strati di self-attention per l’apprendimento di question answering.
- How Knowledge Graph and Attention Help? A Qualitative Analysis into Bag-level Relation Extraction
- Zikun Hu, Yixin Cao, Lifu Huang, Tat-Seng Chua
- TLDR: Proponiamo un metodo per valutare il ruolo di attention e il meccanismo di attention nel miglioramento delle prestazioni di ricerca di relation extraction (RE) e dimostriamo che le prestazioni di ricerca di relation extraction migliorano le prestazioni di ricerca di relation extraction.
- Trigger is Not Sufficient: Exploiting Frame-aware Knowledge for Implicit Event Argument Extraction
- Kaiwen Wei, Xian Sun, Zequn Zhang, Jingyuan Zhang, Guo Zhi, Li Jin
- TLDR: Proponiamo un framework di apprendimento di eventi argument-aware per risolvere il problema del ragionamento in ambito di eventi.
- Element Intervention for Open Relation Extraction
- Fangchao Liu, Lingyong Yan, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: Proponiamo di risolvere il problema della cluster relation tramite Open relation strutturale causale.
- AdaTag: Multi-Attribute Value Extraction from Product Profiles with Adaptive Decoding
- Jun Yan, Nasser Zalmout, Yan Liang, Christan Grant, Xiang Ren, Xin Luna Dong
- TLDR: Proponiamo un decoder di attributi per l’apprendimento multi-attribute, che utilizza il decoder di attributi per gestire l’apprendimento multi-attribute.
- CoRI: Collective Relation Integration with Data Augmentation for Open Information Extraction
- Zhengbao Jiang, Jialong Han, Bunyamin Sisman, Xin Luna Dong
- TLDR: Proponiamo un modello di relation integration multi-stage per l’apprendimento di knowledge graph.
- Benchmarking Scalable Methods for Streaming Cross Document Entity Coreference
- Robert L Logan IV, Andrew McCallum, Sameer Singh, Dan Bikel
- TLDR: Proponiamo un nuovo metodo per disambiguare le mention di named entity in modo scalabile tramite incremental clustering.
- Search from History and Reason for Future: Two-stage Reasoning on Temporal Knowledge Graphs
- Zixuan Li, Xiaolong Jin, Saiping Guan, Wei Li, Jiafeng Guo, Yuanzhuo Wang, Xueqi Cheng
- TLDR: Proponiamo un metodo di ricerca di clue per risolvere il problema di temporal reasoning.
- Employing Argumentation Knowledge Graphs for Neural Argument Generation
- Khalid Al Khatib, Lukas Trautner, Henning Wachsmuth, Yufang Hou, Benno Stein
- TLDR: Proponiamo un approccio per generare grafi di knowledge per la generazione di articoli di dialogo.
- Learning Span-Level Interactions for Aspect Sentiment Triplet Extraction
- Lu Xu, Yew Ken Chia, Lidong Bing
- TLDR: Proponiamo un metodo per addestrare la triplet extraction con attention span multi-word target e opinion.
- On Compositional Generalization of Neural Machine Translation
- Yafu Li, Yongjing Yin, Yulong Chen, Yue Zhang
- TLDR: Proponiamo un modello di neural machine translation che migliora le prestazioni su scala di composizioni e architettura.
- Mask-Align: Self-Supervised Neural Word Alignment
- Chi Chen, Maosong Sun, Yang Liu
- TLDR: Proponiamo Mask-Align, un modello di word alignment self-supervised che sfrutta il contesto del target per ottenere risultati allo stato dell’arte.
- GWLAN: General Word-Level AutocompletioN for Computer-Aided Translation
- Huayang Li, Lemao Liu, Guoping Huang, Shuming Shi
- TLDR: Proponiamo un task di generalizzazione word-level autocompletion (GWLAN) da un scenario reale di translazione computer-aided.
- De-biasing Distantly Supervised Named Entity Recognition via Causal Intervention
- Wenkai Zhang, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: Proponiamo un regolatore di invarianza causale per la perturbazione dei dizionari.
- A Span-Based Model for Joint Overlapped and Discontinuous Named Entity Recognition
- Fei Li, ZhiChao Lin, Meishan Zhang, Donghong Ji
- TLDR: Proponiamo un modello di riconoscimento delle entità con span basato sul modello di relational recognition per NER con span sovrapposti.
- MLBiNet: A Cross-Sentence Collective Event Detection Network
- Dongfang Lou, Zhilin Liao, Shumin Deng, Ningyu Zhang, Huajun Chen
- TLDR: Proponiamo un task Seq2Seq per rilevare eventi multiple, e riformuliamo il task come Seq2Seq.
- Exploiting Document Structures and Cluster Consistencies for Event Coreference Resolution
- Hieu Minh Tran, Duy Phung, Thien Huu Nguyen
- TLDR: Proponiamo un modello di deep learning per ECR che sfrutta le strutture dei documenti per catturare le informazioni di contesto.
- StereoRel: Relational Triple Extraction from a Stereoscopic Perspective
- Xuetao Tian, Liping Jing, Lu He, Feng Liu
- TLDR: Proponiamo un nuovo metodo per relational triple extraction, che sfrutta tre decoder per gestire simultaneamente le informazioni di interazione tra le triple.
- Knowledge-Enriched Event Causality Identification via Latent Structure Induction Networks
- Pengfei Cao, Xinyu Zuo, Yubo Chen, Kang Liu, Jun Zhao, Yuguang Chen, Weihua Peng
- TLDR: Proponiamo un nuovo metodo per imparare la struttura strutturale dei grafi per il ragionamento causale.
- Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word Substitution
- Fanchao Qi, Yuan Yao, Sophia Xu, Zhiyuan Liu, Maosong Sun
- TLDR: Proponiamo un’architettura di backdoor invisibile per il riconoscimento di parole e frasi.
- Parameter-Efficient Transfer Learning with Diff Pruning
- Demi Guo, Alexander Rush, Yoon Kim
- TLDR: Proponiamo un metodo di pruning per imparare un vector specifico per ogni task.
- R2D2: Recursive Transformer based on Differentiable Tree for Interpretable Hierarchical Language Modeling
- Xiang Hu, Haitao Mi, Zujie Wen, Yafang Wang, Yi Su, Jing Zheng, Gerard de Melo
- TLDR: Proponiamo un modello di Transformer basato su tre binari differenziabili CKY style binary tre per modellare il processo di composizione del linguaggio.
- Risk Minimization for Zero-shot Sequence Labeling
- Zechuan Hu, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: Proponiamo un nuovo framework unificato per la labelling selettiva di sequenze di dati senza annotazione umana e designiamo una nuova funzione di rischio decomposabile che modella le relazioni tra le label predittive da parte della source e le label reali.
- WARP: Word-level Adversarial ReProgramming
- Karen Hambardzumyan, Hrant Khachatrian, Jonathan May
- TLDR: Proponiamo un metodo di adversarial transfer learning per risolvere il transfer learning da modelli pretrained ai task di apprendimento.
- Lexicon Learning for Few Shot Sequence Modeling
- Ekin Akyurek, Jacob Andreas
- TLDR: Proponiamo un nuovo metodo di generalizzazione per la traduzione semantica neurale utilizzando le regole di apprendimento di Lexicon LRL e le GAN.
- Personalized Transformer for Explainable Recommendation
- Lei Li, Yongfeng Zhang, Li Chen
- TLDR: Proponiamo un obiettivo di apprendimento per la generazione di testi e di frasi per spiegare le informazioni.
- Generating SOAP Notes from Doctor-Patient Conversations Using Modular Summarization Techniques
- Kundan Krishna, Sopan Khosla, Jeffrey Bigham, Zachary C. Lipton
- TLDR: Proponiamo Cluster2Sent, un algoritmo di deep summarization che raccoglie e combina le informazioni di input e output per generare una sintesi di sintesi di informazioni cliniche semi-strutturate.
- Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese Grammatical Error Correction
- Piji Li, Shuming Shi
- TLDR: Un framework per la correzione Grammaticale del testo
- Early Detection of Sexual Predators in Chats
- Matthias Vogt, Ulf Leser, Alan Akbik
- TLDR: Proponiamo un metodo per rilevare il predittore sessuale in chat e lo usiamo per affrontare il problema del grooming online.
- Writing by Memorizing: Hierarchical Retrieval-based Medical Report Generation
- Xingyi Yang, Muchao Ye, Quanzeng You, Fenglong Ma
- TLDR: Proponiamo MedWriter che incorpora un meccanismo di recupero gerarchico per generare report clinicamente correlati.
- Concept-Based Label Embedding via Dynamic Routing for Hierarchical Text Classification
- Xuepeng Wang, Li Zhao, Bing Liu, Tao Chen, Feng Zhang, Di Wang
- TLDR: Proponiamo un nuovo metodo di embedding basato sul concetto per la classificazione del testo gerarchico.
- VisualSparta: An Embarrassingly Simple Approach to Large-scale Text-to-Image Search with Weighted Bag-of-words
- Xiaopeng Lu, Tiancheng Zhao, Kyusong Lee
- TLDR: Proponiamo VisualSparta, un nuovo modello di retrieval text-to-image basato sul trasformatore che migliora significativamente la precisione e la precisione di ricerca per grandi dataset.
- Few-Shot Text Ranking with Meta Adapted Synthetic Weak Supervision
- Si Sun, Yingzhuo Qian, Zhenghao Liu, Chenyan Xiong, Kaitao Zhang, Jie Bao, Zhiyuan Liu, Paul Bennett
- TLDR: Proponiamo MetaAdaptRank, un metodo di domain adaptive learning che generalizza i modelli neurali da source-source domain a few shot target.
- Semi-Supervised Text Classification with Balanced Deep Representation Distributions
- Changchun Li, Ximing Li, Jihong Ouyang
- TLDR: Proponiamo un nuovo metodo di classificazione semi-supervisionata dei testi con deep representation distribuzioni (S2TC-BDD) per ottenere una migliore accuratezza di classificazione dei testi.
- Improving Document Representations by Generating Pseudo Query Embeddings for Dense Retrieval
- Hongyin Tang, Xingwu Sun, Beihong Jin, Jingang Wang, Fuzheng Zhang, Wei Wu
- TLDR: Proponiamo un modello di ricerca di documenti basato sulla rappresentazione densa per document retrieval.
- ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transfer
- Yuanmeng Yan, Rumei Li, Sirui Wang, Fuzheng Zhang, Wei Wu, Weiran Xu
- TLDR: Proponiamo un framework di contrasto per il transfer di rappresentazioni semantiche da BERT in modo unsupervised e efficace.
- Exploring Dynamic Selection of Branch Expansion Orders for Code Generation
- Hui Jiang, Chulun Zhou, Fandong Meng, Biao Zhang, Jie Zhou, Degen Huang, Qingqiang Wu, Jinsong Su
- TLDR: Proponiamo di addestrare il Seq2Tree con un modello di selezione basato sul contesto per gestire la generazione di codici.
- COINS: Dynamically Generating COntextualized Inference Rules for Narrative Story Completion
- Debjit Paul, Anette Frank
- TLDR: Proponiamo un framework di inferenza per risolvere il problema del ragionamento logico utilizzando regole di inferenza contestuali.
- Reasoning over Entity-Action-Location Graph for Procedural Text Understanding
- Hao Huang, Xiubo Geng, Jian Pei, Guodong Long, Daxin Jiang
- TLDR: Proponiamo un nuovo approccio per procedural text understanding basato sulla graph neural network per la modellazione semantica del testo.
- From Paraphrasing to Semantic Parsing: Unsupervised Semantic Parsing via Synchronous Semantic Decoding
- Shan Wu, Bo Chen, Chunlei Xin, Xianpei Han, Le Sun, Weipeng Zhang, Jiansong Chen, Fan Yang, Xunliang Cai
- TLDR: Proponiamo un metodo di parsing semantic unsupervised per risolvere simultaneamente il gap semantico e la struttura gap sfruttando il paraphrasing e il decoder consapevoli del contesto.
- Pre-training Universal Language Representation
- Yian Li, Hai Zhao
- TLDR: Proponiamo un metodo di apprendimento universale per la rappresentazione del linguaggio.
- Structural Pre-training for Dialogue Comprehension
- Zhuosheng Zhang, Hai Zhao
- TLDR: Proponiamo SPIDER, Structural Pre-traIned DialoguE Reader, per catturare le feature di dialogo exclusive nel contesto del dialogo.
- AutoTinyBERT: Automatic Hyper-parameter Optimization for Efficient Pre-trained Language Models
- Yichun Yin, Cheng Chen, Lifeng Shang, Xin Jiang, Xiao Chen, Qun Liu
- TLDR: Proponiamo un metodo per sviluppare language model pre-trained in BERT che è veloce di sviluppo rispetto all’apprendimento di una singola PLM.
- Data Augmentation with Adversarial Training for Cross-Lingual NLI
- Xin Dong, Yaxin Zhu, Zuohui Fu, Dongkuan Xu, Gerard de Melo
- TLDR: Proponiamo un metodo di training generativo per migliorare la cross-lingual natural language inference.
- Bootstrapped Unsupervised Sentence Representation Learning
- Yan Zhang, Ruidan He, Zuozhu Liu, Lidong Bing, Haizhou Li
- TLDR: Proponiamo un metodo di apprendimento di frasi multilingue per la rappresentazione di frasi.
- Learning Event Graph Knowledge for Abductive Reasoning
- Li Du, Xiao Ding, Ting Liu, Bing Qin
- TLDR: Proponiamo un task di ragionamento abductivo basato sul testo.
- A Cognitive Regularizer for Language Modeling
- Jason Wei, Clara Meister, Ryan Cotterell
- TLDR: Proponiamo un metodo per regolarizzare i language model per la teoria della densità di informazioni.
- Lower Perplexity is Not Always Human-Like
- Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, Kentaro Inui
- TLDR: Proponiamo un’analisi per esplorare se le prestazioni di apprendimento in teoria possono essere generalizzate attraverso la linguaggi.
- Word Sense Disambiguation: Towards Interactive Context Exploitation from Both Word and Sense Perspectives
- Ming Wang, Yinglin Wang
- TLDR: Proponiamo di imparare la disambiguazione di parole in modo indipendente dal loro senso, utilizzando la similarità e la dipendenza del contesto.
- A Knowledge-Guided Framework for Frame Identification
- Xuefeng Su, Ru Li, Xiaoli Li, Jeff Z. Pan, Hu Zhang, Qinghua Chai, Xiaoqi Han
- TLDR: Proponiamo un framework di apprendimento di frame knowledge per la stima del frame di embedding.
- Obtaining Better Static Word Embeddings Using Contextual Embedding Models
- Prakhar Gupta, Martin Jaggi
- TLDR: Proponiamo di distillare il training di embedding contestuali da CBOW per migliorare la qualità di training di embedding dinamici.
- Meta-Learning with Variational Semantic Memory for Word Sense Disambiguation
- Yingjun Du, Nithin Holla, Xiantong Zhen, Cees Snoek, Ekaterina Shutova
- TLDR: Proponiamo un modello di memoria semantica per WSD few shot in un setting di meta-learning.
- LexFit: Lexical Fine-Tuning of Pretrained Language Models
- Ivan Vulić, Edoardo Maria Ponti, Anna Korhonen, Goran Glavaš
- TLDR: Proponiamo un nuovo metodo per trasformare le LM in word encoder universali.
- Text-Free Image-to-Speech Synthesis Using Learned Segmental Units
- Wei-Ning Hsu, David Harwath, Tyler Miller, Christopher Song, James Glass
- TLDR: Proponiamo un nuovo metodo per sintetizzare audio caption per immagini che non richiedono testo come fonte di supervisione.
- CTFN: Hierarchical Learning for Multimodal Sentiment Analysis Using Coupled-Translation Fusion Network
- Jiajia Tang, Kang Li, Xuanyu Jin, Andrzej Cichocki, Qibin Zhao, Wanzeng Kong
- TLDR: Proponiamo di utilizzare la coppia per modellare il bi-direction interplay tramite couple learning, mantenendo la robustezza rispetto alle mancanze.
- Positional Artefacts Propagate Through Masked Language Model Embeddings
- Ziyang Luo, Artur Kulmizev, Xiaoxi Mao
- TLDR: Proponiamo un metodo di analisi a livello di neuroni per scoprire la source di questa informazioni.
- Language Model Evaluation Beyond Perplexity
- Clara Meister, Ryan Cotterell
- TLDR: Proponiamo un nuovo metodo per quantificare quanto bene i modelli di linguaggio naturale imparano le traslazioni statistiche del linguaggio naturale.
- Learning to Explain: Generating Stable Explanations Fast
- Xuelin Situ, Ingrid Zukerman, Cecile Paris, Sameen Maruf, Gholamreza Haffari
- TLDR: Proponiamo un metodo di spiegazione per imparare simultaneamente il comportamento di un algoritmo sottostante e distillare il suo algoritmo di spiegazione da tutti gli esempi.
- StereoSet: Measuring stereotypical bias in pretrained language models
- Moin Nadeem, Anna Bethke, Siva Reddy
- TLDR: Proponiamo StereoSet, un dataset di natural English per misurare i bias di stereotipo nei domini di sesso, professione, religione e identità.
- Alignment Rationale for Natural Language Inference
- Zhongtao Jiang, Yuanzhe Zhang, Zhao Yang, Jun Zhao, Kang Liu
- TLDR: Proponiamo un metodo per spiegare le feature del modello di co-attention basato sulla selezione di feature.
- Enabling Lightweight Fine-tuning for Pre-trained Language Model Compression based on Matrix Product Operators
- Peiyu Liu, Ze-Feng Gao, Wayne Xin Zhao, Zhi-Yuan Xie, Zhong-Yi Lu, Ji-Rong Wen
- TLDR: Proponiamo un nuovo approccio di compressione pre-trained di modelli di linguaggio naturale basato sul modello di matrici di prodotto di matrici di matrici di prodotto di matrici di matrici di matrici di prodotto di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matrici di matri
- On Sample Based Explanation Methods for NLP: Faithfulness, Efficiency and Semantic Evaluation
- Wei Zhang, Ziming Huang, Yada Zhu, Guangnan Ye, Xiaodong Cui, Fan Zhang
- TLDR: Proponiamo un metodo di spiegazione basato sulla semantica che può migliorare la comprensione e l’interpretabilità delle spiegazioni.
- Syntax-Enhanced Pre-trained Model
- Zenan Xu, Daya Guo, Duyu Tang, Qinliang Su, Linjun Shou, Ming Gong, Wanjun Zhong, Xiaojun Quan, Daxin Jiang, Nan Duan
- TLDR: Proponiamo un modello di training per sfruttare la struttura del testo per migliorare le prestazioni dei modelli pre-trained.
- Matching Distributions between Model and Data: Cross-domain Knowledge Distillation for Unsupervised Domain Adaptation
- Bo Zhang, Xiaoming Zhang, Yun Liu, Lei Cheng, Zhoujun Li
- TLDR: Proponiamo un nuovo metodo per adattare il dominio di origine al dominio di destinazione.
- Counterfactual Inference for Text Classification Debiasing
- Chen Qian, Fuli Feng, Lijie Wen, Chunping Ma, Pengjun Xie
- TLDR: Proponiamo un framework di debiasing del testo per la classificazione del testo modello-agnostic che può evitare l’uso di manipolazioni di dati o di modelli di balancing.
- HieRec: Hierarchical User Interest Modeling for Personalized News Recommendation
- Tao Qi, Fangzhao Wu, Chuhan Wu, Peiru Yang, Yang Yu, Xing Xie, Yongfeng Huang
- TLDR: Proponiamo HieRec, un metodo di recommendation di news che utilizza un modello di interesse gerarchico per modellare l’interesse degli utenti per personalizzare le raccomandazioni di news.
- PP-Rec: News Recommendation with Personalized User Interest and Time-aware News Popularity
- Tao Qi, Fangzhao Wu, Chuhan Wu, Yongfeng Huang
- TLDR: Proponiamo un encoder di popularity per la predizione di news candidate e candidate che può migliorare la precisione e la diversità per la raccomandazione di news.
- Article Reranking by Memory-Enhanced Key Sentence Matching for Detecting Previously Fact-Checked Claims
- Qiang Sheng, Juan Cao, Xueyao Zhang, Xirong Li, Lei Zhong
- TLDR: Proponiamo un nuovo reranker, MTM, per addestrare articoli di fact-checking candidati per matching.
- Defense against Synonym Substitution-based Adversarial Attacks via Dirichlet Neighborhood Ensemble
- Yi Zhou, Xiaoqing Zheng, Cho-Jui Hsieh, Kai-Wei Chang, Xuanjing Huang
- TLDR: Proponiamo Dirichlet Neighborhood Ensemble (DNE), un metodo randomizzato per addestrare un modello robusto alla difesa degli attacchi di sinonimo basati sulla sostituzione di parole.
- Shortformer: Better Language Modeling using Shorter Inputs
- Ofir Press, Noah A. Smith, Mike Lewis
- TLDR: Proponiamo un metodo per ridurre il training di modelli ricorrenti utilizzando un minimo di embedding di posizioni relative.
- BanditMTL: Bandit-based Multi-task Learning for Text Classification
- Yuren Mao, Zekai Wang, Weiwei Liu, Xuemin Lin, Wenbin Hu
- TLDR: Proponiamo un metodo di apprendimento multi-task basato sul bandit adversarial multi-armed.
- Unified Interpretation of Softmax Cross-Entropy and Negative Sampling: With Case Study for Knowledge Graph Embedding
- Hidetaka Kamigaito, Katsuhiko Hayashi
- TLDR: Proponiamo di utilizzare la divergenza di Bregman per fornire una visione unificata delle cross-entropy e delle loss negative sampling.
- De-Confounded Variational Encoder-Decoder for Logical Table-to-Text Generation
- Wenqing Chen, Jidong Tian, Yitian Li, Hao He, Yaohui Jin
- TLDR: Un metodo di generazione di testo logicamente coerente da table-to-text
- Rethinking Stealthiness of Backdoor Attack against NLP Models
- Wenkai Yang, Yankai Lin, Peng Li, Jie Zhou, Xu Sun
- TLDR: Proponiamo un nuovo metodo di backdoor attacking basato sul rumore per la valutazione dello stato dell’arte dei sistemi di apprendimento automatico.
- Crowdsourcing Learning as Domain Adaptation: A Case Study on Named Entity Recognition
- Xin Zhang, Guangwei Xu, Yueheng Sun, Meishan Zhang, Pengjun Xie
- TLDR: Proponiamo un modello di apprendimento unsupervised di rappresentazione di entity recognition, che ispira le feature di domain-aware.
- Exploring Distantly-Labeled Rationales in Neural Network Models
- Quzhe Huang, Shengqi Zhu, Yansong Feng, Dongyan Zhao
- TLDR: Proponiamo un nuovo metodo per sfruttare le rationale distanti per migliorare le prestazioni di classificazione.
- Learning to Perturb Word Embeddings for Out-of-distribution QA
- Seanie Lee, Minki Kang, Juho Lee, Sung Ju Hwang
- TLDR: Proponiamo un metodo per regolarizzare il modello di QA basato sul modello pretrained senza cambiare la semantica.
- Maria: A Visual Experience Powered Conversational Agent
- Zujie Liang, Huang Hu, Can Xu, Chongyang Tao, Xiubo Geng, Yining Chen, Fan Liang, Daxin Jiang
- TLDR: Proponiamo un agente di conversazione neurale basato sulla visione per la conversazione grounded su immagini.
- A Human-machine Collaborative Framework for Evaluating Malevolence in Dialogues
- Yangjun Zhang, Pengjie Ren, Maarten de Rijke
- TLDR: Proponiamo un nuovo approccio collaborativo umano-machine per valutare la valutazione di dialogue systems.
- Generating Relevant and Coherent Dialogue Responses using Self-Separated Conditional Variational AutoEncoders
- Bin Sun, Shaoxiong Feng, Yiwei Li, Jiamou Liu, Kan Li
- TLDR: Proponiamo un autoencoder Conditional Variational AutoEncoder self-separato per la generazione di risposte di dialogo open-ended.
- Learning to Ask Conversational Questions by Optimizing Levenshtein Distance
- Zhongkun Liu, Pengjie Ren, Zhumin Chen, Zhaochun Ren, Maarten de Rijke, Ming Zhou
- TLDR: Proponiamo un metodo di reinforcement learning Iterative Sequence Editing (RISE) per migliorare la comprensione e la generalizzazione delle domande conversazionali.
- DVD: A Diagnostic Dataset for Multi-step Reasoning in Video Grounded Dialogue
- Hung Le, Chinnadhurai Sankar, Seungwhan Moon, Ahmad Beirami, Alborz Geramifard, Satwik Kottur
- TLDR: Proponiamo DVD, un dataset di diagnosi per il dialogo video-grounded.
- MMGCN: Multimodal Fusion via Deep Graph Convolution Network for Emotion Recognition in Conversation
- Jingwen Hu, Yuchen Liu, Jinming Zhao, Qin Jin
- TLDR: Proponiamo un modello di apprendimento multimodale basato sulla convolutional connettive con graph convolutional convolutional network multimodale, MMGCN, che sfrutta le informazioni di contesto e speaker per modellare la dipendenza tra speaker e conversatore.
- DynaEval: Unifying Turn and Dialogue Level Evaluation
- Chen Zhang, Yiming Chen, Luis Fernando D’Haro, Yan Zhang, Thomas Friedrichs, Grandee Lee, Haizhou Li
- TLDR: Proponiamo un nuovo metodo per valutare la qualità del dialogo in modo univoco e univoco.
- CoSQA: 20,000+ Web Queries for Code Search and Question Answering
- Junjie Huang, Duyu Tang, Linjun Shou, Ming Gong, Ke Xu, Daxin Jiang, Ming Zhou, Nan Duan
- TLDR: Proponiamo un metodo di contrasto per migliorare il matching testo-code, che migliora la precisione di risposta del question answering e la qualità del training.
- Rewriter-Evaluator Architecture for Neural Machine Translation
- Yangming Li, Kaisheng Yao
- TLDR: Proponiamo Rewriter-Evaluator per la traduzione neurale utilizzando una nuova architettura di Rewriter-Evaluator.
- Modeling Bilingual Conversational Characteristics for Neural Chat Translation
- Yunlong Liang, Fandong Meng, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: Proponiamo un metodo per imparare le distribuzioni di caratteri conversazionali bilingui per migliorare la qualità della traduzione.
- Importance-based Neuron Allocation for Multilingual Neural Machine Translation
- Wanying Xie, Yang Feng, Shuhao Gu, Dong Yu
- TLDR: Proponiamo di dividere i modelli di traduzione neurale neurale multilingue in parte generali e in parte specifiche per la traduzione tra lingue.
- Transfer Learning for Sequence Generation: from Single-source to Multi-source
- Xuancheng Huang, Jingfang Xu, Maosong Sun, Yang Liu
- TLDR: Proponiamo un metodo di finetuning per trasferire i modelli pretrained sequenza-to-sequenza ai task di generazione di sequenze selettive multi-source.
- A Closer Look at Few-Shot Crosslingual Transfer: The Choice of Shots Matters
- Mengjie Zhao, Yi Zhu, Ehsan Shareghi, Ivan Vulić, Roi Reichart, Anna Korhonen, Hinrich Schütze
- TLDR: Proponiamo un nuovo metodo per few shot cross-shot cross-lingual transfer che mostra una forte sensibilità alla selezione few shot.
- Coreference Reasoning in Machine Reading Comprehension
- Mingzhu Wu, Nafise Sadat Moosavi, Dan Roth, Iryna Gurevych
- TLDR: Proponiamo un metodo per utilizzare la risoluzione naturale per risolvere il coefficiente ragionamento della comprensione del linguaggio naturale.
- Adapting Unsupervised Syntactic Parsing Methodology for Discourse Dependency Parsing
- Liwen Zhang, Ge Wang, Wenjuan Han, Kewei Tu
- TLDR: Proponiamo un metodo per adattare la teoria della dependency parsing unsupervised per parsing di dependency di parole e frasi.
- A Conditional Splitting Framework for Efficient Constituency Parsing
- Thanh-Tung Nguyen, Xuan-Phi Nguyen, Shafiq Joty, Xiaoli Li
- TLDR: Proponiamo un framework di parsing seq2seq per risolvere il parsing di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresentazioni di rappresenta
- A Unified Generative Framework for Various NER Subtasks
- Hang Yan, Tao Gui, Junqi Dai, Qipeng Guo, Zheng Zhang, Xipeng Qiu
- TLDR: Proponiamo di risolvere i subtask NER come un task di sequenza di span selettivi, che può essere risolto utilizzando un framework unificato Seq2Seq e un modello di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di sequenza di
- An In-depth Study on Internal Structure of Chinese Words
- Chen Gong, Saihao Huang, Houquan Zhou, Zhenghua Li, Min Zhang, Zhefeng Wang, Baoxing Huai, Nicholas Jing Yuan
- TLDR: Proponiamo di parsing la struttura interna dei caratteri di origine cinese come un nuovo task di parsing della struttura interna dei caratteri.
- MulDA: A Multilingual Data Augmentation Framework for Low-Resource Cross-Lingual NER
- Linlin Liu, Bosheng Ding, Lidong Bing, Shafiq Joty, Luo Si, Chunyan Miao
- TLDR: Proponiamo un metodo di traduzione semantica multilingue per NER cross-lingual.
- Lexicon Enhanced Chinese Sequence Labeling Using BERT Adapter
- Wei Liu, Xiyan Fu, Yue Zhang, Wenming Xiao
- TLDR: Proponiamo un modello di semantica neurale per semantica semantica per semantica semantica.
- Math Word Problem Solving with Explicit Numerical Values
- Qinzhuo Wu, Qi Zhang, Zhongyu Wei, Xuanjing Huang
- TLDR: Proponiamo un metodo per risolvere il problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema del problema.
- Neural-Symbolic Solver for Math Word Problems with Auxiliary Tasks
- Jinghui Qin, Xiaodan Liang, Yining Hong, Jianheng Tang, Liang Lin
- TLDR: Proponiamo un nuovo modello di apprendimento neurale-smbolico per risolvere problemi di word problem.
- SMedBERT: A Knowledge-Enhanced Pre-trained Language Model with Structured Semantics for Medical Text Mining
- Taolin Zhang, Zerui Cai, Chengyu Wang, Minghui Qiu, Bite Yang, Xiaofeng He
- TLDR: Proponiamo un nuovo metodo per addestrare un modello di apprendimento medicalo per la comprensione del linguaggio.
- What is Your Article Based On? Inferring Fine-grained Provenance
- Yi Zhang, Zachary Ives, Dan Roth
- TLDR: Un’analisi di un articolo e delle sue affermazioni
- Cross-modal Memory Networks for Radiology Report Generation
- Zhihong Chen, Yaling Shen, Yan Song, Xiang Wan
- TLDR: Proponiamo un modello di encoder-decoder per la generazione di report radiologici multimodali.
- Controversy and Conformity: from Generalized to Personalized Aggressiveness Detection
- Kamil Kanclerz, Alicja Figas, Marcin Gruza, Tomasz Kajdanowicz, Jan Kocon, Daria Puchalska, Przemyslaw Kazienko
- TLDR: Proponiamo soluzioni personalizzate per la classificazione dei documenti controversi e controversi.
- Multi-perspective Coherent Reasoning for Helpfulness Prediction of Multimodal Reviews
- Junhao Liu, Zhen Hai, Min Yang, Lidong Bing
- TLDR: Proponiamo un task di valutazione multimodale di review helpfulness per risolvere il task di apprendimento multi-perspective coherent per la valutazione di una review helpfulness.
- Instantaneous Grammatical Error Correction with Shallow Aggressive Decoding
- Xin Sun, Tao Ge, Furu Wei, Houfeng Wang
- TLDR: Proponiamo un nuovo decoder per GEC che decoda in modo aggressivo più token in parallelo per migliorare l’efficienza online di questo modello.
- Automatic ICD Coding via Interactive Shared Representation Networks with Self-distillation Mechanism
- Tong Zhou, Pengfei Cao, Yubo Chen, Kang Liu, Jun Zhao, Kun Niu, Weifeng Chong, Shengping Liu
- TLDR: Proponiamo un modello di coding ICD interattivo basato sulla self-distillation per risolvere il problema di coerenza causato dalla rumore delle note cliniche.
- PHMOSpell: Phonological and Morphological Knowledge Guided Chinese Spelling Check
- Li Huang, Junjie Li, Weiwei Jiang, Zhiyu Zhang, Minchuan Chen, Shaojun Wang, Jing Xiao
- TLDR: Proponiamo un modello end-to-end per il controllo del gioco di parole e frasi.
- Guiding the Growth: Difficulty-Controllable Question Generation through Step-by-Step Rewriting
- Yi Cheng, Siyao Li, Bang Liu, Ruihui Zhao, Sujian Li, Chenghua Lin, Yefeng Zheng
- TLDR: Proponiamo un nuovo metodo per question generation che incrementa la difficoltà di risposta attraverso il riwriting step-by-step sotto la guida di una chain di ragionamento.
- Improving Encoder by Auxiliary Supervision Tasks for Table-to-Text Generation
- Liang Li, Can Ma, Yinliang Yue, Dayong Hu
- TLDR: Proponiamo di sfruttare i task auxiliari, Number Ranking (NR) e Importance Ranking (IR), per catturare le relazioni tra le informazioni in una generazione di dati-to-text.
- POS-Constrained Parallel Decoding for Non-autoregressive Generation
- Kexin Yang, Wenqiang Lei, Dayiheng Liu, Weizhen Qi, Jiancheng Lv
- TLDR: Proponiamo un metodo per addestrare il modello di generazione di testo autoregressivo per risolvere il problema di multimodality.
- Bridging Subword Gaps in Pretrain-Finetune Paradigm for Natural Language Generation
- Xin Liu, Baosong Yang, Dayiheng Liu, Haibo Zhang, Weihua Luo, Min Zhang, Haiying Zhang, Jinsong Su
- TLDR: Proponiamo un metodo per addestrare il modello di pretrain-finetune in modo efficiente e efficiente.
- TGEA: An Error-Annotated Dataset and Benchmark Tasks for TextGeneration from Pretrained Language Models
- Jie He, Bo Peng, Yi Liao, Qun Liu, Deyi Xiong
- TLDR: Proponiamo un dataset di errore per la generazione di testi da modelli di apprendimento pretrained.
- Long-Span Summarization via Local Attention and Content Selection
- Potsawee Manakul, Mark Gales
- TLDR: Proponiamo un metodo per sfruttare grandi modelli di trasformazione pre-trained e risolvere le dipendenze di long-span in termini di apprendimento e auto-attention.
- RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy
- Xiyan Fu, Yating Zhang, Tianyi Wang, Xiaozhong Liu, Changlong Sun, Zhenglu Yang
- TLDR: Proponiamo una strategia di sintesi per la sintesi di conversazioni non supervisionate e autoencoder per la sintesi di testo e immagini.
- BASS: Boosting Abstractive Summarization with Unified Semantic Graph
- Wenhao Wu, Wei Li, Xinyan Xiao, Jiachen Liu, Ziqiang Cao, Sujian Li, Hua Wu, Haifeng Wang
- TLDR: Proponiamo un nuovo framework per la summarizzazione abstractiva per long-document e multi-document.
- Capturing Relations between Scientific Papers: An Abstractive Model for Related Work Section Generation
- Xiuying Chen, Hind Alamro, Mingzhe Li, Shen Gao, Xiangliang Zhang, Dongyan Zhao, Rui Yan
- TLDR: Proponiamo un generatore di lavoro di relazioni per la generazione di articoli di lavoro di argomento relazionale.
- Focus Attention: Promoting Faithfulness and Diversity in Summarization
- Rahul Aralikatte, Shashi Narayan, Joshua Maynez, Sascha Rothe, Ryan McDonald
- TLDR: Proponiamo un metodo di stima del tempo di attenzione per decodificare le informazioni del documento in modo proactive.
- Generating Query Focused Summaries from Query-Free Resources
- Yumo Xu, Mirella Lapata
- TLDR: Proponiamo di decomporre QFS in due parti: (1) query modeling (i.e., trovare supportive esempi nel set di documenti per una query) e (2) conditional language modeling (i.e., generazione di sintesi di informazioni).
- Robustifying Multi-hop QA through Pseudo-Evidentiality Training
- Kyungjae Lee, Seung-won Hwang, Sang-eun Han, Dohyeon Lee
- TLDR: Proponiamo un metodo per imparare la probabilità di risposta e la dimostrazione di causalità, e usiamo il nostro metodo per confrontare le informazioni con le frasi senza ipotesi.
- xMoCo: Cross Momentum Contrastive Learning for Open-Domain Question Answering
- Nan Yang, Furu Wei, Binxing Jiao, Daxing Jiang, Linjun Yang
- TLDR: Proponiamo un modello di contrasto per question-to-question matching e question-to-question contrastive learning.
- Learn to Resolve Conversational Dependency: A Consistency Training Framework for Conversational Question Answering
- Gangwoo Kim, Hyunjae Kim, Jungsoo Park, Jaewoo Kang
- TLDR: Proponiamo un nuovo framework per risolvere la dipendenza conversazionale utilizzando un modello di QA che può generare domande self-contained e auto-contained.
- PhotoChat: A Human-Human Dialogue Dataset With Photo Sharing Behavior For Joint Image-Text Modeling
- Xiaoxue Zang, Lijuan Liu, Maria Wang, Yang Song, Hao Zhang, Jindong Chen
- TLDR: Proponiamo un nuovo dataset di conversazione umana-human per il dialogo online e la ricerca su image-text modelling.
- Good for Misconceived Reasons: An Empirical Revisiting on the Need for Visual Context in Multimodal Machine Translation
- Zhiyong Wu, Lingpeng Kong, Wei Bi, Xiang Li, Ben Kao
- TLDR: Proponiamo un modello di traduzione neurale multimodale interpretabile che sfrutta le informazioni multimodali per migliorare la qualità della traduzione.
- Attend What You Need: Motion-Appearance Synergistic Networks for Video Question Answering
- Ahjeong Seo, Gi-Cheon Kang, Joonhan Park, Byoung-Tak Zhang
- TLDR: Proponiamo una nuova architettura per question answering basata sulla motion-appearance.
- BERTifying the Hidden Markov Model for Multi-Source Weakly Supervised Named Entity Recognition
- Yinghao Li, Pranav Shetty, Lucas Liu, Chao Zhang, Le Song
- TLDR: Proponiamo un hidden hidden Markov conditional (CHMM) che può inferere le label latenti false da una varietà di fonti di supervisione weakly supervisionate.
- CIL: Contrastive Instance Learning Framework for Distantly Supervised Relation Extraction
- Tao Chen, Haizhou Shi, Siliang Tang, Zhigang Chen, Fei Wu, Yueting Zhuang
- TLDR: Proponiamo un nuovo approccio di contrastive instance learning (CIL) per ridurre il rumore da distant supervision generate dai dati di training dei modelli di relation extraction.
- SENT: Sentence-level Distant Relation Extraction via Negative Training
- Ruotian Ma, Tao Gui, Linyang Li, Qi Zhang, Xuanjing Huang, Yaqian Zhou
- TLDR: Proponiamo un nuovo metodo di training negativo per la traduzione distanti relazionali.
- An End-to-End Progressive Multi-Task Learning Framework for Medical Named Entity Recognition and Normalization
- Baohang Zhou, Xiangrui Cai, Ying Zhang, Xiaojie Yuan
- TLDR: Proponiamo un modello end-to-end progressive multi-task per modellare le informazioni di riconoscimento delle entità da knowledge base standard e normalization.
- PRGC: Potential Relation and Global Correspondence Based Joint Relational Triple Extraction
- Hengyi Zheng, Rui Wen, Xi Chen, Yifan Yang, Yunyan Zhang, Ziheng Zhang, Ningyu Zhang, Bin Qin, Xu Ming, Yefeng Zheng
- TLDR: Proponiamo un framework di extrazione di informazioni relational triple basato sulla corrispondenza potenziale e sulla corrispondenza globale per risolvere il problema di sovrapposizione tra le informazioni e le relazioni.
- Learning from Miscellaneous Other-Class Words for Few-shot Named Entity Recognition
- Meihan Tong, Shuai Wang, Bin Xu, Yixin Cao, Minghui Liu, Lei Hou, Juanzi Li
- TLDR: Proponiamo un modello di apprendimento few shot che può incoraggiare diverse classi extra-labellate da altre classi per migliorare la few shot NER.
- Joint Biomedical Entity and Relation Extraction with Knowledge-Enhanced Collective Inference
- Tuan Lai, Heng Ji, ChengXiang Zhai, Quan Hung Tran
- TLDR: Proponiamo un nuovo metodo di apprendimento per sfruttare la conoscenza per extrare le informazioni di input e di output per la ricerca di informazioni di input e di output per la ricerca di informazioni di input e di output.
- Fine-grained Information Extraction from Biomedical Literature based on Knowledge-enriched Abstract Meaning Representation
- Zixuan Zhang, Nikolaus Parulian, Heng Ji, Ahmed Elsayed, Skatje Myers, Martha Palmer
- TLDR: Proponiamo un nuovo modello di biomedical information extraction (IE) per affrontare questi due sfiori e ottenere informazioni di sintesi scientifiche da documenti scientifici.
- Unleash GPT-2 Power for Event Detection
- Amir Pouran Ben Veyseh, Viet Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: Proponiamo un modello di rilevamento degli eventi basato sulla conoscenza di un’anchor knowledge per il training di modelli di deep learning.
- CLEVE: Contrastive Pre-training for Event Extraction
- Ziqi Wang, Xiaozhi Wang, Xu Han, Yankai Lin, Lei Hou, Zhiyuan Liu, Peng Li, Juanzi Li, Jie Zhou
- TLDR: Proponiamo un modello di contrasto per l’apprendimento di eventi e le loro rappresentazioni semantiche da grandi dati non supervisionati e parsed.
- Document-level Event Extraction via Parallel Prediction Networks
- Hang Yang, Dianbo Sui, Yubo Chen, Kang Liu, Jun Zhao, Taifeng Wang
- TLDR: Proponiamo un modello end-to-end per l’apprendimento di eventi strutturati da un documento in modo parallelo.
- StructuralLM: Structural Pre-training for Form Understanding
- Chenliang Li, Bin Bi, Ming Yan, Wei Wang, Songfang Huang, Fei Huang, Luo Si
- TLDR: Proponiamo un nuovo approccio di pre-training per sfruttare la combinazione di informazioni di layout e cell per risolvere diversi task di downstream NLP.
- Dual Graph Convolutional Networks for Aspect-based Sentiment Analysis
- Ruifan Li, Hao Chen, Fangxiang Feng, Zhanyu Ma, Xiaojie Wang, Eduard Hovy
- TLDR: Proponiamo un modello di convolutional con graph neural network con deep knowledge per la valutazione del sentiment.
- Multi-Label Few-Shot Learning for Aspect Category Detection
- Mengting Hu, Shiwan Zhao, Honglei Guo, Chao Xue, Hang Gao, Tiegang Gao, Renhong Cheng, Zhong Su
- TLDR: Proponiamo un metodo di few shot few shot per rilevare le categorie degli aspetti di una frase.
- Argument Pair Extraction via Attention-guided Multi-Layer Multi-Cross Encoding
- Liying Cheng, Tianyu Wu, Lidong Bing, Luo Si
- TLDR: Proponiamo un nuovo encoder attention-guided multilayer multi-cross per l’estrazione di coppia di frasi.
- A Neural Transition-based Model for Argumentation Mining
- Jianzhu Bao, Chuang Fan, Jipeng Wu, Yixue Dang, Jiachen Du, Ruifeng Xu
- TLDR: Proponiamo un modello di transition per il mining della struttura di azione della teoria della teoria per la teoria della teoria della teoria della teoria.
- Keep It Simple: Unsupervised Simplification of Multi-Paragraph Text
- Philippe Laban, Tobias Schnabel, Paul Bennett, Marti A. Hearst
- TLDR: Proponiamo un metodo per la composizione di un task di comprensione del testo unsupervised basato sulla fluency, salienza e semplicità.
- Long Text Generation by Modeling Sentence-Level and Discourse-Level Coherence
- Jian Guan, Xiaoxi Mao, Changjie Fan, Zitao Liu, Wenbiao Ding, Minlie Huang
- TLDR: Proponiamo un modello di generazione di testo lungo e coerente per la generazione di storie e storie.
- OpenMEVA: A Benchmark for Evaluating Open-ended Story Generation Metrics
- Jian Guan, Zhexin Zhang, Zhuoer Feng, Zitao Liu, Wenbiao Ding, Xiaoxi Mao, Changjie Fan, Minlie Huang
- TLDR: Proponiamo OpenMEVA, un benchmark per valutare le metriche di generazione di storie open-ended.
- DYPLOC: Dynamic Planning of Content Using Mixed Language Models for Text Generation
- Xinyu Hua, Ashwin Sreevatsa, Lu Wang
- TLDR: Proponiamo un nuovo metodo per la generazione di articoli di opinione lungo e complesso utilizzando modelli di input pre-trained.
- Controllable Open-ended Question Generation with A New Question Type Ontology
- Shuyang Cao, Lu Wang
- TLDR: Proponiamo un modello di generazione di domande tipo-aware per rispondere alle domande open-ended.
- BERTGen: Multi-task Generation through BERT
- Faidon Mitzalis, Ozan Caglayan, Pranava Madhyastha, Lucia Specia
- TLDR: Proponiamo BERTGen, un modello generativo, decoder-only che estende BERT attraverso la fusione multi-modale e multilinguale.
- Selective Knowledge Distillation for Neural Machine Translation
- Fusheng Wang, Jianhao Yan, Fandong Meng, Jie Zhou
- TLDR: Proponiamo un metodo per distillare la conoscenza del modello di traduzione neurale utilizzando la conoscenza del modello di traduzione neurale.
- Measuring and Increasing Context Usage in Context-Aware Machine Translation
- Patrick Fernandes, Kayo Yin, Graham Neubig, André F. T. Martins
- TLDR: Proponiamo un nuovo metodo per misurare l’uso di contesto per la traduzione neurale utilizzando informazioni conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional conditional condition
- Beyond Offline Mapping: Learning Cross-lingual Word Embeddings through Context Anchoring
- Aitor Ormazabal, Mikel Artetxe, Aitor Soroa, Gorka Labaka, Eneko Agirre
- TLDR: Proponiamo un metodo di mappatura di le parole per cross-lingual word embedding.
- CCMatrix: Mining Billions of High-Quality Parallel Sentences on the Web
- Holger Schwenk, Guillaume Wenzek, Sergey Edunov, Edouard Grave, Armand Joulin, Angela Fan
- TLDR: Proponiamo un metodo per sfruttare il bitext per la traduzione multilingue.
- Length-Adaptive Transformer: Train Once with Length Drop, Use Anytime with Search
- Gyuwan Kim, Kyunghyun Cho
- TLDR: Proponiamo un trasformatore di lunghezza adattiva per l’inferenza, che può essere utilizzato per vari scenari di inferenza dopo training one shot.
- GhostBERT: Generate More Features with Cheap Operations for BERT
- Zhiqi Huang, Lu Hou, Lifeng Shang, Xin Jiang, Xiao Chen, Qun Liu
- TLDR: Proponiamo un nuovo metodo per generare feature da pochi feature, e questo metodo può essere utilizzato per migliorare le prestazioni di training dei modelli di transformer.
- Super Tickets in Pre-Trained Language Models: From Model Compression to Improving Generalization
- Chen Liang, Simiao Zuo, Minshuo Chen, Haoming Jiang, Xiaodong Liu, Pengcheng He, Tuo Zhao, Weizhu Chen
- TLDR: Proponiamo un’ipotesi di teoria del gioco di lottery ticket per modelli di rete altamente sovra-parametrizzati.
- A Novel Estimator of Mutual Information for Learning to Disentangle Textual Representations
- Pierre Colombo, Pablo Piantanida, Chloé Clavel
- TLDR: Proponiamo un nuovo bound variazionale per la modellazione di dati testuali disentangled.
- Determinantal Beam Search
- Clara Meister, Martina Forster, Ryan Cotterell
- TLDR: Proponiamo un metodo per ricercare iterazioni di beam che sfrutta il kernel di sequenza per favorire la selezione di sottoset diversi.
- Multi-hop Graph Convolutional Network with High-order Chebyshev Approximation for Text Reasoning
- Shuoran Jiang, Qingcai Chen, Xin Liu, Baotian Hu, Lisai Zhang
- TLDR: Proponiamo un modello di graph convolutional reasoning che combina la dinamica chebyshev con la highorder dynamic chebyshev approximation (HDGCN) per aumentare la convergenza e la capacità di ragionamento multi-hop.
- Accelerating Text Communication via Abbreviated Sentence Input
- Jiban Adhikary, Jamie Berger, Keith Vertanen
- TLDR: Proponiamo un modello di riconoscimento per l’abbreviazione del testo per il training di testo conversazionale.
- Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing Regressions In NLP Model Updates
- Yuqing Xie, Yi-An Lai, Yuanjun Xiong, Yi Zhang, Stefano Soatto
- TLDR: Proponiamo un metodo di ensemble per ridurre la regressione e distillare il knowledge distillation per ridurre la regressione.
- Detecting Propaganda Techniques in Memes
- Dimitar Dimitrov, Bishr Bin Ali, Shaden Shaar, Firoj Alam, Fabrizio Silvestri, Hamed Firooz, Preslav Nakov, Giovanni Da San Martino
- TLDR: Proponiamo un nuovo task multimodale multi-label per rilevare le tecniche di propaganda utilizzate nelle meme.
- On the Efficacy of Adversarial Data Collection for Question Answering: Results from a Large-Scale Randomized Study
- Divyansh Kaushik, Douwe Kiela, Zachary C. Lipton, Wen-tau Yih
- TLDR: Proponiamo un nuovo metodo per addestrare modelli di adversarial question answering.
- Learning Dense Representations of Phrases at Scale
- Jinhyuk Lee, Mujeen Sung, Jaewoo Kang, Danqi Chen
- TLDR: Proponiamo DensePhrases, un modello di phrase retrieval open-domain che può imparare rappresentazioni dense di frasi da task di lettura comprehension.
- End-to-End Training of Neural Retrievers for Open-Domain Question Answering
- Devendra Sachan, Mostofa Patwary, Mohammad Shoeybi, Neel Kant, Wei Ping, William L. Hamilton, Bryan Catanzaro
- TLDR: Proponiamo un metodo di pre-training unsupervised per la ricerca di retriever neurali per open-QA.
- Question Answering Over Temporal Knowledge Graphs
- Apoorv Saxena, Soumen Chakrabarti, Partha Talukdar
- TLDR: Proponiamo un metodo di QA per KG embedding Temporali che sfrutta le recenti evoluzioni in termini di trasformatori e embedding di KG.
- Language Model Augmented Relevance Score
- Ruibo Liu, Jason Wei, Soroush Vosoughi
- TLDR: Proponiamo Language Model Augmented Relevance Score (MARS), una nuova metric per la valutazione di sistemi di apprendimento cooperativo.
- DExperts: Decoding-Time Controlled Text Generation with Experts and Anti-Experts
- Alisa Liu, Maarten Sap, Ximing Lu, Swabha Swayamdipta, Chandra Bhagavatula, Noah A. Smith, Yejin Choi
- TLDR: Proponiamo un metodo di generazione di testo controllabile che combina un modello di apprendimento pretrained con LM e/o ANTI-ES in un prodotto di esperti.
- Polyjuice: Generating Counterfactuals for Explaining, Evaluating, and Improving Models
- Tongshuang Wu, Marco Tulio Ribeiro, Jeffrey Heer, Daniel Weld
- TLDR: Proponiamo un generatore di counterfactual example generali per la generazione di modelli NLP.
- Metaphor Generation with Conceptual Mappings
- Kevin Stowe, Tuhin Chakrabarty, Nanyun Peng, Smaranda Muresan, Iryna Gurevych
- TLDR: Proponiamo di imparare la metaphor theory per generare frasi metamorfose da un termine di origine e destinarlo a un modello di generazione di metagrafi controllati seq-to-seq.
- Learning Latent Structures for Cross Action Phrase Relations in Wet Lab Protocols
- Chaitanya Kulkarni, Jany Chan, Eric Fosler-Lussier, Raghu Machiraju
- TLDR: Proponiamo un nuovo modello di apprendimento incrementale per risolvere le relazioni inter-sentenza e implicite.
- Multimodal Multi-Speaker Merger & Acquisition Financial Modeling: A New Task, Dataset, and Neural Baselines
- Ramit Sawhney, Mihir Goyal, Prakhar Goel, Puneet Mathur, Rajiv Ratn Shah
- TLDR: Proponiamo un modello di baseline per la predizione di M&A call multi-speaker.
- Mid-Air Hand Gestures for Post-Editing of Machine Translation
- Rashad Albo Jamara, Nico Herbig, Antonio Krüger, Josef van Genabith
- TLDR: Proponiamo un modello di transizione che sfrutta le gesture del movimento del mano e del movimento del movimento del movimento del mano per migliorare la qualità della traduzione.
- Inter-GPS: Interpretable Geometry Problem Solving with Formal Language and Symbolic Reasoning
- Pan Lu, Ran Gong, Shibiao Jiang, Liang Qiu, Siyuan Huang, Xiaodan Liang, Song-Chun Zhu
- TLDR: Proponiamo un nuovo approccio per risolvere problemi di geometria con linguaggio naturale e consapevoli del problema utilizzando la conoscenza del problema e il ragionamento simbolico.
- Joint Verification and Reranking for Open Fact Checking Over Tables
- Michael Sejr Schlichtkrull, Vladimir Karpukhin, Barlas Oguz, Mike Lewis, Wen-tau Yih, Sebastian Riedel
- TLDR: Proponiamo un modello di reranking e verificazione che combina la struttura dei dati strutturati con la struttura delle informazioni.
- Evaluation of Thematic Coherence in Microblogs
- Iman Munire Bilal, Bo Wang, Maria Liakata, Rob Procter, Adam Tsakalidis
- TLDR: Proponiamo un corpus di cluster di microblog da tre domini e temporali e definiamo il task di valutazione della coerenza.
- Neural semi-Markov CRF for Monolingual Word Alignment
- Wuwei Lan, Chao Jiang, Wei Xu
- TLDR: Proponiamo un modello di apprendimento semi-Markov per l’apprendimento monolinguale.
- Privacy at Scale: Introducing the PrivaSeer Corpus of Web Privacy Policies
- Mukund Srinath, Shomir Wilson, C Lee Giles
- TLDR: Proponiamo un corpus di policy privacy online semi-supervisionato e unsupervised per la classificazione dei documenti di policy privacy.
- The statistical advantage of automatic NLG metrics at the system level
- Johnny Wei, Robin Jia
- TLDR: Proponiamo un metodo per misurare la qualità del modello di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di generazione di modelli di
- Are Missing Links Predictable? An Inferential Benchmark for Knowledge Graph Completion
- Yixin Cao, Xiang Ji, Xin Lv, Juanzi Li, Yonggang Wen, Hanwang Zhang
- TLDR: Proponiamo InferWiki, un dataset di Knowledge Graph Completion che migliora le prestazioni degli attuali benchmark in capacità di inferenza, ipotesi e pattern.
- ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive Summarization with Argument Mining
- Alexander Fabbri, Faiaz Rahman, Imad Rizvi, Borui Wang, Haoran Li, Yashar Mehdad, Dragomir Radev
- TLDR: Proponiamo un framework di annotazione per la summarizzazione del testo online che può modellare direttamente le informazioni di conversazione e generare automaticamente modelli di valutazione per la valutazione.
- Improving Factual Consistency of Abstractive Summarization via Question Answering
- Feng Nan, Cicero Nogueira dos Santos, Henghui Zhu, Patrick Ng, Kathleen McKeown, Ramesh Nallapati, Dejiao Zhang, Zhiguo Wang, Andrew O. Arnold, Bing Xiang
- TLDR: Proponiamo un metodo per migliorare la precisione di sintesi dei modelli di summarization abstractive.
- EmailSum: Abstractive Email Thread Summarization
- Shiyue Zhang, Asli Celikyilmaz, Jianfeng Gao, Mohit Bansal
- TLDR: Proponiamo un dataset di summarization email per l’apprendimento di modelli di sintesi e dimostriamo che le metriche di valutazione umana sono correlate con le valutazioni umane.
- Cross-Lingual Abstractive Summarization with Limited Parallel Resources
- Yu Bai, Yang Gao, Heyan Huang
- TLDR: Proponiamo un nuovo framework multi-task per la summarization multilingue e multi-lingue.
- Dissecting Generation Modes for Abstractive Summarization Models via Ablation and Attribution
- Jiacheng Xu, Greg Durrett
- TLDR: Proponiamo un metodo per interpretare le decisioni di summarization del modello di decodifica e la sua capacità di memorizzare le frasi.
- Learning Prototypical Functions for Physical Artifacts
- Tianyu Jiang, Ellen Riloff
- TLDR: Proponiamo un task di NLP per imparare le proprietà prototipiche degli oggetti fisici.
- Verb Knowledge Injection for Multilingual Event Processing
- Olga Majewska, Ivan Vulić, Goran Glavaš, Edoardo Maria Ponti, Anna Korhonen
- TLDR: Proponiamo un metodo per incorporare la conoscenza del linguaggio nel training di LM, che migliora le prestazioni di extrazione degli eventi in termini di semantica e semanza.
- Dynamic Contextualized Word Embeddings
- Valentin Hofmann, Janet Pierrehumbert, Hinrich Schütze
- TLDR: Proponiamo word embedding dinamici contestuali e contestuali che rappresentano le parole come un’ampia funzione di contesto linguistico e extralinguistico.
- Lexical Semantic Change Discovery
- Sinan Kurtyigit, Maike Park, Dominik Schlechtweg, Jonas Kuhn, Sabine Schulte im Walde
- TLDR: Proponiamo un shift di attenzione dal rilevamento del cambiamento del linguaggio a quello del cambiamento del linguaggio.
- The R-U-A-Robot Dataset: Helping Avoid Chatbot Deception by Detecting User Questions About Human or Non-Human Identity
- David Gros, Yu Li, Zhou Yu
- TLDR: Proponiamo un nuovo metodo per verificare l’identità non umana del sistema e dimostriamo che può essere integrato con altri sistemi per evitare la deception.
- Using Meta-Knowledge Mined from Identifiers to Improve Intent Recognition in Conversational Systems
- Claudio Pinhanez, Paulo Cavalin, Victor Henrique Alves Ribeiro, Ana Appel, Heloisa Candello, Julio Nogima, Mauro Pichiliani, Melina Guerra, Maira de Bayser, Gabriel Malfatti, Henrique Ferreira
- TLDR: Proponiamo un metodo per migliorare l’apprendimento degli intent in sistemi conversazionali utilizzando meta-knowledge embedded in identificatori di intent.
- Space Efficient Context Encoding for Non-Task-Oriented Dialogue Generation with Graph Attention Transformer
- Fabian Galetzka, Jewgeni Rose, David Schlangen, Jens Lehmann
- TLDR: Proponiamo un encoder di contesto per sistemi di dialogo non-task basati su grafi di knowledge.
- DialogueCRN: Contextual Reasoning Networks for Emotion Recognition in Conversations
- Dou Hu, Lingwei Wei, Xiaoyong Huai
- TLDR: Proponiamo DialogueCRN per comprendere il contesto conversazionale da una prospettiva cognitiva.
- Cross-replication Reliability - An Empirical Approach to Interpreting Inter-rater Reliability
- Ka Wong, Praveen Paritosh, Lora Aroyo
- TLDR: Proponiamo un nuovo metodo per misurare la cross-replication reliability basato sulla kappa di Cohen.
- TIMEDIAL: Temporal Commonsense Reasoning in Dialog
- Lianhui Qin, Aditya Gupta, Shyam Upadhyay, Luheng He, Yejin Choi, Manaal Faruqui
- TLDR: Proponiamo un task di apprendimento multi-task per LM pre-trained per ragionamento temporale in dialoghi.
- RAW-C: Relatedness of Ambiguous Words in Context (A New Lexical Resource for English)
- Sean Trott, Benjamin Bergen
- TLDR: Proponiamo un’analisi di embedding contextuali di parole e frasi per la semantica e la loro interpretazione.
- ARBERT & MARBERT: Deep Bidirectional Transformers for Arabic
- Muhammad Abdul-Mageed, AbdelRahim Elmadany, El Moatez Billah Nagoudi
- TLDR: Proponiamo un nuovo benchmark per la valutazione multi-dialectal del linguaggio parlato in Arabica.
- Improving Paraphrase Detection with the Adversarial Paraphrasing Task
- Animesh Nighojkar, John Licato
- TLDR: Proponiamo un nuovo metodo adversarial per generare dati di paraphrasing per la ricerca di parole e frasi.
- ADEPT: An Adjective-Dependent Plausibility Task
- Ali Emami, Ian Porada, Alexandra Olteanu, Kaheer Suleman, Adam Trischler, Jackie Chi Kit Cheung
- TLDR: Proponiamo ADEPT - un task di plausibilità semantica di 16 milioni di frasi che combinano le stesse frasi di testo e parole di origine con un modello di trasformazione di transformer.
- ReadOnce Transformers: Reusable Representations of Text for Transformers
- Shih-Ting Lin, Ashish Sabharwal, Tushar Khot
- TLDR: Proponiamo un approccio per convertire un modello basato sul trasformatore in uno che può costruire una rappresentazione indipendente dal task, in dipendenza dal task e comprimibile da un documento.
- Conditional Generation of Temporally-ordered Event Sequences
- Shih-Ting Lin, Nathanael Chambers, Greg Durrett
- TLDR: Proponiamo un modello di knowledge di schema basato sulla generazione condizionale per il temporal ordering e il sorting degli eventi.
- Hate Speech Detection Based on Sentiment Knowledge Sharing
- Xianbing Zhou, Yang Yong, Xiaochao Fan, Ge Ren, Yunfeng Song, Yufeng Diao, Liang Yang, Hongfei Lin
- TLDR: Proponiamo un metodo per rilevare il rumore di espressione del rumore nel linguaggio naturale.
- Transition-based Bubble Parsing: Improvements on Coordination Structure Prediction
- Tianze Shi, Lillian Lee
- TLDR: Proponiamo un parser di transition basato sulla struttura di coordinazione per eseguire la ricerca di struttura di dependency e la analisi della sintassi basata sulla struttura di composizione.
- SpanNER: Named Entity Re-/Recognition as Span Prediction
- Jinlan Fu, Xuanjing Huang, Pengfei Liu
- TLDR: Proponiamo un modello di predizione dello span per Named Entity Recognition.
- StructFormer: Joint Unsupervised Induction of Dependency and Constituency Structure from Masked Language Modeling
- Yikang Shen, Yi Tay, Che Zheng, Dara Bahri, Donald Metzler, Aaron Courville
- TLDR: Proponiamo StructFormer, un framework di parsing unsupervised per la modellazione di grammatiche naturali.
- Language Embeddings for Typology and Cross-lingual Transfer Learning
- Dian Yu, Taiqi He, Kenji Sagae
- TLDR: Proponiamo un autoencoder denoising per la traduzione multilingue e un task di dependency parsing.
- Can Sequence-to-Sequence Models Crack Substitution Ciphers?
- Nada Aldarrab, Jonathan May
- TLDR: Proponiamo un modello multilingue end-to-end per risolvere cippare di testo senza identità di lingua.
- Beyond Noise: Mitigating the Impact of Fine-grained Semantic Divergences on Neural Machine Translation
- Eleftheria Briakou, Marine Carpuat
- TLDR: Proponiamo un framework di divergenza di NMT che utilizza fattori per recuperare la degradazione causata dalle divergenze naturali e migliorare la qualità della traduzione e la calibrazione del modello.
- Discriminative Reranking for Neural Machine Translation
- Ann Lee, Michael Auli, Marc’Aurelio Ranzato
- TLDR: Proponiamo un metodo di discriminazione per la traduzione neurale per addestrare un reranker di modelli generativi per la traduzione neurale.
- Mind Your Outliers! Investigating the Negative Impact of Outliers on Active Learning for Visual Question Answering
- Siddharth Karamcheti, Ranjay Krishna, Li Fei-Fei, Christopher Manning
- TLDR: Proponiamo di utilizzare il pool per attivare il question answering.
- All That’s ‘Human’ Is Not Gold: Evaluating Human Evaluation of Generated Text
- Elizabeth Clark, Tal August, Sofia Serrano, Nikita Haduong, Suchin Gururangan, Noah A. Smith
- TLDR: Proponiamo un nuovo metodo per addestrare un’efficiente classificatore di testo umano per distinguere tra testo umano e testo umano.
- Scientific Credibility of Machine Translation Research: A Meta-Evaluation of 769 Papers
- Benjamin Marie, Atsushi Fujita, Raphael Rubino
- TLDR: Proponiamo un metodo di meta-evaluation per migliorare la valutazione automatica di machine translation.
- Neural Machine Translation with Monolingual Translation Memory
- Deng Cai, Yan Wang, Huayang Li, Wai Lam, Lemao Liu
- TLDR: Proponiamo un nuovo metodo per riutilizzare la memoria multilingue per migliorare le prestazioni di Neural Machine Translation.
- Intrinsic Dimensionality Explains the Effectiveness of Language Model Fine-Tuning
- Armen Aghajanyan, Sonal Gupta, Luke Zettlemoyer
- TLDR: Proponiamo un metodo per fine-tuning dei modelli di comprensione del linguaggio utilizzando la dimensione intrinseca.
- UnNatural Language Inference
- Koustuv Sinha, Prasanna Parthasarathi, Joelle Pineau, Adina Williams
- TLDR: Proponiamo un nuovo metodo per imparare la sintassi umana per permutare i modelli di Natural Language Understanding.
- Including Signed Languages in Natural Language Processing
- Kayo Yin, Amit Moryossef, Julie Hochgesang, Yoav Goldberg, Malihe Alikhani
- TLDR: Proponiamo di utilizzare le proprietà linguistiche dei linguaggi siglati per la modellazione di modelli SLP.
- Vocabulary Learning via Optimal Transport for Neural Machine Translation
- Jingjing Xu, Hao Zhou, Chun Gan, Zaixiang Zheng, Lei Li
- TLDR: Proponiamo un metodo per trovare il dizionario di token di origine e destinazione ottimale senza training.