ACL 2022 in Italian
TLDRs
- AdapLeR: Speeding up Inference by Adaptive Length Reduction
- Ali Modarressi, Hosein Mohebbi, Mohammad Taher Pilehvar
- TLDR: Proponiamo un metodo per ridurre il costo computazionale di BERT con una piccola perdita di downstream performance.
- Quantified Reproducibility Assessment of NLP Results
- Anya Belz, Maja Popovic, Simon Mille
- TLDR: Proponiamo un metodo per quantificare la capacità di riproduczione del sistema e di valutazione della valutazione quantizzata della reproducibilità.
- Rare Tokens Degenerate All Tokens: Improving Neural Text Generation via Adaptive Gradient Gating for Rare Token Embeddings
- Sangwon Yu, Jongyoon Song, Heeseung Kim, Seongmin Lee, Woo-Jong Ryu, Sungroh Yoon
- TLDR: Proponiamo un nuovo metodo per affrontare il problema della degenerazione dei token embedding basato sul gating del gradiente per rare token embedding.
- AlephBERT: Language Model Pre-training and Evaluation from Sub-Word to Sentence Level
- Amit Seker, Elron Bandel, Dan Bareket, Idan Brusilovsky, Refael Greenfeld, Reut Tsarfaty
- TLDR: Proponiamo AlephBERT, un grande PLM per Modern Hebrew, addestrato su un dataset di testo e di parole e frasi.
- Learning to Imagine: Integrating Counterfactual Thinking in Neural Discrete Reasoning
- Moxin Li, Fuli Feng, Hanwang Zhang, Xiangnan He, Fengbin Zhu, Tat-Seng Chua
- TLDR: Proponiamo un modulo di apprendimento per counterfactual thinking, che può essere incorporato semanticamente in modelli di NDR per eseguire la simulazione di un fatto non visto.
- Domain Adaptation in Multilingual and Multi-Domain Monolingual Settings for Complex Word Identification
- George-Eduard Zaharia, Răzvan-Alexandru Smădu, Dumitru Cercel, Mihai Dascalu
- TLDR: Proponiamo un nuovo metodo di training per la classificazione del testo complesso che generalizza attraverso un ampio insieme di esempi di input.
- JointCL: A Joint Contrastive Learning Framework for Zero-Shot Stance Detection
- Bin Liang, Qinglin Zhu, Xiang Li, Min Yang, Lin Gui, Yulan He, Ruifeng Xu
- TLDR: Proponiamo un approccio di contrastive learning con grafi e grafi per rilevare le posizioni di azione per un target non visto durante l’inferenza.
- [CASPI] Causal-aware Safe Policy Improvement for Task-oriented Dialogue
- Govardana Sachithanandam Ramachandran, Kazuma Hashimoto, Caiming Xiong
- TLDR: Proponiamo un metodo di apprendimento batch per il dialogo task-oriented, che migliora le prestazioni di dialogo nel task end-to-end dialogue.
- UniTranSeR: A Unified Transformer Semantic Representation Framework for Multimodal Task-Oriented Dialog System
- Zhiyuan Ma, Jianjun Li, Guohui Li, Yongjing Cheng
- TLDR: Proponiamo UniTranSeR, un framework di rappresentazione semantice unificata per dialogare multi-modal.
- Dynamic Schema Graph Fusion Network for Multi-Domain Dialogue State Tracking
- Yue Feng, Aldo Lipani, Fanghua Ye, Qiang Zhang, Emine Yilmaz
- TLDR: Proponiamo un nuovo metodo per modellare le relazioni tra domini e slots.
- Attention Temperature Matters in Abstractive Summarization Distillation
- Shengqiang Zhang, Xingxing Zhang, Hangbo Bao, Furu Wei
- TLDR: Proponiamo un metodo per distillare i modelli di sequenza-to-sequence Transformer in piccoli modelli per faster inferenza e con una minimizzazione delle prestazioni.
- Towards Making the Most of Cross-Lingual Transfer for Zero-Shot Neural Machine Translation
- Guanhua Chen, Shuming Ma, Yun Chen, Dongdong Zhang, Jia Pan, Wenping Wang, Furu Wei
- TLDR: Proponiamo un modello di transizione multilingue multi-task multi-task multi-task multi-task multi-task multi-task multi-task multi-task multi-task multi-task multi-task multi-task multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitask multitas
- TopWORDS-Seg: Simultaneous Text Segmentation and Word Discovery for Open-Domain Chinese Texts via Bayesian Inference
- Changzai Pan, Maosong Sun, Ke Deng
- TLDR: Proponiamo un metodo di inferenza bayesiana per processare i testi in domini open-domain.
- An Unsupervised Multiple-Task and Multiple-Teacher Model for Cross-lingual Named Entity Recognition
- Zhuoran Li, Chunming Hu, Xiaohui Guo, Junfan Chen, Wenyi Qin, Richong Zhang
- TLDR: Proponiamo un nuovo task di similarity per migliorare le prestazioni di apprendimento NER cross-lingual.
- Discriminative Marginalized Probabilistic Neural Method for Multi-Document Summarization of Medical Literature
- Gianluca Moro, Luca Ragazzi, Lorenzo Valgimigli, Davide Freddi
- TLDR: Proponiamo un metodo di marginalizzazione probabilistica per la sintesi multi-document per la summarization di studi di letteratura medica.
- Sparse Progressive Distillation: Resolving Overfitting under Pretrain-and-Finetune Paradigm
- Shaoyi Huang, Dongkuan Xu, Ian Yen, Yijue Wang, Sung-En Chang, Bingbing Li, Shiyang Chen, Mimi Xie, Sanguthevar Rajasekaran, Hang Liu, Caiwen Ding
- TLDR: Proponiamo un metodo di pruning basato sul pretrain e finetuning per ridurre il rischio di overfitting.
- CipherDAug: Ciphertext based Data Augmentation for Neural Machine Translation
- Nishant Kambhatla, Logan Born, Anoop Sarkar
- TLDR: Proponiamo una nuova tecnica di data-augmentation per la traduzione neurale basata su ROT-
- Overlap-based Vocabulary Generation Improves Cross-lingual Transfer Among Related Languages
- Vaidehi Patil, Partha Talukdar, Sunita Sarawagi
- TLDR: Proponiamo Overlap BPE (OBPE), un semplice modifica al BPE vocabulary per il transfer di testo da HRL a LRL.
- Long-range Sequence Modeling with Predictable Sparse Attention
- Yimeng Zhuang, Jing Zhang, Mei Tu
- TLDR: Proponiamo un’architettura efficiente per trasformare la sparsità di attention per Transformer, per modellare sequenze a lungo termine.
- Improving Personalized Explanation Generation through Visualization
- Shijie Geng, Zuohui Fu, Yingqiang Ge, Lei Li, Gerard de Melo, Yongfeng Zhang
- TLDR: Proponiamo un modello di recommendation explainable che può generare spiegazioni personalizzate per diversi argomenti.
- New Intent Discovery with Pre-training and Contrastive Learning
- Yuwei Zhang, Haode Zhang, Li-Ming Zhan, Xiao-Ming Wu, Albert Lam
- TLDR: Proponiamo un metodo di apprendimento multi-task per rilevare gli intent degli utenti in modo da sfruttare i segnali di self-supervision e la loss contrastiva per clustering.
- Modeling U.S. State-Level Policies by Extracting Winners and Losers from Legislative Texts
- Maryam Davoodi, Eric Waltenburg, Dan Goldwasser
- TLDR: Proponiamo un modello di analisi dei dati per la predizione e la valutazione dei risultati del processo decisionale.
- Structural Characterization for Dialogue Disentanglement
- Xinbei Ma, Zhuosheng Zhang, Hai Zhao
- TLDR: Proponiamo un nuovo metodo per disentangling dei dialogue e la sua applicazione al task di comprensione del dialogo.
- Multi-Party Empathetic Dialogue Generation: A New Task for Dialog Systems
- Ling.Yu Zhu, Zhengkun Zhang, Jun Wang, Hongbin Wang, Haiying Wu, Zhenglu Yang
- TLDR: Proponiamo un nuovo task chiamato Multi-Party Empathetic Dialogue Generation per l’apprendimento multi-party di dialogo empatico.
- MISC: A Mixed Strategy-Aware Model integrating COMET for Emotional Support Conversation
- Quan Tu, Yanran Li, Jianwei Cui, Bin Wang, Ji-Rong Wen, Rui Yan
- TLDR: Proponiamo un nuovo metodo per affrontare la conversazione di supporto emotionale.
- GLM: General Language Model Pretraining with Autoregressive Blank Infilling
- Zhengxiao Du, Yujie Qian, Xiao Liu, Ming Ding, Jiezhong Qiu, Zhilin Yang, Jie Tang
- TLDR: Proponiamo un modello di pretraining generale basato sul filling autoregressivo dei modelli di preapprendimento per la generazione condizionale e la generazione condizionale.
- QuoteR: A Benchmark of Quote Recommendation for Writing
- Fanchao Qi, Yanhui Yang, Jing Yi, Zhili Cheng, Zhiyuan Liu, Maosong Sun
- TLDR: Proponiamo un nuovo metodo di recommendation di quote che supera i metodi precedenti su tutti i domini di recommendation di quote.
- Towards Comprehensive Patent Approval Predictions:Beyond Traditional Document Classification
- Xiaochen Gao, Zhaoyi Hou, Yifei Ning, Kewen Zhao, Beilei He, Jingbo Shang, Vish Krishnan
- TLDR: Un metodo per stimare la probabilità di approval approssimativo
- Hypergraph Transformer: Weakly-Supervised Multi-hop Reasoning for Knowledge-based Visual Question Answering
- Yu-Jung Heo, Eun-Sol Kim, Woo Suk Choi, Byoung-Tak Zhang
- TLDR: Proponiamo un nuovo metodo per rispondere alle domande di QA basate sulla conoscenza e che utilizza la semantica per imparare le relazioni di ordine e la semantica per risolvere il problema di multi-hop reasoning.
- Cross-Utterance Conditioned VAE for Non-Autoregressive Text-to-Speech
- Yang Li, Cheng Yu, Guangzhi Sun, Hua Jiang, Fanglei Sun, Weiqin Zu, Ying Wen, Yang Yang, Jun Wang
- TLDR: Proponiamo un VAE condizionato dalla cross-utterance conditional che può modellare la variazione delle feature latenti per ogni phoneme.
- Mix and Match: Learning-free Controllable Text Generationusing Energy Language Models
- Fatemehsadat Mireshghallah, Kartik Goyal, Taylor Berg-Kirkpatrick
- TLDR: Proponiamo Mix and Match LM, un modello di generazione controllabile del testo basato sul score per la generazione controllabile del testo.
- So Different Yet So Alike! Constrained Unsupervised Text Style Transfer
- Abhinav Ramesh Kashyap, Devamanyu Hazarika, Min-Yen Kan, Roger Zimmermann, Soujanya Poria
- TLDR: Proponiamo un metodo per il transfer di testo tra domini unsupervised senza constraint di stile e senza constraint di stile.
- e-CARE: a New Dataset for Exploring Explainable Causal Reasoning
- Li Du, Xiao Ding, Kai Xiong, Ting Liu, Bing Qin
- TLDR: Proponiamo un modello di spiegazione spiegabile causale per risolvere il problema di causal reasoning.
- Fantastic Questions and Where to Find Them: FairytaleQA – An Authentic Dataset for Narrative Comprehension
- Ying Xu, Dakuo Wang, Mo Yu, Daniel Ritchie, Bingsheng Yao, Tongshuang Wu, Zheng Zhang, Toby Li, Nora Bradford, Branda Sun, Tran Hoang, Yisi Sang, Yufang Hou, Xiaojuan Ma, Diyi Yang, Nanyun Peng, Zhou Yu, Mark Warschauer
- TLDR: Proponiamo FairytaleQA, un dataset di question answering basato sulla teoria per la comprensione della lettura e la comprensione della letteratura.
- KaFSP: Knowledge-Aware Fuzzy Semantic Parsing for Conversational Question Answering over a Large-Scale Knowledge Base
- Junzhuo Li, Deyi Xiong
- TLDR: Proponiamo un framework di parsing fuzzy knowledge-aware per rispondere alle domande conversazionali.
- Multilingual Knowledge Graph Completion with Self-Supervised Adaptive Graph Alignment
- Zijie Huang, Zheng Li, Haoming Jiang, Tianyu Cao, Hanqing Lu, Bing Yin, Karthik Subbian, Yizhou Sun, Wei Wang
- TLDR: Proponiamo un metodo di apprendimento self-supervised per graph alignment adattivo multilingual.
- Modeling Hierarchical Syntax Structure with Triplet Position for Source Code Summarization
- Juncai Guo, Jin Liu, Yao Wan, Li Li, Pingyi Zhou
- TLDR: Proponiamo CODESCRIBE per modellare la struttura semantica del codice usando la struttura di apprendimento di grafi e grafi.
- FewNLU: Benchmarking State-of-the-Art Methods for Few-Shot Natural Language Understanding
- Yanan Zheng, Jing Zhou, Yujie Qian, Ming Ding, Chonghua Liao, Li Jian, Ruslan Salakhutdinov, Jie Tang, Sebastian Ruder, Zhilin Yang
- TLDR: Proponiamo un nuovo metodo di valutazione per few shot natural language understanding.
- Learn to Adapt for Generalized Zero-Shot Text Classification
- Yiwen Zhang, Caixia Yuan, Xiaojie Wang, Ziwei Bai, Yongbin Liu
- TLDR: Proponiamo un modello di meta-learning per la classificazione text-to-speech che può rappresentare tutti i prototipi e i sample da entrambe le classi.
- TableFormer: Robust Transformer Modeling for Table-Text Encoding
- Jingfeng Yang, Aditya Gupta, Shyam Upadhyay, Luheng He, Rahul Goel, Shachi Paul
- TLDR: Proponiamo un modello di encoding del testo e del testo per table understanding robusto e strutturalmente consapevole.
- Perceiving the World: Question-guided Reinforcement Learning for Text-based Games
- Yunqiu Xu, Meng Fang, Ling Chen, Yali Du, Joey Zhou, Chengqi Zhang
- TLDR: Proponiamo un metodo di training per decoupler il language learning dal reinforcement learning, che migliora le prestazioni e la qualità del sample.
- Neural Label Search for Zero-Shot Multi-Lingual Extractive Summarization
- Ruipeng Jia, Xingxing Zhang, Yanan Cao, Zheng Lin, Shi Wang, Furu Wei
- TLDR: Proponiamo NLSSum (Neural Label Search for Summarization), un modello di summarization multilingue che impara insieme ai nostri modelli di summarization.
- Few-Shot Class-Incremental Learning for Named Entity Recognition
- Rui Wang, Tong Yu, Handong Zhao, Sungchul Kim, Subrata Mitra, Ruiyi Zhang, Ricardo Henao
- TLDR: Proponiamo un metodo di apprendimento incrementale per Named Entity Recognition.
- Improving Meta-learning for Low-resource Text Classification and Generation via Memory Imitation
- Yingxiu Zhao, Zhiliang Tian, Huaxiu Yao, Yinhe Zheng, Dongkyu Lee, Yiping Song, Jian Sun, Nevin Zhang
- TLDR: Proponiamo un metodo di meta-learning che migliora la capacità del modello di adattamento ai support set per la memorizzazione.
- Quality Controlled Paraphrase Generation
- Elron Bandel, Ranit Aharonov, Michal Shmueli-Scheuer, Ilya Shnayderman, Noam Slonim, Liat Ein-Dor
- TLDR: Proponiamo QCPG, un modello di paraphrase generazione controllata che permette direttamente di controllare la qualità della paraphrase.
- Controllable Dictionary Example Generation: Generating Example Sentences for Specific Targeted Audiences
- Xingwei He, Siu Ming Yiu
- TLDR: Proponiamo un modello controllabile target-word-aware per la generazione di frasi di testo di target per la generazione di dizionari example sentence.
- AraT5: Text-to-Text Transformers for Arabic Language Generation
- El Moatez Billah Nagoudi, AbdelRahim Elmadany, Muhammad Abdul-Mageed
- TLDR: Proponiamo un nuovo benchmark per la generazione di language model per la transfer learning.
- Legal Judgment Prediction via Event Extraction with Constraints
- Yi Feng, Chuanyi Li, Vincent Ng
- TLDR: Proponiamo EPM, un modello di predizione basato sull’evento con vincoli, che raggiunge prestazioni allo stato dell’arte su LJP standard.
- Answer-level Calibration for Free-form Multiple Choice Question Answering
- Sawan Kumar
- TLDR: Proponiamo un metodo per calibrare il livello di risposta di un modello di NLP utilizzando un’analisi unsupervised di un bias indipendente dal contesto e un’analisi di un’analisi di F1-score.
- Learning When to Translate for Streaming Speech
- Qian Dong, Yaoming Zhu, Mingxuan Wang, Lei Li
- TLDR: Proponiamo MoSST, un metodo semplice e efficace per la traduzione di speech streaming.
- Compact Token Representations with Contextual Quantization for Efficient Document Re-ranking
- Yingrui Yang, Yifan Qiao, Tao Yang
- TLDR: Proponiamo un modello di re-ranking basato sulla quantizzazione contestuale per la compressione e la decompressione online.
- Early Stopping Based on Unlabeled Samples in Text Classification
- HongSeok Choi, Dongha Choi, Hyunju Lee
- TLDR: Proponiamo un metodo di stopping che utilizza sample non annotati per migliorare le prestazioni di stopping.
- Meta-learning via Language Model In-context Tuning
- Yanda Chen, Ruiqi Zhong, Sheng Zha, George Karypis, He He
- TLDR: Proponiamo un metodo di meta-learning per imparare a adattare un modello di linguaggio con pochi esempi.
- It is AI’s Turn to Ask Humans a Question: Question-Answer Pair Generation for Children’s Story Books
- Bingsheng Yao, Dakuo Wang, Tongshuang Wu, Zheng Zhang, Toby Li, Mo Yu, Ying Xu
- TLDR: Proponiamo un sistema di question-answer generation automatizzato per l’apprendimento di giochi di lettura per bambini.
- Prompt-Based Rule Discovery and Boosting for Interactive Weakly-Supervised Learning
- Rongzhi Zhang, Yue Yu, Pranav Shetty, Le Song, Chao Zhang
- TLDR: Proponiamo un modello di weakly-supervised learning per risolvere il problema di scoperta e scoperta di regole di label per migliorare il modello di weakly-supervised learning.
- Constrained Multi-Task Learning for Bridging Resolution
- Hideo Kobayashi, Yufang Hou, Vincent Ng
- TLDR: Proponiamo un nuovo framework di apprendimento multi-task con constraint con cross-task con vincoli di regolarizzazione per risolvere il bridging.
- DEAM: Dialogue Coherence Evaluation using AMR-based Semantic Manipulations
- Sarik Ghazarian, Nuan Wen, Aram Galstyan, Nanyun Peng
- TLDR: Proponiamo una nuova metric di valutazione della coerenza del dialogo basata sulla rappresentazione del Meaning Abstract per la generazione di dati negativi.
- HIBRIDS: Attention with Hierarchical Biases for Structure-aware Long Document Summarization
- Shuyang Cao, Lu Wang
- TLDR: Proponiamo un modello di question-summary generation per la generazione di sintesi di documenti di testo e di informazioni da documenti di testo e informazioni da informazioni di rete.
- De-Bias for Generative Extraction in Unified NER Task
- Shuai Zhang, Yongliang Shen, Zeqi Tan, Yiquan Wu, Weiming Lu
- TLDR: Proponiamo un modello generativo per Named Entity Recognition.
- An Information-theoretic Approach to Prompt Engineering Without Ground Truth Labels
- Taylor Sorensen, Joshua Robinson, Christopher Rytting, Alexander Shaw, Kyle Rogers, Alexia Delorey, Mahmoud Khalil, Nancy Fulda, David Wingate
- TLDR: Proponiamo un metodo per selezionare i modelli di apprendimento pre-trained per selezionare i modelli di apprendimento.
- Expanding Pretrained Models to Thousands More Languages via Lexicon-based Adaptation
- Xinyi Wang, Sebastian Ruder, Graham Neubig
- TLDR: Proponiamo un metodo per sintetizzare dati testuali o di classe e le lezioni di testo multilingue utilizzando le lezioni di testo multilingue.
- Language-agnostic BERT Sentence Embedding
- Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, Wei Wang
- TLDR: Proponiamo un modello multilingue per l’apprendimento di sentence embedding multilingue.
- Nested Named Entity Recognition with Span-level Graphs
- Juncheng Wan, Dongyu Ru, Weinan Zhang, Yong Yu
- TLDR: Proponiamo un metodo per addestrare NER basato sulla rappresentazione dello span, che può essere utilizzato per collegare lo span e le NER.
- CogTaskonomy: Cognitively Inspired Task Taxonomy Is Beneficial to Transfer Learning in NLP
- Yifei Luo, Minghui Xu, Deyi Xiong
- TLDR: Proponiamo un framework cognitivo ispirato alla teoria del transfer learning per la classificazione dei task NLP.
- RoCBert: Robust Chinese Bert with Multimodal Contrastive Pretraining
- Hui Su, Weiwei Shi, Xiaoyu Shen, Zhou Xiao, Tuo Ji, Jiarui Fang, Jie Zhou
- TLDR: Proponiamo un pretrained Chinese Bert che è robusto agli attacchi adversarial.
- Premise-based Multimodal Reasoning: Conditional Inference on Joint Textual and Visual Clues
- Qingxiu Dong, Ziwei Qin, Heming Xia, Tian Feng, Shoujie Tong, Haoran Meng, Lin Xu, Zhongyu Wei, Weidong Zhan, Baobao Chang, Sujian Li, Tianyu Liu, Zhifang Sui
- TLDR: Proponiamo un nuovo task di ragionamento multimodale basato sulla premessa basato sulla teoria per la classificazione binaria e multi-choice.
- Parallel Instance Query Network for Named Entity Recognition
- Yongliang Shen, Xiaobin Wang, Zeqi Tan, Guangwei Xu, Pengjun Xie, Fei Huang, Weiming Lu, Yueting Zhuang
- TLDR: Proponiamo una soluzione per il riconoscimento delle entità basato su query che può essere addestrato da una rete di query generative per generare query globali e apprendibili da una singola frase.
- ProphetChat: Enhancing Dialogue Generation with Simulation of Future Conversation
- Chang Liu, Xu Tan, Chongyang Tao, Zhenxin Fu, Dongyan Zhao, Tie-Yan Liu, Rui Yan
- TLDR: Proponiamo un nuovo framework di dialogo per la generazione di risposte informative utilizzando le future di dialogo simulate.
- Modeling Multi-hop Question Answering as Single Sequence Prediction
- Semih Yavuz, Kazuma Hashimoto, Yingbo Zhou, Nitish Shirish Keskar, Caiming Xiong
- TLDR: Proponiamo un modello generativo multi-hop che sfrutta la teoria del ragionamento per risolvere la risposta multi-hop.
- Learning Disentangled Semantic Representations for Zero-Shot Cross-Lingual Transfer in Multilingual Machine Reading Comprehension
- Linjuan Wu, Shaojuan Wu, Xiaowang Zhang, Deyi Xiong, Shizhan Chen, Zhiqiang Zhuang, Zhiyong Feng
- TLDR: Proponiamo un nuovo framework multilingue per la comprensione del reading comprehension learning.
- Multi-Granularity Structural Knowledge Distillation for Language Model Compression
- Chang Liu, Chongyang Tao, Jiazhan Feng, Dongyan Zhao
- TLDR: Proponiamo di distillare la conoscenza strutturale multigranularity per un piccolo modello di apprendimento.
- Auto-Debias: Debiasing Masked Language Models with Automated Biased Prompts
- Yue Guo, Yi Yang, Ahmed Abbasi
- TLDR: Proponiamo un metodo per mitigare i bias nei modelli di linguaggio pretrained.
- Where to Go for the Holidays: Towards Mixed-Type Dialogs for Clarification of User Goals
- Zeming Liu, Jun Xu, Zeyang Lei, Haifeng Wang, Zheng-Yu Niu, Hua Wu
- TLDR: Proponiamo un modello di dialogo mixed tipo umano-uomo per risolvere la complessità di pianificazione e apprendimento basato sul continual learning.
- Semi-supervised Domain Adaptation for Dependency Parsing with Dynamic Matching Network
- Ying Li, Shuaike Li, Min Zhang
- TLDR: Proponiamo un modello di parsing semi-supervisionato di dependency dependency parsing con matching network dinamiche per l’apprendimento di strategie di parsing semi-supervisionato.
- A Closer Look at How Fine-tuning Changes BERT
- Yichu Zhou, Vivek Srikumar
- TLDR: Proponiamo un metodo per studiare il fine-tuning delle rappresentazioni per la classificazione.
- Sentence-aware Contrastive Learning for Open-Domain Passage Retrieval
- Wu Hong, Zhuosheng Zhang, Jinyuan Wang, Hai Zhao
- TLDR: Proponiamo un modello di contrastive learning per il recupero di passaggi densi tramite la rappresentazione di frasi.
- FaiRR: Faithful and Robust Deductive Reasoning over Natural Language
- Soumya Sanyal, Harman Singh, Xiang Ren
- TLDR: Proponiamo un framework per ragionamento logico logico utilizzando trasformatori di trasformatori.
- HiTab: A Hierarchical Table Dataset for Question Answering and Natural Language Generation
- Zhoujun Cheng, Haoyu Dong, Zhiruo Wang, Ran Jia, Jiaqi Guo, Yan Gao, Shi Han, Jian-Guang Lou, Dongmei Zhang
- TLDR: Proponiamo un nuovo dataset per question answering e natural language generation su table.
- Doctor Recommendation in Online Health Forums via Expertise Learning
- Xiaoxin Lu, Yubo Zhang, Jing Li, Shi Zong
- TLDR: Proponiamo un modello di raccomandazione del medico per risolvere il problema di autoencoder dei pazienti.
- Continual Prompt Tuning for Dialog State Tracking
- Qi Zhu, Bing Li, Fei Mi, Xiaoyan Zhu, Minlie Huang
- TLDR: Proponiamo un metodo per imparare e stoccare i token per ogni task, che evita il problema di catastrophic forgetting.
- There’s a Time and Place for Reasoning Beyond the Image
- Xingyu Fu, Ben Zhou, Ishaan Chandratreya, Carl Vondrick, Dan Roth
- TLDR: Proponiamo un modello di ragionamento segment-wise per risolvere il problema della comprensione della visione e della comunicazione con la conoscenza del mondo.
- FORTAP: Using Formulas for Numerical-Reasoning-Aware Table Pretraining
- Zhoujun Cheng, Haoyu Dong, Ran Jia, Pengfei Wu, Shi Han, Fan Cheng, Dongmei Zhang
- TLDR: Proponiamo un metodo per sfruttare le formula di pre-training dei modelli di calcolo per table pretraining.
- Multimodal fusion via cortical network inspired losses
- Shiv Shankar
- TLDR: Proponiamo un nuovo approccio per integrare le informazioni multimodali in modo efficiente.
- Modeling Temporal-Modal Entity Graph for Procedural Multimodal Machine Comprehension
- Huibin Zhang, Zhengkun Zhang, Yao Zhang, Jun Wang, Yufan Li, Ning Jiang, Xin Wei, Zhenglu Yang
- TLDR: Proponiamo un nuovo graph per la comprensione multimodale della macchina multimodale.
- Explanation Graph Generation via Pre-trained Language Models: An Empirical Study with Contrastive Learning
- Swarnadeep Saha, Prateek Yadav, Mohit Bansal
- TLDR: Proponiamo un metodo per perturbare i grafi di spiegazione e dimostriamo che questo può migliorare la qualità di contrasto e la precisione di generazione di grafi.
- Unsupervised Extractive Opinion Summarization Using Sparse Coding
- Somnath Basu Roy Chowdhury, Chao Zhao, Snigdha Chaturvedi
- TLDR: Proponiamo un modello di autoencoder semantic per la summarization di opinioni e la sua applicazione alla modellazione di testo e parole.
- LexSubCon: Integrating Knowledge from Lexical Resources into Contextual Embeddings for Lexical Substitution
- George Michalopoulos, Ian McKillop, Alexander Wong, Helen Chen
- TLDR: Proponiamo un nuovo approccio di substitution end-to-end per la ricerca di parole e frasi in un contesto testuale.
- Think Before You Speak: Explicitly Generating Implicit Commonsense Knowledge for Response Generation
- Pei Zhou, Karthik Gopalakrishnan, Behnam Hedayatnia, Seokhwan Kim, Jay Pujara, Xiang Ren, Yang Liu, Dilek Hakkani-Tur
- TLDR: Un metodo generativo per addestrare modelli di risposta neurali per generare risposte direttamente.
- Flow-Adapter Architecture for Unsupervised Machine Translation
- Yihong Liu, Haris Jabbar, Hinrich Schuetze
- TLDR: Proponiamo un’architettura di flussi per NMT unsupervised che sfrutta i normalizzamenti dei flussi per modellare le distribuzioni di frasi a livello di frase.
- Efficient Unsupervised Sentence Compression by Fine-tuning Transformers with Reinforcement Learning
- Demian Ghalandari, Chris Hokamp, Georgiana Ifrim
- TLDR: Proponiamo un metodo per comprimere le frasi senza bisogno di ground-truth per imparare a fine-tuning il transformer pre-trained.
- Tracing Origins: Coreference-aware Machine Reading Comprehension
- Baorong Huang, Zhuosheng Zhang, Hai Zhao
- TLDR: Proponiamo un metodo per fine-tuning un modello di reading comprehension utilizzando informazioni di coerenza e dimostriamo che le informazioni di correzione possono essere sfruttate per migliorare le prestazioni di comprensione.
- WatClaimCheck: A new Dataset for Claim Entailment and Inference
- Kashif Khan, Ruizhe Wang, Pascal Poupart
- TLDR: Proponiamo un dataset di fact checking automatizzato basato su articoli di predizione e analisi di algoritmi allo stato dell’arte.
- FrugalScore: Learning Cheaper, Lighter and Faster Evaluation Metrics for Automatic Text Generation
- Moussa Kamal Eddine, Guokan Shang, Antoine Tixier, Michalis Vazirgiannis
- TLDR: Proponiamo un metodo per imparare una fixed, low cost versione di qualsiasi metric NLG, mantenendo la maggior parte delle prestazioni originali.
- A Well-Composed Text is Half Done! Composition Sampling for Diverse Conditional Generation
- Shashi Narayan, Gonçalo Simões, Yao Zhao, Joshua Maynez, Dipanjan Das, Michael Collins, Mirella Lapata
- TLDR: Proponiamo il metodo di decodifica stocastico per la generazione condizionale di output diversi di alta qualità rispetto alle precedenti strategie di decodifica stocastica.
- Synthetic Question Value Estimation for Domain Adaptation of Question Answering
- Xiang Yue, Ziyu Yao, Huan Sun
- TLDR: Proponiamo un nuovo metodo per addestrare un question estimator QVE che stima direttamente la utilità di domande sintetiche per migliorare le prestazioni di QA nel dominio target.
- Better Language Model with Hypernym Class Prediction
- He Bai, Tong Wang, Alessandro Sordoni, Peng Shi
- TLDR: Un modello di apprendimento basato sul modello di classe
- Tackling Fake News Detection by Continually Improving Social Context Representations using Graph Neural Networks
- Nikhil Mehta, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: Proponiamo un algoritmo di inferenza per rilevare le fake news.
- Understanding Gender Bias in Knowledge Base Embeddings
- Yupei Du, Qi Zheng, Yuanbin Wu, Man Lan, Yan Yang, Meirong Ma
- TLDR: Proponiamo un nuovo bias di bias per l’embedding di knowledge base per le persone.
- Computational Historical Linguistics and Language Diversity in South Asia
- Aryaman Arora, Adam Farris, Samopriya Basu, Suresh Kolichala
- TLDR: Proponiamo un nuovo metodo per affrontare la scarsità dei dati nella teoria della NLP e nella pratica NLP.
- Faithful or Extractive? On Mitigating the Faithfulness-Abstractiveness Trade-off in Abstractive Summarization
- Faisal Ladhak, Esin Durmus, He He, Claire Cardie, Kathleen McKeown
- TLDR: Proponiamo un metodo per valutare la buona fede delle summarization sistemi, generando un trade-off di fede-abstractiveness e la stima del controllo.
- Slangvolution: A Causal Analysis of Semantic Change and Frequency Dynamics in Slang
- Daphna Keidar, Andreas Opedal, Zhijing Jin, Mrinmaya Sachan
- TLDR: Proponiamo un metodo per misurare la semantica e la frequenza di una parola di origine non simata per studiare la sua relazione con la trasformazione del linguaggio.
- Spurious Correlations in Reference-Free Evaluation of Text Generation
- Esin Durmus, Faisal Ladhak, Tatsunori Hashimoto
- TLDR: Proponiamo un metodo per valutare la valutazione senza modello basato sulla correzione senza riferimento.
- On The Ingredients of an Effective Zero-shot Semantic Parser
- Pengcheng Yin, John Wieting, Avirup Sil, Graham Neubig
- TLDR: Proponiamo un modello di parsing semantic basato sulla grammatica per imparare da modelli di parsing semantici.
- Bias Mitigation in Machine Translation Quality Estimation
- Hanna Behnke, Marina Fomicheva, Lucia Specia
- TLDR: Proponiamo di utilizzare task di classificazione binaria per mitigare il bias di input partiale.
- Unified Speech-Text Pre-training for Speech Translation and Recognition
- Yun Tang, Hongyu Gong, Ning Dong, Changhan Wang, Wei-Ning Hsu, Jiatao Gu, Alexei Baevski, Xian Li, Abdelrahman Mohamed, Michael Auli, Juan Pino
- TLDR: Proponiamo un metodo di multi-task learning per pre-trainare il linguaggio e il testo in un framework di modelling encoder-decoder per la traduzione e riconoscimento del linguaggio parlato.
- Match the Script, Adapt if Multilingual: Analyzing the Effect of Multilingual Pretraining on Cross-lingual Transferability
- Yoshinari Fujinuma, Jordan Boyd-Graber, Katharina Kann
- TLDR: Proponiamo di adattare il modello multilingue per l’apprendimento zero-shot per la maggior parte dei linguaggi non visti.
- Structured Pruning Learns Compact and Accurate Models
- Mengzhou Xia, Zexuan Zhong, Danqi Chen
- TLDR: Proponiamo un metodo di pruning strutturato per la compressione del modello neurale.
- How can NLP Help Revitalize Endangered Languages? A Case Study and Roadmap for the Cherokee Language
- Shiyue Zhang, Ben Frey, Mohit Bansal
- TLDR: Proponiamo un modello di apprendimento NLP per la riproduzione di parole e frasi indotti da comunità di Cherokee.
- Differentiable Multi-Agent Actor-Critic for Multi-Step Radiology Report Summarization
- Sanjeev Kumar Karn, Ning Liu, Hinrich Schuetze, Oladimeji Farri
- TLDR: Proponiamo un nuovo metodo per la summarization radiologica del report che combina la sintesi extractiva e la summarization abstractiva.
- Online Semantic Parsing for Latency Reduction in Task-Oriented Dialogue
- Jiawei Zhou, Jason Eisner, Michael Newman, Emmanouil Antonios Platanios, Sam Thomson
- TLDR: Proponiamo un metodo per ridurre la latency per parsing conversazionale online.
- Few-Shot Tabular Data Enrichment Using Fine-Tuned Transformer Architectures
- Asaf Harari, Gilad Katz
- TLDR: Proponiamo un nuovo approccio per migliorare la qualità dei modelli di enrichimento dei dati tabulari utilizzando informazioni strutturate.
- Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues and Documents
- Yusen Zhang, Ansong Ni, Ziming Mao, Chen Henry Wu, Chenguang Zhu, Budhaditya Deb, Ahmed Awadallah, Dragomir Radev, Rui Zhang
- TLDR: Un nuovo metodo per la sintesi text-to-speech per la summarization
- Open Domain Question Answering with A Unified Knowledge Interface
- Kaixin Ma, Hao Cheng, Xiaodong Liu, Eric Nyberg, Jianfeng Gao
- TLDR: Proponiamo un modello di apprendimento di knowledge structured per question answering open-domain.
- Principled Paraphrase Generation with Parallel Corpora
- Aitor Ormazabal, Mikel Artetxe, Aitor Soroa, Gorka Labaka, Eneko Agirre
- TLDR: Proponiamo un metodo per generare paraphrase utilizzando la rappresentazione adversarial del testo di origine e di destinazione.
- GlobalWoZ: Globalizing MultiWoZ to Develop Multilingual Task-Oriented Dialogue Systems
- Bosheng Ding, Junjie Hu, Lidong Bing, Mahani Aljunied, Shafiq Joty, Luo Si, Chunyan Miao
- TLDR: Proponiamo un metodo di curation per multilingual dialogue systems che può rispondere alle domande di dialogo multilingue.
- Domain Knowledge Transferring for Pre-trained Language Model via Calibrated Activation Boundary Distillation
- Dongha Choi, HongSeok Choi, Hyunju Lee
- TLDR: Proponiamo un framework di transfer della conoscenza del dominio per PLM senza pre-training in-domain.
- Retrieval-guided Counterfactual Generation for QA
- Bhargavi Paranjape, Matthew Lamm, Ian Tenney
- TLDR: Proponiamo un metodo per aumentare la qualità dei dati di input utilizzando RGF e question generation per question answering.
- DYLE: Dynamic Latent Extraction for Abstractive Long-Input Summarization
- Ziming Mao, Chen Henry Wu, Ansong Ni, Yusen Zhang, Rui Zhang, Tao Yu, Budhaditya Deb, Chenguang Zhu, Ahmed Awadallah, Dragomir Radev
- TLDR: Proponiamo un nuovo approccio di latente extraction dinamico per la summarization a lungo termine.
- Searching for fingerspelled content in American Sign Language
- Bowen Shi, Diane Brentari, Greg Shakhnarovich, Karen Livescu
- TLDR: Proponiamo un modello end-to-end per rilevare il fingerspelling e matchare il suo contenuto a una sequenza di testo.
- Skill Induction and Planning with Latent Language
- Pratyusha Sharma, Antonio Torralba, Jacob Andreas
- TLDR: Proponiamo un modello generativo di sottotask di alto livello per l’apprendimento gerarchico da dimostrazioni, utilizzando annotazioni naturali per guidare la scoperta di competenze reutilizzabili per decisioni autonome.
- Fully-Semantic Parsing and Generation: the BabelNet Meaning Representation
- Abelardo Carlos Martínez Lorenzo, Marco Maru, Roberto Navigli
- TLDR: Proponiamo un modello di rappresentazione del linguaggio che sfrutta le risorse semantiche multilingue di BabelNet e VerbAtlas per parsing e generazione multilingue.
- Leveraging Similar Users for Personalized Language Modeling with Limited Data
- Charles Welch, Chenxi Gu, Jonathan K. Kummerfeld, Veronica Perez-Rosas, Rada Mihalcea
- TLDR: Proponiamo un metodo per imparare a parlare con utenti simili a un nuovo utente.
- DEEP: DEnoising Entity Pre-training for Neural Machine Translation
- Junjie Hu, Hiroaki Hayashi, Kyunghyun Cho, Graham Neubig
- TLDR: Proponiamo un metodo di pre-training di entity per migliorare la qualità della traduzione di named entity.
- Multi-Modal Sarcasm Detection via Cross-Modal Graph Convolutional Network
- Bin Liang, Chenwei Lou, Xiang Li, Min Yang, Lin Gui, Yulan He, Wenjie Pei, Ruifeng Xu
- TLDR: Proponiamo un approccio per rilevare il sarcasmo multimodale utilizzando informazioni visive e testuali.
- Composable Sparse Fine-Tuning for Cross-Lingual Transfer
- Alan Ansell, Edoardo Ponti, Anna Korhonen, Ivan Vulić
- TLDR: Proponiamo un metodo di fine-tuning per il transfer learning con proprietà di espressione e dimostriamo che le proprietà di espressione possono essere sfruttate per migliorare la qualità del transfer learning.
- Toward Annotator Group Bias in Crowdsourcing
- Haochen Liu, Joseph Thekinen, Sinem Mollaoglu, Da Tang, Ji Yang, Youlong Cheng, Hui Liu, Jiliang Tang
- TLDR: Proponiamo un nuovo approccio probabilistico per catturare il bias di gruppo negli annotatori di crowdsourcing.
- Under the Morphosyntactic Lens: A Multifaceted Evaluation of Gender Bias in Speech Translation
- Beatrice Savoldi, Marco Gaido, Luisa Bentivogli, Matteo Negri, Marco Turchi
- TLDR: Proponiamo un nuovo approccio per studiare le dinamiche di bias e il bias di gender nelle strutture di apprendimento e nella traduzione.
- Answering Open-Domain Multi-Answer Questions via a Recall-then-Verify Framework
- Zhihong Shao, Minlie Huang
- TLDR: Proponiamo di rispondere a domande multi-answer open-domain con un framework di recall-then-verify che separa il processo di ragionamento e il processo di ragionamento per ogni risposta.
- Probing as Quantifying Inductive Bias
- Alexander Immer, Lucas Torroba Hennigen, Vincent Fortuin, Ryan Cotterell
- TLDR: Proponiamo un metodo per misurare il bias di induczione delle rappresentazioni per la quantificazione del bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bias di bi
- Probing Structured Pruning on Multilingual Pre-trained Models: Settings, Algorithms, and Efficiency
- Yanyang Li, Fuli Luo, Runxin Xu, Songfang Huang, Fei Huang, Liwei Wang
- TLDR: Proponiamo un metodo per strutturare il pruning multilingue su modelli pre-trained.
- GPT-D: Inducing Dementia-related Linguistic Anomalies by Deliberate Degradation of Artificial Neural Language Models
- Changye Li, David Knopman, Weizhe Xu, Trevor Cohen, Serguei Pakhomov
- TLDR: Proponiamo un metodo per addestrare un Transformer DL pre-trained su general English text per confrontare il suo algoritmo con un algoritmo di apprendimento artificiale.
- An Empirical Survey of the Effectiveness of Debiasing Techniques for Pre-trained Language Models
- Nicholas Meade, Elinor Poole-Dayan, Siva Reddy
- TLDR: Proponiamo cinque tecniche di bias mitigation recentemente approssimate per mitigare il bias sociale.
- Exploring and Adapting Chinese GPT to Pinyin Input Method
- Minghuan Tan, Yong Dai, Duyu Tang, Zhangyin Feng, Guoping Huang, Jing Jiang, Jiwei Li, Shuming Shi
- TLDR: Proponiamo un metodo per sfruttare la GPT per input di pinyin.
- Enhancing Cross-lingual Natural Language Inference by Prompt-learning from Cross-lingual Templates
- Kunxun Qi, Hai Wan, Jianfeng Du, Haolan Chen
- TLDR: Proponiamo un nuovo framework di prompt learning basato sul prompt learning per migliorare la comprensione del linguaggio naturale multilingue.
- Sense Embeddings are also Biased – Evaluating Social Biases in Static and Contextualised Sense Embeddings
- Yi Zhou, Masahiro Kaneko, Danushka Bollegala
- TLDR: Proponiamo un benchmark per valutare i bias sociali nei sense embedding e la loro valutazione.
- Hybrid Semantics for Goal-Directed Natural Language Generation
- Connor Baumler, Soumya Ray
- TLDR: Proponiamo un metodo di generazione di frasi per sfruttare la semantica distributiva per addestrare la generazione di frasi.
- Predicting Intervention Approval in Clinical Trials through Multi-Document Summarization
- Georgios Katsimpras, Georgios Paliouras
- TLDR: Proponiamo un metodo per generare brevi sintesi informative per una serie di articoli di ricerca clinica.
- BiTIIMT: A Bilingual Text-infilling Method for Interactive Machine Translation
- Yanling Xiao, Lemao Liu, Guoping Huang, Qu Cui, Shujian Huang, Shuming Shi, Jiajun Chen
- TLDR: Proponiamo un nuovo metodo per decodificare la traduzione neurale neurale utilizzando il decodificatore di parole e frasi.
- Distributionally Robust Finetuning BERT for Covariate Drift in Spoken Language Understanding
- Samuel Broscheit, Quynh Do, Judith Gaspers
- TLDR: Proponiamo un metodo di ottimizzazione distribuzionale robusto per il covariate drift nel SLU.
- Enhancing Chinese Pre-trained Language Model via Heterogeneous Linguistics Graph
- Yanzeng Li, Jiangxia Cao, Xin Cong, Zhenyu Zhang, Bowen Yu, Hongsong Zhu, Tingwen Liu
- TLDR: Proponiamo un graph heterogeneo per addestrare i language model pre-trained in modo indipendente dalla conoscenza della lingua.
- Divide and Denoise: Learning from Noisy Labels in Fine-Grained Entity Typing with Cluster-Wise Loss Correction
- Kunyuan Pang, Haoyu Zhang, Jie Zhou, Ting Wang
- TLDR: Proponiamo un metodo di clustering per risolvere il bias di confirmation e la loss di clustering.
- Towards Robustness of Text-to-SQL Models Against Natural and Realistic Adversarial Table Perturbation
- Xinyu Pi, Bing Wang, Yan Gao, Jiaqi Guo, Zhoujun Li, Jian-Guang Lou
- TLDR: Proponiamo di addestrare un adversarial training per misurare la robustezza dei modelli di parsing text-to-SQL contro le perturbazioni NL-side.
- Overcoming Catastrophic Forgetting beyond Continual Learning: Balanced Training for Neural Machine Translation
- Chenze Shao, Yang Feng
- TLDR: Un problema di apprendimento delle reti neurali
- Metaphors in Pre-Trained Language Models: Probing and Generalization Across Datasets and Languages
- Ehsan Aghazadeh, Mohsen Fayyaz, Yadollah Yaghoobzadeh
- TLDR: Proponiamo un’analisi di metaphor per la codificazione della conoscenza meta-fisiologica per le PLM.
- Discrete Opinion Tree Induction for Aspect-based Sentiment Analysis
- Chenhua Chen, Zhiyang Teng, Zhongqing Wang, Yue Zhang
- TLDR: Proponiamo un modello di opinione latente per la classificazione del sentimento basato sull’aspetto.
- Investigating Non-local Features for Neural Constituency Parsing
- Leyang Cui, Sen Yang, Yue Zhang
- TLDR: Proponiamo un metodo per incorporare feature locali nel training di un parser locale, e la usiamo per prevedere la loro evoluzione.
- Learning from Sibling Mentions with Scalable Graph Inference in Fine-Grained Entity Typing
- Yi Chen, Jiayang Cheng, Haiyun Jiang, Lemao Liu, Haisong Zhang, Shuming Shi, Ruifeng Xu
- TLDR: Proponiamo un modello di sibling learning scalabile per risolvere il problema di apprendimento di hard mention.
- A Variational Hierarchical Model for Neural Cross-Lingual Summarization
- Yunlong Liang, Fandong Meng, Chulun Zhou, Jinan Xu, Yufeng Chen, Jinsong Su, Jie Zhou
- TLDR: Proponiamo un modello gerarchico per la cross-lingual summarization, basato sul conditional variational autoencoder conditional conditioned.
- On the Robustness of Question Rewriting Systems to Questions of Varying Hardness
- Hai Ye, Hwee Tou Ng, Wenjuan Han
- TLDR: Proponiamo un nuovo metodo per imparare il question rewriting in contesti, che combina le informazioni di input e di output per migliorare le prestazioni di inferenza.
- OpenHands: Making Sign Language Recognition Accessible with Pose-based Pretrained Models across Languages
- Prem Selvaraj, Gokul Nc, Pratyush Kumar, Mitesh Khapra
- TLDR: Proponiamo un’architettura di ricerca per la rilevazione del segnale in linguaggio naturale per la comprensione del linguaggio naturale.
- bert2BERT: Towards Reusable Pretrained Language Models
- Cheng Chen, Yichun Yin, Lifeng Shang, Xin Jiang, Yujia Qin, Fengyu Wang, Zhi Wang, Xiao Chen, Zhiyuan Liu, Qun Liu
- TLDR: Proponiamo un metodo di pre-training per trasferire la conoscenza di un modello pre-trained a un modello di apprendimento più grande attraverso inizializzazione iniziale.
- Vision-Language Pre-Training for Multimodal Aspect-Based Sentiment Analysis
- Yan Ling, Jianfei Yu, Rui Xia
- TLDR: Proponiamo un framework di pre-training per MABSA che utilizza un modello di vision-language per tutti i task di pre-training e downstream.
- “You might think about slightly revising the title”: Identifying Hedges in Peer-tutoring Interactions
- Yann Raphalen, Chloé Clavel, Justine Cassell
- TLDR: Proponiamo un modello explainability per imparare le feature che caratterizzano le conversazioni di tutoring peer-tutoring.
- Efficient Cluster-Based k-Nearest-Neighbor Machine Translation
- Dexin Wang, Kai Fan, Boxing Chen, Deyi Xiong
- TLDR: Un’architettura per L’architettura
- Headed-Span-Based Projective Dependency Parsing
- Songlin Yang, Kewei Tu
- TLDR: Proponiamo un metodo per parsing di dependency basato sui span.
- Decoding Part-of-Speech from Human EEG Signals
- Alex Murphy, Bernd Bohnet, Ryan McDonald, Uta Noppeney
- TLDR: Proponiamo un metodo per decodificare i tags di Part-of-Speech da dati di EEG e EMN.
- Robust Lottery Tickets for Pre-trained Language Models
- Rui Zheng, Bao Rong, Yuhao Zhou, Di Liang, Sirui Wang, Wei Wu, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: Proponiamo un metodo di adversarial learning basato sulla teoria del ticket per identificare le hidden tickets hidden negli original PLM.
- Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classification
- Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Jingang Wang, Juanzi Li, Wei Wu, Maosong Sun
- TLDR: Proponiamo un metodo di stima del tempo di risposta per il prompt-tuning, che migliora il prompttuning e stabilisce il prompttuning.
- Cross-Lingual Contrastive Learning for Fine-Grained Entity Typing for Low-Resource Languages
- Xu Han, Yuqi Luo, Weize Chen, Zhiyuan Liu, Maosong Sun, Zhou Botong, Hao Fei, Suncong Zheng
- TLDR: Proponiamo un framework di contrasto per imparare modelli di apprendimento multilinguali per la fonetica e la linguaggi low-resource.
- MELM: Data Augmentation with Masked Entity Language Modeling for Low-Resource NER
- Ran Zhou, Xin Li, Ruidan He, Lidong Bing, Erik Cambria, Luo Si, Chunyan Miao
- TLDR: Proponiamo Masked Entity Language Modeling (MELM) come un nuovo framework di data augmentation per NER low-resource.
- Word2Box: Capturing Set-Theoretic Semantics of Words using Box Embeddings
- Shib Dasgupta, Michael Boratko, Siddhartha Mishra, Shriya Atmakuri, Dhruvesh Patel, Xiang Li, Andrew McCallum
- TLDR: Proponiamo un metodo per imparare rappresentazioni di box di parole utilizzando un obiettivo di training set-theoretic.
- IAM: A Comprehensive and Large-Scale Dataset for Integrated Argument Mining Tasks
- Liying Cheng, Lidong Bing, Ruidan He, Qian Yu, Yan Zhang, Luo Si
- TLDR: Proponiamo un dataset di apprendimento multi-task per il Mining degli Arguments, che può essere applicato a una serie di task di argument mining, compresa la ricerca di claim, elaborazione di esempi, ecc.
- PLANET: Dynamic Content Planning in Autoregressive Transformers for Long-form Text Generation
- Zhe Hu, Hou Pong Chan, Jiachen Liu, Xinyan Xiao, Hua Wu, Lifu Huang
- TLDR: Proponiamo un nuovo metodo di generazione di testo basato sulla coerenza per task di generazione di testo lunghi.
- CTRLEval: An Unsupervised Reference-Free Metric for Evaluating Controlled Text Generation
- Pei Ke, Hao Zhou, Yankai Lin, Peng Li, Jie Zhou, Xiaoyan Zhu, Minlie Huang
- TLDR: Proponiamo una metrica di generazione di testo controllata senza modello di input per valutare la generazione di testo da diversi aspetti.
- Beyond the Granularity: Multi-Perspective Dialogue Collaborative Selection for Dialogue State Tracking
- Jinyu Guo, Kai Shuang, Jijie Li, Zihan Wang, Yixuan Liu
- TLDR: Proponiamo DiCoS-DST per selezionare i dialogue content per ogni slot per state updating.
- Are Prompt-based Models Clueless?
- Pride Kavumba, Ryo Takahashi, Yusuke Oda
- TLDR: Proponiamo un’analisi empirica dei modelli few shot basati sulla stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima di stima
- Learning Confidence for Transformer-based Neural Machine Translation
- Yu Lu, Jiali Zeng, Jiajun Zhang, Shuangzhi Wu, Mu Li
- TLDR: Proponiamo un metodo di stima della fiducia per la valutazione di modelli NMT.
- Things not Written in Text: Exploring Spatial Commonsense from Visual Signals
- Xiao Liu, Da Yin, Yansong Feng, Dongyan Zhao
- TLDR: Proponiamo un benchmark di commonsense per la conoscenza spaziale e la sintesi di immagini.
- Conditional Bilingual Mutual Information Based Adaptive Training for Neural Machine Translation
- Songming Zhang, Yijin Liu, Fandong Meng, Yufeng Chen, Jinan Xu, Jian Liu, Jie Zhou
- TLDR: Proponiamo un’ampia gamma di metriche di training per la traduzione neurale basate sulla conoscenza del contesto e sulla conoscenza del contesto.
- ClusterFormer: Neural Clustering Attention for Efficient and Effective Transformer
- Ningning Wang, Guobing Gan, Peng Zhang, Shuai Zhang, Junqiu Wei, Qun Liu, Xin Jiang
- TLDR: Proponiamo un metodo di clustering neurale per migliorare la precisione di attention e la precisione di apprendimento di Transformer.
- Bottom-Up Constituency Parsing and Nested Named Entity Recognition with Pointer Networks
- Songlin Yang, Kewei Tu
- TLDR: Proponiamo un nuovo metodo di parsing bottom-up per risolvere il parsing di constituency parsing e il riconoscimento di entity named nested.
- Redistributing Low-Frequency Words: Making the Most of Monolingual Data in Non-Autoregressive Translation
- Liang Ding, Longyue Wang, Shuming Shi, Dacheng Tao, Zhaopeng Tu
- TLDR: Proponiamo un nuovo metodo per la distillazione della conoscenza.
- Dependency Parsing as MRC-based Span-Span Prediction
- Leilei Gan, Yuxian Meng, Kun Kuang, Xiaofei Sun, Chun Fan, Fei Wu, Jiwei Li
- TLDR: Proponiamo un metodo per parsing delle dipendenze utilizzando la strutturazione dello span-span.
- Adversarial Soft Prompt Tuning for Cross-Domain Sentiment Analysis
- Hui Wu, Xiaodong Shi
- TLDR: Un framework per la valutazione del sentiment cross-domain
- Generating Scientific Claims for Zero-Shot Scientific Fact Checking
- Dustin Wright, David Wadden, Kyle Lo, Bailey Kuehl, Arman Cohan, Isabelle Augenstein, Lucy Wang
- TLDR: Proponiamo un metodo di generazione di claim per il rilevamento di fatti scientifici.
- Modeling Dual Read/Write Paths for Simultaneous Machine Translation
- Shaolei Zhang, Yang Feng
- TLDR: Proponiamo un metodo di SiMT dual-path che introduce vincoli di duality per dire il percorso di lettura/riedizione.
- ExtEnD: Extractive Entity Disambiguation
- Edoardo Barba, Luigi Procopio, Roberto Navigli
- TLDR: Proponiamo ExtEnD, una formulazione locale per la Disambiguazione Entity, che utilizza Transformer per risolvere il problema di text extraction.
- Hierarchical Sketch Induction for Paraphrase Generation
- Tom Hosking, Hao Tang, Mirella Lapata
- TLDR: Proponiamo un modello generativo per la generazione di parafrasi, che incentiva la diversità della sintassi attraverso il conditioning su un sketch di sintesi.
- Alignment-Augmented Consistent Translation for Multilingual Open Information Extraction
- Keshav Kolluru, Muqeeth Mohammed, Shubham Mittal, Soumen Chakrabarti, Mausam .
- TLDR: Proponiamo un nuovo modello generativo per l’apprendimento supervised di informazioni open-information, che produce automaticamente informazioni tratte in altre lingue.
- Text-to-Table: A New Way of Information Extraction
- Xueqing Wu, Jiacheng Zhang, Hang Li
- TLDR: Proponiamo di addestrare un modello seq2seq per l’apprendimento di informazioni text-to-table.
- Accelerating Code Search with Deep Hashing and Code Classification
- Wenchao Gu, Yanlin Wang, Lun Du, Hongyu Zhang, Shi Han, Dongmei Zhang, Michael Lyu
- TLDR: Proponiamo un metodo di ricerca del codice che combina deep hashing e classificazione, aiminge a fare una ricerca efficiente del codice senza sacrificare troppo la precisione.
- Other Roles Matter! Enhancing Role-Oriented Dialogue Summarization via Role Interactions
- Haitao Lin, Junnan Zhu, Lu Xiang, Yu Zhou, Jiajun Zhang, Chengqing Zong
- TLDR: Proponiamo un nuovo metodo di interfacciamento tra le funzioni di attention e decoder per dialogue summarization.
- ClarET: Pre-training a Correlation-Aware Context-To-Event Transformer for Event-Centric Generation and Classification
- Yucheng Zhou, Tao Shen, Xiubo Geng, Guodong Long, Daxin Jiang
- TLDR: Proponiamo un obiettivo di apprendimento per il ragionamentocentrico basato sull’evento per la correlazione contestuale-to-evento.
- Measuring and Mitigating Name Biases in Neural Machine Translation
- Jun Wang, Benjamin Rubinstein, Trevor Cohn
- TLDR: Proponiamo un metodo per mitigare il bias di bias di gender nella traduzione neurale utilizzando il data augmentation.
- Understanding and Improving Sequence-to-Sequence Pretraining for Neural Machine Translation
- Wenxuan Wang, Wenxiang Jiao, Yongchang Hao, Xing Wang, Shuming Shi, Zhaopeng Tu, Michael Lyu
- TLDR: Proponiamo un metodo di pretraining per la traduzione neurale tramite Seq2Seq.
- MSCTD: A Multimodal Sentiment Chat Translation Dataset
- Yunlong Liang, Fandong Meng, Jinan Xu, Yufeng Chen, Jie Zhou
- TLDR: Proponiamo un task di Translazione Multi-Modal Chat (MCT) per generare più accurate traduzioni con la conoscenza della conversazione e del contesto visivo.
- Learning Disentangled Textual Representations via Statistical Measures of Similarity
- Pierre Colombo, Guillaume Staerman, Nathan Noiry, Pablo Piantanida
- TLDR: Proponiamo una famiglia di regolarizzatori per l’apprendimento di rappresentazioni disentangled che non richiedono training.
- On the Sensitivity and Stability of Model Interpretations in NLP
- Fan Yin, Zhouxing Shi, Cho-Jui Hsieh, Kai-Wei Chang
- TLDR: Proponiamo un nuovo metodo di interpretazione che utilizza tecniche di adversarial robustness per misurare la fedeleità delle interpretazioni.
- Down and Across: Introducing Crossword-Solving as a New NLP Benchmark
- Saurabh Kulshreshtha, Olga Kovaleva, Namrata Shivagunde, Anna Rumshisky
- TLDR: Proponiamo un corpus di crossword puzzle che comprende un insieme di clue e un modello generativo per risolvere il crossword puzzle.
- Generating Data to Mitigate Spurious Correlations in Natural Language Inference Datasets
- Yuxiang Wu, Matt Gardner, Pontus Stenetorp, Pradeep Dasigi
- TLDR: Proponiamo di utilizzare il metodo di debiasing per generare modelli di apprendimento automatico debiased, off-the-shelf, che possono essere utilizzati per addestrare un modello debiased, off-the-shelf, semplicemente ricomposto dai suoi dati di training.
- GL-CLeF: A Global–Local Contrastive Learning Framework for Cross-lingual Spoken Language Understanding
- Libo Qin, Qiguang Chen, Tianbao Xie, Qixin Li, Jian-Guang Lou, Wanxiang Che, Min-Yen Kan
- TLDR: Proponiamo un framework di contrastive learning globale e locale per l’apprendimento multilingue.
- Good Examples Make A Faster Learner: Simple Demonstration-based Learning for Low-resource NER
- Dong-Ho Lee, Akshen Kadakia, Kangmin Tan, Mahak Agarwal, Xinyu Feng, Takashi Shibuya, Ryosuke Mitani, Toshiyuki Sekiya, Jay Pujara, Xiang Ren
- TLDR: Proponiamo un metodo di apprendimento basato sulla dimostrazione per l’apprendimento few shot utilizzando modelli di apprendimento few shot.
- Contextual Representation Learning beyond Masked Language Modeling
- Zhiyi Fu, Wangchunshu Zhou, Jingjing Xu, Hao Zhou, Lei Li
- TLDR: Proponiamo un metodo di apprendimento di rappresentazioni per imparare la semantica globale nelle rappresentazioni.
- Efficient Hyper-parameter Search for Knowledge Graph Embedding
- Yongqi Zhang, Zhanke Zhou, Quanming Yao, Yong Li
- TLDR: Proponiamo KGTuner, un metodo efficiente di ricerca di grafi per due stadi, che esplora le configurazioni di grafi a piccoli sottografi e trasferisce le configurazioni top-performed per fine-tuning su un grande full graph.
- A Meta-framework for Spatiotemporal Quantity Extraction from Text
- Qiang Ning, Ben Zhou, Hao Wu, Haoruo Peng, Chuchu Fan, Matt Gardner
- TLDR: Proponiamo un nuovo metodo per risolvere il problema della massimizzazione della quantità temporale per la ricerca di informazioni di input.
- Leveraging Visual Knowledge in Language Tasks: An Empirical Study on Intermediate Pre-training for Cross-Modal Knowledge Transfer
- Woojeong Jin, Dong-Ho Lee, Chenguang Zhu, Jay Pujara, Xiang Ren
- TLDR: Proponiamo di utilizzare la conoscenza visiva per transferre informazioni tra modelli di linguaggio naturale e non naturale.
- A Good Prompt Is Worth Millions of Parameters: Low-resource Prompt-based Learning for Vision-Language Models
- Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren
- TLDR: Proponiamo un metodo di apprendimento low-resource basato sul prompt per task VL.
- Continual Few-shot Relation Learning via Embedding Space Regularization and Data Augmentation
- Chengwei Qin, Shafiq Joty
- TLDR: Proponiamo un metodo di continual relation learning che generalizza ai nuovi task few shot e evita il catastrophic forgetting dei precedenti task.
- Variational Graph Autoencoding as Cheap Supervision for AMR Coreference Resolution
- Irene Li, Linfeng Song, Kun Xu, Dong Yu
- TLDR: Proponiamo un metodo di pretraining generale per coreference resolution grafi variazionali.
- Identifying Chinese Opinion Expressions with Extremely-Noisy Crowdsourcing Annotations
- Xin Zhang, Guangwei Xu, Yueheng Sun, Meishan Zhang, Xiaobin Wang, Min Zhang
- TLDR: Proponiamo di addestrare il modello di annotazione adattatore per la ricerca di opinione espressiva con annotatori di crowdsourcing.
- Sequence-to-Sequence Knowledge Graph Completion and Question Answering
- Apoorv Saxena, Adrian Kochsiek, Rainer Gemulla
- TLDR: Proponiamo un modello di embedding dei knowledge graph per la predizione di KG link e question answering su KG incomplete.
- Learning to Mediate Disparities Towards Pragmatic Communication
- Yuwei Bao, Sayan Ghosh, Joyce Chai
- TLDR: Proponiamo un nuovo framework di rational reasoning per la comunicazione tra le persone, che impara la disparità tra le voci e le parole e può imparare la comunicazione tra le voci e le parole.
- Unsupervised Corpus Aware Language Model Pre-training for Dense Passage Retrieval
- Luyu Gao, Jamie Callan
- TLDR: Proponiamo un nuovo metodo per addestrare language model di retrieval densi utilizzando un fine-tuning di grandi batch.
- Multimodal Dialogue Response Generation
- Qingfeng Sun, Yujing Wang, Can Xu, Kai Zheng, Yaming Yang, Huang Hu, Fei Xu, Jessica Zhang, Xiubo Geng, Daxin Jiang
- TLDR: Proponiamo un nuovo agente conversazionale, Divter, per imparare la generazione di risposte multimodali da una grande quantità di conversazioni e dialoghi.
- CAKE: A Scalable Commonsense-Aware Framework For Multi-View Knowledge Graph Completion
- Guanglin Niu, Bo Li, Yongfei Zhang, Shiliang Pu
- TLDR: Proponiamo Commonsense-Aware Knowledge Embedding (CAKE) per sfruttare la conoscenza comune per risolvere il problema di completamento dei knowledge graph.
- Confidence Based Bidirectional Global Context Aware Training Framework for Neural Machine Translation
- Chulun Zhou, Fandong Meng, Jie Zhou, Min Zhang, Hongji Wang, Jinsong Su
- TLDR: Proponiamo un training di confidenza basato sul contesto per la traduzione neurale neurale utilizzando un modello di apprendimento condizionato condizionato da un modello di apprendimento condizionato condizionato da un modello di apprendimento condizionato condizionato da un modello di apprendimento condizionato condizionato da un modello di apprendimento condizionato condizionato da un modello di apprendimento condizionato condizionato condizionato.
- BRIO: Bringing Order to Abstractive Summarization
- Yixin Liu, Pengfei Liu, Dragomir Radev, Graham Neubig
- TLDR: Proponiamo un nuovo metodo per addestrare un modello di summarization che assume una distribuzione non deterministica per essere seguito dalla distribuzione di probabilità.
- Leveraging Relaxed Equilibrium by Lazy Transition for Sequence Modeling
- Xi Ai, Bin Fang
- TLDR: Proponiamo un metodo per regolare la rappresentazione dei token per sequenza e la sua evoluzione.
- FIBER: Fill-in-the-Blanks as a Challenging Video Understanding Evaluation Framework
- Santiago Castro, Ruoyao Wang, Pingxuan Huang, Ian Stewart, Oana Ignat, Nan Liu, Jonathan Stroud, Rada Mihalcea
- TLDR: Proponiamo di utilizzare il framework di valutazione video per risolvere i problemi di comprensione video.
- KenMeSH: Knowledge-enhanced End-to-end Biomedical Text Labelling
- Xindi Wang, Robert Mercer, Frank Rudzicz
- TLDR: Proponiamo KenMeSH, un modello di ricerca end-to-end per l’indicizzazione di articoli biomedici.
- A Taxonomy of Empathetic Questions in Social Dialogs
- Ekaterina Svikhnushina, Iuliana Voinea, Anuradha Welivita, Pearl Pu
- TLDR: Proponiamo un modello di question-asking per la generazione di conversazioni sociali empatiche.
- Enhanced Multi-Channel Graph Convolutional Network for Aspect Sentiment Triplet Extraction
- Hao Chen, Zepeng Zhai, Fangxiang Feng, Ruifan Li, Xiaojie Wang
- TLDR: Proponiamo un modello di apprendimento multi-channel per l’ASTE, EMC-GCN, e dimostriamo che le relazioni tra le parole e le relazioni tra le parole sono utilizzate per risolvere il task di apprendimento di grafi convoluzionali.
- ProtoTEx: Explaining Model Decisions with Prototype Tensors
- Anubrata Das, Chitrank Gupta, Venelin Kovatchev, Matthew Lease, Junyi Jessy Li
- TLDR: Proponiamo ProtoTEx, un’architettura white-box NLP basata sulla teoria delle reti prototipiche, che spiega bene le decisioni di classificazione del modello e fornisce spiegazioni fedeli.
- Show Me More Details: Discovering Hierarchies of Procedures from Semi-structured Web Data
- Shuyan Zhou, Li Zhang, Yue Yang, Qing Lyu, Pengcheng Yin, Chris Callison-Burch, Graham Neubig
- TLDR: Proponiamo un metodo per costruire una knowledge-base gerarchica open-domain per procedure di videomaking.
- Cross-Modal Discrete Representation Learning
- Alexander Liu, SouYoung Jin, Cheng-I Lai, Andrew Rouditchenko, Aude Oliva, James Glass
- TLDR: Proponiamo un framework di apprendimento self-supervised che può imparare rappresentazioni di dati di sintesi multimodali per l’apprendimento di rappresentazioni di dati di sintesi multimodali.
- Improving Event Representation via Simultaneous Weakly Supervised Contrastive Learning and Clustering
- Jun Gao, Wei Wang, Changlong Yu, Huan Zhao, Wilfred Ng, Ruifeng Xu
- TLDR: Proponiamo SWCC: un framework di contrastive learning weakly supervised e clustering per l’apprendimento di rappresentazioni degli eventi.
- Contrastive Visual Semantic Pretraining Magnifies the Semantics of Natural Language Representations
- Robert Wolfe, Aylin Caliskan
- TLDR: Proponiamo un modello di embedding di parole e immagini per la valutazione di immagini multimodali per la stima della semantica.
- ConTinTin: Continual Learning from Task Instructions
- Wenpeng Yin, Jia Li, Caiming Xiong
- TLDR: Proponiamo un nuovo metodo di apprendimento per imparare da una sequenza di task da una instruction.
- Automated Crossword Solving
- Eric Wallace, Nicholas Tomlin, Albert Xu, Kevin Yang, Eshaan Pathak, Matthew Ginsberg, Dan Klein
- TLDR: Proponiamo il crossword solver, un approccio allo stato dell’arte per risolvere automaticamente crossword puzzle.
- Learned Incremental Representations for Parsing
- Nikita Kitaev, Thomas Lu, Dan Klein
- TLDR: Proponiamo un’efficiente rappresentazione incrementale della sintassi per parsing di testo e parole.
- Knowledge Enhanced Reflection Generation for Counseling Dialogues
- Siqi Shen, Veronica Perez-Rosas, Charles Welch, Soujanya Poria, Rada Mihalcea
- TLDR: Proponiamo un modello di apprendimento per la ricerca di informazioni di dominio e di commonsense utilizzando soft positional encoding e masked self-attention.
- Misinfo Reaction Frames: Reasoning about Readers’ Reactions to News Headlines
- Saadia Gabriel, Skyler Hallinan, Maarten Sap, Pemi Nguyen, Franziska Roesner, Eunsol Choi, Yejin Choi
- TLDR: Proponiamo un framework per modellare le reazioni dei lettori alla predizione di articoli di news headlines.
- On Continual Model Refinement in Out-of-Distribution Data Streams
- Bill Yuchen Lin, Sida Wang, Xi Lin, Robin Jia, Lin Xiao, Xiang Ren, Scott Yih
- TLDR: Proponiamo un problema di continual learning per risolvere il problema di continual learning.
- Achieving Conversational Goals with Unsupervised Post-hoc Knowledge Injection
- Bodhisattwa Prasad Majumder, Harsh Jhamtani, Taylor Berg-Kirkpatrick, Julian McAuley
- TLDR: Proponiamo una tecnica di knowledge-injection post-hoc per risolvere il problema della generalizzazione e della informativeness nei modelli di dialogo neurale.
- Generated Knowledge Prompting for Commonsense Reasoning
- Jiacheng Liu, Alisa Liu, Ximing Lu, Sean Welleck, Peter West, Ronan Le Bras, Yejin Choi, Hannaneh Hajishirzi
- TLDR: Proponiamo un metodo di apprendimento generativo per utilizzare la conoscenza esterna per migliorare il ragionamento comune.
- Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data
- Shuohang Wang, Yichong Xu, Yuwei Fang, Yang Liu, Siqi Sun, Ruochen Xu, Chenguang Zhu, Michael Zeng
- TLDR: Proponiamo un metodo per recuperare da traINing da una dataset di training da parte di un agente di training.
- Life after BERT: What do Other Muppets Understand about Language?
- Vladislav Lialin, Kevin Zhao, Namrata Shivagunde, Anna Rumshisky
- TLDR: Proponiamo un metodo per imparare la teoria del gioco di modelli di trasformazione.
- Tailor: Generating and Perturbing Text with Semantic Controls
- Alexis Ross, Tongshuang Wu, Hao Peng, Matthew Peters, Matt Gardner
- TLDR: Proponiamo un nuovo metodo per generare testo semantico condizionato da codici di controllo basati su rappresentazioni semantiche.
- TruthfulQA: Measuring How Models Mimic Human Falsehoods
- Stephanie Lin, Jacob Hilton, Owain Evans
- TLDR: Proponiamo un benchmark per misurare se un modello di linguaggio naturale è verosimile nel generare risposte a domande.
- Adaptive Testing and Debugging of NLP Models
- Marco Tulio Ribeiro, Scott Lundberg
- TLDR: Proponiamo un metodo per risolvere il problema di debuggere i modelli NLP utilizzando un testo-fix-retest iterativo basato sul feedback umano.
- Right for the Right Reason: Evidence Extraction for Trustworthy Tabular Reasoning
- Vivek Gupta, Shuo Zhang, Alakananda Vempala, Yujie He, Temma Choji, Vivek Srikumar
- TLDR: Proponiamo un metodo per risolvere il task di Trustworthy Reasoning, dove un modello di ragionamento basato sull’esempio di un modello di embedding contestuale può sfruttare la teoria dell’esempio per generare informazioni per la predizione.
- Interactive Word Completion for Plains Cree
- William Lane, Atticus Harrigan, Antti Arppe
- TLDR: Proponiamo un metodo per auto-complezione morphologica basato sulla teoria del morphological analyzer finito di Plains Cree per la valutazione del testo morphologico.
- LAGr: Label Aligned Graphs for Better Systematic Generalization in Semantic Parsing
- Dora Jambor, Dzmitry Bahdanau
- TLDR: Proponiamo un framework per produrre parsing semantiche strutturati utilizzando grafi asimmetrici.
- ToxiGen: A Large-Scale Machine-Generated Dataset for Adversarial and Implicit Hate Speech Detection
- Thomas Hartvigsen, Saadia Gabriel, Hamid Palangi, Maarten Sap, Dipankar Ray, Ece Kamar
- TLDR: Proponiamo ToxiGen, un dataset di testo sintetico e toxic per rilevare la toxicità del testo umano.
- Direct Speech-to-Speech Translation With Discrete Units
- Ann Lee, Peng-Jen Chen, Changhan Wang, Jiatao Gu, Sravya Popuri, Xutai Ma, Adam Polyak, Yossi Adi, Qing He, Yun Tang, Juan Pino, Wei-Ning Hsu
- TLDR: Proponiamo un modello di traduzione speech-to-speech che converte il testo da uno stato alla traduzione in un altro stato senza utilizzare la generazione di testo intermedio.
- Hallucinated but Factual! Inspecting the Factuality of Hallucinations in Abstractive Summarization
- Meng Cao, Yue Dong, Jackie Cheung
- TLDR: Proponiamo un nuovo metodo per rilevare le hallucinazioni factuali di entità.
- EntSUM: A Data Set for Entity-Centric Extractive Summarization
- Mounica Maddela, Mayank Kulkarni, Daniel Preotiuc-Pietro
- TLDR: Proponiamo un nuovo metodo per la summarization controllabile con un focus sulle informazioni desiderate dai clienti.
- Sentence-level Privacy for Document Embeddings
- Casey Meehan, Khalil Mrini, Kamalika Chaudhuri
- TLDR: Proponiamo SentDP, privacy differenziale locale per un singolo documento di testo per un singolo documento di testo per un singolo documento di testo per un singolo documento di testo.
- Dataset Geography: Mapping Language Data to Language Users
- Fahim Faisal, Yinkai Wang, Antonios Anastasopoulos
- TLDR: Proponiamo un metodo per misurare la rappresentazione geographica dei dati di natural language processing.
- ILDAE: Instance-Level Difficulty Analysis of Evaluation Data
- Neeraj Varshney, Swaroop Mishra, Chitta Baral
- TLDR: Proponiamo un nuovo metodo per sfruttare la difficoltà di valutazione in termini di dati di valutazione.
- Image Retrieval from Contextual Descriptions
- Benno Krojer, Vaibhav Adlakha, Vibhav Vineet, Yash Goyal, Edoardo Ponti, Siva Reddy
- TLDR: Proponiamo ImageCoDE, un nuovo task multimodale multi-canale per la ricerca di immagini da descrizioni contestuali.
- Multilingual Molecular Representation Learning via Contrastive Pre-training
- Zhihui Guo, Pramod Sharma, Andy Martinez, Liang Du, Robin Abraham
- TLDR: Proponiamo un metodo di embedding multilingue per la modellazione molecolare multilingue.
- [Investigating Failures of Automatic Translation
in the Case of Unambiguous Gender](https://aclanthology.org/2022.acl-long.243)
- Adithya Renduchintala, Adina Williams
-
TLDR: Proponiamo un nuovo metodo per misurare la capacità di translazione dei modelli di trasformazione neurale basati sulla trasformazione trasformando la morfologia in termini di morphologia e identità.
- Cross-Task Generalization via Natural Language Crowdsourcing Instructions
- Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi
- TLDR: Proponiamo un meta-dataset di apprendimento multi-task per la generalizzazione di modelli di apprendimento generativi.
- Imputing Out-of-Vocabulary Embeddings with LOVE Makes LanguageModels Robust with Little Cost
- Lihu Chen, Gael Varoquaux, Fabian Suchanek
- TLDR: Proponiamo un modello di contrasto per la generazione di embedding di parole pre-trained che migliora la robustezza agli OOV.
- NumGLUE: A Suite of Fundamental yet Challenging Mathematical Reasoning Tasks
- Swaroop Mishra, Arindam Mitra, Neeraj Varshney, Bhavdeep Sachdeva, Peter Clark, Chitta Baral, Ashwin Kalyan
- TLDR: Proponiamo un benchmark multi-task per valutare le prestazioni degli algoritmi di comprensione del linguaggio naturale su 8 task, che richiedono solo una semplice comprensione dell’aritmetica.
- Upstream Mitigation Is
Not
All You Need: Testing the Bias Transfer Hypothesis in Pre-Trained Language Models
- Ryan Steed, Swetasudha Panda, Ari Kobren, Michael Wick
- TLDR: Un modello di deep learning che contiene informazioni sulla pornografia
- Improving Multi-label Malevolence Detection in Dialogues through Multi-faceted Label Correlation Enhancement
- Yangjun Zhang, Pengjie Ren, Wentao Deng, Zhumin Chen, Maarten Rijke
- TLDR: Proponiamo un modello di rilevamento multi-label dialogue malevolence per la valutazione di un dataset di dialogue dialogue malevolence.
- How Do We Answer Complex Questions: Discourse Structure of Long-form Answers
- Fangyuan Xu, Junyi Jessy Li, Eunsol Choi
- TLDR: Proponiamo un modello di QA basato sulla struttura funzionale delle risposte long-form.
- Understanding Iterative Revision from Human-Written Text
- Wanyu Du, Vipul Raheja, Dhruv Kumar, Zae Myung Kim, Melissa Lopez, Dongyeop Kang
- TLDR: Proponiamo un nuovo framework per modellare le revisioni di testo iterativi che generalizzano a una varietà di domini, obiettivo, obiettivo, obiettivo e granularità.
- Making Transformers Solve Compositional Tasks
- Santiago Ontanon, Joshua Ainslie, Zachary Fisher, Vaclav Cvicek
- TLDR: Proponiamo un nuovo benchmark per la generalizzazione compositiva per task di parsing semantico.
- Can Transformer be Too Compositional? Analysing Idiom Processing in Neural Machine Translation
- Verna Dankers, Christopher Lucas, Ivan Titov
- TLDR: Proponiamo un modello di transizione neurale per la traduzione neurale neurale che processa le parole come espressioni compositive.
- ConditionalQA: A Complex Reading Comprehension Dataset with Conditional Answers
- Haitian Sun, William Cohen, Ruslan Salakhutdinov
- TLDR: Proponiamo un dataset di question answering che contiene domande complesse con risposte condizionali, e le risposte condizionali sono applicabili solo quando alcune condizioni applichiamo il modello di QA.
- Prompt-free and Efficient Few-shot Learning with Language Models
- Rabeeh Karimi Mahabadi, Luke Zettlemoyer, James Henderson, Lambert Mathias, Marzieh Saeidi, Veselin Stoyanov, Majid Yazdani
- TLDR: Proponiamo un metodo semplice e efficiente per fine-tuning few shot di modelli di linguaggio naturale pretrained senza relying su alcuna manodopera di handcrafting, che è altamente efficace dato as pochi dati da 32 data points.
- Continual Sequence Generation with Adaptive Compositional Modules
- Yanzhe Zhang, Xuezhi Wang, Diyi Yang
- TLDR: Proponiamo un framework per continual learning con moduli compositivi adattivi per addestrare moduli di generazione continuali.
- An Investigation of the (In)effectiveness of Counterfactually Augmented Data
- Nitish Joshi, He He
- TLDR: Proponiamo un modello di generalizzazione pretrained che può imparare robuste feature invarianti sotto il shift della distribuzione.
- Inducing Positive Perspectives with Text Reframing
- Caleb Ziems, Minzhi Li, Anthony Zhang, Diyi Yang
- TLDR: Proponiamo un task di reframing del testo per il transfer di stile testo, chiamato positive reframing, che può generare una prospettiva positive per l’autore senza contraddere il significato originale.
- VALUE: Understanding Dialect Disparity in NLU
- Caleb Ziems, Jiaao Chen, Camille Harris, Jessica Anderson, Diyi Yang
- TLDR: Proponiamo un benchmark di valutazione del linguaggio naturale per l’apprendimento di sistemi di natural language understanding.
- From the Detection of Toxic Spans in Online Discussions to the Analysis of Toxic-to-Civil Transfer
- John Pavlopoulos, Leo Laugier, Alexandros Xenos, Jeffrey Sorensen, Ion Androutsopoulos
- TLDR: Proponiamo un dataset per il rilevamento degli span di testo toxic, ToxicSpans, che è stato addestrato su sistemi di transfer per il rilevamento degli span di testo.
- FormNet: Structural Encoding beyond Sequential Modeling in Form Document Information Extraction
- Chen-Yu Lee, Chun-Liang Li, Timothy Dozat, Vincent Perot, Guolong Su, Nan Hua, Joshua Ainslie, Renshen Wang, Yasuhisa Fujii, Tomas Pfister
- TLDR: Proponiamo un modello di semantica strutturata per mitigare la suboptimal serialization di forme.
- The Moral Integrity Corpus: A Benchmark for Ethical Dialogue Systems
- Caleb Ziems, Jane Yu, Yi-Chia Wang, Alon Halevy, Diyi Yang
- TLDR: Proponiamo un corpus di apprendimento per risolvere le ambiguità morali in ambienti di dialogo conversazionale.
- Token Dropping for Efficient BERT Pretraining
- Le Hou, Richard Yuanzhe Pang, Tianyi Zhou, Yuexin Wu, Xinying Song, Xiaodan Song, Denny Zhou
- TLDR: Proponiamo un metodo di dropping dei token per il pretraining di transformer modelli, come BERT, senza degradare le prestazioni di fine-tuning standard.
- DialFact: A Benchmark for Fact-Checking in Dialogue
- Prakhar Gupta, Chien-Sheng Wu, Wenhao Liu, Caiming Xiong
- TLDR: Proponiamo DialFact, un task di fact-checking in dialogo, che è relativamente nuovo e non esplorato.
- The Trade-offs of Domain Adaptation for Neural Language Models
- David Grangier, Dan Iter
- TLDR: Proponiamo un setup di training di modelli di linguaggio naturale con un grande out-of-domain set e un piccolo in-domain set.
- Towards Afrocentric NLP for African Languages: Where We Are and Where We Can Go
- Ife Adebara, Muhammad Abdul-Mageed
- TLDR: Proponiamo un approccio di apprendimento multi-lingue per la diversità delle lingue.
- Ensembling and Knowledge Distilling of Large Sequence Taggers for Grammatical Error Correction
- Maksym Tarnavskyi, Artem Chernodub, Kostiantyn Omelianchuk
- TLDR: Proponiamo un ensemble per la semantica di sequenze che raggiunge risultati SOTA migliorati.
- Speaker Information Can Guide Models to Better Inductive Biases: A Case Study On Predicting Code-Switching
- Alissa Ostapenko, Shuly Wintner, Melinda Fricke, Yulia Tsvetkov
- TLDR: Proponiamo un nuovo metodo per addestrare modelli di natural language processing che utilizzano informazioni dello speaker per imparare informazioni linguistiche.
- Detecting Unassimilated Borrowings in Spanish: An Annotated Corpus and Approaches to Modeling
- Elena Álvarez-Mellado, Constantine Lignos
- TLDR: Proponiamo un corpus di newswire di origine e destinazione indicizzate in una mistura di subword embedding e embedding contestuali.
- Is Attention Explanation? An Introduction to the Debate
- Adrien Bibal, Rémi Cardon, David Alfter, Rodrigo Wilkens, Xiaoou Wang, Thomas François, Patrick Watrin
- TLDR: Proponiamo un’analisi di questo problema e dimostriamo che le soluzioni possibili per risolvere il problema di attention sono promettenti.
- There Are a Thousand Hamlets in a Thousand People’s Eyes: Enhancing Knowledge-grounded Dialogue with Personal Memory
- Tingchen Fu, Xueliang Zhao, Chongyang Tao, Ji-Rong Wen, Rui Yan
- TLDR: Proponiamo un metodo variazionale per modellare la relazione tra memoria personalizzata e selezione della conoscenza, e devise un algoritmo per imparare un metodo di apprendimento basato sulla selezione della conoscenza.
- Neural Pipeline for Zero-Shot Data-to-Text Generation
- Zdeněk Kasner, Ondrej Dusek
- TLDR: Proponiamo di utilizzare la trasformazione di descrizioni single-item per generare testo.
- Not always about you: Prioritizing community needs when developing endangered language technology
- Zoey Liu, Crystal Richardson, Richard Hatcher, Emily Prud’hommeaux
- TLDR: Proponiamo un’architettura di apprendimento multilingue per la ricerca e la comunicazione tra le comunità indigene e la tecnologia di apprendimento di linguaggi non vedenti.
- Automatic Identification and Classification of Bragging in Social Media
- Mali Jin, Daniel Preotiuc-Pietro, A. Seza Doğruöz, Nikolaos Aletras
- TLDR: Proponiamo un nuovo metodo per prevedere il bragging in termini di modelli di trasformazione basati sulla teoria del linguaggio.
- Automatic Error Analysis for Document-level Information Extraction
- Aliva Das, Xinya Du, Barry Wang, Kejian Shi, Jiayuan Gu, Thomas Porter, Claire Cardie
- TLDR: Proponiamo un framework per automatizzare la valutazione degli errori in eventi di input e eventi di input e informazioni di input.
- Learning Functional Distributional Semantics with Visual Data
- Yinhong Liu, Guy Emerson
- TLDR: Proponiamo un modello di apprendimento di semantica distributiva basato sulla grounded visual representation per l’apprendimento di modelli di apprendimento di semantica distributiva.
- ePiC: Employing Proverbs in Context as a Benchmark for Abstract Language Understanding
- Sayan Ghosh, Shashank Srivastava
- TLDR: Proponiamo un dataset di proverbi per l’apprendimento di modelli di linguaggio naturale.
- Chart-to-Text: A Large-Scale Benchmark for Chart Summarization
- Shankar Kantharaj, Rixie Tiffany Leong, Xiang Lin, Ahmed Masry, Megh Thakkar, Enamul Hoque, Shafiq Joty
- TLDR: Proponiamo un benchmark per la generazione di summari da immagini e la loro analisi con automatica e human evaluation.
- Characterizing Idioms: Conventionality and Contingency
- Michaela Socolof, Jackie Cheung, Michael Wagner, Timothy O’Donnell
- TLDR: Proponiamo un’estensione di un’estensione di un’estensione di un’estensione di un’estensione di un’estensione di un’estensione di un’estensione di un’estensione di un’estensione di un’estensione.
- Bag-of-Words vs. Graph vs. Sequence in Text Classification: Questioning the Necessity of Text-Graphs and the Surprising Strength of a Wide MLP
- Lukas Galke, Ansgar Scherp
- TLDR: Proponiamo un modello di apprendimento multi-layer basato su grafi per la classificazione del testo.
- Generative Pretraining for Paraphrase Evaluation
- Jack Weston, Raphael Lenain, Udeepa Meepegama, Emil Fristed
- TLDR: Proponiamo ParaBLEU, un modello di paraphrase representation learning e valutazione per la generazione di testo.
- Incorporating Stock Market Signals for Twitter Stance Detection
- Costanza Conforti, Jakob Berndt, Mohammad Taher Pilehvar, Chryssi Giannitsarou, Flavio Toxvaerd, Nigel Collier
- TLDR: Proponiamo un modello di apprendimento multi-task che combina il testo con le informazioni di mercato da dati di prezzo del mercato del lavoro.
- Multilingual Mix: Example Interpolation Improves Multilingual Neural Machine Translation
- Yong Cheng, Ankur Bapna, Orhan Firat, Yuan Cao, Pidong Wang, Wolfgang Macherey
- TLDR: Proponiamo un crossover encoder-decoder multilingue per la traduzione neurale neurale multilingue.
- Word Segmentation as Unsupervised Constituency Parsing
- Raquel G. Alhama
- TLDR: Proponiamo un nuovo approccio di word identification per la segmentazione dei input continuosi.
- SafetyKit: First Aid for Measuring Safety in Open-domain Conversational Systems
- Emily Dinan, Gavin Abercrombie, A. Bergman, Shannon Spruit, Dirk Hovy, Y-Lan Boureau, Verena Rieser
- TLDR: Proponiamo un nuovo metodo per misurare gli effetti negativi dei sistemi di apprendimento automatico e dimostriamo che questo può essere utilizzato per valutare la sicurezza di sistemi di apprendimento.
- Zero-Shot Cross-lingual Semantic Parsing
- Tom Sherborne, Mirella Lapata
- TLDR: Proponiamo un modello multi-task encoder-decoder per parsing semantico multilingue per nuovi linguaggi.
- The Paradox of the Compositionality of Natural Language: A Neural Machine Translation Case Study
- Verna Dankers, Elia Bruni, Dieuwke Hupkes
- TLDR: Proponiamo un nuovo metodo per valutare la composizione nelle reti neurali.
- Multilingual Document-Level Translation Enables Zero-Shot Transfer From Sentences to Documents
- Biao Zhang, Ankur Bapna, Melvin Johnson, Ali Dabirmoghaddam, Naveen Arivazhagan, Orhan Firat
- TLDR: Proponiamo un metodo per trasferire la traduzione neurale multilingue utilizzando concatenazione e connettività.
- Cross-Lingual Phrase Retrieval
- Heqi Zheng, Xiao Zhang, Zewen Chi, Heyan Huang, Yan Tan, Tian Lan, Wei Wei, Xian-Ling Mao
- TLDR: Proponiamo un nuovo metodo di cross-lingual phrase retrieval che utilizza rappresentazioni di frasi da un insieme di frasi non annotate per ottenere un’efficiente cross-lingual phrase retrieval.
- Improving Compositional Generalization with Self-Training for Data-to-Text Generation
- Sanket Vaibhav Mehta, Jinfeng Rao, Yi Tay, Mihir Kale, Ankur Parikh, Emma Strubell
- TLDR: Proponiamo un modello di generazione di dati-to-text che generalizza alle rappresentazioni strutturate del linguaggio naturale.
- MMCoQA: Conversational Question Answering over Text, Tables, and Images
- Yongqi Li, Wenjie Li, Liqiang Nie
- TLDR: Proponiamo un nuovo task di QA multimodale, i cui risultati mostrano che la ricerca su question understanding può essere completata con question extraction e question understanding multimodale.
- Effective Token Graph Modeling using a Novel Labeling Strategy for Structured Sentiment Analysis
- Wenxuan Shi, Fei Li, Jingye Li, Hao Fei, Donghong Ji
- TLDR: Proponiamo un modello di strutturazione del sentimento basato sulla strategia di label per la predizione strutturata del sentimento.
- PromDA: Prompt-based Data Augmentation for Low-Resource NLU Tasks
- Yufei Wang, Can Xu, Qingfeng Sun, Huang Hu, Chongyang Tao, Xiubo Geng, Daxin Jiang
- TLDR: Proponiamo Prompt-based Data Augmentation Model (PromDA) che addestrato solo soft Prompt in modelli di Natural Language Understanding (NLU) e che produce dati sintetici.
- Disentangled Sequence to Sequence Learning for Compositional Generalization
- Hao Zheng, Mirella Lapata
- TLDR: Proponiamo un’estensione dei modelli semantici semanticamente parsi e semanticamente translate che aiuta a favorire la generalizzazione.
- RST Discourse Parsing with Second-Stage EDU-Level Pre-training
- Nan Yu, Meishan Zhang, Guohong Fu, Min Zhang
- TLDR: Proponiamo un nuovo approccio di pre-training second-stage per imparare rappresentazioni di apprendimento efficienti di EDU a livello di frase e parola.
- SimKGC: Simple Contrastive Knowledge Graph Completion with Pre-trained Language Models
- Liang Wang, Wei Zhao, Zhuoyu Wei, Jingming Liu
- TLDR: Proponiamo un modello di apprendimento basato sul testo per graph completion.
- Do Transformer Models Show Similar Attention Patterns to Task-Specific Human Gaze?
- Oliver Eberle, Stephanie Brandl, Jonas Pilot, Anders Søgaard
- TLDR: Proponiamo un’analisi per valutare la correlazione tra attention learning e attention umano.
- LexGLUE: A Benchmark Dataset for Legal Language Understanding in English
- Ilias Chalkidis, Abhik Jana, Dirk Hartung, Michael Bommarito, Ion Androutsopoulos, Daniel Katz, Nikolaos Aletras
- TLDR: Proponiamo un benchmark per valutare le prestazioni del modello di natural language understanding per diverse task del dominio legale.
- DiBiMT: A Novel Benchmark for Measuring Word Sense Disambiguation Biases in Machine Translation
- Niccolò Campolungo, Federico Martelli, Francesco Saina, Roberto Navigli
- TLDR: Proponiamo DiBiMT, un benchmark di valutazione automatica per la traduzione di parole e parole in cinque lingue.
- Improving Word Translation via Two-Stage Contrastive Learning
- Yaoyiran Li, Fangyu Liu, Nigel Collier, Anna Korhonen, Ivan Vulić
- TLDR: Proponiamo un framework di contrasto per la traduzione bilinguale basato sul contrasto per la traduzione multilingue.
- Scheduled Multi-task Learning for Neural Chat Translation
- Yunlong Liang, Fandong Meng, Jinan Xu, Yufeng Chen, Jie Zhou
- TLDR: Proponiamo un framework di multi-task learning per la traduzione neurale conversazionale in-domain.
- FairLex: A Multilingual Benchmark for Evaluating Fairness in Legal Text Processing
- Ilias Chalkidis, Tommaso Pasini, Sheng Zhang, Letizia Tomada, Sebastian Schwemer, Anders Søgaard
- TLDR: Proponiamo una suite di dati per valutare la fairness dei modelli di apprendimento pre-trained e le tecniche di fine-tuning utilizzati per fine-tuning di questi modelli.
- Towards Abstractive Grounded Summarization of Podcast Transcripts
- Kaiqiang Song, Chen Li, Xiaoyang Wang, Dong Yu, Fei Liu
- TLDR: Proponiamo un metodo di summarization basato sulla grounding per risolvere il problema della comprensione del testo e del suo contenuto.
- FiNER: Financial Numeric Entity Recognition for XBRL Tagging
- Lefteris Loukas, Manos Fergadiotis, Ilias Chalkidis, Eirini Spyropoulou, Prodromos Malakasiotis, Ion Androutsopoulos, Georgios Paliouras
- TLDR: Proponiamo un nuovo task di tagger per la traduzione di informazioni di mercato e dimostriamo che le parole di origine numerica non migliorano le prestazioni di tagger.
- Keywords and Instances: A Hierarchical Contrastive Learning Framework Unifying Hybrid Granularities for Text Generation
- Mingzhe Li, XieXiong Lin, Xiuying Chen, Jinxiong Chang, Qishen Zhang, Feng Wang, Taifeng Wang, Zhongyi Liu, Wei Chu, Dongyan Zhao, Rui Yan
- TLDR: Proponiamo un modello di contrasto gerarchico per l’apprendimento contrastivo su livelli di apprendimento indipendente dal contrasto.
- EPT-X: An Expression-Pointer Transformer model that generates eXplanations for numbers
- Bugeun Kim, Kyung Seo Ki, Sangkyu Rhim, Gahgene Gweon
- TLDR: Proponiamo EPT-X, un modello explainable neurale che utilizza spiegazioni naturali per risolvere un problema di algebra.
- Identifying the Human Values behind Arguments
- Johannes Kiesel, Milad Alshomary, Nicolas Handke, Xiaoni Cai, Henning Wachsmuth, Benno Stein
- TLDR: Proponiamo una nuova architettura per la classificazione dei valori umani, che è in linea con la ricerca sulla psicologia.
- BenchIE: A Framework for Multi-Faceted Fact-Based Open Information Extraction Evaluation
- Kiril Gashteovski, Mingying Yu, Bhushan Kotnis, Carolin Lawrence, Mathias Niepert, Goran Glavaš
- TLDR: Proponiamo BenchIE: un benchmark e un metodo di valutazione per la valutazione completa di sistemi OIE per la lingua e la lingua corrente.
- Leveraging Unimodal Self-Supervised Learning for Multimodal Audio-Visual Speech Recognition
- Xichen Pan, Peiyu Chen, Yichen Gong, Helong Zhou, Xinbing Wang, Zhouhan Lin
- TLDR: Proponiamo un modello di self-supervision per l’apprendimento multimodale basato sulla trasformazione audio-visual.
- SummaReranker: A Multi-Task Mixture-of-Experts Re-ranking Framework for Abstractive Summarization
- Mathieu Ravaut, Shafiq Joty, Nancy Chen
- TLDR: Proponiamo un metodo di summarization che può imparare a selezionare un migliore candidate e migliorare le prestazioni del modello di base.
- Understanding Multimodal Procedural Knowledge by Sequencing Multimodal Instructional Manuals
- Te-Lin Wu, Alex Spangher, Pegah Alipoormolabashi, Marjorie Freedman, Ralph Weischedel, Nanyun Peng
- TLDR: Proponiamo un metodo di pretraining per sequenza di eventi multimodali che sfrutta le proprietà di sequenza semantiche e le proprietà di sequenza semantica.
- Zoom Out and Observe: News Environment Perception for Fake News Detection
- Qiang Sheng, Juan Cao, Xueyao Zhang, Rundong Li, Danding Wang, Yongchun Zhu
- TLDR: Proponiamo un ambiente di apprendimento per rilevare le fake news.
- Divide and Rule: Effective Pre-Training for Context-Aware Multi-Encoder Translation Models
- Lorenzo Lupo, Marco Dinarelli, Laurent Besacier
- TLDR: Proponiamo di pre-trainare i parametri contestuali per la traduzione multi-encoder.
- Saliency as Evidence: Event Detection with Trigger Saliency Attribution
- Jian Liu, Yufeng Chen, Jinan Xu
- TLDR: Proponiamo un nuovo metodo per rilevare gli eventi e un nuovo concetto chiamato salience attribution, che può quantificare i pattern sottostanti degli eventi.
- SRL4E – Semantic Role Labeling for Emotions: A Unified Evaluation Framework
- Cesare Campagnano, Simone Conia, Roberto Navigli
- TLDR: Proponiamo un framework unificato per valutare la semantica e il ruolo di rappresentazione delle emozioni per la valutazione di modelli pretrained.
- Context Matters: A Pragmatic Study of PLMs’ Negation Understanding
- Reto Gubelmann, Siegfried Handschuh
- TLDR: Proponiamo un nuovo studio di negation understanding basato sulla teoria della trasformazione basato sul modello di trasformatore.
- Probing for Predicate Argument Structures in Pretrained Language Models
- Simone Conia, Roberto Navigli
- TLDR: Proponiamo un metodo per codificare le strutture degli arguments nelle PLM.
- Multilingual Generative Language Models for Zero-Shot Cross-Lingual Event Argument Extraction
- Kuan-Hao Huang, I-Hung Hsu, Prem Natarajan, Kai-Wei Chang, Nanyun Peng
- TLDR: Proponiamo un modello generativo multilingue per cross-lingual EAE.
- Identifying Moments of Change from Longitudinal User Text
- Adam Tsakalidis, Federico Nanni, Anthony Hills, Jenny Chim, Jiayu Song, Maria Liakata
- TLDR: Proponiamo un nuovo task per rilevare momenti di cambiamento negli individui su base ai loro contenuti online.
- Multi-Task Pre-Training for Plug-and-Play Task-Oriented Dialogue System
- Yixuan Su, Lei Shu, Elman Mansimov, Arshit Gupta, Deng Cai, Yi-An Lai, Yi Zhang
- TLDR: Proponiamo PPTOD, un modello di dialogo multi-task unificato per la dialogue dialogue, e mostriamo che le risposte generate da PPTOD sono più accurate e semantiche di quelle generate da SOTA.
- Graph Enhanced Contrastive Learning for Radiology Findings Summarization
- Jinpeng Hu, Zhuo Li, Zhihong Chen, Zhen Li, Xiang Wan, Tsung-Hui Chang
- TLDR: Proponiamo un encoder-decoder per sfruttare la conoscenza extra e le informazioni chiave per generare l’immagine.
- Semi-Supervised Formality Style Transfer with Consistency Training
- Ao Liu, An Wang, Naoaki Okazaki
- TLDR: Proponiamo un metodo semi-supervisionato per migliorare il transfer dello stile formale utilizzando informazioni pseudo-paralleli.
- Cross-Lingual Ability of Multilingual Masked Language Models: A Study of Language Structure
- Yuan Chai, Yaobo Liang, Nan Duan
- TLDR: Proponiamo un nuovo linguaggio multilingue per il transfer multi-lingue.
- Rare and Zero-shot Word Sense Disambiguation using Z-Reweighting
- Ying Su, Hongming Zhang, Yangqiu Song, Tong Zhang
- TLDR: Proponiamo un metodo di training Z-reweighting per la disambiguazione del senso del testo.
- Nibbling at the Hard Core of Word Sense Disambiguation
- Marco Maru, Simone Conia, Michele Bevilacqua, Roberto Navigli
- TLDR: Proponiamo un nuovo benchmark di valutazione standard per Word Sense Disambiguation e mostriamo che il nostro metodo può risolvere il problema di resilienza con le parole e le frasi.
- Large Scale Substitution-based Word Sense Induction
- Matan Eyal, Shoval Sadde, Hillel Taub-Tabib, Yoav Goldberg
- TLDR: Proponiamo un metodo di word-sense induction basato su MLM pre-trained, che può scalare a grandi corpora e grandi corpora.
- Can Synthetic Translations Improve Bitext Quality?
- Eleftheria Briakou, Marine Carpuat
- TLDR: Proponiamo un metodo per migliorare la qualità del bitext senza alcuna supervisione bilinguale basato sul classificatore di equivalenza semantica per il bitext.
- Unsupervised Dependency Graph Network
- Yikang Shen, Shawn Tan, Alessandro Sordoni, Peng Li, Jie Zhou, Aaron Courville
- TLDR: Proponiamo un modello di self-attention pretrained che può generare strutture di dipendenza da corpora raw e masked.
- WikiDiverse: A Multimodal Entity Linking Dataset with Diversified Contextual Topics and Entity Types
- Xuwu Wang, Junfeng Tian, Min Gui, Zhixu Li, Rui Wang, Ming Yan, Lihan Chen, Yanghua Xiao
- TLDR: Proponiamo WikiDiverse, un dataset umano-annodato con topic e entity tipi da Wikinews, che utilizza Wikipedia come base per la ricerca e l’applicazione di un modello di GAN multimodale.
- Rewire-then-Probe: A Contrastive Recipe for Probing Biomedical Knowledge of Pre-trained Language Models
- Zaiqiao Meng, Fangyu Liu, Ehsan Shareghi, Yixuan Su, Charlotte Collins, Nigel Collier
- TLDR: Proponiamo un nuovo metodo di contrastive probing per il knowledge probing nel dominio biomedico.
- Fine- and Coarse-Granularity Hybrid Self-Attention for Efficient BERT
- Jing Zhao, Yifan Wang, Junwei Bao, Youzheng Wu, Xiaodong He
- TLDR: Proponiamo un nuovo metodo di self-attention per ridurre il costo di calcolo per il training di modelli di Transformer.
- Compression of Generative Pre-trained Language Models via Quantization
- Chaofan Tao, Lu Hou, Wei Zhang, Lifeng Shang, Xin Jiang, Qun Liu, Ping Luo, Ngai Wong
- TLDR: Proponiamo un metodo di quantizzazione per comprimere le generative language model.
- Visual-Language Navigation Pretraining via Prompt-based Environmental Self-exploration
- Xiwen Liang, Fengda Zhu, Li Lingling, Hang Xu, Xiaodan Liang
- TLDR: Proponiamo Prompt-based Environmental Self-exploration (ProbES), un metodo di fine-tuning per la navigazione multilingue vision-language.
- DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for Dialog Response Generation
- Wei Chen, Yeyun Gong, Song Wang, Bolun Yao, Weizhen Qi, Zhongyu Wei, Xiaowu Hu, Bartuer Zhou, Yi Mao, Weizhu Chen, Biao Cheng, Nan Duan
- TLDR: Proponiamo un nuovo framework di pre-training del dialogo per la generazione di risposte nel dominio open.
- Contextual Fine-to-Coarse Distillation for Coarse-grained Response Selection in Open-Domain Conversations
- Wei Chen, Yeyun Gong, Can Xu, Huang Hu, Bolun Yao, Zhongyu Wei, Zhihao Fan, Xiaowu Hu, Bartuer Zhou, Biao Cheng, Daxin Jiang, Nan Duan
- TLDR: Proponiamo un modello di selezione del feedback coarse-grained distillato con un modello di apprendimento di knowledge di fine-grained learning per la selezione del feedback coarse-grained in conversazioni open-domain.
- Textomics: A Dataset for Genomics Data Summary Generation
- Mu-Chun Wang, Zixuan Liu, Sheng Wang
- TLDR: Proponiamo un nuovo dataset di descrizioni dei dati genomici, che contiene 22,273 pair di matrici di dati genomici e loro summari.
- A Contrastive Framework for Learning Sentence Representations from Pairwise and Triple-wise Perspective in Angular Space
- Yuhao Zhang, Hongji Zhu, Yongliang Wang, Nan Xu, Xiaobo Li, Binqiang Zhao
- TLDR: Proponiamo un metodo di contrasto per imparare rappresentazioni di frasi e dimostriamo che migliora le prestazioni di apprendimento su diverse task di apprendimento di frasi.
- Packed Levitated Marker for Entity and Relation Extraction
- Deming Ye, Yankai Lin, Peng Li, Maosong Sun
- TLDR: Proponiamo un nuovo approccio di rappresentazione dello span per la predizione di encoder.
- An Interpretable Neuro-Symbolic Reasoning Framework for Task-Oriented Dialogue Generation
- Shiquan Yang, Rui Zhang, Sarah Erfani, Jey Han Lau
- TLDR: Proponiamo un metodo per risolvere il problema dell’interpretabilità dei dialogue systems basati sul task.
- Impact of Evaluation Methodologies on Code Summarization
- Pengyu Nie, Jiyang Zhang, Junyi Jessy Li, Ray Mooney, Milos Gligoric
- TLDR: Proponiamo una metodologia di valutazione per la summarization dei dati di codice per la valutazione di modelli di apprendimento automatico.
- KG-FiD: Infusing Knowledge Graph in Fusion-in-Decoder for Open-Domain Question Answering
- Donghan Yu, Chenguang Zhu, Yuwei Fang, Wenhao Yu, Shuohang Wang, Yichong Xu, Xiang Ren, Yiming Yang, Michael Zeng
- TLDR: Proponiamo KG-FiD per rispondere alle domande di Open-Domain Question Answering.
- Which side are you on? Insider-Outsider classification in conspiracy-theoretic social media
- Pavan Holur, Tianyi Wang, Shadi Shahsavari, Timothy Tangherlini, Vwani Roychowdhury
- TLDR: Un’analisi di deep learning su Twitter
- Learning From Failure: Data Capture in an Australian Aboriginal Community
- Eric Le Ferrand, Steven Bird, Laurent Besacier
- TLDR: Proponiamo un metodo per sfruttare la capacità di generare dati per migliorare la qualità della transcription.
- Deep Inductive Logic Reasoning for Multi-Hop Reading Comprehension
- Wenya Wang, Sinno Pan
- TLDR: Proponiamo un metodo di ragionamento logico basato sul deep learning per risolvere il problema di reading comprehension multi-hop.
- CICERO: A Dataset for Contextualized Commonsense Inference in Dialogues
- Deepanway Ghosal, Siqi Shen, Navonil Majumder, Rada Mihalcea, Soujanya Poria
- TLDR: Proponiamo CICERO, un dataset di conversazioni dyadici con cinque tipi di ragionamento basato sul ragionamento comune, causa, seguito evento, prerequisite, motivazione e emotion.
- A Comparative Study of Faithfulness Metrics for Model Interpretability Methods
- Chun Sik Chan, Huanqi Kong, Liang Guanqing
- TLDR: Proponiamo un’analisi comparativa e completa di diverse metriche di valutazione della fiducia per valutare la sufficienza e la comprehensiveness.
- SPoT: Better Frozen Model Adaptation through Soft Prompt Transfer
- Tu Vu, Brian Lester, Noah Constant, Rami Al-Rfou’, Daniel Cer
- TLDR: Proponiamo un metodo di transfer learning basato sul prompt per imparare soft prompt da una fonte di input per un nuovo task.
- Pass off Fish Eyes for Pearls: Attacking Model Selection of Pre-trained Models
- Biru Zhu, Yujia Qin, Fanchao Qi, Yangdong Deng, Zhiyuan Liu, Maosong Sun, Ming Gu
- TLDR: Proponiamo metodi per valutare la robustezza di FMS.
- Educational Question Generation of Children Storybooks via Question Type Distribution Learning and Event-centric Summarization
- Zhenjie Zhao, Yufang Hou, Dakuo Wang, Mo Yu, Chengzhong Liu, Xiaojuan Ma
- TLDR: Proponiamo un nuovo metodo di question generation che impara la distribuzione di domande tipo e la summazione degli eventi per generare domande di alto livello di interesse.
- HeterMPC: A Heterogeneous Graph Neural Network for Response Generation in Multi-Party Conversations
- Jia-Chen Gu, Chao-Hong Tan, Chongyang Tao, Zhen-Hua Ling, Huang Hu, Xiubo Geng, Daxin Jiang
- TLDR: Proponiamo un modello di risposta per MPC che modella la semantica di udizioni e interlocutori simultaneamente con due tipi di nodi di un graph.
- The patient is more dead than alive: exploring the current state of the multi-document summarisation of the biomedical literature
- Yulia Otmakhova, Karin Verspoor, Timothy Baldwin, Jey Han Lau
- TLDR: Proponiamo un nuovo metodo per valutare la qualità degli articoli di sintesi biomedica.
- A Multi-Document Coverage Reward for RELAXed Multi-Document Summarization
- Jacob Parnell, Inigo Jauregi Unanue, Massimo Piccardi
- TLDR: Proponiamo di fine-tuning una baseline di MDS con una reward che bilancia la metrica basata sulla precisione di ROUGE con la coverage dei documenti di input.
- KNN-Contrastive Learning for Out-of-Domain Intent Classification
- Yunhua Zhou, Peiju Liu, Xipeng Qiu
- TLDR: Proponiamo un metodo per imparare la classificazione degli intent fuori dal dominio utilizzando k-nearest neighbors di OOD.
- A Neural Network Architecture for Program Understanding Inspired by Human Behaviors
- Renyu Zhu, Lei Yuan, Xiang Li, Ming Gao, Wenyuan Cai
- TLDR: Proponiamo un modello PGNN-EK basato sul partizionamento per la comprensione dei programmi.
- FaVIQ: FAct Verification from Information-seeking Questions
- Jungsoo Park, Sewon Min, Jaewoo Kang, Luke Zettlemoyer, Hannaneh Hajishirzi
- TLDR: Proponiamo un dataset di verifica del fattore basato su questionari di informazioni per la verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore.
- Simulating Bandit Learning from User Feedback for Extractive Question Answering
- Ge Gao, Eunsol Choi, Yoav Artzi
- TLDR: Proponiamo un metodo per imparare da feedback degli utenti per rispondere alle domande di apprendimento extractivo utilizzando dati supervisionati.
- Beyond Goldfish Memory: Long-Term Open-Domain Conversation
- Jing Xu, Arthur Szlam, Jason Weston
- TLDR: Proponiamo un dataset umano-human per la conversazione a lungo termine.
- ReCLIP: A Strong Zero-Shot Baseline for Referring Expression Comprehension
- Sanjay Subramanian, William Merrill, Trevor Darrell, Matt Gardner, Sameer Singh, Anna Rohrbach
- TLDR: Proponiamo ReCLIP, un modello di comprehensione delle espressioni per il training di un nuovo dominio visivo.
- Dynamic Prefix-Tuning for Generative Template-based Event Extraction
- Xiao Liu, Heyan Huang, Ge Shi, Bo Wang
- TLDR: Proponiamo un metodo di extrazione degli eventi generativo basato sulla generazione condizionale con un modello di classificazione basato sul modello OneIE.
- E-LANG: Energy-Based Joint Inferencing of Super and Swift Language Models
- Mohammad Akbari, Amin Banitalebi-Dehkordi, Yong Zhang
- TLDR: Proponiamo E-LANG, un metodo di inferenza dinamica per language model di grandezza e precisione.
- PRIMERA: Pyramid-based Masked Sentence Pre-training for Multi-document Summarization
- Wen Xiao, Iz Beltagy, Giuseppe Carenini, Arman Cohan
- TLDR: Proponiamo un modello di summarization multi-documento pre-trained che riduce il bisogno di architetture specifiche e di grandi quantità di dati annotati.
- Dynamic Global Memory for Document-level Argument Extraction
- Xinya Du, Sha Li, Heng Ji
- TLDR: Proponiamo un framework globale per l’apprendimento di eventi di calcolo a livello di documenti per l’apprendimento di eventi di calcolo a livello di documenti.
- Measuring the Impact of (Psycho-)Linguistic and Readability Features and Their Spill Over Effects on the Prediction of Eye Movement Patterns
- Daniel Wiechmann, Yu Qiao, Elma Kerz, Justus Mattern
- TLDR: Proponiamo un’analisi di un ampio spectrum di feature per la predizione del comportamento umano di lettura.
- Alternative Input Signals Ease Transfer in Multilingual Machine Translation
- Simeng Sun, Angela Fan, James Cross, Vishrav Chaudhary, Chau Tran, Philipp Koehn, Francisco Guzmán
- TLDR: Proponiamo un metodo per addestrare un modello multi-source per il transfer tra lingue.
- Phone-ing it in: Towards Flexible Multi-Modal Language Model Training by Phonetic Representations of Data
- Colin Leong, Daniel Whitenack
- TLDR: Proponiamo un metodo multi-modale per addestrare language model utilizzando qualsiasi testo e/o audio dato da un dato language model.
- Noisy Channel Language Model Prompting for Few-Shot Text Classification
- Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer
- TLDR: Proponiamo un approccio di apprendimento few shot che utilizza modelli di apprendimento per rispondere al testo in modo condizionato.
- Multilingual unsupervised sequence segmentation transfers to extremely low-resource languages
- C. Downey, Shannon Drizin, Levon Haroutunian, Shivin Thukral
- TLDR: Proponiamo un modello di sequenza-segmentation multilingue per la trattazione di sequenze selettive.
- KinyaBERT: a Morphology-aware Kinyarwanda Language Model
- Antoine Nzeyimana, Andre Niyongabo Rubungo
- TLDR: Proponiamo un modello di sequenza di morphemi per language model di apprendimento automatico.
- On the Calibration of Pre-trained Language Models using Mixup Guided by Area Under the Margin and Saliency
- Seo Yeon Park, Cornelia Caragea
- TLDR: Proponiamo un mixup per la calibrazione del modello neurale per la comprensione del linguaggio naturale.
- IMPLI: Investigating NLI Models’ Performance on Figurative Language
- Kevin Stowe, Prasetya Utama, Iryna Gurevych
- TLDR: Proponiamo un dataset di apprendimento automatico di linguaggi parziali e metamorfosi per la comprensione del linguaggio naturale.
- QAConv: Question Answering on Informative Conversations
- Chien-Sheng Wu, Andrea Madotto, Wenhao Liu, Pascale Fung, Caiming Xiong
- TLDR: Proponiamo QAConv, un nuovo question answering dataset che utilizza le conversazioni come fonte di conoscenza per la ricerca di conversazioni informative.
- Prix-LM: Pretraining for Multilingual Knowledge Base Construction
- Wenxuan Zhou, Fangyu Liu, Ivan Vulić, Nigel Collier, Muhao Chen
- TLDR: Proponiamo un modello di rappresentazione unificato per costruire KB multilingue e completare le loro.
- Semantic Composition with PSHRG for Derivation Tree Reconstruction from Graph-Based Meaning Representations
- Chun Hei Lo, Wai Lam, Hong Cheng
- TLDR: Proponiamo un approccio di data-driven per generare derivazioni da grafi di rappresentazione dei significati con la grammatica probabilistica di apprendimento con hyperedge replacement grammar (PSHRG).
- HOLM: Hallucinating Objects with Language Models for Referring Expression Recognition in Partially-Observed Scenes
- Volkan Cirik, Louis-Philippe Morency, Taylor Berg-Kirkpatrick
- TLDR: Proponiamo un nuovo task di apprendimento di embedding di language model per risolvere il problema di osservabilità partiale.
- Multi Task Learning For Zero Shot Performance Prediction of Multilingual Models
- Kabir Ahuja, Shanu Kumar, Sandipan Dandapat, Monojit Choudhury
- TLDR: Proponiamo un metodo per modellare il multi-task learning come un problema di multilingual transfer, che migliora le prestazioni di transfer tra lingue.
- \infty-former: Infinite Memory Transformer
- Pedro Henrique Martins, Zita Marinho, Andre Martins
- TLDR: Proponiamo un nuovo metodo per modellare le memorie a lungo termine.
- Systematic Inequalities in Language Technology Performance across the World’s Languages
- Damian Blasi, Antonios Anastasopoulos, Graham Neubig
- TLDR: Un metodo di natural language processing per la traduzione
- CaMEL: Case Marker Extraction without Labels
- Leonie Weissweiler, Valentin Hofmann, Masoud Jalili Sabet, Hinrich Schuetze
- TLDR: Proponiamo di utilizzare
- Improving Generalizability in Implicitly Abusive Language Detection with Concept Activation Vectors
- Isar Nejadgholi, Kathleen Fraser, Svetlana Kiritchenko
- TLDR: Proponiamo un metodo di interpretazione per misurare la sensibilità di un modello di apprendimento automatico ai concetti di linguaggio umano e dimostriamo che questo può essere utilizzato per spiegare la generalizzazione di COVID su nuovi dati, in questo caso, il rumore di Asia-Europe.
- Reports of personal experiences and stories in argumentation: datasets and analysis
- Neele Falk, Gabriella Lapesa
- TLDR: Proponiamo un metodo per sfruttare le annotazioni per classificare i documenti contenenti esperienze e storie personali.
- Non-neural Models Matter: a Re-evaluation of Neural Referring Expression Generation Systems
- Fahime Same, Guanyi Chen, Kees Van Deemter
- TLDR: Proponiamo un modello di apprendimento neurale basato sulla regola per la generazione di espressioni di riferimento.
- Bridging the Generalization Gap in Text-to-SQL Parsing with Schema Expansion
- Chen Zhao, Yu Su, Adam Pauls, Emmanouil Antonios Platanios
- TLDR: Proponiamo un nuovo dataset sintetico per la generalizzazione del dominio e un nuovo dataset Squall per la generalizzazione del dominio.
- Predicate-Argument Based Bi-Encoder for Paraphrase Identification
- Qiwei Peng, David Weir, Julie Weeds, Yekun Chai
- TLDR: Proponiamo un modello di paraphrase identification bi-encoder per task di classificazione delle frasi.
- MINER: Improving Out-of-Vocabulary Named Entity Recognition from an Information Theoretic Perspective
- Xiao Wang, Shihan Dou, Limao Xiong, Yicheng Zou, Qi Zhang, Tao Gui, Liang Qiao, Zhanzhan Cheng, Xuanjing Huang
- TLDR: Proponiamo MINER, un nuovo approccio di apprendimento NER basato sulla teoria dell’informazione per risolvere il problema dell’out-of-vocabulary recognition.
- Leveraging Wikipedia article evolution for promotional tone detection
- Christine De Kock, Andreas Vlachos
- TLDR: Proponiamo WikiEvolve, un dataset per il rilevamento del rumore di testo a livello di documenti, che può sfruttare il training del rumore di testo per ottenere risultati allo stato dell’arte.
- From text to talk: Harnessing conversational corpora for humane and diversity-aware language technology
- Mark Dingemanse, Andreas Liesenfeld
- TLDR: Proponiamo un’analisi di corpora conversazionali diversi per la comunicazione interattiva e la tecnologia.
- Flooding-X: Improving BERT’s Resistance to Adversarial Attacks via Loss-Restricted Fine-Tuning
- Qin Liu, Rui Zheng, Bao Rong, Jingyi Liu, ZhiHua Liu, Zhanzhan Cheng, Liang Qiao, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: Proponiamo un metodo per affrontare il problema del flooding dipendente dai parametri utilizzando il metodo di Flooding.
- RoMe: A Robust Metric for Evaluating Natural Language Generation
- Md Rashad Al Hasan Rony, Liubov Kovriguina, Debanjan Chaudhuri, Ricardo Usbeck, Jens Lehmann
- TLDR: Proponiamo una nuova metric per valutare la generazione di sistemi di apprendimento naturale.
- Finding Structural Knowledge in Multimodal-BERT
- Victor Milewski, Miryam de Lhoneux, Marie-Francine Moens
- TLDR: Proponiamo un modello di embedding multimodale-BERT che può stocare la struttura linguistica e la struttura visiva degli oggetti.
- Fully Hyperbolic Neural Networks
- Weize Chen, Xu Han, Yankai Lin, Hexu Zhao, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou
- TLDR: Proponiamo un framework di architettura per costruire reti neurali hyperbolic basate sul modello di rotazione del Lorentz.
- Neural Machine Translation with Phrase-Level Universal Visual Representations
- Qingkai Fang, Yang Feng
- TLDR: Proponiamo un metodo di phrase-level retrieval basato sulla rappresentazione visiva per MMT per imparare informazioni visive da dati di input di source sentence e image.
- M3ED: Multi-modal Multi-scene Multi-label Emotional Dialogue Database
- Jinming Zhao, Tenggan Zhang, Jingwen Hu, Yuchen Liu, Qin Jin, Xinchao Wang, Haizhou Li
- TLDR: Proponiamo un dataset di dialogo multimodale per la valutazione degli stati emotivi in conversazioni.
- Few-shot Named Entity Recognition with Self-describing Networks
- Jiawei Chen, Qing Liu, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: Proponiamo un modello di self-describing per few shot NER che può sfruttare le informazioni di rappresentazione e le informazioni di transfer da risorse esterne.
- SpeechT5: Unified-Modal Encoder-Decoder Pre-Training for Spoken Language Processing
- Junyi Ao, Rui Wang, Long Zhou, Chengyi Wang, Shuo Ren, Yu Wu, Shujie Liu, Tom Ko, Qing Li, Yu Zhang, Zhihua Wei, Yao Qian, Jinyu Li, Furu Wei
- TLDR: Proponiamo un framework di apprendimento unificato per la traduzione e il riconoscimento vocale/telematico per self-supervision speech/text representation learning.
- Human Evaluation and Correlation with Automatic Metrics in Consultation Note Generation
- Francesco Moramarco, Alex Papadopoulos Korfiatis, Mark Perera, Damir Juric, Jack Flann, Ehud Reiter, Anya Belz, Aleksandar Savkov
- TLDR: Proponiamo un studio umano di valutazione di consultation notes per valutare la loro qualità e la loro impatto sulla sicurezza clinica.
- Unified Structure Generation for Universal Information Extraction
- Yaojie Lu, Qing Liu, Dai Dai, Xinyan Xiao, Hongyu Lin, Xianpei Han, Le Sun, Hua Wu
- TLDR: Proponiamo un framework di generazione di testo-to-strade per l’Information Extraction unificato, che può modellare diversi task di extraction e imparare le sue capacità generali da diversi fonti di conoscenza.
- Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering
- Jing Zhang, Xiaokang Zhang, Jifan Yu, Jian Tang, Jie Tang, Cuiping Li, Hong Chen
- TLDR: Proponiamo un subgraph retriever addestrato weakly supervised per question answering knowledge base.
- Pre-training to Match for Unified Low-shot Relation Extraction
- Fangchao Liu, Hongyu Lin, Xianpei Han, Boxi Cao, Le Sun
- TLDR: Proponiamo un metodo di meta-training per addestrare le relazioni a few shot.
- Can Prompt Probe Pretrained Language Models? Understanding the Invisible Risks from a Causal View
- Boxi Cao, Hongyu Lin, Xianpei Han, Fangchao Liu, Le Sun
- TLDR: Proponiamo di debiasing tramite causal intervention per valutare le capacità di pretrained language model.
- Evaluating Extreme Hierarchical Multi-label Classification
- Enrique Amigo, Agustín Delgado
- TLDR: Proponiamo un modello di valutazione basato sull’informazione per la classificazione multilabel.
- What does the sea say to the shore? A BERT based DST style approach for speaker to dialogue attribution in novels
- Carolina Cuesta-Lazaro, Animesh Prasad, Trevor Wood
- TLDR: Proponiamo un modello di deep learning per attribuire ai dialoghi.
- Measuring Fairness of Text Classifiers via Prediction Sensitivity
- Satyapriya Krishna, Rahul Gupta, Apurv Verma, Jwala Dhamala, Yada Pruksachatkun, Kai-Wei Chang
- TLDR: Proponiamo una nuova metrica di fairness basata sulla stima della stima della probabilità di accumulazione della stima della fairness nei modelli di apprendimento automatico basati sulla stima della stima della fairness.
- RotateQVS: Representing Temporal Information as Rotations in Quaternion Vector Space for Temporal Knowledge Graph Completion
- Kai Chen, Ye Wang, Yitong Li, Aiping Li
- TLDR: Proponiamo un nuovo metodo di modellazione temporale per risolvere il knowledge graph.
- Feeding What You Need by Understanding What You Learned
- Xiaoqiang Wang, Bang Liu, Fangli Xu, Bo Long, Siliang Tang, Lingfei Wu
- TLDR: Un metodo per imparare la lettura compressa usando metriche
- Probing Simile Knowledge from Pre-trained Language Models
- Weijie Chen, Yongzhu Chang, Rongsheng Zhang, Jiashu Pu, Guandan Chen, Le Zhang, Yadong Xi, Yijiang Chen, Chang Su
- TLDR: Proponiamo un framework per la generazione di simile e la comprensione di testo simile per risolvere i task di SI e SG.
- An Effective and Efficient Entity Alignment Decoding Algorithm via Third-Order Tensor Isomorphism
- Xin Mao, Meirong Ma, Hao Yuan, Jianchao Zhu, ZongYu Wang, Rui Xie, Wei Wu, Man Lan
- TLDR: Proponiamo un metodo di decodifica efficiente e efficiente per l’apprendimento di grafi tramite isomorfismi tensoriali.
- Entailment Graph Learning with Textual Entailment and Soft Transitivity
- Zhibin Chen, Yansong Feng, Dongyan Zhao
- TLDR: Proponiamo un metodo di entailment graph con textual entailment e transitivity per imparare le relazioni di entailment localizzate tra i predicati da testo e modellare le loro strutture di struttura.
- Logic Traps in Evaluating Attribution Scores
- Yiming Ju, Yuanzhe Zhang, Zhao Yang, Zhongtao Jiang, Kang Liu, Jun Zhao
- TLDR: Proponiamo un metodo per valutare la valutazione degli attribuzioni dei modelli di deep reasoning.
- Continual Pre-training of Language Models for Math Problem Understanding with Syntax-Aware Memory Network
- Zheng Gong, Kun Zhou, Xin Zhao, Jing Sha, Shijin Wang, Ji-Rong Wen
- TLDR: Proponiamo un nuovo metodo per pre-tradare language model per migliorare l’apprendimento di problemi matematici.
- Multitasking Framework for Unsupervised Simple Definition Generation
- Cunliang Kong, Yun Chen, Hengyuan Zhang, Liner Yang, Erhong Yang
- TLDR: Proponiamo un nuovo task di apprendimento di definizioni semplici per l’apprendimento di testi semplici.
- Learning to Reason Deductively: Math Word Problem Solving as Complex Relation Extraction
- Zhanming Jie, Jierui Li, Wei Lu
- TLDR: Proponiamo un nuovo metodo per risolvere il problema della relation extraction, che presenta un ragionamento deductivo spiegabile per costruire espressioni di testo.
- When did you become so smart, oh wise one?! Sarcasm Explanation in Multi-modal Multi-party Dialogues
- Shivani Kumar, Atharva Kulkarni, Md Shad Akhtar, Tanmoy Chakraborty
- TLDR: Proponiamo un nuovo task di apprendimento di conversazioni satiriche multimodali e globali per risolvere il problema di apprendimento di WITS.
- Toward Interpretable Semantic Textual Similarity via Optimal Transport-based Contrastive Sentence Learning
- Seonghyeon Lee, Dongha Lee, Seongbo Jang, Hwanjo Yu
- TLDR: Proponiamo CLRCMD, un framework di contrastive learning che ottimizza la distanza di trasporto per la similarità tra le frasi e la loro interpretazione.
- Pre-training and Fine-tuning Neural Topic Model: A Simple yet Effective Approach to Incorporating External Knowledge
- Linhai Zhang, Xuemeng Hu, Boyu Wang, Deyu Zhou, Qian-Wen Zhang, Yunbo Cao
- TLDR: Proponiamo un nuovo metodo per incorporare la conoscenza esterna nel topic modeling neurale.
- Multi-View Document Representation Learning for Open-Domain Dense Retrieval
- Shunyu Zhang, Yaobo Liang, Ming Gong, Daxin Jiang, Nan Duan
- TLDR: Proponiamo un metodo per generare embedding multi-view per rispondere alle domande di ricerca di Dense Retrieval.
- Graph Pre-training for AMR Parsing and Generation
- Xuefeng Bai, Yulong Chen, Yue Zhang
- TLDR: Proponiamo un metodo di autoencoding dei grafi per il training di grafi self-supervised.
- Turning Tables: Generating Examples from Semi-structured Tables for Endowing Language Models with Reasoning Skills
- Ori Yoran, Alon Talmor, Jonathan Berant
- TLDR: Proponiamo di utilizzare le informazioni di input per generare question-paragraph pairs, e dimostriamo che le prestazioni di training migliorano significativamente.
- RNG-KBQA: Generation Augmented Iterative Ranking for Knowledge Base Question Answering
- Xi Ye, Semih Yavuz, Kazuma Hashimoto, Yingbo Zhou, Caiming Xiong
- TLDR: Proponiamo un approccio di rank-and-generation per KBQA che risolve il problema della coverage con un modello di generazione e una forte capacità di generalizzazione.
- Rethinking Self-Supervision Objectives for Generalizable Coherence Modeling
- Prathyusha Jwalapuram, Shafiq Joty, Xiang Lin
- TLDR: Proponiamo un modello di coerenza neurale per il training di modelli di apprendimento contrastivo.
- Just Rank: Rethinking Evaluation with Word and Sentence Similarities
- Bin Wang, C.-C. Jay Kuo, Haizhou Li
- TLDR: Proponiamo EvalRank, un metodo di valutazione intrinseca per word and sentence embedding.
- MarkupLM: Pre-training of Text and Markup Language for Visually Rich Document Understanding
- Junlong Li, Yiheng Xu, Lei Cui, Furu Wei
- TLDR: Proponiamo un modello di pre-training multimodale per document understanding.
- CLIP Models are Few-Shot Learners: Empirical Studies on VQA and Visual Entailment
- Haoyu Song, Li Dong, Weinan Zhang, Ting Liu, Furu Wei
- TLDR: Proponiamo un metodo di fine-tuning per migliorare le prestazioni few shot su task di question answering e visual entailment.
- KQA Pro: A Dataset with Explicit Compositional Programs for Complex Question Answering over Knowledge Base
- Shulin Cao, Jiaxin Shi, Liangming Pan, Lunyiu Nie, Yutong Xiang, Lei Hou, Juanzi Li, Bin He, Hanwang Zhang
- TLDR: Proponiamo un framework di apprendimento per question answering complesso utilizzando programmi di composizione e interpretabilità per risolvere il problema di KBQA complesso.
- Debiased Contrastive Learning of Unsupervised Sentence Representations
- Kun Zhou, Beichen Zhang, Xin Zhao, Ji-Rong Wen
- TLDR: Proponiamo un nuovo metodo di contrasto per imparare rappresentazioni di frasi.
- MSP: Multi-Stage Prompting for Making Pre-trained Language Models Better Translators
- Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu
- TLDR: Proponiamo un metodo per sfruttare i modelli di traduzione pre-trained per trasferire i risultati di traduzione dei modelli di traduzione pre-trained.
- SalesBot: Transitioning from Chit-Chat to Task-Oriented Dialogues
- Ssu Chiu, Maolin Li, Yen-Ting Lin, Yun-Nung Chen
- TLDR: Proponiamo un framework per generare dialoghi senza involvement umano, che può essere sfruttato per generare dialoghi senza involvement umano.
- UCTopic: Unsupervised Contrastive Learning for Phrase Representations and Topic Mining
- Jiacheng Li, Jingbo Shang, Julian McAuley
- TLDR: Proponiamo un nuovo approccio di contrastive learning unsupervised per la rappresentazione delle frasi e il topic mining.
- XLM-E: Cross-lingual Language Model Pre-training via ELECTRA
- Zewen Chi, Shaohan Huang, Li Dong, Shuming Ma, Bo Zheng, Saksham Singhal, Payal Bajaj, Xia Song, Xian-Ling Mao, Heyan Huang, Furu Wei
- TLDR: Proponiamo task di pre-training ELECTRA-style per il training di un modello di comprensione multilingue e multi-lingue.
- Nested Named Entity Recognition as Latent Lexicalized Constituency Parsing
- Chao Lou, Songlin Yang, Kewei Tu
- TLDR: Proponiamo un metodo per risolvere il problema di riconoscimento delle entità nested named named entity.
- Can Explanations Be Useful for Calibrating Black Box Models?
- Xi Ye, Greg Durrett
- TLDR: Proponiamo un metodo per calibrare le prestazioni di un modello black box utilizzando spiegazioni del comportamento del modello.
- OIE@OIA: an Adaptable and Efficient Open Information Extraction Framework
- Xin Wang, Minlong Peng, Mingming Sun, Ping Li
- TLDR: Proponiamo un nuovo sistema di apprendimento efficiente e adattabile per l’OIE e lo usiamo per addestrare il nostro OIE@OIA.
- ReACC: A Retrieval-Augmented Code Completion Framework
- Shuai Lu, Nan Duan, Hojae Han, Daya Guo, Seung-won Hwang, Alexey Svyatkovskiy
- TLDR: Proponiamo un framework di completamento del codice per l’apprendimento statistico con trasformatori.
- Does Recommend-Revise Produce Reliable Annotations? An Analysis on Missing Instances in DocRED
- Quzhe Huang, Shibo Hao, Yuan Ye, Shengqi Zhu, Yansong Feng, Dongyan Zhao
- TLDR: Proponiamo di rivedere il metodo di recommendation per addestrare modelli di annotazione RE e modelli di annotazione RE.
- UniPELT: A Unified Framework for Parameter-Efficient Language Model Tuning
- Yuning Mao, Lambert Mathias, Rui Hou, Amjad Almahairi, Hao Ma, Jiawei Han, Scott Yih, Madian Khabsa
- TLDR: Proponiamo un metodo di language model tuning efficiente che incorpora diversi metodi come submoduli e apprende a selezionare quelli che meglio rispondono ai dati del setting corrente.
- An Empirical Study of Memorization in NLP
- Xiaosen Zheng, Jing Jiang
- TLDR: Proponiamo un metodo di memorizzazione per verificare se la teoria di long-tail hold.
- AmericasNLI: Evaluating Zero-shot Natural Language Understanding of Pretrained Multilingual Models in Truly Low-resource Languages
- Abteen Ebrahimi, Manuel Mager, Arturo Oncevay, Vishrav Chaudhary, Luis Chiruzzo, Angela Fan, John Ortega, Ricardo Ramos, Annette Rios, Ivan Vladimir Meza Ruiz, Gustavo Giménez-Lugo, Elisabeth Mager, Graham Neubig, Alexis Palmer, Rolando Coto-Solano, Thang Vu, Katharina Kann
- TLDR: Proponiamo AmericasNLI, un’estensione di XNLI per 10 lingue indigenee degli Usa.
- Towards Learning (Dis)-Similarity of Source Code from Program Contrasts
- Yangruibo Ding, Luca Buratti, Saurabh Pujar, Alessandro Morari, Baishakhi Ray, Saikat Chakraborty
- TLDR: Proponiamo un nuovo metodo per trasformare il codice sorgente in clones sintetiche e generare controversi di sicurezza per identificare le feature strutturali del codice sorgente.
- Guided Attention Multimodal Multitask Financial Forecasting with Inter-Company Relationships and Global and Local News
- Gary Ang, Ee-Peng Lim
- TLDR: Proponiamo un modello di attention multimodale per la predizione dei risultati di trade-off tra informazioni globali e locali.
- On Vision Features in Multimodal Machine Translation
- Bei Li, Chuanhao Lv, Zefan Zhou, Tao Zhou, Tong Xiao, Anxiang Ma, JingBo Zhu
- TLDR: Proponiamo un modello di attention selectivo per studiare la contribution di un modello visivo a livello di patch nella traduzione multimodale.
- CONTaiNER: Few-Shot Named Entity Recognition via Contrastive Learning
- Sarkar Snigdha Sarathi Das, Arzoo Katiyar, Rebecca Passonneau, Rui Zhang
- TLDR: Proponiamo un metodo di contrasto per Named Entity Recognition (NER) in setting di Few-Shot.
- Cree Corpus: A Collection of nêhiyawêwin Resources
- Daniela Teodorescu, Josie Matalski, Delaney Lothian, Denilson Barbosa, Carrie Demmans Epp
- TLDR: Proponiamo un corpus di parole e frasi per la lingua di Cree.
- Learning to Rank Visual Stories From Human Ranking Data
- Chi-Yang Hsu, Yun-Wei Chu, Vincent Chen, Kuan-Chieh Lo, Chacha Chen, Ting-Hao Huang, Lun-Wei Ku
- TLDR: Proponiamo Vrank, una nuova metrica VIST per la valutazione di storie e immagini.
- Universal Conditional Masked Language Pre-training for Neural Machine Translation
- Pengfei Li, Liangyou Li, Meng Zhang, Minghao Wu, Qun Liu
- TLDR: Proponiamo un modello di masking conditional per la traduzione neurale neurale utilizzando il decoder bidirectional.
- CARETS: A Consistency And Robustness Evaluative Test Suite for VQA
- Carlos E. Jimenez, Olga Russakovsky, Karthik Narasimhan
- TLDR: Proponiamo CARETS, un test suite per misurare la robustezza e la consistenza dei modelli VQA moderne attraverso un serie di test di Capability fine-grained.
- Phrase-aware Unsupervised Constituency Parsing
- Xiaotao Gu, Yikang Shen, Jiaming Shen, Jingbo Shang, Jiawei Han
- TLDR: Proponiamo un metodo di parsing basato sulla regolarizzazione delle frasi per l’apprendimento di rappresentazioni di alto livello.
- Achieving Reliable Human Assessment of Open-Domain Dialogue Systems
- Tianbo Ji, Yvette Graham, Gareth Jones, Chenyang Lyu, Qun Liu
- TLDR: Proponiamo un metodo per valutare il dialogo in presenza di informazioni di conversazione.
- Updated Headline Generation: Creating Updated Summaries for Evolving News Stories
- Sheena Panthaplackel, Adrian Benton, Mark Dredze
- TLDR: Proponiamo un nuovo task di generazione di articoli con aggiornamenti di testo e immagini per la summarization contestuale.
- SaFeRDialogues: Taking Feedback Gracefully after Conversational Safety Failures
- Megan Ung, Jing Xu, Y-Lan Boureau
- TLDR: Proponiamo SaFeRDialogues, un task e un dataset di risposta gracevoli al feedback di conversazione su problemi di sicurezza.
- Compositional Generalization in Dependency Parsing
- Emily Goodwin, Siva Reddy, Timothy O’Donnell, Dzmitry Bahdanau
- TLDR: Proponiamo un modello di dependency parsing compositivi per la predizione di dependency.
- ASPECTNEWS: Aspect-Oriented Summarization of News Documents
- Ojas Ahuja, Jiacheng Xu, Akshay Gupta, Kevin Horecka, Greg Durrett
- TLDR: Proponiamo un metodo per sintetizzare la sintesi di articoli di articoli e articoli di articoli di articoli, che produce una sintesi di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli
- MemSum: Extractive Summarization of Long Documents Using Multi-Step Episodic Markov Decision Processes
- Nianlong Gu, Elliott Ash, Richard Hahnloser
- TLDR: Proponiamo un nuovo modello di summarization basato sul reinforcement learning che utilizza informazioni sulla storia di extrazione del documento.
- CLUES: A Benchmark for Learning Classifiers using Natural Language Explanations
- Rakesh R. Menon, Sayan Ghosh, Shashank Srivastava
- TLDR: Proponiamo un benchmark per l’apprendimento da spiegazioni basato su entailment per la classificazione di modelli di classemento basati sulla teoria delle spiegazioni.
- Substructure Distribution Projection for Zero-Shot Cross-Lingual Dependency Parsing
- Freda Shi, Kevin Gimpel, Karen Livescu
- TLDR: Proponiamo SubDP per parsing di dependency cross-lingual, e mostriamo che la distribuzione sottostante è più efficace per parsing di dependency.
- Multilingual Detection of Personal Employment Status on Twitter
- Manuel Tonneau, Dhaval Adjodah, Joao Palotti, Nir Grinberg, Samuel Fraiberger
- TLDR: Proponiamo un metodo di apprendimento per rilevare le disclosures sul status di occupazione degli individui in tre lingue utilizzando modelli di classificazione basati sul BERT.
- MultiHiertt: Numerical Reasoning over Multi Hierarchical Tabular and Textual Data
- Yilun Zhao, Yunxiang Li, Chenying Li, Rui Zhang
- TLDR: Proponiamo un nuovo benchmark per question answering su dati di input multi-task e text-to-speech.
- Transformers in the loop: Polarity in neural models of language
- Lisa Bylinina, Alexey Tikhonov
- TLDR: Proponiamo un metodo per valutare la polarità dei modelli di apprendimento automatico.
- Bridging the Data Gap between Training and Inference for Unsupervised Neural Machine Translation
- Zhiwei He, Xing Wang, Rui Wang, Shuming Shi, Zhaopeng Tu
- TLDR: Un modello di back-translation per la generazione di dati pseudo paralleli
- SDR: Efficient Neural Re-ranking using Succinct Document Representation
- Nachshon Cohen, Amit Portnoy, Besnik Fetahu, Amir Ingber
- TLDR: Proponiamo un nuovo schema di rappresentazione dei documenti per risolvere il problema della latency.
- The AI Doctor Is In: A Survey of Task-Oriented Dialogue Systems for Healthcare Applications
- Mina Valizadeh, Natalie Parde
- TLDR: Proponiamo un pool di documenti di ricerca per la progettazione di sistemi di dialogo basati sul task per la comunicazione sanitaria.
- SHIELD: Defending Textual Neural Networks against Multiple Black-Box Adversarial Attacks with Stochastic Multi-Expert Patcher
- Thai Le, Noseong Park, Dongwon Lee
- TLDR: Proponiamo un nuovo metodo per difendersi dagli attacchi black-box adversarial basati sulla trasformazione del testo in un ensemble di prediction di esperti.
- Accurate Online Posterior Alignments for Principled Lexically-Constrained Decoding
- Soumya Chatterjee, Sunita Sarawagi, Preethi Jyothi
- TLDR: Proponiamo una tecnica di posterior alignment online che è davvero online nella sua esecuzione e superiore in termini di errori di esecuzione rispetto ai metodi esistenti.
- Leveraging Task Transferability to Meta-learning for Clinical Section Classification with Limited Data
- Zhuohao Chen, Jangwon Kim, Ram Bhakta, Mustafa Sir
- TLDR: Proponiamo un metodo per migliorare la transferability del meta-learning basato sul testo per risolvere il problema della privacy e della privacy.
- Reinforcement Guided Multi-Task Learning Framework for Low-Resource Stereotype Detection
- Rajkumar Pujari, Erik Oveson, Priyanka Kulkarni, Elnaz Nouri
- TLDR: Proponiamo un modello di multi-task learning per rilevare le rappresentazioni dello stile di testo.
- Letters From the Past: Modeling Historical Sound Change Through Diachronic Character Embeddings
- Sidsel Boldsen, Patrizia Paggio
- TLDR: Proponiamo di modellare la distribuzione dei caratteri di lesioni e la loro chronologia per rilevare cambiamenti di rumore.
- A Token-level Reference-free Hallucination Detection Benchmark for Free-form Text Generation
- Tianyu Liu, Yizhe Zhang, Chris Brockett, Yi Mao, Zhifang Sui, Weizhu Chen, Bill Dolan
- TLDR: Proponiamo un task di rilevamento di hallucinazioni e dimostriamo che il nostro task può essere utilizzato per generare modelli di generazione di testo.
- Low-Rank Softmax Can Have Unargmaxable Classes in Theory but Rarely in Practice
- Andreas Grivas, Nikolay Bogoychev, Adam Lopez
- TLDR: Proponiamo un metodo per rilevare la presenza di token di testo unargmaxable in modelli di natural language processing.
- Prompt for Extraction? PAIE: Prompting Argument Interaction for Event Argument Extraction
- Yubo Ma, Zehao Wang, Yixin Cao, Mukai Li, Meiqi Chen, Kun Wang, Jing Shao
- TLDR: Proponiamo un modello di EAE efficiente e efficiente per la traduzione di eventi eventi a livello di frase e documento.
- Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework
- Shaolei Zhang, Yang Feng
- TLDR: Proponiamo un framework di apprendimento per ridurre il bias di posizione nella SiMT e dimostriamo che il nostro metodo riduce la bias di posizione e migliora le prestazioni SiMT.
- A Statutory Article Retrieval Dataset in French
- Antoine Louis, Gerasimos Spanakis
- TLDR: Proponiamo un nuovo dataset di retrieval degli articoli statutari belgiani per il retrieval degli articoli di testo legale.
- ParaDetox: Detoxification with Parallel Data
- Varvara Logacheva, Daryna Dementieva, Sergey Ustyantsev, Daniil Moskovskiy, David Dale, Irina Krotova, Nikita Semenov, Alexander Panchenko
- TLDR: Proponiamo una nuova pipeline per la raccolta di dati paralleli per il task di detoxification.
- Interpreting Character Embeddings With Perceptual Representations: The Case of Shape, Sound, and Color
- Sidsel Boldsen, Manex Agirrezabal, Nora Hollenstein
- TLDR: Proponiamo un metodo per valutare la correlazione tra le rappresentazioni visive dei caratteri e le rappresentazioni visive dei caratteri.
- Fine-Grained Controllable Text Generation Using Non-Residual Prompting
- Fredrik Carlsson, Joey Öhman, Fangyu Liu, Severine Verlinden, Joakim Nivre, Magnus Sahlgren
- TLDR: Proponiamo un metodo per convertire un modello di apprendimento automatico pre-trained in un modello di apprendimento basato sul trasformatore.
- Language-Agnostic Meta-Learning for Low-Resource Text-to-Speech with Articulatory Features
- Florian Lux, Thang Vu
- TLDR: Proponiamo un modello di testo-speech neurale che può essere utilizzato per imparare rappresentazioni di phoneme che si riducono in termini di embedding.
- TwittIrish: A Universal Dependencies Treebank of Tweets in Modern Irish
- Lauren Cassidy, Teresa Lynn, James Barry, Jennifer Foster
- TLDR: Proponiamo di sviluppare una prima Treebank Universal Dependencies di tweet basati sulla sintassi per il parsing di testo di origine e destinazione.
- Length Control in Abstractive Summarization by Pretraining Information Selection
- Yizhu Liu, Qi Jia, Kenny Zhu
- TLDR: Proponiamo un meccanismo di attention length-aware per adattare il decoder di input di una fonte di informazioni da quella source basato sulla lunghezza desiderata.
- CQG: A Simple and Effective Controlled Generation Framework for Multi-hop Question Generation
- Zichu Fei, Qi Zhang, Tao Gui, Di Liang, Sirui Wang, Wei Wu, Xuanjing Huang
- TLDR: Proponiamo un nuovo decoder basato sul Transformer per generare domande multi-hop che contiene informazioni chiave.
- Word Order Does Matter and Shuffled Language Models Know It
- Mostafa Abdou, Vinit Ravishankar, Artur Kulmizev, Anders Søgaard
- TLDR: Proponiamo un nuovo metodo per imparare le informazioni di ordine del testo per task di comprensione del linguaggio.
- An Empirical Study on Explanations in Out-of-Domain Settings
- George Chrysostomou, Nikolaos Aletras
- TLDR: Proponiamo di utilizzare la baseline random per valutare la fedeltà della spiegazione post-hoc.
- MILIE: Modular & Iterative Multilingual Open Information Extraction
- Bhushan Kotnis, Kiril Gashteovski, Daniel Rubio, Ammar Shaker, Vanesa Rodriguez-Tembras, Makoto Takamoto, Mathias Niepert, Carolin Lawrence
- TLDR: Proponiamo un sistema di Information Extraction neurale che opera in modo iterativo.
- What Makes Reading Comprehension Questions Difficult?
- Saku Sugawara, Nikita Nangia, Alex Warstadt, Samuel Bowman
- TLDR: Proponiamo di crowdsource multiple-choice reading comprehension per la comprensione del linguaggio naturale.
- From Simultaneous to Streaming Machine Translation by Leveraging Streaming History
- Javier Iranzo Sanchez, Jorge Civera, Alfons Juan-Císcar
- TLDR: Proponiamo un approccio di stima della latency per la traduzione simultanea basato sulla re-segmentazione per la traduzione di testo e immagini
- A Rationale-Centric Framework for Human-in-the-loop Machine Learning
- Jinghui Lu, Linyi Yang, Brian Namee, Yue Zhang
- TLDR: Proponiamo un nuovo framework di apprendimento basato sulla teoria con human-in-the-loop per few shot learning.
- Challenges and Strategies in Cross-Cultural NLP
- Daniel Hershcovich, Stella Frank, Heather Lent, Miryam de Lhoneux, Mostafa Abdou, Stephanie Brandl, Emanuele Bugliarello, Laura Cabello Piqueras, Ilias Chalkidis, Ruixiang Cui, Constanza Fierro, Katerina Margatina, Phillip Rust, Anders Søgaard
- TLDR: Proponiamo un framework per studiare le strategie di NLP multilingue e cross-lingue per migliorare le prestazioni di servizio.
- Prototypical Verbalizer for Prompt-based Few-shot Tuning
- Ganqu Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu
- TLDR: Proponiamo un modello di apprendimento few shot basato sul tuning del prompt per la modellazione di modelli di apprendimento few shot.
- Clickbait Spoiling via Question Answering and Passage Retrieval
- Matthias Hagen, Maik Fröbe, Artur Jurk, Martin Potthast
- TLDR: Proponiamo un nuovo metodo per spoilarizzare i post clickbait e un nuovo metodo per spoilarli.
- BERT Learns to Teach: Knowledge Distillation with Meta Learning
- Wangchunshu Zhou, Canwen Xu, Julian McAuley
- TLDR: Un metodo di distillazione della conoscenza che può imparare a trasferire la conoscenza tra le reti student-studente.
- STEMM: Self-learning with Speech-text Manifold Mixup for Speech Translation
- Qingkai Fang, Rong Ye, Lei Li, Yang Feng, Mingxuan Wang
- TLDR: Proponiamo un metodo di Mixup Speech-TExt Manifold per imparare una rappresentazione speech per la traduzione speech-to-text end-to-end.
- Integrating Vectorized Lexical Constraints for Neural Machine Translation
- Shuo Wang, Zhixing Tan, Yang Liu
- TLDR: Proponiamo di integrare i constraint vectorizzati nella generazione di modelli neurali con constraint pre-definiti.
- MPII: Multi-Level Mutual Promotion for Inference and Interpretation
- Yan Liu, Sanyuan Chen, Yazheng Yang, Qi Dai
- TLDR: Proponiamo un meccanismo di apprendimento multi-level di self-evolved inferenza e sentence-level interpretation per migliorare le prestazioni di apprendimento.
- StableMoE: Stable Routing Strategy for Mixture of Experts
- Damai Dai, Li Dong, Shuming Ma, Bo Zheng, Zhifang Sui, Baobao Chang, Furu Wei
- TLDR: Proponiamo un metodo di apprendimento multi-expert per risolvere il problema della fluctuazione del routing.
- Boundary Smoothing for Named Entity Recognition
- Enwei Zhu, Jinpeng Li
- TLDR: Proponiamo il smoothing del boundario come una tecnica di regolarizzazione per NER NER basati sul modello di riconoscimento delle probabilità.
- Incorporating Hierarchy into Text Encoder: a Contrastive Learning Approach for Hierarchical Text Classification
- Zihan Wang, Peiyi Wang, Lianzhe Huang, Xin Sun, Houfeng Wang
- TLDR: Proponiamo Hierarchy-guided Contrastive Learning (HGCLR) per addestrare direttamente la gerarchia di testo in un encoder di testo.
- Signal in Noise: Exploring Meaning Encoded in Random Character Sequences with Character-Aware Language Models
- Mark Chu, Bhargav Srinivasa Desikan, Ethan Nadler, Donald Ruggiero Lo Sardo, Elise Darragh-Ford, Douglas Guilbeault
- TLDR: Proponiamo un nuovo contesto per studiare il significato dei termini nel linguaggio naturale.
- Hyperlink-induced Pre-training for Passage Retrieval in Open-domain Question Answering
- Jiawei Zhou, Xiaoguang Li, Lifeng Shang, Lan Luo, Ke Zhan, Enrui Hu, Xinyu Zhang, Hao Jiang, Zhao Cao, Fan Yu, Xin Jiang, Qun Liu, Lei Chen
- TLDR: Proponiamo un metodo per pre-trainare il denso retriever con la topologia basata sull’evidence del testo per il predizione di question answering.
- AdaLoGN: Adaptive Logic Graph Network for Reasoning-Based Machine Reading Comprehension
- Xiao Li, Gong Cheng, Ziheng Chen, Yawei Sun, Yuzhong Qu
- TLDR: Proponiamo un approccio di ragionamento logico su grafi per risolvere il problema di comprensione del testo.
- CAMERO: Consistency Regularized Ensemble of Perturbed Language Models with Weight Sharing
- Chen Liang, Pengcheng He, Yelong Shen, Weizhu Chen, Tuo Zhao
- TLDR: Proponiamo un metodo di ensemble learning regolarizzato basato su modelli perturbed per migliorare le prestazioni di generalizzazione del modello.
- Interpretability for Language Learners Using Example-Based Grammatical Error Correction
- Masahiro Kaneko, Sho Takase, Ayana Niwa, Naoaki Okazaki
- TLDR: Proponiamo un modello di correzione Grammaticale Errore basato su example per migliorare la qualità dell’interpretabilità e la precisione di esecuzione.
- Rethinking Negative Sampling for Handling Missing Entity Annotations
- Yangming Li, Lemao Liu, Shuming Shi
- TLDR: Proponiamo un metodo per sampling negativi con un basso missampling rate e un alto livello di sicurezza.
- Distantly Supervised Named Entity Recognition via Confidence-Based Multi-Class Positive and Unlabeled Learning
- Kang Zhou, Yuepei Li, Qi Li
- TLDR: Proponiamo un metodo per risolvere il problema di riconoscimento delle entità da distanza tramite apprendimento multi-classe e unlabeled.
- UniXcoder: Unified Cross-Modal Pre-training for Code Representation
- Daya Guo, Shuai Lu, Nan Duan, Yanlin Wang, Ming Zhou, Jian Yin
- TLDR: Proponiamo un modello di codifica unificato cross-modal per programmi
- One Country, 700+ Languages: NLP Challenges for Underrepresented Languages and Dialects in Indonesia
- Alham Fikri Aji, Genta Indra Winata, Fajri Koto, Samuel Cahyawijaya, Ade Romadhony, Rahmad Mahendra, Kemal Kurniawan, David Moeljadi, Radityo Eko Prasojo, Timothy Baldwin, Jey Han Lau, Sebastian Ruder
- TLDR: Proponiamo un’analisi del problema della ricerca di NLP per la lingua di origine e di origine in Indonesia.
- Is GPT-3 Text Indistinguishable from Human Text? Scarecrow: A Framework for Scrutinizing Machine Text
- Yao Dou, Maxwell Forbes, Rik Koncel-Kedziorski, Noah A. Smith, Yejin Choi
- TLDR: Proponiamo un nuovo metodo per analizzare il testo umano-automizzato tramite crowd annotation.
- Transkimmer: Transformer Learns to Layer-wise Skim
- Yue Guan, Zhengyi Li, Jingwen Leng, Zhouhan Lin, Minyi Guo
- TLDR: Proponiamo Transformer, un modello di apprendimento basato sulla trasformazione che migliora la precisione di training end-to-end.
- SkipBERT: Efficient Inference with Shallow Layer Skipping
- Jue Wang, Ke Chen, Gang Chen, Lidan Shou, Julian McAuley
- TLDR: Proponiamo SkipBERT per acceleratare l’inferenza BERT riducendo la latency.
- Pretraining with Artificial Language: Studying Transferable Knowledge in Language Models
- Ryokan Ri, Yoshimasa Tsuruoka
- TLDR: Proponiamo un’architettura di deep learning per imparare la conoscenza strutturale transferable.
- mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models
- Ryokan Ri, Ikuya Yamada, Yoshimasa Tsuruoka
- TLDR: Proponiamo un modello di apprendimento multilingue che sfrutta le informazioni di rappresentazione di entity per cross-lingual task downstream.
- Evaluating Factuality in Text Simplification
- Ashwin Devaraj, William Sheffield, Byron Wallace, Junyi Jessy Li
- TLDR: Proponiamo un metodo per analizzare la teoria degli errori di apprendimento automatico e la teoria degli errori di apprendimento basati sulla valutazione dei modelli di apprendimento automatico.
- Requirements and Motivations of Low-Resource Speech Synthesis for Language Revitalization
- Aidan Pine, Dan Wells, Nathan Brinklow, Patrick Littell, Korin Richmond
- TLDR: Proponiamo un modello di sintesi vocale low-resource per la revitalizazione del linguaggio.
- Sharpness-Aware Minimization Improves Language Model Generalization
- Dara Bahri, Hossein Mobahi, Yi Tay
- TLDR: Proponiamo un metodo di ottimizzazione per migliorare la generalizzazione dei modelli di apprendimento automatico.
- Adversarial Authorship Attribution for Deobfuscation
- Wanyue Zhai, Jonathan Rusert, Zubair Shafiq, Padmini Srinivasan
- TLDR: Proponiamo un nuovo approccio di adversarial authorship attribution per deobfuscare il testo.
- Weakly Supervised Word Segmentation for Computational Language Documentation
- Shu Okabe, Laurent Besacier, François Yvon
- TLDR: Proponiamo un modello di segmentazione di testo per la traduzione di testo e morphemi.
- SciNLI: A Corpus for Natural Language Inference on Scientific Text
- Mobashir Sadat, Cornelia Caragea
- TLDR: Proponiamo SciNLI, un dataset per Natural Language Inference che cattura la forma del testo scientifico e contiene 107,412 sentence pairs di origine scientifica.
- Neural reality of argument structure constructions
- Bai Li, Zining Zhu, Guillaume Thomas, Frank Rudzicz, Yang Xu
- TLDR: Proponiamo di proiettare la teoria del condizionamento per la struttura del discorso e dimostriamo che le strutture del discorso sono in grado di essere codificate in forme e parole separate.
- On the Robustness of Offensive Language Classifiers
- Jonathan Rusert, Zubair Shafiq, Padmini Srinivasan
- TLDR: Proponiamo un adversarial training per classificare le parole e le frasi utilizzando embedding di contesto e greedy- and attention.
- Few-shot Controllable Style Transfer for Low-Resource Multilingual Settings
- Kalpesh Krishna, Deepak Nathani, Xavier Garcia, Bidisha Samanta, Partha Talukdar
- TLDR: Proponiamo un metodo per transferre lo stile di una frase in modo few shot utilizzando solo 3-10 frasi.
- ABC: Attention with Bounded-memory Control
- Hao Peng, Jungo Kasai, Nikolaos Pappas, Dani Yogatama, Zhaofeng Wu, Lingpeng Kong, Roy Schwartz, Noah A. Smith
- TLDR: Proponiamo un nuovo approccio di attention basato sull’apprendimento per la traduzione e il masked language model.
- The Dangers of Underclaiming: Reasons for Caution When Reporting How NLP Systems Fail
- Samuel Bowman
- TLDR: Proponiamo un nuovo metodo per affrontare il problema della comunicazione per la valutazione di risultati di ricerca.
- RELiC: Retrieving Evidence for Literary Claims
- Katherine Thai, Yapei Chang, Kalpesh Krishna, Mohit Iyyer
- TLDR: Proponiamo un nuovo task di riutilizzo della letteratura per il recupero di informazioni di apprendimento.
- Analyzing Generalization of Vision and Language Navigation to Unseen Outdoor Areas
- Raphael Schumann, Stefan Riezler
- TLDR: Proponiamo un metodo di navigazione visiva per ambienti non visti.
- Adapting Coreference Resolution Models through Active Learning
- Michelle Yuan, Patrick Xia, Chandler May, Benjamin Van Durme, Jordan Boyd-Graber
- TLDR: Proponiamo strategie di apprendimento active per la coerenza e la riduzione della complessità di calcolo.
- An Imitation Learning Curriculum for Text Editing with Non-Autoregressive Models
- Sweta Agrawal, Marine Carpuat
- TLDR: Proponiamo un framework per addestrare modelli sequenza-to-sequenza per task di elaborazione di testi e immagini.
- Memorisation versus Generalisation in Pre-trained Language Models
- Michael Tänzer, Sebastian Ruder, Marek Rei
- TLDR: Proponiamo un nuovo metodo per imparare a memoriare le informazioni di input e di output di modelli di apprendimento pre-trained.
- ChatMatch: Evaluating Chatbots by Autonomous Chat Tournaments
- Ruolan Yang, Zitong Li, Haifeng Tang, Kenny Zhu
- TLDR: Proponiamo un metodo di valutazione chatbot interattivo basato sulla valutazione basata sulla valutazione basata sulla valutazione basata sulla valutazione.
- Do self-supervised speech models develop human-like perception biases?
- Juliette Millet, Ewan Dunbar
- TLDR: Proponiamo un modello di percezione per la percezione umana per la percezione del linguaggio naturale.
- Vision-and-Language Navigation: A Survey of Tasks, Methods, and Future Directions
- Jing Gu, Eliana Stefani, Qi Wu, Jesse Thomason, Xin Wang
- TLDR: Proponiamo un’analisi strutturata e sintetica del VLN nel contesto della visione e della navigazione naturale.
- Learning to Generate Programs for Table Fact Verification via Structure-Aware Semantic Parsing
- Suixin Ou, Yongmei Liu
- TLDR: Proponiamo un nuovo metodo per verificare la corrispondenza di una serie di dati semi-strutturati basati su modelli di apprendimento automatico.
- Cluster & Tune: Boost Cold Start Performance in Text Classification
- Eyal Shnarch, Ariel Gera, Alon Halfon, Lena Dankin, Leshem Choshen, Ranit Aharonov, Noam Slonim
- TLDR: Proponiamo un task di clustering e training per migliorare le prestazioni di classificazione dei testo.
- Overcoming a Theoretical Limitation of Self-Attention
- David Chiang, Peter Cholak
- TLDR: Proponiamo un metodo per generalizzare i modelli di trasformazione utilizzando la teoria del gradiente e la teoria del linguaggio.
- Prediction Difference Regularization against Perturbation for Neural Machine Translation
- Dengji Guo, Zhengrui Ma, Min Zhang, Yang Feng
- TLDR: Proponiamo un metodo di regolarizzazione della perturbazione per ground-truth token-level sample.
- Make the Best of Cross-lingual Transfer: Evidence from POS Tagging with over 100 Languages
- Wietse de Vries, Martijn Wieling, Malvina Nissim
- TLDR: Proponiamo un setup di transfer learning multilingue per l’apprendimento di language transfer learning zero-shot.
- Should a Chatbot be Sarcastic? Understanding User Preferences Towards Sarcasm Generation
- Silviu Vlad Oprea, Steven Wilson, Walid Magdy
- TLDR: Proponiamo un framework di teoria per generare risposte sarcastici, che permette di controllare i dispositivi linguistici inclusi durante la generazione.
- How Do Seq2Seq Models Perform on End-to-End Data-to-Text Generation?
- Xunjian Yin, Xiaojun Wan
- TLDR: Proponiamo un metodo per valutare la qualità dei modelli di Seq2Seq per la generazione di dati-to-speech end-to-end.
- Probing for Labeled Dependency Trees
- Max Müller-Eberstein, Rob van der Goot, Barbara Plank
- TLDR: Proponiamo DepProbe, un metodo lineare per parsing di embedding di dependency tree che può sfruttare la full coverage e la parametrizzazione non lineare per selezionare il miglior parser attention per training un full attention parser.
- DoCoGen: Domain Counterfactual Generation for Low Resource Domain Adaptation
- Nitay Calderon, Eyal Ben-David, Amir Feder, Roi Reichart
- TLDR: Proponiamo un metodo di generazione controllabile di modelli di apprendimento del linguaggio naturale per affrontare la sfida del dominio adaptation (DA)
- LiLT: A Simple yet Effective Language-Independent Layout Transformer for Structured Document Understanding
- Jiapeng Wang, Lianwen Jin, Kai Ding
- TLDR: Proponiamo un metodo per strutturare i documenti strutturati per la comprensione del documento strutturato.
- Dependency-based Mixture Language Models
- Zhixian Yang, Xiaojun Wan
- TLDR: Proponiamo un nuovo obiettivo di dependency modeling per addestrare language model neurali basati sulla dipendenza.
- Can Unsupervised Knowledge Transfer from Social Discussions Help Argument Mining?
- Subhabrata Dutta, Jeevesh Juneja, Dipankar Das, Tanmoy Chakraborty
- TLDR: Proponiamo un metodo di transfer learning per affrontare il problema del Mining degli argomenti.
- Entity-based Neural Local Coherence Modeling
- Sungho Jeon, Michael Strube
- TLDR: Proponiamo un modello di coerenza locale basato sulla rappresentazione delle parole e le frasi per la coerenza locale.
- “That Is a Suspicious Reaction!”: Interpreting Logits Variation to Detect NLP Adversarial Attacks
- Edoardo Mosca, Shreyash Agarwal, Javier Rando Ramírez, Georg Groh
- TLDR: Proponiamo un modello di adversarial text model che rileva i logiti del classificatore di testo per rilevare gli input adversarial.
- Local Languages, Third Spaces, and other High-Resource Scenarios
- Steven Bird
- TLDR: Proponiamo un nuovo approccio per affrontare il problema della comunicazione multilingue.
- That Slepen Al the Nyght with Open Ye! Cross-era Sequence Segmentation with Switch-memory
- Xuemei Tang, Qi Su
- TLDR: Proponiamo un framework di apprendimento multi-era per la segmentazione dei caratteri di origine e destinazione di una nuova classe di parole, che utilizza il Modulo di apprendimento di switch-memory per incorporare la conoscenza di un’età specifica.
- Fair and Argumentative Language Modeling for Computational Argumentation
- Carolin Holtermann, Anne Lauscher, Simone Ponzetto
- TLDR: Proponiamo un metodo per misurare il bias di bias nella teoria e nella pratica per debiasing e fine-tuning dei modelli di apprendimento.
- Learning Adaptive Segmentation Policy for End-to-End Simultaneous Translation
- Ruiqing Zhang, Zhongjun He, Hua Wu, Haifeng Wang
- TLDR: Proponiamo una policy di segmentazione adattiva per la traduzione simultanea speech-to-text end-to-end.
- Can Pre-trained Language Models Interpret Similes as Smart as Human?
- Qianyu He, Sijie Cheng, Zhixu Li, Rui Xie, Yanghua Xiao
- TLDR: Proponiamo un nuovo task di Probe di simile property per addestrare le PLM in modo da poter imparare le proprietà di simile condivise.
- CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark
- Ningyu Zhang, Mosha Chen, Zhen Bi, Xiaozhuan Liang, Lei Li, Xin Shang, Kangping Yin, Chuanqi Tan, Jian Xu, Fei Huang, Luo Si, Yuan Ni, Guotong Xie, Zhifang Sui, Baobao Chang, Hui Zong, Zheng Yuan, Linfeng Li, Jun Yan, Hongying Zan, Kunli Zhang, Buzhou Tang, Qingcai Chen
- TLDR: Proponiamo un benchmark per l’apprendimento biomedico del linguaggio naturale.
- Learning Non-Autoregressive Models from Search for Unsupervised Sentence Summarization
- Puyuan Liu, Chenyang Huang, Lili Mou
- TLDR: Proponiamo un approccio di summarization non autoregressivo per un task di decodifica del testo.
- Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation
- Xiangpeng Wei, Heng Yu, Yue Hu, Rongxiang Weng, Weihua Luo, Rong Jin
- TLDR: Proponiamo un nuovo metodo di Continuous Semantic Augmentation per migliorare la generalizzazione del modello di supervisione neurale.
- Lexical Knowledge Internalization for Neural Dialog Generation
- Zhiyong Wu, Wei Bi, Xiang Li, Lingpeng Kong, Ben Kao
- TLDR: Proponiamo knowledge internalization (KI), un metodo per integrare la conoscenza lexica in modelli di dialogo neurali.
- Modeling Syntactic-Semantic Dependency Correlations in Semantic Role Labeling Using Mixture Models
- Junjie Chen, Xiangheng He, Yusuke Miyao
- TLDR: Proponiamo un metodo di mixture model per modellare la correlazione semantica-semantic nel ruolo di label di ruolo nel semantic role labeling.
- Learning the Beauty in Songs: Neural Singing Voice Beautifier
- Jinglin Liu, Chengxi Li, Yi Ren, Zhiying Zhu, Zhou Zhao
- TLDR: Proponiamo un nuovo metodo di stima del tempo per la singing voice beautification, basato su conditional variational autoencoder.
- A Model-agnostic Data Manipulation Method for Persona-based Dialogue Generation
- Yu Cao, Wei Bi, Meng Fang, Shuming Shi, Dacheng Tao
- TLDR: Proponiamo un metodo di manipolazione dei dati per migliorare le prestazioni di generazione di dialogo basati sulla persona.
- LinkBERT: Pretraining Language Models with Document Links
- Michihiro Yasunaga, Jure Leskovec, Percy Liang
- TLDR: Proponiamo un metodo di pretraining che sfrutta i link tra i documenti per generare input di apprendimento.
- Improving Time Sensitivity for Question Answering over Temporal Knowledge Graphs
- Chao Shang, Guangtao Wang, Peng Qi, Jing Huang
- TLDR: Proponiamo un framework di question answering con tempo di risposta variabile per question answering su knowledge graph temporali.
- Self-supervised Semantic-driven Phoneme Discovery for Zero-resource Speech Recognition
- Liming Wang, Siyuan Feng, Mark Hasegawa-Johnson, Chang Yoo
- TLDR: Proponiamo un modello di apprendimento self-supervised di rappresentazione neurale discreta per l’apprendimento di una stima del numero di chiamate.
- Softmax Bottleneck Makes Language Models Unable to Represent Multi-mode Word Distributions
- Haw-Shiuan Chang, Andrew McCallum
- TLDR: Proponiamo un softmax multi-facet per risolvere le limitazioni del softmax e dimostriamo che la distribuzione di probabilità su un singolo hidden state può essere più vicina alla distribuzione di probabilità su un singolo hidden state.
- Ditch the Gold Standard: Re-evaluating Conversational Question Answering
- Huihan Li, Tianyu Gao, Manan Goenka, Danqi Chen
- TLDR: Proponiamo un nuovo metodo per valutare le conversazioni umane-machine, che migliora le prestazioni di QA e la correlazione con le decisioni umane.
- Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity
- Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp
- TLDR: Proponiamo un metodo per determinare quali permutazioni sono più efficaci per GPT e GPT-family.
- Situated Dialogue Learning through Procedural Environment Generation
- Prithviraj Ammanabrolu, Renee Jia, Mark Riedl
- TLDR: Proponiamo un ambiente di gioco per l’apprendimento di giocatori di LIGHT basati sul goal per la comunicazione interattiva in ambienti naturali.
- UniTE: Unified Translation Evaluation
- Yu Wan, Dayiheng Liu, Baosong Yang, Haibo Zhang, Boxing Chen, Derek Wong, Lidia Chao
- TLDR: Un metodo per valutare la qualità della traduzione
- Program Transfer for Answering Complex Questions over Knowledge Bases
- Shulin Cao, Jiaxin Shi, Zijun Yao, Xin Lv, Jifan Yu, Lei Hou, Juanzi Li, Zhiyuan Liu, Jinghui Xiao
- TLDR: Proponiamo un nuovo metodo per imparare il transfer del programma per rispondere alle domande di knowledge base.
- EAG: Extract and Generate Multi-way Aligned Corpus for Complete Multi-lingual Neural Machine Translation
- Yulin Xu, Zhen Yang, Fandong Meng, Jie Zhou
- TLDR: Proponiamo EAG, un metodo per costruire corpus multilingue da dati bilinguali da una pipeline di dati bilinguali.
- Using Context-to-Vector with Graph Retrofitting to Improve Word Embeddings
- Jiangbin Zheng, Yile Wang, Ge Wang, Jun Xia, Yufei Huang, Guojiang Zhao, Yue Zhang, Stan Li
- TLDR: Proponiamo un metodo di retrofitting per embedding static di parole e parole contestuali.
- Multimodal Sarcasm Target Identification in Tweets
- Jiquan Wang, Lin Sun, Yi Liu, Meizhi Shao, Zengwei Zheng
- TLDR: Proponiamo un nuovo modello multimodale multi-scala per l’identificazione del sarcasmo target.
- Flexible Generation from Fragmentary Linguistic Input
- Peng Qian, Roger Levy
- TLDR: Proponiamo GibbsComplete, un modello di specializzazione per task di completamento del testo, che combina due modelli di specializzazione tradizionali con la composizione di modelli di specializzazione diretta.
- Revisiting Over-Smoothness in Text to Speech
- Yi Ren, Xu Tan, Tao Qin, Zhou Zhao, Tie-Yan Liu
- TLDR: Proponiamo un nuovo metodo per alleviare il problema di sovrasmoothing e migliorare la qualità della voce.
- Coherence boosting: When your pretrained language model is not paying enough attention
- Nikolay Malkin, Zhen Wang, Nebojsa Jojic
- TLDR: Proponiamo un metodo di coerenza per aumentare la capacità di comprensione e di apprendimento automatico.
- Uncertainty Estimation of Transformer Predictions for Misclassification Detection
- Artem Vazhentsev, Gleb Kuzmin, Artem Shelmanov, Akim Tsvigun, Evgenii Tsymbalov, Kirill Fedyanin, Maxim Panov, Alexander Panchenko, Gleb Gusev, Mikhail Burtsev, Manvel Avetisian, Leonid Zhukov
- TLDR: Proponiamo un nuovo metodo per stimare la probabilità di un modello di apprendimento basato sulla teoria della miscelazione per la classificazione delle immagini.
- VALSE: A Task-Independent Benchmark for Vision and Language Models Centered on Linguistic Phenomena
- Letitia Parcalabescu, Michele Cafagna, Lilitta Muradjan, Anette Frank, Iacer Calixto, Albert Gatt
- TLDR: Proponiamo un nuovo benchmark per valutare le prestazioni visive e linguistiche degli V&L generali per la grounding visio-linguistic su specifici fenomeni visivi.
- The Grammar-Learning Trajectories of Neural Language Models
- Leshem Choshen, Guy Hacohen, Daphna Weinshall, Omri Abend
- TLDR: Proponiamo un bias di bias reciproco per studiare la rappresentazione linguistica implicita nelle NLM.
- Generating Scientific Definitions with Controllable Complexity
- Tal August, Katharina Reinecke, Noah A. Smith
- TLDR: Proponiamo un nuovo task e un dataset per generare definizioni scientifiche e regolarizzare la complessità di generare le definizioni.
- Label Semantic Aware Pre-training for Few-shot Text Classification
- Aaron Mueller, Jason Krone, Salvatore Romeo, Saab Mansour, Elman Mansimov, Yi Zhang, Dan Roth
- TLDR: Proponiamo un metodo di pre-training per incorporare la semantica nelle generative model per migliorare la generalizzazione e la precisione di generalizzazione dei sistemi di classificazione del testo.
- ODE Transformer: An Ordinary Differential Equation-Inspired Model for Sequence Generation
- Bei Li, Quan Du, Tao Zhou, Yi Jing, Shuhan Zhou, Xin Zeng, Tong Xiao, JingBo Zhu, Xuebo Liu, Min Zhang
- TLDR: Proponiamo un modello di residual network per risolvere le Equazioni di Risoluzione Ordinaria
- A Comparison of Strategies for Source-Free Domain Adaptation
- Xin Su, Yiyun Zhao, Steven Bethard
- TLDR: Proponiamo un metodo di apprendimento che sfrutta la condivisione dei dati per adattare i modelli ai nuovi domini senza accesso ai dati di training originali.
- Ethics Sheets for AI Tasks
- Saif Mohammad
- TLDR: Proponiamo un modello per produrre etichettature per task di AI.
- Learning Disentangled Representations of Negation and Uncertainty
- Jake Vasilakes, Chrysoula Zerva, Makoto Miwa, Sophia Ananiadou
- TLDR: Proponiamo un metodo per distogliere le rappresentazioni latenti di negation, uncertainty e contenuto utilizzando un Variational Autoencoder.
- latent-GLAT: Glancing at Latent Variables for Parallel Text Generation
- Yu Bao, Hao Zhou, Shujian Huang, Dongqi Wang, Lihua Qian, Xinyu Dai, Jiajun Chen, Lei Li
- TLDR: Proponiamo GLAT, un modello autoregressivo per la generazione parallela di testo multimodale.
- PPT: Pre-trained Prompt Tuning for Few-shot Learning
- Yuxian Gu, Xu Han, Zhiyuan Liu, Minlie Huang
- TLDR: Proponiamo di addestrare i task di apprendimento di PLM pre-trained per ottenere una migliore inizializzazione.
- Deduplicating Training Data Makes Language Models Better
- Katherine Lee, Daphne Ippolito, Andrew Nystrom, Chiyuan Zhang, Douglas Eck, Chris Callison-Burch, Nicholas Carlini
- TLDR: Proponiamo di dedurre i dati di training dei language model per migliorare la qualità del training.
- Improving the Generalizability of Depression Detection by Leveraging Clinical Questionnaires
- Thong Nguyen, Andrew Yates, Ayah Zirikly, Bart Desmet, Arman Cohan
- TLDR: Proponiamo un metodo per grounding il modello in PHQ9 per migliorare la generalizzazione e la generalizzazione dei modelli black box.
- Internet-Augmented Dialogue Generation
- Mojtaba Komeili, Kurt Shuster, Jason Weston
- TLDR: Proponiamo un metodo per addestrare e valutare modelli di ricerca che possono sfruttare le informazioni di input di conversazione per generare query online basate sul contesto.
- SUPERB-SG: Enhanced Speech processing Universal PERformance Benchmark for Semantic and Generative Capabilities
- Hsiang-Sheng Tsai, Heng-Jui Chang, Wen-Chin Huang, Zili Huang, Kushal Lakhotia, Shu-wen Yang, Shuyan Dong, Andy Liu, Cheng-I Lai, Jiatong Shi, Xuankai Chang, Phil Hall, Hsuan-Jui Chen, Shang-Wen Li, Shinji Watanabe, Abdelrahman Mohamed, Hung-yi Lee
- TLDR: Proponiamo un benchmark per valutare la robustezza delle rappresentazioni apprese da modelli pre-trained su diversi task di apprendimento del linguaggio naturale.
- Knowledge Neurons in Pretrained Transformers
- Damai Dai, Li Dong, Yaru Hao, Zhifang Sui, Baobao Chang, Furu Wei
- TLDR: Proponiamo un metodo di attribuzione di knowledge neuron per imparare la memoria fattuale dei modelli di training.
- Meta-Learning for Fast Cross-Lingual Adaptation in Dependency Parsing
- Anna Langedijk, Verna Dankers, Phillip Lippe, Sander Bos, Bryan Cardenas Guevara, Helen Yannakoudakis, Ekaterina Shutova
- TLDR: Proponiamo un metodo di meta-learning basato sul modello per risolvere il problema di parsing di dependency.
- French CrowS-Pairs: Extending a challenge dataset for measuring social bias in masked language models to a language other than English
- Aurélie Névéol, Yoann Dupont, Julien Bezançon, Karën Fort
- TLDR: Proponiamo un dataset di bias multilingue per la misurazione del bias sociale nei language model.
- Few-Shot Learning with Siamese Networks and Label Tuning
- Thomas Müller, Guillermo Pérez-Torró, Marc Franco-Salvador
- TLDR: Proponiamo un metodo per addestrare le reti neurali che incorporano le informazioni del testo e le label.
- Inferring Rewards from Language in Context
- Jessy Lin, Daniel Fried, Dan Klein, Anca Dragan
- TLDR: Proponiamo un modello di reinforcement learning inverso che può inferere le reward da linguaggio naturale per risolvere il task di booking di volo.
- Generating Biographies on Wikipedia: The Impact of Gender Bias on the Retrieval-Based Generation of Women Biographies
- Angela Fan, Claire Gardent
- TLDR: Proponiamo un modello per la generazione di biografie in forma a forma di albero per l’apprendimento di articoli di testo a forma di albero.
- Your Answer is Incorrect… Would you like to know why? Introducing a Bilingual Short Answer Feedback Dataset
- Anna Filighera, Siddharth Parihar, Tim Steuer, Tobias Meuser, Sebastian Ochs
- TLDR: Proponiamo un modello di feedback spiegabile e comprensibile per la valutazione di short answer feedback.
- Towards Better Characterization of Paraphrases
- Timothy Liu, De Wen Soh
- TLDR: Proponiamo un nuovo metodo per caratterizzare le nature delle pair di parafrasi senza annotazione umana.
- SummScreen: A Dataset for Abstractive Screenplay Summarization
- Mingda Chen, Zewei Chu, Sam Wiseman, Kevin Gimpel
- TLDR: Proponiamo un dataset di summarization basato sulla teoria del rumore per la sintesi di serie TV e testo umano.
- Sparsifying Transformer Models with Trainable Representation Pooling
- Michał Pietruszka, Łukasz Borchmann, Łukasz Garncarek
- TLDR: Proponiamo un metodo per sparsificare l’attention nel Transformer learning per selezionare le rappresentazioni più informate dei token durante il training.
- Uncertainty Determines the Adequacy of the Mode and the Tractability of Decoding in Sequence-to-Sequence Models
- Felix Stahlberg, Ilia Kulikov, Shankar Kumar
- TLDR: Proponiamo un nuovo algoritmo di ricerca exact n-best per sequence model neurali.
- FlipDA: Effective and Robust Data Augmentation for Few-Shot Learning
- Jing Zhou, Yanan Zheng, Jie Tang, Li Jian, Zhilin Yang
- TLDR: Proponiamo un metodo di augmentation dei dati per la testo augmentation che utilizza un modello generativo e un classificatore per generare dati di input.
- Text-Free Prosody-Aware Generative Spoken Language Modeling
- Eugene Kharitonov, Ann Lee, Adam Polyak, Yossi Adi, Jade Copet, Kushal Lakhotia, Tu Anh Nguyen, Morgane Riviere, Abdelrahman Mohamed, Emmanuel Dupoux, Wei-Ning Hsu
- TLDR: Proponiamo un modello generativo di linguaggio parlato con GAN per il pre-training del linguaggio parlato.
- Lite Unified Modeling for Discriminative Reading Comprehension
- Yilin Zhao, Hai Zhao, Libin Shen, Yinggong Zhao
- TLDR: Proponiamo una nuova architettura di training per la comprensione del reading comprehension per task di MRC discriminativi.
- Bilingual alignment transfers to multilingual alignment for unsupervised parallel text mining
- Chih-chan Tien, Shane Steinert-Threlkeld
- TLDR: Proponiamo un metodo per imparare rappresentazioni di frasi multilingue utilizzando testo bilingue paired o unpaired.
- End-to-End Modeling via Information Tree for One-Shot Natural Language Spatial Video Grounding
- Mengze Li, Tianbao Wang, Haoyu Zhang, Shengyu Zhang, Zhou Zhao, Jiaxu Miao, Wenqiao Zhang, Wenming Tan, Jin Wang, Peng Wang, Shiliang Pu, Fei Wu
- TLDR: Proponiamo un grounding video end-to-end per la grounding language spatial video.
- RNSum: A Large-Scale Dataset for Automatic Release Note Generation via Commit Logs Summarization
- Hisashi Kamezawa, Noriki Nishida, Nobuyuki Shimizu, Takashi Miyazaki, Hideki Nakayama
- TLDR: Proponiamo un nuovo dataset di release note che contiene 82,000 release note e le loro correlate informazioni.
- Improving Machine Reading Comprehension with Contextualized Commonsense Knowledge
- Kai Sun, Dian Yu, Jianshu Chen, Dong Yu, Claire Cardie
- TLDR: Proponiamo di utilizzare la conoscenza strutturata per migliorare la comprehension reading comprehension.
- Modeling Persuasive Discourse to Adaptively Support Students’ Argumentative Writing
- Thiemo Wambsganss, Christina Niklaus
- TLDR: Proponiamo un metodo di annotazione per modellare la struttura del discorso argumentative nel pitch di modelli di azione basati su testo di testo di origine e destinazione.
- Active Evaluation: Efficient NLG Evaluation with Few Pairwise Comparisons
- Akash Kumar Mohankumar, Mitesh Khapra
- TLDR: Proponiamo un metodo per valutare le prestazioni di valutazione dei sistemi NLG utilizzando la comparazione di modelli pairwise.
- The Moral Debater: A Study on the Computational Generation of Morally Framed Arguments
- Milad Alshomary, Roxanne El Baff, Timon Gurcke, Henning Wachsmuth
- TLDR: Proponiamo un metodo per generare automaticamente ragionamento moralmente ragionamento basati su diverse ipotesi.
- Pyramid-BERT: Reducing Complexity via Successive Core-set based Token Selection
- Xin Huang, Ashish Khetan, Rene Bidart, Zohar Karnin
- TLDR: Proponiamo un nuovo metodo per sostituire le heuristiche con un encoder per la trasformazione di token.
- Probing for the Usage of Grammatical Number
- Karim Lasri, Tiago Pimentel, Alessandro Lenci, Thierry Poibeau, Ryan Cotterell
- TLDR: Proponiamo un metodo per trovare un encoder che BERT utilizza per risolvere il task di agreement.