EACL 2022 in Italian
TLDRs
- Unsupervised Sentence-embeddings by Manifold Approximation and Projection
- Subhradeep Kayal
- TLDR: Proponiamo un metodo per generare embedding di frasi in modo unsupervised utilizzando manifold approssimativi e manifold projection.
- Contrastive Multi-document Question Generation
- Woon Sang Cho, Yizhe Zhang, Sudha Rao, Asli Celikyilmaz, Chenyan Xiong, Jianfeng Gao, Mengdi Wang, Bill Dolan
- TLDR: Proponiamo un modello di apprendimento multi-source contrastivo basato sulla regolarizzazione del set di documenti per question generation multi-document.
- Disambiguatory Signals are Stronger in Word-initial Positions
- Tiago Pimentel, Ryan Cotterell, Brian Roark
- TLDR: Proponiamo un nuovo metodo per confrontare la funzione di apprendimento e la funzione di apprendimento di segmenti di parole e parole.
- On the (In)Effectiveness of Images for Text Classification
- Chunpeng Ma, Aili Shen, Hiyori Yoshikawa, Tomoya Iwakura, Daniel Beck, Timothy Baldwin
- TLDR: Proponiamo un’analisi di text classification per la traduzione di immagini in linguaggio naturale.
- If you’ve got it, flaunt it: Making the most of fine-grained sentiment annotations
- Jeremy Barnes, Lilja Øvrelid, Erik Velldal
- TLDR: Proponiamo un nuovo metodo per addestrare le informazioni di holder e expression per sentiment analysis.
- Keep Learning: Self-supervised Meta-learning for Learning from Inference
- Akhil Kedia, Sai Chetan Chinthakindi
- TLDR: Proponiamo un metodo per fine-tuning self-supervised dei modelli di classificazione e di apprendimento automatico di immagini.
- ResPer: Computationally Modelling Resisting Strategies in Persuasive Conversations
- Ritam Dutt, Sayan Sinha, Rishabh Joshi, Surya Shekhar Chakraborty, Meredith Riggs, Xinru Yan, Haogang Bao, Carolyn Rose
- TLDR: Proponiamo un framework generalizzato per identificare le strategie di dialogo per la comunicazione in cui l’obiettivo è rappresentato da una persona.
- BERxiT: Early Exiting for BERT with Better Fine-Tuning and Extension to Regression
- Ji Xin, Raphael Tang, Yaoliang Yu, Jimmy Lin
- TLDR: Proponiamo una strategia di fine-tuning per l’esplorazione di BERT e un modulo di apprendimento learning-to-exit che estende l’esplorazione agli obiettivi di classificazione.
- Telling BERT’s Full Story: from Local Attention to Global Aggregation
- Damian Pascual, Gino Brunner, Roger Wattenhofer
- TLDR: Proponiamo un’analisi di gradiente per comprendere il comportamento locale degli attention head.
- Effects of Pre- and Post-Processing on type-based Embeddings in Lexical Semantic Change Detection
- Jens Kaiser, Sinan Kurtyigit, Serge Kotchourko, Dominik Schlechtweg
- TLDR: Proponiamo un modello di rilevamento semantico di cambiamenti semantici per l’apprendimento di corpora di dati di input e di output.
- The Gutenberg Dialogue Dataset
- Richard Csaky, Gábor Recski
- TLDR: Proponiamo un metodo per addestrare e processare dialogue dialogue da documenti di testo pubblico-domain.
- On the Calibration and Uncertainty of Neural Learning to Rank Models for Conversational Search
- Gustavo Penha, Claudia Hauff
- TLDR: Proponiamo un metodo per modellare la probabilità dei documenti per il task di retrieval di conversazioni ad-hoc.
- Frequency-Guided Word Substitutions for Detecting Textual Adversarial Examples
- Maximilian Mozes, Pontus Stenetorp, Bennett Kleinberg, Lewis Griffin
- TLDR: Proponiamo un nuovo metodo per sfruttare le proprietà di apprendimento delle parole guidate dalla rumore per rilevare gli adversarial example.
- Maximal Multiverse Learning for Promoting Cross-Task Generalization of Fine-Tuned Language Models
- Itzik Malkiel, Lior Wolf
- TLDR: Proponiamo un metodo per fine-tuning BERT per l’apprendimento unsupervised di testo unlabeled.
- Unification-based Reconstruction of Multi-hop Explanations for Science Questions
- Marco Valentino, Mokanarangan Thayaparan, André Freitas
- TLDR: Proponiamo un nuovo framework per reconstrucizzare le spiegazioni multi-hop in question answering.
- Dictionary-based Debiasing of Pre-trained Word Embeddings
- Masahiro Kaneko, Danushka Bollegala
- TLDR: Proponiamo un metodo per debiasing i word embedding pre-trained utilizzando dizionari, senza richiedere accessi ai dati originali o ai metodi di word embedding utilizzati.
- Belief-based Generation of Argumentative Claims
- Milad Alshomary, Wei-Fan Chen, Timon Gurcke, Henning Wachsmuth
- TLDR: Proponiamo di modellare le credenze di un user in un modello di testo generativo basato sulla teoria della teoria della teoria per generare claim basati sulla teoria della teoria.
- Non-Autoregressive Text Generation with Pre-trained Language Models
- Yixuan Su, Deng Cai, Yan Wang, David Vandyke, Simon Baker, Piji Li, Nigel Collier
- TLDR: Proponiamo un modello di generazione di testo non autoregressivo basato su BERT per la generazione di testo non autoregressivo.
- Multi-split Reversible Transformers Can Enhance Neural Machine Translation
- Yuekai Zhao, Shuchang Zhou, Zhihua Zhang
- TLDR: Proponiamo un modello di transizione multi-split che può essere riprodotto da input di un layer.
- Exploiting Cloze-Questions for Few-Shot Text Classification and Natural Language Inference
- Timo Schick, Hinrich Schütze
- TLDR: Proponiamo un metodo di training semi-supervisionato per risolvere il problema di NLP in modo completamente unsupervised.
- CDˆ2CR: Co-reference resolution across documents and domains
- James Ravenscroft, Amanda Clare, Arie Cattan, Ido Dagan, Maria Liakata
- TLDR: Proponiamo un nuovo task e un dataset per cross-document co-reference resolution (CDˆ2CR) che può risolvere il problema di co-referenza tra documenti diversi.
- AREDSUM: Adaptive Redundancy-Aware Iterative Sentence Ranking for Extractive Document Summarization
- Keping Bi, Rahul Jha, Bruce Croft, Asli Celikyilmaz
- TLDR: Proponiamo un modello di apprendimento adaptivo per la summarization che combina la stima saliente e la redundancy per migliorare le prestazioni di apprendimento.
- “Talk to me with left, right, and angles”: Lexical entrainment in spoken Hebrew dialogue
- Andreas Weise, Vered Silber-Varod, Anat Lerner, Julia Hirschberg, Rivka Levitan
- TLDR: Proponiamo un’indagine di ingresso di parole e frasi nel linguaggio Hebrew.
- Recipes for Building an Open-Domain Chatbot
- Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, Jason Weston
- TLDR: Proponiamo un modello di conversazione multi-turn per chatbot open-domain.
- Evaluating the Evaluation of Diversity in Natural Language Generation
- Guy Tevet, Jonathan Berant
- TLDR: Proponiamo un metodo per valutare la diversità dei sistemi NLG.
- Retrieval, Re-ranking and Multi-task Learning for Knowledge-Base Question Answering
- Zhiguo Wang, Patrick Ng, Ramesh Nallapati, Bing Xiang
- TLDR: Proponiamo un metodo per rispondere alle domande sulla knowledge base.
- Implicitly Abusive Comparisons – A New Dataset and Linguistic Analysis
- Michael Wiegand, Maja Geulig, Josef Ruppenhofer
- TLDR: Proponiamo un nuovo metodo per rilevare implicitamente le comparazioni abusive.
- Exploiting Emojis for Abusive Language Detection
- Michael Wiegand, Josef Ruppenhofer
- TLDR: Proponiamo di utilizzare gli emoji come proxy per imparare una lezione di apprendimento di una lezione di apprendimento di parole abusive.
- A Systematic Review of Reproducibility Research in Natural Language Processing
- Anya Belz, Shubham Agarwal, Anastasia Shimorina, Ehud Reiter
- TLDR: Proponiamo un ampio studio di ricerca sulla reproducibility in NLP, e mostriamo che la diversità degli approcci è aumentata.
- Bootstrapping Multilingual AMR with Contextual Word Alignments
- Janaki Sheth, Young-Suk Lee, Ramón Fernandez Astudillo, Tahira Naseem, Radu Florian, Salim Roukos, Todd Ward
- TLDR: Proponiamo un metodo per addestrare sistemi di rappresentazione AMR multilingue con weak supervisione.
- Semantic Oppositeness Assisted Deep Contextual Modeling for Automatic Rumor Detection in Social Networks
- Nisansa de Silva, Dejing Dou
- TLDR: Proponiamo un modello di rumor detection basato sulla semantica per il rumore.
- Polarized-VAE: Proximity Based Disentangled Representation Learning for Text Generation
- Vikash Balasubramanian, Ivan Kobyzev, Hareesh Bahuleyan, Ilya Shapiro, Olga Vechtomova
- TLDR: Proponiamo polarized-VAE, un metodo di disentanglement che disentangle i select attributi nello spazio latente basato sulla misura di vicinanza per la sintassi e la sintattica.
- ParaSCI: A Large Scientific Paraphrase Dataset for Longer Paraphrase Generation
- Qingxiu Dong, Xiaojun Wan, Yue Cao
- TLDR: Proponiamo ParaSCI, il primo dataset di paraphrase nel campo della ricerca scientifica, compresi i 33,981 paraphrase pair da ACL e 316,063 pair da arXiv.
- Discourse Understanding and Factual Consistency in Abstractive Summarization
- Saadia Gabriel, Antoine Bosselut, Jeff Da, Ari Holtzman, Jan Buys, Kyle Lo, Asli Celikyilmaz, Yejin Choi
- TLDR: Proponiamo Cooperative Generator-Discriminator Network (Co-opNet), un nuovo framework basato sul trasformatore per la sintesi di sintesi di sintesi di articoli scientifici.
- Knowledge Base Question Answering through Recursive Hypergraphs
- Naganand Yadati, Dayanidhi R S, Vaishnavi S, Indira K M, Srinidhi G
- TLDR: Proponiamo un metodo per rispondere alle domande di knowledge base question answering basato su hypergrafi.
- FEWS: Large-Scale, Low-Shot Word Sense Disambiguation with the Dictionary
- Terra Blevins, Mandar Joshi, Luke Zettlemoyer
- TLDR: Proponiamo un nuovo dataset di WSD low-shot che fornisce un training per molti più aspetti rispetto ai precedenti dataset di WSD.
- MONAH: Multi-Modal Narratives for Humans to analyze conversations
- Joshua Y. Kim, Kalina Yacef, Greyson Kim, Chunfeng Liu, Rafael Calvo, Silas Taylor
- TLDR: Proponiamo un sistema di feature engineering che aumenta automaticamente la quantità di testo tradotto in modo multimodale e multi-stream.
- Does Typological Blinding Impede Cross-Lingual Sharing?
- Johannes Bjerva, Isabelle Augenstein
- TLDR: Proponiamo un modello di cross-lingual sharing basato sulla teoria della comunicazione multilingue che sfrutta la teoria della comunicazione multilingue.
- AdapterFusion: Non-Destructive Task Composition for Transfer Learning
- Jonas Pfeiffer, Aishwarya Kamath, Andreas Rücklé, Kyunghyun Cho, Iryna Gurevych
- TLDR: Proponiamo un nuovo metodo di due stage learning che sfrutta la conoscenza da più task.
- CHOLAN: A Modular Approach for Neural Entity Linking on Wikipedia and Wikidata
- Manoj Prabhakar Kannan Ravi, Kuldeep Singh, Isaiah Onando Mulang’, Saeedeh Shekarpour, Johannes Hoffart, Jens Lehmann
- TLDR: Proponiamo un approccio modulare per il linking end-to-end delle entità tramite knowledge base.
- Grounding as a Collaborative Process
- Luciana Benotti, Patrick Blackburn
- TLDR: Proponiamo un metodo per grounding il significato collaborativamente.
- Does She Wink or Does She Nod? A Challenging Benchmark for Evaluating Word Understanding of Language Models
- Lutfi Kerem Senel, Hinrich Schütze
- TLDR: Proponiamo Word Definition Language Model Probing per valutare la comprensione di parole e definizioni di parole usando le definizioni di termini di origine e destinazione.
- Joint Coreference Resolution and Character Linking for Multiparty Conversation
- Jiaxin Bai, Hongming Zhang, Yangqiu Song, Kun Xu
- TLDR: Proponiamo un nuovo metodo di joint learning per risolvere il coreference resolution e il Character linking.
- Improving Factual Consistency Between a Response and Persona Facts
- Mohsen Mesgar, Edwin Simpson, Iryna Gurevych
- TLDR: Proponiamo di migliorare il modello di risposta per rispondere alle domande del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo del testo.
- PolyLM: Learning about Polysemy through Language Modeling
- Alan Ansell, Felipe Bravo-Marquez, Bernhard Pfahringer
- TLDR: Proponiamo un metodo per imparare i sense embedding come un problema di modellazione del linguaggio, permettendo di sfruttare le tecniche di contextualizzazione.
- Predicting Treatment Outcome from Patient Texts:The Case of Internet-Based Cognitive Behavioural Therapy
- Evangelia Gogoulou, Magnus Boman, Fehmi Ben Abdesslem, Nils Hentati Isacsson, Viktor Kaldo, Magnus Sahlgren
- TLDR: Proponiamo un metodo per applicare la categorisazione del testo ai dati del testo del paziente per prevedere il suo utilizzo nel corso della therapy comportamentale online.
- Scalable Evaluation and Improvement of Document Set Expansion via Neural Positive-Unlabeled Learning
- Alon Jacovi, Gang Niu, Yoav Goldberg, Masashi Sugiyama
- TLDR: Proponiamo un metodo per imparare a riutilizzare le informazioni di input per risolvere il problema di Information Retrieval.
- The Role of Syntactic Planning in Compositional Image Captioning
- Emanuele Bugliarello, Desmond Elliott
- TLDR: Proponiamo un metodo per migliorare la generalizzazione composizionale in image captioning.
- Is “hot pizza” Positive or Negative? Mining Target-aware Sentiment Lexicons
- Jie Zhou, Yuanbin Wu, Changzhi Sun, Liang He
- TLDR: Proponiamo un metodo per addestrare le lezioni di sentiment per la modellazione delle parole.
- Quality Estimation without Human-labeled Data
- Yi-Lin Tuan, Ahmed El-Kishky, Adithya Renduchintala, Vishrav Chaudhary, Francisco Guzmán, Lucia Specia
- TLDR: Proponiamo un metodo per stimare la qualità del testo senza accesso a una traduzione di riferimento.
- How Fast can BERT Learn Simple Natural Language Inference?
- Yi-Chung Lin, Keh-Yih Su
- TLDR: Proponiamo un modello di apprendimento per la natural language inference che può imparare a gestire il bias del dataset senza utilizzare il bias del dataset.
- GRIT: Generative Role-filler Transformers for Document-level Event Entity Extraction
- Xinya Du, Alexander Rush, Claire Cardie
- TLDR: Proponiamo un modello generativo basato sul modello di encoder-decoder per l’estrazione di entity per la compilazione del modello.
- Cross-lingual Entity Alignment with Incidental Supervision
- Muhao Chen, Weijia Shi, Ben Zhou, Dan Roth
- TLDR: Proponiamo un modello di embedding multilingue per risolvere il task di alignment delle informazioni interne di un knowledge graph.
- Query Generation for Multimodal Documents
- Kyungho Kim, Kyungjae Lee, Seung-won Hwang, Young-In Song, Seungwook Lee
- TLDR: Proponiamo un’eval-uation multi-modale per il primo stage retrieval di documenti multi-modali.
- End-to-End Argument Mining as Biaffine Dependency Parsing
- Yuxiao Ye, Simone Teufel
- TLDR: Proponiamo un approccio end-to-end per l’analisi di dependency parsing per argument mining.
- FakeFlow: Fake News Detection by Modeling the Flow of Affective Information
- Bilal Ghanem, Simone Paolo Ponzetto, Paolo Rosso, Francisco Rangel
- TLDR: Proponiamo un modello per modellare il flusso di informazioni affettive in articoli di articoli di fake news utilizzando una architettura neurale.
- CTC-based Compression for Direct Speech Translation
- Marco Gaido, Mauro Cettolo, Matteo Negri, Marco Turchi
- TLDR: Proponiamo un metodo per comprimere il rumore audio in modelli di trasmissione vocale.
- A Crowdsourced Open-Source Kazakh Speech Corpus and Initial Speech Recognition Baseline
- Yerbolat Khassanov, Saida Mussakhojayeva, Almas Mirzakhmetov, Alen Adiyev, Mukhamet Nurpeiissov, Huseyin Atakan Varol
- TLDR: Proponiamo un corpus di speech per il Kazakh.
- TDMSci: A Specialized Corpus for Scientific Literature Entity Tagging of Tasks Datasets and Metrics
- Yufang Hou, Charles Jochim, Martin Gleize, Francesca Bonin, Debasis Ganguly
- TLDR: Proponiamo un corpus di annotazione domain-specific per la ricerca di informazioni di sintesi e di valutazione dei dati di ricerca scientifica.
- Top-down Discourse Parsing via Sequence Labelling
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: Proponiamo un approccio di parsing del discorso top-down che è più semplice di quello precedente.
- Does the Order of Training Samples Matter? Improving Neural Data-to-Text Generation with Curriculum Learning
- Ernie Chang, Hui-Syuan Yeh, Vera Demberg
- TLDR: Proponiamo un nuovo metodo per imparare a selezionare i sample di training basati sulla competenza del modello.
- TrNews: Heterogeneous User-Interest Transfer Learning for News Recommendation
- Guangneng Hu, Qiang Yang
- TLDR: Proponiamo un metodo di transfer learning basato sul translatore per la raccomandazione di news recommendation cross-corpo.
- Dialogue Act-based Breakdown Detection in Negotiation Dialogues
- Atsuki Yamaguchi, Kosui Iwasa, Katsuhide Fujita
- TLDR: Proponiamo un metodo per rilevare il dialogo umano-uomo nel contesto di una conversazione di dialogo umano.
- Neural Data-to-Text Generation with LM-based Text Augmentation
- Ernie Chang, Xiaoyu Shen, Dawei Zhu, Vera Demberg, Hui Su
- TLDR: Proponiamo un metodo per aumentare la quantità di dati disponibili per il training di sequenza-to-sequence che può essere utilizzato per generare nuovi sample di testo.
- Self-Training Pre-Trained Language Models for Zero- and Few-Shot Multi-Dialectal Arabic Sequence Labeling
- Muhammad Khalifa, Muhammad Abdul-Mageed, Khaled Shaalan
- TLDR: Proponiamo di addestrare pre-trained language model per risolvere il problema di classificazione delle sequenze di testo utilizzando solo risorse da dati ricchi.
- Multiple Tasks Integration: Tagging, Syntactic and Semantic Parsing as a Single Task
- Timothée Bernard
- TLDR: Proponiamo Multiple Tasks Integration (MTI), un modello multitask che può gestire simultaneamente la sintassi e la semantica.
- Coordinate Constructions in English Enhanced Universal Dependencies: Analysis and Computational Modeling
- Stefan Grünewald, Prisca Piccirilli, Annemarie Friedrich
- TLDR: Proponiamo di propagare le connessioni tra le dipendenze gaussiane e le dipendenze gaussiane utilizzando un metodo di apprendimento basato sulla regola per la propagazione della convergenza.
- Ellipsis Resolution as Question Answering: An Evaluation
- Rahul Aralikatte, Matthew Lamm, Daniel Hardt, Anders Søgaard
- TLDR: Proponiamo un nuovo metodo per risolvere l’ellipsis in English utilizzando architetture sviluppate per question answering (QA).
- Jointly Improving Language Understanding and Generation with Quality-Weighted Weak Supervision of Automatic Labeling
- Ernie Chang, Vera Demberg, Alex Marin
- TLDR: Proponiamo un metodo di training semi-supervisionato per addestrare NLG e NLU con un modello di training semi-supervisionato.
- Continuous Learning in Neural Machine Translation using Bilingual Dictionaries
- Jan Niehues
- TLDR: Proponiamo un framework di valutazione per valutare la capacità di traduzione neurale di una lingua di origine e destinazione per imparare nuove parole e frasi.
- Adv-OLM: Generating Textual Adversaries via OLM
- Vijit Malik, Ashwani Bhat, Ashutosh Modi
- TLDR: Proponiamo Adv-OLM, un metodo di adversarial attack black-box che adatta la idea di Occlusion e Language Model (OLM) ai metodi allo stato dell’arte degli attacchi allo stato dell’arte.
- Conversational Question Answering over Knowledge Graphs with Transformer and Graph Attention Networks
- Endri Kacupaj, Joan Plepi, Kuldeep Singh, Harsh Thakkar, Jens Lehmann, Maria Maleshkova
- TLDR: Proponiamo un nuovo metodo per parsing semantico multi-task utilizzando graph attention e transformer.
- DRAG: Director-Generator Language Modelling Framework for Non-Parallel Author Stylized Rewriting
- Hrituraj Singh, Gaurav Verma, Aparna Garimella, Balaji Vasan Srinivasan
- TLDR: Proponiamo un framework di apprendimento di stile per rescrivere il testo dello stesso autore in modo specifico di alcuni attributi target.
- Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering
- Gautier Izacard, Edouard Grave
- TLDR: Proponiamo un modello generativo per question answering open domain che può sfruttare la ricerca di testo per raccogliere le informazioni.
- Clinical Outcome Prediction from Admission Notes using Self-Supervised Knowledge Integration
- Betty van Aken, Jens-Michalis Papaioannou, Manuel Mayrdorfer, Klemens Budde, Felix Gers, Alexander Loeser
- TLDR: Proponiamo un nuovo task di predizione degli outcome che può essere chiamato admission to discharge.
- Combining Deep Generative Models and Multi-lingual Pretraining for Semi-supervised Document Classification
- Yi Zhu, Ehsan Shareghi, Yingzhen Li, Roi Reichart, Anna Korhonen
- TLDR: Proponiamo un framework di classificazione semi-supervisionata per document classification.
- Multi-facet Universal Schema
- Rohan Paul, Haw-Shiuan Chang, Andrew McCallum
- TLDR: Proponiamo un schema multi-facet universale che utilizza un modello neurale per rappresentare ogni pattern come multiple facet e encourage uno di questi facet embedding a essere molto più simile a quello di un pattern di testo.
- Exploring Transitivity in Neural NLI Models through Veridicality
- Hitomi Yanaka, Koji Mineshima, Kentaro Inui
- TLDR: Proponiamo un metodo di analisi per valutare la capacità di generalizzazione dei modelli di inferenza naturale per la traduzione e la traduzione.
- A Neural Few-Shot Text Classification Reality Check
- Thomas Dopierre, Christophe Gravier, Wilfried Logerais
- TLDR: Proponiamo un modello di few shot classificazione che utilizza un encoder basato sul trasformatore per rilevare gli intent.
- Multilingual Machine Translation: Closing the Gap between Shared and Language-specific Encoder-Decoders
- Carlos Escolano, Marta R. Costa-jussà, José A. R. Fonollosa, Mikel Artetxe
- TLDR: Proponiamo un nuovo metodo per addestrare simultaneamente encoder-decoder di diverse lingue.
- Clustering Word Embeddings with Self-Organizing Maps. Application on LaRoSeDa - A Large Romanian Sentiment Data Set
- Anca Tache, Gaman Mihaela, Radu Tudor Ionescu
- TLDR: Proponiamo un dataset di sentimenti di Romania basato su feature di alto livello per la classificazione del testo.
- Elastic weight consolidation for better bias inoculation
- James Thorne, Andreas Vlachos
- TLDR: Proponiamo un metodo di fine-tuning per mitigare i bias del training e dimostriamo che la consolidazione dei pesi aiuta a mitigare i bias.
- Hierarchical Multi-head Attentive Network for Evidence-aware Fake News Detection
- Nguyen Vo, Kyumin Lee
- TLDR: Proponiamo Hierarchical Multi-head Attentive Network per rilevare le fake news e misinformazioni.
- Identifying Named Entities as they are Typed
- Ravneet Arora, Chen-Tse Tsai, Daniel Preotiuc-Pietro
- TLDR: Proponiamo un nuovo setup per valutare Named Entity Recognition (NER) sistemi per applicazioni dove le decisioni sulle regioni di confine delle entità sono necessarie per essere valutate in modo online.
- SANDI: Story-and-Images Alignment
- Sreyasi Nag Chowdhury, Simon Razniewski, Gerhard Weikum
- TLDR: Proponiamo SANDI, una metodologia per selezionare automaticamente immagini da una collezione di immagini e aligningle con le immagini consapevoli del testo di una comunicazione multimodale.
- Question and Answer Test-Train Overlap in Open-Domain Question Answering Datasets
- Patrick Lewis, Pontus Stenetorp, Sebastian Riedel
- TLDR: Proponiamo un’analisi dettagliata degli open-domain question answering modelli per verificare le loro capacità di generalizzazione.
- El Volumen Louder Por Favor: Code-switching in Task-oriented Semantic Parsing
- Arash Einolghozati, Abhinav Arora, Lorena Sainz-Maza Lecanda, Anuj Kumar, Sonal Gupta
- TLDR: Proponiamo un metodo di apprendimento per parsing semantico di UAE e SAE con un modello di cross-lingual parsing.
- Generating Syntactically Controlled Paraphrases without Using Annotated Parallel Pairs
- Kuan-Hao Huang, Kai-Wei Chang
- TLDR: Proponiamo un modello di paraphrase generativo basato su encoder-decoder che dimostriamo che è possibile generare paraphrase sintattiche da una collezione di testo non annotati.
- Data Augmentation for Hypernymy Detection
- Thomas Kober, Julie Weeds, Lorenzo Bertolini, David Weir
- TLDR: Proponiamo un metodo per aumentare il dataset di training di un modello di classificazione basato sulla transizione per l’identificazione degli ipernimi.
- Few-shot learning through contextual data augmentation
- Farid Arthaud, Rachel Bawden, Alexandra Birch
- TLDR: Proponiamo un metodo di fine-tuning e data augmentation per imparare a tradurre parole non viste in modo accurato.
- Zero-shot Generalization in Dialog State Tracking through Generative Question Answering
- Shuyang Li, Jin Cao, Mukund Sridhar, Henghui Zhu, Shang-Wen Li, Wael Hamza, Julian McAuley
- TLDR: Proponiamo un nuovo metodo di dialogo basato sulla question-answering naturale per gestire constraint e slots in multi-domain task-oriented dialoghi.
- Zero-shot Neural Passage Retrieval via Domain-targeted Synthetic Question Generation
- Ji Ma, Ivan Korotkov, Yinfei Yang, Keith Hall, Ryan McDonald
- TLDR: Proponiamo un metodo di apprendimento zero-shot per passage retrieval che utilizza la generazione di domande sintetiche per close questo gap.
- Discourse-Aware Unsupervised Summarization for Long Scientific Documents
- Yue Dong, Andrei Mircea, Jackie Chi Kit Cheung
- TLDR: Proponiamo un modello di summarization unsupervised basato sul grafi per la summarizzazione di documenti scientifici lunghi.
- MIDAS: A Dialog Act Annotation Scheme for Open Domain HumanMachine Spoken Conversations
- Dian Yu, Zhou Yu
- TLDR: Proponiamo un nuovo schema di annotazione dei dialoghi basato sul transfer learning per la predizione del dialogo umano-machine.
- Analyzing the Forgetting Problem in Pretrain-Finetuning of Open-domain Dialogue Response Models
- Tianxing He, Jun Liu, Kyunghyun Cho, Myle Ott, Bing Liu, James Glass, Fuchun Peng
- TLDR: Proponiamo un metodo di finetuning intuitivo per risolvere il problema di forgetting.
- Leveraging End-to-End ASR for Endangered Language Documentation: An Empirical Study on Yolóxochitl Mixtec
- Jiatong Shi, Jonathan D. Amith, Rey Castillo García, Esteban Guadalupe Sierra, Kevin Duh, Shinji Watanabe
- TLDR: Proponiamo un sistema di riconoscimento vocale end-to-end per la traduzione e la traduzione EL.
- Mode Effects’ Challenge to Authorship Attribution
- Haining Wang, Allen Riddell, Patrick Juola
- TLDR: Proponiamo un metodo per misurare il ruolo dello stile di scrittura online e offline nel contesto della ricerca di authorship attribution.
- Generative Text Modeling through Short Run Inference
- Bo Pang, Erik Nijkamp, Tian Han, Ying Nian Wu
- TLDR: Proponiamo un modello generativo di testo che può modellare la distribuzione dei dati e catturare le feature semantiche e sintattiche globali delle frasi.
- Detecting Extraneous Content in Podcasts
- Sravana Reddy, Yongze Yu, Aasish Pappu, Aswin Sivaraman, Rezvaneh Rezapour, Rosie Jones
- TLDR: Proponiamo un metodo per rilevare il contenuto extraneo nelle descrizioni audio e nelle descrizioni audio.
- Randomized Deep Structured Prediction for Discourse-Level Processing
- Manuel Widmoser, Maria Leonor Pacheco, Jean Honorio, Dan Goldwasser
- TLDR: Proponiamo un metodo per combinare la predizione strutturata e la predizione strutturata per risolvere il problema della strutturazione dei dati.
- Automatic Data Acquisition for Event Coreference Resolution
- Prafulla Kumar Choubey, Ruihong Huang
- TLDR: Proponiamo di utilizzare la struttura del discorso del giornalismo per raccogliere automaticamente le pair di eventi correlati e non correlati da articoli di articoli non annotati.
- Joint Learning of Representations for Web-tables, Entities and Types using Graph Convolutional Network
- Aniket Pramanick, Indrajit Bhattacharya
- TLDR: Proponiamo una Graph Convolutional Network per annotare le informazioni di classe e le informazioni di classe.
- Multimodal Text Style Transfer for Outdoor Vision-and-Language Navigation
- Wanrong Zhu, Xin Wang, Tsu-Jui Fu, An Yan, Pradyumna Narayana, Kazoo Sone, Sugato Basu, William Yang Wang
- TLDR: Proponiamo un metodo di apprendimento multimodale multi-task per VLN e VLN che sfrutta le risorse multi-task per mitigare la scarsità dei dati.
- ECOL-R: Encouraging Copying in Novel Object Captioning with Reinforcement Learning
- Yufei Wang, Ian Wood, Stephen Wan, Mark Johnson
- TLDR: Proponiamo un modello di apprendimento per il transfer di informazioni tra gli oggetti e le loro rappresentazioni.
- Enriching Non-Autoregressive Transformer with Syntactic and Semantic Structures for Neural Machine Translation
- Ye Liu, Yao Wan, Jianguo Zhang, Wenting Zhao, Philip Yu
- TLDR: Proponiamo di incorporare la struttura semantica e la sintassi tra le lingue nel Transformer non autoregressivo per la traduzione neurale.
- NLQuAD: A Non-Factoid Long Question Answering Data Set
- Amir Soleimani, Christof Monz, Marcel Worring
- TLDR: Proponiamo NLQuAD, il primo dataset con metodi basati su baseline per question answering non factoid, un task di comprensione del linguaggio del documento.
- Debiasing Pre-trained Contextualised Embeddings
- Masahiro Kaneko, Danushka Bollegala
- TLDR: Proponiamo un metodo di fine-tuning per debiasing contestuali di embedding di testo e parole e dimostriamo che il debiasing a livello di token e di frase produce le migliori prestazioni.
- Language Models for Lexical Inference in Context
- Martin Schmitt, Hinrich Schütze
- TLDR: Proponiamo un nuovo task di inferenza del linguaggio naturale basato sulla semantica e su modelli di apprendimento pretrained per la comprensione del testo.
- Few-Shot Semantic Parsing for New Predicates
- Zhuang Li, Lizhen Qu, Shuo Huang, Gholamreza Haffari
- TLDR: Proponiamo di addestrare il modello di meta-learning designato per parsing semantico in setting few shot.
- Alternating Recurrent Dialog Model with Large-scale Pre-trained Language Models
- Qingyang Wu, Yichi Zhang, Yu Li, Zhou Yu
- TLDR: Proponiamo un modello di dialogo ricorrente alternativo per la generazione di risposte di dialogo.
- On the Evaluation of Vision-and-Language Navigation Instructions
- Ming Zhao, Peter Anderson, Vihan Jain, Su Wang, Alexander Ku, Jason Baldridge, Eugene Ie
- TLDR: Proponiamo un modello di valutazione instruction-trajectory per la stima degli approcci di navigazione grounded.
- Cross-lingual Visual Pre-training for Multimodal Machine Translation
- Ozan Caglayan, Menekse Kuyu, Mustafa Sercan Amac, Pranava Madhyastha, Erkut Erdem, Aykut Erdem, Lucia Specia
- TLDR: Proponiamo un metodo per imparare rappresentazioni grounded multilingue per la traduzione multimodale.
- Memorization vs. Generalization : Quantifying Data Leakage in NLP Performance Evaluation
- Aparna Elangovan, Jiayuan He, Karin Verspoor
- TLDR: Proponiamo di rimuovere i dati di training dei metodi di natural language processing utilizzando dataset di test.
- An Expert Annotated Dataset for the Detection of Online Misogyny
- Ella Guest, Bertie Vidgen, Alexandros Mittos, Nishanth Sastry, Gareth Tyson, Helen Margetts
- TLDR: Proponiamo un modello di classificazione per online misogynity, che può essere utilizzato per classificare il contenuto misogynistico.
- WikiMatrix: Mining 135M Parallel Sentences in 1620 Language Pairs from Wikipedia
- Holger Schwenk, Vishrav Chaudhary, Shuo Sun, Hongyu Gong, Francisco Guzmán
- TLDR: Proponiamo un metodo per addestrare sistemi di apprendimento neurali per convertire le frasi in bite di testo multilingue.
- ChEMU-Ref: A Corpus for Modeling Anaphora Resolution in the Chemical Domain
- Biaoyan Fang, Christian Druckenbrodt, Saber A Akhondi, Jiayuan He, Timothy Baldwin, Karin Verspoor
- TLDR: Proponiamo un nuovo metodo per risolvere le proprietà di coerenza e bridging delle proprietà di risoluzione delle proprietà di risoluzione delle proprietà di risoluzione delle proprietà di risoluzione delle proprietà di risoluzione delle proprietà di risoluzione delle proprietà di risoluzione delle proprietà.
- Syntactic Nuclei in Dependency Parsing – A Multilingual Exploration
- Ali Basirat, Joakim Nivre
- TLDR: Proponiamo un modello di parsing di dependency che può essere definito come nucleus e la sua composizione migliora la precisione di parsing.
- Searching for Search Errors in Neural Morphological Inflection
- Martina Forster, Clara Meister, Ryan Cotterell
- TLDR: Proponiamo un modello di sequenza-to-sequenza che può generare semantiche semantiche utilizzando il modello di semantica semantica.
- Quantifying Appropriateness of Summarization Data for Curriculum Learning
- Ryuji Kano, Takumi Takahashi, Toru Nishino, Motoki Taniguchi, Tomoki Taniguchi, Tomoko Ohkuma
- TLDR: Proponiamo un metodo di curriculum learning per addestrare modelli di summarization da dati rumorosi.
- Evaluating language models for the retrieval and categorization of lexical collocations
- Luis Espinosa Anke, Joan Codina-Filba, Leo Wanner
- TLDR: Proponiamo un’analisi exhaustiva dei modelli di apprendimento per la classificazione della collocazione e dimostriamo che le strutture semantiche di una coppia di parole e frasi sono più efficaci nel riconoscimento di una coppia di parole e frasi.
- BART-TL: Weakly-Supervised Topic Label Generation
- Cristian Popa, Traian Rebedea
- TLDR: Proponiamo un modello di topic labeling weakly supervised per topic labeling.
- Dynamic Graph Transformer for Implicit Tag Recognition
- Yi-Ting Liou, Chung-Chi Chen, Hen-Hsen Huang, Hsin-Hsi Chen
- TLDR: Proponiamo un nuovo graph transformer dinamico che distilla le informazioni testuali e le relazioni tra le entità.
- Implicit Unlikelihood Training: Improving Neural Text Generation with Reinforcement Learning
- Evgeny Lagutin, Daniil Gavrilov, Pavel Kalaidin
- TLDR: Proponiamo di fine-tuning un modello di apprendimento per migliorare la generazione di testo e dimostriamo che, quando combinato con il training di likelihood, il nostro metodo riduce la quantità di testo generato.
- Civil Rephrases Of Toxic Texts With Self-Supervised Transformers
- Léo Laugier, John Pavlopoulos, Jeffrey Sorensen, Lucas Dixon
- TLDR: Proponiamo un modello di apprendimento self-supervised per rilevare le toxicità di un articolo e suggerire riphrasings di frasi.
- Generating Weather Comments from Meteorological Simulations
- Soichiro Murakami, Sora Tanaka, Masatsugu Hangyo, Hidetaka Kamigaito, Kotaro Funakoshi, Hiroya Takamura, Manabu Okumura
- TLDR: Proponiamo un modello di data-to-text per generare previsioni di previsioni di tempo e previsioni di previsioni di tempo.
- SICK-NL: A Dataset for Dutch Natural Language Inference
- Gijs Wijnholds, Michael Moortgat
- TLDR: Proponiamo SICK-NL, un dataset targeting Natural Language Inference in DLD.
- A phonetic model of non-native spoken word processing
- Yevgen Matusevych, Herman Kamper, Thomas Schatz, Naomi Feldman, Sharon Goldwater
- TLDR: Proponiamo un modello di apprendimento phonetico computazionale per risolvere il problema del processo di apprendimento parlato.
- Bootstrapping Relation Extractors using Syntactic Search by Examples
- Matan Eyal, Asaf Amrami, Hillel Taub-Tabib, Yoav Goldberg
- TLDR: Proponiamo un metodo per bootstrapped training di dati di bootstrapping non esperti che può essere fatto velocemente da non-experts.
- Towards a Decomposable Metric for Explainable Evaluation of Text Generation from AMR
- Juri Opitz, Anette Frank
- TLDR: Proponiamo un metodo per valutare le rappresentazioni di significato degli abstract text
- The Source-Target Domain Mismatch Problem in Machine Translation
- Jiajun Shen, Peng-Jen Chen, Matthew Le, Junxian He, Jiatao Gu, Myle Ott, Michael Auli, Marc’Aurelio Ranzato
- TLDR: Proponiamo un metodo per misurare il mismatch tra source-target domain e target domain e mostriamo che questo può essere inversamente correlato con il training di sistemi di traduzione su linguaggi low resource.
- Cross-Topic Rumor Detection using Topic-Mixtures
- Xiaoying Ren, Jing Jiang, Ling Min Serena Khoo, Hai Leong Chieu
- TLDR: Proponiamo un metodo per debiasing il rumor nel setting di rumor cross-topic utilizzando un mix di esperti e topic mixture.
- Understanding Pre-Editing for Black-Box Neural Machine Translation
- Rei Miyata, Atsushi Fujita
- TLDR: Proponiamo un metodo per pre-editare le ST per ottenere una migliore qualità di traduzione.
- RelWalk - A Latent Variable Model Approach to Knowledge Graph Embedding
- Danushka Bollegala, Huda Hakami, Yuichi Yoshida, Ken-ichi Kawarabayashi
- TLDR: Proponiamo un obiettivo di apprendimento per l’apprendimento di knowledge graph embedding accurate da un dato knowledge graph.
- Few-shot Learning for Slot Tagging with Attentive Relational Network
- Cennet Oguz, Ngoc Thang Vu
- TLDR: Proponiamo Attentive Relational Network per l’apprendimento basato sulla metrica.
- SpanEmo: Casting Multi-label Emotion Classification as Span-prediction
- Hassan Alhuzali, Sophia Ananiadou
- TLDR: Proponiamo un modello di riconoscimento vocale multilabel che può imparare le associazioni tra le classi di emozioni e le parole in una frase.
- Exploiting Position and Contextual Word Embeddings for Keyphrase Extraction from Scientific Papers
- Krutarth Patel, Cornelia Caragea
- TLDR: Proponiamo un algoritmo di ricerca di keyphrase unsupervised basato sul grafi per l’apprendimento di grafi.
- Benchmarking Machine Reading Comprehension: A Psychological Perspective
- Saku Sugawara, Pontus Stenetorp, Akiko Aizawa
- TLDR: Proponiamo un modello per la comprehension reading comprehension basato sulla psicologia e sulla teoria della neuroscienza per la progettazione di dataset di comprensione della lettura.
- Multilingual Neural Machine Translation with Deep Encoder and Multiple Shallow Decoders
- Xiang Kong, Adithya Renduchintala, James Cross, Yuqing Tang, Jiatao Gu, Xian Li
- TLDR: Proponiamo un deep encoder con decodificazioni profonde e shallow per la traduzione multilinguale.
- With Measured Words: Simple Sentence Selection for Black-Box Optimization of Sentence Compression Algorithms
- Yotam Shichel, Meir Kalech, Oren Tsur
- TLDR: Proponiamo un approccio di compressione black-box per combattere la compressione semantica e la compressione semantica.
- WiC-TSV: An Evaluation Benchmark for Target Sense Verification of Words in Context
- Anna Breit, Artem Revenko, Kiamehr Rezaee, Mohammad Taher Pilehvar, Jose Camacho-Collados
- TLDR: Proponiamo un benchmark multi-domain per Word Sense Disambiguation.
- Self-Supervised and Controlled Multi-Document Opinion Summarization
- Hady Elsahar, Maximin Coavoux, Jos Rozen, Matthias Gallé
- TLDR: Proponiamo un metodo di training self-supervision e controllo per risolvere il problema di summarization unsupervised di reviews generate da user generated.
- NewsMTSC: A Dataset for (Multi-)Target-dependent Sentiment Classification in Political News Articles
- Felix Hamborg, Karsten Donnay
- TLDR: Proponiamo NewsMTSC, un dataset di qualità per la classificazione del sentimento basata sulla stima del target, che misura l’influenza delle frasi multi-target su articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli di articoli.
- Cross-lingual Contextualized Topic Models with Zero-shot Learning
- Federico Bianchi, Silvia Terragni, Dirk Hovy, Debora Nozza, Elisabetta Fersini
- TLDR: Proponiamo un topic transfer per la predizione di documenti in diverse lingue.
- Dependency parsing with structure preserving embeddings
- Ákos Kádár, Lan Xiao, Mete Kemertas, Federico Fancellu, Allan Jepson, Afsaneh Fazly
- TLDR: Proponiamo di imparare rappresentazioni interpretabili di un modello di dependency parsing che incorpora le proprietà geometriche di un modello di dependency tree.
- Active Learning for Sequence Tagging with Deep Pre-trained Models and Bayesian Uncertainty Estimates
- Artem Shelmanov, Dmitri Puzyrev, Lyubov Kupriyanova, Denis Belyakov, Daniil Larionov, Nikita Khromov, Olga Kozlova, Ekaterina Artemova, Dmitry V. Dylov, Alexander Panchenko
- TLDR: Proponiamo un’analisi empirica e teorica per trovare le combinazioni migliori per il task di sequenza tagging.
- MultiHumES: Multilingual Humanitarian Dataset for Extractive Summarization
- Jenny Paola Yela-Bello, Ewan Oglethorpe, Navid Rekabsaz
- TLDR: Proponiamo un nuovo modello di summarization multilingue basato sulla neural network per il domain di risposta umanitaria.
- Learning From Revisions: Quality Assessment of Claims in Argumentation at Scale
- Gabriella Skitalinskaya, Jonas Klaff, Henning Wachsmuth
- TLDR: Proponiamo un corpus di revisione di claim di diverse dimensioni per valutare la qualità delle rappresentazioni.
- Few Shot Dialogue State Tracking using Meta-learning
- Saket Dingliwal, Shuyang Gao, Sanchit Agarwal, Chien-Wei Lin, Tagyoung Chung, Dilek Hakkani-Tur
- TLDR: Proponiamo un meta-learner D-REPTILE per risolvere il problema del DST.
- BERT Prescriptions to Avoid Unwanted Headaches: A Comparison of Transformer Architectures for Adverse Drug Event Detection
- Beatrice Portelli, Edoardo Lenzi, Emmanuele Chersoni, Giuseppe Serra, Enrico Santus
- TLDR: Proponiamo un metodo di pretraining per la classificazione degli eventi adversi di testo biomedico.
- Semantic Parsing of Disfluent Speech
- Priyanka Sen, Isabel Groves
- TLDR: Proponiamo un metodo per parsing semantico di speech di flusso naturale e sintetico.
- Joint Energy-based Model Training for Better Calibrated Natural Language Understanding Models
- Tianxing He, Bryan McCann, Caiming Xiong, Ehsan Hosseini-Asl
- TLDR: Proponiamo un modello di training basato sull’energia per natural language understanding.
- What Sounds “Right” to Me? Experiential Factors in the Perception of Political Ideology
- Qinlan Shen, Carolyn Rose
- TLDR: Proponiamo un corpus annotato di discussioni popolari su Reddit per comprendere la struttura del testo come un insieme di informazioni di input e informazioni di input.
- Language Models as Knowledge Bases: On Entity Representations, Storage Capacity, and Paraphrased Queries
- Benjamin Heinzerling, Kentaro Inui
- TLDR: Proponiamo un modello di apprendimento LM-as-KB che può stocare milioni di informazioni di input e può rispondere a querying paraphrased utilizzando natural language paraphrases.
- Globalizing BERT-based Transformer Architectures for Long Document Summarization
- Quentin Grail, Julien Perez, Eric Gaussier
- TLDR: Proponiamo un nuovo layer di propagazione gerarchico per la summarizzazione dei documenti.
- Through the Looking Glass: Learning to Attribute Synthetic Text Generated by Language Models
- Shaoor Munir, Brishna Batool, Zubair Shafiq, Padmini Srinivasan, Fareed Zaffar
- TLDR: Proponiamo e testiamo diversi metodi di attribuzione basati sulla teoria della traduzione per sintetizzare il testo sintetico.
- We Need To Talk About Random Splits
- Anders Søgaard, Sebastian Ebert, Jasmijn Bastings, Katja Filippova
- TLDR: Proponiamo di utilizzare più random split piuttosto che le stesse random split nel setting di domain adaptation.
- How Certain is Your Transformer?
- Artem Shelmanov, Evgenii Tsymbalov, Dmitri Puzyrev, Kirill Fedyanin, Alexander Panchenko, Maxim Panov
- TLDR: Proponiamo un metodo per stimare la qualità di rilevamento degli eventi di errore per modelli di Transformer.
- Alignment verification to improve NMT translation towards highly inflectional languages with limited resources
- George Tambouratzis
- TLDR: Proponiamo un metodo di training di modelli di traduzione neurali per migliorare la qualità della traduzione quando si utilizzano solo pochi dati di training per translate verso lingue morphologiche.
- Data Augmentation for Voice-Assistant NLU using BERT-based Interchangeable Rephrase
- Akhila Yerukola, Mason Bretan, Hongxia Jin
- TLDR: Proponiamo un metodo di augmentation dei dati basato sul byte pair encoding e sul self-attention modello BERT per migliorare le prestazioni di comprensione del linguaggio parlato.
- How to Evaluate a Summarizer: Study Design and Statistical Analysis for Manual Linguistic Quality Evaluation
- Julius Steen, Katja Markert
- TLDR: Proponiamo di valutare la qualità della sintesi e la qualità della traduzione per valutare la qualità della sintesi e la qualità della traduzione per valutare la qualità della traduzione.
- Open-Mindedness and Style Coordination in Argumentative Discussions
- Aviv Ben-Haim, Oren Tsur
- TLDR: Proponiamo un nuovo approccio per studiare la correlazione tra l’apprendimento linguistico e la partecipazione open-minded di una persona.
- Error Analysis and the Role of Morphology
- Marcel Bollmann, Anders Søgaard
- TLDR: Proponiamo di utilizzare le feature di morphologia per migliorare la predizione degli errori.
- Applying the Transformer to Character-level Transduction
- Shijie Wu, Ryan Cotterell, Mans Hulden
- TLDR: Proponiamo un nuovo metodo per gestire la feature-guided character-level transduction che migliora le prestazioni su task di morphological inflection e normalization.
- Exploring Supervised and Unsupervised Rewards in Machine Translation
- Julia Ive, Zixu Wang, Marina Fomicheva, Lucia Specia
- TLDR: Proponiamo un nuovo metodo di reinforcement learning regolarizzato dall’entropy per la traduzione neurale e la traduzione soft-acctor-ritic.
- Us vs. Them: A Dataset of Populist Attitudes, News Bias and Emotions
- Pere-Lluís Huguet Cabot, David Abadi, Agneta Fischer, Ekaterina Shutova
- TLDR: Proponiamo un nuovo dataset di apprendimento multi-task per la modellazione del linguaggio naturale.
- Multilingual Entity and Relation Extraction Dataset and Model
- Alessandro Seganti, Klaudia Firląg, Helena Skowronska, Michał Satława, Piotr Andruszkiewicz
- TLDR: Proponiamo un nuovo dataset e modello per l’apprendimento multilingue di sequenze di relazioni e relazioni.
- A New View of Multi-modal Language Analysis: Audio and Video Features as Text “Styles”
- Zhongkai Sun, Prathusha K Sarma, Yingyu Liang, William Sethares
- TLDR: Proponiamo un metodo per trasferire lo stile delle immagini da un modello di normalizzazione dello stile di una coppia di immagini.
- Multilingual and cross-lingual document classification: A meta-learning approach
- Niels van der Heijden, Helen Yannakoudakis, Pushkar Mishra, Ekaterina Shutova
- TLDR: Proponiamo un metodo di meta-learning per document classification in linguaggi sotto-resource e mostriamo che la sua efficacia è dimostrabile in due diversi setting: few shot, cross-lingual joint-training quando il target-language è limitato; multilingual joint-training quando il target-language è disponibile durante trai-ing.
- Boosting Low-Resource Biomedical QA via Entity-Aware Masking Strategies
- Gabriele Pergola, Elena Kochkina, Lin Gui, Maria Liakata, Yulan He
- TLDR: Proponiamo un metodo per imparare la conoscenza di entity-centric learning attraverso il fine-tuning dei language model pre-trained.
- Attention-based Relational Graph Convolutional Network for Target-Oriented Opinion Words Extraction
- Junfeng Jiang, An Wang, Akiko Aizawa
- TLDR: Proponiamo un modello di attention basato sulla convoluzione per l’apprendimento di grafi relationali con dependency graph.
- “Laughing at you or with you”: The Role of Sarcasm in Shaping the Disagreement Space
- Debanjan Ghosh, Ritvik Shrivastava, Smaranda Muresan
- TLDR: Proponiamo un metodo di joint modeling per rilevare il sarcasmo nelle conversazioni online.
- Learning Relatedness between Types with Prototypes for Relation Extraction
- Lisheng Fu, Ralph Grishman
- TLDR: Proponiamo di utilizzare modelli di relation per rappresentare i tipi di relation e dimostriamo che le loro relazioni possono essere legate.
- I Beg to Differ: A study of constructive disagreement in online conversations
- Christine De Kock, Andreas Vlachos
- TLDR: Proponiamo WikiDisputes, un corpus di conversazioni di Wikipedia che contiene 7425 conversazioni di dialogo tra articoli di testo e contenuti, e definiamo il task di stima della probabilità di escalation e dimostriamo che le prestazioni sono migliorate utilizzando feature che catturano cambiamenti nella linguaggi durante le conversazioni, come risultato di un’analisi di feature.
- Acquiring a Formality-Informed Lexical Resource for Style Analysis
- Elisabeth Eder, Ulrike Krieg-Holz, Udo Hahn
- TLDR: Proponiamo una lezione di linguaggio per la rilevazione della formalità nel linguaggio parlato.
- Probing into the Root: A Dataset for Reason Extraction of Structural Events from Financial Documents
- Pei Chen, Kang Liu, Yubo Chen, Taifeng Wang, Jun Zhao
- TLDR: Proponiamo un nuovo task di causality detection per l’apprendimento di eventi causali da documenti di testo.
- Language Modelling as a Multi-Task Problem
- Lucas Weber, Jaap Jumelet, Elia Bruni, Dieuwke Hupkes
- TLDR: Proponiamo di studiare il problema del language model come un problema di multi-task learning, e dimostriamo che le ipotesi di teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria.
- ChainCQG: Flow-Aware Conversational Question Generation
- Jing Gu, Mostafa Mirshekari, Zhou Yu, Aaron Sisto
- TLDR: Proponiamo ChainCQG per question-answering conversazionale.
- The Interplay of Task Success and Dialogue Quality: An in-depth Evaluation in Task-Oriented Visual Dialogues
- Alberto Testoni, Raffaella Bernardi
- TLDR: Proponiamo un metodo per imparare la lingua per risolvere il dialogue guessing.
- “Are you kidding me?”: Detecting Unpalatable Questions on Reddit
- Sunyam Bagga, Andrew Piper, Derek Ruths
- TLDR: Proponiamo un nuovo task di rilevamento di forme di abuse più sublate, cioè domande non approssimative, dimostriamo che il nostro task può essere utilizzato per modellare le forme di abuse più profonde.
- Neural-Driven Search-Based Paraphrase Generation
- Betty Fabre, Tanguy Urvoy, Jonathan Chevelu, Damien Lolive
- TLDR: Proponiamo Monte-Carlo Tree Search For Paraphrase Generation (MCPG) e Pareto Tree Search (PTS) per risolvere il problema di ricerca multi-objective.
- Word Alignment by Fine-tuning Embeddings on Parallel Corpora
- Zi-Yi Dou, Graham Neubig
- TLDR: Proponiamo un modello di word alignment multilingue per il testo parallelo.
- Paraphrases do not explain word analogies
- Louis Fournier, Ewan Dunbar
- TLDR: Proponiamo un’evidence teorica per spiegare le regolarità linguistiche.
- An Empirical Study on the Generalization Power of Neural Representations Learned via Visual Guessing Games
- Alessandro Suglia, Yonatan Bisk, Ioannis Konstas, Antonio Vergari, Emanuele Bastianelli, Andrea Vanzo, Oliver Lemon
- TLDR: Proponiamo un nuovo modo per giocare a giochi di probabilità, chiamato Self-play, che generalizza attraverso la conoscenza di un agente.
- A Unified Feature Representation for Lexical Connotations
- Emily Allaway, Kathleen McKeown
- TLDR: Proponiamo un nuovo metodo per generare rappresentazioni di parole e frasi che catturano le connotazioni nel spazio di embedding.
- FAST: Financial News and Tweet Based Time Aware Network for Stock Trading
- Ramit Sawhney, Arnav Wadhwa, Shivam Agarwal, Rajiv Ratn Shah
- TLDR: Proponiamo un metodo di apprendimento gerarchico, learning to rank per la predizione dei movimenti del mercato dei veicoli di trasporto.
- Building Representative Corpora from Illiterate Communities: A Reviewof Challenges and Mitigation Strategies for Developing Countries
- Stephanie Hirmer, Alycia Leonard, Josephine Tumwesige, Costanza Conforti
- TLDR: Proponiamo un nuovo metodo per raccogliere dati da popolazioni rurali con alto tasso di illiteracy in corpora di corpora di popolazione globale.
- Process-Level Representation of Scientific Protocols with Interactive Annotation
- Ronen Tamari, Fan Bai, Alan Ritter, Gabriel Stanovsky
- TLDR: Proponiamo Process Execution Graphs, una rappresentazione a livello di documenti e di protocolli di biochemiche che può risolvere problemi di coerenza, grounding e impliciti.
- Machine Translationese: Effects of Algorithmic Bias on Linguistic Complexity in Machine Translation
- Eva Vanmassenhove, Dimitar Shterionov, Matthew Gwilliam
- TLDR: Proponiamo un nuovo metodo per valutare la richnesse linguistica dei modelli di traduzione basati sul modello di dataset e neural machine translation.
- First Align, then Predict: Understanding the Cross-Lingual Ability of Multilingual BERT
- Benjamin Muller, Yanai Elazar, Benoît Sagot, Djamé Seddah
- TLDR: Proponiamo BERT multilingue, un modello di pretrained language model pretrained multilingue, che può essere visto come la stacking di due sottoreti: un encoder multilingue e un predictor del task.
- Stereotype and Skew: Quantifying Gender Bias in Pre-trained and Fine-tuned Language Models
- Daniel de Vassimon Manela, David Errington, Thomas Fisher, Boris van Breugel, Pasquale Minervini
- TLDR: Proponiamo due metriche intuitive, skew e stereotype, che quantifichiamo e analizziamo il bias di bias di gender nel task di WinoBias pronoun resolution.
- On the evolution of syntactic information encoded by BERT’s contextualized representations
- Laura Pérez-Mayos, Roberto Carlini, Miguel Ballesteros, Leo Wanner
- TLDR: Proponiamo un’analisi del fine-tuning di BERT per la comprensione di informazioni linguistiche embedded.
- Identify, Align, and Integrate: Matching Knowledge Graphs to Commonsense Reasoning Tasks
- Lisa Bauer, Mohit Bansal
- TLDR: Proponiamo un match KG-to-task per risolvere il problema della comprensione del ragionamento comune.
- Calculating the optimal step of arc-eager parsing for non-projective trees
- Mark-Jan Nederhof
- TLDR: Proponiamo un metodo per calcolare la struttura di dependency per parsing.
- Subword Pooling Makes a Difference
- Judit Ács, Ákos Kádár, Andras Kornai
- TLDR: Proponiamo di utilizzare il metodo di attention per risolvere il problema di morphological probing e POS tagging.
- Content-based Models of Quotation
- Ansel MacLaughlin, David Smith
- TLDR: Proponiamo un problema di quotability identification, in cui, dato un documento, esploriamo quali dei suoi passaggi sono più probabili di essere direttamente citati dai documenti posteriori.
- L2C: Describing Visual Differences Needs Semantic Understanding of Individuals
- An Yan, Xin Wang, Tsu-Jui Fu, William Yang Wang
- TLDR: Proponiamo un modello di apprendimento learning-to-compare per confrontare due immagini e imparare a descriverle.
- VoiSeR: A New Benchmark for Voice-Based Search Refinement
- Simone Filice, Giuseppe Castellucci, Marcus Collins, Eugene Agichtein, Oleg Rokhlenko
- TLDR: Proponiamo un nuovo task di crowdsourcing per sostenere la ricerca di ricerca conversazionale basata sulla ricerca vocale.
- Event-Driven News Stream Clustering using Entity-Aware Contextual Embeddings
- Kailash Karthik Saravanakumar, Miguel Ballesteros, Muthu Kumar Chandrasekaran, Kathleen McKeown
- TLDR: Proponiamo un metodo per il clustering dei video online che utilizza una combinazione di rappresentazioni sparse e dense del documento, aggregate la similarità del documento-cluster e il classificatore neurale per prendere decisioni di clustering.
- Adversarial Learning of Poisson Factorisation Model for Gauging Brand Sentiment in User Reviews
- Runcong Zhao, Lin Gui, Gabriele Pergola, Yulan He
- TLDR: Proponiamo un modello di ricerca del topic-topic per rilevare topic-topic consapevoli di brand.
- Lexical Normalization for Code-switched Data and its Effect on POS Tagging
- Rob van der Goot, Özlem Çetinoğlu
- TLDR: Proponiamo modelli di normalizzazione per la traduzione di dati non canonici da un dato dato dato dato dato standard.
- Structural Encoding and Pre-training Matter: Adapting BERT for Table-Based Fact Verification
- Rui Dong, David Smith
- TLDR: Proponiamo un modello di verifica basato sulla struttura delle table per question answering.
- A Study of Automatic Metrics for the Evaluation of Natural Language Explanations
- Miruna-Adriana Clinciu, Arash Eshghi, Helen Hastie
- TLDR: Proponiamo un corpus di spiegazioni NL per le reti bayesiane.
- Adversarial Stylometry in the Wild: Transferable Lexical Substitution Attacks on Author Profiling
- Chris Emmery, Ákos Kádár, Grzegorz Chrupała
- TLDR: Proponiamo un nuovo attacco di adversarial replacement che utilizza transformer per aumentare la transferibilità.
- Cross-Cultural Similarity Features for Cross-Lingual Transfer Learning of Pragmatically Motivated Tasks
- Jimin Sun, Hwijeen Ahn, Chan Young Park, Yulia Tsvetkov, David R. Mortensen
- TLDR: Proponiamo un metodo per selezionare meglio le lingue per la teoria del transfer learning multilingue.
- PHASE: Learning Emotional Phase-aware Representations for Suicide Ideation Detection on Social Media
- Ramit Sawhney, Harshit Joshi, Lucie Flek, Rajiv Ratn Shah
- TLDR: Proponiamo PHASE, un framework di analisi e apprendimento per la rilevazione degli ideatori di suicide su Twitter.
- Exploiting Definitions for Frame Identification
- Tianyu Jiang, Ellen Riloff
- TLDR: Proponiamo un modello per identificare i frame e le loro proprietà.
- ADePT: Auto-encoder based Differentially Private Text Transformation
- Satyapriya Krishna, Rahul Gupta, Christophe Dupuy
- TLDR: Proponiamo un algoritmo di trasformazione del testo differenziale privato utilizzando autoencoder.
- Conceptual Grounding Constraints for Truly Robust Biomedical Name Representations
- Pieter Fivez, Simon Suster, Walter Daelemans
- TLDR: Proponiamo un metodo per rappresentare le biomedical names in modo robusto e coerente con la loro correlazione e la loro correlazione semantica.
- Adaptive Mixed Component LDA for Low Resource Topic Modeling
- Suzanna Sia, Kevin Duh
- TLDR: Proponiamo un mixture model per topic coherence in setting low resource che utilizza embedding pre-trained per migliorare la coerenza topic.
- Evaluating Neural Model Robustness for Machine Comprehension
- Winston Wu, Dustin Arendt, Svitlana Volkova
- TLDR: Proponiamo un nuovo metodo per stimare la robustezza del modello agli attacchi adversarial utilizzando perturbazioni linguistiche a livello di parola e parola, e mostriamo che le perturbazioni a livello di parola e parola sono più probabili di errori di modelli nel setting adversarial.
- Hidden Biases in Unreliable News Detection Datasets
- Xiang Zhou, Heba Elfardy, Christos Christodoulopoulos, Thomas Butler, Mohit Bansal
- TLDR: Proponiamo un modello di rilevamento di rumore per il rilevamento di rumore di un articolo senza alcuna verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di verifica del fattore di
- Annealing Knowledge Distillation
- Aref Jafari, Mehdi Rezagholizadeh, Pranav Sharma, Ali Ghodsi
- TLDR: Proponiamo un metodo di knowledge distillation migliorato per la compressione delle deep neural network.
- Unsupervised Extractive Summarization using Pointwise Mutual Information
- Vishakh Padmakumar, He He
- TLDR: Proponiamo un metodo per ottimizzare la rilevanza e la rimanenza delle frasi per la summarization extractive.
- Context-aware Neural Machine Translation with Mini-batch Embedding
- Makoto Morishita, Jun Suzuki, Tomoharu Iwata, Masaaki Nagata
- TLDR: Proponiamo un modo per incorporare informazioni inter-sentence in modelli NMT per migliorare la qualità della traduzione.
- Deep Subjecthood: Higher-Order Grammatical Features in Multilingual BERT
- Isabel Papadimitriou, Ethan A. Chi, Richard Futrell, Kyle Mahowald
- TLDR: Proponiamo un metodo per imparare la grammatica e la sottolingua multilingue per embedding di testo e parole.
- Streaming Models for Joint Speech Recognition and Translation
- Orion Weller, Matthias Sperber, Christian Gollan, Joris Kluivers
- TLDR: Proponiamo un modello di streaming end-to-end per la traduzione vocale e lo studio di un nuovo metodo di inferenza per la traduzione vocale.
- DOCENT: Learning Self-Supervised Entity Representations from Large Document Collections
- Yury Zemlyanskiy, Sudeep Gandhe, Ruining He, Bhargav Kanagal, Anirudh Ravula, Juraj Gottweis, Fei Sha, Ilya Eckstein
- TLDR: Proponiamo un nuovo metodo per imparare rappresentazioni di entity richiene da grandi quantità di testo associato.
- Scientific Discourse Tagging for Evidence Extraction
- Xiangci Li, Gully Burns, Nanyun Peng
- TLDR: Proponiamo un tagger di tagger scientifico per la ricerca di modelli di azione scientifica basati sulla teoria della teoria.
- Incremental Beam Manipulation for Natural Language Generation
- James Hargreaves, Andreas Vlachos, Guy Emerson
- TLDR: Proponiamo di utilizzare la ricerca di beam per decodificare il modello, e di conseguenza dimostriamo che le previsioni del modello sono più probabili di quelle del modello.
- StructSum: Summarization via Structured Representations
- Vidhisha Balachandran, Artidoro Pagnoni, Jay Yoon Lee, Dheeraj Rajagopal, Jaime Carbonell, Yulia Tsvetkov
- TLDR: Proponiamo un framework basato sulla struttura del documento per la sintesi di testo e immagini end-to-end per la sintesi di testo e immagini end-to-end.
- Project-then-Transfer: Effective Two-stage Cross-lingual Transfer for Semantic Dependency Parsing
- Hiroaki Ozaki, Gaku Morio, Terufumi Morishita, Toshinori Miyoshi
- TLDR: Proponiamo un metodo di transfer per parsing semantico di dependency per la traduzione di grafi.
- LSOIE: A Large-Scale Dataset for Supervised Open Information Extraction
- Jacob Solawetz, Stefan Larson
- TLDR: Proponiamo un dataset di informazioni open-information per la ricerca di informazioni.
- Changing the Mind of Transformers for Topically-Controllable Language Generation
- Haw-Shiuan Chang, Jiaming Yuan, Mohit Iyyer, Andrew McCallum
- TLDR: Proponiamo un framework di apprendimento self-supervised per la generazione di testo in modo topicale.
- Unsupervised Abstractive Summarization of Bengali Text Documents
- Radia Rayan Chowdhury, Mir Tafseer Nayeem, Tahsin Tasnim Mim, Md. Saifur Rahman Chowdhury, Taufiqul Jannat
- TLDR: Proponiamo un modello di summarization unsupervised per la sintesi di testo e immagini per la sintesi di immagini e immagini.
- From Toxicity in Online Comments to Incivility in American News: Proceed with Caution
- Anushree Hede, Oshin Agarwal, Linda Lu, Diana C. Mutz, Ani Nenkova
- TLDR: Proponiamo un nuovo metodo per rilevare online la quantità di inciviltà online.
- On the Computational Modelling of Michif Verbal Morphology
- Fineen Davis, Eddie Antonio Santos, Heather Souter
- TLDR: Proponiamo un modello computazionale finito-state per la morfologia verbale di Michif.
- A Few Topical Tweets are Enough for Effective User Stance Detection
- Younes Samih, Kareem Darwish
- TLDR: Proponiamo un metodo per rilevare le posizioni di stance degli utenti utilizzando embedding contextuali di tweet.
- Do Syntax Trees Help Pre-trained Transformers Extract Information?
- Devendra Sachan, Yuhao Zhang, Peng Qi, William L. Hamilton
- TLDR: Proponiamo e analizziamo due strategie per incorporare la struttura di dipendenza nella struttura di attention dei transformer.
- Informative and Controllable Opinion Summarization
- Reinald Kim Amplayo, Mirella Lapata
- TLDR: Proponiamo un framework di summarization che elimina il bisogno di relyre solo sul contenuto pre-selezionato e permette di utilizzare tutte le reviews per generare informazioni informative.
- Coloring the Black Box: What Synesthesia Tells Us about Character Embeddings
- Katharina Kann, Mauro M. Monsalve-Mercado
- TLDR: Proponiamo un’analisi approfondita dei character embedding degli articoli di testo e di linguaggio parlato.
- How Good (really) are Grammatical Error Correction Systems?
- Alla Rozovskaya, Dan Roth
- TLDR: Proponiamo un nuovo metodo per valutare GEC basato sulla correzione degli errori grammatici.
- BERTective: Language Models and Contextual Information for Deception Detection
- Tommaso Fornaciari, Federico Bianchi, Massimo Poesio, Dirk Hovy
- TLDR: Proponiamo un nuovo metodo per rilevare la deception e dimostriamo che non tutti i contesti linguistici sono utili per rilevare la deception.
- Learning Coupled Policies for Simultaneous Machine Translation using Imitation Learning
- Philip Arthur, Trevor Cohn, Gholamreza Haffari
- TLDR: Proponiamo un metodo per imparare simultaneamente un modello di traduzione con programmi di interpretazione e apprendimento con programmi di interpretazione e apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento con programmi di apprendimento.
- Complementary Evidence Identification in Open-Domain Question Answering
- Xiangyang Mou, Mo Yu, Shiyu Chang, Yufei Feng, Li Zhang, Hui Su
- TLDR: Proponiamo un metodo che impara rappresentazioni vector di passage e modelli la sufficienza e la diversità nel selezionato insieme, in particolare la relazione tra le question e i passage.
- Entity-level Factual Consistency of Abstractive Text Summarization
- Feng Nan, Ramesh Nallapati, Zhiguo Wang, Cicero Nogueira dos Santos, Henghui Zhu, Dejiao Zhang, Kathleen McKeown, Bing Xiang
- TLDR: Proponiamo un nuovo approccio per misurare la factual consistency dei modelli di sintesi di sintesi generati da modelli di sintesi di sintesi.
- On Hallucination and Predictive Uncertainty in Conditional Language Generation
- Yijun Xiao, William Yang Wang
- TLDR: Proponiamo un’estensione di beam search per la generazione condizionale di immagini e immagini e la loro relazione con la teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria della teoria. Proponiamo un’estensione
- Fine-Grained Event Trigger Detection
- Duong Le, Thien Huu Nguyen
- TLDR: Proponiamo un metodo per trasformare il dataset Semcor per Word Sense Disambiguation in un dataset di fine-grained event detection per FED.
- Extremely Small BERT Models from Mixed-Vocabulary Training
- Sanqiang Zhao, Raghav Gupta, Yang Song, Denny Zhou
- TLDR: Proponiamo un metodo di distillation per comprimere BERT-LARGE utilizzando knowledge distillation e mixed-vocabulary training.
- Diverse Adversaries for Mitigating Bias in Training
- Xudong Han, Timothy Baldwin, Trevor Cohn
- TLDR: Proponiamo un nuovo metodo di adversarial learning basato sul multi-discriminatore per imparare rappresentazioni orthogonali hidden da una molteplicità di discriminatori.
- ‘Just because you are right, doesn’t mean I am wrong’: Overcoming a bottleneck in development and evaluation of Open-Ended VQA tasks
- Man Luo, Shailaja Keyur Sampat, Riley Tallman, Yankai Zeng, Manuha Vancha, Akarshan Sajja, Chitta Baral
- TLDR: Proponiamo un nuovo metodo per risolvere VQA con risposte ground-truth.
- Better Neural Machine Translation by Extracting Linguistic Information from BERT
- Hassan S. Shavarani, Anoop Sarkar
- TLDR: Proponiamo un metodo per addestrare la traduzione neurale utilizzando informazioni linguistiche da BERT.
- CLiMP: A Benchmark for Chinese Language Model Evaluation
- Beilei Xiang, Changbing Yang, Yu Li, Alex Warstadt, Katharina Kann
- TLDR: Proponiamo un corpus di LM minimali per studiare quanto conoscenza di origine cinese le LM acquisiscono.
- Measuring and Improving Faithfulness of Attention in Neural Machine Translation
- Pooya Moradi, Nishant Kambhatla, Anoop Sarkar
- TLDR: Proponiamo un nuovo obiettivo differenziabile per migliorare la qualità della transizione neurale e la sua regolarizzazione.
- Progressively Pretrained Dense Corpus Index for Open-Domain Question Answering
- Wenhan Xiong, Hong Wang, William Yang Wang
- TLDR: Proponiamo un metodo di ricerca di informazioni per question answering open-domain.
- Exploring the Limits of Few-Shot Link Prediction in Knowledge Graphs
- Dora Jambor, Komal Teru, Joelle Pineau, William L. Hamilton
- TLDR: Proponiamo un modello di few shot learning per few shot link prediction.
- ProFormer: Towards On-Device LSH Projection Based Transformers
- Chinnadhurai Sankar, Sujith Ravi, Zornitsa Kozareva
- TLDR: Proponiamo ProFormer, un modello di trasformazione basato sulla projection per la modellazione del testo e la classificazione del testo.
- Joint Learning of Hyperbolic Label Embeddings for Hierarchical Multi-label Classification
- Soumya Chatterjee, Ayush Maheshwari, Ganesh Ramakrishnan, Saketha Nath Jagarlapudi
- TLDR: Proponiamo di imparare i parametri del classificatore insieme e dimostriamo che le informazioni di co-occurrenza delle label migliorano la generalizzazione dei classificatori.
- Segmenting Subtitles for Correcting ASR Segmentation Errors
- David Wan, Chris Kedzie, Faisal Ladhak, Elsbeth Turcan, Petra Galuscakova, Elena Zotkina, Zhengping Jiang, Peter Bell, Kathleen McKeown
- TLDR: Proponiamo un modello per correggere la segmentazione acustica dei modelli ASR per la traduzione audio-documento e audio-document cross-language information retrieval.
- Crisscrossed Captions: Extended Intramodal and Intermodal Semantic Similarity Judgments for MS-COCO
- Zarana Parekh, Jason Baldridge, Daniel Cer, Austin Waters, Yinfei Yang
- TLDR: Proponiamo Crisscrossed Captions, un nuovo modello di apprendimento multimodale per l’apprendimento intra-modality.
- On-Device Text Representations Robust To Misspellings via Projections
- Chinnadhurai Sankar, Sujith Ravi, Zornitsa Kozareva
- TLDR: Proponiamo un modello di classificazione neurale basato sulla projection per risolvere il problema della privacy e della memoria.
- ENPAR:Enhancing Entity and Entity Pair Representations for Joint Entity Relation Extraction
- Yijun Wang, Changzhi Sun, Yuanbin Wu, Hao Zhou, Lei Li, Junchi Yan
- TLDR: Proponiamo un metodo di pre-training per l’estrazione di relazioni congiunte joint che utilizza informazioni di pairing per migliorare le prestazioni di joint extraction.
- Text Augmentation in a Multi-Task View
- Jason Wei, Chengyu Huang, Shiqi Xu, Soroush Vosoughi
- TLDR: Proponiamo un’alternativa view multi-task di data augmentation, che permette di addestrare i sample originali e di aumentare la coverage della distribuzione di input.
- Representations for Question Answering from Documents with Tables and Text
- Vicky Zayats, Kristina Toutanova, Mari Ostendorf
- TLDR: Proponiamo un metodo per riformulare le rappresentazioni delle tabelle da parte del testo per question answering da documenti web.
- PPT: Parsimonious Parser Transfer for Unsupervised Cross-Lingual Adaptation
- Kemal Kurniawan, Lea Frermann, Philip Schulz, Trevor Cohn
- TLDR: Proponiamo un metodo per cross-lingual transfer unsupervised che migliora le prestazioni di transfer su sistemi di transfer di testo multilingue utilizzando la supervisione implicita del testo in target.
- Modelling Context Emotions using Multi-task Learning for Emotion Controlled Dialog Generation
- Deeksha Varshney, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: Proponiamo un modello di generazione di risposte automatiche basato sulla self-attention e multi-task learning per generare risposte con una specifica azione.
- Gender and Racial Fairness in Depression Research using Social Media
- Carlos Aguirre, Keith Harrigian, Mark Dredze
- TLDR: Proponiamo un modello di classificazione della depressione basato su dati di Twitter per la valutazione fairness.
- MTOP: A Comprehensive Multilingual Task-Oriented Semantic Parsing Benchmark
- Haoran Li, Abhinav Arora, Shuohui Chen, Anchit Gupta, Sonal Gupta, Yashar Mehdad
- TLDR: Proponiamo un nuovo dataset multilingue per la predizione di dialoghi multilingue.
- Adapting Event Extractors to Medical Data: Bridging the Covariate Shift
- Aakanksha Naik, Jill Fain Lehman, Carolyn Rose
- TLDR: Proponiamo un modello di apprendimento di eventi di rilevamento da due domini di origine e destinazione utilizzando testo clinici e conversazioni tra pazienti.
- NoiseQA: Challenge Set Evaluation for User-Centric Question Answering
- Abhilasha Ravichander, Siddharth Dalmia, Maria Ryskina, Florian Metze, Eduard Hovy, Alan W Black
- TLDR: Proponiamo un nuovo metodo per question answering basato sulla pipeline di input per risolvere il problema di QA.
- Co-evolution of language and agents in referential games
- Gautier Dagan, Dieuwke Hupkes, Elia Bruni
- TLDR: Proponiamo un simulatore di transizione culturale per la co-evoluzione tra linguaggio e agente nel gioco referente.
- Modeling Context in Answer Sentence Selection Systems on a Latency Budget
- Rujun Han, Luca Soldaini, Alessandro Moschitti
- TLDR: Proponiamo un approccio per incorporare informazioni contestuali nel modello di QA open-domain.
- Syntax-BERT: Improving Pre-trained Transformers with Syntax Trees
- Jiangang Bai, Yujing Wang, Yiren Chen, Yaming Yang, Jing Bai, Jing Yu, Yunhai Tong
- TLDR: Proponiamo un nuovo framework per incorporare le tre parole in modelli di transformer pre-trained.
- DISK-CSV: Distilling Interpretable Semantic Knowledge with a Class Semantic Vector
- Housam Khalifa Bashier, Mi-Young Kim, Randy Goebel
- TLDR: Proponiamo un metodo per distillare la conoscenza in modo combinato con la teoria per ottenere un classificatore di testo interpretabile/explainabile.
- Attention Can Reflect Syntactic Structure (If You Let It)
- Vinit Ravishankar, Artur Kulmizev, Mostafa Abdou, Anders Søgaard, Joakim Nivre
- TLDR: Proponiamo un metodo per decodificare la struttura linguistica multilingue del Transformer e dimostriamo che la struttura può essere decodificata da più head di attention.
- Extractive Summarization Considering Discourse and Coreference Relations based on Heterogeneous Graph
- Yin Jou Huang, Sadao Kurohashi
- TLDR: Proponiamo un modello graph basato sul dialogo per la summarization extractive che incorpora sia la comunicazione che le relazioni di coerenza tra le frasi.
- CDA: a Cost Efficient Content-based Multilingual Web Document Aligner
- Thuy Vu, Alessandro Moschitti
- TLDR: Proponiamo un metodo per alignare documenti web multilingue basati sul contenuto in modo parallelo di generare dati di training paralleli per sistemi di traduzione automatica basati sul testo.
- Metric-Type Identification for Multi-Level Header Numerical Tables in Scientific Papers
- Lya Hulliyyatus Suadaa, Hidetaka Kamigaito, Manabu Okumura, Hiroya Takamura
- TLDR: Proponiamo un nuovo task di informazioni extraction, identification del modello di metric-type, che può risolvere problemi di classificazione e generazione di modelli di metric-type.
- EmpathBERT: A BERT-based Framework for Demographic-aware Empathy Prediction
- Bhanu Prakash Reddy Guda, Aparna Garimella, Niyati Chhaya
- TLDR: Proponiamo EmpathBERT, un framework di apprendimento a priori per la predizione di empatia basato sul BERT, per la predizione di distress e la stima della distorsione nei feedback degli utenti.
- Are Neural Networks Extracting Linguistic Properties or Memorizing Training Data? An Observation with a Multilingual Probe for Predicting Tense
- Bingzhi Li, Guillaume Wisniewski
- TLDR: Proponiamo un modello di tensor learning per la traduzione tra la linguaggi e la linguaggi di origine e destinazione.
- Is Supervised Syntactic Parsing Beneficial for Language Understanding Tasks? An Empirical Investigation
- Goran Glavaš, Ivan Vulić
- TLDR: Proponiamo un metodo per imparare la sintassi per l’apprendimento semantico tramite parsing supervisionato.
- Facilitating Terminology Translation with Target Lemma Annotations
- Toms Bergmanis, Mārcis Pinnis
- TLDR: Proponiamo di addestrare sistemi di traduzione per la comprensione della lingua utilizzando un metodo di data augmentation che annota automaticamente le parole del target del linguaggio.
- Enhancing Sequence-to-Sequence Neural Lemmatization with External Resources
- Kirill Milintsevich, Kairit Sirts
- TLDR: Proponiamo un nuovo approccio di lemmatizzazione che migliora il modello neurale seq2seq con le informazioni aggiuntive da una lezione di lezione di Lexicon e un sistema di rule-based.
- Summarising Historical Text in Modern Languages
- Xutan Peng, Yi Zheng, Chenghua Lin, Advaith Siddharthan
- TLDR: Proponiamo un modello di summarisation del testo per la traduzione tra lingue e lingue.
- Challenges in Automated Debiasing for Toxic Language Detection
- Xuhui Zhou, Maarten Sap, Swabha Swayamdipta, Yejin Choi, Noah Smith
- TLDR: Proponiamo un metodo di debiasing per rilevare le associazioni di linguaggio tra il testo e la lingua di origine e destinazione.
- Adaptive Fusion Techniques for Multimodal Data
- Gaurav Sahu, Olga Vechtomova
- TLDR: Proponiamo un metodo di fusione adattivo che impara a comprimere le informazioni da diverse modalità mentre preserva il contesto.
- Detecting Scenes in Fiction: A new Segmentation Task
- Albin Zehe, Leonard Konle, Lea Katharina Dümpelmann, Evelyn Gius, Andreas Hotho, Fotis Jannidis, Lucas Kaufmann, Markus Krug, Frank Puppe, Nils Reiter, Annekea Schreiber, Nathalie Wiedmer
- TLDR: Proponiamo un corpus annotato di novelli dizionari di linguaggi di origine e di origine diverse per la segmentazione di scene.
- LESA: Linguistic Encapsulation and Semantic Amalgamation Based Generalised Claim Detection from Online Content
- Shreya Gupta, Parantak Singh, Megha Sundriyal, Md. Shad Akhtar, Tanmoy Chakraborty
- TLDR: Proponiamo un modello di apprendimento indipendente da fonte per l’apprendimento di claim che cattura le feature di sintesi e la sintassi attraverso embedding e apprendimento tramite language model.
- Interpretability for Morphological Inflection: from Character-level Predictions to Subword-level Rules
- Tatyana Ruzsics, Olga Sozinova, Ximena Gutierrez-Vasques, Tanja Samardzic
- TLDR: Proponiamo un modello di cross-attention per la morphological inflection che utilizza la self-attention per imparare ciò che il modello impara.
- Expanding, Retrieving and Infilling: Diversifying Cross-Domain Question Generation with Flexible Templates
- Xiaojing Yu, Anxiao Jiang
- TLDR: Proponiamo un nuovo metodo di question generation basato sulla sequenza per sequenza-to-sequenza che combina i modelli sequenza-to-sequenza con un modello neurale per generare diverse espressioni di domande con la struttura della frase.
- Handling Out-Of-Vocabulary Problem in Hangeul Word Embeddings
- Ohjoon Kwon, Dohyun Kim, Soo-Ryeon Lee, Junyoung Choi, SangKeun Lee
- TLDR: Proponiamo un modello di word embedding robusto e affidabile contro i tipi di out-of-vocabulary.
- Exploiting Multimodal Reinforcement Learning for Simultaneous Machine Translation
- Julia Ive, Andy Mingren Li, Yishu Miao, Ozan Caglayan, Pranava Madhyastha, Lucia Specia
- TLDR: Proponiamo un approccio multimodale per la traduzione simultanea utilizzando reinforcement learning e informazioni visive e testuali per sostenere il processo di simultaneous translation.
- STAR: Cross-modal [STA]tement [R]epresentation for selecting relevant mathematical premises
- Deborah Ferreira, André Freitas
- TLDR: Proponiamo un modello di attention cross-modali per la selezione del testo matematico per il task di Natural Language Premise Selection.
- Do Multi-Hop Question Answering Systems Know How to Answer the Single-Hop Sub-Questions?
- Yixuan Tang, Hwee Tou Ng, Anthony Tung
- TLDR: Proponiamo un nuovo metodo per rispondere a domande multi-hop, che può spiegare il processo di ragionamento multi-hop.
- Multilingual LAMA: Investigating Knowledge in Multilingual Pretrained Language Models
- Nora Kassner, Philipp Dufter, Hinrich Schütze
- TLDR: Proponiamo di utilizzare la knowledge base multilingue per migliorare le prestazioni di training.
- Variational Weakly Supervised Sentiment Analysis with Posterior Regularization
- Ziqian Zeng, Yangqiu Song
- TLDR: Proponiamo un framework di regolarizzazione posteriore per la teoria variazionale per la valutazione del sentiment weakly supervised.
- Framing Word Sense Disambiguation as a Multi-Label Problem for Model-Agnostic Knowledge Integration
- Simone Conia, Roberto Navigli
- TLDR: Proponiamo un metodo per risolvere Word Sense Disambiguation utilizzando la conoscenza strutturata di rete per ottenere risultati allo stato dell’arte.
- Graph-based Fake News Detection using a Summarization Technique
- Gihwan Kim, Youngjoong Ko
- TLDR: Proponiamo un nuovo metodo di rilevamento di fake news basato sulla summarization che utilizza solo le informazioni interne del documento per rappresentare la relazione tra tutte le frasi utilizzando un grafi.
- Cognition-aware Cognate Detection
- Diptesh Kanojia, Prashant Sharma, Sayali Ghodekar, Pushpak Bhattacharyya, Gholamreza Haffari, Malhar Kulkarni
- TLDR: Proponiamo un metodo per addestrare il rilevamento di cognate utilizzando feature di comportamento gaghe e cognitive.
- A Simple Three-Step Approach for the Automatic Detection of Exaggerated Statements in Health Science News
- Jasabanta Patro, Sabyasachee Baruah
- TLDR: Proponiamo un metodo per risolvere il problema di media manipulation utilizzando la teoria del relational relation e la teoria del relational relation.
- Modeling Coreference Relations in Visual Dialog
- Mingxiao Li, Marie-Francine Moens
- TLDR: Proponiamo un nuovo metodo per risolvere le coerenze nel dialogo umano senza pretraining.
- Increasing Robustness to Spurious Correlations using Forgettable Examples
- Yadollah Yaghoobzadeh, Soroush Mehri, Remi Tachet des Combes, T. J. Hazen, Alessandro Sordoni
- TLDR: Proponiamo un nuovo approccio per robustizzare i modelli neurali NLP.
- On Robustness of Neural Semantic Parsers
- Shuo Huang, Zhuang Li, Lizhen Qu, Lei Pan
- TLDR: Proponiamo un metodo scalabile per costruire test set di parsing semantic robuste.
- Benchmarking a transformer-FREE model for ad-hoc retrieval
- Tiago Almeida, Sérgio Matos
- TLDR: Proponiamo un modello di retrieval ad-hoc basato sul trasformatore che migliora le prestazioni di retrieval.
- Reanalyzing the Most Probable Sentence Problem: A Case Study in Explicating the Role of Entropy in Algorithmic Complexity
- Eric Corlett, Gerald Penn
- TLDR: Proponiamo un nuovo algoritmo per risolvere Most Probable Sentence Most Probable, che può essere usato per risolvere la ricerca di parole e frasi.
- Probing the Probing Paradigm: Does Probing Accuracy Entail Task Relevance?
- Abhilasha Ravichander, Yonatan Belinkov, Eduard Hovy
- TLDR: Proponiamo un modello di probing per imparare a codificare le proprietà linguistiche.
- One-class Text Classification with Multi-modal Deep Support Vector Data Description
- Chenlong Hu, Yukun Feng, Hidetaka Kamigaito, Hiroya Takamura, Manabu Okumura
- TLDR: Proponiamo un modello SVDD multimodale per la classificazione del testo.
- Unsupervised Word Polysemy Quantification with Multiresolution Grids of Contextual Embeddings
- Christos Xypolopoulos, Antoine Tixier, Michalis Vazirgiannis
- TLDR: Proponiamo un metodo per stimare la polysemia basato sulla geometria nello spazio di embedding contestuale e puremente basato sui dati.
- Mega-COV: A Billion-Scale Dataset of 100+ Languages for COVID-19
- Muhammad Abdul-Mageed, AbdelRahim Elmadany, El Moatez Billah Nagoudi, Dinesh Pabbi, Kunal Verma, Rannie Lin
- TLDR: Proponiamo un dataset da Twitter per studiare COVID-19.
- Disfluency Correction using Unsupervised and Semi-supervised Learning
- Nikhil Saini, Drumil Trivedi, Shreya Khare, Tejas Dhamecha, Preethi Jyothi, Samarth Bharadwaj, Pushpak Bhattacharyya
- TLDR: Proponiamo un modello di correzione della disfluenza per convertire il testo fluente in un testo fluente.
- Complex Question Answering on knowledge graphs using machine translation and multi-task learning
- Saurabh Srivastava, Mayur Patidar, Sudip Chowdhury, Puneet Agarwal, Indrajit Bhattacharya, Gautam Shroff
- TLDR: Proponiamo un modello di apprendimento end-to-end basato su BERT per risolvere il question answering su knowledge graph.
- Recipes for Adapting Pre-trained Monolingual and Multilingual Models to Machine Translation
- Asa Cooper Stickland, Xian Li, Marjan Ghazvininejad
- TLDR: Proponiamo di fine-tuning un modello addestrato su dati di input bilingui, e dimostriamo che le prestazioni di fine-tuning sono migliori di quelle di fine-tuning naive.
- From characters to words: the turning point of BPE merges
- Ximena Gutierrez-Vasques, Christian Bentz, Olga Sozinova, Tanja Samardzic
- TLDR: Proponiamo un confronto di cross-lingual cross-over per la tokenizzazione del linguaggio e la morphological complexity.
- A Large-scale Evaluation of Neural Machine Transliteration for Indic Languages
- Anoop Kunchukuttan, Siddharth Jain, Rahul Kejriwal
- TLDR: Proponiamo un metodo di training multilingue per la traduzione tra i linguaggi indici e gli altri linguaggi.
- Communicative-Function-Based Sentence Classification for Construction of an Academic Formulaic Expression Database
- Kenichi Iwatsuki, Akiko Aizawa
- TLDR: Proponiamo un modello di costruzione di una nuova generazione di auto-labelled formulaic expressions, che può essere utilizzato per costruire una collezione di informazioni di testo e di frasi.
- Regulatory Compliance through Doc2Doc Information Retrieval: A case study in EU/UK legislation where text similarity has limitations
- Ilias Chalkidis, Manos Fergadiotis, Nikolaos Manginas, Eva Katakalou, Prodromos Malakasiotis
- TLDR: Proponiamo un nuovo metodo per riutilizzare le informazioni di documento-to-document per ottenere rappresentazioni di qualità per il rilevamento delle informazioni di documento.
- The Chinese Remainder Theorem for Compact, Task-Precise, Efficient and Secure Word Embeddings
- Patricia Thaine, Gerald Penn
- TLDR: Proponiamo un metodo per ridurre la precisione di training delle reti neurali in termini di floating point.
- Don’t Change Me! User-Controllable Selective Paraphrase Generation
- Mohan Zhang, Luchen Tan, Zihang Fu, Kun Xiong, Jimmy Lin, Ming Li, Zhengkai Tu
- TLDR: Proponiamo un metodo per generare paraphrase utilizzando un modello pretrained sequence-to-sequence e un modello di fine-tuning per migliorare la qualità del modello.
- Rethinking Coherence Modeling: Synthetic vs. Downstream Tasks
- Tasnim Mohiuddin, Prathyusha Jwalapuram, Xiang Lin, Shafiq Joty
- TLDR: Proponiamo un confronto tra modelli di coerenza tradizionali e neurali per task di sintesi sintetici.
- From the Stage to the Audience: Propaganda on Reddit
- Oana Balalau, Roxana Horincar
- TLDR: Proponiamo di analizzare il ruolo della propaganda su six major forum politici su Reddit che target una diverse classe di utenti in due paesi, la regione del Giappone e la regione del Giappone.
- Probing for idiomaticity in vector space models
- Marcos Garcia, Tiago Kramer Vieira, Carolina Scarton, Marco Idiart, Aline Villavicencio
- TLDR: Proponiamo un dataset di compound per la rappresentazione del linguaggio.
- Is the Understanding of Explicit Discourse Relations Required in Machine Reading Comprehension?
- Yulong Wu, Viktor Schlegel, Riza Batista-Navarro
- TLDR: Proponiamo un metodo di analisi basato sull’ablation per valutare la capacità di comprensione del linguaggio naturale.
- Why Is MBTI Personality Detection from Texts a Difficult Task?
- Sanja Stajner, Seren Yenikent
- TLDR: Proponiamo un nuovo metodo per rilevare le dimensioni personality di testo da dati di Twitter.
- Enconter: Entity Constrained Progressive Sequence Generation via Insertion-based Transformer
- Lee Hsun Hsieh, Yang-Yin Lee, Ee-Peng Lim
- TLDR: Proponiamo ENtity CONstrained insertion Transformer (ENCONTER), un nuovo insertion transformer che affronta il pitfall della generazione in parallelo senza perdere la qualità di generazione.
- Meta-Learning for Effective Multi-task and Multilingual Modelling
- Ishan Tarunesh, Sushil Khyalia, Vishwajeet Kumar, Ganesh Ramakrishnan, Preethi Jyothi
- TLDR: Proponiamo un metodo di meta-learning per imparare le interazioni tra i task e le lingue.
- “Killing Me” Is Not a Spoiler: Spoiler Detection Model using Graph Neural Networks with Dependency Relation-Aware Attention Mechanism
- Buru Chang, Inggeol Lee, Hyunjae Kim, Jaewoo Kang
- TLDR: Proponiamo un modello di spoiler detection basato sulla sintassi per la rilevazione di spoiler.
- BERTese: Learning to Speak to BERT
- Adi Haviv, Jonathan Berant, Amir Globerson
- TLDR: Proponiamo un metodo per riscrivere le query per la ricerca di informazioni di conoscenza in modo automatico.
- Lifelong Knowledge-Enriched Social Event Representation Learning
- Prashanth Vijayaraghavan, Deb Roy
- TLDR: Proponiamo un framework di rappresentazione per risolvere il problema della rappresentazione sociale degli eventi sociali utilizzando la conoscenza comune.
- GLaRA: Graph-based Labeling Rule Augmentation for Weakly Supervised Named Entity Recognition
- Xinyan Zhao, Haibo Ding, Zhe Feng
- TLDR: Proponiamo GLARA, un approccio di labeling rule augmentation basato sul grafi per imparare nuove regole di labeling da dati non annotati.
- An End-to-end Model for Entity-level Relation Extraction using Multi-instance Learning
- Markus Eberts, Adrian Ulges
- TLDR: Proponiamo un modello di apprendimento multi-task per l’estrazione di relazioni a livello di documenti.
- WER-BERT: Automatic WER Estimation with BERT in a Balanced Ordinal Classification Paradigm
- Akshay Krishna Sheshadri, Anvesh Rao Vijjini, Sukhdeep Kharbanda
- TLDR: Proponiamo un nuovo paradigma per la valutazione automatica del speech system e un nuovo approccio per la valutazione e la classificazione e la stima del speech rate.
- Two Training Strategies for Improving Relation Extraction over Universal Graph
- Qin Dai, Naoya Inoue, Ryo Takahashi, Kentaro Inui
- TLDR: Proponiamo un metodo per addestrare il modello di apprendimento di relazioni distanti supervisionate per l’apprendimento di un Graph Universale.
- Adaptation of Back-translation to Automatic Post-Editing for Synthetic Data Generation
- WonKee Lee, Baikjin Jung, Jaehun Shin, Jong-Hyeok Lee
- TLDR: Proponiamo un nuovo metodo di apprendimento automatico di testi di traduzione utilizzando la back-translation e la sintesi sintetica e il corpus eSCAPE.
- Removing Word-Level Spurious Alignment between Images and Pseudo-Captions in Unsupervised Image Captioning
- Ukyo Honda, Yoshitaka Ushiku, Atsushi Hashimoto, Taro Watanabe, Yuji Matsumoto
- TLDR: Proponiamo un gating per alignare le feature delle immagini e le parole di origine e destinazione delle immagini e delle parole di origine e destinazione delle immagini.
- Towards More Fine-grained and Reliable NLP Performance Prediction
- Zihuiwen Ye, Pengfei Liu, Jinlan Fu, Graham Neubig
- TLDR: Proponiamo un nuovo metodo per migliorare la predizione delle prestazioni per NLP.
- Metrical Tagging in the Wild: Building and Annotating Poetry Corpora with Rhythmic Features
- Thomas Haider
- TLDR: Proponiamo un modello di analisi neurale per la predizione di testi letterari.
- Enhancing Aspect-level Sentiment Analysis with Word Dependencies
- Yuanhe Tian, Guimin Chen, Yan Song
- TLDR: Proponiamo un approccio per migliorare la valutazione del sentiment a livello di aspetti con word dependency.