AACL 2022 in Italian
TLDRs
- Chasing the Tail with Domain Generalization: A Case Study on Frequency-Enriched Datasets
- Manoj Kumar, Anna Rumshisky, Rahul Gupta
- TLDR: Proponiamo un metodo per simulare l’uso di frequenze di utterenza per la comprensione del linguaggio naturale.
- Double Trouble: How to not Explain a Text Classifier’s Decisions Using Counterfactuals Synthesized by Masked Language Models?
- Thang Pham, Trung Bui, Long Mai, Anh Nguyen
- TLDR: Proponiamo un metodo di Marginalization Input che utilizza BERT per sostituire un token, e mostriamo che questo metodo è efficace.
- An Empirical Study on Cross-X Transfer for Legal Judgment Prediction
- Joel Niklaus, Matthias Stürmer, Ilias Chalkidis
- TLDR: Proponiamo un metodo di transfer learning cross-lingual per l’apprendimento di modelli di apprendimento multilingue.
- CNN for Modeling Sanskrit Originated Bengali and Hindi Language
- Chowdhury Rahman, MD. Hasibur Rahman, Mohammad Rafsan, Mohammed Eunus Ali, Samiha Zakir, Rafsanjani Muhammod
- TLDR: Proponiamo un’architettura CNN end-to-end che può gestire le caratteristiche di morphological richness, fonetiche e morfologiche di Bengali e Hindi.
- Leveraging Key Information Modeling to Improve Less-Data Constrained News Headline Generation via Duality Fine-Tuning
- Zhuoxuan Jiang, Lingfeng Qiao, Di Yin, Shanshan Feng, Bo Ren
- TLDR: Proponiamo un metodo di fine-tuning del duality per la generazione di informazioni più accurate da dati limitati.
- Systematic Evaluation of Predictive Fairness
- Xudong Han, Aili Shen, Trevor Cohn, Timothy Baldwin, Lea Frermann
- TLDR: Proponiamo un metodo di debiasing per mitigare il bias nel training su dati biased.
- Graph-augmented Learning to Rank for Querying Large-scale Knowledge Graph
- Hanning Gao, Lingfei Wu, Po Hu, Zhihua Wei, Fangli Xu, Bo Long
- TLDR: Proponiamo di utilizzare un approccio di apprendimento grafi per question answering.
- An Embarrassingly Simple Approach for Intellectual Property Rights Protection on Recurrent Neural Networks
- Zhi Qin Tan, Hao Shan Wong, Chee Seng Chan
- TLDR: Proponiamo un metodo per difendersi dagli attacchi di ambiguità e removal contro il richiamo di RNN ricorrenti.
- WAX: A New Dataset for Word Association eXplanations
- Chunhua Liu, Trevor Cohn, Simon De Deyne, Lea Frermann
- TLDR: Proponiamo un ampio dataset di word associations con spiegazioni, labeled con livelli di relazioni a basso livello.
- Missing Modality meets Meta Sampling (M3S): An Efficient Universal Approach for Multimodal Sentiment Analysis with Missing Modality
- Haozhe Chi, Minghua Yang, Junhao Zhu, Guanhong Wang, Gaoang Wang
- TLDR: Proponiamo un metodo di meta-sampling basato sulla missing modality per l’analisi del sentiment multimodale con dati mancanti.
- SPARQL-to-Text Question Generation for Knowledge-Based Conversational Applications
- Gwénolé Lecorvé, Morgan Veyret, Quentin Brabant, Lina M. Rojas Barahona
- TLDR: Proponiamo di generare domande di natural language questions basate sulla query SPARQL.
- S+PAGE: A Speaker and Position-Aware Graph Neural Network Model for Emotion Recognition in Conversation
- Chen Liang, Jing Xu, Yangkun Lin, Chong Yang, Yongliang Wang
- TLDR: Proponiamo un nuovo modello GNN basato sul riconoscimento vocale per ERC, S+PAGE, che può catturare meglio la struttura strutturale del discorso e la posizione-aware.
- Grammatical Error Correction Systems for Automated Assessment: Are They Susceptible to Universal Adversarial Attacks?
- Vyas Raina, Yiting Lu, Mark Gales
- TLDR: Un adversarial attack per Grammatical error correction per l’apprendimento automatico
- This Patient Looks Like That Patient: Prototypical Networks for Interpretable Diagnosis Prediction from Clinical Text
- Betty van Aken, Jens-Michalis Papaioannou, Marcel Naik, Georgios Eleftheriadis, Wolfgang Nejdl, Felix Gers, Alexander Loeser
- TLDR: Proponiamo ProtoPatient, un nuovo metodo basato su deep neural network e attention con entrambe le capacità di generare spiegazioni che i pazienti possono comprendere.
- Cross-lingual Similarity of Multilingual Representations Revisited
- Maksym Del, Mark Fishel
- TLDR: Proponiamo Average Neuron-Wise Correction (ANC) per risolvere il problema della similarità tra le rappresentazioni multilingue.
- Arabic Dialect Identification with a Few Labeled Examples Using Generative Adversarial Networks
- Mahmoud Yusuf, Marwan Torki, Nagwa El-Makky
- TLDR: Proponiamo un modello di identificazione Dialect Arabic basato sul trasformatore e lo usiamo per migliorare le prestazioni di convergenza e generalizzazione.
- Semantic Shift Stability: Efficient Way to Detect Performance Degradation of Word Embeddings and Pre-trained Language Models
- Shotaro Ishihara, Hiromu Takahashi, Hono Shirai
- TLDR: Proponiamo un metodo efficiente per rilevare la degradazione delle prestazioni di tempo-series dei word embedding e dei language model pre-trained.
- Neural Text Sanitization with Explicit Measures of Privacy Risk
- Anthi Papadopoulou, Yunhao Yu, Pierre Lison, Lilja Øvrelid
- TLDR: Proponiamo un nuovo approccio per sanitizzare il testo utilizzando un modello di sanitizzazione del testo neurale e privacy-enhanced.
- AGRank: Augmented Graph-based Unsupervised Keyphrase Extraction
- Haoran Ding, Xiao Luo
- TLDR: Proponiamo un modello di apprendimento unsupervised basato sul grafi per l’identificazione di keywords da un documento.
- Towards Unified Representations of Knowledge Graph and Expert Rules for Machine Learning and Reasoning
- Zhepei Wei, Yue Wang, Jinnan Li, Zhining Liu, Erxin Yu, Yuan Tian, Xin Wang, Yi Chang
- TLDR: Proponiamo un approccio per unificare le rappresentazioni di knowledge e dimostriamo che le rappresentazioni di knowledge possono essere utilizzate per l’apprendimento e il ragionamento.
- Who did what to Whom? Language models and humans respond diversely to features affecting argument hierarchy construction
- Xiaonan Xu, Haoshuo Chen
- TLDR: Proponiamo un’architettura di apprendimento per language model basati sul trasformatore e la usiamo per costruire la gerarchia degli attributi.
- CrowdChecked: Detecting Previously Fact-Checked Claims in Social Media
- Momchil Hardalov, Anton Chernyavskiy, Ivan Koychev, Dmitry Ilvovsky, Preslav Nakov
- TLDR: Proponiamo un metodo per imparare da una collezione di tweet paired con un articolo di verifica del fatto-checking.
- Hate Speech and Offensive Language Detection in Bengali
- Mithun Das, Somnath Banerjee, Punyajoy Saha, Animesh Mukherjee
- TLDR: Proponiamo un modello di training per rilevare il contenuto di testo off-topic su Twitter.
- Learning Interpretable Latent Dialogue Actions With Less Supervision
- Vojtěch Hudeček, Ondřej Dušek
- TLDR: Proponiamo un nuovo metodo per spiegare le conversazioni di dialogo basate sul dialogo basato sul dialogo, che produce variabili latenti per rappresentare le conversazioni.
- Named Entity Recognition in Twitter: A Dataset and Analysis on Short-Term Temporal Shifts
- Asahi Ushio, Francesco Barbieri, Vitor Sousa, Leonardo Neves, Jose Camacho-Collados
- TLDR: Proponiamo di addestrare il language model per Named Entity Recognition e dimostriamo che questo lavoro può essere utilizzato per migliorare le prestazioni di fine-tuning del language model.
- PInKS: Preconditioned Commonsense Inference with Minimal Supervision
- Ehsan Qasemi, Piyush Khanna, Qiang Ning, Muhao Chen
- TLDR: Proponiamo un modello di Commonsense Inference con WeaK supervisione migliorato per ragionamento con precondizioni attraverso supervisione minimo.
- Cross-Lingual Open-Domain Question Answering with Answer Sentence Generation
- Benjamin Muller, Luca Soldaini, Rik Koncel-Kedziorski, Eric Lind, Alessandro Moschitti
- TLDR: Proponiamo un modello di generazione multilingue per rispondere alle domande di apprendimento open-domain.
- Discourse Parsing Enhanced by Discourse Dependence Perception
- Yuqing Xing, Longyin Zhang, Fang Kong, Guodong Zhou
- TLDR: Proponiamo un framework di apprendimento top-down che impara da entrambe le dipendenze e la rappresentazione per il parsing del testo e il parsing del discorso.
- Prediction of People’s Emotional Response towards Multi-modal News
- Ge Gao, Sejin Paik, Carley Reardon, Yanling Zhao, Lei Guo, Prakash Ishwar, Margrit Betke, Derry Tanti Wijaya
- TLDR: Proponiamo un dataset di apprendimento multimodale per la predizione di eventi di emozioni e sentimenti.
- AugCSE: Contrastive Sentence Embedding with Diverse Augmentations
- Zilu Tang, Muhammed Yusuf Kocyigit, Derry Tanti Wijaya
- TLDR: Proponiamo AugCSE, un framework unificato per sfruttare diverse set di dati per ottenere un modello di sentence embedding più generalizzato e robusto.
- Seamlessly Integrating Factual Information and Social Content with Persuasive Dialogue
- Maximillian Chen, Weiyan Shi, Feifan Yan, Ryan Hou, Jingwen Zhang, Saurav Sahay, Zhou Yu
- TLDR: Proponiamo un nuovo dialogue system modulare che integra in modo semantico informazioni e contenuti sociali in una conversazione di dialogo persuasivo.
- Dual-Encoder Transformers with Cross-modal Alignment for Multimodal Aspect-based Sentiment Analysis
- Zhewen Yu, Jin Wang, Liang-Chih Yu, Xuejie Zhang
- TLDR: Proponiamo un nuovo metodo per l’analisi del sentiment multimodale basata sulla interpretazione dello spazio e la distanza di Wasserstein.
- AVAST: Attentive Variational State Tracker in a Reinforced Navigator
- Je-Wei Jang, Mahdin Rohmatillah, Jen-Tzung Chien
- TLDR: Proponiamo un metodo variazionale per migliorare la generalizzazione del task di navigazione visiva e parlato.
- Phylogeny-Inspired Adaptation of Multilingual Models to New Languages
- Fahim Faisal, Antonios Anastasopoulos
- TLDR: Proponiamo un metodo per sfruttare le informazioni di phylogenetic language phylogenetic per migliorare il transfer multilingue sfruttando la conoscenza di lingue consapevoli.
- Transferring Knowledge via Neighborhood-Aware Optimal Transport for Low-Resource Hate Speech Detection
- Tulika Bose, Irina Illina, Dominique Fohr
- TLDR: Proponiamo un nuovo metodo per imparare la teoria del transfer per il rilevamento automatico del speech hate speech.
- Bag-of-Vectors Autoencoders for Unsupervised Conditional Text Generation
- Florian Mai, James Henderson
- TLDR: Proponiamo un metodo per imparare i mappe di embedding nello spazio latente di un autoencoder.
- RecInDial: A Unified Framework for Conversational Recommendation with Pretrained Language Models
- Lingzhi Wang, Huang Hu, Lei Sha, Can Xu, Daxin Jiang, Kam-Fai Wong
- TLDR: Proponiamo un nuovo framework unificato per la generazione di dialoghi conversazionali che integra la raccomandazione nella generazione di conversazioni.
- SummVD : An efficient approach for unsupervised topic-based text summarization
- Gabriel Shenouda, Aurélien Bossard, Oussama Ayoub, Christophe Rodrigues
- TLDR: Proponiamo un metodo per la summarization unsupervised di testo e dimostriamo che è veloce da usare.
- Director: Generator-Classifiers For Supervised Language Modeling
- Kushal Arora, Kurt Shuster, Sainbayar Sukhbaatar, Jason Weston
- TLDR: Proponiamo un modello di training unificato di generatori di testo e generatori di parole per la generazione di modelli di linguaggio naturale.
- VLStereoSet: A Study of Stereotypical Bias in Pre-trained Vision-Language Models
- Kankan Zhou, Eason Lai, Jing Jiang
- TLDR: Proponiamo un task di probing per misurare il bias di stereotype nei modelli di linguaggio visivo pre-trained.
- Dynamic Context Extraction for Citation Classification
- Suchetha Nambanoor Kunnath, David Pride, Petr Knoth
- TLDR: Proponiamo un nuovo approccio automatizzato unsupervised per la selezione di un contesto di citazione dinamico e non congiuo, che utilizza le rappresentazioni basate sul documento e le similarità tra le parole e le frasi.
- Affective Retrofitted Word Embeddings
- Sapan Shah, Sreedhar Reddy, Pushpak Bhattacharyya
- TLDR: Proponiamo un metodo di retrofitting per updating gli embedding di parole per il loro significato affectivo.
- Is Encoder-Decoder Redundant for Neural Machine Translation?
- Yingbo Gao, Christian Herold, Zijian Yang, Hermann Ney
- TLDR: Proponiamo un nuovo metodo per la traduzione neurale utilizzando un modello di autoregressive language model.
- SAPGraph: Structure-aware Extractive Summarization for Scientific Papers with Heterogeneous Graph
- Siya Qi, Lei Li, Yiyang Li, Jin Jiang, Dingxin Hu, Yuze Li, Yingqi Zhu, Yanquan Zhou, Marina Litvak, Natalia Vanetik
- TLDR: Proponiamo un nuovo approccio di summarization dei documenti scientifici utilizzando la struttura del testo per risolvere il problema della sintesi del testo.
- Toward Implicit Reference in Dialog: A Survey of Methods and Data
- Lindsey Vanderlyn, Talita Anthonio, Daniel Ortega, Michael Roth, Ngoc Thang Vu
- TLDR: Proponiamo un’analisi del problema del linguaggio naturale e del suo algoritmo di apprendimento.
- A Decade of Knowledge Graphs in Natural Language Processing: A Survey
- Phillip Schneider, Tim Schopf, Juraj Vladika, Mikhail Galkin, Elena Simperl, Florian Matthes
- TLDR: Proponiamo un’analisi strutturata di 507 paper di ricerca su knowledge graph nel linguaggio naturale.
- Multimodal Generation of Radiology Reports using Knowledge-Grounded Extraction of Entities and Relations
- Francesco Dalla Serra, William Clackett, Hamish MacKinnon, Chaoyang Wang, Fani Deligianni, Jeff Dalton, Alison Q. O’Neil
- TLDR: Proponiamo un metodo per risolvere il problema di apprendimento di report radiologici basati sulla strutturazione del testo.
- SBERT studies Meaning Representations: Decomposing Sentence Embeddings into Explainable Semantic Features
- Juri Opitz, Anette Frank
- TLDR: Proponiamo un metodo per imparare a incoraggiare la struttura della frase BERT utilizzando embedding semantici.
- The Lifecycle of “Facts”: A Survey of Social Bias in Knowledge Graphs
- Angelie Kraft, Ricardo Usbeck
- TLDR: Proponiamo un’analisi critica della letteratura per studiare il bias sociale che introducono i knowledge graph e le loro versioni embedded.
- Food Knowledge Representation Learning with Adversarial Substitution
- Diya Li, Mohammed J Zaki
- TLDR: Proponiamo un metodo di apprendimento di knowledge graph per la generazione di recipe e di substitution di ingredienti per diverse informazioni di contesto.
- Construction Repetition Reduces Information Rate in Dialogue
- Mario Giulianelli, Arabella Sinclair, Raquel Fernandez
- TLDR: Proponiamo un’analisi quantitativa per stimare il contenuto dell’informazione nelle costruzione e la quantità dell’informazione nelle strutture di espressione.
- Analogy-Guided Evolutionary Pretraining of Binary Word Embeddings
- R. Alexander Knipper, Md. Mahadi Hassan, Mehdi Sadi, Shubhra Kanti Karmaker Santu
- TLDR: Proponiamo un nuovo metodo per imparare word embedding binari da zero utilizzando la trasformazione di trasformazione di un modello di embedding binario.
- Contrastive Video-Language Learning with Fine-grained Frame Sampling
- Zixu Wang, Yujie Zhong, Yishu Miao, Lin Ma, Lucia Specia
- TLDR: Proponiamo FineCo, un approccio per imparare video e rappresentazioni del linguaggio con un obiettivo contrastivo fine-grained operating sui video.
- Enhancing Tabular Reasoning with Pattern Exploiting Training
- Abhilash Shankarampeta, Vivek Gupta, Shuo Zhang
- TLDR: Proponiamo un modello di ragionamento tabulario per task di inferenza e dimostriamo che migliora le prestazioni di comprensione e di ragionamento dei dati tabulari.
- Re-contextualizing Fairness in NLP: The Case of India
- Shaily Bhatt, Sunipa Dev, Partha Talukdar, Shachi Dave, Vinodkumar Prabhakaran
- TLDR: Proponiamo un framework per la valutazione fairness nel contesto del contesto culturale di India.
- Low-Resource Multilingual and Zero-Shot Multispeaker TTS
- Florian Lux, Julia Koch, Ngoc Thang Vu
- TLDR: Proponiamo un metodo di meta learning per imparare a parlare in un nuovo linguaggio utilizzando solo 5 minuti di training dati.
- Unsupervised Domain Adaptation for Sparse Retrieval by Filling Vocabulary and Word Frequency Gaps
- Hiroki Iida, Naoaki Okazaki
- TLDR: Proponiamo un metodo di apprendimento unsupervised del dominio per risolvere il problema di domain matching.
- KESA: A Knowledge Enhanced Approach To Sentiment Analysis
- Qinghua Zhao, Shuai Ma, Shuo Ren
- TLDR: Proponiamo un nuovo task di sentiment knowledge che combina le informazioni di sentiment knowledge con la teoria del conditional sentiment.
- Cross-lingual Few-Shot Learning on Unseen Languages
- Genta Winata, Shijie Wu, Mayank Kulkarni, Thamar Solorio, Daniel Preotiuc-Pietro
- TLDR: Proponiamo un task di sentiment analysis per il transfer di lingue in ambienti non visti.
- Domain-aware Self-supervised Pre-training for Label-Efficient Meme Analysis
- Shivam Sharma, Mohd Khizir Siddiqui, Md. Shad Akhtar, Tanmoy Chakraborty
- TLDR: Proponiamo un metodo di self-supervision multimodale per l’apprendimento multimodale multi-task per la valutazione di modelli di rappresentazione multimodale.
- A Prompt Array Keeps the Bias Away: Debiasing Vision-Language Models with Adversarial Learning
- Hugo Berg, Siobhan Hall, Yash Bhalgat, Hannah Kirk, Aleksandar Shtedritski, Max Bain
- TLDR: Proponiamo un metodo di debiasing per ridurre le bias measure e la degradazione delle rappresentazioni visive.
- Some Languages are More Equal than Others: Probing Deeper into the Linguistic Disparity in the NLP World
- Surangika Ranathunga, Nisansa de Silva
- TLDR: Proponiamo un’analisi completa del problema della disparità linguistica nel mondo del NLP.
- Neural Readability Pairwise Ranking for Sentences in Italian Administrative Language
- Martina Miliani, Serena Auriemma, Fernando Alva-Manchego, Alessandro Lenci
- TLDR: Proponiamo un modello di apprendimento automatico per la valutazione della lettura a livello di frase-level di testi di enti locali.
- Delivering Fairness in Human Resources AI: Mutual Information to the Rescue
- Leo Hemamou, William Coleman
- TLDR: Proponiamo di ridurre la rappresentazione del nome in un piccolo spazio per mitigare il bias di bias da informazioni sensibili.
- Not another Negation Benchmark: The NaN-NLI Test Suite for Sub-clausal Negation
- Thinh Hung Truong, Yulia Otmakhova, Timothy Baldwin, Trevor Cohn, Jey Han Lau, Karin Verspoor
- TLDR: Proponiamo una test suite per la comprensione sub-clausale del linguaggio naturale per la stima delle capacità di NLP attuali.
- HaRiM^+: Evaluating Summary Quality with Hallucination Risk
- Seonil (Simon) Son, Junsoo Park, Jeong-in Hwang, Junghwa Lee, Hyungjong Noh, Yeonsoo Lee
- TLDR: Proponiamo una nuova metric HaRiM+ per la valutazione automatizzata dei modelli di summarization off-the-shelf.
- The lack of theory is painful: Modeling Harshness in Peer Review Comments
- Rajeev Verma, Rajarshi Roychoudhury, Tirthankar Ghosal
- TLDR: Proponiamo un dataset di peer review per la moderazione del testo e la valutazione della harshness.
- Dual Mechanism Priming Effects in Hindi Word Order
- Sidharth Ranjan, Marten van Schijndel, Sumeet Agarwal, Rajakrishnan Rajkumar
- TLDR: Proponiamo un modello di predizione di testo per la predizione di parole e parole e usiamo un modello di predizione per la predizione di parole e parole.
- Unsupervised Single Document Abstractive Summarization using Semantic Units
- Jhen-Yi Wu, Ying-Jia Lin, Hung-Yu Kao
- TLDR: Proponiamo un modello di summarization per imparare automaticamente la quantità di informazioni semantiche nel testo del testo del testo del testo del testo del testo.
- Detecting Incongruent News Articles Using Multi-head Attention Dual Summarization
- Sujit Kumar, Gaurav Kumar, Sanasam Ranbir Singh
- TLDR: Proponiamo un metodo di attention attention multi-head per rilevare articoli di news created con rumore embedding.
- Meta-Learning based Deferred Optimisation for Sentiment and Emotion aware Multi-modal Dialogue Act Classification
- Tulika Saha, Aditya Prakash Patra, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: Proponiamo un nuovo metodo per identificare le DAC.
- Enhancing Financial Table and Text Question Answering with Tabular Graph and Numerical Reasoning
- Rungsiman Nararatwong, Natthawut Kertkeidkachorn, Ryutaro Ichise
- TLDR: Proponiamo un modello di question answering basato sulla GNN per question answering.
- Fine-grained Contrastive Learning for Definition Generation
- Hengyuan Zhang, Dawei Li, Shiping Yang, Yanran Li
- TLDR: Proponiamo un metodo di contrasto per generare rappresentazioni semantiche più dettagliate da semantiche semantiche.
- Hengam: An Adversarially Trained Transformer for Persian Temporal Tagging
- Sajad Mirzababaei, Amir Hossein Kargaran, Hinrich Schütze, Ehsaneddin Asgari
- TLDR: Proponiamo Hengam, un adversarial transformer per il tagger temporale per il tagger di testo per la ricerca di informazioni di testo.
- What’s Different between Visual Question Answering for Machine “Understanding” Versus for Accessibility?
- Yang Trista Cao, Kyle Seelman, Kyungjun Lee, Hal Daumé III
- TLDR: Proponiamo un nuovo metodo per question answering visuale che può essere utilizzato per misurare le discrepanze tra i modelli VQA per question answering visuale e accessibility.
- Persona or Context? Towards Building Context adaptive Personalized Persuasive Virtual Sales Assistant
- Abhisek Tiwari, Sriparna Saha, Shubhashis Sengupta, Anutosh Maitra, Roshni Ramnani, Pushpak Bhattacharyya
- TLDR: Proponiamo un nuovo sistema di dialogo multi-modali per risolvere il dialogo tra task-oriented conversazionali.
- Legal Case Document Summarization: Extractive and Abstractive Methods and their Evaluation
- Abhay Shukla, Paheli Bhattacharya, Soham Poddar, Rajdeep Mukherjee, Kripabandhu Ghosh, Pawan Goyal, Saptarshi Ghosh
- TLDR: Proponiamo un modello di summarization dei documenti legali che può essere utilizzato per risolvere il problema della summarizzazione dei documenti legali.
- FPC: Fine-tuning with Prompt Curriculum for Relation Extraction
- Sicheng Yang, Dandan Song
- TLDR: Proponiamo un metodo di fine-tuning per la traduzione di relazioni con Prompt Curriculum per RE, con due caratteristici: il relation prompt learning, introducendo un task di fine-tuning auxiliare per catturare la semantica delle label di relazioni.
- Dead or Murdered? Predicting Responsibility Perception in Femicide News Reports
- Gosse Minnema, Sara Gemelli, Chiara Zanchi, Tommaso Caselli, Malvina Nissim
- TLDR: Proponiamo un modello di regressione per la percezione di responsabilità per la percezione di responsabilità per la percezione di responsabilità per la percezione di responsabilità per la percezione di responsabilità per la percezione di responsabilità per la percezione di responsabilità.
- PESE: Event Structure Extraction using Pointer Network based Encoder-Decoder Architecture
- Alapan Kuila, Sudeshna Sarkar
- TLDR: Proponiamo un modello di encoder-decoder basato sulla pointer network per addestrare un modello di event extraction end-to-end che sfrutta le interazioni tra gli eventi e le informazioni di input degli eventi.
- How do we get there? Evaluating transformer neural networks as cognitive models for English past tense inflection
- Xiaomeng Ma, Lingyu Gao
- TLDR: Proponiamo un modello di trasformazione neurale per quasi regolarità e regolarità dei termini.
- Characterizing and addressing the issue of oversmoothing in neural autoregressive sequence modeling
- Ilia Kulikov, Maksim Eremeev, Kyunghyun Cho
- TLDR: Proponiamo di regolarizzare il modello autoregressivo per ridurre la quantità di rumore e dimostriamo che la quantità di rumore è il principale causa del degeneramento di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequenze di sequen
- Identifying Weaknesses in Machine Translation Metrics Through Minimum Bayes Risk Decoding: A Case Study for COMET
- Chantal Amrhein, Rico Sennrich
- TLDR: Proponiamo un metodo per esplorare e quantificare le weaknesse dei modelli di traduzione come minimo bayesiano e minimo bayesiano.
- Whodunit? Learning to Contrast for Authorship Attribution
- Bo Ai, Yuchen Wang, Yugin Tan, Samson Tan
- TLDR: Proponiamo di imparare rappresentazioni di autore e di autore-specificità per l’attribution di testo.
- Higher-Order Dependency Parsing for Arc-Polynomial Score Functions via Gradient-Based Methods and Genetic Algorithm
- Xudong Zhang, Joseph Le Roux, Thierry Charnois
- TLDR: Proponiamo un metodo per parsing di dependency dependency che sfrutta la forma generale di funzioni di punteggio e dimostriamo risultati allo stato dell’arte su tre dataset standard.
- Underspecification in Scene Description-to-Depiction Tasks
- Ben Hutchinson, Jason Baldridge, Vinodkumar Prabhakaran
- TLDR: Proponiamo un framework teorico per affrontare la questione della sottospecificazione e implicitità dei sistemi di immagini e testo e immagini multimodali.
- COFAR: Commonsense and Factual Reasoning in Image Search
- Prajwal Gatti, Abhirama Subramanyam Penamakuri, Revant Teotia, Anand Mishra, Shubhashis Sengupta, Roshni Ramnani
- TLDR: Proponiamo un nuovo approccio per risolvere la ricerca di immagini utilizzando Knowledge Retrieval-Augmented Multimodal Transformer e la knowledge grounded.