EACL 2022 in Japanese
TLDRs
- Unsupervised Sentence-embeddings by Manifold Approximation and Projection
- Subhradeep Kayal
- TLDR: 文の表現を、固定空間上の重みを乗せて表現する手法の提案。重みは、文の重みと単語の重みを重みとし、重みは重みと重みの重みを重みとし、重みは重みと重みの重みを重みとし、重みは重みと重みの重みを重みとし重みを重みとし重みと重みを重みとし重みとし重みを重みとし重みとし重みと重みを重みとし重みとし重みと重みを重みとし重みと
- Contrastive Multi-document Question Generation
- Woon Sang Cho, Yizhe Zhang, Sudha Rao, Asli Celikyilmaz, Chenyan Xiong, Jianfeng Gao, Mengdi Wang, Bill Dolan
- TLDR: マルチソースの文書から、個別に質問を生成する手法の提案。文書の個別特徴を考慮するだけでなく、文書の個別特徴を考慮するモデルを構築する。個別特徴を考慮するモデルは、文書個別特徴を考慮するモデルと同等の精度を達成できる。
- Disambiguatory Signals are Stronger in Word-initial Positions
- Tiago Pimentel, Ryan Cotterell, Brian Roark
- TLDR: 単語の最初の部分を、事前学習済み言語モデルで予測する研究。事前学習済み言語モデルは、事前学習済み言語モデルの予測精度を上回る単語を予測するが、事前学習済み言語モデルは予測精度が低い単語を予測する。事前学習済み言語モデルは、事前学習済み言語モデルの予測精度を上回る単語を予測する手法を取っている。
- On the (In)Effectiveness of Images for Text Classification
- Chunpeng Ma, Aili Shen, Hiyori Yoshikawa, Tomoya Iwakura, Daniel Beck, Timothy Baldwin
- TLDR: 自然言語処理で、画像を学習する際の効果について検証した研究。画像はWikipediaのページに適応する。WikipediaのページはWikipediaの分類器で分類される。画像はWikipediaの分類器で分類される。
- If you’ve got it, flaunt it: Making the most of fine-grained sentiment annotations
- Jeremy Barnes, Lilja Øvrelid, Erik Velldal
- TLDR: 文中の単語を、ラベル付けなしで抽出する研究。ラベル付けは、ラベルの意味を表す単語(#959)を抽出する際の重要な要素として挙げられている。ラベルは、ラベルの意味を表す単語(#959)を抽出する際の重要な要素として挙げられている。ラベルは、ラベルの意味を表す単語(#959)を抽出する際の重要な要素として挙げられている。
- Keep Learning: Self-supervised Meta-learning for Learning from Inference
- Akhil Kedia, Sai Chetan Chinthakindi
- TLDR: 機械学習モデルの学習を、事前学習済みモデルの学習に置き換えた研究。事前学習済みモデルの学習は、事前学習済みモデルの学習済みモデルの学習率を上げるための手法。事前学習済みモデルの学習率は、学習済みモデルの学習率と同等の精度を維持する。事前学習済みモデルの学習率は、学習済みモデルの学習率と同等の精度を維持する。
- ResPer: Computationally Modelling Resisting Strategies in Persuasive Conversations
- Ritam Dutt, Sayan Sinha, Rishabh Joshi, Surya Shekhar Chakraborty, Meredith Riggs, Xinru Yan, Haogang Bao, Carolyn Rose
- TLDR: 対話における、敵対的手法を予測する研究。敵対的手法は、敵対的行動を予測するモデルの一種で、敵対的行動は行動の予測結果を大きく左右する。敵対的行動は、敵対的行動の予測結果を大きく左右する。敵対的行動は、敵対的行動の予測結果を大きく左右する。
- BERxiT: Early Exiting for BERT with Better Fine-Tuning and Extension to Regression
- Ji Xin, Raphael Tang, Yaoliang Yu, Jimmy Lin
- TLDR: モデルの転移速度を上げるために、学習済みモデルを学習する手法の提案。学習済みモデルは学習済みモデルの転移速度を上回るが、学習済みモデルは転移速度が速いため転移速度が速い。そのため、転移速度を上げるために学習済みモデルを学習させる手法を提案している。
- Telling BERT’s Full Story: from Local Attention to Global Aggregation
- Damian Pascual, Gino Brunner, Roger Wattenhofer
- TLDR: 転移学習において、Attentionの分布を学習する研究。Attention分布は、入力の単語をAttentionに変換する(Attentionは単語の重みを計算する)ことで、学習する単語の重みを計算する。重みは、Attention分布の分布を予測するモデルの重みと同等であるとしている。
- Effects of Pre- and Post-Processing on type-based Embeddings in Lexical Semantic Change Detection
- Jens Kaiser, Sinan Kurtyigit, Serge Kotchourko, Dominik Schlechtweg
- TLDR: 文の変動を検出するモデルの設計と、事前学習、また事前学習済みモデルのパフォーマンスを比較した研究。学習済みモデルのパフォーマンスを上げるための工夫をまとめたサーベイ。
- The Gutenberg Dialogue Dataset
- Richard Csaky, Gábor Recski
- TLDR: オープンソースの対話データセットを、翻訳モデルの学習に応用した研究。対話データセットは英語のみでなく、翻訳モデルの学習に使用されている。翻訳モデルは、翻訳モデルの学習に使用されている。対話データセットは、翻訳モデルの学習に使用されている。
- On the Calibration and Uncertainty of Neural Learning to Rank Models for Conversational Search
- Gustavo Penha, Claudia Hauff
- TLDR: 対話者に対する検索結果の評価を、BERTベースの評価モデルで行う研究。BERTベースの評価モデルは、検索結果の検索頻度が低い文書に優先順をつける傾向があるが、この傾向はBERTベースの評価モデルに近い。BERTベースの評価モデルは、検索結果の検索頻度が低い文書に優先順をつける傾向があるが、この傾向はBERTベースの評価モデルに近い。
- Frequency-Guided Word Substitutions for Detecting Textual Adversarial Examples
- Maximilian Mozes, Pontus Stenetorp, Bennett Kleinberg, Lewis Griffin
- TLDR: 敵対的サンプルを検出する手法の提案。敵対的サンプルは、単語の重みが異なる場合に出現する。この重みを、単語の重みと同等に扱うことで敵対的サンプルを検出する。敵対的サンプルは、単語の重みが異なる場合に出現する。この重みを、単語の重みと同等に扱うことで敵対的サンプルを検出する。
- Maximal Multiverse Learning for Promoting Cross-Task Generalization of Fine-Tuned Language Models
- Itzik Malkiel, Lior Wolf
- TLDR: 事前学習済みモデルを、事前学習済みモデルに適用する手法の提案。事前学習済みモデルは、学習済みモデルの学習済みモデルの学習済みモデルと同等の性能を発揮する。事前学習済みモデルは、学習済みモデルの学習済みモデルの学習済みモデルと同等の性能を発揮する。事前学習済みモデルは、事前学習済みモデルの学習済みモデルの学習済みモデルと同等の性能を発揮する。
- Unification-based Reconstruction of Multi-hop Explanations for Science Questions
- Marco Valentino, Mokanarangan Thayaparan, André Freitas
- TLDR: マルチホップの説明を解く研究。単純な説明だけでなく、複数ホップの説明も解けるようにする。単純な説明だけでなく、複数ホップの説明も解けるようにする。マルチホップの説明は、単純な説明と同等の精度が得られる。
- Dictionary-based Debiasing of Pre-trained Word Embeddings
- Masahiro Kaneko, Danushka Bollegala
- TLDR: 事前学習済みの単語分散表現を、教師なしで学習する研究。教師なしで学習した単語分散表現を、教師なしで学習した単語分散表現に置き換える。教師なしで学習した単語分散表現は、教師なしで学習した単語分散表現と同等の効果を発揮する。
- Belief-based Generation of Argumentative Claims
- Milad Alshomary, Wei-Fan Chen, Timon Gurcke, Henning Wachsmuth
- TLDR: 文生成において、ユーザーの考えを基に文を生成する研究。ユーザーの考えを基に文を生成する際、文の生成時に使用するBag-of-wordを自動生成する。この自動生成は、文生成時に生成した文書をそのまま使用する手法。文書生成時に、文書の単語を自動生成する。
- Non-Autoregressive Text Generation with Pre-trained Language Models
- Yixuan Su, Deng Cai, Yan Wang, David Vandyke, Simon Baker, Piji Li, Nigel Collier
- TLDR: 事前学習済みモデルを、BERTベースのモデルに置き換える研究。BERTは、事前学習済みモデルの挙動を予測するモデルで、事前学習済みモデルの挙動を予測するモデルは、事前学習済みモデルの挙動を予測するモデルで、事前学習済みモデルの挙動を予測するモデルで置き換える。
- Multi-split Reversible Transformers Can Enhance Neural Machine Translation
- Yuekai Zhao, Shuchang Zhou, Zhihua Zhang
- TLDR: マルチスケールで転移可能なTransformerを提案。入力の転移は、入力の転移先の入力を再構築するネットワークの一種で、入力の転移先は入力の転移先と同等のネットワークの転移先で行う。転移先は、入力の転移先と同等のネットワークの転移先で行う。転移先は、転移先と同等のネットワークの転移先で行う。
- Exploiting Cloze-Questions for Few-Shot Text Classification and Natural Language Inference
- Timo Schick, Hinrich Schütze
- TLDR: 自然言語処理で、事前学習済みモデルのタスクを解く際に、事前学習済みモデルのタスクを解くための手法を提案。事前学習済みモデルのタスクを解く際に、事前学習済みモデルのタスクを解くための単語を追加学習する。事前学習済みモデルのタスクを解く際に、事前学習済みモデルの単語を追加学習する。
- CDˆ2CR: Co-reference resolution across documents and domains
- James Ravenscroft, Amanda Clare, Arie Cattan, Ido Dagan, Maria Liakata
- TLDR: 文書の文書構造を、文書分類タスクで解く研究。文書分類タスクは、文書分類のタスクと同等精度を達成できるか検証している。文書分類タスクは、文書分類のタスクと同等精度を達成できるか検証している。文書分類タスクは、文書分類タスクと同等精度を達成できるか検証している。
- AREDSUM: Adaptive Redundancy-Aware Iterative Sentence Ranking for Extractive Document Summarization
- Keping Bi, Rahul Jha, Bruce Croft, Asli Celikyilmaz
- TLDR: 要約文の要約を、事前学習済みモデルと併用する研究。事前学習済みモデルは、要約文の要約が重要かどうかを予測するモデルで、要約文の要約が重要かどうかを予測するモデルは、事前学習済みモデルと同等のモデルで学習する。事前学習済みモデルは、要約文の要約が重要かどうかを予測するモデルと同等のモデルで学習する。
- “Talk to me with left, right, and angles”: Lexical entrainment in spoken Hebrew dialogue
- Andreas Weise, Vered Silber-Varod, Anat Lerner, Julia Hirschberg, Rivka Levitan
- TLDR: 自然言語処理で、単語の類似度を調べた研究。単語の類似度は、単語の意味と類似度の相関を表す単語の分布から、単語の意味と類似度の分布から、単語の意味と分布から、単語の分布から、単語分布から、単語分布から、単語分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布から、分布
- Recipes for Building an Open-Domain Chatbot
- Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, Jason Weston
- TLDR: オープンドメインのチャットボットで、自然言語処理のモデルを強化する研究。学習データの数が多い場合、モデルのパフォーマンスが上がるが、学習データが少ない場合パフォーマンスが落ちる。そこで、学習データが少ない場合に、モデルのパフォーマンスを上げるために、学習データが少ない場合に学習する手法を提案している。
- Evaluating the Evaluation of Diversity in Natural Language Generation
- Guy Tevet, Jonathan Berant
- TLDR: 自然言語処理モデルの分類方法について、分類結果を評価する手法を提案した研究。分類結果は、モデルの分類結果と異なる場合に分類結果が異なると判断する。分類結果は、モデルの分類結果と異なる場合に分類結果が異なると判断する。分類結果は、モデルの分類結果と異なる場合に分類結果が異なると判断する。分類結果は、分類結果の分類結果と分類結果の分類結果を比較し、分類結果が異なる場合に分類結果を比較する。分類結果は、分類結果の分類結果と分類結果の分類結果を比較する。分類結果は、分類結果の分類結果と分類結果の分類結果を比較
- Retrieval, Re-ranking and Multi-task Learning for Knowledge-Base Question Answering
- Zhiguo Wang, Patrick Ng, Ramesh Nallapati, Bing Xiang
- TLDR: 知識ベースの検索結果を、事前学習済みモデルの検索結果と比較し、事前学習済みモデルの検索結果を比較した研究。事前学習済みモデルの検索結果は、事前学習済みモデルの検索結果と比較して、事前学習済みモデルの検索結果が近い結果を獲得できた。
- Implicitly Abusive Comparisons – A New Dataset and Linguistic Analysis
- Michael Wiegand, Maja Geulig, Josef Ruppenhofer
- TLDR: 不適な評価を検出する研究。不適な評価は、不適な表現を用いた評価と、不適な表現を用いた評価の2つに分類される。不適な表現は、不適な表現を用いた評価と、不適な評価を用いた評価の2つに分類される。不適な表現は、不適な評価を用いた評価と、不適な評価を用いた評価の2つに分類される。
- Exploiting Emojis for Abusive Language Detection
- Michael Wiegand, Josef Ruppenhofer
- TLDR: 不適な単語を学習する研究。不適な単語は、通常の単語学習では学習できない単語(不適な単語)を学習する。不適な単語は、不適な単語の単語を学習する際は、不適な単語を学習する単語ベースのモデルを使用した方が良い。不適な単語は、不適な単語の単語ベースのモデルで学習する。
- A Systematic Review of Reproducibility Research in Natural Language Processing
- Anya Belz, Shubham Agarwal, Anastasia Shimorina, Ehud Reiter
- TLDR: 自然言語処理の文書表現の生成に、文書表現の生成に適用可能なモデルの提案。文書表現の生成は、文書表現の生成に使用される表現の生成に限界があるため、生成のモデルを生成する文書表現の生成に使用する。文書表現の生成は、文書表現の生成に使用される表現の生成に限界があるため、文書表現の生成に使用される表現の生成に限界がある。
- Bootstrapping Multilingual AMR with Contextual Word Alignments
- Janaki Sheth, Young-Suk Lee, Ramón Fernandez Astudillo, Tahira Naseem, Radu Florian, Salim Roukos, Todd Ward
- TLDR: マルチ言語対応のAMRを、翻訳モデルの枠組みで翻訳する研究。翻訳モデルは翻訳文の単語分布を予測するモデルで、翻訳文の単語分布は翻訳モデルの予測結果から予測する。翻訳モデルは翻訳モデルの予測結果から翻訳文の単語分布を予測する。翻訳モデルは翻訳モデルの予測結果から翻訳文の単語分布を予測する。
- Semantic Oppositeness Assisted Deep Contextual Modeling for Automatic Rumor Detection in Social Networks
- Nisansa de Silva, Dejing Dou
- TLDR: ニュースの推定を行う際に、投稿文と投稿文の類似度を考慮する研究。投稿文の類似度は、投稿文のタイトル/本文のタイトル/本文のタイトル/本文の本文から、投稿文のタイトル/本文の本文から、文の本文から、文本文から文本文の本文から、文本文から文本文の本文から、文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から文本文から
- Polarized-VAE: Proximity Based Disentangled Representation Learning for Text Generation
- Vikash Balasubramanian, Ivan Kobyzev, Hareesh Bahuleyan, Ilya Shapiro, Olga Vechtomova
- TLDR: 学習済みモデルの学習時に、学習済みモデルの属性を認識する研究。属性は、単語/文の類似度(類似度=単語の類似度)と、単語/文の類似度(単語の類似度)を比較する。単語/文の類似度は、単語/文の類似度と同等か否かを比較する。
- ParaSCI: A Large Scientific Paraphrase Dataset for Longer Paraphrase Generation
- Qingxiu Dong, Xiaojun Wan, Yue Cao
- TLDR: 論文中のparaphraseを抽出する研究。論文のタイトルを「論文」とし、論文のタイトルからparaphraseを抽出する。論文のタイトルは「論文」と「論文」の2つから抽出する。論文のタイトルは「論文」と「論文」の2つから抽出する。
- Discourse Understanding and Factual Consistency in Abstractive Summarization
- Saadia Gabriel, Antoine Bosselut, Jeff Da, Ari Holtzman, Jan Buys, Kyle Lo, Asli Celikyilmaz, Yejin Choi
- TLDR: 自然言語処理で、事前学習済みモデルを用いた事前学習済みモデルの提案。事前学習済みモデルは、事前学習済みモデルの表現をベースに、事前学習済みモデルの表現をベースに事前学習済みモデルを用いた事前学習済みモデルのモデルをベースにしている。事前学習済みモデルは、事前学習済みモデルの表現をベースに、事前学習済みモデルの表現をベースに事前学習済みモデルを用いている。
- Knowledge Base Question Answering through Recursive Hypergraphs
- Naganand Yadati, Dayanidhi R S, Vaishnavi S, Indira K M, Srinidhi G
- TLDR: 知識ベースの質問に対する回答を、階層構造を用いたモデルで行う研究。階層構造は、階層構造の質問に対する回答を予測する際の重要な要素となる。階層構造は、質問に対する回答を予測する際の重要な要素となる。階層構造は、質問に対する回答を予測する際の重要な要素となる。階層構造は、質問に対する回答を予測する際の重要な要素となる。
- FEWS: Large-Scale, Low-Shot Word Sense Disambiguation with the Dictionary
- Terra Blevins, Mandar Joshi, Luke Zettlemoyer
- TLDR: 自然言語処理で、少数サンプルのWord Senseを自動生成する研究。通常のWord Senseモデルは少数サンプルしか扱えないが、この研究では少数サンプルを扱えるようにしている。少数サンプルは、単語の意味を予測するだけでなく、単語の意味を予測するモデルも扱っている。
- MONAH: Multi-Modal Narratives for Humans to analyze conversations
- Joshua Y. Kim, Kalina Yacef, Greyson Kim, Chunfeng Liu, Rafael Calvo, Silas Taylor
- TLDR: 対話データの拡張について、事前学習済みモデルを用いた研究。事前学習済みモデルは、複数回の対話結果を統合する形で学習する。対話結果を統合するモデルは、複数回の対話結果を統合するモデルと、複数回の対話結果を統合するモデルの2つ。統合は、統合した対話結果を統合したモデルで行う。
- Does Typological Blinding Impede Cross-Lingual Sharing?
- Johannes Bjerva, Isabelle Augenstein
- TLDR: マルチ言語の分散表現を扱う研究。マルチ言語の分散表現は、通常の分散表現と異なる特徴を持つ言語同士の分散表現を学習する際、分散表現の学習時に学習する特徴を考慮する。分散表現の学習時に、学習時に学習した特徴を考慮するモデルを導入する。
- AdapterFusion: Non-Destructive Task Composition for Transfer Learning
- Jonas Pfeiffer, Aishwarya Kamath, Andreas Rücklé, Kyunghyun Cho, Iryna Gurevych
- TLDR: マルチタスク学習を行う際に、タスクごとに異なる知識を学習する手法の提案。タスクごとに異なる知識を学習する際、タスクの属性を学習するAdapterを学習する。Adapterはタスク固有の情報を含まない、タスク個別の情報を含まない、タスク個別の情報を含まない、タスク個別の情報を含まない、タスク個別の情報を含まない、タスク個別の情報を含まない、タスク個別の情報を含まない、タスク個別の情報を含まない、タスク個別の情報を含まない、タスク個別の情報を含まない、タスク個別の情報を含まない
- CHOLAN: A Modular Approach for Neural Entity Linking on Wikipedia and Wikidata
- Manoj Prabhakar Kannan Ravi, Kuldeep Singh, Isaiah Onando Mulang’, Saeedeh Shekarpour, Johannes Hoffart, Jens Lehmann
- TLDR: 文中のEntityを、文中のEntityに変換する研究。EntityはWikipediaの文書から抽出される。WikipediaはWikipediaの文書から抽出されるEntityを、Wikipediaの文書から抽出されるEntityを生成する。WikipediaはWikipediaの文書から抽出されるEntityを生成する。
- Grounding as a Collaborative Process
- Luciana Benotti, Patrick Blackburn
- TLDR: 対話システムで、事前学習済み言語モデルの学習を行わずに、対話システムの学習を行おうという研究。事前学習済みモデルは、事前学習済み言語モデルの学習を行わずに、対話システムの学習を行なっている。事前学習済みモデルは、事前学習済み言語モデルの学習を行わずに、対話システムの学習を行なっている。
- Does She Wink or Does She Nod? A Challenging Benchmark for Evaluating Word Understanding of Language Models
- Lutfi Kerem Senel, Hinrich Schütze
- TLDR: 言語モデルの事前学習で、単語の意味を推定する研究。単語の意味を推定するモデルは、単語の意味を推定するモデルと、単語の意味を推定するモデルの2つに分けて学習する。単語の意味を推定するモデルは、単語の意味を推定するモデルと、単語の意味を推定するモデルの2つに分けて学習する。
- Joint Coreference Resolution and Character Linking for Multiparty Conversation
- Jiaxin Bai, Hongming Zhang, Yangqiu Song, Kun Xu
- TLDR: 対話中の人物を、自然言語処理でリンクする研究。通常の人物リンクは自然言語処理で行うことが多いが、この時自然言語処理のモデルを用いることで、自然言語処理の精度を上げる。
- Improving Factual Consistency Between a Response and Persona Facts
- Mohsen Mesgar, Edwin Simpson, Iryna Gurevych
- TLDR: 自然言語処理で、質問に対する回答を生成する研究。質問に対する回答は、質問に対する質問に対する回答と同等の事実関係を有する。質問に対する回答は、質問に対する質問に対する回答と同等の事実関係を有する。質問に対する回答は、質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問
- PolyLM: Learning about Polysemy through Language Modeling
- Alan Ansell, Felipe Bravo-Marquez, Bernhard Pfahringer
- TLDR: 単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の
- Predicting Treatment Outcome from Patient Texts:The Case of Internet-Based Cognitive Behavioural Therapy
- Evangelia Gogoulou, Magnus Boman, Fehmi Ben Abdesslem, Nils Hentati Isacsson, Viktor Kaldo, Magnus Sahlgren
- TLDR: テキスト分類器を、ストレスや抑うつといった病気の診断に応用した研究。通常の分類器は、ストレスや抑うつといった病気の診断に使われることが多いが、この分類器は、ストレスや抑うつといった病気の診断に使われることが多い。この分類器は、ストレスや抑うつといった病気の診断に使われることが多いが、この分類器は、ストレスや抑うつといった病気の診断に使われることが多い。
- Scalable Evaluation and Improvement of Document Set Expansion via Neural Positive-Unlabeled Learning
- Alon Jacovi, Gang Niu, Yoav Goldberg, Masashi Sugiyama
- TLDR: 文書分類器の学習を、事前学習済みモデルの学習に置き換えた研究。文書分類器は、文書分類結果から学習する。文書分類器は、文書分類結果から学習する文書を予測する。文書分類器は、文書分類結果から学習する文書を予測する。文書分類器は、文書分類結果から学習する文書を予測する。
- The Role of Syntactic Planning in Compositional Image Captioning
- Emanuele Bugliarello, Desmond Elliott
- TLDR: 画像のキャプチャーを、自然言語処理で行う研究。画像のキャプチャーは、自然言語処理のモデルで作成する。画像のキャプチャーは、自然言語処理のモデルで作成する。画像のキャプチャーは、自然言語処理のモデルで作成する。
- Is “hot pizza” Positive or Negative? Mining Target-aware Sentiment Lexicons
- Jie Zhou, Yuanbin Wu, Changzhi Sun, Liang He
- TLDR: 自然言語処理で、文中の単語を変更する手法の提案。単語の位置を、文中の単語を変更する形で表現する。単語の位置は、文中の単語を変更する(=文中の単語を変更する)ことで表現する。文中の単語を変更する際は、文中の単語を変更する単語を追加する形で行う。
- Quality Estimation without Human-labeled Data
- Yi-Lin Tuan, Ahmed El-Kishky, Adithya Renduchintala, Vishrav Chaudhary, Francisco Guzmán, Lucia Specia
- TLDR: 翻訳文の品質を評価する研究。翻訳文の翻訳モデルは、翻訳文の翻訳文を翻訳する際、翻訳文の翻訳文を翻訳するモデルと翻訳文の翻訳文を翻訳するモデルの2つを使用。翻訳文の翻訳モデルは翻訳文の翻訳文を翻訳するモデルと、翻訳文の翻訳文を翻訳するモデルの2つを使用。翻訳文の翻訳モデルは翻訳文の翻訳文を翻訳するモデルと、翻訳文の翻訳文を翻訳するモデルの2つを使用。
- How Fast can BERT Learn Simple Natural Language Inference?
- Yi-Chung Lin, Keh-Yih Su
- TLDR: 自然言語処理で、学習効率を上げるためには、タスク関連の知識を追加する必要があるという研究。タスク関連の知識は、BERTの学習効率を上げるのに有効なタスクに組み込むのに有効なタスクの提案に繋がる。タスク関連の知識は、BERTの学習効率を上げるのに有効なタスクに組み込むのに有効なタスクの提案に繋がる。
- GRIT: Generative Role-filler Transformers for Document-level Event Entity Extraction
- Xinya Du, Alexander Rush, Claire Cardie
- TLDR: 文書レベルの文書抽出を、文書構造をモデル化した研究。文書構造は文書レベルのモデルで作成し、文書構造をモデル化したモデルで抽出を行う。文書構造は文書構造と同等か、文書構造は文書構造と同等かを予測する。文書構造は文書構造と同等か、文書構造は文書構造と同等かを予測する。文書構造は文書構造と同等か、文書構造は文書構造と同等かを予測する。
- Cross-lingual Entity Alignment with Incidental Supervision
- Muhao Chen, Weijia Shi, Ben Zhou, Dan Roth
- TLDR: マルチ言語の知識グラフを、事前学習済みモデルと同等の手法で構築した研究。事前学習済みモデルは、事前学習済みモデルと同等の手法を適用する。事前学習済みモデルは、事前学習済みモデルと同等の手法を適用する。事前学習済みモデルは、事前学習済みモデルと同等の手法を適用する。事前学習済みモデルは、事前学習済みモデルと同等の手法を適用する。
- Query Generation for Multimodal Documents
- Kyungho Kim, Kyungjae Lee, Seung-won Hwang, Young-In Song, Seungwook Lee
- TLDR: マルチモーダル文書の検索で、事前学習済みモデルの検索結果を、事前学習済みモデルの検索結果に埋め込む手法の提案。事前学習済みモデルの検索結果を、事前学習済みモデルの検索結果に埋め込む形で生成する。事前学習済みモデルの検索結果を、事前学習済みモデルの検索結果に埋め込む形で生成する。事前学習済みモデルの検索結果を、事前学習済みモデルの検索結果に埋め込む形で生成する。
- End-to-End Argument Mining as Biaffine Dependency Parsing
- Yuxiao Ye, Simone Teufel
- TLDR: 論理構造の推定を行う際に、Bi-directionalのモデルをベースに、Bi-directionalのモデルと同等のモデルを構築した研究。Bi-directionalのモデルは、Bi-directionalのモデルと同等のモデルを構築する必要があり、Bi-directionalのモデルは、Bi-directionalのモデルと同等のモデルを構築する必要があり、Bi-directionalのモデルは、Bi-directionalのモデルと同等のモデルを構築する必要があり、Bi-directionalのモデルは、Bi-directionalのモデルと同等のモデルを構築する必要があり、
- FakeFlow: Fake News Detection by Modeling the Flow of Affective Information
- Bilal Ghanem, Simone Paolo Ponzetto, Paolo Rosso, Francisco Rangel
- TLDR: ニュース記事の表現を、感情を動かすためのフローを学習する研究。記事のタイトル/ニュースソースから、ニュース記事の更新頻度/更新頻度を予測するモデルを構築し、更新頻度を予測するモデルを生成する。更新頻度は、ニュース記事の更新頻度と、ニュース記事の更新頻度を予測するモデルを組み合わせている。
- CTC-based Compression for Direct Speech Translation
- Marco Gaido, Mauro Cettolo, Matteo Negri, Marco Turchi
- TLDR: 音声翻訳において、入力の音声を自動的にCNNで調整する研究。入力は音声の音声認識モデルで、音声の重みはCNNで調整する。音声の重みは、音声の音声認識モデルで調整する。音声の重みは、音声の音声認識モデルで調整する。
- A Crowdsourced Open-Source Kazakh Speech Corpus and Initial Speech Recognition Baseline
- Yerbolat Khassanov, Saida Mussakhojayeva, Almas Mirzakhmetov, Alen Adiyev, Mukhamet Nurpeiissov, Huseyin Atakan Varol
- TLDR: 自然言語処理で使われるKSCを、事前学習済みのデータセットから自動生成したデータセットに統合した研究。事前学習済みデータセットは、KSCのデータセットと同等の精度を維持できるか検証している。
- TDMSci: A Specialized Corpus for Scientific Literature Entity Tagging of Tasks Datasets and Metrics
- Yufang Hou, Charles Jochim, Martin Gleize, Francesca Bonin, Debasis Ganguly
- TLDR: 論文のタイトルから、タスク(T)、データセット(D)、評価指標(E)の3つのタスクを抽出する研究。タスクはタスクのEntityを入力とする。評価指標は、評価指標のEntityを入力とする。タスクは、評価指標のEntityを入力とする。評価指標のEntityは、評価指標のEntityを入力とする。
- Top-down Discourse Parsing via Sequence Labelling
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: 文書分類のタスクで、文書分類のモデルを強化した研究。文書分類は文書の分類器を用いて行うが、文書分類器は文書分類のタスクで使用される。文書分類器は文書分類器の重みを入力とし、文書分類器は文書分類器の重みを入力とし、文書分類器は文書分類器の重みを入力とし、文書分類器は文書分類器の重みを入力とし、文書分類器は文書分類器の重みを入力とし、文書分類器は文書分類器の重みを入力とし、文書分類器は文書分類器の重みを入力とし、
- Does the Order of Training Samples Matter? Improving Neural Data-to-Text Generation with Curriculum Learning
- Ernie Chang, Hui-Syuan Yeh, Vera Demberg
- TLDR: テキスト生成において、学習済みモデルの学習率を上げるために、学習済みモデルの学習率を上げるために必要な工夫をまとめた研究。学習率は学習済みモデルの学習率と同等の精度を維持するが、学習率を上げるためには学習済みモデルの学習率を上げることが重要。学習率を上げるためには、学習済みモデルの学習率を上げるために必要な工夫を取り入れている。
- TrNews: Heterogeneous User-Interest Transfer Learning for News Recommendation
- Guangneng Hu, Qiang Yang
- TLDR: ニュースを転移学習で学習する研究。転移学習は、ニュースの更新頻度(更新頻度が高い=更新頻度が高い)を予測するモデルで、更新頻度が高い=更新頻度が高い=更新頻度が高いと予測する。更新頻度が高い=更新頻度が高いと予測する。更新頻度が高い=更新頻度が高いと予測する。
- Dialogue Act-based Breakdown Detection in Negotiation Dialogues
- Atsuki Yamaguchi, Kosui Iwasa, Katsuhide Fujita
- TLDR: 対話システムの強化学習で、事前学習済みモデルを用いた研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを組み込んでいる。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを組み込んでいる。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを組み込んでいる。
- Neural Data-to-Text Generation with LM-based Text Augmentation
- Ernie Chang, Xiaoyu Shen, Dawei Zhu, Vera Demberg, Hui Su
- TLDR: テキスト生成において、学習済みモデルの学習済みモデルと同等の精度を達成するために、学習済みモデルの学習済みモデルを組み合わせる手法の提案。学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を達成できるが、学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を達成できない。
- Self-Training Pre-Trained Language Models for Zero- and Few-Shot Multi-Dialectal Arabic Sequence Labeling
- Muhammad Khalifa, Muhammad Abdul-Mageed, Khaled Shaalan
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルに学習させる研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルと同等の精度を維持できるが、事前学習済み言語モデルは学習済み言語モデルの学習済み言語モデルと同等の精度を維持できない。そのため、事前学習済み言語モデルを学習させるモデルを提案。
- Multiple Tasks Integration: Tagging, Syntactic and Semantic Parsing as a Single Task
- Timothée Bernard
- TLDR: マルチタスクのモデルで、事前学習済みモデルと同等の手法を提案。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを複数回行う。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを複数回行う。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを複数回行う。
- Coordinate Constructions in English Enhanced Universal Dependencies: Analysis and Computational Modeling
- Stefan Grünewald, Prisca Piccirilli, Annemarie Friedrich
- TLDR: 強化学習で、文中の単語を学習する手法の提案。文中の単語を学習する際は、文中の単語を学習する際のルールを学習する。ルールは、文中の単語を学習する際のルールと、文中の単語を学習する際のルールをそれぞれ学習する。学習は、文中の単語を学習する際のルールを学習する。
- Ellipsis Resolution as Question Answering: An Evaluation
- Rahul Aralikatte, Matthew Lamm, Daniel Hardt, Anders Søgaard
- TLDR: 質問回答を行う際に、文中の単語を順番に順番に順番に質問するモデルを提案。順番に質問するのではなく、順番に質問する形で質問を解く。質問は質問文を順番に入力し、質問文を順番に順番に質問する形で行う。質問文を順番に入力し、順番に質問する形で学習を行う。
- Jointly Improving Language Understanding and Generation with Quality-Weighted Weak Supervision of Automatic Labeling
- Ernie Chang, Vera Demberg, Alex Marin
- TLDR: 自然言語処理モデルの学習を、学習済みモデルの学習に組み込んだ研究。学習済みモデルの学習は、学習済みモデルの学習済みモデルの学習済みモデルの学習に組み込む。学習済みモデルの学習は、学習済みモデルの学習済みモデルの学習に組み込む。学習済みモデルの学習は、学習済みモデルの学習済みモデルの学習に組み込む。
- Continuous Learning in Neural Machine Translation using Bilingual Dictionaries
- Jan Niehues
- TLDR: 機械翻訳において、単純なOne-shotではなく、複数回の学習を行なっている研究。単純なOne-shotは単なる学習ではなく、複数回の学習を行なっている。複数回の学習は、翻訳の精度を上げるためには有効な手法であるとしている。
- Adv-OLM: Generating Textual Adversaries via OLM
- Vijit Malik, Ashwani Bhat, Ashutosh Modi
- TLDR: 自然言語処理モデルに対するAdversarial Exampleの攻撃手法の提案。Adversarial Exampleは、単語の意味を予測するモデルで、単語の意味を予測するモデルは、単語の意味を予測するモデルで、単語の意味を予測するモデルは、単語の意味を予測するモデルで行う。
- Conversational Question Answering over Knowledge Graphs with Transformer and Graph Attention Networks
- Endri Kacupaj, Joan Plepi, Kuldeep Singh, Harsh Thakkar, Jens Lehmann, Maria Maleshkova
- TLDR: 質問回答を行う際に、Transformerを用いた研究。Transformerは、質問文の文脈を予測するモデルで、質問文の文脈を予測するモデルは、質問文の文脈を予測するモデルで、文脈の予測は、質問文の文脈を予測するモデルで行う。
- DRAG: Director-Generator Language Modelling Framework for Non-Parallel Author Stylized Rewriting
- Hrituraj Singh, Gaurav Verma, Aparna Garimella, Balaji Vasan Srinivasan
- TLDR: 文スタイルを生成する研究。文スタイルは、文のスタイルを生成する際のターゲット属性と、文スタイルを生成する際のターゲット属性を区別する。ターゲット属性は、文スタイルの生成に使用する。文スタイルは、文スタイルの生成に使用する。文スタイルは、文スタイルの生成に使用する。
- Leveraging Passage Retrieval with Generative Models for Open Domain Question Answering
- Gautier Izacard, Edouard Grave
- TLDR: 自然言語処理で文書を検索する際、文書の文書分布を考慮する研究。文書分布は文書の文書分布と同等か、文書分布は文書分布と同等かを検証した研究。文書分布は文書分布と同等か、文書分布は文書分布と同等かを検証した研究。文書分布は文書分布と同等か、文書分布は文書分布と同等かを検証した研究。文書分布は文書分布と同等か、文書分布は文書分布と同等かを検証した研究。文書分布は文書分布と同等か、文書分布は文書分布と同等かを検証した研究。
- Clinical Outcome Prediction from Admission Notes using Self-Supervised Knowledge Integration
- Betty van Aken, Jens-Michalis Papaioannou, Manuel Mayrdorfer, Klemens Budde, Felix Gers, Alexander Loeser
- TLDR: 医療従事者にとって、病理診断の結果から入院先の対応を予測する研究。入院先の対応は、患者の状態、入院先の医療従事者の状態、入院先の医療従事者の状態、入院先の医療従事者の状態、入院先の医療従事者の状態、など様々な要因から予測する。
- Combining Deep Generative Models and Multi-lingual Pretraining for Semi-supervised Document Classification
- Yi Zhu, Ehsan Shareghi, Yingzhen Li, Roi Reichart, Anna Korhonen
- TLDR: 文書分類タスクで、事前学習済みモデルとマルチ言語の事前学習を組み合わせた研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を維持できない。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できる。
- Multi-facet Universal Schema
- Rohan Paul, Haw-Shiuan Chang, Andrew McCallum
- TLDR: 文中の単語を、複数のフレーズに分割して表現する研究。フレーズのベクトルは、文中の単語を意味する単語(単語の意味は、単語の意味のベクトルに置き換えられる)と、文中の単語を意味する単語(単語の意味は、単語の意味のベクトルに置き換えられる)の2つに分割し、フレーズのベクトルを結合する形で表現する。
- Exploring Transitivity in Neural NLI Models through Veridicality
- Hitomi Yanaka, Koji Mineshima, Kentaro Inui
- TLDR: 自然言語処理におけるTransitivityの研究。Transitivityは、文中の単語を予測する際の予測精度を上げるための重要な要素である。そのため、文中の単語を予測するモデルを学習する。学習済みモデルはTransitivityの精度が低い傾向があるが、この傾向は、文中の単語を予測するモデルの精度に近いとしている。
- A Neural Few-Shot Text Classification Reality Check
- Thomas Dopierre, Christophe Gravier, Wilfried Logerais
- TLDR: 自然言語処理で使われるモデルについて、その性能を検証した研究。モデルは、TransformerベースのEncoderで、TransformerベースのEncoderは、通常のEncoderと同等のEncoderを使用。TransformerベースのEncoderは、通常のEncoderより精度が劣る。
- Multilingual Machine Translation: Closing the Gap between Shared and Language-specific Encoder-Decoders
- Carlos Escolano, Marta R. Costa-jussà, José A. R. Fonollosa, Mikel Artetxe
- TLDR: マルチタスクの翻訳を行う際に、言語共通のEncoderDecoderを導入する研究。翻訳のEncoderDecoderは、翻訳のEncoderDecoderと同等の構造を取っており、翻訳のEncoderDecoderは、翻訳のEncoderDecoderと同等の構造を取っている。
- Clustering Word Embeddings with Self-Organizing Maps. Application on LaRoSeDa - A Large Romanian Sentiment Data Set
- Anca Tache, Gaman Mihaela, Radu Tudor Ionescu
- TLDR: 自然言語処理で、評価の分類を行う際に、評価の分類方法と評価の分類結果を比較した研究。評価の分類は、評価の分類結果を評価の分類結果と比較し、評価結果を評価の分類結果と比較し、評価結果を評価の分類結果と比較し、評価結果を評価の分類結果と比較し、評価結果を評価の分類結果と比較し、評価結果を評価の分類結果と比較し、評価の分類結果を評価の分類結果と比較し、評価の分類結果を評価の分類結果と比較し、評価の分類結果を評価の分類結果と比較し、評価の分類結果を評価の分類結果と
- Elastic weight consolidation for better bias inoculation
- James Thorne, Andreas Vlachos
- TLDR: 自然言語処理で、学習済みモデルの挙動を緩和する手法の提案。学習済みモデルの挙動を緩和するEasy Weight Consolidation(EWC)を導入し、モデルの挙動を緩和する。EWCは、学習済みモデルの挙動を緩和するだけでなく、モデルの挙動を緩和する効果も得られることを確認。
- Hierarchical Multi-head Attentive Network for Evidence-aware Fake News Detection
- Nguyen Vo, Kyumin Lee
- TLDR: マルチワードのニュースを検証する研究。マルチワードのニュースを検証する際、文書レベルのAttentionと文書レベルのAttentionを併用する。文書レベルのAttentionは文書レベルのAttentionと同等の効果があり、文書レベルのAttentionは文書レベルのAttentionと同等の効果がある。文書レベルのAttentionは文書レベルのAttentionと同等の効果があり、文書レベルのAttentionは文書レベルのAttentionと同等の効果がある。
- Identifying Named Entities as they are Typed
- Ravneet Arora, Chen-Tse Tsai, Daniel Preotiuc-Pietro
- TLDR: 自然言語処理で、Entityを認識する研究。Entityの生成は文単位ではなく、文全体を入力とする。文の文長が短い場合、Entityの生成は文長の入力に近い文長を入力とする。文長が長い場合、Entityの生成は文長の入力に近い文長を入力とする。
- SANDI: Story-and-Images Alignment
- Sreyasi Nag Chowdhury, Simon Razniewski, Gerhard Weikum
- TLDR: 画像をテキストに置き換える研究。画像はテキストに置き換えられるが、テキストは画像の画像を認識する。画像をテキストに置き換える際は、画像の画像をテキストに置き換える(テキストはテキストの画像を認識する)。テキストはテキストの画像認識を学習する。
- Question and Answer Test-Train Overlap in Open-Domain Question Answering Datasets
- Patrick Lewis, Pontus Stenetorp, Sebastian Riedel
- TLDR: オープンドメインのQAモデルで学習済みモデルと同等の性能を発揮できるか検証した研究。学習済みモデルは学習済みモデルの学習済みモデルと同等の性能を発揮できるが、学習済みモデルは学習済みモデルの学習済みモデルと同等の性能を発揮できない。学習済みモデルは学習済みモデルの学習済みモデルと同等の性能を発揮できるが、学習済みモデルは学習済みモデルの学習済みモデルと同等の性能を発揮できない。
- El Volumen Louder Por Favor: Code-switching in Task-oriented Semantic Parsing
- Arash Einolghozati, Abhinav Arora, Lorena Sainz-Maza Lecanda, Anuj Kumar, Sonal Gupta
- TLDR: 翻訳モデルの学習率を上げるために、事前学習済みモデルを強化する手法を提案。事前学習済みモデルは翻訳モデルの学習率を上げるのに有効だが、学習済みモデルは翻訳モデルの学習率を上げるのに有効なモデルと見なせている。事前学習済みモデルは翻訳モデルの学習率を上げるのに有効だが、学習済みモデルは学習率を上げるのに有効なモデルと見なせている。
- Generating Syntactically Controlled Paraphrases without Using Annotated Parallel Pairs
- Kuan-Hao Huang, Kai-Wei Chang
- TLDR: 自然言語処理で、文中のparaphraseを自動生成する研究。文中のparaphraseは、文中の単語を入力に含む文空間を、文中のparaphraseを入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力に含む文空間を入力
- Data Augmentation for Hypernymy Detection
- Thomas Kober, Julie Weeds, Lorenzo Bertolini, David Weir
- TLDR: 自然言語処理における、ハイパーパラメーターの認識を強化する研究。ハイパーパラメーターの表現を、単語の表現と同等に扱うことで、学習データの拡張が可能。学習データの拡張は、学習済みモデルの学習データと同等精度を達成できるか検証している。
- Few-shot learning through contextual data augmentation
- Farid Arthaud, Rachel Bawden, Alexandra Birch
- TLDR: 翻訳モデルの学習を、事前学習済み言語モデルの学習に置き換える研究。事前学習済み言語モデルは、翻訳文の単語分布を予測するモデルで、学習済み言語モデルは学習済み言語モデルの単語分布を予測するモデルで学習する。学習済み言語モデルは、学習済み言語モデルの学習済み単語分布を予測するモデルで学習する。
- Zero-shot Generalization in Dialog State Tracking through Generative Question Answering
- Shuyang Li, Jin Cao, Mukund Sridhar, Henghui Zhu, Shang-Wen Li, Wael Hamza, Julian McAuley
- TLDR: マルチドメインのタスクで、タスクに応じたスコアを自動計算する研究。スコアはスコアの予測に使用される、スコアの予測はスコアの予測に使用される、スコアの予測はスコアの予測に使用される、という3つの条件を考慮している。スコアの予測はスコアの予測に使用される、という2つの条件を考慮している。
- Zero-shot Neural Passage Retrieval via Domain-targeted Synthetic Question Generation
- Ji Ma, Ivan Korotkov, Yinfei Yang, Keith Hall, Ryan McDonald
- TLDR: 文書検索において、事前学習済みモデルをベースに学習する手法の提案。文書の検索結果を、文書の検索結果と類似度を比較し、文書の検索結果をベースに学習する。文書の検索結果は文書分類機で抽出、文書分類機は文書分類機で抽出、文書分類機は文書分類機で抽出、文書分類機は文書分類機で抽出、文書分類機は文書分類機で抽出、文書分類機は文書分類機で抽出、文書分類機は文書分類機で抽出、文書分類機は文書分類機で抽出、文書分類機は文書分類機で抽出、文書分類機
- Discourse-Aware Unsupervised Summarization for Long Scientific Documents
- Yue Dong, Andrei Mircea, Jackie Chi Kit Cheung
- TLDR: 論文の要約を、自然言語処理で行う研究。要約は文書全体ではなく、文書の要約をグラフで表現する。要約は文書全体を表現するが、文書全体を表現するグラフは文書全体を表現する。要約は文書全体を表現するが、文書全体を表現するグラフは文書全体を表現する。
- MIDAS: A Dialog Act Annotation Scheme for Open Domain HumanMachine Spoken Conversations
- Dian Yu, Zhou Yu
- TLDR: 対話システムの自動生成を行う際に、対話システムの行動予測モデルを用いた研究。対話システムの行動予測モデルは、対話システムの行動予測モデルと同等のモデルを用いている。対話システムの行動予測モデルは、対話システムの行動予測モデルと同等のモデルを用いている。
- Analyzing the Forgetting Problem in Pretrain-Finetuning of Open-domain Dialogue Response Models
- Tianxing He, Jun Liu, Kyunghyun Cho, Myle Ott, Bing Liu, James Glass, Fuchun Peng
- TLDR: 事前学習済みモデルが、事前学習済み言語モデルの学習に失敗する現象を検証した研究。事前学習済みモデルは学習時に学習する言語モデルの学習率が低いため、学習率を上げるために事前学習済みモデルの学習率を上げる手法を提案している。事前学習済みモデルの学習率を上げるために、事前学習済みモデルの学習率を上げる手法を提案している
- Leveraging End-to-End ASR for Endangered Language Documentation: An Empirical Study on Yolóxochitl Mixtec
- Jiatong Shi, Jonathan D. Amith, Rey Castillo García, Esteban Guadalupe Sierra, Kevin Duh, Shinji Watanabe
- TLDR: 音声認識で、End-to-Endの自動翻訳を行う研究。音声認識は言語モデルが限られているため、翻訳の精度が低い場合に限界がある。そのため、翻訳の精度を上げるために、翻訳モデルを自動翻訳するモデルと、翻訳モデルを学習させるための学習済みモデルを組み合わせたモデルを提案している。
- Mode Effects’ Challenge to Authorship Attribution
- Haining Wang, Allen Riddell, Patrick Juola
- TLDR: 文書作成時に、オンライン/オフラインのどちらが良いかを検証した研究。オンラインの文書は文長、単語長、文質、文長、文長の3つの要素で特徴が異なるが、オフライン文書は文長、単語長、文質が異なる。オフライン文書は文長、単語長、文長が異なるが、文書の文長は別個に決定する。
- Generative Text Modeling through Short Run Inference
- Bo Pang, Erik Nijkamp, Tian Han, Ying Nian Wu
- TLDR: 自然言語処理で、文の生成を行う際に、事前学習済みモデルを学習させる手法の提案。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成を行うが、事前学習済みモデルは予測結果を基に生成を行う。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成を行うが、事前学習済みモデルは予測結果を基に生成を行う。
- Detecting Extraneous Content in Podcasts
- Sravana Reddy, Yongze Yu, Aasish Pappu, Aswin Sivaraman, Rezvaneh Rezapour, Rosie Jones
- TLDR: ニュースや音楽から抽出されるテキストを検出する研究。テキストは、ニュース/音楽から抽出されるテキストを分類する。テキストは、ニュース/音楽から抽出されるテキストを分類する。ニュース/音楽から抽出されるテキストは、ニュース/音楽から抽出されるテキストを分類する。
- Randomized Deep Structured Prediction for Discourse-Level Processing
- Manuel Widmoser, Maria Leonor Pacheco, Jean Honorio, Dan Goldwasser
- TLDR: 文構造を予測するモデルを、文構造を予測するモデルと組み合わせる手法の提案。文構造は文構造の予測に適したモデルで、文構造の予測は文構造の予測に適したモデルで行う。文構造は文構造の予測に適したモデルで行う。文構造の予測は文構造の予測に適したモデルで行う。
- Automatic Data Acquisition for Event Coreference Resolution
- Prafulla Kumar Choubey, Ruihong Huang
- TLDR: ニュース記事から、ニュースのタイトル/ニュース記事のタイトル/タイトルベクトルを自動生成する研究。ニュース記事のタイトル/タイトルベクトルは、ニュース記事のタイトル/ニュース記事ベクトルから生成する。タイトル/タイトルベクトルは、ニュース記事のタイトル/ニュース記事ベクトルから生成する。
- Joint Learning of Representations for Web-tables, Entities and Types using Graph Convolutional Network
- Aniket Pramanick, Indrajit Bhattacharya
- TLDR: テーブルの構造をグラフで表現する研究。テーブルの構造は、テーブルの各要素(Entity)と、テーブルの各要素(Graph)の位置関係を表すベクトル(Attention)で表現する。このベクトルを、テーブルの各要素(Entity)とAttentionの位置関係を表すベクトル(Attention)に変換し、Attentionの位置関係を表すベクトルに変換する。
- Multimodal Text Style Transfer for Outdoor Vision-and-Language Navigation
- Wanrong Zhu, Xin Wang, Tsu-Jui Fu, An Yan, Pradyumna Narayana, Kazoo Sone, Sugato Basu, William Yang Wang
- TLDR: 自然言語処理で、自然言語処理のタスクで使用するMultModal Text Style Transfer(MTST)を提案。学習データはGoogle Map APIで、学習はGoogle Map APIの事前学習済みモデルで行い、事前学習済みモデルで学習したモデルで学習する。
- ECOL-R: Encouraging Copying in Novel Object Captioning with Reinforcement Learning
- Yufei Wang, Ian Wood, Stephen Wan, Mark Johnson
- TLDR: 画像のキャプチャーで、新しい物体を発見した際に、それをコピーする研究。画像のキャプチャーで、キャプチャー中の物体をコピーする際は、キャプチャーのキャプチャー特徴をコピーする(コピーは、画像のキャプチャー特徴をコピーする)。学習済みモデルを学習する際は、キャプチャー特徴をコピーするモデルを学習する。
- Enriching Non-Autoregressive Transformer with Syntactic and Semantic Structures for Neural Machine Translation
- Ye Liu, Yao Wan, Jianguo Zhang, Wenting Zhao, Philip Yu
- TLDR: 自然言語処理における、文構造と文構造の類似度を考慮した研究。文構造は、文構造の類似度を考慮したモデルで学習する。文構造は、文構造の類似度を考慮したモデルで学習する。文構造は、文構造の類似度を考慮したモデルで学習する。文構造は、文構造の類似度を考慮したモデルで学習する。
- NLQuAD: A Non-Factoid Long Question Answering Data Set
- Amir Soleimani, Christof Monz, Marcel Worring
- TLDR: 事前学習済み言語モデルで、長い質問回答を解く研究。質問文を短い文に分割し、質問文の長さと質問文の長さを比較し、長くなるほど長くなる質問を解く。長くなるほど長くなる質問を解くモデルを、事前学習済み言語モデルと比較し、事前学習済み言語モデルの精度を上回る結果。
- Debiasing Pre-trained Contextualised Embeddings
- Masahiro Kaneko, Danushka Bollegala
- TLDR: 事前学習済みのコンテキストマッチで、事前学習済みのコンテキストマッチの誤差を除去する手法の提案。既存の手法は、事前学習済みのコンテキストマッチの誤差を除去するが、この手法は誤差を除去する。誤差を除去する手法は、事前学習済みのコンテキストマッチを除去する手法と同等である。
- Language Models for Lexical Inference in Context
- Martin Schmitt, Hinrich Schütze
- TLDR: 自然言語処理で、文の類似度を推定するタスクの提案。文の類似度は、文の意味と単語の意味の2つに分割される。この2つの単語を、文の意味と単語の意味の2つに分割し、文の意味と単語の意味の2つに分割する。文の意味と単語の意味の2つを、文の意味と単語の意味の2つに分割し、文の意味と単語の意味の2つに分割する。
- Few-Shot Semantic Parsing for New Predicates
- Zhuang Li, Lizhen Qu, Shuo Huang, Gholamreza Haffari
- TLDR: 教師なし学習で、学習データセットの学習率を上げるために、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、学習データセットの学習率を上げるためには、
- Alternating Recurrent Dialog Model with Large-scale Pre-trained Language Models
- Qingyang Wu, Yichi Zhang, Yu Li, Zhou Yu
- TLDR: 対話システムのモデルを、事前学習済み言語モデルに置き換える研究。事前学習済み言語モデルは、事前学習済み言語モデルの予測結果を基に、質問に対する回答を予測する。質問に対する回答は、質問に対する回答と同等の予測結果を得られるよう、事前学習済み言語モデルを用いている。
- On the Evaluation of Vision-and-Language Navigation Instructions
- Ming Zhao, Peter Anderson, Vihan Jain, Su Wang, Alexander Ku, Jason Baldridge, Eugene Ie
- TLDR: 自動生成のタスクを評価する指標の提案。タスクの生成は、タスクの生成結果と学習結果の相関が最も近いものから行う。タスクの生成結果は、タスクの生成結果と学習結果の相関が最も近いものから行う。タスクの生成結果は、タスクの生成結果と学習結果の相関が最も近いものから行う。
- Cross-lingual Visual Pre-training for Multimodal Machine Translation
- Ozan Caglayan, Menekse Kuyu, Mustafa Sercan Amac, Pranava Madhyastha, Erkut Erdem, Aykut Erdem, Lucia Specia
- TLDR: マルチモーダルで翻訳を行う際に、事前学習済みモデルを用いた研究。事前学習済みモデルは、事前学習済みモデルの学習済み言語モデルと同等の精度を維持できるが、事前学習済みモデルは学習済み言語モデルの学習済み言語モデルと同等の精度を維持できない。そのため、事前学習済みモデルを用いた事前学習を提案している。
- Memorization vs. Generalization : Quantifying Data Leakage in NLP Performance Evaluation
- Aparna Elangovan, Jiayuan He, Karin Verspoor
- TLDR: 自然言語処理で、学習データの過適合を防ぐ研究。学習データの過適合は、学習データの精度が低い場合に起こりうる。過適合は、学習データの過適合による学習結果の誤差を加味する。過適合は、学習データの過適合による学習結果の誤差を加味する。
- An Expert Annotated Dataset for the Detection of Online Misogyny
- Ella Guest, Bertie Vidgen, Alexandros Mittos, Nishanth Sastry, Gareth Tyson, Helen Margetts
- TLDR: ネット上の表現に対する分類器の提案。分類器は、投稿文/コメントの分類器と、投稿記事に対する分類器の分類器分類器の分類器を統合し、分類器の分類器を分類器分類器に統合する。分類器は、分類器分類器の分類器分類器をベースに、分類器分類器の分類器分類器をベースに分類器分類器分類器をベースに分類器分類器分類器をベースに分類器分類器分類器をベースに分類器分類器分類器をベースに分類器分類器分類器をベースに分類器分類器分類器をベースに分類器分類器分類器をベースに
- WikiMatrix: Mining 135M Parallel Sentences in 1620 Language Pairs from Wikipedia
- Holger Schwenk, Vishrav Chaudhary, Shuo Sun, Hongyu Gong, Francisco Guzmán
- TLDR: 多言語の文を自動生成する研究。Wikipediaの記事から文を自動生成する。文の生成は、文のEncoder/Decoderの2つを用いている。Decoderは文のEncoder/Decoderの2つを用いている。Decoderは文のEncoder/Decoderの2つを用いている。
- ChEMU-Ref: A Corpus for Modeling Anaphora Resolution in the Chemical Domain
- Biaoyan Fang, Christian Druckenbrodt, Saber A Akhondi, Jiayuan He, Timothy Baldwin, Karin Verspoor
- TLDR: 化学物質のベンチマークの翻訳を、翻訳文から翻訳した文書を翻訳する研究。翻訳文は翻訳文の翻訳文と同等の文書構造を持つが、翻訳文は翻訳文の翻訳文と同等の文書構造を持つ。翻訳文は文書構造を表す単語を含まないが、文書構造を表す単語を含まない文書は含まない。
- Syntactic Nuclei in Dependency Parsing – A Multilingual Exploration
- Ali Basirat, Joakim Nivre
- TLDR: 自然言語処理における、自然言語処理のモデルの提案。単語は、文の最初の単語から始まり、文の最後の単語から始まり、文の最後の単語から最終単語までを含む。単語の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、文の表現を、
- Searching for Search Errors in Neural Morphological Inflection
- Martina Forster, Clara Meister, Ryan Cotterell
- TLDR: 言語モデルの学習時に、入力の入力が空になる現象を検証した研究。入力は入力と同等の構造を持つが、入力は入力と同等の構造を持つ単語を入力とする。入力は入力と同等の構造を持つ単語を入力とするが、入力は入力と同等の構造を持つ単語を入力とする。入力は入力と同等の構造を持つ単語を入力とする。
- Quantifying Appropriateness of Summarization Data for Curriculum Learning
- Ryuji Kano, Takumi Takahashi, Toru Nishino, Motoki Taniguchi, Tomoki Taniguchi, Tomoko Ohkuma
- TLDR: 翻訳における、学習データのノイズを計測する研究。ノイズは単なるノイズではなく、学習データのノイズに由来する。ノイズは、学習データのノイズと、学習データのノイズの2つに分けられる。ノイズは、学習データのノイズと、学習データのノイズの2つに由来する。
- Evaluating language models for the retrieval and categorization of lexical collocations
- Luis Espinosa Anke, Joan Codina-Filba, Leo Wanner
- TLDR: 自然言語処理における、マルチモーメントのマルチタスクの理解について調査した研究。マルチモーメントの単語は、通常の文法分類では扱えない。そこで、マルチモーメントの単語を含まない単語を抽出するBERTを用いた研究。マルチモーメントの単語は、通常の文法分類では扱えない。そこで、マルチモーメントの単語を含まない単語を抽出するBERTを用いている。
- BART-TL: Weakly-Supervised Topic Label Generation
- Cristian Popa, Traian Rebedea
- TLDR: 事前学習済みモデルを、既存のタスクに組み込んだ研究。タスクはタスク分類で、タスクの分類結果をベースにタスクを生成する。タスクはタスク分類の分類結果をベースに、タスクの分類結果をベースにタスクを生成する。タスクはタスク分類の分類結果をベースに、タスク分類結果をベースにタスクを生成する。タスクはタスク分類の分類結果をベースに、タスク分類結果をベースにタスクを生成する。タスクはタスク分類の分類結果をベースに、タスク分類結果をベースにタスク分類を行う。タスクはタスク
- Dynamic Graph Transformer for Implicit Tag Recognition
- Yi-Ting Liou, Chung-Chi Chen, Hen-Hsen Huang, Hsin-Hsi Chen
- TLDR: 自然言語処理で、自然言語処理の文書と関係を持つ文書を結合する研究。文書の文書構造を、文書の文書構造と関係を持つ文書構造に置き換える。文書構造は文書構造と関係を持つ文書構造を結合する形で、文書構造と関係を持つ文書構造を結合する。文書構造は文書構造と関係を持つ文書構造を結合する形で作成している
- Implicit Unlikelihood Training: Improving Neural Text Generation with Reinforcement Learning
- Evgeny Lagutin, Daniil Gavrilov, Pavel Kalaidin
- TLDR: 自然言語処理で、学習時間と生成時間のバランスを調整する研究。学習時間と生成時間のバランスを調整する際、学習時間と生成時間のバランスを調整する。学習時間と生成時間のバランスを調整する際、学習時間と生成時間のバランスを調整する。生成時間と生成時間のバランスを調整する際、学習時間と生成時間のバランスを調整する。
- Civil Rephrases Of Toxic Texts With Self-Supervised Transformers
- Léo Laugier, John Pavlopoulos, Jeffrey Sorensen, Lucas Dixon
- TLDR: 自然言語処理で、不適なコメントを削除する研究。不適なコメントは、削除対象としていないか、また、削除対象としていないかを検証する。不適なコメントは、削除対象としていないか、また、削除対象としていないかを検証する。不適なコメントは、削除対象としていないかを検証する。
- Generating Weather Comments from Meteorological Simulations
- Soichiro Murakami, Sora Tanaka, Masatsugu Hangyo, Hidetaka Kamigaito, Kotaro Funakoshi, Hiroya Takamura, Manabu Okumura
- TLDR: 自然言語処理で、予測結果からフィードバックを生成する研究。予測結果を生成するEncoderは、予測結果を予測するEncoder(予測結果を予測するモデル)、フィードバックを予測するEncoder(モデル)、フィードバックを予測するモデル(モデル)、予測結果を予測するモデル(モデル)の3つに分けている。
- SICK-NL: A Dataset for Dutch Natural Language Inference
- Gijs Wijnholds, Michael Moortgat
- TLDR: 自然言語処理のモデルを評価する研究。翻訳モデルはSkipgram embeddingと、事前学習済みの単語分散表現を組み合わせたモデル。事前学習済みモデルは、単語分散表現を学習する際、単語分散表現を学習する際の重みを考慮していない。事前学習済みモデルは、単語分散表現を学習する際重みを考慮していない。
- A phonetic model of non-native spoken word processing
- Yevgen Matusevych, Herman Kamper, Thomas Schatz, Naomi Feldman, Sharon Goldwater
- TLDR: 自然言語処理で、言語の異なる2言語の潜在表現を学習する研究。通常の自然言語処理では、単語の予測が困難なケースがある。この場合、言語の予測が困難なケースを想定し、言語の予測を誤らせるような処理を行わず、言語の予測が困難なケースを想定した処理を行なっている。
- Bootstrapping Relation Extractors using Syntactic Search by Examples
- Matan Eyal, Asaf Amrami, Hillel Taub-Tabib, Yoav Goldberg
- TLDR: 教師なし学習で、モデルの学習を効率化する手法の提案。モデルは、モデルの学習済みモデルと同等の検索エンジンを使用したモデルを構築する。検索エンジンは、モデルの学習済みモデルと同等の検索エンジンを使用したモデルを構築する。モデルは、モデルの学習済みモデルと同等の検索エンジンを使用したモデルを構築する。
- Towards a Decomposable Metric for Explainable Evaluation of Text Generation from AMR
- Juri Opitz, Anette Frank
- TLDR: 自然言語処理で、テキストからAMRを生成する際の評価手法を提案。入力テキストからAMRを生成する際は、入力テキストからAMRを生成するテキストを予測するモデルを用いることで、入力テキストからAMRを生成するモデルを自動生成する。
- The Source-Target Domain Mismatch Problem in Machine Translation
- Jiajun Shen, Peng-Jen Chen, Matthew Le, Junxian He, Jiatao Gu, Myle Ott, Michael Auli, Marc’Aurelio Ranzato
- TLDR: 翻訳におけるドメインの偏りが、翻訳の精度にどのような影響を及ぼしているのかを調べた研究。ドメインの偏りは、翻訳の精度に大きな影響を及ぼす。また、翻訳の精度が低下する原因として、翻訳の学習率が低い言語(低リソース)に依存することがある。
- Cross-Topic Rumor Detection using Topic-Mixtures
- Xiaoying Ren, Jing Jiang, Ling Min Serena Khoo, Hai Leong Chieu
- TLDR: マルチタスクのニュース検知を行う際に、事前学習済みモデルと同等の手法を提案。事前学習済みモデルは、事前学習済みモデルの予測結果を基に予測を行うが、事前学習済みモデルは予測結果を基に予測を行う。事前学習済みモデルは、事前学習済みモデルの予測結果を基に予測を行うが、事前学習済みモデルは予測結果を基に予測を行う。
- Understanding Pre-Editing for Black-Box Neural Machine Translation
- Rei Miyata, Atsushi Fujita
- TLDR: 機械翻訳において、事前編集を行う際にどんな工夫が行なわれているのかを調査した研究。事前編集は、翻訳文の意味理解に有効なだけでなく、翻訳文の構造をよくするなど、様々な面で有効性を確認。事前編集は、翻訳文の構造をよくするだけでなく、翻訳文の文法構造をよくするなど、様々な面で有効性を確認。
- RelWalk - A Latent Variable Model Approach to Knowledge Graph Embedding
- Danushka Bollegala, Huda Hakami, Yuichi Yoshida, Ken-ichi Kawarabayashi
- TLDR: 知識グラフの表現を、自然言語処理で学習する研究。自然言語処理では、単語の表現を単語ベクトルに変換し、そのベクトルを単語ベクトルの表現に変換する。この表現を、単語ベクトルの表現と、単語ベクトルの表現の2つに分けて学習する。
- Few-shot Learning for Slot Tagging with Attentive Relational Network
- Cennet Oguz, Ngoc Thang Vu
- TLDR: 自然言語処理で、Attentionを用いたタスクの提案。Attentionは、Attentionの表現を学習するネットワークの一種で、Attentionは、Attentionの表現を学習するネットワークの一種。Attentionは、Attentionの表現を学習するネットワークの一種で、Attentionの表現を学習するネットワークの一種。
- SpanEmo: Casting Multi-label Emotion Classification as Span-prediction
- Hassan Alhuzali, Sophia Ananiadou
- TLDR: マルチラベルの感情分類を行う研究。単語のラベルを複数ラベルに分割し、ラベルのラベルを入力とする。ラベルのラベルは単語の意味を表す単語のラベルと、単語のラベルのラベルを入力とする単語のラベルの2つに分割し、ラベルのラベルを入力とする単語のラベルの2つに分割する。
- Exploiting Position and Contextual Word Embeddings for Keyphrase Extraction from Scientific Papers
- Krutarth Patel, Cornelia Caragea
- TLDR: 論文タイトルをKeywordに変換する研究。KeywordはPageRankの枠組みで、PageRankはPageRankの位置情報と、PageRankの位置情報(positional)を組み合わせた分散表現を用いている。この分散表現を用いたKeyword抽出では、PageRankの位置情報とPageRankの位置情報の組み合わせが良かった。
- Benchmarking Machine Reading Comprehension: A Psychological Perspective
- Saku Sugawara, Pontus Stenetorp, Akiko Aizawa
- TLDR: 自然言語処理のモデルの解釈性を検証した研究。モデルの解釈性は、解釈性の枠組みで解釈性を測るのではなく、解釈性を測るための心理学的手法を用いている。解釈性は、解釈性の枠組みで測るのではなく、解釈性を測るための心理学的手法を用いている。
- Multilingual Neural Machine Translation with Deep Encoder and Multiple Shallow Decoders
- Xiang Kong, Adithya Renduchintala, James Cross, Yuqing Tang, Jiatao Gu, Xian Li
- TLDR: マルチタスクの翻訳で、深さと低さの差を上手く調整する研究。深さは通常のTransformerモデル(Transformer+DeepEncoder)と同等で、低さは通常のTransformerモデル(DeepEncoder)と同等で、低さは通常のTransformerモデル(DeepEncoder)と同等で調整する。
- With Measured Words: Simple Sentence Selection for Black-Box Optimization of Sentence Compression Algorithms
- Yotam Shichel, Meir Kalech, Oren Tsur
- TLDR: 文の長さを調整する研究。文長は文全体ではなく、文中の単語を含まない単語を含ませる単語を除く。単語の長さを調整する際は、単語の長さを考慮する。単語長は単語単位ではなく、単語単位の長さを考慮する。単語単位の長さは、文長が長い場合に最も適した長さになるよう調整する。
- WiC-TSV: An Evaluation Benchmark for Target Sense Verification of Words in Context
- Anna Breit, Artem Revenko, Kiamehr Rezaee, Mohammad Taher Pilehvar, Jose Camacho-Collados
- TLDR: マルチドメインのWordSenseの評価手法の提案。単語の意味を認識するモデル(WordSense)を、単語の意味を認識する単語分類器(WordSense)に入力し、単語分類器の予測結果をベースに評価を行う。単語分類器は、単語の意味を認識する単語分類器と、単語分類器の予測結果をベースに学習を行う。
- Self-Supervised and Controlled Multi-Document Opinion Summarization
- Hady Elsahar, Maximin Coavoux, Jos Rozen, Matthias Gallé
- TLDR: 文書の概要を自動生成する手法の提案。文書の概要は文書の分類/分類結果から生成されるが、文書の分類結果から生成される文書は文書分類結果から生成される。文書分類結果から生成される文書は文書分類結果から生成される文書と同等の文書分類結果から生成される。
- NewsMTSC: A Dataset for (Multi-)Target-dependent Sentiment Classification in Political News Articles
- Felix Hamborg, Karsten Donnay
- TLDR: ニュース記事に対する評価を分類する研究。評価は、ニュース記事のタイトル/記事のエンティティ/評価の3つに分類される。評価は、記事のタイトル/エンティティのエンティティティに対する評価を予測する。評価は、記事のタイトル/エンティティティに対する評価を予測する。評価は、記事のタイトル/エンティティティに対する評価を予測する。
- Cross-lingual Contextualized Topic Models with Zero-shot Learning
- Federico Bianchi, Silvia Terragni, Dirk Hovy, Debora Nozza, Elisabetta Fersini
- TLDR: マルチ言語の文書を扱う研究。文書の分類は、文書の分類器を学習する。文書分類器は文書分類の分類器と同等の役割を果たすが、文書分類器は文書分類器の役割を果たすかを検証する。文書分類器は文書分類器の役割を果たすかを検証する。文書分類器は文書分類器の役割を果たすかを検証する
- Dependency parsing with structure preserving embeddings
- Ákos Kádár, Lan Xiao, Mete Kemertas, Federico Fancellu, Allan Jepson, Afsaneh Fazly
- TLDR: 自然言語処理で、木構造を予測する研究。木構造は木の形状を表す木構造(木の枝刈りや木の枝刈りなど)と、木構造を表す木構造を表す木構造(木の枝刈り)の2つからなる。木構造は木構造と木構造の2つからなるが、木構造は木構造と木構造の2つからなる。木構造は木構造と木構造の2つからなる。
- Active Learning for Sequence Tagging with Deep Pre-trained Models and Bayesian Uncertainty Estimates
- Artem Shelmanov, Dmitri Puzyrev, Lyubov Kupriyanova, Denis Belyakov, Daniil Larionov, Nikita Khromov, Olga Kozlova, Ekaterina Artemova, Dmitry V. Dylov, Alexander Panchenko
- TLDR: 事前学習済みモデルを強化学習で使用する際、事前学習済みモデルの挙動を予測する手法と、事前学習済みモデルの挙動を予測する手法を比較した研究。挙動予測は、事前学習済みモデルの挙動を予測する手法と、事前学習済みモデルの挙動を予測する手法を比較している。挙動は、事前学習済みモデルの挙動を予測する手法と、事前学習済みモデルの挙動を予測する手法を比較している。
- MultiHumES: Multilingual Humanitarian Dataset for Extractive Summarization
- Jenny Paola Yela-Bello, Ewan Oglethorpe, Navid Rekabsaz
- TLDR: 自然言語処理の文書抽出モデルの研究。文書は文書から抽出される文書を、文書から抽出する文書を、文書から文書を文書に変換する形で作成している。文書は文書から抽出される文書を、文書から文書を文書に変換する文書を、文書から文書を文書に変換する文書を、文書から文書を文書に変換する文書を、文書から文書を文書に変換する文書を、文書から文書を文書に変換する文書を、文書から文書を文書に変換する文書を、文書から文書を文書に変換する文書を、文書から文書を文書に変換する文書を、文書から文書を文書に変換する
- Learning From Revisions: Quality Assessment of Claims in Argumentation at Scale
- Gabriella Skitalinskaya, Jonas Klaff, Henning Wachsmuth
- TLDR: 論文の評価について、各論文の評価指標を比較した研究。各論文の評価指標は、各論文の概ね同じ内容でまとめられているが、各論文の評価指標は、各論文の概ね同じ内容でまとめられている。また、各論文の評価指標は、各論文の概ね同じ内容でまとめられている。
- Few Shot Dialogue State Tracking using Meta-learning
- Saket Dingliwal, Shuyang Gao, Sanchit Agarwal, Chien-Wei Lin, Tagyoung Chung, Dilek Hakkani-Tur
- TLDR: 自然言語処理で、未知のタスクを学習する際の転移手法の提案。学習データの分散を考慮し、学習データの分散を考慮した転移を行う。転移は、タスクの重みを固定する形で行う。タスクは、タスクの重みを固定する形で行う。タスクは、タスクの重みを固定する形で行う。
- BERT Prescriptions to Avoid Unwanted Headaches: A Comparison of Transformer Architectures for Adverse Drug Event Detection
- Beatrice Portelli, Edoardo Lenzi, Emmanuele Chersoni, Giuseppe Serra, Enrico Santus
- TLDR: 医療文書の分類を行う際に、BERTとspanBERTを比較した研究。BERTはspanベースで、spanはPubMedBERTで学習したモデル。BERTはspanベースで学習したモデルと比較しても精度が良かった。
- Semantic Parsing of Disfluent Speech
- Priyanka Sen, Isabel Groves
- TLDR: 音声認識モデルで、自然言語処理で頻発する不自然な音声を除去する研究。音声認識モデルは、自然言語処理で頻発する不自然な音声を除去するモデルを構築しているが、これにより精度が向上し、精度が向上する。
- Joint Energy-based Model Training for Better Calibrated Natural Language Understanding Models
- Tianxing He, Bryan McCann, Caiming Xiong, Ehsan Hosseini-Asl
- TLDR: 自然言語処理で、エネルギーモデルの学習を行おうという研究。学習は、学習済みモデルのエネルギー関数を学習する形で行う。エネルギー関数は、学習済みモデルのエネルギー関数を学習する形で行う。学習は、学習済みモデルのエネルギー関数を学習する形で行う。
- What Sounds “Right” to Me? Experiential Factors in the Perception of Political Ideology
- Qinlan Shen, Carolyn Rose
- TLDR: 政治の言動を、経験からどう変えていくべきかを調査した研究。政治の言動は、ニュースや政治関連ニュースといった経験からどう変えていくべきかを調べた研究。経験から、政治の言動は、ニュースやニュースのニュースソースからの情報から変えていくべきかを調べた。結果として、経験から変えていくべきかを検証している。
- Language Models as Knowledge Bases: On Entity Representations, Storage Capacity, and Paraphrased Queries
- Benjamin Heinzerling, Kentaro Inui
- TLDR: 自然言語処理で、モデルの知識ベースを構築する際の課題と対策についてまとめた研究。モデルは、モデルの知識ベースと同等の役割を果たすことができるかを検証している。モデルは、モデルの知識ベースと同等の役割を果たすことができるかを検証している。
- Globalizing BERT-based Transformer Architectures for Long Document Summarization
- Quentin Grail, Julien Perez, Eric Gaussier
- TLDR: 文書から要約を行う際に、複数のTransformer windowsを組み合わせて要約を行う手法の提案。Transformer windowは、文書の要約を入力とする。要約は文書全体を入力とするが、文書全体を入力とする場合は要約を入力とする。要約は文書全体を入力とするが、文書全体を入力とする場合は要約を入力とする。
- Through the Looking Glass: Learning to Attribute Synthetic Text Generated by Language Models
- Shaoor Munir, Brishna Batool, Zubair Shafiq, Padmini Srinivasan, Fareed Zaffar
- TLDR: 自然言語処理で生成した文書を、モデルの作成者に付与する研究。生成した文書は、モデルの作成者に付与した文書と同等の文書を生成する。生成文書は、生成時に生成した文書の文書構造を認識する。生成文書は、生成文書の文書構造を認識するモデルの生成結果から生成する。
- We Need To Talk About Random Splits
- Anders Søgaard, Sebastian Ebert, Jasmijn Bastings, Katja Filippova
- TLDR: 自然言語処理で、複数回の分散学習を行わずに、単一の分散学習を行なうことで精度を落とさないようにする研究。単一の分散学習では、学習データの分散が過剰になる可能性がある。複数回の分散学習は、学習データの分散が過剰になる可能性があることを示唆している。
- How Certain is Your Transformer?
- Artem Shelmanov, Evgenii Tsymbalov, Dmitri Puzyrev, Kirill Fedyanin, Alexander Panchenko, Maxim Panov
- TLDR: 自然言語処理で、Monte Carlo dropoutを適用した研究。Monte Carlo dropoutは、予測結果の予測精度を上げるために有効な手法だが、Monte Carlo dropoutは、予測結果の精度を上げるためには有効な手法ではないかという提言。Monte Carlo dropoutは、予測結果の精度を上げるために有効な手法だが、Monte Carlo dropoutは、予測結果の精度を上げるために有効ではないかという提言。
- Alignment verification to improve NMT translation towards highly inflectional languages with limited resources
- George Tambouratzis
- TLDR: 翻訳モデルの学習を、学習済みモデルと学習済みモデルの組み合わせで行う研究。学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を維持できるが、学習済みモデルは学習済みモデルの精度を維持できない。そのため、学習済みモデルの学習済みモデルと学習済みモデルの組み合わせで学習する。
- Data Augmentation for Voice-Assistant NLU using BERT-based Interchangeable Rephrase
- Akhila Yerukola, Mason Bretan, Hongxia Jin
- TLDR: 自然言語処理で、BERTのようなSelf-Attentionモデルを用いた研究。BERTは、単語の意味を予測するモデルで、単語の意味を予測するモデルは、単語の意味を予測するモデルで、単語の意味を予測するモデルは、単語の意味を予測するモデルで、単語の意味を予測するモデルで行う。
- How to Evaluate a Summarizer: Study Design and Statistical Analysis for Manual Linguistic Quality Evaluation
- Julius Steen, Katja Markert
- TLDR: 文の要約を評価する手法について、各手法の評価方法とその効果について調査した研究。評価方法は、文の要約の精度(正確性)と文の長さ(長さ)を評価する手法と、文の長さ(長さ)を評価する手法の2つに分けている。評価は、文長/長さの差(長さ=長さ)を評価する手法と、長さ=長さの差(長さ=長さ)を評価する手法の2つに分けている。
- Open-Mindedness and Style Coordination in Argumentative Discussions
- Aviv Ben-Haim, Oren Tsur
- TLDR: 対話システムにおける言語モデルの変更と、オープン・ミニマインドの獲得の関係を調べた研究。対話システムは、言語モデルの変更とオープン・ミニマインドの獲得の関係を検証している。オープン・ミニマインドは、対話システムの役割を認識するうえで重要であるとしている。
- Error Analysis and the Role of Morphology
- Marcel Bollmann, Anders Søgaard
- TLDR: 自然言語処理では、自然言語処理のエラーを予測する手法の提案。通常のエラー予測は、自然言語の構造が複雑な言語に弱いことを前提としているが、この研究では、構造が複雑な言語に弱いことを前提としている。構造が複雑な言語では、自然言語の構造が弱いことを前提としている。
- Applying the Transformer to Character-level Transduction
- Shijie Wu, Ryan Cotterell, Mans Hulden
- TLDR: 文単位の翻訳で、転移学習で使用した研究。転移学習では、転移先の単語を入力とする単語ベクトルを入力とする。入力は単語ベクトルのベクトルを入力とする。入力は単語ベクトルのベクトルを入力とする。入力は単語ベクトルのベクトルを入力とする。
- Exploring Supervised and Unsupervised Rewards in Machine Translation
- Julia Ive, Zixu Wang, Marina Fomicheva, Lucia Specia
- TLDR: 翻訳モデルの学習率を改善する研究。学習率は学習データの分布分布を考慮するが、分布分布は学習データ分布の分布分布を考慮する。分布分布は学習データ分布の分布分布を考慮するが、分布分布の分布分布を考慮するモデルは学習データ分布の分布分布を考慮する。
- Us vs. Them: A Dataset of Populist Attitudes, News Bias and Emotions
- Pere-Lluís Huguet Cabot, David Abadi, Agneta Fischer, Ekaterina Shutova
- TLDR: 政治論理タスクにおける、SNSの行動と政治の反応の関係を調べた研究。SNSの行動は、政治の論理タスクに大きな影響を与える。SNSの行動は、政治の論理タスクに大きな影響を与える。そのため、行動と政治の反応の関係を調べた研究。行動は、政治の論理タスクに大きな影響を与える。
- Multilingual Entity and Relation Extraction Dataset and Model
- Alessandro Seganti, Klaudia Firląg, Helena Skowronska, Michał Satława, Piotr Andruszkiewicz
- TLDR: マルチ言語対応のデータセットSOTAを提案。BERTと、Entity タスクを組み合わせたBERTをベースに、Entity タスクをマルチ言語で行う。BERTは、Entity タスクの精度を上げるために、Entity タスクの精度を上げるために使用している。
- A New View of Multi-modal Language Analysis: Audio and Video Features as Text “Styles”
- Zhongkai Sun, Prathusha K Sarma, Yingyu Liang, William Sethares
- TLDR: 画像のスタイル変換を行う際に、画像のスタイルを変えた研究。画像のスタイルは、画像の色や背景の色など、様々な表現に適用できる。画像のスタイルは、画像の色や背景の色など、様々な表現に適用できる。
- Multilingual and cross-lingual document classification: A meta-learning approach
- Niels van der Heijden, Helen Yannakoudakis, Pushkar Mishra, Ekaterina Shutova
- TLDR: 事前学習済み言語の分類器を、事前学習済み言語の分類器に置き換える手法の提案。事前学習済み言語の分類器は、事前学習済み言語の分類器の分類精度を上げるのに有効なモデルだが、事前学習済み言語の分類器は、事前学習済み言語の分類器を学習するモデルと同等の性能を発揮する。
- Boosting Low-Resource Biomedical QA via Entity-Aware Masking Strategies
- Gabriele Pergola, Elena Kochkina, Lin Gui, Maria Liakata, Yulan He
- TLDR: 自然言語処理のモデルを、事前学習済み言語モデルに転移させる手法の提案。事前学習済み言語モデルは、自然言語処理のモデルと同等のモデルを学習する。事前学習済み言語モデルは、自然言語処理のモデルと同等のモデルを学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済みモデルと同等のモデルを学習する。
- Attention-based Relational Graph Convolutional Network for Target-Oriented Opinion Words Extraction
- Junfeng Jiang, An Wang, Akiko Aizawa
- TLDR: 評価文の評価単語を抽出する研究。評価文の文脈を、評価対象のopinion wordに依存するグラフから抽出する。評価対象のopinion wordは、opinion termの文脈から抽出する。この文脈を、opinion termの文脈から抽出する。評価対象のopinion wordは、opinion termの文脈から抽出する。
- “Laughing at you or with you”: The Role of Sarcasm in Shaping the Disagreement Space
- Debanjan Ghosh, Ritvik Shrivastava, Smaranda Muresan
- TLDR: 対話システムにおける、対話中の表現の分類について、対話結果を基に、対話結果と対話結果の類似度を比較した研究。対話結果は、対話結果と対話結果の類似度が近い場合に、対話結果と対話結果の類似度を比較した結果を基に、対話結果と類似度を比較した結果を基に、対話結果と類似度を比較した結果を基に、対話結果と類似度を比較した結果を基に、対話結果と類似度を比較した結果を基に、対話結果と類似度を比較した結果を基に、対話結果と
- Learning Relatedness between Types with Prototypes for Relation Extraction
- Lisheng Fu, Ralph Grishman
- TLDR: 関係分類の学習をマルチタスクで行う研究。関係分類は、関係の種類が異なるデータセットから学習する。各データセットの学習データ(関係の種類)を組み合わせて、関係分類の学習を行う。関係分類は、関係の種類が異なるデータセットから学習する。
- I Beg to Differ: A study of constructive disagreement in online conversations
- Christine De Kock, Andreas Vlachos
- TLDR: 対話システムで、対話中の発言が評価されるかを検証した研究。対話システムは、質問に対する回答が評価されるかを予測するモデルを構築している。質問に対する回答は、質問に対する回答の重みを平均し、評価は質問に対する回答の重みを平均する形で行う。
- Acquiring a Formality-Informed Lexical Resource for Style Analysis
- Elisabeth Eder, Ulrike Krieg-Holz, Udo Hahn
- TLDR: 文書の文書構造を、文法の分類から文書の分類までを統合した研究。文書分類は文書分類の枠組みで、文書分類は文書分類の枠組みで行われる。文書分類は文書分類の枠組みで行われるが、文書分類は文書分類の枠組みで行われる。文書分類は文書分類の枠組みで行われる。
- Probing into the Root: A Dataset for Reason Extraction of Structural Events from Financial Documents
- Pei Chen, Kang Liu, Yubo Chen, Taifeng Wang, Jun Zhao
- TLDR: ニュースから、イベントの因果推論を行うタスクの提案。文書レベルのニュースから、ニュースのタイトル/ニュースの関連度/関連度の推定を行なっている。文書レベルのニュースは、ニュースのタイトル/関連度/関連度の順で抽出する。文書レベルのニュースは、ニュースのタイトル/関連度/関連度の順で抽出する。
- Language Modelling as a Multi-Task Problem
- Lucas Weber, Jaap Jumelet, Elia Bruni, Dieuwke Hupkes
- TLDR: マルチタスク学習を行う際に、言語モデルの学習方法を検証した研究。言語モデルは、言語モデルの学習を学習する際のタスクを複数選択する(複数タスクは別々に学習する)。タスクは、言語モデルの学習を想定している。タスクは、言語モデルの学習を想定している。タスクは、言語モデルの学習を想定している。
- ChainCQG: Flow-Aware Conversational Question Generation
- Jing Gu, Mostafa Mirshekari, Zhou Yu, Aaron Sisto
- TLDR: 対話システムの質問回答を改善する研究。質問回答は質問の種類によって異なるが、通常の質問は質問の種類が異なるため、質問の種類を分類し、質問の分類結果をベースに質問の分類結果を生成する。質問の分類結果は、質問の分類結果と同等の精度を維持できる。
- The Interplay of Task Success and Dialogue Quality: An in-depth Evaluation in Task-Oriented Visual Dialogues
- Alberto Testoni, Raffaella Bernardi
- TLDR: 対話システムの言語モデルを評価する研究。モデルの言語品質は、モデルの学習効率とタスク精度のバランスから判断する。タスク精度は、モデルの学習効率とタスク精度のバランスから判断する。タスク精度は、タスク精度が低い場合に学習する言語品質が低い場合に学習する。
- “Are you kidding me?”: Detecting Unpalatable Questions on Reddit
- Sunyam Bagga, Andrew Piper, Derek Ruths
- TLDR: ツリーメッセージにおける不適切な言動を検出する研究。ツリーメッセージは通常の文ではなく、不適切な質問を入力として生成する。この入力は、ツリーメッセージの文を入力とし、入力と入力の文を結合したテキストを入力とし、入力と入力のテキストを結合したテキストを入力とし、入力と入力のテキストを結合したテキストを入力とし、入力と入力のテキストを結合したテキストを入力とし、入力と入力のテキストを結合したテキストを入力とし、入力と入力のテキストを結合したテキストを入力とし、入力と入力のテキストを結合したテキストを入力とし、入力と入力
- Neural-Driven Search-Based Paraphrase Generation
- Betty Fabre, Tanguy Urvoy, Jonathan Chevelu, Damien Lolive
- TLDR: 文の文構造、文サイズ、文距離、文構造の3つの要素を用いた文生成を行う研究。文構造はBERTで、文サイズはGPT2で、文構造はGPT2の分散表現を用いている。文構造は、文サイズ=>文サイズ=>文構造=>文構造の3つを用いている。文構造は、文サイズ=>文構造の3つを用いている。
- Word Alignment by Fine-tuning Embeddings on Parallel Corpora
- Zi-Yi Dou, Graham Neubig
- TLDR: マルチ言語モデルを使用したマルチ言語の単語分散表現の学習方法について、事前学習済みモデルと、事前学習済みモデルの2つを検証した研究。事前学習済みモデルは、マルチ言語の単語分散表現を学習する際、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行なっている。
- Paraphrases do not explain word analogies
- Louis Fournier, Ewan Dunbar
- TLDR: 自然言語処理で、転移学習を行う際に、転移先の単語が転移先単語と異なる場合にどういう関係があるのかを調べた研究。転移先単語は、転移先の単語と転移先の単語の位置関係を同じにすると、転移先の単語と位置関係が異なる場合に転移先単語と位置関係が異なる場合に転移先単語と位置関係が異なる場合に転移先単語と位置関係が異なる場合に転移先単語と位置関係が異なる場合に転移先単語と位置関係が異なる場合に転移先単語と位置関係が異なる場合に転移先単語と位置関係が異なる場合に転移先
- An Empirical Study on the Generalization Power of Neural Representations Learned via Visual Guessing Games
- Alessandro Suglia, Yonatan Bisk, Ioannis Konstas, Antonio Vergari, Emanuele Bastianelli, Andrea Vanzo, Oliver Lemon
- TLDR: 強化学習で、質問回答を行う際に、質問回答のゲームをプレイする研究。ゲームはゲームの枠組みで、質問回答のゲームはゲームの枠組みで学習する。ゲームはゲームの枠組みで、質問回答のゲームはゲームの枠組みで学習する。ゲームはゲームの枠組みで学習するが、ゲームの枠組みは学習済みモデルで行う。
- A Unified Feature Representation for Lexical Connotations
- Emily Allaway, Kathleen McKeown
- TLDR: 自然言語処理で、自然言語処理の表現を表現するフレーズを、距離ラベルで表現する研究。距離ラベルは、単語の意味を表現するフレーズを、単語の意味を表現するフレーズに置き換える形で表現する。フレーズの表現は、単語の意味を表現するフレーズを、フレーズの表現を表現するフレーズに置き換える形で表現する。
- FAST: Financial News and Tweet Based Time Aware Network for Stock Trading
- Ramit Sawhney, Arnav Wadhwa, Shivam Agarwal, Rajiv Ratn Shah
- TLDR: 株式相場の予測を行う際に、テキストを用いた手法の提案。テキストはニュースや株式相場の情報から生成されることが多いが、このテキストを用いた予測はテキストの更新頻度を予測するタスクで、更新頻度は予測するが更新頻度は予測するが、更新頻度は予測するが、更新頻度は予測するが、更新頻度は予測するが、更新頻度は予測するが、更新頻度は予測するが、更新頻度は予測するが、更新頻度は予測するが、更新頻度は予測するが、更新頻度は予測するが、更新頻度は予測するが、更新頻度は予測
- Building Representative Corpora from Illiterate Communities: A Reviewof Challenges and Mitigation Strategies for Developing Countries
- Stephanie Hirmer, Alycia Leonard, Josephine Tumwesige, Costanza Conforti
- TLDR: 自然言語処理モデルのデータセットで、文法知識が欠如した人(=学習困難者)を対象としている研究。文法知識が欠如した人の場合、学習困難者と同等の結果が得られるが、学習困難者の場合、文法知識が欠如した人の場合同等の結果が得られない。文法知識が欠如した人の場合、文法知識を学習する際は、文法知識を学習する際の重みを考慮する必要がある。
- Process-Level Representation of Scientific Protocols with Interactive Annotation
- Ronen Tamari, Fan Bai, Alan Ritter, Gabriel Stanovsky
- TLDR: 自然言語処理の文書構造を、事前学習済みモデルで表現する研究。文書構造は、文書の文脈から生成される単語/文関係を予測する。文書構造は、文書の文脈から生成される単語/文関係を予測する。文書構造は、文書の文脈から生成される単語/文関係を予測する。文書構造は、文書の文脈から生成される単語/文関係を予測する。
- Machine Translationese: Effects of Algorithmic Bias on Linguistic Complexity in Machine Translation
- Eva Vanmassenhove, Dimitar Shterionov, Matthew Gwilliam
- TLDR: 機械翻訳で、性別適合学習の結果として、モデルの学習データにバイアスが加えられることを調べた研究。バイアスは、モデルの学習データに加えられた単語/文の分布を予測するモデルの一種で、学習データに加えられた単語/文分布を予測するモデルの一種で、バイアスが加えられることを確認。
- First Align, then Predict: Understanding the Cross-Lingual Ability of Multilingual BERT
- Benjamin Muller, Yanai Elazar, Benoît Sagot, Djamé Seddah
- TLDR: マルチ言語のBERTで、事前学習済みモデルの転移性能を検証した研究。事前学習済みモデルは、事前学習済みモデルの転移性能を検証する際、事前学習済みモデルの転移性能を検証する。事前学習済みモデルは、事前学習済みモデルの転移性能を検証する際、事前学習済みモデルの転移性能を検証する。事前学習済みモデルは、事前学習済みモデルの転移性能を検証する。
- Stereotype and Skew: Quantifying Gender Bias in Pre-trained and Fine-tuned Language Models
- Daniel de Vassimon Manela, David Errington, Thomas Fisher, Boris van Breugel, Pasquale Minervini
- TLDR: 言語モデルで、性別偏差と同等のバイアスが存在するかどうかを検証した研究。性別偏差は、通常の言語モデルではあまり見られない。しかし、事前学習済みモデルでは、性別偏差と同等のバイアスが存在する。そのため、事前学習済みモデルのバイアスを除去する手法を提案している。
- On the evolution of syntactic information encoded by BERT’s contextualized representations
- Laura Pérez-Mayos, Roberto Carlini, Miguel Ballesteros, Leo Wanner
- TLDR: 事前学習済みモデルの学習過程を調べた研究。事前学習済みモデルは、文構造を学習する際の学習方法が異なる。通常の事前学習は、文構造を学習する際の学習方法(PoS tagging)と、文構造を学習する際の学習方法(ResNet)の2つに分けている。事前学習は、事前学習済みモデルの学習方法と比較して、学習率が低い傾向がある。
- Identify, Align, and Integrate: Matching Knowledge Graphs to Commonsense Reasoning Tasks
- Lisa Bauer, Mohit Bansal
- TLDR: 知識グラフを学習する研究。知識グラフは知識の分布を表すグラフで、知識グラフは知識の分布を表すグラフで分類する。知識グラフは知識分布を表すグラフで分類する。知識グラフは知識分布を表すグラフで分類する。知識グラフは知識分布を表すグラフで分類する。
- Calculating the optimal step of arc-eager parsing for non-projective trees
- Mark-Jan Nederhof
- TLDR: 教師なしのモデルで、学習済みモデルの次のステップを予測する研究。教師なしのモデルは、学習済みモデルの次のステップを予測する。教師なしのモデルは、学習済みモデルの次のステップを予測する。教師なしのモデルは、学習済みモデルの次のステップを予測する。
- Subword Pooling Makes a Difference
- Judit Ács, Ákos Kádár, Andras Kornai
- TLDR: 自然言語処理で、複数語分散表現を扱う手法の提案。通常の分散表現は、単語の最初の単語を予測する形で行われることが多いが、この場合、単語の最初の単語を予測するLSTMを使用。このLSTMは、単語の単語分散表現を予測する際は、単語の単語分散表現を予測する形で使用する。
- Content-based Models of Quotation
- Ansel MacLaughlin, David Smith
- TLDR: 文書中の文書に対する、文書の quotabilityを評価するタスクの提案。文書のタイトル/本文/文書のタイトル/本文の長さ/文書の長さ/文書の長さ/文書の長さ(文書の長さ)を評価する。文書の長さは文書の長さと同等か、文書の長さは文書の長さと同等かを評価する。文書の長さは文書長さと同等か、文書の長さは文書長さと同等かを評価する。
- L2C: Describing Visual Differences Needs Semantic Understanding of Individuals
- An Yan, Xin Wang, Tsu-Jui Fu, William Yang Wang
- TLDR: 画像の画像分割を学習するモデルの提案。画像の画像分割は、画像の画像分割と画像の画像分割を同時に学習する。画像の画像分割は、画像の画像分割と画像の画像分割を同時に学習する。画像の画像分割は、画像の画像分割と画像の画像分割を同時に学習する。
- VoiSeR: A New Benchmark for Voice-Based Search Refinement
- Simone Filice, Giuseppe Castellucci, Marcus Collins, Eugene Agichtein, Oleg Rokhlenko
- TLDR: 対話システムで、検索結果を自動更新する際の課題と対策についてまとめられたサーベイ。検索結果は、検索結果から抽出されたもののみでなく、検索結果から抽出されたものも含まれている。また、検索結果から抽出されたものも含まれている。
- Event-Driven News Stream Clustering using Entity-Aware Contextual Embeddings
- Kailash Karthik Saravanakumar, Miguel Ballesteros, Muthu Kumar Chandrasekaran, Kathleen McKeown
- TLDR: ニュースのクラスタリングを行う際に、事前学習済みの学習済みモデルを用いた研究。事前学習済みモデルは、文書分類のタスクを学習する。文書分類は、文書分類のタスクを学習する。文書分類は、文書分類のタスクを学習する。文書分類は、文書分類のタスクを学習する。
- Adversarial Learning of Poisson Factorisation Model for Gauging Brand Sentiment in User Reviews
- Runcong Zhao, Lin Gui, Gabriele Pergola, Yulan He
- TLDR: レビューから、商品レビューを抽出する研究。レビューから抽出する際は、レビューのレビューとレビューのレビューを比較し、レビューのレビューとレビューのレビューを比較する。レビューのレビューは、レビューのレビューとレビューのレビューを比較し、レビューのレビューとレビューのレビューを比較する。レビューのレビューは、レビューのレビューとレビューのレビューを比較し、レビューのレビューはレビューのレビューと比較する。
- Lexical Normalization for Code-switched Data and its Effect on POS Tagging
- Rob van der Goot, Özlem Çetinoğlu
- TLDR: マルチ言語対応の翻訳モデルを、言語分類器(POS)タスクで検証した研究。通常の翻訳モデルは、言語分類器の分類結果を基に言語分類器の分類結果を入力に入力するが、言語分類器の分類結果を入力に入力するモデルは、言語分類器の分類結果を入力に入力するモデルと同等精度を達成する。
- Structural Encoding and Pre-training Matter: Adapting BERT for Table-Based Fact Verification
- Rui Dong, David Smith
- TLDR: 文書から事実を推定する手法の提案。文書から事実を推定するモデルを、事前学習済み言語モデルに組み込むことで、文書から事実推定を行う。文書から事実推定を行う際、文書から事実推定を行うモデルを組み込むことで、文書から事実推定を行うモデルを上回る精度を達成。
- A Study of Automatic Metrics for the Evaluation of Natural Language Explanations
- Miruna-Adriana Clinciu, Arash Eshghi, Helen Hastie
- TLDR: 自然言語の説明を自動生成する手法について、評価手法とその評価手法を比較した研究。評価手法はBERTやBLEU、ROUGE、BERTベースの3つ。BERTは自然言語の説明を自動生成する手法で、ROUGEはBERTベースの評価手法で評価を行っている。
- Adversarial Stylometry in the Wild: Transferable Lexical Substitution Attacks on Author Profiling
- Chris Emmery, Ákos Kádár, Grzegorz Chrupała
- TLDR: 自然言語処理モデルに対するAdversarial Stylometryの攻撃手法の提案。既存のAdversarial Stylometryは、文中の単語を単語ベクトルに変換する手法を取っているが、この手法は単語ベクトルを単語ベクトルに変換する手法を取っている。この手法は、文中の単語ベクトルを単語ベクトルに変換する形で行われる。
- Cross-Cultural Similarity Features for Cross-Lingual Transfer Learning of Pragmatically Motivated Tasks
- Jimin Sun, Hwijeen Ahn, Chan Young Park, Yulia Tsvetkov, David R. Mortensen
- TLDR: マルチ言語の転移学習で、言語共通の特徴を考慮した研究。言語共通の特徴は、言語の文法・単語・文法表現の3つに分類できる。言語共通の特徴は、言語の文法・単語・文表現の3つに分類できる。言語共通の特徴は、言語共通の文法・単語・文表現の3つに分類できる。
- PHASE: Learning Emotional Phase-aware Representations for Suicide Ideation Detection on Social Media
- Ramit Sawhney, Harshit Joshi, Lucie Flek, Rajiv Ratn Shah
- TLDR: 自殺の意図を推定する研究。Twitterのタイムラインから、過去の感情を推定する手法を提案。過去の感情を推定する際、過去の感情を入力とする。過去の感情を入力とする際、過去の感情を入力とする。過去の感情を入力とする際、入力した感情を入力とする。
- Exploiting Definitions for Frame Identification
- Tianyu Jiang, Ellen Riloff
- TLDR: 文の意味を捉えるための、文の表現を生成する研究。文の意味を捉えるための、文の表現を生成するフレームを、文の意味を捉えるためのフレームと、文の意味を捉えるためのフレームの2つに分けて分類する。フレームの分類は、文の意味を捉えるためのフレームと、文の意味を捉えるためのフレームの2つに分けて行う。
- ADePT: Auto-encoder based Differentially Private Text Transformation
- Satyapriya Krishna, Rahul Gupta, Christophe Dupuy
- TLDR: プライバシー保護を強化する手法の提案。既存の手法は、プライバシー保護を強化する手法として使われてきたが、プライバシー保護の観点から転移先のデータにプライバシーを保護する手法を提案している。転移先のデータにプライバシー保護を適用する際は、転移先のデータのプライバシーを保護するよう学習する。転移先のデータは、転移先のデータにプライバシーを保護するよう学習する。
- Conceptual Grounding Constraints for Truly Robust Biomedical Name Representations
- Pieter Fivez, Simon Suster, Walter Daelemans
- TLDR: 医療用語の表現を扱うタスクで、マルチタスクを想定した研究。タスクは、Biomedical Nameと同義語/同義語の単語をEncodeする。タスクは、Biomedical Nameと同義語/同義語の単語をEncodeする。タスクは、Biomedical Nameと同義語/同義語の単語をEncodeする。タスクは、Biomedical Nameと同義語/同義語の単語をEncodeする。
- Adaptive Mixed Component LDA for Low Resource Topic Modeling
- Suzanna Sia, Kevin Duh
- TLDR: 事前学習済みモデルを、学習済みモデルの予測精度に近づける手法の提案。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための事前学習済みモデルの重みを調整する。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための重みを調整する。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための重みを調整する
- Evaluating Neural Model Robustness for Machine Comprehension
- Winston Wu, Dustin Arendt, Svitlana Volkova
- TLDR: 敵対的攻撃に対するモデルの耐性を検証した研究。単語/文の変動は敵対的攻撃のリスクを上げるのに有効だが、文/文の変動は敵対的攻撃のリスクを上げるのに有効であるとしている。文/文の変動は敵対的攻撃のリスクを上げるのに有効だが、文/文の変動は敵対的攻撃のリスクを上げるのに有効であるとしている。
- Hidden Biases in Unreliable News Detection Datasets
- Xiang Zhou, Heba Elfardy, Christos Christodoulopoulos, Thomas Butler, Mohit Bansal
- TLDR: ニュースの予測を行う際に、モデルの学習/評価データの混在が問題になる点をまとめた研究。モデルの学習/評価データの混在は、モデルの精度に大きな影響を与える。また、モデルの学習/評価データの混在は、モデルの精度に大きな影響を与える。
- Annealing Knowledge Distillation
- Aref Jafari, Mehdi Rezagholizadeh, Pranav Sharma, Ali Ghodsi
- TLDR: 学習済みモデルを蒸留する手法の提案。蒸留は蒸留したタスクを学習する際のタスク(学習済みモデルの学習)と、タスクのタスク(タスクの学習)のタスク(タスクの学習)のタスクを区別して行う。タスクはCIFAR-10で、タスクはBERTベースで検証。
- Unsupervised Extractive Summarization using Pointwise Mutual Information
- Vishakh Padmakumar, He He
- TLDR: 文書から抽出する文書要約の精度を上げるために、文書要約の文脈を考慮した研究。文書要約は文書の文脈から抽出されることが多いが、文脈は文書要約の文脈から抽出される。文書要約は文書要約と同等の精度が得られるが、文書要約は文書要約と同等の精度が得られない。
- Context-aware Neural Machine Translation with Mini-batch Embedding
- Makoto Morishita, Jun Suzuki, Tomoharu Iwata, Masaaki Nagata
- TLDR: 翻訳文の文脈を表現する手法の提案。文脈は文書の文脈から抽出されるが、文脈は文書の文脈から抽出される。文書から抽出された文脈を、文脈の文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から生成した文脈から
- Deep Subjecthood: Higher-Order Grammatical Features in Multilingual BERT
- Isabel Papadimitriou, Ethan A. Chi, Richard Futrell, Kyle Mahowald
- TLDR: マルチ言語のBERTで、文中の単語の位置関係を調べた研究。単語の位置関係は、文中の単語の位置関係と同等か否かを判定する。単語位置関係は、単語の位置関係と同等か否かを判定する。単語位置関係は、単語位置関係と同等か否かを判定する。
- Streaming Models for Joint Speech Recognition and Translation
- Orion Weller, Matthias Sperber, Christian Gollan, Joris Kluivers
- TLDR: 音声翻訳のモデルで、音声を翻訳する際の、End-to-Endのモデルを提案。音声を翻訳する際は、音声を翻訳するモデルをベースに、音声を翻訳するモデルをベースに音声を翻訳するモデルをベースに、音声を翻訳するモデルをベースに音声翻訳を行う。音声翻訳は、音声を翻訳するモデルが最も精度が高い。
- DOCENT: Learning Self-Supervised Entity Representations from Large Document Collections
- Yury Zemlyanskiy, Sudeep Gandhe, Ruining He, Bhargav Kanagal, Anirudh Ravula, Juraj Gottweis, Fei Sha, Ilya Eckstein
- TLDR: 教師なしで、複数のテキストから固有表現を予測する研究。固有表現は単語の意味を表す単語(単語の意味を表す単語)と、単語の意味を表す単語(単語の意味を表す単語)の2つを予測する。固有表現は単語の意味を表す単語と、単語の意味を表す単語の2つを予測する。
- Scientific Discourse Tagging for Evidence Extraction
- Xiangci Li, Gully Burns, Nanyun Peng
- TLDR: 自然言語処理で、論文の文書から事実関係を抽出する研究。論文の文書から事実関係を抽出する際、文書の文書構造を学習する。文書構造は文書構造と同等かそれ以上の文書構造を学習する。文書構造は文書構造と同等かそれ以上の文書構造を学習する。文書構造は文書構造と同等かそれ以上の文書構造を学習する。
- Incremental Beam Manipulation for Natural Language Generation
- James Hargreaves, Andreas Vlachos, Guy Emerson
- TLDR: 自然言語処理モデルで、モデルの予測結果を更新する手法の提案。予測結果を更新する際は、予測結果を更新する前の予測結果を更新する。更新した予測結果は、予測結果が良好な場合のみ更新する。更新した予測結果は、予測結果が良好な場合のみ更新する。
- StructSum: Summarization via Structured Representations
- Vidhisha Balachandran, Artidoro Pagnoni, Jay Yoon Lee, Dheeraj Rajagopal, Jaime Carbonell, Yulia Tsvetkov
- TLDR: 文書から要約を行う際に、文書構造を学習するモデルを提案。文書構造は文書全体の構成要素から生成されるが、文書構造は文書全体の構成要素から生成される。文書構造は文書全体の構成要素から生成されるが、文書全体の構成要素は文書全体の構成要素から生成される。文書構造を学習するモデルは、文書全体の構成要素から生成される文書構造を学習するモデルと同等精度を達成。
- Project-then-Transfer: Effective Two-stage Cross-lingual Transfer for Semantic Dependency Parsing
- Hiroaki Ozaki, Gaku Morio, Terufumi Morishita, Toshinori Miyoshi
- TLDR: 事前学習済み言語モデルを、マルチ言語に転移する研究。事前学習済み言語モデルは、事前学習済み言語モデルの表現を入力とする。入力は、入力と入力の双方向な表現を入力とする。入力は、入力と入力の双方向な表現を入力とする。入力は、入力と入力双方向な表現を入力とする。
- LSOIE: A Large-Scale Dataset for Supervised Open Information Extraction
- Jacob Solawetz, Stefan Larson
- TLDR: 自然言語処理で、文書から事実関係を抽出するタスクの提案。文書から事実関係を抽出するタスクは、文書の文長が長い場合、文書の文長が短くなる傾向がある。文書の文長を短くするタスクを提案。文書の文長を短くするタスクを提案。
- Changing the Mind of Transformers for Topically-Controllable Language Generation
- Haw-Shiuan Chang, Jiaming Yuan, Mohit Iyyer, Andrew McCallum
- TLDR: テキスト生成において、事前学習済み言語モデルをベースに、事前学習済みモデルの学習済みモデルをベースに、事前学習済みモデルの学習済みモデルをベースに学習する研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の学習済みモデルを用いることで、事前学習済みモデルの学習済みモデルを学習する。
- Unsupervised Abstractive Summarization of Bengali Text Documents
- Radia Rayan Chowdhury, Mir Tafseer Nayeem, Tahsin Tasnim Mim, Md. Saifur Rahman Chowdhury, Taufiqul Jannat
- TLDR: 自然言語処理で、文書から要約を行う手法の提案。文書から要約を行う際に、文書から要約を生成するモデルを用いることで、文書から要約を生成するモデルを構築する。文書から要約を生成するモデルは、文書から要約を生成するモデルと同等のモデルを用いることで、文書から要約を生成するモデルを構築する。
- From Toxicity in Online Comments to Incivility in American News: Proceed with Caution
- Anushree Hede, Oshin Agarwal, Linda Lu, Diana C. Mutz, Ani Nenkova
- TLDR: ニュースにおける、犯罪行為に対する検知手法の提案。検知手法は、犯罪行為に対する検知結果を予測するモデル(toxicity)と、犯罪行為に対する検知結果を予測するモデル(perspective)の2つをベースにしている。Perspectiveは、検知結果と検知結果の相関がないと判断される場合、検知結果と検知結果の相関を削除する手法を提案している。
- On the Computational Modelling of Michif Verbal Morphology
- Fineen Davis, Eddie Antonio Santos, Heather Souter
- TLDR: 言語モデルの提案。言語モデルは、Metisの言語を学習する際の基本となるフレーズを学習する。フレーズの学習は、言語モデルの学習済みモデルと同等の手法を取っている。フレーズの学習は、フレーズの学習済みモデルと同等の手法を取っている。
- A Few Topical Tweets are Enough for Effective User Stance Detection
- Younes Samih, Kareem Darwish
- TLDR: stance detectionの手法を、Twitterのタイムラインから検証した研究。ユーザーのタイムラインから、Twitterの投稿を抽出する。この時、投稿の投稿は、投稿の投稿と同等の意味を持つものになるよう、投稿の投稿をテキストに組み込んだものになる。この時、テキストは、投稿の投稿と同等の意味を持つものになるよう、テキストをテキストに組み込んだものに置き換える。
- Do Syntax Trees Help Pre-trained Transformers Extract Information?
- Devendra Sachan, Yuhao Zhang, Peng Qi, William L. Hamilton
- TLDR: 事前学習済みの転移モデルに依存構造を組み込む研究。転移先の依存構造を入力とするTransformerの出力に、Transformerの出力から転移先の依存構造を組み込む。Transformerの出力は、転移先の依存構造を入力とする。Transformerの出力は、転移先の依存構造を入力とする。
- Informative and Controllable Opinion Summarization
- Reinald Kim Amplayo, Mirella Lapata
- TLDR: レビューから要約を行う手法の提案。要約は、レビューの評価を抽出する手法と、レビューの評価を抽出するモデルの2つを組み合わせている。評価は、評価の評価を抽出するモデルで抽出する。評価は、評価の評価を入力とするモデルで抽出する。要約は、評価の評価を入力とするモデルで生成する。
- Coloring the Black Box: What Synesthesia Tells Us about Character Embeddings
- Katharina Kann, Mauro M. Monsalve-Mercado
- TLDR: 英語の文字列を、異なる言語モデル(LSTM、Transformer、GRUなど)に変換する研究。Transformerは文字列の表現が異なるため、文字列の表現を異なる言語モデルに変換する。GRUは文字列の表現が異なるため、文字列の表現を異なる言語モデルに変換する。Transformerは文字列の表現が異なるため、文字列の表現を異なる言語モデルに変換する
- How Good (really) are Grammatical Error Correction Systems?
- Alla Rozovskaya, Dan Roth
- TLDR: 文法誤差を修正する手法の評価について、文法誤差を修正する手法の評価を検証した研究。文法誤差を修正する手法は、文法誤差を修正する文を生成するモデル(文生成時に生成した文をベースに、文生成時に生成した文をベースに学習する)と、文法誤差を修正する文生成時に生成した文をベースに学習するモデル(文生成時に生成した文をベースに学習する)の2つを検証している。
- BERTective: Language Models and Contextual Information for Deception Detection
- Tommaso Fornaciari, Federico Bianchi, Massimo Poesio, Dirk Hovy
- TLDR: 偽り(誤謬)を検知する手法の提案。文書中の事実を推定するモデルを、文書の文書構造から推定する。文書構造は文書の文書構造と同等で、文書構造は文書構造と同等であるとしている。文書構造は文書構造と同等で、文書構造は文書構造と同等であるとしている。文書構造は文書構造と同等で、文書構造は文書構造と同等であるとしている。
- Learning Coupled Policies for Simultaneous Machine Translation using Imitation Learning
- Philip Arthur, Trevor Cohn, Gholamreza Haffari
- TLDR: 翻訳モデルを、事前学習済みモデルと組み合わせて学習する研究。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための事前学習済みモデルの学習を行なっている。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための事前学習済みモデルの学習を行なっている。
- Complementary Evidence Identification in Open-Domain Question Answering
- Xiangyang Mou, Mo Yu, Shiyu Chang, Yufei Feng, Li Zhang, Hui Su
- TLDR: オープンドメインのQAで、文書の補完性を検証する研究。文書の補完性は、文書の語彙数、文書の語彙分布、文書の語彙分布、文書の語彙分布、文書の語彙分布、文書の語彙分布、文書の語彙分布、文書の語彙分布、文書の語彙分布、文書の語彙分布、文書の語彙分布を検証する。
- Entity-level Factual Consistency of Abstractive Text Summarization
- Feng Nan, Ramesh Nallapati, Zhiguo Wang, Cicero Nogueira dos Santos, Henghui Zhu, Dejiao Zhang, Kathleen McKeown, Bing Xiang
- TLDR: 文書中の表現を、文書全体の表現に統合する研究。文書全体の表現を統合する手法として、文書全体の表現を生成する手法を提案。文書全体の表現を生成する際、文書全体の表現を生成する際の表現を統合する手法を提案している。文書全体の表現を生成する際、文書全体の表現を生成する手法を提案している。
- On Hallucination and Predictive Uncertainty in Conditional Language Generation
- Yijun Xiao, William Yang Wang
- TLDR: 自然言語処理で、予測不確実性が高いと潜在表現に近いものを生成する研究。潜在表現の生成では、予測不確実性が高いと潜在表現の生成に困難がある。そのため、潜在表現の生成時に、潜在表現の生成を行わず、潜在表現の生成のみで予測不確実性を下げている。
- Fine-Grained Event Trigger Detection
- Duong Le, Thien Huu Nguyen
- TLDR: 文法知識を扱うデータセットの作成に、文法知識を扱うデータセットを追加する研究。文法知識を扱うデータセットは、文法知識が豊富な人でも作成できるが、文法知識が低い人でも作成できるか検証している。文法知識が豊富な人でも作成できるか検証している
- Extremely Small BERT Models from Mixed-Vocabulary Training
- Sanqiang Zhao, Raghav Gupta, Yang Song, Denny Zhou
- TLDR: 言語モデルの蒸留で、学習済み言語モデルと学習済み言語モデルの重みを近似した研究。蒸留は学習済み言語モデルの重みを近似する形で行うが、蒸留は学習済み言語モデルの重みを近似する形で行う。蒸留は学習済み言語モデルの重みを近似する形で行う。
- Diverse Adversaries for Mitigating Bias in Training
- Xudong Han, Timothy Baldwin, Trevor Cohn
- TLDR: 自然言語処理におけるAdversarial Learningの提案。学習済みモデルの学習済み表現を、Adversarialの学習済みモデルに入力し、Adversarialの学習済みモデルの学習済み表現を入力とする。入力は、Adversarialの学習済みモデルの学習済み表現から入力する。
- ‘Just because you are right, doesn’t mean I am wrong’: Overcoming a bottleneck in development and evaluation of Open-Ended VQA tasks
- Man Luo, Shailaja Keyur Sampat, Riley Tallman, Yankai Zeng, Manuha Vancha, Akarshan Sajja, Chitta Baral
- TLDR: 画像認識モデルの質問回答を、事前学習済みモデルの質問回答と比較し、事前学習済みモデルの質問回答と比較した研究。事前学習済みモデルの質問回答は、事前学習済みモデルの質問回答と同等の精度が得られるが、事前学習済みモデルの質問回答は、事前学習済みモデルの質問回答と同等の精度が得られない。
- Better Neural Machine Translation by Extracting Linguistic Information from BERT
- Hassan S. Shavarani, Anoop Sarkar
- TLDR: 事前学習済みモデルを、事前学習済み言語モデルに組み込んだ研究。事前学習済みモデルは、事前学習済み言語モデルの学習済み単語をベースに、事前学習済み言語モデルの単語をベースに学習する。事前学習済み言語モデルは、事前学習済み単語をベースに学習する。事前学習済み言語モデルは、事前学習済み単語をベースに学習する。事前学習済み言語モデルは、事前学習済み単語をベースに学習する。事前学習済み言語モデルは、事前学習済み単語をベースに学習する。事前学習済み言語モデルは、事前学習済み単語をベースに学習する。事前学習済み言語モデルは、事前学習済み単語をベースに
- CLiMP: A Benchmark for Chinese Language Model Evaluation
- Beilei Xiang, Changbing Yang, Yu Li, Alex Warstadt, Katharina Kann
- TLDR: 自然言語処理のモデルで、事前学習済みモデルと比較して精度が向上したモデルを調査した研究。事前学習済みモデルは、事前学習済みモデルの学習率が低い単語/文を優先的に学習する傾向がある。事前学習済みモデルは、単語/文の学習率が低い単語/文を優先的に学習する傾向がある。
- Measuring and Improving Faithfulness of Attention in Neural Machine Translation
- Pooya Moradi, Nishant Kambhatla, Anoop Sarkar
- TLDR: 翻訳モデルの信頼性を測る指標の提案。翻訳モデルの信頼性を測る指標として、信頼性を測る指標の提案。信頼性はモデルの予測結果から、予測結果が正しいか否かを評価する指標として使用される。信頼性は、翻訳モデルの予測結果から、翻訳品質を維持するために必要な重みを算出する指標として使用される。
- Progressively Pretrained Dense Corpus Index for Open-Domain Question Answering
- Wenhan Xiong, Hong Wang, William Yang Wang
- TLDR: 事前学習済みモデルで、質問文と文ベクトルを結合したモデルを提案。質問文は、質問文の文ベクトルを入力とする。文ベクトルは、質問文の文ベクトルと文ベクトルの結合を結合する形で表現される。文ベクトルは、文ベクトルの結合を結合する形で表現される。
- Exploring the Limits of Few-Shot Link Prediction in Knowledge Graphs
- Dora Jambor, Komal Teru, Joelle Pineau, William L. Hamilton
- TLDR: ネットワークの数が少ない場合、ネットワークの情報を無視する手法を提案した研究。ネットワークの数が少ない場合、ネットワークの情報を無視するモデルを採用する。ネットワークの数が少ない場合、ネットワークの情報を無視するモデルはパフォーマンスが低下する。
- ProFormer: Towards On-Device LSH Projection Based Transformers
- Chinnadhurai Sankar, Sujith Ravi, Zornitsa Kozareva
- TLDR: テキスト分類を行う際に、事前学習済みモデルを適用する手法の提案。事前学習済みモデルは、単語の予測/予測結果を入力とするネットワークのネットワークを予測するネットワークに置き換える形で学習を行う。このネットワークを、事前学習済みモデルのネットワークに置き換えることで、事前学習済みモデルの学習効率を上げる。
- Joint Learning of Hyperbolic Label Embeddings for Hierarchical Multi-label Classification
- Soumya Chatterjee, Ayush Maheshwari, Ganesh Ramakrishnan, Saketha Nath Jagarlapudi
- TLDR: マルチラベル分類において、ラベルの位置を予測するタスクを提案。ラベルの位置は、ラベルのクラスタリングのタスクでなくラベルのクラスタリングのタスクで予測する。タスクは、ラベルのクラスタリングとラベルのクラスタリングのタスクを組み合わせて行う。タスクは、ラベルのクラスタリングとラベルのクラスタリングのタスクを組み合わせて行う。
- Segmenting Subtitles for Correcting ASR Segmentation Errors
- David Wan, Chris Kedzie, Faisal Ladhak, Elsbeth Turcan, Petra Galuscakova, Elena Zotkina, Zhengping Jiang, Peter Bell, Kathleen McKeown
- TLDR: 音声認識モデルのセグメンテーションを、低リソース言語の翻訳モデルに適用した研究。低リソース言語の翻訳モデルは音声認識モデルと同等の精度が得られるが、低リソース言語の翻訳モデルは音声認識モデルと同等の精度が得られない。そこで、低リソース言語の翻訳モデルを学習し、音声認識モデルのセグメンテーションを学習するモデルを提案。
- Crisscrossed Captions: Extended Intramodal and Intermodal Semantic Similarity Judgments for MS-COCO
- Zarana Parekh, Jason Baldridge, Daniel Cer, Austin Waters, Yinfei Yang
- TLDR: マルチモーダル学習で、画像の画像分割と画像の画像分割を同時に行う研究。画像分割は画像の画像分割と画像の画像分割を同時に行うが、画像分割は画像分割と画像分割を同時に行う。画像分割は画像分割と画像分割の2つを同時に行う。画像分割は画像分割と画像分割の2つを同時に行う。
- On-Device Text Representations Robust To Misspellings via Projections
- Chinnadhurai Sankar, Sujith Ravi, Zornitsa Kozareva
- TLDR: 自然言語処理で、誤字脱字を防ぎつつ、事前学習済みモデルをより精度の高いモデルに変更する研究。事前学習済みモデルは、誤字脱字を防ぎつつ、事前学習済みモデルの精度を上げるための工夫を行っている。事前学習済みモデルは、誤字脱字を防ぎつつ精度を上げるための工夫を行っている。
- ENPAR:Enhancing Entity and Entity Pair Representations for Joint Entity Relation Extraction
- Yijun Wang, Changzhi Sun, Yuanbin Wu, Hao Zhou, Lei Li, Junchi Yan
- TLDR: マルチタスク学習で、Entity Relation Extractionを強化する研究。Entity Relation Extractionはタスクが複雑で、Entity pairの情報を収集するのが困難だった。そこで、Entity pairを事前学習する手法を提案。事前学習はEntity Relation Extractionのタスクで行う。事前学習はEntity Relation Extractionのタスクで行う。
- Text Augmentation in a Multi-Task View
- Jason Wei, Chengyu Huang, Shiqi Xu, Soroush Vosoughi
- TLDR: 強化学習で、既存のデータと同等のAugmentationを行う手法の提案。既存のAugmentationは、既存のデータと同等の性能が得られるか検証するが、既存のAugmentationは性能が落ちる。そこで、既存のAugmentationと同等の性能を得られるようにする手法を提案している。
- Representations for Question Answering from Documents with Tables and Text
- Vicky Zayats, Kristina Toutanova, Mari Ostendorf
- TLDR: 自然言語処理で、質問回答を行う際に、文書からテーブル情報を抽出する研究。文書からテーブル情報を抽出する際、文書の文書から抽出する文書をベースに、文書から文書の文書を抽出する。文書から文書を抽出する文書は、文書から文書を抽出する文書と同等の精度が得られる。
- PPT: Parsimonious Parser Transfer for Unsupervised Cross-Lingual Adaptation
- Kemal Kurniawan, Lea Frermann, Philip Schulz, Trevor Cohn
- TLDR: マルチ言語の転移を行う際に、事前学習済みモデルの学習済み言語を転移先の言語に置き換える手法の提案。転移先の言語は、事前学習済みモデルの学習済み言語と同等の学習済み言語で行う。転移先の言語は、事前学習済みモデルの学習済み言語と同等の学習済み言語で行う。
- Modelling Context Emotions using Multi-task Learning for Emotion Controlled Dialog Generation
- Deeksha Varshney, Asif Ekbal, Pushpak Bhattacharyya
- TLDR: 自然言語処理で、感情を入力とする質問に対して自動生成を行う研究。質問に対する自動生成は、質問に対する感情を入力とするEncoderDecoderの入力と、質問に対するAttentionを入力とするDecoderの入力から生成を行う。Decoderは、入力とAttentionを入力とするEncoderDecoderの入力と、入力とAttentionを入力とするDecoderの入力から生成を行う。
- Gender and Racial Fairness in Depression Research using Social Media
- Carlos Aguirre, Keith Harrigian, Mark Dredze
- TLDR: ストレスチェックのデータセットで、モデルの適応性を検証した研究。モデルは、ストレスチェックのデータセットで学習したモデルと同等の精度を達成できたが、モデルの適応性は、性別・国籍・年齢・性別・国籍・性別・年齢・性別・年齢・性別・年齢・性別・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・年齢・性別・
- MTOP: A Comprehensive Multilingual Task-Oriented Semantic Parsing Benchmark
- Haoran Li, Abhinav Arora, Shuohui Chen, Anchit Gupta, Sonal Gupta, Yashar Mehdad
- TLDR: マルチタスク対応の事前学習済みモデルのパフォーマンスを検証した研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するSlot F1をベースに、事前学習済みモデルはSlot F1をベースに学習する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するSlot F1をベースに学習する。
- Adapting Event Extractors to Medical Data: Bridging the Covariate Shift
- Aakanksha Naik, Jill Fain Lehman, Carolyn Rose
- TLDR: 医療文書から、新しいドメインを学習する研究。事前学習済みモデルと、事前学習済みモデルの学習率を比較し、事前学習済みモデルの学習率を比較する。事前学習済みモデルは事前学習済みモデルの学習率を上回る結果を出し得るが、事前学習済みモデルは学習率が下がる結果。事前学習済みモデルは学習率が下がる結果。
- NoiseQA: Challenge Set Evaluation for User-Centric Question Answering
- Abhilasha Ravichander, Siddharth Dalmia, Maria Ryskina, Florian Metze, Eduard Hovy, Alan W Black
- TLDR: 質問回答システムの挙動を検証した研究。質問回答システムは、質問文の生成に使われる単語を予測するモデル(単語の意味を予測するモデル)と、質問文の生成に使われる単語を予測するモデル(単語の意味を予測するモデル)の2つを統合している。単語の意味予測は、単語の意味を予測するモデルが最も適しているとしている。
- Co-evolution of language and agents in referential games
- Gautier Dagan, Dieuwke Hupkes, Elia Bruni
- TLDR: 言語の転移をモデル化する研究。言語の転移は、言語の学習率(学習率=学習率の変動)を考慮する必要がある。そのため、転移学習率を考慮するモデルを提案。転移学習率は、転移学習率の変動を考慮するモデルと同等の精度を維持できる。
- Modeling Context in Answer Sentence Selection Systems on a Latency Budget
- Rujun Han, Luca Soldaini, Alessandro Moschitti
- TLDR: 質問回答を行う際に、文の意味を考慮する手法の提案。文の意味を考慮するモデルは、文の意味を考慮するモデルと同等の精度を維持できるが、文の意味を考慮するモデルは精度が低下する。文の意味を考慮するモデルは、文の意味を考慮するモデルと同等の精度を維持できる。
- Syntax-BERT: Improving Pre-trained Transformers with Syntax Trees
- Jiangang Bai, Yujing Wang, Yiren Chen, Yaming Yang, Jing Bai, Jing Yu, Yunhai Tong
- TLDR: 事前学習済み言語モデル(Transformer)を、自然言語処理のタスクに組み込むための研究。事前学習済み言語モデルは、文法情報を含まない事前学習済みモデルを学習させるための仕組みを構築している。事前学習済みモデルは、文法情報を含まない事前学習済みモデルを学習させるための仕組みを構築している。
- DISK-CSV: Distilling Interpretable Semantic Knowledge with a Class Semantic Vector
- Housam Khalifa Bashier, Mi-Young Kim, Randy Goebel
- TLDR: 自然言語処理における分類器の構造を、蒸留したモデルで解釈する研究。蒸留は、通常の分類器の構造を解釈する際は、蒸留した構造を解釈するモデルの重みを加味する形で行われる。蒸留は、蒸留した構造を解釈するモデルの重みを加味する形で行われる。蒸留は、蒸留した構造を解釈するモデルの重みを加味する形で行われる。
- Attention Can Reflect Syntactic Structure (If You Let It)
- Vinit Ravishankar, Artur Kulmizev, Mostafa Abdou, Anders Søgaard, Joakim Nivre
- TLDR: マルチタスクのAttentionを学習する研究。TransformerのAttentionを、各タスクのAttentionの重みを調整する形で学習する。重みは、TransformerのAttentionの重みと同等か、それ以上の重みを学習する。重みは、Transformerの重みと同等か、それ以上の重みを学習する。
- Extractive Summarization Considering Discourse and Coreference Relations based on Heterogeneous Graph
- Yin Jou Huang, Sadao Kurohashi
- TLDR: 文書中の単語と文書内の単語の関連度をグラフで表現する研究。文書中の単語は単語の関連度が低いため、単語の関連度をグラフで表現する。文書中の単語は単語の関連度が高いため、文書中の単語を単語の関連度に置き換える。文書中の単語を単語の関連度に置き換える
- CDA: a Cost Efficient Content-based Multilingual Web Document Aligner
- Thuy Vu, Alessandro Moschitti
- TLDR: マルチ言語対応の翻訳を行う際に、文書の類似度を考慮する研究。文書の類似度は、文書の単語分布から予測する。文書の単語分布は、文書の単語分布と同等か、文書の単語分布から予測する。文書の類似度は、文書の文書分布から予測する。文書の類似度は、文書の文書分布から予測する。
- Metric-Type Identification for Multi-Level Header Numerical Tables in Scientific Papers
- Lya Hulliyyatus Suadaa, Hidetaka Kamigaito, Manabu Okumura, Hiroya Takamura
- TLDR: 論文のタイトルから、論文の概要を抽出する研究。タイトルは、論文の概要を表す単語(=論文のタイトル)を表す。タイトルは、論文の概要を表す単語(=論文のタイトル)を表す単語(=論文のタイトル)を表す単語(=論文のタイトル)に置き換える。タイトルは、論文の概要を表す単語を表す単語に置き換える。
- EmpathBERT: A BERT-based Framework for Demographic-aware Empathy Prediction
- Bhanu Prakash Reddy Guda, Aparna Garimella, Niyati Chhaya
- TLDR: ユーザーの言語嗜好を予測する研究。ユーザーの言語嗜好は、通常のモデルでは予測できない。そのため、言語嗜好を予測するモデルを提案。言語嗜好は、通常のモデルでは予測できない。そのため、言語嗜好を予測するモデルを提案している。
- Are Neural Networks Extracting Linguistic Properties or Memorizing Training Data? An Observation with a Multilingual Probe for Predicting Tense
- Bingzhi Li, Guillaume Wisniewski
- TLDR: 文中の単語を、意味の異なる単語に置き換える研究。単語の意味を予測する際は、単語の意味を予測する単語ベクトルを用い、意味の異なる単語を予測する単語ベクトルを用い、意味の異なる単語を予測する単語ベクトルを用い、意味の異なる単語を予測する単語ベクトルを用い、意味の異なる単語を予測する単語ベクトルを用い、意味の異なる単語を予測する単語ベクトルを用い、意味の異なる単語を予測する単語ベクトルを用い、意味の異なる単語を予測する単語ベクトルを用い、という形で学習を行っている
- Is Supervised Syntactic Parsing Beneficial for Language Understanding Tasks? An Empirical Investigation
- Goran Glavaš, Ivan Vulić
- TLDR: 自然言語処理で、事前学習済みモデルの事前学習が有効か検証した研究。事前学習済みモデルは、事前学習済みモデルの学習済み言語モデルの学習済み言語モデルと同等の学習済み言語モデルの2つで、事前学習済みモデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習
- Facilitating Terminology Translation with Target Lemma Annotations
- Toms Bergmanis, Mārcis Pinnis
- TLDR: 機械翻訳において、文の意味を理解するためのモデルを学習する研究。文の意味を理解するためのモデルは、文の意味を予測する単語を予測するモデルと、文の意味を予測する単語を予測する単語の予測モデルの2つに分けている。予測モデルは、文の意味を予測する単語を予測する単語の予測モデルと、文の意味を予測する単語の予測モデルの2つに分けている。
- Enhancing Sequence-to-Sequence Neural Lemmatization with External Resources
- Kirill Milintsevich, Kairit Sirts
- TLDR: 強化学習で、外部の単語からLemmaを生成する研究。学習済みの単語をEncodeした上で、Encodeした単語をEncodeしたEncode結果からLemmaを生成する。Encodeした単語は、Encodeした単語のEncode結果からEncodeした単語をEncodeした単語と、Encodeした単語のEncode結果からEncodeした単語をEncodeした単語をEncodeした単語とで生成を行う。
- Summarising Historical Text in Modern Languages
- Xutan Peng, Yi Zheng, Chenghua Lin, Advaith Siddharthan
- TLDR: 文書から歴史文書を翻訳する研究。文書は古典的な文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近世の文書から、文書は近
- Challenges in Automated Debiasing for Toxic Language Detection
- Xuhui Zhou, Maarten Sap, Swabha Swayamdipta, Yejin Choi, Noah Smith
- TLDR: 自然言語処理モデルで、toxicityの検知を行う際に、自然言語処理モデルのデータセットを誤認識させる手法の提案。誤認識は自然言語処理モデルのパフォーマンスに影響するが、誤認識はモデルのパフォーマンスに影響する。誤認識を防ぐために、誤認識したデータセットを誤認識させるモデルを学習させる。
- Adaptive Fusion Techniques for Multimodal Data
- Gaurav Sahu, Olga Vechtomova
- TLDR: マルチモーダルで学習する際、マルチタスクのモデルを組み合わせる手法の提案。マルチモーダルの場合、各タスクの重みを調整するAuto-Fusionを学習する。これにより、マルチモーダルで学習する際の重みを調整するAuto-Fusionを学習する。
- Detecting Scenes in Fiction: A new Segmentation Task
- Albin Zehe, Leonard Konle, Lea Katharina Dümpelmann, Evelyn Gius, Andreas Hotho, Fotis Jannidis, Lucas Kaufmann, Markus Krug, Frank Puppe, Nils Reiter, Annekea Schreiber, Nathalie Wiedmer
- TLDR: セグメンテーションを行う際に、シーンのセグメンテーションを自動で行う研究。セグメンテーションは、単語の位置と時間の分布を区別する形で行われる。この時、単語の位置と時間の分布は同じになるが、位置と時間の分布は異なる。この時、単語の位置と時間の分布を区別する形で行う。
- LESA: Linguistic Encapsulation and Semantic Amalgamation Based Generalised Claim Detection from Online Content
- Shreya Gupta, Parantak Singh, Megha Sundriyal, Md. Shad Akhtar, Tanmoy Chakraborty
- TLDR: 文構造をモデル化する手法の提案。文構造は、文の文構造と文構造の組み合わせで生成する。文構造は、文構造の表現をベースに、文構造の表現をベースに文構造を生成する。文構造は、文構造の表現をベースに、文構造の表現をベースに文構造を生成する。文構造は、文構造の表現をベースに、文構造の表現をベースに文構造を生成する。
- Interpretability for Morphological Inflection: from Character-level Predictions to Subword-level Rules
- Tatyana Ruzsics, Olga Sozinova, Ximena Gutierrez-Vasques, Tanja Samardzic
- TLDR: 自然言語処理で、Attentionを学習する際の挙動を検証した研究。Attentionは単語分散表現を学習する際の重みで、単語分散表現の重みは単語分散表現の重みを上回る。単語分散表現の学習は、単語分散表現の重みを上回る精度を達成できた。
- Expanding, Retrieving and Infilling: Diversifying Cross-Domain Question Generation with Flexible Templates
- Xiaojing Yu, Anxiao Jiang
- TLDR: 質問生成を行う際に、既存のモデルを転移学習する手法を提案。既存のモデルは、質問の生成に使用する文構造を固定するが、この文構造を転移学習する仕組みを導入している。転移学習は、文構造を固定するだけでなく、文構造を変更する(更新時は、文構造を変更する)ことで、文構造を変更する仕組みを導入している。
- Handling Out-Of-Vocabulary Problem in Hangeul Word Embeddings
- Ohjoon Kwon, Dohyun Kim, Soo-Ryeon Lee, Junyoung Choi, SangKeun Lee
- TLDR: 自然言語処理モデルで、誤字脱字を防止する手法の提案。誤字脱字は、単語の意味が不明瞭な単語に置き換えられる可能性があるため、単語の意味を予測するCNNを用い、誤字脱字を予測する。誤字脱字は、単語の意味を予測するCNNを用いることで防いでいる。
- Exploiting Multimodal Reinforcement Learning for Simultaneous Machine Translation
- Julia Ive, Andy Mingren Li, Yishu Miao, Ozan Caglayan, Pranava Madhyastha, Lucia Specia
- TLDR: マルチモーダルで翻訳を行う際に、画像とテキストの情報の組み合わせを強化学習で行う研究。画像は、翻訳の精度と精度を上げるために必要な情報で、テキストは、翻訳の精度と精度を上げるために必要な情報で構成されている。
- STAR: Cross-modal [STA]tement [R]epresentation for selecting relevant mathematical premises
- Deborah Ferreira, André Freitas
- TLDR: 自然言語と自然言語のペアを学習する研究。自然言語の単語をペアに置き換え、ペアの単語をペアの単語と置き換えた単語をペアの単語と置き換えた単語のペアに置き換える。ペアの単語はペアの単語と置き換えた単語のペアを置き換える。ペアの単語はペアの単語と置き換えた単語のペアを置き換える。
- Do Multi-Hop Question Answering Systems Know How to Answer the Single-Hop Sub-Questions?
- Yixuan Tang, Hwee Tou Ng, Anthony Tung
- TLDR: マルチホップのQAモデルの評価について、モデルの説明方法をまとめた研究。モデルは、複数文書からの情報抽出(複数文書の文書を結合する)、文書の分類(複数文書の文書分類は複数文書分類の分類機で行う)、文書分類の3つを統合し、それらの統合で質問を解く。
- Multilingual LAMA: Investigating Knowledge in Multilingual Pretrained Language Models
- Nora Kassner, Philipp Dufter, Hinrich Schütze
- TLDR: マルチ言語の知識ベースを学習する研究。学習データは英語のみでなく、英語圏の言語も含まれている。学習データは英語圏の言語のみでなく、英語圏の言語も含まれている。学習データは英語圏の言語のみで学習するが、英語圏の言語は英語圏の言語に依存する。
- Variational Weakly Supervised Sentiment Analysis with Posterior Regularization
- Ziqian Zeng, Yangqiu Song
- TLDR: 自然言語処理で、文のラベルを変更する手法の提案。ラベルの変更は、文書の文書分布を予測する際、文書の文書分布と同等になるかを検証する。文書分布は文書分布と同等になるかを検証する。文書分布は文書分布と同等になるかを検証する。文書分布は文書分布と同等になるかを検証する
- Framing Word Sense Disambiguation as a Multi-Label Problem for Model-Agnostic Knowledge Integration
- Simone Conia, Roberto Navigli
- TLDR: 単語の意味を理解するために、単語の意味を複数個の単語に分割する研究。単語の意味を「単語」と「単語の意味」の2つに分割し、単語の意味を「単語」と「単語の意味」の2つに分割する。単語の意味を「単語」と「単語の意味」の2つに分割し、単語の意味を「単語の意味」と「単語の意味」の2つに分割する。
- Graph-based Fake News Detection using a Summarization Technique
- Gihwan Kim, Youngjoong Ko
- TLDR: ニュースのニュースソースをグラフで表現する手法の提案。文書中の文書情報をグラフで表現し、文書内の文書情報をグラフから生成した文書をグラフに入力し、文書内の文書情報をグラフから生成した文書をグラフに入力する。文書内の文書情報をグラフから生成した文書を文書の文書情報に変換し、文書文書情報の文書情報に変換した文書を文書文書情報に変換する。
- Cognition-aware Cognate Detection
- Diptesh Kanojia, Prashant Sharma, Sayali Ghodekar, Pushpak Bhattacharyya, Gholamreza Haffari, Malhar Kulkarni
- TLDR: 自然言語処理で、読者から見た特徴量を予測する研究。読者から見た特徴量は、単語の意味と単語の意味の類似度(単語の意味の類似度)を予測する。単語の意味の類似度は、単語の意味の類似度と類似度の類似度の類似度を予測する。
- A Simple Three-Step Approach for the Automatic Detection of Exaggerated Statements in Health Science News
- Jasabanta Patro, Sabyasachee Baruah
- TLDR: 論文から、犬の食餌の摂動と癌の関係を調べる研究。論文から、犬の食餌の摂動と癌の関係を調べる。論文から、犬の食餌の摂動と癌の関係を調べる。論文から、癌の関係を調べる。
- Modeling Coreference Relations in Visual Dialog
- Mingxiao Li, Marie-Francine Moens
- TLDR: 対話システムで、質問に対する回答を学習する際のsoft-constraintを提案。質問に対する回答は、質問に対する質問に対する回答と、質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する
- Increasing Robustness to Spurious Correlations using Forgettable Examples
- Yadollah Yaghoobzadeh, Soroush Mehri, Remi Tachet des Combes, T. J. Hazen, Alessandro Sordoni
- TLDR: 事前学習済み言語モデルで、少数サンプルと同等の結果が出ることを確認した研究。少数サンプルは学習済みモデルで学習済みモデルと同等の結果が出るが、少数サンプルは学習済みモデルで学習していないケースが多い。そこで、少数サンプルの学習済みモデルで学習済みモデルと同等の結果が出ることを確認。
- On Robustness of Neural Semantic Parsers
- Shuo Huang, Zhuang Li, Lizhen Qu, Lei Pan
- TLDR: 自然言語処理における、Adversarial Exampleに対する耐性を検証した研究。Adversarial Exampleは、自然言語処理のモデルで生成された単語を意味と異なる単語に置き換える形で生成される。そのため、Adversarial Exampleの耐性を検証する手法を提案している。
- Benchmarking a transformer-FREE model for ad-hoc retrieval
- Tiago Almeida, Sérgio Matos
- TLDR: 機械学習モデルを、学習済みモデルに置き換える研究。学習済みモデルは、通常の機械学習モデルより3~20倍高速で、計算コストも削減できる。また、モデルのパフォーマンスは、通常の機械学習モデルより3~20倍高速。
- Reanalyzing the Most Probable Sentence Problem: A Case Study in Explicating the Role of Entropy in Algorithmic Complexity
- Eric Corlett, Gerald Penn
- TLDR: 自然言語処理で、複雑な文を扱うタスクを解く際に、ランダムに計算するコストを削減する研究。ランダムに計算するコストは、ランダムに計算した計算コストと同等のコストになる。ランダムに計算するコストは、ランダムに計算した計算コストと同等のコストになる。
- Probing the Probing Paradigm: Does Probing Accuracy Entail Task Relevance?
- Abhilasha Ravichander, Yonatan Belinkov, Eduard Hovy
- TLDR: 自然言語処理モデルが文表現を学習する際、文表現の表現力がどう変化するかを検証した研究。文表現の表現力は学習時に必要ない単語を学習するが、文表現の表現力は学習時に必要ない単語を学習する。文表現の表現力は学習時に必要ない単語を学習するが、文表現の表現力は学習時に必要ない単語を学習する。
- One-class Text Classification with Multi-modal Deep Support Vector Data Description
- Chenlong Hu, Yukun Feng, Hidetaka Kamigaito, Hiroya Takamura, Manabu Okumura
- TLDR: マルチモーダルで学習するマルチスケールなマルチモーダル学習モデルの提案。マルチスケールで学習する際は、各スケールで学習するモデルを複数つなげることで、マルチスケールで学習するモデルをより精度の高いモデルに近づける。
- Unsupervised Word Polysemy Quantification with Multiresolution Grids of Contextual Embeddings
- Christos Xypolopoulos, Antoine Tixier, Michalis Vazirgiannis
- TLDR: 自然言語処理で、単語の各単語の意味を推定する研究。単語の意味を推定する際は、単語の意味を推定する単語の分布を考慮する。単語の意味分布は、単語の意味分布と単語の意味分布の2つに分けられる。単語の意味分布は、単語の意味分布と単語の意味分布の2つに分けられる。
- Mega-COV: A Billion-Scale Dataset of 100+ Languages for COVID-19
- Muhammad Abdul-Mageed, AbdelRahim Elmadany, El Moatez Billah Nagoudi, Dinesh Pabbi, Kunal Verma, Rannie Lin
- TLDR: 大規模なデータセットから、疑似食糧問題に関する研究。疑似食糧問題に関するデータセットは、BERTベースのモデルで作成されている。疑似食糧問題に関するデータセットは、BERTベースのモデルで作成されている。
- Disfluency Correction using Unsupervised and Semi-supervised Learning
- Nikhil Saini, Drumil Trivedi, Shreya Khare, Tejas Dhamecha, Preethi Jyothi, Samarth Bharadwaj, Pushpak Bhattacharyya
- TLDR: 音声認識で、言語の変遷を学習する際、変遷の予測は言語モデルの出力から行うべきとしている。この出力から、変遷の予測は言語モデルの出力から行うべきとしている。
- Complex Question Answering on knowledge graphs using machine translation and multi-task learning
- Saurabh Srivastava, Mayur Patidar, Sudip Chowdhury, Puneet Agarwal, Indrajit Bhattacharya, Gautam Shroff
- TLDR: 自然言語処理で、複数タスクを同時に行うタスクを提案。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タスクは、質問文を入力とする。タ
- Recipes for Adapting Pre-trained Monolingual and Multilingual Models to Machine Translation
- Asa Cooper Stickland, Xian Li, Marjan Ghazvininejad
- TLDR: 事前学習済みモデルを、事前学習済みモデルに適用するメリットと、事前学習済みモデルに適用するメリットをまとめた研究。事前学習済みモデルは、事前学習済みモデルの挙動を逆転させる(Frozen)ことで精度を上げることができるが、事前学習済みモデルは逆転させると精度が下がる。事前学習済みモデルは、事前学習済みモデルの挙動を逆転させるより精度が下がる。
- From characters to words: the turning point of BPE merges
- Ximena Gutierrez-Vasques, Christian Bentz, Olga Sozinova, Tanja Samardzic
- TLDR: 自然言語処理における、単語分散表現の分布を調べた研究。単語分散表現は単語分散表現と同等に扱われるが、単語分散表現は単語分散表現と同等に扱われる。単語分散表現は単語分散表現と同等に扱われるが、単語分散表現は単語分散表現と同等に扱われる。
- A Large-scale Evaluation of Neural Machine Transliteration for Indic Languages
- Anoop Kunchukuttan, Siddharth Jain, Rahul Kejriwal
- TLDR: 多言語の翻訳を行う際に、翻訳の品質を評価する研究。翻訳の品質は言語の種類、翻訳の方向、翻訳の規模、翻訳の手法、翻訳の手法の3つに分けられている。また、翻訳の規模は、翻訳の規模と規模の3つに分けられている。
- Communicative-Function-Based Sentence Classification for Construction of an Academic Formulaic Expression Database
- Kenichi Iwatsuki, Akiko Aizawa
- TLDR: 論文の文中のFeatureを自動生成する研究。Featureは文中の単語を抽出する(Feature抽出は、文中の単語を抽出する)、文中の単語を抽出する(Feature抽出は、文中の単語を抽出する)、文中の単語を抽出する(Feature抽出は、文中の単語を抽出する)、文中の単語を抽出する(Feature抽出は、文中の単語を抽出する)、文中の単語を抽出する(Feature抽出は、文中の単語を抽出する)、文中の単語を抽出する(Fea
- Regulatory Compliance through Doc2Doc Information Retrieval: A case study in EU/UK legislation where text similarity has limitations
- Ilias Chalkidis, Manos Fergadiotis, Nikolaos Manginas, Eva Katakalou, Prodromos Malakasiotis
- TLDR: 政府機関の文書から、国税庁の文書を検索する研究。文書は文書から文書を検索するが、文書は文書から文書を検索する。文書は文書から文書を検索するが、文書は文書から文書を検索する。文書は文書から文書を検索するが、文書は文書から文書を検索する。文書は文書から文書を検索する。
- The Chinese Remainder Theorem for Compact, Task-Precise, Efficient and Secure Word Embeddings
- Patricia Thaine, Gerald Penn
- TLDR: モバイルデバイスで使われるマルチモーメントのネットワークを、高速かつ正確に扱うための研究。マルチモーメントのネットワークを扱う際、通常のFlatout Pointの精度を上げるために、Flatout Pointの精度を上げるためには、通常のFlatout Pointの精度を上げることを推奨している。
- Don’t Change Me! User-Controllable Selective Paraphrase Generation
- Mohan Zhang, Luchen Tan, Zihang Fu, Kun Xiong, Jimmy Lin, Ming Li, Zhengkai Tu
- TLDR: 文中の「変える」を「変える」に置き換える手法の提案。文中の単語を「変える」に置き換える形で生成を行う。文中の単語は、文中の単語を「変える」に置き換える形で生成する。文中の単語は、文中の単語を「変える」に置き換える形で生成する。
- Rethinking Coherence Modeling: Synthetic vs. Downstream Tasks
- Tasnim Mohiuddin, Prathyusha Jwalapuram, Xiang Lin, Shafiq Joty
- TLDR: 翻訳・要約・対話といったタスクで、モデルの評価が重要か検証した研究。モデルの評価は、翻訳・要約・対話といったタスクで行いがちだが、このタスクでは評価が難しい。そこで、各タスクで評価を比較し、評価結果が良好なモデルとそうでないモデルとの比較を行った研究。
- From the Stage to the Audience: Propaganda on Reddit
- Oana Balalau, Roxana Horincar
- TLDR: 政治の掲示板で、過激な記事を作成する手法について調査した研究。過激な記事は、政治の枠組みを変えたものとして扱われるが、実際は、過激な記事は、政治の枠組みを変えたものとして扱われる。過激記事は、政治の枠組みを変えたものとして扱われるが、過激記事は、過剰な記事と見なされる場合に使われることが多い。
- Probing for idiomaticity in vector space models
- Marcos Garcia, Tiago Kramer Vieira, Carolina Scarton, Marco Idiart, Aline Villavicencio
- TLDR: 自然言語処理で使われる単語の表現を、単語の意味を考慮したモデルで検証した研究。単語の意味を考慮したモデルは、単語の意味を考慮したモデルと比較して精度が低い。単語の意味を考慮したモデルは、単語の意味を考慮したモデルと比較して精度が低い。
- Is the Understanding of Explicit Discourse Relations Required in Machine Reading Comprehension?
- Yulong Wu, Viktor Schlegel, Riza Batista-Navarro
- TLDR: 機械学習モデルの読解能力を測る研究。文構造を理解する、文構造理解する、文構造理解する、文構造理解する、文構造理解する、文構造理解する、文構造理解する、文構造理解する、といった文構造理解のタスクを定義し、それらのタスクを評価する。
- Why Is MBTI Personality Detection from Texts a Difficult Task?
- Sanja Stajner, Seren Yenikent
- TLDR: 自然言語処理で、Twitterのデータセットで学習したモデルが、学習データの少ないモデルより低い精度で学習できなかった理由をまとめた研究。モデルは、Twitterのデータセットで学習したモデルと、学習データの少ないモデルの2つを比較し、どちらが良いかを検証している。
- Enconter: Entity Constrained Progressive Sequence Generation via Insertion-based Transformer
- Lee Hsun Hsieh, Yang-Yin Lee, Ee-Peng Lim
- TLDR: 事前学習済み言語モデルで、文生成時に文のEntityConstrainedを導入した研究。EntityConstrainedは文生成時に文のEntityConstrainedを適用するが、文生成時に文のEntityConstrainedを適用する際は文のEntityConstrainedを適用する。文生成時に文のEntityConstrainedを適用する際は、文のEntityConstrainedを適用する。
- Meta-Learning for Effective Multi-task and Multilingual Modelling
- Ishan Tarunesh, Sushil Khyalia, Vishwajeet Kumar, Ganesh Ramakrishnan, Preethi Jyothi
- TLDR: 自然言語処理において、言語とタスク間の相互理解を学習する手法の提案。タスクごとに、タスクの学習率(学習率の分布)を学習する。タスクごとに、タスクの学習率を学習するモデルを提案。タスクごとに、タスクの学習率を学習するモデルを提案。タスクごとに、タスクの学習率を学習するモデルを提案。
- “Killing Me” Is Not a Spoiler: Spoiler Detection Model using Graph Neural Networks with Dependency Relation-Aware Attention Mechanism
- Buru Chang, Inggeol Lee, Hyunjae Kim, Jaewoo Kang
- TLDR: 機械学習ベースのスコアリングモデルの提案。スコアリングモデルは、文関係の単語を予測するモデルで、単語の予測は、単語の意味を予測するグラフを用いている。このグラフは、単語の意味を予測するモデルの重みを考慮している。
- BERTese: Learning to Speak to BERT
- Adi Haviv, Jonathan Berant, Amir Globerson
- TLDR: 事前学習済み言語モデルで、事前学習済み言語モデルの知識を抽出する手法の提案。事前学習済み言語モデルは、事前学習済み言語モデルの知識を抽出するモデルで、事前学習済み言語モデルの知識を抽出するモデルをベースにしている。事前学習済み言語モデルは、事前学習済み言語モデルの知識を抽出するモデルをベースにしている。
- Lifelong Knowledge-Enriched Social Event Representation Learning
- Prashanth Vijayaraghavan, Deb Roy
- TLDR: 自然言語処理で、現実的な表現を学習する研究。現実的な表現は、現実的な行動を予測するだけでなく、現実的な行動を予測する潜在表現(行動の予測結果から予測する行動)を学習する。行動の予測は、行動の予測結果から予測する行動を予測する。行動予測は、行動の予測結果から予測する行動を予測する。
- GLaRA: Graph-based Labeling Rule Augmentation for Weakly Supervised Named Entity Recognition
- Xinyan Zhao, Haibo Ding, Zhe Feng
- TLDR: 自然言語処理で、既存のラベル付けルールを強化する研究。既存のラベル付けルールは、既存のモデルで学習したラベルをベースにしている。既存のラベル付けルールは、既存のモデルで学習したラベルをベースにしている。
- An End-to-end Model for Entity-level Relation Extraction using Multi-instance Learning
- Markus Eberts, Adrian Ulges
- TLDR: 文書から文書関係を抽出する研究。文書の文書構造を文書単位で学習し、文書の文書構造を文書単位で学習する。文書構造は文書単位で学習するが文書単位で学習する際は文書単位の文書構造を学習する。文書単位で学習する際は文書単位の文書構造を学習する。文書単位で学習する際は文書単位の文書構造を学習する。
- WER-BERT: Automatic WER Estimation with BERT in a Balanced Ordinal Classification Paradigm
- Akshay Krishna Sheshadri, Anvesh Rao Vijjini, Sukhdeep Kharbanda
- TLDR: 音声認識において、音声の誤差率を自動評価する研究。音声の誤差率は、音声の音声特徴と音声のTransformerの精度(音声の音声特徴と音声特徴双方を比較し、音声特徴と音声特徴双方を比較)で算出する。音声特徴と音声特徴双方を比較し、精度を落とさず精度を落とす手法を提案している。
- Two Training Strategies for Improving Relation Extraction over Universal Graph
- Qin Dai, Naoya Inoue, Ryo Takahashi, Kentaro Inui
- TLDR: 距離を測る研究で、単純な距離ではなく、複雑な距離を測る研究。単純な距離は単純な距離と同等の精度を維持するが、複雑な距離は精度が低下する。そのため、複雑な距離を測るための学習方法を工夫している。
- Adaptation of Back-translation to Automatic Post-Editing for Synthetic Data Generation
- WonKee Lee, Baikjin Jung, Jaehun Shin, Jong-Hyeok Lee
- TLDR: 機械翻訳における事前学習済みモデルの事前学習済みモデルを、事前学習済みモデルの学習済みモデルに組み込む研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルの学習済みモデルをベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習済みモデルをベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習済みモデルをベースに学習する。
- Removing Word-Level Spurious Alignment between Images and Pseudo-Captions in Unsupervised Image Captioning
- Ukyo Honda, Yoshitaka Ushiku, Atsushi Hashimoto, Taro Watanabe, Yuji Matsumoto
- TLDR: 画像のキャプチャーを、文レベルの画像と画像のキャプチャーに近づける研究。画像のキャプチャーは、画像の単語を入力とする文に近づける。画像のキャプチャーは、画像の単語を入力とする文に近づける。画像のキャプチャーは、画像の単語を入力とする文に近づける。
- Towards More Fine-grained and Reliable NLP Performance Prediction
- Zihuiwen Ye, Pengfei Liu, Jinlan Fu, Graham Neubig
- TLDR: 自然言語処理のパフォーマンスを予測する手法の提案。モデルのパフォーマンスを予測するだけでなく、モデルのパフォーマンスを予測するモデルのパフォーマンスを予測するモデルも提案している。モデルのパフォーマンスを予測するモデルは、モデルのパフォーマンスを予測するモデルと同等のモデルが使われることが多い。
- Metrical Tagging in the Wild: Building and Annotating Poetry Corpora with Rhythmic Features
- Thomas Haider
- TLDR: 文の表現を抽出する研究。文の表現は、文の意味を表す単語(単語の重み)と、文の意味を表す単語(単語の重み)を区別する単語(単語の重み)の2つに分け、単語の重みを区別する単語(単語の重み)と、単語の重みを区別する単語(単語の重み)の2つに分け、単語の重みを区別する単語(単語の重み)と、単語の重みを区別する単語(単語の重み)の2つに分け、単語の重みを区別する単語(単語の
- Enhancing Aspect-level Sentiment Analysis with Word Dependencies
- Yuanhe Tian, Guimin Chen, Yan Song
- TLDR: 文依存情報を利用したaspect-level sentiment分析の提案。文依存情報はKey-Valueのネットワークで、各文の文長が長くなると、文長の予測精度が下がる。そのため、文長が長くなると予測精度が下がる。また、文長が長くなると、文長の予測精度が下がる。