Background

  • NAACL 2022 papers with one sentence summaries (data was obtained from official github repository.)
  • Summaries were automatically generated by a mBART fine-tuned on the XSCITLDR dataset.

No human validation on summaries, so you can’t trust them, please just use them as a starting point of your work.

For other languages,

Summaries

  • Social Norms Guide Reference Resolution
    • Mitchell Abrams, Matthias Scheutz
    • TLDR: 自然言語処理で、文中の表現を解釈する際、文の表現が「文」ではなく「文」の表現に依存するケースがある。この問題を、文の表現に依存する表現を含まない表現に置き換える研究で解いた。文表現の依存は、文の表現が「文」の表現に依存するケースに限界があるからで、文表現の依存は「文」の表現に依存するケースに限界があるからである。
  • Learning Natural Language Generation with Truncated Reinforcement Learning
    • Alice Martin, Guillaume Quispe, Charles Ollion, Sylvain Le Corff, Florian Strub, Olivier Pietquin
    • TLDR: 強化学習で、事前学習済みモデルを学習する手法の提案。事前学習済みモデルは、事前学習済みモデルの学習済み言語モデルと同等の学習が行えるか検証している。事前学習済みモデルは、事前学習済みモデルの学習済み言語モデルと同等の学習が行えるか検証している。事前学習済みモデルは、事前学習済みモデルの学習済み言語モデルと同等の学習が行えるか検証している。
  • Language Model Augmented Monotonic Attention for Simultaneous Translation
    • Sathish Reddy Indurthi, Mohd Abbas Zaidi, Beomseok Lee, Nikhil Kumar Lakumarapu, Sangha Kim
    • TLDR: 翻訳において、単調なAttentionを改善する研究。単調なAttentionは翻訳モデルのパフォーマンスを低下させる可能性がある。単調なAttentionは翻訳モデルのパフォーマンスを低下させる可能性がある。単調なAttentionは翻訳モデルのパフォーマンスを低下させる可能性がある。単調なAttentionは翻訳モデルのパフォーマンスを低下させる可能性がある。
  • What Makes a Good and Useful Summary? Incorporating Users in Automatic Summarization Research
    • Maartje Ter Hoeve, Julia Kiseleva, Maarten Rijke
    • TLDR: 自動生成文の研究について、ユーザーのニーズとその調査結果をまとめたサーベイ。自動生成文の分類、生成結果の評価、また自動生成文の作成についてまとめられている。
  • ErAConD: Error Annotated Conversational Dialog Dataset for Grammatical Error Correction
    • Xun Yuan, Derek Pham, Sam Davidson, Zhou Yu
    • TLDR: 自然言語処理で、自然言語処理のエラー訂正を学習するデータセットの提案。既存のデータセットは、自然言語処理のエラー訂正を学習するモデルがベースで、学習データセットの分類は、エラー訂正の分類器で行う。エラー訂正は、単語の意味を予測するモデルで行う。
  • Semantic Diversity in Dialogue with Natural Language Inference
    • Katherine Stasaski, Marti Hearst
    • TLDR: 自然言語処理で、質問に対する自然言語処理の特性を評価する研究。質問に対する自然言語処理の特性を評価する指標として、自然言語処理の特性を評価する対話者モデルを提案。質問に対する自然言語処理の特性を評価する対話者モデルをベースに、質問に対する自然言語処理の特性を評価する対話者モデルを追加。
  • LEA: Meta Knowledge-Driven Self-Attentive Document Embedding for Few-Shot Text Classification
    • S. K. Hong, Tae Young Jang
    • TLDR: 事前学習済み言語モデルを学習する手法の提案。事前学習済み言語モデルは、事前学習済みモデルのAttentionを学習する。事前学習済み言語モデルは、事前学習済みモデルのAttentionを学習する。事前学習済み言語モデルは、事前学習済みモデルのAttentionを学習する。事前学習済み言語モデルは、事前学習済みモデルのAttentionを学習する。
  • Enhancing Self-Attention with Knowledge-Assisted Attention Maps
    • Jiangang Bai, Yujing Wang, Hong Sun, Ruonan Wu, Tianmeng Yang, Pengfei Tang, Defu Cao, Mingliang Zhang1, Yunhai Tong, Yaming Yang, Jing Bai, Ruofei Zhang, Hao Sun, Wei Shen
    • TLDR: 事前学習済み言語モデルの学習を、事前学習済み言語モデルのAttentionマップに組み込んだ研究。Attentionマップは事前学習済み言語モデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済み
  • Batch-Softmax Contrastive Loss for Pairwise Sentence Scoring Tasks
    • Anton Chernyavskiy, Dmitry Ilvovsky, Pavel Kalinin, Preslav Nakov
    • TLDR: 自然言語処理で、バッチsoftmaxの手法を用いた研究。バッチsoftmaxは、学習時に予測する単語の重みを小さくする手法で、学習時に重みを小さくする必要はない。ただ、学習時に重みを小さくする必要はあり得る。
  • NewsEdits: A News Article Revision Dataset and a Novel Document-Level Reasoning Challenge
    • Alexander Spangher, Xiang Ren, Jonathan May, Nanyun Peng
    • TLDR: ニュースの更新履歴を調べる研究。更新履歴は更新頻度が低い記事に更新されることが多いが、更新頻度が高い記事は更新頻度が低い記事に更新されることが多い。更新頻度が高い記事は更新頻度が低い記事に更新されることが多いが、更新頻度が高い記事は更新頻度が低い記事に更新されることが多い。更新頻度が高い記事は更新頻度が低い記事に更新されることが多い
  • Putting the Con in Context: Identifying Deceptive Actors in the Game of Mafia
    • Samee Ibraheem, Gaoyue Zhou, John DeNero
    • TLDR: ゲーム中のプレイヤーの役割を調べた研究。ゲーム中のプレイヤーは、相手の発言を真偽ととらえているか、真偽と偽の役割を区別するモデルを学習する。真偽と偽の役割を区別するモデルは、事前学習済みモデルと同等の精度を達成。
  • SUBS: Subtree Substitution for Compositional Semantic Parsing
    • Jingfeng Yang, Le Zhang, Diyi Yang
    • TLDR: 事前学習済みモデルで、事前学習済みモデルの学習済み表現を結合する手法の提案。事前学習済みモデルの学習済み表現を結合する際、結合した表現を結合する(結合した表現は、結合したモデルの学習済み表現と同等の性能を持つ)。結合した表現は、結合したモデルの学習済み表現と同等の性能を持つ。
  • Two Contrasting Data Annotation Paradigms for Subjective NLP Tasks
    • Paul Rottger, Bertie Vidgen, Dirk Hovy, Janet Pierrehumbert
    • TLDR: 自然言語処理で、データの分類を行う際に、事前学習済みモデルの分類結果を基にモデルを作成する手法の提案。分類結果は、分類結果の分類結果と同等の分類結果を生成するが、分類結果は分類結果と同等の分類結果を生成する。分類結果は、分類結果の分類結果と同等の分類結果を生成する。
  • Do Deep Neural Nets Display Human-like Attention in Short Answer Scoring?
    • Zijie Zeng, Xinyu Li, Dragan Gasevic, Guanliang Chen
    • TLDR: 機械学習で学習した重要な単語を、人手評価で補完する研究。補完は、学習データの分布を予測するだけでなく、学習データの分布を予測する際も考慮する必要がある。補完は、補完の結果と異なる単語を補完する必要があり、補完の結果と補完の結果が異なる単語を補完する必要があり、補完の結果と補完の結果が異なる単語を補完する必要があり、補完の結果と補完の結果が異なる単語を補完する必要があり、補完の結果と補完の結果が異なる単語を補完する必要があり、補完の結果と補完の結果
  • Knowledge-Grounded Dialogue Generation with a Unified Knowledge Representation
    • Yu Li, Baolin Peng, Yelong Shen, Yi Mao, Lars Liden, Zhou Yu, Jianfeng Gao
    • TLDR: 知識ベースの対話システムを、言語モデルで構築する研究。事前学習済み言語モデルをベースに、事前学習済み言語モデルをベースに対話システムを構築する。事前学習済み言語モデルは、事前学習済み言語モデルと同等の精度を達成。
  • CERES: Pretraining of Graph-Conditioned Transformer for Semi-Structured Session Data
    • Rui Feng, Chen Luo, Qingyu Yin, Bing Yin, Tuo Zhao, Chao Zhang
    • TLDR: 事前学習済みモデルを、事前学習済みモデルと同等の手法で学習する研究。事前学習済みモデルは、事前学習済みモデルと同等の手法を用い学習する。事前学習済みモデルは、事前学習済みモデルと同等の手法を用い学習する。事前学習済みモデルは、事前学習済みモデルと同等の手法を用い学習する。事前学習済みモデルは、事前学習済みモデルと同等の手法を用い学習する。
  • Political Ideology and Polarization: A Multi-dimensional Approach
    • Barea Sinno, Bernardo Oviedo, Katherine Atwell, Malihe Alikhani, Junyi Jessy Li
    • TLDR: 政治の論理モデルを、ニュース記事から予測する研究。記事のタイトル/記事の論理モデルを、ニュース記事のタイトル/記事の論理モデルから予測する。記事のタイトル/記事の論理モデルは、記事のタイトル/記事の論理モデルと同等のモデルを用いている。
  • Cooperative Self-training of Machine Reading Comprehension
    • Hongyin Luo, Shang-Wen Li, Mingye Gao, Seunghak Yu, James Glass
    • TLDR: 事前学習済み言語モデルを、事前学習済みモデルの質問抽出に組み込んだ研究。事前学習済みモデルは事前学習済みモデルの質問抽出に組み込むことで、事前学習済みモデルの質問抽出精度を向上させる。事前学習済みモデルは事前学習済みモデルの質問抽出に組み込むことで、事前学習済みモデルの精度を上げる。
  • GlobEnc: Quantifying Global Token Attribution by Incorporating the Whole Encoder Layer in Transformers
    • Ali Modarressi, Mohsen Fayyaz, Yadollah Yaghoobzadeh, Mohammad Taher Pilehvar
    • TLDR: 翻訳における、Transformerの単語特徴を、Encoder Blockに組み込んだ研究。Encoderは、Transformerの単語特徴を、各層のEncoderに入力し、Encoderの入力から単語特徴を生成する。この入力から、Transformerの単語特徴を生成する。
  • A Robustly Optimized BMRC for Aspect Sentiment Triplet Extraction
    • Shu Liu, Kaiwen Li, Zuhe Li
    • TLDR: 感情のaspect、opinion、etc.を抽出する研究。各aspect/opinionのクラスタリングを、各opinion/opinionのクラスタリングに近いクラスタリングに置き換える。このクラスタリングは、各opinion/opinionのクラスタリングと同等の効果を上げている。
  • Seed-Guided Topic Discovery with Out-of-Vocabulary Seeds
    • Yu Zhang, Yu Meng, Xuan Wang, Sheng Wang, Jiawei Han
    • TLDR: テキストエージェントが、質問に対する回答を学習するタスクについて、事前学習済み言語モデル(PLM)と、事前学習済み言語モデル(PLM)の2つを組み合わせた研究。事前学習済み言語モデルは、質問に対する回答が得られるかを検証する。事前学習済み言語モデルは、質問に対する回答が得られるかを検証する。
  • Towards Process-Oriented, Modular, and Versatile Question Generation that Meets Educational Needs
    • Xu Wang, Simin Fan, Jessica Houghton, Lu Wang
    • TLDR: 教師の質問生成モデルについて、教師の役割と課題をまとめた研究。教師の役割は、質問を作成する際のタスクを決める。タスクは、質問の生成/質問の生成結果から教師の役割を決める。タスクは、質問の生成/生成結果から教師の役割を決める。タスクは、質問の生成/生成結果から教師の役割を決める。
  • SwahBERT: Language Model of Swahili
    • Gati Martin, Medard Edmund Mswahili, Young-Seob Jeong, Jeong Young-Seob
    • TLDR: 自然言語処理のタスクで、Swahiliを学習した研究。Swahiliは、ニュースやネットニュースといった自然言語処理のタスクで、Swahiliの学習データセットは、Swahiliの言語モデルと同等の精度を維持している。
  • Deconstructing NLG Evaluation: Evaluation Practices, Assumptions, and Their Implications
    • Kaitlyn Zhou, Su Lin Blodgett, Adam Trischler, Hal Daumé III, Kaheer Suleman, Alexandra Olteanu
    • TLDR: 自然言語処理の評価について、評価の枠組みをまとめた研究。評価の枠組みは、評価の目的(評価対象)と評価の結果(結果)を比較し、評価結果が評価対象と異なる場合に適用する手法を提案している。評価の枠組みは、評価対象の文書を生成する文書と、文書の文書を生成する文書の2つに分けている。文書の文書分類は、文書分類の枠組みをベースにしている。
  • TSTR: Too Short to Represent, Summarize with Details! Intro-Guided Extended Summary Generation
    • Sajad Sotudeh, Nazli Goharian
    • TLDR: 論文の概要を抽出する研究。論文の概要は、論文の概要とその概要を含まない文書を抽出する。文書は概要と概要を区別する文書で、概要は文書全体を含まない文書を抽出する。文書全体を抽出する文書は、文書全体の概要を含まない文書を抽出する。
  • Empathic Machines: Using Intermediate Features as Levers to Emulate Emotions in Text-To-Speech Systems
    • Saiteja Kosgi, Sarath Sivaprasad, Niranjan Pedanekar, Anil Nelakanti, Vineet Gandhi
    • TLDR: テキストからメッセージを生成する際、感情をコントロールする手法の提案。感情を予測するモデルは、音声のノイズを除去する(ノイズは音声のノイズに近い)、ノイズは音声のノイズに近い(ノイズは音声のノイズに近い)、ノイズは音声のノイズに近い(ノイズは音声のノイズに近い)、といった3つの要素を考慮している。
  • The Why and The How: A Survey on Natural Language Interaction in Visualization
    • Henrik Voigt, Ozge Alacam, Monique Meuschke, Kai Lawonn, Sina Zarrieß
    • TLDR: 自然言語処理のタスクをまとめたサーベイ。自然言語処理のタスクを分類する分類機を、各タスクのタスク分類機と比較し、タスク分類機の分類機をまとめたサーベイ。タスク分類機の分類は、タスク分類機の分類機分類機と比較し、タスク分類機の分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類機分類
  • Understand before Answer: Improve Temporal Reading Comprehension via Precise Question Understanding
    • Hao Huang, Xiubo Geng, Guodong Long, Daxin Jiang
    • TLDR: 事前学習済み言語モデルを、事前学習済みモデルの予測モデルに組み込んだ研究。事前学習済みモデルは、事前学習済みモデルの予測モデルと同等の予測モデルを用いている。事前学習済みモデルは、事前学習済みモデルの予測モデルと同等の予測モデルを用いている。事前学習済みモデルは、事前学習済みモデルの予測モデルと同等の予測モデルを用いている。
  • User-Driven Research of Medical Note Generation Software
    • Tom Knoll, Francesco Moramarco, Alex Papadopoulos Korfiatis, Rachel Young, Claudia Ruffini, Mark Perera, Christian Perstl, Ehud Reiter, Anya Belz, Aleksandar Savkov
    • TLDR: 医療従事者のための自然言語処理の自動生成システムについて、実装・実運用・評価の3つのサーベイをまとめたサーベイ。実装はシンプルで、事前学習済みモデルのEncoder/Decoderを入力に入力し、EncodeしたEncode結果から自動生成を行う。実装は、事前学習済みモデルのEncode結果から生成を行う。
  • Ask Me Anything in Your Native Language
    • Nikita Sorokin, Dmitry Abulkhanov, Irina Piontkovskaya, Valentin Malykh
    • TLDR: マルチ言語の検索を行う際に、Encoder/Query/Readerを統合したモデルを提案。EncoderはEncodeした文書をEncodeした文書から、Readerは文書から文書を生成する。文書は文書から文書を生成する。Encoderは文書から文書を生成する。文書は文書から文書を生成する。
  • Diversifying Neural Dialogue Generation via Negative Distillation
    • Yiwei Li, Shaoxiong Feng, Bin Sun, Kan Li
    • TLDR: 対話システムで、低frequencyの質問に対し、低frequencyの回答を生成する手法の提案。低frequencyの質問に対し、低frequencyの回答を生成する。低frequencyの質問に対し、低frequencyの回答を生成する。学習済みモデルの学習済みモデルと同等の結果。
  • On Synthetic Data for Back Translation
    • Jiahao Xu, Yubin Ruan, Wei Bi, Guoping Huang, Shuming Shi, Lihui Chen, Lemao Liu
    • TLDR: 翻訳における合成データの役割について、実験結果をまとめた研究。合成データの質と重要性を評価する指標として、翻訳の品質と重要性を評価する指標を提案している。評価指標は、翻訳の品質/重要性、翻訳の精度/精度を評価する指標として、翻訳の品質/重要性を評価する指標を提案している。
  • Mapping the Design Space of Human-AI Interaction in Text Summarization
    • Ruijia Cheng, Alison Smith-Renner, Ke Zhang, Joel Tetreault, Alejandro Jaimes-Larrarte
    • TLDR: 機械学習モデルを使用した文書生成における人間の役割、経験、またタスクの提案についてまとめたサーベイ。タスク分類から、タスクの提案までをまとめている。タスク分類は、文書生成における人間との関わり方、タスクの提案、タスクの提案の3つに分けている。タスク分類は、文書生成における人間との関わり方、タスクの提案、タスクの提案の3つに分けている。
  • Towards Robust and Semantically Organised Latent Representations for Unsupervised Text Style Transfer
    • Sharan Narasimhan, Suvodip Dey, Maunendra Desarkar
    • TLDR: 自然言語処理で、文のスタイルを自動生成する研究。文のスタイルは、文の長さと長さの差(Levenshtein distance)を考慮する。長さは、文の長さと長さの差(Levenshtein distance)を考慮する。長さは、文の長さと長さの差(Levenshtein distance)を考慮する。長さは、長さの差を考慮する。
  • An Exploration of Post-Editing Effectiveness in Text Summarization
    • Vivian Lai, Alison Smith-Renner, Ke Zhang, Ruijia Cheng, Wenjuan Zhang, Joel Tetreault, Alejandro Jaimes-Larrarte
    • TLDR: 機械学習モデルと人間が対話するタスクで、事前学習済みモデルの事前学習と対話モデルの事前学習を比較した研究。事前学習は事前学習済みモデルの事前学習と同等の効果があり、事前学習は事前学習済みモデルの事前学習と同等の効果を確認。事前学習は事前学習済みモデルの事前学習と同等の効果を確認。
  • Automatic Correction of Human Translations
    • Jessy Lin, Geza Kovacs, Aditya Shastry, Joern Wuebker, John DeNero
    • TLDR: 機械翻訳における、自動修正を行う際に人間が作成したエラーを自動修正する研究。自動修正は機械翻訳の精度を上げるために有効だが、人間が作成したエラーは機械翻訳の精度に影響する。そのため、人間が作成したエラーを自動修正するモデルを導入する。自動修正は機械翻訳の精度向上に寄与するが、人間が作成したエラーは機械翻訳の精度に影響する。
  • On the Robustness of Reading Comprehension Models to Entity Renaming
    • Jun Yan, Yang Xiao, Sagnik Mukherjee, Bill Yuchen Lin, Robin Jia, Xiang Ren
    • TLDR: 機械学習モデルで、Entityの変更を行なった場合、モデルの挙動はどう変わるのか検証した研究。Entityの変更は、Entityの名詞を変更するより、Entityの名詞を変更する方が精度が上がることを確認。Entityの名詞を変更する際は、Entity名詞を変更するより、Entity名詞を変更する方が精度が上がることを確認。
  • Explaining Why: How Instructions and User Interfaces Impact Annotator Rationales When Labeling Text Data
    • Cynthia Sullivan, William Brackenbury, Andrew McNut, Kevin Bryson, Kbyllofficial@gmail.com Kbyllofficial@gmail.com, Yuxin Chen, Michael Littman, Chenhao Tan, Blase Ur
    • TLDR: 機械学習で、ラベル付けを行う際に、人間が選んだラベルの意味をどう扱うかを調べた研究。ラベル付けを行う際は、ラベルの意味を入力する単語を優先的に選択する。ラベルの意味を入力する単語は、入力時に入力される単語の意味を含まない単語を優先的に選択する。
  • Fine-tuning Pre-trained Language Models for Few-shot Intent Detection: Supervised Pre-training and Isotropization
    • Haode Zhang, Haowen Liang, Yuwei Zhang, Li-Ming Zhan, Xiao-Ming Wu, Xiaolei Lu, Albert Lam
    • TLDR: 事前学習済み言語モデルで、事前学習済みモデルの表現力を高めるための手法の提案。事前学習済みモデルの表現力は、事前学習済みモデルの表現力に依存する。そのため、事前学習済みモデルの表現力を維持するために、事前学習済みモデルの表現力を維持する手法を提案している。
  • Cross-document Misinformation Detection based on Event Graph Reasoning
    • Xueqing Wu, Kung-Hsiang Huang, Yi Fung, Heng Ji
    • TLDR: ニュースの情報をマルチタスクで検出する研究。文書レベルの検知と、文書レベルの事前学習を交互に行う。文書レベルの検知は文書レベルの文書をベースに、事前学習済み文書の文書分類をベースに行う。事前学習済み文書分類は文書分類の精度を落とすため、文書分類の精度を落とすため、文書分類の精度を落とすため文書分類の精度を落とす
  • Disentangled Action Recognition with Knowledge Bases
    • Zhekun Luo, Shalini Ghosh, Devin Guillory, Keizo Kato, Trevor Darrell, Huijuan Xu
    • TLDR: 自然言語処理における、自然言語処理のモデルの提案。学習データから自然言語処理のモデルを推定する際、自然言語処理のモデルの学習データから自然言語処理のモデルを推定する。自然言語処理のモデルは、自然言語処理のモデルと同等の性能を発揮する。
  • Machine-in-the-Loop Rewriting for Creative Image Captioning
    • Vishakh Padmakumar, He He
    • TLDR: 機械学習で文書を作成する際、文書の長さを変更する研究。文書の長さを変更する際は、文書の長さを変更する(長くなるほど文書の表現が豊富になる)。文書の長さを変更する際は、文書の長さを変更する(長くなるほど文書の表現が豊富になる)。
  • A Word is Worth A Thousand Dollars: Adversarial Attack on Tweets Fools Stock Prediction
    • Yong Xie, Dakuo Wang, Pin-Yu Chen, Jinjun Xiong, Sijia Liu, Oluwasanmi Koyejo
    • TLDR: 機械学習モデルに対するAdversarial Attackの研究。Adversarial Attackは、予測モデルの予測結果を誤認識する。予測モデルは、予測結果を誤認識する可能性がある。そのため、予測モデルの予測結果を誤認識する手法を提案している。
  • Building Multilingual Machine Translation Systems That Serve Arbitrary XY Translations
    • Akiko Eriguchi, Shufang Xie, Tao Qin, Hany Hassan
    • TLDR: マルチ言語の翻訳を行う際に、事前学習済みモデルをベースにマルチタスクを学習する手法の提案。事前学習済みモデルは、翻訳のタスクを複数回に分けて学習する。タスクは、翻訳のタスク(複数回の翻訳)で、タスクの重みを調整する形で学習する。タスクは、翻訳のタスクを複数回に分けて学習する。
  • Non-Autoregressive Neural Machine Translation with Consistency Regularization Optimized Variational Framework
    • Minghao Zhu, Junli Wang, Chungang Yan
    • TLDR: 自動翻訳モデルの改善を、事前学習済みモデルと比較して行う研究。事前学習済みモデルは、事前学習済みモデルと同等の精度が得られるが、事前学習済みモデルは精度が落ちる。そこで事前学習済みモデルと同等の精度を獲得するために、事前学習済みモデルの予測精度を上げるための事前学習を行なっている。
  • User-Centric Gender Rewriting
    • Bashar Alhafni, Nizar Habash, Houda Bouamor
    • TLDR: 言語モデルの学習と、言語モデルの学習を組み合わせた研究。学習は、言語モデルの学習と、言語モデルの学習を組み合わせた形で行う。学習は、言語モデルの学習と、言語モデルの学習を組み合わせた形で行う。学習は、言語モデルの学習と、言語モデルの学習を組み合わせた形で行う。
  • Reframing Human-AI Collaboration for Generating Free-Text Explanations
    • Sarah Wiegreffe, Jack Hessel, Swabha Swayamdipta, Mark Riedl, Yejin Choi
    • TLDR: 自然言語処理で、モデルの説明が人間に受け入れられるかを検証した研究。モデルは、説明が人間に受け入れられるかを予測するモデルで、人間が説明を受け入れられるかを予測する。人間が説明を受け入れられるかは、説明の質と精度に大きく依存する。
  • EmRel: Joint Representation of Entities and Embedded Relations for Multi-triple Extraction
    • Benfeng Xu, Quan Wang, Yajuan Lyu, Yabing Shi, Yong Zhu, Jie Gao, Zhendong Mao
    • TLDR: マルチタスクの複合表現を扱う研究。マルチタスクの複合表現は、単なる表現だけでなく、複数のタスクでも同じ表現を扱う。タスクは、タスクの重みを計算するタスクで、タスクの重みは、タスクの重みの重みを計算する重みの重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重
  • Meta Learning for Natural Language Processing: A Survey
    • Hung-yi Lee, Shang-Wen Li, Thang Vu
    • TLDR: 自然言語処理における、モデルの学習方法についてまとめたサーベイ。タスク構造、タスクの分類、タスクの適用事例、タスクの評価方法などについてまとめられている。タスク分類は、タスク分類の分類器を用いて行うことが多いが、分類器の分類はタスク分類器の分類器を用いている。
  • Analyzing Modality Robustness in Multimodal Sentiment Analysis
    • Devamanyu Hazarika, Yingting Li, Bo Cheng, Shuai Zhao, Roger Zimmermann, Soujanya Poria
    • TLDR: マルチモーダルの評価手法を検証した研究。モデルの重みを調整する手法を検証し、重みの調整はモデルの重みを調整する手法と、重みの調整はモデルの重みを調整する手法の2つに分けている。重みの調整はモデルの重みを調整する手法と、重みの調整は重みの調整する手法の2つに分けている。
  • Fuse It More Deeply! A Variational Transformer with Layer-Wise Latent Variable Inference for Text Generation
    • Jinyi Hu, Xiaoyuan Yi, Wenhao Li, Maosong Sun, Xing Xie
    • TLDR: テキスト生成において、Auto Encoderが使用する潜在表現を無視する手法の提案。潜在表現は、テキストの生成時に使用されるテキストの単語を予測する形で生成される。この予測は、テキストの生成時に使用される単語を予測する形で行われる。
  • Easy Adaptation to Mitigate Gender Bias in Multilingual Text Classification
    • Xiaolei Huang
    • TLDR: マルチ言語対応のテキスト分類器を、性別ではなく性別にフォーカスしたモデルに変える研究。性別は単一の言語だけでなく、複数言語の言語でも同じように扱われる。性別は単一の言語のみでなく複数言語で扱われる。性別は単一の言語のみで扱われるが、複数言語の言語で扱われる場合、性別を考慮するモデルを導入する。
  • On the Use of External Data for Spoken Named Entity Recognition
    • Ankita Pasad, Felix Wu, Suwon Shon, Karen Livescu, Kyu Han
    • TLDR: 自然言語処理で、事前学習済みモデルを転移学習に活用する手法のサーベイ。事前学習済みモデルは、事前学習済みモデルの学習率が低い場合、転移学習の精度が下がる可能性がある。事前学習済みモデルは、事前学習済みモデルの学習率が下がる可能性がある。事前学習済みモデルは、事前学習済みモデルの学習率が下がる可能性がある。
  • Long-term Control for Dialogue Generation: Methods and Evaluation
    • Ramya Ramakrishnan, Hashan Narangodage, Mauro Schilman, Kilian Weinberger, Ryan McDonald
    • TLDR: 対話システムの自動生成を行う際に、長いモデルを導入した研究。既存のモデルは長いモデルを導入しており、長いモデルは長い文を生成する際の予測を予測する。そのため、予測時に予測する文を予測するモデルを導入している。
  • Learning Dialogue Representations from Consecutive Utterances
    • Zhihan Zhou, Dejiao Zhang, Wei Xiao, Nicholas Dingwall, Xiaofei Ma, Andrew Arnold, Bing Xiang
    • TLDR: 対話システムで、対話文を生成する手法の提案。対話文を生成する際は、対話文の単語を入力とする。入力は、入力と対話文の単語の位置関係を入力とする。入力は、入力と対話文の位置関係を入力とする。入力は、入力と対話文の位置関係を入力とする。入力は、入力と対話文の位置関係を入力とする。
  • On the Machine Learning of Ethical Judgments from Natural Language
    • Zeerak Talat, Hagen Blix, Josef Valvoda, Maya Indira Ganesh, Ryan Cotterell, Adina Williams
    • TLDR: 機械学習モデルで、人間がどんな行動をとっているのかを予測する研究。モデルは、人間がどんな行動をとっているのかを予測する。モデルは、人間がどんな行動をとっているのかを予測する。モデルは、人間がどんな行動をとっているのかを予測する。モデルは、人間がどんな行動をとっているのかを予測する。
  • NeuroLogic A*esque Decoding: Constrained Text Generation with Lookahead Heuristics
    • Ximing Lu, Sean Welleck, Peter West, Liwei Jiang, Jungo Kasai, Daniel Khashabi, Ronan Le Bras, Lianhui Qin, Youngjae Yu, Rowan Zellers, Noah Smith, Yejin Choi
    • TLDR: 自然言語処理で、左から右に順番に生成を行う手法の提案。左から右に順番に生成するのではなく、左から右に順番に生成する形で生成を行う。生成は、入力と入力双方向の2つのタスクで行い、入力は入力と入力双方向の2つに分割される。入力は入力と入力双方向の2つに分割される。
  • PARADISE: Exploiting Parallel Data for Multilingual Sequence-to-Sequence Pretraining
    • Machel Reid, Mikel Artetxe
    • TLDR: マルチ言語対応の翻訳モデルで、事前学習済みモデルと同等の手法を用いた研究。事前学習済みモデルは、翻訳文の単語を追加する(追加した単語は翻訳文の単語長に近い単語になる)ことで、翻訳文の精度を上げている。事前学習済みモデルは、翻訳文の単語長を追加することで精度を上げている。
  • Explaining Toxic Text via Knowledge Enhanced Text Generation
    • Rohit Sridhar, Diyi Yang
    • TLDR: toxic speechを生成するEncoder Decoderを、知識ベースのモデルに組み込んだ研究。Encoder Decoderは、toxic speechを生成する際の知識ベースのモデルで、知識ベースのモデルは、toxic speechを生成する際に使用する知識ベースのモデルをベースにしている。
  • Teaching BERT to Wait: Balancing Accuracy and Latency for Streaming Disfluency Detection
    • Angelica Chen, Vicky Zayats, Daniel Walker, Dirk Padfield
    • TLDR: 音声を学習する際、学習済みモデルの挙動を変更する際の対応策を学習する研究。学習済みモデルは、学習済みモデルの挙動を変更する(変更は学習済みモデルの挙動に影響する)。学習済みモデルは、学習済みモデルの挙動を変更する(挙動は学習済みモデルの挙動に影響する)。
  • GRAM: Fast Fine-tuning of Pre-trained Language Models for Content-based Collaborative Filtering
    • Yoonseok Yang, Kyu Seok Kim, Minsam Kim, Juneyoung Park
    • TLDR: 事前学習済み言語モデルを、事前学習済みモデルの学習に応用した研究。事前学習済みモデルは、ユーザーの行動履歴と、ユーザーの評価履歴を入力として学習するが、評価履歴は入力データの更新が遅くなる。そこで、評価履歴を入力とするEncoder/Decoderの更新を同時に行うことで、更新が遅くなる要因を防ぎつつ学習効率を上げる。
  • Generating Repetitions with Appropriate Repeated Words
    • Toshiki Kawamoto, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura
    • TLDR: 自然言語処理で、繰り返しの表現を生成する手法の提案。単語の重みを軽くすることで、単語の重みを軽くする。重みは、単語の重みを軽くする(重みは、単語の重みを軽くする)ことで生成する。重みは、単語の重みを軽くする(重みは、単語の重みを軽くする)ことで生成する。
  • Textless Speech-to-Speech Translation on Real Data
    • Ann Lee, Hongyu Gong, Paul-Ambroise Duquenne, Holger Schwenk, Peng-Jen Chen, Changhan Wang, Sravya Popuri, Yossi Adi, Juan Pino, Jiatao Gu, Wei-Ning Hsu
    • TLDR: マルチスピーカー対応の翻訳システムを、事前学習済みモデルと、事前学習済みモデルの2つから学習する研究。事前学習済みモデルは、事前学習済みモデルの音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声を入力とし、音声
  • WALNUT: A Benchmark on Semi-weakly Supervised Learning for Natural Language Understanding
    • Guoqing Zheng, Giannis Karamanolakis, Kai Shu, Ahmed Awadallah
    • TLDR: 自然言語処理モデルの弱教師に対する評価手法のサーベイ。モデルの弱教師は、通常の教師と同等の精度を維持するが、事前学習済みモデルの弱教師は、事前学習済みモデルのパフォーマンスを上げることができない。そこで、事前学習済みモデルの弱教師を評価するベンチマークを提案。
  • CompactIE: Compact Facts in Open Information Extraction
    • Farima Fatahi Bayat, Nikita Bhutani, H. Jagadish
    • TLDR: 大規模な抽出を行う際に、よりコンパクトな抽出を行う手法の提案。抽出のサイズは、各抽出の固有表現を考慮する必要があり、この点を考慮した抽出を行なっている。抽出のサイズは、各抽出の固有表現を考慮する必要があり、この点を考慮した抽出を行なっている。
  • CoSIm: Commonsense Reasoning for Counterfactual Scene Imagination
    • Hyounghun Kim, Abhay Zala, Mohit Bansal
    • TLDR: 画像をモデルに入力し、モデルが画像とモデルの説明を組み合わせて予測するタスクの提案。モデルは画像と説明を入力とし、予測結果を入力とし予測結果を組み合わせて予測を行う。予測結果は、モデルの予測結果と異なる場合に予測結果を追加する。
  • Abstraction not Memory: BERT and the English Article System
    • Harish Tayyar Madabushi, Dagmar Divjak, Petar Milin
    • TLDR: 文の予測を行うモデルの評価について、文の予測を行うモデルが人間に近いか検証した研究。文の予測を行うモデルは、文の予測結果を予測するモデルと同等の精度を達成できたが、文の予測結果は人間より劣る。文の予測結果は、文の予測結果と同等の精度を達成できた。
  • OmniTab: Pretraining with Natural and Synthetic Data for Few-shot Table-based Question Answering
    • Zhengbao Jiang, Yi Mao, Pengcheng He, Graham Neubig, Weizhu Chen
    • TLDR: テーブル情報から質問回答を行うモデルの提案。質問とテーブル情報を結合し、質問とテーブル情報を結合したモデルを構築する。質問とテーブル情報を結合したモデルを構築し、質問とテーブル情報を結合したモデルを構築する。モデルは、テーブル情報から質問とテーブル情報を結合したモデルを構築する。
  • Provably Confidential Language Modelling
    • Xuandong Zhao, Lei Li, Yu-Xiang Wang
    • TLDR: プライバシー情報を学習するモデルの学習を、事前学習済みモデルと比較して防衛的にする研究。事前学習済みモデルはプライバシー情報を学習するが、事前学習済みモデルはプライバシー情報を学習する。事前学習済みモデルはプライバシー情報を学習するが、プライバシー情報を学習するモデルはプライバシー情報を学習する。
  • KAT: A Knowledge Augmented Transformer for Vision-and-Language
    • Liangke Gui, Borui Wang, Qiuyuan Huang, Alexander Hauptmann, Yonatan Bisk, Jianfeng Gao
    • TLDR: マルチモーダルで学習するTransformerにおいて、事前学習済みモデルと潜在表現を組み合わせて解釈性を高める研究。事前学習済みモデルは潜在表現を入力とするが、潜在表現は入力と入力双方を入力とする。入力と入力双方を入力とするTransformerを、事前学習済みモデルと同等の手法で解釈性を高める。
  • When a sentence does not introduce a discourse entity, Transformer-based models still sometimes refer to it
    • Sebastian Schuster, Tal Linzen
    • TLDR: 言語モデルの学習を心理学の観点から検証した研究。通常の言語モデルは自然言語処理で使われる単語を学習するが、言語モデルの学習は言語モデルの学習済み単語を学習させる形で行われる。この学習は、単語の意味を予測する単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用される単語の学習に使用
  • On Curriculum Learning for Commonsense Reasoning
    • Adyasha Maharana, Mohit Bansal
    • TLDR: 自然言語処理モデルの学習について、学習率が高いモデルと低いモデルの2つを検証した研究。学習率が高いモデルは学習率が高い=学習率が高い、という結果。低いモデルは学習率が高い=学習率が高い、という結果。学習率が高い=学習率が高い、という結果。
  • DocTime: A Document-level Temporal Dependency Graph Parser
    • Puneet Mathur, Vlad Morariu, Verena Kaynig-Fittkau, Jiuxiang Gu, Franck Dernoncourt, Quan Tran, Ani Nenkova, Dinesh Manocha, Rajiv Jain
    • TLDR: 文書から、文書の文書構造を推定する研究。文書の文書構造を推定する際、文書の文書構造を推定するネットワークを用い、文書構造を推定するネットワークの重みを計算する。文書構造を推定するネットワークは、文書構造を推定するネットワークと、文書構造を推定するネットワークの2つを用い、文書構造を推定するネットワークを用い文書構造を推定するネットワークを構築する。
  • FactPEGASUS: Factuality-Aware Pre-training and Fine-tuning for Abstractive Summarization
    • David Wan, Mohit Bansal
    • TLDR: 事前学習済みモデルの提案。事前学習済みモデルは、事前学習済みモデルの事前学習済みモデルと同等の事前学習済みモデルを組み合わせて作成する。事前学習済みモデルは、事前学習済みモデルの事前学習済みモデルと同等の事前学習済みモデルを組み合わせて作成する。事前学習済みモデルは、事前学習済みモデルの事前学習済みモデルと同等の事前学習済みモデルを組み合わせて作成する。事前学習済みモデルは、事前学習済みモデルの事前学習済みモデルと同等の事前学習済みモデルを組み合わせて作成する。
  • ScAN: Suicide Attempt and Ideation Events Dataset
    • Bhanu Pratap Singh Rawat, Samuel Kovaly, Hong Yu, Wilfred Pigeon
    • TLDR: 死亡率が高い病気の診断書で、死亡率が高い病気の症状を調べる研究。入院時、入院先の病院で死亡率が高いことを確認した。入院時、死亡率が高いことを確認した結果、死亡率が高い=死亡率が高いと判断する。死亡率が高い=死亡率が高いと判断する。
  • Socially Aware Bias Measurements for Hindi Language Representations
    • Vijit Malik, Sunipa Dev, Akihiro Nishi, Nanyun Peng, Kai-Wei Chang
    • TLDR: 自然言語処理で、社会の偏りを言語モデルで表現する研究。言語モデルは、言語の特性を考慮したモデルで、言語特性を考慮したモデルは、言語特性を考慮したモデルと同等のモデルを構築する必要がある。
  • AmbiPun: Generating Humorous Puns with Ambiguous Context
    • Anirudh Mittal, Yufei Tian, Nanyun Peng
    • TLDR: 文生成において、文の文脈を考慮する手法の提案。文脈は、文中の単語を単語ベクトルとして、文の文脈から文の意味を予測する。文の意味は、文の文脈から予測する。文の文脈は、文の文脈から予測する。文の文脈は、文脈から予測する文脈を予測する。文脈は、文脈から予測する文脈を予測する。文脈は、文脈から予測する文脈を予測する。文脈は、文脈から予測する文脈を予測する。文脈は、文脈から予測する文脈を予測する。文脈
  • EmpHi: Generating Empathetic Responses with Human-like Intents
    • Mao Yan Chen, Siheng Li, Yujiu Yang
    • TLDR: 対話システムで、人間が理解できない感情表現を生成する研究。感情表現の分布を学習する際、感情表現の分布を予測する潜在表現を入力として使用し、その分布を予測する。潜在表現の分布は、感情表現の分布と同等の分布を予測する。
  • Yes, No or IDK: The Challenge of Unanswerable Yes/No Questions
    • Elior Sulem, Jamaal Hay, Dan Roth
    • TLDR: 自然言語処理で、質問に答えるタスクを追加した研究。質問に答えるタスクは2つあり、質問の回答は2つに分けて行う。質問の回答は、質問の回答と同等の文書表現を用い、文書表現の表現を用い質問の回答を予測する。質問の回答は、文書表現の予測結果から予測する。
  • Inducing and Using Alignments for Transition-based AMR Parsing
    • Andrew Drozdov, Jiawei Zhou, Radu Florian, Andrew McCallum, Tahira Naseem, Yoon Kim, Ramón Astudillo
    • TLDR: マルチタスクで学習するAMRで、事前学習済みモデルと同等の精度を達成した研究。事前学習済みモデルは、事前学習済みモデルの精度を上回る精度を達成できなかった。事前学習済みモデルは、事前学習済みモデルの精度を上回る精度を達成できた。
  • Masked Part-Of-Speech Model: Does Modeling Long Context Help Unsupervised POS-tagging?
    • Xiang Zhou, Shiyue Zhang, Mohit Bansal
    • TLDR: 事前学習済み言語モデルの事前学習を、事前学習済み言語モデルの事前学習に置き換えた研究。事前学習済み言語モデルは事前学習済み言語モデルと同等の精度を維持できるが、事前学習済み言語モデルは事前学習済み言語モデルと同等の精度を維持できない。事前学習済み言語モデルは事前学習済み言語モデルと同等の精度を維持できるが、事前学習済み言語モデルは事前学習済み言語モデルと同等の精度を維持できない。
  • DREAM: Improving Situational QA by First Elaborating the Situation
    • Yuling Gu, Bhavana Dalvi, Peter Clark
    • TLDR: 事前学習済みモデルを、事前学習済みモデルの質問に追加する研究。事前学習済みモデルは事前学習済みモデルの質問に追加した質問を回答するモデルで、事前学習済みモデルは事前学習済みモデルの質問に追加した質問を回答するモデルで学習する。事前学習済みモデルは事前学習済みモデルより精度が向上するが、事前学習済みモデルは事前学習済みモデルより精度が落ちる。
  • CoSe-Co: Text Conditioned Generative CommonSense Contextualizer
    • Rachit Bansal, Milan Aggarwal, Sumit Bhatia, Jivat Kaur, Balaji Krishnamurthy
    • TLDR: 自然言語処理で、文中の単語を単語ベクトルに変換する研究。単語ベクトルは単語ベクトルの単語ベクトルを入力とする。単語ベクトルは単語ベクトルの単語ベクトルを入力とする。単語ベクトルは単語ベクトルの単語ベクトルを入力とする。単語ベクトルは単語ベクトルの単語ベクトルを入力とする。
  • Probing via Prompting
    • Jiaoda Li, Ryan Cotterell, Mrinmaya Sachan
    • TLDR: 事前学習済み言語モデルのモデルフリーの提案。事前学習済みモデルのモデルフリーは、事前学習済みモデルの構造を学習するモデルと同等の精度を発揮する。事前学習済みモデルの構造を学習するモデルを、事前学習済みモデルの構造を学習するモデルに置き換える形で学習する。事前学習済みモデルの構造を学習するモデルを、事前学習済みモデルの構造を学習するモデルに置き換える形で学習する。
  • Database Search Results Disambiguation for Task-Oriented Dialog Systems
    • Kun Qian, Satwik Kottur, Ahmad Beirami, Shahin Shayandeh, Paul Crook, Alborz Geramifard, Zhou Yu, Chinnadhurai Sankar
    • TLDR: 対話システムで、複数検索結果を同時に行うタスクを提案。検索結果は複数選択可能なモデルで、選択したモデルは複数選択可能なモデルでなく、選択したモデルのモデルを学習する。学習は、事前学習済みモデルの学習済みモデルをベースに行う。
  • Unsupervised Slot Schema Induction for Task-oriented Dialog
    • Dian Yu, Mingqiu Wang, Yuan Cao, Izhak Shafran, Laurent Shafey, Hagen Soltau
    • TLDR: タスクに応じたラベルを生成する研究。ラベルは通常のラベルと異なる単語を入力するが、ラベルを入力するラベルは単語の意味を含まない単語を入力する。単語の意味を含まないラベルを入力する際は、単語の意味を含まない単語を入力するよう学習する。
  • Towards a Progression-Aware Autonomous Dialogue Agent
    • Abraham Sanders, Tomek Strzalkowski, Mei Si, Albert Chang, Deepanshu Dey, Jonas Braasch, Dakuo Wang
    • TLDR: 対話システムの強化学習で、対話システムの軌道を評価する研究。対話システムは、対話結果から行動を推定するネットワークを構築する。このネットワークは、対話結果から行動を推定するネットワークと、行動を推定するネットワークの2つを統合している。対話結果から行動を推定するネットワークは、対話結果から行動を推定するネットワークと統合している。
  • Cross-Domain Detection of GPT-2-Generated Technical Text
    • Juan Rodriguez, Todd Hay, David Gros, Zain Shamsi, Ravi Srinivasan
    • TLDR: 論文の生成に、論文の生成に適した文書を検出する手法の提案。文書の生成は、論文のタイトル/本文/論文の概要/論文の概要/論文の概要/文書の概要/文書の概要/文書の概要/文書の概要/文書の概要/文書の概要/文書の概要を入力として生成を行う。文書の概要/文書の概要/文書の概要を入力として生成を行う。
  • DISAPERE: A Dataset for Discourse Structure in Peer Review Discussions
    • Neha Kennard, Tim O’Gorman, Rajarshi Das, Akshay Sharma, Chhandak Bagchi, Matthew Clinton, Pranay Kumar Yelugam, Hamed Zamani, Andrew McCallum
    • TLDR: 論文の評価に関する文書を、評価結果と比較して評価する手法の提案。評価結果は、評価結果と比較して、評価結果と比較して評価結果が異なる場合に評価が下がる傾向がある。評価結果は、評価結果と比較して評価結果が異なる場合に評価が下がる傾向がある。評価結果は、評価結果と比較して評価結果が異なる場合に評価が下がる傾向がある。
  • MultiSpanQA: A Dataset for Multi-Span Question Answering
    • Haonan Li, Martin Tomko, Maria Vasardani, Timothy Baldwin
    • TLDR: マルチスパンの質問に対する評価手法の提案。マルチスパンの質問は、単一のスパンから抽出するのではなく、複数スパンの質問を抽出する。複数スパンの質問は、単一スパンの質問と同等の評価が行える。
  • Context-Aware Abbreviation Expansion Using Large Language Models
    • Shanqing Cai, Subhashini Venugopalan, Katrin Tomanek, Ajit Narayanan, Meredith Morris, Michael Brenner
    • TLDR: 自然言語処理で、単語拡張を行う際に、単語長を徐々に拡張していく手法の提案。単語長は単語長の単語を除き、単語長の単語は単語長の単語長を除き、単語長の単語長を除去する形で拡張を行う。単語長は単語長の単語長を除き、単語長は単語長の単語長を除き拡張を行う。
  • Theory-Grounded Measurement of U.S. Social Stereotypes in English Language Models
    • Yang Cao, Anna Sotnikova, Hal Daumé III, Rachel Rudinger, Linda Zou
    • TLDR: 言語モデルの分類モデルを、人種分類モデルと比較して、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、人種分類モデルの分類精度を上げるために、
  • Sort by Structure: Language Model Ranking as Dependency Probing
    • Max Müller-Eberstein, Rob Goot, Barbara Plank
    • TLDR: 自然言語処理で、事前学習済みモデルを評価する研究。事前学習済みモデルは、事前学習済みモデルの依存情報を含まない、事前学習済みモデルの重みを軽量化する。事前学習済みモデルは、事前学習済みモデルの重みを軽量化する。事前学習済みモデルは、事前学習済みモデルの重みを軽量化する。
  • Quantifying Synthesis and Fusion and their Impact on Machine Translation
    • Arturo Oncevay, Duygu Ataman, Niels Van Berkel, Barry Haddow, Alexandra Birch, Johannes Bjerva
    • TLDR: 自然言語処理における、自然言語処理の分類方法の提案。分類は、翻訳文の単語レベルと翻訳文の単語分散表現レベルの2つに分けて行う。分散表現は、翻訳文の単語分散表現と翻訳文の分散表現の2つに分けて行う。分散表現は、翻訳文の分散表現を予測する指数として使用する。
  • Commonsense and Named Entity Aware Knowledge Grounded Dialogue Generation
    • Deeksha Varshney, Akshara Prabhakar, Asif Ekbal
    • TLDR: 対話システムにおける、自然言語処理のモデルの提案。自然言語処理は、質問に対する回答の予測と、質問に対する回答の予測を同時に行う。質問に対する回答は、質問に対する回答の予測と、質問に対する回答の予測を同時に行う。質問に対する回答は、質問に対する回答の予測と、質問に対する回答の予測を同時に行う。
  • Efficient Hierarchical Domain Adaptation for Pretrained Language Models
    • Alexandra Chronopoulou, Matthew Peters, Jesse Dodge
    • TLDR: 言語モデルの転移を、ドメイン転移の手法として有効に使う研究。転移先は、ドメイン転移の学習済みモデルと同等の学習済みモデルの2つで、学習済みモデルはドメイン転移の学習済みモデルの学習済みモデルと同等の学習済みモデルの2つを学習する。転移先は、転移先のドメインの学習済みモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済み
  • Hatemoji: A Test Suite and Adversarially-Generated Dataset for Benchmarking and Detecting Emoji-Based Hate
    • Hannah Kirk, Bertie Vidgen, Paul Rottger, Tristan Thrush, Scott Hale
    • TLDR: ツリーエンカウンティングの自動生成を行う際に、ツリーエンカウンティングのモデルが不適だった問題を指摘した研究。ツリーエンカウンティングは、ツリーの文字を入力とするテキストのみを認識するモデルで、ツリーエンカウンティングはツリーテキストのみを認識するモデルで行う。ツリーエンカウンティングは、ツリーテキストのみを認識するモデルで行う。
  • On the Economics of Multilingual Few-shot Learning: Modeling the Cost-Performance Trade-offs of Machine Translated and Manual Data
    • Kabir Ahuja, Monojit Choudhury, Sandipan Dandapat
    • TLDR: マルチ言語の翻訳モデルで、機械翻訳と自動生成のコスト差を検証した研究。自動生成のコストは、翻訳モデルの精度と精度の差(翻訳モデルの精度が低い場合)に比例するが、精度が低い場合(翻訳モデルの精度が低い場合)は、翻訳モデルの精度が上がる一方、精度が低い場合(翻訳モデルの精度が低い場合)は、翻訳モデルの精度が上がる一方、精度が上がる一方の結果。
  • Learning to Selectively Learn for Weakly Supervised Paraphrase Generation with Model-based Reinforcement Learning
    • Haiyan Yin, Dingcheng Li, Ping Li
    • TLDR: 強化学習で、学習データの選択を強化学習に置き換えた研究。学習データは学習済み言語モデルで選択し、学習データの選択は強化学習で行う。学習データは学習済み言語モデルで選択し、学習データの選択は強化学習で行う。
  • Quality-Aware Decoding for Neural Machine Translation
    • Patrick Fernandes, António Farinhas, Ricardo Rei, José De Souza, Perez Ogayo, Graham Neubig, Andre Martins
    • TLDR: 機械翻訳における評価手法の研究。評価手法は、翻訳の品質を評価するモデル(MAP)と、翻訳の精度を評価するモデル(Beam Search)の2つに分けられている。評価モデルは、評価結果を評価するモデル(Beam Search)と、評価結果を評価するモデル(Beam Search)の2つに分けられている。
  • Pretrained Models for Multilingual Federated Learning
    • Orion Weller, Marc Marone, Vladimir Braverman, Dawn Lawrie, Benjamin Van Durme
    • TLDR: マルチ言語対応の学習を行う際に、事前学習済みモデルのパフォーマンスを上げるための工夫をまとめた研究。事前学習済みモデルは、事前学習済みモデルのパフォーマンスを上げるのに有効なモデルとみなせられるが、事前学習済みモデルはパフォーマンスが下がる。事前学習済みモデルは、事前学習済みモデルのパフォーマンスを上げるのに有効なモデルとみなせる。
  • AcTune: Uncertainty-Based Active Self-Training for Active Fine-Tuning of Pretrained Language Models
    • Yue Yu, Lingkai Kong, Jieyu Zhang, Rongzhi Zhang, Chao Zhang
    • TLDR: 事前学習済み言語モデルの学習を、事前学習済みモデルのパフォーマンスに寄与する手法の提案。事前学習済みモデルの学習率を上げるため、事前学習済みモデルの学習率を上げるための手法を提案している。事前学習済みモデルの学習率は、事前学習済みモデルのパフォーマンスに寄与する。事前学習済みモデルの学習率は、事前学習済みモデルのパフォーマンスに寄与する。
  • Label Anchored Contrastive Learning for Language Understanding
    • Zhenyu Zhang, Yuming Zhao, Meng Chen, Xiaodong He
    • TLDR: 教師なし学習で、クラス分類タスクで使用されるラベルを、ラベルの重みを乗せたモデルで学習する手法の提案。ラベルの重みは、ラベルの重みを乗せたモデルで学習する。ラベルの重みは、ラベルの重みを乗せたモデルで学習する。ラベルの重みは、ラベルの重みを乗せたモデルで学習する。
  • Go Back in Time: Generating Flashbacks in Stories with Event Temporal Prompts
    • Rujun Han, Hong Chen, Yufei Tian, Nanyun Peng
    • TLDR: 過去の出来事から、未来の出来事までを予測する研究。過去の出来事から未来の出来事までを予測するモデルを構築し、過去の出来事から未来の出来事までを予測するモデルを構築する。過去の出来事から未来の出来事までを予測するモデルを構築し、過去の出来事から未来の出来事までを予測するモデルを構築する。
  • Forecasting COVID-19 Caseloads Using Unsupervised Embedding Clusters of Social Media Posts
    • Felix Drinkall, Stefan Zohren, Janet Pierrehumbert
    • TLDR: 感染症の予測を行う際に、翻訳モデルを用いた研究。翻訳モデルは、翻訳文を入力とする文書から、文書の表現を入力とする文書に変換する。文書の表現は、文書の表現を入力とする文書に変換する。文書の表現は、文書の表現を入力とする文書に変換する。文書の表現は、文書の表現を入力とする文書に変換する。
  • Many Hands Make Light Work: Using Essay Traits to Automatically Score Essays
    • Rahul Kumar, Sandeep Mathias, Sriparna Saha, Pushpak Bhattacharyya
    • TLDR: 論文の評価は、文の文脈から行うことが多いが、文脈から行うと文脈の分類が難しくなる。そこで、文脈から文脈の分類を行なっている。文脈の分類は、文脈の分類を行なっている。
  • Natural Language Inference with Self-Attention for Veracity Assessment of Pandemic Claims
    • Miguel Arana-Catania, Elena Kochkina, Arkaitz Zubiaga, Maria Liakata, Robert Procter, Yulan He
    • TLDR: 自然言語による事前学習済みモデルの提案。事前学習済みモデルは、事前学習済みモデルのデータセットをベースに、事前学習済みモデルのデータセットをベースに事前学習済みモデルのデータセットを作成し、事前学習済みモデルのデータセットをベースに事前学習済みモデルのデータセットを作成する。事前学習済みモデルのデータセットは、事前学習済みモデルのデータセットと同等の精度を維持できる。
  • Beyond Emotion: A Multi-Modal Dataset for Human Desire Understanding
    • Ao Jia, Yu He, Yazhou Zhang, Sagar Uprety, Dawei Song, Christina Lioma
    • TLDR: 多言語の感情、感情、そしてタスクを検証した研究。タスクは、タスクのタスクを入力として、タスクのタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタスクを入力としてタ
  • Relation-Specific Attentions over Entity Mentions for Enhanced Document-Level Relation Extraction
    • Jiaxin Yu, Deqing Yang, Shuyu Tian
    • TLDR: 文書分類において、文書の文中の単語を列挙する手法の提案。列挙対象の単語は文書の文中の単語と同等か、文書内の単語は文書内の単語と同等か、文書内の単語は文書内の単語と同等かを列挙する。列挙対象の単語は文書内の単語と同等か、文書内の単語は文書内の単語と同等かを列挙する。
  • Twitter-COMMs: Detecting Climate, COVID, and Military Multimodal Misinformation
    • Giscard Biamby, Grace Luo, Trevor Darrell, Anna Rohrbach
    • TLDR: ツリー画像を自動生成する研究。ツリー画像を生成する際は、ツリー画像の生成時に生成された画像を基に自動生成を行う。ツリー画像生成は、ツリー画像の生成時に生成された画像を基に生成を行う。ツリー画像生成は、ツリー画像生成の精度を上げるために有効な手法であるとしている。
  • BlonDe: An Automatic Evaluation Metric for Document-level Machine Translation
    • Yuchen Jiang, Tianyu Liu, Shuming Ma, Dongdong Zhang, Jian Yang, Haoyang Huang, Rico Sennrich, Ryan Cotterell, Mrinmaya Sachan, Ming Zhou
    • TLDR: 文書レベルの評価を自動評価に置き換える研究。文書レベルの評価は文書全体の品質と同等に評価できるが、文書全体の品質は文書レベルの評価と同等に評価できない。文書レベルの評価は文書全体の品質と同等に評価できるが文書全体の品質は評価できない。文書レベルの評価は文書全体の品質と同等に評価できるか検証した研究。
  • Disentangled Learning of Stance and Aspect Topics for Vaccine Attitude Detection in Social Media
    • Lixing Zhu, Zheng Fang, Gabriele Pergola, Robert Procter, Yulan He
    • TLDR: 新型インフルエンザに対する、SNSでの投稿に対する、SNSの投稿に対する、投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する投稿に対する
  • SKILL: Structured Knowledge Infusion for Large Language Models
    • Fedor Moiseev, Zhe Dong, Enrique Alfonseca, Martin Jaggi
    • TLDR: 自然言語処理で、事前学習済みモデルを学習させる研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を獲得できるか検証した研究。事前学習済みモデルは、事前学習済みモデルと同等の精度を獲得できるか検証した研究。事前学習済みモデルは、事前学習済みモデルと同等の精度を獲得できるか検証した研究。事前学習済みモデルは、事前学習済みモデルと同等の精度を獲得できるか検証した研究。
  • Same Neurons, Different Languages: Probing Morphosyntax in Multilingual Pre-trained Models
    • Karolina Stanczak, Edoardo Ponti, Lucas Torroba Hennigen, Ryan Cotterell, Isabelle Augenstein
    • TLDR: マルチ言語の事前学習モデルは、異なる言語の単語を認識するネットワークを構築する研究。単語の認識は、単語の表現を認識するネットワークのネットワークを学習する。単語の認識は、単語の表現を認識するネットワークのネットワークを学習するネットワークのネットワークで行う。単語の認識は、単語の表現を認識するネットワークのネットワークで行う。
  • Aspect Is Not You Need: No-aspect Differential Sentiment Framework for Aspect-based Sentiment Analysis
    • Jiahao Cao, Rui Liu, Huailiang Peng, Lei Jiang, Xu Bai
    • TLDR: 感情分類タスクにおける、aspectの分類を強化する研究。aspectの分類は、aspectの表現を予測するモデル(Cross Entropy Loss)と、aspectの表現を予測するモデル(Agent Loss)の2つを組み合わせている。Agent Lossは、aspectの表現を予測するモデル(Agent Lossは、Agentの表現を予測するモデル)と同等の精度を達成。
  • MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided Adaptation
    • Simiao Zuo, Qingru Zhang, Chen Liang, Pengcheng He, Tuo Zhao, Weizhu Chen
    • TLDR: 事前学習済み言語モデルを蒸留することで、モデルのパフォーマンスを向上させる研究。蒸留は蒸留器の重みを蒸留器の重みに変換し、蒸留器の重みは蒸留器の重みに変換する。蒸留器の重みは蒸留器の重みに変換する。蒸留器の重みは蒸留器の重みに変換する。蒸留器の重みは蒸留器の重みに変換する。
  • Implicit n-grams Induced by Recurrence
    • Xiaobing Sun, Wei Lu
    • TLDR: 自然言語処理で、連続的な処理を行う際の隠れ層について調査した研究。隠れ層は、通常のNNと同等の構造を取っており、通常のNNと同等の構造を取っている。隠れ層は、通常のNNと同等の構造を取っている。隠れ層は、通常のNNと同等の構造を取っている。
  • Guiding Visual Question Generation
    • Nihir Vedd, Zixu Wang, Marek Rei, Yishu Miao, Lucia Specia
    • TLDR: 画像の画像を生成する際、画像の画像と物体を区別する質問を生成する研究。画像の画像と物体を区別する質問を生成するモデルを提案。画像の画像と物体を区別する質問を生成するモデルを提案。画像の画像と物体を区別する質問を生成するモデルを提案。
  • OPERA: Operation-Pivoted Discrete Reasoning over Text
    • Yongwei Zhou, Junwei Bao, Chaoqun Duan, Haipeng Sun, Jiahui Liang, Yifan Wang, Jing Zhao, Youzheng Wu, Xiaodong He, Tiejun Zhao
    • TLDR: 読解における、自然言語処理の手法を、事前学習済みモデルと比較して、よりシンプルなモデルに置き換えた研究。事前学習済みモデルは、事前学習済みモデルの処理を学習する(事前学習済みモデルは、事前学習済みモデルの処理を学習する)。事前学習済みモデルは、事前学習済みモデルの処理を学習する。
  • Improving Multi-Document Summarization through Referenced Flexible Extraction with Credit-Awareness
    • Yun-Zhu Song, Yi-Syuan Chen, Hong-Han Shuai
    • TLDR: マルチタスクの文書要約において、文書の長さを考慮するTransformerを提案。文書の長さを考慮する際は、文書の長さを考慮する。文書長は文書全体の長さではなく、文書の各フレーズの長さを考慮する。文書長は文書全体の長さと、文書長の長さを考慮する。文書長は文書全体の長さを考慮する。
  • Improving Constituent Representation with Hypertree Neural Networks
    • Hao Zhou, Gongshen Liu, Kewei Tu
    • TLDR: 自然言語処理における、各単語の表現を強化する研究。単語の表現は、単語の表現と単語の表現を結合した表現を表現する。単語の表現は、単語の表現と単語の表現を結合した表現を表現する。単語の表現は、単語の表現と単語の表現を結合した表現を表現する。単語の表現は、単語の表現と単語の表現を結合した表現を表現する。
  • Measuring Fairness with Biased Rulers: A Comparative Study on Bias Metrics for Pre-trained Language Models
    • Pieter Delobelle, Ewoenam Tokpo, Toon Calders, Bettina Berendt
    • TLDR: 自然言語処理で、事前学習済み言語モデルと同等の評価指標を比較する研究。事前学習済み言語モデルは、事前学習済み言語モデルと同等の評価指標が適用できるか検証している。事前学習済み言語モデルは、事前学習済み言語モデルと同等の評価指標が適用できるか検証している。事前学習済み言語モデルは、事前学習済み言語モデルと同等の評価指標が適用できるか検証している。
  • MuCPAD: A Multi-Domain Chinese Predicate-Argument Dataset
    • Yahui Liu, Haoping Yang, Chen Gong, Qingrong Xia, Zhenghua Li, Min Zhang
    • TLDR: マルチドメインの文を扱う研究。文のタイトルは「マルチドメイン」、文の文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、文長は「マルチドメイン」、
  • Representation Learning for Conversational Data using Discourse Mutual Information Maximization
    • Bishal Santra, Sumegh Roychowdhury, Aishik Mandal, Vasu Gurram, Atharva Naik, Manish Gupta, Pawan Goyal
    • TLDR: 対話モデルの学習で、文構造を学習するモデルの提案。文構造は、文の意味を含まない単語を生成する(文の意味を含まない単語は生成しない)、文の意味を含まない単語を生成する(文の意味を含まない単語は生成しない)、文の意味を含まない単語を生成する(文の意味を含まない単語は生成しない)、文の意味を含まない単語を生成する(文の意味を含まない単語は生成しない)、という3つのステップで学習を行っている。
  • ValCAT: Variable-Length Contextualized Adversarial Transformations Using Encoder-Decoder Language Model
    • Chuyun Deng, Mingxuan Liu, Yue Qin, Jia Zhang, Hai-Xin Duan, Donghong Sun
    • TLDR: 言語モデルに対する攻撃手法の提案。単語分散表現を、複数単語の分散表現に置き換えることで、単語分散表現を学習する。単語分散表現は、単語分散表現の学習に使用される。単語分散表現は、単語分散表現の学習に使用される。
  • A Study of Syntactic Multi-Modality in Non-Autoregressive Machine Translation
    • Kexun Zhang, Rui Wang, Xu Tan, Junliang Guo, Yi Ren, Tao Qin, Tie-Yan Liu
    • TLDR: 翻訳において、マルチモーダルな表現を扱う際に、マルチモーダルな表現を扱うための手法をまとめたサーベイ。マルチモーダルな表現を扱う際は、マルチモーダルな表現を扱うための手法をまとめたサーベイが提供されている。
  • CIAug: Equipping Interpolative Augmentation with Curriculum Learning
    • Ramit Sawhney, Ritesh Soun, Shrey Pandit, Megh Thakkar, Sarvagya Malaviya, Yuval Pinter
    • TLDR: 教師なし学習で、学習するサンプルの数を増やして学習する研究。学習するサンプルは、学習時に学習する単語の数を増やした単語の数と、学習時に学習する単語の数を加味した単語の数を合わせる。学習時は、単語の数を増やした単語の数を加味した単語の数を学習する。
  • Proposition-Level Clustering for Multi-Document Summarization
    • Ori Ernst, Avi Caciularu, Ori Shapira, Ramakanth Pasunuru, Mohit Bansal, Jacob Goldberger, Ido Dagan
    • TLDR: マルチタスク要約において、文中の単語を個別にクラスタリングする手法の提案。単語の分散表現を、文中の単語を個別にクラスタリングする形で生成する。これにより、文中の単語を個別にクラスタリングする必要がなくなる。
  • Non-Autoregressive Machine Translation: It’s Not as Fast as it Seems
    • Jindřich Helcl, Barry Haddow, Alexandra Birch
    • TLDR: 翻訳モデルの評価について、評価の誤りを指摘した研究。評価は、翻訳モデルの性能を評価するだけでなく、翻訳モデルのパフォーマンスを評価するモデルも評価するべきとしている。評価は、翻訳モデルの性能を評価するモデルと、パフォーマンスを評価するモデルの性能を比較するモデルの2つに分けて行う。
  • BAD-X: Bilingual Adapters Improve Zero-Shot Cross-Lingual Transfer
    • Marinela Parović, Goran Glavaš, Ivan Vulić, Anna Korhonen
    • TLDR: マルチタスクで転移を行う際に、事前学習済み言語のAdapterを学習する手法の提案。事前学習済み言語のAdapterは、事前学習済み言語のAdapterと同等の性能を発揮する。事前学習済み言語のAdapterは、事前学習済み言語のAdapterと同等の性能を発揮する。
  • Combining Humor and Sarcasm for Improving Political Parody Detection
    • Xiao Ao, Danae Sanchez Villegas, Daniel Preotiuc-Pietro, Nikolaos Aletras
    • TLDR: 政治のポップアップに関する研究。単純なencoderではなく、複数encoderを組み合わせたEncoderを提案。Encoderは、政治のポップアップに関する表現をEncodeする。Encoderは、政治のポップアップに関する表現をEncodeする。Encoderは、政治のポップアップに関する表現をEncodeする。
  • TIE: Topological Information Enhanced Structural Reading Comprehension on Web Pages
    • Zihan Zhao, Lu Chen, Ruisheng Cao, Hongshen Xu, Xingyu Chen, Kai Yu
    • TLDR: 文書構造を文書構造に変換する研究。文書構造は文書構造の情報を含まないが、文書構造を文書構造に変換するタスクとして扱われる。文書構造を文書構造ととらえ、文書構造を文書構造ととらえ、文書構造を文書構造ととらえ、文書構造を文書構造ととらえ、文書構造を文書構造ととらえ、文書構造を文書構造ととらえ、文書構造を文書構造ととらえ、文書構造を文書構造ととらえ、文書構造を文書構造ととらえ、文書構造を文書構造ととらえ、文書構造を文書構造とととらえ、
  • RSTGen: Imbuing Fine-Grained Interpretable Control into Long-FormText Generators
    • Rilwan Adewoyin, Ritabrata Dutta, Yulan He
    • TLDR: 自然言語処理で文書生成を行う際に、文構造や文特徴をコントロールする研究。文構造は、文の意味を表す単語、文特徴を表す単語、文特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表す単語、単語特徴を表
  • Intent Detection and Discovery from User Logs via Deep Semi-Supervised Contrastive Clustering
    • Rajat Kumar, Mayur Patidar, Vaibhav Varshney, Lovekesh Vig, Gautam Shroff
    • TLDR: 対話システムにおける、ユーザーの発話に対する意図を特定する研究。通常の対話システムは、発話に対する意図を予測するモデルが基本だが、このモデルでは、発話に対する意図を予測するモデルを構築する。意図を予測するモデルは、通常の対話システムと同等の精度を維持できるが、事前学習済みモデルを採用している。
  • Extending Multi-Text Sentence Fusion Resources via Pyramid Annotations
    • Daniela Brook Weiss, Paul Roit, Ori Ernst, Ido Dagan
    • TLDR: マルチ文書のタスクで、文の結合を学習する研究。文の結合は、文の意味を変えたり、文の意味を変えたりする形で行う。文の結合は、文の意味を変えたり、文の意味を変えたりする形で行う。文の結合は、文の意味を変えたり、文の意味を変えたりする形で行う。
  • The Devil is in the Details: On the Pitfalls of Vocabulary Selection in Neural Machine Translation
    • Tobias Domhan, Eva Hasler, Ke Tran, Sony Trenous, Bill Byrne, Felix Hieber
    • TLDR: 機械翻訳モデルで、単語選択の精度を上げるためには、入力文の候補となる単語を予測するモデルを導入する研究。入力文の候補となる単語は、入力文の文脈から予測する。入力文の候補となる単語は、入力文の文脈から予測する。入力文の候補となる単語は、入力文の文脈から予測する。
  • MultiCite: Modeling realistic citations requires moving beyond the single-sentence single-label setting
    • Anne Lauscher, Brandon Ko, Bailey Kuehl, Sophie Johnson, Arman Cohan, David Jurgens, Kyle Lo
    • TLDR: 自然言語処理におけるCNNの提案。マルチスコアの文書から、マルチスコアの文書からマルチスコア文書への文書分類を行なっている。文書のタイトルはマルチスコア文書で、文書の文長は文書長の長さに比例する。文書の文長は文書長の長さに比例する。文書の文長は文書長の長さに比例する。文書の文長は文書長の長さに比例する。文書の文長は文書長の長さに比例する。文書の文長は文書長の長さに比例する。文書の文長は文書長の長さに比例
  • DEGREE: A Data-Efficient Generation-Based Event Extraction Model
    • I-Hung Hsu, Kuan-Hao Huang, Elizabeth Boschee, Scott Miller, Prem Natarajan, Kai-Wei Chang, Nanyun Peng
    • TLDR: 事前学習済みモデルを、事前学習済みモデルの学習に活用する研究。事前学習済みモデルは、事前学習済みモデルの予測結果を生成するモデルで、事前学習済みモデルの予測結果から予測結果を生成する。事前学習済みモデルは、事前学習済みモデルの予測結果を予測するモデルと同等の精度を維持できる。
  • Bridging the Gap between Language Models and Cross-Lingual Sequence Labeling
    • Nuo Chen, Linjun Shou, Ming Gong, Jian Pei, Daxin Jiang
    • TLDR: 事前学習済み言語モデルの学習は、事前学習済み言語モデルの学習と比較して精度が落ちる問題がある。事前学習済み言語モデルは、事前学習済み言語モデルの学習と同等の精度が得られるが、事前学習済み言語モデルは学習が困難なケースがある。事前学習済み言語モデルは、事前学習済み言語モデルの学習と同等の精度が得られるが、事前学習は学習が困難なケースがある。
  • Hero-Gang Neural Model For Named Entity Recognition
    • Jinpeng Hu, Yaling Shen, Yang Liu, Xiang Wan, Tsung-Hui Chang
    • TLDR: 自然言語処理で、複数階層の情報を組み合わせた強化学習を提案。階層情報と階層特徴を組み合わせた強化学習を、複数階層の情報を組み合わせた強化学習に置き換える。階層情報と階層特徴を組み合わせた強化学習を、強化学習の枠組みで行う。
  • MGIMN: Multi-Grained Interactive Matching Network for Few-shot Text Classification
    • Jianhai Zhang, Mieradilijiang Maimaiti, Gao Xing, Yuanhang Zheng, Ji Zhang
    • TLDR: 教師なし学習で、クラスごとの学習を行う手法の提案。クラスごとの学習は、クラスの分類器を学習するモデル(SOTA)と、クラスごとの学習を行うモデル(MGIMN)の2つに分けて行う。モデルは、クラスごとの学習を行うモデル(SOTA)と、クラスごとの学習を行うモデル(MGIMN)の2つを使用。
  • All You May Need for VQA are Image Captions
    • Soravit Changpinyo, Doron Kukliansy, Idan Szpektor, Xi Chen, Nan Ding, Radu Soricut
    • TLDR: 質問回答モデルの学習済みモデルを、画像のキャプチャーから自動生成する研究。画像のキャプチャーは、画像のキャプチャーを入力とするモデルで、入力はテキストの入力と、テキストの入力は画像のキャプチャーを入力とするモデルで行う。画像のキャプチャーは、画像のキャプチャーから生成する。
  • Frustratingly Easy System Combination for Grammatical Error Correction
    • Muhammad Qorib, Seung-Hoon Na, Hwee Tou Ng
    • TLDR: 文法誤差訂正の手法を、単純なアルゴリズムで組み合わせる研究。単純なアルゴリズムで学習するよりも、単純なアルゴリズムの組み合わせで学習する方が精度が上がる。単純なアルゴリズムの組み合わせで、文法誤差訂正の精度を上げることができた。
  • Simple Local Attentions Remain Competitive for Long-Context Tasks
    • Wenhan Xiong, Barlas Oguz, Anchit Gupta, Xilun Chen, Diana Liskovich, Omer Levy, Scott Yih, Yashar Mehdad
    • TLDR: 長い文を扱うタスクで、長い文を扱うモデルの学習を効率化する研究。長い文を扱うモデルは、長い文を扱うための事前学習済みモデルと同等の性能が得られるが、事前学習済みモデルは学習時間が長くなるため、長い文を扱うための事前学習済みモデルと同等の性能が得られない。
  • Even the Simplest Baseline Needs Careful Re-investigation: A Case Study on XML-CNN
    • Si-An Chen, Jie-jyun Liu, Tsung-Han Yang, Hsuan-Tien Lin, Chih-Jen Lin
    • TLDR: マルチラベルの文書分類を行う際に、既存の手法がマルチラベルの文書分類にどれだけ貢献しているのか検証した研究。マルチラベル文書分類では、既存の手法がマルチラベル文書分類にどれだけ貢献しているのかを検証した結果、マルチラベル文書分類では精度が低下した。
  • Multi-Relational Graph Transformer for Automatic Short Answer Grading
    • Rajat Agarwal, Varun Khurana, Karish Grover, Mukesh Mohania, Vikram Goyal
    • TLDR: 文の文構造をGraph Transformerで表現する研究。文の文構造をGraph Transformerで表現し、文構造をGraph Transformerで表現した結果を基に文構造と文構造を結合したモデルを提案。文構造を入力とし、文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を入力とし文構造を
  • Event Schema Induction with Double Graph Autoencoders
    • Xiaomeng Jin, Manling Li, Heng Ji
    • TLDR: イベントグラフを生成する研究。イベントの構造をグラフから抽出するAutoEncoderを、イベントの構造をグラフから抽出するAutoEncoderに置き換える。AutoEncoderは、イベントの構造をグラフから抽出するAutoEncoderと、イベントの構造をグラフから抽出するAutoEncoderの2つを使用。
  • CS1QA: A Dataset for Assisting Code-based Question Answering in an Introductory Programming Course
    • Changyoon Lee, Yeon Seonwoo, Alice Oh
    • TLDR: 自然言語処理の学習で、質問回答を行う際に、質問文の意味を予測するデータセットの提案。質問文の意味を予測するモデルを、質問文の意味を予測するモデルと、質問文の意味を予測するモデルの2つに分け、学習データセットの分類を行なっている。
  • Unsupervised Cross-Lingual Transfer of Structured Predictors without Source Data
    • Kemal Kurniawan, Lea Frermann, Philip Schulz, Trevor Cohn
    • TLDR: 事前学習済みモデルを、事前学習済みモデルに結合する研究。事前学習済みモデルは、事前学習済みモデルの重みを結合する(結合した重みは、事前学習済みモデルの重みに結合する)。重みは、事前学習済みモデルの重みを結合する形で計算する。事前学習済みモデルの重みは、事前学習済みモデルの重みに結合する形で計算する。
  • Don’t Take It Literally: An Edit-Invariant Sequence Loss for Text Generation
    • Guangyi Liu, Zichao Yang, Tianhua Tao, Xiaodan Liang, Junwei Bao, Zhen Li, Xiaodong He, Shuguang Cui, Zhiting Hu
    • TLDR: テキスト生成モデルで、学習時に生成した文を再帰的に変える(Edit-Invariant)ことで、学習時に生成した文を再帰的に変える(Re-Encode)ことで学習を行う研究。Re-Encodeした文を再帰的に変える(Edit-Invariant)ことで、学習時に生成した文を再帰的に変える(Re-Encodeした文をRe-Encodeした文に置き換える)ことで学習を行う。
  • Modeling Exemplification in Long-form Question Answering via Retrieval
    • Shufan Wang, Fangyuan Xu, Laure Thompson, Eunsol Choi, Mohit Iyyer
    • TLDR: 質問回答において、質問回答の説明に適した例を抽出する研究。質問回答の説明に適した例を抽出するモデルを、質問回答の説明に適した例を抽出するモデルと比較し、生成に適したモデルの精度が低いことを確認。
  • D2U: Distance-to-Uniform Learning for Out-of-Scope Detection
    • Eyup Yilmaz, Cagri Toraman
    • TLDR: 対話システムで、学習済みモデルの予測結果と同等の結果が出ることを確認した研究。学習済みモデルの予測結果と同等の結果が出ることを確認した。学習済みモデルは学習データが少ない場合、学習データが少ない場合に精度が低下する。そこで、学習済みモデルの予測結果と同等の結果が出ることを確認した。
  • Reference-free Summarization Evaluation via Semantic Correlation and Compression Ratio
    • Yizhu Liu, Qi Jia, Kenny Zhu
    • TLDR: 文書の要約を評価するタスクの提案。要約は文書の要約と比較して、要約の要約の要約が低い傾向がある。要約は要約の要約と比較して要約の要約の要約が低い傾向がある。要約は要約の要約と比較して要約の要約が低い傾向がある。要約は要約の要約と比較して要約の要約が低い傾向がある。
  • KroneckerBERT: Significant Compression of Pre-trained Language Models Through Kronecker Decomposition and Knowledge Distillation
    • Marzieh Tahaei, Ella Charlaix, Vahid Nia, Ali Ghodsi, Mehdi Rezagholizadeh
    • TLDR: 事前学習済み言語モデルを、Transformerベースの事前学習済みモデルに置き換える研究。事前学習済みモデルは、Transformerベースの事前学習済みモデルと同等の性能を発揮する。事前学習済みモデルは、Transformerベースの事前学習済みモデルと同等の性能を発揮する。事前学習済みモデルは、事前学習済みモデルの学習率を上回る精度を達成。
  • Building a Role Specified Open-Domain Dialogue System Leveraging Large-Scale Language Models
    • Sanghwan Bae, Donghyun Kwak, Sungdong Kim, Donghoon Ham, Soyoung Kang, Sang-Woo Lee, Woomyoung Park
    • TLDR: オープンドメインの対話システムで、対話システムの役割を決めるためのモデルを構築した研究。対話システムは、対話システムの役割を決めるためのモデルを構築する。対話システムは、対話システムの役割を決めるためのモデルを構築する。対話システムは、対話システムの役割を決めるためのモデルを構築する。
  • Sentence-Level Resampling for Named Entity Recognition
    • Xiaochen Wang, Yue Wang
    • TLDR: 自然言語処理モデルで、文中の単語を単語単位で学習する手法の提案。単語単位の学習は、単語の意味を予測するEntityの重みを計算する。Entityの重みは、単語の意味を予測するEntityの重みと、単語の意味を予測するEntityの重みを合わせる。Entityの重みは、単語の意味を予測するEntityの重みと、単語の意味を予測する重みの2つに分けている。
  • Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem
    • Ryoma Sato
    • TLDR: 自然言語処理における、単語分散表現の最適化手法の提案。単語分散表現は、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語の意味が不明瞭な場合、単語
  • On the Diversity and Limits of Human Explanations
    • Chenhao Tan
    • TLDR: 自然言語処理における人間の説明についてまとめたサーベイ。説明の種類は、説明の目的と対象を問う質問に分けられている。目的は説明の意味を理解すること。対象は、説明の目的と対象を問う質問(説明の目的は、説明の意味を理解する)。対象は、説明の目的と対象を問う質問(説明の目的は、説明の意味を理解する)。
  • Locally Aggregated Feature Attribution on Natural Language Model Understanding
    • Sheng Zhang, Jin Wang, Haitao Jiang, Rui Song
    • TLDR: 自然言語処理における、特徴量の分布を事前学習した研究。事前学習済みモデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み
  • Generic and Trend-aware Curriculum Learning for Relation Extraction
    • Nidhi Vakil, Hadi Amiri
    • TLDR: テキストとグラフを結合する研究。テキストは文書とグラフの2つで、グラフは文書の文書から、グラフは文書から、文書は文書から、文書は文書から、文書は文書からという3つのグラフを結合している。文書は文書と文書の2つを結合する。文書は文書と文書の2つを結合する。文書は文書と文書の2つを結合する。文書は文書と文書の2つを結合する。文書は文書と文書の2つを結合する。文書は文書と文書の2つを結合する。文書は文書と文書の2つを結合する。文書は文書と文書の
  • On Systematic Style Differences between Unsupervised and Supervised MT and an Application for High-Resource Machine Translation
    • Kelly Marchisio, Markus Freitag, David Grangier
    • TLDR: 機械翻訳の精度を上げるために、教師なしのモデルと人手翻訳モデルを組み合わせる研究。教師なしのモデルは精度が低いだけでなく、人手翻訳モデルの精度と同等の結果が得られることを確認。教師なしのモデルは精度が低いだけでなく人手翻訳モデルの精度も低いことを確認。
  • Evidentiality-guided Generation for Knowledge-Intensive NLP Tasks
    • Akari Asai, Matt Gardner, Hannaneh Hajishirzi
    • TLDR: 事前学習済みモデルを、事前学習済みモデルの生成に応用した研究。事前学習済みモデルは事前学習済みモデルの生成結果を基に生成を行うが、事前学習済みモデルは生成結果を基に生成を行う。事前学習済みモデルは事前学習済みモデルの生成結果を基に生成を行うが、事前学習済みモデルは生成結果を基に生成を行う。事前学習済みモデルは事前学習済みモデルの生成結果を基に生成を行う
  • Modularized Transfer Learning with Multiple Knowledge Graphs for Zero-shot Commonsense Reasoning
    • Yu Jin Kim, Beong-woo Kwak, Youngwook Kim, Reinald Kim Amplayo, Seung-won Hwang, Jinyoung Yeo
    • TLDR: 事前学習済みモデルを、事前学習済みモデルに転移する研究。事前学習済みモデルは、事前学習済みモデルの知識を基に学習する。事前学習済みモデルは、事前学習済みモデルの知識を基に学習する。事前学習済みモデルは、事前学習済みモデルの知識を基に学習する。事前学習済みモデルは、事前学習済みモデルの知識を基に学習する。事前学習済みモデルは、事前学習済みモデルの知識を基に学習する。事前学習済みモデルは、事前学習済みモデルの知識を基に学習する。事前学習済みモデルは、事前学習済みモデルの知識を基に学習する。事前学習済みモデルは
  • Learning to Express in Knowledge-Grounded Conversation
    • Xueliang Zhao, Tingchen Fu, Chongyang Tao, Wei Wu, Dongyan Zhao, Rui Yan
    • TLDR: 質問に対し、適切な知識表現を生成する研究。質問文の構造と質問文のスタイルをそれぞれ、各文の長さと長さをそれぞれ、各文の長さと長さをそれぞれ、各長さの長さを予測する形で表現する。長さは、質問文の長さと長さを予測する。長さは、質問文の長さと長さを予測する。長さは、質問文の長さを予測する。長さは、質問文の長さを予測する。
  • End-to-End Chinese Speaker Identification
    • Dian Yu, Ben Zhou, Dong Yu
    • TLDR: 翻訳文の読解において、単語のEntity抽出を用いた研究。単語のEntity抽出は、翻訳文のEntity抽出と同等の手法で行う。Entity抽出は、翻訳文のEntity抽出と同等の手法で行う。Entity抽出は、翻訳文のEntity抽出と同等の手法で行う。
  • MINION: a Large-Scale and Diverse Dataset for Multilingual Event Detection
    • Amir Pouran Ben Veyseh, Minh Van Nguyen, Franck Dernoncourt, Thien Nguyen
    • TLDR: マルチ言語対応の事前学習済みモデルの提案。事前学習済みモデルは英語のみでなく、英語圏の言語でも事前学習済みモデルを使用。事前学習済みモデルは、事前学習済みモデルの学習済み言語をベースに、事前学習済みモデルの学習済み言語をベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習済み言語をベースに学習する。
  • Do Prompt-Based Models Really Understand the Meaning of Their Prompts?
    • Albert Webson, Ellie Pavlick
    • TLDR: 自然言語処理モデルで、タスク指示を自動生成するモデルの改善を検証した研究。タスク指示は自動生成モデルで学習するが、タスク指示の生成はタスクモデルの学習に使用するパラメーター数が多い場合に行われる。このパラメーター数が多い場合、学習に使用するパラメーター数が少ない場合に誤認識される可能性がある。
  • GPL: Generative Pseudo Labeling for Unsupervised Domain Adaptation of Dense Retrieval
    • Kexin Wang, Nandan Thakur, Nils Reimers, Iryna Gurevych
    • TLDR: ドメイン転移による検索性能の低下を防ぐ手法の提案。学習済みモデルの検索結果を、ドメイン転移後の検索結果に近似する形で転移させる。転移先の検索結果を、ドメイン転移後の検索結果に近似する形で転移させる。転移先の検索結果を、転移先の検索結果に近似する形で転移させる。
  • Sparse Distillation: Speeding Up Text Classification by Using Bigger Student Models
    • Qinyuan Ye, Madian Khabsa, Mike Lewis, Sinong Wang, Xiang Ren, Aaron Jaech
    • TLDR: 学習済みモデルを、学習済みモデルのサイズに近づける研究。学習済みモデルはパラメーター数が多いが、学習済みモデルはパラメーター数が多いため、パラメーター数が多いモデルを学習する。学習済みモデルはパラメーター数が多いが、学習済みモデルはパラメーター数が多いため、パラメーター数が多いモデルを学習する。
  • Towards Understanding Large-Scale Discourse Structures in Pre-Trained and Fine-Tuned Language Models
    • Patrick Huber, Giuseppe Carenini
    • TLDR: 事前学習済みモデルと、学習済みモデルのパフォーマンスを比較した研究。事前学習済みモデルは、事前学習済みモデルと同等のパフォーマンスが得られるが、学習済みモデルはパフォーマンスが低下する。そのため、事前学習済みモデルと同等のパフォーマンスが得られるようにする手法を提案している。
  • SAIS: Supervising and Augmenting Intermediate Steps for Document-Level Relation Extraction
    • Yuxin Xiao, Zecheng Zhang, Yuning Mao, Carl Yang, Jiawei Han
    • TLDR: 文書から関係抽出を行う研究。文書から関係抽出を行う際、文書の文長が長い場合、文書の文長を短くする。文書の文長を短くする際、文書の文長を短くする(文書の文長を短くする)ことで、文書の文長を短くする。文書の文長を短くする際、文書の文長を短くする(文書の文長を短くする)ことで、文書の文長を短くする。
  • LITE: Intent-based Task Representation Learning Using Weak Supervision
    • Naoki Otani, Michael Gamon, Sujay Kumar Jauhar, Mei Yang, Sri Raghu Malireddi, Oriana Riva
    • TLDR: 多言語のタスクを学習するモデルの提案。学習済みモデルのタスクを、学習済みモデルのタスクに近いタスクに置き換える形で学習する。タスクは、タスクのタスクを入力とする。タスクは、タスクのタスクを入力とする。タスクは、タスクのタスクを入力とする。タスクは、タスクのタスクを入力とする。タスクは、タスクのタスクを入力とする。タスクは、タスクのタスクを入力とする。タスクは、タスクのタスクを入力とする。タスクは、タスクのタスクを入力とする。タスクは、タ
  • Does Summary Evaluation Survive Translation to Other Languages?
    • Spencer Braun, Oleg Vasilyev, Neslihan Iskender, John Bohannon
    • TLDR: 機械翻訳の要約データセットを翻訳した研究。翻訳は翻訳モデルの学習済みモデルと同等の精度が必要で、翻訳モデルは翻訳モデルの学習済みモデルと同等の精度が必要。翻訳モデルは翻訳モデルの学習済みモデルと同等の精度が必要で、翻訳モデルは翻訳モデルの学習済みモデルと同等の精度が必要。
  • A Shoulder to Cry on: Towards A Motivational Virtual Assistant for Assuaging Mental Agony
    • Tulika Saha, Saichethan Reddy, Anindya Das, Sriparna Saha, Pushpak Bhattacharyya
    • TLDR: ストレスや認知症といった病気に対する対応を、オンラインで行うVAの提案。VAは、医療従事者だけでなく、医療従事者以外のVAの役割を認識する。VAは、医療従事者だけでなく、医療従事者以外のVAの役割を認識する。VAは、医療従事者だけでなく、医療従事者以外のVAの役割を認識する。
  • SueNes: A Weakly Supervised Approach to Evaluating Single-Document Summarization via Negative Sampling
    • Forrest Bao, Ge Luo, Hebi Li, Minghui Qiu, Yinfei Yang, Youbiao He, Cen Chen
    • TLDR: 事前学習済みモデルの事前評価手法を、事前学習済みモデルの文書から抽出する手法の提案。文書の文書名と文書の類似度を入力として、文書の文書名と文書の類似度を入力として抽出する。文書の文書名と文書の類似度は文書の文書名と文書の文書名の類似度から抽出する。文書の文書名と文書の文書名は文書名と文書の文書名の類似度から抽出する。文書名と文書の文書名は文書名と文書の文書名の類似度から抽出する。文書名と文書の文書名は文書名と文書名の類似度から抽出
  • Combating the Curse of Multilinguality in Cross-Lingual WSD by Aligning Sparse Contextualized Word Representations
    • Gábor Berend
    • TLDR: マルチ言語の事前学習済み言語モデルで、事前学習済み言語モデルの表現を学習する手法の提案。事前学習済み言語モデルは、事前学習済み言語モデルの表現を学習する際、事前学習済み言語モデルの表現を学習する。事前学習済み言語モデルは、事前学習済み言語モデルの表現を学習する。事前学習済み言語モデルは、事前学習済み言語モデルの表現を学習する。
  • Cheat Codes to Quantify Missing Source Information in Neural Machine Translation
    • Proyag Pal, Kenneth Heafield
    • TLDR: 情報量を計測する手法の提案。データ量を計測する際は、データ量の分布を予測するモデルを用いることで、データ量の分布を予測するモデルを用いることで、データ量の分布を予測する。
  • WiC = TSV = WSD: On the Equivalence of Three Semantic Tasks
    • Bradley Hauer, Grzegorz Kondrak
    • TLDR: 単語分類タスクで、単語の意味を認識するタスクと、単語の意味を認識するタスクを比較した研究。単語の意味を認識するタスクは、単語の意味を認識するタスクと、単語の意味を認識するタスクの2つに分けて扱われる。単語の意味を認識するタスクは、単語の意味を認識するタスクと同等に扱われることを確認。
  • What do tokens know about their characters and how do they know it?
    • Ayush Kaushal, Kyle Mahowald
    • TLDR: 言語モデルで、単語の位置情報を得る研究。単語の位置情報は、単語の位置情報と同等の学習が行えるかを調べた研究。位置情報は、単語の位置情報と同等の学習が行えるかを調べた研究。位置情報は、単語の位置情報と同等の学習が行えるかを調べた研究。位置情報は、単語の位置情報と同等の学習が行えるかを調べた研究。
  • AnswerSumm: A Manually-Curated Dataset and Pipeline for Answer Summarization
    • Alexander Fabbri, Xiaojian Wu, Srini Iyer, Haoran Li, Mona Diab
    • TLDR: 質問回答のタスクを強化学習で解く研究。質問回答のタスクは、質問に対する回答文の選択、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問に対する回答文の分類、質問
  • Paragraph-based Transformer Pre-training for Multi-Sentence Inference
    • Luca Di Liello, Siddhant Garg, Luca Soldaini, Alessandro Moschitti
    • TLDR: マルチタスクで文書分類を行う際に、事前学習済みモデルを併用する研究。文書分類は文書分類機のモデルをベースに、文書分類機のモデルは文書分類機のモデルをベースにしている。文書分類機は文書分類機と同等のモデルを用いているが、文書分類機は文書分類機と同等のモデルを用いている。
  • Text Style Transfer via Optimal Transport
    • Nasim Nouri
    • TLDR: テキストスタイル変換において、文法と単語情報の類似度を計算する手法の提案。文法は、文法と単語情報の類似度を計算する際の重みとして使用される。単語情報の類似度は、文法と単語情報の類似度を計算する際の重みとして使用される。
  • Exploring the Role of Task Transferability in Large-Scale Multi-Task Learning
    • Vishakh Padmakumar, Leonard Lausen, Miguel Ballesteros, Sheng Zha, He He, George Karypis
    • TLDR: マルチタスク学習で、タスクの重みと重みのバランスを調整する研究。タスクの重みは、タスクの重みと重みのバランスを考慮する。タスクの重みは、タスクの重みと重みのバランスを考慮する。タスクの重みは、タスクの重みと重みのバランスを考慮する。タスクの重みは、タスクの重みと重みのバランスを考慮する。
  • Interactive Query-Assisted Summarization via Deep Reinforcement Learning
    • Ori Shapira, Ramakanth Pasunuru, Mohit Bansal, Ido Dagan, Yael Amsterdamer
    • TLDR: 文書から要約を行う際に、強化学習を用いた研究。要約は要約の要約を生成するタスクで、要約の要約は要約の要約を生成するタスクで、要約の要約は要約の要約を生成するタスクで学習する。要約の要約は要約の要約を生成するタスクで、要約の要約は要約の要約を生成するタスクで学習する。
  • Data Augmentation with Dual Training for Offensive Span Detection
    • Nasim Nouri
    • TLDR: テキスト分類において、誤った単語の表現を検知する手法の提案。誤った単語の表現を検知する際は、誤った単語の表現を認識する単語を認識する単語ベクトルを生成するReinforcerCEを用いている。
  • Training Mixed-Domain Translation Models via Federated Learning
    • Peyman Passban, Tanya Roosta, Rahul Gupta, Ankit Chadha, Clement Chung
    • TLDR: マルチドメインの翻訳モデルを、FL-based aggregationで学習する研究。学習済みモデルを、FL-based aggregationで学習する。学習済みモデルは、FL-based aggregationで学習したモデルと同等の性能を発揮する。
  • QAFactEval: Improved QA-Based Factual Consistency Evaluation for Summarization
    • Alexander Fabbri, Chien-Sheng Wu, Wenhao Liu, Caiming Xiong
    • TLDR: 文書要約における、質問回答の精度を評価する手法のサーベイ。質問回答の精度は、質問回答の質と質問回答の回答精度のバランスから評価する。質問回答の精度は、質問回答の質と回答精度のバランスから評価する。質問回答の精度は、質問回答の質と回答精度のバランスから評価する。
  • How Gender Debiasing Affects Internal Model Representations, and Why It Matters
    • Hadas Orgad, Seraphina Goldfarb-Tarrant, Yonatan Belinkov
    • TLDR: 自然言語処理モデルの潜在表現に対するバイアスを調べた研究。モデルの潜在表現に対するバイアスは、モデルのパフォーマンスと潜在表現のパフォーマンスの2つに分けられる。モデルのパフォーマンスは、潜在表現の表現力とバイアスの表現力の2つに分けられる。この2つを、事前学習済みモデルの学習で検証した研究。
  • A Structured Span Selector
    • Tianyu Liu, Yuchen Jiang, Ryan Cotterell, Mrinmaya Sachan
    • TLDR: 自然言語処理におけるspanの予測を行う際に、単語の意味を予測するモデルを提案。単語の意味を予測する際は、単語の意味を予測する単語を単語の意味に近い単語に置き換える(単語の意味を予測する単語は単語の意味を予測する)。単語の意味を予測する単語は単語の意味を予測する単語に置き換える(単語の意味を予測する単語は単語の意味を予測する単語に置き換える)。
  • Unified Semantic Typing with Meaningful Label Inference
    • James Y. Huang, Bangzheng Li, Jiashu Xu, Muhao Chen
    • TLDR: 文分類や関係分類といったタスクを、マルチタスクで行う研究。入力とラベルを結合し、ラベルとラベルの類似度を加味したモデルを作成する。ラベルは入力とラベルの類似度を加味したモデルで、ラベルは入力とラベルの類似度を加味したモデルで入力する。
  • Learning To Retrieve Prompts for In-Context Learning
    • Ohad Rubin, Jonathan Herzig, Jonathan Berant
    • TLDR: 事前学習済み言語モデルで、事前学習済みのサンプルから学習したサンプルを抽出する手法の提案。事前学習済みモデルの入力と、事前学習済みモデルの学習済みサンプルを入力とする。事前学習済みモデルは、事前学習済みサンプルの学習結果を入力とする。事前学習済みモデルは、事前学習済みサンプルの学習結果を入力とする。
  • Necessity and Sufficiency for Explaining Text Classifiers: A Case Study in Hate Speech Detection
    • Esma Balkir, Isar Nejadgholi, Kathleen Fraser, Svetlana Kiritchenko
    • TLDR: 不信なニュースを検知するテキスト分類器の説明手法の提案。不信なニュースを検知するテキストを、不信なニュースの単語に置き換える形で分類する。不信なニュースの単語は、不信なニュースの単語と同等の意味を持つ単語を含まない単語として分類する。不信なニュースの単語は、不信なニュースの単語と同等の意味を持つ単語を含まない単語として分類する。
  • Learning to Retrieve Passages without Supervision
    • Ori Ram, Gal Shachaf, Omer Levy, Jonathan Berant, Amir Globerson
    • TLDR: オープンドメインのQAで、事前学習済みモデルを学習する手法の提案。事前学習済みモデルは、文書の単語分布を予測するモデルで、単語分布を予測するモデルは、文書の単語分布を予測するモデルで学習する。文書の単語分布を予測するモデルは、文書の単語分布を予測するモデルと同等の精度を達成。
  • Re2G: Retrieve, Rerank, Generate
    • Michael Glass, Gaetano Rossiello, Md Faisal Mahbub Chowdhury, Ankita Naik, Pengshan Cai, Alfio Gliozzo
    • TLDR: 事前学習済みモデルを、事前学習済みモデルの学習に置き換えた研究。事前学習済みモデルは事前学習済みモデルの学習済みモデルと同等の精度を維持するが、事前学習済みモデルは学習済みモデルの学習済みモデルの学習済みモデルと同等の精度を維持する。事前学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を維持する。
  • Don’t sweat the small stuff, classify the rest: Sample Shielding to protect text classifiers against adversarial attacks
    • Jonathan Rusert, Padmini Srinivasan
    • TLDR: テキスト分類器に対するAdversarial Attackの防御手法の提案。既存の分類器は、事前学習済みテキストを基に作成されることが多いが、この場合事前学習済みテキストを基に作成されることが多い。事前学習済みテキストを基に作成されると、既存の分類器の精度が下がる可能性がある。
  • Federated Learning with Noisy User Feedback
    • Rahul Sharma, Anil Ramakrishna, Ansel MacLaughlin, Anna Rumshisky, Jimit Majmudar, Clement Chung, Salman Avestimehr, Rahul Gupta
    • TLDR: 機械学習モデルの学習で、ユーザーのフィードバックを考慮したモデルの構築を提案。学習データの分散は、学習データの分散と同等の影響がある。分散は、学習データの分散と同等の影響がある。分散は、学習データの分散と同等の影響がある。分散は、学習データの分散と同等の影響がある。
  • Gender Bias in Masked Language Models for Multiple Languages
    • Masahiro Kaneko, Aizhan Imankulova, Danushka Bollegala, Naoaki Okazaki
    • TLDR: 自然言語処理で、性別や国籍といった差別的な表現を学習する研究。性別/国籍を予測するモデルは、性別/国籍を予測する単語を予測するモデルと同等の精度を獲得できるが、性別/国籍を予測する単語は予測する単語の予測精度が低い。そのため、性別/国籍を予測する単語を予測するモデルを学習する。
  • Multi-Domain Targeted Sentiment Analysis
    • Orith Toledo-Ronen, Matan Orbach, Yoav Katz, Noam Slonim
    • TLDR: レビューから商品レビューを生成する研究。レビューはAmazon.com/ Yelpなど様々なドメインで収集されており、Amazon.com/ YelpはAmazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/
  • Falsesum: Generating Document-level NLI Examples for Recognizing Factual Inconsistency in Summarization
    • Prasetya Utama, Joshua Bambrick, Nafise Moosavi, Iryna Gurevych
    • TLDR: 自然言語処理で、文書から事実誤認を検出する手法の提案。文書から事実誤認を検出するモデルを学習する。文書から事実誤認を検出するモデルは、文書から事実誤認を検出する文書を生成するモデルと同等の精度を維持できる。文書から事実誤認を検出するモデルは、文書から事実誤認を検出する文書を生成するモデルと同等の精度を維持できる。
  • Dynamic Gazetteer Integration in Multilingual Models for Cross-Lingual and Cross-Domain Named Entity Recognition
    • Besnik Fetahu, Anjie Fang, Oleg Rokhlenko, Shervin Malmasi
    • TLDR: マルチドメインのEntity検出で、事前学習済みモデルをマルチドメインのEntity検出に活用する研究。事前学習済みモデルは、Entityの単語を予測するタスクで使用する。単語の予測は、単語の単語分布を予測するタスクで行う。単語分布は、単語の単語分布を予測するタスクで使用する。
  • MetaICL: Learning to Learn In Context
    • Sewon Min, Mike Lewis, Luke Zettlemoyer, Hannaneh Hajishirzi
    • TLDR: 事前学習済み言語モデルを、事前学習済みモデルに置き換える手法の提案。事前学習済みモデルは事前学習済みモデルの学習済みモデルと同等の学習データが必要で、事前学習済みモデルの学習済みモデルを学習する。事前学習済みモデルは事前学習済みモデルの学習済みモデルと同等の学習データが必要で、事前学習済みモデルの学習済みモデルを比較し、事前学習済みモデルの学習済みモデルと比較した結果。
  • Enhancing Knowledge Selection for Grounded Dialogues via Document Semantic Graphs
    • Sha Li, Mahdi Namazifar, Di Jin, Mohit Bansal, Heng Ji, Yang Liu, Dilek Hakkani-Tur
    • TLDR: 文書中の文書から、文書の文構造を抽出する研究。文書中の文書構造は、文の文構造と文書の文構造を結合する形で構成されている。文書構造は、文構造と文書構造を結合する形で構成されている。文書構造は、文書構造と文書構造を結合する形で構成されている。文書構造は、文書構造と文書構造を結合する形で構成されている。
  • Using Natural Sentence Prompts for Understanding Biases in Language Models
    • Sarah Alnegheimish, Alicia Guo, Yi Sun
    • TLDR: 自然言語処理で性別適合診断を行う際に、モデルのモデルのタスクとモデルのタスクを比較した研究。タスクは、性別適合診断のタスクとモデルのタスクを比較し、タスクのタスクはタスクのタスクとタスクのタスクのタスクの2つに分けている。タスクはタスクのタスクで、タスクはタスクのタスクでタスクのタスクを学習する。タスクはタスクのタスクで、タスクはタスクのタスクで学習する。タスクはタスクのタスクで学習する。タスクはタスクのタスクで学習する。タ
  • Robust Conversational Agents against Imperceptible Toxicity Triggers
    • Ninareh Mehrabi, Ahmad Beirami, Fred Morstatter, Aram Galstyan
    • TLDR: 自然言語処理モデルに対する敵対的攻撃手法の提案。攻撃者は、生成された言語が人間に近いかを検証する。敵対的攻撃は、生成された言語が人間に近いかを検証する。敵対的攻撃は、生成された言語が人間に近いかを検証する。敵対的攻撃は、生成された言語が人間に近いかを検証する。
  • Selective Differential Privacy for Language Modeling
    • Weiyan Shi, Aiqi Cui, Evan Li, Ruoxi Jia, Zhou Yu
    • TLDR: 言語モデルでプライバシー保護を強化する研究。プライバシー保護は、プライバシーの保護対象となるTokenの大きさ(プライバシーの大きさ)を考慮する。Tokenの大きさは、プライバシーの保護対象となるTokenの大きさ(プライバシーの大きさ)と同等になるよう調整する。プライバシーの保護は、プライバシーの大きさ(プライバシーの大きさ)を考慮する。
  • Do Trajectories Encode Verb Meaning?
    • Dylan Ebert, Chen Sun, Ellie Pavlick
    • TLDR: 自然言語処理で、物体軌道の表現を学習する研究。物体軌道の表現は、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が動いている時のみ、物体が
  • Long Context Question Answering via Supervised Contrastive Learning
    • Avi Caciularu, Ido Dagan, Jacob Goldberger, Arman Cohan
    • TLDR: 長い文書から、文書中の文書を抽出する研究。文書中の文書を抽出する際、文書中の文書から文書全体を抽出する。文書全体を抽出する際、文書全体の文書特徴を抽出する(文書特徴は文書特徴と同等になるよう、文書特徴を抽出する)。文書特徴を抽出する際、文書特徴を抽出する文書特徴を学習する。
  • The USMLE® Step 2 Clinical Skills Patient Note Corpus
    • Victoria Yaneva, Janet Mee, Le Ha, Polina Harik, Michael Jodoin, Alex Mechaber
    • TLDR: 臨床経験を題材にした論文。10例の臨床経験から、臨床経験の表現を抽出する手法を提案している。臨床経験は、臨床経験の表現を抽出する手法をベースにしている。臨床経験は、臨床経験の表現を抽出する手法をベースにしている。
  • Learning to Borrow– Relation Representation for Without-Mention Entity-Pairs for Knowledge Graph Completion
    • Huda Hakami, Mona Hakami, Angrosh Mandya, Danushka Bollegala
    • TLDR: 文中の単語と文中の単語を結合する研究。単語と単語の結合は、単語と単語の結合を結合する形で行われることが多いが、単語と単語の結合は単語と単語の結合を結合する形で行われる。単語と単語の結合は、単語と単語の結合を結合する形で行われることが多い。
  • Improving Entity Disambiguation by Reasoning over a Knowledge Base
    • Tom Ayoola, Joseph Fisher, Andrea Pierleoni
    • TLDR: 自然言語処理で、文中の単語を単語ベースの知識ベースに置き換える研究。単語ベースは単語の意味を表す単語を含まないが、文中の単語は単語ベースの知識ベースに置き換えられる。文中の単語は単語ベースの知識ベースに置き換えられるが、文中の単語は文法知識ベースに置き換えられる。
  • Modal Dependency Parsing via Language Model Priming
    • Jiarui Yao, Nianwen Xue, Bonan Min
    • TLDR: 言語モデルの事前学習済みモデルを、事前学習済み言語モデルに組み込んだ研究。事前学習済みモデルは、事前学習済み言語モデルの表現を表現する。事前学習済み言語モデルは、事前学習済み言語モデルの表現を表現する。事前学習済み言語モデルは、事前学習済み言語モデルの表現を表現する。事前学習済み言語モデルは、事前学習済み言語モデルの表現を表現する。
  • Document-Level Relation Extraction with Sentences Importance Estimation and Focusing
    • Wang Xu, Kehai Chen, Lili Mou, Tiejun Zhao
    • TLDR: 文書から文関係を抽出する研究。文書中の文関係を抽出する際、文関係の重要性を評価するスコアを導入する。スコアは文書の重みから算出するが、スコアは文書の重みから算出する。スコアは文書の重みから算出するが、文書の重みは文書の重みから算出する。文書の重みは文書の重みから算出する。
  • Are All the Datasets in Benchmark Necessary? A Pilot Study of Dataset Evaluation for Text Classification
    • Yang Xiao, Jinlan Fu, See-Kiong Ng, Pengfei Liu
    • TLDR: テキスト分類タスクで、データセットの分類結果を予測する手法の提案。分類結果は、データセットの分類結果と比較して、分類結果が異なるデータセットが劣る傾向がある。そのため、データセットの分類結果を予測するモデルを提案している。
  • Triggerless Backdoor Attack for NLP Tasks with Clean Labels
    • Leilei Gan, Jiwei Li, Tianwei Zhang, Xiaoya Li, Yuxian Meng, Fei Wu, Yi Yang, Shangwei Guo, Chun Fan
    • TLDR: 自然言語処理モデルに対する攻撃手法の提案。通常の攻撃手法は、文生成時に文中の単語をランダムに変えるが、この時文の単語はランダムに変えるだけで防衛できる。このため、文生成時に文中の単語をランダムに変える手法を提案している。
  • PPL-MCTS: Constrained Textual Generation Through Discriminator-Guided MCTS Decoding
    • Antoine Chaffin, Vincent Claveau, Ewa Kijak
    • TLDR: 言語モデルで、自然言語処理で生成した文書を自動生成する研究。生成した文書は、言語モデルの学習済みモデルに入力される。生成した文書は、言語モデルの学習済みモデルに入力される。生成した文書は、言語モデルの学習済みモデルに入力される。
  • Interpretable Proof Generation via Iterative Backward Reasoning
    • Hanhao Qu, Yu Cao, Jun Gao, Liang Ding, Ruifeng Xu
    • TLDR: 事前学習済みモデルを、事前学習済みモデルの予測と比較して精度を上げる研究。事前学習済みモデルは、事前学習済みモデルの予測と比較して精度が下がる。事前学習済みモデルは、事前学習済みモデルの予測と比較して精度が下がる。事前学習済みモデルは、事前学習済みモデルの予測と比較して精度が下がる。
  • Domain Confused Contrastive Learning for Unsupervised Domain Adaptation
    • Quanyu Long, Tianze Luo, Wenya Wang, Sinno Pan
    • TLDR: 教師なし学習で、ドメインの異なるタスクを学習する研究。タスクの学習は、タスクの学習結果をドメインの予測に近いものに変更する。タスクの予測は、タスクの予測結果と異なるタスクを予測する。タスクの予測結果は、タスクの予測結果と異なるタスクを予測する。タスクの予測結果は、タスクの予測結果と異なるタスクを予測する。タスクの予測結果は、タスクの予測結果と異なるタスクを予測する。タスクの予測結果は、タスクの予測結果と異なるタスクを予測する。タスクの予測結果は、タスクの予測
  • Incorporating Centering Theory into Neural Coreference Resolution
    • Haixia Chai, Michael Strube
    • TLDR: 文書の文書分割を、自然言語処理で行う研究。文書分割は、文書の文書分割と同等の処理を行なっている。文書分割は、文書分割の処理をベースにしている。文書分割は、文書分割の処理をベースにしている。文書分割は、文書分割の処理をベースにしている。文書分割は、文書分割の処理をベースにしている。
  • Progressive Class Semantic Matching for Semi-supervised Text Classification
    • Haiming Xu, Lingqiao Liu, Ehsan Abbasnejad
    • TLDR: 事前学習済み言語モデルと、事前学習済み言語モデルを組み合わせた研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済みモデルと同等の学習データが必要で、事前学習済み言語モデルの学習データと同等の学習データが必要となる。事前学習済み言語モデルの学習データと事前学習済み言語モデルの学習データの組み合わせで、事前学習済み言語モデルの学習データと同等の学習データが必要となる。
  • Low Resource Style Transfer via Domain Adaptive Meta Learning
    • Xiangyang Li, Xiang Long, Yu Xia, Sujian Li
    • TLDR: テキストスタイルの転移を行う際に、事前学習済み言語モデルを用いたAdversarial Transferモデル(Adversarial Transfer Model)を提案。事前学習済み言語モデルは、事前学習済み言語モデルの学習済みテキストをベースに、Adversarial Transferモデルは事前学習済みテキストをベースに学習する。事前学習済みテキストをベースに、Adversarial Transferモデルをベースに学習する。
  • Features or Spurious Artifacts? Data-centric Baselines for Fair and Robust Hate Speech Detection
    • Alan Ramponi, Sara Tonelli
    • TLDR: 不法攻撃に対する不法攻撃に対する対応について、事前学習済みモデルと、事前学習済みモデルの対応を検証した研究。事前学習済みモデルは、不法攻撃に対する不法攻撃に対する対応が不適であるとしている。事前学習済みモデルは、不法攻撃に対する不法攻撃に対する対応が不適であるとしている。
  • Document-Level Event Argument Extraction by Leveraging Redundant Information and Closed Boundary Loss
    • Hanzhang Zhou, Kezhi Mao
    • TLDR: 文書中の文書から、文書全体の文書構造を抽出する研究。文書全体の文書構造を抽出する際、文書全体の文書構造を抽出する際の文書構造を抽出する。文書全体の文書構造を抽出する際、文書全体の文書構造を抽出する文書構造を学習する。文書構造を学習する際は、文書構造を学習するモデルを導入する。
  • A Few Thousand Translations Go a Long Way! Leveraging Pre-trained Models for African News Translation
    • David Adelani, Jesujoba Alabi, Angela Fan, Julia Kreutzer, Xiaoyu Shen, Machel Reid, Dana Ruiter, Dietrich Klakow, Peter Nabende, Ernie Chang, Tajuddeen Gwadabe, Freshia Sackey, Bonaventure F. P. Dossou, Chris Emezue, Colin Leong, Michael Beukman, Shamsuddeen Muhammad, Guyo Jarso, Oreen Yousuf, Andre Niyongabo Rubungo, Gilles Hacheme, Eric Peter Wairagala, Muhammad Umair Nasir, Benjamin Ajibade, Tunde Ajayi, Yvonne Gitau, Jade Abbott, Mohamed Ahmed, Millicent Ochieng, Anuoluwapo Aremu, Perez Ogayo, Jonathan Mukiibi, Fatoumata Ouoba Kabore, Godson Kalipe, Derguene Mbaye, Allahsera Auguste Tapo, Victoire Memdjokam Koagne, Edwin Munkoh-Buabeng, Valencia Wagner, Idris Abdulmumin, Ayodele Awokoya, Happy Buzaaba, Blessing Sibanda, Andiswa Bukula, Sam Manthalu
    • TLDR: 事前学習済みモデルを、大規模なタスクで使うための手法を調査した研究。事前学習済みモデルは、事前学習済み言語の翻訳モデルと同等の精度が得られるが、事前学習済みモデルは翻訳モデルの精度が低い言語を学習する。そのため、事前学習済みモデルを学習する際は、翻訳モデルの精度を上げるために、翻訳モデルの学習済み言語を学習するモデルを導入する。
  • Should We Rely on Entity Mentions for Relation Extraction? Debiasing Relation Extraction with Counterfactual Analysis
    • Yiwei Wang, Muhao Chen, Wenxuan Zhou, Yujun Cai, Yuxuan Liang, Dayiheng Liu, Baosong Yang, Juncheng Liu, Bryan Hooi
    • TLDR: 文中の関係を抽出する研究。文中の関係は、文中の単語からのみ抽出する。文中の関係は、文中の単語からのみ抽出する。文中の関係は、文中の単語からのみ抽出する。文中の関係は、文中の単語からのみ抽出する。文中の関係は、文中の単語からのみ抽出する。
  • Analyzing Encoded Concepts in Transformer Language Models
    • Hassan Sajjad, Nadir Durrani, Fahim Dalvi, Firoj Alam, Abdul Khan, Jia Xu
    • TLDR: 言語モデルの潜在表現を、人間が認識する潜在表現と認識する潜在表現の2つに分類し、潜在表現の潜在表現を人間認識する潜在表現と認識する潜在表現の2つに分類する研究。潜在表現は人間認識の潜在表現と認識する潜在表現の2つに分類し、潜在表現の潜在表現を人間認識の潜在表現と認識する潜在表現の2つに分類する。
  • Boosted Dense Retriever
    • Patrick Lewis, Barlas Oguz, Wenhan Xiong, Fabio Petroni, Scott Yih, Sebastian Riedel
    • TLDR: 強化学習で、強化学習の学習を効率化する手法の提案。強化学習の学習は、学習済みのモデルを強化学習の学習に使用する。強化学習は、強化学習の学習済みモデルを学習する。強化学習は、強化学習の学習済みモデルを学習する。強化学習は、強化学習の学習済みモデルを学習する。強化学習は、強化学習の学習済みモデルを学習する。
  • MuCGEC: a Multi-Reference Multi-Source Evaluation Dataset for Chinese Grammatical Error Correction
    • Yue Zhang, Zhenghua Li, Zuyi Bao, Jiacheng Li, Bo Zhang, Chen Li, Fei Huang, Min Zhang
    • TLDR: 文の文長を、複数文に分割して学習する研究。文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長は文長の文長を、文長
  • NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias
    • Nayeon Lee, Yejin Bang, Tiezheng Yu, Andrea Madotto, Pascale Fung
    • TLDR: ニュースのタイトルからニュース記事の概要を生成する研究。タイトルはニュースのタイトルと同等の意味を持つが、記事は記事のタイトルと同等意味を持つ。記事のタイトルはニュースの概要をまとめるのに適している。記事の概要はニュースの概要をまとめたものから生成するが、記事の概要は記事の概要をまとめたものから生成する。
  • Enhance Incomplete Utterance Restoration by Joint Learning Token Extraction and Text Generation
    • Shumpei Inoue, Tsungwei Liu, Son Nguyen, Minh-Tien Nguyen
    • TLDR: 教師なし言語モデルで、不完全な発話(誤発話)を復元する研究。不完全な発話は、不完全な発話の意味を含まない単語に置き換える形で復元する。不完全な発話は、不完全な単語の意味を含まない単語に置き換える形で復元する。
  • Efficient Constituency Tree based Encoding for Natural Language to Bash Translation
    • Shikhar Bharadwaj, Shirish Shevade
    • TLDR: 自然言語から、Segmentated Invocation Transformerを用いた研究。自然言語の文から、Segmentated Invocation Transformerを用いたモデルを作成し、Segmentated Invocation Transformerを用いたモデルの作成と、Segmentated Invocation Transformerを用いたモデルの作成を交互に行なっている。
  • Privacy-Preserving Text Classification on BERT Embeddings with Homomorphic Encryption
    • Garam Lee, Minsoo Kim, Jai Hyun Park, Seung-won Hwang, Jung Hee Cheon
    • TLDR: テキスト分類を行う際に、プライバシーを保護する仕組みを提案。既存のBERT(#959)を、プライバシー保護の仕組みとして利用する。BERTは、プライバシー保護の仕組みを導入していないため、プライバシー保護の仕組みを導入する。プライバシー保護の仕組みは、BERTのEncoder/DecoderをEncodeしたテキストを、EncodeしたテキストのEncode結果から、プライバシー保護の仕組みを導入する。
  • ITA: Image-Text Alignments for Multi-Modal Named Entity Recognition
    • Xinyu Wang, Min Gui, Yong Jiang, Zixia Jia, Nguyen Bach, Tao Wang, Zhongqiang Huang, Kewei Tu
    • TLDR: マルチモーダルで学習するEntity Recognitionの研究。画像とテキストを結合し、Attentionを用いてEntityの位置を予測する。画像は、画像の位置とテキストの位置を近似する。この時、Attentionは画像の位置とテキストの位置を近似する。
  • A Dataset for N-ary Relation Extraction of Drug Combinations
    • Aryeh Tiktinsky, Vijay Viswanathan, Danna Niezni, Dana Meron Azagury, Yosi Shamay, Hillel Taub-Tabib, Tom Hope, Yoav Goldberg
    • TLDR: マルチ薬剤の組み合わせを調べるデータセット「Actor Attack」を公開。各薬剤の効果と副作用の比較、また、各薬剤の効果と副作用の評価をまとめたデータセット。各薬剤の効果と副作用の評価は、各研究の論文から抽出されている。
  • Curriculum: A Broad-Coverage Benchmark for Linguistic Phenomena in Natural Language Understanding
    • Zeming Chen, Qiyue Gao
    • TLDR: 自然言語処理モデルの評価手法を、言語モデルの特性を評価する手法として、言語モデルの特性を評価する指標を提案。言語モデルの特性を評価する指標として、言語モデルの特性を評価する指標を提案している。
  • Neural Language Taskonomy: Which NLP Tasks are the most Predictive of fMRI Brain Activity?
    • Subba Reddy Oota, Jashn Arora, Veeral Agarwal, Mounika Marreddy, Manish Gupta, Bapi Surampudi
    • TLDR: 自然言語処理におけるTransformerベースのモデルの有効性を検証した研究。Transformerベースのモデルは、文を読む/聞いて/文関係のタスクで有効性を確認。文の読解/文関係のタスクで有効性を確認。文の読解/文関係のタスクで有効性を確認。
  • FactGraph: Evaluating Factuality in Summarization with Semantic Graph Representations
    • Leonardo Ribeiro, Mengwen Liu, Iryna Gurevych, Markus Dreyer, Mohit Bansal
    • TLDR: 文書から事実誤認を検出する手法の提案。文書と文書の文書を結合し、文書と文書の文書を結合した文書を生成する。文書と文書の文書は文書の文書構造をベースに、文書の文書構造をベースに文書構造を生成する。文書構造は文書構造と同等精度で、文書構造は文書構造と同等精度で生成する。
  • Unsupervised Paraphrasability Prediction for Compound Nominalizations
    • John Sie Yuen Lee, Ho Hung Lim, Carol Carol Webster
    • TLDR: 自然言語処理で、既存のノルム表現を再利用する研究。既存のノルム表現は、通常のノルム表現と異なる表現を生成することが多いが、この場合、既存のノルム表現を再利用する手法を採用している。既存の手法は、ノルム表現の生成に使用する単語を、既存の単語表現に使用する単語を追加する形で行う。
  • Global Entity Disambiguation with BERT
    • Ikuya Yamada, Koki Washio, Hiroyuki Shindo, Yuji Matsumoto
    • TLDR: 自然言語処理のモデルで、単語を入力とするタスクを提案。単語は単語と同等の意味を持つが、単語は単語と同等に意味を持つ。単語は単語と同等に意味を持つが、単語は単語と同等に意味を持つ。単語は単語の重みを含んだ単語で、単語は単語の重みを含んだ単語で処理する。
  • Clues Before Answers: Generation-Enhanced Multiple-Choice QA
    • Zixian Huang, Ao Wu, Jiaying Zhou, Yu Gu, Yue Zhao, Gong Cheng
    • TLDR: マルチコアのQAモデルを、事前学習済みモデルに置き換えた研究。事前学習済みモデルは、事前学習済みモデルの生成結果をベースに生成を行う。生成結果は、事前学習済みモデルの生成結果と同等の精度を達成できるか検証している。
  • Towards Efficient NLP: A Standard Evaluation and A Strong Baseline
    • Xiangyang Liu, Tianxiang Sun, Junliang He, Jiawen Wu, Lingling Wu, Xinyu Zhang, Hao Jiang, Zhao Cao, Xuanjing Huang, Xipeng Qiu
    • TLDR: 自然言語処理モデルのパフォーマンスを評価する指標の提案。モデルのパフォーマンスは、モデルの学習済み言語モデルと同等の精度を維持するが、精度はモデルの学習済み言語モデルと同等の精度を維持する。モデルのパフォーマンスは、学習済み言語モデルの精度と同等の精度を維持する。
  • Stylized Knowledge-Grounded Dialogue Generation via Disentangled Template Rewriting
    • Qingfeng Sun, Can Xu, Huang Hu, Yujing Wang, Jian Miao, Xiubo Geng, Yining Chen, Fei Xu, Daxin Jiang
    • TLDR: 文のスタイルを変えた研究。文のスタイルは、文の文長が長くなるほど、文のスタイルが長くなる傾向がある。文長が長くなるほど、文のスタイルが長くなる傾向がある。文長が長くなるほど、スタイルが長くなる傾向がある。文長が長くなるほど、スタイルが長くなる傾向がある。
  • LUNA: Learning Slot-Turn Alignment for Dialogue State Tracking
    • Yifan Wang, Jing Zhao, Junwei Bao, Chaoqun Duan, Youzheng Wu, Xiaodong He
    • TLDR: 対話システムにおける対話システムのパフォーマンスを向上させる研究。対話システムの挙動を予測する際、対話システムの挙動を予測するSlotを提案。Slotの挙動は、対話システムの挙動と対話システムの挙動の2つに依存する。対話システムの挙動は、対話システムの挙動と対話システムの挙動の2つに依存する。対話システムの挙動は、対話システムの挙動と対話システムの挙動の2つに依存する。
  • Crossroads, Buildings and Neighborhoods: A Dataset for Fine-grained Location Recognition
    • Pei Chen, Haotian Xu, Cheng Zhang, Ruihong Huang
    • TLDR: 自然言語処理で、自然言語処理のデータセットを更新した研究。既存のデータセットは、自然言語処理のタスクで精度が低下する箇所を除き、自然言語処理のタスクで精度が低下する箇所を除き精度が低下する箇所を除去する。また、タスクの精度が低下する箇所を除去する手法を導入している。
  • Tricks for Training Sparse Translation Models
    • Dheeru Dua, Shruti Bhosale, Vedanuj Goswami, James Cross, Mike Lewis, Angela Fan
    • TLDR: マルチタスク学習で、モデルのパフォーマンスを上げるためには、モデルの温度を上げることが有効な手法としている。モデルの温度は、モデルのパフォーマンスを上げるためには有効な手法としている。
  • Persona-Guided Planning for Controlling the Protagonist’s Persona in Story Generation
    • Zhexin Zhang, Jiaxin Wen, Jian Guan, Minlie Huang
    • TLDR: 人物を生成するモデルの提案。事前学習済みモデルと、事前学習済みモデルの2つを組み合わせて生成を行う。事前学習済みモデルは、事前学習済みモデルの予測した人物の行動を基に生成を行う。事前学習済みモデルは、事前学習済みモデルの予測した人物の行動を基に生成を行う。事前学習済みモデルは、事前学習済みモデルと同等の精度を達成。
  • CHEF: A Pilot Chinese Dataset for Evidence-Based Fact-Checking
    • Xuming Hu, Zhijiang Guo, GuanYu Wu, Aiwei Liu, Lijie Wen, Philip Yu
    • TLDR: ニュースや政治など様々なタスクで、事実関係を調べるデータセットの提案。ニュースのニュースソースから、ニュースのニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースからニュースソースから
  • VGNMN: Video-grounded Neural Module Networks for Video-Grounded Dialogue Systems
    • Hung Le, Nancy Chen, Steven Hoi
    • TLDR: 動画から質問回答を行う際に、事前学習済みモデルを用いた研究。事前学習済みモデルは、質問に対するEntity Referenceの予測、質問に対するEntity Referenceの予測、質問に対するEntity Referenceの予測、予測結果の予測を行なっている。事前学習済みモデルは、事前学習済みモデルの予測結果を基に学習を行う。
  • Multimodal Dialogue State Tracking
    • Hung Le, Nancy Chen, Steven Hoi
    • TLDR: マルチモーダルで対話を行う際に、対話システムの挙動を自動調整する研究。対話システムは、動画中の物体や画像を入力として入力するが、入力は入力と同等のデータセットで行う。入力は、入力と同等のデータセットで行う。入力は、入力と同等のデータセットで行う。
  • On the Use of Bert for Automated Essay Scoring: Joint Learning of Multi-Scale Essay Representation
    • Yongjie Wang, Chuang Wang, Ruobing Li, Hui Lin
    • TLDR: 自然言語処理で、事前学習済みモデルをマルチスケールで学習する研究。マルチスケールで学習する際は、事前学習済みモデルの学習済みモデルの学習済みモデルを複数回に分割し、学習済みモデルの学習済みモデルを学習する。マルチスケールで学習する際は、学習済みモデルの学習済みモデルを複数回に分割し、学習済みモデルの学習済みモデルを学習する。
  • Recognition of They/Them as Singular Personal Pronouns in Coreference Resolution
    • Connor Baumler, Rachel Rudinger
    • TLDR: 教師なしの表現を扱うためのサーベイ。教師なしの表現は、通常の教師なし表現と同等の精度が得られるが、教師なし表現は教師なし表現と同等の精度が得られない。そこで、教師なし表現を扱うためのサーベイを公開。教師なし表現の精度は、教師なし表現の精度と同等の精度を達成できるか検証している。
  • TWEETSPIN: Fine-grained Propaganda Detection in Social Media Using Multi-View Representations
    • Prashanth Vijayaraghavan, Soroush Vosoughi
    • TLDR: ニュースの画像を、フェイクニュースの分類に使う研究。画像は画像分類の枠組みで分類されるが、画像分類はニュースの分類に使用される表現を分類する。画像は画像分類の枠組みで分類されるが、画像分類はニュース分類の枠組みで分類を行う。画像分類はニュース分類の枠組みで行う。
  • UserIdentifier: Implicit User Representations for Simple and Effective Personalized Sentiment Analysis
    • Fatemehsadat Mireshghallah, Vaishnavi Shrivastava, Milad Shokouhi, Taylor Berg-Kirkpatrick, Robert Sim, Dimitrios Dimitriadis
    • TLDR: ユーザー識別子を学習する研究。入力されたテキストを、ユーザー識別子の生成に使用する。生成したテキストは、ユーザー識別子の生成に使用される。生成したテキストは、ユーザー識別子の生成に使用される。生成したテキストは、ユーザー識別子の生成に使用される。
  • Improving Neural Models for Radiology Report Retrieval with Lexicon-based Automated Annotation
    • Luyao Shi, Tanveer Syeda-mahmood, Tyler Baldwin
    • TLDR: 放射線診断書の検索で、臨床検査結果を入力とするBERTを学習する研究。BERTは、臨床検査結果を入力とする文書から、臨床検査結果を入力とする文書に変換する。BERTは、臨床検査結果を入力とする文書から、臨床検査結果を入力とする文書に変換する。BERTは、文書の単語を入力とする文書から、文書の単語を入力とする文書に変換する。
  • Transparent Human Evaluation for Image Captioning
    • Jungo Kasai, Keisuke Sakaguchi, Lavinia Dunagan, Jacob Morrison, Ronan Le Bras, Yejin Choi, Noah Smith
    • TLDR: 画像のキャプチャーに対する評価手法の提案。画像のキャプチャーは機械学習モデルで作成されることが多いが、機械学習モデルは人間が作成した画像を認識する。そのため、画像のキャプチャーを評価する際は、画像のキャプチャーを人間が作成した画像と比較し評価する。
  • Lifting the Curse of Multilinguality by Pre-training Modular Transformers
    • Jonas Pfeiffer, Naman Goyal, Xi Lin, Xian Li, James Cross, Sebastian Riedel, Mikel Artetxe
    • TLDR: マルチ言語対応のモデルを、事前学習済み言語のモデルに組み込む研究。事前学習済み言語のモデルは、事前学習済み言語のパラメーター数を増やしてもパフォーマンスが変わらない。そのため、事前学習済み言語のパラメーター数を増やしたモデルを導入している。
  • DocAMR: Multi-Sentence AMR Representation and Evaluation
    • Tahira Naseem, Austin Blodgett, Sadhana Kumaravel, Tim O’Gorman, Young-Suk Lee, Jeffrey Flanigan, Ramón Astudillo, Radu Florian, Salim Roukos, Nathan Schneider
    • TLDR: 文書からグラフを生成する研究。文書からグラフを生成する際、文書の表現を抽出するSmatch metricを導入。文書の表現を抽出する際、文書の表現を抽出するSmatch metricを導入。文書の表現を抽出するSmatch metricを導入することで、文書の表現を抽出するモデルを構築する。
  • Learning to Transfer Prompts for Text Generation
    • Junyi Li, Tianyi Tang, Jian-Yun Nie, Ji-Rong Wen, Xin Zhao
    • TLDR: テキスト生成時に、事前学習済み言語モデルのパッチを転移学習する研究。パッチは事前学習済みモデルのパッチと、パッチの生成時に使用されるパッチのパラメーターを組み合わせたもの。パッチは、事前学習済みモデルのパッチと、パッチの生成時に使用されるパッチのパラメーターを組み合わせたもの。パッチは、事前学習済みモデルのパッチと、パッチのパラメーターを組み合わせたもの。
  • ElitePLM: An Empirical Study on General Language Ability Evaluation of Pretrained Language Models
    • Junyi Li, Tianyi Tang, Zheng Gong, Lixin Yang, Zhuohao Yu, Zhipeng Chen, Jingyuan Wang, Xin Zhao, Ji-Rong Wen
    • TLDR: 自然言語処理で、事前学習済み言語モデル(LSTM)を評価する研究。事前学習済みモデルは、事前学習済み言語モデルの学習率(LSTM)を上回る精度を発揮するが、事前学習済みモデルは学習率が下がる傾向がある。事前学習済みモデルは学習率が下がる傾向があるが、学習率が上がるよう学習する
  • Bidimensional Leaderboards: Generate and Evaluate Language Hand in Hand
    • Jungo Kasai, Keisuke Sakaguchi, Ronan Le Bras, Lavinia Dunagan, Jacob Morrison, Alexander Fabbri, Yejin Choi, Noah Smith
    • TLDR: 自然言語処理における評価手法の提案。評価指標は、生成モデルの生成結果と、評価結果との相関を評価する指標(評価指標の生成結果と、評価指標の生成結果との相関を評価する指標)を組み合わせて作成する。評価指標は、生成結果と評価結果との相関を評価する指標を組み合わせる。
  • Improving In-Context Few-Shot Learning via Self-Supervised Training
    • Mingda Chen, Jingfei Du, Ramakanth Pasunuru, Todor Mihaylov, Srini Iyer, Veselin Stoyanov, Zornitsa Kozareva
    • TLDR: 事前学習済みモデルの学習を、事前学習済みモデルの学習と併用する研究。事前学習済みモデルは、事前学習済みモデルの学習と同等の学習を行なっている。事前学習済みモデルは、事前学習済みモデルと同等の学習を行なっている。事前学習済みモデルは、事前学習済みモデルと同等の学習を行なっている。
  • Exposing the Limits of Video-Text Models through Contrast Sets
    • Jae Sung Park, Sheng Shen, Ali Farhadi, Trevor Darrell, Yejin Choi, Anna Rohrbach
    • TLDR: テキストから動画を抽出する研究。テキストを入力に置き換える(テキストの単語を入力に置き換える)ことで、テキストの単語特徴を学習させる。テキストの単語特徴を入力に置き換えることで、テキストの単語特徴を学習させる。テキストの単語特徴を入力に置き換えることで、テキストの単語特徴を学習させる。
  • Zero-shot Sonnet Generation with Discourse-level Planning and Aesthetics Features
    • Yufei Tian, Nanyun Peng
    • TLDR: 自然言語処理で、文の生成を行う際に、文の生成を学習する仕組みを提案。文の生成は、文の生成と文の分類を同時に行う。文分類は、文の分類を学習する形で行う。分類は、文の分類を学習する形で行う。文分類は、文分類の学習を前提としている。
  • Benchmarking Intersectional Biases in NLP
    • John Lalor, Yi Yang, Kendall Smith, Nicole Forsgren, Ahmed Abbasi
    • TLDR: 自然言語処理モデルの不公平性を検証した研究。モデルの不公平性は、性別や国籍など様々なタスクで顕著に現れる。モデルの不公平性は、モデルの予測精度に大きく影響する。モデルの不公平性は、モデルの予測精度に大きく影響する。
  • When is BERT Multilingual? Isolating Crucial Ingredients for Cross-lingual Transfer
    • Ameet Deshpande, Partha Talukdar, Karthik Narasimhan
    • TLDR: マルチ言語の転移について、転移の仕組みと転移のパフォーマンスの関係を調べた研究。転移は転移の仕組みと転移のパフォーマンスの関係を調べた研究。転移は転移の仕組みと転移のパフォーマンスの関係を調べた研究。転移は転移の仕組みと転移のパフォーマンスの関係を調べた研究。転移は転移の仕組みと転移のパフォーマンスの関係を調べた研究。転移は転移の仕組みと転移のパフォーマンスの関係を調べた研究。転移は転移の仕組みと転移のパフォーマンスの関係を調べた研究。転移は転移の仕組みと転移のパフォーマンスの関係を調べた
  • How Conservative are Language Models? Adapting to the Introduction of Gender-Neutral Pronouns
    • Stephanie Brandl, Ruixiang Cui, Anders Søgaard
    • TLDR: 自然言語処理で、性別を区別する単語を導入する際は、その単語が使われているかを検証した研究。性別を区別する単語は、通常の単語と異なり、自然言語処理で使われる単語と同等の結果が出ることを確認。また、性別を区別する単語は、自然言語処理で使われる単語と同等の結果が出ることを確認。
  • Prompt Waywardness: The Curious Case of Discretized Interpretation of Continuous Prompts
    • Daniel Khashabi, Xinxi Lyu, Sewon Min, Lianhui Qin, Kyle Richardson, Sean Welleck, Hannaneh Hajishirzi, Tushar Khot, Ashish Sabharwal, Sameer Singh, Yejin Choi
    • TLDR: 言語モデルで、連続的な質問を解く際に、学習済みモデルの学習済みモデルと同等の精度を維持できるか検証した研究。学習済みモデルの学習済みモデルと同等の精度を維持できるか検証したが、学習済みモデルの学習済みモデルと同等の精度を維持できるか検証した結果。
  • Contrastive Representation Learning for Cross-Document Coreference Resolution of Events and Entities
    • Benjamin Hsu, Graham Horwood
    • TLDR: 文書から、文書内の文書情報を抽出する研究。文書内の文書情報を抽出するTransformerを、文書内の文書情報から文書情報に変換する。文書内の文書情報から文書情報を抽出するTransformerを、文書情報から文書情報に変換するTransformerに変換する。文書情報から文書情報を抽出するTransformerを、文書情報から文書情報に変換するTransformerに変換する。
  • Learning the Ordering of Coordinate Compounds and Elaborate Expressions in Hmong, Lahu, and Chinese
    • Chenxuan Cui, Katherine Zhang, David Mortensen
    • TLDR: 自然言語処理で、複雑な単語の順序付けを学習する研究。単語の順序付けは、自然言語処理で行うことが多いが、単語の順序付けは言語モデルで行う。単語の順序付けは、単語の語順を予測する形で行う。単語の語順は、単語の語順を予測する形で学習する。
  • FRUIT: Faithfully Reflecting Updated Information in Text
    • Robert Iv, Alexandre Passos, Sameer Singh, Ming-Wei Chang
    • TLDR: 文書更新の自動生成を行う研究。Wikipediaの文書更新は、Wikipediaの文書更新のデータセットから生成する。文書更新は、Wikipediaの文書更新データセットから生成する。文書更新は、Wikipediaの文書更新データセットから生成する。文書更新は、Wikipediaの文書更新データセットから生成する。
  • Multi2WOZ: A Robust Multilingual Dataset and Conversational Pretraining for Task-Oriented Dialog
    • Chia-Chien Hung, Anne Lauscher, Ivan Vulić, Simone Ponzetto, Goran Glavaš
    • TLDR: マルチドメインのタスクを扱うマルチモーダルタスクの転移について、事前学習済み言語モデルをベースに、事前学習済み言語モデルをベースに転移を行う手法を提案。事前学習済み言語モデルは、事前学習済み言語モデルの転移精度を上回る。
  • ChapterBreak: A Challenge Dataset for Long-Range Language Models
    • Simeng Sun, Katherine Thai, Mohit Iyyer
    • TLDR: 長い文を扱うモデルの提案。長い文は長い文を扱うモデルの枠組みで、長い文は長い文を扱うモデルの枠組みで表現する。長い文は長い文を扱うモデルの枠組みで表現する。長い文は長い文を扱うモデルの枠組みで表現する。
  • ColBERTv2: Effective and Efficient Retrieval via Lightweight Late Interaction
    • Keshav Santhanam, Omar Khattab, Jon Saad-Falcon, Christopher Potts, Matei Zaharia
    • TLDR: 事前学習済みモデルを、事前学習済みモデルのパフォーマンスに近づける手法の提案。事前学習済みモデルは、事前学習済みモデルのパフォーマンスを上げるための戦略を取っているが、事前学習済みモデルはパフォーマンスが低下する。そこで、事前学習済みモデルの戦略を近づける手法を提案。事前学習済みモデルのパフォーマンスを上げるための戦略を取っている
  • Quantifying Language Variation Acoustically with Few Resources
    • Martijn Bartelds, Martijn Wieling
    • TLDR: 音声認識モデルの学習で、低リソースの言語を識別する研究。低リソースの言語は、通常の音声認識モデルで学習することが多いが、低リソースの言語は学習が困難だった。そこで、低リソース言語の言語を識別するネットワークを構築し、学習時に使用するネットワークを学習データから抽出し、学習データから学習データの分布を算出する。
  • Adaptable Adapters
    • Nafise Moosavi, Quentin Delfosse, Kristian Kersting, Iryna Gurevych
    • TLDR: 学習済みモデルの重みを、学習済みモデルの重みに近似するAdapterの提案。重みは学習済みモデルの重みと同等になるよう学習する。重みは学習済みモデルの重みと同等になるよう学習する。学習済みモデルの重みは、学習済みモデルの重みと同等になるよう学習する。
  • Models in the Loop: Aiding Crowdworkers with Generative Annotation Assistants
    • Max Bartolo, Tristan Thrush, Sebastian Riedel, Pontus Stenetorp, Robin Jia, Douwe Kiela
    • TLDR: 自然言語処理で、Adversarial Dataを学習する手法の提案。既存のモデルは、Adversarial Dataを学習する際は学習データの更新が必要だったが、学習済みモデルは更新が不要で済み、学習済みモデルの更新も容易。また、Adversarial Dataを学習する際は、学習済みモデルの更新が不要で済むよう、更新頻度を自動調整する仕組みを導入している。
  • GMN: Generative Multi-modal Network for Practical Document Information Extraction
    • Haoyu Cao, Jiefeng Ma, Antai Guo, Yiqing Hu, Hao Liu, Deqiang Jiang, Yinsong Liu, Bo Ren
    • TLDR: マルチモーダルで文書を生成する手法の提案。生成はマルチモーダルで行うが、生成結果はマルチモーダルで生成する。生成結果は、生成済み文書の分類器で生成する。生成結果は、文書分類器の分類結果と同等の精度で生成される。
  • One Reference Is Not Enough: Diverse Distillation with Reference Selection for Non-Autoregressive Translation
    • Chenze Shao, Xuanfu Wu, Yang Feng
    • TLDR: マルチモーダルな翻訳モデルの提案。翻訳文の生成は、翻訳文の文脈を考慮する必要がある。そのため、翻訳文の文脈を考慮するモデルを提案。文脈を考慮するモデルは、翻訳文の文脈を考慮するモデルと同等の性能を発揮する。
  • Can Rationalization Improve Robustness?
    • Howard Chen, Jacqueline He, Karthik Narasimhan, Danqi Chen
    • TLDR: 強化学習で、事前学習済みモデルの予測結果を基に、AddTextを生成する研究。事前学習済みモデルは予測結果を予測する際、予測結果を予測する単語を予測する単語ベクトルに置き換える(この時、予測結果を予測する単語ベクトルは予測結果に近い単語ベクトルに置き換える)。この時、予測結果を予測する単語ベクトルを予測する単語ベクトルに置き換える(この時、予測結果を予測する単語ベクトルは予測結果に近い単語ベクトルに置き換える)。
  • On the Effectiveness of Sentence Encoding for Intent Detection Meta-Learning
    • Tingting Ma, Qianhui Wu, Zhiwei Yu, Tiejun Zhao, Chin-Yew Lin
    • TLDR: 文の分散表現を学習する手法の提案。文分散表現は、文の意味を予測するタスクで使われることが多いが、文分散表現は学習済みモデルで学習する。文分散表現は、文の意味を予測するタスクで使われることが多いが、文分散表現は学習済みモデルで学習する。
  • A Computational Acquisition Model for Multimodal Word Categorization
    • Uri Berger, Gabriel Stanovsky, Omri Abend, Lea Frermann
    • TLDR: 教師なし学習で、画像を学習するモデルの提案。画像を学習する際は、画像のクラス分類を学習するモデルを使用。クラス分類は、画像のクラス分類を学習するモデルで行う。クラス分類は、画像のクラス分類を学習するモデルで行う。
  • Residue-Based Natural Language Adversarial Attack Detection
    • Vyas Raina, Mark Gales
    • TLDR: 自然言語処理におけるAdversarial Detectionの研究。画像を入力とし、入力とモデルの重みを入力とし、入力とモデルの重みを入力とし、入力とモデルの重みを入力とし、入力とモデルの重みを入力とし、入力とモデルの重みを入力とし、入力とモデルの重みを入力とし、入力とモデルの重みを入力とし、入力とモデルの重みを入力とし、入力とモデルの重みを入力とし、入力とモデルの重みを入力とし、モデルの重みを入力とし、モデルの重みを入力とし、モデル
  • Does it Really Generalize Well on Unseen Data? Systematic Evaluation of Relational Triple Extraction Methods
    • Juhyuk Lee, Min-Joong Lee, June Yong Yang, Eunho Yang
    • TLDR: 知識グラフの学習で、学習済みモデルが学習済みの3つを学習する際、学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済み
  • From spoken dialogue to formal summary: An utterance rewriting for dialogue summarization
    • Yue Fang, Hainan Zhang, Hongshen Chen, Zhuoye Ding, Bo Long, Yanyan Lan, Yanquan Zhou
    • TLDR: 対話システムにおける、文書要約の精度を向上させる研究。文書要約は文書構造が複雑なので、文書要約の作成時に文書要約の単語を追加する。文書要約は文書要約の単語を追加するが、文書要約は文書要約の単語を追加する。文書要約は文書要約の単語を追加する。
  • EASE: Entity-Aware Contrastive Learning of Sentence Embedding
    • Sosuke Nishikawa, Ryokan Ri, Ikuya Yamada, Yoshimasa Tsuruoka, Isao Echizen
    • TLDR: 文の分散表現を学習する手法の提案。文の分散表現は文の文脈から生成されるが、文の文脈から生成される文脈は文脈から生成される。文脈から生成される文脈は文脈の表現を含まないため、文脈の表現を学習する際は文脈を学習する。文脈の表現は文脈の表現を学習する際の重みとして使用する。
  • Is Neural Topic Modelling Better than Clustering? An Empirical Study on Clustering with Contextual Embeddings for Topics
    • Zihan Zhang, Meng Fang, Ling Chen, Mohammad Reza Namazi Rad
    • TLDR: 文書から、文中の単語を抽出する手法の提案。文中の単語を抽出する際、文中の単語を単語ベクトルとして、文中の単語ベクトルを単語ベクトルに変換する。単語ベクトルは、単語ベクトルの重みを入力として、単語ベクトルを入力とする。単語ベクトルは、単語ベクトルの重みを入力とする。単語ベクトルは、単語ベクトルの重みを入力とする。単語ベクトルは、単語ベクトルの重みを入力とする。単語ベクトルは、単語ベクトルの重みを入力とする。単語ベクトルは、
  • Dynamic Multistep Reasoning based on Video Scene Graph for Video Question Answering
    • Jianguo Mao, Wenbin Jiang, Xiangdong Wang, Zhifan Feng, Yajuan Lyu, Hong Liu, Yong Zhu
    • TLDR: 動画から質問回答を行う際に、動画と質問回答の画像を交互に入力するMulti-step Reasoningを提案。画像の画像表現を入力とし、画像の画像表現を入力とし、画像表現を入力とし質問回答と画像を入力とし、画像表現を入力とし質問回答と画像を入力とし、画像表現を入力とし質問回答と画像を入力とし、画像表現を入力とし質問回答と画像を入力とし、画像表現を入力とし質問回答と画像を入力とし、画像表現を入力とし質問回答と画像表現を入力とし、画像表現を入力とし質問回答と画像表現
  • TRUE: Re-evaluating Factual Consistency Evaluation
    • Or Honovich, Roee Aharoni, Jonathan Herzig, Hagai Taitelbaum, Doron Kukliansy, Vered Cohen, Thomas Scialom, Idan Szpektor, Avinatan Hassidim, Yossi Matias
    • TLDR: 事前学習済みモデルのFeature Convの評価手法を、事前学習済みモデルのFeature Convと同等の精度で検証した研究。Feature Convは事前学習済みモデルのFeature Convと同等の精度で評価できるが、事前学習済みモデルのFeature ConvはFeature Convの精度が低いため、事前学習済みモデルのFeature Convと同等の精度で評価できるか検証している。
  • Knowledge Inheritance for Pre-trained Language Models
    • Yujia Qin, Yankai Lin, Jing Yi, Jiajie Zhang, Xu Han, Zhengyan Zhang, Yusheng Su, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou
    • TLDR: 大規模な事前学習モデル(PLM)を、事前学習済みモデルに置き換える研究。事前学習済みモデルは学習済みモデルの学習済みパラメーターを入力として、学習済みモデルのパラメーターを入力として学習する。事前学習済みモデルは学習済みモデルの学習済みパラメーターを入力として学習する。事前学習済みモデルは学習済みモデルの学習済みパラメーターを入力として学習する。
  • Bi-SimCut: A Simple Strategy for Boosting Neural Machine Translation
    • Pengzhi Gao, Zhongjun He, Hua Wu, Haifeng Wang
    • TLDR: 機械翻訳におけるBi-directionalの学習方法を、Bi-directionalの学習と同等の手法で改善した研究。Bi-directionalは、事前学習済みモデルの学習結果を基に学習を行うが、Bi-directionalは、事前学習済みモデルの学習結果を基に学習を行う。Bi-directionalは、事前学習済みモデルの学習結果を基に学習を行う。
  • On Transferability of Prompt Tuning for Natural Language Processing
    • Yusheng Su, Xiaozhi Wang, Yujia Qin, Chi-Min Chan, Yankai Lin, Huadong Wang, Kaiyue Wen, Zhiyuan Liu, Peng Li, Juanzi Li, Lei Hou, Maosong Sun, Jie Zhou
    • TLDR: 事前学習済み言語モデルの転移性能を検証した研究。転移は学習済みモデルの転移性能を上げるのに有効だが、転移は転移速度の低下を招きやすい。転移は転移速度の低下を招きやすいため、転移速度の低下を防ぎつつ転移性能を上げるためには転移速度の低下を防ぎつつ転移性能を上げることが重要。
  • DocEE: A Large-Scale and Fine-grained Benchmark for Document-level Event Extraction
    • MeiHan Tong, Bin Xu, Shuai Wang, Meihuan Han, Yixin Cao, Jiangqi Zhu, Siyu Chen, Lei Hou, Juanzi Li
    • TLDR: 文書から文書のイベント抽出を行う研究。文書から文書のイベント抽出を行う際、文書のイベントを抽出するモデルを用いている。文書から文書のイベント抽出を行う際、文書のイベントを抽出するモデルを用いている。文書から文書のイベント抽出を行う際、文書のイベントを抽出するモデルを用いている。
  • Towards Debiasing Translation Artifacts
    • Koel Dutta Chowdhury, Rricha Jalota, Cristina España-Bonet, Josef Genabith
    • TLDR: 翻訳文の翻訳を、翻訳のノイズを除去する研究。ノイズは翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、翻訳文の文脈から、
  • WECHSEL: Effective initialization of subword embeddings for cross-lingual transfer of monolingual language models
    • Benjamin Minixhofer, Fabian Paischer, Navid Rekabsaz
    • TLDR: 言語モデルを、英語だけでなく多言語に転移する研究。英語をベースに、英語の単語をベースに、英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語の単語をベースに英語
  • A New Concept of Knowledge based Question Answering (KBQA) System for Multi-hop Reasoning
    • Yu Wang, V.srinivasan@samsung.com V.srinivasan@samsung.com, Hongxia Jin
    • TLDR: 自然言語処理で、複数質問に対する回答を統合する手法の提案。質問に対する回答は、質問に対する回答と質問に対する回答の組み合わせで行う。質問に対する回答は、質問に対する回答と質問に対する回答の組み合わせで行う。質問に対する回答は、質問に対する回答と質問に対する回答の組み合わせで行う。
  • Bilingual Tabular Inference: A Case Study on Indic Languages
    • Chaitanya Agarwal, Vivek Gupta, Anoop Kunchukuttan, Manish Shrivastava
    • TLDR: 多言語の自然言語理解を学習する研究。通常の自然言語理解は、文書の文書構造と文書の文書構造が異なる言語の文書を学習するが、文書構造と文書構造を異なる言語の文書を学習する研究。文書構造は文書構造と文書構造の2つに分けて学習する。文書構造は文書構造と文書構造の2つに分けて学習する。文書構造は文書構造と文書構造の2つに分けて学習する。
  • Generative Biomedical Entity Linking via Knowledge Base-Guided Pre-training and Synonyms-Aware Fine-tuning
    • Hongyi Yuan, Zheng Yuan, Sheng Yu
    • TLDR: 自然言語処理における、自然言語処理のタスクで、事前学習を行わずにモデルを生成する研究。事前学習は、単語の意味を予測する単語ベース(KB)を生成する形で行う。単語ベースは、単語の意味を予測する単語ベースと、単語の意味を予測する単語ベースの2つを使用。
  • Robust Self-Augmentation for Named Entity Recognition with Meta Reweighting
    • Linzhi Wu, Pengjun Xie, Jie Zhou, Meishan Zhang, Ma Chunping, Guangwei Xu, Min Zhang
    • TLDR: 自然言語処理におけるSelf-Augmentationの手法を、強化学習で適用した研究。Self-Augmentationは通常の強化学習と同等の効果が出るが、強化学習では学習率が低いため、学習率を上げるために重みを落とす手法を提案している。
  • Unsupervised Stem-based Cross-lingual Part-of-Speech Tagging for Morphologically Rich Low-Resource Languages
    • Ramy Eskander, Cass Lowry, Sujay Khandagale, Judith Klavans, Maria Polinsky, Smaranda Muresan
    • TLDR: マルチ言語の事前学習を行う際に、文の分散表現を学習する研究。分散表現は、文の分散表現を予測する際、文の分散表現を予測する(分散表現は、文の分散表現を予測する)ことで学習する。分散表現は、文の分散表現を予測する際、文の分散表現を予測する(分散表現は、文の分散表現を予測する)ことで学習する。
  • Optimising Equal Opportunity Fairness in Model Training
    • Aili Shen, Xudong Han, Trevor Cohn, Timothy Baldwin, Lea Frermann
    • TLDR: モデルの学習時に、学習データセットの学習率を上げるために有効な手法をまとめた研究。学習データセットの学習率は、学習データセットの学習率と同等の指標で評価する。学習データセットの学習率は、学習データセットの学習率と同等の指標で評価する。
  • Leaner and Faster: Two-Stage Model Compression for Lightweight Text-Image Retrieval
    • Siyu Ren, Kenny Zhu
    • TLDR: モバイルデバイスで画像検索を行う際に、事前学習済みモデルを大幅に削減する手法の提案。画像/テキストの2つのencoderを同時に学習する(画像/テキストの2つのencoderは、画像/テキストの2つのencoderで学習する)。画像/テキストの2つのencoderを同時に学習する。
  • Joint Learning-based Heterogeneous Graph Attention Network for Timeline Summarization
    • Jingyi You, Dongyuan Li, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura
    • TLDR: 文の意味を推定するタスクで、文の意味を推定するタスクを提案した研究。文の意味は、文の文長と文長の2つに分けて定義されている。文長は、文長の文長と文長の文長の2つに分けて定義されている。文長は、文長の文長と文長の文長の2つに分けて定義されている。文長は、文長の文長と文長の文長の文長の2つに分けて定義されている。
  • Early Rumor Detection Using Neural Hawkes Process with a New Benchmark Dataset
    • Fengzhu Zeng, Wei Gao
    • TLDR: 事前学習済みモデルの精度を上げるための研究。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を学習する。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を学習する。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を学習する。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を学習する。
  • Emp-RFT: Empathetic Response Generation via Recognizing Feature Transitions between Utterances
    • Wongyu Kim, Youbin Ahn, Donghyun Kim, Kyong-Ho Lee
    • TLDR: マルチタスクで、質問文の表現を認識する研究。質問文の表現は、単語/フレーズ/文間の関係を含まない。そのため、フレーズ/フレーズ間の表現を認識するタスクを提案。タスクは、質問文の表現を認識するタスク(タスクは、質問文の表現を認識するタスク)を定義し、タスクを分類するタスクを提案している。
  • KCD: Knowledge Walks and Textual Cues Enhanced Political Perspective Detection in News Media
    • Wenqian Zhang, Shangbin Feng, Zilong Chen, Zhenyu Lei, Jundong Li, Minnan Luo
    • TLDR: ニュース記事から、政治の視点を検出する研究。ニュース記事のテキストを、ニュースの画像から、ニュースの画像から、ニュースの画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース画像から、ニュース
  • Collective Relevance Labeling for Passage Retrieval
    • Jihyuk Kim, Minsoo Kim, Seung-won Hwang
    • TLDR: 事前学習済みモデルを、教師モデルに置き換えた研究。教師モデルは、事前学習済みモデルの学習済みモデルと同等の精度を達成するため、事前学習済みモデルの学習済みモデルを比較し、教師モデルの学習済みモデルと同等の精度を達成できた。
  • COGMEN: COntextualized GNN based Multimodal Emotion recognitioN
    • Abhinav Joshi, Ashwani Bhat, Ayush Jain, Atin Singh, Ashutosh Modi
    • TLDR: 対話システムで、感情を認識する研究。対話システムは、言語モデルとGNNベースのモデルを組み合わせて作成している。言語モデルは、言語モデルの入力と、グローバル情報(local/global)の入力を統合する。グローバル情報は、グローバルネットワークのネットワークをベースに、グローバルネットワークのネットワークをベースに学習する。
  • Revisit Overconfidence for OOD Detection: Reassigned Contrastive Learning with Adaptive Class-dependent Threshold
    • Yanan Wu, Keqing He, Yuanmeng Yan, QiXiang Gao, Zhiyuan Zeng, Fujia Zheng, Lulu Zhao, Huixing Jiang, Wei Wu, Weiran Xu
    • TLDR: 対話システムで、Out-of-Domain(Out-domain)の意図を検知する研究。通常の学習では、意図の予測結果を予測するモデルが過適合するケースがあるが、この場合、予測結果を予測するモデルが過適合するケースを検知する。この場合、予測結果を予測するモデルは過適合するケースを検知するモデルと同等の対応を取っている。
  • AISFG: Abundant Information Slot Filling Generator
    • Yang Yan, Junda Ye, Zhongbao Zhang, Liwen Wang
    • TLDR: 対話システムで、タスクごとにラベル付けを行う際に、ラベルの意味不明度を考慮する研究。ラベルはラベルの意味不明度と、ラベルの意味不明度を考慮する。ラベルはラベルの意味不明度と、ラベルの意味不明度を考慮する。ラベルはラベルの意味不明度と、ラベルの意味不明度を考慮する。
  • Improving negation detection with negation-focused pre-training
    • Thinh Truong, Timothy Baldwin, Trevor Cohn, Karin Verspoor
    • TLDR: 自然言語処理で、事前学習済みモデルの潜在表現を言語モデルに取り入れる研究。事前学習済みモデルは潜在表現を学習するが、学習済みモデルは潜在表現を学習する。そのため、潜在表現の表現を学習するモデルを学習する。学習済みモデルは潜在表現の表現を学習するモデルと同等の精度を維持できるが、学習済みモデルは学習データの拡張が困難だった。
  • Practice Makes a Solver Perfect: Data Augmentation for Math Word Problem Solvers
    • Vivek Kumar, Rishabh Maheshwary, Vikram Pudi
    • TLDR: 強化学習で、既存のモデルより精度が向上する手法を提案。既存モデルは、既存のモデルの学習済みモデルと同等の精度が得られるが、この精度はモデルの学習済みモデルに近い。強化学習では、既存モデルの学習済みモデルと同等の精度が得られることを確認。
  • DiffCSE: Difference-based Contrastive Learning for Sentence Embeddings
    • Yung-Sung Chuang, Rumen Dangovski, Hongyin Luo, Yang Zhang, Shiyu Chang, Marin Soljacic, Shang-Wen Li, Scott Yih, Yoon Kim, James Glass
    • TLDR: 文表現の表現を教師なしで学習する研究。文表現の表現を教師なしで学習する手法の一種で、文表現の表現を教師なしで学習する。教師なし学習は、文表現の表現が教師なしに学習するより、文表現の表現を教師なしで学習する方が良好な結果を達成。
  • Generative Cross-Domain Data Augmentation for Aspect and Opinion Co-Extraction
    • Junjie Li, Jianfei Yu, Rui Xia
    • TLDR: ドメイン転移を行う際に、事前学習済みモデルを用いた手法の提案。事前学習済みモデルは、ドメイン転移を行う際に、ドメインのラベルを削除する。このラベルを、事前学習済みモデルのラベルと同等の精度で生成する。事前学習済みモデルは、ラベルを削除した単語を予測するモデルを用いている。
  • ProQA: Structural Prompt-based Pre-training for Unified Question Answering
    • Wanjun Zhong, Yifan Gao, Ning Ding, Yujia Qin, Zhiyuan Liu, Ming Zhou, Jiahai Wang, Jian Yin, Nan Duan
    • TLDR: 自然言語処理で、質問に対する回答をシンプルなモデルで行う研究。質問に対する回答は、質問に対する回答と質問に対する回答の2つに分かれており、質問に対する回答は質問に対する回答と、質問に対する回答の2つに分かれる。質問に対する回答は、質問に対する回答と、質問に対する回答の2つに分かれる。
  • A Data Cartography based MixUp for Pre-trained Language Models
    • Seo Yeon Park, Cornelia Caragea
    • TLDR: 事前学習済み言語モデルで、学習済みのサンプルを組み合わせて学習する研究。事前学習済みモデルの学習済みサンプルを組み合わせて、学習済みモデルの学習済みサンプルを組み合わせて学習する。事前学習済みモデルの学習済みサンプルを組み合わせて、学習済みモデルの学習済みサンプルを組み合わせて学習する。事前学習済みモデルの学習済みサンプルを組み合わせて、学習済みモデルの学習済みサンプルを組み合わせて学習する。
  • Grapheme-to-Phoneme Conversion for Thai using Neural Regression Models
    • Tomohiro Yamasaki
    • TLDR: 自然言語処理で、事前学習済みの単語/フレーズを入力に変換する研究。入力とフレーズの類似度を予測するモデルをベースに、事前学習済み単語/フレーズの類似度を予測するモデルをベースに学習する。事前学習済み単語/フレーズの類似度を予測するモデルは、事前学習済み単語/フレーズの類似度を予測するモデルと同等の精度を維持している。
  • Generating Authentic Adversarial Examples beyond Meaning-preserving with Doubly Round-trip Translation
    • Siyu Lai, Zhen Yang, Fandong Meng, Xue Zhang, Yufeng Chen, Jinan Xu, Jie Zhou
    • TLDR: 翻訳モデルのAdversarial Exampleを生成する研究。事前学習済みモデルのAdversarial Exampleを生成する際、事前学習済みモデルのAdversarial Exampleを生成する。事前学習済みモデルのAdversarial Exampleを生成する際、事前学習済みモデルのAdversarial Exampleを生成する。事前学習済みモデルのAdversarial Exampleを生成する際、事前学習済みモデルのAdversarial Exampleを生成する。
  • TVShowGuess: Character Comprehension in Stories as Speaker Guessing
    • Yisi Sang, Xiangyang Mou, Mo Yu, Shunyu Yao, Jing Li, Jeffrey Stanton
    • TLDR: 映画の人物を理解するための研究。映画の人物をモデル化するモデルを、映画の背景を予測する形で作成する。背景予測は、映画の背景を予測する形で行う。背景予測は、映画の背景を予測する形で行う。背景予測は、映画の背景を予測する形で行う。背景予測は、映画の背景を予測する形で行う。
  • Causal Distillation for Language Models
    • Zhengxuan Wu, Atticus Geiger, Joshua Rozner, Elisa Kreiss, Hanson Lu, Thomas Icard, Christopher Potts, Noah Goodman
    • TLDR: 言語モデルの蒸留を、タスク固有のモデルと同等の手法で行う研究。タスク固有のモデルは、タスク固有のモデルと同等のモデルの2つを用い、タスク固有のモデルはタスク固有のモデルと同等のモデルの2つを用い蒸留を行う。タスク固有のモデルは、タスク固有のモデルと同等のモデルの2つを用い蒸留を行う。
  • FNet: Mixing Tokens with Fourier Transforms
    • James Lee-Thorp, Joshua Ainslie, Ilya Eckstein, Santiago Ontanon
    • TLDR: 強化学習で、TransformerのSelf-Attentionを解く手法の提案。TransformerのSelf-Attentionは、入力のEncoder側でのみ解ける。TransformerのSelf-Attentionは、入力のEncoder側で解けるようにする。TransformerのSelf-Attentionは、入力側で解けるようにする。
  • Answer Consolidation: Formulation and Benchmarking
    • Wenxuan Zhou, Qiang Ning, Heba Elfardy, Kevin Small, Muhao Chen
    • TLDR: 複数質問回答を行う際に、複数質問回答のモデルを組み合わせて回答を作成する研究。質問文をグループ分けし、各グループの回答を個別にまとめる形で回答を作成する。これにより、複数質問回答のモデルを組み合わせて回答を作成する。
  • Informativeness and Invariance: Two Perspectives on Spurious Correlations in Natural Language
    • Jacob Eisenstein
    • TLDR: 自然言語処理で、自然言語処理のデータセットで頻発する、とされる、疑似ラベリング(疑似ラベリング)に関する問題について、明確な定義が提示されていないと指摘した。疑似ラベリングは、自然言語処理のデータセットで頻発する問題で、事前学習済みモデルで頻発する問題と同等の問題がある。
  • FOAM: A Follower-aware Speaker Model For Vision-and-Language Navigation
    • Zi-Yi Dou, Nanyun Peng
    • TLDR: モデルの更新を自動生成する手法の提案。既存のモデルは学習状態を予測するが、学習状態を予測するモデルは学習状態を予測する。そのため、学習状態を予測するモデルを提案。学習状態を予測するモデルは、学習状態を予測するモデルと同等の精度を維持できる。
  • Improving Compositional Generalization with Latent Structure and Data Augmentation
    • Linlu Qiu, Peter Shaw, Panupong Pasupat, Pawel Nowak, Tal Linzen, Fei Sha, Kristina Toutanova
    • TLDR: 自然言語処理で、構造の学習を行う際に、学習済みモデルの学習済みサンプルを追加学習する手法の提案。学習済みモデルの学習済みサンプルを追加学習データに追加し、学習済みモデルの学習済みサンプルを追加学習データに追加学習する。学習済みモデルの学習済みサンプルを追加学習データに追加学習する。
  • Joint Extraction of Entities, Relations, and Events via Modeling Inter-Instance and Inter-Label Dependencies
    • Minh Van Nguyen, Bonan Min, Franck Dernoncourt, Thien Nguyen
    • TLDR: 事前学習済みモデルの事前学習済みモデルと、事前学習済みモデルの事前学習済みモデルを比較し、事前学習済みモデルの事前学習済みモデルと比較した研究。事前学習済みモデルは事前学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは事前学習済みモデルと同等の精度を維持できない。事前学習済みモデルは事前学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは事前学習済みモデルと同等の精度を維持できない。
  • Linguistic Frameworks Go Toe-to-Toe at Neuro-Symbolic Language Modeling
    • Jakob Prange, Nathan Schneider, Lingpeng Kong
    • TLDR: 自然言語処理で、文の文構造と文の文関係をグラフで表現する研究。文関係は文の意味を表す単語の集合で、文関係は文関係の集合で表現する。文関係は文関係の表現を表現する。文関係は文関係の表現を表現する。文関係は文関係の表現を表現する。
  • Imagination-Augmented Natural Language Understanding
    • Yujie Lu, Wanrong Zhu, Xin Wang, Miguel Eckstein, William Yang Wang
    • TLDR: 自然言語理解のタスクで、画像と言語の組み合わせを学習する研究。画像は自然言語の表現で、言語は画像と言語の組み合わせを学習する。画像は画像と言語の組み合わせを学習する。画像は画像と言語の組み合わせを学習する。画像は画像と言語の組み合わせを学習する。
  • What company do words keep? Revisiting the distributional semantics of J.R. Firth & Zellig Harris
    • Mikael Brunila, Jack LaViolette
    • TLDR: 自然言語処理における、単語の類似度を推定する手法の提案。単語の類似度は、単語の固有表現(単語の意味)と同等であるか、それとも同等であるかを推定する。類似度は、単語の固有表現の意味を推定する際の指標として用いられる。
  • Compositional Task-Oriented Parsing as Abstractive Question Answering
    • Wenting Zhao, Konstantine Arkoudas, Weiqi Sun, Claire Cardie
    • TLDR: 自然言語の表現を生成する研究。自然言語の表現を生成する際は、自然言語の単語を単語ベクトルに変換する(単語ベクトルは単語ベクトルのベクトルを単語ベクトルに変換する)。単語ベクトルは単語ベクトルのベクトルを単語ベクトルに変換する形で生成する。
  • Learning Cross-Lingual IR from an English Retriever
    • Yulong Li, Martin Franz, Md Arafat Sultan, Bhavani Iyer, Young-Suk Lee, Avirup Sil
    • TLDR: マルチ言語の表現学習を行う研究。翻訳/翻訳済み文書の翻訳を同時に行うことで、翻訳/翻訳済み文書の表現を学習する。翻訳/翻訳済み文書の表現を学習する際、翻訳/翻訳済み文書の表現を学習する。翻訳/翻訳済み文書の表現を学習する際、翻訳/翻訳済み文書の表現を学習する。
  • Testing the Ability of Language Models to Interpret Figurative Language
    • Emmy Liu, Chenxuan Cui, Kenneth Zheng, Graham Neubig
    • TLDR: 自然言語処理で、自然言語処理のタスクを解く際に、自然言語処理のタスクを解く際に、言語モデルが「自然言語」の表現を認識するかどうかを検証した研究。言語モデルは、自然言語処理のタスクで精度が低いと判断される表現を認識するが、この場合「自然言語」の表現を認識する精度が低いと判断される。
  • Multi-Vector Models with Textual Guidance for Fine-Grained Scientific Document Similarity
    • Sheshera Mysore, Arman Cohan, Tom Hope
    • TLDR: 文書の類似度を学習する研究。文書の文長と文長の重みを、文書の文長と文長の重みから学習する。重みは文書の文長と文長の重みを近似する形で学習する。重みは文書の文長と文長の重みを近似する形で学習する。重みは文書の文長と文長の重みを近似する形で学習する。
  • CHAI: A CHatbot AI for Task-Oriented Dialogue with Offline Reinforcement Learning
    • Siddharth Verma, Justin Fu, Sherry Yang, Sergey Levine
    • TLDR: 対話システムの強化学習を、自然言語で行う研究。自然言語で発話する対話システムは、自然言語の発話結果をベースに学習を行う。発話結果は、自然言語で発話した対話システムの予測結果と同等の結果になる。発話結果は、自然言語で発話した対話システムの予測結果と同等の結果になる。
  • Connecting the Dots between Audio and Text without Parallel Data through Visual Knowledge Transfer
    • Yanpeng Zhao, Jack Hessel, Youngjae Yu, Ximing Lu, Rowan Zellers, Yejin Choi
    • TLDR: 音声認識において、画像とテキストを結合する手法の提案。画像は2次元の画像で、テキストは3次元の画像で表現される。画像は2次元の画像で表現されるが、テキストは3次元の画像で表現される。この表現を、画像とテキスト双方で表現する手法の提案。
  • SURF: Semantic-level Unsupervised Reward Function for Machine Translation
    • Atijit Anuchitanukul, Julia Ive
    • TLDR: 強化学習で、文の理解度と文の類似度を考慮した強化学習の提案。文の理解度は文の意味を予測する指標として使われるが、文の類似度は文の意味を予測する指標として使われる。文の意味を予測する指標は、文の意味を予測する指標と同等かそれ以上の精度を達成できるかを検証している。
  • Disentangling Categorization in Multi-agent Emergent Communication
    • Washington Garcia, Hamilton Clouse, Kevin Butler
    • TLDR: 自然言語処理で、分類器の挙動がどう変化するかを調べた研究。分類器は、自然言語処理のモデルと同等の性能を発揮するが、分類器の挙動は異なる。そのため、分類器の挙動を予測するモデルを提案。分類器の挙動は、分類器の挙動と同等の性能を発揮する。
  • Show, Don’t Tell: Demonstrations Outperform Descriptions for Schema-Guided Task-Oriented Dialogue
    • Raghav Gupta, Harrison Lee, Jeffrey Zhao, Yuan Cao, Abhinav Rastogi, Yonghui Wu
    • TLDR: 事前学習済みモデルを、事前学習済みモデルの説明から学習する研究。事前学習済みモデルの説明は、事前学習済みモデルの説明と同等の役割を果たす。事前学習済みモデルの説明は、事前学習済みモデルの説明と同等の役割を果たす。事前学習済みモデルの説明は、事前学習済みモデルの説明と同等の役割を果たす。
  • Does Pre-training Induce Systematic Inference? How Masked Language Models Acquire Commonsense Knowledge
    • Ian Porada, Alessandro Sordoni, Jackie Cheung
    • TLDR: 事前学習済みモデルの事前学習済み知識を、事前学習済みモデルの学習済みモデルに注入する研究。事前学習済みモデルは事前学習済みモデルの学習済み知識を学習データに入力し、学習データから事前学習済みモデルの学習結果を推定する。事前学習済みモデルは事前学習済みモデルと同等の学習結果が得られるが、事前学習済みモデルは学習データに入力した知識が得られない。
  • Using Paraphrases to Study Properties of Contextual Embeddings
    • Laura Burdick, Jonathan Kummerfeld, Rada Mihalcea
    • TLDR: 文の表現を、文の意味を含まない表現に置き換える研究。文の意味を含まない表現は、文の意味を含まない表現に置き換えるのに適さない。文の意味を含まない表現は、文の意味を含まない表現に置き換えるのに適さない。文の意味を含まない表現は、文の意味を含まない表現に置き換えるのに適さない。
  • Measure and Improve Robustness in NLP Models: A Survey
    • Xuezhi Wang, Haohan Wang, Diyi Yang
    • TLDR: 自然言語処理モデルの耐性を検証するためのサーベイ。モデルの耐性を検証する際のサーベイから、検証結果をまとめたサーベイまでをまとめている。検証結果は、モデルの耐性が低いと判断される場合、モデルのパフォーマンスを下げる手法を導入する。
  • Learning to Generate Examples for Semantic Processing Tasks
    • Danilo Croce, Simone Filice, Giuseppe Castellucci, Roberto Basili
    • TLDR: テキスト分類タスクで、事前学習済みモデルを自動生成する研究。事前学習済みモデルは、事前学習済みモデルのサンプルを学習する。学習済みモデルは、事前学習済みモデルのサンプルを学習する。事前学習済みモデルは、事前学習済みモデルのサンプルを学習する。事前学習済みモデルは、事前学習済みモデルのサンプルを学習する。
  • Symbolic Knowledge Distillation: from General Language Models to Commonsense Models
    • Peter West, Chandra Bhagavatula, Jack Hessel, Jena Hwang, Liwei Jiang, Ronan Le Bras, Ximing Lu, Sean Welleck, Yejin Choi
    • TLDR: 自然言語処理で、自然言語モデルの表現力を強化する研究。通常の自然言語モデルは、自然言語処理の表現力が低い=教師モデルの表現力に負ける、という問題がある。そこで、教師モデルの表現力を強化する手法を提案。教師モデルの表現力は教師モデルの表現力に負けるが、教師モデルの表現力は教師モデルの表現力に負ける。
  • GenIE: Generative Information Extraction
    • Martin Josifoski, Nicola De Cao, Maxime Peyrard, Fabio Petroni, Robert West
    • TLDR: 事前学習済み言語モデルを、事前学習済みモデルの情報を抽出するGeneratorに置き換えた研究。事前学習済みモデルは、事前学習済み言語モデルの情報を抽出するGeneratorをベースにしており、事前学習済み言語モデルの情報を抽出するGeneratorをベースにしている。事前学習済み言語モデルの情報を抽出するGeneratorは、事前学習済み言語モデルの情報を抽出するGeneratorと同等の手法を取っている。
  • Entity Linking via Explicit Mention-Mention Coreference Modeling
    • Dhruv Agarwal, Rico Angell, Nicholas Monath, Andrew McCallum
    • TLDR: 自然言語処理で、文書内の単語を単語ベクトルに変換する研究。単語ベクトルは文書の単語ベクトルと、文書内の単語ベクトルは文書ベクトルのベクトルとで学習する。文書内の単語ベクトルは文書ベクトルのベクトルと、文書ベクトルのベクトルは文書ベクトルのベクトルのベクトルから学習する。文書ベクトルの学習は、文書ベクトルの学習と併用する形で行っている。
  • Massive-scale Decoding for Text Generation using Lattices
    • Jiacheng Xu, Siddhartha Jonnalagadda, Greg Durrett
    • TLDR: 翻訳モデルで、生成を行う際に様々な生成方法がある場合に、生成方法の探索を行なっていく研究。生成方法の探索は、生成結果を生成するベクトルの重みを絞り込む形で行う。重みは、生成結果を生成するベクトルの重みと、生成結果を生成するベクトルの重みを合わせた重みを算出する。
  • Disentangling Indirect Answers to Yes-No Questions in Real Conversations
    • Krishna Sanagavarapu, Jathin Singaraju, Anusha Kakileti, Anirudh Kaza, Aaron Mathews, Helen Li, Nathan Brito, Eduardo Blanco
    • TLDR: 質問回答の生成を行う際に、質問回答の生成を行う際に、質問回答の生成を行う際に、質問回答の生成を行う際に、質問回答の生成を行う際に、質問回答の生成を行う際に、質問回答の生成を行う際に、質問回答の生成を行う際に、質問回答の生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、生成を行う際に、
  • Quantifying Adaptability in Pre-trained Language Models with 500 Tasks
    • Belinda Li, Jane Yu, Madian Khabsa, Luke Zettlemoyer, Alon Halevy, Jacob Andreas
    • TLDR: 言語モデルの転移性能を検証した研究。転移は通常のモデルの転移性能を上回るが、転移先のモデルの転移性能は転移先のモデルと同等の性能を発揮する。転移先のモデルは転移先のモデルと同等の性能を発揮するが、転移先のモデルは転移先のモデルと同等の性能を発揮する。
  • Counterfactually Augmented Data and Unintended Bias: The Case of Sexism and Hate Speech Detection
    • Indira Sen, Mattia Samory, Claudia Wagner, Isabelle Augenstein
    • TLDR: 強化学習で、モデルの汎化性能を上げるために、モデルの構造を変更する手法の提案。構造は、モデルの構造と同等に扱われるか、また同等に扱われるかを検証する。構造は、モデルの構造と同等に扱われるかを検証する。
  • A Study of the Attention Abnormality in Trojaned BERTs
    • Weimin Lyu, Songzhu Zheng, Tengfei Ma, Chao Chen
    • TLDR: マルウェアによるTrojan攻撃に対する対策の研究。マルウェアは通常のBERTモデルのAttentionを落とすが、TrojanはAttentionを落とす際に、通常のAttentionを落とすようにする。この時、通常のAttentionは落とすのに適した位置に移動するが、Trojanは落とす位置に移動する。
  • EPiDA: An Easy Plug-in Data Augmentation Framework for High Performance Text Classification
    • Minyi Zhao, Lu Zhang, Yi Xu, Jiandong Ding, Jihong Guan, Shuigeng Zhou
    • TLDR: テキスト分類において、データ拡張の有効性を検証した研究。データ拡張は、学習済みモデルの学習済みモデルの学習済みモデルに近い精度を維持するが、学習済みモデルの学習済みモデルは学習済みモデルの学習済みモデルに近い精度を維持する。学習済みモデルの学習済みモデルは、学習済みモデルの学習済みモデルに近い精度を維持する。
  • Partial-input baselines show that NLI models can ignore context, but they don’t.
    • Neha Srikanth, Rachel Rudinger
    • TLDR: マルチインスタンスモデルで、事前学習済みモデルと比較して精度が向上した研究。事前学習済みモデルは、事前学習済みモデルと同等の精度を発揮するが、事前学習済みモデルは精度が低下する。事前学習済みモデルは、事前学習済みモデルと同等の精度を発揮するが、事前学習済みモデルは精度が低下する。
  • Lifelong Pretraining: Continually Adapting Language Models to Emerging Corpora
    • Xisen Jin, Dejiao Zhang, Henghui Zhu, Wei Xiao, Shang-Wen Li, Xiaokai Wei, Andrew Arnold, Xiang Ren
    • TLDR: 言語モデルの学習を継続的に行う研究。学習済み言語モデルを更新し、更新した言語モデルの学習済み言語モデルと同等の学習データで学習する。学習済み言語モデルは更新頻度が低いため、更新頻度が高い言語モデルを優先的に学習する。更新頻度が高い言語モデルは学習データの分布が異なるため、学習データの分布を予測するモデルを導入する。
  • Learning as Conversation: Dialogue Systems Reinforced for Information Acquisition
    • Pengshan Cai, Hui Wan, Fei Liu, Mo Yu, Hong Yu, Sachindra Joshi
    • TLDR: テキストベースの対話システムの提案。テキストベースの対話システムは、テキストを読むか否かではなく、テキストの更新か否かで対話を行う。更新はテキストベースの対話システムで行う。更新はテキストベースの対話システムで行う。
  • Dynamic Programming in Rank Space: Scaling Structured Inference with Low-Rank HMMs and PCFGs
    • Songlin Yang, Wei Liu, Kewei Tu
    • TLDR: 自然言語処理における階層構造のモデルの提案。階層構造は階層構造のモデルの重みを階層構造の重みに置き換える形で表現される。階層構造は階層構造のモデルの重みを階層構造の重みに置き換える形で表現される。階層構造は階層構造の重みを階層構造の重みに置き換える形で表現される。
  • What Factors Should Paper-Reviewer Assignments Rely On? Community Perspectives on Issues and Ideals in Conference Peer-Review
    • Terne Thorn Jakobsen, Anna Rogers
    • TLDR: 論文評価の仕組みについて、各機関の評価システムがどう扱っているのかをまとめたサーベイ。評価システムの評価は、評価結果から評価するべき評価機関(論文の評価機関)と、評価機関の評価結果から評価する評価機関(論文の評価機関)の2つに分けられている。評価機関は、評価機関の評価結果を評価する指標として、評価機関の評価結果を重視する傾向がある。
  • Reducing Disambiguation Biases in NMT by Leveraging Explicit Word Sense Information
    • Niccolò Campolungo, Tommaso Pasini, Denis Emelin, Roberto Navigli
    • TLDR: 機械翻訳において、単語の表現を学習する際に、単語の表現を「語彙」と「単語表現」の2つに分割し、それらを「語彙」と「語彙」の2つに分割する手法を提案。単語の語彙を「語彙」と「語彙」の2つに分割し、単語の語彙を「語彙」と「語彙」の2つに分割し、単語の語彙を「語彙」と「語彙」の2つに分割する。
  • Mining Clues from Incomplete Utterance: A Query-enhanced Network for Incomplete Utterance Rewriting
    • Shuzheng Si, Shuang Zeng, Baobao Chang
    • TLDR: 既存の文書の文書構造を、既存文書の文書構造と異なる文書構造に置き換える研究。既存文書の文書構造は、既存文書の文書構造と異なる文書構造を含んでいる。文書構造を置き換える文書構造を、文書構造を置き換える文書構造に置き換える形で学習する。文書構造を置き換える文書構造を、文書構造を置き換える文書構造に置き換える形で学習する。
  • Domain-Oriented Prefix-Tuning: Towards Efficient and Generalizable Fine-tuning for Zero-Shot Dialogue Summarization
    • Lulu Zhao, Fujia Zheng, Weihao Zeng, Keqing He, Weiran Xu, Huixing Jiang, Wei Wu, Yanan Wu
    • TLDR: 対話システムのドメイン変更を行う際に、事前学習済みモデルを適用する手法の提案。事前学習済みモデルは、事前学習済みモデルの単語をベースに、単語の最初の単語をベースに学習する。単語ベースの学習は、単語の最初の単語をベースに、単語ベースの学習は単語ベースの学習に置き換える形で行う。
  • Interactive Symbol Grounding with Complex Referential Expressions
    • Rimvydas Rubavicius, Alex Lascarides
    • TLDR: 画像から、自然言語処理で意味を推定する研究。自然言語処理では、通常の学習済み単語を学習する際は、通常の学習済み単語の表現を学習する。この時、自然言語処理の表現を学習するモデルを用い、自然言語処理の表現を学習する。
  • Generalized Quantifiers as a Source of Error in Multilingual NLU Benchmarks
    • Ruixiang Cui, Daniel Hershcovich, Anders Søgaard
    • TLDR: 言語モデルの誤認識問題を解くタスクの提案。言語モデルの誤認識は、通常の言語モデルの誤認識と同等の問題がある。誤認識は、言語モデルの表現力に大きな影響を及ぼす。誤認識は、言語モデルの表現力に大きな影響を及ぼす。
  • Exact Paired-Permutation Testing for Structured Test Statistics
    • Ran Zmigrod, Tim Vieira, Ryan Cotterell
    • TLDR: 構造化学習で、学習データの分散を検証する手法の提案。学習データの分散は、学習データの分布を予測するモデルで行う。分布は、学習データの分布を予測するモデルで行う。分布は、分布の分布を予測するモデルで行う。分布は、分布の分布を予測するモデルで行う。分布は、分布の分布を予測するモデルで行う。分布は、分布の分布を予測するモデルで行う。分布は、分布の分布を予測するモデルで行う。分布は、分布の分布を予測するモデルで行う。分布は、分布の分布を予測するモデルで行う。分布は、分布の分布を予測する
  • A Balanced Data Approach for Evaluating Cross-Lingual Transfer: Mapping the Linguistic Blood Bank
    • Dan Malkin, Tomasz Limisiewicz, Gabriel Stanovsky
    • TLDR: マルチ言語の転移を行う際に、事前学習済み言語の転移性能を評価する研究。事前学習済み言語は、転移先の言語と転移先の言語の転移性能を比較し、転移先の言語は転移先の言語に近いと判断する。転移先の言語は、転移先の言語の転移性能を上げるための条件を満たしているか検証している。
  • SSEGCN: Syntactic and Semantic Enhanced Graph Convolutional Network for Aspect-based Sentiment Analysis
    • Zheng Zhang, Zili Zhou, Yanna Wang
    • TLDR: 文中のaspectを推定する研究。文中のaspectを推定するモデルを、文の文構造と文のAttentionを組み合わせたモデルとし、Attentionの計算を行なっている。文の文構造と文のAttentionを組み合わせたモデルで、文の文構造と文のAttentionを計算する。
  • Mitigating Toxic Degeneration with Empathetic Data: Exploring the Relationship Between Toxicity and Empathy
    • Allison Lahnala, Charles Welch, Béla Neuendorf, Lucie Flek
    • TLDR: 自然言語処理で、感情表現を生成する研究。事前学習済みモデルの学習済み言語モデルを、感情表現の生成に使用する。事前学習済みモデルの学習済み言語モデルは、感情表現の生成に使用するデータが少ないため、生成時に感情表現を生成するデータが少ない。そのため、感情表現の生成に使用するデータが少ない。
  • DUCK: Rumour Detection on Social Media by Modelling User and Comment Propagation Networks
    • Lin Tian, Xiuzhen Zhang, Jey Han Lau
    • TLDR: ニュースの爆発的な更新を、SNSの投稿から推論する手法の提案。SNSの投稿は、投稿された記事がSNSの投稿と異なる場合に、その記事の投稿者から投稿された記事がSNSの投稿者に与える影響を調べる。この結果、SNSの投稿者から投稿された記事がSNSの投稿者に与える影響を調べる手法を提案している。
  • Jam or Cream First? Modeling Ambiguity in Neural Machine Translation with SCONES
    • Felix Stahlberg, Shankar Kumar
    • TLDR: マルチラベルの翻訳モデルで、マルチラベルの翻訳モデルを学習する際の、学習率を上げるためにSingle-label Contrastive Objectiveを導入した研究。マルチラベルの翻訳モデルは、マルチラベルの翻訳モデルと同等の精度を維持できるが、マルチラベルの翻訳モデルは精度が低下する。そこで、マルチラベルの翻訳モデルを学習する。
  • SkillSpan: Hard and Soft Skill Extraction from English Job Postings
    • Mike Zhang, Kristian Jensen, Sif Sonniks, Barbara Plank
    • TLDR: 機械学習モデルの学習を、BERTベースラインで行い、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERTベースラインをベースラインとし、BERT
  • RAAT: Relation-Augmented Attention Transformer for Relation Modeling in Document-Level Event Extraction
    • Yuan Liang, Zhuoxuan Jiang, Di Yin, Bo Ren
    • TLDR: 文書レベルのイベント抽出を行う際に、文書内のイベントと文書内のイベントの関係を予測する研究。文書内のイベントは文書全体の文書構造から抽出するが、文書内のイベントは文書全体の文書構造から抽出する。文書全体の文書構造から抽出する際、文書全体の文書構造と文書内のイベントの関係を予測するタスクを追加。
  • A Double-Graph Based Framework for Frame Semantic Parsing
    • Ce Zheng, Xudong Chen, Runxin Xu, Baobao Chang
    • TLDR: フレームの知識を、事前学習済みモデルの知識に基づいて更新する研究。フレームの知識は、フレームの構造を表すフレームベクトル(Feed)と、フレームベクトル(Feed)の構造を表すフレームベクトル(Feed)の2つに分けている。フレームベクトルは、フレームベクトルの構造を表すフレームベクトル(Feed)と、フレームベクトルの構造を表すフレームベクトル(Feed)の2つに分けている。
  • An Enhanced Span-based Decomposition Method for Few-Shot Sequence Labeling
    • Peiyi Wang, Runxin Xu, Tianyu Liu, Qingyu Zhou, Yunbo Cao, Baobao Chang, Zhifang Sui
    • TLDR: 事前学習済みモデルのラベル付けを、強化学習で行う手法の提案。ラベル付けは、単語/フレーズの類似度を考慮する。単語/フレーズの類似度は、単語/フレーズの長さと同等か、フレーズの長さと同等か、という3つの観点から検証している。
  • A Two-Stream AMR-enhanced Model for Document-level Event Argument Extraction
    • Runxin Xu, Peiyi Wang, Tianyu Liu, Shuang Zeng, Baobao Chang, Zhifang Sui
    • TLDR: 文書から、イベントの推論を行おうという研究。文書からイベント推論を行おうとすると、文書の文脈からイベントを推定する必要があり、文書の文脈からイベント推論を行おうとすると、文書の文脈からイベント推論を推定する必要があり、文書の文脈からイベント推論を行おうとすると、文書の文脈からイベント推論を行おうとすると、文書の文脈からイベント推論を行おうとすると、文書の文脈からイベント推論を行おうとすると、文書の文脈からイベント推論を行おうとすると、文書の文脈からイベント推論を行おう
  • Robust (Controlled) Table-to-Text Generation with Structure-Aware Equivariance Learning
    • Fei Wang, Zhewei Xu, Pedro Szekely, Muhao Chen
    • TLDR: テーブルの構造を予測する研究。各 cellの位置を予測する位置分布を、各 cellの位置分布と同等に予測する(位置分布は、各cellの位置分布と同等になるよう学習する)。位置分布は、各cellの位置分布と同等になるよう学習する。
  • JointLK: Joint Reasoning with Language Models and Knowledge Graphs for Commonsense Question Answering
    • Yueqing Sun, Qi Shi, Le Qi, Yu Zhang
    • TLDR: 質問に対するGraph Neural Networkの適用について、マルチステップで学習するモデルの提案。質問に対するGraph Neural Networkの適用は、質問の文を抽出するネットワークの重みを学習する。重みは、質問文のAttentionと、質問文のAttentionの2つに分割される。これにより、質問文のAttentionを学習するモデルを構築する。
  • Models In a Spelling Bee: Language Models Implicitly Learn the Character Composition of Tokens
    • Itay Itzhak, Omer Levy
    • TLDR: 言語モデルで、単語の文構造を学習する研究。単語の文構造は、単語の文構造と同等の構造を持つ。単語の文構造は、単語の文構造と同等か否かを学習する。単語の文構造は、単語の文構造と同等か否かを学習する。単語の文構造は、単語の文構造と同等か否かを学習する。
  • A Corpus for Understanding and Generating Moral Stories
    • Jian Guan, Ziqi Liu, Minlie Huang
    • TLDR: 人間が書いた、良い/悪いの判断をモデル化する研究。モデルは、モデルの学習済みモデルと、モデルの作成したモデルの学習済みモデルの2つを統合し、モデルの学習済みモデルと、モデルの学習済みモデルの2つを統合し、モデルの学習済みモデルと統合したモデルの2つを検証している。
  • Modeling Multi-Granularity Hierarchical Features for Relation Extraction
    • Xinnian Liang, Shuangzhi Wu, Mu Li, Zhoujun Li
    • TLDR: 自然言語処理で、マルチグラフの表現を抽出する研究。文中の単語を単語ベクトルとして、単語ベクトルの表現を抽出する。単語ベクトルは単語ベクトルの表現を含まない、単語ベクトルは単語ベクトルの表現を含まない、単語ベクトルは単語ベクトルの表現を含まない、といった形で抽出を行う。
  • Cross-modal Contrastive Learning for Speech Translation
    • Rong Ye, Mingxuan Wang, Lei Li
    • TLDR: 音声翻訳において、同じ表現を学習する手法の提案。音声の表現を学習する際は、音声の表現を学習するモデルを用い、音声の表現を学習するモデルを用い学習する。音声の表現を学習するモデルは、音声の表現を学習するモデルと同等の精度を達成。
  • Meet Your Favorite Character: Open-domain Chatbot Mimicking Fictional Characters with only a Few Utterances
    • Seungju Han, Beomsu Kim, Jin Yong Yoo, Seokjun Seo, Sangbum Kim, Enkhbayar Erdenee, Buru Chang
    • TLDR: 対話システムを生成する際、モデルの表現を模倣する手法の提案。モデルは言語モデルで、モデルの表現はモデルの表現を模倣する。モデルは、モデルの表現を模倣するモデルをベースに、モデルの表現を模倣するモデルをベースに生成を行う。生成結果は、モデルの表現を模倣するモデルより良好な結果を記録できた。
  • DynamicTOC: Persona-based Table of Contents for Consumption of Long Documents
    • Himanshu Maheshwari, Nethraa Sivakumar, Shelly Jain, Tanvi Karandikar, Vinay Aggarwal, Navita Goyal, Sumit Shekhar
    • TLDR: 文書を読みやすくするために、文書中の各部分を個別に見分けられるようにする研究。文書中の各部分を個別に見分けられるようにする(個別のPageRankをPageRankとし、PageRankの更新はPageRankの更新に使用する)。PageRankはPageRankの更新に使用する。
  • KALA: Knowledge-Augmented Language Model Adaptation
    • Minki Kang, Jinheon Baek, Sung Ju Hwang
    • TLDR: 自然言語処理における事前学習を、ドメイン固有の知識を学習させるための手法として提案している。事前学習は、ドメイン固有の情報のみを学習する(ドメイン固有の情報のみで学習する)ことで、事前学習済みモデルの学習効率を上げる。事前学習済みモデルは、ドメイン固有の情報のみで学習する傾向がある。
  • On the Effect of Pretraining Corpora on In-context Learning by a Large-scale Language Model
    • Seongjin Shin, Sang-Woo Lee, Hwijeen Ahn, Sungdong Kim, HyoungSeok Kim, Boseop Kim, Kyunghyun Cho, Gichang Lee, Woomyoung Park, Jung-Woo Ha, Nako Sung
    • TLDR: 事前学習済み言語モデルの潜在表現を、事前学習済み言語モデルの潜在表現に置き換える研究。事前学習済み言語モデルの潜在表現は、事前学習済み言語モデルの潜在表現と同等の精度を獲得できるか検証している。事前学習済み言語モデルの潜在表現は、事前学習済み言語モデルの潜在表現と同等の精度を獲得できるか検証している。
  • Sketching as a Tool for Understanding and Accelerating Self-attention for Long Sequences
    • Yifan Chen, Qi Zeng, Dilek Hakkani-Tur, Di Jin, Heng Ji, Yun Yang
    • TLDR: マルチタスクで学習するTransformerと、マルチタスクで学習するSegmentationを組み合わせた研究。Segmentationは、単純な分布分布(Logarithmic)と、単純な分布分布(Low-dimensional)の2つを想定している。分布分布は、分布分布の分布を計算する際の重み(Low-dimensional)と、分布分布の重み(Low-dimensional)の2つを想定している。
  • Partner Personas Generation for Dialogue Response Generation
    • Hongyuan Lu, Wai Lam, Hong Cheng, Helen Meng
    • TLDR: 対話システムの自動生成を行う際に、強化学習を用いたモデルの提案。強化学習は、対話システムのパフォーマンスを評価するモデルで、評価は評価するモデルのパフォーマンスを評価する。評価は、対話システムのパフォーマンスを評価するモデルのパフォーマンスを評価する。
  • Semantically Informed Slang Interpretation
    • Zhewei Sun, Richard Zemel, Yang Xu
    • TLDR: 自然言語処理で、文中の単語を「意味」と「意味」の2つに分けて理解する研究。意味は単語の意味と、意味は単語の意味と、意味は単語の意味と、意味は単語の意味とを区別する。意味は単語の意味と、意味は単語の意味とを区別する。意味は単語の意味と、意味は単語の意味とを区別する。
  • Dual-Channel Evidence Fusion for Fact Verification over Texts and Tables
    • Nan Hu, Zirui Wu, Yuxuan Lai, Xiao Liu, Yansong Feng
    • TLDR: 事前学習済みモデルを、事前学習済みモデルと同等の手法で再構築した研究。事前学習済みモデルは、事前学習済みモデルの文書/文書の文書を結合し、文書文書の文書文書を結合する形で学習する。文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書
  • TreeMix: Compositional Constituency-based Data Augmentation for Natural Language Understanding
    • Le Zhang, Zichao Yang, Diyi Yang
    • TLDR: 自然言語処理におけるデータ拡張手法の提案。単語を単語ベクトルに分解し、単語ベクトルを単語ベクトルの構造に変換する。単語ベクトルは単語ベクトルの構造をベースに、単語ベクトルは単語ベクトルの構造をベースに生成する。単語ベクトルは単語ベクトルの構造をベースに生成する。
  • Syn2Vec: Synset Colexification Graphs for Lexical Semantic Similarity
    • John Harvill, Roxana Girju, Mark Hasegawa-Johnson
    • TLDR: マルチ言語の分散表現を、マルチドメインの分散表現に適用する研究。マルチドメインの分散表現は、単語の意味を表現する単語空間を含まないため、単語空間の表現を分散表現に置き換える。マルチドメインの分散表現は、単語空間の表現を分散表現に置き換える。マルチドメインの分散表現は、単語空間の表現を分散表現に置き換える。
  • On the Origin of Hallucinations in Conversational Models: Is it the Datasets or the Models?
    • Nouha Dziri, Sivan Milton, Mo Yu, Osmar Zaiane, Siva Reddy
    • TLDR: 知識ベースの対話モデルが、質問に対する回答が事実誤認に陥る現象を起こす原因を調査した研究。質問に対する回答が事実誤認に陥る場合、通常の質問と同等の結果が出るが、質問に対する回答が事実誤認に陥る場合、通常の質問と同等の結果が出る。
  • Is “My Favorite New Movie” My Favorite Movie? Probing the Understanding of Recursive Noun Phrases
    • Qing Lyu, Zheng Hua, Daoxin Li, Li Zhang, Marianna Apidianaki, Chris Callison-Burch
    • TLDR: 言語モデルが、Recursive N-gramを学習する際の注意点をまとめた研究。Recursive N-gramは、単語の意味が異なる場合に意味が異なる単語を意味として扱う。そのため、意味が異なる単語を意味として扱う際は、意味を逆変換する単語を使用。この時、意味を逆変換する単語を使用。
  • Original or Translated? A Causal Analysis of the Impact of Translationese on Machine Translation Performance
    • Jingwei Ni, Zhijing Jin, Markus Freitag, Mrinmaya Sachan, Bernhard Schölkopf
    • TLDR: 機械翻訳の評価に、人間の翻訳と同等の精度を上げるために、学習/評価のバランスを考慮した研究。学習/評価のバランスは、学習/評価双方で検証する。学習/評価双方で検証した研究で、学習/評価双方のバランスが崩れると判断する。
  • Visual Commonsense in Pretrained Unimodal and Multimodal Models
    • Chenyu Zhang, Benjamin Van Durme, Zhuowan Li, Elias Stengel-Eskin
    • TLDR: 画像の特性を検証した研究。画像の特性は、色や質感、物体サイズ、サイズなど様々な物体の特徴を含んでいる。画像の特性を検証した研究で、画像の特性を検証するモデルが、画像の特性を検証するモデルと同等の性能を発揮することを確認。
  • QuALITY: Question Answering with Long Input Texts, Yes!
    • Richard Yuanzhe Pang, Alicia Parrish, Nitish Joshi, Nikita Nangia, Jason Phang, Angelica Chen, Vishakh Padmakumar, Johnny Ma, Jana Thompson, He He, Samuel Bowman
    • TLDR: 文書の文書構造を学習するタスクで、文書の文書構造を学習するモデルを提案。文書構造は文書全体を含まない文書構造で、文書全体を含まない文書構造を学習する。文書構造は文書全体を含まない文書構造で、文書全体を含まない文書構造を学習する。文書構造を学習するモデルは、文書構造を学習するモデルと同等の精度を維持できる。
  • ExSum: From Local Explanations to Model Understanding
    • Yilun Zhou, Marco Tulio Ribeiro, Julie Shah
    • TLDR: モデルの説明を評価する指標の提案。説明の理解度は、説明の説明が正しいか否かで大きく変わる。そのため、説明の説明精度を評価する指標として、説明の説明精度を評価する指標を提案している。
  • Maximum Bayes Smatch Ensemble Distillation for AMR Parsing
    • Young-Suk Lee, Ramón Astudillo, Hoang Thanh Lam, Tahira Naseem, Radu Florian, Salim Roukos
    • TLDR: 強化学習で、SmatchベースのEnsemblingとEncode済みのデータで蒸留を行う手法の提案。蒸留は蒸留器の重みを蒸留器の重みに変換する形で行う。蒸留器の重みは蒸留器の重みと同等の重みを生成する。蒸留器の重みは蒸留器の重みと同等の重みを生成する。蒸留器の重みは蒸留器の重みと同等の重みを生成する。
  • When Does Syntax Mediate Neural Language Model Performance? Evidence from Dropout Probes
    • Mycal Tucker, Tiwalayo Eisape, Peng Qian, Roger Levy, Julie Shah
    • TLDR: 言語モデルと文モデルで、同じ表現を使っている場合、同じ意味を持つ単語が使われる確率が低いことを示した研究。単語の意味を入力とするモデルは、単語の意味を入力とする単語を入力とする単語ベクトルに置き換える形で学習を行っている。この結果、言語モデルと文モデルで同じ表現を使っている場合、確率が低いことを示している。
  • Modeling Task Interactions in Document-Level Joint Entity and Relation Extraction
    • Liyan Xu, Jinho Choi
    • TLDR: 文書から関係抽出を行う際に、文書から関係抽出を行う際にGraph Compatibilityを導入した研究。文書から関係抽出を行う際に、文書から関係抽出を行う際にGraph Compatibilityを導入する。文書から関係抽出を行う際に、文書から関係抽出を行う際にGraph Compatibilityを導入する。
  • Few-Shot Semantic Parsing with Language Models Trained on Code
    • Richard Shin, Benjamin Van Durme
    • TLDR: 自然言語処理で事前学習済みモデルを学習させる際に、事前学習済みモデルの学習率を上げる研究。事前学習済みモデルは自然言語の表現を学習するが、事前学習済みモデルは自然言語の表現を学習する。事前学習済みモデルは学習率が高いが、事前学習済みモデルは学習率が高い。
  • CORWA: A Citation-Oriented Related Work Annotation Dataset
    • Xiangci Li, Biswadip Mandal, Jessica Ouyang
    • TLDR: 論文のタイトルを、論文の関連文書に置き換える研究。タイトルは、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概要から、論文の概
  • Overcoming Catastrophic Forgetting During Domain Adaptation of Seq2seq Language Generation
    • Dingcheng Li, Zheng Chen, Eunah Cho, Jie Hao, Xiaohu Liu, Fan Xing, Chenlei Guo, Yang Liu
    • TLDR: 言語モデルで、学習済みのタスクを再帰的に学習する手法の提案。タスクの更新は学習済みタスクの更新と同等の処理が必要で、更新時はタスクの更新を繰り返す。更新時はタスクの更新を繰り返すが、更新時は更新を繰り返す。
  • Extreme Zero-Shot Learning for Extreme Text Classification
    • Yuanhao Xiong, Wei-Cheng Chang, Cho-Jui Hsieh, Hsiang-Fu Yu, Inderjit Dhillon
    • TLDR: マルチラベルのテキスト分類を行う際に、事前学習済みモデルを用いた研究。事前学習済みモデルはTransformerベースで、事前学習済みモデルはTransformerベースで行う。事前学習済みモデルは、事前学習済みモデルのラベルを入力とするテキストを生成する。事前学習済みモデルは、事前学習済みモデルのラベルを入力とするテキストを生成する。
  • ConfliBERT: A Pre-trained Language Model for Political Conflict and Violence
    • Yibo Hu, MohammadSaleh Hosseini, Erick Skorupa Parolin, Javier Osorio, Latifur Khan, Patrick Brandt, Vito D’Orazio
    • TLDR: 政治・軍事・テロに関する文書を事前学習した研究。事前学習済みの文書は、政治・軍事・テロに関する文書の分類、また、テロに関する文書の分類に使用されている。文書は、政治・軍事・テロに関する文書の分類に使用されている。文書は、政治・軍事・テロに関する文書の分類に使用されている。
  • Automatic Multi-Label Prompting: Simple and Interpretable Few-Shot Classification
    • Han Wang, Canwen Xu, Julian McAuley
    • TLDR: マルチラベルのパラメーターを自動選択する手法の提案。パラメーターは、各ラベルのラベルを入力とする。入力は、各ラベルのパラメーターを入力とする。パラメーターは、各ラベルのパラメーターを入力とする。パラメーターは、各ラベルのパラメーターを入力とする。パラメーターは、各ラベルのパラメーターを入力とする。
  • Few-shot Subgoal Planning with Language Models
    • Lajanugen Logeswaran, Yao Fu, Moontae Lee, Honglak Lee
    • TLDR: 事前学習済み言語モデルが、事前学習済み言語モデルの予測精度を上回る手法の提案。事前学習済み言語モデルは、事前学習済み言語モデルの予測精度を上回る。事前学習済み言語モデルは、事前学習済み言語モデルの予測精度を上回る。事前学習済み言語モデルは、事前学習済み言語モデルの予測精度を上回る。
  • IDPG: An Instance-Dependent Prompt Generation Method
    • Zhuofeng Wu, Sinong Wang, Jiatao Gu, Rui Hou, Yuxiao Dong, V.G.Vinod Vydiswaran, Hao Ma
    • TLDR: 自然言語処理における事前学習済みモデルの自動生成手法の提案。事前学習済みモデルは、事前学習済みモデルのパラメーターを入力に追加する。このパラメーターを入力に追加する際は、入力のパラメーターを入力に追加する。入力のパラメーターを入力に追加する際は、入力のパラメーターを入力に追加する。
  • Embedding Hallucination for Few-shot Language Fine-tuning
    • Yiren Jian, Chongyang Gao, Soroush Vosoughi
    • TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルの学習データセットに拡張する研究。事前学習済み言語モデルの学習データセットを、事前学習済み言語モデルの学習データセットに拡張する。事前学習済み言語モデルの学習データセットは、事前学習済み言語モデルの学習データセットと同等の精度を維持できる。
  • Cryptocurrency Bubble Detection: A New Stock Market Dataset, Financial Task & Hyperbolic Models
    • Ramit Sawhney, Shivam Agarwal, Vivek Mittal, Paolo Rosso, Vikram Nanda, Sudheer Chava
    • TLDR: ツリートークンの予測を行う際に、ツリートークンの表現を工夫した研究。ツリートークンはツリートークンと同等の表現が使われることが多いが、ツリートークンはツリートークンと同等の表現が使われることが多い。ツリートークンはツリートークンと同等の表現が使われることが多いが、ツリートークンはツリートークンと同等の表現が使われることが多い。ツリートークンはツリートークンと同等の表現が使われることが多い
  • Nearest Neighbor Knowledge Distillation for Neural Machine Translation
    • Zhixian Yang, Renliang Sun, Xiaojun Wan
    • TLDR: ニュージャージーの人口を予測する研究の論文。ニュージャージーの人口は、人口の分布が大きいほど人口分布が大きい。ニュージャージーの人口は、人口の分布が大きいほど人口分布が大きい。ニュージャージーの人口は、人口分布が大きいほど人口分布が大きい。
  • DEMix Layers: Disentangling Domains for Modular Language Modeling
    • Suchin Gururangan, Mike Lewis, Ari Holtzman, Noah Smith, Luke Zettlemoyer
    • TLDR: 言語モデルのドメイン変更を行う際に、事前学習済み言語モデルのネットワークを変更する研究。事前学習済みネットワークのネットワークを、事前学習済み言語モデルのネットワークに追加、また、事前学習済みネットワークのネットワークを削除する。事前学習済みネットワークのネットワークを追加、また、事前学習済みネットワークのネットワークを削除する。
  • Contrastive Learning for Prompt-based Few-shot Language Learners
    • Yiren Jian, Chongyang Gao, Soroush Vosoughi
    • TLDR: 自然言語処理で、異なるクラスのサンプルを学習する手法の提案。クラスのサンプルを学習する際、クラスのサンプルから異なるサンプルを学習する。クラスのサンプルは、クラスの学習済みモデルの学習済みモデルの学習済みモデルに近いものに置き換える。
  • Cross-Lingual Event Detection via Optimized Adversarial Training
    • Luis Guzman-Nateras, Minh Van Nguyen, Thien Nguyen
    • TLDR: マルチ言語のイベント検知を行う際に、モデルの学習済み言語モデルを用いた研究。マルチ言語のイベント検知は、学習済み言語モデルの学習済みモデルの予測結果を基に行う。マルチ言語のイベント検知は、学習済み言語モデルの予測結果を基に行う。マルチ言語のイベント検知は、学習済み言語モデルの予測結果を基に行う。
  • Identifying Implicitly Abusive Remarks about Identity Groups using a Linguistically Informed Approach
    • Michael Wiegand, Elisabeth Eder, Josef Ruppenhofer
    • TLDR: 自然言語処理で、自然言語処理のタスクを分類する手法の提案。自然言語処理では、自然言語処理のタスクを分類するタスクとして扱われている。タスクは、自然言語処理のタスクで、自然言語処理のタスクを分類するタスクとして扱っている。タスクは、自然言語処理のタスクで分類するタスクを分類する。
  • Label Definitions Improve Semantic Role Labeling
    • Li Zhang, Ishan Jindal, Yunyao Li
    • TLDR: 文中の単語を、意味のあるラベルに置き換える研究。単語の意味をラベルに置き換えるだけでなく、ラベルの意味をラベルに置き換える形で学習を行う。ラベルは単語の意味を表す単語を、単語の意味をラベルに置き換える形で学習する。
  • Shedding New Light on the Language of the Dark Web
    • Youngjin Jin, Eugene Jang, Yongjae Lee, Seungwon Shin, Jin-Woo Chung
    • TLDR: テキスト分類における、言語特性を調査した研究。文書分類は、文書の分類結果を基に行われることが多いが、文書分類結果を基に文書分類を行う場合、文書分類結果が言語特性に依存する可能性があることを指摘。文書分類結果を基に、文書分類結果を基に文書分類を行う手法を提案している。
  • Conceptualizing Treatment Leakage in Text-based Causal Inference
    • Adel Daoud, Connor Jerzak, Richard Johansson
    • TLDR: 医療文書の誤りを防ぐための研究。誤りを防ぐには、文書中の単語を削除する(テキストを蒸留する)か、文書中の単語を消す(テキストを蒸留する)か、どちらかを選び行うかを検証する。蒸留は、誤りを防ぐための事前学習済みモデルの役割を果たしている。
  • Consistency Training with Virtual Adversarial Discrete Perturbation
    • Jungsoo Park, Gyuwan Kim, Jaewoo Kang
    • TLDR: テキスト分類モデルの学習を、学習済みモデルと同等の精度で行う手法の提案。学習済みモデルの予測結果と同等の精度を維持するため、学習済みモデルの予測結果を同じとし、学習済みモデルの予測結果と同等の精度を維持する。
  • CONFIT: Toward Faithful Dialogue Summarization with Linguistically-Informed Contrastive Fine-tuning
    • Xiangru Tang, Arjun Nair, Borui Wang, Bingyao Wang, Jai Desai, Aaron Wade, Haoran Li, Asli Celikyilmaz, Yashar Mehdad, Dragomir Radev
    • TLDR: 対話システムで、事前学習済みモデルの誤謬を修正する研究。誤謬は、事前学習済みモデルの誤謬と同等の結果が出ることを前提としている。誤謬は、事前学習済みモデルの誤謬と同等の結果が出ることを前提としている。誤謬は、事前学習済みモデルの誤謬と同等の結果が出ることを前提としている。
  • CoMPM: Context Modeling with Speaker’s Pre-trained Memory Tracking for Emotion Recognition in Conversation
    • Joosung Lee, Wooin Lee
    • TLDR: 自然言語処理で、事前学習済み言語モデルを用いた事前学習済み言語モデルの提案。事前学習済み言語モデルは、事前学習済み言語モデルの学習済みテキストをベースに、事前学習済み言語モデルの学習済みテキストをベースに学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済みテキストをベースに学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済みテキストをベースに学習する。
  • Investigating Crowdsourcing Protocols for Evaluating the Factual Consistency of Summaries
    • Xiangru Tang, Alexander Fabbri, Haoran Li, Ziming Mao, Griffin Adams, Borui Wang, Asli Celikyilmaz, Yashar Mehdad, Dragomir Radev
    • TLDR: ニュースの要約を評価するモデルの評価方法について、評価手法をまとめた研究。評価手法は評価対象のニュースモデルを評価するモデルと、要約モデルの評価結果を比較し、評価結果が良好な場合評価するモデルを比較するモデルを2つに分けている。評価結果は、評価手法の精度と精度のバランスがとれることを確認。
  • DialSummEval: Revisiting Summarization Evaluation for Dialogues
    • Mingqi Gao, Xiaojun Wan
    • TLDR: 対話システムの評価について、評価指標の更新を行った研究。評価指標はRNN(RNN=RNNの枠組みで、RNNはRNNの枠組みで評価する)、文書作成/文書作成の精度(文書の質)、文書作成の精度(文書のスコア)、文書作成の精度(文書のスコア)、文書作成の精度(文書のスコア)、文書作成の精度(文書のスコア)、文書作成の精度(文書のスコア)、文書作成の精度(文書のスコア)を計測している。
  • Hyperbolic Relevance Matching for Neural Keyphrase Extraction
    • Mingyang Song, Yi Feng, Liping Jing
    • TLDR: 自然言語処理でKeyphrase抽出を行う際に、単語分散表現を用いた研究。単語分散表現は、単語の意味を表す単語を抽出する際、単語の位置を予測するPoincaré distanceを用いている。Poincaré distanceは、単語分散表現の精度を測るための精度指標として使用される。
  • Template-free Prompt Tuning for Few-shot NER
    • Ruotian Ma, Xin Zhou, Tao Gui, Yiding Tan, Linyang Li, Qi Zhang, Xuanjing Huang
    • TLDR: 文単位の学習で、フレーズベースのモデルを改良した研究。フレーズベースは、フレーズの予測を行う際に、フレーズの予測結果を予測するモデルを使用。フレーズ予測は、フレーズ予測結果を予測するモデルの予測結果から予測する。フレーズ予測は、フレーズ予測結果を予測するモデルの予測結果から予測する。
  • Few-Shot Document-Level Relation Extraction
    • Nicholas Popovic, Michael Färber
    • TLDR: 文書レベルの文関係抽出を、事前学習済みモデルで行う試み。事前学習済みモデルは、文書レベルの文関係抽出を想定しており、文書レベルの文関係抽出は文書レベルの文関係抽出と同等の精度を維持できる。事前学習済みモデルは、文書レベルの文関係抽出を想定しており、文書レベルの文関係抽出は文書レベルの文関係抽出と同等の精度を維持できる。
  • LaMemo: Language Modeling with Look-Ahead Memory
    • Haozhe Ji, Rongsheng Zhang, Zhenyu Yang, Zhipeng Hu, Minlie Huang
    • TLDR: 言語モデルで、学習済みのセグメンテーションを再帰的に学習する手法の提案。セグメンテーションは、過去のセグメンテーションを再帰的に学習する。この時、セグメンテーションの学習済みセグメンテーションは、過去のセグメンテーションと同等の処理を行なっている。
  • Exploiting Inductive Bias in Transformers for Unsupervised Disentanglement of Syntax and Semantics with VAEs
    • Ghazi Felhi, Joseph Roux, Djamé Seddah
    • TLDR: テキスト生成を行う際に、潜在表現を抽出する研究。潜在表現は、Attentionベースのモデルで抽出する。潜在表現は、Attentionの潜在表現を入力とする。入力は、Attentionの潜在表現を入力とする。入力は、入力と入力双方を入力とする。入力は、入力と入力双方を入力とする。入力は、入力と入力双方を入力とする。入力は、入力と入力双方を入力とする。入力は、入力と入力双方を入力とする。入力は、入力と入力双方を入力とする。入力は、入力と入力双方を入力とする。入力は、入力双方を入力とする。入力は、入力双方を入力とする。
  • Neighbors Are Not Strangers: Improving Non-Autoregressive Translation under Low-Frequency Lexical Constraints
    • Chun Zeng, Jiangjie Chen, Tianyi Zhuang, Rui Xu, Hao Yang, Qin Ying, Shimin Tao, Yanghua Xiao
    • TLDR: 機械翻訳において、転移学習のモデルが低頻度の転移学習に弱いことを指摘した研究。転移学習は転移先の言語モデルが転移学習に弱いことを指摘し、転移先の言語モデルを学習させるためのモデルを提案している。転移学習は転移先の言語モデルが転移学習に弱いことを確認。
  • What do Toothbrushes do in the Kitchen? How Transformers Think our World is Structured
    • Alexander Henlein, Alexander Mehler
    • TLDR: 言語モデルの潜在表現を、事前学習済みモデルと比較した研究。事前学習済みモデルは、事前学習済みモデルと同等の学習データが得られるが、事前学習済みモデルは学習データが足りないため、事前学習済みモデルと比較して劣る結果。事前学習済みモデルは、事前学習済みモデルと同等の学習データが得られるが、事前学習済みモデルは劣る結果。
  • Less is More: Learning to Refine Dialogue History for Personalized Dialogue Generation
    • Hanxun Zhong, Zhicheng Dou, Yutao Zhu, Hongjin Qian, Ji-Rong Wen
    • TLDR: 対話システムで、ユーザーのプロフィールから対話履歴を生成する研究。対話履歴はユーザーの属性情報から生成されるが、生成時に生成される属性情報は、ユーザーの属性情報から生成される。この属性情報から生成される属性情報は、ユーザーの属性情報から生成される。
  • A Holistic Framework for Analyzing the COVID-19 Vaccine Debate
    • Maria Pacheco, Tunazzina Islam, Monal Mahajan, Andrey Shor, Ming Yin, Lyle Ungar, Dan Goldwasser
    • TLDR: 医療情報に対する不信度を分析する研究。不信度は、医療情報に対する不信度と、医療情報に対する不信度の2つに分類される。不信度は、医療情報に対する不信度と、医療情報に対する不信度の2つに分類される。不信度は、医療情報に対する不信度と、医療情報に対する不信度の2つに分類される。不信度は、不信度の予測が適切か否かで判定する。
  • Learning to Win Lottery Tickets in BERT Transfer via Task-agnostic Mask Training
    • Yuanxin Liu, Fandong Meng, Zheng Lin, Peng Fu, Yanan Cao, Weiping Wang, Jie Zhou
    • TLDR: 事前学習済み言語モデル(BERT)の転移性能を上げるために、事前学習済みの言語モデルを強化学習で学習する研究。事前学習済み言語モデルは転移性能が低いため、転移学習時に転移先の言語モデルを学習するMaskを導入する。Maskは転移性能を上げるために有効な手法だが、学習時に学習するMaskは転移性能を落とす可能性がある。
  • You Don’t Know My Favorite Color: Preventing Dialogue Representations from Revealing Speakers’ Private Personas
    • Haoran Li, Yangqiu Song, Lixin Fan
    • TLDR: 自然言語処理で、プライバシーを侵害する攻撃手法の提案。モデルの生成は、モデルの生成結果から人物を推定するモデルの一種。モデルの生成結果から、人物を推定するモデルを構築する。モデルの生成結果から、プライバシーを侵害する攻撃手法を提案している。
  • Explaining Dialogue Evaluation Metrics using Adversarial Behavioral Analysis
    • Baber Khalid, Sungjin Lee
    • TLDR: 対話システムの評価指標を、対話システムの学習方法やデータセットの変遷から検証した研究。対話システムの学習方法とデータセットの変遷から検証した結果、対話システムの評価指標は、対話の表現が異なるケースを検知する傾向がある。また、対話システムの学習方法が異なるケースを検知する傾向がある。
  • Annotators with Attitudes: How Annotator Beliefs And Identities Bias Toxic Language Detection
    • Maarten Sap, Swabha Swayamdipta, Laura Vianna, Xuhui Zhou, Yejin Choi, Noah Smith
    • TLDR: 自然言語処理のタスクで、タスク分類の結果が人種や宗教、政治的傾向などに依存するのかを検証した研究。タスク分類の結果、人種や宗教傾向がタスク分類に依存する傾向がある。また、タスク分類の結果が人種や宗教傾向に依存する傾向がある場合、タスク分類の結果が人種や宗教傾向に依存する傾向がある場合、タスク分類の結果が人種や宗教傾向に依存する傾向がある場合、タスク分類の結果が人種や宗教傾向に依存する傾向がある場合、タスク分類の結果が人種や宗教傾向に依存する傾向がある場合、タスク分類
  • Non-Autoregressive Chinese ASR Error Correction with Phonological Training
    • Zheng Fang, Ruiqing Zhang, Zhongjun He, Hua Wu, Yanan Cao
    • TLDR: 音声認識において、事前学習済みモデルのエラー訂正を行わず、事前学習済みモデルのエラー訂正を行わずに、事前学習済みモデルのエラー訂正を行おうという研究。事前学習済みモデルは、単語の長さを予測するが、単語長を予測する単語を追加する形で学習を行う。単語長を予測する単語を追加することで、精度向上を図っている。
  • Hate Speech and Counter Speech Detection: Conversational Context Does Matter
    • Xinchen Yu, Eduardo Blanco, Lingzi Hong
    • TLDR: ツリーエントロピーに対する事前学習を行う際に、ツリーエントロピーの文脈を考慮する研究。ツリーエントロピーは文脈が重要で、文脈は文の意味を表す単語として使われることが多い。文脈は文の意味を表す単語として使われることが多いが、文脈は文の意味を表す単語として使われることが多い。文脈は文の意味を表す単語として使われることが多い
  • DACSA: A large-scale Dataset for Automatic summarization of Catalan and Spanish newspaper Articles
    • Encarnación Segarra Soriano, Vicent Ahuir, Lluís-F. Hurtado, José González
    • TLDR: 自動要約を行う際に、文書から要約を行うためのデータセットを構築した研究。文書から要約を行う際に、文書から要約を行うためのデータセットを構築し、要約を行う際に要約のスタイルを考慮する。要約のスタイルは、文書から要約を行う際に重視される傾向がある。
  • Time Waits for No One! Analysis and Challenges of Temporal Misalignment
    • Kelvin Luu, Daniel Khashabi, Suchin Gururangan, Karishma Mandyam, Noah Smith
    • TLDR: 自然言語処理モデルの転移について、転移の頻度と転移後のパフォーマンスの関係を調べた研究。転移は転移先のモデルのパフォーマンスに大きな影響を及ぼすが、転移先のモデルのパフォーマンスは転移先のモデルに依存する。転移先のモデルは転移先のモデルと異なるタスクを学習する必要があるが、転移先のモデルは転移先のタスクに依存しない。
  • MCSE: Multimodal Contrastive Learning of Sentence Embeddings
    • Miaoran Zhang, Marius Mosbach, David Adelani, Michael Hedderich, Dietrich Klakow
    • TLDR: 文の分散表現を学習する研究。文の分散表現は、画像とテキスト双方で学習する。画像は、文の意味を捉えるための重要な要素として扱われる。テキストは、文の意味を捉えるための重要な要素として扱われる。文の分散表現は、画像とテキスト双方で学習する。
  • HiURE: Hierarchical Exemplar Contrastive Learning for Unsupervised Relation Extraction
    • Shuliang Liu, Xuming Hu, Chenwei Zhang, Shu’ang Li, Lijie Wen, Philip Yu
    • TLDR: 自然言語処理における、対照学習の手法の提案。対照学習は、文の文脈を予測するモデルで、文脈の予測は文脈の予測と同等のモデルで行う。文脈の予測は、文脈の予測と同等のモデルで行う。文脈の予測は、文脈の予測と同等のモデルで行う。
  • Diagnosing Vision-and-Language Navigation: What Really Matters
    • Wanrong Zhu, Yuankai Qi, Pradyumna Narayana, Kazoo Sone, Sugato Basu, Xin Wang, Qi Wu, Miguel Eckstein, William Yang Wang
    • TLDR: マルチモーダルで画像を扱うタスクで、画像とテキストを同時に操作するTransformerベースのモデルが、画像とテキストを同時に操作するタスクで精度を落とさず、精度を上げるためには、画像とテキストを同時に操作するモデルを導入するべきとしている。
  • Aligning to Social Norms and Values in Interactive Narratives
    • Prithviraj Ammanabrolu, Liwei Jiang, Maarten Sap, Hannaneh Hajishirzi, Yejin Choi
    • TLDR: ゲーム内の行動を、環境の価値に近づける手法の提案。環境の価値は、環境のルールに従っているか、環境の価値に近づけているか、という2つの観点から評価する。環境の価値は、環境のルールに従っているか、という2つの観点から評価する。環境の価値は、環境のルールに従っているか、という2つの観点から評価する。
  • MOVER: Mask, Over-generate and Rank for Hyperbole Generation
    • Yunxiang Zhang, Xiaojun Wan
    • TLDR: 文中の単語を、文中の単語に置き換える研究。文中の単語を単語ベクトルに置き換える形で、文中の単語を単語ベクトルに置き換える形で文を生成する。文中の単語を単語ベクトルに置き換える形で、文中の単語を単語ベクトルに置き換える形で文を生成する。
  • Embarrassingly Simple Performance Prediction for Abductive Natural Language Inference
    • Emīls Kadiķis, Vaibhav Srivastav, Roman Klinger
    • TLDR: 自然言語処理モデルの学習を、事前学習済みモデルと比較する研究。事前学習済みモデルは、文の構造と文の構造を比較し、文構造と文構造の類似度を比較するモデルと比較するモデルの2つを比較し、学習済みモデルと比較した結果を比較するモデルと比較するモデルの2つを比較するモデルの2つを比較するモデルの2つを比較するモデルの2つを比較するモデルの2つを比較するモデルの2つを比較するモデルの2つを比較するモデルの2つを比較するモデルの2つを比較するモデルの2つを比較するモデルの2つを比較
  • Re-Examining System-Level Correlations of Automatic Summarization Evaluation Metrics
    • Daniel Deutsch, Rotem Dror, Dan Roth
    • TLDR: 自動要約の評価指標で、人間評価と同等の評価結果が得られるか検証した研究。評価結果は、人間評価と同等の評価結果が得られるか検証したが、人間評価と同等の評価結果が得られるか検証した研究。評価結果は、人間評価と同等の評価結果が得られるか検証したが、人間評価と同等の評価結果は得られない。