ACL 2022 in Japanese
TLDRs
- Investigating label suggestions for opinion mining in German Covid-19 social media
- Tilman Beck, Ji-Ung Lee, Christina Viehmann, Marcus Maurer, Oliver Quiring, Iryna Gurevych
- TLDR: モデルの提案は、モデルの提案と同等の効果が出るか検証した研究。提案は、モデルの提案と同等の効果が出るか検証したが、提案は効果が出るが、提案は効果ない。提案は、モデルの提案と同等の効果が出るか検証したが、効果は出なかった。
- How Did This Get Funded?! Automatically Identifying Quirky Scientific Achievements
- Chen Shani, Nadav Borenstein, Dafna Shahaf
- TLDR: 自然言語処理で、自然言語処理で使われる論文を自動生成する研究。論文のタイトルは「人間は、いつまでたっても、頭を下げられない」というシンプルな表現だが、この表現を「人間」の表現に置き換えることで、人間が自然言語処理で使われる論文を自動生成する。
- Engage the Public: Poll Question Generation for Social Media Posts
- Zexin Lu, Keyang Ding, Yuji Zhang, Jing Li, Baolin Peng, Lemao Liu
- TLDR: ソーシャルネットを利用した質問生成の研究。質問は、ユーザーの投稿から抽出される。質問は、投稿の投稿文から抽出される。質問は、投稿文のコメントから抽出される。質問は、投稿文のコメントから抽出される。質問は、投稿文のコメントから抽出される。
- HateCheck: Functional Tests for Hate Speech Detection Models
- Paul Röttger, Bertie Vidgen, Dong Nguyen, Zeerak Waseem, Helen Margetts, Janet Pierrehumbert
- TLDR: ネット上の不信を検出する研究で、不信の表現を検出するモデルの検証を行った研究。不信の表現を検出するモデルは、不信の表現を検出するモデルと同等の精度が求められるが、不信の表現を検出するモデルは精度が低い。そのため、不信の表現を検出するモデルを学習するモデルと比較し、精度が低いモデルを比較し検証している。
- Unified Dual-view Cognitive Model for Interpretable Claim Verification
- Lianwei Wu, Yuan Rao, Yuqian Lan, Ling Sun, Zhaoyin Qi
- TLDR: 文書から、ユーザーの評価を抽出する研究。文書から、ユーザーの評価を抽出する。文書から、ユーザーの評価を抽出する。文書から、ユーザーの評価を抽出する。文書から、ユーザーの評価を抽出する。文書から、ユーザーの評価を抽出する。文書から、ユーザーの評価を抽出する。文書から、ユーザーの評価を抽出する。
- DeepRapper: Neural Rap Generation with Rhyme and Rhythm Modeling
- Lanqing Xue, Kaitao Song, Duocai Wu, Xu Tan, Nevin L. Zhang, Tao Qin, Wei-Qiang Zhang, Tie-Yan Liu
- TLDR: 音楽の生成を行う際に、リズムと音声を同時に生成する研究。音声は、音声の生成に使用するTransformerベースのモデルで生成する。音声は、音声の生成に使用するTransformerベースのモデルで生成する。音声は、音声の生成に使用するTransformerベースのモデルで生成する。
- PENS: A Dataset and Generic Framework for Personalized News Headline Generation
- Xiang Ao, Xiting Wang, Ling Luo, Ying Qiao, Qing He, Xing Xie
- TLDR: ニュースのタイトルを自動生成する研究。ユーザーの興味・嗜好を考慮したタイトルを生成する。ユーザーの嗜好は、ニュースの更新頻度やニュースの更新頻度などから予測する。この予測は、ユーザーの嗜好を考慮したタイトルを生成する。
- Enhancing Content Preservation in Text Style Transfer Using Reverse Attention and Conditional Layer Normalization
- Dongkyu Lee, Zhiliang Tian, Lanqing Xue, Nevin L. Zhang
- TLDR: 文書のスタイルを変更する手法の提案。文書のスタイルは、文書のスタイルと同等の文書のスタイルを生成するDecodeorに依存する。文書のスタイルは、文書のスタイルと同等の文書のスタイルを生成するDecodeorに依存する。文書のスタイルは、文書のスタイルと同等の文書のスタイルを生成するDecodeorに依存する。
- Mention Flags (MF): Constraining Transformer-based Text Generators
- Yufei Wang, Ian Wood, Stephen Wan, Mark Dras, Mark Johnson
- TLDR: 文生成において、文生成時に文の表現を変更する手法の提案。文生成時に文表現を変更する際は、文表現の表現を変更する(文表現の生成は、文表現の生成に使用するEncoder/Decoderの2つに分ける)。文表現の変更は、文表現の生成に使用するEncoder/Decoderの2つに分ける。
- Generalising Multilingual Concept-to-Text NLG with Language Agnostic Delexicalisation
- Giulio Zhou, Gerasimos Lampouras
- TLDR: 自然言語の生成を行う際に、マルチ言語のモデルを用いた研究。マルチ言語のモデルは、入力と生成結果を結合し、生成結果を結合したモデルを生成する。生成結果は、入力と生成結果を結合したモデルで生成する。生成結果は、入力と生成結果を結合したモデルで生成する。
- Conversations Are Not Flat: Modeling the Dynamic Information Flow across Dialogue Utterances
- Zekang Li, Jinchao Zhang, Zhengcong Fei, Yang Feng, Jie Zhou
- TLDR: オープンドメインの対話システムで、文書から文書への転移を予測するモデルの提案。文書から文書への転移は文書の文書分布を予測するモデルで行う。文書の文書分布は文書の文書分布を予測するモデルで行う。文書の文書分布は文書分布を予測するモデルで行う。文書分布は文書分布を予測するモデルで行う。文書分布は文書分布を予測するモデルで行う。文書分布は文書分布を予測するモデルで行う。文書分布は文書分布を予測するモデルで行う。文書分布は文書分布を予測するモデルで行う。文書分布は文書分布を予測するモデルで行う。文書分布は文書分布を
- Dual Slot Selector via Local Reliability Verification for Dialogue State Tracking
- Jinyu Guo, Kai Shuang, Jijie Li, Zihan Wang
- TLDR: 対話システムの更新を行う際に、対話システムの挙動を予測する研究。対話システムの挙動は、対話中の発言と対話結果のペアから予測する。対話結果は対話結果から予測するが、対話結果は対話結果から予測する。対話結果は対話結果から予測するが、対話結果は対話結果から予測する。対話結果は対話結果から予測する。
- Transferable Dialogue Systems and User Simulators
- Bo-Hsiang Tseng, Yinpei Dai, Florian Kreyssig, Bill Byrne
- TLDR: 対話システムの強化学習で、強化学習のモデルを学習する研究。対話システムのモデルは、対話システムの入力から生成した対話データを元に、強化学習を行う。対話データは、対話システムの入力から生成する。対話データは、対話システムの入力から生成する。対話データは、対話システムの入力から生成する。
- BoB: BERT Over BERT for Training Persona-based Dialogue Models from Limited Personalized Data
- Haoyu Song, Yan Wang, Kaiyan Zhang, Wei-Nan Zhang, Ting Liu
- TLDR: 対話システムのモデルを、BERTベースとBERTベースの2つに分割し、BERTベースのモデルをBERTベースとBERTベースの2つに分割した研究。BERTベースはBERTのEncoder/Decoderの2つで、DecoderはBERTベースのEncoderと同等の役割を果たしている。
- GL-GIN: Fast and Accurate Non-Autoregressive Model for Joint Multiple Intent Detection and Slot Filling
- Libo Qin, Fuxuan Wei, Tianbao Xie, Xiao Xu, Wanxiang Che, Ting Liu
- TLDR: マルチエージェントのUターネントを予測する研究。マルチエージェントの予測は、各エージェントの潜在表現を予測するネットワークで行う。このネットワークは、各エージェントの潜在表現を予測するネットワークと、各エージェントの潜在表現を予測するネットワークの2つを統合している。
- Accelerating BERT Inference for Sequence Labeling via Early-Exit
- Xiaonan Li, Yunfan Shao, Tianxiang Sun, Hang Yan, Xipeng Qiu, Xuanjing Huang
- TLDR: 文単位の事前学習を行う際に、文長の予測精度を上げるために事前学習済みモデルを導入した研究。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるのに時間がかかるため、事前学習済みモデルを導入する。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるのに時間がかかるため、事前学習済みモデルを導入する。
- Modularized Interaction Network for Named Entity Recognition
- Fei Li, Zheng Wang, Siu Cheung Hui, Lejian Liao, Dandan Song, Jing Xu, Guoxiu He, Meihuizi Jia
- TLDR: セグメンテーションと分類器の相互作用を強化する研究。セグメンテーションは単語分散表現を扱うが、分類器は単語分散表現を扱う。そのため、単語分散表現を扱う際に、単語分散表現を共有するネットワークを提案している。
- Capturing Event Argument Interaction via A Bi-Directional Entity-Level Recurrent Decoder
- Xi Xiangyu, Wei Ye, Shikun Zhang, Quanxiu Wang, Huixing Jiang, Wei Wu
- TLDR: イベントの推論モデルを学習する研究。イベントの推論モデルは、イベントの推論結果を予測するモデルで、イベントの推論結果を予測するモデルは、イベントの推論結果を予測するモデルと同等精度を達成できるか検証するモデルを提案している。
- UniRE: A Unified Label Space for Entity Relation Extraction
- Yijun Wang, Changzhi Sun, Yuanbin Wu, Hao Zhou, Lei Li, Junchi Yan
- TLDR: 自然言語処理で、各タスクのラベル空間を別々に扱う手法の提案。ラベル空間は、各タスクのラベル空間の重みを考慮する。ラベル空間は、各タスクのラベル空間の重みを考慮する。ラベル空間の重みは、各タスクの重みを考慮する。
- Refining Sample Embeddings with Relation Prototypes to Enhance Continual Relation Extraction
- Li Cui, Deqing Yang, Jiaxin Yu, Chengwei Hu, Jiayang Cheng, Jingjie Yi, Yanghua Xiao
- TLDR: 学習済みモデルの学習済みモデルを、学習済みモデルの学習済みモデルに置き換える研究。学習済みモデルは学習済みモデルの学習済みモデルと同等のメモリサイズを確保するが、学習済みモデルは学習済みモデルの学習済みモデルと同等のメモリサイズを確保する。学習済みモデルは学習済みモデルの学習済みモデルと同等のメモリサイズを確保する。
- Contrastive Learning for Many-to-many Multilingual Neural Machine Translation
- Xiao Pan, Mingxuan Wang, Liwei Wu, Lei Li
- TLDR: マルチ言語の翻訳を行う際に、翻訳の品質を上げるために様々な言語の翻訳モデルを組み合わせる研究。翻訳モデルは、翻訳の品質を上げるために様々な言語の翻訳モデルを組み合わせる。翻訳モデルは、翻訳の品質を上げるために様々な言語の翻訳モデルを組み合わせる。
- Understanding the Properties of Minimum Bayes Risk Decoding in Neural Machine Translation
- Mathias Müller, Rico Sennrich
- TLDR: 機械翻訳において、モデルの挙動を検証した研究。モデルはモデルの挙動を検証する際、モデルの挙動をモデルの挙動と同等に評価するモデルを提案している。挙動はモデルの挙動と同等になるが、挙動は同じだが挙動は異なる。挙動は同じだが挙動は異なる。
- Multi-Head Highly Parallelized LSTM Decoder for Neural Machine Translation
- Hongfei Xu, Qiuhui Liu, Josef van Genabith, Deyi Xiong, Meng Zhang
- TLDR: 翻訳モデルの重みを、Self-Attentionのネットワークで表現する研究。Self-Attentionは、翻訳モデルの重みを計算する際の重みを計算するネットワークで、重みの計算は、Transformerの重みを計算するネットワークで行う。
- A Bidirectional Transformer Based Alignment Model for Unsupervised Word Alignment
- Jingyi Zhang, Josef van Genabith
- TLDR: 翻訳モデルで、翻訳文の単語分布を予測する研究。翻訳文の単語分布を予測する際、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を予測するモデルをベースに、単語分布を
- Learning Language Specific Sub-network for Multilingual Machine Translation
- Zehui Lin, Liwei Wu, Mingxuan Wang, Lei Li
- TLDR: マルチ言語の翻訳を行う際に、言語共通のモデルを学習する手法の提案。マルチ言語のモデルは、言語共通のパラメーターを学習する。パラメーターは、言語共通のモデルのパラメーターと、言語共通のモデルのパラメーターの2つに分けている。パラメーターは、言語共通のモデルのパラメーターと、言語共通のモデルのパラメーターの2つに分けている。
- Exploring the Efficacy of Automatically Generated Counterfactuals for Sentiment Analysis
- Linyi Yang, Jiazheng Li, Padraig Cunningham, Yue Zhang, Barry Smyth, Ruihai Dong
- TLDR: 事前学習済みモデルの学習データに対する反事実的なデータの生成を自動生成する手法の提案。事前学習済みモデルの学習データに対する反事実的なデータの生成は、事前学習済みモデルのパフォーマンスを上げるのに有効な手法であるとしている。
- Bridge-Based Active Domain Adaptation for Aspect Term Extraction
- Zhuang Chen, Tieyun Qian
- TLDR: ドメイン転移を行う際に、転移先の単語を転移先単語と同等の転移先単語に置き換える研究。転移先単語は転移先単語と同等の転移先単語の重みを共有するが、転移先単語は転移先単語と同等の重みを共有する。転移先単語は転移先単語と同等の重みを共有する。
- Multimodal Sentiment Detection Based on Multi-channel Graph Neural Networks
- Xiaocui Yang, Shi Feng, Yifei Zhang, Daling Wang
- TLDR: マルチモーダル画像に対する、感情の検知手法の提案。画像の表現は複数回転するが、各回転の表現は個別に生成される。そのため、画像の表現を複数回転させるのではなく、画像の表現を個別に生成する手法を提案している。
- Aspect-Category-Opinion-Sentiment Quadruple Extraction with Implicit Aspects and Opinions
- Hongjie Cai, Rui Xia, Jianfei Yu
- TLDR: 評価レビューの評価を、Agent-Attentionで抽出する研究。評価レビューの評価は、Agent-Attentionの評価と同等かそれ以上の評価になる。評価レビューの評価は、Agent-Attentionの評価と同等かそれ以上の評価になる。評価レビューの評価は、Agent-Attentionの評価と同等かそれ以上の評価になる。
- PASS: Perturb-and-Select Summarizer for Product Reviews
- Nadav Oved, Ran Levy
- TLDR: レビューのクエリを自動生成する研究。レビューのクエリは、レビューのレビューから得られたレビューのクエリをベースに作成する。レビューのクエリは、レビューのレビューから得られたレビューのクエリをベースに作成する。レビューのクエリは、レビューのレビューから得られたレビューのクエリをベースに作成する。
- Deep Differential Amplifier for Extractive Summarization
- Ruipeng Jia, Yanan Cao, Fang Fang, Yuchen Zhou, Zheng Fang, Yanbing Liu, Shi Wang
- TLDR: 文書抽出型要約のモデルを、文単位の要約に置き換えた研究。文単位の要約は、文の要約の重みを加味した重みを、文単位の要約の重みに置き換えた重みに置き換える。要約の重みは、文単位の要約の重みを加味した重みをベースにしている。
- Multi-TimeLine Summarization (MTLS): Improving Timeline Summarization by Generating Multiple Summaries
- Yi Yu, Adam Jatowt, Antoine Doucet, Kazunari Sugiyama, Masatoshi Yoshikawa
- TLDR: ニュース記事のタイムラインを複数生成するタスクの提案。ニュース記事のタイムラインは複数あるが、各記事のタイムラインは一つしかない。そのため、記事のタイトル/タイトルを予測するタスクを提案。タイトル/タイトルの予測は、ニュース記事のタイトル/タイトルを予測する形で行う。
- Self-Supervised Multimodal Opinion Summarization
- Jinbae Im, Moonki Kim, Hoyeop Lee, Hyunsouk Cho, Sehee Chung
- TLDR: レビューから、評価をまとめる手法の提案。レビューの評価を入力として、評価の評価を入力とするEncoderを生成する。Encoderは、レビューの評価を入力とするEncoderと、レビューの評価を入力とするDecoderの2つを入力とする。Decoderは、レビューの評価を入力とするEncoderとDecoderの2つを入力とするEncoderの2つを入力とする。
- A Training-free and Reference-free Summarization Evaluation Metric via Centrality-weighted Relevance and Self-referenced Redundancy
- Wang Chen, Piji Li, Irwin King
- TLDR: 要約の評価指標の提案。要約の文を生成する際、文の中心点を重視する。要約文の中心点は、文の重みを重みとして重み付ける。重みは、文の重みを重みとして重み付ける。要約文の重みは、文の重みを重みとして重み付ける。
- DESCGEN: A Distantly Supervised Datasetfor Generating Entity Descriptions
- Weijia Shi, Mandar Joshi, Luke Zettlemoyer
- TLDR: 文書から、Entityの概要を生成する研究。Wikipedia/FANDOMの文書から、Wikipedia/FANDOMの文書からEntityの概要を生成する。Entityの概要はWikipedia/FANDOMの文書から生成するが、文書の概要はWikipedia/FANDOMの文書から生成する。文書の概要はWikipedia/FANDOMの文書から生成する。
- Introducing Orthogonal Constraint in Structural Probes
- Tomasz Limisiewicz, David Mareček
- TLDR: 構造推論の手法を、構造の推定に適用する研究。構造は、単語の位置と位置の位置を推定する。位置は、単語の位置と位置の位置を推定する。位置は、単語の位置と位置の位置を推定する。位置は、単語の位置と位置の位置を推定する。
- Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger
- Fanchao Qi, Mukai Li, Yangyi Chen, Zhengyan Zhang, Zhiyuan Liu, Yasheng Wang, Maosong Sun
- TLDR: 自然言語処理モデルに対する、文構造の不変化を防ぎつつ、文構造を入力に埋め込む手法の提案。入力に埋め込みを入れる文構造は、入力の不変性を防ぎつつ、入力の不変性を防ぎつつ入力を入力に埋め込むことができる。
- Examining the Inductive Bias of Neural Language Models with Artificial Languages
- Jennifer C. White, Ryan Cotterell
- TLDR: 自然言語処理のモデルが、モデルの学習にどのような影響を及ぼしているのかを調べた研究。モデルはLSTMとTransformerで、Transformerは学習時に言語の分類が不一致になるよう学習する。この結果、LSTMは学習時に言語分類が不一致になるよう学習するが、Transformerは学習時に言語分類が不一致になるよう学習する。
- Explaining Contextualization in Language Models using Visual Analytics
- Rita Sevastjanova, Aikaterini-Lida Kalouli, Christin Beck, Hanna Schäfer, Mennatallah El-Assady
- TLDR: 自然言語処理で、文の意味を予測するモデルの提案。文の意味を予測するモデルは、文の意味を予測する単語を予測するモデルと、文の意味を予測する単語を予測する単語の予測モデルの2つを組み合わせている。
- Improving the Faithfulness of Attention-based Explanations with Task-specific Information for Text Classification
- George Chrysostomou, Nikolaos Aletras
- TLDR: 自然言語処理で、Attentionの重みを変更することで、タスクに応じた説明を生成する研究。重みはタスク固有の情報(テキスト分類など)を考慮する形で学習する。タスク固有の情報(テキスト分類など)を考慮するTask-Scalingを提案。タスク固有の情報(テキスト分類など)を考慮するTask-Scalingを提案。
- Generating Landmark Navigation Instructions from Maps as a Graph-to-Text Problem
- Raphael Schumann, Stefan Riezler
- TLDR: 自然言語で道路の勾配を指示する研究。道路の勾配は、OpenStreetMapの表現で生成する。勾配は、道路の勾配を入力とし、勾配の入力は自然言語で行う。勾配は、道路の勾配を入力とし、自然言語で指示する。
- E2E-VLP: End-to-End Vision-Language Pre-training Enhanced by Visual Learning
- Haiyang Xu, Ming Yan, Chenliang Li, Bin Bi, Songfang Huang, Wenming Xiao, Fei Huang
- TLDR: 画像認識/テキスト生成の事前学習を、Transformerで行う研究。画像の検知/テキスト生成を同時に行うTransformerを、事前学習済みモデルの枠組みで学習する。事前学習済みモデルは、画像の画像表現とテキストの画像表現を統合し、画像/テキスト双方を学習する。
- Learning Relation Alignment for Calibrated Cross-modal Retrieval
- Shuhuai Ren, Junyang Lin, Guangxiang Zhao, Rui Men, An Yang, Jingren Zhou, Xu Sun, Hongxia Yang
- TLDR: マルチモーダルで事前学習したマルチタスクを、事前学習済みモデルと比較して精度を上げるために、事前学習済みモデルと同等の精度を維持する手法の提案。事前学習済みモデルは、事前学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは同等の精度を維持できない。
- KM-BART: Knowledge Enhanced Multimodal BART for Visual Commonsense Generation
- Yiran Xing, Zai Shi, Zhao Meng, Gerhard Lakemeyer, Yunpu Ma, Roger Wattenhofer
- TLDR: マルチモーダルで学習したTransformerベースのモデルを、画像/テキストのタスクに適用した研究。画像/テキストのタスクは、画像/テキストのタスクと同等のタスクで、画像/テキストのタスクは、画像/テキストのタスクと同等のタスクで学習する。
- Cascaded Head-colliding Attention
- Lin Zheng, Zhiyong Wu, Lingpeng Kong
- TLDR: 自然言語処理におけるマルチタスク対応の研究。マルチタスク対応は、各タスクのタスクで異なるタスクのタスクを想定し、タスクのタスクを個別に予測する形で行う。タスクの予測は、タスクのタスクで異なるタスクを想定するモデルを用いることで行っている。
- Structural Knowledge Distillation: Tractably Distilling Information for Structured Predictor
- Xinyu Wang, Yong Jiang, Zhaohui Yan, Zixia Jia, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: 事前学習済みモデルを、事前学習済みモデルに転移させる研究。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための条件を満たす必要がある。そのため、事前学習済みモデルの予測精度を上げるための条件を追加する。事前学習済みモデルの予測精度を上げるための条件を追加する
- Parameter-efficient Multi-task Fine-tuning for Transformers via Shared Hypernetworks
- Rabeeh Karimi Mahabadi, Sebastian Ruder, Mostafa Dehghani, James Henderson
- TLDR: マルチタスク学習を行う際に、事前学習済みモデルのパラメーターを追加することで、タスク個別のパラメーターを学習する手法の提案。事前学習済みモデルのパラメーターを追加することで、タスク個別のパラメーターを学習する。事前学習済みモデルのパラメーターを追加することで、タスク個別のパラメーターを学習する
- COSY: COunterfactual SYntax for Cross-Lingual Understanding
- Sicheng Yu, Hao Zhang, Yulei Niu, Qianru Sun, Jing Jiang
- TLDR: マルチ言語のモデルで、自然言語処理のタスクでSOTAを達成した研究。事前学習済みモデルと、事前学習済みモデルのネットワークを組み合わせて学習する。事前学習済みモデルは、事前学習済みモデルの学習済み言語をベースに学習する。事前学習済みモデルは、事前学習済み言語の文法を学習するネットワークを構築する。
- OoMMix: Out-of-manifold Regularization in Contextual Embedding Space for Text Classification
- Seonghyeon Lee, Dongha Lee, Hwanjo Yu
- TLDR: 事前学習済みモデルで、事前学習済みの分散表現を学習する手法の提案。分散表現は、入力文の表現を入力に含む(=潜在表現)表現を生成する。この生成結果を、事前学習済みモデルの学習済み表現に変換し、学習済みモデルの学習済み表現を入力に含む分散表現に変換する。
- Understanding and Countering Stereotypes: A Computational Approach to the Stereotype Content Model
- Kathleen C. Fraser, Isar Nejadgholi, Svetlana Kiritchenko
- TLDR: 文中の「暖かさ」と「 competence」を、文のラベルに置き換えた研究。ラベルは「暖かさ」と「 competence」の2つで、ラベルは「暖かさ」と「 competence」の2つを表現する。ラベルは「暖かさ」と「 competence」の2つを表現する。
- Structurizing Misinformation Stories via Rationalizing Fact-Checks
- Shan Jiang, Christo Wilson
- TLDR: ニュースの真偽を検証する手法の提案。ニュースの真偽を検証する記事(事実関係を検証する記事)を、事実関係と異なる単語(事実関係を検証する記事)に置き換え、その単語を真偽と判断する記事に置き換える。真偽と判断する記事は、事実関係を検証する記事と同等の文書で作成される。
- Modeling Language Usage and Listener Engagement in Podcasts
- Sravana Reddy, Mariya Lazarova, Yongze Yu, Rosie Jones
- TLDR: 音楽を聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて、音楽のクエリを聞いて
- Breaking Down the Invisible Wall of Informal Fallacies in Online Discussions
- Saumya Sahai, Oana Balalau, Roxana Horincar
- TLDR: 議論のタスクで、議論の根拠となる事実を誤認する手法について調査した研究。議論の根拠となる事実を誤認する手法は、議論の結果が間違っていた場合にのみ適用される手法と、誤認する事実が存在する場合にのみ適用される手法の2つ。どちらが良いかは、議論の結果から判断する。
- SocAoG: Incremental Graph Parsing for Social Relation Inference in Dialogues
- Liang Qiu, Yuan Liang, Yizhou Zhao, Pan Lu, Baolin Peng, Zhou Yu, Ying Nian Wu, Song-Chun Zhu
- TLDR: 自然言語処理で、対話システムの構造を予測する研究。対話システムは、対話結果から、対話結果から生成したモデルをベースに、対話結果から生成したモデルをベースに学習する。対話結果から生成したモデルを、対話結果から生成したモデルに組み込むことで、対話結果から生成したモデルを学習する。
- TicketTalk: Toward human-level performance with end-to-end, transaction-based dialog systems
- Bill Byrne, Karthik Krishnamoorthi, Saravanan Ganesh, Mihir Kale
- TLDR: 映画のチケット購入に関する対話システムの提案。事前学習済みモデルをベースに、事前学習済みモデルをベースに対話を行う。事前学習済みモデルは、事前学習済みモデルの挙動を予測する。事前学習済みモデルは、事前学習済みモデルの挙動を予測する。事前学習済みモデルは、事前学習済みモデルの挙動を予測する。
- Improving Dialog Systems for Negotiation with Personality Modeling
- Runzhe Yang, Jingxiao Chen, Karthik Narasimhan
- TLDR: 対話システムで、相手の行動を予測する研究。対話システムは対話相手の行動を予測するモデルをベースにしており、行動予測は対話相手の行動を予測するモデルをベースにしている。対話システムは対話相手の行動を予測するモデルをベースにしており、対話相手の行動を予測するモデルをベースにしている。対話システムのモデルは、対話相手の行動を予測するモデルをベースにしている。
- Learning from Perturbations: Diverse and Informative Dialogue Generation with Inverse Adversarial Training
- Wangchunshu Zhou, Qifei Li, Chenle Li
- TLDR: 対話システムの学習時に、対話履歴を学習する際のAdversarial Trainingを導入した研究。対話履歴を学習する際は、学習時に生成した対話履歴を学習データとして使う。対話履歴を学習データとして使うことで、学習データの分散を防ぎつつ学習データの分散を防ぎつつ、対話履歴を学習データとして使うことで学習効率を高める。
- Increasing Faithfulness in Knowledge-Grounded Dialogue with Controllable Features
- Hannah Rashkin, David Reitter, Gaurav Singh Tomar, Dipanjan Das
- TLDR: 対話システムの生成モデルを、事前学習済みモデルと比較してどう改善しているかを検証した研究。事前学習済みモデルは、事前学習済みモデルの生成結果を基に、事前学習済みモデルの生成結果を基に生成を行う。事前学習済みモデルは、事前学習済みモデルの生成結果を基に生成を行う。事前学習済みモデルは、事前学習済みモデルの生成結果を基に生成を行う。
- CitationIE: Leveraging the Citation Graph for Scientific Information Extraction
- Vijay Viswanathan, Graham Neubig, Pengfei Liu
- TLDR: 論文から、論文の文書構造と文書関連情報を抽出する研究。文書構造は文書全体ではなく文書関連文書を抽出する。文書関連文書は文書全体ではなく文書関連文書を抽出する。文書関連文書は文書関連文書の文書構造と文書関連文書の文書構造を組み合わせて抽出する。文書関連文書は文書関連文書の文書構造を抽出する。
- From Discourse to Narrative: Knowledge Projection for Event Relation Extraction
- Jialong Tang, Hongyu Lin, Meng Liao, Yaojie Lu, Xianpei Han, Le Sun, Weijian Xie, Jin Xu
- TLDR: イベント関係を推定する研究。イベント関係は、イベントの発生時刻、イベントの発生場所、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、イベントの発生時間、
- AdvPicker: Effectively Leveraging Unlabeled Data via Adversarial Discriminator for Cross-Lingual NER
- Weile Chen, Huiqiang Jiang, Qianhui Wu, Börje Karlsson, Yi Guan
- TLDR: 自然言語処理で、Entity Domainの知識を学習するAdversarial Learningを提案。Entity Domainの知識は、Entity Domainの言語モデルで学習する。Entity Domainの学習は、Entity Domainの言語モデルで行う。Entity Domainの学習は、Entity Domainの言語モデルで行う。
- Compare to The Knowledge: Graph Neural Fake News Detection with External Knowledge
- Linmei Hu, Tianchi Yang, Luhao Zhang, Wanjun Zhong, Duyu Tang, Chuan Shi, Nan Duan, Ming Zhou
- TLDR: ニュースの情報を、文書から文書に変換するモデルの提案。文書から文書を文書に変換する際、文書の文書名を文書名と文書名の文書名の文書名を同じ文書名と文書名の文書名の文書名と文書名の文書名の文書名をそれぞれ文書名と文書名の文書名の文書名と文書名の文書名を入力とする。文書名は文書名と文書名の文書名を入力とする。文書名は文書名と文書名の文書名を入力とする。文書名は文書名と文書名の文書名を入力とする。文書名は文書名と文書名の文書名を入力とする文書名を
- Discontinuous Named Entity Recognition as Maximal Clique Discovery
- Yucheng Wang, Bowen Yu, Hongsong Zhu, Tingwen Liu, Nan Yu, Limin Sun
- TLDR: 連続的表現の認識において、ノードの位置を予測する手法の提案。ノードはノードの位置を予測するネットワークを構築し、ノードの位置を予測するネットワークを生成する。ノードはノードの位置を予測するネットワークを構築し、ノードの位置を予測するネットワークを生成する。
- LNN-EL: A Neuro-Symbolic Approach to Short-text Entity Linking
- Hang Jiang, Sairam Gurajada, Qiuhao Lu, Sumit Neelam, Lucian Popa, Prithviraj Sen, Yunyao Li, Alexander Gray
- TLDR: 知識グラフのリンクを強化学習で行う研究。通常の学習はモデルの挙動を推定するが、この推定はモデルの挙動を推定する。モデルは、モデルの挙動を推定するモデル(モデルは、モデルの挙動を推定するモデル)をベースに、モデルの挙動を推定するモデルをベースに学習を行う。
- Do Context-Aware Translation Models Pay the Right Attention?
- Kayo Yin, Patrick Fernandes, Danish Pruthi, Aditi Chaudhary, André F. T. Martins, Graham Neubig
- TLDR: 翻訳モデルが、自然言語処理で使われる単語をどう扱っているのかを調査した研究。翻訳モデルは、自然言語処理で使われる単語を学習するが、その学習時に使われる単語は、自然言語処理で使われる単語と同等の単語か否かを検証している。
- Adapting High-resource NMT Models to Translate Low-resource Related Languages without Parallel Data
- Wei-Jen Ko, Ahmed El-Kishky, Adithya Renduchintala, Vishrav Chaudhary, Naman Goyal, Francisco Guzmán, Pascale Fung, Philipp Koehn, Mona Diab
- TLDR: 低リソース言語の翻訳を、単純な翻訳に置き換える研究。単純な翻訳は単純な翻訳の枠組みで行うことが多いが、単純な翻訳は複数言語の翻訳を想定している。単純な翻訳は単純な翻訳の枠組みで行うことが多いが、単純な翻訳は複数言語の翻訳を想定している。
- Bilingual Lexicon Induction via Unsupervised Bitext Construction and Word Alignment
- Haoyue Shi, Luke Zettlemoyer, Sida I. Wang
- TLDR: 翻訳文の品質を上げるために、事前学習済み言語モデルを用いた手法の提案。事前学習済み言語モデルは、単語の位置を予測するモデルで、単語の位置予測は、単語の位置予測を予測するモデルで行う。事前学習済み言語モデルは、単語の位置予測を学習するモデルと同等の精度を達成。
- Multilingual Speech Translation from Efficient Finetuning of Pretrained Models
- Xian Li, Changhan Wang, Yun Tang, Chau Tran, Yuqing Tang, Juan Pino, Alexei Baevski, Alexis Conneau, Michael Auli
- TLDR: マルチ言語の翻訳を行う際に、事前学習済みモデルをフルに活用する手法の提案。事前学習済みモデルは、事前学習済みモデルのパラメーターをフルに活用する。事前学習済みモデルは、事前学習済みモデルのパラメーターをフルに活用する。事前学習済みモデルは、事前学習済みモデルのパラメーターをフルに活用する。
- Learning Faithful Representations of Causal Graphs
- Ananth Balashankar, Lakshminarayanan Subramanian
- TLDR: 自然言語処理における、因果推論の精度を向上させるための手法の提案。因果推論の精度を上げるために、因果推論の精度を推定する際、因果推論の距離を推定する手法を導入している。因果推論の距離は、因果推論のモデルで推定する距離と同等であるとしている。
- What Context Features Can Transformer Language Models Use?
- Joe O’Connor, Jacob Andreas
- TLDR: 翻訳モデルの予測精度を上げるために、文中の単語を削除する手法を提案。単語の位置関係を変えたり、単語の意味を変えたり、単語の意味を変えた単語を削除する。単語の位置関係は、単語の意味を変えた単語の位置関係と、単語の意味を変えた単語の位置関係の位置関係から予測を行う。
- Integrated Directional Gradients: Feature Interaction Attribution for Neural NLP Models
- Sandipan Sikdar, Parantapa Bhattacharya, Kieran Heese
- TLDR: 強化学習で、クラス分類の重要性を評価する研究。クラス分類は、クラス分類の分類結果を評価する指標として使われることが多いが、クラス分類結果はクラス分類結果の評価に使われることが多い。そのため、クラス分類結果の評価はクラス分類結果の評価に使われることが多い。
- DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations
- John Giorgi, Osvald Nitski, Bo Wang, Gary Bader
- TLDR: 自然言語処理で、文の分散表現を学習する研究。文分散表現は、文の分散表現を学習する際は、文分散表現のクラスタリング/検索/分類のタスクで学習する。文分散表現は、文分散表現のクラスタリング/検索/分類のタスクで学習する。文分散表現は、学習時に教師なしのモデルで学習する。
- XLPT-AMR: Cross-Lingual Pre-Training via Multi-Task Learning for Zero-Shot AMR Parsing and Text Generation
- Dongqin Xu, Junhui Li, Muhua Zhu, Min Zhang, Guodong Zhou
- TLDR: 事前学習済み言語モデルをマルチタスク学習する手法の提案。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルを学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルを学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルを学習する。
- Span-based Semantic Parsing for Compositional Generalization
- Jonathan Herzig, Jonathan Berant
- TLDR: 文構造を学習する際、学習済みのモデルをベースに学習する手法の提案。学習済みモデルは、学習済みモデルの学習済み層をベースに学習する。学習済みモデルは、学習済み層の学習済みモデルの学習済み層をベースに学習する。学習済みモデルは、学習済みモデルの学習済み層をベースに学習する。
- Compositional Generalization and Natural Language Variation: Can a Semantic Parsing Approach Handle Both?
- Peter Shaw, Ming-Wei Chang, Panupong Pasupat, Kristina Toutanova
- TLDR: 自然言語の変動を扱う手法を、事前学習済みモデルと比較した研究。事前学習済みモデルは自然言語の変動を扱うのに適さないため、事前学習済みモデルをベースに学習する。事前学習済みモデルは、自然言語の変動を扱うのに適さないため、事前学習済みモデルをベースに学習する。事前学習済みモデルは、事前学習済みモデルと同等の性能を発揮する。
- A Targeted Assessment of Incremental Processing in Neural Language Models and Humans
- Ethan Wilcox, Pranali Vani, Roger Levy
- TLDR: 自然言語処理で、人間の挙動を予測する研究。入力文を入力とし、入力文の挙動を予測する。入力文の挙動は、入力文の文長が短い場合、入力文の長さを予測する。入力文の長さを予測する際、入力文長が短い場合、入力文長を予測する。入力文長が短い場合、入力文長を予測する。
- The Possible, the Plausible, and the Desirable: Event-Based Modality Detection for Language Processing
- Valentina Pyatkin, Shoval Sadde, Aynat Rubinstein, Paul Portner, Reut Tsarfaty
- TLDR: マルチモーメントの表現を検出する研究。マルチモーメントの表現は、通常の文分類と異なり、文分類の分類対象が異なるケースが多い。そのため、マルチモーメントの表現を検出するタスクを提案している。マルチモーメントの表現は、通常の文分類と異なり、文分類対象が異なるケースが多い。
- To POS Tag or Not to POS Tag: The Impact of POS Tags on Morphological Learning in Low-Resource Settings
- Sarah Moeller, Ling Liu, Mans Hulden
- TLDR: 言語モデルのTransformerで、POSタグがどのようなタスクに有効か検証した研究。Transformerのタスクは、言語モデルの学習に適したモデルが提供されているか、また、事前学習済み言語モデルの学習に適したモデルが提供されているかを検証している。事前学習済み言語モデルの学習は、事前学習済み言語モデルの学習に適していないとしている。
- Prosodic segmentation for parsing spoken dialogue
- Elizabeth Nielsen, Mark Steedman, Sharon Goldwater
- TLDR: 文のノイズを除去する手法の提案。文のノイズを除去するモデルは、文のノイズを除去するモデルと同等の精度を維持できるが、文のノイズを除去するモデルは精度が落ちる。そこで、文のノイズを除去するモデルを提案。文のノイズを除去するモデルは精度が落ちるが、文のノイズを除去するモデルは精度が上がる。
- VoxPopuli: A Large-Scale Multilingual Speech Corpus for Representation Learning, Semi-Supervised Learning and Interpretation
- Changhan Wang, Morgane Riviere, Ann Lee, Anne Wu, Chaitanya Talnikar, Daniel Haziza, Mary Williamson, Juan Pino, Emmanuel Dupoux
- TLDR: 教師なし学習で使われる音声認識のデータセットVoxPopuliを公開。音声認識の学習は、教師なし学習と同等の精度が必要。音声認識の学習は、音声認識の学習と同等の精度が必要。そのため、音声認識の学習を補助する形で、音声認識の学習を補助する形で学習を行う。
- Stereotyping Norwegian Salmon: An Inventory of Pitfalls in Fairness Benchmark Datasets
- Su Lin Blodgett, Gilsinia Lopez, Alexandra Olteanu, Robert Sim, Hanna Wallach
- TLDR: 自然言語処理における、対照学習のベンチマークについて、検証結果をまとめた研究。ベンチマークは、対照学習のパフォーマンスを評価する指標として使われることが多いが、実際は、対照学習のパフォーマンスを評価する指標として使われることが多い。また、対照学習のパフォーマンスを評価する指標として使われることが多い。
- Robust Knowledge Graph Completion with Stacked Convolutions and a Student Re-Ranking Network
- Justin Lovelace, Denis Newman-Griffis, Shikhar Vashishth, Jill Fain Lehman, Carolyn Rosé
- TLDR: 自然言語処理でGraph Graphを解く研究。既存のモデルは、自然言語処理の知識を学習するが、実装は実装済みのモデルと同等の知識を学習する。実装は、実装済みモデルの学習済み知識を学習するネットワークを構築し、学習済み知識を学習するネットワークを構築する。
- A DQN-based Approach to Finding Precise Evidences for Fact Verification
- Hai Wan, Haicheng Chen, Jianfeng Du, Weilin Luo, Rongzhen Ye
- TLDR: マルチスコアの文書から、文書の文書特徴を抽出する手法の提案。文書特徴は文書特徴と文書特徴の2つに分けて計算するが、文書特徴は文書特徴と文書特徴の2つに分けて計算する。文書特徴は文書特徴と文書特徴の2つに分けて計算する。文書特徴は文書特徴と文書特徴の2つに分けて計算する。文書特徴は文書特徴と文書特徴の2つに分けて計算する。
- The Art of Abstention: Selective Prediction and Error Regularization for Natural Language Processing
- Ji Xin, Raphael Tang, Yaoliang Yu, Jimmy Lin
- TLDR: 自然言語処理で、事前学習済みモデルの精度を上げるための研究。事前学習済みモデルは、事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデルの精度を上げるための事前学習済みモデル
- Unsupervised Out-of-Domain Detection via Pre-trained Transformers
- Keyang Xu, Tongzheng Ren, Shikun Zhang, Yihao Feng, Caiming Xiong
- TLDR: 機械学習で、ドメイン外のサンプルを検出する研究。ドメイン外のサンプルは、通常の学習済みモデルで学習する。この時、ドメイン外のサンプルは学習済みモデルの予測精度を上げるため、学習済みモデルの予測精度を上げるための工夫を行なっている。
- MATE-KD: Masked Adversarial TExt, a Companion to Knowledge Distillation
- Ahmad Rashid, Vasileios Lioutas, Mehdi Rezagholizadeh
- TLDR: 事前学習済み言語モデルを敵対的学習する手法の提案。事前学習済みモデルの生成を、事前学習済みモデルの学習済みモデルに置き換える。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の学習結果を得ることができる。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の学習結果を得ることができる。
- Selecting Informative Contexts Improves Language Model Fine-tuning
- Richard Antonello, Nicole Beckage, Javier Turek, Alexander Huth
- TLDR: 言語モデルの事前学習を行う際に、事前学習済みモデルの学習データをフィルタする手法の提案。事前学習済みモデルの学習データから、事前学習済みモデルの学習データに近いデータセットを抽出し、学習データのフィルタを行なっていく。事前学習済みモデルの学習データは、事前学習済みモデルの学習データと比較して精度が向上する。
- Explainable Prediction of Text Complexity: The Missing Preliminaries for Text Simplification
- Cristina Garbacea, Mengtian Guo, Samuel Carton, Qiaozhu Mei
- TLDR: 文書の複雑さを減らすための手法の提案。文書の複雑性を予測するモデルを、文書の構造を予測するモデルと、文書の構造を予測するモデルの2つに分け、文書の構造を予測するモデルをそれぞれ別々に学習する。文書構造を予測するモデルは、文書構造を予測するモデルと同等の精度を維持できる。
- Multi-Task Retrieval for Knowledge-Intensive Tasks
- Jean Maillard, Vladimir Karpukhin, Fabio Petroni, Wen-tau Yih, Barlas Oguz, Veselin Stoyanov, Gargi Ghosh
- TLDR: マルチタスクで学習したモデルを、事前学習済みモデルと比較して精度を上げる手法の提案。事前学習済みモデルは、事前学習済みモデルの精度を上げるのに有効な手法だが、事前学習済みモデルは精度が下がる。事前学習済みモデルは、事前学習済みモデルと同等の性能を発揮するが、事前学習済みモデルは精度が下がる。
- When Do You Need Billions of Words of Pretraining Data?
- Yian Zhang, Alex Warstadt, Xiaocheng Li, Samuel R. Bowman
- TLDR: 事前学習済み言語モデルの学習方法を調べた研究。事前学習済みモデルの学習は、事前学習済みモデルの知識を学習する。事前学習済みモデルは、事前学習済みモデルの知識を学習する。事前学習済みモデルは、事前学習済みモデルの知識を学習する。事前学習済みモデルは、事前学習済みモデルの知識を学習する。事前学習済みモデルは、事前学習済みモデルの知識を学習する。事前学習済みモデルは、事前学習済みモデルの知識を学習する。事前学習済みモデルは、事前学習済みモデルの知識を学習する。事前学習済みモデルは、事前学習済みモデルの知識を学習する。事前学習済みモデルは
- Analyzing the Source and Target Contributions to Predictions in Neural Machine Translation
- Elena Voita, Rico Sennrich, Ivan Titov
- TLDR: 翻訳モデルの生成結果を、事前学習済みモデルと比較して評価する手法の提案。事前学習済みモデルは、事前学習済みモデルの潜在表現をベースに生成を行うが、事前学習済みモデルは潜在表現の潜在表現をベースに生成を行う。事前学習済みモデルは潜在表現の潜在表現をベースに生成を行うが、潜在表現の潜在表現をベースに生成を行う。
- Comparing Test Sets with Item Response Theory
- Clara Vania, Phu Mon Htut, William Huang, Dhara Mungra, Richard Yuanzhe Pang, Jason Phang, Haokun Liu, Kyunghyun Cho, Samuel R. Bowman
- TLDR: 自然言語処理モデルのパフォーマンスを評価するデータセットについて、評価手法をまとめた研究。評価手法は、評価手法の学習済みモデルと、学習済みモデルのパフォーマンスを比較するモデルの2つ。評価手法は、評価手法の学習済みモデルと、学習済みモデルのパフォーマンスを比較するモデルの2つ。評価手法は、評価手法の学習済みモデルと、学習済みモデルのパフォーマンスを比較するモデルの2つ。
- Uncovering Constraint-Based Behavior in Neural Models via Targeted Fine-Tuning
- Forrest Davis, Marten van Schijndel
- TLDR: 言語モデルの学習で、言語モデルの学習が不完全になる原因を調べた研究。学習済み言語モデルの学習は、言語モデルの学習と同等の制約を与える。制約は言語モデルの学習に組み込むことで、言語モデルの学習が不完全になる可能性がある。
- More Identifiable yet Equally Performant Transformers for Text Classification
- Rishabh Bhardwaj, Navonil Majumder, Soujanya Poria, Eduard Hovy
- TLDR: 予測結果の重みを、モデルの重みと同等に扱う研究。重みは重みの重みと同等に扱われるが、重みは重みの重みと同等に扱われる。重みは重みの重みと同等に扱われるが、重みは重みの重みと同等に扱われる。重みの重みは重みの重みと同等に扱われる。
- AugNLG: Few-shot Natural Language Generation using Self-trained Data Augmentation
- Xinnuo Xu, Guoyin Wang, Young-Bum Kim, Sungjin Lee
- TLDR: 自然言語の生成を行う際に、事前学習済みモデルを用いた研究。事前学習済みモデルは、事前学習済みモデルの学習済み言語モデルをベースに、事前学習済みモデルの学習済み言語モデルをベースに学習する。事前学習済みモデルは、事前学習済み言語モデルの学習済み言語モデルをベースに学習する。事前学習済み言語モデルは、事前学習済み言語モデルをベースに学習する。
- Can vectors read minds better than experts? Comparing data augmentation strategies for the automated scoring of children’s mindreading ability
- Venelin Kovatchev, Phillip Smith, Mark Lee, Rory Devine
- TLDR: 自動文読解の強化手法を検証した研究。学習済みモデルの強化は、学習済みモデルの学習率を上げるのに有効だが、学習済みモデルの学習率が下がるケースがある。この場合、学習済みモデルの学習率が下がるケースがある。学習済みモデルは学習率が下がるケースがあるが、学習済みモデルは上がらないケースがある。
- A Dataset and Baselines for Multilingual Reply Suggestion
- Mozhi Zhang, Wei Wang, Budhaditya Deb, Guoqing Zheng, Milad Shokouhi, Ahmed Hassan Awadallah
- TLDR: 質問回答のモデルを、多言語対応のタスクに応用した研究。質問回答の分類/seq2seqのタスクで、事前学習済みモデルと比較して精度が向上している。事前学習済みモデルは、質問回答の分類/seq2seqのタスクで精度が落ちる傾向がある。
- What Ingredients Make for an Effective Crowdsourcing Protocol for Difficult NLU Data Collection Tasks?
- Nikita Nangia, Saku Sugawara, Harsh Trivedi, Alex Warstadt, Clara Vania, Samuel R. Bowman
- TLDR: 自然言語処理モデルの品質を上げるために、クラウドソーシングによるデータセットの収集方法と、その効果について検証した研究。クラウドソーシングは、事前学習済みモデルの学習済みモデルの学習率を上げるのに有効だが、事前学習済みモデルの学習率は低い。また、事前学習済みモデルの学習率は低い。
- Align Voting Behavior with Public Statements for Legislator Representation Learning
- Xinyi Mou, Zhongyu Wei, Lei Chen, Shangyi Ning, Yancheng He, Changjian Jiang, Xuanjing Huang
- TLDR: 議会の代表者と、その意見をまとめた文書を組み合わせて、議会の代表者と意見をまとめた文書を生成する研究。文書は、議会の代表者と意見のまとめた文書(議会の提案)を組み合わせて作成する。文書は、議会の代表者と意見のまとめた文書を組み合わせて作成する。文書は、議会の代表者と意見のまとめた文書を組み合わせて作成する。
- Measure and Evaluation of Semantic Divergence across Two Languages
- Syrielle Montariol, Alexandre Allauzen
- TLDR: 翻訳文の生成を行う際に、翻訳文の生成と時系列の変化を比較した研究。時系列の変化は、言語の変遷と同等の意味を持つ単語を生成する(時系列の変化は、翻訳文の生成時に生成する)。時系列の変化は、翻訳文の生成時に生成する(時系列の変化は、翻訳文の生成時に生成する)
- Improving Zero-Shot Translation by Disentangling Positional Information
- Danni Liu, Jan Niehues, James Cross, Francisco Guzmán, Xian Li
- TLDR: 事前学習済みモデルで、翻訳を行う際に言語共通の表現を生成する手法の提案。翻訳を行う際は、翻訳文の位置関係を予測するネットワークを追加する。このネットワークを、翻訳文の位置関係を予測するネットワークに置き換える形で作成する。これにより、事前学習済みモデルの精度を上げるとともに、翻訳精度を維持できるようになった。
- Common Sense Beyond English: Evaluating and Improving Multilingual Language Models for Commonsense Reasoning
- Bill Yuchen Lin, Seyeon Lee, Xiaoyang Qiao, Xiang Ren
- TLDR: マルチ言語の文法モデルの評価手法の提案。文法モデルは英語のみでなく、様々な言語で使われている。文法モデルは、文法知識が豊富な人なら、英語だけでなく、様々な言語で使われている。文法知識を評価するタスクとして、文法知識の評価を用い、文法知識の評価結果を言語モデルの評価に使用している。
- Attention Calibration for Transformer in Neural Machine Translation
- Yu Lu, Jiali Zeng, Jiajun Zhang, Shuangzhi Wu, Mu Li
- TLDR: 翻訳モデルのAttentionを、Mask perturbationモデルで調整する研究。Mask perturbationモデルは、入力のAttentionを調整する。入力のAttentionは、入力のAttentionと同等の重みを割り当てる。入力のAttentionは、入力のAttentionと同等の重みを割り当てる。入力のAttentionは、入力のAttentionと同等の重みを割り当てる。
- Diverse Pretrained Context Encodings Improve Document Translation
- Domenic Donato, Lei Yu, Chris Dyer
- TLDR: 文単位の翻訳を行う際に、文の文長を予測する手法を提案。文長を予測するモデルは、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測精度を上げるために、文長の予測
- Exploiting Language Relatedness for Low Web-Resource Language Model Adaptation: An Indic Languages Study
- Yash Khemchandani, Sarvesh Mehtani, Vaidehi Patil, Abhijeet Awasthi, Partha Talukdar, Sunita Sarawagi
- TLDR: マルチ言語対応のモデルを、異なる言語に適用する研究。言語の組み合わせは、翻訳/翻訳済み言語の翻訳結果から、翻訳結果と異なる言語の翻訳結果を組み合わせる形で行う。翻訳結果は、翻訳結果と翻訳結果の組み合わせが、翻訳結果と翻訳結果の組み合わせを合わせた結果と一致する。
- On Finding the K-best Non-projective Dependency Trees
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: 文の依存構造を解く手法の提案。依存構造を解く際は、各ノードの重みを結合するノードの重みを計算する。この重みは、文の文脈から計算する。重みは、文脈から計算するノードの重みを計算する。重みは、文脈から計算するノードの重みを計算する。
- Towards Argument Mining for Social Good: A Survey
- Eva Maria Vecchi, Neele Falk, Iman Jundi, Gabriella Lapesa
- TLDR: 論理品質を評価する手法のサーベイ。論理品質は、論理の意図/目的/意図に沿った文章をどれだけ作成するか、またその評価方法(評価方法の種類)を評価する。具体的には、文の意図/目的/目的の文章をどれだけ評価するか、またその評価方法(評価方法)を評価する。
- Automated Generation of Storytelling Vocabulary from Photographs for use in AAC
- Mauricio Fontana de Vargas, Karyn Moffatt
- TLDR: 自然言語処理で、過去の経験から、自然言語処理で使われる単語を生成する研究。画像から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の経験から、過去の
- CLIP: A Dataset for Extracting Action Items for Physicians from Hospital Discharge Notes
- James Mullenbach, Yada Pruksachatkun, Sean Adler, Jennifer Seale, Jordan Swartz, Greg McKelvey, Hui Dai, Yi Yang, David Sontag
- TLDR: 医療従事者による事前学習済みモデルの事前学習を、医療従事者にとって有効なモデルに応用した研究。事前学習済みモデルは、事前学習済みモデルの文書から、文書中の単語を抽出する形で学習を行う。文書中の単語は、文書全体の単語数を考慮する必要があり、文書全体の単語数を考慮する必要がある。
- Assessing Emoji Use in Modern Text Processing Tools
- Abu Awal Md Shoeb, Gerard de Melo
- TLDR: テキストに含まれる単語を、自然言語処理で処理する研究。単語の意味を予測するタスク(単語分類、単語分散表現、単語分散表現の3つ)を、各タスクで検証し、その結果、タスクがうまく機能していないことを確認。
- Select, Extract and Generate: Neural Keyphrase Generation with Layer-wise Coverage Attention
- Wasi Ahmad, Xiao Bai, Soomin Lee, Kai-Wei Chang
- TLDR: 自然言語処理で、Keywordの生成を行う際に、どの単語が重要かを予測する研究。通常のKeyword生成は、単語の意味を予測する形で行われるが、この時、単語の意味を予測するモデルを用いることで、単語の意味を予測するモデルを構築する。
- Factorising Meaning and Form for Intent-Preserving Paraphrasing
- Tom Hosking, Mirella Lapata
- TLDR: 質問に対する回答を、異なる表面上の表現から生成する研究。質問の意味と表現を異なる表面上の表現から生成する。文書の文書構造を、Encoder Decoderで学習し、EncoderDecoderの入力とEncoderDecoderの入力を結合する形で生成する。文書の文書構造を、EncoderDecoderの入力と入力の入力から生成する。
- AggGen: Ordering and Aggregating while Generating
- Xinnuo Xu, Ondřej Dušek, Verena Rieser, Ioannis Konstas
- TLDR: 文計画を、文生成時に行う手法の提案。文生成時に、文の意味を予測する(文の意味を予測する)文を生成する。文の意味を予測する文生成時に、文の意味を予測する文を生成する。文生成時に、文の意味を予測する文を生成する。文生成時に、文の意味を予測する文を生成する。
- Reflective Decoding: Beyond Unidirectional Generation with Off-the-Shelf Language Models
- Peter West, Ximing Lu, Ari Holtzman, Chandra Bhagavatula, Jena D. Hwang, Yejin Choi
- TLDR: 教師なしで言語モデルを学習する研究。教師なしで学習する際は、事前学習済みモデルの予測結果を基に学習する。予測結果は、教師なしで学習したモデルと同等の結果が得られることを確認。教師なしで学習したモデルは、事前学習済みモデルと同等の結果が得られることを確認。
- Towards Table-to-Text Generation with Numerical Reasoning
- Lya Hulliyyatus Suadaa, Hidetaka Kamigaito, Kotaro Funakoshi, Manabu Okumura, Hiroya Takamura
- TLDR: 自然言語処理で、テーブルから文書を生成する研究。生成は、テーブルの文書を生成するモデルで行い、文書の文書構造を学習する。文書構造は、文書の文書構造と同等かそれ以上の文書構造を想定している。文書構造は、文書構造と同等かそれ以上の文書構造を想定している。文書構造は、文書構造と同等かそれ以上の文書構造を想定している。
- BACO: A Background Knowledge- and Content-Based Framework for Citing Sentence Generation
- Yubin Ge, Ly Dinh, Xiaofeng Liu, Jinsong Su, Ziyao Lu, Ante Wang, Jana Diesner
- TLDR: 文書から、文の意味を抽出する研究。文の意味を抽出するモデルは、文の意味を抽出する文書を生成する。文書の意味を抽出するモデルは、文の意味を抽出する文書を生成する。文書の意味を抽出するモデルは、文の意味を抽出する文書を生成するモデルと同等精度を達成。
- Language Model as an Annotator: Exploring DialoGPT for Dialogue Summarization
- Xiachong Feng, Xiaocheng Feng, Libo Qin, Bing Qin, Ting Liu
- TLDR: 対話システムで、事前学習済みモデルを用いた事前学習済みモデルの提案。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の性能を発揮する。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の性能を発揮する。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の性能を発揮する。
- Challenges in Information-Seeking QA: Unanswerable Questions and Paragraph Retrieval
- Akari Asai, Eunsol Choi
- TLDR: 自然言語処理で、文書から文書への文書の記述を推定するタスクについて、文書の記述と文書の文書記述の差分を検証した研究。文書の文書記述は文書の文書構造を表す単語を含まないが文書文書構造を表す単語は含まない。文書文書構造を表す単語は文書文書構造を表す単語と、文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書
- A Gradually Soft Multi-Task and Data-Augmented Approach to Medical Question Understanding
- Khalil Mrini, Franck Dernoncourt, Seunghyun Yoon, Trung Bui, Walter Chang, Emilia Farcas, Ndapa Nakashole
- TLDR: 医療従事者に対する質問回答を行う際に、複数タスクを同時に学習する手法の提案。タスクは質問回答とRecognizing Question Entailment(RQE)で、タスクはタスクの重みを軽くする。タスクはタスクの重みを軽くする。タスクはタスクの重みを軽くする。タスクはタスクの重みを軽くする。
- Leveraging Type Descriptions for Zero-shot Named Entity Recognition and Classification
- Rami Aly, Andreas Vlachos, Ryan McDonald
- TLDR: クラス分類のタスクで、事前学習済みモデルの学習済みモデルを学習する研究。事前学習済みモデルは、クラス分類のタスクで学習済みモデルの学習済みモデルと同等の精度を達成できるが、事前学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を達成できない。そこで、事前学習済みモデルの学習済みモデルを学習するモデルを提案。
- MECT: Multi-Metadata Embedding based Cross-Transformer for Chinese Named Entity Recognition
- Shuang Wu, Xiaoning Song, Zhenhua Feng
- TLDR: 自然言語処理で、単語構造をマルチタスクで表現する研究。単語の構造をマルチタスクで表現するTransformerを、マルチタスクで表現する。マルチタスクで表現する際は、単語の構造をマルチタスクで表現する。マルチタスクで表現する際は、単語の構造をマルチタスクで表現する。
- Factuality Assessment as Modal Dependency Parsing
- Jiarui Yao, Haoling Qiu, Jin Zhao, Bonan Min, Nianwen Xue
- TLDR: ニュースやニュースソースから事実誤認のチェックを行う手法の提案。ニュースソースから事実誤認のチェックを行うと同時に、ニュースソースのチェック結果から事実誤認のチェックを行う。事前学習済みモデルと比較して、事前学習済みモデルの精度が大幅に向上している。
- Directed Acyclic Graph Network for Conversational Emotion Recognition
- Weizhou Shen, Siyue Wu, Yunyi Yang, Xiaojun Quan
- TLDR: 自然言語処理で、質問に対するAttentionの分布をグラフ化する研究。質問に対するAttentionの分布をグラフ化するDAGをベースに、質問に対するAttention分布をグラフ化するDAGをベースに、質問に対するAttention分布をグラフ化するDAGをベースに、質問に対するAttention分布をグラフ化するDAGをベースに、質問に対するAttention分布をグラフ化するDAGをベースに、質問に対するAttention分布をグラフ化するDAGをベースに、質問に対するAttention分布をグラフ化するDAGをベースに、質問に対するAttention分布をグラフ化するDAGをベースに、質問に対するAttention分布をグラフ
- Improving Formality Style Transfer with Context-Aware Rule Injection
- Zonghai Yao, Hong Yu
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルに組み込む手法の提案。事前学習済み言語モデルはBERTベースのEncoder/Decoderモデルで、事前学習済み言語モデルはBERTベースのEncoder/Decoderモデルで学習する。事前学習済み言語モデルは事前学習済み言語モデルと同等の性能を発揮する。
- Topic-Driven and Knowledge-Aware Transformer for Dialogue Emotion Detection
- Lixing Zhu, Gabriele Pergola, Lin Gui, Deyu Zhou, Yulan He
- TLDR: 対話中の感情を検出する研究。質問に対する回答を、質問に対する回答と同等の言語モデルで学習する。質問に対する回答は、質問に対する質問に対する回答と同等の言語モデルで学習する。質問に対する回答は、質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する
- Syntopical Graphs for Computational Argumentation Tasks
- Joe Barrow, Rajiv Jain, Nedim Lipka, Franck Dernoncourt, Vlad Morariu, Varun Manjunatha, Douglas Oard, Philip Resnik, Henning Wachsmuth
- TLDR: stance detectionとaspect detectionのタスクで、事前学習済みモデルのモデルを用いた研究。モデルは、各タスクのタスクで使用するモデルのモデルをベースに、各タスクで使用するモデルのモデルをベースに、タスクのタスクで使用するモデルをベースにしている。
- Stance Detection in COVID-19 Tweets
- Kyle Glandt, Sarthak Khanal, Yingjie Li, Doina Caragea, Cornelia Caragea
- TLDR: 新型インフルエンザに対するstance detectionの研究。Twitterのユーザーから、新型インフルエンザに対するstanceを収集し、その分布を予測する。予測結果は、新型インフルエンザに対するstanceが分布を表す分布(分布は、通常の分布と異なる)を予測する。
- Topic-Aware Evidence Reasoning and Stance-Aware Aggregation for Fact Verification
- Jiasheng Si, Deyu Zhou, Tongzhe Li, Xingyu Shi, Yulan He
- TLDR: 事実の検証を行う際に、複数の文書から事実を推定する研究。文書から文書を推定する際、文書の文書特徴を考慮する。文書特徴は文書の文書特徴と文書特徴の類似度を比較し、文書特徴は文書特徴と文書特徴双方を比較し、文書特徴は文書特徴と文書特徴双方を比較する。文書特徴は文書特徴と文書特徴双方を比較し、文書特徴は文書特徴と文書特徴双方を比較する。
- Changes in European Solidarity Before and During COVID-19: Evidence from a Large Crowd- and Expert-Annotated Twitter Dataset
- Alexandra Ils, Dan Liu, Daniela Grunow, Steffen Eger
- TLDR: マルチタスクで、EUの反solidarityについて検証した研究。ツリー単位のツリー分布を予測するBERTをベースに、ツリー分布の予測結果を基にツリー分布の予測を行う。ツリー分布は、ツリー分布の予測結果から予測するツリー分布と、ツリー分布の予測結果からツリー分布の予測結果を予測するツリー分布の2つに分けている。ツリー分布はツリー分布の予測結果から予測するツリー分布と、ツリー分布の予測結果からツリー分布の予測結果を予測するツリー分布の2つに分けている。
- Measuring Conversational Uptake: A Case Study on Student-Teacher Interactions
- Dorottya Demszky, Jing Liu, Zid Mancenido, Julie Cohen, Heather Hill, Dan Jurafsky, Tatsunori Hashimoto
- TLDR: 教師の学習率を計測する研究。教師の学習率は、教師の発言から学習率を推定するモデルを用いている。教師の学習率は、教師の発言から学習率を推定するモデルを用いている。教師の学習率は、教師の発言から学習率を推定するモデルを用いている。教師の学習率は、教師の学習率と学習率の2つに分けている。
- A Survey of Code-switching: Linguistic and Social Perspectives for Language Technologies
- A. Seza Doğruöz, Sunayana Sitaram, Barbara E. Bullock, Almeida Jacqueline Toribio
- TLDR: マルチ言語対応の研究に関するサーベイ。言語モデルの分類、言語モデルの評価、言語モデルの学習、言語モデルのパフォーマンス、言語モデルの評価結果、言語モデルの評価結果、言語モデルの評価結果、言語モデルの評価結果をまとめたサーベイ。
- Learning from the Worst: Dynamically Generated Datasets to Improve Online Hate Detection
- Bertie Vidgen, Tristan Thrush, Zeerak Waseem, Douwe Kiela
- TLDR: 不信の投稿を自動生成する研究。不信の投稿は、不信の投稿と同等の分類対象になる。不信の投稿は、不信の投稿と同等の分類対象になる。不信の投稿は、不信の投稿と同等の分類対象になる。不信の投稿は、不信の投稿と同等の分類対象になる。
- InfoSurgeon: Cross-Media Fine-grained Information Consistency Checking for Fake News Detection
- Yi Fung, Christopher Thomas, Revanth Gangi Reddy, Sandeep Polisetty, Heng Ji, Shih-Fu Chang, Kathleen McKeown, Mohit Bansal, Avi Sil
- TLDR: 機械学習によるニュース生成を防ぎつつ、誤ったニュースを検知する手法の提案。ニュースの生成は、ニュースソースの知識要素をベースに行う。知識要素は、ニュースソースの情報を基に生成される。この時、ニュースソースの情報を基に生成されるデータから誤りを検知する。誤り検知は、ニュースソースの情報を基に生成されるデータから行う。
- I like fish, especially dolphins: Addressing Contradictions in Dialogue Modeling
- Yixin Nie, Mary Williamson, Mohit Bansal, Douwe Kiela, Jason Weston
- TLDR: 自然言語処理で対話中の矛盾を検出するタスクの提案。対話中の矛盾を検出するモデルは、対話中の単語を予測するモデルと、対話中の単語を予測するモデルの2つを使用。対話中の単語を予測するモデルは、対話中の単語を予測するモデルと、対話中の単語を予測するモデルの2つを使用。対話中の単語を予測するモデルは、対話中の単語を予測するモデルと、対話中の単語を予測するモデルの2つを使用。
- A Sequence-to-Sequence Approach to Dialogue State Tracking
- Yue Feng, Yang Wang, Hang Li
- TLDR: 対話システムにおける対話システムの挙動を、BERTベースのモデルで学習する研究。BERTベースのモデルは、質問に対するAttentionを計算するEncoderとAttentionの分布を予測するDecoderの2つを用いている。BERTベースのモデルは、質問に対するAttention分布を予測するEncoderとDecoderの2つを用いている。
- Discovering Dialog Structure Graph for Coherent Dialog Generation
- Jun Xu, Zeyang Lei, Haifeng Wang, Zheng-Yu Niu, Hua Wu, Wanxiang Che
- TLDR: 対話システムで、対話の構造をグラフで学習する研究。対話システムの構成は、質問/回答の順番で学習する。質問/回答の順番は、質問/回答の順番で学習する。質問/回答の順番は、質問/回答の順番で学習する。質問/回答の順番は、質問/回答の順番で学習する。
- Dialogue Response Selection with Hierarchical Curriculum Learning
- Yixuan Su, Deng Cai, Qingyu Zhou, Zibo Lin, Simon Baker, Yunbo Cao, Shuming Shi, Nigel Collier, Yan Wang
- TLDR: 対話システムの学習を、事前学習済みモデルと比較して強化学習で行う研究。事前学習済みモデルは事前学習済みモデルと同等の学習が行えるが、事前学習済みモデルは事前学習済みモデルと同等の学習が行えない。事前学習済みモデルは事前学習済みモデルと同等の学習が行えないため、事前学習済みモデルを学習させる
- A Joint Model for Dropped Pronoun Recovery and Conversational Discourse Parsing in Chinese Conversational Speech
- Jingxuan Yang, Kerui Xu, Jun Xu, Si Li, Sheng Gao, Jun Guo, Nianwen Xue, Ji-Rong Wen
- TLDR: 対話中の単語を抽出する研究。単語の生成はGraph Convolution(GCN)で行い、トークンの生成はBi-Agentのクラスターで行い、トークンの生成はBi-Agentのクラスターで行い、トークンの生成はBi-Agentのクラスターで行い、トークンの生成はBi-Agentのクラスターで行い、トークンの生成はBi-Agentのクラスターで行い、トークンの生成はBi-Agentのクラスターで行い、トークンの生成はBi-Agentのクラスターで行い、トークンの生成はBi-Agent
- A Systematic Investigation of KB-Text Embedding Alignment at Scale
- Vardaan Pahuja, Yu Gu, Wenhu Chen, Mehdi Bahrami, Lei Liu, Wei-Peng Chen, Yu Su
- TLDR: 文書とテキストを統合する研究。文書は文書と同等の構造を持つが、文書は文書と同等の構造を持つ。文書は文書と同等の構造を持つが、文書は文書と同等の構造を持つ。文書は文書と同等の構造を持つが文書は文書と同等の構造を持つ。文書は文書と同等の構造を持つが文書は文書と同等の構造を持つ。
- Named Entity Recognition with Small Strongly Labeled and Large Weakly Labeled Data
- Haoming Jiang, Danqing Zhang, Tianyu Cao, Bing Yin, Tuo Zhao
- TLDR: 自然言語処理で、教師なしで学習したモデルで学習したモデルと比較して、教師なしで学習したモデルは、学習データの過剰なラベル(ノイズ)を除去する機構を備えている。これにより、モデルのパフォーマンスを向上させることができる。
- Ultra-Fine Entity Typing with Weak Supervision from a Masked Language Model
- Hongliang Dai, Yangqiu Song, Haixun Wang
- TLDR: 通常のタスクで、タスクの重みを軽量化する研究。タスクの重みは、単語の重みと単語の重みを結合した重みを表現するBERT Masked Language Model(MLM)で表現する。重みは、単語の重みと単語の重みを結合した重みを表現する。重みは、単語の重みと単語の重みを結合した重みを表現する。
- Improving Named Entity Recognition by External Context Retrieving and Cooperative Learning
- Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: 文書の外部表現を検索エンジンで見つける研究。文書の文書構造を検索エンジンで検索し、文書の外部表現を検索エンジンで抽出する。文書の外部表現は、文書の文書構造を検索エンジンで抽出する。文書の文書構造を検索エンジンで抽出する際、文書の文書構造を検索エンジンで抽出する。文書構造を検索エンジンで抽出する際、文書構造を検索エンジンで抽出する。
- Implicit Representations of Meaning in Neural Language Models
- Belinda Z. Li, Maxwell Nye, Jacob Andreas
- TLDR: 自然言語処理で、自然言語処理のモデルが表現力にどれぐらい貢献しているのかを検証した研究。モデルは、単語の表現力と、単語の表現力の関係を予測する。単語の表現力は、単語の表現力と、単語の表現力の関係を予測する。単語の表現力は、単語の表現力と、単語の表現力の関係を予測する。
- Causal Analysis of Syntactic Agreement Mechanisms in Neural Language Models
- Matthew Finlayson, Aaron Mueller, Sebastian Gehrmann, Stuart Shieber, Tal Linzen, Yonatan Belinkov
- TLDR: 自然言語処理で、文中の単語を同じように扱うモデルの研究。文中の単語を同じように扱うモデルは、文中の単語を同じように扱うモデルと同等の学習性能を発揮する。文中の単語を同じように扱うモデルは、文中の単語を同じように扱うモデルと同等の学習性能を発揮する。
- Bird’s Eye: Probing for Linguistic Graph Structures with a Simple Information-Theoretic Approach
- Yifan Hou, Mrinmaya Sachan
- TLDR: 自然言語処理におけるグラフ表現の潜在表現を調べる研究。通常のモデルはグラフ表現を入力とし、入力とグラフ表現の潜在表現を入力とし、入力とグラフ表現の潜在表現を入力とし、入力とグラフ表現の潜在表現を入力とし、入力とグラフ表現の潜在表現を入力とし、入力とグラフ表現の潜在表現を入力とし、入力とグラフ表現の潜在表現を入力とし、入力とグラフ表現の潜在表現を入力とし、入力と入力双方を入力とし、入力と入力双方を入力とし、入力と入力双方を入力とし、入力と
- Knowledgeable or Educated Guess? Revisiting Language Models as Knowledge Bases
- Boxi Cao, Hongyu Lin, Xianpei Han, Le Sun, Lingyong Yan, Meng Liao, Tong Xue, Jin Xu
- TLDR: 事前学習済み言語モデル(BERT)が、事前学習済みモデルより良い事前知識を得るための機構を調査した研究。事前学習済みモデルは事前知識の予測が難しいため、事前知識の予測はモデルのモデル構造を学習するモデルに依存する。事前知識の予測はモデルの構造を学習するモデルに依存するが、モデルの構造を学習するモデルは学習するモデルに依存する。
- Poisoning Knowledge Graph Embeddings via Relation Inference Patterns
- Peru Bhardwaj, John Kelleher, Luca Costabello, Declan O’Sullivan
- TLDR: 知識グラフの予測精度を低下させる手法の提案。予測精度を低下させるには、予測精度と予測精度の相関を推定するモデルを構築する。予測精度を低下させるには、予測精度と相関を推定するモデルを構築する。予測精度を低下させるには、予測精度と相関を推定するモデルを構築する。
- Bad Seeds: Evaluating Lexical Methods for Bias Measurement
- Maria Antoniak, David Mimno
- TLDR: 自然言語処理で、人種分類のタスクで使われるSeedについて、その特徴をまとめた研究。Seedの分類は、人種分類のタスクで使われることが多いが、人種分類のタスクでは、人種分類のタスクで使われるSeedが使われているケースが多い。
- A Survey of Race, Racism, and Anti-Racism in NLP
- Anjalie Field, Su Lin Blodgett, Zeerak Waseem, Yulia Tsvetkov
- TLDR: 自然言語処理で、性別適合を扱う研究は少ないが、その研究は性別適合を扱う研究と同等に扱われている。性別適合は、言語モデルの構造上、モデルの枠組みで扱われている。そのため、性別適合を扱う研究は、性別適合の枠組みで扱われている。
- Intrinsic Bias Metrics Do Not Correlate with Application Bias
- Seraphina Goldfarb-Tarrant, Rebecca Marchant, Ricardo Muñoz Sánchez, Mugdha Pandya, Adam Lopez
- TLDR: 自然言語処理で、人種差別や性差別といった不当な偏見をなくすための指標について検証した研究。言語モデルの学習時に、不当な偏見をなくすための指標として「言語モデルの言語特性」を挙げている。言語モデルの学習時に、言語特性を評価する指標として「言語特性」を挙げている。
- RedditBias: A Real-World Resource for Bias Evaluation and Debiasing of Conversational Language Models
- Soumya Barikeri, Anne Lauscher, Ivan Vulić, Goran Glavaš
- TLDR: 対話システムの言語モデルは、自然言語処理のモデルと同等のモデルの枠組みで、性別・宗教・人種・国籍・Queerness・LGBTといった4つの性別・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・
- Contributions of Transformer Attention Heads in Multi- and Cross-lingual Tasks
- Weicheng Ma, Kai Zhang, Renze Lou, Lili Wang, Soroush Vosoughi
- TLDR: マルチ言語対応のTransformerベースのモデルで、Attention Headを減らす研究。減らすと、Transformerベースのモデルで学習した言語を認識する精度が下がる可能性がある。減らすと、Transformerベースのモデルで学習した言語を認識する精度が下がる可能性がある。
- Crafting Adversarial Examples for Neural Machine Translation
- Xinze Zhang, Junzhe Zhang, Zhenhua Chen, Kun He
- TLDR: 機械翻訳に対するAdversarial Attackの検証結果をまとめた論文。Adversarial Attackは、翻訳の生成結果を誤認識することが多い。そのため、翻訳の生成結果を誤認識する手法を提案している。通常の翻訳は、翻訳の生成結果を誤認識することが多いが、この手法では誤認識する。誤認識した翻訳は、生成結果を誤認識する結果になる可能性がある。
- UXLA: A Robust Unsupervised Data Augmentation Framework for Zero-Resource Cross-Lingual NLP
- M Saiful Bari, Tasnim Mohiuddin, Shafiq Joty
- TLDR: 事前学習済み言語モデルを転移学習に使用する研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルを学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルを学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルを学習する。
- Glancing Transformer for Non-Autoregressive Neural Machine Translation
- Lihua Qian, Hao Zhou, Yu Bao, Mingxuan Wang, Lin Qiu, Weinan Zhang, Yong Yu, Lei Li
- TLDR: 機械翻訳において、単一の翻訳でなく複数回の翻訳を同時に行う手法の提案。単一の翻訳では精度が低下するため、複数回の翻訳を同時に行う。このため、複数回の翻訳を同時に行うことで精度を上げつつ、高速化を実現。
- Hierarchical Context-aware Network for Dense Video Event Captioning
- Lei Ji, Xianglin Guo, Haoyang Huang, Xilin Chen
- TLDR: 動画中のイベントを、事前学習済みモデルでカテゴリ別にカテゴリごとにカテゴリごとにカテゴリを生成する研究。カテゴリごとにカテゴリを生成する際は、カテゴリのカテゴリをカテゴリごとにカテゴリごとにカテゴリを生成する。カテゴリごとにカテゴリをカテゴリごとにカテゴリを生成する。
- Control Image Captioning Spatially and Temporally
- Kun Yan, Lei Ji, Huaishao Luo, Ming Zhou, Nan Duan, Shuai Ma
- TLDR: 画像からテキストを生成する手法の提案。画像の画像を生成する際、画像の画像を左に見つめると画像の画像が左に見えるようにする。画像の画像を左に見つめると、画像の画像を左に見つめるようにする。画像の画像を左に見つめると、画像の画像を左に見つめるようにする。
- Edited Media Understanding Frames: Reasoning About the Intent and Implications of Visual Misinformation
- Jeff Da, Maxwell Forbes, Rowan Zellers, Anthony Zheng, Jena D. Hwang, Antoine Bosselut, Yejin Choi
- TLDR: 画像を編集する手法について、その目的と効果、また、その対応についてまとめた研究。編集を行う際の目的は、画像の編集が誤認識に繋がるかを検証する。編集を行う際は、画像の編集が誤認識に繋がるかを検証する。この研究では、編集を行う際の目的と効果、また、対応する人物の反応についてまとめている。
- PIGLeT: Language Grounding Through Neuro-Symbolic Interaction in a 3D World
- Rowan Zellers, Ari Holtzman, Matthew Peters, Roozbeh Mottaghi, Aniruddha Kembhavi, Ali Farhadi, Yejin Choi
- TLDR: 自然言語処理のモデルを、物理的な環境から学習する研究。物理的な環境は物体表面の表面の表面に存在する。この表面を学習するモデルを、物理的な環境から学習する。物理的な環境は、物体表面の表面の表面に存在する。この表面を学習するモデルを、物理的な環境から学習する。
- Modeling Fine-Grained Entity Types with Box Embeddings
- Yasumasa Onoe, Michael Boratko, Andrew McCallum, Greg Durrett
- TLDR: 入力文中のクラス分類を、BERTベースのモデルで表現する研究。クラス分類は、クラス分類の定義が明確な場合のみ適用される。クラス分類は、クラス分類のクラス分類空間を入力とする。入力空間は、入力空間の入力と入力空間の入力双方を入力とする。入力空間は、入力空間の入力と入力空間の入力双方を入力とする。入力空間は、入力空間の入力と入力空間の入力双方を入力とする。
- ChineseBERT: Chinese Pretraining Enhanced by Glyph and Pinyin Information
- Zijun Sun, Xiaoya Li, Xiaofei Sun, Yuxian Meng, Xiang Ao, Qing He, Fei Wu, Jiwei Li
- TLDR: 自然言語処理の学習モデルで、単語の意味を学習する際の重要な点をまとめた研究。単語の意味は、単語の意味を含まない単語を含まない単語に置き換える。単語の意味は、単語の意味を含まない単語に置き換える。単語の意味は、単語の意味を含まない単語に置き換える。
- Weight Distillation: Transferring the Knowledge in Neural Network Parameters
- Ye Lin, Yanyang Li, Ziyang Wang, Bei Li, Quan Du, Tong Xiao, Jingbo Zhu
- TLDR: 大規模なネットワークから小さなネットワークに転移する研究。転移は、転移先のネットワークのパラメーターを変更する(転移先ネットワークのパラメーターは、転移先のネットワークのパラメーターと同等の重みをつける)ことで行う。転移先ネットワークのパラメーターは、転移先のネットワークのパラメーターと同等の重みをつける。
- Optimizing Deeper Transformers on Small Datasets
- Peng Xu, Dhruv Kumar, Wei Yang, Wenjie Zi, Keyi Tang, Chenyang Huang, Jackie Chi Kit Cheung, Simon J.D. Prince, Yanshuai Cao
- TLDR: 大規模なデータセットで学習したTransformerを、事前学習済みモデルに追加する手法の提案。事前学習済みモデルは、事前学習済みモデルの重みを加味したモデルで学習する。重みは、事前学習済みモデルの重みを加味したモデルで学習する。事前学習済みモデルは、事前学習済みモデルの重みを加味したモデルで学習する。
- BERTAC: Enhancing Transformer-based Language Models with Adversarially Pretrained Convolutional Neural Networks
- Jong-Hoon Oh, Ryu Iida, Julien Kloetzer, Kentaro Torisawa
- TLDR: 自然言語処理モデルの学習方法を、GANベースのモデルに置き換えた研究。学習は、Wikipediaのデータから行う。Wikipediaのデータは、BERT/Albertt/RoBERTaの3つで学習し、BERT/Albertt/RoBERTaの3つを組み合わせて学習する。BERT/Alberttは、BERT/RoBERTaの3つを組み合わせて学習する。
- COVID-Fact: Fact Extraction and Verification of Real-World Claims on COVID-19 Pandemic
- Arkadiy Saakyan, Tuhin Chakrabarty, Smaranda Muresan
- TLDR: 新型インフルエンザに対する、FEVERのようなデータセットの提案。FEVERのようなデータセットは、FEVERのデータセットと同等の精度が得られるが、データセットはFEVERのデータセットと同等の精度が得られる。また、FEVERのデータセットは、FEVERのデータセットと同等の精度が得られる。
- Explaining Relationships Between Scientific Documents
- Kelvin Luu, Xinyi Wu, Rik Koncel-Kedziorski, Kyle Lo, Isabel Cachola, Noah A. Smith
- TLDR: 自然言語処理で文書の説明を行う研究。文書のタイトル/文書の意味/意味の差異を、文書の文書構造から推論する。文書の文書構造は、文書の文書構造と文書の文書構造を同じくする。文書構造は、文書の文書構造と文書の文書構造を同じくする。文書構造は、文書構造と文書文書の文書構造を同じくする。文書構造は、文書構造と文書文書の文書構造を同じくする。文書構造は、文書構造と文書文書の文書構造を同じくする。文書構造は、文書構造と文書構造を同じくする。文書構造は、文書構造と文書構造を同じく
- IrEne: Interpretable Energy Prediction for Transformers
- Qingqing Cao, Yash Kumar Lal, Harsh Trivedi, Aruna Balasubramanian, Niranjan Balasubramanian
- TLDR: 機械学習モデルのエネルギー消費を予測する研究。モデルの構造を、モデルのパフォーマンスとエネルギー消費の関係から分類し、エネルギー消費の分布を予測する。エネルギー分布は、モデルのパフォーマンスとエネルギー消費の関係から予測する。エネルギー分布は、モデルのパフォーマンスとエネルギー消費の関係から予測する。
- Mitigating Bias in Session-based Cyberbullying Detection: A Non-Compromising Approach
- Lu Cheng, Ahmadreza Mosallanezhad, Yasin Silva, Deborah Hall, Huan Liu
- TLDR: ツリーベースのCyberBullyingの検知手法を強化学習で学習する研究。ツリーベースのモデルは、ツリーの生成時にツリーの生成に使用する強化学習をベースにしている。ツリーの生成時に、ツリーの生成時に使用する強化学習をベースに学習を行っている。
- PlotCoder: Hierarchical Decoding for Synthesizing Visualization Code in Programmatic Context
- Xinyun Chen, Linyuan Gong, Alvin Cheung, Dawn Song
- TLDR: 自然言語処理で、画像を生成する際のコードを生成する研究。生成した画像を、自然言語処理のコードに置き換える。生成した画像は、生成した画像の画像を生成するEncoderDecoderに入力し、EncoderDecoderは生成した画像を生成する。生成した画像は、生成した画像の画像を生成するEncoderDecoderに置き換える。
- Changing the World by Changing the Data
- Anna Rogers
- TLDR: 強化学習の提案について、具体的には学習データの更新が有効か、学習データの更新が有効かを検証した研究。学習データの更新は、学習データの更新と同等の効果をもたらすが、更新は学習データの更新と同等の効果をもたらす。更新は、学習データの更新と同等の効果をもたらすが、更新は学習データの更新と同等の効果をもたらす。
- EarlyBERT: Efficient BERT Training via Early-bird Lottery Tickets
- Xiaohan Chen, Yu Cheng, Shuohang Wang, Zhe Gan, Zhangyang Wang, Jingjing Liu
- TLDR: 大規模な言語モデルで、事前学習と学習時間を短縮する研究。学習はモデルの挙動を予測するモデルで行うが、事前学習はモデルの挙動を予測するモデルで行う。事前学習はモデルの挙動を予測するモデルで行うが、学習はモデルの挙動を予測するモデルで行う。事前学習はモデルの挙動を予測するモデルで行う。
- On the Effectiveness of Adapter-based Tuning for Pretrained Language Model Adaptation
- Ruidan He, Linlin Liu, Hai Ye, Qingyu Tan, Bosheng Ding, Liying Cheng, Jiawei Low, Lidong Bing, Luo Si
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルに追加する手法の提案。事前学習済みモデルは学習済みモデルのパラメーター数を減らすため、事前学習済みモデルのパラメーター数を減らす。事前学習済みモデルのパラメーター数を減らすと、事前学習済みモデルのパラメーター数を減らすことができる。
- Data Augmentation for Text Generation Without Any Augmented Data
- Wei Bi, Huayang Li, Jiacheng Huang
- TLDR: テキスト生成において、既存のデータ拡張手法を上手く活用する手法の提案。既存のデータ拡張手法は、既存のサンプルを学習する際は、既存のサンプルの学習済みモデルを学習する必要があった。そこで、既存のモデルを学習する際は、既存のモデルの学習済みモデルを学習する必要があった。そこで、既存のモデルを学習する際は、既存のモデルの学習済みモデルを学習する必要があった。
- Integrating Semantics and Neighborhood Information with Graph-Driven Generative Models for Document Retrieval
- Zijing Ou, Qinliang Su, Jianxing Yu, Bang Liu, Jingwen Wang, Ruihui Zhao, Changyou Chen, Yefeng Zheng
- TLDR: 文書分類器の生成において、文書分類器の分類結果と文書分類結果の相互依存を考慮した研究。文書分類器は文書分類結果と文書分類結果の相互依存を考慮するが、文書分類結果は文書分類器の分類結果と同等の依存を考慮する。文書分類器は文書分類結果と文書分類結果の相互依存を考慮するが、文書分類結果は文書分類器の分類結果と同等の依存を考慮する。
- SMURF: SeMantic and linguistic UndeRstanding Fusion for Caption Evaluation via Typicality Analysis
- Joshua Feinglass, Yezhou Yang
- TLDR: 画像のキャプチャーに対する評価手法の提案。画像のキャプチャーは、画像の表現が単純な場合と、画像の表現が複雑な場合に分けて評価する。画像の表現は、画像の表現と画像の表現の2つを評価する。画像の表現は、画像の表現と画像の表現の2つを評価する。
- KaggleDBQA: Realistic Evaluation of Text-to-SQL Parsers
- Chia-Hsuan Lee, Oleksandr Polozov, Matthew Richardson
- TLDR: 自然言語処理で、事前学習済みモデルを事前学習する手法の提案。事前学習済みモデルは、事前学習済みモデルのデータセットをベースに、事前学習済みモデルのデータセットをベースに事前学習済みモデルをベースに学習する。事前学習済みモデルは、事前学習済みモデルのデータセットをベースに学習する。事前学習済みモデルは事前学習済みモデルのデータセットをベースに学習する。事前学習済みモデルは事前学習済みモデルのデータセットをベースに学習する。事前学習済みモデルは事前学習済みモデルのデータセットをベースに学習する。事前学習済みモデルは事前学習済みモデルのデータセットをベースに学習する。事前学習
- QASR: QCRI Aljazeera Speech Resource A Large Scale Annotated Arabic Speech Corpus
- Hamdy Mubarak, Amir Hussein, Shammur Absar Chowdhury, Ahmed Ali
- TLDR: アルカニズムベースの音声データセットの提案。音声のセグメンテーション、セグメンテーションの補完、セグメンテーションの補完、補完の3つを収録。音声のセグメンテーションは、音声のセグメンテーションと同等の扱いが行える。
- An Empirical Study on Hyperparameter Optimization for Fine-Tuning Pre-trained Language Models
- Xueqing Liu, Chi Wang
- TLDR: 事前学習済み言語モデルの学習で、事前学習済みモデルの学習時間を削減する手法の提案。事前学習済みモデルの学習時間を削減する手法は、事前学習済みモデルの学習時間を削減する手法と同等かそれ以上の手法を組み合わせている。事前学習済みモデルの学習時間を削減する手法は、事前学習済みモデルの学習時間を削減する手法と同等かそれ以上の手法を組み合わせている。
- Better than Average: Paired Evaluation of NLP systems
- Maxime Peyrard, Wei Zhao, Steffen Eger, Robert West
- TLDR: 評価システムの評価を、ベンチマークと同等の手法で行う研究。ベンチマークはベンチマークの評価結果と同等の評価結果が得られるかを検証する。ベンチマークはベンチマークの評価結果と同等の評価結果が得られるかを検証する。ベンチマークはベンチマークの評価結果と同等の評価結果が得られるかを検証する。
- Chase: A Large-Scale and Pragmatic Chinese Dataset for Cross-Database Context-Dependent Text-to-SQL
- Jiaqi Guo, Ziliang Si, Yu Wang, Qian Liu, Ming Fan, Jian-Guang Lou, Zijiang Yang, Ting Liu
- TLDR: テキストからSQLを生成する研究で、既存のモデルは、既存のモデルと同等の精度を維持するが、モデルの精度が維持できるかを検証した研究。既存モデルは、既存モデルの精度を維持するために、既存モデルの精度を維持する手法を採用しているが、これにより精度を維持する手法を採用している。
- CLINE: Contrastive Learning with Semantic Negative Examples for Natural Language Understanding
- Dong Wang, Ning Ding, Piji Li, Haitao Zheng
- TLDR: 事前学習済み言語モデルが、学習済みモデルにどんな影響を与えているかを検証した研究。学習済みモデルは、学習済みモデルと同等の単語を使用。単語の置き換えは、学習済みモデルの学習に有効な手法だが、単語置き換えは学習に有効な手法ではないとしている。
- Tree-Structured Topic Modeling with Nonparametric Neural Variational Inference
- Ziye Chen, Cheng Ding, Zusheng Zhang, Yanghui Rao, Haoran Xie
- TLDR: 文書構造を学習する研究。文書構造は、文書の構造を学習するネットワークの重みから学習する。重みは、文書構造の重みから学習する。文書構造は、文書構造の重みから学習する。文書構造は、文書構造の重みから学習する。文書構造は、文書構造の重みから学習する。文書構造は、文書構造の重みから学習する。
- ExCAR: Event Graph Knowledge Enhanced Explainable Causal Reasoning
- Li Du, Xiao Ding, Kai Xiong, Ting Liu, Bing Qin
- TLDR: 因果推論の仕組みを、事前学習済みモデルに組み込んだ研究。事前学習済みモデルは、因果推論の仕組みを学習する際、事前学習済みモデルの予測結果から予測結果を推定する。事前学習済みモデルは、予測結果から予測結果を推定する際、予測結果から予測結果を推定するモデルを採用している。
- Distributed Representations of Emotion Categories in Emotion Space
- Xiangyu Wang, Chengqing Zong
- TLDR: 感情分類器の表現を、個別の表現に置き換える研究。個別表現は、感情の分類器の表現を表現する表現として使われることが多いが、個別表現は表現の表現を表現する表現として使われることが多い。個別表現は、表現の表現を表現する表現として使われることが多いが、表現表現の表現を表現する表現として使われることが多い。
- Style is NOT a single variable: Case Studies for Cross-Stylistic Language Understanding
- Dongyeop Kang, Eduard Hovy
- TLDR: 自然言語処理における、マルチスタイルの翻訳手法のサーベイ。単語分類、文分類、文分類の3つのタスクで、各タスクで使用するクラスタリング手法を検証している。タスクは、文分類、文分類の3つ。タスクは、文分類のタスクと、文分類のタスクの2つ。タスクは、文分類のタスクと、文分類のタスクの2つ。タスクは、文分類のタスクと、文分類のタスクの2つ。タスクは、文分類のタスクと、文分類のタスクの2つ。タスクは、タスクのタスク
- DynaSent: A Dynamic Benchmark for Sentiment Analysis
- Christopher Potts, Zhengxuan Wu, Atticus Geiger, Douwe Kiela
- TLDR: 文生成のベンチマークで、文生成の精度を上げるために、文生成のプロセスを工夫した研究。文生成は、文生成のモデルの生成結果をベースに、文生成結果をベースに文生成を行う。文生成は、文生成のモデルの生成結果をベースに、文生成結果をベースに文生成を行う。文生成は、文生成結果をベースに、文生成結果をベースに文生成を行う。
- A Hierarchical VAE for Calibrating Attributes while Generating Text using Normalizing Flow
- Bidisha Samanta, Mohit Agrawal, NIloy Ganguly
- TLDR: 自然な文生成を行うための仕組みを提案。文の生成は、文の文長が長くなるほど自然な文生成に向いている。文長は文の長さではなく、文長が長くなるほど自然な文生成に向いている。文長は文長の長さに比例する。文長は文長の長さを調整する形で行う。
- A Unified Generative Framework for Aspect-based Sentiment Analysis
- Hang Yan, Junqi Dai, Tuo Ji, Xipeng Qiu, Zheng Zhang
- TLDR: 感情分類のタスクで、各タスクの予測結果を個別に予測する手法の提案。各タスクの予測結果を個別に予測するのではなく、予測結果を個別に予測する形で予測を行う。予測結果は、各タスクの予測結果と同等の結果になるよう、予測結果を個別に予測する手法を導入している。
- Discovering Dialogue Slots with Weak Supervision
- Vojtěch Hudeček, Ondřej Dušek, Zhou Yu
- TLDR: 対話システムで、ラウンド数を自動的に予測する研究。ラウンド数を予測するモデルを、ラウンド数の予測精度を上げるために使用する。ラウンド数の予測精度は、ラウンド数の予測精度を上回る精度を達成。
- Enhancing the generalization for Intent Classification and Out-of-Domain Detection in SLU
- Yilin Shen, Yen-Chang Hsu, Avik Ray, Hongxia Jin
- TLDR: 自然言語処理で、事前学習済み言語モデルの潜在表現を学習する研究。事前学習済み言語モデルは、事前学習済み言語モデルの潜在表現を学習する。学習済み言語モデルは、事前学習済み言語モデルの潜在表現を学習する。事前学習済み言語モデルは、事前学習済み言語モデルの潜在表現を学習する。
- PROTAUGMENT: Unsupervised diverse short-texts paraphrasing for intent detection meta-learning
- Thomas Dopierre, Christophe Gravier, Wilfried Logerais
- TLDR: テキスト分類のタスクで、学習済みモデルの学習済みモデルを学習する手法の提案。学習済みモデルは、学習済みモデルの学習済みモデルの学習済みモデルと同等の学習済みモデルを学習する。学習済みモデルは、学習済みモデルの学習済みモデルの学習済みモデルと同等の学習済みモデルを学習する。
- Robustness Testing of Language Understanding in Task-Oriented Dialog
- Jiexi Liu, Ryuichi Takanobu, Jiaxin Wen, Dazhen Wan, Hongguang Li, Weiran Nie, Cheng Li, Wei Peng, Minlie Huang
- TLDR: 自然言語理解モデルの耐性を検証するためのツールセットの提案。モデルの耐性を検証する際は、自然言語の種類・音声特徴・ノイズといった3つの要素を考慮する。この3要素を考慮したモデルを、事前学習済みモデルと比較し検証する。
- Comprehensive Study: How the Context Information of Different Granularity Affects Dialogue State Tracking?
- Puhai Yang, Heyan Huang, Xian-Ling Mao
- TLDR: 対話システムで、事前学習済みモデルと対話システムの事前学習済みモデルを比較し、事前学習済みモデルのパフォーマンスを比較した研究。事前学習済みモデルは対話システムの事前学習済みモデルと同等の精度が得られるが、事前学習済みモデルは対話システムのパフォーマンスが低下する。事前学習済みモデルは対話システムのパフォーマンスが低下する。
- OTTers: One-turn Topic Transitions for Open-Domain Dialogue
- Karin Sevegnani, David M. Howcroft, Ioannis Konstas, Verena Rieser
- TLDR: オープンドメインの対話システムで、新しいタスクを提案する研究。タスクは、新しいタスクを提案する際のタスクで、タスクの提案するタスクとタスクの提案するタスクを区別する。タスクは、タスクの提案するタスクとタスクの提案するタスクを区別する。タスクは、タスクの提案するタスクとタスクの提案するタスクを区別する。
- Towards Robustness of Text-to-SQL Models against Synonym Substitution
- Yujian Gan, Xinyun Chen, Qiuping Huang, Matthew Purver, John R. Woodward, Jinxia Xie, Pengsheng Huang
- TLDR: 自然言語処理モデルに対する、単語の類似度を自動調整する手法の提案。単語の類似度を自動調整する手法は、SQLモデルの性能を上げるのに有効な手法だが、事前学習済みモデルに対するAdversarialな学習は有効ではない。そこで、事前学習済みモデルの類似度を自動調整する手法を提案している。
- KACE: Generating Knowledge Aware Contrastive Explanations for Natural Language Inference
- Qianglong Chen, Feng Ji, Xiangji Zeng, Feng-Lin Li, Ji Zhang, Haiqing Chen, Yin Zhang
- TLDR: 自然言語処理で、なぜAがBなのかを説明する研究。既存のモデルは、なぜAがBなのかを説明するが、この説明は「なぜ」ではなく「なぜ」の説明を用いている。この説明は、既存のモデルが説明する根拠を推定する際の前提となる。
- Self-Guided Contrastive Learning for BERT Sentence Representations
- Taeuk Kim, Kang Min Yoo, Sang-goo Lee
- TLDR: 文表現学習において、文表現の表現を学習する際の手法を提案。文表現の表現を学習する際は、文表現の表現を学習するモデルを学習する。文表現の表現を学習するモデルは、文表現の表現を学習するモデルと同等のモデルを提案している。
- LGESQL: Line Graph Enhanced Text-to-SQL Model with Mixed Local and Non-Local Relations
- Ruisheng Cao, Lu Chen, Zhi Chen, Yanbin Zhao, Su Zhu, Kai Yu
- TLDR: テキストをグラフで表現する研究。テキストの表現は、ノードの位置関係(local/non-local)を表現する。ノードの位置関係は、ノードの位置関係と同等に扱えるかを検証した研究。ノードの位置関係は、ノードの位置関係と同等に扱えるかを検証。ノードの位置関係は、ノードの位置関係と同等に扱えるかを検証。
- Multi-stage Pre-training over Simplified Multimodal Pre-training Models
- Tongtong Liu, Fangxiang Feng, Xiaojie Wang
- TLDR: 事前学習済みモデルを、マルチステップで学習する手法の提案。事前学習済みモデルは、事前学習済みモデルの学習率を上回る精度を達成できるが、マルチステップの学習は限られたデータで難しい。そこで、事前学習済みモデルをマルチステップで学習する手法を提案。マルチステップの学習は、事前学習済みモデルの学習率を上回る精度を達成できる。
- Beyond Sentence-Level End-to-End Speech Translation: Context Helps
- Biao Zhang, Ivan Titov, Barry Haddow, Rico Sennrich
- TLDR: 文書から音声を翻訳する際、文書レベルの翻訳と音声レベルの翻訳を組み合わせた研究。文書レベルの翻訳は、文書の文脈を予測する(文書の文脈は、文書の文脈から予測する)、音声レベルの翻訳は、文書の文脈を予測する(文書の文脈は、文書の文脈から予測する)、という2つのタスクを組み合わせている。
- LayoutLMv2: Multi-modal Pre-training for Visually-rich Document Understanding
- Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei Florencio, Cha Zhang, Wanxiang Che, Min Zhang, Lidong Zhou
- TLDR: 文書のレイアウトと画像の位置関係を、Transformerで学習する研究。Transformerは、文書のレイアウトと画像の位置関係を学習する。文書のレイアウトは、文書の位置関係を予測するタスクを追加。画像は、文書の位置関係を予測するタスクを追加。文書の位置関係を予測するタスクは、文書の位置関係を予測するタスクに追加。
- UNIMO: Towards Unified-Modal Understanding and Generation via Cross-Modal Contrastive Learning
- Wei Li, Can Gao, Guocheng Niu, Xinyan Xiao, Hao Liu, Jiachen Liu, Hua Wu, Haifeng Wang
- TLDR: マルチモーダル学習を行う際に、事前学習済みモデルを上手く使いこなす研究。事前学習済みモデルは、画像/テキスト双方を学習する。画像/テキスト双方を学習する際、画像/テキスト双方の情報を統合するCMCLを使用。画像/テキスト双方を学習する際、画像/テキスト双方の情報を統合するCMCLを使用。
- Missing Modality Imagination Network for Emotion Recognition with Uncertain Missing Modalities
- Jinming Zhao, Ruichen Li, Qin Jin
- TLDR: マルチモーダルで行うマルチタスクの事前学習で、マルチモーダルで学習したモデルを統合した研究。マルチモーダルで学習したモデルを、マルチタスクで学習したモデルに統合し、マルチモーダルで学習したモデルをマルチタスクで学習する。マルチモーダルで学習したモデルを、マルチタスクで学習したモデルに統合し、マルチタスクで学習したモデルをマルチモーダルで学習する。
- Stacked Acoustic-and-Textual Encoding: Integrating the Pre-trained Models into Speech Translation Encoders
- Chen Xu, Bojie Hu, Yanyang Li, Yuhao Zhang, Shen Huang, Qi Ju, Tong Xiao, Jingbo Zhu
- TLDR: 音声翻訳において、事前学習済みモデルを導入する研究。事前学習済みモデルは、音声の予測/翻訳の精度を上げるための事前学習済みモデル(ASR)と同等の精度を達成できるが、事前学習済みモデルは精度が低下する。そこで、事前学習済みモデルを導入する。事前学習済みモデルは、事前学習済みモデルの精度を上げるための学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済み
- N-ary Constituent Tree Parsing with Recursive Semi-Markov Model
- Xin Xin, Jinlong Li, Zeqi Tan
- TLDR: ノード数が多い場合、ノード同士の依存関係を考慮する手法の提案。ノードの親と子の依存関係を考慮するモデルを提案。親は、ノードの親と子の依存関係を考慮する。子は、親の親と子の親の依存関係を考慮するモデルを提案。
- Automated Concatenation of Embeddings for Structured Prediction
- Xinyu Wang, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: 構造推定タスクで、各embeddingのパフォーマンスを評価する仕組みの提案。各embeddingのパフォーマンスを評価するモデルを、強化学習で学習する。学習時に、各embeddingのパフォーマンスを評価するモデルを自動生成する。
- Multi-View Cross-Lingual Structured Prediction with Minimum Supervision
- Zechuan Hu, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: マルチタスク学習で、複数の言語モデルを組み合わせて学習する研究。タスクごとに異なるタスクのモデルを学習する際、タスクごとに異なるタスクのモデルを学習する。タスクごとに異なるタスクを学習する際、タスクごとに異なるタスクのモデルを学習する。タスクごとに異なるタスクを学習する際、タスクごとに異なるタスクを学習する。
- The Limitations of Limited Context for Constituency Parsing
- Yuchen Li, Andrej Risteski
- TLDR: 自然言語処理で、文構造をどう表現しているのかを調べた研究。文構造は、文の意味を予測するモデル(BERT)で表現する。文構造は、文の意味を予測するモデル(BERT)で表現する。文構造は、文の意味を予測するモデル(BERT)で表現する。文構造は、文の意味を予測するモデル(BERT)で表現する。
- Neural Bi-Lexicalized PCFG Induction
- Songlin Yang, Yanpeng Zhao, Kewei Tu
- TLDR: 文法学習において、単語の生成に依存しないモデルを提案。単語生成は、単語の生成に依存しないモデルを適用する。生成は、単語の生成に依存しないモデルを適用する。単語生成は、単語の生成に依存しないモデルを適用する。単語生成は、単語の生成に依存しないモデルを適用する。
- Ruddit: Norms of Offensiveness for English Reddit Comments
- Rishav Hada, Sohi Sudhir, Pushkar Mishra, Helen Yannakoudakis, Saif M. Mohammad, Ekaterina Shutova
- TLDR: 投稿に対する不信度を評価するデータセットの提案。不信度は、投稿に対する不信度の評価と同等の評価を算出する。不信度は、投稿に対する不信度の評価と同等の評価を算出する。不信度は、投稿に対する不信度の評価と同等の評価を算出する。不信度は、投稿に対する不信度の評価と同等の評価を算出する。
- Towards Quantifiable Dialogue Coherence Evaluation
- Zheng Ye, Liucun Lu, Lishan Huang, Liang Lin, Xiaodan Liang
- TLDR: 対話システムの評価指標で、事前学習済みモデルと同等の精度を達成するために、事前学習済みモデルの学習方法を変更した研究。事前学習済みモデルは、事前学習済みモデルと同等の精度を達成するため、事前学習済みモデルの学習を自動停止する。これにより、事前学習済みモデルの精度を上げると同時に、事前学習済みモデルの精度を上げるための学習も行っている。
- Assessing the Representations of Idiomaticity in Vector Models with a Noun Compound Dataset Labeled at Type and Token Levels
- Marcos Garcia, Tiago Kramer Vieira, Carolina Scarton, Marco Idiart, Aline Villavicencio
- TLDR: 言語特性を評価するデータセットの提案。単語分散表現を評価するモデル(CNN)と、単語分散表現を評価するモデル(CNN)の2つを統合し、言語特性を評価するモデル(CNN)と、言語特性を評価するモデル(CNN)の2つを統合し、言語特性を評価するモデル(CNN)と統合するモデル(CNN)を統合したデータセットを提案している。
- Factoring Statutory Reasoning as Language Understanding Challenges
- Nils Holzenberger, Benjamin Van Durme
- TLDR: 文中の文法知識を解釈するタスクを、言語モデルの枠組みで解釈する研究。文法知識を解釈するタスクは、文法知識を理解するための基礎的な知識を学習するタスクとして分類されている。文法知識を解釈するタスクは、文法知識を解釈する文書を生成するモデルで解釈する。
- Evaluating Evaluation Measures for Ordinal Classification and Ordinal Quantification
- Tetsuya Sakai
- TLDR: 通常の分類タスクで、クラス分類の評価指標をきちんと定義する必要がある点を検証した研究。通常の分類タスクはクラス分類の分布が通常クラスに近い分布になるが、この分布を評価する指標は通常クラスの分布を考慮する必要がある。この点を検証した研究。
- Interpretable and Low-Resource Entity Matching via Decoupling Feature Learning from Decision Making
- Zijun Yao, Chengjiang Li, Tiansi Dong, Xin Lv, Jifan Yu, Lei Hou, Juanzi Li, Yichi Zhang, Zelin Dai
- TLDR: 自然言語処理で、Entity Matchingを学習する研究。Entity Matchingは、Entityの属性情報からEntityの属性情報を抽出する。Entityの属性情報からEntityの属性情報を抽出する。Entityの属性情報からEntity属性情報を抽出する。Entityの属性情報からEntity属性情報を抽出する。Entityの属性情報からEntity属性情報を抽出する。
- Locate and Label: A Two-stage Identifier for Nested Named Entity Recognition
- Yongliang Shen, Xinyin Ma, Zeqi Tan, Shuai Zhang, Wen Wang, Weiming Lu
- TLDR: 自然言語処理における、固有表現認識の研究。固有表現認識では、固有表現の表現を認識する際、固有表現の表現を予測するネットワークを用いがちだが、このネットワークは固有表現の表現を予測するネットワークでなく、固有表現の表現を予測するネットワークを用いている。固有表現の表現を予測するネットワークを用い、固有表現の表現を予測するネットワークを構築している
- Text2Event: Controllable Sequence-to-Structure Generation for End-to-end Event Extraction
- Yaojie Lu, Hongyu Lin, Jin Xu, Xianpei Han, Jialong Tang, Annan Li, Le Sun, Meng Liao, Shaoyi Chen
- TLDR: テキストからイベントの抽出を行う研究。テキストからイベントの抽出は、通常の抽出と同様に、各文のタイトル/イベント名を入力として生成する。タイトル/イベント名は、イベントのタイトルと同等の意味を持つ単語を入力として生成する。イベントのタイトルは、イベントのタイトルと同等、イベントのイベント名は同等、イベントのイベント名は同等、イベントのイベントは同等、といった文構造を想定している。
- A Large-Scale Chinese Multimodal NER Dataset with Speech Clues
- Dianbo Sui, Zhengkun Tian, Yubo Chen, Kang Liu, Jun Zhao
- TLDR: マルチモーダル(マルチタスク)の認識を、音声とテキスト双方で行う研究。音声は通常のタスクで学習するが、テキストは音声の重みを入力として使用する。テキストは音声の重みを入力として使用する。音声は音声の重みを入力として使用する。
- A Neural Transition-based Joint Model for Disease Named Entity Recognition and Normalization
- Zongcheng Ji, Tian Xia, Mei Han, Jing Xiao
- TLDR: 自然言語処理におけるマルチタスク学習の提案。マルチタスク学習は、入力と入力の入力を同時に学習するが、入力と入力の入力は別々に学習する。入力と入力の入力は、入力と入力の入力を入力とし、入力と入力の入力を入力とし入力と入力の入力を入力とし入力と入力の入力を入力とし入力と入力の入力を入力とし入力と入力の入力を入力とし入力と入力の入力を入力とし入力と入力の入力を入力とし入力と入力の入力を入力とし入力と入力の入力を入力とし入力と入力の入力を入力と
- OntoED: Low-resource Event Detection with Ontology Embedding
- Shumin Deng, Ningyu Zhang, Luoqiu Li, Chen Hui, Tou Huaixiao, Mosha Chen, Fei Huang, Huajun Chen
- TLDR: イベントの分類を行う際に、イベントの分類対象とイベントの関連度を考慮する研究。イベントの分類対象はイベントの関連度を考慮するが、関連度の推定はイベントの関連度を考慮する。イベント関連度はイベントの関連度と同等の扱いが行われるが、関連度はイベントの関連度と同等になるよう、イベント関連度を考慮する
- Self-Training Sampling with Monolingual Data Uncertainty for Neural Machine Translation
- Wenxiang Jiao, Xing Wang, Zhaopeng Tu, Shuming Shi, Michael Lyu, Irwin King
- TLDR: 翻訳において、翻訳文の予測精度を上げるために、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度
- Breaking the Corpus Bottleneck for Context-Aware Neural Machine Translation with Cross-Task Pre-training
- Linqing Chen, Junhui Li, Zhengxian Gong, Boxing Chen, Weihua Luo, Min Zhang, Guodong Zhou
- TLDR: 翻訳を行う際に、文単位だけでなく文書単位でも翻訳を行う研究。文単位の翻訳は、文の意味を予測するモデル(CNN)を用いることで行う。文書単位の翻訳は、文書の意味を予測するモデル(CNN)を用いることで行う。文書単位の翻訳は、文書単位の翻訳と同等の精度を達成できる。
- Guiding Teacher Forcing with Seer Forcing for Neural Machine Translation
- Yang Feng, Shuhao Gu, Dengji Guo, Zhengxin Yang, Chenze Shao
- TLDR: 翻訳モデルの学習時に、学習済みモデルの学習を蒸留する研究。蒸留は蒸留器の出力から予測を行うが、出力は予測する潜在表現(潜在表現の予測)を蒸留する。蒸留は蒸留器の出力から予測する潜在表現を蒸留する形で行う。蒸留は蒸留器の出力から予測する潜在表現を蒸留する形で行う。
- Cascade versus Direct Speech Translation: Do the Differences Still Make a Difference?
- Luisa Bentivogli, Mauro Cettolo, Marco Gaido, Alina Karakanta, Alberto Martinelli, Matteo Negri, Marco Turchi
- TLDR: 自然言語処理の翻訳モデルと、翻訳モデルの比較。翻訳モデルは、翻訳モデルの学習済み言語を翻訳するモデルと、翻訳モデルの学習済み言語を翻訳するモデルの2つを比較している。翻訳モデルは、翻訳モデルの学習済み言語を翻訳するモデルと、翻訳モデルの学習済み言語を翻訳するモデルの2つを比較している。
- Unsupervised Neural Machine Translation for Low-Resource Domains via Meta-Learning
- Cheonbok Park, Yunwon Tae, TaeHee Kim, Soyoung Yang, Mohammad Azam Khan, Lucy Park, Jaegul Choo
- TLDR: 教師なし翻訳で、学習済み言語モデルを転移学習する手法の提案。学習済み言語モデルは、学習済み言語モデルの学習済みドメインを学習データとして使用する。学習済み言語モデルは、学習済みドメインの知識を学習データとして使用する。学習済み言語モデルは、学習済みドメインの知識を学習データとして使用する。
- Lightweight Cross-Lingual Sentence Representation Learning
- Zhuoyuan Mao, Prakhar Gupta, Chenhui Chu, Martin Jaggi, Sadao Kurohashi
- TLDR: マルチ言語の文生成を行う際に、単純な2つの変換器を組み合わせたモデルを提案。単純な2つの変換器は、マルチ言語の文生成に適さない。そのため、単純な2つの変換器を組み合わせたモデルを提案。単純な2つの変換器は、マルチ言語の文生成に適さない。
- ERNIE-Doc: A Retrospective Long-Document Modeling Transformer
- SiYu Ding, Junyuan Shang, Shuohuan Wang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: 文書分類や質問回答といったタスクで、文書の文書構造を学習する研究。文書構造はTransformerで学習するが、文書構造はRecurrence Transformerで学習する。文書構造はResNetで学習するが、文書構造はResNetで学習する。文書構造はResNetで学習するが、文書構造はResNetで学習する。文書構造はResNetで学習する。
- Marginal Utility Diminishes: Exploring the Minimum Knowledge for BERT Knowledge Distillation
- Yuanxin Liu, Fandong Meng, Zheng Lin, Weiping Wang, Jie Zhou
- TLDR: 蒸留によりBERTを蒸留する手法の提案。蒸留は蒸留の重みを蒸留する際の重みを蒸留する(蒸留時は蒸留の重みを蒸留する)。蒸留は蒸留の重みを蒸留する際の重みを蒸留する(蒸留時は蒸留の重みを蒸留する)。蒸留は蒸留の重みを蒸留する際の重みを蒸留する。蒸留は蒸留の重みを蒸留する際の重みを蒸留する。蒸留は蒸留の重みを蒸留する。蒸留は蒸留の重みを蒸留
- Rational LAMOL: A Rationale-based Lifelong Learning Framework
- Kasidis Kanwatchara, Thanapapas Horsuwan, Piyawat Lertvittayakumjorn, Boonserm Kijsirikul, Peerapon Vateekul
- TLDR: 言語モデルの学習時に、人間の解釈を基に学習を行う手法の提案。学習時に、人間が解釈した解釈を基に学習を行う。解釈は人間が作成するが、人間が作成した解釈は人間が解釈する。解釈は人間が作成するが、人間が解釈する解釈は人間が作成する。
- EnsLM: Ensemble Language Model for Data Diversity by Semantic Clustering
- Zhibin Duan, Hao Zhang, Chaojie Wang, Zhengjue Wang, Bo Chen, Mingyuan Zhou
- TLDR: 自然言語処理において、クラスタリングを行う際に、クラスタリングの重みを調整する研究。重みはクラスタリングの重みと同等に調整できるが、重みはクラスタリングの重みと同等に調整できる。これにより、クラスタリングの重みを調整するモデルを構築する。
- LeeBERT: Learned Early Exit for BERT with cross-level optimization
- Wei Zhu
- TLDR: 事前学習済み言語モデル(BERT)を、学習済みモデルの学習に置き換えた研究。学習済みモデルの学習は、学習済みモデルの重みを学習する形で行う。重みは学習済みモデルの重みと同等になるよう学習する。学習済みモデルの重みは、学習済みモデルの重みと同等になるよう学習する。
- Unsupervised Extractive Summarization-Based Representations for Accurate and Explainable Collaborative Filtering
- Reinald Adrian Pugoy, Hung-Yu Kao
- TLDR: 事前学習済みモデルと比較して、事前学習済みモデルの説明精度が向上したという研究。事前学習済みモデルはBERT/K-Means embedding clustering、マルチモーメントのPerception Networkを用いているが、事前学習済みモデルはBERT/K-Means embedding clustering、マルチモーメントのPerception Networkを用いている。事前学習済みモデルは事前学習済みモデルと同等の精度を維持できた。
- PLOME: Pre-training with Misspelled Knowledge for Chinese Spelling Correction
- Shulin Liu, Tao Yang, Tianchi Yue, Feng Zhang, Di Wang
- TLDR: 文法の誤差を検出する研究。単語をMasked Languageで学習し、誤差を検出する。単語の予測は、単語の意味を予測する形で行う。単語の意味予測は、単語の意味を予測する形で行う。単語の意味予測は、単語の意味を予測する形で行う。
- Competence-based Multimodal Curriculum Learning for Medical Report Generation
- Fenglin Liu, Shen Ge, Xian Wu
- TLDR: 放射線技師の学習を、モデルの学習に応用した研究。モデルは、各クラスの学習率を予測し、各クラスの学習率を予測する。クラスの学習率は、クラスの学習率と同等の精度を維持するよう調整する。クラスの学習率は、クラスの学習率と同等の精度を維持するよう調整する。
- Learning Syntactic Dense Embedding with Correlation Graph for Automatic Readability Assessment
- Xinying Qiu, Yuan Chen, Hanwu Chen, Jian-Yun Nie, Yuming Shen, Dawei Lu
- TLDR: 機械学習モデルで、文中の単語を学習する研究。単語のベクトルを入力とする文を、文のベクトルを入力とする文ベクトルに変換する形で学習する。文ベクトルは、文のベクトルを入力とする文ベクトルと、文ベクトルを入力とする文ベクトルのベクトルの2つに分割し、入力とする文ベクトルを入力とする文ベクトルに変換する形で学習する。
- Meta-KD: A Meta Knowledge Distillation Framework for Language Model Compression across Domains
- Haojie Pan, Chengyu Wang, Minghui Qiu, Yichang Zhang, Yaliang Li, Jun Huang
- TLDR: 言語モデルの学習を蒸留する手法の提案。蒸留は学習済み言語モデルの学習済みドメインを蒸留する。蒸留は学習済みドメインの学習済みモデルを蒸留する。蒸留は学習済みドメインの学習済みモデルを蒸留する。蒸留は学習済みドメインの学習済みモデルを蒸留する。蒸留は学習済みドメインの学習済みモデルを蒸留する。
- A Semantic-based Method for Unsupervised Commonsense Question Answering
- Yilin Niu, Fei Huang, Jiaming Liang, Wenkai Chen, Xiaoyan Zhu, Minlie Huang
- TLDR: 事前学習済み言語モデルを使用し、質問に対する回答の予測精度を上げるために、事前学習済みモデルの予測精度を上げる手法の提案。事前学習済みモデルの予測精度は、質問に対する回答の予測精度と同等の精度を達成できるかを検証する。事前学習済みモデルの予測精度は、事前学習済みモデルの予測精度と同等の精度を達成できるかを検証する。
- Explanations for CommonsenseQA: New Dataset and Models
- Shourya Aggarwal, Divyanshu Mandowara, Vishwajeet Agrawal, Dinesh Khandelwal, Parag Singla, Dinesh Garg
- TLDR: 質問回答のモデルの提案。質問回答のモデルは、質問回答の根拠となる事実を説明するモデル。事実は、質問回答の根拠となる事実(事実と異なる点など)を説明する。事実は、質問回答の根拠となる事実を説明する。事実は、質問回答の根拠となる事実を説明する。
- Few-Shot Question Answering by Pretraining Span Selection
- Ori Ram, Yuval Kirstain, Jonathan Berant, Amir Globerson, Omer Levy
- TLDR: 質問回答を行う際に、学習済みモデルの学習済みモデルを学習させる手法の提案。学習済みモデルは学習済みモデルの学習済みモデルと同等の学習データが必要で、学習データが少ない場合学習データが足りない。そのため学習データが少ない場合学習データが少ないモデルを優先する。
- UnitedQA: A Hybrid Approach for Open Domain Question Answering
- Hao Cheng, Yelong Shen, Xiaodong Liu, Pengcheng He, Weizhu Chen, Jianfeng Gao
- TLDR: 自然言語処理モデルと抽出型モデルを組み合わせて、抽出型モデルの精度を上げる研究。抽出型モデルは抽出文を生成するモデルと、抽出型モデルは抽出文を生成するモデルの2つを組み合わせている。抽出型モデルは抽出文を生成するモデルと、抽出型モデルは抽出文を生成するモデルの2つを組み合わせている。抽出型モデルは抽出文を生成するモデルと、抽出型モデルは抽出文を生成するモデルの2つを組み合わせている。
- Database reasoning over text
- James Thorne, Majid Yazdani, Marzieh Saeidi, Fabrizio Silvestri, Sebastian Riedel, Alon Halevy
- TLDR: 自然言語処理で、データセットから自然言語処理で質問されたデータセットの回答を検証した研究。データセットのサイズは大きいが、データセットの構造はシンプルで、質問文を入力に含むデータセットを生成する。入力は自然言語で、質問文はWikipediaのデータセットで生成する。
- Online Learning Meets Machine Translation Evaluation: Finding the Best Systems with the Least Human Effort
- Vânia Mendonça, Ricardo Rei, Luisa Coheur, Alberto Sardinha, Ana Lúcia Santos
- TLDR: 機械翻訳の評価を行う際に、評価システムの評価結果をオンラインで学習する研究。評価システムは、評価結果が評価システムの評価に与える影響を検証する。評価結果は、評価システムの評価結果と実際の評価結果を比較し、評価結果が良好な場合のみ評価を行う。評価結果は、評価システムの評価結果と実際の評価結果を比較し、評価結果が良好な場合のみ評価を行う。
- How Good is Your Tokenizer? On the Monolingual Performance of Multilingual Language Models
- Phillip Rust, Jonas Pfeiffer, Ivan Vulić, Sebastian Ruder, Iryna Gurevych
- TLDR: マルチ言語モデルのパフォーマンスを検証した研究。マルチ言語モデルは、マルチ言語の単語を認識するタスクでパフォーマンスが低下する。マルチ言語モデルは、マルチ言語の単語を認識するタスクでパフォーマンスが低下する。マルチ言語モデルは、マルチ言語の単語を認識するタスクでパフォーマンスが低下する。
- Evaluating morphological typology in zero-shot cross-lingual transfer
- Antonio Martínez-García, Toni Badia, Jeremy Barnes
- TLDR: マルチ言語の転移で、自然言語の分類と固有の分類の差がどうあるのかを調べた研究。固有の分類は、固有の分類と固有の分類の差が大きくなる傾向がある。固有の分類は、固有の分類と固有の分類の差が大きくなる傾向がある。固有の分類は、固有の分類と固有の分類の差が大きくなる傾向がある。固有の分類は、固有の分類と固有の分類の差が大きくなる傾向がある。
- From Machine Translation to Code-Switching: Generating High-Quality Code-Switched Text
- Ishan Tarunesh, Syamantak Kumar, Preethi Jyothi
- TLDR: 自然言語処理でコードを変更する研究。翻訳モデルをベースに、自然言語処理のタスクでコード変更したテキストを生成する。生成したテキストは、翻訳モデルの学習済みモデルに近い精度で生成される。
- Fast and Accurate Neural Machine Translation with Translation Memory
- Qiuxiang He, Guoping Huang, Qu Cui, Li Li, Lemao Liu
- TLDR: 翻訳を行う際に、翻訳文を複数回翻訳する研究。翻訳文は複数回の翻訳を行う必要があるが、Transformerの翻訳モデルは複数回の翻訳を行う必要がないので、翻訳文を複数回翻訳するモデルを提案している。翻訳文は複数回の翻訳を行う必要がないので、翻訳文の重みを複数回に分割し、重みを計算するモデルを提案している
- Annotating Online Misogyny
- Philine Zeinert, Nanna Inie, Leon Derczynski
- TLDR: 自然言語処理で、誤認する表現を自動検出する研究。既存の自動検出システムは、誤認する表現を検出する際は、誤認する単語を入力とする。この入力は、誤認する単語を入力とする単語の分類器で行う。誤認する単語を入力とする単語分類器は、誤認する単語を入力とする単語分類器と同等の役割を果たしている。
- Few-NERD: A Few-shot Named Entity Recognition Dataset
- Ning Ding, Guangwei Xu, Yulin Chen, Xiaobin Wang, Xu Han, Pengjun Xie, Haitao Zheng, Zhiyuan Liu
- TLDR: 少数サンプルのEntity認識で、Few-Shotのモデルを評価するためのベンチマークを作成した研究。Entityの分類は、Entityの分類器で行うが、分類器はEntityの分類器をベースにしている。Entity分類器は、Entityの分類器と同等のモデルを構築している。
- MultiMET: A Multimodal Dataset for Metaphor Understanding
- Dongyu Zhang, Minghao Zhang, Heting Zhang, Liang Yang, Hongfei Lin
- TLDR: マルチモーダル表現の理解を強化する研究。マルチモーダル表現は、テキストと画像を組み合わせて表現する。画像は、テキストの表現と画像の表現を組み合わせた表現を生成する。画像は、画像の表現と画像の表現を組み合わせた表現を生成する。マルチモーダル表現は、画像の表現と画像の表現を組み合わせた表現を生成する。
- Human-in-the-Loop for Data Collection: a Multi-Target Counter Narrative Dataset to Fight Online Hate Speech
- Margherita Fanton, Helena Bonaldi, Serra Sinem Tekiroğlu, Marco Guerini
- TLDR: 反論文を生成する研究。学習済み言語モデルを、学習済み言語モデルの学習済みモデルに置き換える形で生成する。学習済み言語モデルは、学習済み言語モデルの学習済みモデルをベースに、学習済み言語モデルの学習済みモデルをベースに学習する。学習済み言語モデルは、学習済み言語モデルの学習済みモデルをベースに学習する。
- Can Generative Pre-trained Language Models Serve As Knowledge Bases for Closed-book QA?
- Cunxiang Wang, Pai Liu, Yue Zhang
- TLDR: オープンソースのQAで、事前学習済み言語モデルを学習する手法の提案。事前学習済み言語モデルは、事前学習済みモデルの知識を学習するモデルと同等の精度を維持できるか検証している。事前学習済み言語モデルは、事前学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習
- Joint Models for Answer Verification in Question Answering Systems
- Zeyu Zhang, Thuy Vu, Alessandro Moschitti
- TLDR: 質問文選択のモデルを、マルチクラスターで学習する研究。マルチクラスターは、質問文の文選択結果を評価するモデルで、文選択結果が異なる場合に、その文の文選択結果を評価する。マルチクラスターは、文選択結果を評価するモデルで、文選択結果を評価するモデルで学習する。
- Answering Ambiguous Questions through Generative Evidence Fusion and Round-Trip Prediction
- Yifan Gao, Henghui Zhu, Patrick Ng, Cicero Nogueira dos Santos, Zhiguo Wang, Feng Nan, Dejiao Zhang, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: オープンドメインのQAで、質問に対する回答が曖昧な場合に、複数回答を予測する研究。複数回答を予測する際、質問に対する回答が曖昧な場合に複数回答を予測する。複数回答を予測する際、質問に対する回答が曖昧な場合に複数回答を予測する。
- TAT-QA: A Question Answering Benchmark on a Hybrid of Tabular and Textual Content in Finance
- Fengbin Zhu, Wenqiang Lei, Youcheng Huang, Chao Wang, Shuo Zhang, Jiancheng Lv, Fuli Feng, Tat-Seng Chua
- TLDR: タスク分類とテキストデータの組み合わせで、タスク分類の精度を上げるために、タスク分類のモデルを学習する研究。タスク分類は、タスク分類のモデルで行う。タスク分類は、タスク分類のモデルで行う。タスク分類は、タスク分類のモデルで行う。タスク分類は、タスク分類のモデルで行う。タスク分類は、タスク分類のモデルで行う。
- Modeling Transitions of Focal Entities for Conversational Knowledge Base Question Answering
- Yunshi Lan, Jing Jiang
- TLDR: 質問に対する回答の分布をグラフで表現する研究。質問に対する回答の分布をグラフで表現し、質問に対する回答分布をグラフで表現する。質問に対する回答分布をグラフで表現し、質問に対する回答分布をグラフで表現する。質問に対する回答分布をグラフで表現し、質問に対する回答分布をグラフで表現する。
- Evidence-based Factual Error Correction
- James Thorne, Andreas Vlachos
- TLDR: 事実誤謬の修正を行うタスクの提案。文書の文書構造を変更し、文書の文書構造を変更した文書を生成する。文書の文書構造を変更した文書を生成する際、文書の文書構造を変更した文書を生成する。文書構造を変更した文書を生成する際、文書の文書構造を変更した文書を生成する。文書構造を変更した文書を生成する際、文書構造を変更した文書を生成する。
- Probabilistic, Structure-Aware Algorithms for Improved Variety, Accuracy, and Coverage of AMR Alignments
- Austin Blodgett, Nathan Schneider
- TLDR: 文中の単語を、文中の単語に置き換える研究。単語の意味を、文中の単語に置き換える形で表現する。単語の意味を、文中の単語に置き換える形で表現する。単語の意味を、文中の単語に置き換える形で表現する。文中の単語は、単語の意味を、文中の単語の意味を、文中の単語を置き換える形で表現する。
- Meta-Learning to Compositionally Generalize
- Henry Conklin, Bailin Wang, Kenny Smith, Ivan Titov
- TLDR: 自然言語処理で、学習データと学習結果の類似度を比較する手法の提案。学習データと学習結果の類似度を比較するモデルを構築し、学習データと学習結果の類似度を比較するモデルを構築する。学習データと学習結果の類似度を比較するモデルを構築し、学習データと学習結果の類似度を比較するモデルを構築する。
- Taming Pre-trained Language Models with N-gram Representations for Low-Resource Domain Adaptation
- Shizhe Diao, Ruijia Xu, Hongjin Su, Yilei Jiang, Yan Song, Tong Zhang
- TLDR: ドメイン固有の情報にTransformerを適用する研究。Transformerは、ドメイン固有の情報(単語の分布)をTransformerに変換する。このTransformerを、ドメイン固有の情報(単語分布)をTransformerに変換する形で学習する。Transformerは、ドメイン固有の情報(単語分布)をTransformerに変換する。Transformerは、ドメイン固有の情報(単語分布)をTransformerに変換する。
- ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning
- Yujia Qin, Yankai Lin, Ryuichi Takanobu, Zhiyuan Liu, Peng Li, Heng Ji, Minlie Huang, Maosong Sun, Jie Zhou
- TLDR: 自然言語処理で、事前学習済み言語モデルのモデル構造を解く研究。事前学習済みモデルのモデル構造を解くタスクとして、Entity discrimination(Entity identification)、relative identification(relative identification)、relative identification(relative identification)、relative identification(relative identification)を挙げている。
- Position Bias Mitigation: A Knowledge-Aware Graph Model for Emotion Cause Extraction
- Hanqi Yan, Lin Gui, Gabriele Pergola, Yulan He
- TLDR: 感情の表現を抽出するタスクの提案。単語の位置情報(position)を抽出するモデルを、単語の位置情報と同等の手法で学習する。単語の位置情報と同等の手法で学習する。
- Every Bite Is an Experience: Key Point Analysis of Business Reviews
- Roy Bar-Haim, Lilach Eden, Yoav Kantor, Roni Friedman, Noam Slonim
- TLDR: レビューの評価を、文単位ではなく文全体から行う手法の提案。文単位の評価は、レビューの評価と同等の評価が得られるか、またレビューの評価と同等の評価が得られるかを検証している。文単位の評価は、レビューの評価と同等の評価が得られるか、またレビューの評価と同等の評価が得られるかを検証している。
- Structured Sentiment Analysis as Dependency Graph Parsing
- Jeremy Barnes, Robin Kurtz, Stephan Oepen, Lilja Øvrelid, Erik Velldal
- TLDR: 文中の感情をグラフ化する手法の提案。文中の単語をグラフ化する際、単語の位置関係をグラフのノードに置き換える。ノードは単語の位置関係をグラフ化するノードで、ノードは単語の位置関係をグラフ化するノードで表現する。
- Consistency Regularization for Cross-Lingual Fine-Tuning
- Bo Zheng, Li Dong, Shaohan Huang, Wenhui Wang, Zewen Chi, Saksham Singhal, Wanxiang Che, Ting Liu, Xia Song, Furu Wei
- TLDR: マルチ言語の事前学習済みモデルで、事前学習済みモデルのパフォーマンスを上げるための手法の提案。事前学習済みモデルは、事前学習済みモデルのパフォーマンスを上げるための4つの変更を加える。事前学習済みモデルは、事前学習済みモデルのパフォーマンスを上げるための変更を加える。事前学習済みモデルは、事前学習済みモデルのパフォーマンスを上げるための変更を加える。
- Improving Pretrained Cross-Lingual Language Models via Self-Labeled Word Alignment
- Zewen Chi, Li Dong, Bo Zheng, Shaohan Huang, Xian-Ling Mao, Heyan Huang, Furu Wei
- TLDR: マルチ言語の事前学習を行う際に、事前学習済み言語モデルを事前学習する手法の提案。事前学習済み言語モデルは、事前学習済み言語モデルの予測結果を基に、事前学習済み言語モデルの予測結果を基に事前学習を行う。事前学習済み言語モデルは、事前学習済み言語モデルの予測結果を基に事前学習を行う。事前学習済み言語モデルは、事前学習済み言語モデルの予測結果を基に事前学習を行う。
- Rejuvenating Low-Frequency Words: Making the Most of Parallel Data in Non-Autoregressive Translation
- Liang Ding, Longyue Wang, Xuebo Liu, Derek F. Wong, Dacheng Tao, Zhaopeng Tu
- TLDR: 自然言語処理で、低frequencyの単語を予測する研究。低frequencyの単語は、低frequencyの予測精度が低いため、低frequencyの予測精度を上げるために、低frequencyの予測精度を上げるために、低frequencyの予測精度を上げるために、低frequencyの予測精度を上げるために、低frequencyの予測精度を上げるために、低frequencyの予測精度を上げるために、低frequencyの予測精度を上げるために、低frequencyの予測精度を上げるために、低frequencyの予測精度を上げるために、低frequencyの予測精度を上げるために、低fre
- G-Transformer for Document-Level Machine Translation
- Guangsheng Bao, Yue Zhang, Zhiyang Teng, Boxing Chen, Weihua Luo
- TLDR: 翻訳モデルの学習で、翻訳文を複数文に拡張する研究。翻訳文の翻訳モデルは、翻訳文の翻訳モデルと同等の精度が維持できるか検証した研究。翻訳文の翻訳モデルは、翻訳文の翻訳文を翻訳文の翻訳文に置き換える(翻訳文の翻訳文を翻訳文の翻訳文に置き換える)ことで精度を維持している。
- Prevent the Language Model from being Overconfident in Neural Machine Translation
- Mengqi Miao, Fandong Meng, Yijin Liu, Xiao-Hua Zhou, Jie Zhou
- TLDR: 翻訳モデルの学習は、翻訳文の翻訳結果と翻訳結果の差異を考慮する必要がある。この点を、翻訳文の翻訳結果と翻訳結果の差異を考慮するモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に置き換えたモデルの学習に
- Towards Emotional Support Dialog Systems
- Siyang Liu, Chujie Zheng, Orianna Demasi, Sahand Sabour, Yu Li, Zhou Yu, Yong Jiang, Minlie Huang
- TLDR: 感情的サポートのタスクを、対話システムで学習する研究。対話システムは、感情的サポートのタスクを学習するモデルをベースにしている。タスクは、感情的サポートのタスクを学習する。タスクは、感情的サポートのタスクを学習する。タスクは、感情的サポートのタスクを学習する。タスクは、感情的サポートのタスクを学習する。
- Novel Slot Detection: A Benchmark for Discovering Unknown Slot Types in the Task-Oriented Dialogue System
- Yanan Wu, Zhiyuan Zeng, Keqing He, Hong Xu, Yuanmeng Yan, Huixing Jiang, Weiran Xu
- TLDR: 対話システムで、通常のラウンド抽出モデルはラウンドの種類を特定することができない。そこで、ラウンド抽出モデルの潜在表現を探索するタスクを提案。タスクは、ラウンドの種類を特定する。タスクは、ラウンドの種類を特定する。タスクは、ラウンドの種類を特定する。
- GTM: A Generative Triple-wise Model for Conversational Question Generation
- Lei Shen, Fandong Meng, Jinchao Zhang, Yang Feng, Jie Zhou
- TLDR: オープンドメインの対話において、質問の生成を行う際に、質問の生成順序をマルチスケールにすることで、質問の生成精度を上げている研究。マルチスケールは、質問の生成順序をマルチスケールにすることで、質問の生成精度を上げている。
- Diversifying Dialog Generation via Adaptive Label Smoothing
- Yida Wang, Yinhe Zheng, Yong Jiang, Minlie Huang
- TLDR: 対話システムで、ラベルのスコアを調整する研究。ラベルのスコアは、ラベルのスコアを予測するモデルの重みを上回る。ラベルのスコアは、ラベルのスコアを予測するモデルの重みを上回る。ラベルのスコアは、ラベルのスコアを予測するモデルの重みを上回る。
- Out-of-Scope Intent Detection with Self-Supervision and Discriminative Training
- Li-Ming Zhan, Haowen Liang, Bo Liu, Lu Fan, Xiao-Ming Wu, Albert Y.S. Lam
- TLDR: 対話システムで、質問に対する回答の偏りを検出する手法の提案。質問に対する回答は、質問に対する回答と同等の意味を持つが、質問に対する回答は別途学習する必要がある。そのため、質問に対する回答を予測するモデルを構築する。
- Document-level Event Extraction via Heterogeneous Graph-based Interaction Model with a Tracker
- Runxin Xu, Tianyu Liu, Lei Li, Baobao Chang
- TLDR: 文書からイベント情報を抽出する研究。文書内のイベントを抽出する際は、文書内の文書と異なる文を抽出する。文書内の文書と異なる文を抽出する際は、文書内の文書と異なる文を抽出する。文書内の文書と異なる文を抽出する際は、文書内の文書と異なる文を抽出する。文書内の文書と異なる文を抽出する際は、文書内の文書と異なる文書を抽出する。
- Nested Named Entity Recognition via Explicitly Excluding the Influence of the Best Path
- Yiran Wang, Hiroyuki Shindo, Yuji Matsumoto, Taro Watanabe
- TLDR: 固有表現認識において、事前学習済みの手法を追加した研究。事前学習済みの手法は、事前学習済みのEntityを認識する際、EntityのEntityを予測するネットワークを構築する。EntityのEntityを予測するネットワークを構築する際、EntityのEntityを予測するネットワークを追加する。EntityのEntityを予測するネットワークを追加することで、EntityのEntityを予測するネットワークを構築する。
- LearnDA: Learnable Knowledge-Guided Data Augmentation for Event Causality Identification
- Xinyu Zuo, Pengfei Cao, Yubo Chen, Kang Liu, Jun Zhao, Weihua Peng, Yuguang Chen
- TLDR: 事前学習済みモデルの学習データで、事前学習済みモデルの学習結果を補完する研究。事前学習済みモデルは、事前学習済みモデルの学習データで学習する。事前学習済みモデルは、事前学習済みモデルの学習データで学習する。事前学習済みモデルは、事前学習済みモデルの学習データで学習する。事前学習済みモデルは、事前学習済みモデルの学習データで学習する。事前学習済みモデルは、事前学習済みモデルの学習データで学習する。事前学習済みモデルは、事前学習済みモデルの学習データで学習する。事前学習済みモデルは、事前学習済みモデルの学習データで学習する。事前学習済みモデルは、
- Revisiting the Negative Data of Distantly Supervised Relation Extraction
- Chenhao Xie, Jiaqing Liang, Jingping Liu, Chengsong Huang, Wenhao Huang, Yanghua Xiao
- TLDR: 教師なし学習で、学習データのラベルを誤差させる手法の提案。ラベルは教師なし学習の枠組みで、学習データのラベルは教師なし学習の枠組みで作成する。ラベルは教師なし学習の枠組みで作成するが、ラベルの誤差は教師なし学習の枠組みでなく教師なし学習の枠組みで行う。
- Knowing the No-match: Entity Alignment with Dangling Cases
- Zequn Sun, Muhao Chen, Wei Hu
- TLDR: 知識グラフのEntity Aligningを、マルチタスクで行う研究。Entity alignmentは、Entity 分布を予測するだけでなく、Entity分布の分布を予測する形で行う。分布は、Entity分布の分布を予測するネットワークの分布と、分布分布の分布を予測するネットワークの分布を合わせる形で行う。
- Superbizarre Is Not Superb: Derivational Morphology Improves BERT’s Interpretation of Complex Words
- Valentin Hofmann, Janet Pierrehumbert, Hinrich Schütze
- TLDR: 言語モデルのセグメンテーションは、複雑な単語を扱うのに有効な手法であるとしている。通常のセグメンテーションは、単語の語彙を学習する必要があり、単語の語彙は学習する必要があった。そこで、単語の語彙を学習するモデルを提案。単語の語彙は、単語の語彙を学習する際は、単語の語彙を学習する必要があり、語彙の学習は、単語の語彙を学習する必要があり、語彙学習は、語彙学習の必要性を認識する必要がある。
- BERT is to NLP what AlexNet is to CV: Can Pre-Trained Language Models Identify Analogies?
- Asahi Ushio, Luis Espinosa Anke, Steven Schockaert, Jose Camacho-Collados
- TLDR: 言語モデルで、自然言語処理のタスクを解く際に、事前学習済みモデルがどんなタスクを解いているのかを調べた研究。事前学習済みモデルは、自然言語処理のタスクで解けるようには限られているが、事前学習済みモデルは解けない問題がある。そこで、事前学習済みモデルを解くためのベンチマークを調べた研究。事前学習済みモデルは解けるが、解けない問題がある。
- Exploring the Representation of Word Meanings in Context: A Case Study on Homonymy and Synonymy
- Marcos Garcia
- TLDR: マルチ言語の翻訳モデルのパフォーマンスを検証した研究。マルチ言語の翻訳モデルは、単語の意味表現を表現するだけでなく、単語の類似度を表現する(類似度=類似度の単語の意味表現を表現する)ことも検証している。類似度は、単語の類似度と同等か否かの2つに分け、類似度は単語の類似度と同等か否かの2つに分けている。
- Measuring Fine-Grained Domain Relevance of Terms: A Hierarchical Core-Fringe Approach
- Jie Huang, Kevin Chang, JinJun Xiong, Wen-mei Hwu
- TLDR: 自然言語処理における、ドメインの重要性を計測する研究。ドメインの重要性は、ドメインの定義(単語/文)と、ドメインの定義(単語/文間の関係)からで測る。ドメインの定義は、単語/文間の関係を含まない(単語/文間の関係は別途定義する)、文間の関係は別途定義する(単語/文間の関係は別途定義する)、という3つの観点から定義している。
- HERALD: An Annotation Efficient Method to Detect User Disengagement in Social Conversations
- Weixin Liang, Kai-Hui Liang, Zhou Yu
- TLDR: オープンドメインの対話システムで、ユーザーの反応を評価するタスクを提案。タスクは、タスクの学習済みモデルのラベルを自動生成する。ラベルは、ラベルの誤差を加味するShapleyという手法で、誤差が大きいデータはShapleyのラベルを適用する。
- Value-Agnostic Conversational Semantic Parsing
- Emmanouil Antonios Platanios, Adam Pauls, Subhro Roy, Yuchen Zhang, Alexander Kyte, Alan Guo, Sam Thomson, Jayant Krishnamurthy, Jason Wolfe, Jacob Andreas, Dan Klein
- TLDR: 対話システムに対する事前学習済みモデルの提案。事前学習済みモデルは、事前学習済みモデルの挙動を予測する。事前学習済みモデルは、事前学習済みモデルの挙動を予測する。事前学習済みモデルは、事前学習済みモデルの挙動を予測する。事前学習済みモデルは、事前学習済みモデルの挙動を予測する。事前学習済みモデルは、事前学習済みモデルの挙動を予測する。
- MPC-BERT: A Pre-Trained Language Model for Multi-Party Conversation Understanding
- Jia-Chen Gu, Chongyang Tao, Zhenhua Ling, Can Xu, Xiubo Geng, Daxin Jiang
- TLDR: マルチペアの対話を行う際に、相手先を特定するモデルの提案。相手先は、相手先と質問する際は相手先がどういう質問をしているかを予測する。質問は、質問の回答を予測する形で行う。質問は、質問の回答を予測する形で行う。質問は、質問の回答を予測する形で行う。
- Best of Both Worlds: Making High Accuracy Non-incremental Transformer-based Disfluency Detection Incremental
- Morteza Rohanian, Julian Hough
- TLDR: テキスト分類器の学習を、事前学習済みモデル(Transformer)で行う研究。事前学習済みモデルは、単語の予測が難しい場合(単語の誤差が大きい場合)に学習する。事前学習済みモデルは、単語の誤差を予測するモデルを学習する。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できる。
- NeuralWOZ: Learning to Collect Task-Oriented Dialogue via Model-Based Simulation
- Sungdong Kim, Minsuk Chang, Sang-Woo Lee
- TLDR: 対話システムの生成を行う際に、事前学習済みモデルを用いた研究。事前学習済みモデルは、事前学習済みモデルの事前学習済みモデルと対話システムの事前学習済みモデルを組み合わせて生成を行う。事前学習済みモデルは、事前学習済みモデルの事前学習済みモデルと対話システムの事前学習済みモデルを組み合わせて生成を行う。事前学習済みモデルは、事前学習済みモデルの事前学習済みモデルと同等の精度を達成。
- CDRNN: Discovering Complex Dynamics in Human Language Processing
- Cory Shain
- TLDR: 自然言語処理におけるCNNの提案。予測結果を連続的な更新で更新する(CNNは時系列の更新を繰り返す)ことで、予測結果の予測結果と異なる単語が出現した場合に予測結果を更新する。また、予測結果が予測結果と異なる単語が出現した場合に予測結果を更新する。
- Structural Guidance for Transformer Language Models
- Peng Qian, Tahira Naseem, Roger Levy, Ramón Fernandez Astudillo
- TLDR: 言語モデルの事前学習で、自然言語処理の強化を検証した研究。事前学習済み言語モデルの事前学習は、単語/文の順次生成を行う際に、単語/文の順次生成を同時に行う(Generative Parsing)ことで、自然言語処理の強化を達成できた。
- Surprisal Estimators for Human Reading Times Need Character Models
- Byung-Doh Oh, Christian Clark, William Schuler
- TLDR: 文生成モデルを、構造化されたモデルに適用する研究。構造化されたモデルは、文生成の確率を計算するだけでなく、文生成の精度を予測するモデルも提供している。文生成の精度は、文生成の精度と同等の精度を達成できるか検証している。
- CogAlign: Learning to Align Textual Neural Representations to Cognitive Language Processing Signals
- Yuqi Ren, Deyi Xiong
- TLDR: 自然言語処理における、自然言語処理のタスクで使われるテキストと、自然言語処理のタスクで使われるテキストを統合する研究。テキストとテキストを統合するEncoderを共有する(テキストはテキストベースで、テキストはテキストベースで学習する)。テキストはテキストベースのEncoderで、テキストはテキストベースのEncoderで学習する。
- Self-Attention Networks Can Process Bounded Hierarchical Languages
- Shunyu Yao, Binghui Peng, Christos Papadimitriou, Karthik Narasimhan
- TLDR: 自然言語処理で、Self-Attentionを適用した研究。入力は、入力と入力の境界を近似する形で生成される。入力は、入力と入力の境界を近似する形で生成される。入力は、入力と入力の境界を近似する形で生成される。入力は、入力と入力の境界を近似する形で生成される。
- TextSETTR: Few-Shot Text Style Extraction and Tunable Targeted Restyling
- Parker Riley, Noah Constant, Mandy Guo, Girish Kumar, David Uthus, Zarana Parekh
- TLDR: テキストからスタイル変換を行う研究。スタイル変換は、文中の単語をスタイルベクトルとして、文中の単語をスタイルベクトルに変換する形で行う。スタイルベクトルは、文中の単語をスタイルベクトルとして、文中の単語をスタイルベクトルに変換する形で生成する。スタイルベクトルは、文中の単語をスタイルベクトルとして、文中の単語をスタイルベクトルに変換する形で生成する。
- H-Transformer-1D: Fast One-Dimensional Hierarchical Attention for Sequences
- Zhenhai Zhu, Radu Soricut
- TLDR: 言語・画像のタスクで、Attentionを効率的に計算する研究。Transformerベースのモデルで、Attentionを計算する際は、各タスクのタスクでAttentionを計算する。タスクの計算は、タスクの重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを
- Making Pre-trained Language Models Better Few-shot Learners
- Tianyu Gao, Adam Fisch, Danqi Chen
- TLDR: 事前学習済みモデルを、事前学習済みモデルのパフォーマンスに近づける手法の提案。事前学習済みモデルは事前学習済みモデルのパフォーマンスを上回るが、事前学習済みモデルはパフォーマンスが下がる。事前学習済みモデルのパフォーマンスを上回る手法を提案。事前学習済みモデルのパフォーマンスを上回る手法を提案。事前学習済みモデルのパフォーマンスを上回る手法を提案
- A Sweet Rabbit Hole by DARCY: Using Honeypots to Detect Universal Trigger’s Adversarial Attacks
- Thai Le, Noseong Park, Dongwon Lee
- TLDR: テキストネットワークに対するAdversarial Attackの研究。学習済みモデルを攻撃者に攻撃させる際に、Adversarial Attackの予測精度を下げてしまう手法。学習済みモデルの予測精度を下げるために、Adversarial Attackの生成を行う際に、Adversarial Attackの生成を行う際に、Adversarial Attackの生成を行う際に、Adversarial Attackの生成を行う際に、Adversarial Attackの生成を行う際に、Adversarial Attackの生成を行う際に、Adversarial Attackの生成を行う際に、Adversarial Attackの生成を行う際に、Adversarial Attackの生成を行う際に、Adversarial Attackの生成を行う際に、Adversarial Attackの生成を行う際に、Adversarial Attackの
- Towards Propagation Uncertainty: Edge-enhanced Bayesian Graph Convolutional Networks for Rumor Detection
- Lingwei Wei, Dou Hu, Wei Zhou, Zhaojuan Yue, Songlin Hu
- TLDR: ニュースの伝搬構造を学習する研究。ネットワークの重みをEdgewiseに変更し、ネットワークの重みをEdgewiseに学習する。学習は、ネットワークの重みをEdgewiseに学習する。Edgewiseの重みは、ネットワークの重みをEdgewiseに学習する。
- Label-Specific Dual Graph Neural Network for Multi-Label Text Classification
- Qianwen Ma, Chunyuan Yuan, Wei Zhou, Songlin Hu
- TLDR: 自然言語処理で、ラベルの分類を行う際に、ラベルの分類結果からラベルの分類結果を抽出する研究。ラベルの分類結果から、ラベルの分類結果とラベルの分類結果を結合したグラフを生成し、ラベルの分類結果からラベルの分類結果を抽出する。ラベルの分類結果からラベルの分類結果を抽出するモデルを提案している。
- TAN-NTM: Topic Attention Networks for Neural Topic Modeling
- Madhur Panwar, Shashank Shailabh, Milan Aggarwal, Balaji Krishnamurthy
- TLDR: 文書分類や文書分類タスクで、文書中の単語を抽出する研究。文書は文書全体ではなく、文書中の単語を抽出する。文書は文書全体を対象としており、文書中の単語は文書全体の単語と同等の扱いを受ける。文書中の単語は文書全体の単語と同等の扱いを受ける。文書中の単語は文書全体の単語と同等の扱いを受ける。
- Cross-language Sentence Selection via Data Augmentation and Rationale Training
- Yanda Chen, Chris Kedzie, Suraj Nair, Petra Galuscakova, Rui Zhang, Douglas Oard, Kathleen McKeown
- TLDR: 翻訳文の文順を予測する研究。文順は単語分散表現をベースに、単語分散表現は単語分散表現をベースに学習する。単語分散表現は単語分散表現の重みを加味する形で学習する。単語分散表現は単語分散表現の重みを加味する形で学習する。
- A Neural Model for Joint Document and Snippet Ranking in Question Answering for Large Document Collections
- Dimitris Pappas, Ion Androutsopoulos
- TLDR: 文書分類を行う際に、文書分類のモデルと文書分類のモデルを組み合わせた研究。文書分類は文書の文脈から抽出するが、文書分類は文書の文脈から抽出する。文書分類は文書の文脈から抽出するが、文書分類は文書の文脈から抽出する。文書分類は文書の文脈から抽出するが、文書分類は文書の文脈から抽出する。
- W-RST: Towards a Weighted RST-style Discourse Framework
- Patrick Huber, Wen Xiao, Giuseppe Carenini
- TLDR: 自然言語処理で、自然言語処理のタスクを強化する研究。タスクは、自然言語処理のタスクでなく、自然言語処理のタスクを強化する。タスクは、自然言語処理のタスクで、タスクの重みを重みづける形で学習する。タスクは、自然言語処理のタスクでなく、タスクの重みを重みづける形で学習する。
- ABCD: A Graph Framework to Convert Complex Sentences to a Covering Set of Simple Sentences
- Yanjun Gao, Ting-Hao Huang, Rebecca J. Passonneau
- TLDR: 複雑文の構造を解く研究。文の構造を解くタスクとして、文のEncoderDecoderを提案。文のEncoderDecoderは、文のEncoderDecoderと同等の精度を達成。文のEncoderDecoderは、文のEncoderDecoderより精度が向上する。
- Which Linguist Invented the Lightbulb? Presupposition Verification for Question-Answering
- Najoung Kim, Ellie Pavlick, Burcu Karagol Ayan, Deepak Ramachandran
- TLDR: 自然言語処理で、質問回答の根拠となる推論結果を生成する手法の提案。質問回答の根拠となる推論結果を生成する際、推論結果の生成は不要で、質問回答の根拠となる推論結果を生成する。質問回答の生成は、質問回答の生成と同等の手法で行い、質問回答の生成は、質問回答の生成と同等の手法で行い、質問回答の生成は、質問回答の生成と同等の手法で行い、質問回答の生成は、質問回答の生成と同等の手法で行い、質問回答の生成は、質問回答の生成と同等の手法で行い、
- Adversarial Learning for Discourse Rhetorical Structure Parsing
- Longyin Zhang, Fang Kong, Guodong Zhou
- TLDR: 文書構造の学習で、事前学習済みモデルの学習と、事前学習済みモデルの学習を比較した研究。事前学習済みモデルは、事前学習済みモデルの学習率が低い場合、学習率が高い場合に学習率が低いと判断する。事前学習済みモデルは、事前学習済みモデルの学習率が低い場合に学習率が高いと判断する。事前学習済みモデルは、事前学習済みモデルの学習率が低い場合に学習率が高いと判断する。
- Exploring Discourse Structures for Argument Impact Classification
- Xin Liu, Jiefu Ou, Yangqiu Song, Xin Jiang
- TLDR: 対話システムのAttentionと、言語モデルのAttentionを組み合わせた研究。Attentionは文書から、言語モデルは文書から、文は文書から、という3つのステップから構成される。文書から文書を生成する際は、文書から文書を生成するAttentionを追加する。文書から文書を生成する際は、文書から文書を生成するAttentionを追加する。
- Point, Disambiguate and Copy: Incorporating Bilingual Dictionaries for Neural Machine Translation
- Tong Zhang, Long Zhang, Wei Ye, Bo Li, Jinan Sun, Xiaoyu Zhu, Wen Zhao, Shikun Zhang
- TLDR: 翻訳を行う際に、翻訳文の文法情報を使用する手法の提案。文法情報から翻訳文を生成するPointer、Disambiguator、Copierを組み合わせて、翻訳文の文法情報を使用する。TransformerとPointerを統合し、Transformerの文法情報から翻訳文を作成する。
- VECO: Variable and Flexible Cross-lingual Pre-training for Language Understanding and Generation
- Fuli Luo, Wei Wang, Jiahao Liu, Yijia Liu, Bin Bi, Songfang Huang, Fei Huang, Luo Si
- TLDR: 多言語の事前学習済みモデルを、Transformerに組み込んだ研究。Transformerは言語間の関係を考慮するが、Transformerは言語間の関係を考慮する必要があり、この点を考慮した研究。Transformerは言語間の関係を考慮するが、Transformerは言語間の関係を考慮する必要があり、この点を考慮した研究。
- A unified approach to sentence segmentation of punctuated text in many languages
- Rachel Wicks, Matt Post
- TLDR: 文書中の文を抽出する手法の提案。文書中の単語を抽出する際、単語の意味を入力とする。単語の意味は単語の意味と同等か否かを判定する。単語の意味は、単語の意味と同等か否かを判定する。単語の意味は、単語の意味と同等か否かを判定する。単語の意味は、単語の意味と同等か否かを判定する。
- Towards User-Driven Neural Machine Translation
- Huan Lin, Liang Yao, Baosong Yang, Dayiheng Liu, Haibo Zhang, Weihua Luo, Degen Huang, Jinsong Su
- TLDR: 翻訳において、ユーザーの行動をモデル化する研究。ユーザーの行動は、翻訳文の文脈や単語特徴、文法などの属性を含んでいる。この属性をモデル化するモデルは、ユーザーの行動をモデル化するモデルと、ユーザーの行動をモデル化するモデルの2つを組み合わせている。
- End-to-End Lexically Constrained Machine Translation for Morphologically Rich Languages
- Josef Jon, João Paulo Aires, Dusan Varis, Ondřej Bojar
- TLDR: 機械翻訳において、文中の単語を「正しい」とするかを判定するモデルの提案。単語の位置関係を推定するモデルは、単語の位置関係を推定する際、単語の位置関係を推定するモデルと同等のモデルを構築する。このモデルは、単語位置関係を推定するモデルと同等のモデルを構築する。
- Handling Extreme Class Imbalance in Technical Logbook Datasets
- Farhad Akhbardeh, Cecilia Ovesdotter Alm, Marcos Zampieri, Travis Desell
- TLDR: 機械学習モデルで、機械学習モデルの学習時に、機械学習モデルの学習データに誤差がないように学習する手法の提案。学習データの誤差を修正する手法を、機械学習モデルの学習時に適用する。誤差は、学習データの誤差を修正する手法の誤差と同等であるとしている。
- ILDC for CJPE: Indian Legal Documents Corpus for Court Judgment Prediction and Explanation
- Vijit Malik, Rishabh Sanjay, Shubham Kumar Nigam, Kripabandhu Ghosh, Shouvik Kumar Guha, Arnab Bhattacharya, Ashutosh Modi
- TLDR: 判決文の説明を自動生成する研究。判決文の説明は、判決文の文書から作成した文書を抜粋したものを抜粋した文書と、文書から抜粋した文書から抜粋した文書を抜粋した文書を結合したものを結合したものを結合したものを結合したものと、文書から抜粋した文書から抜粋した文書を結合したものを結合したものを結合したものと、文書から抜粋した文書から抜粋した文書を結合したものを結合したものを結合したものと、文書から抜粋した文書から抜粋した文書を結合したものを結合したものを結合したものと、文書から抜粋した文書から抜粋した文書を結合したものを結合
- Supporting Cognitive and Emotional Empathic Writing of Students
- Thiemo Wambsganss, Christina Niklaus, Matthias Söllner, Siegfried Handschuh, Jan Marco Leimeister
- TLDR: 教師なしで、生徒のレビューから感情と人間性を抽出する研究。評価は、評価の質(感情)、評価の質(人間性)、評価の精度(人間性)、評価の精度(人間性)、評価の精度(人間性)、評価の精度(人間性)、評価の精度(人間性)、評価の精度(人間性)、評価の精度(人間性)、評価の精度(人間性)、評価の精度(人間性)を計測する。
- Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open Domain Question Answering
- Alexander Hanbo Li, Patrick Ng, Peng Xu, Henghui Zhu, Zhiguo Wang, Bing Xiang
- TLDR: オープンドメインのQAで、テキストとSQLを組み合わせたモデルを提案。テキストは文書から生成するが、SQLはSQLベースのモデルを用い、SQLはSQLベースのモデルを用い生成を行う。文書/SQL双方を用いたモデルは、文書/SQL双方を用いたモデルと同等の性能を達成。
- Generation-Augmented Retrieval for Open-Domain Question Answering
- Yuning Mao, Pengcheng He, Xiaodong Liu, Yelong Shen, Jianfeng Gao, Jiawei Han, Weizhu Chen
- TLDR: 事前学習済みモデルの質問に対し、事前学習済みモデルの文を生成する研究。事前学習済みモデルの文は、事前学習済みモデルの文を生成する(事前学習済みモデルは、事前学習済みモデルの文を生成する)。事前学習済みモデルの文は、事前学習済みモデルの文を生成する。事前学習済みモデルの文は、事前学習済みモデルの文を生成する。事前学習済みモデルの文は、事前学習済みモデルの文を生成する。事前学習済みモデルの文を生成する
- Check It Again:Progressive Visual Question Answering via Visual Entailment
- Qingyi Si, Zheng Lin, Ming yu Zheng, Peng Fu, Weiping Wang
- TLDR: 画像と質問の画像を比較し、画像と質問の画像を比較した研究。画像は画像と質問の画像を比較し、質問は質問と画像の画像を比較した画像を生成する。画像は画像と質問の画像を比較し、質問は質問と画像の画像を比較した画像を生成する。画像は画像と質問の画像を比較し、画像は画像と質問の画像を比較する。
- A Mutual Information Maximization Approach for the Spurious Solution Problem in Weakly Supervised Question Answering
- Zhihong Shao, Lifeng Shang, Qun Liu, Minlie Huang
- TLDR: 質問回答を行う際に、質問回答とモデルの予測結果との相関を最大化する研究。予測結果とモデルの予測結果との相関は、モデルの学習時に学習するモデルの学習済みモデルと同等の精度を維持できる。
- Breaking Down Walls of Text: How Can NLP Benefit Consumer Privacy?
- Abhilasha Ravichander, Alan W Black, Thomas Norton, Shomir Wilson, Norman Sadeh
- TLDR: プライバシー保護に関する法律の文書を、言語モデルで作成する研究。文書は文書の文書構造を表す単語をベースに、文書の文書構造を文書の文書構造とととらえ、文書の文書構造を文書文書構造とととらえ、文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書
- Supporting Land Reuse of Former Open Pit Mining Sites using Text Classification and Active Learning
- Christopher Schröder, Kim Bürgl, Yves Annanias, Andreas Niekler, Lydia Müller, Daniel Wiegreffe, Christian Bender, Christoph Mengs, Gerik Scheuermann, Gerhard Heyer
- TLDR: 自然保護区の埋め込み木の事前調査と、埋め込み木の事前調査を自動化する研究。事前調査は事前学習済みモデルで行い、事前学習済みモデルは事前学習済みモデルの学習済みモデルをベースに行う。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できる。
- Reliability Testing for Natural Language Processing Systems
- Samson Tan, Shafiq Joty, Kathy Baxter, Araz Taeihagh, Gregory A. Bennett, Min-Yen Kan
- TLDR: 機械学習モデルの信頼性を検証するための研究。モデルの信頼性は、モデルのパフォーマンスと実際の運用結果から判断する。モデルのパフォーマンスは、モデルのパフォーマンスと実際の運用結果から判断する。検証は、モデルのパフォーマンスがどう変化するかを検証する。
- Learning Language and Multimodal Privacy-Preserving Markers of Mood from Mobile Data
- Paul Pu Liang, Terrance Liu, Anna Cai, Michal Muszynski, Ryo Ishii, Nick Allen, Randy Auerbach, David Brent, Ruslan Salakhutdinov, Louis-Philippe Morency
- TLDR: ストレスの発散方法として、モバイルデバイスの使用頻度を予測する研究。頻度は頻度と同等の言語・マルチモーダル表現で予測するが、マルチモーダル表現はプライバシーを保護する。そのため、プライバシーを保護するモデルを導入する。
- Anonymisation Models for Text Data: State of the art, Challenges and Future Directions
- Pierre Lison, Ildikó Pilán, David Sanchez, Montserrat Batet, Lilja Øvrelid
- TLDR: 自然言語処理でプライバシー保護を行おうという研究。自然言語処理ではプライバシー保護の観点から文書を公開するが、プライバシー保護の観点から文書を公開する際はプライバシー保護の観点から文書を公開する必要がある。そのため文書のプライバシー保護を行おうという研究。文書のプライバシー保護は、文書の文書構造を変更する(文書の長さは文書の長さに依存する)、文書の文書構造を変更する(文書の長さは文書長)、文書の文書構造を変更する(文書長は文書長)、文書の文書構造を変更する(文書長は文書長)、文書の文書構造を変更する(文書
- End-to-End AMR Coreference Resolution
- Qiankun Fu, Linfeng Song, Wenyu Du, Yue Zhang
- TLDR: マルチスコアの文書表現を生成する手法の提案。文書の文長を入力とする文書表現を、文書の文長を入力とする文書表現に変換する。文書表現の生成は、文書表現の生成と併用する。文書表現の生成は、文書表現の生成と併用する。文書表現の生成は、文書表現の生成と併用する。文書表現の生成は、文書表現の生成と併用する。
- How is BERT surprised? Layerwise detection of linguistic anomalies
- Bai Li, Zining Zhu, Guillaume Thomas, Yang Xu, Frank Rudzicz
- TLDR: 言語モデルが、文中の不自然な単語を検出する際の対応について、学習データセットの分類結果から検証した研究。不自然な単語は、通常の文脈から予測するが、文脈の不自然な単語は予測できない。そのため、文脈の不自然な単語を検出するモデルを学習データセットで検証し、不自然な単語の検出は言語モデルの対応に依存しないことを確認。
- Psycholinguistic Tripartite Graph Network for Personality Detection
- Tao Yang, Feifan Yang, Haolan Ouyang, Xiaojun Quan
- TLDR: 心理学知識をネットワークに注入する研究。BERTベースのグラフを、心理学知識をネットワークに注入する形で構築する。BERTベースのグラフは、心理学知識をネットワークに注入する形で構築する。BERTベースのグラフは、心理学知識をネットワークに注入する形で構築する。BERTベースのグラフは、心理学知識をネットワークに注入する形で構築する。
- Verb Metaphor Detection via Contextual Relation Learning
- Wei Song, Shuhui Zhou, Ruiji Fu, Ting Liu, Lizhen Liu
- TLDR: 自然言語処理で、単語の意味と意味の因果関係を解く研究。単語の意味と意味の因果関係を、単語の意味と意味の因果関係を含ませた単語の意味との関係を定義する。単語の意味と意味の因果関係を定義するモデルを、単語の意味と意味の因果関係を定義するモデルと比較し、精度が向上している。
- Improving Speech Translation by Understanding and Learning from the Auxiliary Text Translation Task
- Yun Tang, Juan Pino, Xian Li, Changhan Wang, Dmitriy Genzel
- TLDR: マルチタスク学習で、翻訳モデルの学習とマルチタスク学習の効果を確認した研究。マルチタスク学習は、翻訳モデルの学習とマルチタスク学習の効果のバランスが崩れることを確認。マルチタスク学習は、翻訳モデルの学習とマルチタスク学習の効果のバランスが崩れることを確認。
- Probing Toxic Content in Large Pre-Trained Language Models
- Nedjma Ousidhoum, Xinran Zhao, Tianqing Fang, Yangqiu Song, Dit-Yan Yeung
- TLDR: 言語モデルが、異性に対する偏見を誘導する潜在表現を検出する研究。学習済み言語モデルは、通常の学習済み言語モデルと異なり、異性に対する偏見を誘導する潜在表現を検出する。この潜在表現を、学習済み言語モデルの潜在表現と比較し、潜在表現の潜在表現を予測する形で検出を行っている。
- Societal Biases in Language Generation: Progress and Challenges
- Emily Sheng, Kai-Wei Chang, Prem Natarajan, Nanyun Peng
- TLDR: 言語モデルの潜在表現を、心理学的・社会的な側面から分析したサーベイ。言語モデルの潜在表現は、自然言語処理の枠組みで生成されることが多いが、実際は複雑な構造を取っている。そこで、自然言語処理の枠組みを、心理学的・社会的な側面から分析したサーベイ。
- Reservoir Transformers
- Sheng Shen, Alexei Baevski, Ari Morcos, Kurt Keutzer, Michael Auli, Douwe Kiela
- TLDR: 機械学習で、転移学習を行う際に、転移先のネットワークを変更する際の挙動を検証した研究。転移先のネットワークは転移先のネットワークの重みを入力とするネットワークで、転移先のネットワークは転移先のネットワークの重みを入力とするネットワークで構成される。転移先のネットワークは転移先のネットワークの重みを入力とするネットワークで構成される。
- Subsequence Based Deep Active Learning for Named Entity Recognition
- Puria Radmard, Yassir Fathullah, Aldo Lipani
- TLDR: 教師なし学習で、文中の単語をラベル付けする手法の提案。単語のラベルは、単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を
- Convolutions and Self-Attention: Re-interpreting Relative Positions in Pre-trained Language Models
- Tyler Chang, Yifan Xu, Weijian Xu, Zhuowen Tu
- TLDR: 自然言語処理で、位置情報とTransformerの位置情報の組み合わせについてまとめた研究。位置情報の分散は、Transformerの位置情報と同等の扱いになるが、位置情報の分散はTransformerの位置情報と同等の扱いになる。位置情報の分散は、位置情報の分散を補完する形で行う。
- BinaryBERT: Pushing the Limit of BERT Quantization
- Haoli Bai, Wei Zhang, Lu Hou, Lifeng Shang, Jin Jin, Xin Jiang, Qun Liu, Michael Lyu, Irwin King
- TLDR: 言語モデルの重みを、BERTの重みに分割する手法の提案。BERTは重みの分割が難しいため、重みの分割を複数回行う。この時、BERTの重みを分割した重みをBERTの重みに分割する形で学習する。BERTは重みの分割が難しいため、重みの分割を複数回行う。
- Are Pretrained Convolutions Better than Pretrained Transformers?
- Yi Tay, Mostafa Dehghani, Jai Prakash Gupta, Vamsi Aribandi, Dara Bahri, Zhen Qin, Donald Metzler
- TLDR: 事前学習済み言語モデルが、CNNベースのモデルと比較して優位性があるという研究。事前学習済みモデルは、CNNベースのモデルと同等の性能を発揮するが、事前学習済みモデルは精度が劣る。事前学習済みモデルは、事前学習済みモデルと同等の性能を発揮するが、事前学習済みモデルは精度が劣る。
- PairRE: Knowledge Graph Embeddings via Paired Relation Vectors
- Linlin Chao, Jianshan He, Taifeng Wang, Wei Chu
- TLDR: ネットワークのリンク予測を行う際に、ネットワークの重みを組み合わせたモデルを提案。重みは、ネットワークの重みとネットワークの重みを組み合わせた重みを組み合わせた重みと、ネットワークの重みを組み合わせた重みを組み合わせた重みを組み合わせた重みとを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重みを組み合わせた重
- Hierarchy-aware Label Semantics Matching Network for Hierarchical Text Classification
- Haibin Chen, Qianli Ma, Zhenxi Lin, Jiangyue Yan
- TLDR: テキスト分類における、ラベルとラベルの因果関係を学習する研究。ラベルとテキストを結合し、ラベルとテキストを結合したモデルを学習する。ラベルとテキストを結合したモデルを、ラベルとテキストを結合したモデルと比較し、ラベルとテキストの因果関係を学習するモデルを提案している。
- HiddenCut: Simple Data Augmentation for Natural Language Understanding with Better Generalizability
- Jiaao Chen, Dinghan Shen, Weizhu Chen, Diyi Yang
- TLDR: 事前学習済みモデルを強化学習で学習する手法の提案。学習済みモデルの学習は、学習済みモデルの学習率を上げるために必要なネットワークを追加する。このネットワークを、学習率の低下を防ぐために、学習率の低下を抑制する形で調整する。
- Neural Stylistic Response Generation with Disentangled Latent Variables
- Qingfu Zhu, Wei-Nan Zhang, Ting Liu, William Yang Wang
- TLDR: オープンドメインの対話システムで、スタイルを重視する研究。スタイルは、文単位ではなく文間の関係を表す単語を含まない単語に置き換える形で表現される。文間の関係を表現する単語を、文間の関係を表現する単語に置き換える形で表現する。文間の関係を表現する単語を、文間の関係を表現する単語に置き換える形で表現する。
- Intent Classification and Slot Filling for Privacy Policies
- Wasi Ahmad, Jianfeng Chi, Tu Le, Thomas Norton, Yuan Tian, Kai-Wei Chang
- TLDR: プライバシーポリシーの文書を、文単位で分類する手法の提案。文単位の分類は、プライバシーポリシーの文書を文書の最後から最後まで順番に行う。順番は、プライバシーポリシーの文書を文書の最後から最後まで順番に行う。文書の最後から最後までの順番を順番に行う。
- RADDLE: An Evaluation Benchmark and Analysis Platform for Robust Task-oriented Dialog Systems
- Baolin Peng, Chunyuan Li, Zhu Zhang, Chenguang Zhu, Jinchao Li, Jianfeng Gao
- TLDR: 対話システムのパフォーマンスを評価するためのサーベイ。モデルのパフォーマンスを評価するサーベイとして、モデルの学習済み言語/対話スタイル/タスクのパフォーマンスを評価するサーベイ、また、モデルのパフォーマンスを評価する指標を提案している。
- Semantic Representation for Dialogue Modeling
- Xuefeng Bai, Yulong Chen, Linfeng Song, Yue Zhang
- TLDR: 対話システムで、文単位の表現を用いたモデルの提案。文単位の表現は、文の意味を表現する単語をベースに、文の意味を表現する単語をベースに表現する。文単位の表現は、単語の意味を表現する単語をベースに、単語の意味を表現する単語をベースに表現する単語をベースにしている。
- A Pre-training Strategy for Zero-Resource Response Selection in Knowledge-Grounded Conversations
- Chongyang Tao, Changyu Chen, Jiazhan Feng, Ji-Rong Wen, Rui Yan
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルの学習に組み込んだ研究。事前学習済みモデルは、事前学習済み言語モデルの学習に組み込んだモデルで、事前学習済み言語モデルの学習に組み込んだモデルで事前学習を行う。事前学習済み言語モデルは、事前学習済み言語モデルの学習に組み込んだモデルで学習を行う。事前学習済み言語モデルは、事前学習済み言語モデルの学習に組み込んだモデルで学習を行う。
- Dependency-driven Relation Extraction with Attentive Graph Convolutional Networks
- Yuanhe Tian, Guimin Chen, Yan Song, Xiang Wan
- TLDR: 文関係の抽出を、グラフ構造を基に行う手法の提案。文関係の抽出は、文関係の構造を基に行うことが多いが、文関係の構造を基に抽出を行う手法は、文関係の構造を基に抽出を行う手法と同等である。文関係の構造を基に抽出を行う手法は、文関係の構造を基に抽出を行う手法と同等である。
- Evaluating Entity Disambiguation and the Role of Popularity in Retrieval-Based NLP
- Anthony Chen, Pallavi Gudipati, Shayne Longpre, Xiao Ling, Sameer Singh
- TLDR: オープンドメインの文書分類タスクで、複数ノードを持つ文書を分類する手法の提案。ノードは複数ノードの文書を含まない、複数ノードの文書を含まない文書を分類する。ノードは文書分類タスクで、文書分類タスクで使用されるノードを分類する。ノードは文書分類タスクで、文書分類タスクで使用されるノードを分類する。
- Evaluation Examples are not Equally Informative: How should that change NLP Leaderboards?
- Pedro Rodriguez, Joe Barrow, Alexander Miserlis Hoyle, John P. Lalor, Robin Jia, Jordan Boyd-Graber
- TLDR: 自然言語処理で、評価対象のタスクを評価するモデルの提案。評価対象のタスクは、タスクの学習済みモデルで学習したタスクと、タスクの学習済みモデルで学習したタスクの2つ。タスクの学習済みモデルは、タスクの学習済みモデルと同等の評価結果が得られることを確認。
- Claim Matching Beyond English to Scale Global Fact-Checking
- Ashkan Kazemi, Kiran Garimella, Devin Gaffney, Scott Hale
- TLDR: マルチ言語の事前学習済みモデルを、事前学習済みモデルと比較して精度を上げた研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは事前学習済みモデルと同等の精度を維持できない。事前学習済みモデルは事前学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは事前学習済みモデルと同等の精度を維持できない。
- SemFace: Pre-training Encoder and Decoder with a Semantic Interface for Neural Machine Translation
- Shuo Ren, Long Zhou, Shujie Liu, Furu Wei, Ming Zhou, Shuai Ma
- TLDR: 事前学習済みモデルと事前学習済みモデルを接続するネットワークの提案。事前学習済みモデルは、事前学習済みモデルと同等のネットワークを構築するが、事前学習済みモデルは同等のネットワークを構築する必要があり、事前学習済みモデルと同等のネットワークを構築する必要があった。そこで、事前学習済みモデルと同等のネットワークを構築する手法を提案
- Energy-Based Reranking: Improving Neural Machine Translation Using Energy-Based Models
- Sumanta Bhattacharyya, Amirmohammad Rooshenas, Subhajit Naskar, Simeng Sun, Mohit Iyyer, Andrew McCallum
- TLDR: 翻訳における転移学習において、転移学習のパフォーマンスを上げるためにエネルギーモデルを学習する研究。転移学習のパフォーマンスは転移先の言語モデルのパフォーマンスと同等の性能を維持できるが、転移先の言語モデルのパフォーマンスは転移先の言語モデルのパフォーマンスと同等の性能を維持できない。そこで、転移先の言語モデルのパフォーマンスを上げるためのエネルギーモデルを学習する
- Syntax-augmented Multilingual BERT for Cross-lingual Transfer
- Wasi Ahmad, Haoran Li, Kai-Wei Chang, Yashar Mehdad
- TLDR: マルチ言語の事前学習で、言語共通のタスクを学習する手法の提案。事前学習済み言語共通のタスクを、言語共通のタスクに置き換えることで、タスクの精度を上げつつタスクの重み付けを工夫している。タスクの重み付けは、タスクの重みを入力に入力するタスクに置き換える形で行う。
- How to Adapt Your Pretrained Multilingual Model to 1600 Languages
- Abteen Ebrahimi, Katharina Kann
- TLDR: マルチ言語の学習を行う際に、事前学習済み言語を学習させる手法のサーベイ。事前学習済み言語は、学習データが少ない場合学習が困難になる。そのため、事前学習済み言語を学習させるモデルを提案。事前学習済み言語は、学習データが少ない場合学習が困難になる。
- Weakly Supervised Named Entity Tagging with Learnable Logical Rules
- Jiacheng Li, Haibo Ding, Jingbo Shang, Julian McAuley, Zhe Feng
- TLDR: 自然言語処理で、シンプルなルールを学習する研究。シンプルなルールは、通常のタスクで学習するよりも精度が上がる。シンプルなルールは、通常のタスクで学習するよりも精度が上がる。シンプルなルールは、タスクの精度を上げるために有効な手法としている。
- Prefix-Tuning: Optimizing Continuous Prompts for Generation
- Xiang Lisa Li, Percy Liang
- TLDR: 自然言語処理で、事前学習済み言語モデルを再構築する手法の提案。事前学習済み言語モデルのパラメーターを、事前学習済み言語モデルのパラメーターを更新する形で学習する。事前学習済み言語モデルのパラメーターを更新する形で学習する。事前学習済み言語モデルのパラメーターを更新する形で学習する。
- One2Set: Generating Diverse Keyphrases as a Set
- Jiacheng Ye, Tao Gui, Yichao Luo, Yige Xu, Qi Zhang
- TLDR: キーフレーズを生成するモデルの提案。学習済みモデルのキーフレーズを、学習済みモデルのキーフレーズに置き換える形で生成する。キーフレーズは、学習済みモデルのキーフレーズと同等の扱いが行われる。キーフレーズの重みを、キーフレーズの重みと重みの重みを合わせた重みに置き換える形で生成する。
- Continuous Language Generative Flow
- Zineng Tang, Shiyue Zhang, Hyounghun Kim, Mohit Bansal
- TLDR: 自然言語処理で、言語モデルを言語フレームワークに応用した研究。フレームワークは、事前学習済みモデルをベースに、事前学習済みモデルの入力を言語フレームワークに入力する。事前学習済みモデルは、事前学習済みモデルの入力を言語フレームワークに入力する。事前学習済みモデルは、事前学習済みモデルの入力を言語フレームワークに入力する。事前学習済みモデルは、事前学習済みモデルの入力を言語フレームワークに入力する。
- TWAG: A Topic-Guided Wikipedia Abstract Generator
- Fangwei Zhu, Shangqing Tu, Jiaxin Shi, Juanzi Li, Lei Hou, Tong Cui
- TLDR: 文書から、Wikipediaの概要を生成する研究。Wikipediaの概要は、Wikipediaの文書から抽出される。Wikipediaの文書は、Wikipediaの概要を扱うための分類機を導入している。この分類機は、Wikipediaの概要を分類する文書を生成する際、文書の概要を予測するモデルを用いている。
- ForecastQA: A Question Answering Challenge for Event Forecasting with Temporal Text Data
- Woojeong Jin, Rahul Khanna, Suji Kim, Dong-Ho Lee, Fred Morstatter, Aram Galstyan, Xiang Ren
- TLDR: 予測を行う際に、事前学習済みモデルの予測精度を上げるための研究。事前学習済みモデルは予測精度が低いため、予測結果を予測するタスクを絞り込んでいる。タスクは事前学習済みモデルの予測精度を上げるためのタスクで、事前学習済みモデルの予測精度を上げるためのタスクとして提案している。
- Recursive Tree-Structured Self-Attention for Answer Sentence Selection
- Khalil Mrini, Emilia Farcas, Ndapa Nakashole
- TLDR: 自然言語処理で、文構造を学習する研究。文構造は文の意味を表す単語を含まない、文構造は文の意味を表す単語を含まない、文構造は文の意味を表す単語を含まない、文構造は文の意味を表す単語を含まない、文構造は文の意味を表す単語を含まない、文構造は文の意味を表す単語を含まない、文構造は文の意味を表す単語を含まない、文構造は文の意味を表す単語を含まない、文構造は文の意味を表す単語を含まない、
- How Knowledge Graph and Attention Help? A Qualitative Analysis into Bag-level Relation Extraction
- Zikun Hu, Yixin Cao, Lifu Huang, Tat-Seng Chua
- TLDR: 文の文長を推定するGraph Graph(Graph Graph)とAttentionの研究。Graph Graphは文長が長いため、文長を推定する際は文長を推定するモデルを使用。文長を推定するモデルは、文長が長い文を推定するモデルと同等の性能を発揮する。
- Trigger is Not Sufficient: Exploiting Frame-aware Knowledge for Implicit Event Argument Extraction
- Kaiwen Wei, Xian Sun, Zequn Zhang, Jingyuan Zhang, Guo Zhi, Li Jin
- TLDR: 事前学習済みモデルを、事前学習済みモデルの挙動に近い状態に置き換える研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するFeature Aware(Feature B)を導入している。Feature Bは、事前学習済みモデルの挙動を予測するFeature Cを使用。
- Element Intervention for Open Relation Extraction
- Fangchao Liu, Lingyong Yan, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: 自然言語処理における、関係抽出の手法を、構造的な因果推論(構造的な因果推論)と組み合わせた研究。構造的な因果推論は、関係の因果関係を推定する際、関係の因果関係と関係の因果関係を推定する際の因果関係を考慮する。因果関係は、関係の因果関係と関係の因果関係を結合する形で推定する。
- AdaTag: Multi-Attribute Value Extraction from Product Profiles with Adaptive Decoding
- Jun Yan, Nasser Zalmout, Yan Liang, Christan Grant, Xiang Ren, Xin Luna Dong
- TLDR: マルチAttributeの抽出を、事前学習済みモデルで行う研究。事前学習済みモデルは、各AttributeのEncode/DecoderのEncode結果を統合する形で行う。事前学習済みモデルは、各AttributeのEncode結果を統合する形で行う。事前学習済みモデルは、各AttributeのEncode結果を統合する形で行う。
- CoRI: Collective Relation Integration with Data Augmentation for Open Information Extraction
- Zhengbao Jiang, Jialong Han, Bunyamin Sisman, Xin Luna Dong
- TLDR: 事前学習済み知識から、事前学習済み知識を事前学習済みモデルに組み込む研究。事前学習済みモデルは事前学習済み知識の予測結果を個別に収集し、事前学習済みモデルの予測結果を個別に収集する。事前学習済みモデルは事前学習済み知識の予測結果を個別に収集し、個別の予測結果を個別に収集する。事前学習済みモデルは事前学習済み知識の予測結果を個別に収集する。
- Benchmarking Scalable Methods for Streaming Cross Document Entity Coreference
- Robert L Logan IV, Andrew McCallum, Sameer Singh, Dan Bikel
- TLDR: 文書中の単語を、マルチタスクで学習する研究。マルチタスクで学習する際は、単語のクラスタリングを複数回行うか、マルチタスクで学習するか、マルチタスクで学習する際はマルチタスクで行うか、という3つのタスクを検証している。マルチタスクで学習する際は、マルチタスクで学習するモデルを使用。
- Search from History and Reason for Future: Two-stage Reasoning on Temporal Knowledge Graphs
- Zixuan Li, Xiaolong Jin, Saiping Guan, Wei Li, Jiafeng Guo, Yuanzhuo Wang, Xueqi Cheng
- TLDR: 過去の出来事から未来の出来事までを予測する研究。過去の出来事から未来の出来事までを予測する。過去の出来事から未来の出来事までを予測する。過去の出来事から未来の出来事までを予測する。
- Employing Argumentation Knowledge Graphs for Neural Argument Generation
- Khalid Al Khatib, Lukas Trautner, Henning Wachsmuth, Yufang Hou, Benno Stein
- TLDR: 文書生成において、知識グラフを用いた研究。文書の文脈から、Wikipediaの記事から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問回答の文脈から、質問文から、質問文
- Learning Span-Level Interactions for Aspect Sentiment Triplet Extraction
- Lu Xu, Yew Ken Chia, Lidong Bing
- TLDR: 感情のtriplet extractionを、span-levelで行う研究。各文の文脈から、opinion termとopinion termの距離を推定する。opinion termは、opinion termとopinion termの距離を推定する。opinion termは、opinion termとopinion termの距離を推定する。
- On Compositional Generalization of Neural Machine Translation
- Yafu Li, Yongjing Yin, Yulong Chen, Yue Zhang
- TLDR: 翻訳モデルのパフォーマンスを評価する指標として、翻訳精度の変動、翻訳エラー率の変動、翻訳エラー率の変動、翻訳エラー率の変動を計測した研究。変動は翻訳精度の変動、エラー率は翻訳精度の変動、翻訳エラー率は翻訳精度の変動を計測する。
- Mask-Align: Self-Supervised Neural Word Alignment
- Chi Chen, Maosong Sun, Yang Liu
- TLDR: 翻訳文の翻訳モデルで、翻訳文の文脈を考慮したモデルを作成した研究。翻訳文の文脈を考慮したモデルで、文脈を考慮したモデルを生成する。文脈は、翻訳文の文脈から生成される単語の重みを予測する。重みは、翻訳文の文脈を考慮したモデルで生成する。
- GWLAN: General Word-Level AutocompletioN for Computer-Aided Translation
- Huayang Li, Lemao Liu, Guoping Huang, Shuming Shi
- TLDR: 機械翻訳の自動翻訳(Auto-Encoder)を検証した研究。自動翻訳は文単位の自動学習が基本だが、文単位の自動学習は難しい。そのため、文単位の自動学習を想定したモデルを提案。自動翻訳は文単位の自動学習が難しいため、文単位の自動学習は難しい。
- De-biasing Distantly Supervised Named Entity Recognition via Causal Intervention
- Wenkai Zhang, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: 自然言語処理で、文法の偏りを解消する研究。文法の偏りは、文法の意味を予測するモデル(DNN)で学習する。文法の偏りは、文法の意味を予測するモデル(DNN)で学習する。文法の偏りは、文法の意味を予測するモデル(DNN)で学習する。
- A Span-Based Model for Joint Overlapped and Discontinuous Named Entity Recognition
- Fei Li, ZhiChao Lin, Meishan Zhang, Donghong Ji
- TLDR: 文書中の固有表現を認識する研究。固有表現は文書全体を認識するが、文書中の各文書の文書分割は文書全体を認識する。文書全体を認識するのではなく、文書分割を考慮した文書分割を行なっている。文書分割は文書全体を認識するが、文書分割は文書全体を認識する。文書分割は文書全体を認識するが、文書全体を認識する場合は文書全体を認識する。
- MLBiNet: A Cross-Sentence Collective Event Detection Network
- Dongfang Lou, Zhilin Liao, Shumin Deng, Ningyu Zhang, Huajun Chen
- TLDR: 文書内のイベントを検出するタスクの提案。文書内のイベントを検出するタスクは、文書全体の文書構造を検出するタスクと、文書全体の文書構造を検出するタスクの2つに分けて行う。文書構造を検出するタスクは、文書全体の文書構造を検出するタスクと、文書全体の文書構造を検出するタスクの2つに分けて行う。文書構造を検出するタスクは、文書構造を検出するタスクと、文書構造を検出するタスクの2つに分けて行う。文書構造を検出するタスクは、文書構造を検
- Exploiting Document Structures and Cluster Consistencies for Event Coreference Resolution
- Hieu Minh Tran, Duy Phung, Thien Huu Nguyen
- TLDR: 文書構造を強化学習で学習する研究。文書構造は文書全体の構造を表す単語/文/単語/文関係を含まない。文書構造は文書全体の構造を表す単語/文関係を含まない。文書構造は文書全体の構造を表す単語/文関係を含まない。文書構造は文書全体の構造を表す単語/文関係を含まない。文書構造を強化学習で学習する
- StereoRel: Relational Triple Extraction from a Stereoscopic Perspective
- Xuetao Tian, Liping Jing, Lu He, Feng Liu
- TLDR: マルチタスクの学習を行う際に、マルチタスクの学習を行う際の課題と対策をまとめたサーベイ。マルチタスク学習は、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスクの学習を行う際に、マルチタスク
- Knowledge-Enriched Event Causality Identification via Latent Structure Induction Networks
- Pengfei Cao, Xinyu Zuo, Yubo Chen, Kang Liu, Jun Zhao, Yuguang Chen, Weihua Peng
- TLDR: 自然言語処理で、自然言語処理のモデルを用いた研究。モデルは、自然言語処理のモデルと同等のモデルを用いているが、モデルは、モデルの構造を学習するモデルと同等精度で学習する。モデルは、モデルの構造を学習するモデルと同等精度で学習するモデルを併用している。
- Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word Substitution
- Fanchao Qi, Yuan Yao, Sophia Xu, Zhiyuan Liu, Maosong Sun
- TLDR: 自然言語処理モデルに対するバックドア攻撃。通常の攻撃は攻撃者に認識されない単語を追加するが、この単語を追加することにより攻撃者に認識されない単語を追加する。この単語追加により、攻撃者は通常の攻撃結果を上回る精度を達成。
- Parameter-Efficient Transfer Learning with Diff Pruning
- Demi Guo, Alexander Rush, Yoon Kim
- TLDR: マルチタスクの学習で、学習済みモデルのパラメーターを変更する手法の提案。パラメーターの変更は、学習済みモデルのパラメーターを変更する形で行う。パラメーターの変更は、学習済みモデルのパラメーターを変更する形で行う。パラメーターの変更は、学習済みモデルのパラメーターを変更する形で行う。
- R2D2: Recursive Transformer based on Differentiable Tree for Interpretable Hierarchical Language Modeling
- Xiang Hu, Haitao Mi, Zujie Wen, Yafang Wang, Yi Su, Jing Zheng, Gerard de Melo
- TLDR: 言語モデルの構造を、階層的な構造に置き換えた研究。階層構造は、単語の意味を予測するノードの集合(CKY)をベースに、単語の意味を予測するノードの集合(CNN)をベースに学習する。単語の意味を予測するノードは、単語の意味を予測するノードの集合(CNN)をベースに学習する。
- Risk Minimization for Zero-shot Sequence Labeling
- Zechuan Hu, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Kewei Tu
- TLDR: 事前学習済みモデルをベースに、事前学習済みモデルの学習を行わずに、事前学習済みモデルの学習を行なう研究。事前学習済みモデルの学習は、事前学習済みモデルの学習率を上回る結果を得るため、事前学習済みモデルの学習率を上回るモデルを構築する。事前学習済みモデルの学習率は、事前学習済みモデルの学習率と同等の精度を達成。
- WARP: Word-level Adversarial ReProgramming
- Karen Hambardzumyan, Hrant Khachatrian, Jonathan May
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルの挙動に逆変換するAdversarial Reprogrammingを提案。事前学習済み言語モデルの挙動を逆変換するAdversarial Reprogrammingを、事前学習済み言語モデルの挙動に逆変換する形で行う。事前学習済み言語モデルの挙動を逆変換するAdversarial Reprogrammingを、事前学習済み言語モデルの挙動に逆変換する形で行う。
- Lexicon Learning for Few Shot Sequence Modeling
- Ekin Akyurek, Jacob Andreas
- TLDR: 翻訳モデルの学習を、学習済み言語モデルの学習に置き換える研究。学習済み言語モデルは、翻訳モデルの学習済み言語モデルと同等の学習済み言語モデルを組み合わせて学習する。学習済み言語モデルは、翻訳モデルの学習済み言語モデルを学習するモデルと同等の学習済み言語モデルを組み合わせる。
- Personalized Transformer for Explainable Recommendation
- Lei Li, Yongfeng Zhang, Li Chen
- TLDR: 自然言語処理で、ユーザーの属性情報をTransformerに入力する研究。入力は、ユーザーの属性情報(ID)と、その属性情報(属性情報の単語)を入力とする。入力は、入力と入力の属性情報(ID)を入力とする。入力は、入力と入力双方の属性情報(ID)を入力とする。
- Generating SOAP Notes from Doctor-Patient Conversations Using Modular Summarization Techniques
- Kundan Krishna, Sopan Khosla, Jeffrey Bigham, Zachary C. Lipton
- TLDR: 事前文書から、文書全体を抽出する手法の提案。文書全体を抽出するのではなく、文書全体の文書構造を抽出する形で文書を生成する。文書全体を抽出するより、文書全体を抽出する方が精度が上がる。文書全体を抽出するより、文書全体を抽出する方が精度が上がる。
- Tail-to-Tail Non-Autoregressive Sequence Prediction for Chinese Grammatical Error Correction
- Piji Li, Shuming Shi
- TLDR: 文法誤差を訂正する研究。文法誤差は、文法の意味を誤差ととらえているか、また、意味を誤差ととらえているかを判定する。文法誤差は、文法の意味を誤差ととらえているかを判定する。
- Early Detection of Sexual Predators in Chats
- Matthias Vogt, Ulf Leser, Alan Akbik
- TLDR: オンラインのチャット内で、疑似的な性的な関係を構築する疑似ラピスト検知(疑似ラピスト検知)を検証した研究。疑似ラピストは、疑似ラピストの画像を入力として入力する。疑似ラピストは、疑似ラピストの画像を入力として入力する。疑似ラピストは、疑似ラピストの画像を入力として入力する。疑似ラピストは、疑似ラピストの画像を入力として入力する。
- Writing by Memorizing: Hierarchical Retrieval-based Medical Report Generation
- Xingyi Yang, Muchao Ye, Quanzeng You, Fenglong Ma
- TLDR: 医療画像に対する文書生成を行う際に、文書分類のタスクを自動生成する研究。文書分類は文書分類のタスクで、文書分類は文書分類のタスクで、文書分類は文書分類のタスクで行う。文書分類は文書分類のタスクで、文書分類は文書分類のタスクで行う。文書分類は文書分類のタスクで行う。
- Concept-Based Label Embedding via Dynamic Routing for Hierarchical Text Classification
- Xuepeng Wang, Li Zhao, Bing Liu, Tao Chen, Feng Zhang, Di Wang
- TLDR: テキスト分類において、クラス間の相互理解を強化する研究。クラス間の相互理解は、分類器の分類結果をクラス分類器に入力し、クラス分類器の分類結果をクラス分類器に入力する形で行われる。クラス分類器は、クラス分類器の分類結果をクラス分類器に入力する形で行われる。
- VisualSparta: An Embarrassingly Simple Approach to Large-scale Text-to-Image Search with Weighted Bag-of-words
- Xiaopeng Lu, Tiancheng Zhao, Kyusong Lee
- TLDR: テキストから画像を検索する研究。画像を入力とするTransformer Matchingをベースに、画像のサイズを入力とする。画像のサイズは1万枚から1億枚までで、精度はSOTA。画像のサイズは1億枚から1億枚までで、精度はSOTA。
- Few-Shot Text Ranking with Meta Adapted Synthetic Weak Supervision
- Si Sun, Yingzhuo Qian, Zhenghao Liu, Chenyan Xiong, Kaitao Zhang, Jie Bao, Zhiyuan Liu, Paul Bennett
- TLDR: ニューラル情報リソースの分散を、ドメイン転移で行う手法の提案。転移先のドメインの検索結果を転移先のドメインに転移する(転移先のドメインは、転移先のドメインの検索結果に近いものになる)。転移先のドメインの検索結果を転移先のドメインに転移する。転移先のドメインの検索結果は、転移先のドメインの検索結果と同等の精度を獲得できる。
- Semi-Supervised Text Classification with Balanced Deep Representation Distributions
- Changchun Li, Ximing Li, Jihong Ouyang
- TLDR: 教師なし学習で、ラベルなしテキストを分類する研究。ラベルなしテキストは、ラベルなしテキストの分類精度が低い傾向がある。そこで、ラベルなしテキストの分類精度を上げるために、ラベルなしテキストの分布を分布分布とし分布分布分布を分布分布とし分布分布分布を分布分布とし分布分布を分布とし分布分布を分布とし分布分布を分布とし分布分布を分布とし分布分布を分布とし分布分布を分布とし分布分布を分布とし分布分布を分布とし分布分布を分布とし分布分布を分布とし分布分布を分布とし分布分布を分布とし分布分布を
- Improving Document Representations by Generating Pseudo Query Embeddings for Dense Retrieval
- Hongyin Tang, Xingwu Sun, Beihong Jin, Jingang Wang, Fuzheng Zhang, Wei Wu
- TLDR: 文書分類を行う際に、文書分類結果を複数文書に分割し、文書分類結果を個別に検索する手法の提案。文書分類結果を個別に検索するのではなく、文書分類結果を個別に検索する形で文書分類を行う。文書分類結果は、文書分類結果を個別に検索するより、文書分類結果を個別に検索する方が効率が良いことを確認。
- ConSERT: A Contrastive Framework for Self-Supervised Sentence Representation Transfer
- Yuanmeng Yan, Rumei Li, Sirui Wang, Fuzheng Zhang, Wei Wu, Weiran Xu
- TLDR: 自然言語処理で、文表現の転移を学習する手法の提案。文表現の転移は、文の意味を予測するモデル(BERT)で行う。文表現の転移は、文の意味を予測するモデル(BERT)で行う。文表現の転移は、文の意味を予測するモデル(BERT)で行う。
- Exploring Dynamic Selection of Branch Expansion Orders for Code Generation
- Hui Jiang, Chulun Zhou, Fandong Meng, Biao Zhang, Jie Zhou, Degen Huang, Qingqiang Wu, Jinsong Su
- TLDR: マルチノードのモデルで、強化学習で強化学習を行う際に、各ノードの挙動を学習する手法の提案。学習は、各ノードの挙動を学習する。学習は、各ノードの挙動を学習する。学習は、各ノードの挙動を学習する。学習は、各ノードの挙動を学習する。
- COINS: Dynamically Generating COntextualized Inference Rules for Narrative Story Completion
- Debjit Paul, Anette Frank
- TLDR: 事前学習済み言語モデルが、事前学習済みモデルの予測精度を上回る結果を出した研究。事前学習済みモデルは、文中の文法ルールを予測するモデルとして使われることが多いが、事前学習済みモデルは予測精度が低い。そこで、文法ルールを予測するモデルを提案。文法ルールは、文法知識が豊富な人なら、文法知識が豊富な人なら、文法知識が豊富な人なら、文法知識が豊富な人なら、文法知識が豊富な人なら、文法知識が豊富な人なら、文法知識が豊富な人なら、文法知識が豊富な人なら、文法知識が豊富な人なら、文法知識が
- Reasoning over Entity-Action-Location Graph for Procedural Text Understanding
- Hao Huang, Xiubo Geng, Jian Pei, Guodong Long, Daxin Jiang
- TLDR: 文書中の各要素について、その位置を推定する研究。文書中の各要素は、文書中の各要素と同等か否かを推定する。文書中の各要素は、文書中の各要素と同等か否かを推定する。文書中の各要素は、文書中の各要素と同等か否かを推定する。文書中の各要素は、文書中の文書から抽出する。文書中の文書から文書を生成するモデルを提案
- From Paraphrasing to Semantic Parsing: Unsupervised Semantic Parsing via Synchronous Semantic Decoding
- Shan Wu, Bo Chen, Chunlei Xin, Xianpei Han, Le Sun, Weipeng Zhang, Jiansong Chen, Fan Yang, Xunliang Cai
- TLDR: 教師なしで、文法の要約を行う研究。文法は文法の要約と同等に扱われ、文法要約は文法要約の要約と同等に扱われる。文法要約は文法要約と同等に扱われるが、文法要約は文法要約の要約と同等に扱われる。文法要約は文法要約の要約と同等に扱われる。
- Pre-training Universal Language Representation
- Yian Li, Hai Zhao
- TLDR: 言語モデルの事前学習を、言語モデルの学習に応用した研究。事前学習済み言語モデルは、言語モデルの学習済み言語モデルと同等の精度を達成できるか検証している。事前学習済み言語モデルは、言語モデルの学習済み言語モデルと同等の精度を達成できるか検証している。
- Structural Pre-training for Dialogue Comprehension
- Zhuosheng Zhang, Hai Zhao
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルと対話モデルの2つに分け学習する研究。事前学習済みモデルは、事前学習済みモデルの学習済み単語をベースに、事前学習済みモデルの単語をベースに学習する。事前学習済みモデルは、事前学習済み単語をベースに、事前学習済み単語をベースに学習する。事前学習済みモデルは、事前学習済み単語をベースに学習する。
- AutoTinyBERT: Automatic Hyper-parameter Optimization for Efficient Pre-trained Language Models
- Yichun Yin, Cheng Chen, Lifeng Shang, Xin Jiang, Xiao Chen, Qun Liu
- TLDR: 自然言語処理で、構造を探索する研究。構造探索は、構造の探索空間を探索するネットワークの探索空間と、構造探索空間を探索するネットワークの探索空間の2つに分けて行う。探索空間は、学習済みネットワークの探索空間と同等の探索空間を探索するネットワークの探索空間と、探索空間の探索空間を探索するネットワークの探索空間を探索するネットワークの探索空間に分けている。
- Data Augmentation with Adversarial Training for Cross-Lingual NLI
- Xin Dong, Yaxin Zhu, Zuohui Fu, Dongkuan Xu, Gerard de Melo
- TLDR: マルチ言語の自然言語処理モデルを強化する研究。既存のモデルは、複数言語のモデルを学習する際、各言語のモデルの学習率を上げるために、学習率を上げるために生成したモデルを学習させる手法を取っている。生成したモデルは、学習率を上げるために学習するモデルと同等の手法を取っている。
- Bootstrapped Unsupervised Sentence Representation Learning
- Yan Zhang, Ruidan He, Zuozhu Liu, Lidong Bing, Haizhou Li
- TLDR: 文の類似度を上げるために、Augmentationの手法を提案。Augmentationは、Augmentationの画像を生成するネットワークの画像を生成するネットワークの画像生成器に入力し、Augmentationの画像生成器は、Augmentationの画像生成器と同等の画像生成器を生成するネットワークの画像生成器に入力する。
- Learning Event Graph Knowledge for Abductive Reasoning
- Li Du, Xiao Ding, Ting Liu, Bing Qin
- TLDR: 文書から、過去の出来事について、なぜ起こったのかを推論するタスクの提案。文書から、過去の出来事について、なぜ起こったのかを推論する。文書から、過去の出来事について、なぜ起こったのかを推論する。文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から
- A Cognitive Regularizer for Language Modeling
- Jason Wei, Clara Meister, Ryan Cotterell
- TLDR: 自然言語処理で、通常のMLEを強化する手法の提案。通常のMLEは、言語モデルの学習時に、学習済み言語モデルの学習済み言語モデルを学習する。学習済み言語モデルは、学習済み言語モデルの学習済み言語モデルを学習する。学習済み言語モデルは、学習済み言語モデルの学習済み言語モデルを学習する。
- Lower Perplexity is Not Always Human-Like
- Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, Kentaro Inui
- TLDR: 心理学言語モデルの汎化性を検証した研究。言語モデルは、通常の心理学モデルと異なり、人間が読解する文を予測するモデル(単語の予測)と、読解結果を予測するモデル(単語予測)の2つを検証している。単語予測は、単語の予測結果を予測するモデル(単語予測モデル)と、単語予測モデルの2つを検証している。
- Word Sense Disambiguation: Towards Interactive Context Exploitation from Both Word and Sense Perspectives
- Ming Wang, Yinglin Wang
- TLDR: 文書中の単語を認識する研究。文書中の単語を認識する際、文書中の単語を認識するモデルを用いることで、文書中の単語を認識する。文書中の単語を認識するモデルは、文書中の単語を認識するモデルと同等のモデルを用いることで、文書中の単語を認識するモデルを構築している。
- A Knowledge-Guided Framework for Frame Identification
- Xuefeng Su, Ru Li, Xiaoli Li, Jeff Z. Pan, Hu Zhang, Qinghua Chai, Xiaoqi Han
- TLDR: 文中の画像を識別する研究。文中の画像を識別するフレームを、文中のフレームと同等/それ以上のフレームの2つに分類し、フレームのベクトルをそれぞれ別々に分類し、フレームベクトルのベクトル分布を予測する。フレーム分布は、文中の単語を対象とし、文中の単語を対象とし、文中の単語を対象とし、文中の単語を対象とし、文中の単語を対象とし、文中の単語を対象とし、文中の単語を対象とし、文中の単語を対象とし、文中の単語を対象とし、
- Obtaining Better Static Word Embeddings Using Contextual Embedding Models
- Prakhar Gupta, Martin Jaggi
- TLDR: 自然言語処理における、CNNベースの蒸留手法の提案。蒸留はCNNベースのモデルで、蒸留はCNNベースのモデルで行う。蒸留はCNNベースのモデルで行うが、蒸留はCNNベースのモデルで行う。蒸留はCNNベースのモデルで行うが、CNNベースのモデルは蒸留が困難なため、CNNベースのモデルを蒸留する蒸留器を使用。
- Meta-Learning with Variational Semantic Memory for Word Sense Disambiguation
- Yingjun Du, Nithin Holla, Xiantong Zhen, Cees Snoek, Ekaterina Shutova
- TLDR: 教師なし学習で、単語の潜在表現を学習する手法の提案。教師なし学習では、単語の潜在表現を学習する際は、単語の潜在表現を学習するモデルを使用。学習データは、単語の潜在表現を学習するモデルの重みから作成する。重みは、学習データの更新時に更新する。
- LexFit: Lexical Fine-Tuning of Pretrained Language Models
- Ivan Vulić, Edoardo Maria Ponti, Anna Korhonen, Goran Glavaš
- TLDR: マルチモーメントの言語モデルを、自然言語処理のタスクに適用する研究。マルチモーメントのモデルは、自然言語処理のタスクで精度が低下する。そこで、自然言語処理のタスクを学習するモデルを導入し、学習時に自然言語処理のタスクを学習する。学習時に、自然言語処理のタスクを学習するモデルを導入し、学習時に自然言語処理のタスクを学習する。
- Text-Free Image-to-Speech Synthesis Using Learned Segmental Units
- Wei-Ning Hsu, David Harwath, Tyler Miller, Christopher Song, James Glass
- TLDR: 自然言語で画像をカテゴリ別にカテゴリ化する研究。画像のカテゴリは、画像の画像をカテゴリとしてカテゴリ化する。カテゴリは、画像の画像をカテゴリとしてカテゴリ化する。カテゴリは、画像の画像をカテゴリとしてカテゴリ化する。カテゴリは、画像の画像をカテゴリとしてカテゴリ化する。
- CTFN: Hierarchical Learning for Multimodal Sentiment Analysis Using Coupled-Translation Fusion Network
- Jiajia Tang, Kang Li, Xuanyu Jin, Andrzej Cichocki, Qibin Zhao, Wanzeng Kong
- TLDR: マルチモーダル翻訳において、マルチモーダル翻訳の学習を効率化する研究。マルチモーダル翻訳の学習は、マルチモーダル翻訳の学習と同等の精度を維持するが、マルチモーダル翻訳の学習は、マルチモーダル翻訳の学習と同等の精度を維持する。
- Positional Artefacts Propagate Through Masked Language Model Embeddings
- Ziyang Luo, Artur Kulmizev, Xiaoxi Mao
- TLDR: 言語モデルベースの固有表現を、事前学習済みモデルに置き換える研究。固有表現の表現を、事前学習済みモデルの固有表現に置き換えることで、固有表現の表現を学習する。固有表現の表現を、事前学習済みモデルの固有表現に置き換えることで、固有表現の表現を学習する。固有表現の表現を、事前学習済みモデルの固有表現に置き換えることで、学習済みモデルの固有表現を学習する。
- Language Model Evaluation Beyond Perplexity
- Clara Meister, Ryan Cotterell
- TLDR: 自然言語処理のモデルが自然言語処理の学習にどれぐらい近かったかを調べた研究。自然言語処理の学習は、自然言語の学習と同等の傾向を持つデータセット(LSTM)を学習する。学習データセットは、自然言語モデルの学習傾向と同等の傾向を持つデータセットを学習する。
- Learning to Explain: Generating Stable Explanations Fast
- Xuelin Situ, Ingrid Zukerman, Cecile Paris, Sameen Maruf, Gholamreza Haffari
- TLDR: 機械学習モデルの説明を行う際に、モデルの挙動を学習する手法の提案。モデルの挙動は、モデルの挙動とモデルの挙動を組み合わせたもの。挙動は、モデルの挙動とモデルの挙動を組み合わせたもの。挙動は、モデルの挙動と挙動を組み合わせたもの。挙動は、挙動の組み合わせから予測する。挙動は、挙動の組み合わせから予測する。
- StereoSet: Measuring stereotypical bias in pretrained language models
- Moin Nadeem, Anna Bethke, Siva Reddy
- TLDR: 自然言語処理モデルの分類器で、性別・職業・宗教・性別・国籍・宗教・性別・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・
- Alignment Rationale for Natural Language Inference
- Zhongtao Jiang, Yuanzhe Zhang, Zhao Yang, Jun Zhao, Kang Liu
- TLDR: 自然言語処理モデルの説明を、事前学習済みモデルの説明と比較した研究。事前学習済みモデルの説明は、単語/文のalignmentを考慮する。単語/文のalignmentは、単語/文の予測結果から予測する。単語/文のalignmentは、予測結果から予測する。
- Enabling Lightweight Fine-tuning for Pre-trained Language Model Compression based on Matrix Product Operators
- Peiyu Liu, Ze-Feng Gao, Wayne Xin Zhao, Zhi-Yuan Xie, Zhong-Yi Lu, Ji-Rong Wen
- TLDR: 事前学習済み言語モデルの転移を、微分可能なマルチモーメントの法則で行う研究。転移は、各モーメントの重みを微分可能な重みに変換する。この重みは、転移先のネットワークの重みと同等の重みになるよう調整する。転移先のネットワークの重みは、転移先のネットワークの重みと同等の重みになるよう調整する。
- On Sample Based Explanation Methods for NLP: Faithfulness, Efficiency and Semantic Evaluation
- Wei Zhang, Ziming Huang, Yada Zhu, Guangnan Ye, Xiaodong Cui, Fan Zhang
- TLDR: 自然言語処理における説明の理解性を改善する研究。説明の文を単語単位で分割し、単語単位の説明を単語単位で行う。単語単位の説明は、単語の意味を含まない単語を含まない単語に置き換える形で行う。単語単位の説明は、単語の意味を含まない単語を含まない単語に置き換える形で行う。
- Syntax-Enhanced Pre-trained Model
- Zenan Xu, Daya Guo, Duyu Tang, Qinliang Su, Linjun Shou, Ming Gong, Wanjun Zhong, Xiaojun Quan, Daxin Jiang, Nan Duan
- TLDR: 事前学習済みモデルを、自動生成した文法構造を用いた研究。事前学習済みモデルは、文法構造を学習する際は文法構造を学習する。文法構造は、文法構造の学習時に学習する。文法構造は、文法構造の学習時に学習する。文法構造は、文法構造の学習時に学習する。文法構造は、文法構造の学習時に学習する。
- Matching Distributions between Model and Data: Cross-domain Knowledge Distillation for Unsupervised Domain Adaptation
- Bo Zhang, Xiaoming Zhang, Yun Liu, Lei Cheng, Zhoujun Li
- TLDR: 事前学習済みモデルを、ターゲットドメインに適用する研究。事前学習済みモデルは、ターゲットドメインのネットワーク構造を学習するネットワークに組み込むことで、ターゲットドメインのネットワーク構造を学習させる。事前学習済みモデルは、ターゲットドメインのネットワーク構造を学習させるためのネットワークを構築する。
- Counterfactual Inference for Text Classification Debiasing
- Chen Qian, Fuli Feng, Lijie Wen, Chunping Ma, Pengjun Xie
- TLDR: テキスト分類器の誤認識を防ぐ研究。事前学習済みモデルを、事前学習済みモデルの誤認識に近いモデルに置き換える。誤認識は、誤認識の予測結果と同等の誤認識結果を生成する。誤認識は、誤認識結果の予測結果と同等の誤認識結果を生成する。誤認識は、誤認識結果の予測結果と同等の誤認識結果を生成する。
- HieRec: Hierarchical User Interest Modeling for Personalized News Recommendation
- Tao Qi, Fangzhao Wu, Chuhan Wu, Peiru Yang, Yang Yu, Xing Xie, Yongfeng Huang
- TLDR: ニュースを個別に推薦する研究。各ユーザーの過去行動から、ニュースの概要、更新頻度、また更新頻度を推定する。各ユーザーの過去行動から、ニュースの概要、更新頻度、また更新頻度を推定する。各ユーザーの過去行動から、ニュースの更新頻度を推定する。
- PP-Rec: News Recommendation with Personalized User Interest and Time-aware News Popularity
- Tao Qi, Fangzhao Wu, Chuhan Wu, Yongfeng Huang
- TLDR: ニュースのpopularityを、ユーザーの行動から予測する研究。ニュースの更新頻度、ユーザーの行動から予測する。更新頻度はニュースの更新頻度と、ユーザーの行動から予測する。更新頻度はニュースの更新頻度と、ユーザーの行動から予測する。
- Article Reranking by Memory-Enhanced Key Sentence Matching for Detecting Previously Fact-Checked Claims
- Qiang Sheng, Juan Cao, Xueyao Zhang, Xirong Li, Lei Zhong
- TLDR: ニュース記事の事実チェックを行う手法の提案。記事のタイトル/イベント/文脈を入力として、記事の事実チェック結果を予測する。記事のタイトル/イベント/文脈を入力として、記事の事実チェック結果を予測する。記事の文脈は、記事のタイトル/イベント/文脈から予測する。
- Defense against Synonym Substitution-based Adversarial Attacks via Dirichlet Neighborhood Ensemble
- Yi Zhou, Xiaoqing Zheng, Cho-Jui Hsieh, Kai-Wei Chang, Xuanjing Huang
- TLDR: 自然言語処理モデルに対するAdversarial Exampleの防御手法の提案。単語の単語分散表現を、単語分散表現の分散表現に変換する。単語分散表現は、単語分散表現の分散表現を入力とする入力文に入力する。入力文の単語分散表現を、単語分散表現の分散表現に変換する。
- Shortformer: Better Language Modeling using Shorter Inputs
- Ofir Press, Noah A. Smith, Mike Lewis
- TLDR: 言語モデルで、長い入力を削減する研究。入力の長さを短くする手法として、入力の長さを短くする手法(長い入力は長いモデルに依存する)、入力の長さを短くする手法(長い入力は長いモデルに依存する)、入力の長さを短くする手法(長い入力は長いモデルに依存する)を挙げている。
- BanditMTL: Bandit-based Multi-task Learning for Text Classification
- Yuren Mao, Zekai Wang, Weiwei Liu, Xuemin Lin, Wenbin Hu
- TLDR: マルチタスク学習において、マルチタスク学習の手法を強化する研究。マルチタスク学習では、タスクの重みを固定する(マルチタスク学習では、タスクの重みを固定する)ことで、マルチタスク学習の精度を上げている。タスクの重みは、タスクの重みを固定する勾配を適用する。
- Unified Interpretation of Softmax Cross-Entropy and Negative Sampling: With Case Study for Knowledge Graph Embedding
- Hidetaka Kamigaito, Katsuhiko Hayashi
- TLDR: 学習済みモデルの重みを、学習済みモデルの重みと比較する研究。重みは学習済みモデルの重みと同等か、学習済みモデルの重みは学習済みモデルの重みと同等かを比較する。重みは学習済みモデルの重みと同等か、学習済みモデルの重みは学習済みモデルの重みと同等かを比較する。
- De-Confounded Variational Encoder-Decoder for Logical Table-to-Text Generation
- Wenqing Chen, Jidong Tian, Yitian Li, Hao He, Yaohui Jin
- TLDR: テーブルから文書を生成する研究は、テーブルの文を生成する際、文の文脈を予測するモデルが欠けているケースがある。この問題を、テーブルの文脈と文書の文脈を予測するモデルの欠損から解くという研究。このモデルは、文脈の予測が困難な場合、文脈の予測が困難な場合、文脈の予測を誤らせることで生成を行う。
- Rethinking Stealthiness of Backdoor Attack against NLP Models
- Wenkai Yang, Yankai Lin, Peng Li, Jie Zhou, Xu Sun
- TLDR: 自然言語処理モデルに対するバックドア攻撃手法の提案。攻撃手法は、攻撃者が攻撃対象のモデルを攻撃する際の挙動を予測する手法をベースにしている。攻撃者は、攻撃対象のモデルが攻撃対象のモデルに適合するかを予測する。攻撃者は、攻撃対象のモデルが攻撃対象のモデルに適合するかを予測する。
- Crowdsourcing Learning as Domain Adaptation: A Case Study on Named Entity Recognition
- Xin Zhang, Guangwei Xu, Yueheng Sun, Meishan Zhang, Pengjun Xie
- TLDR: クラウドソーシングによる学習で、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を防ぎつつ、学習データの分散を
- Exploring Distantly-Labeled Rationales in Neural Network Models
- Quzhe Huang, Shengqi Zhu, Yansong Feng, Dongyan Zhao
- TLDR: 自然言語処理で、行動の意味を隠す単語を除去する手法の提案。通常の行動は、行動の意味を隠す単語を除去するが、この時隠れ層の単語を除去する(隠れ層の単語は、通常の行動の意味を含まない単語に置き換える)。隠れ層の単語を除去することで、学習効率を上げる
- Learning to Perturb Word Embeddings for Out-of-distribution QA
- Seanie Lee, Minki Kang, Juho Lee, Sung Ju Hwang
- TLDR: 事前学習済み言語モデルの学習データから、事前学習済みモデルの学習データを抜く手法の提案。事前学習済みモデルの学習データから、事前学習済みモデルの学習データを抜くことで、事前学習済みモデルの学習データに近いデータセットを学習させる。事前学習済みモデルの学習データから、事前学習済みモデルの学習データを抜くことで、事前学習済みモデルの学習精度を上げる。
- Maria: A Visual Experience Powered Conversational Agent
- Zujie Liang, Huang Hu, Can Xu, Chongyang Tao, Xiubo Geng, Yining Chen, Fan Liang, Daxin Jiang
- TLDR: 画像を基に対話を行うネットワークの提案。画像を基に対話を行うネットワークは、画像を基に対話を行うネットワークと、画像を基に対話を行うネットワークの2つを想定している。対話は、画像を基に対話を行うネットワークの2つを想定している。
- A Human-machine Collaborative Framework for Evaluating Malevolence in Dialogues
- Yangjun Zhang, Pengjie Ren, Maarten de Rijke
- TLDR: 対話システムの評価を自動化する研究。対話システムの評価は機械学習モデルで行うが、対話システムの評価は人間が行う。対話システムの評価は機械学習モデルで行うが、人間評価は人間評価と同等の精度が必要。そのため、対話システムの評価を自動評価に置き換える手法を提案している。
- Generating Relevant and Coherent Dialogue Responses using Self-Separated Conditional Variational AutoEncoders
- Bin Sun, Shaoxiong Feng, Yiwei Li, Jiamou Liu, Kan Li
- TLDR: 対話システムで、事前学習済みモデルの潜在表現を学習するAutoEncoderを提案。事前学習済みモデルは、潜在表現の表現を学習するAutoEncoderの枠組みで学習する。学習済みモデルは、事前学習済みモデルの潜在表現を学習するAutoEncoderの枠組みで学習する。
- Learning to Ask Conversational Questions by Optimizing Levenshtein Distance
- Zhongkun Liu, Pengjie Ren, Zhumin Chen, Zhaochun Ren, Maarten de Rijke, Ming Zhou
- TLDR: 対話中の単語を強化学習で編集する研究。単語の学習は、単語の意味を学習する際の学習方法として使われる。単語の意味を学習する際は、単語の意味を学習する際の学習方法と併用する。学習時は、単語の意味を学習する際の学習方法と併用する。
- DVD: A Diagnostic Dataset for Multi-step Reasoning in Video Grounded Dialogue
- Hung Le, Chinnadhurai Sankar, Seungwhan Moon, Ahmad Beirami, Alborz Geramifard, Satwik Kottur
- TLDR: 対話システムのベンチマークを、動画から収集したデータセット「DVD」で公開。質問/対話のタスクを個別に分類し、質問/対話のタスクを個別に分類したデータセット。質問/対話のタスクは、質問/対話のタスクと同等の分類が可能なか、また質問/対話のタスクのタスクが異なるかを検証している。
- MMGCN: Multimodal Fusion via Deep Graph Convolution Network for Emotion Recognition in Conversation
- Jingwen Hu, Yuchen Liu, Jinming Zhao, Qin Jin
- TLDR: マルチモーダルで対話を行う際に、マルチモーダルの情報を使う手法の提案。マルチモーダルの情報を使うことで、マルチモーダルで対話を行う際に、マルチモーダルの情報を使うとより効果的なモデルを構築できる。
- DynaEval: Unifying Turn and Dialogue Level Evaluation
- Chen Zhang, Yiming Chen, Luis Fernando D’Haro, Yan Zhang, Thomas Friedrichs, Grandee Lee, Haizhou Li
- TLDR: 対話システムの評価を行う際に、対話のノイズを考慮する研究。ノイズはノードの重みから表現されるが、ノードはノードの重みから表現される。ノードはノードの重みから表現されるが、ノードはノードの重みから表現される。ノードはノードの重みから表現される。
- CoSQA: 20,000+ Web Queries for Code Search and Question Answering
- Junjie Huang, Duyu Tang, Linjun Shou, Ming Gong, Ke Xu, Daxin Jiang, Ming Zhou, Nan Duan
- TLDR: 自然言語処理でコードを入力する際、自然言語の入力とコードの入力を同時に行う研究。入力とコードの入力は別々に入力するが、入力とコードの入力は別々に入力する。入力とコードの入力は別々に入力するが、入力とコードの入力は別々に入力する。入力とコードの入力は別々に入力する。
- Rewriter-Evaluator Architecture for Neural Machine Translation
- Yangming Li, Kaisheng Yao
- TLDR: マルチステップの翻訳モデルで、翻訳の評価を行う際に、翻訳の評価を複数回行う手法の提案。翻訳の評価は、翻訳の品質を評価する評価指標として使用される。評価指標は、翻訳の品質を評価する指標として使用される。評価指標は、翻訳の品質を評価する指標として使用される。
- Modeling Bilingual Conversational Characteristics for Neural Chat Translation
- Yunlong Liang, Fandong Meng, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: 対話システムの翻訳モデルを、翻訳品質を高めるために強化学習に組み込んだ研究。対話システムは、翻訳の質を上げるために、翻訳の役割分担、対話の順番、対話の順番、対話の順番、対話順番の3つの要素を学習する。この3要素を、翻訳品質を高めるために強化学習に組み込んだ研究。
- Importance-based Neuron Allocation for Multilingual Neural Machine Translation
- Wanying Xie, Yang Feng, Shuhao Gu, Dong Yu
- TLDR: マルチ言語の翻訳を行う際に、言語共通のモデルを構築する研究。マルチ言語の翻訳では、言語共通のモデルは言語固有の知識を維持するが、言語固有の知識は言語共通のモデルに依存する。そのため、言語固有の知識を維持するモデルを構築する。
- Transfer Learning for Sequence Generation: from Single-source to Multi-source
- Xuancheng Huang, Jingfang Xu, Maosong Sun, Yang Liu
- TLDR: マルチソースの翻訳を行う際に、事前学習済みモデルをマルチソースの翻訳に適用する研究。事前学習済みモデルは、事前学習済みモデルの重みを固定する形で学習する。重みは、事前学習済みモデルの重みを固定する形で学習する。事前学習済みモデルは、事前学習済みモデルの重みを固定する形で学習する。
- A Closer Look at Few-Shot Crosslingual Transfer: The Choice of Shots Matters
- Mengjie Zhao, Yi Zhu, Ehsan Shareghi, Ivan Vulić, Roi Reichart, Anna Korhonen, Hinrich Schütze
- TLDR: マルチタスクで学習するマルチスケールモデルの提案。タスクは多言語のタスクで、タスクの重みはタスクによって異なる。タスクはタスクごとに異なるが、タスクの重みはタスクによって異なる。タスクはタスクごとに異なるが、タスクごとにタスクが異なるためタスクの重みは異なる。タスクはタスクによって異なるが、タスクごとにタスクが異なるためタスクの重みは異なる。
- Coreference Reasoning in Machine Reading Comprehension
- Mingzhu Wu, Nafise Sadat Moosavi, Dan Roth, Iryna Gurevych
- TLDR: 自然言語処理モデルの学習時に、自然言語処理モデルの学習時に起こりうる自然言語処理の課題を解明した研究。自然言語処理モデルの学習時に起こりうる自然言語処理の課題を解明した研究。モデルの学習時に自然言語処理の課題を解明するモデルを追加し、モデルの学習時に自然言語処理の課題を解釈するモデルを追加する。
- Adapting Unsupervised Syntactic Parsing Methodology for Discourse Dependency Parsing
- Liwen Zhang, Ge Wang, Wenjuan Han, Kewei Tu
- TLDR: 教師なしの文関係推論手法を、教師なしの文関係推論手法に適用する研究。教師なしの文関係推論は、教師なしの文関係推論と同等の精度が得られるが、教師なしの文関係推論は、教師なしの文関係推論と同等の精度が得られない。そこで、教師なしの文関係推論手法を教師なしの文関係推論に適用する。
- A Conditional Splitting Framework for Efficient Constituency Parsing
- Thanh-Tung Nguyen, Xuan-Phi Nguyen, Shafiq Joty, Xiaoli Li
- TLDR: 文構造を分割する手法の提案。文構造を分割する際は、文の長さと長さの差を考慮する。長さは文長の長さと、長さの差は長さの長さの長さの長さの長さの長さの長さの長さの長さを考慮する。長さは長さの長さを考慮する。長さは長さの長さを考慮する。長さは長さの長さを考慮する。
- A Unified Generative Framework for Various NER Subtasks
- Hang Yan, Tao Gui, Junqi Dai, Qipeng Guo, Zheng Zhang, Xipeng Qiu
- TLDR: 文中の単語を、単語単位で識別する研究。単語単位の識別は、単語の意味を表す単語の分布を予測する(単語単位の分布は単語単位の分布)、単語単位の分布は単語単位の分布を予測する(単語単位の分布は単語単位の分布)、単語単位の分布は単語単位の分布を予測する(単語単位の分布は単語単位の分布)、単語単位の分布は単語単位の分布を予測する(単語単位の分布は単語単位の分布)、単語単位の分布は単語単位の分布を予測する(単語単位の分布は単語単位の分布)、単語単位の分布は単語単位の分布
- An In-depth Study on Internal Structure of Chinese Words
- Chen Gong, Saihao Huang, Houquan Zhou, Zhenghua Li, Min Zhang, Zhefeng Wang, Baoxing Huai, Nicholas Jing Yuan
- TLDR: 文構造を、文関係の構造から抽出する研究。単語の文構造を、文関係の構造から抽出する。単語の文構造は、単語の固有表現から抽出する。単語の固有表現は、単語の固有表現から抽出する。固有表現は、単語の固有表現から抽出する。固有表現は、単語の固有表現から抽出する。固有表現は、単語の固有表現から抽出する。
- MulDA: A Multilingual Data Augmentation Framework for Low-Resource Cross-Lingual NER
- Linlin Liu, Bosheng Ding, Lidong Bing, Shafiq Joty, Luo Si, Chunyan Miao
- TLDR: マルチ言語のEntity Recognitionを効率的に行う手法の提案。翻訳済みのEntityを翻訳したEntity wiseを、翻訳済みEntity wiseに変換する。Entity wiseは、Entity wiseの単語を翻訳したEntity wiseの単語と、翻訳済みEntity wiseの単語を翻訳したEntity wiseの単語の2つに分割し、翻訳したEntity wiseを翻訳したEntity wiseに変換する。
- Lexicon Enhanced Chinese Sequence Labeling Using BERT Adapter
- Wei Liu, Xiyan Fu, Yue Zhang, Wenming Xiao
- TLDR: 事前学習済みモデルと、事前学習済みモデルを組み合わせたモデルの提案。事前学習済みモデルは、単語/フレーズを結合する機構を導入しており、フレーズを結合する機構は、BERTの下層に組み込まれている。フレーズを結合する機構は、BERTの下層に組み込まれている。
- Math Word Problem Solving with Explicit Numerical Values
- Qinzhuo Wu, Qi Zhang, Zhongyu Wei, Xuanjing Huang
- TLDR: 自然言語処理で、数値の重要性を計測する手法の提案。数値の重要性を計測するモデルは、数値の分布を予測するネットワークを構築する。このネットワークは、数値の分布を計測するネットワークと、数値の分布を計測するネットワークを統合するネットワークを構築する。
- Neural-Symbolic Solver for Math Word Problems with Auxiliary Tasks
- Jinghui Qin, Xiaodan Liang, Yining Hong, Jianheng Tang, Liang Lin
- TLDR: 自然言語処理で、各単語の意味を予測する研究。単語の意味予測は、単語の意味を予測するEncoderDecoderの枠組みで行い、単語の意味予測は、単語の意味を予測するEncoderDecoderの枠組みで行い、単語の意味予測は、単語の意味を予測するEncoderDecoderの枠組みで行い、単語の意味予測は、単語の意味を予測するEncoderDecoderの枠組みで行い、単語の意味予測は、単語の意味を予測するモデルで行い、単語の意味予測は、単語の意味を予測するモデルで行い、単語の意味
- SMedBERT: A Knowledge-Enhanced Pre-trained Language Model with Structured Semantics for Medical Text Mining
- Taolin Zhang, Zerui Cai, Chengyu Wang, Minghui Qiu, Bite Yang, Xiaofeng He
- TLDR: 事前学習済み言語モデル(PLM)を、知識のネットワークに組み込んだ研究。知識のネットワークは、単語/文関係の情報を含まない、単語/文関係の情報を含まない、という2つのネットワークを組み合わせたネットワーク。単語/文関係の情報を含まないネットワークは、単語/文関係の情報を含まないネットワークと同等に扱える。
- What is Your Article Based On? Inferring Fine-grained Provenance
- Yi Zhang, Zachary Ives, Dan Roth
- TLDR: 論文の評価を行う際に、論文の根拠となる事実をきちんと調べるべきと提言している。論文の根拠となる事実は、論文の文脈から得られた事実からのみでなく、論文の文脈から得られた事実からのみでなく、論文の文脈から得られた事実からのみでなく、論文の文脈から得られた事実からのみで評価する。
- Cross-modal Memory Networks for Radiology Report Generation
- Zhihong Chen, Yaling Shen, Yan Song, Xiang Wan
- TLDR: 放射線画像の生成を行う際に、画像とテキストを統合する研究。画像は画像の左側、テキストは画像の右側に分布する。画像とテキストは、画像の左側とテキストの右側に分布する。画像とテキストは、画像の左側とテキストの右側に分布する。画像とテキストは、画像とテキストの分布を統合するネットワークを構築している。
- Controversy and Conformity: from Generalized to Personalized Aggressiveness Detection
- Kamil Kanclerz, Alicja Figas, Marcin Gruza, Tomasz Kajdanowicz, Jan Kocon, Daria Puchalska, Przemyslaw Kazienko
- TLDR: 文書に対する不信度を自動調整する研究。文書に対する不信度は、文書の分類器の分類結果から予測される。文書の分類器は、文書の分類結果を個別に予測するが、文書の分類結果は個別に予測する。そのため、文書の分類結果を個別に予測するモデルを提案している。
- Multi-perspective Coherent Reasoning for Helpfulness Prediction of Multimodal Reviews
- Junhao Liu, Zhen Hai, Min Yang, Lidong Bing
- TLDR: レビューの効果的な推論手法の提案。レビューの効果は、レビューのテキストと画像から推定する。画像は、レビューのテキストと画像の双方を推定する。画像は、レビューの画像とレビューの画像を比較し、画像は、レビューの画像とレビュー画像の画像を比較する。
- Instantaneous Grammatical Error Correction with Shallow Aggressive Decoding
- Xin Sun, Tao Ge, Furu Wei, Houfeng Wang
- TLDR: 高速な事前学習を行うために、TransformerのEncoderDecoderを低解像度にすることで、事前学習済みモデルより高速な事前学習を行う研究。EncoderDecoderは、事前学習済みモデルの重みを調整する形で、事前学習済みモデルの重みを調整する。事前学習済みモデルは、事前学習済みモデルの精度を上げるのに有効なモデルとみなせている。
- Automatic ICD Coding via Interactive Shared Representation Networks with Self-distillation Mechanism
- Tong Zhou, Pengfei Cao, Yubo Chen, Kang Liu, Jun Zhao, Kun Niu, Weifeng Chong, Shengping Liu
- TLDR: 自然言語処理で、自然言語処理のコードを自動生成する研究。コードの生成は、コードの生成時に生成されたコードをベースに、コードの生成時に生成されたコードをベースに学習する。生成時に、コードの生成時に生成されたコードをベースに、コードの生成時に生成されたコードをベースに学習する。
- PHMOSpell: Phonological and Morphological Knowledge Guided Chinese Spelling Check
- Li Huang, Junjie Li, Weiwei Jiang, Zhiyu Zhang, Minchuan Chen, Shaojun Wang, Jing Xiao
- TLDR: 自然言語処理で、単語の意味を推定する研究。単語の意味を推定する際、音声/画像の表現を組み合わせて推定する。音声/画像の表現は、音声/画像の表現を組み合わせたものから生成する。音声/画像の表現は、音声/画像の表現を組み合わせたものから生成する。
- Guiding the Growth: Difficulty-Controllable Question Generation through Step-by-Step Rewriting
- Yi Cheng, Siyao Li, Bang Liu, Ruihui Zhao, Sujian Li, Chenghua Lin, Yefeng Zheng
- TLDR: 質問の生成を行う際に、質問の難易度を上げるためにはどうすればよいかを検証した研究。質問の難易度は、質問文の文脈から推論を行う際に、文脈から推論を行う際に、質問文の文脈から推論を行う際に、文脈から推論を行う際に、文脈から推論を行う際に、文脈から推論を行う際に、文脈から推論を行う際に、文脈から推論を行う際に、文脈から推論を行う際に、文脈から推論を行う際に、文脈から推論を行う際に、文脈から推論を行う際に、文脈から推論を行う際に、文脈から推論を行う際に
- Improving Encoder by Auxiliary Supervision Tasks for Table-to-Text Generation
- Liang Li, Can Ma, Yinliang Yue, Dayong Hu
- TLDR: テーブルから文書を生成する研究。入力データのテーブルから文書を生成する際、文書のサイズや重要性といった属性を考慮する。文書サイズは、文書の重み(サイズ=>重み=>重みの重み)と、文書の重み(重み=>重みの重み)の重み(重みの重み)を考慮する。重みは、文書の重みと重みの重みを比較し、重みの重みを計算する。
- POS-Constrained Parallel Decoding for Non-autoregressive Generation
- Kexin Yang, Wenqiang Lei, Dayiheng Liu, Weizhen Qi, Jiancheng Lv
- TLDR: 教師なし学習で、学習データセットを更新する手法の提案。学習データセットの更新は、学習データセットの更新と同等の条件で行われるが、更新は学習データセットの更新と同等の条件で行われる。更新は、学習データセットの更新と同等の条件で行われる。
- Bridging Subword Gaps in Pretrain-Finetune Paradigm for Natural Language Generation
- Xin Liu, Baosong Yang, Dayiheng Liu, Haibo Zhang, Weihua Luo, Min Zhang, Haiying Zhang, Jinsong Su
- TLDR: 自然言語処理で、事前学習済みモデルを転移する手法の提案。事前学習済みモデルは、事前学習済み単語の表現を生成するネットワークを構築する。このネットワークは、事前学習済みモデルの表現を生成するネットワークを構築する。事前学習済みモデルは、事前学習済み単語の表現を生成するネットワークを構築する。
- TGEA: An Error-Annotated Dataset and Benchmark Tasks for TextGeneration from Pretrained Language Models
- Jie He, Bo Peng, Yi Liao, Qun Liu, Deyi Xiong
- TLDR: 事前学習済み言語モデルによるエラー検知のタスクをまとめたデータセット。エラーの分類、エラーの頻度、エラーの種類、エラーの解釈性、エラーの解釈性、エラーの解釈性、エラーの解釈性、エラーの解釈性、エラーの解釈性、エラーの解釈性、エラーの解釈性、エラーの解釈性をまとめている。
- Long-Span Summarization via Local Attention and Content Selection
- Potsawee Manakul, Mark Gales
- TLDR: 自然言語処理で文書要約を行う際に、事前学習済みモデルを適用する手法の提案。事前学習済みモデルは、文書要約の生成時にメモリがかかるため、事前学習済みモデルを優先的に使用する。事前学習済みモデルは、文書要約の生成時にメモリがかかるため、事前学習済みモデルを優先的に使用する。事前学習済みモデルは、事前学習済みモデルの挙動を逆転させる
- RepSum: Unsupervised Dialogue Summarization based on Replacement Strategy
- Xiyan Fu, Yating Zhang, Tianyi Wang, Xiaozhong Liu, Changlong Sun, Zhenglu Yang
- TLDR: 対話中の要約を、教師なしで生成する研究。要約は文書全体ではなく、文書の中の要約を生成する。要約は文書全体を生成するが、文書中の要約は文書全体を生成する。要約は文書全体を生成するが、文書全体を生成する場合は要約の要約を生成する。
- BASS: Boosting Abstractive Summarization with Unified Semantic Graph
- Wenhao Wu, Wei Li, Xinyan Xiao, Jiachen Liu, Ziqiang Cao, Sujian Li, Hua Wu, Haifeng Wang
- TLDR: 文書の要約を、文書構造をベースにグラフを組み立てたモデルで行う研究。文書構造は、文書全体を表す単語を抽出する形で構成されている。文書構造は、文書全体の単語分布を表す単語を抽出する形で構成されている。文書構造は、文書全体の単語分布を表す単語を抽出する形で構成されている。
- Capturing Relations between Scientific Papers: An Abstractive Model for Related Work Section Generation
- Xiuying Chen, Hind Alamro, Mingzhe Li, Shen Gao, Xiangliang Zhang, Dongyan Zhao, Rui Yan
- TLDR: 論文から関連論文を生成する研究。論文は、論文の概要から関連論文の概要までをまとめた文書。論文は、論文の概要から関連論文の概要までをまとめた文書。論文は、論文の概要から関連論文の概要までをまとめた文書。論文は、論文の概要から関連論文の概要までをまとめた文書。
- Focus Attention: Promoting Faithfulness and Diversity in Summarization
- Rahul Aralikatte, Shashi Narayan, Joshua Maynez, Sascha Rothe, Ryan McDonald
- TLDR: 文書から要約を生成する手法の提案。要約は文書レベルの情報(文書のタイトルなど)を重視する傾向があるが、文書レベルの情報(タイトルなど)を重視する傾向がある。そのため、文書レベルの情報(タイトルなど)を重視する要約を生成する手法を提案している。
- Generating Query Focused Summaries from Query-Free Resources
- Yumo Xu, Mirella Lapata
- TLDR: 文書から要約を作成する際、文書から要約を生成するモデルを提案。文書から要約を生成する際、文書から要約を生成するモデルを生成する。文書から要約を生成する際、文書から要約を生成するモデルを生成する。文書から要約を生成するモデルは、文書から要約を生成するモデルと同等のモデルを構築している。
- Robustifying Multi-hop QA through Pseudo-Evidentiality Training
- Kyungjae Lee, Seung-won Hwang, Sang-eun Han, Dohyeon Lee
- TLDR: マルチホップの質問回答モデルで、質問文の根拠を推定する研究。質問文の根拠は、質問文の文長が長くなるにつれ、質問文の根拠が長くなるにつれ、質問文の根拠が長くなることを確認する。根拠が長くなると、根拠の推定が困難になる可能性があるので、根拠の推定を学習する。
- xMoCo: Cross Momentum Contrastive Learning for Open-Domain Question Answering
- Nan Yang, Furu Wei, Binxing Jiao, Daxing Jiang, Linjun Yang
- TLDR: 質問回答を行う際に、質問回答のベクトルを入力とするモデルを学習する研究。質問回答のベクトルは、質問回答のベクトルと質問回答のベクトルのベクトルを入力とする。入力は、質問回答のベクトルを入力とする。入力は、質問回答のベクトルを入力とする。
- Learn to Resolve Conversational Dependency: A Consistency Training Framework for Conversational Question Answering
- Gangwoo Kim, Hyunjae Kim, Jungsoo Park, Jaewoo Kang
- TLDR: 対話システムに対する依存を解くための研究。質問文を生成する際は、質問文の文書を生成する。文書は文書の文書構造をベースに、文書の文書構造は文書の文書構造をベースにしている。文書は文書構造をベースに、文書は文書構造をベースにしている。文書は文書構造をベースにしている。
- PhotoChat: A Human-Human Dialogue Dataset With Photo Sharing Behavior For Joint Image-Text Modeling
- Xiaoxue Zang, Lijuan Liu, Maria Wang, Yang Song, Hao Zhang, Jindong Chen
- TLDR: 対話システムのデータセット「PhotoChat」を公開。対話システムは12kの画像を扱うデータセットで、画像の共有はInstagramやTwitterなどSNSのSNSで行われている。対話システムは、画像を共有するユーザーの行動を予測するタスクを提案している。
- Good for Misconceived Reasons: An Empirical Revisiting on the Need for Visual Context in Multimodal Machine Translation
- Zhiyong Wu, Lingpeng Kong, Wei Bi, Xiang Li, Ben Kao
- TLDR: マルチモーダルモデルの翻訳モデルを、翻訳モデルの学習に活用した研究。マルチモーダルモデルは、翻訳モデルの学習に使われるテキストを予測するモデルと、翻訳モデルの学習に使われるテキストを予測するモデルの2つを組み合わせている。マルチモーダルモデルは、翻訳モデルの学習に使われるテキストを予測するモデルと、翻訳モデルの学習に使われるテキストを予測するモデルの2つを組み合わせている。
- Attend What You Need: Motion-Appearance Synergistic Networks for Video Question Answering
- Ahjeong Seo, Gi-Cheon Kang, Joonhan Park, Byoung-Tak Zhang
- TLDR: 質問回答を行う際に、画像と動画を組み合わせた研究。画像は画像と動画の双方向で、動画は画像と動画の双方向で表現される。画像は画像と動画の双方向表現を組み合わせた表現で、画像は画像と動画の表現を組み合わせた表現で表現する。画像は画像と動画の表現を組み合わせた表現で表現する。
- BERTifying the Hidden Markov Model for Multi-Source Weakly Supervised Named Entity Recognition
- Yinghao Li, Pranav Shetty, Lucas Liu, Chao Zhang, Le Song
- TLDR: 自然言語処理で、複数の潜在表現から固有表現認識を学習する研究。学習済み言語モデルの潜在表現を学習する際、潜在表現の表現を学習する潜在表現の潜在表現を学習する。潜在表現の学習は、学習済み言語モデルの潜在表現を学習する形で行う。学習済み言語モデルの潜在表現を学習する際、潜在表現の学習は学習済み言語モデルの潜在表現を学習する形で行う。
- CIL: Contrastive Instance Learning Framework for Distantly Supervised Relation Extraction
- Tao Chen, Haizhou Shi, Siliang Tang, Zhigang Chen, Fei Wu, Yueting Zhuang
- TLDR: 距離の教師なし学習で、文中の単語特徴を抽出する手法の提案。文中の単語特徴を抽出するモデルは、文中の単語特徴を抽出するモデルと、文中の単語特徴を抽出する文特徴を抽出する文特徴モデルの2つに分けている。文特徴を抽出する文特徴モデルは、文特徴を抽出する文特徴モデルと、文特徴を抽出する文特徴モデルの2つに分けている。
- SENT: Sentence-level Distant Relation Extraction via Negative Training
- Ruotian Ma, Tao Gui, Linyang Li, Qi Zhang, Xuanjing Huang, Yaqian Zhou
- TLDR: 文単位の事前学習で、文のラベルを学習する手法の提案。ラベルは文単位のラベルでなく、文単位のラベルで学習する。ラベルは文単位のラベルでなく、文単位のラベルで学習する。ラベルは文単位のラベルでなく、文単位のラベルで学習する。
- An End-to-End Progressive Multi-Task Learning Framework for Medical Named Entity Recognition and Normalization
- Baohang Zhou, Xiangrui Cai, Ying Zhang, Xiaojie Yuan
- TLDR: 自然言語処理のモデルで、医療関係の文書から自然言語処理の文書を生成する研究。文書から自然言語処理の文書を生成する際、文書の文書名を入力とする。文書名は文書の分類器で生成する。文書名は文書分類器で生成する。文書分類器は文書分類器の重みを考慮する。
- PRGC: Potential Relation and Global Correspondence Based Joint Relational Triple Extraction
- Hengyi Zheng, Rui Wen, Xi Chen, Yifan Yang, Yunyan Zhang, Ziheng Zhang, Ningyu Zhang, Bin Qin, Xu Ming, Yefeng Zheng
- TLDR: 文書から、関係を推定する研究。関係推定は、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、
- Learning from Miscellaneous Other-Class Words for Few-shot Named Entity Recognition
- Meihan Tong, Shuai Wang, Bin Xu, Yixin Cao, Minghui Liu, Lei Hou, Juanzi Li
- TLDR: 少数クラスの学習で、クラスの分類精度を上げるために、クラスのクラス名を変更する研究。クラス名は、クラス名の意味を表す単語(=クラス名の意味を持つ単語)を含まない単語を含まない単語に置き換える。この単語を、クラス名の意味を表す単語に置き換える形で学習する。
- Joint Biomedical Entity and Relation Extraction with Knowledge-Enhanced Collective Inference
- Tuan Lai, Heng Ji, ChengXiang Zhai, Quan Hung Tran
- TLDR: 自然言語処理で、自然言語処理のEntityと関係を抽出する研究。Entityは自然言語処理のEntityと関係を抽出するネットワークで、関係はEntityのネットワークで表現する。関係はEntityのネットワークで表現する。関係は関係のネットワークで表現する。関係は関係のネットワークで表現する。
- Fine-grained Information Extraction from Biomedical Literature based on Knowledge-enriched Abstract Meaning Representation
- Zixuan Zhang, Nikolaus Parulian, Heng Ji, Ahmed Elsayed, Skatje Myers, Martha Palmer
- TLDR: 自然言語処理で、自然言語処理の文書からBiomedical Information Extractionを行う研究。文書の文脈を抽出するAMRをベースに、文脈の表現を抽出するAverage Retrievalをベースに文書の文脈を抽出する。文書の文脈を抽出するAverage Retrievalは、文書の文脈を抽出する文書の文脈を抽出するモデルをベースにしている。
- Unleash GPT-2 Power for Event Detection
- Amir Pouran Ben Veyseh, Viet Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: 事前学習済み言語モデルの学習済みモデルを学習データに組み込んだ研究。事前学習済みモデルは、事前学習済みモデルの学習データから学習する。学習データは事前学習済みモデルの学習済みモデルの学習済みモデルと、学習済みモデルの学習済みモデルの学習済みモデルの学習データから学習する。
- CLEVE: Contrastive Pre-training for Event Extraction
- Ziqi Wang, Xiaozhi Wang, Xu Han, Yankai Lin, Lei Hou, Zhiyuan Liu, Peng Li, Juanzi Li, Jie Zhou
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルの学習に応用した研究。事前学習済みモデルは事前学習済みモデルの学習に使用するEncoderと、事前学習済みモデルの学習に使用するGraph Encoderを交互に学習する。Encoderは事前学習済みモデルの学習に使用する。Graph Encoderは事前学習済みモデルの学習に使用する。
- Document-level Event Extraction via Parallel Prediction Networks
- Hang Yang, Dianbo Sui, Yubo Chen, Kang Liu, Jun Zhao, Taifeng Wang
- TLDR: 文書から、文書中のイベントを抽出する研究。文書の文構造を文書単位で抽出するEncoderを、文書単位のEncoderを文書単位のEncoderに置き換えたモデルで生成する。Encoderは文書単位で生成するが、文書単位のEncoderは文書単位のEncoderを生成する。文書単位のEncoderは文書単位のEncoderを生成する。
- StructuralLM: Structural Pre-training for Form Understanding
- Chenliang Li, Bin Bi, Ming Yan, Wei Wang, Songfang Huang, Fei Huang, Luo Si
- TLDR: 事前学習済み言語モデルで、文書のレイアウト情報を用いた研究。文書のレイアウトは、文書の構造を表す要素(cell)と、文書のレイアウトを表す要素(cell位置)を用いた研究。文書のレイアウトは、文書の構造を表す要素(cell位置)と、文書のレイアウトを表す要素(cell位置)を用いた研究。
- Dual Graph Convolutional Networks for Aspect-based Sentiment Analysis
- Ruifan Li, Hao Chen, Fangxiang Feng, Zhanyu Ma, Xiaojie Wang, Eduard Hovy
- TLDR: 文構造と文特徴を組み合わせた研究。文構造は、文特徴と文特徴の相互依存を考慮する。文特徴は、文特徴と文特徴の相互依存を考慮する。文特徴は、文特徴と文特徴の相互依存を考慮する。文特徴は、文特徴と文特徴の相互依存を考慮する。文特徴は、文特徴と文特徴の相互依存を考慮する。
- Multi-Label Few-Shot Learning for Aspect Category Detection
- Mengting Hu, Shiwan Zhao, Honglei Guo, Chao Xue, Hang Gao, Tiegang Gao, Renhong Cheng, Zhong Su
- TLDR: 文中のaspect categoriesを、マルチラベルで学習する手法の提案。各ラベルのAttentionを、各ラベルのAttentionに分割し、Attentionの分散を考慮する。この分散を考慮することにより、各ラベルのAttentionを個別に学習する。
- Argument Pair Extraction via Attention-guided Multi-Layer Multi-Cross Encoding
- Liying Cheng, Tianyu Wu, Lidong Bing, Luo Si
- TLDR: マルチモーメントのマルチラベルの分散表現を学習する研究。マルチラベルの分散表現を学習する際、各ラベルの表現をAttentionで学習する。Attentionは、各ラベルの表現をAttentionで学習する。この時、各ラベルの表現をAttentionで学習する。
- A Neural Transition-based Model for Argumentation Mining
- Jianzhu Bao, Chuang Fan, Jipeng Wu, Yixue Dang, Jiachen Du, Ruifeng Xu
- TLDR: 文構造を推定する手法の提案。文構造は、文の構造を推定するモデルで推定する。文構造は、文の構造を推定するモデルで推定する。文構造は、文構造の推定を学習するモデルで推定する。文構造は、文構造の推定を学習するモデルで推定する。文構造は、文構造の推定を学習するモデルで学習する。
- Keep It Simple: Unsupervised Simplification of Multi-Paragraph Text
- Philippe Laban, Tobias Schnabel, Paul Bennett, Marti A. Hearst
- TLDR: 教師なし学習で、シンプルな文書を解く手法の提案。シンプルな文書を解くには、シンプルな文書の学習を優先する。シンプルな文書は、単純な文書の学習に適さない。シンプルな文書は、単純な文書の学習に適さない。シンプルな文書は、単純な文書の学習に適さない。
- Long Text Generation by Modeling Sentence-Level and Discourse-Level Coherence
- Jian Guan, Xiaoxi Mao, Changjie Fan, Zitao Liu, Wenbiao Ding, Minlie Huang
- TLDR: 自然言語処理で、文の生成を行う際に、文の構造を予測する研究。文構造は単語レベルの表現で、文構造は文レベルの表現で生成する。文構造は単語レベルの表現で生成するが、文構造は文レベルの表現で生成する。文構造は文構造と同等になるよう、文構造を予測するモデルを提案
- OpenMEVA: A Benchmark for Evaluating Open-ended Story Generation Metrics
- Jian Guan, Zhexin Zhang, Zhuoer Feng, Zitao Liu, Wenbiao Ding, Xiaoxi Mao, Changjie Fan, Minlie Huang
- TLDR: 自然言語処理モデルの評価指標について、事前学習済みモデルと同等の精度を検証した研究。事前学習済みモデルは、事前学習済みモデルと同等の精度を発揮するが、事前学習済みモデルは人手評価と同等の精度を発揮する。事前学習済みモデルは、事前学習済みモデルの精度と同等の精度を発揮するが、事前学習済みモデルは人手評価と同等の精度を発揮する。
- DYPLOC: Dynamic Planning of Content Using Mixed Language Models for Text Generation
- Xinyu Hua, Ashwin Sreevatsa, Lu Wang
- TLDR: ユーザーの意見を生成するモデルの提案。ユーザーの意見を生成するモデルは、ユーザーの意見を予測するモデルと、ユーザーの意見を生成するモデルの2つをベースにしている。ユーザーの意見を生成するモデルは、ユーザーの意見を予測するモデルと、ユーザーの意見を生成するモデルの2つをベースにしている。
- Controllable Open-ended Question Generation with A New Question Type Ontology
- Shuyang Cao, Lu Wang
- TLDR: 質問文を生成する際、質問文の文長が長い方が質問文の回答に適した文長になるようにする研究。文長は質問文の長と、文長は質問文の長を区別する。文長は質問文長の長と、文長は質問文長の長を区別する。文長は質問文長の長を区別する。文長は質問文長の長を区別する。
- BERTGen: Multi-task Generation through BERT
- Faidon Mitzalis, Ozan Caglayan, Pranava Madhyastha, Lucia Specia
- TLDR: マルチタスクで学習したBERTを、マルチタスクで学習したBERTに置き換えたモデル。マルチタスクで学習したBERTと、マルチタスクで学習したBERTを組み合わせたモデルを比較し、BERTとマルチタスクで学習したBERTを比較した研究。マルチタスクで学習したBERTとマルチタスクで学習したBERTを比較し、BERTとマルチタスクで学習したBERTを比較した研究。
- Selective Knowledge Distillation for Neural Machine Translation
- Fusheng Wang, Jianhao Yan, Fandong Meng, Jie Zhou
- TLDR: 翻訳モデルの学習データの蒸留を検証した研究。蒸留は蒸留データの重みを蒸留するのではなく、蒸留データの重みを蒸留する。蒸留は蒸留データの重みを蒸留するだけでなく、蒸留データの重みを蒸留するデータの重みを蒸留するデータの重みを蒸留する。蒸留データの重みは蒸留データの重みと同等の重みを蒸留する。
- Measuring and Increasing Context Usage in Context-Aware Machine Translation
- Patrick Fernandes, Kayo Yin, Graham Neubig, André F. T. Martins
- TLDR: 翻訳文の文脈から、翻訳モデルの使用頻度を計測する研究。文脈から、翻訳モデルの使用頻度を計測する。文脈から、文脈の使用頻度を計測する際は、文脈の使用頻度を計測するモデルを導入する。文脈の使用頻度は、文脈の使用頻度と同等の指標で計測する。
- Beyond Offline Mapping: Learning Cross-lingual Word Embeddings through Context Anchoring
- Aitor Ormazabal, Mikel Artetxe, Aitor Soroa, Gorka Labaka, Eneko Agirre
- TLDR: マルチ言語の分散表現を、教師なしで学習する研究。分散表現は、単語の分散表現と同等の構造を持つ言語の分散表現を組み合わせて学習する。分散表現は、単語の分散表現を学習する際、単語の分散表現を学習する。学習は、単語分散表現の学習と併用する。
- CCMatrix: Mining Billions of High-Quality Parallel Sentences on the Web
- Holger Schwenk, Guillaume Wenzek, Sergey Edunov, Edouard Grave, Armand Joulin, Angela Fan
- TLDR: マルチ言語の翻訳モデルで、翻訳文をマルチ言語に拡張する研究。翻訳文の単語分布を予測するモデルをベースに、翻訳文の単語分布を予測するモデルをベースに翻訳文の単語分布を予測するモデルをベースに、翻訳文の単語分布を予測するモデルをベースに翻訳文の単語分布を予測するモデルをベースに翻訳文の単語分布を予測するモデルをベースに翻訳文の単語分布を予測するモデルをベースに翻訳文の単語分布を予測するモデルをベースに翻訳文の単語分布を予測するモデルをベースに翻訳文の単語分布を予測するモデルをベースに翻訳文の単語分布
- Length-Adaptive Transformer: Train Once with Length Drop, Use Anytime with Search
- Gyuwan Kim, Kyunghyun Cho
- TLDR: 文分類において、文の長さを変更する手法の提案。文の長さを変更する際は、文の長さを予測するモデルを導入する。文長は、文の長さを予測するモデルの長さと、文長を予測するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの長さを比較するモデルの
- GhostBERT: Generate More Features with Cheap Operations for BERT
- Zhiqi Huang, Lu Hou, Lifeng Shang, Xin Jiang, Xiao Chen, Qun Liu
- TLDR: 事前学習済み言語モデルの学習データを、学習済みモデルの挙動に近いモデルに置き換える研究。学習済みモデルの挙動を学習データに置き換えることで、学習データの挙動を学習データに置き換える。学習データの挙動は学習データの挙動に近いが、学習データの挙動は学習データの挙動に近い。
- Super Tickets in Pre-Trained Language Models: From Model Compression to Improving Generalization
- Chen Liang, Simiao Zuo, Minshuo Chen, Haoming Jiang, Xiaodong Liu, Pengcheng He, Tuo Zhao, Weizhu Chen
- TLDR: モデルのパフォーマンスが上がるにつれ、モデルのパフォーマンスが上がる現象を検証した研究。モデルのパフォーマンスは、学習データのサイズが大きくなるにつれ徐々に低下していく。この現象は、学習データのサイズが大きくなるにつれ徐々に低下していく。
- A Novel Estimator of Mutual Information for Learning to Disentangle Textual Representations
- Pierre Colombo, Pablo Piantanida, Chloé Clavel
- TLDR: 自然言語処理における、事前学習済みモデルと事前学習済みモデルの境界を調整する研究。事前学習済みモデルは、事前学習済みモデルと事前学習済みモデルの境界を近似する。この近似は、事前学習済みモデルの境界を近似する形で行われる。事前学習済みモデルは、事前学習済みモデルの境界を近似する。
- Determinantal Beam Search
- Clara Meister, Martina Forster, Ryan Cotterell
- TLDR: 自然言語処理で、複数候補のモデルを比較する手法の提案。複数候補のモデルは、各候補のモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの
- Multi-hop Graph Convolutional Network with High-order Chebyshev Approximation for Text Reasoning
- Shuoran Jiang, Qingcai Chen, Xin Liu, Baotian Hu, Lisai Zhang
- TLDR: 自然言語処理における、マルチスケールなグラフ表現の提案。既存のグラフ表現は、単一のノードのみで処理することが多いが、この場合、複数ノードのノードを結合する形で処理する。これにより、複数ノードの処理が容易なモデルを構築できる。
- Accelerating Text Communication via Abbreviated Sentence Input
- Jiban Adhikary, Jamie Berger, Keith Vertanen
- TLDR: テキストを短くする研究。単語を短くする単語は、入力時に入力するテキストの長さを短くする。短い単語は入力時に入力するテキストの長さを短くする。短い単語は入力時に入力するテキストの長さを短くする。短い単語は入力時に入力するテキストの長さを短くする。
- Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing Regressions In NLP Model Updates
- Yuqing Xie, Yi-An Lai, Yuanjun Xiong, Yi Zhang, Stefano Soatto
- TLDR: 学習済みモデルの更新で、学習済みモデルの学習率を下げるためには、学習率の低下を抑制する手法を導入する研究。学習率は学習率の低下を抑制するが、学習率の低下は学習率の低下に寄与しないため、学習率の低下を抑制する手法を導入する。
- Detecting Propaganda Techniques in Memes
- Dimitar Dimitrov, Bishr Bin Ali, Shaden Shaar, Firoj Alam, Fabrizio Silvestri, Hamed Firooz, Preslav Nakov, Giovanni Da San Martino
- TLDR: マルチモーダルでマルチタスクを行う手法を調べた研究。マルチモーダルでマルチタスクを行う手法は、画像とテキスト、また画像と画像の2つを用いている。マルチモーダルでマルチタスクを行う手法は、画像とテキスト双方を用いている。
- On the Efficacy of Adversarial Data Collection for Question Answering: Results from a Large-Scale Randomized Study
- Divyansh Kaushik, Douwe Kiela, Zachary C. Lipton, Wen-tau Yih
- TLDR: 敵対的データセットで学習したモデルが、通常のモデルより精度が上がるか検証した研究。敵対的データセットは通常のモデルより精度が落ちるが、モデルの学習は精度が上がる一方精度が上がる。また、モデルの学習はモデルの挙動を学習するより精度が上がる傾向がある。
- Learning Dense Representations of Phrases at Scale
- Jinhyuk Lee, Mujeen Sung, Jaewoo Kang, Danqi Chen
- TLDR: オープンドメインのQAで、単語の表現を学習する研究。単語の表現は、単語の意味を表す単語(=単語の意味)を、単語の意味を表す単語(=単語の意味)を表す単語(=単語の意味)を学習する形で学習する。単語の表現は、単語の意味を表す単語を学習する形で学習する。
- End-to-End Training of Neural Retrievers for Open-Domain Question Answering
- Devendra Sachan, Mostofa Patwary, Mohammad Shoeybi, Neel Kant, Wei Ping, William L. Hamilton, Bryan Catanzaro
- TLDR: オープンドメインのQAモデルで、事前学習済みモデルと比較して精度が向上した研究。事前学習済みモデルは、事前学習済みモデルの学習率を上回る精度を達成。事前学習済みモデルは、事前学習済みモデルの学習率を上回る精度を達成。
- Question Answering Over Temporal Knowledge Graphs
- Apoorv Saxena, Soumen Chakrabarti, Partha Talukdar
- TLDR: 自然言語処理で、時系列の予測を行う際に、時系列の予測を連続的に行う手法の提案。時系列の予測は、時系列の予測を連続的に行うことで、予測結果を予測する。時系列の予測は、時系列の予測結果を予測するネットワークを構築する。時系列の予測は、時系列の予測結果を予測するネットワークを構築する。
- Language Model Augmented Relevance Score
- Ruibo Liu, Jason Wei, Soroush Vosoughi
- TLDR: 自然言語処理で評価を行う際に、事前学習済み言語モデルの評価と、事前学習済み言語モデルの評価を比較した研究。事前学習済み言語モデルの評価は、事前学習済み言語モデルの文脈を考慮するが、事前学習済み言語モデルの文脈は評価対象としていない。事前学習済み言語モデルの文脈を考慮する手法を提案。
- DExperts: Decoding-Time Controlled Text Generation with Experts and Anti-Experts
- Alisa Liu, Maarten Sap, Ximing Lu, Swabha Swayamdipta, Chandra Bhagavatula, Noah A. Smith, Yejin Choi
- TLDR: 自然言語処理で、生成したテキストを自動生成する研究。生成したテキストは、生成時に生成されたテキストと同等の精度を維持できるかを検証する。生成時に生成されたテキストは、生成時に生成されたテキストと同等の精度を維持できるかを検証する。生成時に生成されたテキストは、生成時に生成されたテキストと同等の精度を維持できるかを検証する。
- Polyjuice: Generating Counterfactuals for Explaining, Evaluating, and Improving Models
- Tongshuang Wu, Marco Tulio Ribeiro, Jeffrey Heer, Daniel Weld
- TLDR: 自然言語処理モデルの学習時に、自然言語処理モデルの誤謬を検知する手法の提案。学習データセットの各文をGPT-2で学習し、誤謬の分布を予測する。誤謬分布は、単語の重みを入力とする文の重みに変換し、単語の重みを入力とする文の重みに変換する形で生成する。
- Metaphor Generation with Conceptual Mappings
- Kevin Stowe, Tuhin Chakrabarty, Nanyun Peng, Smaranda Muresan, Iryna Gurevych
- TLDR: 自然言語処理で、文の表現を学習する研究。文の表現を、文の意味を予測するフレームワーク(CNN)で学習し、フレームワークの表現をフレームワークの表現に変換する。フレームワークは、CNNとフレームワークの潜在表現を組み合わせたモデル。フレームワークは、CNNとフレームワークの潜在表現を組み合わせたモデル。
- Learning Latent Structures for Cross Action Phrase Relations in Wet Lab Protocols
- Chaitanya Kulkarni, Jany Chan, Eric Fosler-Lussier, Raghu Machiraju
- TLDR: 自然言語処理における、各ステップごとの処理の説明を自動生成する研究。各ステップごとの処理の説明を、文書から自動生成する。文書から文書の文書構造を学習し、文書構造を文書の文書構造に近づける形で文書を作成する。文書構造は文書構造と文書構造の2つに分けており、文書構造は文書構造と文書構造の2つに分けている。
- Multimodal Multi-Speaker Merger & Acquisition Financial Modeling: A New Task, Dataset, and Neural Baselines
- Ramit Sawhney, Mihir Goyal, Prakhar Goel, Puneet Mathur, Rajiv Ratn Shah
- TLDR: 株式分割や転移といった大規模な転移を行う際、事前学習済みモデルを用いたモデルの提案。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるため、事前学習済みモデルの予測精度を上げるための手法を取っている。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を取っている。
- Mid-Air Hand Gestures for Post-Editing of Machine Translation
- Rashad Albo Jamara, Nico Herbig, Antonio Krüger, Josef van Genabith
- TLDR: 機械翻訳における、キーボードの操作を改善した研究。キーボードは入力に近い位置で、入力は入力の位置を入力とする。キーボードは入力の位置を入力とする入力を入力とする。入力は入力と入力双方の入力を入力とする。入力は入力と入力双方の入力を入力とする。入力は入力と入力双方の入力を入力とする。入力は入力と入力双方の入力を入力とする。
- Inter-GPS: Interpretable Geometry Problem Solving with Formal Language and Symbolic Reasoning
- Pan Lu, Ran Gong, Shibiao Jiang, Liang Qiu, Siyuan Huang, Xiaodan Liang, Song-Chun Zhu
- TLDR: 自然言語処理で、自然言語処理のモデルを解く研究。モデルの説明は、モデルの構造を説明する文書から、モデルの構造を説明する文書から、モデルの構造を説明する文書から、文書から文書を生成する文書から、文書から文書を生成する文書から、文書から文書を生成する文書から、文書から文書を生成する文書から、文書から文書を生成する文書から、文書から文書を生成する文書から、文書から文書を生成する文書から、文書から文書を生成する文書から、文書から文書を生成する文書から、文書から文書を生成する文書から、文書から文書を生成する文書から、文書
- Joint Verification and Reranking for Open Fact Checking Over Tables
- Michael Sejr Schlichtkrull, Vladimir Karpukhin, Barlas Oguz, Mike Lewis, Wen-tau Yih, Sebastian Riedel
- TLDR: 文書から文書を生成するモデルの提案。文書から文書を生成する際、文書の文書分類器を生成する。文書分類器は文書分類器と文書分類器の2つを統合し、文書分類器は文書分類器の分類器を生成する。文書分類器は文書分類器の分類器を生成する。文書分類器は文書分類器の分類器を生成する。
- Evaluation of Thematic Coherence in Microblogs
- Iman Munire Bilal, Bo Wang, Maria Liakata, Rob Procter, Adam Tsakalidis
- TLDR: マルチモーダルで分散したニュースソースから、各ニュースソースのニュースモデルの精度を評価するタスクの提案。各ニュースソースのニュースモデルの精度を評価するタスクで、精度が高いニュースソースを優先的に評価する。ニュースソースの精度は、ニュースソースの評価と同等の評価が行えるか検証している。
- Neural semi-Markov CRF for Monolingual Word Alignment
- Wuwei Lan, Chao Jiang, Wei Xu
- TLDR: マルチ言語の文書生成を行う際に、単語のalignmentをマルチ言語のモデルで行う研究。マルチ言語の文書生成を行う際は、単語のalignmentをマルチ言語のモデルで行う。マルチ言語の文書生成では、マルチ言語のモデルで行うと精度が落ちる。そこで、マルチ言語の文書生成を想定したモデルを提案。マルチ言語の文書生成では、マルチ言語のモデルが良好な結果を出した。
- Privacy at Scale: Introducing the PrivaSeer Corpus of Web Privacy Policies
- Mukund Srinath, Shomir Wilson, C Lee Giles
- TLDR: プライバシーポリシーを検索するサーベイのサーベイ。プライバシーポリシーの文書は、プライバシーポリシーの文書と比較して、検索結果が異なるケースが多い。そのため、文書の分類/削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の削除、文書の
- The statistical advantage of automatic NLG metrics at the system level
- Johnny Wei, Robin Jia
- TLDR: 自動生成システムの品質を評価する手法の提案。自動生成システムは、学習済みモデルと同等の精度を達成できるか検証する。自動生成システムは、学習済みモデルの精度と同等の精度を達成できるか検証する。精度は、学習済みモデルの精度と同等の精度を達成できるか検証する。精度は、学習済みモデルの精度と同等の精度を達成できるか検証する。
- Are Missing Links Predictable? An Inferential Benchmark for Knowledge Graph Completion
- Yixin Cao, Xiang Ji, Xin Lv, Juanzi Li, Yonggang Wen, Hanwang Zhang
- TLDR: 事前学習済みモデルの学習済みモデルを評価するデータセットの提案。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための事前学習済みモデルの学習済みモデルと同等の精度を達成できるか検証する。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための事前学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習
- ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive Summarization with Argument Mining
- Alexander Fabbri, Faiaz Rahman, Imad Rizvi, Borui Wang, Haoran Li, Yashar Mehdad, Dragomir Radev
- TLDR: ニュース記事に対する質問回答を、ニュース記事に対する質問回答と同等のモデルでモデル化した研究。質問回答はニュース記事のニュースソースから、質問回答はニュース記事のニュースソースから、ニュース記事のニュースソースから質問回答はニュースソースから、という3つのタスクで検証している。
- Improving Factual Consistency of Abstractive Summarization via Question Answering
- Feng Nan, Cicero Nogueira dos Santos, Henghui Zhu, Patrick Ng, Kathleen McKeown, Ramesh Nallapati, Dejiao Zhang, Zhiguo Wang, Andrew O. Arnold, Bing Xiang
- TLDR: 文書から要約を行う際に、文書の要約文を生成する際の要約文の事実誤差を自動評価する手法の提案。要約文の要約文を生成する際は、文書の要約文を生成する際の要約文の要約文と一致する要約文を生成する。要約文の要約文を生成する際は、要約文の要約文を生成する要約文の要約文に近い要約文を生成する。
- EmailSum: Abstractive Email Thread Summarization
- Shiyue Zhang, Asli Celikyilmaz, Jianfeng Gao, Mohit Bansal
- TLDR: 質問回答のタスクで、質問回答の評価指標を強化する研究。質問回答の評価指標は、質問回答の質と回答の精度を測る指標として使われるROUGE、BERTScore、BERTScoreが中心で、評価指標の精度が低いと判断される。
- Cross-Lingual Abstractive Summarization with Limited Parallel Resources
- Yu Bai, Yang Gao, Heyan Huang
- TLDR: マルチタスクの要約モデルを、低リソースの言語に適用した研究。要約は、各言語の要約を個別に生成する。要約は、各言語の要約を個別に生成する。要約は、各言語の要約を個別に生成する。要約は、各言語の要約を個別に生成する。
- Dissecting Generation Modes for Abstractive Summarization Models via Ablation and Attribution
- Jiacheng Xu, Greg Durrett
- TLDR: 要約モデルの生成を行う際に、モデルの生成を行う際に使われるAttributionを検証した研究。Attributionはモデルの生成を行う際に使われる手法で、生成を行う際に使われるAttributeは、モデルの生成を行う際に使用される単語の数が多い場合に使用されることが多い。
- Learning Prototypical Functions for Physical Artifacts
- Tianyu Jiang, Ellen Riloff
- TLDR: 自然言語処理で、物体の特徴を学習する研究。物体の特徴を表現するフレームワークを、フレームワークの分類結果から学習する。フレームワークはWordNet、フレーム表現はFrameNet。フレーム表現は、フレームワークの分類結果から学習する。
- Verb Knowledge Injection for Multilingual Event Processing
- Olga Majewska, Ivan Vulić, Goran Glavaš, Edoardo Maria Ponti, Anna Korhonen
- TLDR: 事前学習済み言語モデルに、文法・文構造・文表現の3つを学習させる研究。事前学習済み言語モデルは、文法・文構造・文表現の3つを学習する。文法・文構造・文表現の3つを学習する際、事前学習済み言語モデルの学習済み文を学習する。文法・文構造・文表現の3つを学習する際、事前学習済み言語モデルの学習済み文を学習する。
- Dynamic Contextualized Word Embeddings
- Valentin Hofmann, Janet Pierrehumbert, Hinrich Schütze
- TLDR: 自然言語処理で、マルチベクトルの単語分散表現を用いた研究。マルチベクトルの分散表現は、単語の意味が異なる2つの言語で表現されることが多いが、マルチベクトルの分散表現は、言語の表現が異なる2つの言語で表現される可能性がある。
- Lexical Semantic Change Discovery
- Sinan Kurtyigit, Maike Park, Dominik Schlechtweg, Jonas Kuhn, Sabine Schulte im Walde
- TLDR: 単語の変遷を検知する手法の提案。単語の変遷は、単語の意味が変わるにつれ徐々に減っていく傾向がある。そのため、単語の変遷を検知するモデルを導入し、その結果をベースに学習を行う。学習は、単語の変遷を検知するモデルをベースに行う。
- The R-U-A-Robot Dataset: Helping Avoid Chatbot Deception by Detecting User Questions About Human or Non-Human Identity
- David Gros, Yu Li, Zhou Yu
- TLDR: 機械学習モデルで、人間と同等の意思決定を行う際に、機械が人間と同等の意思決定を行うか検証した研究。機械学習モデルは人間と同等の意思決定を行うか検証しているが、人間と同等の意思決定を行う場合、人間と同等の意思決定を行うか検証している。
- Using Meta-Knowledge Mined from Identifiers to Improve Intent Recognition in Conversational Systems
- Claudio Pinhanez, Paulo Cavalin, Victor Henrique Alves Ribeiro, Ana Appel, Heloisa Candello, Julio Nogima, Mauro Pichiliani, Melina Guerra, Maira de Bayser, Gabriel Malfatti, Henrique Ferreira
- TLDR: 対話システムの学習時に、文中の単語を認識する研究。文中の単語は、単語の意味を含まない単語として認識する。単語の意味を含まない単語は、文中の単語を認識する精度が下がる可能性がある。そのため、文中の単語を認識する際は、文中の単語を認識する単語ベクトルを認識する形で学習する。
- Space Efficient Context Encoding for Non-Task-Oriented Dialogue Generation with Graph Attention Transformer
- Fabian Galetzka, Jewgeni Rose, David Schlangen, Jens Lehmann
- TLDR: 対話システムで、文中の知識グラフをテキストベースのEncoderに置き換える研究。テキストベースのEncoderは、文中の知識グラフをテキストベースのEncoderに置き換える。テキストベースのEncoderは、文中の知識グラフをテキストベースのEncoderに置き換える。テキストベースのEncoderは、文中の知識グラフをテキストベースのEncoderに置き換える。
- DialogueCRN: Contextual Reasoning Networks for Emotion Recognition in Conversations
- Dou Hu, Lingwei Wei, Xiaoyong Huai
- TLDR: 対話中の感情を認識する研究。対話中の感情を認識するネットワークを構築し、そのネットワークを学習する。学習は、対話中の感情を認識するネットワークの学習と、感情を認識するネットワークの学習を交互に行う。学習は、対話中の感情を認識するネットワークの学習と、感情を認識するネットワークの学習を交互に行う。
- Cross-replication Reliability - An Empirical Approach to Interpreting Inter-rater Reliability
- Ka Wong, Praveen Paritosh, Lora Aroyo
- TLDR: クラウドソーシングで使われるタスクモデルを、実装した研究。タスクモデルは、タスクの精度を評価する指標として、タスクの精度を評価する指標として、タスクの精度を評価する指標として、タスクの精度を評価する指標として、タスクの精度を評価する指標としてタスクを定義している。タスクは、タスクの精度を評価する指標としてタスクを定義している。タスクは、タスクの精度を評価する指標としてタスクを定義している。タスクは、タスクの精度を評価する指標としてタスクを定義している。タスクは、タスクの精度を評価する指標としてタ
- TIMEDIAL: Temporal Commonsense Reasoning in Dialog
- Lianhui Qin, Aditya Gupta, Shyam Upadhyay, Luheng He, Yejin Choi, Manaal Faruqui
- TLDR: 事前学習済み言語モデル(T5やGPT-3など)で、時間軸の推論を検証した研究。事前学習済みモデルは、時間軸の推論が難しい場合、時間軸の推論を学習する。この時、時間軸の推論は、時間軸の推論と同等の意味を持つ場合に有効な手法になる。
- RAW-C: Relatedness of Ambiguous Words in Context (A New Lexical Resource for English)
- Sean Trott, Benjamin Bergen
- TLDR: 自然言語処理で、単語の意味をカテゴリごとにカテゴリごとカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテゴリ単位でカテ
- ARBERT & MARBERT: Deep Bidirectional Transformers for Arabic
- Muhammad Abdul-Mageed, AbdelRahim Elmadany, El Moatez Billah Nagoudi
- TLDR: 多言語のアルカニズム学習モデルの評価を強化した研究。アルカニズム学習モデルは、Transformerベースのモデルと、Transformerを複数回転させるモデルの2つをベースにしている。Transformerベースのモデルは、Transformerを複数回転させるモデルと、Transformerを複数回転させるモデルの2つをベースにしている。
- Improving Paraphrase Detection with the Adversarial Paraphrasing Task
- Animesh Nighojkar, John Licato
- TLDR: 文の意味と文の類似度を調べる研究。文の意味と類似度は文の文脈から推論するが、文の類似度は文脈から推論する。文の類似度は文脈から推論するが、文脈から推論するより文脈から推論する方が正確。文脈から推論するより文脈から推論する方が精度が上がる。
- ADEPT: An Adjective-Dependent Plausibility Task
- Ali Emami, Ian Porada, Alexandra Olteanu, Kaheer Suleman, Adam Trischler, Jackie Chi Kit Cheung
- TLDR: 自然言語処理で、既存のキーを誤認識する問題を解く研究。既存のキーは誤認識しやすいが、誤認識はキーの位置を誤認識する可能性がある。このため、キーの位置を誤認識するのではなく、キーの位置を誤認識するキーを追加する形でキーを推定する。
- ReadOnce Transformers: Reusable Representations of Text for Transformers
- Shih-Ting Lin, Ashish Sabharwal, Tushar Khot
- TLDR: 文書を文書から文書に変換するTransformerを、文書から文書への変換を学習する際のタスクを想定した研究。文書の文書分割は文書分割と同等の処理が必要で、文書分割は文書分割と同等の処理が必要。文書分割は文書分割と同等の処理が必要で、文書分割は文書分割と同等の処理が必要。文書分割は文書分割と同等の処理が必要
- Conditional Generation of Temporally-ordered Event Sequences
- Shih-Ting Lin, Nathanael Chambers, Greg Durrett
- TLDR: 事前学習済みモデルを、事前学習済みモデルの予測と同等の手法で更新する研究。事前学習済みモデルは事前学習済みモデルの予測と同等の手法を取っており、事前学習済みモデルの予測と同等の手法を取っている。事前学習済みモデルは事前学習済みモデルの予測と同等の手法を取っている。事前学習済みモデルは事前学習済みモデルの予測と同等の手法を取っている。
- Hate Speech Detection Based on Sentiment Knowledge Sharing
- Xianbing Zhou, Yang Yong, Xiaochao Fan, Ge Ren, Yunfeng Song, Yufeng Diao, Liang Yang, Hongfei Lin
- TLDR: ネット上の不法攻撃に対する自動検知と、その対策についてまとめた研究。不法攻撃に対する自動検知は、不法攻撃に対する潜在表現の分布を予測するモデルで、潜在表現の分布を予測するモデルと、潜在表現の分布を予測するモデルの2つを提案している。
- Transition-based Bubble Parsing: Improvements on Coordination Structure Prediction
- Tianze Shi, Lillian Lee
- TLDR: 文の構造を予測する研究。文の構造を予測する際は、文の構造を予測する単語を予測する単語ベクトルを生成する。単語ベクトルは単語ベクトルの重みを表現する形で生成されるが、単語ベクトルは単語ベクトルの重みを表現する形で生成される。単語ベクトルは単語ベクトルの重みを表現する形で生成される。
- SpanNER: Named Entity Re-/Recognition as Span Prediction
- Jinlan Fu, Xuanjing Huang, Pengfei Liu
- TLDR: 事前学習済みモデルと、事前学習済みモデルの組み合わせ方についてまとめた研究。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成される単語を予測するが、事前学習済みモデルは単語の予測結果を予測するモデルと、単語の予測結果を予測するモデルの2つを組み合わせている。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成される単語を予測するモデルと、単語の予測結果を予測するモデルの2つを組み合わせている。
- StructFormer: Joint Unsupervised Induction of Dependency and Constituency Structure from Masked Language Modeling
- Yikang Shen, Yi Tay, Che Zheng, Dara Bahri, Donald Metzler, Aaron Courville
- TLDR: 自然言語処理における依存構造を、構造と構造の結合で生成する研究。構造は、文の文脈から生成する。文脈は、文の文脈から生成する。文脈は、文脈の文脈から生成する。文脈は、文脈の文脈から生成する。文脈は、文脈の文脈から生成する。文脈は、文脈の文脈から生成する。
- Language Embeddings for Typology and Cross-lingual Transfer Learning
- Dian Yu, Taiqi He, Kenji Sagae
- TLDR: マルチ言語のタスクで、事前学習済み言語モデルを学習する研究。事前学習済み言語モデルは、事前学習済み言語モデルの潜在表現を学習する。事前学習済み言語モデルは、事前学習済み言語モデルの潜在表現を学習する。事前学習済み言語モデルは、事前学習済み言語モデルの潜在表現を学習する。
- Can Sequence-to-Sequence Models Crack Substitution Ciphers?
- Nada Aldarrab, Jonathan May
- TLDR: 古典的な文書を、自然言語で代替する研究。文書の単語を単語ベクトルに置き換え、文書の単語ベクトルを単語ベクトルに置き換えた文書を生成する。文書の単語ベクトルは、文書の単語ベクトルから生成する。文書の単語ベクトルは、文書の単語ベクトルから生成する。
- Beyond Noise: Mitigating the Impact of Fine-grained Semantic Divergences on Neural Machine Translation
- Eleftheria Briakou, Marine Carpuat
- TLDR: 翻訳モデルが学習する不一致表現の影響を調べた研究。不一致表現は、翻訳モデルのパフォーマンスに大きな影響を及ぼす。不一致表現は、翻訳モデルのパフォーマンスに大きな影響を及ぼす。不一致表現は、翻訳モデルのパフォーマンスに大きな影響を及ぼす。不一致表現は、翻訳モデルのパフォーマンスに大きな影響を及ぼす。
- Discriminative Reranking for Neural Machine Translation
- Ann Lee, Michael Auli, Marc’Aurelio Ranzato
- TLDR: 翻訳モデルの分類器を、分類器の分類結果を考慮した分類器に置き換える研究。分類器は、分類結果の分布を予測するモデルで、分布分布の予測は、分類結果の分布分布を予測するモデルで行う。分類器は、分類結果の分布を予測するモデルで、分布分布の予測は、分類結果の分布分布を予測するモデルで行う。
- Mind Your Outliers! Investigating the Negative Impact of Outliers on Active Learning for Visual Question Answering
- Siddharth Karamcheti, Ranjay Krishna, Li Fei-Fei, Christopher Manning
- TLDR: 強化学習で、モデルが学習するモデルの学習率が低いケースを検証した研究。モデルの学習率はモデルの学習率と同等の結果が得られるが、学習率が低いケースは学習率が低いモデルに近い結果をもたらす。また、学習率が高いケースは学習率が低いモデルに近い結果をもたらす。
- All That’s ‘Human’ Is Not Gold: Evaluating Human Evaluation of Generated Text
- Elizabeth Clark, Tal August, Sofia Serrano, Nikita Haduong, Suchin Gururangan, Noah A. Smith
- TLDR: 自然言語処理で生成されたテキストを、機械翻訳で評価する研究。評価は、生成されたテキストの文脈から、生成されたテキストの文脈から、生成されたテキストの文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された文脈から、生成された
- Scientific Credibility of Machine Translation Research: A Meta-Evaluation of 769 Papers
- Benjamin Marie, Atsushi Fujita, Raphael Rubino
- TLDR: 機械翻訳の評価に関するガイドライン。評価の手法は、評価結果と評価手法の類似度を比較する手法が主流だが、この評価手法は評価手法の類似度を比較する手法と、評価手法の類似度を比較する手法の2つに分けて行っている。評価手法の類似度を比較する手法は、評価手法の類似度を比較する手法と同等か、評価手法の類似度を比較する手法の2つに分けている。
- Neural Machine Translation with Monolingual Translation Memory
- Deng Cai, Yan Wang, Huayang Li, Wai Lam, Lemao Liu
- TLDR: 翻訳モデルの転移学習において、マルチ言語のデータセットを用いた研究。マルチ言語のデータセットは、翻訳モデルの転移学習に適したモデルで学習する。マルチ言語のデータセットは、翻訳モデルの転移学習に適したモデルで学習する。マルチ言語のデータセットは、翻訳モデルの転移学習に適したモデルで学習する。
- Intrinsic Dimensionality Explains the Effectiveness of Language Model Fine-Tuning
- Armen Aghajanyan, Sonal Gupta, Luke Zettlemoyer
- TLDR: 事前学習済み言語モデルの重みを調整する手法の提案。重みは学習済みモデルの重みと同等に扱えるが、重みは学習済みモデルの重みと同等に扱えるか検証している。重みは学習済みモデルの重みと同等に扱えるが、重みは学習済みモデルの重みと同等に扱えるか検証している。
- UnNatural Language Inference
- Koustuv Sinha, Prasanna Parthasarathi, Joelle Pineau, Adina Williams
- TLDR: 事前学習済みモデルが自然言語理解の精度を落とす現象について、モデルの挙動を検証した研究。モデルは自然言語理解の精度を落とす現象を検知できるが、この検知結果を基にモデルが自然言語理解の精度を落とす現象を発見。モデルは自然言語理解の精度を落とす現象を検知できるが、この現象はモデルの挙動に影響を与える。
- Including Signed Languages in Natural Language Processing
- Kayo Yin, Amit Moryossef, Julie Hochgesang, Yoav Goldberg, Malihe Alikhani
- TLDR: 自然言語処理における、文法の分類と分類機の提案。文法は自然言語処理の基本要素として扱われ、文法の分類機は文法の分類機と同等の役割を果たしている。文法分類機は、文法の分類機と同等の役割を果たしている。文法分類機の提案は、文法の分類機の提案と同等の役割を果たしている。
- Vocabulary Learning via Optimal Transport for Neural Machine Translation
- Jingjing Xu, Hao Zhou, Chun Gan, Zaixiang Zheng, Lei Li
- TLDR: 翻訳における単語の学習方法について、学習済みの単語をベースに学習する研究。単語の学習は、単語のサイズを測るためのモデル(Wikipedia)と、単語の学習時に使用するモデル(Transformer)の2つから行う。Transformerは、単語のサイズを測るためのモデル(Wikipedia)と、単語の学習時に使用するモデル(Transformer)の2つから学習する。