ACL 2022 in Japanese
TLDRs
- AdapLeR: Speeding up Inference by Adaptive Length Reduction
- Ali Modarressi, Hosein Mohebbi, Mohammad Taher Pilehvar
- TLDR: 言語モデルの計算コストを削減する研究。各タスクで、タスクの重みを考慮したタスクの重みを予測するContribution Predictorを構築し、その重みを考慮したタスクを生成する。タスクの重みは、タスクの重みを考慮した重みを予測するContribution Predictorを構築する。
- Quantified Reproducibility Assessment of NLP Results
- Anya Belz, Maja Popovic, Simon Mille
- TLDR: 機械学習モデルの精度を評価する手法の提案。モデルの精度は、モデルの性能と同等の精度を測る指標として使用される。精度は、モデルの性能と同等の精度を測る指標として使用される。精度は、モデルの性能と同等の精度を測る指標として使用される。
- Rare Tokens Degenerate All Tokens: Improving Neural Text Generation via Adaptive Gradient Gating for Rare Token Embeddings
- Sangwon Yu, Jongyoon Song, Heeseung Kim, Seongmin Lee, Woo-Jong Ryu, Sungroh Yoon
- TLDR: 言語モデルの表現生成において、学習時に学習する分布を考慮する研究。分布は学習時に学習する分布と、学習時に学習する分布の2つに分けられている。分布は学習時に学習する分布と、学習時に学習する分布の2つに分けられている。分布は学習時に学習する分布と、分布の分布の2つに分けられている。
- AlephBERT: Language Model Pre-training and Evaluation from Sub-Word to Sentence Level
- Amit Seker, Elron Bandel, Dan Bareket, Idan Brusilovsky, Refael Greenfeld, Reut Tsarfaty
- TLDR: 自然言語処理で、単語分類と文分類を同時に行う手法の提案。単語分類は、単語の重みを入力とする重みを入力とする重みの重みと、単語分類は単語分類の重みを入力とする重みの重みを入力とする重みの重みの重みを入力とする重みの重みの重みを入力とする重みの重みの重みを入力とする重みの重みの重みを入力とする重みの重みの重みの重みを入力とする重みの重みの重みの重みの重みの重みを入力とする重みの重みの重みの重
- Learning to Imagine: Integrating Counterfactual Thinking in Neural Discrete Reasoning
- Moxin Li, Fuli Feng, Hanwang Zhang, Xiangnan He, Fengbin Zhu, Tat-Seng Chua
- TLDR: 事前学習済みモデルを、学習済みモデルに組み込む研究。事前学習済みモデルは、事前学習済みモデルの予測結果を基にモデルを作成するが、事前学習済みモデルは予測結果を予測するモデルに組み込む。事前学習済みモデルは、予測結果を予測するモデルと同等のモデルを構築する。事前学習済みモデルは、事前学習済みモデルの予測結果を基にモデルを作成する。
- Domain Adaptation in Multilingual and Multi-Domain Monolingual Settings for Complex Word Identification
- George-Eduard Zaharia, Răzvan-Alexandru Smădu, Dumitru Cercel, Mihai Dascalu
- TLDR: 複雑な単語の識別を行う際に、ドメインを変えた研究。ドメインは単語の意味を予測するだけでなく、単語の意味を予測する単語分布を予測する(単語分布は単語分布の分布を予測する)。単語分布は単語分布の分布を予測する(単語分布は単語分布の分布を予測する)。単語分布は単語分布の分布を予測する。
- JointCL: A Joint Contrastive Learning Framework for Zero-Shot Stance Detection
- Bin Liang, Qinglin Zhu, Xiang Li, Min Yang, Lin Gui, Yulan He, Ruifeng Xu
- TLDR: 未知の敵に対して、画像を転移する手法の提案。画像を転移する際、画像の表現を転移先(未知の敵)と認識する。画像を転移先(未知の敵)の表現に置き換えることで、未知の敵に対する認識精度を向上させる。
- [CASPI] Causal-aware Safe Policy Improvement for Task-oriented Dialogue
- Govardana Sachithanandam Ramachandran, Kazuma Hashimoto, Caiming Xiong
- TLDR: 強化学習で、対話システムのパフォーマンスを上げるために、事前学習済みモデルを強化学習に組み込む手法の提案。事前学習済みモデルは、事前学習済みモデルのパフォーマンスを上げるための報酬を与えるが、事前学習済みモデルは報酬を与えるための行動を学習する。事前学習済みモデルは、事前学習済みモデルのパフォーマンスを上げるための行動を学習する。
- UniTranSeR: A Unified Transformer Semantic Representation Framework for Multimodal Task-Oriented Dialog System
- Zhiyuan Ma, Jianjun Li, Guohui Li, Yongjing Cheng
- TLDR: マルチモーダルタスク対応の対話システムを、Transformerの枠組みで表現する研究。マルチモーダルタスク対応の対話システムは、マルチモーダル特徴を学習するが、マルチモーダル特徴を学習する際は、マルチモーダル特徴を学習する。そのため、マルチモーダル特徴を学習する際は、マルチモーダル特徴を学習するモデルを導入する。
- Dynamic Schema Graph Fusion Network for Multi-Domain Dialogue State Tracking
- Yue Feng, Aldo Lipani, Fanghua Ye, Qiang Zhang, Emine Yilmaz
- TLDR: 対話システムのState Trackingについて、対話システムのドメインと対話システムの対話システムの対話システムを組み合わせた研究。対話システムは対話システムのドメインと対話システムの対話システムを組み合わせたモデルで、対話システムは対話システムのドメインと対話システムの対話システムを組み合わせたモデルで行う。対話システムは対話システムのドメインと対話システムの対話システムを組み合わせたモデルで行う。
- Attention Temperature Matters in Abstractive Summarization Distillation
- Shengqiang Zhang, Xingxing Zhang, Hangbo Bao, Furu Wei
- TLDR: 要約のモデルを蒸留する研究。蒸留は蒸留器の重みを蒸留器の重みに変換する。蒸留器の重みは蒸留器の重みと同等の重みを入力として、蒸留器の重みは蒸留器の重みと同等の重みを入力として入力する。蒸留器の重みは蒸留器の重みと同等の重みを入力として入力する。蒸留器の重みは蒸留器の重みと同等の重みを入力として入力する。
- Towards Making the Most of Cross-Lingual Transfer for Zero-Shot Neural Machine Translation
- Guanhua Chen, Shuming Ma, Yun Chen, Dongdong Zhang, Jia Pan, Wenping Wang, Furu Wei
- TLDR: 翻訳モデルの学習方法について、事前学習とマルチタスク学習を組み合わせた研究。事前学習は、翻訳モデルのEncoder/DecoderのEncode/DecoderのEncoder/DecoderのEncoderのEncode/DecoderのEncoderのEncode/DecoderのEncoderのEncode/DecoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEncoderのEnco
- TopWORDS-Seg: Simultaneous Text Segmentation and Word Discovery for Open-Domain Chinese Texts via Bayesian Inference
- Changzai Pan, Maosong Sun, Ke Deng
- TLDR: オープンドメインの文書を抽出する研究。抽出は、事前学習済み言語モデルで行う。事前学習済み言語モデルは、事前学習済み言語モデルの単語/フレーズを入力として、抽出結果を入力として、学習済み言語モデルの単語/フレーズを入力として、抽出結果を入力として、入力とフレーズを入力として、フレーズを入力として抽出結果を入力として、入力とフレーズを入力として、フレーズを入力として抽出結果を入力として、入力とフレーズを入力として抽出結果を入力として、入力とフレーズを入力として抽出結果を入力として、入力
- An Unsupervised Multiple-Task and Multiple-Teacher Model for Cross-lingual Named Entity Recognition
- Zhuoran Li, Chunming Hu, Xiaohui Guo, Junfan Chen, Wenyi Qin, Richong Zhang
- TLDR: マルチタスク学習を行う際に、学習済み言語モデルと同等の精度を獲得するために、学習済み言語モデルの類似度を計測する手法を提案。学習済み言語モデルは、学習済み言語モデルと同等の精度を獲得できるが、学習済み言語モデルは学習済み言語モデルと同等の精度を獲得できない。そのため、学習済み言語モデルの類似度を計測する手法を提案
- Discriminative Marginalized Probabilistic Neural Method for Multi-Document Summarization of Medical Literature
- Gianluca Moro, Luca Ragazzi, Lorenzo Valgimigli, Davide Freddi
- TLDR: マルチ文書の要約を行う際に、事前学習済みモデルを用いた研究。事前学習済みモデルは、事前学習済みモデルの要約を予測するモデルで、事前学習済みモデルの要約は事前学習済みモデルの要約と一致する。事前学習済みモデルは、事前学習済みモデルの要約を予測するモデルを用いている。
- Sparse Progressive Distillation: Resolving Overfitting under Pretrain-and-Finetune Paradigm
- Shaoyi Huang, Dongkuan Xu, Ian Yen, Yijue Wang, Sung-En Chang, Bingbing Li, Shiyang Chen, Mimi Xie, Sanguthevar Rajasekaran, Hang Liu, Caiwen Ding
- TLDR: 言語モデルの過学習を防ぐ手法の提案。過学習は言語モデルの表現力低下を招き、また過学習による過学習を防ぐため過学習を繰り返す可能性がある。過学習は過学習の発生確率が高い場合に起こりうる。過学習を防ぐために、過学習を繰り返す前に過学習を抑制する蒸留を行なっている。
- CipherDAug: Ciphertext based Data Augmentation for Neural Machine Translation
- Nishant Kambhatla, Logan Born, Anoop Sarkar
- TLDR: 機械翻訳におけるROT-Networkの提案。ROT-Networkは、翻訳の精度を上げるために、翻訳の予測精度を上げるために使われる手法。ROT-Networkは、翻訳の予測精度を上げるために使われる手法。ROT-Networkは、翻訳の精度を上げるために使われる手法。ROT-Networkは、翻訳の精度を上げるために使われる手法。
- Overlap-based Vocabulary Generation Improves Cross-lingual Transfer Among Related Languages
- Vaidehi Patil, Partha Talukdar, Sunita Sarawagi
- TLDR: 低リソース言語モデルで、単語分散を緩和するBLEUを提案。BLEUはBLEUの学習済み言語モデルと同等の性能を発揮するが、BLEUは学習済み言語モデルの性能を上げるには限界がある。そこで、BLEUの学習済み言語モデルとBLEUの学習済み言語モデルを結合し、BLEUの学習済み言語モデルと同等の性能を達成。BLEUはBLEUの学習済み言語モデルと同等の性能を達成
- Long-range Sequence Modeling with Predictable Sparse Attention
- Yimeng Zhuang, Jing Zhang, Mei Tu
- TLDR: 長い系列のモデルで、Fatch Attentionを効率的に使う研究。Fatch Attentionは、Attentionの計算量を減らすため、計算量を減らすための行列を追加する。行列の計算量を減らすため、行列の計算量を減らす行列を追加する。行列の計算量を減らすため、行列の計算量を減らす行列を追加する。
- Improving Personalized Explanation Generation through Visualization
- Shijie Geng, Zuohui Fu, Yingqiang Ge, Lei Li, Gerard de Melo, Yongfeng Zhang
- TLDR: 説明文を生成するモデルの提案。モデルは、説明文の画像を生成する。画像は、説明文の画像と同等の画像を生成する。画像は、説明文の画像と同等の画像を生成する。画像は、説明文の画像と同等の画像を生成する。
- New Intent Discovery with Pre-training and Contrastive Learning
- Yuwei Zhang, Haode Zhang, Li-Ming Zhan, Xiao-Ming Wu, Albert Lam
- TLDR: 対話システムにおける、新しい意図分類の研究。既存の手法は、意図分類の学習に使用するラベルをラベルなしに学習するが、ラベルなしのデータで学習する手法は、ラベルなしのデータで学習するより精度が低い。そこで、ラベルなしデータで学習する手法を提案。
- Modeling U.S. State-Level Policies by Extracting Winners and Losers from Legislative Texts
- Maryam Davoodi, Eric Waltenburg, Dan Goldwasser
- TLDR: 政府の提案が、どんな人からどう受け取られるかを調べた研究。提案の提案者/提案の提案者双方から、提案の提案者/提案の提案者双方から、提案の提案者/提案者の提案者/提案者の提案者から、提案者の提案者/提案者の提案者から、提案者の提案者/提案者の提案者から、提案者の提案者/提案者の提案者から、提案者の提案者/提案者の提案者から、提案者の提案者/提案者の提案者から、提案者の提案者から、提案者の提案者から、提案者の提案者から、提案者の提案者から、提案者の提案者から、提案者の提案者
- Structural Characterization for Dialogue Disentanglement
- Xinbei Ma, Zhuosheng Zhang, Hai Zhao
- TLDR: 対話システムにおける、マルチスコアの文書構造を学習する研究。文書構造は、文書の作成過程で生成される。文書構造は、文書の作成過程で生成される文書構造と、文書の生成過程で生成される文書構造を組み合わせている。文書構造は、文書の生成過程で生成される文書構造と、文書の生成過程で生成される文書構造を組み合わせている。
- Multi-Party Empathetic Dialogue Generation: A New Task for Dialog Systems
- Ling.Yu Zhu, Zhengkun Zhang, Jun Wang, Hongbin Wang, Haiying Wu, Zhenglu Yang
- TLDR: マルチペアの対話システムを、マルチモーダルで学習する研究。マルチモーダルは、感情理解、感情推定、また適切な反応を生成するタスクが基本だが、マルチモーダルは、感情推定、また適切な反応生成に欠ける。そのため、マルチモーダルを学習する際は、マルチモーダルを学習するモデルを導入する。
- MISC: A Mixed Strategy-Aware Model integrating COMET for Emotional Support Conversation
- Quan Tu, Yanran Li, Jianwei Cui, Bin Wang, Ji-Rong Wen, Rui Yan
- TLDR: 対話システムにおける、感情表現の表現方法の提案。感情表現は、質問に対する回答と同等の意味を持つが、質問に対する回答は、質問に対する回答と同等の意味を持つ。また、質問に対する回答は、質問に対する回答と同等の意味を持つ。
- GLM: General Language Model Pretraining with Autoregressive Blank Infilling
- Zhengxiao Du, Yujie Qian, Xiao Liu, Ming Ding, Jiezhong Qiu, Zhilin Yang, Jie Tang
- TLDR: 事前学習済み言語モデルの学習を、事前学習済み言語モデルの学習に置き換えた研究。事前学習済み言語モデルは事前学習済み言語モデルの学習率を上回るが、事前学習済み言語モデルは学習率が下がる。事前学習済み言語モデルは事前学習済み言語モデルの学習率を上回るが、事前学習済み言語モデルは学習率が下がる。
- QuoteR: A Benchmark of Quote Recommendation for Writing
- Fanchao Qi, Yanhui Yang, Jing Yi, Zhili Cheng, Zhiyuan Liu, Maosong Sun
- TLDR: 文中の要約を抽出する研究。要約は文中の要約と同等の意味を持つが、要約は文中の要約と同等の意味を持つ要約を同時に抽出する。要約は要約の文を抽出する形で行うが、要約は要約文を抽出する形で行う。要約は要約文の要約を抽出する形で行う。
- Towards Comprehensive Patent Approval Predictions:Beyond Traditional Document Classification
- Xiaochen Gao, Zhaoyi Hou, Yifei Ning, Kewen Zhao, Beilei He, Jingbo Shang, Vish Krishnan
- TLDR: 機械学習モデルの提案で、既存のモデルの提案と同等の提案が行えるかを検証した研究。既存モデルの提案は、既存のモデルの提案と同等の提案が行えるかを検証する。結果として、提案が行えるかを検証するモデルは、既存モデルの提案と同等の提案が行えるかを検証するモデルが適しているとしている。
- Hypergraph Transformer: Weakly-Supervised Multi-hop Reasoning for Knowledge-based Visual Question Answering
- Yu-Jung Heo, Eun-Sol Kim, Woo Suk Choi, Byoung-Tak Zhang
- TLDR: 画像を解釈する際、画像の表現を解釈する際は、画像の表現と画像表現の表現を同時に解釈する研究。画像表現の表現は、画像の表現と画像表現の表現を同じものに置き換えた表現を使用。画像表現の表現は、画像表現の表現と画像表現の表現を同じものに置き換えた表現を使用。
- Cross-Utterance Conditioned VAE for Non-Autoregressive Text-to-Speech
- Yang Li, Cheng Yu, Guangzhi Sun, Hua Jiang, Fanglei Sun, Weiqin Zu, Ying Wen, Yang Yang, Jun Wang
- TLDR: 音声合成において、音声のノイズを予測する研究。音声のノイズは音声の音声特徴と、音声の音声特徴と、音声特徴と音声特徴双方から予測する。音声特徴は、音声特徴と音声特徴双方から予測する。音声特徴は、音声特徴と音声特徴双方から予測する。
- Mix and Match: Learning-free Controllable Text Generationusing Energy Language Models
- Fatemehsadat Mireshghallah, Kartik Goyal, Taylor Berg-Kirkpatrick
- TLDR: 事前学習済みモデルを用いた事前学習済みモデルの生成を、事前学習済みモデルのパフォーマンスと一致させる研究。事前学習済みモデルは、事前学習済みモデルのパフォーマンスと一致するスコアを生成する。このスコアは、事前学習済みモデルのパフォーマンスと一致する。事前学習済みモデルのパフォーマンスは、事前学習済みモデルのパフォーマンスと一致する。
- So Different Yet So Alike! Constrained Unsupervised Text Style Transfer
- Abhinav Ramesh Kashyap, Devamanyu Hazarika, Min-Yen Kan, Roger Zimmermann, Soujanya Poria
- TLDR: 自然言語処理で、転移学習を行う際に、転移先のドメインの文を学習する際の2つの工夫を提案。1つは転移先のドメインの文を学習する(学習時は、転移先のドメインの文を学習する)、2つは転移先のドメインの文を学習する(学習時は、転移先のドメインの文を学習する)。
- e-CARE: a New Dataset for Exploring Explainable Causal Reasoning
- Li Du, Xiao Ding, Kai Xiong, Ting Liu, Bing Qin
- TLDR: 自然言語処理で、因果推論を行う際に、自然言語処理の説明が必要なケースについて調査した研究。因果推論の説明は、自然言語処理のモデルで生成するが、生成した説明は、モデルの精度を落とす可能性がある。そのため、説明の生成は、モデルの安定性を担保するために行うべきであるとしている。
- Fantastic Questions and Where to Find Them: FairytaleQA – An Authentic Dataset for Narrative Comprehension
- Ying Xu, Dakuo Wang, Mo Yu, Daniel Ritchie, Bingsheng Yao, Tongshuang Wu, Zheng Zhang, Toby Li, Nora Bradford, Branda Sun, Tran Hoang, Yisi Sang, Yufang Hou, Xiaojuan Ma, Diyi Yang, Nanyun Peng, Zhou Yu, Mark Warschauer
- TLDR: 教師の質問回答モデルを、教師の教師の質問回答モデルに置き換えた研究。教師の質問回答モデルは教師の質問回答を学習するモデルと同等のモデルを構築している。教師の質問回答モデルは教師の質問回答を学習するモデルと同等のモデルを構築している。
- KaFSP: Knowledge-Aware Fuzzy Semantic Parsing for Conversational Question Answering over a Large-Scale Knowledge Base
- Junzhuo Li, Deyi Xiong
- TLDR: 質問回答時に、文法の不確かさを防ぎつつ、質問回答の精度を上げるために、文法の不確かさを防ぎつつ、文法の不確かさを補うための手法を提案。文法の不確かさを防ぎつつ、文法の不確かさを補うために、文法の不確かさを補うために、文法の不確かさを補うために、文法の不確かさを補うために、文法の不確かさを補うために、文法の不確かさを補うために、文法の不確かさを補うために、文法の不確かさを補うために、文法の補完を行なっている。
- Multilingual Knowledge Graph Completion with Self-Supervised Adaptive Graph Alignment
- Zijie Huang, Zheng Li, Haoming Jiang, Tianyu Cao, Hanqing Lu, Bing Yin, Karthik Subbian, Yizhou Sun, Wei Wang
- TLDR: 知識グラフのalignmentを、マルチ言語で行う研究。各言語のalignmentは、各言語の知識グラフの潜在表現を考慮する。そのため、各言語の知識グラフの潜在表現を考慮する。これにより、各言語の知識グラフの潜在表現を考慮する。
- Modeling Hierarchical Syntax Structure with Triplet Position for Source Code Summarization
- Juncai Guo, Jin Liu, Yao Wan, Li Li, Pingyi Zhou
- TLDR: コードの要約を行う際に、要約の構造をモデル化する研究。要約は、文構造をモデル化する際、文構造をモデル化する際の位置を3つに分割し、それぞれ3つに分割する。これにより、要約の構造をモデル化する際の位置を3つに分割し、各位置の位置を3つに分割する。
- FewNLU: Benchmarking State-of-the-Art Methods for Few-Shot Natural Language Understanding
- Yanan Zheng, Jing Zhou, Yujie Qian, Ming Ding, Chonghua Liao, Li Jian, Ruslan Salakhutdinov, Jie Tang, Sebastian Ruder, Zhilin Yang
- TLDR: 自然言語処理のタスクで、評価手法を更新した研究。評価手法は、事前学習済みモデル(Few-shot)と、事前学習済みモデル(Developer)の2つに分けている。事前学習済みモデルは、事前学習済みモデルの学習率と比較して高い精度を記録できるが、事前学習済みモデルは学習率が低い傾向がある。
- Learn to Adapt for Generalized Zero-Shot Text Classification
- Yiwen Zhang, Caixia Yuan, Xiaojie Wang, Ziwei Bai, Yongbin Liu
- TLDR: 教師なし学習で、教師なしクラスの学習を学習する研究。教師なしクラスは学習率が低いため、学習率を上げるために学習するクラスを学習する。学習率は教師なしクラスの学習率と同等の精度を維持する。教師なしクラスは学習率が低いため、学習率を上げるために学習するクラスを学習する。
- TableFormer: Robust Transformer Modeling for Table-Text Encoding
- Jingfeng Yang, Aditya Gupta, Shyam Upadhyay, Luheng He, Rahul Goel, Shachi Paul
- TLDR: テーブル構造を学習するモデルの提案。テーブル構造は、テーブルの順序を予測するBias(Attention Bias)を組み込んだモデルで、テーブルの順序はBiasの予測に依存しない。Biasはテーブル構造を予測するBiasと、テーブルの順序を予測するBiasの2つに分けている。BiasはBiasの予測に依存しないため、Biasの予測はBiasの予測に依存しない。
- Perceiving the World: Question-guided Reinforcement Learning for Text-based Games
- Yunqiu Xu, Meng Fang, Ling Chen, Yali Du, Joey Zhou, Chengqi Zhang
- TLDR: 強化学習で、ゲーム中の自然言語処理を強化学習で行う研究。ゲーム中の自然言語処理を強化学習で行う。ゲーム中の自然言語処理は、ゲーム中の環境を予測するモデル(World Prediction)を用いている。World Predictionは、ゲーム中の環境を予測するモデル(World Encoder)を用いている。
- Neural Label Search for Zero-Shot Multi-Lingual Extractive Summarization
- Ruipeng Jia, Xingxing Zhang, Yanan Cao, Zheng Lin, Shi Wang, Furu Wei
- TLDR: 事前学習済みモデルを、翻訳済み言語モデルに適用する研究。事前学習済みモデルは、翻訳済み言語モデルのラベルをベースに、翻訳済み言語モデルのラベルをベースにラベルを生成する。ラベルは、翻訳済み言語モデルのラベルと同等精度で生成する。
- Few-Shot Class-Incremental Learning for Named Entity Recognition
- Rui Wang, Tong Yu, Handong Zhao, Sungchul Kim, Subrata Mitra, Ruiyi Zhang, Ricardo Henao
- TLDR: クラス数を増やして学習する研究。クラス数を増やしたクラスは、クラスの分類器で学習する。クラス分類器は、クラス分類器の分類結果をクラス分類器に入力し、クラス分類器の分類結果をクラス分類器に入力する。この入力は、クラス分類器の分類結果をクラス分類器に入力する。
- Improving Meta-learning for Low-resource Text Classification and Generation via Memory Imitation
- Yingxiu Zhao, Zhiliang Tian, Huaxiu Yao, Yinhe Zheng, Dongkyu Lee, Yiping Song, Jian Sun, Nevin Zhang
- TLDR: 自然言語処理において、学習済みモデルの学習済みモデルを学習する手法の提案。学習済みモデルは学習済みモデルの学習済みモデルを学習する。学習済みモデルは学習済みモデルの学習済みモデルを学習する。学習済みモデルは学習済みモデルの学習済みモデルを学習する。学習済みモデルは学習済みモデルの学習済みモデルを学習する。
- Quality Controlled Paraphrase Generation
- Elron Bandel, Ranit Aharonov, Michal Shmueli-Scheuer, Ilya Shnayderman, Noam Slonim, Liat Ein-Dor
- TLDR: 文中のparaphraseを生成する研究。文中のparaphraseは、文の意味をそのままに語彙を生成する。文中のparaphraseは、文の意味をそのままに語彙を生成する。文の意味をそのままに語彙を生成するより、文の意味をそのままに語彙を生成する方が汎用的で、かつ汎用性が高い。
- Controllable Dictionary Example Generation: Generating Example Sentences for Specific Targeted Audiences
- Xingwei He, Siu Ming Yiu
- TLDR: 自然言語処理で、単語の意味を説明する文書を作成する研究。単語の意味を説明する文書を生成する際、単語の意味を予測するモデルを使用。単語の意味を予測するモデルは、単語の意味を予測するモデルと同等の機能を有する。
- AraT5: Text-to-Text Transformers for Arabic Language Generation
- El Moatez Billah Nagoudi, AbdelRahim Elmadany, Muhammad Abdul-Mageed
- TLDR: 多言語のTransformerを、多言語のアルカニズムで学習する研究。アルカニズムは英語、言語は英語、言語はアルカニズムの3つで、アルカニズムはアルカニズムの学習を想定している。アルカニズム学習は、アルカニズムの学習を想定している。
- Legal Judgment Prediction via Event Extraction with Constraints
- Yi Feng, Chuanyi Li, Vincent Ng
- TLDR: 判決文の予測を行う際に、事前学習済みモデルの予測結果を転移させる手法の提案。事前学習済みモデルは、予測結果を予測するタスク(タスクの重みを調整するタスク)を複数用意し、それらを統合して予測を行う。これにより、事前学習済みモデルの予測精度を上げる。
- Answer-level Calibration for Free-form Multiple Choice Question Answering
- Sawan Kumar
- TLDR: 自然言語処理で、質問回答の長さを予測するタスクを解く際に、事前学習済みモデルの長さを予測する手法の提案。事前学習済みモデルの長さを予測するモデルは、事前学習済みモデルと同等の精度を維持できるが、事前学習済みモデルの長さを予測するモデルは精度が低下する。そこで、事前学習済みモデルの長さを予測するモデルを導入し、長さを予測するモデルを導入する
- Learning When to Translate for Streaming Speech
- Qian Dong, Yaoming Zhu, Mingxuan Wang, Lei Li
- TLDR: 音声翻訳において、音声のノイズを除去する手法の提案。音声をEncoder Decoderで抽出、ノイズを除去する。ノイズは音声のノイズと同等の精度を維持できるが、ノイズは音声のノイズに近い。ノイズを除去する際は、ノイズを除去するノイズを追加する。
- Compact Token Representations with Contextual Quantization for Efficient Document Re-ranking
- Yingrui Yang, Yifan Qiao, Tao Yang
- TLDR: 文書から文書に文書を貼り付ける際に、文書の単語を文書に貼り付ける手法の提案。文書の単語を文書に貼り付ける際、文書の単語を文書の単語に置き換える形で貼り付けを行う。文書の単語を文書に置き換える際に、文書の単語を文書の単語に置き換える形で貼り付けを行う。
- Early Stopping Based on Unlabeled Samples in Text Classification
- HongSeok Choi, Dongha Choi, Hyunju Lee
- TLDR: 事前学習済みモデルで、事前学習済みモデルの学習済みモデルの学習済みモデルと同等の精度を達成した研究。事前学習済みモデルは、事前学習済みモデルと同等の精度を達成できたが、事前学習済みモデルの学習済みモデルと同等の精度を達成できなかった。事前学習済みモデルの学習済みモデルと同等の精度を達成できた。
- Meta-learning via Language Model In-context Tuning
- Yanda Chen, Ruiqi Zhong, Sheng Zha, George Karypis, He He
- TLDR: マルチタスク学習の提案。タスクの重みを絞り込むことで、タスクの重みを絞り込むことで学習を行う。タスクの重みは、タスクの重みを絞り込むことで学習する。タスクの重みは、タスクの重みを絞り込むことで学習する。タスクの重みは、タスクの重みを絞り込むことで学習する。タスクの重みは、タスクの重みを絞り込むことで学習する。タスクの重みは、タスクの重みを絞り込むことで学習する。タスクの重みは、タスクの重みを絞り
- It is AI’s Turn to Ask Humans a Question: Question-Answer Pair Generation for Children’s Story Books
- Bingsheng Yao, Dakuo Wang, Tongshuang Wu, Zheng Zhang, Toby Li, Mo Yu, Ying Xu
- TLDR: 教師の質問回答を行うモデルの提案。教師は質問回答のモデルを学習するが、質問回答のモデルは教師の質問回答を自動生成する。教師は質問回答のモデルを学習するが、質問回答のモデルは教師の質問回答を自動生成する。教師は質問回答のモデルを学習するが、教師は質問回答のモデルを学習する。
- Prompt-Based Rule Discovery and Boosting for Interactive Weakly-Supervised Learning
- Rongzhi Zhang, Yue Yu, Pranav Shetty, Le Song, Chao Zhang
- TLDR: 教師なし学習で、ラベルの過剰分布を防ぐ手法の提案。ラベルの過剰分布は、ラベルの生成に使用するモデルの過適合度を加味する。過適合度は、ラベルの生成に使用するモデルの過適合度を加味する。過適合度は、ラベルの生成に使用するモデルの過適合度を加味する。
- Constrained Multi-Task Learning for Bridging Resolution
- Hideo Kobayashi, Yufang Hou, Vincent Ng
- TLDR: マルチタスク学習で、既存のbridgingモデルを改善する研究。既存のbridgingモデルは、既存のタスクを学習する際、タスクの重みを重みに変換する(重みは、タスクの重みを重みに変換する)。この重みは、タスクの重みを重みに変換する形で学習する。
- DEAM: Dialogue Coherence Evaluation using AMR-based Semantic Manipulations
- Sarik Ghazarian, Nuan Wen, Aram Galstyan, Nanyun Peng
- TLDR: 対話システムの品質を評価する指標の提案。対話システムの品質は、事前学習済みモデルの品質と同等の評価指標が必要である。事前学習済みモデルは、対話システムの品質を評価する指標としてAMRを導入している。対話システムの品質は、事前学習済みモデルの品質と同等の評価指標が必要である。
- HIBRIDS: Attention with Hierarchical Biases for Structure-aware Long Document Summarization
- Shuyang Cao, Lu Wang
- TLDR: 文書構造をTransformerに組み込むことで、文書構造を評価する研究。文書構造は文書全体の構成要素として扱われがちだが、文書構造を組み込んだ文書構造を評価する。文書構造は文書全体の構成要素として扱われがちだが、文書構造を組み込んだ文書構造を評価する。文書構造を組み込んだ文書構造を評価する
- De-Bias for Generative Extraction in Unified NER Task
- Shuai Zhang, Yongliang Shen, Zeqi Tan, Yiquan Wu, Weiming Lu
- TLDR: 自然言語処理で生成された文から、Entityを認識する際の誤差を調査した研究。誤差は、文中のEntityの位置関係(位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=
- An Information-theoretic Approach to Prompt Engineering Without Ground Truth Labels
- Taylor Sorensen, Joshua Robinson, Christopher Rytting, Alexander Shaw, Kyle Rogers, Alexia Delorey, Mahmoud Khalil, Nancy Fulda, David Wingate
- TLDR: 言語モデルの事前学習時に、モデルのタスクを個別に定義する手法の提案。タスクは、モデルのタスクを個別に定義する。タスクは、タスクのタスクを個別に定義する。タスクは、タスクのタスクを個別に定義する。タスクは、タスクのタスクを個別に定義する。タスクは、タスクのタスクを個別に定義する。タスクは、タスクのタスクを個別に定義する。タスクは、タスクのタスクを個別に定義する。タスクは、タスクのタスクを個別に定義する。タスクは、タスクのタ
- Expanding Pretrained Models to Thousands More Languages via Lexicon-based Adaptation
- Xinyi Wang, Sebastian Ruder, Graham Neubig
- TLDR: マルチモーダル学習モデルの学習を、自然言語処理で行おうという研究。自然言語処理では、単語を単体で学習することが多いが、単語を複数語で学習する手法を提案。単語の学習は、単体で行うより多言語の単語を学習する方が効率が良い。
- Language-agnostic BERT Sentence Embedding
- Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, Wei Wang
- TLDR: マルチ言語の文分散表現を学習する手法のサーベイ。マルチ言語の文分散表現を学習する際、事前学習済みモデルをベースに学習する。事前学習済みモデルは、マルチ言語の文分散表現を学習する際、事前学習済みモデルの学習率を上げるための工夫を行なっている。
- Nested Named Entity Recognition with Span-level Graphs
- Juncheng Wan, Dongyu Ru, Weinan Zhang, Yong Yu
- TLDR: ニューラルネットベースの固有表現認識で、学習済みモデルの固有表現認識を改善する研究。固有表現認識では、固有表現の表現を入力とするモデルが固有表現認識の精度を上げるのに有効だが、学習済みモデルの表現を入力とするモデルは固有表現認識の精度を上げるのに有効ではない。そこで、固有表現認識の精度を向上させるために、入力と固有表現を入力とするモデルを用いた研究。
- CogTaskonomy: Cognitively Inspired Task Taxonomy Is Beneficial to Transfer Learning in NLP
- Yifei Luo, Minghui Xu, Deyi Xiong
- TLDR: 自然言語処理における転移学習の手法を、モデルの学習とモデルの学習を統合した研究。モデルは、自然言語処理のタスクで使われるBERT/TinyBERTをベースに、モデルの学習と学習を統合したモデルを学習する。学習は、タスクの学習とモデルの学習を統合したモデルで行う。
- RoCBert: Robust Chinese Bert with Multimodal Contrastive Pretraining
- Hui Su, Weiwei Shi, Xiaoyu Shen, Zhou Xiao, Tuo Ji, Jiarui Fang, Jie Zhou
- TLDR: 自然言語処理モデルに対するAdversarial Attackの研究。モデルは、単語/文の組み合わせを学習する。単語/文の組み合わせは、単語/文の意味を予測するタスクで行う。単語/文の組み合わせは、単語/文の意味を予測するタスクで行う。
- Premise-based Multimodal Reasoning: Conditional Inference on Joint Textual and Visual Clues
- Qingxiu Dong, Ziwei Qin, Heming Xia, Tian Feng, Shoujie Tong, Haoran Meng, Lin Xu, Zhongyu Wei, Weidong Zhan, Baobao Chang, Sujian Li, Tianyu Liu, Zhifang Sui
- TLDR: 画像を分類するタスクで、事前知識なしに事前学習済みモデルを適用する手法の提案。事前知識なしに事前学習済みモデルを生成するのではなく、事前学習済みモデルのモデルをベースに事前学習済みモデルを生成する。事前学習済みモデルは事前学習済みモデルのモデルをベースに、事前学習済みモデルのモデルは事前学習済みモデルをベースに生成する。事前学習済みモデルは事前学習済みモデルのモデルをベースに生成する。事前学習済みモデルは事前学習済みモデルのモデルをベースに生成する。事前学習済みモデルは事前学習済みモデルのモデルをベースに生成する。事前学習済みモデルは事前学習済みモデルのモデル
- Parallel Instance Query Network for Named Entity Recognition
- Yongliang Shen, Xiaobin Wang, Zeqi Tan, Guangwei Xu, Pengjun Xie, Fei Huang, Weiming Lu, Yueting Zhuang
- TLDR: 自然言語処理で、文中の単語を抽出する研究。単語の意味を抽出するEntityを、単語の意味を抽出するEntityに置き換える形で学習する。Entityは単語の意味を予測するだけでなく、単語の意味を予測するEntityも予測する。単語の意味を予測するEntityは、単語の意味を予測するEntityと同等か、それ以上の意味を持つEntityを予測するEntityと同等かを学習する。
- ProphetChat: Enhancing Dialogue Generation with Simulation of Future Conversation
- Chang Liu, Xu Tan, Chongyang Tao, Zhenxin Fu, Dongyan Zhao, Tie-Yan Liu, Rui Yan
- TLDR: 対話システムの生成に、対話履歴を用いた研究。対話履歴は、質問に対する回答の予測に使用される。対話履歴は、質問に対する回答の予測に使用される。対話履歴は、質問に対する回答の予測に使用される。対話履歴は、質問に対する回答の予測に使用される。
- Modeling Multi-hop Question Answering as Single Sequence Prediction
- Semih Yavuz, Kazuma Hashimoto, Yingbo Zhou, Nitish Shirish Keskar, Caiming Xiong
- TLDR: マルチタスクのQAで、生成した文書から質問回答を行う手法の提案。文書の文書構造を、文書の文書構造を生成する形で表現する。文書構造は文書の文書構造を生成する形で表現する。文書構造は文書の文書構造を生成する形で表現する。文書構造は文書の文書構造を生成する形で表現する。
- Learning Disentangled Semantic Representations for Zero-Shot Cross-Lingual Transfer in Multilingual Machine Reading Comprehension
- Linjuan Wu, Shaojuan Wu, Xiaowang Zhang, Deyi Xiong, Shizhan Chen, Zhiqiang Zhuang, Zhiyong Feng
- TLDR: マルチ言語の事前学習済みモデルで、文法の分散表現を削除する研究。単語分散表現は、単語の意味を予測するモデルで学習する。単語分散表現は、単語の意味を予測するモデルで学習する。単語分散表現は、単語の意味を予測するモデルで学習する。
- Multi-Granularity Structural Knowledge Distillation for Language Model Compression
- Chang Liu, Chongyang Tao, Jiazhan Feng, Dongyan Zhao
- TLDR: マルチレンダリングの知識を蒸留する研究。蒸留は、マルチレンダリングの表現を蒸留する際の前提となる構造を蒸留する。蒸留は、マルチレンダリングの表現を蒸留する際の前提となる構造を蒸留する。蒸留は、マルチレンダリングの表現を蒸留する際の前提となる構造を蒸留する。蒸留は、マルチレンダリングの表現を蒸留する際の前提となる構造を蒸留する。
- Auto-Debias: Debiasing Masked Language Models with Automated Biased Prompts
- Yue Guo, Yi Yang, Ahmed Abbasi
- TLDR: 言語モデルの潜在表現を自動生成する研究。潜在表現を入力とする文を生成するBeam Searchを自動生成する。生成したBeam Searchは、潜在表現の潜在表現を入力とする文に入力する。生成したBeam Searchは、潜在表現の潜在表現を入力とする文に入力する。
- Where to Go for the Holidays: Towards Mixed-Type Dialogs for Clarification of User Goals
- Zeming Liu, Jun Xu, Zeyang Lei, Haifeng Wang, Zheng-Yu Niu, Hua Wu
- TLDR: 対話システムで、ユーザーのゴールを達成するための戦略を学習する研究。通常の対話システムはゴールを明確にし、ゴールの予測が難しい場合に自動的にゴールを推定するが、この時ゴールの予測が難しい場合に自動的にゴールを推定する。この時、ゴールの予測が難しい場合に自動的にゴールを推定するPromptを導入している。
- Semi-supervised Domain Adaptation for Dependency Parsing with Dynamic Matching Network
- Ying Li, Shuaike Li, Min Zhang
- TLDR: マルチドメインの事前学習済みモデルを、事前学習済みモデルと比較して精度を上げた研究。事前学習済みモデルは、事前学習済みモデルの重みを学習するモデルと同等の精度を維持できるが、事前学習済みモデルは重みの学習が困難だった。そこで、事前学習済みモデルの重みを学習するモデルを提案。
- A Closer Look at How Fine-tuning Changes BERT
- Yichu Zhou, Vivek Srikumar
- TLDR: 事前学習済みモデルの重みを、事前学習済みモデルに適用する研究。重みは通常のモデルの重みと同等の扱いが行われるが、事前学習済みモデルの重みは通常の重みと同等の扱いを受ける。事前学習済みモデルの重みは、事前学習済みモデルの重みと同等の扱いを受ける。事前学習済みモデルの重みは、事前学習済みモデルの重みと同等の扱いを受ける。
- Sentence-aware Contrastive Learning for Open-Domain Passage Retrieval
- Wu Hong, Zhuosheng Zhang, Jinyuan Wang, Hai Zhao
- TLDR: オープンドメインの文書を抽出する手法の提案。文書の構造を、文書全体の構造と異なる単語から抽出する。文書全体の構造を抽出するのではなく、文書全体の構造を抽出する形で抽出を行う。文書全体の構造を抽出するだけでなく、文書全体の構造を抽出する形で抽出を行う。
- FaiRR: Faithful and Robust Deductive Reasoning over Natural Language
- Soumya Sanyal, Harman Singh, Xiang Ren
- TLDR: 自然言語処理で、既存のモデルが正しい推論を行うための3つの要素を統合した研究。既存のモデルは、事前学習済みモデルと同等のモデルを構築するが、事前学習済みモデルは既存モデルの推論結果と異なる結果を生成する。そこで、事前学習済みモデルを統合したモデルを提案。
- HiTab: A Hierarchical Table Dataset for Question Answering and Natural Language Generation
- Zhoujun Cheng, Haoyu Dong, Zhiruo Wang, Ran Jia, Jiaqi Guo, Yan Gao, Shi Han, Jian-Guang Lou, Dongmei Zhang
- TLDR: 自然言語処理で、階層型のテーブルについて、質問回答を行う研究。質問回答は、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、階層型のテーブルの構造を、
- Doctor Recommendation in Online Health Forums via Expertise Learning
- Xiaoxin Lu, Yubo Zhang, Jing Li, Shi Zong
- TLDR: オンライン医療掲示板で、医師の推薦を自動生成する研究。患者のプロフィールから、過去の対話から、また過去の投稿から、医師の推薦を自動生成する。事前学習済みモデルと、モデルの学習済みモデルを比較し、モデルの精度が向上するかを検証している。
- Continual Prompt Tuning for Dialog State Tracking
- Qi Zhu, Bing Li, Fei Mi, Xiaoyan Zhu, Minlie Huang
- TLDR: 対話システムは学習済みモデルを学習する際、学習済みモデルのパラメーターを過剰に使うことがある。このため、パラメーターを過剰に使うことで学習済みモデルの学習効率を上げる手法を提案している。パラメーターを過剰に使うことで、学習済みモデルの学習効率を上げる。
- There’s a Time and Place for Reasoning Beyond the Image
- Xingyu Fu, Ben Zhou, Ishaan Chandratreya, Carl Vondrick, Dan Roth
- TLDR: ニュース記事から、ニューラルタイムズの画像を自動生成する研究。画像の位置情報から、ニューラルタイムズの画像を自動生成する。画像の位置情報から、ニューラルタイムズの画像を自動生成する。
- FORTAP: Using Formulas for Numerical-Reasoning-Aware Table Pretraining
- Zhoujun Cheng, Haoyu Dong, Ran Jia, Pengfei Wu, Shi Han, Fan Cheng, Dongmei Zhang
- TLDR: テーブルの予測を行う際に、データセットの予測結果を教師なしで学習する研究。データセットの予測結果を教師なしで学習する手法を、教師なしで学習する手法と比較して精度が大幅に向上している。教師なしで学習する手法は、テーブルの予測結果を教師なしで学習する手法と同等の精度を達成している。
- Multimodal fusion via cortical network inspired losses
- Shiv Shankar
- TLDR: マルチモーダルで学習するネットワークの提案。マルチモーダルはネットワークの構造が複雑なので、ネットワークの構造を変更することで複雑なタスクを解くことができる。ネットワークの構造変更は、ネットワークの構造を変更することで解くことができる。
- Modeling Temporal-Modal Entity Graph for Procedural Multimodal Machine Comprehension
- Huibin Zhang, Zhengkun Zhang, Yao Zhang, Jun Wang, Yufan Li, Ning Jiang, Xin Wei, Zhenglu Yang
- TLDR: マルチモーダル文書を解く際に、文書の構造を解く研究。文書の構造を解くには、文書の文書構造を解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解くか否かを解
- Explanation Graph Generation via Pre-trained Language Models: An Empirical Study with Contrastive Learning
- Swarnadeep Saha, Prateek Yadav, Mohit Bansal
- TLDR: 自然言語処理で、説明グラフを生成する際に、構造と文の相関がどうあるかを検証した研究。構造は、ノードの位置関係(ノードの位置関係)と、ノードの位置関係(ノード位置関係)を表現する。ノードの位置関係は、ノードの位置関係と、ノード位置関係の位置関係を表現する。ノードの位置関係は、ノード位置関係と、ノード位置関係の位置関係を表現する。
- Unsupervised Extractive Opinion Summarization Using Sparse Coding
- Somnath Basu Roy Chowdhury, Chao Zhao, Snigdha Chaturvedi
- TLDR: ユーザーレビューから、評価に関する要約を自動生成する研究。評価は、評価の評価と同等の文表現を用いて生成する。評価は、評価の文表現を用いた要約を生成する。評価は、評価の文表現を用いた要約を生成する。評価は、評価の文表現を用いた要約を生成する。
- LexSubCon: Integrating Knowledge from Lexical Resources into Contextual Embeddings for Lexical Substitution
- George Michalopoulos, Ian McKillop, Alexander Wong, Helen Chen
- TLDR: 文中の単語を、文の意味と類似度から抽出する手法の提案。文の意味と類似度を抽出する際、文の意味と類似度を入力とし、文の意味と類似度を入力とし、文の意味と類似度を入力とし、文の意味と類似度を入力とし、文の意味と類似度を入力とし、文の意味と類似度を入力とし、文の意味と類似度を入力とし、文の意味と類似度を入力とし、文の意味と類似度を入力とし、文の意味と類似度を入力とし、文の意味と類似度
- Think Before You Speak: Explicitly Generating Implicit Commonsense Knowledge for Response Generation
- Pei Zhou, Karthik Gopalakrishnan, Behnam Hedayatnia, Seokhwan Kim, Jay Pujara, Xiang Ren, Yang Liu, Dilek Hakkani-Tur
- TLDR: 自然言語処理で、質問に対する回答を生成する研究。質問に対する回答は、質問に対する回答と同等の自然言語処理で生成する。質問に対する回答は、質問に対する回答と同等の自然言語処理で生成する。質問に対する回答は、質問に対する質問に対する回答と同等の自然言語処理で生成する。質問に対する回答は、質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問
- Flow-Adapter Architecture for Unsupervised Machine Translation
- Yihong Liu, Haris Jabbar, Hinrich Schuetze
- TLDR: 翻訳を行う際に、文レベルの表現を学習するモデルの提案。文レベルの表現を学習する際は、文レベルの表現を学習するモデルを適用する。文レベルの表現は、文単位の表現を学習するモデルで学習する。文単位の表現は、文単位の表現を学習するモデルで学習する。
- Efficient Unsupervised Sentence Compression by Fine-tuning Transformers with Reinforcement Learning
- Demian Ghalandari, Chris Hokamp, Georgiana Ifrim
- TLDR: 文単位の単語分散表現を強化学習で学習する研究。文単位の分散表現を学習する際、文単位の分散表現を学習するモデルをベースに学習する。学習時は、文単位の分散表現を学習するモデルをベースに学習する。学習時は、文単位の分散表現を学習するモデルをベースに学習する。
- Tracing Origins: Coreference-aware Machine Reading Comprehension
- Baorong Huang, Zhuosheng Zhang, Hai Zhao
- TLDR: 事前学習済み言語モデルの事前学習済み表現を、自然言語処理で活用する研究。単語のEntityを入力に追加し、EntityのEntityを入力に追加したEncoderを入力に追加する。EntityのEncoderは、EntityのEntityを入力に追加するEncoderと、EntityのEntityを入力に追加するEncoderの2つに分けている。
- WatClaimCheck: A new Dataset for Claim Entailment and Inference
- Kashif Khan, Ruizhe Wang, Pascal Poupart
- TLDR: 事前学習済みモデルを、事前学習済みモデルのデータセットに組み込んだ研究。事前学習済みモデルは事前学習済みモデルのデータセットをベースに、事前学習済みモデルのデータセットから事前学習済みモデルのデータセットを抜いたモデル。事前学習済みモデルは事前学習済みモデルのデータセットをベースに、事前学習済みモデルのデータセットから事前学習済みモデルのデータセットを抜いたモデル。事前学習済みモデルは事前学習済みモデルのデータセットから学習済みモデルのデータセットを抜いたモデル
- FrugalScore: Learning Cheaper, Lighter and Faster Evaluation Metrics for Automatic Text Generation
- Moussa Kamal Eddine, Guokan Shang, Antoine Tixier, Michalis Vazirgiannis
- TLDR: 自然言語処理の評価指標を学習する手法の提案。学習済みモデルの評価指標を学習する際、学習済みモデルの評価指標と同等の精度を維持するよう学習する。評価指標は通常のモデルより精度が低いが、学習済みモデルの評価指標は精度が低い。そこで、評価指標の更新を自動的に行う手法を提案している。
- A Well-Composed Text is Half Done! Composition Sampling for Diverse Conditional Generation
- Shashi Narayan, Gonçalo Simões, Yao Zhao, Joshua Maynez, Dipanjan Das, Michael Collins, Mirella Lapata
- TLDR: 事前学習済みモデルをベースに、事前学習済みモデルの生成を行なう手法の提案。事前学習済みモデルは、生成されたテキストをEntity Streamとして扱う。Entity Streamは、生成されたテキストをEntity Streamの重みから抽出する。生成は、Entity Streamの重みを入力に入力する形で行う。
- Synthetic Question Value Estimation for Domain Adaptation of Question Answering
- Xiang Yue, Ziyu Yao, Huan Sun
- TLDR: ドメイン転移で、既存のQAモデルを改良する研究。既存のQAモデルは、既存の質問抽出の結果から抽出する質問数を絞り込んでいるが、この抽出結果をベースに、質問数を絞り込んだ質問数を学習するモデルを提案している。
- Better Language Model with Hypernym Class Prediction
- He Bai, Tong Wang, Alessandro Sordoni, Peng Shi
- TLDR: マルチタスクの言語モデルで、文の意味を捉えるための手法の提案。文の意味を捉えるには、文の意味を捉えるためのモデルを導入する。文の意味を捉えるには、文の意味を捉えるためのモデルを導入する。
- Tackling Fake News Detection by Continually Improving Social Context Representations using Graph Neural Networks
- Nikhil Mehta, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: ニュースソースの情報を、グラフで表現する手法の提案。記事のタイトル/画像/SNSの投稿から、記事の投稿から記事の更新履歴から、記事の更新頻度から、記事の更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から、記事更新履歴から
- Understanding Gender Bias in Knowledge Base Embeddings
- Yupei Du, Qi Zheng, Yuanbin Wu, Man Lan, Yan Yang, Meirong Ma
- TLDR: 性別適合診断(BB)の評価について、具体的にはBBの評価をどうするかを検証した研究。BBはBBの評価に適した評価指標で、BBはBBの評価に適した評価指標でなく、BBの評価に適した評価指標で評価する。BBはBBの評価に適した評価指標で、BBはBBの評価に適した評価指標で評価する。
- Computational Historical Linguistics and Language Diversity in South Asia
- Aryaman Arora, Adam Farris, Samopriya Basu, Suresh Kolichala
- TLDR: 自然言語処理におけるデータの分布を調べる研究のサーベイ。データ分布は、言語モデルの学習に適した分布(言語モデルの学習済み言語モデル)を、言語モデルの学習に適した分布(言語モデルの学習済み言語モデル)を学習する形で行う。
- Faithful or Extractive? On Mitigating the Faithfulness-Abstractiveness Trade-off in Abstractive Summarization
- Faisal Ladhak, Esin Durmus, He He, Claire Cardie, Kathleen McKeown
- TLDR: 要約モデルの信頼性を評価する手法の提案。要約モデルは、事前学習済みモデルと同等の精度を維持できるか検証している。事前学習済みモデルは、事前学習済みモデルの信頼性を維持するよう学習する。事前学習済みモデルは、事前学習済みモデルの信頼性を維持するよう学習する。
- Slangvolution: A Causal Analysis of Semantic Change and Frequency Dynamics in Slang
- Daphna Keidar, Andreas Opedal, Zhijing Jin, Mrinmaya Sachan
- TLDR: 言語モデルの研究で、自然言語の変化とその影響を調べた研究。自然言語の変化は、単語の意味が変化するだけでなく、頻度や頻度分布といった分布面も変化する。頻度分布は、単語の意味変化と分布面の関係を調べた研究。頻度分布は、単語の意味変化と分布面の関係を調べた研究。
- Spurious Correlations in Reference-Free Evaluation of Text Generation
- Esin Durmus, Faisal Ladhak, Tatsunori Hashimoto
- TLDR: 自然言語処理の評価指標について、事前学習済みモデルの評価を誤った評価に置き換える手法を提案。事前学習済みモデルは、事前学習済みモデルの評価に使われる評価指標を誤認識している。事前学習済みモデルは、事前学習済みモデルの評価に使われる評価指標を誤認識している。
- On The Ingredients of an Effective Zero-shot Semantic Parser
- Pengcheng Yin, John Wieting, Avirup Sil, Graham Neubig
- TLDR: 自然言語処理におけるzero-shot学習について、実環境とモデルの差異を検証した研究。モデルはモデルの学習済みモデルと、モデルの学習済みモデルの学習済みモデルの2つを比較し、モデルの学習済みモデルとモデルの学習済みモデルの差異を比較した研究。モデルはモデルの学習済みモデルと、モデルの学習済みモデルの学習済みモデルの2つを比較している。
- Bias Mitigation in Machine Translation Quality Estimation
- Hanna Behnke, Marina Fomicheva, Lucia Specia
- TLDR: 翻訳の品質を評価するタスクについて、事前学習済みモデルの挙動を改善する手法をまとめた研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを追加する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを追加する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを追加する。
- Unified Speech-Text Pre-training for Speech Translation and Recognition
- Yun Tang, Hongyu Gong, Ning Dong, Changhan Wang, Wei-Ning Hsu, Jiatao Gu, Alexei Baevski, Xian Li, Abdelrahman Mohamed, Michael Auli, Juan Pino
- TLDR: 音声翻訳とテキスト翻訳を同時に学習する研究。音声翻訳は事前学習済みモデルで行うが、テキスト翻訳は事前学習済みモデルで行う。事前学習済みモデルは、事前学習済みモデルの学習率を上げるための工夫が取られている。
- Match the Script, Adapt if Multilingual: Analyzing the Effect of Multilingual Pretraining on Cross-lingual Transferability
- Yoshinari Fujinuma, Jordan Boyd-Graber, Katharina Kann
- TLDR: 事前学習済みモデルの事前学習済み言語に対する事前学習率を検証した研究。事前学習済みモデルは事前学習済み言語の学習率が低いが、事前学習済み言語の学習率は高い。事前学習済みモデルは事前学習済み言語の学習率を上げるのに有効だが、事前学習済み言語の学習率は低い。事前学習済みモデルは事前学習済み言語の学習率を上げるのに有効だが、事前学習済みモデルは学習率が低い。
- Structured Pruning Learns Compact and Accurate Models
- Mengzhou Xia, Zexuan Zhong, Danqi Chen
- TLDR: 言語モデルの蒸留を行う際に、蒸留の重みを削る手法を提案。蒸留は蒸留の重みを削るだけでなく、蒸留の重みを削る際に、蒸留の重みを削るための重みを削る(重みを削る=蒸留)ことで、蒸留の重みを削るモデルを学習させる。蒸留は蒸留の重みを削るだけでなく、蒸留の重みを削るための重みを削る(重みを削る=蒸留)ことで学習を行う。
- How can NLP Help Revitalize Endangered Languages? A Case Study and Roadmap for the Cherokee Language
- Shiyue Zhang, Ben Frey, Mohit Bansal
- TLDR: 自然言語処理の手法を、自然言語処理の専門家と、自然言語処理のモデルの専門家が連携して学習する研究。モデルは、自然言語処理の専門家と、モデルのモデルのモデルのモデルの専門家が、自然言語処理の専門家と、モデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデルのモデル
- Differentiable Multi-Agent Actor-Critic for Multi-Step Radiology Report Summarization
- Sanjeev Kumar Karn, Ning Liu, Hinrich Schuetze, Oladimeji Farri
- TLDR: 放射線診断書の要約を、事前学習済みモデルで行う研究。事前学習済みモデルは、要約の要約文を抽出する(BERT)、要約文を抽出する(BERT)、要約文を抽出する(BERT)、要約文を抽出する(BERT)、要約文を抽出する(BERT)、要約文を抽出する(BERT)、要約文を抽出する(BERT)、要約文を抽出する(BERT)、要約文を抽出する(BERT)、要約文を抽出する(BERT)、要
- Online Semantic Parsing for Latency Reduction in Task-Oriented Dialogue
- Jiawei Zhou, Jason Eisner, Michael Newman, Emmanouil Antonios Platanios, Sam Thomson
- TLDR: 対話システムで、事前学習済みのプログラムを実行する際の挙動を予測する研究。事前学習済みプログラムは、事前学習済みプログラムの挙動を予測する。事前学習済みプログラムは、事前学習済みプログラムの挙動を予測する。事前学習済みプログラムは、事前学習済みプログラムの挙動を予測する。事前学習済みプログラムは、事前学習済みプログラムの挙動を予測する。
- Few-Shot Tabular Data Enrichment Using Fine-Tuned Transformer Architectures
- Asaf Harari, Gilad Katz
- TLDR: 文書分類器のEnrichmentを、Transformerベースのモデルで行う研究。Transformerベースのモデルは、文書分類器のEnrichmentを学習する際、文書分類器のEnrichmentを学習する。文書分類器のEnrichmentは、文書分類器のEnrichmentと同等のモデルを適用する。文書分類器のEnrichmentは、文書分類器のEnrichmentと同等のモデルを適用する。
- Summ^N: A Multi-Stage Summarization Framework for Long Input Dialogues and Documents
- Yusen Zhang, Ansong Ni, Ziming Mao, Chen Henry Wu, Chenguang Zhu, Budhaditya Deb, Ahmed Awadallah, Dragomir Radev, Rui Zhang
- TLDR: 文書から要約を行う際に、文書の長さを重視する手法の提案。文書の長さを重視するモデルは、文書の長さを重視する傾向がある。文書長を重視するモデルは、文書長が長い文書を優先する傾向がある。文書長を重視するモデルは、文書長が長い文書を優先する傾向がある。文書長を重視するモデルは、文書長を重視する傾向がある。文書長を重視するモデルは、文書長を重視する傾向がある。文書長を重視するモデルは、文書長を重視する傾向がある。文書長を重視するモデルは、文書長を重視する傾向がある。文書長を重視するモデルは、文書長
- Open Domain Question Answering with A Unified Knowledge Interface
- Kaixin Ma, Hao Cheng, Xiaodong Liu, Eric Nyberg, Jianfeng Gao
- TLDR: オープンドメインのQAで、文書から知識を抽出する研究。文書から知識抽出は、文書から知識を抽出するより文書から知識を抽出する方が効率が良い。文書から知識抽出は、文書から文書を抽出するより文書から文書を抽出する方が効率が良い。文書から文書を抽出するより文書から文書を抽出する方が、文書から文書を抽出するより文書から文書を抽出する方が効率が良い。
- Principled Paraphrase Generation with Parallel Corpora
- Aitor Ormazabal, Mikel Artetxe, Aitor Soroa, Gorka Labaka, Eneko Agirre
- TLDR: 翻訳文の類似度を計測する研究。翻訳文の類似度は、翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の文脈から翻訳文の
- GlobalWoZ: Globalizing MultiWoZ to Develop Multilingual Task-Oriented Dialogue Systems
- Bosheng Ding, Junjie Hu, Lidong Bing, Mahani Aljunied, Shafiq Joty, Luo Si, Chunyan Miao
- TLDR: マルチタスク対応の対話システムをグローバルに学習する研究。翻訳済みの対話システムを、グローバルに学習する。翻訳済みの対話システムは、翻訳済みの対話システムのデータセットをベースに、翻訳済みの対話システムをベースに学習する。対話システムは、翻訳済みの対話システムをベースに学習する。
- Domain Knowledge Transferring for Pre-trained Language Model via Calibrated Activation Boundary Distillation
- Dongha Choi, HongSeok Choi, Hyunju Lee
- TLDR: 事前学習済み言語モデルを転移学習に使用する研究。事前学習済み言語モデルは、学習済み言語モデルの学習データと学習結果を結合し、学習データの結合から学習結果を転移学習に使用する。学習データは、学習データの更新頻度(更新頻度は学習データの更新頻度に依存する)、学習結果の更新頻度(更新頻度は学習データの更新頻度に依存する)、学習結果の更新頻度(更新頻度は更新頻度に依存する)を考慮している。
- Retrieval-guided Counterfactual Generation for QA
- Bhargavi Paranjape, Matthew Lamm, Ian Tenney
- TLDR: 自然言語処理モデルの学習データに対する、事前学習済みモデルの対応策をまとめた研究。事前学習済みモデルの学習データ(Reader/PageRank)を、事前学習済みモデルの学習データに追加し、事前学習済みモデルの学習データに追加したモデルの学習データに追加する。事前学習済みモデルの学習データに追加したモデルの学習データに追加したモデルの学習データに追加したモデルの学習データに追加したモデルの学習データに追加したモデルの学習データに追加したモデルの学習データに追加したモデルの学習データに追加したモデルの学習データに追加したモデルの学習データに追加したモデルの学習データに追加した
- DYLE: Dynamic Latent Extraction for Abstractive Long-Input Summarization
- Ziming Mao, Chen Henry Wu, Ansong Ni, Yusen Zhang, Rui Zhang, Tao Yu, Budhaditya Deb, Chenguang Zhu, Ahmed Awadallah, Dragomir Radev
- TLDR: 長い文書から、自然言語処理で長い文書を抽出する研究。抽出された文書から、文書の単語を抽出する。文書の単語は、文書の単語と同等の重みを算出する。文書の単語は、文書の単語と同等の重みを算出する。文書の文書構造を学習する際、文書の文書構造を学習する。
- Searching for fingerspelled content in American Sign Language
- Bowen Shi, Diane Brentari, Greg Shakhnarovich, Karen Livescu
- TLDR: 自然言語処理で、Finger Languageを検索する研究。検索結果は、Finger Languageの単語を入力とするテキストから抽出される。入力は、Finger Languageの単語を入力とするテキストから抽出される。入力は、入力と入力の単語を入力とするテキストから抽出される。入力は、入力と入力の単語を入力とするテキストから抽出される。
- Skill Induction and Planning with Latent Language
- Pratyusha Sharma, Antonio Torralba, Jacob Andreas
- TLDR: 自然言語による行動の説明を、強化学習で行う研究。学習済みモデルで、自然言語の説明を学習する。学習済みモデルは、学習済みモデルの学習済みスキルをベースに学習する。学習済みモデルは、学習済みスキルの学習を想定していないため、学習済みスキルの学習を想定していない。
- Fully-Semantic Parsing and Generation: the BabelNet Meaning Representation
- Abelardo Carlos Martínez Lorenzo, Marco Maru, Roberto Navigli
- TLDR: 多言語の文表現を扱う研究。文表現の表現を、文表現の表現を表現する文表現の表現に置き換える。文表現の表現は、文表現の表現を表現する文表現の表現に置き換える。文表現の表現は、文表現の表現を表現する文表現に置き換える。文表現の表現は、文表現の表現を表現する文表現に置き換える。
- Leveraging Similar Users for Personalized Language Modeling with Limited Data
- Charles Welch, Chenxi Gu, Jonathan K. Kummerfeld, Veronica Perez-Rosas, Rada Mihalcea
- TLDR: ユーザーの言語モデルを学習する際、ユーザーの類似度を調べる研究。既存のユーザーと類似度を比較する際、既存のユーザーの言語モデルを比較する。既存のモデルは、ユーザーの言語モデルと同等の精度を維持できるかを検証している。
- DEEP: DEnoising Entity Pre-training for Neural Machine Translation
- Junjie Hu, Hiroaki Hayashi, Kyunghyun Cho, Graham Neubig
- TLDR: 翻訳モデルの翻訳精度を上げるために、事前学習済みモデルをマルチタスクで学習する研究。事前学習済みモデルは、翻訳文のEntityをEntity wiseに変換するモデルで、Entity wiseはEntity wiseのEntity wiseを学習する。Entity wiseはEntity wiseの学習を併用する。
- Multi-Modal Sarcasm Detection via Cross-Modal Graph Convolutional Network
- Bin Liang, Chenwei Lou, Xiang Li, Min Yang, Lin Gui, Yulan He, Wenjie Pei, Ruifeng Xu
- TLDR: マルチモーダルで、画像とテキストを組み合わせて、マルチモーダルで、マルチタスクのセクハラ検知を行う研究。画像は、画像の表現を入力として、テキストは画像表現と画像表現双方を入力として入力する。画像は、画像表現とテキスト表現双方を入力として入力する。
- Composable Sparse Fine-Tuning for Cross-Lingual Transfer
- Alan Ansell, Edoardo Ponti, Anna Korhonen, Ivan Vulić
- TLDR: 転移学習において、事前学習済みモデルの挙動を変更する手法の提案。事前学習済みモデルの挙動を変更する際、事前学習済みモデルの挙動を変更する(事前学習済みモデルは学習済み言語のMaskのみで学習する)。事前学習済みモデルの挙動を変更する際、事前学習済みモデルの挙動を変更する(事前学習済みモデルは学習済み言語のみで学習する)。
- Toward Annotator Group Bias in Crowdsourcing
- Haochen Liu, Joseph Thekinen, Sinem Mollaoglu, Da Tang, Ji Yang, Youlong Cheng, Hui Liu, Jiliang Tang
- TLDR: モデルの学習時に、モデルの分類器に所属するメンバーの行動を予測する研究。モデルは、メンバーの行動を予測するモデルで、メンバーの行動はグループ単位で予測する。グループ単位の行動は、モデルの学習時に予測する。グループ単位の行動は、モデルの学習時に予測する。
- Under the Morphosyntactic Lens: A Multifaceted Evaluation of Gender Bias in Speech Translation
- Beatrice Savoldi, Marco Gaido, Luisa Bentivogli, Matteo Negri, Marco Turchi
- TLDR: 言語モデルの性別偏差を検出する手法の提案。性別関係の単語を抽出するモデルは、性別関係の単語を抽出する際、単語の位置関係を予測するモデルと同等の手法を取っている。性別関係の単語は、単語の位置関係を予測するモデルで学習する。
- Answering Open-Domain Multi-Answer Questions via a Recall-then-Verify Framework
- Zhihong Shao, Minlie Huang
- TLDR: マルチドメインの質問に対し、事前学習済みモデルを適用する研究。事前学習済みモデルは、事前学習済みの文書から抽出された文書を推定するモデルで、文書から抽出された文書を推定する。文書から抽出された文書は、事前学習済みモデルの推定結果に近い文書に置き換えられる。
- Probing as Quantifying Inductive Bias
- Alexander Immer, Lucas Torroba Hennigen, Vincent Fortuin, Ryan Cotterell
- TLDR: 事前学習済みモデルを、事前学習済みモデルの学習済み表現から学習する手法の提案。事前学習済みモデルは、事前学習済み表現の潜在表現を学習する。学習済みモデルは、事前学習済み表現の潜在表現を学習する。事前学習済みモデルは、事前学習済み表現の潜在表現を学習する。事前学習済みモデルは、事前学習済み表現の潜在表現を学習する。
- Probing Structured Pruning on Multilingual Pre-trained Models: Settings, Algorithms, and Efficiency
- Yanyang Li, Fuli Luo, Runxin Xu, Songfang Huang, Fei Huang, Liwei Wang
- TLDR: マルチ言語の事前学習済み言語モデルで、構造的な枝刈りを行う手法のサーベイ。各言語の事前学習済みモデルで、構造的な枝刈りを行う手法を比較し、各言語の事前学習済みモデルで最適化を行う。事前学習済みモデルの学習は、事前学習済みモデルの学習率を上げるのに有効な手法。
- GPT-D: Inducing Dementia-related Linguistic Anomalies by Deliberate Degradation of Artificial Neural Language Models
- Changye Li, David Knopman, Weizhe Xu, Trevor Cohen, Serguei Pakhomov
- TLDR: アルツハイマー病の認知機能を調べる研究。アルツハイマー病の認知機能は、アルツハイマー病の遺伝的特徴(アルツハイマー病の遺伝的特徴)と同等の学習データセットを用いて学習する。このデータセットは、アルツハイマー病の遺伝的特徴(アルツハイマー病の認知機能)と同等の学習データセットを用いている。
- An Empirical Survey of the Effectiveness of Debiasing Techniques for Pre-trained Language Models
- Nicholas Meade, Elinor Poole-Dayan, Siva Reddy
- TLDR: 言語モデルの潜在表現を強化する手法について、効果的な手法を調査した研究。学習済みモデルの潜在表現を強化する手法は、CNN/SentenceDebias/Self-Debias/DeepSet/Transformer/etc。各手法の効果は、学習済みモデルの潜在表現を強化する手法と比較して良好な結果を記録できた。
- Exploring and Adapting Chinese GPT to Pinyin Input Method
- Minghuan Tan, Yong Dai, Duyu Tang, Zhangyin Feng, Guoping Huang, Jing Jiang, Jiwei Li, Shuming Shi
- TLDR: 自然言語処理で、入力中の単語を短い文字に置き換える手法の提案。入力中の単語は短い文字が多い場合、入力が短い場合、入力の精度が下がる。このため、短い文字を長さに置き換える手法を提案。短い文字は、入力の精度が下がる可能性があるため、短い文字を長さに置き換える手法を提案している。
- Enhancing Cross-lingual Natural Language Inference by Prompt-learning from Cross-lingual Templates
- Kunxun Qi, Hai Wan, Jianfeng Du, Haolan Chen
- TLDR: マルチ言語の自然言語推論を行う際に、事前学習済みモデルを強化する手法の提案。事前学習済みモデルは、質問に対する回答確率分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布分布
- Sense Embeddings are also Biased – Evaluating Social Biases in Static and Contextualised Sense Embeddings
- Yi Zhou, Masahiro Kaneko, Danushka Bollegala
- TLDR: マルチスペクトの文ベクトルを用いた、対話学習の手法の提案。文ベクトルは、文の意味を捉えるか否かを評価する指標として使われるが、文ベクトルは文の意味を捉えるか否かを評価する指標として使われる。文ベクトルは、文の意味を捉えるか否かを評価する指標として使われる。
- Hybrid Semantics for Goal-Directed Natural Language Generation
- Connor Baumler, Soumya Ray
- TLDR: 自然言語における文生成を、事前学習済みモデルと併用する研究。事前学習済みモデルは、文の要約を予測するモデルで、事前学習済みモデルは文の要約を予測するモデルで、文の要約は予測するモデルの予測結果から生成する。事前学習済みモデルは、文の要約を予測するモデルと同等のモデルを構築している。
- Predicting Intervention Approval in Clinical Trials through Multi-Document Summarization
- Georgios Katsimpras, Georgios Paliouras
- TLDR: 臨床実験の結果から、有効性を検証するための研究。論文から、臨床実験の結果を抽出するデータセットを構築し、そのデータセットから有効性を検証するための論文を抽出する。論文から抽出された論文の文書から、有効性を検証するための文書を生成する。
- BiTIIMT: A Bilingual Text-infilling Method for Interactive Machine Translation
- Yanling Xiao, Lemao Liu, Guoping Huang, Qu Cui, Shujian Huang, Shuming Shi, Jiajun Chen
- TLDR: 機械翻訳において、翻訳の精度を上げるために必要な工夫を提案した研究。翻訳の精度を上げるために、翻訳文の単語を追加する(単語追加=>単語追加の文を追加する)ことで、翻訳の精度を上げている。
- Distributionally Robust Finetuning BERT for Covariate Drift in Spoken Language Understanding
- Samuel Broscheit, Quynh Do, Judith Gaspers
- TLDR: 自然な変動を利用し、学習データの分散を抑える研究。学習データの分散は学習データの分散と同等の性質を持つが、学習データの分散は学習データの分散と同等の性質を持つ。学習データの分散は学習データの分散と同等の性質を持つが、学習データの分散は学習データの分散と同等の性質を持つ。学習データの分散は学習データの分散と同等の性質を持つ。
- Enhancing Chinese Pre-trained Language Model via Heterogeneous Linguistics Graph
- Yanzeng Li, Jiangxia Cao, Xin Cong, Zhenyu Zhang, Bowen Yu, Hongsong Zhu, Tingwen Liu
- TLDR: 事前学習済み言語モデルを、自然言語処理で強化する研究。事前学習済み言語モデルは、自然言語処理のタスクで使用する単語や文を予測するタスクを想定していない。そのため、単語/文の予測を行うタスクを別々に学習する。このタスクを、事前学習済み言語モデルのタスクと比較して、精度が向上した。
- Divide and Denoise: Learning from Noisy Labels in Fine-Grained Entity Typing with Cluster-Wise Loss Correction
- Kunyuan Pang, Haoyu Zhang, Jie Zhou, Ting Wang
- TLDR: 特徴抽出とノイズ抽出を組み合わせた手法の提案。ノイズ抽出は、クラスタリングの結果から予測するが、ノイズはクラスタリング結果から予測する。ノイズ抽出は、クラスタリング結果から予測する。ノイズは、クラスタリング結果から予測する。
- Towards Robustness of Text-to-SQL Models Against Natural and Realistic Adversarial Table Perturbation
- Xinyu Pi, Bing Wang, Yan Gao, Jiaqi Guo, Zhoujun Li, Jian-Guang Lou
- TLDR: テキストベースのモデルに対するAdversarial Table Perturbation(ATP)の強化手法の提案。モデルのAdversarial Table Perturbationは、自然言語の質問に対するAdversarial Table Perturbationと同等の性能を検証する。モデルのAdversarial Table Perturbationは、自然言語の質問に対するAdversarial Table Perturbationと同等の性能を検証する。
- Overcoming Catastrophic Forgetting beyond Continual Learning: Balanced Training for Neural Machine Translation
- Chenze Shao, Yang Feng
- TLDR: マルチタスク学習で、学習済みモデルの学習を誤認識する問題を解決する研究。マルチタスク学習では、学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済み
- Metaphors in Pre-Trained Language Models: Probing and Generalization Across Datasets and Languages
- Ehsan Aghazadeh, Mohsen Fayyaz, Yadollah Yaghoobzadeh
- TLDR: 言語モデルで、自然言語処理で使われる表現を学習する際、その表現が「自然」な表現かどうかを検証した研究。言語モデルの表現は、自然言語処理で使われる表現と、言語モデルで使われる表現の2つに分けられている。この2つを検証し、言語モデルの表現が自然言語処理で使われるかどうかを検証した研究。
- Discrete Opinion Tree Induction for Aspect-based Sentiment Analysis
- Chenhua Chen, Zhiyang Teng, Zhongqing Wang, Yue Zhang
- TLDR: 自然言語処理で、aspect-basedの分類を行う際に、言語モデルの依存構造を考慮した研究。依存構造は、Attentionと文距離を考慮する。文距離は、Attentionの重みを考慮する。文距離は、文単位のAttentionを考慮する。
- Investigating Non-local Features for Neural Constituency Parsing
- Leyang Cui, Sen Yang, Yue Zhang
- TLDR: ネットワーク構造を学習する際、ネットワークの構造を外れさせないようにする手法の提案。ネットワーク構造の外れを外れにすると、ネットワーク構造の学習に大きな影響が出る。外れはネットワーク構造の外れと同等に重要であるとし、外れはネットワーク構造の外れに依存する。外れはネットワーク構造の外れと同等に重要であるとし、外れはネットワーク構造の外れと同等であるとしている。
- Learning from Sibling Mentions with Scalable Graph Inference in Fine-Grained Entity Typing
- Yi Chen, Jiayang Cheng, Haiyun Jiang, Lemao Liu, Haisong Zhang, Shuming Shi, Ruifeng Xu
- TLDR: 文の文長を短くする手法の提案。文長は文長の文長を長くなるよう、文長の文長を短くする。文長は文長の文長を長くなるよう、文長の文長を長くなるよう、文長の文長を長くなるよう学習する。文長は文長の文長を長くする。文長は文長の文長を長くする。文長は文長の文長を長くする。文長は文長の文長を長くする。文長は文長の文長を長くする。文長は文長の文長を長くする
- A Variational Hierarchical Model for Neural Cross-Lingual Summarization
- Yunlong Liang, Fandong Meng, Chulun Zhou, Jinan Xu, Yufeng Chen, Jinsong Su, Jie Zhou
- TLDR: 翻訳・要約のタスクで、翻訳/要約のタスクを分類するモデルを提案。翻訳/要約のタスクは翻訳/要約のタスクと同等精度が得られるが、要約は翻訳/要約のタスクで精度が落ちる。そこで、翻訳/要約のタスクを分類するモデルを提案。翻訳/要約のタスクは、翻訳/要約のタスクと同等精度が得られるが要約は要約のタスクで精度が落ちる。
- On the Robustness of Question Rewriting Systems to Questions of Varying Hardness
- Hai Ye, Hwee Tou Ng, Wenjuan Han
- TLDR: 質問の転移学習を行う際に、質問の転移学習を自動的に行う研究。転移学習は質問の転移学習と同等の手法で行うが、転移学習は質問転移学習と同等の手法で行う。転移学習は質問転移学習と同等の手法で行うが、転移学習は質問転移学習と同等の手法で行う。
- OpenHands: Making Sign Language Recognition Accessible with Pose-based Pretrained Models across Languages
- Prem Selvaraj, Gokul Nc, Pratyush Kumar, Mitesh Khapra
- TLDR: 自然言語処理で、文の位置を予測する研究。通常の事前学習は、文の位置を予測するモデルの学習を行わず、文の位置を予測するモデルの学習を行なっている。事前学習は、文の位置を予測するモデルの学習を行なっている。
- bert2BERT: Towards Reusable Pretrained Language Models
- Cheng Chen, Yichun Yin, Lifeng Shang, Xin Jiang, Yujia Qin, Fengyu Wang, Zhi Wang, Xiao Chen, Zhiyuan Liu, Qun Liu
- TLDR: 事前学習済み言語モデルを大規模なモデルに転移する研究。事前学習済みモデルの初期化は、事前学習済みモデルの学習済みパラメーターを学習する。事前学習済みモデルの学習は、事前学習済みモデルの学習済みパラメーターを学習する。事前学習済みモデルの学習は、事前学習済みモデルの学習済みパラメーターを学習する。
- Vision-Language Pre-Training for Multimodal Aspect-Based Sentiment Analysis
- Yan Ling, Jianfei Yu, Rui Xia
- TLDR: 画像・言語・マルチモーダル・マルチタスクの事前学習を統合した研究。事前学習済みモデルをベースに、事前学習済みモデルの挙動を予測するタスクを追加。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを想定している。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを想定している。
- “You might think about slightly revising the title”: Identifying Hedges in Peer-tutoring Interactions
- Yann Raphalen, Chloé Clavel, Justine Cassell
- TLDR: 教師のエージェントとの関係を改善する手法の提案。教師のエージェントは、生徒のエージェントとの関係を改善するネットワークを構築し、教師のエージェントとの関係を改善するネットワークを構築する。教師のエージェントは、教師のエージェントとの関係を改善するネットワークを構築する。
- Efficient Cluster-Based k-Nearest-Neighbor Machine Translation
- Dexin Wang, Kai Fan, Boxing Chen, Deyi Xiong
- TLDR: 医療従事者のための学習データセット「医療従事者のためのデータセット」の提案。医療従事者のためのデータセットは、医療従事者のためのデータセットと同等の扱いが行えるかを検証している。医療従事者のためのデータセットは、医療従事者のためのデータセットと同等の扱いが行えるかを検証している。
- Headed-Span-Based Projective Dependency Parsing
- Songlin Yang, Kewei Tu
- TLDR: 事前学習済みモデルの学習を、事前学習済みモデルの学習に近い手法で行い、事前学習済みモデルの学習を行わせる研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルの学習済みモデルと同等の学習済みモデルの学習を行なっている。事前学習済みモデルは、事前学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習
- Decoding Part-of-Speech from Human EEG Signals
- Alex Murphy, Bernd Bohnet, Ryan McDonald, Uta Noppeney
- TLDR: テキストを入力とするネットワークの研究。入力は、入力と入力の双方向のネットワークで、入力は入力と入力双方向のネットワークで入力する。入力は、入力と入力双方向のネットワークで入力する。入力は、入力と入力双方向のネットワークで入力する。入力は、入力と入力双方向のネットワークで入力する。入力は、入力と入力双方向のネットワークで入力する。
- Robust Lottery Tickets for Pre-trained Language Models
- Rui Zheng, Bao Rong, Yuhao Zhou, Di Liang, Sirui Wang, Wei Wu, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: 事前学習済み言語モデルのモデルは、通常のモデルより精度が低いモデルを発見する試み。事前学習済みモデルのモデルは、通常のモデルより精度が低いモデルを発見する。そのため、事前学習済みモデルのモデルの重みを学習するモデルを提案。重みは、学習済みモデルの重みと同等になるよう学習する。
- Knowledgeable Prompt-tuning: Incorporating Knowledge into Prompt Verbalizer for Text Classification
- Shengding Hu, Ning Ding, Huadong Wang, Zhiyuan Liu, Jingang Wang, Juanzi Li, Wei Wu, Maosong Sun
- TLDR: 事前学習済み言語モデル(PLM)で、事前学習済み言語モデルの予測結果を事前学習済み言語モデルに適用する手法の提案。事前学習済み言語モデルの予測結果を事前学習済み言語モデルに適用し、事前学習済み言語モデルの予測結果を事前学習済み言語モデルに適用する。事前学習済み言語モデルの予測結果を事前学習済み言語モデルに適用する。
- Cross-Lingual Contrastive Learning for Fine-Grained Entity Typing for Low-Resource Languages
- Xu Han, Yuqi Luo, Weize Chen, Zhiyuan Liu, Maosong Sun, Zhou Botong, Hao Fei, Suncong Zheng
- TLDR: 低リソース言語の文を入力に変換する研究。低リソース言語の文を入力に変換する際、入力の文を入力とし、入力の文を入力とし入力と入力の文を入力とし入力と入力双方を入力とする。入力は入力と入力双方を入力とする。入力は入力と入力双方を入力とする。入力は入力と入力双方を入力とする。
- MELM: Data Augmentation with Masked Entity Language Modeling for Low-Resource NER
- Ran Zhou, Xin Li, Ruidan He, Lidong Bing, Erik Cambria, Luo Si, Chunyan Miao
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルに組み込んだ研究。事前学習済み言語モデルは、事前学習済み言語モデルのラベルを単語/文に置き換える形で学習を行う。事前学習済み言語モデルは、事前学習済み言語モデルのラベルを単語/文に置き換えることで、事前学習済み言語モデルの予測精度を上げる。
- Word2Box: Capturing Set-Theoretic Semantics of Words using Box Embeddings
- Shib Dasgupta, Michael Boratko, Siddhartha Mishra, Shriya Atmakuri, Dhruvesh Patel, Xiang Li, Andrew McCallum
- TLDR: 自然言語処理で、単語の類似度を計測するWord2Boxを提案。単語の類似度は、単語の意味と同等か同等か、同等か否かの判定を行なっている。単語の類似度は、単語の意味と同等か否かの判定を行なっている。
- IAM: A Comprehensive and Large-Scale Dataset for Integrated Argument Mining Tasks
- Liying Cheng, Lidong Bing, Ruidan He, Qian Yu, Yan Zhang, Luo Si
- TLDR: 論理モデルの事前学習を行う際に、論文から論理モデルの作成を自動生成する手法の提案。論文から論理モデルの作成を自動生成するだけでなく、論文から論理モデルの作成を自動生成する形で行う。論文から論理モデルの作成を自動生成するだけでなく、論文から論理モデルの作成を自動生成する形で行う。
- PLANET: Dynamic Content Planning in Autoregressive Transformers for Long-form Text Generation
- Zhe Hu, Hou Pong Chan, Jiachen Liu, Xinyan Xiao, Hua Wu, Lifu Huang
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルの生成に応用した研究。事前学習済みモデルは、事前学習済みモデルの生成結果をベースに生成を行う。事前学習済みモデルは、事前学習済みモデルの生成結果をベースに生成を行う。事前学習済みモデルは、事前学習済みモデルの生成結果をベースに生成を行う。事前学習済みモデルは、事前学習済みモデルの生成結果をベースに生成を行う。
- CTRLEval: An Unsupervised Reference-Free Metric for Evaluating Controlled Text Generation
- Pei Ke, Hao Zhou, Yankai Lin, Peng Li, Jie Zhou, Xiaoyan Zhu, Minlie Huang
- TLDR: テキスト生成モデルの評価を、事前学習済み言語モデルの評価と比較した研究。事前学習済み言語モデルの評価は、事前学習済みモデルの評価と同等の精度が得られるが、事前学習済みモデルの評価は精度が低い。事前学習済みモデルの評価は、事前学習済みモデルの評価と同等の精度が得られるが、事前学習済みモデルの評価は精度が低い。
- Beyond the Granularity: Multi-Perspective Dialogue Collaborative Selection for Dialogue State Tracking
- Jinyu Guo, Kai Shuang, Jijie Li, Zihan Wang, Yixuan Liu
- TLDR: 対話システムの更新を行う際に、各ラウンドの対話履歴を自動生成する研究。対話履歴は、各ラウンドのラウンド名と、対話履歴の更新頻度を入力として生成する。対話履歴は、更新頻度が低いラウンドのみを入力として生成する。対話履歴は、更新頻度が高いラウンドのみを入力として生成する。
- Are Prompt-based Models Clueless?
- Pride Kavumba, Ryo Takahashi, Yusuke Oda
- TLDR: 事前学習済み言語モデルで、事前学習済みモデルの表面的な特徴を学習する研究。事前学習済みモデルは、事前学習済みモデルの表面的な特徴を学習する。通常の事前学習済みモデルは、事前学習済みモデルの表面的な特徴を学習するが、事前学習済みモデルは学習する表面的な特徴を学習する。
- Learning Confidence for Transformer-based Neural Machine Translation
- Yu Lu, Jiali Zeng, Jiajun Zhang, Shuangzhi Wu, Mu Li
- TLDR: 機械翻訳モデルの予測精度を上げるために、事前学習済みモデルの予測精度を上げるための研究。事前学習済みモデルの予測精度を上げるための手法として、事前学習済みモデルの予測精度を上げるための事前学習済みモデルの予測精度を上げるための事前学習を行なっている。事前学習済みモデルの予測精度を上げるための事前学習を行なっている
- Things not Written in Text: Exploring Spatial Commonsense from Visual Signals
- Xiao Liu, Da Yin, Yansong Feng, Dongyan Zhao
- TLDR: 自然言語処理で、画像から自然言語処理モデルの学習を検証した研究。画像から自然言語処理モデルの学習は、画像のサイズと位置の関係を学習する。画像のサイズは、物体サイズと位置の関係を学習するモデルの学習に近い。位置関係は、画像のサイズと位置関係を学習するモデルの学習に近い。
- Conditional Bilingual Mutual Information Based Adaptive Training for Neural Machine Translation
- Songming Zhang, Yijin Liu, Fandong Meng, Yufeng Chen, Jinan Xu, Jian Liu, Jie Zhou
- TLDR: 翻訳モデルで、翻訳文の予測精度を上げるために、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測精度を上げるためには、翻訳文の予測
- ClusterFormer: Neural Clustering Attention for Efficient and Effective Transformer
- Ningning Wang, Guobing Gan, Peng Zhang, Shuai Zhang, Junqiu Wei, Qun Liu, Xin Jiang
- TLDR: マルチタスクで効率的なAttentionを行う研究。マルチタスクで学習したモデルを、マルチタスクで学習したモデルに組み込むことで、マルチタスクで効率的なAttentionを行うことができる。マルチタスクで効率的なAttentionを行うには、マルチタスクの学習とマルチタスクの学習を同時に行う必要がある。
- Bottom-Up Constituency Parsing and Nested Named Entity Recognition with Pointer Networks
- Songlin Yang, Kewei Tu
- TLDR: 固有表現認識において、階層構造を階層構造と同等に扱う手法の提案。階層構造は階層構造の予測に使用されるが、階層構造は階層構造の予測に使用される。階層構造は階層構造の予測に使用されるが、階層構造は階層構造の予測に使用される。階層構造は階層構造の予測に使用される。
- Redistributing Low-Frequency Words: Making the Most of Monolingual Data in Non-Autoregressive Translation
- Liang Ding, Longyue Wang, Shuming Shi, Dacheng Tao, Zhaopeng Tu
- TLDR: 自然言語処理で、蒸留を行う際に発生する蒸留の仕組みを提案。蒸留は蒸留器の蒸留を蒸留器の蒸留器に蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器の蒸留器
- Dependency Parsing as MRC-based Span-Span Prediction
- Leilei Gan, Yuxian Meng, Kun Kuang, Xiaofei Sun, Chun Fan, Fei Wu, Jiwei Li
- TLDR: 文単位の依存構造を、文レベルの文に分割する研究。文単位の依存構造は、文の文長が長い場合、文長の文長を大きくする。文長を大きくする場合は、文長の文長を大きくする。文長を大きくする場合は、文長の文長を大きくする。
- Adversarial Soft Prompt Tuning for Cross-Domain Sentiment Analysis
- Hui Wu, Xiaodong Shi
- TLDR: 事前学習済み言語モデルで、マルチドメインの感情分析を行う際に、事前学習済みモデルの挙動を予測するモデルの提案。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルをベースに、事前学習済みモデルの挙動を予測するモデルをベースに学習する。
- Generating Scientific Claims for Zero-Shot Scientific Fact Checking
- Dustin Wright, David Wadden, Kyle Lo, Bailey Kuehl, Arman Cohan, Isabelle Augenstein, Lucy Wang
- TLDR: 自然言語処理で、Biomedicalの論文から事実関係を推定する研究。論文から事実関係を推定する際、論文の文脈から事実関係を推定する。論文の文脈から推定する文書を生成する形で、論文の文脈から事実関係を推定する。論文の文脈から推定する文書を生成する形で、論文の文脈から事実関係を推定する。
- Modeling Dual Read/Write Paths for Simultaneous Machine Translation
- Shaolei Zhang, Yang Feng
- TLDR: 翻訳を行う際に、翻訳文を読み終えても翻訳が進むかを判断する研究。翻訳文を読み終えても翻訳が進むかを判断するモデルを、翻訳文の読み終えた後に生成するモデルと、翻訳文を読み終えた後に生成したモデルの2つに分割し、生成したモデルを学習させるモデルの2つに分割する。
- ExtEnD: Extractive Entity Disambiguation
- Edoardo Barba, Luigi Procopio, Roberto Navigli
- TLDR: 言語モデルのEntity Discriminatorを、Transformerベースのモデルに置き換えた研究。Entity Discriminatorは、Entityの単語を単語単位で抽出するタスクで、単語単位の単語抽出はTransformerベースのモデルで行う。Transformerベースのモデルは、Entityの単語を単語単位で抽出するモデルと、単語単位の単語抽出をEntity単位で行うモデルの2つを使用。
- Hierarchical Sketch Induction for Paraphrase Generation
- Tom Hosking, Hao Tang, Mirella Lapata
- TLDR: 自然言語処理で、文の意味を表現するフレーズを生成する研究。フレーズは、文の意味を表現するフレーズとして学習する。フレーズは、文の意味を表現するフレーズとして学習する。フレーズは、文の意味を表現するフレーズとして学習する。フレーズは、文の意味を表現するフレーズとして学習する。フレーズは、文の意味を表現するフレーズとして学習する。
- Alignment-Augmented Consistent Translation for Multilingual Open Information Extraction
- Keshav Kolluru, Muqeeth Mohammed, Shubham Mittal, Soumen Chakrabarti, Mausam .
- TLDR: オープンソースの文書を自動翻訳する研究。翻訳は英語のみでなく、翻訳文の単語/文法も英語に置き換える。単語/文法の置き換えは、翻訳文の単語/文法を翻訳文に置き換える形で行う。翻訳文は、翻訳文の単語/文法を翻訳文に置き換える形で生成する。
- Text-to-Table: A New Way of Information Extraction
- Xueqing Wu, Jiacheng Zhang, Hang Li
- TLDR: テキストからテーブルを抽出する研究。テキストからテーブルを抽出する際、テーブルの構造をテキストに置き換える(テキストはテキストベースで抽出する)。テキストベースのモデルは、テキストを入力とするテキストボックスから抽出する。テキストボックスはテキストベースで、テキストボックスはテキストベースのモデルで抽出する。
- Accelerating Code Search with Deep Hashing and Code Classification
- Wenchao Gu, Yanlin Wang, Lun Du, Hongyu Zhang, Shi Han, Dongmei Zhang, Michael Lyu
- TLDR: コード検索を効率化する手法の提案。検索結果を分類し、検索結果をEncodeしたコードを検索結果として追加する。検索結果をEncodeしたコードをEncodeしたコードを検索結果として追加する。EncodeしたコードをEncodeしたコードをEncodeしたコードを検索結果として追加する。EncodeしたコードをEncodeしたコードをEncodeしたコードを検索結果として追加する。EncodeしたコードをEncodeしたコードを検索結果として追加する。EncodeしたコードをEncodeしたコードを検索結果として追加する。EncodeしたコードをEncodeしたコードを検索結果として追加する。EncodeしたコードをEncodeした
- Other Roles Matter! Enhancing Role-Oriented Dialogue Summarization via Role Interactions
- Haitao Lin, Junnan Zhu, Lu Xiang, Yu Zhou, Jiajun Zhang, Chengqing Zong
- TLDR: 対話システムにおける、マルチタスクの要約を強化した研究。要約は各役割の要約から生成するが、要約は各役割の要約から生成する。要約は各役割の要約から生成するが、要約は各役割の要約から生成する。要約は要約の要約から生成するが、要約は要約の要約から生成する。
- ClarET: Pre-training a Correlation-Aware Context-To-Event Transformer for Event-Centric Generation and Classification
- Yucheng Zhou, Tao Shen, Xiubo Geng, Guodong Long, Daxin Jiang
- TLDR: イベント間の相互理解を強化する研究。イベントの予測は、イベントの予測とイベントの予測の2つに分けて行う。予測は、イベントの予測とイベントの予測の2つを同時に行う。予測は、イベントの予測とイベントの予測の2つを同時に行う。
- Measuring and Mitigating Name Biases in Neural Machine Translation
- Jun Wang, Benjamin Rubinstein, Trevor Cohn
- TLDR: 自然言語処理で、性別を推定する研究。性別は、性別と同等に扱われるか、性別と同等に扱われるかを判定する。性別は、性別と同等に扱われるかを判定する。性別は、性別と同等に扱われるかを判定する。性別は、性別と同等に扱われるかを判定する。性別は、性別と同等に扱われるかを判定する。
- Understanding and Improving Sequence-to-Sequence Pretraining for Neural Machine Translation
- Wenxuan Wang, Wenxiang Jiao, Yongchang Hao, Xing Wang, Shuming Shi, Zhaopeng Tu, Michael Lyu
- TLDR: 機械翻訳における事前学習について、事前学習の効果と実際のモデルのパフォーマンスを比較した研究。事前学習は、事前学習済みモデルのパフォーマンスを上げるのに有効な手法だが、モデルのパフォーマンスが上がるかは検証結果から難しい。そこで、事前学習時にモデルのパフォーマンスを上げるための手法を提案している。
- MSCTD: A Multimodal Sentiment Chat Translation Dataset
- Yunlong Liang, Fandong Meng, Jinan Xu, Yufeng Chen, Jie Zhou
- TLDR: マルチモーダルで翻訳を行う際に、画像とテキストを組み合わせた翻訳タスクを提案。画像は、双方向の翻訳タスクで使用されることが多いが、テキストは複数モーダルで使用されることが多い。テキストは、画像の表現をベースに、テキストは、画像の表現をベースに翻訳を行う。
- Learning Disentangled Textual Representations via Statistical Measures of Similarity
- Pierre Colombo, Guillaume Staerman, Nathan Noiry, Pablo Piantanida
- TLDR: 教師なし学習における、事前学習済みモデルの学習を簡素化する手法の提案。事前学習済みモデルは学習済みモデルと同等の学習が困難なため、学習済みモデルの学習を自動的に行う。学習済みモデルは学習済みモデルと同等の学習が困難なため、学習済みモデルの学習を自動的に行う。
- On the Sensitivity and Stability of Model Interpretations in NLP
- Fan Yin, Zhouxing Shi, Cho-Jui Hsieh, Kai-Wei Chang
- TLDR: 自然言語処理モデルの予測結果を評価する手法の提案。予測結果を評価する指標として、予測結果の sensitivity と 安定性 を提案している。 予測結果の安定性は、予測結果の予測精度と予測結果の予測精度の2つに依存する。 安定性は、予測結果の予測精度と予測精度の2つの指標で評価している。
- Down and Across: Introducing Crossword-Solving as a New NLP Benchmark
- Saurabh Kulshreshtha, Olga Kovaleva, Namrata Shivagunde, Anna Rumshisky
- TLDR: 自然言語処理で、ニューラルタイムのカテゴリから、ニューラルタイムのカテゴリを解くタスクを提案。カテゴリは、歴史、単語、単語語彙、単語表現、単語/語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙、語彙
- Generating Data to Mitigate Spurious Correlations in Natural Language Inference Datasets
- Yuxiang Wu, Matt Gardner, Pontus Stenetorp, Pradeep Dasigi
- TLDR: 自然言語処理モデルの学習データで、学習データの劣化を防ぐ研究。学習データの劣化は、タスク依存の要素とラベルの要素との相関が低い場合に起こりう。このため、タスク依存要素とラベルの要素との相関を考慮したモデルを作成し、ラベルの要素を考慮したモデルを生成する。
- GL-CLeF: A Global–Local Contrastive Learning Framework for Cross-lingual Spoken Language Understanding
- Libo Qin, Qiguang Chen, Tianbao Xie, Qixin Li, Jian-Guang Lou, Wanxiang Che, Min-Yen Kan
- TLDR: 多言語の翻訳を行う際に、翻訳文の類似度を加味したモデルを提案。翻訳文の類似度は、翻訳文の文脈から予測する。翻訳文の類似度は、翻訳文の文脈から予測する。翻訳文の類似度は、翻訳文の文脈から予測する。
- Good Examples Make A Faster Learner: Simple Demonstration-based Learning for Low-resource NER
- Dong-Ho Lee, Akshen Kadakia, Kangmin Tan, Mahak Agarwal, Xinyu Feng, Takashi Shibuya, Ryosuke Mitani, Toshiyuki Sekiya, Jay Pujara, Xiang Ren
- TLDR: テキスト分類を行う際に、事前学習済みモデルのサンプルを事前学習する手法の提案。事前学習済みモデルは、事前学習済みモデルのサンプルを事前学習するモデルで、事前学習済みモデルのサンプルは事前学習済みモデルのサンプルと同等の精度を達成できるか検証している。事前学習済みモデルは、事前学習済みモデルのサンプルを事前学習済みモデルに追加する形で学習を行う
- Contextual Representation Learning beyond Masked Language Modeling
- Zhiyi Fu, Wangchunshu Zhou, Jingjing Xu, Hao Zhou, Lei Li
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルの表現に近づける手法の提案。事前学習済み言語モデルは、事前学習済み言語モデルの表現を近づけるための事前学習済み言語モデルの役割を果たしている。事前学習済み言語モデルは、事前学習済み言語モデルの表現を近づけるための事前学習済み言語モデルの役割を果たしている。
- Efficient Hyper-parameter Search for Knowledge Graph Embedding
- Yongqi Zhang, Zhanke Zhou, Quanming Yao, Yong Li
- TLDR: 知識グラフの構造を効率的に学習する研究。通常の学習は、小さなサブグラフから大きいサブグラフに転移する。しかし、この転移は、通常の学習と異なる特徴を持つサブグラフを発見する必要がある。そこで、サブグラフの構造を探索する2つのステップを提案。
- A Meta-framework for Spatiotemporal Quantity Extraction from Text
- Qiang Ning, Ben Zhou, Hao Wu, Haoruo Peng, Chuchu Fan, Matt Gardner
- TLDR: 自然言語処理で、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去のニュースから、過去の
- Leveraging Visual Knowledge in Language Tasks: An Empirical Study on Intermediate Pre-training for Cross-Modal Knowledge Transfer
- Woojeong Jin, Dong-Ho Lee, Chenguang Zhu, Jay Pujara, Xiang Ren
- TLDR: 自然言語処理で画像を扱う研究。画像は通常のテキストと異なる点があり、画像を入力とするタスクでは画像の表現が不完全になる。そのため、画像を入力とするタスクで画像を入力とするタスクを学習する。タスクは画像の表現を入力とするタスクで、タスクの分類はタスク分類の分類機で行う。タスクは画像の表現を入力とするタスクで、タスクはタスク分類機で行う。タスクはタスク分類機の分類結果を入力とする。
- A Good Prompt Is Worth Millions of Parameters: Low-resource Prompt-based Learning for Vision-Language Models
- Woojeong Jin, Yu Cheng, Yelong Shen, Weizhu Chen, Xiang Ren
- TLDR: モデルの学習にFewVLMを適用した研究。FewVLMは学習データが少ないため、事前学習済みモデルよりFew-shotが低い。事前学習済みモデルはFew-shotが低いが、Few-shotはFew-shotが大きい。事前学習済みモデルはFew-shotが低いが、Few-shotはFew-shotが大きい。事前学習済みモデルはFew-shotが大きいが、Few-shotはFew-shotが大きい。
- Continual Few-shot Relation Learning via Embedding Space Regularization and Data Augmentation
- Chengwei Qin, Shafiq Joty
- TLDR: 学習済みモデルの学習を、タスクごとに個別に行う手法の提案。タスクごとに個別に学習するのではなく、タスクごとに学習するモデルを個別に学習する。タスクごとに学習するモデルは、タスクの学習率を維持するよう学習する。タスクごとに学習率を維持するよう、学習率を維持するよう学習する。
- Variational Graph Autoencoding as Cheap Supervision for AMR Coreference Resolution
- Irene Li, Linfeng Song, Kun Xu, Dong Yu
- TLDR: 文書の文書構造を、自動生成したモデルで学習する研究。文書構造を自動生成するモデルは、文書の文書構造を予測するモデルと同等の精度を維持できるが、文書構造を予測するモデルは精度が低い。そこで、文書構造を予測するモデルを学習する。文書構造を予測するモデルは、文書構造を予測するモデルと同等の精度を維持できる。
- Identifying Chinese Opinion Expressions with Extremely-Noisy Crowdsourcing Annotations
- Xin Zhang, Guangwei Xu, Yueheng Sun, Meishan Zhang, Xiaobin Wang, Min Zhang
- TLDR: 意見表現の自動生成モデルの提案。モデルは、モデルの学習済みモデルと同等の自動生成モデルを構築する。自動生成モデルは、自動生成モデルの学習済みモデルと同等の自動生成モデルを構築する。自動生成モデルは、自動生成モデルの学習済みモデルと同等の自動生成モデルを構築する。
- Sequence-to-Sequence Knowledge Graph Completion and Question Answering
- Apoorv Saxena, Adrian Kochsiek, Rainer Gemulla
- TLDR: 知識グラフの分散表現を、複数ステップのタスクで解く研究。各ステップは、事前学習済みモデルの予測結果から予測する。事前学習済みモデルは、予測結果を予測するタスクを複数回繰り返す(複数回繰り返すと、予測結果が変わらない)ことで、予測精度を上げている。
- Learning to Mediate Disparities Towards Pragmatic Communication
- Yuwei Bao, Sayan Ghosh, Joyce Chai
- TLDR: 対話システムの強化学習で、言語モデルの学習をシンプルに行う手法の提案。学習は、言語モデルの学習済みモデルの学習済みモデルをベースに行う。学習済みモデルは、学習済みモデルの学習済みモデルをベースに学習する。学習済みモデルは、学習済みモデルの学習済みモデルをベースに学習する。
- Unsupervised Corpus Aware Language Model Pre-training for Dense Passage Retrieval
- Luyu Gao, Jamie Callan
- TLDR: 自然言語処理で、学習済みモデルを学習する際の課題として、学習済みモデルの学習時間が限られる点がある。この問題を解消するため、学習済みモデルの学習を事前学習するCondenserを提案。Condenserは、学習済みモデルの学習済みモデルの学習済みモデルに近い精度を達成。
- Multimodal Dialogue Response Generation
- Qingfeng Sun, Yujing Wang, Can Xu, Kai Zheng, Yaming Yang, Huang Hu, Fei Xu, Jessica Zhang, Xiubo Geng, Daxin Jiang
- TLDR: マルチモーダル対話モデルの生成を行う研究。マルチモーダル対話モデルは、テキストのみで生成を行うが、画像のみで生成を行う。そのため、画像のみで生成を行うと、画像の生成が困難になる。そこで、画像のみで生成を行うモデルを提案。画像のみで生成を行うと、画像の生成が困難になる。
- CAKE: A Scalable Commonsense-Aware Framework For Multi-View Knowledge Graph Completion
- Guanglin Niu, Bo Li, Yongfei Zhang, Shiliang Pu
- TLDR: 知識グラフの構造を、事前学習済みモデルで学習する研究。事前学習済みモデルは、事前学習済みモデルの知識を基に構造を推定するが、事前学習済みモデルは知識の分布を予測する。事前学習済みモデルは、事前学習済みモデルの知識を基に構造を推定するが、事前学習済みモデルは知識の分布を予測する。
- Confidence Based Bidirectional Global Context Aware Training Framework for Neural Machine Translation
- Chulun Zhou, Fandong Meng, Jie Zhou, Min Zhang, Hongji Wang, Jinsong Su
- TLDR: 翻訳モデルの事前学習をCBBGCA(CB-B)で行い、事前学習済みモデルの事前学習をCB-Bの事前学習と組み合わせて行う研究。事前学習済みモデルは事前学習済み言語モデルの事前学習済み言語モデルを学習する。事前学習済み言語モデルは事前学習済み言語モデルの事前学習済み言語モデルを学習する。事前学習済み言語モデルは事前学習済み言語モデルの事前学習済み言語モデルを学習する。
- BRIO: Bringing Order to Abstractive Summarization
- Yixin Liu, Pengfei Liu, Dragomir Radev, Graham Neubig
- TLDR: 文の生成時に、文の質と文の品質を比較する研究。文の質は、文の生成時に生成された文の質と同等か否かで判定する。文生成時に、文の質と文の品質を比較するモデルを提案。文生成時に、文の質と文品質の差を考慮するモデルを提案。
- Leveraging Relaxed Equilibrium by Lazy Transition for Sequence Modeling
- Xi Ai, Bin Fang
- TLDR: 学習済みモデルの学習を、学習済みモデルの学習に近い状態に置き換える手法の提案。学習済みモデルは学習済みのモデルの学習率を上回るが、学習済みモデルは学習率が下がる。学習済みモデルは学習率が下がるよう学習するが、学習済みモデルは学習率が下がるよう学習する。
- FIBER: Fill-in-the-Blanks as a Challenging Video Understanding Evaluation Framework
- Santiago Castro, Ruoyao Wang, Pingxuan Huang, Ian Stewart, Oana Ignat, Nan Liu, Jonathan Stroud, Rada Mihalcea
- TLDR: 動画の解釈を自動評価する手法の提案。動画のタイトルを予測するモデルを、動画のタイトルとテキストを入力に入力する形で学習する。テキストは、動画のタイトルとテキストを入力に入力する。テキストは、動画のタイトルとテキストを入力に入力する。
- KenMeSH: Knowledge-enhanced End-to-end Biomedical Text Labelling
- Xindi Wang, Robert Mercer, Frank Rudzicz
- TLDR: 医療文書のタイトルを自動生成する研究。タイトルは文書のタイトルと同等の扱いになるが、文書のタイトルは文書のタイトルと同等の扱いになる。文書のタイトルは文書のタイトルと同等の扱いになるが、文書の文書タイトルは文書の文書タイトルと同等の扱いになる。文書の文書タイトルは文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書文書
- A Taxonomy of Empathetic Questions in Social Dialogs
- Ekaterina Svikhnushina, Iuliana Voinea, Anuradha Welivita, Pearl Pu
- TLDR: 対話ボットの質問回答を、自然言語処理で分類した研究。質問の意味を分類する分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、自然言語処理で分類した分類器を、
- Enhanced Multi-Channel Graph Convolutional Network for Aspect Sentiment Triplet Extraction
- Hao Chen, Zepeng Zhai, Fangxiang Feng, Ruifan Li, Xiaojie Wang
- TLDR: 文中の単語と、その関係を加味した研究。単語の意味を加味した単語分布を、単語の意味を加味した単語分布に置き換える形で学習する。単語分布は、単語の意味を加味した単語分布をベースに、単語分布を加味した単語分布をベースに学習する。
- ProtoTEx: Explaining Model Decisions with Prototype Tensors
- Anubrata Das, Chitrank Gupta, Venelin Kovatchev, Matthew Lease, Junyi Jessy Li
- TLDR: ニュースの分類を行う際に、事前学習済みモデルの学習済みモデルと同等の精度を達成するために、事前学習済みモデルの学習済みモデルを組み合わせた研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を達成。
- Show Me More Details: Discovering Hierarchies of Procedures from Semi-structured Web Data
- Shuyan Zhou, Li Zhang, Yue Yang, Qing Lyu, Pengcheng Yin, Chris Callison-Burch, Graham Neubig
- TLDR: モデルをWikiHowで作成した研究。モデルは、モデルの作成過程を文書でまとめたもの。文書は、モデルの作成過程を文書でまとめたもの。文書は、モデルの作成過程を文書でまとめたもの。文書は、モデルの作成過程を文書でまとめたもの。文書は、モデルの作成過程を文書でまとめたもの。文書は、文書の文書構造を文書構造ととらえている。
- Cross-Modal Discrete Representation Learning
- Alexander Liu, SouYoung Jin, Cheng-I Lai, Andrew Rouditchenko, Aude Oliva, James Glass
- TLDR: マルチモーダルで学習する際、マルチモーダルで表現する表現を学習する研究。マルチモーダルで表現する表現は、各モーダルで表現する表現の分散表現を共有する。この分散表現を、マルチモーダルで表現する表現に置き換える。マルチモーダルで表現する表現は、マルチモーダルで表現する表現と同等の表現になるよう学習する。
- Improving Event Representation via Simultaneous Weakly Supervised Contrastive Learning and Clustering
- Jun Gao, Wei Wang, Changlong Yu, Huan Zhao, Wilfred Ng, Ruifeng Xu
- TLDR: イベントの表現を強化する手法の提案。イベントの表現を学習する際、イベントの表現を複数回に分割し、その次元を予測する。この時、イベントの表現を複数回に分割し、予測結果を各回の表現に分割する。この時、イベントの表現を複数回に分割し、予測結果を各回の表現に分割する。
- Contrastive Visual Semantic Pretraining Magnifies the Semantics of Natural Language Representations
- Robert Wolfe, Aylin Caliskan
- TLDR: 画像認識における、画像の表現と画像の表現の相関を調べた研究。画像の表現は、画像の画像を認識するネットワークのネットワークで生成する。画像の表現は、画像の画像を認識するネットワークのネットワークで生成する。画像の表現は、画像の画像を認識するネットワークのネットワークで生成する。
- ConTinTin: Continual Learning from Task Instructions
- Wenpeng Yin, Jia Li, Caiming Xiong
- TLDR: 機械学習における、タスクの学習を継続する手法の提案。タスクの説明は文書で、タスクの進行はテキストで行い、タスクの終了は文書で行い、タスク終了は文書で行い、タスク終了は文書で行い、タスク終了は文書で行い、タスク終了は文書で行い、タスク終了は文書で行い、タスク終了は文書で行い、タスク終了は文書で行い、タスク終了は文書で行い、タスク終了は文書で行い、タスク終了は文書で行い、タスク終了は文書で行い、タスク終了は文書
- Automated Crossword Solving
- Eric Wallace, Nicholas Tomlin, Albert Xu, Kevin Yang, Eshaan Pathak, Matthew Ginsberg, Dan Klein
- TLDR: ニューラルネットでのタスクを自動解くシステムの提案。質問回答モデルをベースに、質問回答の精度を上げるために、ニューラルネットでのタスクを学習する。タスクは、タスクの解釈性を上げるために、質問回答モデルの学習を行なっている。タスクは、タスクの解釈性を上げるために、タスクの解釈性を上げるために、タスクの解釈性を上げるために行う。
- Learned Incremental Representations for Parsing
- Nikita Kitaev, Thomas Lu, Dan Klein
- TLDR: 文中の単語を、単語ベクトルのラベルに置き換える手法の提案。単語ベクトルは単語ベクトルのラベルを予測する形で生成されるが、単語ベクトルは単語ベクトルのラベルを予測する形で生成される。単語ベクトルは単語ベクトルのラベルを予測する形で生成される。
- Knowledge Enhanced Reflection Generation for Counseling Dialogues
- Siqi Shen, Veronica Perez-Rosas, Charles Welch, Soujanya Poria, Rada Mihalcea
- TLDR: 教師の対話で、ドメイン知識と教師の知識を組み合わせた研究。ドメイン知識は、教師の質問に対する回答の質と精度を直接的に影響する。教師の質問に対する回答は、教師の質問に対する回答と同等の精度を獲得する。教師の質問に対する回答は、教師の質問に対する回答と同等の精度を獲得する。
- Misinfo Reaction Frames: Reasoning about Readers’ Reactions to News Headlines
- Saadia Gabriel, Skyler Hallinan, Maarten Sap, Pemi Nguyen, Franziska Roesner, Eunsol Choi, Yejin Choi
- TLDR: ニュース記事に対する読者反応を、事前学習済みモデルでモデル化した研究。事前学習済みモデルは、ニュース記事のタイトル/本文/ニュース記事の関連度/関連度を予測するが、事前学習済みモデルは、ニュース記事の関連度を予測する。事前学習済みモデルは、ニュース記事の関連度を予測するモデルとして使用している。
- On Continual Model Refinement in Out-of-Distribution Data Streams
- Bill Yuchen Lin, Sida Wang, Xi Lin, Robin Jia, Lin Xiao, Xiang Ren, Scott Yih
- TLDR: 自然言語処理モデルの更新を、CNNで行う研究。更新は、予測結果の更新ではなく、予測結果の更新に近い状態を更新する。更新は、予測結果の更新が困難な場合に行う。更新は、予測結果の更新が困難な場合に行う。更新は、予測結果の更新が困難な場合に行う。更新は、予測結果の更新が困難な場合に行う。
- Achieving Conversational Goals with Unsupervised Post-hoc Knowledge Injection
- Bodhisattwa Prasad Majumder, Harsh Jhamtani, Taylor Berg-Kirkpatrick, Julian McAuley
- TLDR: 対話システムで、質問に対する事前学習済みモデルの回答を、事前学習済みモデルの質問に追加する手法の提案。事前学習済みモデルの質問に対する事前学習済みモデルの回答を、事前学習済みモデルの質問に追加する。事前学習済みモデルの質問に対する事前学習済みモデルの回答を、事前学習済みモデルの質問に追加する。事前学習済みモデルの質問に追加した質問は、事前学習済みモデルの質問に追加する。
- Generated Knowledge Prompting for Commonsense Reasoning
- Jiacheng Liu, Alisa Liu, Ximing Lu, Sean Welleck, Peter West, Ronan Le Bras, Yejin Choi, Hannaneh Hajishirzi
- TLDR: 言語モデルの知識を、質問回答に活用する研究。質問回答に使用する言語モデルは、質問回答の文を生成する形で作成する。文は、質問回答の文に近い単語を入力として、質問回答の文を生成する。文は、質問回答の文に近い単語を入力として、質問回答の文を生成する。
- Training Data is More Valuable than You Think: A Simple and Effective Method by Retrieving from Training Data
- Shuohang Wang, Yichong Xu, Yuwei Fang, Yang Liu, Siqi Sun, Ruochen Xu, Chenguang Zhu, Michael Zeng
- TLDR: テキストを学習する際、学習済みテキストを学習する際の学習済みテキストをRetrievalする手法を提案。テキストを学習する際は、学習済みテキストをRetrievalする。学習済みテキストをRetrievalしたテキストと、学習済みテキストをRetrievalしたテキストの2つを結合し、学習済みテキストをRetrievalしたテキストに置き換える。
- Life after BERT: What do Other Muppets Understand about Language?
- Vladislav Lialin, Kevin Zhao, Namrata Shivagunde, Anna Rumshisky
- TLDR: 事前学習済みモデルの学習が、学習済みモデルの言語処理能力に影響を与えているという研究。事前学習済みモデルは、学習済みモデルの言語処理能力を予測するモデルと同等のモデルが得られるが、学習済みモデルは学習済みモデルの言語処理能力を予測するモデルと同等のモデルが得られない。
- Tailor: Generating and Perturbing Text with Semantic Controls
- Alexis Ross, Tongshuang Wu, Hao Peng, Matthew Peters, Matt Gardner
- TLDR: 自然言語処理で、事前学習済みモデルの学習を行わずに、事前学習済みモデルの学習を行なった研究。事前学習済みモデルの学習は、事前学習済みモデルの表現を変更する(=モデルの表現を変更する)ことで行う。事前学習済みモデルの学習は、事前学習済みモデルの学習率を上げるための有効な手法。
- TruthfulQA: Measuring How Models Mimic Human Falsehoods
- Stephanie Lin, Jacob Hilton, Owain Evans
- TLDR: 自然言語処理モデルの真偽性を検証した研究。モデルは、自然言語処理のタスクで使われるテキストを学習する。テキストは、ニュースや政治など様々なタスクで使われている。学習データは、テキストの学習データと学習データの組み合わせで作成している。
- Adaptive Testing and Debugging of NLP Models
- Marco Tulio Ribeiro, Scott Lundberg
- TLDR: 言語モデルのテストを行う際に、人間によるテスト結果を自動生成する手法の提案。言語モデルのテスト結果を自動生成する際、学習済みモデルのテスト結果をベースに学習済みモデルのテスト結果をベースに学習する。学習済みモデルのテスト結果をベースに、学習済みモデルのテスト結果をベースに学習する。
- Right for the Right Reason: Evidence Extraction for Trustworthy Tabular Reasoning
- Vivek Gupta, Shuo Zhang, Alakananda Vempala, Yujie He, Temma Choji, Vivek Srikumar
- TLDR: 文書分類モデルの推論手法を、事前学習済みモデルと比較して検証した研究。事前学習済みモデルは、文書分類モデルの推論結果と同等の結果を得るための証拠を収集するが、文書分類モデルは、文書分類結果と同等の結果を得るための証拠を収集する必要があり、この点を検証した研究。
- Interactive Word Completion for Plains Cree
- William Lane, Atticus Harrigan, Antti Arppe
- TLDR: 自然言語処理で、単語の生成を行う際に、事前学習済みのモデルを活用する研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルで、事前学習済みモデルの挙動を予測する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルをベースにしている。
- LAGr: Label Aligned Graphs for Better Systematic Generalization in Semantic Parsing
- Dora Jambor, Dzmitry Bahdanau
- TLDR: 自然言語処理で、文の意味表現をグラフで表現する研究。文の意味表現をグラフで表現する際、グラフのノードとノードの位置を予測する。ノードは、ノードの位置を予測するノードとノードの位置を予測するノードの2つに分け、ノードの位置予測はノードの位置予測と同等の手法で行う。
- ToxiGen: A Large-Scale Machine-Generated Dataset for Adversarial and Implicit Hate Speech Detection
- Thomas Hartvigsen, Saadia Gabriel, Hamid Palangi, Maarten Sap, Dipankar Ray, Ece Kamar
- TLDR: 自然言語処理で、少数者の言動を検出する研究。通常の自然言語処理では、少数者の言動を検出するモデルが過適合する可能性がある。そのため、少数者の言動を検出するモデルを自動生成する手法を提案。自動生成は、少数者の言動を検出するモデルの生成に使用する。
- Direct Speech-to-Speech Translation With Discrete Units
- Ann Lee, Peng-Jen Chen, Changhan Wang, Jiatao Gu, Sravya Popuri, Xutai Ma, Adam Polyak, Yossi Adi, Qing He, Yun Tang, Juan Pino, Wei-Ning Hsu
- TLDR: 音声翻訳の研究。音声をテキストに変換する際、テキストを翻訳するEncoderに入力し、Encoderの予測結果をベースにEncoderの予測結果をベースに学習する。Encoderの予測結果は、Encoderの予測結果と同等の精度を達成。
- Hallucinated but Factual! Inspecting the Factuality of Hallucinations in Abstractive Summarization
- Meng Cao, Yue Dong, Jackie Cheung
- TLDR: 要約の生成において、事実と不事実を区別する手法の提案。要約の生成時に、事実と不事実を区別する単語を追加する。この単語を追加することで、要約の生成時に不確かな要約を生成する。
- EntSUM: A Data Set for Entity-Centric Extractive Summarization
- Mounica Maddela, Mayank Kulkarni, Daniel Preotiuc-Pietro
- TLDR: 文書の要約をEntity-Centricの要約に置き換える研究。要約は文書の要約と同等の要約を生成するが、要約は文書の要約と同等の要約を生成する。要約は文書の要約と同等の要約を生成するが、要約は文書の要約と同等の要約を生成する。
- Sentence-level Privacy for Document Embeddings
- Casey Meehan, Khalil Mrini, Kamalika Chaudhuri
- TLDR: 言語モデルでプライバシーを担保する手法の提案。文単位のプライバシーを担保するだけでなく、文単位のプライバシーを担保する(文単位のプライバシーは、文単位のプライバシーと同等になる)。文単位のプライバシーは、文単位のプライバシーと同等になるよう、文単位のプライバシーを担保するよう、文単位のプライバシーを担保するよう、文単位のプライバシーを担保するよう、文単位のプライバシーを担保するよう、文単位のプライバシーを担保するよう、文単位のプライバシーを担保するよう、文単位のプライバシーを担保するよう、文単位のプライバシーを担保するよう、文単位のプライバシーを担保するよう、文単位のプライバシーを担保する
- Dataset Geography: Mapping Language Data to Language Users
- Fahim Faisal, Yinkai Wang, Antonios Anastasopoulos
- TLDR: 自然言語処理のデータセットの品質を調査した研究。言語モデルの精度は、言語モデルの言語特性(単語の分布)と、言語モデルの言語特性(単語の分布)の2つに大きく依存する。言語特性は、単語分布が近い場合、単語分布が近い場合、また単語分布が近い場合に重要。
- ILDAE: Instance-Level Difficulty Analysis of Evaluation Data
- Neeraj Varshney, Swaroop Mishra, Chitta Baral
- TLDR: 自然言語処理における評価の精度を向上させるために、質問に対する難易度を評価するモデルを提案。難易度は質問に対する難易度と同等の精度を測る指標として使用されるが、難易度は質問に対する難易度と同等の精度を測る指標として使用される。難易度は質問に対する難易度と同等の精度を測る指標として使用される。
- Image Retrieval from Contextual Descriptions
- Benno Krojer, Vaibhav Adlakha, Vibhav Vineet, Yash Goyal, Edoardo Ponti, Siva Reddy
- TLDR: 画像から、画像の説明を抽出する研究。画像は画像の画像と同等の表現が得られるが、画像の説明は画像の画像と同等に重要。そのため、画像の説明を入力に置き換えるモデルを提案。画像の説明は画像の画像と同等、画像の説明は画像の画像と同等、という3つの条件を満たす。
- Multilingual Molecular Representation Learning via Contrastive Pre-training
- Zhihui Guo, Pramod Sharma, Andy Martinez, Liang Du, Robin Abraham
- TLDR: マルチ言語の分散表現を学習する研究。SMILESとIUPACをベースに、各言語の分散表現を学習する。SMILESは、各言語の分散表現を学習する際、SMILES/IUPACの分散表現をベースに学習する。IUPACは、各言語の分散表現をベースに学習する。
- [Investigating Failures of Automatic Translation
in the Case of Unambiguous Gender](https://aclanthology.org/2022.acl-long.243)
- Adithya Renduchintala, Adina Williams
-
TLDR: 翻訳モデルが、性別を区別する単語を翻訳する際のミスを調査した研究。性別を区別する単語は、性別を区別する単語と同等に扱われるか、区別する単語は同等に扱われるかを検証している。性別を区別する単語は、性別を区別する単語と同等に扱われるかを検証している。
- Cross-Task Generalization via Natural Language Crowdsourcing Instructions
- Swaroop Mishra, Daniel Khashabi, Chitta Baral, Hannaneh Hajishirzi
- TLDR: 自然言語処理モデルの学習を、モデルの指示に基づいたモデルの学習に置き換えた研究。指示は、モデルの指示に基づいたモデルで学習する。指示は、モデルの指示に基づいたモデルで学習する。指示は、モデルの指示に基づいたモデルで学習する。
- Imputing Out-of-Vocabulary Embeddings with LOVE Makes LanguageModels Robust with Little Cost
- Lihu Chen, Gael Varoquaux, Fabian Suchanek
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルに置き換える研究。事前学習済み言語モデルは、事前学習済み言語モデルの表現を学習する。事前学習済み言語モデルは、事前学習済み言語モデルの表現を学習する。事前学習済み言語モデルは、事前学習済み言語モデルの表現を学習する。事前学習済み言語モデルは、事前学習済み言語モデルの表現を学習する。
- NumGLUE: A Suite of Fundamental yet Challenging Mathematical Reasoning Tasks
- Swaroop Mishra, Arindam Mitra, Neeraj Varshney, Bhavdeep Sachdeva, Peter Clark, Chitta Baral, Ashwin Kalyan
- TLDR: 自然言語処理で、複雑な推論を行う際に、モデルのパフォーマンスを計測する手法の提案。モデルは、推論結果を入力に入力する形で学習を行う。入力は、入力と入力の双方向で行う。入力は、入力と入力双方向の入力を入力とし、入力は入力と入力双方向の入力を入力とする。入力は、入力と入力双方向の入力を入力とする。
- Upstream Mitigation Is
Not
All You Need: Testing the Bias Transfer Hypothesis in Pre-Trained Language Models
- Ryan Steed, Swetasudha Panda, Ari Kobren, Michael Wick
- TLDR: 機械学習モデルの学習時に、ネットの情報から学習したモデルの分類を誤らせると指摘。分類は、モデルの分類結果を学習データに入力し、モデルの分類結果を学習データに入力する形で行う。分類結果は、モデルの分類結果と異なる場合に、モデルの分類結果を誤らせる可能性があることを確認。
- Improving Multi-label Malevolence Detection in Dialogues through Multi-faceted Label Correlation Enhancement
- Yangjun Zhang, Pengjie Ren, Wentao Deng, Zhumin Chen, Maarten Rijke
- TLDR: マルチラベルの対話システムを検証した研究。マルチラベルの対話システムは、通常は各ラベルの発言に対する偏りが大きいが、この偏りを指摘するデータセットが提供されている。マルチラベルの対話システムは、ラベルの偏りが大きい場合、複数ラベルの対話結果を統合するモデルを導入している。
- How Do We Answer Complex Questions: Discourse Structure of Long-form Answers
- Fangyuan Xu, Junyi Jessy Li, Eunsol Choi
- TLDR: 自然言語処理で、長い文書に対する質問回答の仕組みを調査した研究。質問文の文長は長くなるほど長いが、長くなるほど長い文書は長い。長くなるほど長い文書は長い文書に分類されるが、長くなるほど長い文書は長い文書に分類される。長くなるほど長い文書は長い文書に分類される。
- Understanding Iterative Revision from Human-Written Text
- Wanyu Du, Vipul Raheja, Dhruv Kumar, Zae Myung Kim, Melissa Lopez, Dongyeop Kang
- TLDR: テキストの更新は、更新頻度が上がるにつれ更新意図が変化していく。更新意図は、更新頻度が上がるにつれ更新意図が変化していく。更新意図は、更新意図の更新頻度と更新意図の更新頻度を比較し、更新意図の更新頻度が更新頻度に影響するかどうかを検証する。
- Making Transformers Solve Compositional Tasks
- Santiago Ontanon, Joshua Ainslie, Zachary Fisher, Vaclav Cvicek
- TLDR: テキスト分類で、Transformerのモデルが汎化性能を上げるのに有効な手法を検証した研究。Transformerのモデルは、学習率が高い=汎化性能が高いとしている。ただ、汎化性能が高いほど学習率が高いわけではない。汎化性能が高いモデルは、学習率が高い=汎化性能が高い、という状態を維持できる。
- Can Transformer be Too Compositional? Analysing Idiom Processing in Neural Machine Translation
- Verna Dankers, Christopher Lucas, Ivan Titov
- TLDR: 自然言語処理で、自然言語処理のモデルが、自然言語処理のモデルと異なる特徴を発見した研究。翻訳モデルは、自然言語処理のモデルと異なる特徴を発見した。翻訳モデルは、自然言語処理のモデルと異なる特徴を発見した。翻訳モデルは、自然言語処理のモデルと異なる特徴を発見した。
- ConditionalQA: A Complex Reading Comprehension Dataset with Conditional Answers
- Haitian Sun, William Cohen, Ruslan Salakhutdinov
- TLDR: 複雑な質問に対し、条件付き回答を付与するデータセットの提案。質問に対する条件付き回答は、質問に対する回答が適応的な場合のみ適用される。条件付き回答は、質問に対する回答が適応的な場合のみ適用される。条件付き回答は、質問に対する回答が適応的な場合のみ適用される。
- Prompt-free and Efficient Few-shot Learning with Language Models
- Rabeeh Karimi Mahabadi, Luke Zettlemoyer, James Henderson, Lambert Mathias, Marzieh Saeidi, Veselin Stoyanov, Majid Yazdani
- TLDR: 事前学習済み言語モデル(Masked Language Model)を、モデルの初期値と初期値の予測結果を比較し、事前学習済みモデルの予測結果をベースに学習する手法の提案。事前学習済みモデルの予測結果をベースに、事前学習済みモデルの予測結果をベースに予測結果をベースに学習する。事前学習済みモデルの予測結果をベースに、事前学習済みモデルの予測結果をベースに学習する。
- Continual Sequence Generation with Adaptive Compositional Modules
- Yanzhe Zhang, Xuezhi Wang, Diyi Yang
- TLDR: 強化学習で、学習済みモデルの更新を自動的に行う手法の提案。更新は学習済みモデルの更新と同等の処理が行えるが、更新は学習済みモデルの更新と同等の処理が行えないため、更新時に学習済みモデルの更新を行わず学習済みモデルの更新のみ行う。
- An Investigation of the (In)effectiveness of Counterfactually Augmented Data
- Nitish Joshi, He He
- TLDR: 自然言語処理で、学習データのパラメーターを変更することでモデルの性能を上げる研究。パラメーターの変更は、学習データのパラメーターの変動を誘導する。これにより、モデルの性能を上げるのに有効なパラメーターを変更する。
- Inducing Positive Perspectives with Text Reframing
- Caleb Ziems, Minzhi Li, Anthony Zhang, Diyi Yang
- TLDR: テキストのスタイル変換を行う際に、文の意味を変えた研究。文の意味を変えた場合、文の文長が短くなる傾向がある。このため、文長を短くする(=文の文長を長くなる)ことで、文長を短くする手法を提案している。
- VALUE: Understanding Dialect Disparity in NLU
- Caleb Ziems, Jiaao Chen, Camille Harris, Jessica Anderson, Diyi Yang
- TLDR: 自然言語処理で、Africa Americanの英語を評価するベンチマークの提案。Africa Americanの英語を、Africa Americanの言語モデルで学習する。学習は、Africa Americanの言語モデルで行い、Africa Americanの言語モデルで学習する。学習は、Africa Americanの言語モデルで行い、Africa Americanの言語モデルで学習する。
- From the Detection of Toxic Spans in Online Discussions to the Analysis of Toxic-to-Civil Transfer
- John Pavlopoulos, Leo Laugier, Alexandros Xenos, Jeffrey Sorensen, Ion Androutsopoulos
- TLDR: テキスト中のspanを検出するタスクの提案。通常のSequence Labelingは、spanの重みを予測するが、この重みをクラス分類器に追加することで、toxicityを予測する。この重みをクラス分類器に追加することで、toxicityを予測する。
- FormNet: Structural Encoding beyond Sequential Modeling in Form Document Information Extraction
- Chen-Yu Lee, Chun-Liang Li, Timothy Dozat, Vincent Perot, Guolong Su, Nan Hua, Joshua Ainslie, Renshen Wang, Yasuhisa Fujii, Tomas Pfister
- TLDR: 文書構造を認識する手法の提案。文書構造は、文書の構造を認識する(Attention)と、文書の構造を認識する(Attention)の2つに分けて扱っている。文書構造は、文書の構造を認識する(Attention)と、文書の構造を認識する(Attention)の2つに分けて扱っている。文書構造を認識するモデルは、文書構造を認識するモデルと同等の精度を維持できる。
- The Moral Integrity Corpus: A Benchmark for Ethical Dialogue Systems
- Caleb Ziems, Jane Yu, Yi-Chia Wang, Alon Halevy, Diyi Yang
- TLDR: 対話システムの倫理観を調べる研究。質問に対し、回答する側は「私は」という信念を持てるようにする。質問に対する回答は、質問に対する信念を基に作成される。この信念を基に、質問に対する回答が「私は」の信念に近いかを検証する。結果として、回答に対する信念が「私は」の信念に近い場合に回答が得られることを確認。
- Token Dropping for Efficient BERT Pretraining
- Le Hou, Richard Yuanzhe Pang, Tianyi Zhou, Yuexin Wu, Xinying Song, Xiaodan Song, Denny Zhou
- TLDR: 事前学習済みモデルを、学習済みモデルの学習に最適化する手法の提案。学習済みモデルの学習は、学習済みモデルの学習済み言語モデルの学習に近い。学習済み言語モデルの学習は、学習済み言語モデルの学習に近いモデルの学習に近い。学習済み言語モデルの学習は、学習済み言語モデルの学習に近いモデルの学習に近い。
- DialFact: A Benchmark for Fact-Checking in Dialogue
- Prakhar Gupta, Chien-Sheng Wu, Wenhao Liu, Caiming Xiong
- TLDR: 対話中の事実を検証するタスクの提案。Wikipediaの文書から事実を推定するタスクを、対話中の事実を推定するタスクと、Wikipediaの文書から事実を推定するタスクを分けて行う。Wikipedia文書から事実を推定するタスクは、Wikipedia文書の文書から事実を推定するタスクを別途学習する。
- The Trade-offs of Domain Adaptation for Neural Language Models
- David Grangier, Dan Iter
- TLDR: 言語モデルの転移について、事前学習済みモデルと事前学習済みモデルの差を調べた研究。事前学習済みモデルは学習データの分散が大きいため、事前学習済みモデルの学習率が低い傾向がある。事前学習済みモデルは学習データの分散が大きいため、学習データの分散が大きい場合学習率が下がる傾向がある。
- Towards Afrocentric NLP for African Languages: Where We Are and Where We Can Go
- Ife Adebara, Muhammad Abdul-Mageed
- TLDR: 自然言語処理の研究について、African Languagesの研究についてまとめたサーベイ。African Languagesの研究について、African Languagesの研究の概要、手法、また、African Languagesの研究の評価指標についてまとめている。
- Ensembling and Knowledge Distilling of Large Sequence Taggers for Grammatical Error Correction
- Maksym Tarnavskyi, Artem Chernodub, Kostiantyn Omelianchuk
- TLDR: 高速なTransformerベースのモデルを、SOTAで学習する研究。Transformerベースのモデルは、TransformerのEncoder/Decoderの2つで学習する。TransformerベースのEncoderは、TransformerのEncoderと同等の構造を取っており、TransformerベースのEncoderは、TransformerベースのEncoderより高速な学習を行う。
- Speaker Information Can Guide Models to Better Inductive Biases: A Case Study On Predicting Code-Switching
- Alissa Ostapenko, Shuly Wintner, Melinda Fricke, Yulia Tsvetkov
- TLDR: 自然言語処理で、文の変更を予測するモデルの提案。文の変更は、文の予測結果と異なる単語を入力に追加する(単語の予測結果は、文の予測結果と異なる単語を入力に追加する)。文の予測結果は、文の予測結果と異なる単語を入力に追加する。文の予測結果は、文の予測結果と異なる単語を入力に追加する。
- Detecting Unassimilated Borrowings in Spanish: An Annotated Corpus and Approaches to Modeling
- Elena Álvarez-Mellado, Constantine Lignos
- TLDR: 翻訳モデルの学習結果をまとめたサーベイ。翻訳モデルは、翻訳文の単語ベクトルを単語ベクトル単位で学習する。単語ベクトルは、単語ベクトルの単語ベクトルを単語ベクトル単位で学習する。単語ベクトルは、単語ベクトルの単語ベクトルを単語ベクトル単位で学習する。単語ベクトルは、単語ベクトルの単語ベクトルを単語ベクトル単位で学習する。
- Is Attention Explanation? An Introduction to the Debate
- Adrien Bibal, Rémi Cardon, David Alfter, Rodrigo Wilkens, Xiaoou Wang, Thomas François, Patrick Watrin
- TLDR: 自然言語処理モデルの説明について、様々なタスクで検証した研究。タスクは、モデルの説明を説明するだけでなく、説明の仕組みを説明する(Attention)という点も検証している。タスクは、モデルの説明を説明する(Attention)と、説明の仕組みを説明する(Attention)の2つ。タスクは、説明の仕組みを説明する(Attention)と、説明の仕組みを説明する(Attention)の2つ。
- There Are a Thousand Hamlets in a Thousand People’s Eyes: Enhancing Knowledge-grounded Dialogue with Personal Memory
- Tingchen Fu, Xueliang Zhao, Chongyang Tao, Ji-Rong Wen, Rui Yan
- TLDR: 対話システムで、質問に対する回答の質を評価するタスクを提案。質問に対する回答は、質問に対する回答と質問に対する回答の双方を評価する。質問に対する回答は、質問に対する回答と質問に対する回答の双方を評価するタスクを提案している。
- Neural Pipeline for Zero-Shot Data-to-Text Generation
- Zdeněk Kasner, Ondrej Dusek
- TLDR: 事前学習済み言語モデル(PLM)で文書生成を行う際に、事前学習済み言語モデルの挙動を学習させる手法の提案。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を学習させるためのネットワークを構築する。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を学習させるためのネットワークを構築する。
- Not always about you: Prioritizing community needs when developing endangered language technology
- Zoey Liu, Crystal Richardson, Richard Hatcher, Emily Prud’hommeaux
- TLDR: 自然言語処理の技術について、各言語の現状と課題をまとめたサーベイ。自然言語処理の技術は、自然言語処理のデータセットが足りない場合に限界がある。そのため、事前学習済み言語モデルを用いた研究が有効であるとしている。
- Automatic Identification and Classification of Bragging in Social Media
- Mali Jin, Daniel Preotiuc-Pietro, A. Seza Doğruöz, Nikolaos Aletras
- TLDR: ツリー分類における、ツリーの意味を予測する研究。ツリーの意味は、ツリーの文を意味として扱う。ツリーの意味は、ツリーの文を意味として扱う。ツリーの意味は、ツリーの意味を意味として扱う。ツリーの意味は、ツリーの意味を意味として扱う。ツリーの意味は、ツリーの意味を意味として扱う。ツリーの意味は、ツリーの意味を意味として扱う。ツリーの意味は、ツリーの意味を意味として扱う。ツリーの意味は、ツリーの意味を意味として扱う。ツリーの意味は、ツリーの意味を意味として
- Automatic Error Analysis for Document-level Information Extraction
- Aliva Das, Xinya Du, Barry Wang, Kejian Shi, Jiayuan Gu, Thomas Porter, Claire Cardie
- TLDR: 文書から文書の文書構造を抽出する手法の提案。文書構造を入力とする文書から文書構造を抽出するモデルを、文書構造を入力とする文書構造から抽出するモデルを、文書構造を入力とする文書構造から抽出するモデルを、文書構造を入力とする文書構造から抽出するモデルを、文書構造を入力とする文書構造から抽出するモデルを、文書構造を入力とする文書構造から抽出するモデルを、文書構造を入力とする文書構造から抽出するモデルを、文書構造を入力とする文書構造から抽出するモデルを、文書構造を入力とする文書構造から抽出するモデルを、文書構造を入力とする
- Learning Functional Distributional Semantics with Visual Data
- Yinhong Liu, Guy Emerson
- TLDR: 言語モデルの学習を、画像から行う研究。画像から学習するモデルは、言語モデルの学習に近いモデルを学習する。画像は、言語モデルの学習に近いモデルを学習する。画像は、言語モデルの学習に近いモデルを学習する。画像は、言語モデルの学習に近いモデルを学習する。
- ePiC: Employing Proverbs in Context as a Benchmark for Abstract Language Understanding
- Sayan Ghosh, Shashank Srivastava
- TLDR: 自然言語処理で、文の推薦・推論・文の生成といった3つのタスクを検証した研究。文の推薦は、文の意味を推定するだけでなく、文の生成も行なっている。文の生成は、文の意味を推定するモデルで行う。文生成は、文の意味を推定するモデルで行う。
- Chart-to-Text: A Large-Scale Benchmark for Chart Summarization
- Shankar Kantharaj, Rixie Tiffany Leong, Xiang Lin, Ahmed Masry, Megh Thakkar, Enamul Hoque, Shafiq Joty
- TLDR: 自然言語処理で、データセットからグラフを生成する研究。データセットは、画像からグラフを生成するモデル(Image Caption)と、グラフからグラフを生成するモデル(Decoder)の2つをベースにしている。Image Captionは、画像からグラフを生成するモデル(Decoder)と、Decoderからグラフを生成するモデル(Decoder)の2つをベースにしている。
- Characterizing Idioms: Conventionality and Contingency
- Michaela Socolof, Jackie Cheung, Michael Wagner, Timothy O’Donnell
- TLDR: 文中の単語が、文法的にどう扱われているかを調べた研究。文法的には、文中の単語は「文」と「文法」の2つに区分されているが、文法的には「文」は「文法」の2つに区分されている。文法的には、文法的には「文法」は「文法」の2つに区分されている。
- Bag-of-Words vs. Graph vs. Sequence in Text Classification: Questioning the Necessity of Text-Graphs and the Surprising Strength of a Wide MLP
- Lukas Galke, Ansgar Scherp
- TLDR: マルチモーダルで文書分類を行う手法の提案。文書分類では、文書の分類結果をグラフで表現し、文書分類結果をグラフから生成する。文書分類では、文書分類結果をグラフから生成するモデルを提案。文書分類結果は、文書分類結果をグラフから生成するモデルと同等精度で、文書分類結果を文書分類結果と比較すると、文書分類結果と同等精度で学習できる。
- Generative Pretraining for Paraphrase Evaluation
- Jack Weston, Raphael Lenain, Udeepa Meepegama, Emil Fristed
- TLDR: 文生成において、文の文表現を生成する際のモデルの提案。文表現の生成は、文表現の潜在表現を生成するモデルの学習に使用する。文表現の生成は、文表現の潜在表現を生成するモデルの学習に使用する。文表現の生成は、文表現の潜在表現を生成するモデルの学習に使用する。
- Incorporating Stock Market Signals for Twitter Stance Detection
- Costanza Conforti, Jakob Berndt, Mohammad Taher Pilehvar, Chryssi Giannitsarou, Flavio Toxvaerd, Nigel Collier
- TLDR: ニュースと株式相場の情報を組み合わせて、事前学習済みモデルを実運用する研究。事前学習済みモデルは、株式相場のニュースをベースにしており、株式相場のニュースは、ニュースのニュースソースから収集したニュースソースをベースにしている。事前学習済みモデルは、株式相場のニュースソースから収集したニュースソースをベースにしている。
- Multilingual Mix: Example Interpolation Improves Multilingual Neural Machine Translation
- Yong Cheng, Ankur Bapna, Orhan Firat, Yuan Cao, Pidong Wang, Wolfgang Macherey
- TLDR: マルチ言語の翻訳モデルで、異なる言語のサンプルを結合する研究。翻訳モデルは異なる言語のサンプルを結合するが、翻訳モデルは異なる言語のサンプルを結合する。この結合を、翻訳モデルの学習済み言語モデルと比較して精度を上げるために行う手法。翻訳モデルの学習済み言語モデルと比較して精度が向上する。
- Word Segmentation as Unsupervised Constituency Parsing
- Raquel G. Alhama
- TLDR: 自然言語処理で、単語の識別は通常のセグメンテーションタスクと同等の役割を果たしている。しかし、単語の識別は、学習済み言語の文法構造を学習するモデル(Dropout)と同等の役割を果たしている。
- SafetyKit: First Aid for Measuring Safety in Open-domain Conversational Systems
- Emily Dinan, Gavin Abercrombie, A. Bergman, Shannon Spruit, Dirk Hovy, Y-Lan Boureau, Verena Rieser
- TLDR: 自然言語処理における安全対策について、事前学習済みモデルの安全性を検証した研究。事前学習済みモデルは、事前学習済みモデルの安全性を検証するツールが提供されているが、実際はそれらが提供されていない。事前学習済みモデルの安全性を検証する際、事前学習済みモデルの安全性を検証するツールが提供されていることを確認。
- Zero-Shot Cross-lingual Semantic Parsing
- Tom Sherborne, Mirella Lapata
- TLDR: 翻訳を行う際に、翻訳文を複数言語に翻訳する研究。翻訳文は英語と日本語の2つで、翻訳文は英語+日本語+英語+日本語+日本語+日本語+英語+日本語+日本語+日本語+英語+日本語+日本語+英語+日本語+英語+日本語+英語+日本語+英語+日本語+英語+日本語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語+英語
- The Paradox of the Compositionality of Natural Language: A Neural Machine Translation Case Study
- Verna Dankers, Elia Bruni, Dieuwke Hupkes
- TLDR: 自然言語処理モデルの構造を評価する手法の提案。モデルの構造は自然言語モデルと同等か否かを検証する。自然言語モデルは、自然言語の表現を生成する際は、自然言語の表現を生成するモデルと同等か否かを検証するモデルを併用する。自然言語モデルは、生成した表現を生成するモデルと同等か否かを検証するモデルを併用する。
- Multilingual Document-Level Translation Enables Zero-Shot Transfer From Sentences to Documents
- Biao Zhang, Ankur Bapna, Melvin Johnson, Ali Dabirmoghaddam, Naveen Arivazhagan, Orhan Firat
- TLDR: マルチ言語の翻訳を行う際に、事前学習済み言語の翻訳モデルがどう影響するかを検証した研究。事前学習済み言語の翻訳モデルは、事前学習済み言語の文書レベルと、事前学習済み言語の文書レベルのデータバランスを考慮する必要がある。事前学習済み言語の翻訳モデルは、事前学習済み言語の文書レベルと、文書レベルのデータバランスを考慮する必要がある。
- Cross-Lingual Phrase Retrieval
- Heqi Zheng, Xiao Zhang, Zewen Chi, Heyan Huang, Yan Tan, Tian Lan, Wei Wei, Xian-Ling Mao
- TLDR: マルチ言語の文表現を学習する研究。単語の意味を予測するモデルをベースに、単語の意味を予測するモデルをベースに単語の意味を予測するモデルをベースに、単語の意味を予測するモデルをベースに単語の意味を予測するモデルをベースに、単語の意味を予測するモデルをベースに単語の意味を予測するモデルをベースに、単語の意味を予測するモデルをベースに単語の意味を予測するモデルをベースに、単語の意味を予測するモデルをベースに単語の意味を予測するモデルをベースに、単語の意味を予測するモデルをベースに単語の意味を予測するモデルをベースに
- Improving Compositional Generalization with Self-Training for Data-to-Text Generation
- Sanket Vaibhav Mehta, Jinfeng Rao, Yi Tay, Mihir Kale, Ankur Parikh, Emma Strubell
- TLDR: 自然言語処理で、モデルの学習を効率化する手法の提案。モデルは、事前学習済みモデルと同等のモデルを学習する。事前学習済みモデルは、事前学習済みモデルの学習率を上回る精度を達成。
- MMCoQA: Conversational Question Answering over Text, Tables, and Images
- Yongqi Li, Wenjie Li, Liqiang Nie
- TLDR: マルチモーダルで質問回答を行う研究。質問は自然言語で、質問文は複数回の質問文を入力として生成する。質問文は、質問文の文脈から、質問文の文脈から、質問文の文脈から、質問文から質問文の文脈から、質問文から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から文脈から
- Effective Token Graph Modeling using a Novel Labeling Strategy for Structured Sentiment Analysis
- Wenxuan Shi, Fei Li, Jingye Li, Hao Fei, Donghong Ji
- TLDR: 文分類タスクにおける、ラベルの重みを調整する研究。ラベルは単語分散表現を予測する際、ラベルの重みを予測する際の重みを考慮する。ラベルは単語分散表現を予測する際、重みを予測する際の重みを考慮する。ラベルは単語分散表現を予測する際、重みを考慮する重みを考慮する。
- PromDA: Prompt-based Data Augmentation for Low-Resource NLU Tasks
- Yufei Wang, Can Xu, Qingfeng Sun, Huang Hu, Chongyang Tao, Xiubo Geng, Daxin Jiang
- TLDR: 自然言語理解で、事前学習済み言語モデルを学習する際、事前学習済み言語モデルの学習済みモデルの学習済みモデルを学習する研究。事前学習済みモデルは、事前学習済み言語モデルの学習済みモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルを混合し学習する。学習済みモデルは、事前学習済みモデルの学習済みモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルを混合する。
- Disentangled Sequence to Sequence Learning for Compositional Generalization
- Hao Zheng, Mirella Lapata
- TLDR: 事前学習済みモデルを、事前学習済みモデルの表現に近づける手法の提案。事前学習済みモデルの表現を、事前学習済みモデルの表現に近づける(事前学習済みモデルの表現は、事前学習済みモデルの表現に近づける)。事前学習済みモデルの表現を、事前学習済みモデルの表現に近づける形で学習する。
- RST Discourse Parsing with Second-Stage EDU-Level Pre-training
- Nan Yu, Meishan Zhang, Guohong Fu, Min Zhang
- TLDR: 自然言語処理で、事前学習済み言語モデルを有効に使う研究。事前学習済み言語モデルは、文単位の事前学習を前提としているが、文単位の事前学習は文単位の事前学習を前提としている。事前学習は、文単位の事前学習を前提としている。事前学習は、文単位の事前学習を前提としている。
- SimKGC: Simple Contrastive Knowledge Graph Completion with Pre-trained Language Models
- Liang Wang, Wei Zhao, Zhuoyu Wei, Jingming Liu
- TLDR: 文書からグラフを作成する際、事前学習済みモデルの学習効率を上げるための工夫を提案。事前学習済みモデルは、事前学習済みモデルの学習率を上げるための工夫が取られている。事前学習済みモデルは、事前学習済みモデルの学習率を上げるための工夫が取られている。事前学習済みモデルは、事前学習済みモデルの学習率を上げるための工夫が取られている。
- Do Transformer Models Show Similar Attention Patterns to Task-Specific Human Gaze?
- Oliver Eberle, Stephanie Brandl, Jonas Pilot, Anders Søgaard
- TLDR: 事前学習済み言語モデルのAttentionと人間眼の挙動を比較した研究。事前学習済み言語モデルは、Attentionの挙動が人間眼の挙動と近いかを予測する。事前学習済み言語モデルは、人間眼の挙動を予測するモデルと同等の精度を維持できるが、人間眼の挙動は予測できない。
- LexGLUE: A Benchmark Dataset for Legal Language Understanding in English
- Ilias Chalkidis, Abhik Jana, Dirk Hartung, Michael Bommarito, Ion Androutsopoulos, Daniel Katz, Nikolaos Aletras
- TLDR: 法律文書の文書理解モデルの評価に関するサーベイ。文書の文書理解モデルは、文書の文書理解だけでなく文書の文書理解も含むタスクで精度を上げるためにも、文書理解モデルの評価を強化する。文書理解モデルは、文書の文書理解だけでなく文書理解のタスクで精度を上げるためにも、文書理解モデルの評価を強化するサーベイを提案している。
- DiBiMT: A Novel Benchmark for Measuring Word Sense Disambiguation Biases in Machine Translation
- Niccolò Campolungo, Federico Martelli, Francesco Saina, Roberto Navigli
- TLDR: 機械翻訳における、自然言語処理の誤差を評価するベンチマークの提案。既存のモデルは、自然言語処理の誤差を評価するモデルとして使われてきたが、このモデルは誤差を評価するモデルではない。誤差を評価するベンチマークは、自然言語処理モデルの評価を自動で行うことで作成している。
- Improving Word Translation via Two-Stage Contrastive Learning
- Yaoyiran Li, Fangyu Liu, Nigel Collier, Anna Korhonen, Ivan Vulić
- TLDR: マルチ言語の翻訳において、事前学習済みモデルの学習を強化する研究。事前学習済みモデルは、マルチ言語の翻訳タスクで使用される単語分散表現を学習する。マルチ言語の翻訳では、事前学習済みモデルの学習が困難なため、事前学習済みモデルを学習する。事前学習済みモデルは、事前学習済みモデルの学習を前提としている。
- Scheduled Multi-task Learning for Neural Chat Translation
- Yunlong Liang, Fandong Meng, Jinan Xu, Yufeng Chen, Jie Zhou
- TLDR: マルチタスク学習の提案。翻訳文を翻訳する際は、翻訳文の文脈を予測するモデルを導入する。翻訳文の文脈予測は、翻訳文の文脈を予測するモデル(CNN)と、文脈を予測するモデル(LSTM)の2つを組み合わせている。LSTMは、翻訳文の文脈を予測するモデルを導入している。
- FairLex: A Multilingual Benchmark for Evaluating Fairness in Legal Text Processing
- Ilias Chalkidis, Tommaso Pasini, Sheng Zhang, Letizia Tomada, Sebastian Schwemer, Anders Søgaard
- TLDR: 事前学習済み言語モデルのパフォーマンスを検証した研究。事前学習済み言語モデルは、事前学習済み言語モデルのパフォーマンスを上げるための手法がいくつかあるが、それらは各タスクで検証が困難だった。そこで、事前学習済み言語モデルのパフォーマンスを上げるための手法をまとめたサーベイ。
- Towards Abstractive Grounded Summarization of Podcast Transcripts
- Kaiqiang Song, Chen Li, Xiaoyang Wang, Dong Yu, Fei Liu
- TLDR: テキストを抽出する手法の提案。テキストを抽出する際、抽出箇所を絞り込むことで抽出精度を上げつつ、抽出箇所を絞り込むことで抽出精度を上げている。抽出箇所は、抽出箇所の予測精度を上げるための重要なポイントとなる。
- FiNER: Financial Numeric Entity Recognition for XBRL Tagging
- Lefteris Loukas, Manos Fergadiotis, Ilias Chalkidis, Eirini Spyropoulou, Prodromos Malakasiotis, Ion Androutsopoulos, Georgios Paliouras
- TLDR: 金融機関の文書から、通常の文書抽出タスク(FineBERT)を改良した研究。文書の単語を、通常の文書抽出タスク(FineBERT)に置き換える手法を提案。文書の単語は、通常の文書抽出タスク(FineBERT)に置き換える。文書の単語は、通常の文書抽出タスク(FineBERT)に置き換える。
- Keywords and Instances: A Hierarchical Contrastive Learning Framework Unifying Hybrid Granularities for Text Generation
- Mingzhe Li, XieXiong Lin, Xiuying Chen, Jinxiong Chang, Qishen Zhang, Feng Wang, Taifeng Wang, Zhongyi Liu, Wei Chu, Dongyan Zhao, Rui Yan
- TLDR: 自然言語処理で、文中の単語をContrastiveに変換する研究。Contrastiveは単語の表現を予測するが、文中の単語はContrastiveの表現を予測する。Contrastiveは文中の単語を予測するが、文中の単語はContrastiveの表現を予測する。Contrastiveは文中の単語を予測するが、文中の単語はContrastiveの表現を予測する。
- EPT-X: An Expression-Pointer Transformer model that generates eXplanations for numbers
- Bugeun Kim, Kyung Seo Ki, Sangkyu Rhim, Gahgene Gweon
- TLDR: 自然言語処理で、解釈性を高めるために、解釈性を上げるためには解釈性を上げるために必要な条件を揃える必要があるという提言。解釈性を上げるためには、解釈性を上げるために必要な条件を揃える必要がある。この条件を揃えるために、解釈性を高めるために必要な条件を揃えるモデルを提案している。
- Identifying the Human Values behind Arguments
- Johannes Kiesel, Milad Alshomary, Nicolas Handke, Xiaoni Cai, Henning Wachsmuth, Benno Stein
- TLDR: 自然言語処理で、人間性を評価する指標の提案。人間性は、行動の自由や独立など、様々な条件を含んでいる。この条件を評価する指標の提案は、人間性を評価する指標として有効であるとしている。
- BenchIE: A Framework for Multi-Faceted Fact-Based Open Information Extraction Evaluation
- Kiril Gashteovski, Mingying Yu, Bhushan Kotnis, Carolin Lawrence, Mathias Niepert, Goran Glavaš
- TLDR: 自然言語処理モデルの評価について、実装が公開されているベンチマークと評価手法を統合した研究。実装は、実装の評価結果を基に、実装が公開されているベンチマークと評価手法を統合し、評価結果を統合したベンチマークを公開している。
- Leveraging Unimodal Self-Supervised Learning for Multimodal Audio-Visual Speech Recognition
- Xichen Pan, Peiyu Chen, Yichen Gong, Helong Zhou, Xinbing Wang, Zhouhan Lin
- TLDR: マルチモーダルで学習するTransformerベースのモデルを、マルチモーダルで学習する研究。マルチモーダルで学習する際は、音声/画像の出力と、音声/画像の出力の出力の出力を同時に学習する。出力は、出力の出力と出力の出力の出力の出力の出力の出力の出力から学習する。出力は出力の出力から出力の出力から出力の出力から出力の出力から出力の出力から出力の出力から出力の出力から出力の出力
- SummaReranker: A Multi-Task Mixture-of-Experts Re-ranking Framework for Abstractive Summarization
- Mathieu Ravaut, Shafiq Joty, Nancy Chen
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルの学習に使用する手法の提案。事前学習済みモデルの学習は、事前学習済みモデルの学習率を上げるための学習(Re-Ranking)を行なっている。事前学習済みモデルの学習率は、事前学習済みモデルの学習率と同程度になる。
- Understanding Multimodal Procedural Knowledge by Sequencing Multimodal Instructional Manuals
- Te-Lin Wu, Alex Spangher, Pegah Alipoormolabashi, Marjorie Freedman, Ralph Weischedel, Nanyun Peng
- TLDR: マルチモーダルで行われるタスクの順序を予測する研究。タスクの順序は、テキストと画像の順次更新を繰り返す。テキスト/画像の順次更新は、学習済みモデルのパフォーマンスを上げるのに有効な手法。画像/テキストの順次更新は、学習済みモデルのパフォーマンスを上げるのに有効な手法。
- Zoom Out and Observe: News Environment Perception for Fake News Detection
- Qiang Sheng, Juan Cao, Xueyao Zhang, Rundong Li, Danding Wang, Yongchun Zhu
- TLDR: フェイクニュースの検知を行う際に、ニュースの環境を予測する研究。ニュースの環境はニュースのニュースソースから収集したニュースソースを基に作成される。ニュースソースはニュースのニュースソースと、ニュースソースのニュースソースから収集したニュースソースを基に作成される。
- Divide and Rule: Effective Pre-Training for Context-Aware Multi-Encoder Translation Models
- Lorenzo Lupo, Marco Dinarelli, Laurent Besacier
- TLDR: 翻訳文の文脈を学習する際、文脈の学習は事前学習済みモデルで行うのが一般的だが、文脈の学習は事前学習済みモデルで行うのが一般的。文脈の学習は、文脈の学習と併用することで効率化を行う。文脈の学習は、文脈の学習と併用することで効率化を行う。
- Saliency as Evidence: Event Detection with Trigger Saliency Attribution
- Jian Liu, Yufeng Chen, Jinan Xu
- TLDR: テキストのエンティティを抽出する際、イベントの種類を特定する研究。イベントの種類は、イベントの発生頻度(頻度の更新)、イベントの発生頻度(更新頻度)、イベントの発生頻度(更新頻度)、イベントの発生頻度(更新頻度)、イベントの発生頻度(更新頻度)、イベントの発生頻度(更新頻度)、イベントの発生頻度(更新頻度)、イベントの発生頻度(更新頻度)、イベントの発生頻度(更新頻度)、イベントの発生頻度(更新頻度)、イベントの発生頻度(更新頻度)、イベント
- SRL4E – Semantic Role Labeling for Emotions: A Unified Evaluation Framework
- Cesare Campagnano, Simone Conia, Roberto Navigli
- TLDR: 感情の分類を行う際に、自然言語処理のモデルがどう扱っているかを検証した研究。自然言語処理のモデルは、感情の分類を行う際に、各単語の意味を個別に定義する(意味の分類は、単語の意味を個別に定義する)ことで、各単語の意味を個別に定義する。
- Context Matters: A Pragmatic Study of PLMs’ Negation Understanding
- Reto Gubelmann, Siegfried Handschuh
- TLDR: 翻訳における、意味の理解について、意味の理解をどう捉えるかを検証した研究。意味の理解は、翻訳の枠組みで行われることが多いが、意味の理解は、翻訳の枠組みで行われることが多い。意味の理解は、翻訳の枠組みで行われることが多いが、意味の理解は、翻訳の枠組みで行われることが多い。
- Probing for Predicate Argument Structures in Pretrained Language Models
- Simone Conia, Roberto Navigli
- TLDR: 文構造を言語モデルに組み込む際に、文構造をどう扱うかを調べた研究。文構造は文構造の表現として使われることが多いが、文構造を言語モデルに組み込むことで、文構造を言語モデルに組み込む際にも有効性を確認。
- Multilingual Generative Language Models for Zero-Shot Cross-Lingual Event Argument Extraction
- Kuan-Hao Huang, I-Hung Hsu, Prem Natarajan, Kai-Wei Chang, Nanyun Peng
- TLDR: 事前学習済み言語モデルを、マルチタスクで事前学習したモデルに置き換える研究。事前学習済み言語モデルは、事前学習済み言語モデルの文をベースに、文の文構造を予測するモデルをベースにしている。事前学習済み言語モデルは、事前学習済み言語モデルの文構造を予測するモデルと同等の精度を達成。
- Identifying Moments of Change from Longitudinal User Text
- Adam Tsakalidis, Federico Nanni, Anthony Hills, Jenny Chim, Jiayu Song, Maria Liakata
- TLDR: ストレスやメンタルヘルスといった変化を、ユーザーの投稿から予測する研究。投稿から変化が起こりやすい箇所を予測するだけでなく、その変化が頻発するかを予測する。更新頻度は更新頻度と同等の指標で、更新頻度が低いと更新頻度が低いと判断する。
- Multi-Task Pre-Training for Plug-and-Play Task-Oriented Dialogue System
- Yixuan Su, Lei Shu, Elman Mansimov, Arshit Gupta, Deng Cai, Yi-An Lai, Yi Zhang
- TLDR: タスクを個別に学習するモデルの提案。タスクを個別に学習するのではなく、タスクを複数回学習する(複数回の学習はタスクの重みを大きくする)。タスクを個別に学習する際は、タスクの重みを個別に学習する。タスクの重みはタスクごとに異なるが、タスクの重みはタスクごとに異なる。タスクの重みはタスクごとに異なる。
- Graph Enhanced Contrastive Learning for Radiology Findings Summarization
- Jinpeng Hu, Zhuo Li, Zhihong Chen, Zhen Li, Xiang Wan, Tsung-Hui Chang
- TLDR: 放射線診断書の文書から、放射線診断書の文書を生成するEncoder Decoderを提案。文書から文書を生成するEncoderDecoderは、文書のEncode結果と文書のEncode結果との相互依存を考慮する。文書のEncoderDecoderは、文書のEncode結果と文書の依存関係を考慮する。文書のEncoderDecoderは、文書のEncode結果と文書依存関係を考慮する。
- Semi-Supervised Formality Style Transfer with Consistency Training
- Ao Liu, An Wang, Naoaki Okazaki
- TLDR: 事前学習済みモデルを、事前学習済みモデルに置き換える手法の提案。事前学習済みモデルは、事前学習済みモデルの予測結果を基に、事前学習済みモデルの予測結果を基に事前学習済みモデルの予測結果を基に予測を行う。事前学習済みモデルは、事前学習済みモデルの予測結果を基に予測を行う。事前学習済みモデルは、事前学習済みモデルの予測結果を基に予測を行う。
- Cross-Lingual Ability of Multilingual Masked Language Models: A Study of Language Structure
- Yuan Chai, Yaobo Liang, Nan Duan
- TLDR: マルチ言語の事前学習済みモデルで、マルチ言語の学習は難しいとしている研究。事前学習済みモデルの学習は、言語の構成要素(Content order、単語分散表現、文構造)を変更することで行うが、この変更は言語の特性を変えてしまう可能性がある。
- Rare and Zero-shot Word Sense Disambiguation using Z-Reweighting
- Ying Su, Hongming Zhang, Yangqiu Song, Tong Zhang
- TLDR: 自然言語処理で、単語の学習率と単語の学習率の関係を調べた研究。単語の学習率は、単語の平均位置と単語の平均位置の差を加味する。平均位置は単語の平均位置と同等の精度を維持し、平均位置は単語の平均位置と同等の精度を維持する。
- Nibbling at the Hard Core of Word Sense Disambiguation
- Marco Maru, Simone Conia, Michele Bevilacqua, Roberto Navigli
- TLDR: 自然言語処理で、文の意味を誤差させる手法の検証結果をまとめたサーベイ。文の意味を誤差させる手法は、通常の評価指標(F1)と比較して精度が低い。また、誤差は言語モデルの学習済みモデルに近い精度をもたらす。
- Large Scale Substitution-based Word Sense Induction
- Matan Eyal, Shoval Sadde, Hillel Taub-Tabib, Yoav Goldberg
- TLDR: 単語の潜在表現を、事前学習済み言語モデルで学習する研究。事前学習済み言語モデルは、単語の潜在表現を単語の潜在表現に置き換える形で学習を行う。単語の潜在表現は、単語の潜在表現を入力とする単語ベースのモデルで学習する。
- Can Synthetic Translations Improve Bitext Quality?
- Eleftheria Briakou, Marine Carpuat
- TLDR: 翻訳文を、翻訳文の翻訳に適応する研究。翻訳文の翻訳は、翻訳文の翻訳精度を上げるために、翻訳文の翻訳文を翻訳文の翻訳文に近似する(翻訳文の翻訳文を翻訳文の翻訳文に近似する)ことで、翻訳文の精度を上げている。翻訳文の翻訳文を、翻訳文の翻訳文に近似する形で翻訳する。
- Unsupervised Dependency Graph Network
- Yikang Shen, Shawn Tan, Alessandro Sordoni, Peng Li, Jie Zhou, Aaron Courville
- TLDR: 依存構造を学習する研究。依存構造は、依存構造の潜在表現から生成される。依存構造は、依存構造の潜在表現から生成される。依存構造は、依存構造の潜在表現から生成される。依存構造は、依存構造の潜在表現から生成される。依存構造は、依存構造の潜在表現から生成される。
- WikiDiverse: A Multimodal Entity Linking Dataset with Diversified Contextual Topics and Entity Types
- Xuwu Wang, Junfeng Tian, Min Gui, Zhixu Li, Rui Wang, Ming Yan, Lihan Chen, Yanghua Xiao
- TLDR: マルチモーダルなEntity Linkingの研究。WikipediaはWikipediaと同等の知識ベースとして扱われ、WikipediaのEntity LinkingはWikipediaのEntity Linkingと同等の役割を果たしている。WikipediaのEntity Linkingは、WikipediaのEntity Linkingと同等の役割を果たしている。
- Rewire-then-Probe: A Contrastive Recipe for Probing Biomedical Knowledge of Pre-trained Language Models
- Zaiqiao Meng, Fangyu Liu, Ehsan Shareghi, Yixuan Su, Charlotte Collins, Nigel Collier
- TLDR: 医療関連の知識を抽出する研究。医療関連の文書は、医療の知識を抽出するモデル(UMLS)で学習する。文書は、医療関連の文書と同等の文書を扱う。文書は、医療関連文書の文書分類を学習する。文書は、医療関連文書の文書分類を学習する。文書は、文書分類の学習を学習する。文書は、文書分類の学習を学習する。
- Fine- and Coarse-Granularity Hybrid Self-Attention for Efficient BERT
- Jing Zhao, Yifan Wang, Junwei Bao, Youzheng Wu, Xiaodong He
- TLDR: 事前学習済みモデルで、学習済みモデルの学習済みモデルを学習する際のコストを削減する研究。学習済みモデルの学習済みモデルは、学習済みモデルの学習済みモデルの学習済みモデルと同等の計算コストがかかるが、学習済みモデルの学習済みモデルは計算コストがかかる。そのため、学習済みモデルの学習済みモデルを学習する。
- Compression of Generative Pre-trained Language Models via Quantization
- Chaofan Tao, Lu Hou, Wei Zhang, Lifeng Shang, Xin Jiang, Qun Liu, Ping Luo, Ngai Wong
- TLDR: 言語モデルの学習時に、生成済み言語モデルの重みを計算する手法の提案。生成済み言語モデルの重みを計算する際、生成済み言語モデルの重みを計算するモデルを生成する。生成済み言語モデルの重みを計算するモデルは、生成済み言語モデルの重みを計算するモデルと同等精度を達成。
- Visual-Language Navigation Pretraining via Prompt-based Environmental Self-exploration
- Xiwen Liang, Fengda Zhu, Li Lingling, Hang Xu, Xiaodan Liang
- TLDR: 画像の言語学習で、環境をSelf-Explorationする研究。環境をEncoder/Decoderで探索し、EncoderはEncodeした軌跡から学習を行う。学習はCLIPで行い、学習はEncoder/Decoderの学習結果から行う。学習はCLIPで行い、学習結果から学習モデルを自動生成する。
- DialogVED: A Pre-trained Latent Variable Encoder-Decoder Model for Dialog Response Generation
- Wei Chen, Yeyun Gong, Song Wang, Bolun Yao, Weizhen Qi, Zhongyu Wei, Xiaowu Hu, Bartuer Zhou, Yi Mao, Weizhu Chen, Biao Cheng, Nan Duan
- TLDR: 事前学習済み言語モデルを、Encoder Decoderで事前学習する研究。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を予測する。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を予測する。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を予測する。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を予測する。
- Contextual Fine-to-Coarse Distillation for Coarse-grained Response Selection in Open-Domain Conversations
- Wei Chen, Yeyun Gong, Can Xu, Huang Hu, Bolun Yao, Zhongyu Wei, Zhihao Fan, Xiaowu Hu, Bartuer Zhou, Biao Cheng, Daxin Jiang, Nan Duan
- TLDR: 対話システムで、文書から抽出された質問に対する回答を抽出する研究。質問に対する回答は、質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問
- Textomics: A Dataset for Genomics Data Summary Generation
- Mu-Chun Wang, Zixuan Liu, Sheng Wang
- TLDR: 自然言語処理で、データセットの概要を生成する研究。データセットは2つで、概要は文書から生成する。文書は文書の文書構造を表す単語を入力として、文書の文書構造を表す単語を入力として、文書の文書構造を表す単語を入力として生成する。文書の文書構造は、文書構造を表す単語を入力とする文書構造に置き換えている。
- A Contrastive Framework for Learning Sentence Representations from Pairwise and Triple-wise Perspective in Angular Space
- Yuhao Zhang, Hongji Zhu, Yongliang Wang, Nan Xu, Xiaobo Li, Binqiang Zhao
- TLDR: 自然言語処理で、文の意味を識別する手法の提案。文の意味を識別するモデルは、文の意味を識別する単語を学習する必要があり、このため文の意味を識別する単語を学習する。文の意味を識別する単語は、文の意味を識別する単語と、文の意味を識別する単語の2つに分けている。
- Packed Levitated Marker for Entity and Relation Extraction
- Deming Ye, Yankai Lin, Peng Li, Maosong Sun
- TLDR: 固有表現の抽出で、各spanの重みを固定する手法の提案。固有表現の抽出では、固有表現の重みを固定する手法が一般的だが、この手法では重みを固定する手法を採用している。固有表現の抽出では、固有表現の重みを固定する手法を採用している。
- An Interpretable Neuro-Symbolic Reasoning Framework for Task-Oriented Dialogue Generation
- Shiquan Yang, Rui Zhang, Sarah Erfani, Jey Han Lau
- TLDR: タスクを推定する際、モデルの予測結果を解釈する研究。モデルは単一ステップの推論を行うが、複数ステップの推論を行う場合に、単一ステップの推論結果を複数ステップの推論結果に置き換える(複数ステップの推論結果を統合する)。これにより、予測結果を解釈するモデルを構築する。
- Impact of Evaluation Methodologies on Code Summarization
- Pengyu Nie, Jiyang Zhang, Junyi Jessy Li, Ray Mooney, Milos Gligoric
- TLDR: コード要約の評価について、モデルの学習・評価・テストセットの構成・手法をまとめたサーベイ。モデルの学習・評価・テストセットの構成・手法をまとめたサーベイ。モデルの評価は、モデルの学習・評価・テストセットの構成・手法をまとめたサーベイから行う。
- KG-FiD: Infusing Knowledge Graph in Fusion-in-Decoder for Open-Domain Question Answering
- Donghan Yu, Chenguang Zhu, Yuwei Fang, Wenhao Yu, Shuohang Wang, Yichong Xu, Xiang Ren, Yiming Yang, Michael Zeng
- TLDR: オープンソースの文書から質問回答を行うモデルの提案。文書を検索する際、文書の検索結果を抽出するモデルをベースに、文書の検索結果を抽出するモデルをベースに文書の検索結果を抽出するモデルをベースに、文書の検索結果を抽出するモデルをベースに文書の検索結果を抽出するモデルをベースに、文書の検索結果を抽出するモデルをベースに文書の検索結果を抽出するモデルをベースに文書の検索結果を抽出するモデルをベースに文書の検索結果を抽出するモデルをベースに文書の検索結果を抽出するモデルをベースに文書の検索結果を抽
- Which side are you on? Insider-Outsider classification in conspiracy-theoretic social media
- Pavan Holur, Tianyi Wang, Shadi Shahsavari, Timothy Tangherlini, Vwani Roychowdhury
- TLDR: 敵対的表現に対する認識を、より現実的な形で表現できるようにする研究。敵対的表現に対する認識は、敵対的表現に対する認識と同等に重要であるとし、敵対的表現に対する認識を、現実的な認識と同等に扱う。敵対的表現に対する認識は、敵対的表現に対する認識と同等であるとし、敵対的表現に対する認識を、現実的な認識と同等に扱う。
- Learning From Failure: Data Capture in an Australian Aboriginal Community
- Eric Le Ferrand, Steven Bird, Laurent Besacier
- TLDR: 自然言語処理で、事前学習済みモデルの学習データから、事前学習済みモデルの学習データから学習データの生成を行う研究。事前学習済みモデルの学習データから、事前学習済みモデルの学習データから学習データの生成を行う。事前学習済みモデルの学習データから、事前学習済みモデルの学習データから学習データの生成を行う。
- Deep Inductive Logic Reasoning for Multi-Hop Reading Comprehension
- Wenya Wang, Sinno Pan
- TLDR: 文書を読む際に、文書内の文書関係を推論する研究。文書内の文書関係を推論する際、文書関係の文書関係を推論するモデルを用いている。文書関係は文書構造を考慮する必要があり、文書構造を考慮するモデルは文書構造を考慮する必要があり、文書構造を考慮するモデルは文書構造を考慮する必要があり、文書構造を考慮するモデルは文書構造を考慮する必要があり、文書構造を考慮するモデルは文書構造を考慮する必要があり、文書構造を考慮するモデルは文書構造を考慮する必要があり、文書構造を考慮するモデルは文書構造を考慮する必要があり、文書構造を考慮するモデルは
- CICERO: A Dataset for Contextualized Commonsense Inference in Dialogues
- Deepanway Ghosal, Siqi Shen, Navonil Majumder, Rada Mihalcea, Soujanya Poria
- TLDR: 対話中の質問に対する、既存の質問に対する質問と同等の質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する
- A Comparative Study of Faithfulness Metrics for Model Interpretability Methods
- Chun Sik Chan, Huanqi Kong, Liang Guanqing
- TLDR: 機械学習モデルの判断根拠を検証するための手法のサーベイ。モデルの判断根拠を検証する際、モデルの判断根拠を検証する指標として、モデルの診断精度と複雑性を計測する指標を提案している。診断精度は、モデルの判断根拠を検証する際の指標として使われる。複雑性は、モデルの判断根拠を検証する際の指標として使われる。
- SPoT: Better Frozen Model Adaptation through Soft Prompt Transfer
- Tu Vu, Brian Lester, Noah Constant, Rami Al-Rfou’, Daniel Cer
- TLDR: 事前学習済み言語モデルを転移学習に活用する研究。事前学習済みモデルは事前学習済みタスクのパラメーターを学習する。パラメーターは事前学習済みモデルのパラメーターと、事前学習済みモデルのパラメーターを組み合わせて学習する。事前学習済みモデルはパラメーターを学習する。
- Pass off Fish Eyes for Pearls: Attacking Model Selection of Pre-trained Models
- Biru Zhu, Yujia Qin, Fanchao Qi, Yangdong Deng, Zhiyuan Liu, Maosong Sun, Ming Gu
- TLDR: 転移性能を評価する手法の提案。転移性能は、転移先のモデルの固有特徴から抽出される。この固有特徴から抽出された特徴は、転移性能を評価する際の重みとなる。転移性能を評価する手法は、転移性能を評価するモデルを誤認識させる手法と同等であるとしている。
- Educational Question Generation of Children Storybooks via Question Type Distribution Learning and Event-centric Summarization
- Zhenjie Zhao, Yufang Hou, Dakuo Wang, Mo Yu, Chengzhong Liu, Xiaojuan Ma
- TLDR: 教師なし学習で、自然言語処理で生成した質問を教師なし学習に応用した研究。教師なし学習は、質問の分類/生成の順序が逆転する(質問の生成順序が逆転する)ことで、教師なし学習の学習を効率化する。教師なし学習は、教師なし学習の学習と同等の効果を上げている。
- HeterMPC: A Heterogeneous Graph Neural Network for Response Generation in Multi-Party Conversations
- Jia-Chen Gu, Chao-Hong Tan, Chongyang Tao, Zhen-Hua Ling, Huang Hu, Xiubo Geng, Daxin Jiang
- TLDR: マルチペアの対話システムにおける、事前学習済みモデルの提案。事前学習済みモデルは、質問に対する回答を生成するネットワークで、質問に対する回答は質問の履歴から生成する。質問の履歴から生成する際は、質問の履歴から生成する。
- The patient is more dead than alive: exploring the current state of the multi-document summarisation of the biomedical literature
- Yulia Otmakhova, Karin Verspoor, Timothy Baldwin, Jey Han Lau
- TLDR: 生物医学論文の評価に関する研究。論文の概要と評価の手法を比較し、評価の課題と改善点をまとめた研究。概ね、評価の手法は評価対象の論文の概要と評価対象の評価手法を比較し、評価の手法が適切か検証している。
- A Multi-Document Coverage Reward for RELAXed Multi-Document Summarization
- Jacob Parnell, Inigo Jauregi Unanue, Massimo Piccardi
- TLDR: 文書から要約を作成する際、事前学習済みモデルの学習を強化学習で行う手法の提案。事前学習済みモデルは事前学習済みモデルの学習率を上回るが、事前学習済みモデルは学習率が下がる。そのため事前学習済みモデルの学習率を上回る報酬を与える。事前学習済みモデルは学習率が下がる傾向があるが、学習率が高いほど学習率が高い。
- KNN-Contrastive Learning for Out-of-Domain Intent Classification
- Yunhua Zhou, Peiju Liu, Xipeng Qiu
- TLDR: 対話システムにおける、Out-of-Domainの意図分類を解く研究。意図分類は通常の対話システムで行われることが多いが、この場合、意図分類の分布を予測するモデルを導入する。意図分布は、通常の対話システムで学習するが、この時、意図分布の分布を予測するモデルを導入する。
- A Neural Network Architecture for Program Understanding Inspired by Human Behaviors
- Renyu Zhu, Lei Yuan, Xiang Li, Ming Gao, Wenyuan Cai
- TLDR: 自然言語処理でコードの理解を強化する研究。学習済みモデルを、自然言語処理のモデルに組み込んだ研究。学習済みモデルは、自然言語処理のモデルと同等の構造を取っており、自然言語処理のモデルは、自然言語処理のモデルと同等精度を達成。
- FaVIQ: FAct Verification from Information-seeking Questions
- Jungsoo Park, Sewon Min, Jaewoo Kang, Luke Zettlemoyer, Hannaneh Hajishirzi
- TLDR: 事前学習済みモデルで、事実を検証するモデルの提案。事前学習済みモデルは、事実を検証するモデルの枠組みで、事前学習済みモデルのモデルをベースにしている。事前学習済みモデルは、事実を検証するモデルの枠組みで、事前学習済みモデルのモデルをベースにしている。事前学習済みモデルは、事前学習済みモデルの精度を上回る結果を記録
- Simulating Bandit Learning from User Feedback for Extractive Question Answering
- Ge Gao, Eunsol Choi, Yoav Artzi
- TLDR: ユーザーからのフィードバックを有効に使う研究。モデルの学習は、ユーザーのフィードバックを有効に使うための手法を学習する。モデルは、ユーザーのフィードバックを有効に使うための手法を学習する。モデルは、ユーザーのフィードバックを有効に使うための手法を学習する。
- Beyond Goldfish Memory: Long-Term Open-Domain Conversation
- Jing Xu, Arthur Szlam, Jason Weston
- TLDR: 対話システムの学習と評価を自動化する手法の提案。対話システムは長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い長い
- ReCLIP: A Strong Zero-Shot Baseline for Referring Expression Comprehension
- Sanjay Subramanian, William Merrill, Trevor Darrell, Matt Gardner, Sameer Singh, Anna Rohrbach
- TLDR: 画像分類タスクで、画像の表現を学習する際のモデルの提案。画像の表現を学習する際は、画像の表現を学習するモデルを学習する。画像の表現を学習する際は、画像の表現を学習するモデルを学習する。学習時は、画像の表現を学習するモデルを学習する。
- Dynamic Prefix-Tuning for Generative Template-based Event Extraction
- Xiao Liu, Heyan Huang, Ge Shi, Bo Wang
- TLDR: 事前学習済みモデルを、事前学習済みモデルのイベント抽出に応用した研究。事前学習済みモデルは、事前学習済みモデルのイベント抽出を想定しており、事前学習済みモデルのイベント抽出は、イベントの種類(=クラス)を予測するモデルで行う。事前学習済みモデルは、事前学習済みモデルのイベント抽出を想定しており、事前学習済みモデルのイベント抽出は、クラス分類のモデルで行う。
- E-LANG: Energy-Based Joint Inferencing of Super and Swift Language Models
- Mohammad Akbari, Amin Banitalebi-Dehkordi, Yong Zhang
- TLDR: 言語モデルの計算コストを削減する研究。モデルの計算コストは、モデルの計算速度と計算速度のバランスで決定する。計算コストは、モデルの計算速度と計算速度のバランスで決定する。計算コストは、計算速度が低いモデルを優先する。計算コストは、計算速度が低いモデルを優先する。
- PRIMERA: Pyramid-based Masked Sentence Pre-training for Multi-document Summarization
- Wen Xiao, Iz Beltagy, Giuseppe Carenini, Arman Cohan
- TLDR: マルチ文書の要約を行うための事前学習モデルの提案。文書の要約を入力とし、要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力とし要約を入力
- Dynamic Global Memory for Document-level Argument Extraction
- Xinya Du, Sha Li, Heng Ji
- TLDR: ニュース記事から、ニュース記事のニュース記事に対する推論を生成する研究。ニュース記事のニュース記事から、ニュース記事のニュース記事に対する推論を生成する。ニュース記事のニュース記事から、ニュース記事のニュース記事への推論を生成する。ニュース記事のニュース記事から、ニュース記事への推論を生成する。
- Measuring the Impact of (Psycho-)Linguistic and Readability Features and Their Spill Over Effects on the Prediction of Eye Movement Patterns
- Daniel Wiechmann, Yu Qiao, Elma Kerz, Justus Mattern
- TLDR: 自然言語処理で、自然言語処理の特性を評価する研究。学習済み言語モデルの特性を評価する手法としてBERT/GPTを挙げており、BERT/GPTは自然言語処理の特性を評価するモデルとして使われている。BERT/GPTは、自然言語処理の特性を評価するモデルとして使われている。
- Alternative Input Signals Ease Transfer in Multilingual Machine Translation
- Simeng Sun, Angela Fan, James Cross, Vishrav Chaudhary, Chau Tran, Philipp Koehn, Francisco Guzmán
- TLDR: マルチ言語の翻訳を行う際に、学習済み言語同士の転移を防ぎつつ、異なる言語同士の転移を防ぎつつ、転移の精度を上げるために、異なる言語同士の転移を防ぎつつ、転移の精度を上げるために転移先の言語同士の転移を防ぎつつ、転移先の言語同士の転移を防ぎつつ転移先の言語同士の転移を防ぎつつ、転移先の言語同士の転移を防ぎつつ、転移先の言語同士の転移を防ぎつつ、転移先の言語同士の転移を防ぎつつ、転移先の言語同士の転移を防ぎつつ、
- Phone-ing it in: Towards Flexible Multi-Modal Language Model Training by Phonetic Representations of Data
- Colin Leong, Daniel Whitenack
- TLDR: 言語モデルの事前学習をマルチモーダルで行う研究。事前学習済みモデルは、事前学習済み言語モデルの学習済みモデルと同等の精度を達成できるか検証している。事前学習済みモデルは、事前学習済み言語モデルの精度を上げるための工夫が行なわれている。
- Noisy Channel Language Model Prompting for Few-Shot Text Classification
- Sewon Min, Mike Lewis, Hannaneh Hajishirzi, Luke Zettlemoyer
- TLDR: 事前学習済みモデルを、事前学習済みモデルの挙動に近いモデルに置き換える研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルの一種。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルの一種。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルの一種。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルの一種。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルの一種。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルの一種。事前学習済みモデルは
- Multilingual unsupervised sequence segmentation transfers to extremely low-resource languages
- C. Downey, Shannon Drizin, Levon Haroutunian, Shivin Thukral
- TLDR: 事前学習済み言語モデルを、低リソース言語に転移する研究。事前学習済み言語モデルは、通常の学習済み言語モデルと同等の精度を維持できるが、事前学習済み言語モデルは学習済み言語モデルと同等の精度を維持できない。そのため、事前学習済み言語モデルを複数言語に転移する手法を提案している。
- KinyaBERT: a Morphology-aware Kinyarwanda Language Model
- Antoine Nzeyimana, Andre Niyongabo Rubungo
- TLDR: 自然言語処理で、自然言語処理のモデルを強化する研究。自然言語処理では、単語の重みを単語分散表現に変換するモデルが一般的だが、この重みは単語分散表現に使われることが多い。この重みを、単語分散表現に変換するモデルを提案。単語分散表現は、単語分散表現の表現を予測するモデルで行う。
- On the Calibration of Pre-trained Language Models using Mixup Guided by Area Under the Margin and Saliency
- Seo Yeon Park, Cornelia Caragea
- TLDR: 自然言語理解のモデルを、事前学習済みモデルと比較して精度を上げるために行う研究。事前学習済みモデルは、事前学習済みモデルの精度を上げるための様々な工夫が行なわれているが、事前学習済みモデルは精度が低い傾向がある。そこで、事前学習済みモデルと事前学習済みモデルの混合を行なっている。
- IMPLI: Investigating NLI Models’ Performance on Figurative Language
- Kevin Stowe, Prasetya Utama, Iryna Gurevych
- TLDR: 自然言語処理で、文中の単語と文中の単語のペアを生成する研究。文中の単語は単語のペアと見なせるが、単語のペアは単語のペアと見なせる。単語のペアは単語のペアと見なせるが、単語のペアは単語のペアと見なせる。ペアは単語のペアと見なせるが、ペアは単語のペアと見なせる。ペアは単語のペアと見なせる。
- QAConv: Question Answering on Informative Conversations
- Chien-Sheng Wu, Andrea Madotto, Wenhao Liu, Pascale Fung, Caiming Xiong
- TLDR: 質問回答を行う際に、対話システムの学習と評価を検証した研究。対話システムは、質問を生成するだけでなく、質問を生成した対話者から質問を生成する仕組みを導入している。対話者は、質問を生成する際は、質問の生成結果を入力に使用する。対話者は、質問生成結果を入力に使用する。
- Prix-LM: Pretraining for Multilingual Knowledge Base Construction
- Wenxuan Zhou, Fangyu Liu, Ivan Vulić, Nigel Collier, Muhao Chen
- TLDR: マルチ言語の文書を作成する研究。マルチ言語の文書は、文書の構造が複雑で、文書の更新が困難な場合に有効な情報となる。そのため、文書の構造をマルチ言語に変換する研究。マルチ言語の文書は、文書の構造を学習するタスクで有効な情報となる。
- Semantic Composition with PSHRG for Derivation Tree Reconstruction from Graph-Based Meaning Representations
- Chun Hei Lo, Wai Lam, Hong Cheng
- TLDR: 文構造を生成する手法の提案。文構造を生成する際は、文構造を生成する文を生成する(文構造を生成する=>文構造を生成する)。文構造を生成する際は、文構造を生成する文を生成する文の重みを計算する。文構造を生成する文を生成する際は、文構造を生成する文の重みを計算する。文構造を生成する文を生成する際は、文構造を生成する文を生成する文の重みを計算する。
- HOLM: Hallucinating Objects with Language Models for Referring Expression Recognition in Partially-Observed Scenes
- Volkan Cirik, Louis-Philippe Morency, Taylor Berg-Kirkpatrick
- TLDR: 自然言語処理で、物体が写り込んだ画像を言語モデルで認識する研究。画像を認識する際、画像の写り込んだ画像を言語モデルで認識する。画像の写り込んだ画像を言語モデルで認識する際、画像の写り込んだ画像を言語モデルで認識する。画像の写り込んだ画像を言語モデルで認識する。
- Multi Task Learning For Zero Shot Performance Prediction of Multilingual Models
- Kabir Ahuja, Shanu Kumar, Sandipan Dandapat, Monojit Choudhury
- TLDR: マルチタスク学習で、事前学習済み言語モデルの精度を上げる研究。事前学習済み言語モデルは、事前学習済み言語モデルの予測精度を上げるための様々な手法を組み合わせている。事前学習済み言語モデルは、事前学習済み言語モデルの予測精度を上げるための様々な手法を組み合わせている。
- \infty-former: Infinite Memory Transformer
- Pedro Henrique Martins, Zita Marinho, Andre Martins
- TLDR: 長い系列を扱うTransformerは、長い系列の処理を効率的に行うには限界がある。そのため、長い系列を扱うTransformerを効率的に使うための提案。Transformerは、長い系列を扱う際に、重みを減らす処理を行わずに、重みを減らす処理を行なっている。
- Systematic Inequalities in Language Technology Performance across the World’s Languages
- Damian Blasi, Antonios Anastasopoulos, Graham Neubig
- TLDR: 自然言語処理の手法を、どれだけ学習できるかを検証した研究。結果として、学習できるのは少数の言語モデルで、その多くは学習データが少ない。そのため、学習データが少ないモデルを導入する手法を提案している。
- CaMEL: Case Marker Extraction without Labels
- Leonie Weissweiler, Valentin Hofmann, Masoud Jalili Sabet, Hinrich Schuetze
- TLDR: 自然言語処理の手法を、よりシンプルな手法に置き換えた研究。入力は、入力と入力の双方向な表現を組み合わせたもの。入力は、入力と入力双方向な表現を組み合わせたもの。入力は、入力と入力双方向な表現を組み合わせたもの。入力は、入力と入力双方向な表現を組み合わせたもの。入力は、入力と入力双方向な表現を組み合わせたもの。入力は、入力と入力双方向な表現を組み合わせたもの。入力は、入力と入力双方向な表現を組み合わせたもの。入力は、入力と入力双方向な表現を組み合わせたもの。入力と入力と入力を入力に置き
- Improving Generalizability in Implicitly Abusive Language Detection with Concept Activation Vectors
- Isar Nejadgholi, Kathleen Fraser, Svetlana Kiritchenko
- TLDR: 機械学習モデルの学習時に、自然言語処理モデルの不適性を評価する手法の提案。不適な表現を検出する際、不適な表現を検出する際の精度を評価する指標として、不適な表現を検出する際の精度を計測する指標を導入している。不適な表現検出は、不適な表現を検出するモデルの不適性を評価する指標として有効な手法であるとしている。
- Reports of personal experiences and stories in argumentation: datasets and analysis
- Neele Falk, Gabriella Lapesa
- TLDR: 文書分類器の提案。文書分類器は、文書の分類対象となる文書を分類する。文書分類器は、文書分類の分類器と同等の分類器を構築する。文書分類器は、文書分類器の分類精度を上げるために、文書分類器の分類精度を上げるために、文書分類器の分類精度を上げるために、文書分類器の分類精度を上げるために、文書分類器の分類精度を上げるために、文書分類器の分類精度を上げるために、文書分類器の分類精度を上げるために、文書分類器の分類精度を上げるために、文書分類器の分類精度を上げるために、文書分類器の分類精度を上げるために、文書分類
- Non-neural Models Matter: a Re-evaluation of Neural Referring Expression Generation Systems
- Fahime Same, Guanyi Chen, Kees Van Deemter
- TLDR: 機械学習モデルが、自然言語処理でどれだけ優秀かを検証した研究。通常の機械学習モデルは、文法的な特徴を考慮するが、文法的な特徴を考慮するモデルは、文法的な特徴を考慮していないと判断する。文法的な特徴を考慮するモデルは、文法的な特徴を考慮したモデルと同等の結果が得られた。
- Bridging the Generalization Gap in Text-to-SQL Parsing with Schema Expansion
- Chen Zhao, Yu Su, Adam Pauls, Emmanouil Antonios Platanios
- TLDR: 自然言語処理で、文の単語を結合する手法の提案。文の単語を結合する際、文の単語を結合する際の単語を結合する(結合は文の単語を結合する)ことで、文の単語を結合する。文の結合は、文の単語を結合する文の結合に使用する。
- Predicate-Argument Based Bi-Encoder for Paraphrase Identification
- Qiwei Peng, David Weir, Julie Weeds, Yekun Chai
- TLDR: 文のparaphrase identificationを行う際に、事前学習済みの単語分散表現を導入する研究。事前学習済み単語分散表現は、単語の意味を予測する潜在表現として使われることが多いが、この潜在表現を事前学習済み単語分散表現に組み込むことで、事前学習済み単語分散表現を予測する精度を向上させることができる。
- MINER: Improving Out-of-Vocabulary Named Entity Recognition from an Information Theoretic Perspective
- Xiao Wang, Shihan Dou, Limao Xiong, Yicheng Zou, Qi Zhang, Tao Gui, Liang Qiao, Zhanzhan Cheng, Xuanjing Huang
- TLDR: 自然言語処理で、Entityの単語名を予測する研究。Entityの単語名は、Entityの固有表現を予測する際の重要な情報として扱われる。Entityの固有表現を予測する際は、固有表現の表現を予測するモデルを用いることで、Entityの固有表現を予測するモデルを構築している。
- Leveraging Wikipedia article evolution for promotional tone detection
- Christine De Kock, Andreas Vlachos
- TLDR: 文中のノイズを除去する手法の提案。Wikipediaの文を、文の編集履歴から抽出する。Wikipediaの文は、WikipediaのWikipedia-Encoderで生成される。Wikipedia-Encoderは、Wikipedia-Encodeの文をWikipedia-Encodeの文に変換する。Wikipedia-Encodeは、Wikipedia-Encodeの文をWikipedia-Encodeの文に変換する。
- From text to talk: Harnessing conversational corpora for humane and diversity-aware language technology
- Mark Dingemanse, Andreas Liesenfeld
- TLDR: 自然言語処理で、言語モデルの情報を活用した研究。各言語モデルは、各文の単語表現を入力として入力するが、単語表現は入力と異なる場合に入力する。入力は単語表現の表現を入力とし、入力は単語表現の表現を入力とする。入力は単語表現の表現を入力とする。
- Flooding-X: Improving BERT’s Resistance to Adversarial Attacks via Loss-Restricted Fine-Tuning
- Qin Liu, Rui Zheng, Bao Rong, Jingyi Liu, ZhiHua Liu, Zhanzhan Cheng, Liang Qiao, Tao Gui, Qi Zhang, Xuanjing Huang
- TLDR: テキスト分類におけるAdversarialの耐性を強化する手法の提案。Adversarialの学習は、学習済みモデルの学習率を上げるための勾配の勾配を計算する。勾配の計算は、学習済みモデルの学習率を上げるための勾配の計算に使用する。勾配の計算は、学習済みモデルの学習率を上げるための計算に使用する。
- RoMe: A Robust Metric for Evaluating Natural Language Generation
- Md Rashad Al Hasan Rony, Liubov Kovriguina, Debanjan Chaudhuri, Ricardo Usbeck, Jens Lehmann
- TLDR: 自然言語生成の評価指標を自動生成する研究。生成文の文構造、文特徴、文表現の類似度、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、文表現の変更距離、
- Finding Structural Knowledge in Multimodal-BERT
- Victor Milewski, Miryam de Lhoneux, Marie-Francine Moens
- TLDR: マルチモーダルモデルの画像認識で、言語モデルの構造を学習する研究。画像の表現を言語モデルの表現に置き換える(画像の表現は、画像の表現と異なる表現になる可能性がある)。画像の表現は、画像の表現と画像の表現の2つに分けられる。画像の表現は、画像の表現と画像の表現の2つに分けられる。
- Fully Hyperbolic Neural Networks
- Weize Chen, Xu Han, Yankai Lin, Hexu Zhao, Zhiyuan Liu, Peng Li, Maosong Sun, Jie Zhou
- TLDR: ハイパーパラメーターのモデルを、ニューラルネットのモデルに近似する研究。パラメーターの近似は、学習済みモデルの学習済みパラメーターを学習する際の基本となる。学習済みモデルは、学習済みパラメーターの学習済みモデルと同等の精度を維持できるが、学習済みモデルは学習済みパラメーターの学習済みモデルと同等の精度を維持できない。
- Neural Machine Translation with Phrase-Level Universal Visual Representations
- Qingkai Fang, Yang Feng
- TLDR: 翻訳において、文画像を入力とするモデルを提案。文画像は文表現の表現を表現するだけでなく、文表現の表現を表現する表現も含まれる。文表現を入力とするモデルは、文表現の表現を入力とするモデルと、文表現の表現を入力とするモデルの2つを使用。
- M3ED: Multi-modal Multi-scene Multi-label Emotional Dialogue Database
- Jinming Zhao, Tenggan Zhang, Jingwen Hu, Yuchen Liu, Qin Jin, Xinchao Wang, Haizhou Li
- TLDR: 対話中の感情を、マルチモーダルで分析する研究。対話中の感情は、相手との関係性(感情の大きさ)、相手に対する感情の大きさ(感情の大きさ)、相手に対する感情の大きさ(大きさ)、相手に対する感情の大きさ(大きさ)、相手に対する感情の大きさ(大きさ)、相手に対する感情の大きさ(大きさ)、相手に対する感情の大きさ(大きさ)、といった3つの要素から構成されている。
- Few-shot Named Entity Recognition with Self-describing Networks
- Jiawei Chen, Qing Liu, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: 事前学習済みモデルを、Self-Describingのモデルに置き換えた研究。Self-Describingは、Entityの種類と特徴を個別に定義し、特徴を個別に予測する。Entityの種類は、Entityの分類器で定義し、特徴を個別に予測する。特徴を個別に予測するモデルは、Entityの分類器と同等の精度を維持できる。
- SpeechT5: Unified-Modal Encoder-Decoder Pre-Training for Spoken Language Processing
- Junyi Ao, Rui Wang, Long Zhou, Chengyi Wang, Shuo Ren, Yu Wu, Shujie Liu, Tom Ko, Qing Li, Yu Zhang, Zhihua Wei, Yao Qian, Jinyu Li, Furu Wei
- TLDR: 自然言語処理で、事前学習済み言語モデルを用いた事前学習を行う研究。事前学習済み言語モデルは、事前学習済み言語モデルの入力と、事前学習済み言語モデルの出力を結合し、出力の言語モデルを学習する。出力は、事前学習済み言語モデルの出力と、出力の言語モデルの出力を結合し、出力の言語モデルを学習する。
- Human Evaluation and Correlation with Automatic Metrics in Consultation Note Generation
- Francesco Moramarco, Alex Papadopoulos Korfiatis, Mark Perera, Damir Juric, Jack Flann, Ehud Reiter, Anya Belz, Aleksandar Savkov
- TLDR: 機械学習モデルで、事前学習済みの臨床診断書を評価する研究。事前学習済みモデルの評価は、事前学習済みモデルの精度と精度のバランスを考慮する必要がある。事前学習済みモデルの評価は、事前学習済みモデルの精度と精度のバランスを考慮する必要がある。事前学習済みモデルの評価は、精度と精度のバランスを考慮する必要がある。
- Unified Structure Generation for Universal Information Extraction
- Yaojie Lu, Qing Liu, Dai Dai, Xinyan Xiao, Hongyu Lin, Xianpei Han, Le Sun, Hua Wu
- TLDR: テキストから文書抽出を行う際に、各文書の構造を個別に学習する研究。文書構造をテキストベースのEncoder/Decoderで学習し、文書構造をEncodeした文書を文書構造のEncoder/Decoderで抽出する。文書構造をEncodeした文書を文書構造のEncoder/Decoderで抽出する。文書構造のEncoder/Decoderは文書構造のEncodeを学習する。
- Subgraph Retrieval Enhanced Model for Multi-hop Knowledge Base Question Answering
- Jing Zhang, Xiaokang Zhang, Jifan Yu, Jian Tang, Jie Tang, Cuiping Li, Hong Chen
- TLDR: 知識ベースの質問回答を行う際に、質問文の中の各グラフを抽出する研究。各グラフは、質問文の文長が長い場合、質問文の文長を短くする。この文長を抽出するモデルを、事前学習済みモデルと併用することで、より精度の高い質問文を抽出する。
- Pre-training to Match for Unified Low-shot Relation Extraction
- Fangchao Liu, Hongyu Lin, Xianpei Han, Boxi Cao, Le Sun
- TLDR: 低サンプルのラベル抽出で、Few-shotとFew-shotのラベルを組み合わせた手法の提案。Few-shotはラベルの数が少ない場合、Few-shotのラベルを予測するモデルが適している。Few-shotはラベルの数が少ない場合予測が難しいため、精度を上げるために精度を上げるために、ラベルの数が多い場合予測精度を上げるために、ラベルの数が多い場合予測精度を上げるために、ラベルの数が多い場合予測精度を上げるために、ラベルの数が多い場合予測精度を上げるために、ラベルの数が多い場合予測精度を上げるために、ラベルの数が多い場合予測
- Can Prompt Probe Pretrained Language Models? Understanding the Invisible Risks from a Causal View
- Boxi Cao, Hongyu Lin, Xianpei Han, Fangchao Liu, Le Sun
- TLDR: 事前学習済み言語モデルに対する、事前学習済みモデルの評価の落とし穴についてまとめられたサーベイ。事前学習済みモデルの評価は、事前学習済みモデルの性能を評価するモデルの枠組みで行われることが多いが、事前学習済みモデルの評価は、モデルの性能を評価する枠組みで行われることが多い。
- Evaluating Extreme Hierarchical Multi-label Classification
- Enrique Amigo, Agustín Delgado
- TLDR: マルチラベルの分類器に対する評価手法のサーベイ。分類器の評価は、分類器の分類結果を基に、分類器の分類結果を評価する指標として使用されている。分類器の評価は、分類器の分類結果を基に、分類器の分類結果を基に評価を行う。
- What does the sea say to the shore? A BERT based DST style approach for speaker to dialogue attribution in novels
- Carolina Cuesta-Lazaro, Animesh Prasad, Trevor Wood
- TLDR: 対話中の人物を、モデルでAttributionする研究。テキストから人物を推定するだけでなく、人物を推定するモデルも提案されている。人物推定は、テキストから人物を推定するモデルをベースにしている。
- Measuring Fairness of Text Classifiers via Prediction Sensitivity
- Satyapriya Krishna, Rahul Gupta, Apurv Verma, Jwala Dhamala, Yada Pruksachatkun, Kai-Wei Chang
- TLDR: 機械学習モデルの予測精度を評価する指標の提案。予測精度は予測結果のパラメーター(プライバシー)と、予測結果のパラメーター(グループ)のパラメーター(プライバシー)を比較し、パラメーターのパラメーターが低い場合に予測結果が得られないかを計測する。
- RotateQVS: Representing Temporal Information as Rotations in Quaternion Vector Space for Temporal Knowledge Graph Completion
- Kai Chen, Ye Wang, Yitong Li, Aiping Li
- TLDR: 時系列の知識グラフを、時系列の変遷を予測する手法の提案。時系列の変遷は、時系列の予測結果と異なる場合に起こりう。時系列の変遷は、時系列の予測結果と異なる場合に起こりう。時系列の変遷は、時系列の予測結果と異なる場合に起こりう。時系列の変遷は、時系列の予測結果と異なる場合に起こりう。時系列の変遷は、時系列の予測結果と異なる場合に起こりう。時系列の変遷は、時系列の予測結果と異なる場合に起こりう。時系列の変遷は、
- Feeding What You Need by Understanding What You Learned
- Xiaoqiang Wang, Bang Liu, Fangli Xu, Bo Long, Siliang Tang, Lingfei Wu
- TLDR: 文書読解で、文書の意味を理解する研究。文書の意味を理解するモデルを構築し、文書の意味を理解するモデルを学習する。文書の意味を理解するモデルは、文書の意味を理解するモデルと同等の精度を維持できるか検証している。
- Probing Simile Knowledge from Pre-trained Language Models
- Weijie Chen, Yongzhu Chang, Rongsheng Zhang, Jiashu Pu, Guandan Chen, Le Zhang, Yadong Xi, Yijiang Chen, Chang Su
- TLDR: 事前学習済み言語モデルを用いた事前学習済みモデルの提案。事前学習済みモデルは、事前学習済み言語モデルの予測精度を上げるための工夫を行なっている。事前学習済み言語モデルは、事前学習済み言語モデルの予測精度を上げるための工夫を行なっている。事前学習済み言語モデルは、事前学習済み言語モデルの予測精度を上げるための工夫を行なっている。
- An Effective and Efficient Entity Alignment Decoding Algorithm via Third-Order Tensor Isomorphism
- Xin Mao, Meirong Ma, Hao Yuan, Jianchao Zhu, ZongYu Wang, Rui Xie, Wei Wu, Man Lan
- TLDR: マルチソースのGraph Encoderに、既存の手法を上回る精度を達成した研究。既存の手法は、Adjacent TensorとGramatic Tensorの2つの重みを重みとして計算するが、この重みは重みの重みを計算する重みとして使用する。重みはGramatic TensorとAdjacent Tensorの2つで計算する。
- Entailment Graph Learning with Textual Entailment and Soft Transitivity
- Zhibin Chen, Yansong Feng, Dongyan Zhao
- TLDR: 文書内のEntailmentとTransitiveを学習する研究。文書内のEntailmentは、文書の文脈から生成される単語を予測する。文書の文脈から生成されたEntailmentを、文書の文脈から予測する形で学習する。文書の文脈から予測するEntailmentは、文書の文脈から予測するEntailmentと、文書の文脈から予測する文脈から予測する文脈から予測する文脈から予測する文脈から予測する文脈から予測する文脈から予測する文脈から予測する文脈から予測する文脈から予測する文脈から予測する文脈から予測する文脈から予測する
- Logic Traps in Evaluating Attribution Scores
- Yiming Ju, Yuanzhe Zhang, Zhao Yang, Zhongtao Jiang, Kang Liu, Jun Zhao
- TLDR: 強化学習モデルの評価について、評価の落とし穴をまとめたサーベイ。評価の落とし穴は、モデルの説明過程が不確かな場合にあり、また、説明過程が不確かな場合にあり、という点。この点を検証したサーベイ。評価の落とし穴は、説明過程が不確かな場合にあり、また、説明過程が不確かな場合にあり、という点。
- Continual Pre-training of Language Models for Math Problem Understanding with Syntax-Aware Memory Network
- Zheng Gong, Kun Zhou, Xin Zhao, Jing Sha, Shijin Wang, Ji-Rong Wen
- TLDR: 言語モデルを学習する際、事前学習済みモデルと同等の手法を取っているか検証した研究。事前学習済みモデルは、文中の単語を単語ベクトルに変換し、そのベクトルを単語ベクトルと単語ベクトルのベクトルに分割し、単語ベクトルを単語ベクトルと単語ベクトルのベクトルに分割し、単語ベクトルを単語ベクトルと単語ベクトルのベクトルに分割し、単語ベクトルを単語ベクトルと単語ベクトルのベクトルに分割し学習する。
- Multitasking Framework for Unsupervised Simple Definition Generation
- Cunliang Kong, Yun Chen, Hengyuan Zhang, Liner Yang, Erhong Yang
- TLDR: 自然言語処理で、複雑な単語を生成する研究。複雑な単語は、単純な単語の生成に使用するモデルが適している。単純な単語は、単純な単語の生成に使用するモデルが適している。単純な単語は、単純な単語の生成に使用するモデルが適している。単純な単語は、単純な単語の生成に使用するモデルが適している。
- Learning to Reason Deductively: Math Word Problem Solving as Complex Relation Extraction
- Zhanming Jie, Jierui Li, Wei Lu
- TLDR: 自然言語処理で、単語の意味を推定するタスクの提案。単語の意味を推定するタスクは、単語の意味を推定するだけでなく、単語の意味を推定するタスク(単語の意味を推定する)も含む。単語の意味を推定するタスクは、単語の意味を推定するタスクと同等かそれ以上の精度を達成。
- When did you become so smart, oh wise one?! Sarcasm Explanation in Multi-modal Multi-party Dialogues
- Shivani Kumar, Atharva Kulkarni, Md Shad Akhtar, Tanmoy Chakraborty
- TLDR: 対話システムで、質問に対する回答を自動生成する研究。質問に対する回答は、質問に対する質問に対する回答と同等の意味を持つが、質問に対する回答は、質問に対する質問に対する回答と同等の意味を持つ。質問に対する回答は、質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問
- Toward Interpretable Semantic Textual Similarity via Optimal Transport-based Contrastive Sentence Learning
- Seonghyeon Lee, Dongha Lee, Seongbo Jang, Hwanjo Yu
- TLDR: 文の類似度を測る研究。文の長さは、文の長さと文長の長さを比較し、長さ=>長さの長さを算出する。長さは、文長=>長さの長さを算出する。長さは、長さ=>長さを算出する。長さを算出するモデルは、長さ=>長さを算出する。長さを算出するモデルは、長さを算出するモデルと同等精度を達成。
- Pre-training and Fine-tuning Neural Topic Model: A Simple yet Effective Approach to Incorporating External Knowledge
- Linhai Zhang, Xuemeng Hu, Boyu Wang, Deyu Zhou, Qian-Wen Zhang, Yunbo Cao
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルに組み込んだ研究。事前学習済みモデルは、事前学習済み言語モデルの学習済みモデルと同等の精度を維持できるか検証している。事前学習済み言語モデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できるか検証している。
- Multi-View Document Representation Learning for Open-Domain Dense Retrieval
- Shunyu Zhang, Yaobo Liang, Ming Gong, Daxin Jiang, Nan Duan
- TLDR: マルチタスクの文書生成を行う際に、マルチタスクの文書を生成する手法の提案。マルチタスクの文書を生成する際、マルチタスクの文書を生成する際の温度を微分可能にしている。微分可能にすることで、マルチタスクの文書を生成する際の温度を微分可能にしている。
- Graph Pre-training for AMR Parsing and Generation
- Xuefeng Bai, Yulong Chen, Yue Zhang
- TLDR: 事前学習済み言語モデル(PLM)を、事前学習済み文書から事前学習した文書に置き換えた研究。事前学習済み文書は、文書構造を理解するために事前学習済み言語モデルの文書構造を認識する必要があり、事前学習済み言語モデルは文書構造を認識するタスクが限られる。そこで、文書構造を認識するタスクを追加し、事前学習済み言語モデルを事前学習済み文書に置き換えたモデルを提案。
- Turning Tables: Generating Examples from Semi-structured Tables for Endowing Language Models with Reasoning Skills
- Ori Yoran, Alon Talmor, Jonathan Berant
- TLDR: 事前学習済み言語モデルで、質問文に対する回答を自動生成する研究。質問文を生成する際は、質問文の文長が長くなるほど質問文の回答が難しくなる。そこで、質問文の文長を短くする(長くなるほど質問文の回答が難しくなる)、質問文の文長を長くなるよう学習する。
- RNG-KBQA: Generation Augmented Iterative Ranking for Knowledge Base Question Answering
- Xi Ye, Semih Yavuz, Kazuma Hashimoto, Yingbo Zhou, Caiming Xiong
- TLDR: 文構造の分類を、文分類モデルで行う研究。文構造の分類は、文構造の分類結果をベースに、文構造の分類結果をベースに分類結果を生成する。文構造の分類結果をベースに、文構造の分類結果をベースに文構造の分類結果を生成する。文構造の分類結果をベースに、文構造の分類結果をベースに文構造の分類結果を生成する。
- Rethinking Self-Supervision Objectives for Generalizable Coherence Modeling
- Prathyusha Jwalapuram, Shafiq Joty, Xiang Lin
- TLDR: 機械学習モデルの事前学習で、学習済みモデルの学習率を上げるために、学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるために
- Just Rank: Rethinking Evaluation with Word and Sentence Similarities
- Bin Wang, C.-C. Jay Kuo, Haizhou Li
- TLDR: 自然言語処理における、文の類似度の評価について、事前学習済みモデルと比較した研究。文類似度は文の類似度と同等か否かを判定する指標で、事前学習済みモデルと同等か否かを判定する指標は、文類似度の評価と同等か否かを判定する指標と同等か否かを判定する指標の2つを導入している。
- MarkupLM: Pre-training of Text and Markup Language for Visually Rich Document Understanding
- Junlong Li, Yiheng Xu, Lei Cui, Furu Wei
- TLDR: 文書のレイアウトを事前学習する手法の提案。文書のレイアウトは固定で、文書のレイアウトはテキストのみで学習する。文書のレイアウトはテキストのみで学習するが、文書のレイアウトはテキストのみで学習する。文書のレイアウトはテキストのみで学習するが、文書のレイアウトはテキストのみで学習する。
- CLIP Models are Few-Shot Learners: Empirical Studies on VQA and Visual Entailment
- Haoyu Song, Li Dong, Weinan Zhang, Ting Liu, Furu Wei
- TLDR: 画像を解釈するタスクで、言語モデルの学習を上手く活用した研究。言語モデルは画像を解釈するタスクで、画像の解釈は画像の表現を解釈する形で行う。画像の解釈は、画像の表現を解釈する形で行う。画像の解釈は、画像の表現を解釈する形で行う。
- KQA Pro: A Dataset with Explicit Compositional Programs for Complex Question Answering over Knowledge Base
- Shulin Cao, Jiaxin Shi, Liangming Pan, Lunyiu Nie, Yutong Xiang, Lei Hou, Juanzi Li, Bin He, Hanwang Zhang
- TLDR: 複雑な文法問題を解くためのデータセットの提案。文法問題は多様かつ複雑なため、文法知識ベースのモデルをベースに解く。文法知識ベースは、文法知識を扱うための知識ベースと、文法知識を扱うための知識ベースの2つをベースにしている。文法知識ベースは、文法知識を扱うための知識ベースと、文法知識を扱うための知識ベースの2つをベースにしている。
- Debiased Contrastive Learning of Unsupervised Sentence Representations
- Kun Zhou, Beichen Zhang, Xin Zhao, Ji-Rong Wen
- TLDR: 事前学習済み言語モデルで、学習済みの単語表現を学習する際、学習済みの単語表現を逆変換する手法を提案。逆変換は、学習済み単語表現の表現が同じか逆変換するかを検証する。逆変換は、学習済み単語表現の表現が同じか逆変換するかを検証する。
- MSP: Multi-Stage Prompting for Making Pre-trained Language Models Better Translators
- Zhixing Tan, Xiangwen Zhang, Shuo Wang, Yang Liu
- TLDR: 事前学習済み言語モデルを翻訳に使用する手法の提案。事前学習済み言語モデルは、翻訳のタスクをEncoder/Re-Encoder/Decoderに分けて行う。Encoder/Re-Encoderは、翻訳のタスクをEncode/Re-Encoder/Decoderの3つに分割し、それぞれEncoder/Re-Encoderの3つのタスクに分けて行う。
- SalesBot: Transitioning from Chit-Chat to Task-Oriented Dialogues
- Ssu Chiu, Maolin Li, Yen-Ting Lin, Yun-Nung Chen
- TLDR: 対話システムの自動生成について、事前学習済みモデルを用いた研究。事前学習済みモデルは、対話システムのタスクを特定するタスクを生成するモデルで、タスクを特定するタスクを生成するモデルで生成を行う。タスクを特定するタスクは、タスクの生成に使用するモデルで行う。
- UCTopic: Unsupervised Contrastive Learning for Phrase Representations and Topic Mining
- Jiacheng Li, Jingbo Shang, Julian McAuley
- TLDR: 文書から、質問に対する回答を抽出する手法の提案。質問に対する回答は、質問に対する意味を予測する(単語の意味を予測する)、質問に対する意味を予測する(単語の意味を予測する)、質問に対する意味を予測する(単語の意味を予測する)、という3つのタスクで検証している。
- XLM-E: Cross-lingual Language Model Pre-training via ELECTRA
- Zewen Chi, Shaohan Huang, Li Dong, Shuming Ma, Bo Zheng, Saksham Singhal, Payal Bajaj, Xia Song, Xian-Ling Mao, Heyan Huang, Furu Wei
- TLDR: マルチ言語の事前学習を行う際に、事前学習済みモデルをELECTRA(#959)に置き換えたモデルを提案。事前学習済みモデルは、マルチ言語の事前学習時に、マルチ言語の事前学習済みモデルと同等の性能を発揮する。事前学習済みモデルは、マルチ言語の事前学習時に、マルチ言語の事前学習済みモデルと同等の性能を発揮する。
- Nested Named Entity Recognition as Latent Lexicalized Constituency Parsing
- Chao Lou, Songlin Yang, Kewei Tu
- TLDR: 固有表現認識において、固有表現の表現を扱うための手法の提案。固有表現の表現を、固有表現の表現を入力とする形で表現する。固有表現の表現は、固有表現の表現を入力とする。固有表現の表現は、固有表現の表現を入力とする。固有表現の表現を入力とする文書を生成する。
- Can Explanations Be Useful for Calibrating Black Box Models?
- Xi Ye, Greg Durrett
- TLDR: 学習済みモデルを解釈する手法の提案。解釈モデルの挙動を説明する。モデルの挙動は、解釈モデルの挙動と人間が予測した挙動を組み合わせたもの。解釈モデルは、解釈モデルの挙動を説明する。この説明は、解釈モデルの挙動を説明する。
- OIE@OIA: an Adaptable and Efficient Open Information Extraction Framework
- Xin Wang, Minlong Peng, Mingming Sun, Ping Li
- TLDR: オープンソースの手法を、既存の手法に柔軟に適用する研究。既存の手法は、Open Information Graphを生成する際、既存のモデルを変更する(既存のモデルは、既存のモデルを学習する)。この時、既存のモデルは学習するサンプル数が少ないため、学習するサンプル数を減らす。
- ReACC: A Retrieval-Augmented Code Completion Framework
- Shuai Lu, Nan Duan, Hojae Han, Daya Guo, Seung-won Hwang, Alexey Svyatkovskiy
- TLDR: コードの生成を行う際に、ソースコードからコードを生成する研究。ソースコードは、ソースコードの文脈から生成される単語を生成する。生成した単語は、生成した単語の予測結果から生成される単語に置き換えられる。生成した単語は、生成した単語の予測結果から生成される単語に置き換えられる。
- Does Recommend-Revise Produce Reliable Annotations? An Analysis on Missing Instances in DocRED
- Quzhe Huang, Shibo Hao, Yuan Ye, Shengqi Zhu, Yansong Feng, Dongyan Zhao
- TLDR: 文書分類における、事前学習済みモデルの挙動を改善した研究。事前学習済みモデルは、事前学習済みモデルの挙動を推定するモデルとして使用されているが、事前学習済みモデルは事前学習済みモデルの挙動を推定するモデルと同等の挙動を取っている。事前学習済みモデルは、事前学習済みモデルの挙動を推定するモデルと同等の挙動を取っている。
- UniPELT: A Unified Framework for Parameter-Efficient Language Model Tuning
- Yuning Mao, Lambert Mathias, Rui Hou, Amjad Almahairi, Hao Ma, Jiawei Han, Scott Yih, Madian Khabsa
- TLDR: 言語モデルのチューニングを行う際に、異なるタスクに対応できる手法を組み合わせる研究。タスクごとに異なるパラメーターを追加し、そのパラメーターを組み合わせる形で学習を行う。パラメーターの追加は、タスクの重みを調整する形で行う。パラメーターの調整は、タスクの重みを調整する形で行う。
- An Empirical Study of Memorization in NLP
- Xiaosen Zheng, Jing Jiang
- TLDR: 学習データの忘却は、学習データの分類に大きな問題がある。学習データの分類は、学習データの分類結果と学習データの分類結果を比較し、学習データの分類結果と学習データの分類結果を比較する形で行う。分類結果は、学習データの分類結果と分類結果の分類結果が一致しないケースが顕著だった。
- AmericasNLI: Evaluating Zero-shot Natural Language Understanding of Pretrained Multilingual Models in Truly Low-resource Languages
- Abteen Ebrahimi, Manuel Mager, Arturo Oncevay, Vishrav Chaudhary, Luis Chiruzzo, Angela Fan, John Ortega, Ricardo Ramos, Annette Rios, Ivan Vladimir Meza Ruiz, Gustavo Giménez-Lugo, Elisabeth Mager, Graham Neubig, Alexis Palmer, Rolando Coto-Solano, Thang Vu, Katharina Kann
- TLDR: 事前学習済みモデルで、翻訳/教師なしの転移を試みた研究。事前学習済みモデルは、翻訳/教師なしの転移で精度が低下する。教師なしの転移は、翻訳/教師なしの転移で精度が低下する。教師なしの転移は、翻訳/教師なしの転移で精度が低下する。
- Towards Learning (Dis)-Similarity of Source Code from Program Contrasts
- Yangruibo Ding, Luca Buratti, Saurabh Pujar, Alessandro Morari, Baishakhi Ray, Saikat Chakraborty
- TLDR: コードの類似度を調べる研究。コードの構造を学習するTransformerをベースに、コードの類似度を学習する。学習データは、コードの構造を学習するTransformerで収集し、学習データの生成に使用する。学習データは、学習済みモデルの学習データと同等の精度を達成。
- Guided Attention Multimodal Multitask Financial Forecasting with Inter-Company Relationships and Global and Local News
- Gary Ang, Ee-Peng Lim
- TLDR: 株式相場の予測を行う際に、グローバル情報とlocal情報の組み合わせを提案した研究。グローバル情報はニュースの更新頻度やニュースの更新頻度など様々な条件で変化するが、local情報は更新頻度が低いため更新頻度が高い。そのため、更新頻度が高い情報を優先的に学習するAttentionを導入している。
- On Vision Features in Multimodal Machine Translation
- Bei Li, Chuanhao Lv, Zefan Zhou, Tao Zhou, Tong Xiao, Anxiang Ma, JingBo Zhu
- TLDR: マルチモーダルで翻訳を行う際に、画像の表現力がどう影響するかを調べた研究。画像の表現力は、画像のサイズ(サイズ=>サイズのサイズ)、画像の表現力(表現力)のバランス(サイズ=>表現力)、画像の表現力(表現力)のバランス(表現力)の3つに分けている。
- CONTaiNER: Few-Shot Named Entity Recognition via Contrastive Learning
- Sarkar Snigdha Sarathi Das, Arzoo Katiyar, Rebecca Passonneau, Rui Zhang
- TLDR: 教師なし学習でFew-ShotのEntity認識を行う手法の提案。学習済み言語のtoken分布を、学習済み言語のtoken分布と比較し、学習済み言語のtoken分布を比較する。token分布は、学習済み言語のtoken分布と比較し、学習済み言語のtoken分布を比較する。
- Cree Corpus: A Collection of nêhiyawêwin Resources
- Daniela Teodorescu, Josie Matalski, Delaney Lothian, Denilson Barbosa, Carrie Demmans Epp
- TLDR: 言語モデルの開発に活用できる言語モデルの研究。単語の定義、単語の分類、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の分類結果、単語の
- Learning to Rank Visual Stories From Human Ranking Data
- Chi-Yang Hsu, Yun-Wei Chu, Vincent Chen, Kuan-Chieh Lo, Chacha Chen, Ting-Hao Huang, Lun-Wei Ku
- TLDR: 自然言語処理で、自然言語処理の評価指標を自動生成する研究。評価指標は、自然言語処理の評価指標と同等の評価指標を用いることで、自然言語処理の精度を向上させる。評価指標は、自然言語処理の評価指標と同等の評価指標を用いることで、自然言語処理の精度向上を達成。
- Universal Conditional Masked Language Pre-training for Neural Machine Translation
- Pengfei Li, Liangyou Li, Meng Zhang, Minghao Wu, Qun Liu
- TLDR: 事前学習済みモデルを、事前学習済み言語モデルに組み込んだ研究。事前学習済みモデルは、事前学習済み言語モデルの学習済み言語モデルと同等の精度を達成できるが、事前学習済み言語モデルは学習済み言語モデルと同等の精度を達成できない。事前学習済み言語モデルは、事前学習済み言語モデルと同等の精度を達成できるが、事前学習済み言語モデルは学習済み言語モデルと同等の精度を達成できない。
- CARETS: A Consistency And Robustness Evaluative Test Suite for VQA
- Carlos E. Jimenez, Olga Russakovsky, Karthik Narasimhan
- TLDR: マルチモーダルで学習するVQAモデルの耐性を検証する試み。モデルの学習は、質問文の表現を変えたり、単語の置き換えを行わずに行う。これにより、モデルの学習が容易になる。
- Phrase-aware Unsupervised Constituency Parsing
- Xiaotao Gu, Yikang Shen, Jiaming Shen, Jingbo Shang, Jiawei Han
- TLDR: 自然言語処理で、単語をMasked Language Modelingで学習する手法の提案。単語をMasked Language Modelingで学習する際、単語の重みをMasked Language Modelingの重みに置き換える手法を提案している。重みは、単語の重みをMasked Language Modelingの重みに置き換える形で学習する。
- Achieving Reliable Human Assessment of Open-Domain Dialogue Systems
- Tianbo Ji, Yvette Graham, Gareth Jones, Chenyang Lyu, Qun Liu
- TLDR: オープンドメインの対話システムに対する評価手法の提案。対話システムの評価は、評価結果が良好か否かを評価する指標として使われることが多いが、この指標は評価結果が良好か否かを評価する指標として使われることが多い。対話システムの評価は、評価結果が良好か否かを評価する指標として使われることが多いが、この指標は評価結果が良好か否かを評価する指標として使われることが多い。
- Updated Headline Generation: Creating Updated Summaries for Evolving News Stories
- Sheena Panthaplackel, Adrian Benton, Mark Dredze
- TLDR: ニュースソースの更新を自動生成する研究。記事の更新は、記事の更新と同等の文書更新の2つに分類される。記事更新は、記事の更新と同等の文書更新の2つに分類される。文書更新は、文書更新の文書更新と同等の文書更新の2つに分類される。文書更新は、文書更新の文書更新と同等の文書更新の2つに分類される。
- SaFeRDialogues: Taking Feedback Gracefully after Conversational Safety Failures
- Megan Ung, Jing Xu, Y-Lan Boureau
- TLDR: 対話システムの不適合を評価するタスクの提案。不適合は、対話システムの不適合と同等の結果が出ることを確認。不適合は、不適合の評価を誤認識する(誤認識は、評価の精度に影響する)。不適合は、評価の精度に影響する。
- Compositional Generalization in Dependency Parsing
- Emily Goodwin, Siva Reddy, Timothy O’Donnell, Dzmitry Bahdanau
- TLDR: 自然言語処理で、学習済みモデルの挙動を検証した研究。学習済みモデルの挙動は、学習済みモデルの挙動と同等かそれ以上のかを検証した。挙動は、学習済みモデルの挙動と同等かそれ以上のかを検証した。挙動は、学習済みモデルの挙動と同等かそれ以上のかを検証した。挙動は、学習済みモデルの挙動と同等かそれ以上のかを検証した。
- ASPECTNEWS: Aspect-Oriented Summarization of News Documents
- Ojas Ahuja, Jiacheng Xu, Akshay Gupta, Kevin Horecka, Greg Durrett
- TLDR: ニュースの要約を、ニュースドメインごとの要約に分けて作成した研究。要約は要約の分類をベースに、ニュースドメインごとの要約は要約の分類をベースにしている。要約は要約の分類をベースに、要約は要約の分類をベースにしている。要約は要約の分類をベースにしている。
- MemSum: Extractive Summarization of Long Documents Using Multi-Step Episodic Markov Decision Processes
- Nianlong Gu, Elliott Ash, Richard Hahnloser
- TLDR: 文書から抽出する文書要約のモデルの提案。文書要約は文書全体ではなく文書全体を含んでいる。文書要約は文書全体を含んでいるが、文書全体を含まない文書要約は文書全体を含んでいる。文書要約は文書全体を含んでいるが、文書全体を含まない文書要約は文書全体を含んでいる。文書要約は文書全体を含んでいる文書要約と同等の精度を達成。
- CLUES: A Benchmark for Learning Classifiers using Natural Language Explanations
- Rakesh R. Menon, Sayan Ghosh, Shashank Srivastava
- TLDR: 自然言語による分類器の学習を、事前学習済みモデルで行う研究。事前学習済みモデルは、事前学習済みモデルの学習結果を基にモデルを構築するが、事前学習済みモデルは学習データの分散を考慮していない。事前学習済みモデルは、事前学習済みモデルの学習結果を基にモデルを構築するが、事前学習済みモデルは学習データの分散を考慮していない。
- Substructure Distribution Projection for Zero-Shot Cross-Lingual Dependency Parsing
- Freda Shi, Kevin Gimpel, Karen Livescu
- TLDR: 分散表現の分布を、言語分布と同等の分布に変換する研究。分散表現の分布は、言語分布と同等の分布を予測する。言語分布は、言語分布の分布をベースに、言語分布の分布をベースに分布を予測する。分布は、言語分布の分布をベースに、分布の分布をベースに分布を予測する。
- Multilingual Detection of Personal Employment Status on Twitter
- Manuel Tonneau, Dhaval Adjodah, Joao Palotti, Nir Grinberg, Samuel Fraiberger
- TLDR: 職業安定に関する情報を収集するActive Learningの手法を検証した研究。BERTベースのモデルを用いた研究で、BERTはBERTの枠組みで、BERTはBERTの枠組みで、BERTはBERTの枠組みで学習を行う。BERTはBERTの枠組みで学習を行うが、BERTはBERTの枠組みで学習を行う。
- MultiHiertt: Numerical Reasoning over Multi Hierarchical Tabular and Textual Data
- Yilun Zhao, Yunxiang Li, Chenying Li, Rui Zhang
- TLDR: 多様性のある文書から、マルチタスクの文書を抽出する手法の提案。文書から文書を抽出する際、文書の文書構造を入力とする。文書は文書構造を入力とするが、文書は文書構造を入力とする。文書は文書構造を入力とするが、文書は文書構造を入力とする。文書は文書構造を入力とする。
- Transformers in the loop: Polarity in neural models of language
- Lisa Bylinina, Alexey Tikhonov
- TLDR: 言語モデルの予測結果と、心理学の予測結果との相関を検証した研究。言語モデルの予測結果は、心理学の予測結果と同等の精度を維持できるが、心理学の予測結果と同等の精度を維持できるか検証した研究。結果として、言語モデルの予測結果と同等の精度を維持できるとしている。
- Bridging the Data Gap between Training and Inference for Unsupervised Neural Machine Translation
- Zhiwei He, Xing Wang, Rui Wang, Shuming Shi, Zhaopeng Tu
- TLDR: 翻訳モデルの学習は、翻訳モデルの潜在表現を学習する際、潜在表現の表現を学習するモデルの学習に使用する。潜在表現は、翻訳モデルの学習時に生成される。潜在表現は、翻訳モデルの学習時に生成される。潜在表現は、翻訳モデルの学習時に生成される。
- SDR: Efficient Neural Re-ranking using Succinct Document Representation
- Nachshon Cohen, Amit Portnoy, Besnik Fetahu, Amir Ingber
- TLDR: 文書分類タスクで、文書分類結果を事前学習する手法の提案。文書分類結果を事前学習するモデルを、文書分類結果の予測精度を上げるためのモデルとして使用している。文書分類結果の予測精度は、事前学習済みモデルの予測精度と同程度になる。
- The AI Doctor Is In: A Survey of Task-Oriented Dialogue Systems for Healthcare Applications
- Mina Valizadeh, Natalie Parde
- TLDR: 医療従事者間で行われる対話システムのサーベイ。医療従事者と対話システムのサーベイは、医療従事者と対話システムのサーベイのサーベイが中心で、サーベイのサーベイは医療従事者と対話システムのサーベイのサーベイ。サーベイは、医療従事者と対話システムのサーベイをまとめたサーベイ。
- SHIELD: Defending Textual Neural Networks against Multiple Black-Box Adversarial Attacks with Stochastic Multi-Expert Patcher
- Thai Le, Noseong Park, Dongwon Lee
- TLDR: テキストモデルに対するAdversarial Attackを防ぎつつ、モデルの更新を行わずに、モデルの更新を行う手法の提案。更新はモデルの更新済み層のみで行い、更新はモデルの更新済み層のみで行い、更新はモデルの更新済み層のみで行い、更新はモデルの更新済み層のみで行い、更新はモデルの更新済み層のみで行い、更新はモデルの更新済み層のみで行い、更新はモデルの更新済み層のみで行い、更新はモデルの更新済み層のみで行い、更新はモデルの更新済み層のみで行い、更新はモデルの更新済み層のみで行い
- Accurate Online Posterior Alignments for Principled Lexically-Constrained Decoding
- Soumya Chatterjee, Sunita Sarawagi, Preethi Jyothi
- TLDR: 翻訳において、事前学習済み言語モデルの予測精度を上げる研究。事前学習済み言語モデルは、翻訳文の予測精度が低い場合に予測精度を上げるための事前学習済み言語モデルの予測精度を上げるための事前学習済み言語モデルの予測精度を上げるための事前学習済み言語モデルの予測精度を上げるための事前学習済み言語モデルの予測精度を上げるための事前学習済み言語モデルの予測精度を上げるための事前学習済み言語モデルの予測精度を上げるための事前学習済み言語モデルの予測精度を上げるための事前学習済み言語モデルの予測精度を上げるための事前学習済み言語モデルの予測精度を上げるための事前
- Leveraging Task Transferability to Meta-learning for Clinical Section Classification with Limited Data
- Zhuohao Chen, Jangwon Kim, Ram Bhakta, Mustafa Sir
- TLDR: 医療文書分類において、転移学習の精度を上げるためには、転移先の文書を転移学習のタスクに適したものに絞る研究。転移先の文書は、転移学習のタスクに適したものに絞る。転移先の文書は、転移先の文書と同等の精度を獲得できるか検証している。
- Reinforcement Guided Multi-Task Learning Framework for Low-Resource Stereotype Detection
- Rajkumar Pujari, Erik Oveson, Priyanka Kulkarni, Elnaz Nouri
- TLDR: 事前学習済み言語モデルの学習で、バイアスを検知する手法の提案。事前学習済み言語モデルの学習データから、バイアスを検知するタスクを学習する。学習データは、バイアス検知のタスクで使用されている。バイアス検知は、学習データの数が多いタスクで有効性を確認。
- Letters From the Past: Modeling Historical Sound Change Through Diachronic Character Embeddings
- Sidsel Boldsen, Patrizia Paggio
- TLDR: 自然言語処理における、単語の変化を予測する研究。単語の変化は、単語の位置関係(位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置=>位置
- A Token-level Reference-free Hallucination Detection Benchmark for Free-form Text Generation
- Tianyu Liu, Yizhe Zhang, Chris Brockett, Yi Mao, Zhifang Sui, Weizhu Chen, Bill Dolan
- TLDR: 自然言語処理で、既存のモデルが誤った文を生成する現象を防ぎつつ、学習データセットを更新する研究。既存のモデルは、文単位の誤りを検知するタスクが基本だが、このタスクは文単位の誤りを検知するタスクでなく、文単位の誤りを検知するタスクを提案している。
- Low-Rank Softmax Can Have Unargmaxable Classes in Theory but Rarely in Practice
- Andreas Grivas, Nikolay Bogoychev, Adam Lopez
- TLDR: 自然言語処理で、単語の予測が困難なケースを検証した研究。単語の予測は、通常のアルゴリズム(softmax)と同等の手法が用いられるが、この手法ではアルゴリズムの重みが大きい場合予測が困難になる。そのため、アルゴリズムの重みを入力に入力する際は、入力の重みを入力に入力する(Agentmax)、入力の重みを入力に入力する際は、入力の重みを入力に入力する(Agentmax)、入力の重みを入力に入力する際は、入力の重みを入力に入力する(Agentmax)、入力の重み
- Prompt for Extraction? PAIE: Prompting Argument Interaction for Event Argument Extraction
- Yubo Ma, Zehao Wang, Yixin Cao, Mukai Li, Meiqi Chen, Kun Wang, Jing Shao
- TLDR: 事前学習済み言語モデル(PLM)を、事前学習済みモデルの挙動に合わせる手法の提案。事前学習済みモデルは、事前学習済み言語モデルの挙動を予測するスパンを入力とし、スパンを入力としスパンの予測を行う。スパンは、事前学習済みモデルの挙動を予測するスパンを入力とし、スパンの予測はスパンの挙動を予測するスパンを入力とし、スパンの予測はスパンの挙動を予測するスパンを入力とする。
- Reducing Position Bias in Simultaneous Machine Translation with Length-Aware Framework
- Shaolei Zhang, Yang Feng
- TLDR: 翻訳において、翻訳文の位置を予測する研究。翻訳文の位置は、翻訳文の出力から予測する。出力の位置は、翻訳文の出力から予測する。出力の位置は、翻訳文の出力から予測する。出力の位置は、翻訳文の出力から予測する。出力の位置は、翻訳文の出力から予測する。
- A Statutory Article Retrieval Dataset in French
- Antoine Louis, Gerasimos Spanakis
- TLDR: 法務局の文書を自動検索する研究。法務局の文書は法律文書の分類に使われることが多いが、文書分類は法律文書の分類に使われることが多い。文書分類は文書分類の分類器で行うが、文書分類器は文書分類器の分類を学習する。文書分類器は文書分類器の分類精度を上げるためのモデルとして使用されている。
- ParaDetox: Detoxification with Parallel Data
- Varvara Logacheva, Daryna Dementieva, Sergey Ustyantsev, Daniil Moskovskiy, David Dale, Irina Krotova, Nikita Semenov, Alexander Panchenko
- TLDR: 英語のtoxic sentenceを解くためのデータセットの提案。Encoder/Decoderの2つをベースに、Encoder/Decoderの学習済みモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルをEncodeしたモデルを
- Interpreting Character Embeddings With Perceptual Representations: The Case of Shape, Sound, and Color
- Sidsel Boldsen, Manex Agirrezabal, Nora Hollenstein
- TLDR: 自然言語処理で、文字列と音声の相関を調べた研究。音声と文字列は、音声の表現と同等に認識されるかを調べた研究。音声は、文字列と文字列の表現と同等に認識されるかを調べた研究。音声は、音声と文字列の表現と同等に認識されるかを調べた研究。音声は、音声と文字列の表現と同等に認識されるかを調べた研究。
- Fine-Grained Controllable Text Generation Using Non-Residual Prompting
- Fredrik Carlsson, Joey Öhman, Fangyu Liu, Severine Verlinden, Joakim Nivre, Magnus Sahlgren
- TLDR: 事前学習済み言語モデルを、Transformerベースのモデルに統合する研究。入力はEncoderDecoderで、入力はEncoderDecoderのEncoder/DecoderのEncoderDecoderで入力する。入力はEncoderDecoderのEncoderDecoderで入力し、入力はDecoderのEncoderDecoderで入力する。入力はDecoderのEncoderDecoderで入力する。
- Language-Agnostic Meta-Learning for Low-Resource Text-to-Speech with Articulatory Features
- Florian Lux, Thang Vu
- TLDR: テキスト生成において、単語分散表現を用いた研究。単語分散表現は、単語の意味を表現するベクトルをベースにしている。ベクトルは、単語の意味を表現するベクトルをベースにしている。単語分散表現は、単語の意味を表現するベクトルをベースにしている。
- TwittIrish: A Universal Dependencies Treebank of Tweets in Modern Irish
- Lauren Cassidy, Teresa Lynn, James Barry, Jennifer Foster
- TLDR: 自然言語処理で、自然言語処理で使われるアルゴリズムの分類について、学習データの分布をベースに学習を行う研究。学習データは、自然言語処理で使われるアルゴリズムの分布をベースに、分布の分布をベースに学習を行う。
- Length Control in Abstractive Summarization by Pretraining Information Selection
- Yizhu Liu, Qi Jia, Kenny Zhu
- TLDR: 文書の長さを予測するモデルの提案。文書の長さを予測するモデルは、文書の長さを予測するモデルと同等のモデルを構築するが、文書の長さを予測するモデルは、文書の長さを予測するモデルと同等のモデルを構築する。文書長を予測するモデルは、文書長を予測するモデルと同等のモデルを構築する。
- CQG: A Simple and Effective Controlled Generation Framework for Multi-hop Question Generation
- Zichu Fei, Qi Zhang, Tao Gui, Di Liang, Sirui Wang, Wei Wu, Xuanjing Huang
- TLDR: マルチホップの質問生成を行う際に、複雑な質問を生成する研究。複雑な質問は複数回の質問生成が必要で、単一の質問生成では難しい。そのため、複数回の質問生成を個別に行うTransformerベースのモデルを提案。単一の質問生成では、単一の質問生成が困難なため、複数回の質問生成を個別に行う。
- Word Order Does Matter and Shuffled Language Models Know It
- Mostafa Abdou, Vinit Ravishankar, Artur Kulmizev, Anders Søgaard
- TLDR: 言語モデルで、単語分散表現を学習する際、単語分散表現を学習する際の注意点をまとめた研究。単語分散表現は単語分散表現の学習に適さないとしているが、単語分散表現は学習時に学習するべきではないとしている。単語分散表現は学習時に学習するべきではないとしている
- An Empirical Study on Explanations in Out-of-Domain Settings
- George Chrysostomou, Nikolaos Aletras
- TLDR: 自然言語処理で、事前学習済みモデルから正しい説明を生成する手法の提案。事前学習済みモデルは、事前学習済みモデルの予測精度を上回る結果を出し得るが、事前学習済みモデルは予測精度が低い。事前学習済みモデルは、事前学習済みモデルの予測精度を上回る結果を出し得る。
- MILIE: Modular & Iterative Multilingual Open Information Extraction
- Bhushan Kotnis, Kiril Gashteovski, Daniel Rubio, Ammar Shaker, Vanesa Rodriguez-Tembras, Makoto Takamoto, Mathias Niepert, Carolin Lawrence
- TLDR: 自然言語処理で、マルチバイトの情報を抽出する研究。マルチバイトは通常のSOTA(英語/中国語)と同等の扱いが難しいため、通常のSOTAを上回る精度を達成。マルチバイトの情報を抽出する際は、通常のSOTAを上回る精度を達成するため、マルチバイトの情報を抽出する際は、通常のSOTAを上回る精度を達成するため、マルチバイトの情報を抽出するモデルを導入している。
- What Makes Reading Comprehension Questions Difficult?
- Saku Sugawara, Nikita Nangia, Alex Warstadt, Samuel Bowman
- TLDR: 自然言語理解のベンチマークを作成する際に、文書の質と難易度を考慮する研究。文書の質は、文書の長さ、文書の質と難易度(文書の長さ)、文書の質(文書の構造)、文書の構造(文書の構造)、文書の構造(文書の構造)、文書の構造(文書構造)、文書構造(文書構造)の3つに分けている。文書の難易度は、文書の質(文書の構造)、文書の構造(文書構造)、文書構造(文書構造)の3つに大きく依存する。
- From Simultaneous to Streaming Machine Translation by Leveraging Streaming History
- Javier Iranzo Sanchez, Jorge Civera, Alfons Juan-Císcar
- TLDR: マルチタスクの翻訳において、翻訳の品質と対応時間の差を計測する手法の提案。翻訳文の文長が長い場合、翻訳の精度が低いと判断される。そのため、文長を長くなるほど対応時間が長くなることを確認。また、翻訳文の長が長くなるほど対応時間が長くなることを確認。
- A Rationale-Centric Framework for Human-in-the-loop Machine Learning
- Jinghui Lu, Linyi Yang, Brian Namee, Yue Zhang
- TLDR: シンプルな手法で、事前学習済みモデルの学習を強化する研究。事前学習済みモデルは、事前学習済みモデルの予測結果を基に予測を行うが、予測結果を基に予測結果を推定する際は、予測結果を基に予測結果を推定する。事前学習済みモデルは、事前学習済みモデルの予測結果を基に予測を行う。
- Challenges and Strategies in Cross-Cultural NLP
- Daniel Hershcovich, Stella Frank, Heather Lent, Miryam de Lhoneux, Mostafa Abdou, Stephanie Brandl, Emanuele Bugliarello, Laura Cabello Piqueras, Ilias Chalkidis, Ruixiang Cui, Constanza Fierro, Katerina Margatina, Phillip Rust, Anders Søgaard
- TLDR: 多言語の自然言語処理を、多言語の言語モデルで行うための研究。多言語のモデルは、言語の異なる人種の潜在表現を扱うためのモデルとして使われることが多いが、このモデルは言語の異なる人種の潜在表現を扱うためのモデルとして使われている。
- Prototypical Verbalizer for Prompt-based Few-shot Tuning
- Ganqu Cui, Shengding Hu, Ning Ding, Longtao Huang, Zhiyuan Liu
- TLDR: 事前学習済み言語モデルで、事前学習済みの単語を入力に入力するPromptベースの学習方法を提案。入力テキストを入力に入力し、入力テキストを入力に入力するPromptベースの学習を行なっており、入力テキストを入力に入力するPromptベースの学習を行なっている。
- Clickbait Spoiling via Question Answering and Passage Retrieval
- Matthias Hagen, Maik Fröbe, Artur Jurk, Martin Potthast
- TLDR: クリックポップツリーのスコアを自動生成する研究。スコアは、クリックポップツリーのタイトル/記事/画像/画像/文書/文書/文書/文書/文書の3つからなる。スコアは、タイトル/記事/文書/文書/文書/文書/文書の3つからなる。スコアは、タイトル/記事/文書/文書/文書/文書/文書の3つからなる。
- BERT Learns to Teach: Knowledge Distillation with Meta Learning
- Wangchunshu Zhou, Canwen Xu, Julian McAuley
- TLDR: 教師モデルを蒸留することで、学習済みモデルの学習効率を上げる研究。蒸留は学習済みモデルの学習効率を上げるため、学習済みモデルの学習効率を上げるための工夫を行なっている。蒸留は学習済みモデルの学習効率を上げるため、学習済みモデルの学習効率を上げるための工夫を行なっている。
- STEMM: Self-learning with Speech-text Manifold Mixup for Speech Translation
- Qingkai Fang, Rong Ye, Lei Li, Yang Feng, Mingxuan Wang
- TLDR: 音声翻訳において、マルチモーダルで翻訳を行う際に、言語モデルの表現をマルチモーダルに変える研究。音声の表現をマルチモーダルに変える(音声の表現をマルチモーダルに変える)ことで、マルチモーダルで翻訳を行う際に精度を落とさず、精度を維持したまま翻訳を行う。
- Integrating Vectorized Lexical Constraints for Neural Machine Translation
- Shuo Wang, Zhixing Tan, Yang Liu
- TLDR: 機械翻訳において、自然言語処理のモデルを学習する際、潜在表現の表現を入力とし、入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力とし入力と入力の表現を入力
- MPII: Multi-Level Mutual Promotion for Inference and Interpretation
- Yan Liu, Sanyuan Chen, Yazheng Yang, Qi Dai
- TLDR: 文レベルの推論と文レベルの理解を統合する研究。文レベルの推論は、文の文長が短い場合(=文長が長い場合)、文長が長い場合(=文長が長い場合)、文長が長い場合(=文長が長い場合)、文長が長い場合(=文長が長い場合)、文長が長い場合(=文長が長い場合)、文長が長い場合(=文長が長い場合)、文長が長い場合(=文長が長い場合)、文長が長い場合(=文長が長い場合)、文長が長い場合(=文長
- StableMoE: Stable Routing Strategy for Mixture of Experts
- Damai Dai, Li Dong, Shuming Ma, Bo Zheng, Zhifang Sui, Baobao Chang, Furu Wei
- TLDR: マルチエージェントの学習を、強化学習で行う研究。学習済みモデルを蒸留し、蒸留したモデルを蒸留したネットワークをネットワークの重みを加味したモデルに置き換える。蒸留したネットワークをネットワークの重みを加味したネットワークに置き換える。蒸留したネットワークをネットワークの重みを加味したネットワークに置き換える。
- Boundary Smoothing for Named Entity Recognition
- Enwei Zhu, Jinpeng Li
- TLDR: ニューラルネットワークの固有表現認識において、ラベルのスケールをスパン単位で調整する手法の提案。スパン単位のスケールをスパン単位で調整する(スパン単位のスケールは、スパン単位のスケールをスケールする)。スケールはスパン単位で調整するが、スケールはスパン単位で調整する。スケールはスパン単位で調整する。
- Incorporating Hierarchy into Text Encoder: a Contrastive Learning Approach for Hierarchical Text Classification
- Zihan Wang, Peiyi Wang, Lianzhe Huang, Xin Sun, Houfeng Wang
- TLDR: マルチラベルのテキスト分類を行う際に、ラベルの位置を教師なしで学習する手法の提案。ラベルの位置は、ラベルの分類結果を教師なしで学習する。ラベルの位置は、ラベルの位置を教師なしで学習する。ラベルの位置は、ラベルの位置を教師なしで学習する。
- Signal in Noise: Exploring Meaning Encoded in Random Character Sequences with Character-Aware Language Models
- Mark Chu, Bhargav Srinivasa Desikan, Ethan Nadler, Donald Ruggiero Lo Sardo, Elise Darragh-Ford, Douglas Guilbeault
- TLDR: 自然言語処理モデルで、自然言語処理の表現を学習する際、自然言語の表現と単語の表現を組み合わせて学習する研究。単語の分布分布を予測するモデルをベースに、単語分布と単語表現の分布を組み合わせた分布を学習する。単語分布は単語の意味と、単語表現の意味とを組み合わせた分布を生成する。
- Hyperlink-induced Pre-training for Passage Retrieval in Open-domain Question Answering
- Jiawei Zhou, Xiaoguang Li, Lifeng Shang, Lan Luo, Ke Zhan, Enrui Hu, Xinyu Zhang, Hao Jiang, Zhao Cao, Fan Yu, Xin Jiang, Qun Liu, Lei Chen
- TLDR: 事前学習済みモデルの学習を、事前学習済みモデルの学習に応用した研究。事前学習済みモデルは、文書の文書構造を学習する。文書構造は、文書の文書構造と同等の文書構造を学習する。文書構造は、文書の文書構造と同等に学習する。文書構造は、文書構造の文書構造を学習する。
- AdaLoGN: Adaptive Logic Graph Network for Reasoning-Based Machine Reading Comprehension
- Xiao Li, Gong Cheng, Ziheng Chen, Yawei Sun, Yuzhong Qu
- TLDR: 文中の単語を、グラフで表現する研究。単語の意味をグラフ表現に変換し、グラフ表現の表現をグラフ表現に変換する。グラフ表現は、単語の意味を表現する単語をベースに、単語の意味を表現する単語をベースに表現する。単語の意味を表現する単語をベースに、単語の意味を表現する単語をベースに表現する単語をベースに、単語の意味を表現する単語をベースに表現する単語をベースに表現する単語をベースに表現する単語をベースに表現する単語をベースに表現する単語をベースに表現する単語をベースに表現する単語をベースに表現する
- CAMERO: Consistency Regularized Ensemble of Perturbed Language Models with Weight Sharing
- Chen Liang, Pengcheng He, Yelong Shen, Weizhu Chen, Tuo Zhao
- TLDR: モデルの重みを共有することで、モデルの汎化性能を上げるためには、モデルの重みを共有する手法を提案。重みは各モデルの重みと同等になるよう、重みの分布を調整する。重みの分布は、モデルの重み分布と同等になるよう調整する。
- Interpretability for Language Learners Using Example-Based Grammatical Error Correction
- Masahiro Kaneko, Sho Takase, Ayana Niwa, Naoaki Okazaki
- TLDR: 言語モデルで、誤り訂正を行う際に、学習済みモデルのサンプルをベースに学習する研究。学習済みモデルのサンプルは、学習済みモデルの学習済みモデルの学習済みモデルのサンプルと同等の精度を達成できるか検証している。学習済みモデルのサンプルは、学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済み
- Rethinking Negative Sampling for Handling Missing Entity Annotations
- Yangming Li, Lemao Liu, Shuming Shi
- TLDR: 自然言語処理で、ノイズを加えた単語の認識で、ノイズを加えた単語の認識で、ノイズを加えた単語認識で、ノイズを加えた単語認識でノイズを加えた単語認識で、ノイズを加えた単語認識でノイズを加えた単語認識でノイズを加えた単語認識でノイズを加えた単語認識でノイズを加えた単語認識でノイズを加えた単語認識でノイズを加えた単語認識でノイズを加えた単語認識でノイズを加えた単語認識でノイズを加えた単語認識でノイズを加えた単語認識でノイズを加えた単語認識で
- Distantly Supervised Named Entity Recognition via Confidence-Based Multi-Class Positive and Unlabeled Learning
- Kang Zhou, Yuepei Li, Qi Li
- TLDR: 自然言語処理で、固有表現認識問題を解く研究。固有表現認識は、固有表現の認識が困難な場合に、固有表現認識の学習を行わずに学習する。固有表現認識は、固有表現認識の学習と同等の学習を行う。固有表現認識は、固有表現認識の学習と同等の学習を行う。固有表現認識は、固有表現認識の学習と同等の学習を行う。
- UniXcoder: Unified Cross-Modal Pre-training for Code Representation
- Daya Guo, Shuai Lu, Nan Duan, Yanlin Wang, Ming Zhou, Jian Yin
- TLDR: 事前学習済みモデルを、マルチモーダルで学習する研究。マルチモーダルで学習する際、AttentionをMaskする(MaskしたAttentionは、クラスタリング時に使用する)。マルチモーダルで学習する際、AttentionをMaskする=>クラスタリングする、という流れを取っている。
- One Country, 700+ Languages: NLP Challenges for Underrepresented Languages and Dialects in Indonesia
- Alham Fikri Aji, Genta Indra Winata, Fajri Koto, Samuel Cahyawijaya, Ade Romadhony, Rahmad Mahendra, Kemal Kurniawan, David Moeljadi, Radityo Eko Prasojo, Timothy Baldwin, Jey Han Lau, Sebastian Ruder
- TLDR: 自然言語処理の研究について、近年の課題と対策についてまとめられたサーベイ。自然言語処理の研究は、言語の分布が異なる言語(Indonesia)に限られるが、言語の分布を考慮する必要がある。また、言語分布を考慮するモデルの提案も必要。
- Is GPT-3 Text Indistinguishable from Human Text? Scarecrow: A Framework for Scrutinizing Machine Text
- Yao Dou, Maxwell Forbes, Rik Koncel-Kedziorski, Noah A. Smith, Yejin Choi
- TLDR: 機械学習モデルで生成された文書を評価する研究。翻訳文の誤りや、機械翻訳の誤りなど、機械翻訳の精度に大きな影響を与える10のエラー類型を抽出する。翻訳文の誤りは、翻訳文の生成時に入力されるパラメーター数(=翻訳文の精度)と、翻訳文の生成時に入力されるパラメーター数(=翻訳文の精度)の2つに分けている。
- Transkimmer: Transformer Learns to Layer-wise Skim
- Yue Guan, Zhengyi Li, Jingwen Leng, Zhouhan Lin, Minyi Guo
- TLDR: 自然言語処理におけるTransformerのパフォーマンスを改善する研究。事前学習済みモデルの挙動を予測する際、事前学習済みモデルの挙動を予測するパラメーターを追加する。パラメーターは事前学習済みモデルの挙動を予測する。事前学習済みモデルの挙動を予測するパラメーターを追加することで、パフォーマンスを向上させる。
- SkipBERT: Efficient Inference with Shallow Layer Skipping
- Jue Wang, Ke Chen, Gang Chen, Lidan Shou, Julian McAuley
- TLDR: 文書の解釈性を高める研究。文書の解釈性を上げるために、文書全体を解釈性の低い層に分割し、その層を解釈性の高い層に分割する。文書全体を解釈性の高い層に分割する(=文書全体を解釈性の高い層に分割する)ことで、文書全体の解釈性を高める。
- Pretraining with Artificial Language: Studying Transferable Knowledge in Language Models
- Ryokan Ri, Yoshimasa Tsuruoka
- TLDR: 自然言語処理で、構造的な知識を学習する際の転移方法を調査した研究。構造的な知識は、学習済みモデルの学習済みモデルに入力し、モデルの学習済みモデルに入力する形で学習する。学習済みモデルは、学習済みモデルの学習済みモデルに入力する形で学習する。
- mLUKE: The Power of Entity Representations in Multilingual Pretrained Language Models
- Ryokan Ri, Ikuya Yamada, Yoshimasa Tsuruoka
- TLDR: マルチ言語の事前学習済みモデルで、Entityを入力に使用する研究。Entityは単語ベースのモデルと同等の精度を維持できるが、単語ベースのモデルはEntityを入力に使用する方が精度が上がる。また、Entityを入力に使用することで、Entityを入力に使用する精度を上げることが出来る。
- Evaluating Factuality in Text Simplification
- Ashwin Devaraj, William Sheffield, Byron Wallace, Junyi Jessy Li
- TLDR: 自動的で、文書のパラメーターを変更するモデルの検証結果。パラメーターの変更は、文書の構造が複雑な場合に起こりうる誤謬(誤認識)を含まない可能性があることを確認。また、文書の誤認識は、文書の文書構造を誤認識させる可能性があることを確認。
- Requirements and Motivations of Low-Resource Speech Synthesis for Language Revitalization
- Aidan Pine, Dan Wells, Nathan Brinklow, Patrick Littell, Korin Richmond
- TLDR: 自然言語処理のモデルを学習する際、学習データが少ない場合にどれだけ学習するかを検証した研究。学習データが少ない場合、学習時間が短くなる一方、学習時間が長くなるほど学習精度が上がる。学習データが少ない場合、学習時間が長くなる一方、学習時間が長くなるほど学習精度が上がる。
- Sharpness-Aware Minimization Improves Language Model Generalization
- Dara Bahri, Hossein Mobahi, Yi Tay
- TLDR: 言語モデルの強化学習で、学習データが少ない場合に精度を上げるために、学習データの分散を緩和する手法を提案。学習データの分散は、学習データの分散と同等の効果をもたらすが、学習データの分散は学習データの分散と同等の効果をもたらす。
- Adversarial Authorship Attribution for Deobfuscation
- Wanyue Zhai, Jonathan Rusert, Zubair Shafiq, Padmini Srinivasan
- TLDR: 自然言語処理における、プライバシー保護を無視した文書に対する敵対的評価を抑制する研究。敵対的評価は、文書の文書特徴を誤認識する可能性がある。文書特徴を誤認識する文書は、文書特徴を誤認識する文書と同等の効果をもたらす。敵対的評価は、文書特徴を誤認識する文書に対する敵対的評価と同等の効果をもたらす。
- Weakly Supervised Word Segmentation for Computational Language Documentation
- Shu Okabe, Laurent Besacier, François Yvon
- TLDR: 言語モデルのセグメンテーションを、教師なしで行う手法の提案。教師なしでセグメンテーションを行う場合、教師なしのセグメンテーションは学習率が低い言語モデルに適さないとしている。教師なしのセグメンテーションは、学習率が高い言語モデルに適さないとしている。
- SciNLI: A Corpus for Natural Language Inference on Scientific Text
- Mobashir Sadat, Cornelia Caragea
- TLDR: 自然言語処理の論文から、自然言語処理のモデルの評価を検証した研究。論文の文脈から、自然言語処理のモデルの評価を検証した。論文の文脈は、自然言語処理のモデルの評価に適しているとしている。
- Neural reality of argument structure constructions
- Bai Li, Zining Zhu, Guillaume Thomas, Frank Rudzicz, Yang Xu
- TLDR: 文構造の構造化について、Transformerベースのモデルで検証した研究。文構造の構造化は、文の意味を予測する重要な要素として捉えられるが、文構造の構造化は、文の意味を予測する重要な要素として捉えられるか検証した。文構造の構造化は、文の意味を予測する重要な要素として捉えられるか検証した。
- On the Robustness of Offensive Language Classifiers
- Jonathan Rusert, Zubair Shafiq, Padmini Srinivasan
- TLDR: 機械学習ベースのAdversarial Attackに対する耐性を検証した研究。Adversarial Attackは、単語の誤差や単語の重複を狙う。誤差は単語の意味を誤差とし、誤差は単語の意味を誤差とし、単語の重複は単語の意味を誤差とし、単語の意味を誤差とし、単語の意味を誤差とし、単語の意味を誤差とし、単語の意味を誤差とし、単語の意味を誤差とし、単語の意味を誤差とし、単語の意味を誤差とし、単語の意味を誤差とし、単語の意味を
- Few-shot Controllable Style Transfer for Low-Resource Multilingual Settings
- Kalpesh Krishna, Deepak Nathani, Xavier Garcia, Bidisha Samanta, Partha Talukdar
- TLDR: 文のスタイル変換を行う際に、文のスタイルを変更する手法の提案。文のスタイル変換は、文のスタイルを変更する文書を生成する(文のスタイルは、文のスタイル変換の結果から生成される)が、文のスタイル変換は文のスタイル変換の結果から生成される文書を生成する(文のスタイル変換は、文のスタイル変換の結果から生成される文書を生成する)。
- ABC: Attention with Bounded-memory Control
- Hao Peng, Jungo Kasai, Nikolaos Pappas, Dani Yogatama, Zhaofeng Wu, Lingpeng Kong, Roy Schwartz, Noah A. Smith
- TLDR: 自然言語処理におけるAttentionの機構を、単純なAttentionではなく、複雑なAttentionに置き換えた研究。単純なAttentionは単純なAttentionの枠組みで行われることが多いが、複雑なAttentionは複雑な構造を持つ。複雑なAttentionは単純なAttentionの枠組みで行われることが多いが、複雑なAttentionは複雑な構造を持つ。複雑なAttentionは複雑な構造を持つため、複雑な構造を維持するよう学習する
- The Dangers of Underclaiming: Reasons for Caution When Reporting How NLP Systems Fail
- Samuel Bowman
- TLDR: 自然言語処理の研究で、論文の結果を過剰に評価する手法を提案する研究。論文の結果を過剰に評価する手法は、論文の論文の評価に大きな影響を与える。そのため、論文の評価に過剰な評価を行わせる手法を提案する。
- RELiC: Retrieving Evidence for Literary Claims
- Katherine Thai, Yapei Chang, Kalpesh Krishna, Mohit Iyyer
- TLDR: 文関係の文書から、文関係の文書を抽出する研究。文関係の文書は、文関係の文書から抽出する文書を生成する。文書は、文関係の文書から抽出する文書を生成する。文書は、文書の文書分類器で抽出する文書を生成する。文書分類器は、文書分類の精度を上げるために、文書分類器の精度を上げるための工夫を行っている。
- Analyzing Generalization of Vision and Language Navigation to Unseen Outdoor Areas
- Raphael Schumann, Stefan Riezler
- TLDR: 自然言語処理で、自然言語処理のモデルを学習する際、自然言語処理モデルのモデルを学習する際の注意点をまとめた研究。自然言語処理モデルのモデルは、自然言語処理モデルのモデルと同等のモデルを学習するが、モデルのモデルはモデルのモデルと同等のモデルを学習する。
- Adapting Coreference Resolution Models through Active Learning
- Michelle Yuan, Patrick Xia, Chandler May, Benjamin Van Durme, Jordan Boyd-Graber
- TLDR: 文書分類タスクで、文書分類のタスクを学習する際、文書分類タスクのタスクを学習する際のタスクを学習する際のタスクと、タスクのタスクを学習する際のタスクを学習するタスクを比較した研究。タスクのタスクは、文書分類タスクでタスクのタスクを学習する際のタスクと、タスクのタスクでタスクを学習するタスクのタスクを比較している。
- An Imitation Learning Curriculum for Text Editing with Non-Autoregressive Models
- Sweta Agrawal, Marine Carpuat
- TLDR: 翻訳文を編集する際、翻訳文の長さを変更する手法の提案。長さを変更する際は、翻訳文の長さを変更する(長くなるほど編集が難しくなる)ことを前提としている。長さを変更する際は、翻訳文の長さを変更する(長くなるほど編集が難しくなる)ことを前提としている。
- Memorisation versus Generalisation in Pre-trained Language Models
- Michael Tänzer, Sebastian Ruder, Marek Rei
- TLDR: 事前学習済み言語モデルが、学習データが少ない場合に学習性能を発揮する手法の提案。事前学習済みモデルは学習データが少ない場合に学習性能が低下するが、事前学習済みモデルは学習データが少ない場合に学習性能が向上する。事前学習済みモデルは学習データが少ない場合に学習性能が低下する。
- ChatMatch: Evaluating Chatbots by Autonomous Chat Tournaments
- Ruolan Yang, Zitong Li, Haifeng Tang, Kenny Zhu
- TLDR: 対話ボットの評価を行う際に、対話ボットの評価を自動で行う仕組みを提案した研究。対話ボットは、学習済みモデルの挙動を評価するモデルで、評価は自動で行われる。対話ボットは、学習済みモデルの挙動を評価するモデルで評価する。対話ボットは、学習済みモデルの挙動を評価するモデルで評価する。
- Do self-supervised speech models develop human-like perception biases?
- Juliette Millet, Ewan Dunbar
- TLDR: 自然言語処理で、自然言語処理のモデルを学習する際の、潜在表現の表現をどう学習するのかを検証した研究。学習済みモデルは自然言語処理のモデルと同等の表現を学習するが、学習済みモデルは潜在表現の表現を学習する。学習済みモデルは潜在表現の表現が異なるため、学習済みモデルの表現を学習する
- Vision-and-Language Navigation: A Survey of Tasks, Methods, and Future Directions
- Jing Gu, Eliana Stefani, Qi Wu, Jesse Thomason, Xin Wang
- TLDR: 自然言語処理の研究について、近年の研究のまとめ。各研究の概要、評価指標、また、課題点をまとめたサーベイ。
- Learning to Generate Programs for Table Fact Verification via Structure-Aware Semantic Parsing
- Suixin Ou, Yongmei Liu
- TLDR: 事前学習済みの文構造を、事前学習済みの文構造に組み込んだ手法の提案。文構造は、文構造の生成に使用する。文構造は、文構造の生成に使用する。文構造は、文構造の生成に使用する。文構造は、文構造の生成に使用する。文構造は、文構造の生成に使用する。文構造は、文構造の生成に使用する。
- Cluster & Tune: Boost Cold Start Performance in Text Classification
- Eyal Shnarch, Ariel Gera, Alon Halfon, Lena Dankin, Leshem Choshen, Ranit Aharonov, Noam Slonim
- TLDR: 事前学習済みモデルを、事前学習済みモデルの学習に追加する研究。事前学習済みモデルは、事前学習済みモデルの学習データ(ラベルなしデータ)を予測するモデルで、ラベルなしデータの予測は事前学習済みモデルの予測と同等の手法で行う。事前学習済みモデルの学習は、事前学習済みモデルの学習データの予測精度を上げるのに有効。
- Overcoming a Theoretical Limitation of Self-Attention
- David Chiang, Peter Cholak
- TLDR: 翻訳において、入力の長さを考慮する研究。入力の長さを考慮する際は、入力の長さを考慮する。長さを考慮する際は、入力の長さを考慮する。長さを考慮する際は、入力の長さを考慮する。長さを考慮する際は、長さを考慮する重みを追加する。長さを考慮する重みは、入力の長さを考慮する重みと同等になるよう調整する。
- Prediction Difference Regularization against Perturbation for Neural Machine Translation
- Dengji Guo, Zhengrui Ma, Min Zhang, Yang Feng
- TLDR: 翻訳において、予測値の過適合を防ぐ手法の提案。予測値の過適合は、学習データの過適合度と同等の過適合度を予測するが、過適合度は予測値の過適合度と同等の過適合度を予測する。過適合度は、予測値の過適合度と同等の過適合度を予測する。過適合度は、過適合度の予測値と同等の過適合度を予測する。
- Make the Best of Cross-lingual Transfer: Evidence from POS Tagging with over 100 Languages
- Wietse de Vries, Martijn Wieling, Malvina Nissim
- TLDR: 事前学習済みモデルで、転移学習を行う際に考慮すべきポイントをまとめた研究。事前学習済みモデルは、学習済み言語の語彙/文法/文構造(単語分散)、文構造(単語分散)、文構造(単語分散)、文構造(単語分散)、文構造(単語分散)、文構造(単語分散)、文構造(単語分散)、文構造(単語分散)を学習する。
- Should a Chatbot be Sarcastic? Understanding User Preferences Towards Sarcasm Generation
- Silviu Vlad Oprea, Steven Wilson, Walid Magdy
- TLDR: 文中の「(自己)の」表現を、文生成時に使用するデバイスを調査した研究。文生成時に使用するデバイスは、文の意味を捉えるための言語モデル、文の意味を捉えるための言語モデル、文の意味を捉えるための言語モデル、文の意味を捉えるための言語モデル、文の意味を捉えるための言語モデル、文の意味を捉えるための言語モデル、文の意味を捉えるための言語モデル、文の意味を捉えるための言語モデル、文の意味を捉えるための言語モデル、文の意味を捉えるための言語モデル、文の意味を捉えるための言語モデル、文の意味を捉えるための
- How Do Seq2Seq Models Perform on End-to-End Data-to-Text Generation?
- Xunjian Yin, Xiaojun Wan
- TLDR: 文生成モデルの評価について、文生成モデルの評価と、文生成モデルの評価結果を比較した研究。評価結果として、文生成モデルの学習は、文生成モデルの学習と同等の効果を上げている。文生成モデルは、文生成時に生成した文をコピーするモデルと、文生成時に生成した文をコピーするモデルの2つを比較している。
- Probing for Labeled Dependency Trees
- Max Müller-Eberstein, Rob van der Goot, Barbara Plank
- TLDR: 自然言語処理で、事前学習済み言語モデルを学習する際の事前学習方法について調査した研究。事前学習済みモデルは、事前学習済み言語モデルの学習率(DepProbe)を上回る精度を達成。事前学習済みモデルは、事前学習済み言語モデルの学習率を上回る精度を達成。
- DoCoGen: Domain Counterfactual Generation for Low Resource Domain Adaptation
- Nitay Calderon, Eyal Ben-David, Amir Feder, Roi Reichart
- TLDR: 自然言語処理で、ドメイン変更を行わずに事前学習済みモデルを学習する研究。事前学習済みモデルは、事前学習済みモデルのドメイン変更を行わずに事前学習済みモデルを学習する。事前学習済みモデルは、事前学習済みモデルのドメイン変更を行わずに事前学習済みモデルを学習する。事前学習済みモデルは、事前学習済みモデルのドメイン変更を行わずに学習する。
- LiLT: A Simple yet Effective Language-Independent Layout Transformer for Structured Document Understanding
- Jiapeng Wang, Lianwen Jin, Kai Ding
- TLDR: 文書構造を言語共通で理解するTransformerの提案。文書構造を言語共通で理解するTransformerは、文書構造を言語共通で学習する際は言語共通の文書を学習する必要があり、言語共通の文書を学習する際は言語共通の文書を学習する必要がある。
- Dependency-based Mixture Language Models
- Zhixian Yang, Xiaojun Wan
- TLDR: 言語モデルの依存構造を、言語モデルの学習に応用した研究。依存構造は、文の意味を予測するモデルの役割を果たす。文の意味を予測するモデルは、文の意味を予測するモデルと、文の意味を予測するモデルの2つを学習する。学習は、文の意味を予測するモデルの学習と、文の意味を予測するモデルの学習の2つを行なっている。
- Can Unsupervised Knowledge Transfer from Social Discussions Help Argument Mining?
- Subhabrata Dutta, Jeevesh Juneja, Dipankar Das, Tanmoy Chakraborty
- TLDR: 対話システムをTransformerベースのモデルに転移学習する研究。対話システムはTransformerベースのモデルで、対話は対話者とモデルの双方向で行われる。対話は対話者とモデルの双方向で行われるが、モデルはモデルの対話結果を基に学習を行う。対話は対話者とモデルの対話結果を基に行う。
- Entity-based Neural Local Coherence Modeling
- Sungho Jeon, Michael Strube
- TLDR: 言語モデルの事前学習済みモデルと、事前学習済みモデルの学習済みモデルを比較した研究。事前学習済みモデルは、単語/フレーズ/単語間の関連が不明瞭なため、単語/フレーズ/フレーズ/単語間の関連を考慮する。フレーズ/フレーズ/単語の関連は、事前学習済みモデルの学習済みモデルに近い。
- “That Is a Suspicious Reaction!”: Interpreting Logits Variation to Detect NLP Adversarial Attacks
- Edoardo Mosca, Shreyash Agarwal, Javier Rando Ramírez, Georg Groh
- TLDR: 自然言語処理モデルに対するAdversarial Attackの研究。Adversarialは、入力の文を誤認識する。そのため、文の文特徴を予測するモデルを構築する。入力の文特徴を予測するモデルは、入力の文特徴を予測するモデルと同等の精度を維持できる。
- Local Languages, Third Spaces, and other High-Resource Scenarios
- Steven Bird
- TLDR: 自然言語処理の課題と、その解決策についてまとめられた研究。自然言語処理は自然言語の知識が豊富な人のみに適用できるが、知識が豊富な人以外は限られている。そこで、自然言語処理の課題と解決策をまとめた研究。自然言語処理の課題として、自然言語の知識が豊富な人のみに適用できるか、また限られた人のみに適用できるかを検証している。
- That Slepen Al the Nyght with Open Ye! Cross-era Sequence Segmentation with Switch-memory
- Xuemei Tang, Qi Su
- TLDR: 自然言語処理における、過去の単語分類を強化する研究。過去の単語分類は、過去の単語を入力とする単語分類機のメモリを使用。このメモリを、過去の単語分類機のメモリに変換し、そのメモリを過去の単語分類機のメモリに変換する。
- Fair and Argumentative Language Modeling for Computational Argumentation
- Carolin Holtermann, Anne Lauscher, Simone Ponzetto
- TLDR: 自然言語処理で、論理モデルの偏りを改善する研究。既存の研究は、言語モデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを調整するモデルの重みを
- Learning Adaptive Segmentation Policy for End-to-End Simultaneous Translation
- Ruiqing Zhang, Zhongjun He, Hua Wu, Haifeng Wang
- TLDR: 音声翻訳の学習で、翻訳の精度を上げるために、翻訳の長さを変えつつ、翻訳の精度を上げるために、翻訳の長さを変えつつ、翻訳の精度を上げるために、翻訳の長さを変えつつ、翻訳の精度を上げるために、翻訳の長さを変えつつ、翻訳の精度を上げるために、翻訳の長さを変えつつ、翻訳の精度を上げるために、翻訳の長さを変えつつ、翻訳の精度を上げるために、翻訳の長さを変えつつ、翻訳の精度を上げるために、翻訳の長さを変えつつ、翻訳の精度を上げるために、翻訳の長さを変えつつ、翻訳の精度を上げるために、翻訳の長さを変えつつ、
- Can Pre-trained Language Models Interpret Similes as Smart as Human?
- Qianyu He, Sijie Cheng, Zhixu Li, Rui Xie, Yanghua Xiao
- TLDR: 自然言語処理で、同じ意味を持つ単語を認識する研究。単語の意味を推定する際、単語の意味を推定するモデルを用いることで、同じ意味を持つ単語同士の類似度を推定する。単語の意味を推定するモデルは、単語の意味を推定するモデルと同等精度を達成できるか検証している。
- CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark
- Ningyu Zhang, Mosha Chen, Zhen Bi, Xiaozhuan Liang, Lei Li, Xin Shang, Kangping Yin, Chuanqi Tan, Jian Xu, Fei Huang, Luo Si, Yuan Ni, Guotong Xie, Zhifang Sui, Baobao Chang, Hui Zong, Zheng Yuan, Linfeng Li, Jun Yan, Hongying Zan, Kunli Zhang, Buzhou Tang, Qingcai Chen
- TLDR: 自然言語処理のベンチマークを、医療従事者に適用した研究。自然言語処理は医療従事者にとって未知の領域を認識する必要があり、そのため未知の領域を認識するタスクを想定している。このタスクを、医療従事者と同等のモデルで評価する。
- Learning Non-Autoregressive Models from Search for Unsupervised Sentence Summarization
- Puyuan Liu, Chenyang Huang, Lili Mou
- TLDR: 教師なしの文書生成を行う際に、事前学習済みモデルを用いた研究。事前学習済みモデルは、事前学習済みモデルの文書を生成するEncoder/Transformerの2つで、文書生成時に文書の長さを自動調整する。文書生成時に、文書長を自動調整するモデルを用いている。
- Learning to Generalize to More: Continuous Semantic Augmentation for Neural Machine Translation
- Xiangpeng Wei, Heng Yu, Yue Hu, Rongxiang Weng, Weihua Luo, Rong Jin
- TLDR: 翻訳モデルの学習時に、学習データの拡張を行おうという研究。学習データ拡張は、学習済み言語の単語を単語ベクトルに変換する形で行う。単語ベクトルは、単語ベクトルの単語ベクトルと単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベクトルの単語ベ
- Lexical Knowledge Internalization for Neural Dialog Generation
- Zhiyong Wu, Wei Bi, Xiang Li, Lingpeng Kong, Ben Kao
- TLDR: 文の知識を外部から学習する研究。文の知識は外部から学習するよりも、文の知識を内部に組み込んだほうが良い。文の知識は外部から学習するより、内部に組み込んだほうが良い。文の知識は外部から学習するより、内部に組み込んだほうが良い。
- Modeling Syntactic-Semantic Dependency Correlations in Semantic Role Labeling Using Mixture Models
- Junjie Chen, Xiangheng He, Yusuke Miyao
- TLDR: 文法と文意の相互依存を、事前学習済みモデルでモデル化した研究。文法は単語の分散表現で、文意は単語分散表現の分布を予測する。文法は単語分散表現の分布を予測する。文法分布は、単語分散表現の分布を予測する。文法分布は、単語分散表現の分布を予測する。
- Learning the Beauty in Songs: Neural Singing Voice Beautifier
- Jinglin Liu, Chengxi Li, Yi Ren, Zhiying Zhu, Zhou Zhao
- TLDR: 音声のノイズを除去する研究。ノイズは音声のノイズと、音声の生成過程から生成される。生成したノイズは、音声生成過程で学習する。生成したノイズは、音声生成過程で学習する。ノイズは、音声生成過程で学習する。
- A Model-agnostic Data Manipulation Method for Persona-based Dialogue Generation
- Yu Cao, Wei Bi, Meng Fang, Shuming Shi, Dacheng Tao
- TLDR: 対話システムの生成を行う際に、事前学習済みモデルを改良する手法の提案。事前学習済みモデルは、事前学習済みモデルのデータセットを追加し、事前学習済みモデルのデータセットを追加する。事前学習済みモデルは、事前学習済みモデルのデータセットを追加する。事前学習済みモデルは、事前学習済みモデルのデータセットを追加する。
- LinkBERT: Pretraining Language Models with Document Links
- Michihiro Yasunaga, Jure Leskovec, Percy Liang
- TLDR: 文書間のリンクを事前学習する研究。文書内の文書からリンクを生成し、文書内の文書からリンクを予測する。文書内の文書からリンクを予測するモデルを提案。文書内の文書からリンクを予測するモデルはBERTと同等の精度を達成。
- Improving Time Sensitivity for Question Answering over Temporal Knowledge Graphs
- Chao Shang, Guangtao Wang, Peng Qi, Jing Huang
- TLDR: 自然言語処理で、過去のニュースを推定するタスクを解く研究。過去のニュースは過去のニュースと比較してタイムスパンが長くなる傾向があるが、この点を考慮した質問を解くことで、過去のニュースを推定するタスクを解くことができる。
- Self-supervised Semantic-driven Phoneme Discovery for Zero-resource Speech Recognition
- Liming Wang, Siyuan Feng, Mark Hasegawa-Johnson, Chang Yoo
- TLDR: 自然言語処理で、音声と単語の位置関係を学習する研究。音声は音声と単語の位置関係を表す単語で、音声の位置関係は単語の位置関係と同等であるとし、音声の位置関係を学習する。音声の位置関係は、音声の位置関係と同等であるとし、音声の位置関係を学習する。
- Softmax Bottleneck Makes Language Models Unable to Represent Multi-mode Word Distributions
- Haw-Shiuan Chang, Andrew McCallum
- TLDR: 言語モデルの学習時に、隠れ層の挙動を考慮する手法の提案。隠れ層は通常の言語モデルで生成される分布を予測するが、隠れ層は分布を予測する分布を予測する。そのため、隠れ層の挙動を考慮する手法を提案している。
- Ditch the Gold Standard: Re-evaluating Conversational Question Answering
- Huihan Li, Tianyu Gao, Manan Goenka, Danqi Chen
- TLDR: 対話システムの評価について、人間が回答する質問を自動生成する仕組みを提案。自動生成は、質問の生成過程を人間が回答したかを評価する仕組み。質問の生成過程は、質問の生成過程から生成された質問の生成過程を予測する形で行われる。
- Fantastically Ordered Prompts and Where to Find Them: Overcoming Few-Shot Prompt Order Sensitivity
- Yao Lu, Max Bartolo, Alastair Moore, Sebastian Riedel, Pontus Stenetorp
- TLDR: 大規模な言語モデルで、学習済みモデルと同等の性能を発揮する手法の提案。学習済みモデルのパラメーターを生成するモデルを、学習済みモデルのパラメーターを入力とするモデルに置き換える形で学習する。パラメーターは、学習済みモデルのパラメーターと同等の性能を発揮するモデルを生成する。
- Situated Dialogue Learning through Procedural Environment Generation
- Prithviraj Ammanabrolu, Renee Jia, Mark Riedl
- TLDR: テキストベースのゲームで、強化学習で学習したエージェントをモデル化した研究。エージェントの行動をテキストベースのゲームで表現し、エージェントの行動をテキストベースのゲームで表現する。エージェントの行動はテキストベースのゲームで表現されるが、テキストベースのゲームでは表現が難しいため、テキストベースのゲームで表現を学習する。
- UniTE: Unified Translation Evaluation
- Yu Wan, Dayiheng Liu, Baosong Yang, Haibo Zhang, Boxing Chen, Derek Wong, Lidia Chao
- TLDR: 機械翻訳における評価の仕組みをまとめた研究。評価は、翻訳文の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文長の文長、文
- Program Transfer for Answering Complex Questions over Knowledge Bases
- Shulin Cao, Jiaxin Shi, Zijun Yao, Xin Lv, Jifan Yu, Lei Hou, Juanzi Li, Zhiyuan Liu, Jinghui Xiao
- TLDR: 複雑な質問に対し、事前学習済み知識ベースを転移する手法の提案。事前学習済み知識ベースの質問を、事前学習済み知識ベースの質問と同等の手法で転移する。事前学習済み知識ベースの質問と同等の手法で、事前学習済み知識ベースの質問を転移する。事前学習済み知識ベースの質問と同等の手法で、事前学習済み知識ベースの質問を転移する。
- EAG: Extract and Generate Multi-way Aligned Corpus for Complete Multi-lingual Neural Machine Translation
- Yulin Xu, Zhen Yang, Fandong Meng, Jie Zhou
- TLDR: マルチモーダルで翻訳を行う際に、複数の言語の翻訳サンプルを組み合わせて生成する手法の提案。各言語の翻訳サンプルを、異なる言語の翻訳サンプルと組み合わせて生成する。生成した翻訳サンプルは、翻訳モデルの学習済みモデルに入力し、翻訳モデルの学習済みモデルに入力した翻訳サンプルと同等の精度を獲得する。
- Using Context-to-Vector with Graph Retrofitting to Improve Word Embeddings
- Jiangbin Zheng, Yile Wang, Ge Wang, Jun Xia, Yufei Huang, Guojiang Zhao, Yue Zhang, Stan Li
- TLDR: 事前学習済みの文書から、文書の文書構造を学習する研究。文書構造は文書の構造を学習する必要があり、文書構造を学習する際は文書構造を学習する。文書構造は文書構造を学習する必要があり、文書構造を学習する際は文書構造を学習する。文書構造を学習する際は文書構造を学習する。
- Multimodal Sarcasm Target Identification in Tweets
- Jiquan Wang, Lin Sun, Yi Liu, Meizhi Shao, Zengwei Zheng
- TLDR: マルチスケールで、画像とテキストを同時に学習する研究。画像は、画像の表現を入力とするタスクで、テキストは、画像の表現を入力とするタスクで学習する。画像は、画像の表現を入力とするタスクで、テキストは、画像の表現を入力とするタスクで学習する。
- Flexible Generation from Fragmentary Linguistic Input
- Peng Qian, Roger Levy
- TLDR: 自然言語処理で、事前学習済みモデルより人間に近い行動を観察した研究。事前学習済みモデルは、事前学習済みモデルの計算量と、事前学習済みモデルの計算量を組み合わせたモデルをベースにしている。事前学習済みモデルは、事前学習済みモデルの計算量と、事前学習済みモデルの計算量を組み合わせたモデルをベースにしている。
- Revisiting Over-Smoothness in Text to Speech
- Yi Ren, Xu Tan, Tao Qin, Zhou Zhao, Tie-Yan Liu
- TLDR: 音声生成において、複雑なモデルの挙動を緩和する手法を提案。複雑なモデルは複雑なネットワークの挙動を予測するが、複雑なネットワークの挙動は予測するネットワークの挙動と異なる場合に発生する。そのため、ネットワークの挙動を予測するネットワークの挙動を緩和する手法を提案している。
- Coherence boosting: When your pretrained language model is not paying enough attention
- Nikolay Malkin, Zhen Wang, Nebojsa Jojic
- TLDR: 自然言語処理で、長い文を予測する研究。長い文は長い文の予測に適さないとし、長い文を予測する際は長い文を予測する。長い文は予測する単語の予測精度が低いため、長い文を予測する際は長い文を予測する。
- Uncertainty Estimation of Transformer Predictions for Misclassification Detection
- Artem Vazhentsev, Gleb Kuzmin, Artem Shelmanov, Akim Tsvigun, Evgenii Tsymbalov, Kirill Fedyanin, Maxim Panov, Alexander Panchenko, Gleb Gusev, Mikhail Burtsev, Manvel Avetisian, Leonid Zhukov
- TLDR: 自然言語処理における、モデルの不確実性を評価する研究。不確実性を評価するモデルは、事前学習済みモデルと同等の精度が得られるが、事前学習済みモデルは精度が低い。そのため、事前学習済みモデルの精度を上げるための工夫を提案している。
- VALSE: A Task-Independent Benchmark for Vision and Language Models Centered on Linguistic Phenomena
- Letitia Parcalabescu, Michele Cafagna, Lilitta Muradjan, Anette Frank, Iacer Calixto, Albert Gatt
- TLDR: 言語モデルの評価を強化するベンチマークの提案。言語モデルの評価は、言語モデルの構造を評価する。言語モデルは、言語モデルの構造を学習する際、言語モデルの構造を学習する。そのため、言語モデルの構造を学習する際は、言語モデルの構造を学習するモデルを選び、学習するモデルの構造を学習する。
- The Grammar-Learning Trajectories of Neural Language Models
- Leshem Choshen, Guy Hacohen, Daphna Weinshall, Omri Abend
- TLDR: 言語モデルの学習過程を、異なるモデルの学習過程と比較した研究。学習過程は、学習データの分散から生成される単語/文をベースにしており、学習データの分散から生成される単語/文をベースに学習を行っている。学習データの分散から生成される単語/文は、学習データの分散から生成される単語/文をベースにしている。
- Generating Scientific Definitions with Controllable Complexity
- Tal August, Katharina Reinecke, Noah A. Smith
- TLDR: 自然言語処理で、未知語を定義するタスクを提案。未知語を定義する際は、未知語の定義を生成するタスクを複数回繰り返していくか、生成した単語を単語分類器に入力し、その単語分類結果から未知語を生成するタスクを提案している。
- Label Semantic Aware Pre-training for Few-shot Text Classification
- Aaron Mueller, Jason Krone, Salvatore Romeo, Saab Mansour, Elman Mansimov, Yi Zhang, Dan Roth
- TLDR: 文分類タスクで、事前学習済みモデルを用いた研究。文分類タスクで、事前学習済みモデルのラベルを用いた事前学習を行う。ラベルは、文分類タスクで使用される単語の単語ベクトルをベースに、文分類タスクで使用される単語ベクトルをベースに学習を行う。
- ODE Transformer: An Ordinary Differential Equation-Inspired Model for Sequence Generation
- Bei Li, Quan Du, Tao Zhou, Yi Jing, Shuhan Zhou, Xin Zeng, Tong Xiao, JingBo Zhu, Xuebo Liu, Min Zhang
- TLDR: 入力を入力とする正則化の手法を、入力と入力の境界を近似する形で表現する研究。入力は入力と入力の境界を近似する形で表現される。入力は入力と入力の境界を近似する形で表現される。入力は入力と入力の境界を近似する形で表現される。入力は入力と入力の境界を近似する形で表現される。入力は入力と入力の境界を近似する形で表現される。入力は入力と入力の境界を近似する形で表現される。入力は入力と入力の境界を近似する形で表現される。入力は入力と入力の境界を近似する形で表現される。入力は
- A Comparison of Strategies for Source-Free Domain Adaptation
- Xin Su, Yiyun Zhao, Steven Bethard
- TLDR: 事前学習済みモデルを転移学習で学習する研究。学習済みモデルは転移学習の手法をベースに、転移先のドメインの学習データ(学習済みモデルの学習済みモデル)を転移先のドメインに転移させる形で学習する。転移先のドメインの学習データは転移先のドメインに転移する形で転移先ドメインの学習データに転移する。転移先のドメインの学習データは転移先のドメインに転移する形で転移先ドメインの学習データに転移する。
- Ethics Sheets for AI Tasks
- Saif Mohammad
- TLDR: 機械学習モデルのタスクで、倫理観をきちんと扱うためのフレーズをまとめたサーベイ。タスクごとに、タスクの倫理観をまとめたフレーズをまとめている。タスクごとに、フレーズのフレーズをまとめたサーベイがまとめられている。
- Learning Disentangled Representations of Negation and Uncertainty
- Jake Vasilakes, Chrysoula Zerva, Makoto Miwa, Sophia Ananiadou
- TLDR: 自然言語処理における、表現の不変性を学習する手法の提案。表現の不変性は、表現の変更が表現の不変性に影響を与えるからという仮説から、表現の不変性を学習するAutoEncoderを用いた研究。AutoEncoderは、表現の不変性を学習する際、表現の不変性を学習する。
- latent-GLAT: Glancing at Latent Variables for Parallel Text Generation
- Yu Bao, Hao Zhou, Shujian Huang, Dongqi Wang, Lihua Qian, Xinyu Dai, Jiajun Chen, Lei Li
- TLDR: マルチモーダルなモデルを学習する手法の提案。学習データの潜在表現を、学習モデルの潜在表現に変換する。潜在表現は、学習データの潜在表現を入力とする。入力は、入力と入力双方向の表現を入力とする。入力は、入力と入力双方向の表現を入力とする。入力は、入力と入力双方向の表現を入力とする。
- PPT: Pre-trained Prompt Tuning for Few-shot Learning
- Yuxian Gu, Xu Han, Zhiyuan Liu, Minlie Huang
- TLDR: 事前学習済み言語モデル(PLM)を、事前学習済みモデルに適応させるための研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を維持できない。そのため、事前学習済みモデルの学習済みモデルを、事前学習済みモデルの学習済みモデルに適応させるためのフレームワークを提案している。
- Deduplicating Training Data Makes Language Models Better
- Katherine Lee, Daphne Ippolito, Andrew Nystrom, Chiyuan Zhang, Douglas Eck, Chris Callison-Burch, Nicholas Carlini
- TLDR: 言語モデルの学習データセットを学習時に、学習済みモデルの学習データから学習データのコピーを行おうという研究。学習済みモデルの学習データから学習データのコピーを行おうという試み。学習データのコピーは、学習済みモデルの学習データから行い、学習データのコピーは学習データから行い、学習データのコピーは学習データから行い、という流れ。
- Improving the Generalizability of Depression Detection by Leveraging Clinical Questionnaires
- Thong Nguyen, Andrew Yates, Ayah Zirikly, Bart Desmet, Arman Cohan
- TLDR: ストレスに関する診断を行う際に、症状を予測するモデルを導入した研究。モデルはBERTベースで、症状を予測する際は、BERTの予測結果を基にモデルを構築する。BERTベースのモデルは、BERTの予測結果を基にモデルを作成するが、BERTの予測結果を基にモデルを構築する際は、BERTの予測結果を基にモデルを構築する。
- Internet-Augmented Dialogue Generation
- Mojtaba Komeili, Kurt Shuster, Jason Weston
- TLDR: インターネットの検索結果を、対話システムに拡張する研究。検索結果は、検索結果から収集した情報を基に生成される。検索結果は、検索結果から収集した情報を基に生成される。検索結果は、検索結果から収集した情報を基に生成される。
- SUPERB-SG: Enhanced Speech processing Universal PERformance Benchmark for Semantic and Generative Capabilities
- Hsiang-Sheng Tsai, Heng-Jui Chang, Wen-Chin Huang, Zili Huang, Kushal Lakhotia, Shu-wen Yang, Shuyan Dong, Andy Liu, Cheng-I Lai, Jiatong Shi, Xuankai Chang, Phil Hall, Hsuan-Jui Chen, Shang-Wen Li, Shinji Watanabe, Abdelrahman Mohamed, Hung-yi Lee
- TLDR: 事前学習済みモデルのパフォーマンスを評価するベンチマークの提案。事前学習済みモデルのパフォーマンスを評価するベンチマークとして、事前学習済みモデルのパフォーマンスを評価するベンチマークを提案している。ベンチマークは、事前学習済みモデルのパフォーマンスを評価するベンチマークとして、事前学習済みモデルのパフォーマンスを評価するベンチマークを提案している。
- Knowledge Neurons in Pretrained Transformers
- Damai Dai, Li Dong, Yaru Hao, Zhifang Sui, Baobao Chang, Furu Wei
- TLDR: 事前学習済み言語モデルで、事前学習済みの知識をTransformerに保存する研究。事前学習済み言語モデルの学習済みモデルは、事前学習済みモデルの情報を収集するネットワークを構築する。事前学習済み言語モデルのネットワークは、事前学習済みモデルの情報を収集するネットワークと同等の仕組みを取っている。
- Meta-Learning for Fast Cross-Lingual Adaptation in Dependency Parsing
- Anna Langedijk, Verna Dankers, Phillip Lippe, Sander Bos, Bryan Cardenas Guevara, Helen Yannakoudakis, Ekaterina Shutova
- TLDR: マルチ言語対応のタスクで、事前学習済みモデルを活用する手法の提案。事前学習済みモデルは、事前学習済み言語の学習済みモデルと同等の学習データが必要で、事前学習済みモデルの学習済み言語の学習データが足りない場合、学習データの少ない言語の学習データに依存する。
- French CrowS-Pairs: Extending a challenge dataset for measuring social bias in masked language models to a language other than English
- Aurélie Névéol, Yoann Dupont, Julien Bezançon, Karën Fort
- TLDR: 多言語のBiasのデータセットを翻訳した研究。Biasの分類は、性別や年齢、国籍など様々な要因で行われるが、この要因を考慮した分類は、各要因の分類と同等の扱いが行えることを確認。また、Biasの分類は、各要因の分類と同等の扱いが行えることを確認。
- Few-Shot Learning with Siamese Networks and Label Tuning
- Thomas Müller, Guillermo Pérez-Torró, Marc Franco-Salvador
- TLDR: テキスト分類器の学習に、事前学習済みモデルを導入した研究。事前学習済みモデルは、テキストをラベルに変換するモデルを採用している。ラベルは、テキストのラベルとラベルのラベルを入力とするEncoderで、ラベルはラベルのラベルを入力とするEncoderで入力する。
- Inferring Rewards from Language in Context
- Jessy Lin, Daniel Fried, Dan Klein, Anca Dragan
- TLDR: 自然言語で、行動を推定する研究。モデルは、自然言語で指示された行動を推定する。指示された行動は、通常の行動と異なる行動を誘導する。指示された行動は、通常の行動と異なる行動を誘導する。指示された行動は、通常の行動と異なる行動を誘導する。指示された行動は、通常の行動と異なる行動を誘導する。
- Generating Biographies on Wikipedia: The Impact of Gender Bias on the Retrieval-Based Generation of Women Biographies
- Angela Fan, Claire Gardent
- TLDR: 自然言語処理で、Wikipediaの記事から女性に関する論文を生成する研究。Wikipediaの記事から女性に関する論文を生成する際、Wikipediaの記事から女性に関する論文を生成する際のデータセットを収集し、そのデータセットから女性に関する論文を生成する。Wikipediaの記事から女性に関する論文を生成する際、Wikipediaの記事から女性に関する論文を生成する際のデータセットを収集し、そのデータセットから女性に関する論文を生成する。
- Your Answer is Incorrect… Would you like to know why? Introducing a Bilingual Short Answer Feedback Dataset
- Anna Filighera, Siddharth Parihar, Tim Steuer, Tobias Meuser, Sebastian Ochs
- TLDR: 自動質問抽出システムに対する、SOTAの評価手法の提案。質問に対する評価は、質問に対する回答と質問に対する回答の差分を評価する。評価は、質問に対する回答と回答の差分を評価する。質問に対する評価は、質問に対する回答と回答の差分を評価する。
- Towards Better Characterization of Paraphrases
- Timothy Liu, De Wen Soh
- TLDR: 自然言語処理で、単語位置の変動(WPD)と文位置の変動(LDL)を計測する研究。WPDは単語位置の変動を計測するが、LDLは単語位置の変動を計測する。どちらも精度が低いが、精度が高い方が精度が上がる。
- SummScreen: A Dataset for Abstractive Screenplay Summarization
- Mingda Chen, Zewei Chu, Sam Wiseman, Kevin Gimpel
- TLDR: 映画のセグメンテーションを、翻訳モデルで行う試み。翻訳モデルは、翻訳文の文脈から抽出されたテキストを生成するが、翻訳文の文脈から抽出されたテキストは生成できない。そのため、翻訳文の文脈から抽出されたテキストを生成する手法を提案。
- Sparsifying Transformer Models with Trainable Representation Pooling
- Michał Pietruszka, Łukasz Borchmann, Łukasz Garncarek
- TLDR: 入力の情報を、学習済みモデルのAttentionに置き換える研究。Attentionは、入力の情報を学習する際の重要な情報(=タスクの情報を)と、入力の情報を学習する際の重要な情報(=タスクの情報を)に分けて学習する。タスクの情報を学習する際は、タスクの情報を優先する。
- Uncertainty Determines the Adequacy of the Mode and the Tractability of Decoding in Sequence-to-Sequence Models
- Felix Stahlberg, Ilia Kulikov, Shankar Kumar
- TLDR: 自然言語処理で、文の意味推定を行う際に、文の意味推定の精度を上げるために、文の意味推定の精度を上げるためには、文の意味推定の精度が低い場合に学習するモデルの挙動をどうするかを検証した研究。結果として、文の意味推定は精度が低い場合に学習するモデルの挙動を大きく変える傾向がある。
- FlipDA: Effective and Robust Data Augmentation for Few-Shot Learning
- Jing Zhou, Yanan Zheng, Jie Tang, Li Jian, Zhilin Yang
- TLDR: テキストデータのAugmentationを、モデルとクラスターの2つで行う研究。クラスターは、テキストの分類器で、クラスターは、テキストの分類器で生成する。生成は、テキストの分類器で行う。クラスターは、テキストの分類器で生成する。
- Text-Free Prosody-Aware Generative Spoken Language Modeling
- Eugene Kharitonov, Ann Lee, Adam Polyak, Yossi Adi, Jade Copet, Kushal Lakhotia, Tu Anh Nguyen, Morgane Riviere, Abdelrahman Mohamed, Emmanuel Dupoux, Wei-Ning Hsu
- TLDR: 自然言語処理で、事前学習済み言語モデルを用いた研究。事前学習済み言語モデルは、単語の生成に使用するProsodyが欠損している。そのため、Prosodyを生成するモデルを用いた研究。Prosodyは、単語の生成に使用するモデルの重みを算出するモデルで、入力は音声を生成するモデルで行う。
- Lite Unified Modeling for Discriminative Reading Comprehension
- Yilin Zhao, Hai Zhao, Libin Shen, Yinggong Zhao
- TLDR: 機械学習モデルで、マルチタスクのモデルを構築する試み。マルチタスクモデルは、事前学習済みモデルと同等の精度が得られるが、事前学習済みモデルは精度が低い。そのため、事前学習済みモデルをマルチタスクモデルに置き換えるPOI-Netを提案。
- Bilingual alignment transfers to multilingual alignment for unsupervised parallel text mining
- Chih-chan Tien, Shane Steinert-Threlkeld
- TLDR: マルチ言語の文表現を学習する研究。教師なし学習と、教師なし学習の2つを組み合わせて学習する。教師なし学習は、教師なしの文表現を学習する際の重みを固定する。教師なし学習は、教師なし文表現を学習する際の重みを固定する。教師なし学習は、教師なし文表現を学習する際の重みを固定する。
- End-to-End Modeling via Information Tree for One-Shot Natural Language Spatial Video Grounding
- Mengze Li, Tianbao Wang, Haoyu Zhang, Shengyu Zhang, Zhou Zhao, Jiaxu Miao, Wenqiao Zhang, Wenming Tan, Jin Wang, Peng Wang, Shiliang Pu, Fei Wu
- TLDR: 自然言語の動画を、End-to-Endで学習する研究。各フレームの画像を、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした画像から、Encodeした
- RNSum: A Large-Scale Dataset for Automatic Release Note Generation via Commit Logs Summarization
- Hisashi Kamezawa, Noriki Nishida, Nobuyuki Shimizu, Takashi Miyazaki, Hideki Nakayama
- TLDR: オープンソースのソフトウェアの更新情報を抽出するタスクの提案。既存の抽出手法は抽出文をEncodeするが、抽出文はEncodeしたEncode済みの文書から抽出する。この文書はEncodeした文書から抽出される文書を生成する。
- Improving Machine Reading Comprehension with Contextualized Commonsense Knowledge
- Kai Sun, Dian Yu, Jianshu Chen, Dong Yu, Claire Cardie
- TLDR: 文書から、自然言語処理で文書を読む際に、文書から文書の文書構造を抽出する研究。文書の文書構造は文書の文書構造と同等であるとし、文書の文書構造を文書構造と同等に扱う。文書構造は文書構造と同等であるとし、文書構造を文書構造と同等に扱う文書構造を学習する。
- Modeling Persuasive Discourse to Adaptively Support Students’ Argumentative Writing
- Thiemo Wambsganss, Christina Niklaus
- TLDR: ビジネスモデルのプレゼンテーションを、事前学習済みモデルのモデルでモデル化する研究。事前学習済みモデルのモデルは、事前学習済みモデルのプレゼンテーションをベースに、事前学習済みモデルのプレゼンテーションをベースに、事前学習済みモデルのプレゼンテーションをベースにモデル化を行っている。
- Active Evaluation: Efficient NLG Evaluation with Few Pairwise Comparisons
- Akash Kumar Mohankumar, Mitesh Khapra
- TLDR: モデルの評価を行う際に、事前学習済みモデルと比較する手法の提案。事前学習済みモデルは、モデルの性能を評価する際は、モデルの性能を評価する指標として使用される。事前学習済みモデルは、モデルの性能を評価する指標として使用される。事前学習済みモデルは、モデルの性能を評価する指標として使用される。事前学習済みモデルは、モデルの性能を評価する指標として使用される。事前学習済みモデルは、モデルの性能を評価する指標として使用される。事前学習済みモデルは、モデルの性能を評価する指標として使用される。事前学習済みモデルは、モデルの性能を評価する指標として使用される。事前学習
- The Moral Debater: A Study on the Computational Generation of Morally Framed Arguments
- Milad Alshomary, Roxanne El Baff, Timon Gurcke, Henning Wachsmuth
- TLDR: 論理モデルを生成する際、既存のモデルと同等の効果を上げるために、既存のモデルと同等の効果を上げるためには、既存のモデルと同等の効果を上げるためには、既存モデルの潜在表現をどう変えているか検証する必要がある。
- Pyramid-BERT: Reducing Complexity via Successive Core-set based Token Selection
- Xin Huang, Ashish Khetan, Rene Bidart, Zohar Karnin
- TLDR: 言語モデルの予測を行う際に、単語を複数つなぎ合わせる手法の提案。単語の予測は、単語のEncoder/Decoderの2つを組み合わせて行う。Decoderは単語のEncoder/Decoderの2つを組み合わせて行う。Decoderは単語のEncoder/Decoderの2つを組み合わせて行う。
- Probing for the Usage of Grammatical Number
- Karim Lasri, Tiago Pimentel, Alessandro Lenci, Thierry Poibeau, Ryan Cotterell
- TLDR: 学習済みモデルが、文法知識を学習する際の、学習済みモデルのEncodingを誤認識しているか検証した研究。文法知識を学習する際は、文法知識を学習するEncodingを誤認識しているか検証する。誤認識は、文法知識を学習するEncodingの誤認識に繋がる可能性があることを指摘。