EMNLP 2021 in Japanese
TLDRs
- AligNART: Non-autoregressive Neural Machine Translation by Jointly Learning to Estimate Alignment and Translate
- Jongyoon Song, Sungwon Kim, Sungroh Yoon
- TLDR: マルチモーダルな翻訳モデルで、翻訳の精度を上げるために事前学習済みモデルと同等の手法を提案。事前学習済みモデルは、翻訳の精度を上げるために事前学習済みモデルと同等の手法を取っている。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の手法を取っている。
- Zero-Shot Cross-Lingual Transfer of Neural Machine Translation with Multilingual Pretrained Encoders
- Guanhua Chen, Shuming Ma, Yun Chen, Li Dong, Dongdong Zhang, Jia Pan, Wenping Wang, Furu Wei
- TLDR: マルチ言語の転移を学習する手法の提案。事前学習済みモデルを、事前学習済みモデルの学習済み言語に置き換える形で学習する。事前学習済みモデルは、事前学習済み言語の転移を学習する。事前学習済みモデルは、事前学習済み言語の転移を学習する。事前学習済みモデルは、事前学習済み言語の転移を学習する。
- ERNIE-M: Enhanced Multilingual Representation by Aligning Cross-lingual Semantics with Monolingual Corpora
- Xuan Ouyang, Shuohuan Wang, Chao Pang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: マルチ言語モデルで事前学習したモデルを、マルチ言語モデルの学習に応用した研究。マルチ言語モデルは、マルチドメインのデータセットを学習する必要があり、事前学習済みモデルの学習は困難。そこで、マルチドメインのデータセットを学習する形で学習する。マルチドメインのデータセットは、事前学習済みモデルの学習に使用されている。
- Cross Attention Augmented Transducer Networks for Simultaneous Translation
- Dan Liu, Mengge Du, Xiaoxi Li, Ya Li, Enhong Chen
- TLDR: 翻訳を行う際、翻訳の順番を変更する必要はない。翻訳の順番は、翻訳の文を翻訳する際の文順に置き換える形で行う。順番は、翻訳の文順を予測する(翻訳の文順は、翻訳の文順に置き換える)ことで、翻訳の順番を予測する。順番は、翻訳の文順を予測する(翻訳の文順は、翻訳の文順に置き換える)ことで行う。
- Translating Headers of Tabular Data: A Pilot Study of Schema Translation
- Kunrui Zhu, Yan Gao, Jiaqi Guo, Jian-Guang Lou
- TLDR: テーブルの構造を、機械翻訳モデルで翻訳する研究。構造は、文書の構造と文書の構造を結合する。文書の構造は、文書の構造と文書の構造を結合する。文書の構造は、文書の構造と文書の構造を結合する。文書の構造は、文書の構造と文書の構造を結合する。文書の構造は、文書の構造と文書の構造を結合する。
- Towards Making the Most of Dialogue Characteristics for Neural Chat Translation
- Yunlong Liang, Chulun Zhou, Fandong Meng, Jinan Xu, Yufeng Chen, Jinsong Su, Jie Zhou
- TLDR: 対話システムの翻訳モデルを、対話文の生成に応用した研究。対話文の生成は、文の長さと文の長さの2つをベースに行う。長さは文長、長さは文長、長さは文長、長さは文長、長さは文長、長さは長文長、長文長は長文長、長文長は長文長、長文長は長文長、長文長は長文長、長文長は長文長、長文長は長文長、長文長は長文長、長文長は長文長、長文長
- Low-Resource Dialogue Summarization with Domain-Agnostic Multi-Source Pretraining
- Yicheng Zou, Bolin Zhu, Xingwu Hu, Tao Gui, Qi Zhang
- TLDR: 対話システムの事前学習を、事前学習済みモデルと事前学習済みモデルの2つに分割し、事前学習済みモデルの事前学習を同時に行う手法の提案。事前学習済みモデルは事前学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは事前学習済みモデルと同等の精度を維持できない。
- Controllable Neural Dialogue Summarization with Personal Named Entity Planning
- Zhengyuan Liu, Nancy Chen
- TLDR: 対話中の要約を、個別の要約から生成する研究。要約は個別の要約から生成するが、要約は要約の要約から生成する。要約は要約の要約から生成するが、要約は要約の要約から生成する。要約は要約の要約から生成する。
- Fine-grained Factual Consistency Assessment for Abstractive Summarization Models
- Sen Zhang, Jianwei Niu, Chuyuan Wei
- TLDR: 文書から要約を作成する際、文書と要約文を比較し、要約文の要約文を生成するモデルを提案。要約文は文書から要約文を生成する形で生成されるが、要約文は要約文の要約文を生成する形で生成される。要約文は要約文の要約文を生成する形で生成される。
- Decision-Focused Summarization
- Chao-Chun Hsu, Chenhao Tan
- TLDR: 文書から、事前学習済みモデルの予測結果を基に、事前学習済みモデルの予測結果を基に、事前学習済みモデルの予測結果を基に、事前学習済みモデルの予測結果を基に、事前学習済みモデルの予測結果を基に事前学習済みモデルの予測結果を基に、事前学習済みモデルの予測結果を基に事前学習済みモデルの予測結果を基に事前学習済みモデルの予測結果を基に事前学習済みモデルの予測結果を基に事前学習済みモデルの予測結果を基に事前学習済みモデルの予測結果を基に事前学習済みモデルの予測結果を基に事前学習済みモデルの予測結果を基
- Multiplex Graph Neural Network for Extractive Text Summarization
- Baoyu Jing, Zeyu You, Tao Yang, Wei Fan, Hanghang Tong
- TLDR: 文書から、文書中の文関係を抽出する手法の提案。文書中の文関係を抽出する際、文書中の単語を抽出するだけでなく文書中の文関係を抽出するモデルも提案している。文書中の文関係を抽出するモデルは、文書中の単語を抽出するモデルと、文書中の文関係を抽出するモデルの2つを使用。文書中の文関係を抽出するモデルは、文書中の文関係を抽出するモデルと同等の精度を維持している。
- A Thorough Evaluation of Task-Specific Pretraining for Summarization
- Sascha Rothe, Joshua Maynez, Shashi Narayan
- TLDR: 事前学習済み言語モデルの事前学習を、タスク固有の事前学習と比較した研究。事前学習は事前学習済み言語モデルの事前学習と同等の精度が得られるが、事前学習はタスク固有の事前学習と同等の精度が得られるか検証している。事前学習はタスク固有の事前学習と同等の精度が得られるが、事前学習はタスク固有の事前学習と同等の精度が得られるか検証している
- HETFORMER: Heterogeneous Transformer with Sparse Attention for Long-Text Extractive Summarization
- Ye Liu, Jianguo Zhang, Yao Wan, Congying Xia, Lifang He, Philip Yu
- TLDR: 文書から抽出する文書要約のモデルを、Transformerベースの事前学習済みモデルに置き換えた研究。要約の構造を、複数ノードの要約構造に置き換えたモデルで学習する。要約は、要約構造を複数ノードの要約構造に置き換えたモデルで行う。要約は、要約構造を複数ノードの要約構造に置き換えたモデルで行う。
- Unsupervised Keyphrase Extraction by Jointly Modeling Local and Global Context
- Xinnian Liang, Shuangzhi Wu, Mu Li, Zhoujun Li
- TLDR: 教師なしKeyphrase Extractionで、文書の位置関係を予測する研究。文書の位置関係は、文書の各単語と同等か同等か、それ以外かを予測する。文書の位置関係は、文書の各単語と同等か否かを予測する。文書の位置関係は、文書の各単語と同等か否かを予測する。
- Distantly Supervised Relation Extraction using Multi-Layer Revision Network and Confidence-based Multi-Instance Learning
- Xiangyu Lin, Tianyi Liu, Weijia Jia, Zhiguo Gong
- TLDR: 文のラベルを変更する手法の提案。文のラベルは文間の関係を表す単語を入力とする。ラベルは文間の関係を表す単語を入力とする。ラベルは文間の関係を表す単語を入力とする。ラベルは文間の関係を表す単語を入力とする。ラベルは文間の関係を表す単語を入力とする。
- Logic-level Evidence Retrieval and Graph-based Verification Network for Table-based Fact Verification
- Qi Shi, Yu Zhang, Qingyu Yin, Ting Liu
- TLDR: 文法知識を検証するタスクの提案。文法知識を検証するタスクは、文法知識を検証するモデルの一種。文法知識を検証するモデルは、文法知識を検証するモデルと同等のモデルを構築している。文法知識を検証するモデルは、文法知識を検証するモデルと同等のモデルを構築している。
- A Partition Filter Network for Joint Entity and Relation Extraction
- Zhiheng Yan, Chong Zhang, Jinlan Fu, Qi Zhang, Zhongyu Wei
- TLDR: タスク個別の特徴をEntity/Relationで抽出する研究。Entity/RelationはEntity/RelationのEntity/RelationのRelationのEntityと、RelationのRelationのRelationのRelationのRelationのEntityを入力とするEntity/RelationのEntityを入力とするRelationのEntityと、RelationのRelationのRelationのRelationのEntityを入力とするRelationのEntityとを結合し、Entity/RelationのEntityを入力とするRelationのEntityとを結合するEntity/Relationの
- TEBNER: Domain Specific Named Entity Recognition with Type Expanded Boundary-aware Network
- Zheng Fang, Yanan Cao, Tai Li, Ruipeng Jia, Fang Fang, Yanmin Shang, Yuhai Lu
- TLDR: 自然言語処理で、Entityを追加する研究。Entityは単語の枠組みで表現されるが、単語の枠組みは単語の意味を表す単語の枠組みで表現される。単語の意味を表す単語は、単語の枠組みで表現される。単語の枠組みは、単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語の意味を表す単語
- Beta Distribution Guided Aspect-aware Graph for Aspect Category Sentiment Analysis with Affective Knowledge
- Bin Liang, Hang Su, Rongdi Yin, Lin Gui, Min Yang, Qin Zhao, Xiaoqi Yu, Ruifeng Xu
- TLDR: セクトグラフの表現を、外部知識から抽出する手法の提案。外部知識は、aspect-relatedの単語を抽出するネットワークのネットワークで収集する。このネットワークで、aspect-relatedの単語を抽出する。このネットワークは、aspect-relatedの単語を抽出するネットワークと、aspect-relatedの単語を抽出するネットワークの2つを統合している。
- DILBERT: Customized Pre-Training for Domain Adaptation with Category Shift, with an Application to Aspect Extraction
- Entony Lekhtman, Yftah Ziser, Roi Reichart
- TLDR: 事前学習済み言語モデルを、異なるドメインに適用する研究。事前学習済みモデルは、事前学習済みドメインの分類器を学習する。事前学習済みモデルは、事前学習済みドメインの分類器を学習する。事前学習済みモデルは、事前学習済みドメインの分類器を学習する。事前学習済みモデルは、事前学習済みドメインの分類器を学習する。
- Improving Multimodal fusion via Mutual Dependency Maximisation
- Pierre Colombo, Emile Chapuis, Matthieu Labeau, Chloé Clavel
- TLDR: マルチモーダルで感情分析を行う研究。マルチモーダルは通常の感情分析の手法と異なり、単純な手法で行うことが多い。単純な手法は、単純な入力と入力の入力を結合する形で行うことが多いが、この結合は複雑なタスクを想定している。
- Learning Implicit Sentiment in Aspect-based Sentiment Analysis with Supervised Contrastive Pre-Training
- Zhengyan Li, Yicheng Zou, Chong Zhang, Qi Zhang, Zhongyu Wei
- TLDR: レビューに、商品の特徴を表す単語を追加する手法の提案。通常のレビューは、レビューの主語/主観点が一致するかを表す単語が使われることが多いが、この単語を追加することで、その一致度を推定する。
- Progressive Self-Training with Discriminator for Aspect Term Extraction
- Qianlong Wang, Zhiyuan Wen, Qin Zhao, Min Yang, Ruifeng Xu
- TLDR: 文中のaspect termを抽出する手法の提案。学習済みモデルを学習する際、学習済みモデルの学習済みモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルを比較し、学習済みモデルの学習済みモデルと同等の学習済みモデルの学習結果を比較し、学習済みモデルの学習結果を比較した結果を基に、学習済みモデルの学習結果を比較した結果を基に、学習済みモデルの学習結果を比較した結果を基に、学習済みモデルの学習結果を比較した結果を基に学習結果を比較した結果を比較し、学習結果を比較した結果を比較した結果を比較
- Reinforced Counterfactual Data Augmentation for Dual Sentiment Classification
- Hao Chen, Rui Xia, Jianfei Yu
- TLDR: 自然言語処理で、感情分類を行う際に、事前学習済みモデルと同等の手法を提案。事前学習済みモデルは、事前学習済みモデルの学習データと同等の手法を適用する。事前学習済みモデルは、事前学習済みモデルの学習データと同等の手法を適用する。事前学習済みモデルは、事前学習済みモデルの学習データと同等の手法を適用する。
- Idiosyncratic but not Arbitrary: Learning Idiolects in Online Registers Reveals Distinctive yet Consistent Individual Styles
- Jian Zhu, David Jurgens
- TLDR: 文中の単語を、異なる言語モデルで比較することで、文中の単語特徴を予測する研究。単語特徴は、文中の単語特徴と同等かそれ以上の単語特徴を予測する。単語特徴は、文中の単語特徴と同等かそれ以上の単語特徴を予測する。単語特徴は、文中の単語特徴と同等かそれ以上の単語特徴を予測する。
- Narrative Theory for Computational Narrative Understanding
- Andrew Piper, Richard Jean So, David Bamman
- TLDR: 自然言語処理におけるモデルの研究について、モデルの枠組みからモデルの研究を紐づける研究。モデルは、モデルの枠組みからモデルのモデルを推定するモデル(モデルはモデルの枠組みで、モデルはモデルの枠組みで学習する)を、モデルの枠組みからモデルの枠組みを推定するモデル(モデルはモデルの枠組みで学習する)を、モデルの枠組みからモデルの枠組みを推定するモデル(モデルはモデルの枠組みで学習する)を統合している。
- (Mis)alignment Between Stance Expressed in Social Media Data and Public Opinion Surveys
- Kenneth Joseph, Sarah Shugars, Ryan Gallagher, Jon Green, Alexi Quintana Mathé, Zijian An, David Lazer
- TLDR: ユーザーの行動を、SNSのデータから予測する研究。ユーザーの行動は、SNSの投稿から得られたフィードバックから予測する。フィードバックは、投稿の質(評価)と投稿の更新頻度(更新頻度)を比較し、更新頻度が高いと評価が高いと判断する。
- How Does Counterfactually Augmented Data Impact Models for Social Computing Constructs?
- Indira Sen, Mattia Samory, Fabian Flöck, Claudia Wagner, Isabelle Augenstein
- TLDR: 自然言語処理モデルの強化学習で、学習済みモデルの学習済みモデルと同等の効果を上げている研究。学習済みモデルは学習済みモデルの学習済みモデルと同等の性能を発揮するが、学習済みモデルは学習済みモデルの学習済みモデルと同等の性能を発揮する。学習済みモデルは学習済みモデルの学習済みモデルと同等の性能を発揮するが、学習済みモデルは学習済みモデルの学習済みモデルと同等の性能を発揮する。
- Latent Hatred: A Benchmark for Understanding Implicit Hate Speech
- Mai ElSherief, Caleb Ziems, David Muchlinski, Vaishnavi Anupindi, Jordyn Seybolt, Munmun De Choudhury, Diyi Yang
- TLDR: 不法に攻撃された表現を検出する手法のサーベイ。不法に攻撃された表現を検出する手法は、通常の不法攻撃に対する対応が不明確な場合のみに適用されることが多いが、不法攻撃に対する対応は、通常の不法攻撃に対する対応と同等の対応が必要であるとしている。
- Distilling Linguistic Context for Language Model Compression
- Geondo Park, Gyeongman Kim, Eunho Yang
- TLDR: 言語モデルの知識蒸留手法の提案。単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の
- Dynamic Knowledge Distillation for Pre-trained Language Models
- Lei Li, Yankai Lin, Shuhuai Ren, Peng Li, Jie Zhou, Xu Sun
- TLDR: 事前学習済み言語モデルを解く際に、学習データの選択と教師モデルの適用を組み合わせた研究。教師モデルは学習データの分布を予測するモデルで、学習データの分布を予測するモデルは学習データの分布を予測するモデルで、学習データの分布を予測するモデルは学習データの分布を予測するモデルで行う。
- Few-Shot Text Generation with Natural Language Instructions
- Timo Schick, Hinrich Schütze
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルのタスクに組み込んだ研究。事前学習済みモデルは、事前学習済みモデルのタスクを学習する際は、タスクの説明がシンプルなテキストに近いものに置き換えられる。タスクの説明は、タスクの分類精度を上げるために必要なものに置き換えられる。
- SOM-NCSCM : An Efficient Neural Chinese Sentence Compression Model Enhanced with Self-Organizing Map
- Kangli Zi, Shi Wang, Yu Liu, Jicun Li, Yanan Cao, Cungen Cao
- TLDR: 自然言語処理で、文長を短縮する研究。文長は単語の長さではなく、単語の長さを表す単語の長さを表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を表す単語長を
- Efficient Multi-Task Auxiliary Learning: Selecting Auxiliary Data by Feature Similarity
- Po-Nien Kung, Sheng-Siang Yin, Yi-Cheng Chen, Tse-Hsuan Yang, Yun-Nung Chen
- TLDR: マルチタスク学習において、タスクの重みを絞る手法の提案。タスクの重みは、タスクの重みを絞るためのデータセット(タスクの重みを絞るデータセット)を選び、タスクの重みを絞るタスクを学習する。タスクの重みは、タスクの重みを絞るタスクを学習するタスクに置き換える形で学習する。
- GOLD: Improving Out-of-Scope Detection in Dialogues using Data Augmentation
- Derek Chen, Zhou Yu
- TLDR: 対話システムにおける、Out-of-Scene(OOS)の学習を強化する研究。通常の学習は、学習済みモデルの学習済みサンプルを学習データとして使用するが、この時、学習済みモデルの学習済みサンプルを学習データとして使用する。学習済みモデルの学習済みサンプルは、学習済みモデルの学習済みサンプルと同等の精度を達成。
- Graph Based Network with Contextualized Representations of Turns in Dialogue
- Bongseok Lee, Yong Suk Choi
- TLDR: 対話中の感情を抽出する研究。対話中の感情を抽出するネットワークを、対話中の単語を入力に入力する形で学習する。入力は単語の意味を入力に入力する形で、単語の意味を入力に入力する形で学習を行う。対話中の感情を抽出するネットワークを、対話中の単語を入力に入力する形で学習する。
- Automatically Exposing Problems with Neural Dialog Models
- Dian Yu, Kenji Sagae
- TLDR: 対話システムの挙動を強化学習で制御する研究。学習済みモデルを自動生成するだけでなく、対話システムの挙動を強化学習で制御する。学習済みモデルは、学習済みモデルの挙動を制御するモデルの挙動を学習する。学習済みモデルは、挙動を制御するモデルの挙動を制御する。
- Event Coreference Data (Almost) for Free: Mining Hyperlinks from Online News
- Michael Bugert, Iryna Gurevych
- TLDR: ニュース記事から、過去のニュースを抽出する研究。ニュース記事のタイトルを「ニュース」とし、記事中のタイトルからニュース記事のタイトルを抽出する。記事タイトルはニュース記事のタイトルと同等の文書に置き換えられる。文書のタイトルは、ニュース記事のタイトルと同等の文書に置き換えられる。
- Inducing Stereotypical Character Roles from Plot Structure
- Labiba Jahan, Rahul Mittal, Mark Finlayson
- TLDR: セクターの役割を分類する手法の提案。各役割の重み(tf-idf)、各役割の重み(tf-idf)、各役割の重み(tf-idf)、各役割の重み(tf-idf)、各役割の重み(tf-idf)、各役割の重み(tf-idf)を分類する。
- Multitask Semi-Supervised Learning for Class-Imbalanced Discourse Classification
- Alexander Spangher, Jonathan May, Sz-Rung Shiang, Lingjia Deng
- TLDR: マルチタスク学習で、異なる言語のデータセットを組み合わせてラベル付けを行う研究。マルチタスク学習では、各タスクのラベル付けを行う際に、ラベル付けのデータセットを複数用意する。これにより、ラベル付けの精度を上げることができた。
- Low Frequency Names Exhibit Bias and Overfitting in Contextualizing Language Models
- Robert Wolfe, Aylin Caliskan
- TLDR: アメリカの最初の名前の学習率と、その分布の関係を調べた研究。学習率は通常の言語モデルより低いが、分布分布は通常の言語モデルより低い。分布分布は通常の言語モデルより低いが、分布分布は通常の言語モデルより低い。分布分布は通常の言語モデルより低いが、分布分布は通常の言語モデルより低い。
- Mitigating Language-Dependent Ethnic Bias in BERT
- Jaimeen Ahn, Alice Oh
- TLDR: 言語モデルの学習と、言語モデルの潜在表現の学習を組み合わせた研究。学習済み言語モデルは、言語モデルの潜在表現を学習する際、単語のalignmentを学習する。単語のalignmentは、単語の意味を予測する指標として使用される。
- Adversarial Scrubbing of Demographic Information for Text Classification
- Somnath Basu Roy Chowdhury, Sayan Ghosh, Yiyuan Li, Junier Oliva, Shashank Srivastava, Snigdha Chaturvedi
- TLDR: 自然言語処理で、ユーザーの属性情報を誤認識するAdversarial Scrubberを提案。ユーザーの属性情報を誤認識するAdversarial Scrubberは、ユーザーの属性情報を誤認識する潜在表現を生成する。この潜在表現を誤認識する潜在表現の生成に使用する。
- Open-domain clarification question generation without question examples
- Julia White, Gabriel Poesia, Robert Hawkins, Dorsa Sadigh, Noah Goodman
- TLDR: 自然言語処理で、質問回答モデルを構築した研究。質問回答モデルは、質問回答の生成に使用する画像を、質問回答の生成に使用する画像の画像から生成する。画像の生成は、画像の画像を生成する画像の生成器に入力し、生成した画像を画像の生成器に入力する形で行う。
- Improving Sequence-to-Sequence Pre-training via Sequence Span Rewriting
- Wangchunshu Zhou, Tao Ge, Canwen Xu, Ke Xu, Furu Wei
- TLDR: 自然言語処理の手法を、よりシンプルな手法に置き換えた研究。入力は、入力と入力の2つを入力に置き換えたもの。入力は、入力と入力の2つを入力に置き換えたもの。入力は、入力と入力の2つを入力に置き換えたもの。入力は、入力と入力の2つを入力に置き換えたもの。入力は、入力と入力の2つを入力に置き換えたもの。入力は、入力と入力の2つを入力に置き換えたもの。入力は、入力と入力の2つを入力に置き換えたもの。入力は、入力と入力の2つを入力
- Coarse2Fine: Fine-grained Text Classification on Coarsely-grained Annotated Data
- Dheeraj Mekala, Varun Gangal, Jingbo Shang
- TLDR: テキスト分類器の強化学習を、人間が学習したモデルで行う研究。学習済みモデルのモデルを、人間が学習したモデルに置き換える形で学習する。学習済みモデルは、学習済みモデルの学習済みモデルと同等の精度を維持できる。
- Text2Mol: Cross-Modal Molecule Retrieval with Natural Language Queries
- Carl Edwards, ChengXiang Zhai, Heng Ji
- TLDR: 自然言語と自然言語を組み合わせた研究。自然言語は自然言語と異なる単語を含んでいるが、自然言語は単語の意味を含んでいる。そのため、自然言語の単語を入力とするモデルを学習する。単語の意味を入力とするモデルは、単語の意味を入力とするモデルと、単語の意味を入力とするモデルの2つを使用。
- Classification of hierarchical text using geometric deep learning: the case of clinical trials corpus
- Sohrab Ferdowsi, Nikolay Borissov, Julien Knafou, Poorya Amini, Douglas Teodoro
- TLDR: 臨床実験の分類を行う際に、文書構造をグラフ化する手法の提案。文書構造は、文書の分類結果から、文書の分類結果から分類結果を推定する。文書構造は、文書の分類結果から分類する。文書構造は、文書分類結果から分類結果を推定する。
- The Devil is in the Detail: Simple Tricks Improve Systematic Generalization of Transformers
- Róbert Csordás, Kazuki Irie, Juergen Schmidhuber
- TLDR: 事前学習済みモデルを改良した研究。事前学習済みモデルは、学習済みモデルの挙動を予測するネットワークの挙動を予測する。事前学習済みモデルは、学習済みモデルの挙動を予測するネットワークの挙動を予測するネットワークの挙動を予測する。事前学習済みモデルは、挙動予測が予測されるネットワークの挙動を予測するネットワークの挙動を予測する。
- Artificial Text Detection via Examining the Topology of Attention Maps
- Laida Kushnareva, Daniil Cherniavskii, Vladislav Mikhailov, Ekaterina Artemova, Serguei Barannikov, Alexander Bernstein, Irina Piontkovskaya, Dmitri Piontkovski, Evgeny Burnaev
- TLDR: 自然言語処理で文書生成を行う際に、文書の構造を予測する研究。文書の構造は、文書の表面と構造を予測する。文書の表面は、文書の構造を予測する文書の重みを予測する。文書の構造は、文書の構造を予測する文書の重みを予測する文書の重みを予測する文書の重みを予測する文書の重みを予測する文書の重みを予測する文書の重みを予測する文書の重みを予測する文書の重みを予測する文書の重みを予測する文書の重みを予測する文書の重みを予測する文書の重みを予測する文書の
- Active Learning by Acquiring Contrastive Examples
- Katerina Margatina, Giorgos Vernikos, Loïc Barrault, Nikolaos Aletras
- TLDR: 自然言語処理で、学習データの異なる特徴空間を学習する手法の提案。学習データの異なる特徴空間を学習する際は、学習データの類似度を考慮する。類似度は、学習データの類似度と同等か、同等か、同等かのどちらかを選び、学習データの類似度は同じかを計算する。
- Conditional Poisson Stochastic Beams
- Clara Meister, Afra Amini, Tim Vieira, Ryan Cotterell
- TLDR: 自然言語処理で、学習済みモデルの学習を、自然言語処理のモデルの学習に置き換えた研究。学習済みモデルの学習は、学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習に置き換える。学習済みモデルの学習は、学習済みモデルの学習済みモデルの学習済みモデルの学習に置き換える。
- Building Adaptive Acceptability Classifiers for Neural NLG
- Soumya Batra, Shashank Jain, Peyman Heidari, Ankit Arun, Catharine Youngs, Xintong Li, Pinar Donmez, Shawn Mei, Shiunzu Kuo, Vikas Bhardwaj, Anuj Kumar, Michael White
- TLDR: 自然言語処理モデルの学習を、モデルベースの手法と組み合わせて行う研究。生成したモデルの文を、文生成/モデルベースの手法と組み合わせて学習する。文生成は文の生成と、モデルベースの学習を交互に行う。学習済みモデルの学習は、文生成/モデルベースの学習と同等の手法を用いている。
- Moral Stories: Situated Reasoning about Norms, Intents, Actions, and their Consequences
- Denis Emelin, Ronan Le Bras, Jena D. Hwang, Maxwell Forbes, Yejin Choi
- TLDR: 自然言語処理で、行動の説明を言語モデルで行う研究。モデルは、行動の説明を言語モデルで行う際に、モデルの学習済み言語モデルと同等の手法を取っている。行動の説明は、モデルの学習済み言語モデルで行う。
- Truth-Conditional Captions for Time Series Data
- Harsh Jhamtani, Taylor Berg-Kirkpatrick
- TLDR: 自然言語処理で、予測値の生成を行う研究。予測値は、予測値の生成に使用されるモデルの重みで表現される。重みは、予測値の生成に使用されるモデルの重みで表現される。重みは、予測値の生成に使用されるモデルの重みで表現される。
- Injecting Entity Types into Entity-Guided Text Generation
- Xiangyu Dong, Wenhao Yu, Chenguang Zhu, Meng Jiang
- TLDR: 自然言語処理で、Entityを生成する研究。Entityは単語の意味を表す単語で、単語の意味を表す単語は単語の意味を表す単語で、単語の意味を表す単語は単語の意味を表す単語で生成を行う。Entityは単語の意味を表す単語で、単語の意味を表す単語は単語の意味を表す単語で生成を行う。
- Smelting Gold and Silver for Improved Multilingual AMR-to-Text Generation
- Leonardo F. R. Ribeiro, Jonas Pfeiffer, Yue Zhang, Iryna Gurevych
- TLDR: マルチ言語のAMR生成を行う際に、生成済みのAMRと生成済みのテキストを組み合わせる手法を検証した研究。生成済みテキストは、生成済みテキストと同等の精度を維持できるが、生成済みテキストは転移困難。そのため、生成済みテキストをテキストと同等の精度で学習する手法を提案。
- Learning Compact Metrics for MT
- Amy Pu, Hyung Won Chung, Ankur Parikh, Sebastian Gehrmann, Thibault Sellam
- TLDR: マルチ言語の翻訳モデルで、モデルサイズが大きいと学習効率が下がる問題を解決する研究。モデルサイズは学習効率を上げるのに有効だが、学習効率を上げるためにはモデルサイズが大きいほうが良い。そのため、モデルサイズを小さくする蒸留を行なっている。蒸留は、翻訳モデルの学習効率を上げるのに有効な手法。
- The Impact of Positional Encodings on Multilingual Compression
- Vinit Ravishankar, Anders Søgaard
- TLDR: マルチ言語対応の翻訳モデルで、位置情報の分散を考慮した研究。位置情報の分散は、単語分散と単語分散の2つに分けられる。分散は、単語分散と単語分散の2つを結合する形で行う。分散は、単語分散と単語分散の2つを結合する形で行う。
- Disentangling Representations of Text by Masking Transformers
- Xiongyi Zhang, Jan-Willem van de Meent, Byron Wallace
- TLDR: 事前学習済みモデルを、学習済みモデルの潜在表現にマスクをかける研究。学習済みモデルの潜在表現をマスクをかけることで、潜在表現の潜在表現を学習する。学習済みモデルの潜在表現は、学習済みモデルの潜在表現と同等の精度を維持できる。
- Exploring the Role of BERT Token Representations to Explain Sentence Probing Results
- Hosein Mohebbi, Ali Modarressi, Mohammad Taher Pilehvar
- TLDR: 単語表現をBERTで学習する研究。単語表現は、単語の意味を表す単語(=単語の意味)を予測するタスクで学習する。単語表現は、単語の意味を予測するタスクで学習する。単語表現は、単語の意味を予測するタスクで学習する。単語表現は、単語の意味を予測するタスクで学習する。
- Do Long-Range Language Models Actually Use Long-Range Context?
- Simeng Sun, Kalpesh Krishna, Andrew Mattarella-Micke, Mohit Iyyer
- TLDR: 長い文を予測するTransformerの手法について、長い文を予測する際は、長い文を予測するモデルが有効か検証した研究。長い文は予測精度が落ちるが、長い文は予測精度が上がることを確認。また、長い文は予測精度が落ちる傾向がある。
- The World of an Octopus: How Reporting Bias Influences a Language Model’s Perception of Color
- Cory Paik, Stéphane Aroca-Ouellette, Alessandro Roncone, Katharina Kann
- TLDR: テキストのみで学習するモデルは、学習時に自然言語処理のモデルと同等の効果を発揮するが、マルチモーダルモデルは学習時に自然言語処理のモデルと同等の効果を発揮するのか検証した研究。自然言語処理のモデルは、自然言語処理のモデルと同等の効果を発揮するが、マルチモーダルモデルは同等の効果を発揮しない。
- SELFEXPLAIN: A Self-Explaining Architecture for Neural Text Classifiers
- Dheeraj Rajagopal, Vidhisha Balachandran, Eduard H Hovy, Yulia Tsvetkov
- TLDR: テキスト分類器の説明を、文単位ではなく単語単位で行う研究。文単位の説明は、文の意味を表す単語を予測する。単語単位の説明は、単語の意味を表す単語の意味を予測する。単語単位の説明は、単語の意味を表す単語の意味を予測する。
- Memory and Knowledge Augmented Language Models for Inferring Salience in Long-Form Stories
- David Wilmot, Frank Keller
- TLDR: 事前学習済み言語モデルを、長い文から学習する研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み単語を認識するモデルで、事前学習済み言語モデルは、事前学習済み言語モデルの学習済み単語を認識するモデルで学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み単語を認識するモデルと同等の精度を達成。
- Semantic Novelty Detection in Natural Language Descriptions
- Nianzu Ma, Alexander Politowicz, Sahisnu Mazumder, Jiahua Chen, Bing Liu, Eric Robertson, Scott Grigsby
- TLDR: 自然言語処理で、自然言語の表現を予測するタスクの提案。自然言語の表現は通常の自然言語表現と異なり、自然言語の表現を予測するタスクは別々に行う必要がある。このタスクでは、自然言語の表現を予測するタスクを提案している。
- Jump-Starting Item Parameters for Adaptive Language Tests
- Arya D. McCarthy, Kevin P. Yancey, Geoffrey T. LaFlair, Jesse Egbert, Manqian Liao, Burr Settles
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルの学習済みモデルと比較し、事前学習済みモデルの学習済みモデルと比較した研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を維持できない。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を維持できない。
- Voice Query Auto Completion
- Raphael Tang, Karun Kumar, Kendra Chalkley, Ji Xin, Liming Zhang, Wenyan Li, Gefei Yang, Yajie Mao, Junho Shin, Geoffrey Craig Murray, Jimmy Lin
- TLDR: 音声検索で、事前学習済みモデルの最終的な要約を自動生成する研究。事前学習済みモデルは、事前学習済みモデルの要約を入力とする。要約は、入力と要約の要約を結合する形で生成される。要約は、要約の要約を入力とする入力と要約の要約を入力とする要約を入力とする要約を入力とする要約を挟む形で生成される。
- CoPHE: A Count-Preserving Hierarchical Evaluation Metric in Large-Scale Multi-Label Text Classification
- Matúš Falis, Hang Dong, Alexandra Birch, Beatrice Alex
- TLDR: マルチモーダルテキスト分類器の評価手法の提案。分類器の構造を、階層構造と階層構造の組み合わせで表現する。階層構造は、階層構造の表現をベースに、階層構造の表現をベースに階層構造を表現する。階層構造は、階層構造の表現をベースに、階層構造を表現する表現をベースに表現する。
- Learning Universal Authorship Representations
- Rafael A. Rivera-Soto, Olivia Elizabeth Miano, Juanita Ordonez, Barry Y. Chen, Aleem Khan, Marcus Bishop, Nicholas Andrews
- TLDR: 文書の作成時に、異なるドメインの文書を転移させる研究。転移は文書の作成時に、文書の作成者と文書の作成者双方の文書の作成者双方の文書作成者で行う。文書の作成者は文書の作成者と文書の作成者双方の文書作成者で行う。文書の作成者は文書の作成者と文書の作成者双方の文書作成者で行う。文書の作成者は文書の作成者と文書の作成者双方の文書作成者で行う。
- Predicting emergent linguistic compositions through time: Syntactic frame extension via multimodal chaining
- Lei Yu, Yang Xu
- TLDR: 自然言語における、フレーム構造の変化を予測する研究。フレーム構造は、単語の意味を表現するフレーム構造と、フレーム構造を表現するフレーム構造の2つに分けている。フレーム構造は、単語の意味を表現するフレーム構造と、フレーム構造を表現するフレーム構造の2つに分けている。フレーム構造は、フレーム構造の表現を表現するフレーム構造と、フレーム構造を表現するフレーム構造の2つに分けている。
- Frequency Effects on Syntactic Rule Learning in Transformers
- Jason Wei, Dan Garrette, Tal Linzen, Ellie Pavlick
- TLDR: 自然言語処理で、事前学習済みモデルがモデルのモデルと同等の性能を発揮するケースを検証した研究。事前学習済みモデルは、通常のモデルと同等の性能を発揮するが、事前学習済みモデルは通常のモデルと同等の性能を発揮する。事前学習済みモデルは、通常のモデルと同等の性能を発揮するが、事前学習済みモデルは通常のモデルと同等の性能を発揮する。
- A surprisal–duration trade-off across and within the world’s languages
- Tiago Pimentel, Clara Meister, Elizabeth Salesky, Simone Teufel, Damián Blasi, Ryan Cotterell
- TLDR: 自然言語処理で、人間が認識する速度の変動を調べた研究。言語の変動は、人間が認識する速度の変動と近い。通常の高速化は、言語の変動が大きい場合に起こりう。しかし、言語の変動は、人間が認識する速度の変動と近い。
- Revisiting the Uniform Information Density Hypothesis
- Clara Meister, Tiago Pimentel, Patrick Haller, Lena Jäger, Ryan Cotterell, Roger Levy
- TLDR: 言語モデルの学習時間と文書理解度を比較した研究。文書/文の読解時間と文書理解度を比較し、文書理解度が低い文書は文書理解度が低いと判断する傾向がある。文書理解度が高い文書は文書理解度が高いと判断する傾向があるが、文書理解度が高い文書は文書理解度が高いと判断する傾向がある。
- Condenser: a Pre-training Architecture for Dense Retrieval
- Luyu Gao, Jamie Callan
- TLDR: 事前学習済み言語モデルを、強化学習で学習する研究。事前学習済み言語モデルは、事前学習済み言語モデルのAttentionをベースにしている。事前学習済み言語モデルは、事前学習済み言語モデルのAttentionをベースにしている。事前学習済み言語モデルは、事前学習済み言語モデルのAttentionをベースにしている。事前学習済み言語モデルは、事前学習済み言語モデルのAttentionをベースにしている。
- Monitoring geometrical properties of word embeddings for detecting the emergence of new topics.
- Clément Christophe, Julien Velcin, Jairo Cugliari, Manel Boumghar, Philippe Suignard
- TLDR: 自然言語処理で、徐々に新しい単語が出てくる現象を検知する研究。単語の表現を入力とし、入力と入力の表現を結合する形で、単語の表現を入力とし、入力と入力の表現を結合する形で検知を行う。入力と入力の表現を結合する形で検知を行う。
- Contextualized Query Embeddings for Conversational Search
- Sheng-Chieh Lin, Jheng-Hong Yang, Jimmy Lin
- TLDR: 対話システムにおける低latencyの検索手法の提案。対話システムは、事前学習済みモデルと同等の性能が得られるが、学習済みモデルは学習データが少ないため、事前学習済みモデルの学習データが足りない。そこで、事前学習済みモデルの学習データと対話データセットを組み合わせて学習を行う。
- Ultra-High Dimensional Sparse Representations with Binarization for Efficient Text Retrieval
- Kyoung-Rok Jang, Junmo Kang, Giwon Hong, Sung-Hyon Myaeng, Joohee Park, Taewon Yoon, Heecheol Seo
- TLDR: 自然言語処理で、単語の意味を抽出する手法の提案。単語の意味を抽出する際、単語の意味を入力とする単語ベクトルを入力とする。入力は単語ベクトルのベクトルを入力とする。入力は単語ベクトルのベクトルを入力とする。入力は単語ベクトルのベクトルを入力とする。
- IR like a SIR: Sense-enhanced Information Retrieval for Multiple Languages
- Rexhina Blloshmi, Tommaso Pasini, Niccolò Campolungo, Somnath Banerjee, Roberto Navigli, Gabriella Pasi
- TLDR: 文書分類において、単語の意味を単語ベクトルに変換する手法の提案。単語ベクトルは単語ベクトルの意味を含まない単語を含まない単語ベクトルを生成する。単語ベクトルは単語ベクトルの意味を含まない単語ベクトルを生成する。単語ベクトルは単語ベクトルの意味を含まない単語ベクトルを生成する。
- Neural Attention-Aware Hierarchical Topic Model
- Yuan Jin, He Zhao, Ming Liu, Lan Du, Wray Buntine
- TLDR: 文書から文書を生成する研究。文書の文長と文書長の文長を結合し、文書長の文長と文書長の文長を結合した文書長を生成する。文書長は文書長の文長をベースに、文書長は文書長の文長をベースに生成する。文書長は文書長の文長をベースに、文書長は文書長の文長をベースに生成する。
- Relational World Knowledge Representation in Contextual Language Models: A Review
- Tara Safavi, Danai Koutra
- TLDR: 自然言語処理で、自然言語処理の知識表現を強化する研究。モデルは自然言語処理の知識表現を強化する。モデルは、自然言語処理の知識表現を強化する。モデルは、自然言語処理の知識表現を強化する。モデルは、自然言語処理の知識表現を強化する。
- Certified Robustness to Programmable Transformations in LSTMs
- Yuhao Zhang, Aws Albarghouthi, Loris D’Antoni
- TLDR: 自然言語処理モデルの耐性を検証した研究。入力のパラメーターを入力とし、入力のパラメーターを入力とし入力と入力のパラメーターを入力とし入力と入力のパラメーターを入力とし入力と入力のパラメーターを入力とし入力と入力のパラメーターを入力とし入力と入力のパラメーターを入力とし入力と入力のパラメーターを入力とし入力と入力のパラメーターを入力とし入力と入力のパラメーターを入力とし入力と入力の入力を入力と
- ReGen: Reinforcement Learning for Text and Knowledge Base Generation using Pretrained Language Models
- Pierre Dognin, Inkit Padhi, Igor Melnyk, Payel Das
- TLDR: 強化学習を用いた文書生成で、文を生成する際は文の生成だけでなく、文の生成も同時に行う必要がある。文生成は文の生成と文生成の2つを同時に行う必要があるが、文生成は文の生成と文生成の2つを同時に行う必要がある。文生成は文生成と文生成の2つを同時に行う必要があるが、文生成は文生成と文生成の2つを同時に行う必要がある。
- Contrastive Out-of-Distribution Detection for Pretrained Transformers
- Wenxuan Zhou, Fangyu Liu, Muhao Chen
- TLDR: 学習済みモデルで学習したデータのみを、学習済みモデルのデータに転移する研究。学習済みモデルのデータは、学習済みモデルのデータと同等の精度を獲得できるが、学習済みモデルのデータは転移先のモデルに転移する。転移先のモデルは、学習済みモデルのデータと同等の精度を獲得できるか検証している。
- MindCraft: Theory of Mind Modeling for Situated Dialogue in Collaborative Tasks
- Cristian-Paul Bara, Sky CH-Wang, Joyce Chai
- TLDR: 自然言語処理で、自然言語処理のモデルを用いたタスクの提案。タスクは3Dの3Dゲームで、タスクは3Dの3D空間をモデル化する。タスクは3Dの3D空間をモデル化する。タスクは3D空間のモデル化で、タスクは3D空間をモデル化する。タスクは3D空間をモデル化する。
- Detecting Speaker Personas from Conversational Texts
- Jia-Chen Gu, Zhenhua Ling, Yu Wu, Quan Liu, Zhigang Chen, Xiaodan Zhu
- TLDR: 対話中の人物を特定する研究。対話中の人物を特定する際、その人物のプロフィールを入力とする。プロフィールは文書から生成されるが、文書は文書から生成される。文書から生成される文書は文書の文書分類器で分類し、文書分類器で生成した文書から文書分類器で評価を行う。
- Cross-lingual Intermediate Fine-tuning improves Dialogue State Tracking
- Nikita Moghe, Mark Steedman, Alexandra Birch
- TLDR: マルチ言語対応の翻訳モデルを、事前学習済みモデルに転移させる研究。事前学習済みモデルは、事前学習済みモデルの学習済み言語のタスクを学習する。事前学習済みモデルは、事前学習済みモデルのタスクを学習する。事前学習済みモデルは、事前学習済みモデルのタスクを学習する。事前学習済みモデルは、事前学習済みモデルのタスクを学習する。
- ConvFiT: Conversational Fine-Tuning of Pretrained Language Models
- Ivan Vulić, Pei-Hao Su, Samuel Coope, Daniela Gerz, Paweł Budzianowski, Iñigo Casanueva, Nikola Mrkšić, Tsung-Hsien Wen
- TLDR: 言語モデルの事前学習を、事前学習済みモデルに置き換える手法の提案。事前学習済みモデルは事前学習済みモデルと同等の精度が得られるが、事前学習済みモデルは事前学習済みモデルと同等の精度が得られない。事前学習済みモデルは事前学習済みモデルと同等の精度が得られるが、事前学習済みモデルは事前学習済みモデルと同等の精度が得られない。
- We’ve had this conversation before: A Novel Approach to Measuring Dialog Similarity
- Ofer Lavi, Ella Rabinovich, Segev Shlomov, David Boaz, Inbal Ronen, Ateret Anaby Tavor
- TLDR: 対話システムにおける、文書類似度を計測する手法の提案。文書の文書構造(単語/文間の関係)、文書の文書特徴(文書の分類/分類結果など)、文書の文書特徴(文書の分類結果など)、文書特徴(文書分類結果など)、文書特徴(文書分類結果など)を計測する。文書特徴(文書分類結果など)、文書特徴(文書分類結果など)を計測する。
- Towards Incremental Transformers: An Empirical Analysis of Transformer Models for Incremental NLU
- Patrick Kahardipraja, Brielen Madureira, David Schlangen
- TLDR: 事前学習済みモデルを再帰的に学習する手法の提案。事前学習済みモデルは、入力の予測精度が低い場合、予測結果が得られない場合に予測結果を予測する。事前学習済みモデルは、予測結果が得られない場合に予測結果を予測する。事前学習済みモデルは、予測結果が得られない場合に予測結果を予測する。
- Feedback Attribution for Counterfactual Bandit Learning in Multi-Domain Spoken Language Understanding
- Tobias Falke, Patrick Lehnen
- TLDR: マルチドメインの対話システムで、学習データの評価をマルチドメインの学習データに置き換える手法の提案。マルチドメインの学習データは、学習データの評価に使われることが多いが、マルチドメインの学習データは評価に使われることが多い。そのため、マルチドメインの学習データで評価を行う手法を提案している。
- Label Verbalization and Entailment for Effective Zero and Few-Shot Relation Extraction
- Oscar Sainz, Oier Lopez de Lacalle, Gorka Labaka, Ander Barrena, Eneko Agirre
- TLDR: 教師なし学習で、教師なし学習の精度を上げる研究。教師なし学習は教師なし学習と同等の精度が得られるが、教師なし学習は教師なし学習と同等の精度が得られない。教師なし学習は教師なし学習と同等の精度が得られるが、教師なし学習は教師なし学習と同等の精度が得られない。
- Extend, don’t rebuild: Phrasing conditional graph modification as autoregressive sequence labelling
- Leon Weber, Jannes Münchmeyer, Samuele Garda, Ulf Leser
- TLDR: 自然言語処理で、画像をGraph 拡張する研究。既存の手法は、画像を生成する際、画像のEncoder/Graph 拡張のEncodeを同時に行うが、このEncodeはEncodeした画像をGraph 拡張に使用する。このEncodeは、画像のEncode時に生成した画像をGraph 拡張に使用する。
- Zero-Shot Information Extraction as a Unified Text-to-Triple Translation
- Chenguang Wang, Xiao Liu, Zui Chen, Haoyun Hong, Jie Tang, Dawn Song
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルに置き換えた研究。事前学習済み言語モデルは、事前学習済み言語モデルの予測結果をベースに学習する。事前学習済み言語モデルは、事前学習済み言語モデルの予測結果をベースに学習する。事前学習済み言語モデルは、事前学習済み言語モデルの予測結果をベースに学習する。
- Learning Logic Rules for Document-Level Relation Extraction
- Dongyu Ru, Changzhi Sun, Jiangtao Feng, Lin Qiu, Hao Zhou, Weinan Zhang, Yong Yu, Lei Li
- TLDR: 文書の文構造から、文書の文関係を抽出する研究。文関係は文書の構造から抽出するが、文関係は文書の構造から抽出する。文書構造から抽出する文関係は、文書構造の構造から抽出する文関係と、文書構造の構造から抽出する文関係をそれぞれ抽出する。文書構造から抽出する文関係は、文書構造の構造から抽出する文関係を生成する。
- A Large-Scale Dataset for Empathetic Response Generation
- Anuradha Welivita, Yubo Xie, Pearl Pu
- TLDR: 感情を扱うモデルの学習を、事前学習済みモデルと比較した研究。事前学習済みモデルは、感情を入力とする質問に対して、感情の表現を入力とする。この入力は、感情の表現を入力とする質問に近いものになる。事前学習済みモデルは、感情表現を入力とする質問に近いものになるよう学習する。
- The Perils of Using Mechanical Turk to Evaluate Open-Ended Text Generation
- Marzena Karpinska, Nader Akoury, Mohit Iyyer
- TLDR: 自然言語処理の評価について、モデルの評価と教師の評価を比較した研究。モデルの評価は教師の評価と同等の精度が得られるが、教師の評価は教師の評価と同等の精度が得られない。教師の評価は、教師の評価と同等の精度が得られるか検証している。
- Documenting Large Webtext Corpora: A Case Study on the Colossal Clean Crawled Corpus
- Jesse Dodge, Maarten Sap, Ana Marasović, William Agnew, Gabriel Ilharco, Dirk Groeneveld, Margaret Mitchell, Matt Gardner
- TLDR: テキストエッジの作成に、事前学習済み言語モデルを適用する手法のまとめ。事前学習済みモデルは、事前学習済み言語モデルの文書を削除するブロックを導入する。このブロックは、事前学習済みモデルの文書を削除するブロックと、事前学習済みモデルの文書を削除するブロックの2つに分けている。
- AfroMT: Pretraining Strategies and Reproducible Benchmarks for Translation of 8 African Languages
- Machel Reid, Junjie Hu, Graham Neubig, Yutaka Matsuo
- TLDR: 機械翻訳のベンチマークを、自然言語処理のモデルで作成した研究。モデルは、自然言語処理のモデルで、モデルの学習は事前学習済み言語モデルで行う。事前学習済み言語モデルは、自然言語処理のモデルと同等の精度を維持できる。
- Evaluating the Evaluation Metrics for Style Transfer: A Case Study in Multilingual Formality Transfer
- Eleftheria Briakou, Sweta Agrawal, Joel Tetreault, Marine Carpuat
- TLDR: 事前学習済みモデルの評価手法を、多言語で検証した研究。事前学習済みモデルは、事前学習済みモデルの評価結果と同等の精度を維持できるか検証している。事前学習済みモデルは、事前学習済みモデルの評価結果と同等の精度を維持できるか検証している。
- MS-Mentions: Consistently Annotating Entity Mentions in Materials Science Procedural Text
- Tim O’Gorman, Zach Jensen, Sheshera Mysore, Kevin Huang, Rubayyat Mahbub, Elsa Olivetti, Andrew McCallum
- TLDR: 自然言語処理のモデルで、自然言語処理の文書から、自然言語処理の文書にラベルを付与する研究。ラベルは文書のタイトル、文書のタイトルは文書のタイトル、文書のタイトルは文書のタイトル、文書のタイトルは文書のタイトル、文書のタイトルは文書のタイトルから選ぶ。文書のタイトルは文書のタイトルから選ぶ。
- Understanding Politics via Contextualized Discourse Processing
- Rajkumar Pujari, Dan Goldwasser
- TLDR: ニュースやイベントについて、文書から、文書から文書を生成する研究。文書から文書を生成するEncoder/Convserorを、文書から文書を生成するConvserorを、文書から文書を生成するConvserorを、文書から文書を生成するConvserorを、文書から文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書を生成する文書
- Conundrums in Event Coreference Resolution: Making Sense of the State of the Art
- Jing Lu, Vincent Ng
- TLDR: イベントの転移に関する研究。転移は、イベントの転移先の予測結果を予測するモデル(Span)と、転移先の予測結果を予測するモデル(Span)の2つに分けられている。Spanは、転移先の予測結果を予測するモデルで、Spanは、予測結果を予測するモデルで、Spanは、予測結果を予測するモデルで、Spanは、予測結果を予測するモデルで、Spanは、予測結果を予測するモデルで、Spanは、予測結果を予測するモデルで、Spanは、予測結果を予測するモデルで、Spanは、予測結果を予測するモデルで、
- Weakly supervised discourse segmentation for multiparty oral conversations
- Lila Gravellier, Julie Hunter, Philippe Muller, Thomas Pellegrini, Isabelle Ferrané
- TLDR: テキストセグメンテーションの手法を、文中の単語を細工する手法に変えた研究。単語の位置を細工する際、単語の位置を細工する(単語の位置は、単語の位置と同等になるよう学習する)。単語の位置は、単語の位置と同等になるよう学習する。
- Narrative Embedding: Re-Contextualization Through Attention
- Sean Wilner, Daniel Woolridge, Madeleine Glick
- TLDR: 文の生成を行う際に、イベント文をモデルに置き換える研究。イベント文は、文の生成時に使われる単語をモデルに置き換える。この時、モデルはイベント文をモデルに置き換える。モデルは、モデルの生成時に、イベント文をモデルに置き換える。
- Focus on what matters: Applying Discourse Coherence Theory to Cross Document Coreference
- William Held, Dan Iter, Dan Jurafsky
- TLDR: 文書の文書構造を再現する手法の提案。文書構造を再現する文書構造を、文書構造を再現する文書構造に置き換える。文書構造を再現する文書構造を、文書構造を再現する文書構造に置き換える。文書構造を再現する文書構造を、文書構造を再現する文書構造に置き換える。文書構造を再現する文書構造を、文書構造を再現する文書構造に置き換える。文書構造を再現する文書構造を、文書構造を再現する文書構造に置き換える。文書構造を再現する文書構造を、文書構造を再現する文書構造に置き
- Salience-Aware Event Chain Modeling for Narrative Understanding
- Xiyang Zhang, Muhao Chen, Jonathan May
- TLDR: 自然言語処理で、重要なイベントのフレームワークを抽出する研究。フレームワークは自然言語処理のモデルで、事前学習済みモデルと比較して、フレームワークのフレームワークを学習する。フレームワークは、事前学習済みモデルと同等の精度を達成。
- Asking It All: Generating Contextualized Questions for any Semantic Role
- Valentina Pyatkin, Paul Roit, Julian Michael, Yoav Goldberg, Reut Tsarfaty, Ido Dagan
- TLDR: 文書中の役割分担を調べるタスクの提案。文書中の役割分担を調べるタスクは、文書の文脈から生成することが多いが、文書の文脈から生成するタスクは、文書の文脈から生成することが多い。文書の文脈から生成するタスクは、文書の文脈から生成することが多い。
- Fast, Effective, and Self-Supervised: Transforming Masked Language Models into Universal Lexical and Sentence Encoders
- Fangyu Liu, Ivan Vulić, Anna Korhonen, Nigel Collier
- TLDR: 教師なし言語モデルを、転移学習で学習する研究。転移学習は転移先の単語を学習する際、転移先の単語と同等の転移先単語の類似度を測るための手法。転移先単語の類似度は、転移先の単語と同等の精度を維持するよう学習する。転移先単語の類似度は、転移先の単語と同等の精度を維持するよう学習する。転移先単語の類似度は、転移先の単語と同等の精度を維持するよう学習する。転移先単語の類似度は、転移先の単語と同等の精度を維持するよう学習する。
- RuleBERT: Teaching Soft Rules to Pre-Trained Language Models
- Mohammed Saeed, Naser Ahmadi, Preslav Nakov, Paolo Papotti
- TLDR: 事前学習済み言語モデルを、自然言語処理で学習する研究。事前学習済みモデルは、通常の自然言語処理では予測できない自然言語処理のルールを学習する。このルールを学習する際は、ルールの重みを予測する関数を導入する。これにより、予測精度を上げつつ予測精度を上げることが出来る。
- Stepmothers are mean and academics are pretentious: What do pretrained language models learn about you?
- Rochelle Choenni, Ekaterina Shutova, Robert van Rooij
- TLDR: 言語モデルの分類器で、異性認識の分類器と異なり、異性認識の分類器は分類器の分類器を学習する際、分類器の分類器の分類器を学習する。分類器は分類器の分類器を学習する際、分類器の分類器の分類器を学習する。分類器の分類器は、分類器の分類器を学習する際、分類器の分類器を学習する際、分類器の分類器を学習する際、分類器の分類器を学習する際、分類器の分類器を学習する際、分類器の分類器を学習する際、分類器の分類器を学習する際
- ConSeC: Word Sense Disambiguation as Continuous Sense Comprehension
- Edoardo Barba, Luigi Procopio, Roberto Navigli
- TLDR: 自然言語処理で、単語の言い換えを学習する研究。単語の言い換えは、単語の言い換えを学習するモデル(Transformer)で行う。言い換えは、単語の言い換えを学習するモデル(Transformer)で行う。言い換えは、単語の言い換えを学習するモデル(Transformer)で行う。
- Shortcutted Commonsense: Data Spuriousness in Deep Learning of Commonsense Reasoning
- Ruben Branco, António Branco, João António Rodrigues, João Ricardo Silva
- TLDR: 自然言語処理で、学習済みモデルが学習する汎化性能を検証した研究。汎化性能は学習済みモデルの性能と同等の精度を維持できるか検証したが、汎化性能は汎化性能の低いモデルに依存する。汎化性能は汎化性能の低いモデルに依存するが、汎化性能は汎化性能の低いモデルに依存する。
- When differential privacy meets NLP: The devil is in the detail
- Ivan Habernal
- TLDR: テキストを自動生成するAuto Encoderの提案。既存のAuto Encoderはプライバシーを担保するが、Adversarial Privacyはプライバシーを担保する。そのため、プライバシーを担保するモデルを採用している。Adversarial Privacyはプライバシーを担保するモデルと同等の性能を発揮するが、Adversarial Privacyはプライバシーを担保するモデルと同等の性能を発揮する。
- Achieving Model Robustness through Discrete Adversarial Training
- Maor Ivgi, Jonathan Berant
- TLDR: オンライン強化学習で、Adversarial Exampleを生成する手法の提案。Adversarial Exampleは学習時に生成されるが、学習時に生成されると学習コストが高くなるため、学習時に生成されるAdversarial Exampleを学習時に使用する。Adversarial Exampleは学習時に生成されるため、学習時に生成されるAdversarial Exampleを学習時に使用する。
- Debiasing Methods in Natural Language Understanding Make Bias More Accessible
- Michael Mendelson, Yonatan Belinkov
- TLDR: 自然言語処理モデルの潜在表現に対するバイアスを調べる研究。バイアスは潜在表現の表現に近い表現を生成するが、この表現は潜在表現の表現に近い表現を生成する。そのため、潜在表現の表現をバイアスの表現に置き換える手法を提案している。
- Evaluating the Robustness of Neural Language Models to Input Perturbations
- Milad Moradi, Matthias Samwald
- TLDR: 自然言語処理モデルの耐性を検証した研究。入力のノイズを除去する手法をいくつか提案しているが、ノイズが入る入力は、通常のモデルの耐性に影響する。入力のノイズを除去する手法は、通常のモデルの耐性を上げるのに有効だが、ノイズが入る入力は、通常のモデルの耐性に影響する。
- How much pretraining data do language models need to learn syntax?
- Laura Pérez-Mayos, Miguel Ballesteros, Leo Wanner
- TLDR: 事前学習済み言語モデルの潜在表現の有効性を検証した研究。事前学習済みモデルは、事前学習済み言語モデルの潜在表現を学習する際、学習データの最大化が有効か検証している。学習データの最大化は、事前学習済みモデルの潜在表現を学習する際の有効性を検証する。
- Sorting through the noise: Testing robustness of information processing in pre-trained language models
- Lalchand Pandia, Allyson Ettinger
- TLDR: 事前学習済みモデルの予測精度を検証した研究。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための様々なタスクを想定している。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための様々なタスクを想定している。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための様々なタスクを想定している。
- Contrastive Explanations for Model Interpretability
- Alon Jacovi, Swabha Swayamdipta, Shauli Ravfogel, Yanai Elazar, Yejin Choi, Yoav Goldberg
- TLDR: 自然言語処理で、ある特徴が異なると判断する際、その特徴を説明する手法の提案。通常の説明は、特徴が異なると判断する要素を説明するが、この時、特徴が異なると判断する要素を説明する。この時、特徴が異なると判断する要素を説明する要素として、特徴が異なると判断する要素を追加する。
- On the Transferability of Adversarial Attacks against Neural Text Classifier
- Liping Yuan, Xiaoqing Zheng, Yi Zhou, Cho-Jui Hsieh, Kai-Wei Chang
- TLDR: 機械学習モデルに対するAdversarial Exampleの転移可能性を調べた研究。Adversarial Exampleは、学習済みモデルの学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い場合、学習率が低い
- Conditional probing: measuring usable information beyond a baseline
- John Hewitt, Kawin Ethayarajh, Percy Liang, Christopher Manning
- TLDR: 自然言語処理で、固有表現の予測が有効か検証した研究。固有表現の予測は、固有表現の表現が予測に有効かを検証する。固有表現の表現は、固有表現の表現と同等の精度が得られるかを検証する。固有表現の表現は、固有表現の表現と同等の精度が得られるかを検証する。
- GFST: Gender-Filtered Self-Training for More Accurate Gender in Translation
- Prafulla Kumar Choubey, Anna Currey, Prashant Mathur, Georgiana Dinu
- TLDR: 翻訳における性別適合学習を、事前学習済み言語モデルで行う研究。事前学習済み言語モデルは、事前学習済み言語モデルの生成した単語をベースに、単語の生成結果をベースに生成した単語をベースに学習する。単語の生成結果は、事前学習済み言語モデルの生成結果と同等の精度を達成。
- “Wikily” Supervised Neural Translation Tailored to Cross-Lingual Tasks
- Mohammad Sadegh Rasooli, Chris Callison-Burch, Derry Tanti Wijaya
- TLDR: 翻訳だけでなく、画像のキャプチャーも同時に行う研究。Wikipediaの文を翻訳する際は、文のタイトルと画像のキャプチャーを同時に生成する。Wikipediaの文は、翻訳のタスクで使用される単語をベースに生成される。Wikipediaの文は、翻訳のタスクで使用される単語をベースに生成される。
- mT6: Multilingual Pretrained Text-to-Text Transformer with Translation Pairs
- Zewen Chi, Li Dong, Shuming Ma, Shaohan Huang, Saksham Singhal, Xian-Ling Mao, Heyan Huang, Xia Song, Furu Wei
- TLDR: マルチ言語のTransformerで、翻訳文の事前学習を改善した研究。翻訳文の事前学習は、翻訳文の翻訳文を翻訳文の翻訳文に置き換える形で行う。翻訳文の翻訳文を翻訳文の翻訳文に置き換える形で行う。翻訳文の翻訳文を翻訳文の翻訳文に置き換える形で行う。
- Improving Zero-Shot Cross-Lingual Transfer Learning via Robust Training
- Kuan-Hao Huang, Wasi Ahmad, Nanyun Peng, Kai-Wei Chang
- TLDR: マルチ言語の転移で、学習率を上げるためには学習率を上げるためにはAdversarialとRandomizedの2つを用い、Adversarialは学習率を上げるためにはAdversarialの学習率を上げるためにはRandomizedの学習率を上げるためにはAdversarialの学習率を上げるためにはAdversarialの学習率を上げるためにはAdversarialの学習率を上げるためにはAdversarialの学習率を上げるためにはAdversarialの学習率を上げるためにはAdversarialの学習率を上げるためにはAdversarialの学習率を上げるためにはAdversarialの学習率を上げるためにはAdversarial
- Speechformer: Reducing Information Loss in Direct Speech Translation
- Sara Papi, Marco Gaido, Matteo Negri, Marco Turchi
- TLDR: 音声翻訳において、音声の重みを調整する手法の提案。音声の重みは通常の音声の重みと同等の計算が必要で、重みの計算は通常の音声の重み計算と同等の計算が必要。そのため、重みの計算は通常の音声の重み計算と同等の計算が必要。
- Is “moby dick” a Whale or a Bird? Named Entities and Terminology in Speech Translation
- Marco Gaido, Susana Rodríguez, Matteo Negri, Luisa Bentivogli, Marco Turchi
- TLDR: 自然言語処理の翻訳モデルで、自然言語処理の精度を測る研究。通常の翻訳モデルは自然言語処理の精度を測るのに使われる単語を全て予測するが、この時単語の予測精度は予測精度の低い単語を予測するモデルに依存する。そのため、単語の予測精度を測るモデルを導入している。
- HintedBT: Augmenting Back-Translation with Quality and Transliteration Hints
- Sahana Ramnath, Melvin Johnson, Abhirut Gupta, Aravindan Raghuveer
- TLDR: 翻訳の精度向上を目的とした研究。翻訳の品質は、翻訳文の文長が短い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が
- Translation-based Supervision for Policy Generation in Simultaneous Neural Machine Translation
- Ashkan Alinejad, Hassan S. Shavarani, Anoop Sarkar
- TLDR: 翻訳を行う際に、翻訳文の読み順を学習する研究。翻訳文の読み順は、翻訳文の文長を予測するモデルの重みを考慮する必要がある。そのため、翻訳文の読み順を学習するモデルを学習する。読み順は、翻訳文の文長を予測するモデルの重みを考慮する必要がある。
- Nearest Neighbour Few-Shot Learning for Cross-lingual Classification
- M Saiful Bari, Batool Haider, Saab Mansour
- TLDR: マルチ言語対応のモデルを、事前学習済みモデルに適用する研究。事前学習済みモデルは、事前学習済み言語の予測精度が低い場合、予測精度が低い言語の予測精度に負ける可能性がある。そのため、事前学習済みモデルの予測精度を上げるための事前学習済みモデルの重みを調整する。
- Cross-Attention is All You Need: Adapting Pretrained Transformers for Machine Translation
- Mozhdeh Gheini, Xiang Ren, Jonathan May
- TLDR: 翻訳モデルの転移学習で、転移学習のパラメーターを緩やかにする手法の提案。転移学習のパラメーターは、転移先の言語/ターゲット言語の予測精度を上げるために使われることが多いが、転移先の言語/ターゲット言語の予測精度を上げるために使われることが多い。
- Effects of Parameter Norm Growth During Transformer Training: Inductive Bias from Gradient Descent
- William Merrill, Vivek Ramanujan, Yoav Goldberg, Roy Schwartz, Noah A. Smith
- TLDR: ニューラルネットの学習率が上がると、学習率が上がると予測する研究。学習率が高いほど学習率が高くなる=学習率が高い=学習率が高いとしている。学習率が高いほど学習率が高い=学習率が高いとしている。
- Foreseeing the Benefits of Incidental Supervision
- Hangfeng He, Mingyuan Zhang, Qiang Ning, Dan Roth
- TLDR: 事前学習済みモデルで、事前学習済みモデルの学習効果を検証した研究。事前学習済みモデルは、事前学習済みモデルの学習結果と同等の結果が得られるか検証している。事前学習済みモデルは、事前学習済みモデルの学習結果と同等の結果が得られるか検証している。事前学習済みモデルは、事前学習済みモデルの学習結果と同等の結果が得られるか検証している
- Competency Problems: On Finding and Removing Artifacts in Language Data
- Matt Gardner, William Merrill, Jesse Dodge, Matthew Peters, Alexis Ross, Sameer Singh, Noah A. Smith
- TLDR: 自然言語処理モデルのパフォーマンスを検証する研究。データセットの分類タスクで、入力要素と出力要素の相関が「スペック」と「評価」の2つに分類される問題を定義し、それらの相関が「評価」と「評価」の2つに分類される問題と分類結果を比較した研究。評価タスクで、入力要素と出力要素の相関が「スペック」と「評価」の2つに分類される問題を定義し、それらの相関が「評価」と「評価」の2つに分類される問題と比較している。
- Knowledge-Aware Meta-learning for Low-Resource Text Classification
- Huaxiu Yao, Ying-xin Wu, Maruan Al-Shedivat, Eric Xing
- TLDR: テキスト分類タスクで、事前学習済みの知識を活用する手法の提案。事前学習済み知識は、文書分類タスクで使用することが多いが、文書分類タスクでは、文書分類の知識を文書分類タスクに使用する。文書分類タスクで、文書分類の知識を文書分類タスクに使用する手法を提案している。
- Sentence Bottleneck Autoencoders from Transformer Language Models
- Ivan Montero, Nikolaos Pappas, Noah A. Smith
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルの生成に使用する研究。事前学習済み言語モデルは、事前学習済み言語モデルの生成を前提としているが、事前学習済み言語モデルは生成を前提としていない。事前学習済み言語モデルは、事前学習済み言語モデルの生成を前提としている。事前学習済み言語モデルは、事前学習済み言語モデルの生成を前提としている。事前学習済み言語モデルは、事前学習済み言語モデルの生成を前提としている。事前学習済み言語モデルは、事前学習済み言語モデルの生成を前提としている。事前学習済み言語モデルは、事前学習済み言語モデルの生成を前提としている。事前
- Efficient Contrastive Learning via Novel Data Augmentation and Curriculum Learning
- Seonghyeon Ye, Jiseon Kim, Alice Oh
- TLDR: 学習済みモデルを学習する際、学習済みモデルの学習率を上げる手法の提案。学習率は学習済みモデルの学習率と同等の精度を維持し、学習率を上げるために学習率を上げている。学習率は学習済みモデルの学習率と同等の精度を維持している。
- CR-Walker: Tree-Structured Graph Reasoning and Dialog Acts for Conversational Recommendation
- Wenchang Ma, Ryuichi Takanobu, Minlie Huang
- TLDR: 質問に対し、適切な質問文を生成する研究。質問文を生成する際は、質問文の文脈を推定するノードを追加する(ノードは、質問文のノードと同等の意味を持つ)。ノードは、質問文のノードと同等の意味を持つものに置き換えられる。ノードは、質問文のノードと同等の意味を持つものに置き換えられる。
- DIALKI: Knowledge Identification in Conversational Systems through Dialogue-Document Contextualization
- Zeqiu Wu, Bo-Ru Lu, Hannaneh Hajishirzi, Mari Ostendorf
- TLDR: 文書から質問回答を生成する研究。文書の文書構造を入力に使用し、質問回答の文書構造を入力に使用する。文書構造は文書の文書構造と同等かそれ以上の文書構造を入力に使用する。文書構造は文書構造と同等かそれ以上の文書構造を入力に使用する。文書構造は文書構造と同等かそれ以上の文書構造を入力に使用する。文書構造は文書構造と同等かそれ以上の文書構造を入力に使用する。
- Iconary: A Pictionary-Based Game for Testing Multimodal Communication with Drawings and Text
- Christopher Clark, Jordi Salvador, Dustin Schwenk, Derrick Bonafilia, Mark Yatskar, Eric Kolve, Alvaro Herrasti, Jonghyun Choi, Sachin Mehta, Sam Skjonsberg, Carissa Schoenick, Aaron Sarnat, Hannaneh Hajishirzi, Aniruddha Kembhavi, Oren Etzioni, Ali Farhadi
- TLDR: 自然言語処理で、画像と文字を組み合わせたタスクの提案。画像は文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を入力とし、文字列を
- Self-training Improves Pre-training for Few-shot Learning in Task-oriented Dialog Systems
- Fei Mi, Wanhao Zhou, Lingjing Kong, Fengyu Cai, Minlie Huang, Boi Faltings
- TLDR: 事前学習済み言語モデルを、教師なしで学習する研究。教師なしで学習するモデルは、教師なしの学習データが限られている場合に学習が困難になる。教師なしの学習データは、教師なしのモデルの学習率を上げるのに有効なデータとなる。教師なしの学習データは、教師なしのモデルの学習率を上げるのに有効なデータとなる。
- Contextual Rephrase Detection for Reducing Friction in Dialogue Systems
- Zhuoyi Wang, Saurabh Gupta, Jie Hao, Xing Fan, Dingcheng Li, Alexander Hanbo Li, Chenlei Guo
- TLDR: 多発の質問に対し、既存のモデルが回答する質問を自動生成する研究。質問の回答は、質問に対するユーザーの反応から生成される。質問の回答は、質問に対するユーザーの反応から生成される。質問の回答は、質問に対するユーザーの反応から生成される。質問の回答は、質問に対するユーザーの反応から生成される。
- Few-Shot Intent Detection via Contrastive Pre-Training and Fine-Tuning
- Jianguo Zhang, Trung Bui, Seunghyun Yoon, Xiang Chen, Zhiwei Liu, Congying Xia, Quan Hung Tran, Walter Chang, Philip Yu
- TLDR: 教師なし学習で、数枚の文を学習する手法の提案。文の意味を予測するタスク(「この文は」など)を、文の意味を予測するタスク(「この文は」など)に置き換える。タスクは5~10枚の文を想定しており、文の意味を予測するタスクは5~10枚の文を想定している。
- “It doesn’t look good for a date”: Transforming Critiques into Preferences for Conversational Recommendation Systems
- Victor Bursztyn, Jennifer Healey, Nedim Lipka, Eunyee Koh, Doug Downey, Larry Birnbaum
- TLDR: 評価を評価から選ぶ手法の提案。評価は評価と同等の価値を持つが、評価は評価と同等の価値を持つと判断する。評価は評価と同等の価値を持つが、評価は評価と同等の価値を持つと判断する。評価は評価と同等の価値を持つと判断する。評価は評価と同等の価値を持つと判断する。評価は評価と同等の価値を持つと判断する。
- AttentionRank: Unsupervised Keyphrase Extraction using Self and Cross Attentions
- Haoran Ding, Xiao Luo
- TLDR: 文書からKeyphrase抽出を行う研究。Keyphrase抽出は文書のタイトル/タイトルの関連度を調べるのに有効だが、Keyphraseの関連度は文書のタイトル/タイトルの関連度から判断する。Keyphraseの関連度は文書のタイトル/タイトルの関連度から判断する。
- Unsupervised Relation Extraction: A Variational Autoencoder Approach
- Chenhan Yuan, Hoda Eldardiry
- TLDR: 教師なしの文分類を行う際に、文中の各文特徴を予測するモデルを提案。文特徴は文中の各文特徴と同等か否かを予測する。文特徴は文特徴と同等か否かを予測する。文特徴は文特徴と同等か否かを予測する。文特徴は文特徴と同等か否かを予測する。文特徴は文特徴と同等か否かを予測する。
- Robust Retrieval Augmented Generation for Zero-shot Slot Filling
- Michael Glass, Gaetano Rossiello, Md Faisal Mahbub Chowdhury, Alfio Gliozzo
- TLDR: 文書から抽出するラベルを、事前学習済みモデルでゼロ/Few-shotで学習する研究。事前学習済みモデルは、文書から抽出されたラベルを生成するが、文書から抽出されたラベルは生成されない。そのため、文書から抽出されたラベルを生成するモデルを採用している。
- Everything Is All It Takes: A Multipronged Strategy for Zero-Shot Cross-Lingual Information Extraction
- Mahsa Yarmohammadi, Shijie Wu, Marc Marone, Haoran Xu, Seth Ebner, Guanghui Qin, Yunmo Chen, Jialiang Guo, Craig Harman, Kenton Murray, Aaron Steven White, Mark Dredze, Benjamin Van Durme
- TLDR: 多言語の事前学習で、事前学習済みモデルを上手く使うための手法をまとめた研究。事前学習済みモデルは、事前学習済みモデルの学習率を上回る結果を出し得るが、事前学習済みモデルは学習率が下がる。事前学習済みモデルは、事前学習済みモデルの学習率を上回る結果を出し得る。
- Harms of Gender Exclusivity and Challenges in Non-Binary Representation in Language Technologies
- Sunipa Dev, Masoud Monajatipoor, Anaelia Ovalle, Arjun Subramonian, Jeff Phillips, Kai-Wei Chang
- TLDR: 言語モデルが、性別を「バイアス」と捉えることについてまとめられたサーベイ。バイアスは、性別を「バイアス」と捉えることに対する問題点を含んでいる。バイアスは、性別を「バイアス」と捉えることに対する問題点を含んでいる。バイアスは、性別を「バイアス」と捉えることに対する問題点を含んでいる。
- Are Gender-Neutral Queries Really Gender-Neutral? Mitigating Gender Bias in Image Search
- Jialu Wang, Yang Liu, Xin Wang
- TLDR: 画像検索で、性別適合を考慮するモデルを学習する研究。事前学習済みモデルの学習済みモデルと、事前学習済みモデルの学習済みモデルの学習済みモデルの学習結果を比較し、学習済みモデルの学習結果が性別適合に寄与するかを検証している。性別適合は、検索結果の性別適合度に依存する傾向がある。
- Style Pooling: Automatic Text Style Obfuscation for Improved Classification Fairness
- Fatemehsadat Mireshghallah, Taylor Berg-Kirkpatrick
- TLDR: テキストのスタイルを、機械学習で自動転移する研究。スタイルは、人間が作成したスタイルと異なる場合に、そのスタイルを変更する。スタイル変更は、スタイルの変更が誤認識に繋がる可能性があることを前提としている。スタイル変更は、スタイルの変更が誤認識に繋がる可能性があることを前提としている。
- Modeling Disclosive Transparency in NLP Application Descriptions
- Michael Saxon, Sharon Levy, Xinyi Wang, Alon Albalak, William Yang Wang
- TLDR: 機械学習モデルの文書表現における、不透明度と説明不透明度の関係を調べた研究。不透明度は、説明が不明確な場合に発生する。不透明度は、説明が不明確な場合に発生する。不透明度は、説明が不明確な場合に発生する。不透明度は、説明が不明確な場合に発生する。
- Reconstruction Attack on Instance Encoding for Language Understanding
- Shangyu Xie, Yuan Hong
- TLDR: 自然言語処理におけるプライバシー保護を強化する手法の提案。テキスト分類器の学習データから、テキスト分類器のデータセットを復元する攻撃を行なっている。テキスト分類器のデータセットは、テキスト分類器のデータセットと同等のデータセットが使われている。
- Fairness-aware Class Imbalanced Learning
- Shivashankar Subramanian, Afshin Rahimi, Timothy Baldwin, Trevor Cohn, Lea Frermann
- TLDR: クラスバランスを改善する手法の提案。クラスバランスは、学習データの分布が異なる場合に発生する。そのため、学習データの分布を分布分布とし、分布分布分布の分布を予測するモデルを導入する。分布分布は、分布分布の分布を予測するモデルと、分布分布の分布を予測するモデルの2つに分けている。
- CRYPTOGRU: Low Latency Privacy-Preserving Text Analysis With GRU
- Bo Feng, Qian Lou, Lei Jiang, Geoffrey Fox
- TLDR: 暗号化を行う際に、事前学習済みモデルと同等の構造を取った研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するネットワークを構築する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するネットワークを構築する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するネットワークを構築する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するネットワークを構築する。
- Local Word Discovery for Interactive Transcription
- William Lane, Steven Bird
- TLDR: 自然言語処理で、自然言語処理の学習を効率化する研究。自然言語処理では、自然言語の文法を学習する際、文の意味を予測するモデルを用い学習する。このモデルは、自然言語処理の学習を効率化するモデルとして使用されている。
- Segment, Mask, and Predict: Augmenting Chinese Word Segmentation with Self-Supervision
- Mieradilijiang Maimaiti, Yang Liu, Yuanhang Zheng, Gang Chen, Kaiyu Huang, Ji Zhang, Huanbo Luan, Maosong Sun
- TLDR: 単語のセグメンテーションを行う際に、事前学習済みモデルを用いた研究。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成する。予測結果は、事前学習済みモデルの予測結果と同等の精度を達成できるか検証する。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成する。
- Minimal Supervision for Morphological Inflection
- Omer Goldman, Reut Tsarfaty
- TLDR: morphological reinforcementのモデルで、ラベルなしのモデルより精度が低いモデルを生成する手法の提案。ラベルなしのモデルは、ラベルなしのモデルより精度が低いモデルを生成する。ラベルなしのモデルは、ラベルなしのモデルより精度が低いモデルを生成する。
- Fast WordPiece Tokenization
- Xinying Song, Alex Salcianu, Yang Song, Dave Dopson, Denny Zhou
- TLDR: 単語分散表現をBERTで行う際に、単語分散表現の学習を効率化する手法の提案。単語分散表現を単語分散表現の学習に使用する。単語分散表現は単語分散表現の学習に使用する。単語分散表現は単語分散表現の学習に使用する。単語分散表現は単語分散表現の学習に使用する。
- You should evaluate your language model on marginal likelihood over tokenisations
- Kris Cao, Laura Rimell
- TLDR: 言語モデルの学習と評価について、学習時に使われるTokenizerの有効性を検証した研究。Tokenizerの有効性は学習時に使われるTokenizerの有効性と同等の評価が行えるか検証している。有効性は、学習時に使われるTokenizerの有効性と同等の評価が行えるか検証している。
- Broaden the Vision: Geo-Diverse Visual Commonsense Reasoning
- Da Yin, Liunian Harold Li, Ziniu Hu, Nanyun Peng, Kai-Wei Chang
- TLDR: 地理的特徴と自然言語の差異を考慮したモデルの提案。地理的特徴は、自然言語の表現と同等に扱われるが、自然言語は異なる地域に分布する。そのため、地理的特徴を考慮したモデルを学習し、学習済みモデルと比較して精度が大幅に落ちる。
- Reference-Centric Models for Grounded Collaborative Dialogue
- Daniel Fried, Justin Chiu, Dan Klein
- TLDR: 対話システムを、モデルの学習済みモデルと比較して精度を上げた研究。対話システムは、対話結果から、相手との関係性を推定するモデルを構築している。対話結果から、相手との関係性を推定するモデルを構築している。対話結果から、相手との関係性を推定するモデルを構築している。
- CrossVQA: Scalably Generating Benchmarks for Systematically Testing VQA Generalization
- Arjun Akula, Soravit Changpinyo, Boqing Gong, Piyush Sharma, Song-Chun Zhu, Radu Soricut
- TLDR: 画像や言語の変化を評価する研究。画像/言語の変化は、モデルの汎化性能に大きく影響する。画像/言語の変化は、モデルの汎化性能に大きく影響する。画像/言語の変化は、モデルの汎化性能に大きく影響する。画像/言語の変化は、モデルの汎化性能に大きく影響する。
- Visual Goal-Step Inference using wikiHow
- Yue Yang, Artemis Panagopoulou, Qing Lyu, Li Zhang, Mark Yatskar, Chris Callison-Burch
- TLDR: 自然言語処理で、画像を入力としてタスクを解く研究。画像を入力としてタスクを解く際、画像の画像を入力としてタスクを解く。タスクは画像を入力としてタスクを解く。タスクは画像を入力としてタスクを解く。タスクは画像を入力としてタスクを解く。タスクは画像を入力としてタスクを解く。タスクは画像を入力としてタスクを解く。タスクは画像を入力としてタスクを解く。タスクは画像を入力としてタスクを解く。タスクは画像を入力としてタスクを解く。タスクは画像
- Systematic Generalization on gSCAN: What is Nearly Solved and What is Next?
- Linlu Qiu, Hexiang Hu, Bowen Zhang, Peter Shaw, Fei Sha
- TLDR: 医療従事者のための医療保険の提案。医療保険は、医療従事者に対する医療保険の適用が困難な場合、医療保険の適用を緩和する。医療保険は、医療従事者に対する医療保険の適用を緩和する。
- Effect of Visual Extensions on Natural Language Understanding in Vision-and-Language Models
- Taichi Iki, Akiko Aizawa
- TLDR: 自然言語理解モデルの事前学習を、言語モデルの構造を変えたものに置き換えた研究。事前学習は、言語モデルの構造を変えたものに置き換える形で行う。事前学習は、言語モデルの構造を変えたものに置き換える形で行う。事前学習は、言語モデルの構造を変えたものに置き換える形で行う。
- Neural Path Hunter: Reducing Hallucination in Dialogue Systems via Path Grounding
- Nouha Dziri, Andrea Madotto, Osmar Zaïane, Avishek Joey Bose
- TLDR: 事前学習済み言語モデルが、質問に対する回答が「事実」ではなく「事実」に基づいたものなのかを検証した研究。質問に対する回答は、質問に対する質問に対する回答と同等の文書で生成される。文書は文書レベルの事実を基に生成されるが、文書は文書レベルの事実を基に生成される。文書は文書レベルの事実を基に生成されるが、文書は文書レベルの事実を基に生成される。
- Thinking Clearly, Talking Fast: Concept-Guided Non-Autoregressive Generation for Open-Domain Dialogue Systems
- Yicheng Zou, Zhihua Liu, Xingwu Hu, Qi Zhang
- TLDR: 対話システムで、複数回の質問に対する対応を学習する研究。質問に対する対応は、質問に対する潜在表現を予測するモデルで行う。潜在表現は、質問に対する回答の予測結果から生成する。質問に対する対応は、質問に対する潜在表現の予測結果から生成する。
- Perspective-taking and Pragmatics for Generating Empathetic Responses Focused on Emotion Causes
- Hyunwoo Kim, Byeongchang Kim, Gunhee Kim
- TLDR: 対話システムで、感情の因果関係を推定する研究。感情の因果関係は、相手から受け取った感情の因果関係から推定する。感情の因果関係は、相手から受け取った感情の因果関係から推定する。感情の因果関係は、相手から受け取った感情の因果関係から推定する。
- Generation and Extraction Combined Dialogue State Tracking with Hierarchical Ontology Integration
- Xinmeng Li, Qian Li, Wansen Wu, Quanjun Yin
- TLDR: 対話システムのState Trackingで、既存のモデルが対応できなかった問題を解決した研究。既存のモデルは、対話システムの各タスクで、各タスクの潜在表現を抽出するタスクを扱っており、このタスクを学習するタスクとして扱っている。
- CoLV: A Collaborative Latent Variable Model for Knowledge-Grounded Dialogue Generation
- Haolan Zhan, Lei Shen, Hongshen Chen, Hainan Zhang
- TLDR: 対話システムにおける知識抽出と、知識推定のタスクを統合した研究。事前学習済みの知識を入力として、事前学習済みの知識を入力とする。事前学習済みの知識は、事前学習済みの知識と同等の精度を獲得できる。事前学習済みの知識は、事前学習済みの知識と同等の精度を獲得できる。
- A Three-Stage Learning Framework for Low-Resource Knowledge-Grounded Dialogue Generation
- Shilei Liu, Xiaofeng Zhao, Bochao Li, Feiliang Ren, Longhui Zhang, Shujuan Yin
- TLDR: 対話システムの強化学習で、事前学習済みモデルを強化学習に組み込む研究。事前学習済みモデルは、事前学習済みモデルの学習データ(Transformer)をベースに、事前学習済みモデルの学習データ(Transformer)をベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習データ(Transformer)をベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習データ(Transformer)をベースに学習する。
- Intention Reasoning Network for Multi-Domain End-to-end Task-Oriented Dialogue
- Zhiyuan Ma, Jianjun Li, Zezheng Zhang, Guohui Li, Yongjing Cheng
- TLDR: タスクに応じた事前学習済みモデルの提案。事前学習済みモデルは、事前学習済みモデルの予測結果を基に行動を推定するが、事前学習済みモデルは予測結果を予測するタスクに依存する。そのため、事前学習済みモデルの予測結果を基に事前学習済みモデルの予測結果を基に行動を推定する。
- More is Better: Enhancing Open-Domain Dialogue Generation via Multi-Source Heterogeneous Knowledge
- Sixing Wu, Ying Li, Minghui Wang, Dawei Zhang, Yang Zhou, Zhonghai Wu
- TLDR: オープンドメインの対話システムで、マルチソースの知識を有効に使う研究。マルチソースの知識は、質問に対する回答の質に大きな影響を及ぼす。そのため、質問に対する回答を複数生成するモデルを提案している。マルチソースの知識は、質問に対する回答の質に大きな影響を及ぼす。
- Domain-Lifelong Learning for Dialogue State Tracking via Knowledge Preservation Networks
- Qingbin Liu, Pengfei Cao, Cao Liu, Jiansong Chen, Xunliang Cai, Fan Yang, Shizhu He, Kang Liu, Jun Zhao
- TLDR: 対話システムにおける、タスクの転移を学習する研究。タスクは対話システムのタスクで、更新頻度が高いデータセットを学習する。更新頻度が高いデータセットは学習が困難なため、更新頻度が高いデータセットを学習する。更新頻度が高いデータセットは学習が困難なため、更新頻度が高いデータセットを学習する。
- CSAGN: Conversational Structure Aware Graph Network for Conversational Semantic Role Labeling
- Han Wu, Kun Xu, Linqi Song
- TLDR: 対話システムの構造認識モデルの提案。対話システムは、文の構造を認識するネットワークを構築するが、文の構造は文の意味を表す単語を含まない。そのため、文の意味を表す単語を含まない単語を生成するネットワークを構築する。文の意味を表す単語を生成するネットワークを構築し、文の意味を表す単語を生成するネットワークを構築する。
- Different Strokes for Different Folks: Investigating Appropriate Further Pre-training Approaches for Diverse Dialogue Tasks
- Yao Qiu, Jinchao Zhang, Jie Zhou
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルに適用する研究。事前学習済み言語モデルは事前学習済み言語モデルと同等の精度が得られるが、事前学習済み言語モデルは学習済み言語モデルと同等の精度が得られない。そのため、事前学習済み言語モデルを事前学習済み言語モデルに適用する研究。事前学習済み言語モデルは事前学習済み言語モデルと同等の精度が得られるが、事前学習済み言語モデルは学習済み言語モデルと同等の精度が得られない。
- Knowledge Enhanced Fine-Tuning for Better Handling Unseen Entities in Dialogue Generation
- Leyang Cui, Yu Wu, Shujie Liu, Yue Zhang
- TLDR: 事前学習済みモデルで、事前学習済みモデルの入力にマスクされた単語を追加する研究。マスクされた単語は、事前学習済みモデルの入力に含まない可能性がある。そのため、マスクされた単語を追加するタスクを追加する。タスクは、マスクされた単語を入力に含む単語を生成する。
- An Evaluation Dataset and Strategy for Building Robust Multi-turn Response Selection Model
- Kijong Han, Seojin Lee, Dong-hun Lee
- TLDR: 自然言語処理で、複数回のタスクで学習したモデルの弱点を検証した研究。タスクの重みは、タスクの重みを入力とする文の長さと、入力文の長さの長さをそれぞれ入力とする。長さは、入力文の長さを入力とする文長と、入力文長を入力とする文長の長さを入力とする文長の長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長さを入力とする長
- Unsupervised Conversation Disentanglement through Co-Training
- Hui Liu, Zhan Shi, Xiaodan Zhu
- TLDR: マルチペアの対話システムを、事前学習済みモデルと対話学習済みモデルの2つに分けて学習する研究。事前学習済みモデルは、事前学習済みモデルの学習済みデータセットをベースに、事前学習済みモデルの学習済みデータセットをベースに学習する。事前学習済みモデルは、事前学習済みデータセットの学習済みモデルと対話学習済みモデルの学習済みデータセットを統合し、学習済みモデルの学習済みデータセットを学習する。
- Don’t be Contradicted with Anything! CI-ToD: Towards Benchmarking Consistency for Task-oriented Dialogue System
- Libo Qin, Tianbao Xie, Shijue Huang, Qiguang Chen, Xiao Xu, Wanxiang Che
- TLDR: オープンドメインの対話システムで、既存のタスクベースの対話システムと比較して、既存の対話システムの挙動が変化していないか検証した研究。タスクベースの対話システムは、既存の対話システムと比較して、既存の対話システムの挙動が変化していないかを検証している。
- Transferable Persona-Grounded Dialogues via Grounded Minimal Edits
- Chen Henry Wu, Yinhe Zheng, Xiaoxi Mao, Minlie Huang
- TLDR: 対話システムの学習時に、モデルの学習データが足りない場合に対処する方法を提案。対話システムの学習データは、通常の対話システムの学習データと同等の扱いが行われるが、対話システムの学習データは、対話システムの学習データと同等の扱いが行われるよう学習する。
- EARL: Informative Knowledge-Grounded Conversation Generation with Entity-Agnostic Representation Learning
- Hao Zhou, Minlie Huang, Yong Liu, Wei Chen, Xiaoyan Zhu
- TLDR: 対話システムで、知識グラフを用いた事前学習を行う研究。事前学習済みモデルと同等のモデルを用い、知識グラフの表現を学習する。事前学習済みモデルは、知識グラフの表現を学習するが、事前学習済みモデルは表現の生成に使用する表現を学習する。事前学習済みモデルは、事前学習済み表現を学習するモデルと同等の精度を維持している。
- DialogueCSE: Dialogue-based Contrastive Learning of Sentence Embeddings
- Che Liu, Rui Wang, Jinghua Liu, Jian Sun, Fei Huang, Luo Si
- TLDR: マルチタスクで、文の表現を事前学習した研究。事前学習済み文を事前学習済みモデルに入力し、事前学習済みモデルの表現を事前学習済みモデルに入力する。事前学習済みモデルは事前学習済み文の表現を事前学習済みモデルに入力し、事前学習済みモデルの表現を事前学習済みモデルに入力する。事前学習済みモデルは事前学習済みモデルと同等の精度を達成。
- Improving Graph-based Sentence Ordering with Iteratively Predicted Pairwise Orderings
- Shaopeng Lai, Ante Wang, Fandong Meng, Jie Zhou, Yubin Ge, Jiali Zeng, Junfeng Yao, Degen Huang, Jinsong Su
- TLDR: 文順序をグラフで予測する研究。文順序は文単位で、文単位の文順序は文単位の文順序で予測する。文単位の文順序は、文単位の文順序と文単位の文順序を区別する。文単位の文順序は、文単位の文順序と同等の精度を維持できるか検証している。
- Not Just Classification: Recognizing Implicit Discourse Relation on Joint Modeling of Classification and Generation
- Feng Jiang, Yaxin Fan, Xiaomin Chu, Peifeng Li, Qiaoming Zhu
- TLDR: 対話システムにおける、事前学習済み言語モデルの提案。事前学習済み言語モデルは、事前学習済み言語モデルの文を生成する。事前学習済み言語モデルは、事前学習済み言語モデルの文を生成する。事前学習済み言語モデルは、事前学習済み言語モデルの文を生成する。事前学習済み言語モデルは、事前学習済み言語モデルの文を生成する。
- A Language Model-based Generative Classifier for Sentence-level Discourse Parsing
- Ying Zhang, Hidetaka Kamigaito, Manabu Okumura
- TLDR: 文分類タスクで、ラベルなしデータからラベルなし表現を生成する研究。ラベルなしデータは、ラベルなし表現の生成に適したモデルがないと判断される。そのため、ラベルなしデータの生成を事前学習済みモデルに組み込むことで、事前学習済みモデルの精度を上げる。
- Multimodal Phased Transformer for Sentiment Analysis
- Junyan Cheng, Iordanis Fostiropoulos, Barry Boehm, Mohammad Soleymani
- TLDR: マルチモーダルで学習するTransformerの提案。マルチモーダルで学習する際は、Attentionの重みを分散する。重みは分散するが、分散する際はAttentionの重みを分散する。分散は、Attentionの重みを分散する(分散は、分散の重みを分散する)ことで行う。
- Hierarchical Multi-label Text Classification with Horizontal and Vertical Category Correlations
- Linli Xu, Sijie Teng, Ruoyu Zhao, Junliang Guo, Chi Xiao, Deqiang Jiang, Bo Ren
- TLDR: マルチラベルの文書分類を行う際に、各ラベルの階層構造を考慮する研究。各ラベルの階層構造は、文書と文書の位置関係から予測する。文書の文書分散表現を、文書分散表現と文書分散表現の2つに分割し、文書分散表現を文書分散表現に変換する。文書分散表現は、文書分散表現と文書分散表現の2つに分割し、文書分散表現を文書分散表現に変換する。
- RankNAS: Efficient Neural Architecture Search by Pairwise Ranking
- Chi Hu, Chenglong Wang, Xiangnan Ma, Xia Meng, Yinqiao Li, Tong Xiao, Jingbo Zhu, Changliang Li
- TLDR: 構造探索を行う際に、学習済みモデルの性能を評価する手法の提案。モデルの性能を評価する指標は、学習済みモデルの性能を評価する指標と、モデルの性能を評価する指標の2つを組み合わせた指標を提案している。
- FLiText: A Faster and Lighter Semi-Supervised Text Classification with Convolution Networks
- Chen Liu, Zhang Mengchao, Fu Zhibing, Panpan Hou, Yu Li
- TLDR: 教師なし学習で、軽量モデルの精度を向上させる研究。教師なしモデルは、通常のSOTAよりも精度が低い。そのため、教師なしモデルの精度を上げるためのモデルを提案。教師なしモデルは、通常のSOTAより精度が低い。そのため、教師なしモデルの精度を上げるためのモデルを提案している。
- Evaluating Debiasing Techniques for Intersectional Biases
- Shivashankar Subramanian, Xudong Han, Timothy Baldwin, Trevor Cohn, Lea Frermann
- TLDR: 自然言語処理モデルの評価に、少数の属性を考慮する研究。例えば性別や国籍などは少数の属性に限界があるため、少数の属性を考慮する。また、少数の属性を考慮するモデルは少数の属性に限界があるため、少数の属性を考慮するモデルを提案している。
- Definition Modelling for Appropriate Specificity
- Han Huang, Tomoyuki Kajiwara, Yuki Arase
- TLDR: 文の定義を生成する研究。文の定義は、文の意味を含まない単語を含まない単語に置き換える。この時、文の意味を含まない単語を含まない単語に置き換える(Over/Over-specificity)ことで、文の意味を含まない単語を生成する。
- Transductive Learning for Unsupervised Text Style Transfer
- Fei Xiao, Liang Pang, Yanyan Lan, Yan Wang, Huawei Shen, Xueqi Cheng
- TLDR: 事前学習済みモデルを、事前学習済みモデルのスタイルに置き換える研究。事前学習済みモデルは、事前学習済みモデルのスタイルを認識するネットワークを構築する。このネットワークを、事前学習済みモデルのスタイルに置き換える形で学習する。事前学習済みモデルは、事前学習済みモデルのスタイルを認識するネットワークを構築する。
- Integrating Semantic Scenario and Word Relations for Abstractive Sentence Summarization
- Yong Guan, Shaoru Guo, Ru Li, Xiaoli Li, Hu Zhang
- TLDR: 文関係と文構造の情報から、文関係と文構造の情報との相関を推定する研究。文関係は、文構造の情報と同等のGraph Networkで表現し、文構造の情報と同等のGraph Networkで表現する。文関係は、文構造の情報と同等のGraph Networkで表現する。文構造の情報と同等のGraph Networkで表現する。
- Coupling Context Modeling with Zero Pronoun Recovering for Document-Level Natural Language Generation
- Xin Tan, Longyin Zhang, Guodong Zhou
- TLDR: 自然言語処理で、単語生成時にエラーが発生する単語を復元する研究。単語生成時にエラーが発生する単語を予測するモデルを構築し、エラー発生する単語を予測するモデルを学習する。エラー発生する単語を予測するモデルを学習する。エラー発生する単語を予測するモデルを学習する。
- Adaptive Bridge between Training and Inference for Dialogue Generation
- Haoran Xu, Hainan Zhang, Yanyan Zou, Hongshen Chen, Zhuoye Ding, Yanyan Lan
- TLDR: 対話システムにおける、自然言語処理における、事前学習済みモデルの転移を提案。事前学習済みモデルは、事前学習済みモデルの学習済み単語をベースに、事前学習済みモデルの学習済み単語をベースに転移を行う。事前学習済みモデルは、事前学習済み単語の学習済み単語と同等の精度を達成。
- ConRPG: Paraphrase Generation using Contexts as Regularizer
- Yuxian Meng, Xiang Ao, Qing He, Xiaofei Sun, Qinghong Han, Fei Wu, Chun Fan, Jiwei Li
- TLDR: 文の要約を、文の意味を変えたモデルで生成する研究。文の意味を変えた文を生成する際、文の意味を変えた文を生成する(文の意味を変えた文は生成されず、文の意味を変えた文は生成されず)。文の意味を変えた文を生成する際、文の意味を変えた文を生成する(文の意味を変えた文は生成されず、文の意味を変えた文は生成されず)。
- Building the Directed Semantic Graph for Coherent Long Text Generation
- Ziao Wang, Xiaofeng Zhang, Hongwei Du
- TLDR: 長いテキストを生成する研究。文書レベルの文書を生成する際、文書の文書構造を文書単位で分類し、文書構造を文書単位で生成する。文書構造は文書単位で生成するが文書単位で生成する文書は文書単位で生成する。文書単位で生成する文書は文書単位の文書構造を考慮する必要がある。
- Iterative GNN-based Decoder for Question Generation
- Zichu Fei, Qi Zhang, Yaqian Zhou
- TLDR: 自然言語処理で質問生成を行う際に、文中の単語を予測するGraph Neural Networkを導入した研究。文中の単語は、文の生成時に生成される単語と同等かそれ以上の単語になるが、文中の単語は、文生成時に生成される単語と同等かそれ以上の単語になる。文生成時に、文中の単語を予測するGraph Neural Networkを導入している。
- Asking Questions Like Educational Experts: Automatically Generating Question-Answer Pairs on Real-World Examination Data
- Fanyi Qu, Xin Jia, Yunfang Wu
- TLDR: 質問回答の生成を行う際に、文を生成する際のフレーズを自動生成する手法の提案。文を生成する際は、文のフレーズを生成するagentを複数生成し、agentが生成したフレーズをフレーズ生成のagentに入力する。フレーズ生成は、文のフレーズを生成するagentの入力と、文のフレーズ生成の入力双方を入力とする。
- Syntactically-Informed Unsupervised Paraphrasing with Non-Parallel Data
- Erguang Yang, Mingtong Liu, Deyi Xiong, Yujie Zhang, Yao Meng, Changjian Hu, Jinan Xu, Yufeng Chen
- TLDR: 自然言語処理で、事前学習済みのモデルを学習する研究。事前学習済みモデルは、事前学習済みモデルの学習済み単語をベースに、事前学習済み単語をベースに学習する。事前学習済みモデルは、事前学習済み単語をベースに、事前学習済み単語をベースに学習する。事前学習済みモデルは、事前学習済み単語をベースに学習する。
- Exploring Task Difficulty for Few-Shot Relation Extraction
- Jiale Han, Bo Cheng, Wei Lu
- TLDR: 教師なし学習で、タスクの難易度を学習する研究。タスクはシンプルなタスクで、タスクの難易度はタスクの重みを加味する形で学習する。タスクはシンプルなタスクで、タスクの重みはタスクの重みを加味する形で学習する。タスクはタスクの重みを加味する形で学習する。
- MuVER: Improving First-Stage Entity Retrieval with Multi-View Entity Representations
- Xinyin Ma, Yong Jiang, Nguyen Bach, Tao Wang, Zhongqiang Huang, Fei Huang, Weiming Lu
- TLDR: 自然言語処理で、Entityの検索を行う際に、マルチタスクでEntityの表現を生成する研究。Entityの表現は、Entityの意味と異なる箇所を含んでいる場合に適用される。このため、Entityの表現をマルチタスクで生成する。マルチタスクで生成したEntityを、マルチタスクで検索する手法を提案している。
- Treasures Outside Contexts: Improving Event Detection via Global Statistics
- Rui Li, Wenlin Zhao, Cheng Yang, Sen Su
- TLDR: 文中のイベントを検出する研究。単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽出、単語の意味を予測する単語抽
- Uncertain Local-to-Global Networks for Document-Level Event Factuality Identification
- Pengfei Cao, Yubo Chen, Yuqing Yang, Kang Liu, Jun Zhao
- TLDR: 文書から、現実世界におけるイベントの事実性を推定する研究。文書の文書構造を、文書の文書特徴から推定する。文書特徴は、文書特徴と文書特徴を結合した文書特徴をベースに、文書特徴と文書特徴を結合した文書特徴をベースに推定する。文書特徴と文書特徴を結合した文書特徴をベースに、文書特徴と文書特徴を統合した文書特徴をベースに推定する。
- A Novel Global Feature-Oriented Relational Triple Extraction Model based on Table Filling
- Feiliang Ren, Longhui Zhang, Shujuan Yin, Xiaofeng Zhao, Shilei Liu, Bochao Li, Yaduo Liu
- TLDR: マルチフレーズ抽出の研究。各フレーズのテーブル特徴を生成し、そのテーブル特徴を結合したモデルを生成する。このモデルは、各フレーズのテーブル特徴を生成する際、グローバル特徴をminする手法を取っている。
- Structure-Augmented Keyphrase Generation
- Jihyuk Kim, Myeongho Jeong, Seungtaek Choi, Seung-won Hwang
- TLDR: 文書の構造を、文書のタイトルから生成する研究。タイトルは文書のタイトルと同等の意味を持つが、タイトルは文書のタイトルと同等意味を持つ。文書のタイトルは文書のタイトルと同等意味を持つが、文書のタイトルは文書の文書名と同等意味を持つ。文書の文書構造を生成する際、文書の文書構造を生成する2つのステップを踏む。
- An Empirical Study on Multiple Information Sources for Zero-Shot Fine-Grained Entity Typing
- Yi Chen, Haiyun Jiang, Lemao Liu, Shuming Shi, Chuang Fan, Min Yang, Ruifeng Xu
- TLDR: 事前学習済みモデルで、複数の文書からの情報収集を行う研究。文書の文書構造、文書分類、文書分類の3つをベースに、文書分類の各文書からの情報収集を行う。文書分類は文書分類の分類器で行うが、文書分類は文書分類器で行う。文書分類器は文書分類器と同等の役割を果たしている。
- DyLex: Incorporating Dynamic Lexicons into BERT for Sequence Labeling
- Baojun Wang, Zhao Zhang, Kun Xu, Guang-Yuan Hao, Yuyang Zhang, Lifeng Shang, Linlin Li, Xiao Chen, Xin Jiang, Qun Liu
- TLDR: 文の知識を、BERTベースのモデルに組み込む研究。単語の分散表現を、文の分散表現に近い単語に置き換える形で学習する。これにより、文の分散表現を学習する際の学習率を下げることができる。
- MapRE: An Effective Semantic Mapping Approach for Low-resource Relation Extraction
- Manqing Dong, Chunguang Pan, Zhipeng Luo
- TLDR: 教師なし学習で、ラベル認識とラベル認識の2つの手法を組み合わせた研究。ラベル認識はラベルの知識がないと予測できないため、ラベル認識の情報をラベル認識のモデルに組み込むことで、ラベル認識の精度を上げている。
- Heterogeneous Graph Neural Networks for Keyphrase Generation
- Jiacheng Ye, Ruijian Cai, Tao Gui, Qi Zhang
- TLDR: 文書からKeyphraseを生成する研究。文書からKeyphraseを生成する際、文書からKeyphraseを生成する際のAttentionを、文書からKeyphraseを生成する際のAttentionを計算する。Attentionは文書からKeyphraseを生成する際の計算量を算出する。
- Machine Reading Comprehension as Data Augmentation: A Case Study on Implicit Event Argument Extraction
- Jian Liu, Yufeng Chen, Jinan Xu
- TLDR: 文書から、文中のイベント推論を解く研究。文中のイベント推論は、文の文長が長い場合、文長の文を予測するモデルが適応できない。そこで、文長の文を予測するモデルを導入し、文長の文を予測するモデルを学習させる。文長の文を予測するモデルは、文長の文を予測するモデルと同等の精度を達成。
- Importance Estimation from Multiple Perspectives for Keyphrase Extraction
- Mingyang Song, Liping Jing, Lin Xiao
- TLDR: 自然言語処理でKeyphraseを抽出する際、Keyphraseの重要性を計測する手法の提案。Keyphraseの重要性を計測する際は、Keyphraseの単語分布を計測する(単語分布は、単語の意味分布を予測する)。Keyphraseの重要性を計測する際は、単語分布を計測する際の精度を計測する。
- Gradient Imitation Reinforcement Learning for Low Resource Relation Extraction
- Xuming Hu, Chenwei Zhang, Yawen Yang, Xiaohe Li, Li Lin, Lijie Wen, Philip S. Yu
- TLDR: 低リソースのRelation Extractionで、学習済みモデルの学習を強化学習で行う研究。学習済みモデルの学習は、学習済みモデルの学習済みモデルの学習率を上げるための強化学習の枠組みで行われる。学習済みモデルの学習率は、学習済みモデルの学習率と同等の精度を維持できる。
- Low-resource Taxonomy Enrichment with Pretrained Language Models
- Kunihiro Takeoka, Kosuke Akimoto, Masafumi Oyamada
- TLDR: 自然言語処理で、低リソースのタスクで学習したモデルを、大規模なタスクで活用する研究。タスクは、タスクの分類器を学習する。分類器は、タスクの分類器と同等のモデルを学習する。タスクは、タスクの分類器が学習するタスクを学習する。タスクは、タスクの分類器が学習するタスクを学習する。
- Entity Relation Extraction as Dependency Parsing in Visually Rich Documents
- Yue Zhang, Zhang Bo, Rui Wang, Junjie Cao, Chen Li, Zuyi Bao
- TLDR: 文書から、文関係を抽出する研究。文関係は、文の構造(単語の意味)と文関係(単語の意味)の2つに分割されている。文関係は、文関係の単語を入力とするEntity LSTMで抽出する。文関係は、文関係の単語を入力とするEntity LSTMで抽出する。
- Synchronous Dual Network with Cross-Type Attention for Joint Entity and Relation Extraction
- Hui Wu, Xiaodong Shi
- TLDR: 自然言語処理における、EntityとRelationの相互作用を検証した研究。Entityは固有表現とRelationは固有表現の2つで、固有表現は固有表現の表現を認識する。固有表現認識は、Entityの潜在表現を認識するだけでなく、固有表現認識の潜在表現を認識する(潜在表現は、固有表現認識の潜在表現と同等)。
- Less is More: Pretrain a Strong Siamese Encoder for Dense Text Retrieval Using a Weak Decoder
- Shuqi Lu, Di He, Chenyan Xiong, Guolin Ke, Waleed Malik, Zhicheng Dou, Paul Bennett, Tie-Yan Liu, Arnold Overwijk
- TLDR: 自然言語処理で、事前学習済みモデルの学習を行わずに学習を行う手法の提案。事前学習済みモデルの学習は、事前学習済みモデルの学習済み言語モデルの学習済み言語モデルを学習する形で行う。事前学習済みモデルの学習は、事前学習済み言語モデルの学習済み言語モデルの学習済み言語モデルを学習する形で行う。
- TransPrompt: Towards an Automatic Transferable Prompting Framework for Few-shot Text Classification
- Chengyu Wang, Jianing Wang, Minghui Qiu, Jun Huang, Ming Gao
- TLDR: 事前学習済み言語モデルで、事前学習済みモデルの学習済み知識を転移可能なモデルに転移させる研究。事前学習済みモデルの学習済み知識を転移可能なモデルに転移させる。転移可能なモデルは、事前学習済みモデルの学習済み知識を転移可能なモデルに転移させる。転移可能なモデルは、事前学習済みモデルの学習済み知識を転移可能なモデルに転移させる。
- Weakly-supervised Text Classification Based on Keyword Graph
- Lu Zhang, Jiandong Ding, Yi Xu, Yingyao Liu, Shuigeng Zhou
- TLDR: 教師なしの文書分類を行う際に、keywordとテキストの相関を調べた研究。keywordは単語の単語分布から生成されるが、テキストは単語分布から生成される。keywordは単語分布から生成されるが、テキストは単語分布から生成される。keywordは単語分布から生成されるが、テキストは単語分布から生成される。
- Efficient-FedRec: Efficient Federated Learning Framework for Privacy-Preserving News Recommendation
- Jingwei Yi, Fangzhao Wu, Chuhan Wu, Ruixuan Liu, Guangzhong Sun, Xing Xie
- TLDR: プライバシー保護を重視するFederated Learningの提案。ネットワークのネットワークをネットワークのネットワークとし、ネットワークのネットワークをネットワークのネットワークとし、ネットワークのネットワークをネットワークのネットワークとし、ネットワークのネットワークをネットワークのネットワークとし、ネットワークのネットワークをネットワークのネットワークとし、ネットワークのネットワークをネットワークのネットワークとし、ネットワークのネットワークをネットワークのネットワークとし、ネットワークのネットワークをネットワークとし、ネットワークのネットワークをネットワークとし、ネットワークのネットワークをネットワークとし、ネットワークのネットワークをネットワークとし、ネットワークのネットワークをネットワークとし、ネットワークのネットワークをネットワークとし、ネットワークのネットワークをネットワークとし、ネットワークのネットワークをネットワークとし、ネットワーク
- RocketQAv2: A Joint Training Method for Dense Passage Retrieval and Passage Re-ranking
- Ruiyang Ren, Yingqi Qu, Jing Liu, Wayne Xin Zhao, QiaoQiao She, Hua Wu, Haifeng Wang, Ji-Rong Wen
- TLDR: 自然言語処理における文書検索と、文書更新を同時に行う研究。文書更新は文書の更新が基本だが、文書更新は文書更新の更新が基本で、更新は文書更新の更新を前提とした更新。文書更新は文書更新の更新を前提としているが、文書更新は文書更新の更新を前提としている。文書更新は文書更新の更新を前提としている
- Dealing with Typos for BERT-based Passage Retrieval and Ranking
- Shengyao Zhuang, Guido Zuccon
- TLDR: 文書分類において、単語の偏りが原因で検索結果に不適合する箇所がある場合、事前学習済みモデルで学習したモデルを適用する手法の提案。事前学習済みモデルは、単語偏りが原因で検索結果に不適合する箇所がある場合、事前学習済みモデルを適用する。事前学習済みモデルは、単語偏りが原因で不適合箇所がある箇所を学習する。
- From Alignment to Assignment: Frustratingly Simple Unsupervised Entity Alignment
- Xin Mao, Wenting Wang, Yuanbin Wu, Man Lan
- TLDR: 多言語のEntity Aligningを、学習済みモデルと学習済みモデルのペアに分割し、学習済みモデルのEntity Alignmentを学習する手法の提案。学習済みモデルのEntity Alignmentは、学習済みモデルのEntity Alignmentと同等の精度を維持できるが、学習済みモデルのEntity Alignmentは学習済みモデルの精度が低下する。
- Simple and Effective Unsupervised Redundancy Elimination to Compress Dense Vectors for Passage Retrieval
- Xueguang Ma, Minghan Li, Kai Sun, Ji Xin, Jimmy Lin
- TLDR: オープンドメインの質問回答を行う際に、既存のBERTよりもスケールが大きい問題点を指摘した研究。スケールは、入力のサイズが大きい場合に適応する。スケールは、入力のサイズが大きい場合に適応する。スケールは、入力のサイズが大きい場合に適応する。
- Relation Extraction with Word Graphs from N-grams
- Han Qin, Yuanhe Tian, Yan Song
- TLDR: 文中の単語を、グラフ構造で抽出する研究。単語の位置関係をグラフ構造で表現し、グラフ構造の表現をグラフ構造に置き換える。グラフ構造は、単語の位置関係をグラフ構造に置き換える形で作成する。単語の位置関係は、単語の位置関係をグラフ構造に置き換える形で表現する。
- A Bayesian Framework for Information-Theoretic Probing
- Tiago Pimentel, Ryan Cotterell
- TLDR: モデルの学習時に、事前学習済みモデルと同等の情報を収集する研究。事前学習済みモデルは、事前学習済みモデルの情報を収集するネットワークを構築する。事前学習済みモデルは、事前学習済みモデルの情報を収集するネットワークを構築する。事前学習済みモデルは、事前学習済みモデルの情報を収集するネットワークを構築する。事前学習済みモデルは、事前学習済みモデルの情報を収集するネットワークを構築する。
- Masked Language Modeling and the Distributional Hypothesis: Order Word Matters Pre-training for Little
- Koustuv Sinha, Robin Jia, Dieuwke Hupkes, Joelle Pineau, Adina Williams, Douwe Kiela
- TLDR: 事前学習済み言語モデル(Masked Language Model)が、事前学習済み言語モデルより精度が上がることを示した研究。事前学習済み言語モデルは、単語の順序が逆順になるよう学習するが、この学習は逆順に行われる。このため、単語の順序を逆順に学習するモデルを採用している。
- What’s Hidden in a One-layer Randomly Weighted Transformer?
- Sheng Shen, Zhewei Yao, Douwe Kiela, Kurt Keutzer, Michael Mahoney
- TLDR: マルチモーメントの翻訳モデルで、単純に重みを変更するだけでも精度が上がるという研究。重みを変更することで、翻訳モデルの精度を上げることができる。重みを変更することで、精度が上がるだけでなく、翻訳モデルのパフォーマンスも上がることを確認。
- Rethinking Denoised Auto-Encoding in Language Pre-Training
- Fuli Luo, Pengcheng Yang, Shicheng Li, Xuancheng Ren, Xu Sun, Songfang Huang, Fei Huang
- TLDR: 事前学習済みモデルを、学習済みモデルの学習に組み込む研究。事前学習済みモデルは学習済みモデルと同等の学習データが必要で、事前学習済みモデルの学習データは学習データの劣化に繋がる。そのため、事前学習済みモデルの学習データと学習データの差異を補完する手法を提案している。
- Lifelong Explainer for Lifelong Learners
- Xuelin Situ, Sameen Maruf, Ingrid Zukerman, Cecile Paris, Gholamreza Haffari
- TLDR: 学習済みモデルの説明を学習する研究。学習済みモデルは学習済みモデルの学習済みパラメーターを更新するが、学習済みモデルは更新するパラメーターを学習する。学習済みモデルは更新するパラメーターを学習するが、学習済みモデルは更新するパラメーターを学習する。学習済みモデルは学習済みモデルの学習済みパラメーターを学習する
- Linguistic Dependencies and Statistical Dependence
- Jacob Louis Hoover, Wenyu Du, Alessandro Sordoni, Timothy J. O’Donnell
- TLDR: 自然言語処理における依存関係の研究。単語の相互情報(単語間の関係)を予測するモデルを用い、単語間の関係を推定する。単語間の関係は、単語の位置関係(位置関係)と、単語の位置関係(位置関係)の位置関係(位置関係)の位置関係(位置関係)を比較する。
- Modeling Human Sentence Processing with Left-Corner Recurrent Neural Network Grammars
- Ryo Yoshida, Hiroshi Noji, Yohei Oseki
- TLDR: 言語モデルの構造を、人間に近いモデルに変える研究。単語の意味を入力する際、単語の意味を入力する位置を左に置き換える(単語の意味を入力する位置は左に置き換える)、単語の意味を入力する位置を右に置き換える(単語の意味を入力する位置は左に置き換える)、単語の意味を入力する位置を左に置き換える(単語の意味を入力する位置は左に置き換える)、といった工夫を行っている。
- A Simple and Effective Positional Encoding for Transformers
- Pu-Chin Chen, Henry Tsai, Srinadh Bhojanapalli, Hyung Won Chung, Yin-Wen Chang, Chun-Sung Ferng
- TLDR: マルチモーダルでTransformerを学習する際、位置情報だけでなくセグメンテーション情報も加味する研究。位置情報はTransformerのAttention層から得られるが、セグメンテーション情報はTransformerのAttention層から得られる。TransformerのAttentionは、位置情報のみでなくセグメンテーション情報も加味する。
- Explore Better Relative Position Embeddings from Encoding Perspective for Transformer Models
- Anlin Qu, Jianwei Niu, Shasha Mo
- TLDR: 位置情報の分散表現をTransformerモデルに適用する研究。位置情報の分散表現は、Transformerモデルの潜在表現に近い。Transformerモデルは、位置情報の分散表現をTransformerの潜在表現に適用する。この時、Transformerの潜在表現は、位置情報の分散表現と同等の表現になるよう、学習する。
- Adversarial Mixing Policy for Relaxing Locally Linear Constraints in Mixup
- Guang Liu, Yuzhao Mao, Huang Hailong, Gao Weiguo, Li Xuan
- TLDR: マルチタスク学習で、学習済みモデルの学習空間を減らす研究。学習済みモデルの学習空間を減らすため、学習済みモデルの入力空間を減らす(減らすと、学習済みモデルの学習空間が減る)。学習済みモデルの学習空間を減らすと、学習済みモデルの学習空間を減らす。
- Is this the end of the gold standard? A straightforward reference-less grammatical error correction metric
- Md Asadul Islam, Enrico Magnani
- TLDR: 文の誤り訂正を行う際に、文中の単語を削除する手法を提案。単語の意味を変えたり、単語の意味を変えたりする際は、単語の意味を変えた単語を削除する。単語の意味を変えた単語は、単語の意味を変えた単語と同等の評価が得られる。
- Augmenting BERT-style Models with Predictive Coding to Improve Discourse-level Representations
- Vladimir Araujo, Andrés Villa, Marcelo Mendoza, Marie-Francine Moens, Alvaro Soto
- TLDR: 言語モデルの学習を、事前学習済み言語モデルの表現に置き換える研究。事前学習済み言語モデルの表現は、文の文脈から予測する。文脈は、文の文脈から予測する。文脈は、文脈の予測に使用するネットワークの重みを予測するネットワークの重みと、文脈の重みを予測するネットワークの重みを組み合わせている。
- Backdoor Attacks on Pre-trained Models by Layerwise Weight Poisoning
- Linyang Li, Demin Song, Xiaonan Li, Jiehang Zeng, Ruotian Ma, Xipeng Qiu
- TLDR: 医療従事者のための学習データセット「医療従事者のためのデータセット」の提案。医療従事者のためのデータセットは、医療従事者のためのデータセットと同等の扱いが行えるかを検証している。医療従事者のためのデータセットは、医療従事者のためのデータセットと同等の扱いが行えるかを検証している。
- GAML-BERT: Improving BERT Early Exiting by Gradient Aligned Mutual Learning
- Wei Zhu, Xiaoling Wang, Yuan Ni, Guotong Xie
- TLDR: マルチエージェントの学習で、事前学習済みモデルの学習を効率化する研究。事前学習済みモデルの学習は、事前学習済みモデルの学習済みモデルの学習済みモデルと同等の効果を上げることができる。事前学習済みモデルの学習は、事前学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの
- The Power of Scale for Parameter-Efficient Prompt Tuning
- Brian Lester, Rami Al-Rfou, Noah Constant
- TLDR: 言語モデルの学習を、soft promptに置き換える研究。soft promptは学習済みモデルの重みを調整する形で学習するが、soft promptは学習済みモデルの重みを調整する形で学習する。soft promptは学習済みモデルの重みを調整する形で学習するが、soft promptは学習済みモデルの重みを調整する形で学習する。
- Scalable Font Reconstruction with Dual Latent Manifolds
- Nikita Srivatsan, Si Wu, Jonathan Barron, Taylor Berg-Kirkpatrick
- TLDR: 文字のスタイル変換を行う際に、文字のスタイルを生成する研究。文字のスタイルは、文字の大きさと形状の2つからなる。文字の形状は、文字の大きさと形状の2つからなる。文字の形状は、文字の大きさと形状の2つからなる。文字の形状は、文字の大きさと形状の2つからなる。
- Neuro-Symbolic Approaches for Text-Based Policy Learning
- Subhajit Chaudhury, Prithviraj Sen, Masaki Ono, Daiki Kimura, Michiaki Tatsubori, Asim Munawar
- TLDR: 強化学習において、テキストから強化学習のルールを推定する研究。テキストから強化学習のルールを推定する際、テキストから強化学習のルールを推定する。テキストから強化学習のルールを推定する際、テキストから強化学習のルールを推定する。強化学習のルールは、テキストから学習するより、テキストから学習する方が汎化性能が高い。
- Layer-wise Model Pruning based on Mutual Information
- Chun Fan, Jiwei Li, Tianwei Zhang, Xiang Ao, Fei Wu, Yuxian Meng, Xiaofei Sun
- TLDR: マルチ層のネットワークで、重みを落とす手法の提案。重みは重みの重みを落とすためのネットワークの重みと、重みの重みを落とすネットワークの重みを落とすためのネットワークの重みを落とすためのネットワークの重みを落とすためのネットワークの重みを落とすためのネットワークの重みを落とすためのネットワークの重みを落とすためのネットワークの重みを落とすためのネットワークの重みを落とすためのネットワークの重みを落とすためのネットワークの重みを落とすためのネットワークの重みを落とすためのネットワークの重
- Hierarchical Heterogeneous Graph Representation Learning for Short Text Classification
- Yaqing Wang, Song Wang, Quanming Yao, Dejing Dou
- TLDR: 短い文書分類を行う際に、グラフをグラフ構造に置き換えた研究。文書のタイトル/本文/単語/文関係をグラフ構造に置き換え、文書のタイトル/本文/単語/文関係をグラフ構造に置き換えたものをグラフ構造とし、文書のタイトル/本文/単語/文関係をグラフ構造に置き換えたものをグラフ構造とし、文書のタイトル/本文/単語/文関係をグラフ構造に置き換えたものをグラフ構造とし、文書のタイトル/本文/文関係をグラフ構造に置き換えたものをグラフ構造とし、文書のタイトル/文章関係をグラフ構造に置き
- kFolden: k-Fold Ensemble for Out-Of-Distribution Detection
- Xiaoya Li, Jiwei Li, Xiaofei Sun, Chun Fan, Tianwei Zhang, Fei Wu, Yuxian Meng, Jun Zhang
- TLDR: 自然言語処理で、論文の投稿から論文の分類を行う際に、論文の分類結果を予測する手法の提案。論文の分類結果は、論文の分類結果から生成される文書を分類する形で行われる。分類結果は、論文の分類結果から生成される文書を分類する形で行われる。
- Frustratingly Simple Pretraining Alternatives to Masked Language Modeling
- Atsuki Yamaguchi, George Chrysostomou, Katerina Margatina, Nikolaos Aletras
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルのモデルに置き換える研究。事前学習済み言語モデルは、事前学習済み言語モデルのパラメーターを大きくすると、モデルのパフォーマンスが下がる。そこで、事前学習済み言語モデルのパラメーターを大きくすることで、モデルのパフォーマンスを上げる手法を提案している。
- HRKD: Hierarchical Relational Knowledge Distillation for Cross-domain Language Model Compression
- Chenhe Dong, Yaliang Li, Ying Shen, Minghui Qiu
- TLDR: 事前学習済み言語モデルを、階層構造とドメインの関係を蒸留する手法の提案。階層構造は、階層構造の学習と、ドメインの関係を蒸留の2つに分けている。蒸留は、階層構造の学習と、ドメインの関係を蒸留の2つに分けている。蒸留は、階層構造の学習と、ドメインの関係を蒸留の2つに分けている。
- Searching for an Effective Defender: Benchmarking Defense against Adversarial Word Substitution
- Zongyi Li, Jianhan Xu, Jiehang Zeng, Linyang Li, Xiaoqing Zheng, Qi Zhang, Kai-Wei Chang, Cho-Jui Hsieh
- TLDR: テキスト分類器に対するAdversarial Exampleの防御について、具体的にどのような防御手法が有効かを調べた研究。Adversarial Exampleは、Adversarial Exampleの作成時に、Adversarial Exampleの作成者と同等の意図を持つ文書を作成し、文書作成者と同等の意図を持つ文書を作成する。文書作成者は、文書作成時に文書の意味を変えたり、文書の意味を変えたりする文書を作成する。
- Re-embedding Difficult Samples via Mutual Information Constrained Semantically Oversampling for Imbalanced Text Classification
- Jiachen Tian, Shizhan Chen, Xiaowang Zhang, Zhiyong Feng, Deyi Xiong, Shaojuan Wu, Chunliu Dou
- TLDR: マルチラベルのテキスト分類において、学習済みのクラスと同等のクラスを認識する手法の提案。マルチラベルのクラスは、クラスの学習済みのクラスと同等のクラスを認識する。マルチラベルのクラスは、クラスの学習済みクラスと同等のクラスを認識する。マルチラベルのクラスは、クラスの学習済みクラスと同等のクラスを認識する。
- Beyond Text: Incorporating Metadata and Label Structure for Multi-Label Document Classification using Heterogeneous Graphs
- Chenchen Ye, Linhai Zhang, Yulan He, Deyu Zhou, Jie Wu
- TLDR: マルチラベル文書分類を行う際に、ラベルの分散表現を考慮した研究。ラベル分散表現は、ラベルの分布を予測するグラフを生成する。ラベル分布は、ラベルの分布を予測するグラフを生成する。ラベル分布は、ラベル分布の分布を予測するグラフを生成する。ラベル分布は、ラベル分布の分布を予測するグラフを生成する。
- Natural Language Processing Meets Quantum Physics: A Survey and Categorization
- Sixuan Wu, Jian Li, Peng Zhang, Yue Zhang
- TLDR: 自然言語処理における、ニューラルネットの手法についてまとめられたサーベイ。手法の概要、適用事例、また評価手法についてまとめられている。
- MetaTS: Meta Teacher-Student Network for Multilingual Sequence Labeling with Minimal Supervision
- Zheng Li, Danqing Zhang, Tianyu Cao, Ying Wei, Yiwei Song, Bing Yin
- TLDR: マルチ言語のSeq2Seqのラベリングを行う研究。教師と生徒双方で学習を行う。教師は、教師の学習データから学習するモデルを生成し、生徒は教師の学習データから学習する。教師は、教師の学習データから学習するモデルを生成し、生徒は教師の学習データから学習する。
- Neural Machine Translation with Heterogeneous Topic Knowledge Embeddings
- Weixuan Wang, Wei Peng, Meng Zhang, Qun Liu
- TLDR: 翻訳において、文中の単語を単語分散表現として使用する手法の提案。単語分散表現は、単語の意味を予測するだけでなく、単語の意味を予測する潜在表現として使用する。単語分散表現は、単語の意味を予測する潜在表現として使用する。単語分散表現は、単語の意味を予測する潜在表現として使用する。
- Allocating Large Vocabulary Capacity for Cross-Lingual Language Model Pre-Training
- Bo Zheng, Li Dong, Shaohan Huang, Saksham Singhal, Wanxiang Che, Ting Liu, Xia Song, Furu Wei
- TLDR: マルチ言語対応のモデルで、学習時に単語サイズを大きくする手法の提案。単語サイズを大きくすると、学習速度が低下する。そのため、学習時に単語サイズを大きくする(softmax)ことで、学習速度を上げている。
- Recurrent Attention for Neural Machine Translation
- Jiali Zeng, Shuangzhi Wu, Yongjing Yin, Yufan Jiang, Mu Li
- TLDR: 翻訳モデルのAttentionを、TransformerのAttentionに置き換える研究。TransformerのAttentionは、Attentionの重みを入力とする単語/文の重みから学習する。TransformerのAttentionは、単語/文の重みを入力とする単語/文の重みから学習する。TransformerのAttentionは、単語/文の重みを入力とする単語/文の重みから学習する。
- Learning from Multiple Noisy Augmented Data Sets for Better Cross-Lingual Spoken Language Understanding
- Yingmei Guo, Linjun Shou, Jian Pei, Ming Gong, Mingxing Xu, Zhiyong Wu, Daxin Jiang
- TLDR: 低リソース言語の学習で、学習データのノイズを抑制する研究。学習データは、学習済み言語の単語を入力とし、単語の表現を学習する。単語の表現は、単語の意味を認識する(単語の意味は、単語の意味を認識する)、単語の表現は、単語の意味を認識する(単語の意味は、単語の意味を認識する)という2つのタスクで学習する。
- Enlivening Redundant Heads in Multi-head Self-attention for Machine Translation
- Tianfu Zhang, Heyan Huang, Chong Feng, Longbing Cao
- TLDR: 機械翻訳において、複数単語の意味を区別する単語を削除する研究。単語の意味を区別する単語は、単語の意味を区別する単語の重みを加味する形で分類する。単語の重みは、単語の意味を区別する単語の重みと、単語の重みを区別する単語の重みから算出する。
- Unsupervised Neural Machine Translation with Universal Grammar
- Zuchao Li, Masao Utiyama, Eiichiro Sumita, Hai Zhao
- TLDR: 教師なしで翻訳を行う際に、自然言語の類似度を考慮する研究。自然言語の類似度は、単語の意味を理解する際の基本的要素として扱われる。この点を、自然言語の類似度と併用することで、学習時に自然言語の類似度を考慮するモデルを構築する。
- Encouraging Lexical Translation Consistency for Document-Level Neural Machine Translation
- Xinglin Lyu, Junhui Li, Zhengxian Gong, Min Zhang
- TLDR: 文書レベルの翻訳で、文書の単語分布を統一する手法の提案。文書内の単語分布を、文書全体の単語分布と同等に扱うことで、文書全体の単語分布を統一する。文書全体の単語分布を統一するだけでなく、文書全体の単語分布を統一する手法も提案している。
- Improving Neural Machine Translation by Bidirectional Training
- Liang Ding, Di Wu, Dacheng Tao
- TLDR: 翻訳モデルの事前学習を、Bidirectional(Bi-directional)に置き換える研究。Bi-directionalは、事前学習済みモデルのパラメーターを更新する初期段階で行う。この初期段階では、モデルのパラメーターを更新する。この初期段階では、モデルのパラメーター更新を行わず、モデルの更新を行わずに学習を行う。
- Scheduled Sampling Based on Decoding Steps for Neural Machine Translation
- Yijin Liu, Fandong Meng, Yufeng Chen, Jinan Xu, Jie Zhou
- TLDR: 翻訳における、事前学習済みモデルの予測結果を事前学習済みモデルに適用する研究。事前学習済みモデルは予測結果を予測するステップを学習するが、事前学習済みモデルは予測結果を予測するステップに置き換える。事前学習済みモデルは予測結果を予測するステップを学習するが、事前学習済みモデルは予測結果を予測するステップに置き換える。事前学習済みモデルは事前学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは誤差が大きくなる。
- Learning to Rewrite for Non-Autoregressive Neural Machine Translation
- Xinwei Geng, Xiaocheng Feng, Bing Qin
- TLDR: 翻訳の誤りを修正する研究。誤り箇所を検索するフレームワークを学習する。誤り箇所は、翻訳文の文脈から抽出する。誤り箇所は、翻訳文の文脈から抽出する。誤り箇所は、翻訳文の文脈から抽出する。誤り箇所は、翻訳文の文脈から抽出する。
- SHAPE: Shifted Absolute Position Embedding for Transformers
- Shun Kiyono, Sosuke Kobayashi, Jun Suzuki, Kentaro Inui
- TLDR: 転移学習で、逆位置の表現を強化する手法の提案。逆位置の表現は、Transformerのモデルで学習したモデルと同等の精度が得られるが、Transformerのモデルでは逆位置の表現が得られない。そこで、逆位置の表現を強化する手法を提案。逆位置の表現は、Transformerのモデルで学習したモデルと同等の精度が得られることを確認。
- Self-Supervised Quality Estimation for Machine Translation
- Yuanhang Zheng, Zhixing Tan, Meng Zhang, Mieradilijiang Maimaiti, Huanbo Luan, Maosong Sun, Qun Liu, Yang Liu
- TLDR: 機械翻訳における品質の推定を行う研究。翻訳文の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文長を、文長の文
- Generalised Unsupervised Domain Adaptation of Neural Machine Translation with Cross-Lingual Data Selection
- Thuy-Trang Vu, Xuanli He, Dinh Phung, Gholamreza Haffari
- TLDR: 翻訳におけるドメイン転移の研究。翻訳は翻訳文の翻訳文を翻訳するが、翻訳文の翻訳文は翻訳文の翻訳文と異なる言語の翻訳文を混合する。このため、翻訳文の翻訳文を翻訳文の翻訳文に置き換える(翻訳文の翻訳文は翻訳文の翻訳文に置き換える)ことで、翻訳文の翻訳精度を向上させる。
- STANKER: Stacking Network based on Level-grained Attention-masked BERT for Rumor Detection on Social Media
- Dongning Rao, Xin Miao, Zhihua Jiang, Ran Li
- TLDR: 事前学習済み言語モデル(BERT)を、事前学習済みモデル(Transformer)に置き換えた研究。BERTは記事のタイトル/画像/画像の画像を入力として、記事のタイトル/画像画像/画像画像画像の画像を入力として、記事の画像/画像画像画像を入力としてBERTを入力として、BERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力としてBERTを入力
- ActiveEA: Active Learning for Neural Entity Alignment
- Bing Liu, Harrisen Scells, Guido Zuccon, Wen Hua, Genghong Zhao
- TLDR: 学習済みモデルの学習時に、学習済みモデルの潜在表現を学習する研究。学習済みモデルの潜在表現は、学習済みモデルの潜在表現と同等の表現が得られるかを検証する。学習済みモデルの潜在表現は、学習済みモデルの潜在表現と同等の表現が得られるかを検証する。学習済みモデルの潜在表現は、学習済みモデルの潜在表現と同等の表現が得られるかを検証する。
- Cost-effective End-to-end Information Extraction for Semi-structured Document Images
- Wonseok Hwang, Hyunji Lee, Jinyeong Yim, Geewook Kim, Minjoon Seo
- TLDR: 文書から画像を生成するモデルの提案。文書から画像を生成する際は、文書のタイトルを入力とする。文書のタイトルは文書のタイトルと同等の文書タイトルを入力とする。文書のタイトルは文書のタイトルと同等の文書タイトルを入力とする。文書のタイトルは文書のタイトルを入力とする。文書のタイトルは文書のタイトルを入力とする。
- Improving Math Word Problems with Pre-trained Knowledge and Hierarchical Reasoning
- Weijiang Yu, Yingpeng Wen, Fudan Zheng, Nong Xiao
- TLDR: 自然言語処理で、単語の意味を推定する際、単語の意味を推定する際の手法を提案。単語の意味を推定する際は、単語の意味を推定する際の手法を用い、単語の意味を推定する際は、単語の意味を推定する手法を用い、単語の意味を推定する際は、単語の意味を推定する手法を用い、単語の意味を推定する際は、単語の意味を推定する手法を用い、単語の意味を推定する際は、単語の意味を推定する手法を用い、単語の意味を推定する際
- GraphMR: Graph Neural Network for Mathematical Reasoning
- Weijie Feng, Binbin Liu, Dongpeng Xu, Qilong Zheng, Yun Xu
- TLDR: 自然言語処理で、自然言語処理のタスクで使われるグラフを学習する研究。質問に対するグラフの表現を、質問に対するグラフの表現と同等かそれ以上の精度で学習する。グラフの表現は、質問に対する質問に対する回答と同等かそれ以上の精度で学習する。
- What Changes Can Large-scale Language Models Bring? Intensive Study on HyperCLOVA: Billions-scale Korean Generative Pretrained Transformers
- Boseop Kim, HyoungSeok Kim, Sang-Woo Lee, Gichang Lee, Donghyun Kwak, Jeon Dong Hyeon, Sunghyun Park, Sungju Kim, Seonhoon Kim, Dongpil Seo, Heungsub Lee, Minyoung Jeong, Sungjae Lee, Minsub Kim, Suk Hyun Ko, Seokhun Kim, Taeyong Park, Jinuk Kim, Soyoung Kang, Na-Hyeon Ryu, Kang Min Yoo, Minsuk Chang, Soobin Suh, Sookyo In, Jinseong Park, Kyungduk Kim, Hiun Kim, Jisu Jeong, Yong Goo Yeo, Donghoon Ham, Dongju Park, Min Young Lee, Jaewook Kang, Inho Kang, Jung-Woo Ha, Woomyoung Park, Nako Sung
- TLDR: 大規模な言語モデルで、事前学習済みモデルと同等の精度を達成するために、事前学習済みモデルのパフォーマンスを比較した研究。事前学習済みモデルは、事前学習済みモデルのパフォーマンスを上回る結果を出し得るが、事前学習済みモデルはパフォーマンスが下がる。事前学習済みモデルのパフォーマンスを比較した研究。事前学習済みモデルのパフォーマンスは、事前学習済みモデルのパフォーマンスと同等の結果を出し得る。
- APIRecX: Cross-Library API Recommendation via Pre-Trained Language Model
- Yuning Kang, Zan Wang, Hongyu Zhang, Junjie Chen, Hanmo You
- TLDR: ソフトウェアの開発で、各タスクで使われるAPIを学習する手法の提案。学習済み言語モデルをベースに、学習済み言語モデルを学習する。学習済み言語モデルは、学習済み言語モデルの学習済みモデルと同等の精度を維持できる。
- GMH: A General Multi-hop Reasoning Model for KG Completion
- Yao Zhang, Hongru Liang, Adam Jatowt, Wenqiang Lei, Xin Wei, Ning Jiang, Zhenglu Yang
- TLDR: マルチホップの推論を行う際に、どのルートをどの程度探索するかを予測する研究。探索は、単純に行動を停止するだけでなく、行動を再帰的に繰り返す(行動を再帰的に繰り返す)ことで行う。行動を再帰的に繰り返すと、行動の再帰性が高まる。
- BPM_MT: Enhanced Backchannel Prediction Model using Multi-Task Learning
- Jin Yea Jang, San Kim, Minyoung Jung, Saim Shin, Gahgene Gweon
- TLDR: 自然言語処理で、質問に対する反応を予測する研究。質問に対する反応は、質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問
- Graphine: A Dataset for Graph-aware Terminology Definition Generation
- Zequn Liu, Shukai Wang, Yiyang Gu, Ruiyi Zhang, Ming Zhang, Sheng Wang
- TLDR: 自然言語処理で、生物医学の定義を生成する研究。Biomedicalの定義は2,500の単語からなるGraph Neural Networkで生成を行う。Graph Neural Networkは、Biomedicalの単語をGraph Neural Networkで表現し、Graph Neural Networkの表現をGraph Neural Networkに入力する。
- Leveraging Order-Free Tag Relations for Context-Aware Recommendation
- Junmo Kang, Jeonghwan Kim, Suwon Shin, Sung-Hyon Myaeng
- TLDR: タグの生成を行う際に、順序が逆順で生成を行う手法の提案。順序は順次生成するが、順序が逆順の場合、生成したタグは順次生成される。順次生成を行うと、順序が逆順になる場合に生成したタグが生成される。
- End-to-End Conversational Search for Online Shopping with Utterance Transfer
- Liqiang Xiao, Jun Ma, Xin Luna Dong, Pascual Martínez-Gómez, Nasser Zalmout, Wei Chen, Tong Zhao, Hao He, Yaohui Jin
- TLDR: オンラインストアで、対話システムを構築する際の課題として、事前学習済みモデルの学習データが不足している点がある。事前学習済みモデルは、商品カテゴリ/説明文から検索を行うが、検索結果は商品画像/説明文のみで収集する。事前学習済みモデルは、事前学習済みモデルの学習データが不足しているため、事前学習済みモデルを学習データに追加する
- Self-Supervised Curriculum Learning for Spelling Error Correction
- Zifa Gan, Hongfei Xu, Hongying Zan
- TLDR: 自然言語処理で、学習データの難易度を比較する研究。難易度は学習データの難易度と同等か、学習データの難易度と同等か、学習データの難易度の差(学習データの難易度が異なる場合に学習データの難易度が異なる)を比較する。難易度は学習データの難易度と同等か、差は学習データの難易度の差かを比較する。
- Fix-Filter-Fix: Intuitively Connect Any Models for Effective Bug Fixing
- Haiwen Hong, Jingfeng Zhang, Yin Zhang, Yao Wan, Yulei Sui
- TLDR: 翻訳における、修正が必要な箇所を特定する手法の提案。既存の手法は修正箇所が同じ/修正箇所が異なると判断するが、この判断は誤り。修正箇所は、修正箇所と同等の箇所が異なる場合にのみ修正する。この点を、修正箇所を特定するFilter F3を導入することで、精度を上げる手法を提案している。
- Neuro-Symbolic Reinforcement Learning with First-Order Logic
- Daiki Kimura, Masaki Ono, Subhajit Chaudhury, Ryosuke Kohita, Akifumi Wachi, Don Joven Agravante, Michiaki Tatsubori, Asim Munawar, Alexander Gray
- TLDR: 強化学習で、テキストから強化学習のルールを学習する研究。テキストから強化学習のルールを学習する際、ルールの表現を学習する際の表現を学習する。この表現を学習する際は、テキストの表現を学習する際の表現と、テキストの表現を学習する際の表現を学習する際の表現をそれぞれ学習する。
- Biomedical Concept Normalization by Leveraging Hypernyms
- Cheng Yan, Yuanzhe Zhang, Kang Liu, Jun Zhao, Yafei Shi, Shengping Liu
- TLDR: 自然言語処理における、自然言語処理のアルゴリズムを、自然言語処理の単語と同等に扱う研究。単語は自然言語処理で使用される単語と同等に扱われるが、単語は自然言語処理で使用される単語と同等に扱われる単語を区別する。単語は自然言語処理で使用される単語と同等に扱われる単語を区別する。
- Leveraging Capsule Routing to Associate Knowledge with Medical Literature Hierarchically
- Xin Liu, Qingcai Chen, Junying Chen, Wenxiu Zhou, Tingyu Liu, Xinlan Yang, Weihua Peng
- TLDR: 医療文書から知識を抽出する研究。文書から知識抽出は、文書の分類/分類結果から、文書分類結果から知識抽出を行う。文書分類結果から、文書分類結果から知識抽出を行うと、文書分類結果から知識抽出を行うより、文書分類結果から知識抽出を行う方が精度が上がることを確認。
- Label-Enhanced Hierarchical Contextualized Representation for Sequential Metaphor Identification
- Shuqun Li, Liang Yang, Weidong He, Shiqi Zhang, Jingjie Zeng, Hongfei Lin
- TLDR: 文中の単語を、文中の単語と同等に扱う研究。文中の単語は、文中の単語と同等に扱われるか、また同等に扱われるかを検証する。文中の単語は、文中の単語と同等に扱われるか、また同等に扱われるかを検証する。文中の単語は、文中の単語と同等に扱われるかを検証する。
- SpellBERT: A Lightweight Pretrained Model for Chinese Spelling Check
- Tuo Ji, Hang Yan, Xipeng Qiu
- TLDR: 自然言語処理で、誤字脱字を検出する研究。誤字脱字は、文字の位置と文字の位置を同じにすると誤字脱字になる。この誤字脱字を、文字の位置と位置を同じにすると誤字脱字が起こりにくくなるという研究。文字の位置は、文字の位置と文字の位置を同じにすると誤字脱字が起こりにくくなるという研究。
- Automated Generation of Accurate & Fluent Medical X-ray Reports
- Hoang Nguyen, Dong Nie, Taivanbat Badamdorj, Yujie Liu, Yingying Zhu, Jason Truong, Li Cheng
- TLDR: 胸部X線画像から、臨床検査結果を自動生成する研究。事前学習済みモデルをベースに、事前学習済みモデルの入力と臨床検査結果を入力に置き換える形で生成を行う。入力は、臨床検査結果と臨床検査結果の画像から、臨床検査結果から臨床検査結果を入力に置き換える形で行う。
- Enhancing Document Ranking with Task-adaptive Training and Segmented Token Recovery Mechanism
- Xingwu Sun, Yanling Cui, Hongyin Tang, Fuzheng Zhang, Beihong Jin, Shi Wang
- TLDR: 文書分類のタスクで、事前学習済みモデルを学習する手法の提案。事前学習済みモデルは、文書分類のタスクで学習する。事前学習済みモデルは、文書分類のタスクで学習する。文書分類は、文書分類の分類結果を予測する形で行う。文書分類は、文書分類の分類結果を予測する形で行う。
- Abstract, Rationale, Stance: A Joint Model for Scientific Claim Verification
- Zhiwei Zhang, Jiyi Li, Fumiyo Fukumoto, Yanming Ye
- TLDR: 論文のタイトルを入力に入力する手法の提案。タイトルは論文のタイトルと同等の文書で、タイトルは論文のタイトルと同等の文書で入力する。文書は文書分類器で分類し、文書分類器は文書分類器の分類結果を入力に入力する。文書分類器は文書分類器の分類結果を入力に入力する。
- A Fine-Grained Domain Adaption Model for Joint Word Segmentation and POS Tagging
- Peijie Jiang, Dingkun Long, Yueheng Sun, Meishan Zhang, Guangwei Xu, Pengjun Xie
- TLDR: 自然言語処理におけるドメイン転移の研究。単語 SegmentationとPOSTaggingを組み合わせて、各単語の潜在表現を学習する。学習データは、学習済みドメインの潜在表現をベースに、潜在表現の学習は、学習済みドメインの潜在表現をベースに行う。
- Answering Open-Domain Questions of Varying Reasoning Steps from Text
- Peng Qi, Haejun Lee, Tg Sido, Christopher Manning
- TLDR: オープンドメインの文書から、文書から文書への転移を学習する研究。文書から文書への転移は、文書の文書分布を予測するタスク(文書分布予測)と文書分布を予測するタスク(文書分布予測)の2つに分けて行う。文書分布予測は、文書分布を予測するタスク(文書分布予測)と文書分布予測のタスク(文書分布予測)の2つに分けて行う。文書分布予測は、文書分布予測のタスクを追加する。
- Adaptive Information Seeking for Open-Domain Question Answering
- Yunchang Zhu, Liang Pang, Yanyan Lan, Huawei Shen, Xueqi Cheng
- TLDR: オープンドメインのQAで、事前学習済みモデルを適用した研究。事前学習済みモデルは、事前学習済みモデルの各ステップを順番に学習する(事前学習済みモデルは、事前学習済みモデルの学習済みモデルをベースに学習する)。事前学習済みモデルは、事前学習済みモデルの学習済みモデルをベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習済みモデルをベースに学習する。
- Mapping probability word problems to executable representations
- Simon Suster, Pieter Fivez, Pietro Totis, Angelika Kimmig, Jesse Davis, Luc de Raedt, Walter Daelemans
- TLDR: 自然言語処理で、文を文書に変換する手法の研究。文書を文書とし、文書の文書構造を学習する。文書は文書構造を学習するモデルで、文書の文書構造は文書構造を学習するモデルで学習する。文書は文書構造を学習するモデルで、文書は文書構造を学習するモデルで学習する。
- Enhancing Multiple-choice Machine Reading Comprehension by Punishing Illogical Interpretations
- Yiming Ju, Yuanzhe Zhang, Zhixing Tian, Kang Liu, Xiaohuan Cao, Wenting Zhao, Jinlong Li, Jun Zhao
- TLDR: 文書読解のモデルを、事前学習済みモデルに適用する研究。事前学習済みモデルは、文書の文特徴を予測するモデルで、文書の文特徴を予測するモデルは、文書特徴を予測するモデルで、文書特徴を予測するモデルは、文書特徴を予測するモデルで、文書特徴を予測するモデルで学習する。
- Large-Scale Relation Learning for Question Answering over Knowledge Bases with Pre-trained Language Models
- Yuanmeng Yan, Rumei Li, Sirui Wang, Hongzhi Zhang, Zan Daoguang, Fuzheng Zhang, Wei Wu, Weiran Xu
- TLDR: 自然言語の質問と自然言語の文を結合する研究。文の構造を学習するモデルを、文の構造を学習するモデルと、文の構造を学習するモデルの2つに分け、文の構造を学習するモデルを学習する。文の構造は、文の構造を学習するモデルと、文の構造を学習するモデルの2つに分けている。
- Phrase Retrieval Learns Passage Retrieval, Too
- Jinhyuk Lee, Alexander Wettig, Danqi Chen
- TLDR: 文書から単語を抽出する手法の提案。文書から単語抽出は、文書の文脈を抽出する形で行うことが多いが、文書から単語抽出は文書全体を抽出する形で行う。文書から単語抽出は文書全体を抽出する形で行うことが多いが、文書全体を抽出する場合は文書全体を抽出する形で行う。
- Neural Natural Logic Inference for Interpretable Question Answering
- Jihao Shi, Xiao Ding, Li Du, Ting Liu, Bing Qin
- TLDR: 自然言語処理のモデルを、自然言語処理のモデルと併用する研究。自然言語処理は、質問に対する回答の根拠を推定するモデルで、質問に対する回答の根拠を推定するモデルを提案している。質問に対する回答は、質問に対する回答と同等のモデルで行う。
- Smoothing Dialogue States for Open Conversational Machine Reading
- Zhuosheng Zhang, Siru Ouyang, Hai Zhao, Masao Utiyama, Eiichiro Sumita
- TLDR: 機械学習モデルで、質問生成を行う際に、事前学習済みモデルと同等のモデルを併用する手法の提案。事前学習済みモデルは、事前学習済みモデルの質問生成を前提としているが、事前学習済みモデルは質問生成を前提としていない。事前学習済みモデルは、事前学習済みモデルの質問生成を前提としている。
- FinQA: A Dataset of Numerical Reasoning over Financial Data
- Zhiyu Chen, Wenhu Chen, Charese Smiley, Sameena Shah, Iana Borova, Dylan Langdon, Reema Moussa, Matt Beane, Ting-Hao Huang, Bryan Routledge, William Yang Wang
- TLDR: 金融機関の財務情報を自動で収集する研究。金融機関の財務情報を、質問回答で収集する。質問回答は、金融機関の財務情報をベースに、金融機関の財務情報をベースに作成される。質問回答は、金融機関の財務情報をベースに作成される。
- FiD-Ex: Improving Sequence-to-Sequence Models for Extractive Rationale Generation
- Kushal Lakhotia, Bhargavi Paranjape, Asish Ghoshal, Scott Yih, Yashar Mehdad, Srini Iyer
- TLDR: 事前学習済みモデルの説明を、事前学習済みモデルの説明に置き換えた研究。事前学習済みモデルは、事前学習済みモデルの説明を誤認識させる可能性がある。そのため、事前学習済みモデルの説明を誤認識させるための文ペアを追加し、文ペアの説明を誤認識させるための文ペアを追加する。
- RockNER: A Simple Method to Create Adversarial Examples for Evaluating the Robustness of Named Entity Recognition Models
- Bill Yuchen Lin, Wenyang Gao, Jun Yan, Ryan Moreno, Xiang Ren
- TLDR: 自然言語処理で、自然言語処理のモデルの耐性を検証した研究。通常の自然言語処理では、自然言語の単語を単語ベクトルに置き換えるだけで精度が落ちるが、この研究では、単語ベクトルを単語ベクトルに置き換えるだけで精度が向上する。
- Diagnosing the First-Order Logical Reasoning Ability Through LogicNLI
- Jidong Tian, Yitian Li, Wenqing Chen, Liqiang Xiao, Hao He, Yaohui Jin
- TLDR: 自然言語処理モデルの診断を行う際に、モデルの精度だけでなく汎化性、また理解性についても検証した研究。モデルは、通常の自然言語処理モデル(NLI)と比較して精度が低いが、精度が高いと汎化性が低いことを確認。また、汎化性が高いと理解性が低いことを確認。
- Constructing a Psychometric Testbed for Fair Natural Language Processing
- Ahmed Abbasi, David Dobolyi, John P. Lalor, Richard G. Netemeyer, Kendall Smith, Yi Yang
- TLDR: 自然言語処理で、ユーザーのソーシャルネットを使用した評価手法の提案。評価手法は、ユーザーのソーシャルネットの行動を評価するモデル(SOTA)と、ユーザーのソーシャルネットの行動を評価するモデル(A-Z)を組み合わせている。評価手法は、評価対象のユーザーの行動を評価するモデル(A-Z)と、評価対象のユーザーの行動を評価するモデル(A-Z)を組み合わせている。
- COUGH: A Challenge Dataset and Models for COVID-19 FAQ Retrieval
- Xinliang Frederick Zhang, Heming Sun, Xiang Yue, Simon Lin, Huan Sun
- TLDR: 質問に対する回答を抽出するデータセットの提案。質問に対する回答は、質問に対する回答と同等の文書でなく、文書から抽出された質問に対する回答を抽出する。文書から抽出された質問は、文書から抽出された文書に分類される。文書から抽出された質問は、文書から抽出された文書に分類される。文書から抽出された質問は、文書から抽出された文書に分類される。
- Chinese WPLC: A Chinese Dataset for Evaluating Pretrained Language Models on Word Prediction Given Long-Range Context
- Huibin Ge, Chenxi Sun, Deyi Xiong, Qun Liu
- TLDR: 長い文から、単語の予測を行う研究。単語の予測は、長い文を予測するモデル(PPO)と、長い文を予測するモデル(PPO)の2つを組み合わせている。PPOは、単語の意味を予測するモデルで、PPOは単語の意味を予測するモデルで、PPOは単語の意味を予測するモデルで、PPOは単語の意味を予測するモデルで行う。
- WinoLogic: A Zero-Shot Logic-based Diagnostic Dataset for Winograd Schema Challenge
- Weinan He, Canming Huang, Yongmei Liu, Xiaodan Zhu
- TLDR: 自然言語処理モデルの解釈能力を検証した研究。モデルは、自然言語処理の解釈性を検証するために、自然言語処理の知識を収集し、その知識をモデルの解釈性に近いものに変換する。この時、モデルの解釈性は人間に近いと判断する。
- Pseudo Zero Pronoun Resolution Improves Zero Anaphora Resolution
- Ryuto Konno, Shun Kiyono, Yuichiroh Matsubayashi, Hiroki Ouchi, Kentaro Inui
- TLDR: 事前学習済み言語モデル(MLM)のパフォーマンスを改善する研究。事前学習済みモデルは、事前学習済み言語モデルの学習済みモデルと同等の性能を発揮するが、事前学習済みモデルは学習済みモデルと同等の性能を発揮する。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の性能を発揮する。
- Aligning Cross-lingual Sentence Representations with Dual Momentum Contrast
- Liang Wang, Wei Zhao, Jingming Liu
- TLDR: 翻訳文の類似度を、マルチ言語の分散表現に変換する研究。分散表現は単語の類似度を入力とするが、単語の類似度は単語の類似度を入力とする分散表現に入力する。単語の類似度は単語分散表現の入力に入力する。
- Total Recall: a Customized Continual Learning Method for Neural Semantic Parsers
- Zhuang Li, Lizhen Qu, Gholamreza Haffari
- TLDR: 連続学習で、学習済みモデルの学習を効率化する研究。学習済みモデルは学習済みのモデルの学習済みモデルと同等の性能が得られるが、学習済みモデルは学習済みモデルの学習済みモデルと同等の性能が得られない。そのため、学習済みモデルの学習済みモデルを学習するSOTAを提案。
- Exophoric Pronoun Resolution in Dialogues with Topic Regularization
- Xintong Yu, Hongming Zhang, Yangqiu Song, Changshui Zhang, Kun Xu, Dong Yu
- TLDR: 自然言語処理で、Exophoric pronounsを解くための手法の提案。単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の意味を、単語の
- Context-Aware Interaction Network for Question Matching
- Zhe Hu, Zuohui Fu, Yu Yin, Gerard de Melo
- TLDR: 文間の関係を推定する研究。文間の関係は、文の文脈から推定する。文間の関係は、文の文脈から推定する。文間の関係は、文脈から推定する。文間の関係は、文脈から推定する。文間の関係は、文脈から推定する。文間の関係は、文脈から推定する。文間の関係は、文脈から推定する。
- TEMP: Taxonomy Expansion with Dynamic Margin Loss through Taxonomy-Paths
- Zichen Liu, Hongyuan Xu, Yanlong Wen, Ning Jiang, HaiYing Wu, Xiaojie Yuan
- TLDR: 自然言語処理で、自然言語処理のタスクで使われるタスクで、学習済み言語モデルの学習済みモデルをベースに、学習済み言語モデルの学習済みモデルをベースに学習する手法。学習済み言語モデルは、学習済み言語モデルの学習済みモデルと同等の精度を達成。
- A Graph-Based Neural Model for End-to-End Frame Semantic Parsing
- ZhiChao Lin, Yueheng Sun, Meishan Zhang
- TLDR: 画像の分類、また、画像のセグメンテーションを行う際に、画像の位置をグラフ構造に置き換える手法の提案。位置はグラフ構造のノードと、位置はグラフ構造のノードの位置を近似する形で表現される。位置はグラフ構造のノードと、位置はグラフ構造のノードの位置を近似する形で表現される。
- Virtual Data Augmentation: A Robust and General Framework for Fine-tuning Pre-trained Models
- Kun Zhou, Wayne Xin Zhao, Sirui Wang, Fuzheng Zhang, Wei Wu, Ji-Rong Wen
- TLDR: 事前学習済み言語モデル(PLM)を強化する研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み表現を認識することができないため、学習済み言語モデルの表現を認識するよう学習する。学習済み言語モデルは、学習済み言語モデルの表現を認識するよう学習する。
- CATE: A Contrastive Pre-trained Model for Metaphor Detection with Semi-supervised Learning
- Zhenxi Lin, Qianli Ma, Jiangyue Yan, Jieyu Chen
- TLDR: 自然言語処理で、文中の表現を検出する研究。文中の表現を、文の意味と異なる表現に置き換える(Contrastive)、文の意味を同じ表現に置き換える(Contrastive)、文の意味を異なる表現に置き換える(Contrastive)、文の意味を異なる表現に置き換える(Contrastive)、文の意味を異なる表現に置き換える(Contrastive)、文の意味を異なる表現に置き換える(Contrastive)、文の意味を異なる表現に置き換える(Contrastive)、文の意味を異なる表現に置き換える(Contrastive)、
- To be Closer: Learning to Link up Aspects with Opinions
- Yuxiang Zhou, Lejian Liao, Yang Gao, Zhanming Jie, Wei Lu
- TLDR: 感情の分類タスクで、aspectとopinionの距離を短縮する研究。opinionとaspectの距離は、通常の文法ベースのTree Structure(Sentence Tree)と同等の構造を取っている。opinionとopinionの距離は、Sentence Treeの構造をベースにしている。
- Seeking Common but Distinguishing Difference, A Joint Aspect-based Sentiment Analysis Model
- Hongjiang Jing, Zuchao Li, Hai Zhao, Shu Jiang
- TLDR: 感情分類のタスクで、Encoder Shareを導入した研究。Encoderは別々に学習するが、EncoderはEncoderの学習率を上げるため、学習率を上げるためにEncoderを共有する。学習率は、Encoderの学習率と同等の精度を維持する。
- Argument Pair Extraction with Mutual Guidance and Inter-sentence Relation Graph
- Jianzhu Bao, Bin Liang, Jingyi Sun, Yice Zhang, Min Yang, Ruifeng Xu
- TLDR: 議論文から、文関係の推論結果を抽出する研究。文関係の推論結果を、文関係の推論結果と比較して、文関係の推論結果と比較して抽出する。文関係の推論結果は、文関係の推論結果と比較して、文関係の推論結果と比較して、文関係の推論結果と比較して、文関係の推論結果と比較して、文関係の推論結果と比較して、文関係の推論結果と比較して、文関係の推論結果と比較して、文関係の推論結果と比較して、文関係の推論結果と比較して、文関係
- Emotion Inference in Multi-Turn Conversations with Addressee-Aware Module and Ensemble Strategy
- Dayu Li, Xiaodan Zhu, Yang Li, Suge Wang, Deyu Li, Jian Liao, Jianxing Zheng
- TLDR: マルチタスクで、感情推論を行う研究。質問に対する回答は、質問に対する感情の分布を予測する。質問に対する感情分布は、質問に対する感情分布の分布を予測する。質問に対する感情分布は、質問に対する感情分布の分布を予測する。質問に対する感情分布は、質問に対する感情分布を予測する。
- Improving Federated Learning for Aspect-based Sentiment Analysis via Topic Memories
- Han Qin, Guimin Chen, Yuanhe Tian, Yan Song
- TLDR: 感情の分布を予測する研究。各単語の分布を予測する際、各単語の分布を予測するネットワークを用い、各ネットワークの分布を予測するネットワークを別々に作成し、各ネットワークの分布を予測するネットワークを構築する。
- Comparative Opinion Quintuple Extraction from Product Reviews
- Ziheng Liu, Rui Xia, Jianfei Yu
- TLDR: レビューから、評価の比較を抽出する手法の提案。レビューから評価の比較を抽出するモデルは、評価の比較を抽出するモデルと比較するモデルの2つを提案している。評価の比較は、評価の評価を比較するモデルの2つに分けている。評価の比較は、評価の評価を比較するモデルの2つに分けている。
- CTAL: Pre-training Cross-modal Transformer for Audio-and-Language Representations
- Hang Li, Wenbiao Ding, Yu Kang, Tianqiao Liu, Zhongqin Wu, Zitao Liu
- TLDR: 音声と言語の事前学習を組み合わせた研究。事前学習済みモデルと、事前学習済みモデルの組み合わせを組み合わせて学習する。事前学習済みモデルは事前学習済みモデルと同等の精度を達成できたが、事前学習済みモデルは精度が低下し、事前学習済みモデルは精度が低下した。
- Relation-aware Video Reading Comprehension for Temporal Language Grounding
- Jialin Gao, Xin Sun, Mengmeng Xu, Xi Zhou, Bernard Ghanem
- TLDR: 動画を読む際に、時系列の単語を予測する研究。時系列の単語を予測するモデルを用い、時系列の単語を予測するモデルと、時系列の単語を予測するモデルを組み合わせたモデルを提案。時系列の単語を予測するモデルは、時系列の単語を予測するモデルと、時系列の単語を予測するモデルの2つを使用。
- Mutual-Learning Improves End-to-End Speech Translation
- Jiawei Zhao, Wei Luo, Boxing Chen, Andrew Gilman
- TLDR: 翻訳を行う際に、事前学習済みモデルと学習済みモデルの相互学習を行なう研究。事前学習済みモデルは学習済みモデルと同等の学習データセットを共有し、学習データセットは学習済みモデルの学習データセットと学習データセットの学習データセットを統合し、学習データセットは学習データセットの学習データセットと統合して学習する。
- Vision Guided Generative Pre-trained Language Models for Multimodal Abstractive Summarization
- Tiezheng Yu, Wenliang Dai, Zihan Liu, Pascale Fung
- TLDR: 動画から画像を生成するモデルの提案。画像を生成するモデルは、画像を生成する箇所をAttentionベースで調整する。Attentionベースのモデルは、画像を生成する箇所をAttentionベースで調整する。この調整は、画像を生成する箇所をAttentionベースで調整する。
- Natural Language Video Localization with Learnable Moment Proposals
- Shaoning Xiao, Long Chen, Jian Shao, Yueting Zhuang, Jun Xiao
- TLDR: 自然言語処理で、動画中のシーンを特定する研究。動画のタイトル/シーンを入力とするモデルを、事前学習済みモデルと比較し、事前学習済みモデルのパフォーマンスを比較した研究。事前学習済みモデルは、動画のタイトル/シーンを入力とするモデルと同等の精度を維持できるが、事前学習済みモデルはパフォーマンスが低下する。
- Language-Aligned Waypoint (LAW) Supervision for Vision-and-Language Navigation in Continuous Environments
- Sonia Raychaudhuri, Saim Wani, Shivansh Patel, Unnat Jain, Angel Chang
- TLDR: 自然言語で指示された3Dモデルを操作するVLNタスクで、事前学習済み言語モデルをベースに、事前学習済みモデルの行動を評価する指標を提案。評価指標は、事前学習済みモデルの行動を評価する指標と、事前学習済みモデルの行動を評価する指標の2つを用いている。
- How to leverage the multimodal EHR data for better medical prediction?
- Bo Yang, Lijun Wu
- TLDR: 医療従事者に対する事前学習済みモデルと、事前学習済みモデルの組み合わせ方についてまとめた研究。事前学習済みモデルは医療従事者に対する事前学習済みモデルと同等の精度が得られるが、事前学習済みモデルは医療従事者に対する事前学習済みモデルの精度が低下する。そこで、事前学習済みモデルと事前学習済みモデルを組み合わせる手法を提案している。
- Considering Nested Tree Structure in Sentence Extractive Summarization with Pre-trained Transformer
- Jingun Kwon, Naoki Kobayashi, Hidetaka Kamigaito, Manabu Okumura
- TLDR: 文書中の文を抽出する手法の提案。文の順序は、文の長さ、文の長さ、文の長さ、文長の順で抽出する。文長は、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文長の長さ、文
- Frame Semantic-Enhanced Sentence Modeling for Sentence-level Extractive Text Summarization
- Yong Guan, Shaoru Guo, Ru Li, Xiaoli Li, Hongye Tan
- TLDR: 文書から文を抽出するExtractive Summaryizationにおいて、文の重要性を推定する手法の提案。文の重要性を推定する際、文の文長を「文長」と「文長」の2つに分割し、文長を「文長」と「文長」の2つに分割する。文長は文長の重みを考慮する。文長は文長の重みを考慮する。
- CAST: Enhancing Code Summarization with Hierarchical Splitting and Reconstruction of Abstract Syntax Trees
- Ensheng Shi, Yanlin Wang, Lun Du, Hongyu Zhang, Shi Han, Dongmei Zhang, Hongbin Sun
- TLDR: 自然言語処理でコードの概要を生成する研究。通常の概要生成は、ソースコードを入力とするEncoder/Decoderの2つに分けて行うが、この2つを結合してEncodeを行う。この時、Encoder/Decoderの入力は別々に入力する。Decoderは、Encoder/Decoderの入力を結合し、Decoderの入力を結合する形で生成を行う。
- SgSum:Transforming Multi-document Summarization into Sub-graph Selection
- Moye Chen, Wei Li, Jiachen Liu, Xinyan Xiao, Hua Wu, Haifeng Wang
- TLDR: マルチ文書要約の手法を、事前学習済みモデルで解く手法の提案。文書内の文書構造をモデル化し、文書全体の文書構造と文書全体の文書構造を統合する。文書全体の文書構造をモデル化し、文書全体の文書構造と文書全体の文書構造を統合する。文書全体の文書構造をモデル化し、文書全体の文書構造と文書全体の文書構造を統合する。
- Event Graph based Sentence Fusion
- Ruifeng Yuan, Zili Wang, Wenjie Li
- TLDR: 文の結合を、自然言語処理で行う研究。文の結合は、文の文構造を予測するモデルで行う。文の構造は、文の文構造を予測するモデルで行う。文の文構造は、文の文構造を予測するモデルで行う。文構造は、文の文構造を予測するモデルで行う。文構造は、文構造を予測するモデルで行う。
- Transformer-based Lexically Constrained Headline Generation
- Kosuke Yamada, Yuta Hitomi, Hideaki Tamori, Ryohei Sasano, Naoaki Okazaki, Kentaro Inui, Koichi Takeda
- TLDR: 自動生成のニュース記事生成において、文を生成する際は文の後ろに単語を挟むことで生成を行う。この時、文の後ろに単語を挟むことで生成を行う。文の後ろに単語を挟むことで、文の後ろに単語を挟むことで生成を行う。
- Learn to Copy from the Copying History: Correlational Copy Network for Abstractive Summarization
- Haoran Li, Song Xu, Peng Yuan, Yujia Wang, Youzheng Wu, Xiaodong He, Bowen Zhou
- TLDR: 要約のコピーを行う際に、事前学習済みモデルのコピー履歴を収集する研究。事前学習済みモデルは、コピー履歴を収集するネットワークを構築している。事前学習済みモデルは、コピー履歴を収集するネットワークを構築している。事前学習済みモデルは、コピー履歴を収集するネットワークを構築している。
- Gradient-Based Adversarial Factual Consistency Evaluation for Abstractive Summarization
- Zhiyuan Zeng, Jiaze Chen, Weiran Xu, Lei Li
- TLDR: 事前学習済みモデルを、事前学習済みモデルの精度を上げるための手法として、事前学習済みモデルの精度を上げるための手法を提案している。事前学習済みモデルは事前学習済みモデルの精度を上げるための手法を、事前学習済みモデルの精度を上げるための手法を学習する形で学習する。事前学習済みモデルは事前学習済みモデルの精度を上げるための手法を学習する
- Word Reordering for Zero-shot Cross-lingual Structured Prediction
- Tao Ji, Yong Jiang, Tao Wang, Zhongqiang Huang, Fei Huang, Yuanbin Wu, Xiaoling Wang
- TLDR: マルチ言語の構造化モデルを、事前学習済みモデルに適用する研究。事前学習済みモデルは、事前学習済みモデルの予測結果をベースに、事前学習済みモデルの予測結果をベースに学習する。事前学習済みモデルは、事前学習済みモデルの予測結果をベースに学習する。事前学習済みモデルは、事前学習済みモデルの予測結果をベースに学習する。
- A Unified Encoding of Structures in Transition Systems
- Tao Ji, Yong Jiang, Tao Wang, Zhongqiang Huang, Fei Huang, Yuanbin Wu, Xiaoling Wang
- TLDR: 転移学習において、構造を個別に表現するEncoderを提案。構造は、構造の重み(Attention)と構造の重み(Attention)の2つから構成される。重みは、構造の重み(Attention)と構造の重み(Attention)の2つから構成される。重みは、構造の重み(Attention)と構造の重み(Attention)の2つから構成される。
- Improving Unsupervised Question Answering via Summarization-Informed Question Generation
- Chenyang Lyu, Lifeng Shang, Yvette Graham, Jennifer Foster, Xin Jiang, Qun Liu
- TLDR: ニュース記事から、QAモデルを生成する研究。ニュース記事から、QAモデルを生成する。ニュース記事はWikipediaベースで、Wikipediaの文書から生成した文書をベースに生成を行う。文書はWikipediaの文書から生成する。文書はWikipediaの文書から生成する。
- TransferNet: An Effective and Transparent Framework for Multi-hop Question Answering over Relation Graph
- Jiaxin Shi, Shulin Cao, Lei Hou, Juanzi Li, Hanwang Zhang
- TLDR: マルチタスクのQAで、マルチステップのモデルを提案。タスクはタスク分類で、タスク分類結果から各タスクのEntity Relationsを推定する。タスク分類結果から各タスクのEntity Relationsを推定する。タスク分類結果から各タスクのEntity Relationsを推定する。
- Topic Transferable Table Question Answering
- Saneem Chemmengath, Vishwajeet Kumar, Samarth Bharadwaj, Jaydeep Sen, Mustafa Canim, Soumen Chakrabarti, Alfio Gliozzo, Karthik Sankaranarayanan
- TLDR: 事前学習済みモデルを、事前学習済みモデルに適用する研究。事前学習済みモデルはBERTベースのモデルで、事前学習済みモデルはWikiSQLベースのモデルで学習する。事前学習済みモデルはWikiSQLベースのモデルで学習する。事前学習済みモデルはWikiSQLベースのモデルで学習する。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の性能を発揮する。
- WebSRC: A Dataset for Web-Based Structural Reading Comprehension
- Xingyu Chen, Zihan Zhao, Lu Chen, JiaBao Ji, Danyang Zhang, Ao Luo, Yuxuan Xiong, Kai Yu
- TLDR: 文書構造を調べる研究。文書構造は文書の構造を表す単語、文書の構成は文書の構造を表す単語、文書の構成は文書の構成を表す単語、文書の構成は文書の構成を表す単語、文書の構成は文書の構成を表す単語、文書の構成は文書の構成を表す単語、文書の構成は文書の構成を表す単語、文書の構成は文書の構成を表す単語、文書の構成は文書の構成を表す単語、文書の構成は文書の構成を表す単語、文書の構成は文書の構成を表す単語、文書の構成は文書の構成を表
- Cryptonite: A Cryptic Crossword Benchmark for Extreme Ambiguity in Language
- Avia Efrat, Uri Shaham, Dan Kilman, Omer Levy
- TLDR: 翻訳モデルで、Crosswordを解く際に、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために、翻訳モデルの予測精度を上げるために
- End-to-End Entity Resolution and Question Answering Using Differentiable Knowledge Graphs
- Amir Saffari, Armin Oliya, Priyanka Sen, Tom Ayoola
- TLDR: 事前学習済みモデルを、事前学習済みモデルに組み込んだ研究。事前学習済みモデルは、事前学習済みモデルの質問文と質問回答のEntityを入力に置き換える形で学習を行う。Entityは、事前学習済みモデルのEntityを入力に置き換える形で学習を行う。事前学習済みモデルは、事前学習済みモデルのEntityを入力に置き換える形で学習を行う。
- Improving Query Graph Generation for Complex Question Answering over Knowledge Base
- Kechen Qin, Cheng Li, Virgil Pavlu, Javed Aslam
- TLDR: 質問文をGraphに変換する手法の提案。質問文をGraphに変換する際、質問文の知識ベースを徐々に小さくしていくことで、質問文の生成精度を上げていく。これにより、質問文の生成精度を上げつつ、質問文の生成精度を上げることが出来る。
- DiscoDVT: Generating Long Text with Discourse-Aware Discrete Variational Transformer
- Haozhe Ji, Minlie Huang
- TLDR: 事前学習済み言語モデルで生成した文書を、事前学習済み言語モデルの文書構造と同等の文書構造に置き換える研究。文書構造は文書全体の構成を表す単語をベースにしており、文書構造は文書全体の構造を表す単語をベースにしている。文書構造は文書全体の構造を表す単語をベースにしている。文書構造は文書全体の構造を表す単語をベースにしている。
- Mathematical Word Problem Generation from Commonsense Knowledge Graph and Equations
- Tianqiao Liu, Qiang Fang, Wenbiao Ding, Hang Li, Zhongqin Wu, Zitao Liu
- TLDR: 自然言語処理のモデルを、自然言語処理のモデルと同等の手法で生成する研究。自然言語処理は、単語の意味を予測するモデル(LSTM)と、単語の意味を予測するモデル(LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>LSTM=>
- Generic resources are what you need: Style transfer tasks without task-specific parallel training data
- Huiyuan Lai, Antonio Toral, Malvina Nissim
- TLDR: 文書を転移する研究。文書を転移先の文書に置き換える際に、文書の文書構造を変えた文書を生成する。文書の文書構造を変えた文書を生成するモデルをベースに、文書の文書構造を変えた文書を生成するモデルをベースに学習を行う。文書の文書構造を変えた文書を生成するモデルをベースに、文書の文書構造を変えた文書を生成するモデルをベースに学習を行う。
- Revisiting Pivot-Based Paraphrase Generation: Language Is Not the Only Optional Pivot
- Yitao Cai, Yue Cao, Xiaojun Wan
- TLDR: 翻訳におけるPivotベースの手法について、翻訳文の文法・文法表現をベースに、翻訳文の文法・文法表現をベースにPivotベースの手法を提案している。文法・文表現をベースに、文法・文表現をベースにPivotベースの手法を提案している。
- Structural Adapters in Pretrained Language Models for AMR-to-Text Generation
- Leonardo F. R. Ribeiro, Yue Zhang, Iryna Gurevych
- TLDR: 自然言語処理で、グラフ構造を生成する研究。構造は、グラフの構造を生成するノードのネットワークから生成する。ノードは、ノードのネットワークとグラフ構造を結合するネットワークを生成する。ノードは、ノードのネットワークとグラフ構造を結合するネットワークを生成する。ノードは、ノードのネットワークとグラフ構造を結合するネットワークを生成する。
- Data-to-text Generation by Splicing Together Nearest Neighbors
- Sam Wiseman, Arturs Backurs, Karl Stratos
- TLDR: テキストから、生成したセグメンテーションを、生成したセグメンテーションの単語に置き換える手法の提案。単語の単語分散表現を、単語の単語分散表現に置き換える形で生成する。生成は、単語の分散表現を単語分散表現に置き換える形で行う。
- Contextualize Knowledge Bases with Transformer for End-to-end Task-Oriented Dialogue Systems
- Yanjie Gou, Yinjie Lei, Lingqiao Liu, Yong Dai, Chunxu Shen
- TLDR: 対話システムにおける、事前学習済みモデルの役割を解き明かした研究。事前学習済みモデルは、事前学習済みモデルの情報を統合する機構を導入している。事前学習済みモデルは、事前学習済みモデルの情報を統合する機構を導入している。事前学習済みモデルは、事前学習済みモデルの情報を統合する機構を導入している。
- Efficient Dialogue Complementary Policy Learning via Deep Q-network Policy and Episodic Memory Policy
- Yangyang Zhao, Zhenyu Wang, Changxi Zhu, Shihan Wang
- TLDR: 強化学習で、事前学習済みモデルと対話システムを組み合わせた手法の提案。事前学習済みモデルは、事前学習済みモデルの学習率を上回る結果を出し得るが、対話システムは学習率が下がる傾向がある。そこで、事前学習済みモデルの学習率を上回る結果を出し得る手法を提案。
- CRFR: Improving Conversational Recommender Systems via Flexible Fragments Reasoning on Knowledge Graphs
- Jinfeng Zhou, Bo Wang, Ruifang He, Yuexian Hou
- TLDR: 質問回答を強化学習で行う研究。質問回答の順序は、質問に対する興味の転移を予測する(興味の転移は、質問に対する興味の転移を予測する)、質問に対する興味の転移は、質問に対する興味の転移を予測する(興味の転移は、質問に対する興味の転移を予測する)という形で学習する。
- DuRecDial 2.0: A Bilingual Parallel Corpus for Conversational Recommendation
- Zeming Liu, Haifeng Wang, Zheng-Yu Niu, Hua Wu, Wanxiang Che
- TLDR: マルチカテゴリの対話データセットの提案。英語と中国語をベースに、翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳・翻訳
- End-to-End Learning of Flowchart Grounded Task-Oriented Dialogs
- Dinesh Raghu, Shantanu Agarwal, Sachindra Joshi, None Mausam
- TLDR: タスクに応じたタスクアノテーションを行う研究。タスクを説明するフレーズを、タスクごとに生成する。フレーズは、タスクごとに生成される。タスクごとに生成されたフレーズは、タスクごとに更新される。タスクごとに更新されるフレーズは、タスクごとに更新される。
- Dimensional Emotion Detection from Categorical Emotion
- Sungjoon Park, Jiseon Kim, Seonghyeon Ye, Jaeyeol Jeon, Hee Young Park, Alice Oh
- TLDR: 感情分類器の研究。各感情分類器の分類結果を、各分類器の分類結果と比較し、各分類器の分類結果と比較した結果を基に、各分類器の分類結果と比較した結果を基に、各分類器の分類結果と比較した結果を基に、各分類器の分類結果と比較した結果を基に、各分類器の分類結果と比較した結果を基に、各分類器の分類結果と比較した結果を基に、各分類器の分類結果と比較した結果を基に、各分類器の分類結果と比較した結果を基に、各分類器の分類結果と比較した結果
- Not All Negatives are Equal: Label-Aware Contrastive Loss for Fine-grained Text Classification
- Varsha Suresh, Desmond Ong
- TLDR: 事前学習済み言語モデルで、クラス間の相関を考慮した研究。クラス間の相関は、クラス分類タスクで使われる指標(label)と、クラス分類タスクで使われる指標(positive/negative)の2つに分けている。この2つを、クラス間の相関を考慮したモデルで学習する。
- Joint Multi-modal Aspect-Sentiment Analysis with Auxiliary Cross-modal Relation Detection
- Xincheng Ju, Dong Zhang, Rong Xiao, Junhui Li, Shoushan Li, Min Zhang, Guodong Zhou
- TLDR: マルチモーダルで、Agent/Sentenceの抽出と、Agent/Sentenceの分類を同時に行う研究。抽出は各モーダルで行うが、分類は各モーダルで行う。各モーダルは、各モーダルが各モーダルに与えられるようにする。
- Solving Aspect Category Sentiment Analysis as a Text Generation Task
- Jian Liu, Zhiyang Teng, Leyang Cui, Hanmeng Liu, Yue Zhang
- TLDR: 事前学習済み言語モデルを、自然言語モデルに置き換えた研究。事前学習済み言語モデルは、事前学習済み言語モデルの表現を学習する。学習済み言語モデルは、事前学習済み言語モデルの表現を学習する。事前学習済み言語モデルは、事前学習済み言語モデルの表現を学習する。
- Semantics-Preserved Data Augmentation for Aspect-Based Sentiment Analysis
- Ting-Wei Hsu, Chung-Chi Chen, Hen-Hsen Huang, Hsin-Hsi Chen
- TLDR: 感情の理解度を上げるために、単語の意味を考慮する研究。単語の意味を考慮する単語を、単語の意味を考慮する単語に置き換える(単語の意味を考慮する単語は、単語の意味を考慮する単語に置き換える)。単語の意味を考慮する単語を、単語の意味を考慮する単語に置き換える(単語の意味を考慮する単語は、単語の意味を考慮する単語に置き換える)。
- The Effect of Round-Trip Translation on Fairness in Sentiment Analysis
- Jonathan Gabel Christiansen, Mathias Gammelgaard, Anders Søgaard
- TLDR: 翻訳による分類器の精度向上について、翻訳による分類器の精度向上と、翻訳による分類器の精度向上を検証した研究。翻訳による分類器の精度向上は、分類器の分類精度が上がるだけでなく、分類器の分類精度が上がることを確認。
- CHoRaL: Collecting Humor Reaction Labels from Millions of Social Media Users
- Zixiaofan Yang, Shayan Hooshmand, Julia Hirschberg
- TLDR: 自然言語処理で、投稿に対するユーザーの反応を抽出する研究。投稿に対するユーザーの反応は、投稿のタイトル/エンティティ/タイトルの付与/投稿の投稿文の付与/投稿文の付与/投稿文の付与/投稿文の付与の3つに分けている。また、投稿文の付与は、投稿文の文脈から予測する。
- CSDS: A Fine-Grained Chinese Dataset for Customer Service Dialogue Summarization
- Haitao Lin, Liqun Ma, Junnan Zhu, Lu Xiang, Yu Zhou, Jiajun Zhang, Chengqing Zong
- TLDR: 対話システムにおける、対話システムの要約手法の提案。対話システムは、質問に対する回答がまとめられているかを検証するデータセットを提供。質問に対する回答は、質問に対する回答と対話システムの要約を統合し、対話システムの要約は質問に対する回答と統合する。対話システムの要約は、質問に対する回答と要約の要約を統合する。
- CodRED: A Cross-Document Relation Extraction Dataset for Acquiring Knowledge in the Wild
- Yuan Yao, Jiaju Du, Yankai Lin, Peng Li, Zhiyuan Liu, Jie Zhou, Maosong Sun
- TLDR: 文書から、関係を持つ文書を抽出する研究。文書から文書を抽出する際、文書の文書特徴を入力として文書特徴抽出のモデルを用いることで、文書特徴を入力として文書特徴抽出のモデルを構築する。文書特徴抽出のモデルは、文書特徴を入力として文書特徴抽出のモデルを構築している。
- Building and Evaluating Open-Domain Dialogue Corpora with Clarifying Questions
- Mohammad Aliannejadi, Julia Kiseleva, Aleksandr Chuklin, Jeff Dalton, Mikhail Burtsev
- TLDR: オープンドメインの対話システムで、質問を回答する際のルールを整備した研究。質問は質問文を入力に含む形で、質問文を入力に含む文書を生成する。文書は文書分類器で生成し、文書の生成は文書分類器で行う。文書生成は文書分類器のモデルで行い、文書分類器は文書分類器のモデルで行う。
- We Need to Talk About train-dev-test Splits
- Rob van der Goot
- TLDR: 学習データとテストデータの2つのセットで、学習データとテストデータの2つのセットを比較する手法の提案。学習データは学習データとテストデータの2つで、テストデータは学習データとテストデータの2つを比較する。学習データは学習データとテストデータの2つで、テストデータは学習データとテストデータの2つを比較する。
- PhoMT: A High-Quality and Large-Scale Benchmark Dataset for Vietnamese-English Machine Translation
- Long Doan, Linh The Nguyen, Nguyen Luong Tran, Thai Hoang, Dat Quoc Nguyen
- TLDR: 翻訳モデルの自動翻訳で、文単位の翻訳で精度を上げるためには事前学習済みモデルの翻訳を丁寧に行う必要があるという研究。事前学習済みモデルは、文単位の翻訳で精度を上げるためにAuto Encoderを学習するが、Auto Encoderは文単位の翻訳で精度を上げるために学習する。
- Lying Through One’s Teeth: A Study on Verbal Leakage Cues
- Min-Hsuan Yeh, Lun-Wei Ku
- TLDR: モデルのパフォーマンスがどう変化するかを調べた研究。モデルのパフォーマンスは、データセットのパフォーマンスとデータセットのパフォーマンスの関係から大きく変わる。データセットのパフォーマンスは、データセットのパフォーマンスとデータセットのパフォーマンスの関係から大きく変わる。
- Multi-granularity Textual Adversarial Attack with Behavior Cloning
- Yangyi Chen, Jin Su, Wei Wei
- TLDR: テキストに対するAdversarial Attackモデルの提案。既存のAdversarial Attackモデルは、モデルの生成に多様な手法を用いがちだったが、この手法はこれに限界がある。既存のAdversarial Attackモデルは、モデルの生成に多様な手法を用いがちだったが、この手法はこれに限界がある。そこで、モデルの生成に多様な手法を用いやすくする強化学習を導入。
- All Bark and No Bite: Rogue Dimensions in Transformer Language Models Obscure Representational Quality
- William Timkey, Marten van Schijndel
- TLDR: 自然言語処理における、固有表現の類似度を調べる手法の提案。固有表現の類似度は、通常の自然言語処理モデル(BERTやGPT)で使われるモデルと比較して、精度が低いモデルと比較して低い精度を記録している。また、モデルの重みが低いモデルと比較しても精度が低いモデルとの差が大きくなる。
- Incorporating Residual and Normalization Layers into Analysis of Masked Language Models
- Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, Kentaro Inui
- TLDR: 自然言語処理におけるTransformerのAttentionを、マルチ-HeadのAttentionと、再帰的なAttentionの3つに分割し、それぞれAttentionの重みを計算する手法を提案。マルチ-HeadのAttentionは、Transformerのパフォーマンスに大きな影響を及ぼす。
- Mind the Style of Text! Adversarial and Backdoor Attacks Based on Text Style Transfer
- Fanchao Qi, Yangyi Chen, Xurui Zhang, Mukai Li, Zhiyuan Liu, Maosong Sun
- TLDR: 自然言語処理モデルに対するAdversarial AttackとBackdoor Attackの研究。Adversarial Attackは、文スタイルを変更することで、文の意味を失わせる手法。Backdoor Attackは、文スタイルを変更することで、文の意味を失わせる手法。Adversarial Attackは、文スタイルを変更することで、文の意味を失わせる手法を採用している。
- Sociolectal Analysis of Pretrained Language Models
- Sheng Zhang, Xin Zhang, Weiming Zhang, Anders Søgaard
- TLDR: 教師なし学習で、性別・年齢・国籍・宗教・国籍・性別・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・
- Examining Cross-lingual Contextual Embeddings with Orthogonal Structural Probes
- Tomasz Limisiewicz, David Mareček
- TLDR: マルチ言語対応のモデルで、マルチ言語対応の表現を学習する研究。マルチ言語対応のモデルは、マルチ言語の表現を学習する際、マルチ言語の表現を学習する際の重みを学習する。重みは、マルチ言語対応のモデルで学習する。マルチ言語対応のモデルは、マルチ言語の表現を学習する際重みを学習する。
- Are Transformers a Modern Version of ELIZA? Observations on French Object Verb Agreement
- Bingzhi Li, Guillaume Wisniewski, Benoit Crabbé
- TLDR: 自然言語処理で、文中の単語と文中の単語の相関を予測する研究。文中の単語は、文中の単語と同等か否かを予測する。文中の単語は、文中の単語と同等か否かを予測する。文中の単語は、文中の単語と同等か否かを予測する。文中の単語は、文中の単語と同等か否かを予測する。
- Fine-grained Entity Typing via Label Reasoning
- Qing Liu, Hongyu Lin, Xinyan Xiao, Xianpei Han, Le Sun, Hua Wu
- TLDR: マルチタスクの文分類を行う際に、ラベル依存の知識を活用する研究。ラベル依存は、ラベルの分類結果とラベルの分類結果との相関が大きい場合に発生する。そのため、ラベル依存の知識を活用する研究。ラベル依存の知識は、ラベルの分類結果とラベルの分類結果との相関を予測するネットワークで収集し、そこからラベル依存の知識を学習する。
- Enhanced Language Representation with Label Knowledge for Span Extraction
- Pan Yang, Xin Cong, Zhenyu Sun, Xingwu Liu
- TLDR: テキストから、ラベルを入力とするタスクを提案。入力はテキストのみでなく、ラベルを入力とするタスクも提案している。入力はテキストのみでなく、ラベルを入力とするタスクも提案している。入力はテキストのみでなく、ラベルを入力とするタスクも提案している。
- PRIDE: Predicting Relationships in Conversations
- Anna Tigunova, Paramita Mirza, Andrew Yates, Gerhard Weikum
- TLDR: 対話中の人物関係を推定する研究。対話中の人物特徴を、BERT/Transformerで学習し、その特徴をベースにトークンを生成する。トークンは、トークンの生成時に使用する。トークンは、トークンの生成時に使用するトークンの重みをベースに生成する。トークンは、トークンの重みをベースに生成する。
- Extracting Fine-Grained Knowledge Graphs of Scientific Claims: Dataset and Transformer-Based Results
- Ian Magnusson, Scott Friedman
- TLDR: 自然言語処理で、ラベルを細工した研究。ラベルの細工は、ラベルの分類器を用いた研究。ラベルの分類器は、ラベルの分類器とラベルの分類器を結合し、ラベルの分類器を結合したラベルを生成する。ラベルの分類器は、ラベルの分類器とラベルの分類器を結合したラベルを生成する。
- Sequential Cross-Document Coreference Resolution
- Emily Allaway, Shuai Wang, Miguel Ballesteros
- TLDR: マルチ文書の文書構造を扱うタスクで、文中の単語を単語ベクトルに分割し、単語ベクトルを単語ベクトルと単語ベクトルのベクトルの組み合わせで予測する研究。単語ベクトルは単語ベクトルのベクトルを単語ベクトルとし、単語ベクトルは単語ベクトルのベクトルをベクトルのベクトルに分割し予測する。
- Mixture-of-Partitions: Infusing Large Biomedical Knowledge Graphs into BERT
- Zaiqiao Meng, Fangyu Liu, Thomas Clark, Ehsan Shareghi, Nigel Collier
- TLDR: 事前学習済みモデルを、事前学習済みモデルに組み込んだ研究。事前学習済みモデルは、事前学習済みモデルのパラメーターを組み合わせて学習する。パラメーターは、事前学習済みモデルのパラメーターを組み合わせて学習する。パラメーターは、事前学習済みモデルのパラメーターを組み合わせて学習する。
- Filling the Gaps in Ancient Akkadian Texts: A Masked Language Modelling Approach
- Koren Lazar, Benny Saret, Asaf Yehudai, Wayne Horowitz, Nathan Wasserman, Gabriel Stanovsky
- TLDR: テキストの欠損を補完する研究。テキストの欠損は、文書の文書構造から予測する。文書の欠損は、文書の文書構造から予測する。文書の欠損は、文書の文書構造から予測する。文書の欠損は、文書構造から予測する。文書の欠損は、文書構造から予測する。
- AVocaDo: Strategy for Adapting Vocabulary to Downstream Domain
- Jimin Hong, TaeHee Kim, Hyesu Lim, Jaegul Choo
- TLDR: 事前学習済み言語モデルを転移学習に使用する研究。事前学習済み言語モデルは、事前学習済み言語モデルの単語をベースに学習する。単語の生成は、事前学習済み言語モデルの単語をベースに行う。事前学習済み言語モデルは、事前学習済み言語モデルの単語をベースに学習する。
- Can We Improve Model Robustness through Secondary Attribute Counterfactuals?
- Ananth Balashankar, Xuezhi Wang, Ben Packer, Nithum Thain, Ed Chi, Alex Beutel
- TLDR: 自然言語処理モデルのパフォーマンスを上げるために、事前学習済みモデルと同等の手法を導入する研究。事前学習済みモデルは事前学習済みモデルと同等の性能が得られるが、事前学習済みモデルは事前学習済みモデルと同等の性能が得られない。そのため事前学習済みモデルの予測精度を上げるための手法を提案している。
- Long-Range Modeling of Source Code Files with eWASH: Extended Window Access by Syntax Hierarchy
- Colin Clement, Shuai Lu, Xiaoyu Liu, Michele Tufano, Dawn Drain, Nan Duan, Neel Sundaresan, Alexey Svyatkovskiy
- TLDR: 自然言語処理で、ソースコードをマルチモーメントに拡張した研究。ソースコードは、ソースコードの構造をベースに、ソースコードの構造をベースに拡張したモデルを使用。ソースコードは、ソースコードの構造をベースに拡張したモデルを使用。
- Can Language Models be Biomedical Knowledge Bases?
- Mujeen Sung, Jinhyuk Lee, Sean Yi, Minji Jeon, Sungdong Kim, Jaewoo Kang
- TLDR: 自然言語処理で、Biomedical Knowledgeを用いた研究。Biomedical Knowledgeは自然言語処理で使われることが多いが、Biomedical Knowledgeは医療関係の知識を含まない。そのため、Biomedical Knowledgeを用いた研究が最近提案されている。Biomedical KnowledgeはBiomedical Knowledgeベースのモデルで、Biomedical KnowledgeベースはBiomedical Knowledgeベースベースのモデルで、Biomedical KnowledgeベースはBiomedical Knowledgeベースのモデルで検証を行っている。
- LayoutReader: Pre-training of Text and Layout for Reading Order Detection
- Zilong Wang, Yiheng Xu, Lei Cui, Jingbo Shang, Furu Wei
- TLDR: 文書読解のモデルの提案。文書の読解順序を予測するモデルは、文書のレイアウトを予測するモデルと同等精度を達成できた。文書のレイアウトは、文書のレイアウトを予測するモデルの2つに分けている。文書のレイアウトは、文書のレイアウトを予測するモデルの重みで予測する。
- Region under Discussion for visual dialog
- Mauricio Mazuecos, Franco M. Luque, Jorge Sánchez, Hernán Maina, Thomas Vadora, Luciana Benotti
- TLDR: 質問に対する質問履歴を、質問に対する質問履歴と同等の文書に置き換えた研究。質問履歴は質問に対する質問者の回答を反映させるための文書として使用されるが、文書の文書構造を変更することで、質問者の回答を反映させることができる。文書構造を変更することで、質問者の質問履歴を変更できる。
- Learning grounded word meaning representations on similarity graphs
- Mariella Dimiccoli, Herwig Wendt, Pau Batlle Franch
- TLDR: 自然言語処理で、自然言語処理の表現をグラフに組み込んだ研究。通常のグラフは、単語の類似度をグラフの構造から推定するが、この時、単語の類似度はグラフ構造から推定する。この時、単語の類似度はグラフ構造から推定する。
- WhyAct: Identifying Action Reasons in Lifestyle Vlogs
- Oana Ignat, Santiago Castro, Hanwen Miao, Weiji Li, Rada Mihalcea
- TLDR: 動画中の行動を、なぜなのかを自動的に判断する研究。動画中の行動を、画像から推論する。画像は、行動の背景を表現する。画像は、行動の背景を表現する。画像は、行動の背景を表現する。画像は、行動の背景を表現する。
- Genre as Weak Supervision for Cross-lingual Dependency Parsing
- Max Müller-Eberstein, Rob van der Goot, Barbara Plank
- TLDR: 事前学習済み言語モデルで、事前学習済み言語モデルのモデル構造を学習する研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルの学習済み言語モデルと同等の学習データセットを学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルと同等の学習データセットを学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルと同等の学習データセットを学習する。
- On the Relation between Syntactic Divergence and Zero-Shot Performance
- Ofir Arviv, Dmitry Nikolaev, Taelin Karidi, Omri Abend
- TLDR: 翻訳文の文法関係を学習するタスクで、事前学習済み言語モデルの精度と精度が相関があるという研究。事前学習済み言語モデルの精度と精度は、事前学習済み言語モデルの精度と精度との相関がある。事前学習済み言語モデルの精度と精度との相関は、事前学習済み言語モデルの精度と精度との相関があるからとしている。
- Improved Latent Tree Induction with Distant Supervision via Span Constraints
- Zhiyang Xu, Andrew Drozdov, Jay Yoon Lee, Tim O’Gorman, Subendhu Rongali, Dylan Finkbeiner, Shilpa Suresh, Mohit Iyyer, Andrew McCallum
- TLDR: 教師なし学習で、span conditionを導入することで、教師なし学習のパフォーマンスを向上させる研究。単語の長さを短くする(単語長=>長くなる)、単語長=>長くなる(長くなる=>長くなる)、単語長=>長くなる(長くなる=>長くなる)、といったように、単語長=>長くなる=>長くなる、といったように、単語長=>長くなる、といったように、単語長=>長くなる、といったように、単語長=>長くなる、といったように、単語長=>長くなる、といったように、単語長=>長くなるといったように、単語長=>長くなるといったように、単語長=>長
- Aligning Multidimensional Worldviews and Discovering Ideological Differences
- Jeremiah Milbauer, Adarsh Mathew, James Evans
- TLDR: ネット上のコミュニティの特徴を調べる研究。既存の研究は、政治的/社会的な差異を捉えるためのモデルを構築するが、このモデルは単純なモデルではなく、様々なタスクで検証した研究。タスクは、政治的/社会的な差異を捉えるためのモデルを構築する。タスクは、政治的/社会的な差異を捉えるためのモデルを構築する。
- Just Say No: Analyzing the Stance of Neural Dialogue Generation in Offensive Contexts
- Ashutosh Baheti, Maarten Sap, Alan Ritter, Mark Riedl
- TLDR: 対話システムで、不適な表現を発散するモデルの学習を検証した研究。不適な表現は、不適な発散を発散する(不適な表現は、不適な発散を発散する)と、不適な発散を発散する(不適な表現は、不適な表現を発散する)2つに分けている。不適な表現は、不適な発散を発散する(不適な表現は、不適な表現を発散する)と、不適な表現を発散する(不適)2つに分けている。
- Multi-Modal Open-Domain Dialogue
- Kurt Shuster, Eric Michael Smith, Da Ju, Jason Weston
- TLDR: マルチモーダル対話を行う際に、事前学習済みモデルと対話結果を組み合わせて学習を行う研究。事前学習済みモデルは、対話結果から生成した画像を入力に入力する形で学習を行う。画像は、画像の生成/生成結果から生成した画像を入力に入力する形で学習を行う。
- A Label-Aware BERT Attention Network for Zero-Shot Multi-Intent Detection in Spoken Language Understanding
- Ting-Wei Wu, Ruolin Su, Biing Juang
- TLDR: マルチインスタンスを検出する研究。入力と入力のラベルを入力とし、ラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力としラベルを入力と
- Zero-Shot Dialogue Disentanglement by Self-Supervised Entangled Response Selection
- Ta-Chung Chi, Alexander Rudnicky
- TLDR: 対話中の発言を、個別に分類するDiscriminatorの提案。個別に分類するのではなく、個別に分類した発言を個別に分類する。個別に分類した発言は、個別に分類した発言と同等の扱いを受ける。
- SIMMC 2.0: A Task-oriented Dialog Dataset for Immersive Multimodal Conversations
- Satwik Kottur, Seungwhan Moon, Alborz Geramifard, Babak Damavandi
- TLDR: マルチモーダルで対話を行う際に、事前学習済みモデルと比較してタスク数が多いデータセットの提案。タスクは、タスクを入力とするモデルの作成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成、タスクを入力とするモデルの生成
- RAST: Domain-Robust Dialogue Rewriting as Sequence Tagging
- Jie Hao, Linfeng Song, Liwei Wang, Kun Xu, Zhaopeng Tu, Dong Yu
- TLDR: 文書生成において、文書中の単語を抜くタスクを提案。文書中の単語を抜くことで、文書中の単語を抜くタスクを解く。文書中の単語は、文書中の単語を抜くことで生成される。文書中の単語は、文書中の単語を抜くことで生成される。
- MRF-Chat: Improving Dialogue with Markov Random Fields
- Ishaan Grover, Matthew Huggins, Cynthia Breazeal, Hae Won Park
- TLDR: オープンドメインの対話において、自然言語処理のモデルを強化する研究。既存のモデルは、質問に対する回答の予測精度が低いため、質問に対する回答を予測するモデルを追加している。質問に対する回答は、質問に対する質問に対する回答と同等の精度を維持できるかを検証している。
- Dialogue State Tracking with a Language Model using Schema-Driven Prompting
- Chia-Hsuan Lee, Hao Cheng, Mari Ostendorf
- TLDR: 対話システムで、事前学習済み言語モデルを用いた事前学習済みモデルの提案。事前学習済みモデルは、事前学習済み言語モデルの挙動を予測する。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を予測する。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を予測する。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を予測する。
- Signed Coreference Resolution
- Kayo Yin, Kenneth DeHaan, Malihe Alikhani
- TLDR: 自然言語処理における、文法の学習に新しい挑戦を提案した研究。文法の学習は、文法の表現を学習する際、文法の表現を学習する際のタスクとして扱われる。文法の学習は、文法の表現を学習する際のタスクとして扱われる。文法の学習は、文法の表現を学習する際のタスクとして扱われる。
- Consistent Accelerated Inference via Confident Adaptive Transformers
- Tal Schuster, Adam Fisch, Tommi Jaakkola, Regina Barzilay
- TLDR: マルチモーダルで多層のTransformerを学習する研究。予測を行う際、予測の重みを予測の重みに置き換える(予測の重みは予測の重みに置き換える)ことで、予測の重みを予測の重みに置き換える。これにより、予測の重みを予測の重みに置き換えるモデルを構築する。
- Improving and Simplifying Pattern Exploiting Training
- Derek Tam, Rakesh R. Menon, Mohit Bansal, Shashank Srivastava, Colin Raffel
- TLDR: 事前学習済み言語モデル(SuperGLUE)で、事前学習済みモデルのパフォーマンスを上げるための手法の提案。事前学習済みモデルはタスク個別のラベルなしデータが必要で、事前学習済みモデルのパフォーマンスを上げるにはタスク個別のラベルなしデータが必要。事前学習済みモデルはタスク個別のラベルなしデータが必要で、事前学習済みモデルのパフォーマンスを上げるにはタスク個別のラベルなしデータが必要。事前学習済みモデルはタスク個別のラベルなしデータが必要で、事前学習済みモデルのパフォーマンスを上げるにはタスク個別のラベルなしデータが必要。事前学習済みモデルはタスク個別のラベルなしデータ
- Unsupervised Data Augmentation with Naive Augmentation and without Unlabeled Data
- David Lowell, Brian Howard, Zachary C. Lipton, Byron Wallace
- TLDR: 教師なしデータ拡張(Augmentation)で、事前学習済みモデルと同等の効果を上げることができるか検証した研究。事前学習済みモデルは、事前学習済みモデルと同等の効果を上げることができるが、事前学習済みモデルは事前学習済みモデルと同等の効果を上げることができなかった。事前学習済みモデルは、事前学習済みモデルの予測結果と同等の効果を上げることができなかった。
- Pre-train or Annotate? Domain Adaptation with a Constrained Budget
- Fan Bai, Alan Ritter, Wei Xu
- TLDR: 事前学習済み言語モデルを、どの手法が良いか検証した研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習率を上回ることが多いが、事前学習済み言語モデルは学習率が下がる傾向がある。事前学習済み言語モデルは学習率が高いが、事前学習済み言語モデルは学習率が下がる傾向がある。
- Lawyers are Dishonest? Quantifying Representational Harms in Commonsense Knowledge Resources
- Ninareh Mehrabi, Pei Zhou, Fred Morstatter, Jay Pujara, Xiang Ren, Aram Galstyan
- TLDR: 自然言語処理で、人種や性別にかかわらず、人種や性別の偏りを考慮する研究。既存のモデルは人種や性別の偏りを考慮していないが、この問題を考慮したモデルを構築することで、人種や性別の偏りを考慮するモデルを構築する。
- OSCaR: Orthogonal Subspace Correction and Rectification of Biases in Word Embeddings
- Sunipa Dev, Tao Li, Jeff M Phillips, Vivek Srikumar
- TLDR: 言語モデルの潜在表現を、既存の手法と比較して軽く削除する研究。既存の手法は、潜在表現の表現を削除するが、この時潜在表現の表現を削除するよりも、既存の表現を削除する方が良かった。このため、単語分散表現を削除する手法を提案している。
- Sentence-Permuted Paragraph Generation
- Wenhao Yu, Chenguang Zhu, Tong Zhao, Zhichun Guo, Meng Jiang
- TLDR: マルチ文生成において、文順序を変更することで文の分散表現を改善する研究。文順序は、文の順序を逆順に変える(逆順にすると文の分散表現が崩れる)ことで、文順序を逆順に変える。文順序は、文順序を逆順に変える(逆順にすると文の分散表現が崩れる)ことで、文順序を逆順に変える。
- Extract, Denoise and Enforce: Evaluating and Improving Concept Preservation for Text-to-Text Generation
- Yuning Mao, Wenchang Ma, Deren Lei, Jiawei Han, Xiang Ren
- TLDR: 事前学習済み言語モデルが、重要な単語を保護する手法を提案。単語の意味を予測するモデルを、事前学習済み言語モデルに組み込むことで、学習済み言語モデルの学習済み単語を保護する。事前学習済み言語モデルは、単語の意味を予測するモデルと同等の精度が得られるが、事前学習済み言語モデルは学習済み単語の意味を予測するモデルと同等の精度が得られない。
- Paraphrase Generation: A Survey of the State of the Art
- Jianing Zhou, Suma Bhat
- TLDR: 自然言語処理におけるparaphrase生成について、様々な手法をまとめたサーベイ。自然言語処理の手法は、自然言語処理のモデルをベースに、モデルの挙動を予測するモデルをベースにしている。
- Exposure Bias versus Self-Recovery: Are Distortions Really Incremental for Autoregressive Text Generation?
- Tianxing He, Jingzhao Zhang, Zhiming Zhou, James Glass
- TLDR: 自然言語処理モデルの学習データに、学習データの誤差を加味する手法の提案。学習データの誤差は、学習データの生成時に発生する。誤差は、学習データの誤差を加味する(学習データの誤差は加味する)ことで発生する。誤差は加味するが、学習データの誤差は加味する。
- Generating Self-Contained and Summary-Centric Question Answer Pairs via Differentiable Reward Imitation Learning
- Li Zhou, Kevin Small, Yong Zhang, Sandeep Atluri
- TLDR: ニュース記事から質問回答を生成する研究。ニュース記事のタイトルを質問回答に置き換え、質問回答の文長が短いものから長くなるものまでを生成する。質問回答は、質問文の長さと文長が近いものから生成する。文長は、文長の文長を予測するモデルで予測する。
- Unsupervised Paraphrasing with Pretrained Language Models
- Tong Niu, Semih Yavuz, Yingbo Zhou, Nitish Shirish Keskar, Huan Wang, Caiming Xiong
- TLDR: 事前学習済み言語モデルを、転移学習で高精度なQAQAモデルに置き換えた研究。事前学習済み言語モデルは、事前学習済み言語モデルの入力と異なる単語を生成する。この単語を生成する際、言語モデルの入力と生成結果が異なる単語を予測するDBを導入する。
- Profanity-Avoiding Training Framework for Seq2seq Models with Certified Robustness
- Hengtong Zhang, Tianhang Zheng, Yaliang Li, Jing Gao, Lu Su, Bo Li
- TLDR: 教師なし言語モデルで、文中の表現が不適な場合に生成される profanityを防ぎつつ、学習データに適応する研究。文中の表現が不適な場合、文の生成に適応する。文の生成は、文の表現が不適な場合にのみ行う。文の生成は、文の表現が不適な場合のみ行う。
- Journalistic Guidelines Aware News Image Captioning
- Xuewen Yang, Svebor Karaman, Joel Tetreault, Alejandro Jaimes
- TLDR: ニュース記事の画像をキャプチャーするタスクの提案。ニュース記事のタイトルをキャプチャーするだけでなく、キャプチャーした画像をニュース記事に挿入する形で画像を生成する。キャプチャーはニュース記事のタイトルを入力として、ニュース記事のタイトルを入力として、ニュース記事のタイトルを入力としてキャプチャーする。
- AESOP: Paraphrase Generation with Adaptive Syntactic Control
- Jiao Sun, Xuezhe Ma, Nanyun Peng
- TLDR: 自然言語処理で、文法の表現を自動生成する研究。文法の表現を自動生成するモデルをベースに、文法の表現を自動生成するモデルを追加。生成した文法表現は、文法の表現を自動生成するモデルに入力し、生成した文法表現を自動生成する。
- Refocusing on Relevance: Personalization in NLG
- Shiran Dudy, Steven Bedrick, Bonnie Webber
- TLDR: 文書生成において、文書の文書構造を考慮する研究。文書構造は文書の文脈から抽出されることが多いが、文書の文脈は文書の文脈から抽出されることが多い。文書の文脈から抽出される文書は文書の文脈から抽出されることが多いが、文書の文脈から抽出される文書は文書の文脈から抽出されることが多い。文書の文脈から抽出される文書は文書の文脈から抽出されることが多い
- The Future is not One-dimensional: Complex Event Schema Induction by Graph Modeling for Event Prediction
- Manling Li, Sha Li, Zhenhailong Wang, Lifu Huang, Kyunghyun Cho, Heng Ji, Jiawei Han, Clare Voss
- TLDR: 時系列のイベントをグラフで表現する研究。時系列のイベントは、時系列のイベントと、時系列のイベントとの関係をグラフで表現する。時系列のイベントは、時系列のイベントとの関係をグラフで表現する。時系列のイベントは、時系列の関係をグラフで表現する。時系列の関係は、時系列の関係をグラフで表現する。
- Learning Constraints and Descriptive Segmentation for Subevent Detection
- Haoyu Wang, Hongming Zhang, Muhao Chen, Dan Roth
- TLDR: 事前学習済みモデルを、事前学習済みモデルの学習に組み込む研究。事前学習済みモデルは事前学習済みモデルと同等の学習が行えるが、事前学習済みモデルは事前学習済みモデルと同等の学習が行えない。事前学習済みモデルは事前学習済みモデルと同等の学習が行えないため、事前学習済みモデルの学習を行わず事前学習済みモデルの学習を行なっている。
- ChemNER: Fine-Grained Chemistry Named Entity Recognition with Ontology-Guided Distant Supervision
- Xuan Wang, Vivian Hu, Xiangchen Song, Shweta Garg, Jinfeng Xiao, Jiawei Han
- TLDR: 自然科学における、自然言語処理のタスクにおける、事前学習済みモデルの提案。事前学習済みモデルは、文書の文書構造を学習する必要があり、文書構造を学習する際は文書構造を学習する必要があり、文書構造を学習する際は文書構造を学習する必要があり、文書構造を学習する際は文書構造を学習する必要があり、文書構造を学習する際は文書構造を学習する必要があり、文書構造を学習する際は文書構造を学習する必要があり、文書構造を学習する際は文書構造を学習する必要がある。
- Moving on from OntoNotes: Coreference Resolution Model Transfer
- Patrick Xia, Benjamin Van Durme
- TLDR: 文書の転移性能を検証した研究。文書数が多い場合、転移性能が上がるが文書数が少ない場合、転移性能が上がるか検証する。文書数が多い場合、転移性能が上がるか検証する。文書数が多い場合、転移性能が上がるか検証する。
- Document-level Entity-based Extraction as Template Generation
- Kung-Hsiang Huang, Sam Tang, Nanyun Peng
- TLDR: 文書構造から、Entity/Relationの抽出を行う研究。Entityは文書構造の要素で、Relationは文書構造の要素で抽出を行う。文書構造は文書構造と異なるため、文書構造を入力とする文書構造を生成するモデルを提案。文書構造の抽出は文書構造の要素を入力とするモデルで行う。
- Learning Prototype Representations Across Few-Shot Tasks for Event Detection
- Viet Lai, Franck Dernoncourt, Thien Huu Nguyen
- TLDR: 事前学習済みモデルを、事前学習済みモデルの予測精度に近づけるための研究。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための学習済みモデルの役割を果たしている。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための学習済みモデルの役割を果たしている。
- Lifelong Event Detection with Knowledge Transfer
- Pengfei Yu, Heng Ji, Prem Natarajan
- TLDR: ライフイベントの予測を行う際に、事前学習済みイベントと新しいイベントの類似度を比較し、その類似度を更新する研究。更新は、更新したイベントの更新履歴から行う。更新履歴は、更新履歴の更新履歴と同等の精度で更新する。更新履歴は、更新履歴の更新履歴と同等の精度で更新する。
- Modular Self-Supervision for Document-Level Relation Extraction
- Sheng Zhang, Cliff Wong, Naoto Usuyama, Sarthak Jain, Tristan Naumann, Hoifung Poon
- TLDR: 文書単位の文書関係抽出を、事前学習済みモデルの枠組みで行う研究。文書単位の文書関係抽出は、文書全体の文書構造を学習する必要があり、文書全体の文書構造を学習する必要があった。そこで、文書全体の文書構造を学習するモデルを導入し、文書全体の文書構造を学習する。
- Unsupervised Paraphrasing Consistency Training for Low Resource Named Entity Recognition
- Rui Wang, Ricardo Henao
- TLDR: 事前学習済みモデルの事前学習を、事前学習済みモデルのパフォーマンスに寄与する手法の提案。事前学習済みモデルは、事前学習済みモデルの予測結果と同等の結果を得ることができるが、事前学習済みモデルの予測結果と同等の結果を得るには、事前学習済みモデルの予測結果を比較し、その結果を基に事前学習済みモデルの予測結果を再現する。
- Fine-grained Entity Typing without Knowledge Base
- Jing Qian, Yibin Liu, Lemao Liu, Yangming Li, Haiyun Jiang, Haisong Zhang, Shuming Shi
- TLDR: 事前学習済みモデルを学習する手法の提案。事前学習済みモデルは、事前学習済みモデルの学習データから抽出したモデルを学習する。事前学習済みモデルは、事前学習済みモデルの学習データから抽出したモデルを学習する。事前学習済みモデルは、事前学習済みモデルの学習データから抽出したモデルを学習する。事前学習済みモデルは、事前学習済みモデルの学習データから抽出したモデルを学習する。
- Adversarial Attack against Cross-lingual Knowledge Graph Alignment
- Zeru Zhang, Zijie Zhang, Yang Zhou, Lingfei Wu, Sixing Wu, Xiaoying Han, Dejing Dou, Tianshi Che, Da Yan
- TLDR: マルチ言語の知識グラフに対するAdversarial Attackの提案。Adversarial Attackは、既存のAdversarial Attackと同等の手法を用い、既存のAdversarial Attackと同等の結果を得られる。Adversarial Attackは、Adversarial Attackの手法をベースに、Adversarial Attackの結果を敵対的なものに置き換える手法を提案している。
- Towards Realistic Few-Shot Relation Extraction
- Sam Brody, Sichao Wu, Adrian Benton
- TLDR: 教師なし学習で、モデルのパフォーマンスが上がるか検証した研究。モデルは教師なし学習のモデルと同等の精度を維持するが、教師なし学習の精度は人手評価と同等の精度を維持する。教師なし学習は、モデルの学習率が低い場合精度が低下する。教師なし学習は、モデルの学習率が低い場合精度が低下する。
- Data Augmentation for Cross-Domain Named Entity Recognition
- Shuguang Chen, Gustavo Aguilar, Leonardo Neves, Thamar Solorio
- TLDR: 自然言語処理で、高リソースのドメインを低リソースのドメインに変換する研究。高リソースのドメインは、単語の意味が異なる箇所に特徴量を割り当てる(単語の意味を割り当てる)ことで、学習済み言語モデルの精度を上げる。
- Incorporating medical knowledge in BERT for clinical relation extraction
- Arpita Roy, Shimei Pan
- TLDR: 事前学習済み言語モデル(BERT)を、臨床関係抽出タスクに応用した研究。事前学習済み言語モデルは、臨床関係抽出タスクで精度が落ちる傾向がある。そこで、臨床関係抽出タスクを学習する際、事前学習済み言語モデルを応用する手法を提案している。
- ECONET: Effective Continual Pretraining of Language Models for Event Temporal Reasoning
- Rujun Han, Xiang Ren, Nanyun Peng
- TLDR: 事前学習済み言語モデル(PTLM)を、事前学習済みモデルの学習に組み込んだ研究。事前学習済みモデルは、事前学習済みモデルの予測結果から予測するイベントと、予測結果から予測結果を推定する時も同時に学習する。事前学習済みモデルは、予測結果から予測結果を推定する時も、予測結果から予測結果を推定する時も学習する。
- Learning from Noisy Labels for Entity-Centric Information Extraction
- Wenxuan Zhou, Muhao Chen
- TLDR: 自然言語処理で、学習済みモデルの学習済みモデルを学習する際、学習済みモデルの学習済みモデルと学習済みモデルの学習済みモデルを比較し、学習済みモデルの学習済みモデルと学習済みモデルの学習済みモデルを比較し、学習済みモデルの学習済みモデルと学習済みモデルの学習済みモデルを比較し、学習済みモデルの学習済みモデルと学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習
- Extracting Material Property Measurement Data from Scientific Articles
- Gihan Panapitiya, Fred Parks, Jonathan Sepulveda, Emily Saldanha
- TLDR: 自然言語処理で、物質の性質を自動的に予測する研究。通常の学習済みモデルは、物質の性質を予測するタスクを学習するが、このタスクではタスクの重みを自動計算する。タスクは、物質の性質を予測するタスクで、タスクは、物質の性質を予測するタスクで行う。タスクは、物質の性質を予測するタスクで行う。
- Modeling Document-Level Context for Event Detection via Important Context Selection
- Amir Pouran Ben Veyseh, Minh Van Nguyen, Nghia Ngo Trung, Bonan Min, Thien Huu Nguyen
- TLDR: 文書から、イベントを予測するタスクの提案。文書の文長を短くする手法を、文書の文長を長くなるようにする形で学習する。文書の文長は、文書の文長を短くする(=文書の文長を短くする)ことで、文書の文長を短くする。文書の文長を短くする手法は、文書の文長を短くする傾向がある。
- Crosslingual Transfer Learning for Relation and Event Extraction via Word Category and Class Alignments
- Minh Van Nguyen, Tuan Ngo Nguyen, Bonan Min, Thien Huu Nguyen
- TLDR: マルチ言語対応のタスクで、クラス情報を組み合わせてタスクの学習を行う研究。クラス情報の組み合わせは、クラスの学習データとクラスの学習データの組み合わせを組み合わせる形で行う。クラス情報の組み合わせは、クラスの学習データとクラスの学習データの組み合わせを組み合わせる形で行う。
- Corpus-based Open-Domain Event Type Induction
- Jiaming Shen, Yunyi Zhang, Heng Ji, Jiawei Han
- TLDR: 自然言語処理で、イベントの種類を自動抽出する研究。イベントの種類は、単語/文の組み合わせで抽出する。単語/文の組み合わせは、単語/文の組み合わせを組み合わせたものに置き換える。単語/文の組み合わせは、単語/文の組み合わせを組み合わせたものに置き換える。
- PDALN: Progressive Domain Adaptation over a Pre-trained Model for Low-Resource Cross-Domain Named Entity Recognition
- Tao Zhang, Congying Xia, Philip S. Yu, Zhiwei Liu, Shu Zhao
- TLDR: ドメイン転移の手法を、効率的な手法としてKD(蒸留)を用いた研究。蒸留は、転移先のドメインを学習する際のタスクとして用いられる。蒸留は、転移先のドメインの学習済み言語モデルで行う。蒸留は、転移先のドメインの学習済み言語モデルで行う。蒸留は、転移先のドメインの学習済み言語モデルで行う。
- Multi-Vector Attention Models for Deep Re-ranking
- Giulio Zhou, Jacob Devlin
- TLDR: 文書分類器のモデルで、事前学習済みモデルと比較して、事前学習済みモデルの精度を上げる手法の提案。事前学習済みモデルは、事前学習済みモデルの計算量と文書表現の重みを合わせたモデルで、事前学習済みモデルの計算量と文書表現の重みを合わせたモデルで学習する。事前学習済みモデルは、事前学習済みモデルの計算量と文書表現の重みを合わせたモデルで学習する。
- Toward Deconfounding the Effect of Entity Demographics for Question Answering Accuracy
- Maharshi Gor, Kellie Webster, Jordan Boyd-Graber
- TLDR: 質問回答のモデルで、性別・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍・国籍
- Exploring Strategies for Generalizable Commonsense Reasoning with Pre-trained Models
- Kaixin Ma, Filip Ilievski, Jonathan Francis, Satoru Ozaki, Eric Nyberg, Alessandro Oltramari
- TLDR: 言語モデルの学習方法について、学習率を上げるためにどんな工夫が行いられているのかを調べた研究。学習率は、モデルの構造とモデルの構成を学習するモデルの学習率と、学習率の差異を考慮するモデルの学習率の2つに分けている。学習率は、学習率の差が大きい場合に大きくなる傾向がある。
- Transformer Feed-Forward Layers Are Key-Value Memories
- Mor Geva, Roei Schuster, Jonathan Berant, Omer Levy
- TLDR: 言語モデルの入力フレームワークで、事前学習済みのフレームワークのフレームワークを入力に追加する際、事前学習済みフレームワークのフレームワークを入力に追加する際のフレームワークのフレームワークを学習する。フレームワークのフレームワークは、入力フレームワークのフレームワークと同等の学習を行う。
- Connecting Attributions and QA Model Behavior on Realistic Counterfactuals
- Xi Ye, Rohan Nair, Greg Durrett
- TLDR: 読解学習において、モデルの予測が誤りになるような表現を生成する手法を検証した研究。モデルの予測が誤りになるような表現を生成する手法は、単語レベルの表現を生成する手法と同等精度を達成できるか検証した。単語レベルの表現は、学習時に最も適した表現になるよう、単語単位の表現を生成する手法を導入している。
- How Do Neural Sequence Models Generalize? Local and Global Cues for Out-of-Distribution Prediction
- D. Anthony Bau, Jacob Andreas
- TLDR: 事前学習済み言語モデルで、文の予測を行う際の一般的な手法をまとめた研究。単語の予測は、単語の意味を予測する(単語の意味は単語の意味と異なる)、文の予測は単語の意味を予測する(単語の意味は単語の意味と異なる)、という2つの手法を提案している。
- Comparing Text Representations: A Theory-Driven Approach
- Gregory Yauney, David Mimno
- TLDR: 自然言語処理で、事前学習済み言語モデルとタスクの相性を検証した研究。事前学習済み言語モデルは、事前学習済み言語モデルと同等の精度を発揮するが、事前学習済み言語モデルは精度が低い。事前学習済み言語モデルは、事前学習済み言語モデルと同等の精度を発揮するが、事前学習済み言語モデルは精度が低い。
- Human Rationales as Attribution Priors for Explainable Stance Detection
- Sahil Jayaram, Emily Allaway
- TLDR: 自然言語処理モデルの予測結果を、人手のアノテーションで表現する研究。アノテーションは、予測結果を人手のアノテーションで表現する。アノテーションは、予測結果を人手のアノテーションで表現する。アノテーションは、予測結果を人手のアノテーションで表現する。
- The Stem Cell Hypothesis: Dilemma behind Multi-Task Learning with Transformer Encoders
- Han He, Jinho D. Choi
- TLDR: マルチタスク学習で、Attentionの重みを変えた研究。重みは、各タスクの重みを入力とする入力と、入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の重みを入力とする入力の
- Text Counterfactuals via Latent Optimization and Shapley-Guided Search
- Xiaoli Fern, Quintin Pope
- TLDR: 自然言語処理で、事前学習済みモデルの予測結果を言語モデルに入力し、言語モデルの予測結果を言語モデルに入力する研究。事前学習済みモデルの予測結果を言語モデルに入力し、言語モデルの予測結果を言語モデルに入力する。事前学習済みモデルの予測結果を言語モデルに入力し、言語モデルの予測結果を言語モデルに入力する。
- “Average” Approximates “First Principal Component”? An Empirical Analysis on Representations from Neural Language Models
- Zihan Wang, Chengyu Dong, Jingbo Shang
- TLDR: 自然言語処理で、最初の表現がどのクラスに属するのかを検証した研究。各クラスの表現は、各クラスの表現と同等に表現されるが、各クラスの表現は同じクラスの表現と同等に表現される。この表現は、クラスの表現と同等に表現される。
- Controlled Evaluation of Grammatical Knowledge in Mandarin Chinese Language Models
- Yiwen Wang, Jennifer Hu, Roger Levy, Peng Qian
- TLDR: 自然言語処理で、階層的なモデルの学習を行なった研究。階層的なモデルは、単語の意味を予測するモデルと、単語の意味を予測するモデルの2つを学習する。階層的なモデルは、単語の意味を予測するモデルと、単語の意味を予測するモデルの2つを学習する。階層的なモデルは、単語の意味を予測するモデルと、単語の意味を予測するモデルの2つを学習する。
- GradTS: A Gradient-Based Automatic Auxiliary Task Selection Method Based on Transformer Networks
- Weicheng Ma, Renze Lou, Kai Zhang, Lili Wang, Soroush Vosoughi
- TLDR: マルチタスク学習において、自動タスクの選択を行う研究。タスクの選択は、タスクの重みを計算するネットワークのネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重みを計算するネットワークの重み
- NegatER: Unsupervised Discovery of Negatives in Commonsense Knowledge Bases
- Tara Safavi, Jing Zhu, Danai Koutra
- TLDR: 自然言語処理で、自然言語処理の知識ベースを作成する際の課題として、事前学習済みモデルの知識ベースが、事前学習済みモデルの知識ベースと同等の効果を出せるかを検証した研究。事前学習済みモデルの知識ベースは、事前学習済みモデルの知識ベースと同等の効果を出せるかを検証した。事前学習済みモデルの知識ベースは、事前学習済みモデルの知識ベースと同等の効果を出せるかを検証した。
- Instance-adaptive training with noise-robust losses against noisy labels
- Lifeng Jin, Linfeng Song, Kun Xu, Dong Yu
- TLDR: 自然言語処理モデルで、ノイズを加えたタスクを学習する際の手法を提案。ノイズを加えたタスクは、タスクごとにノイズ耐性を調整する重みを設定する。ノイズ耐性を調整する重みは、タスクごとに重みを設定する重みをベースにしている。
- Distributionally Robust Multilingual Machine Translation
- Chunting Zhou, Daniel Levy, Xian Li, Marjan Ghazvininejad, Graham Neubig
- TLDR: マルチ言語の翻訳を行う際に、モデルの学習を効率化する手法の提案。マルチ言語の翻訳では、モデルの学習はモデルのパフォーマンスを上げるためには最適化が難しい。そこで、モデルの学習を効率化する手法を提案。マルチ言語の翻訳では、モデルの学習はモデルのパフォーマンスを上げるためには最適化が難しい。そこで、モデルの学習を効率化する手法を提案している。
- Model Selection for Cross-lingual Transfer
- Yang Chen, Alan Ritter
- TLDR: マルチ言語対応のTransformerを、事前学習済みモデルの学習率、学習ステップ数、学習時間、学習方法、学習時間の3つを考慮したモデルの選択を検証した研究。事前学習済みモデルの学習率は、事前学習済みモデルの学習率と同等の精度を維持できるかを検証している。
- Continual Few-Shot Learning for Text Classification
- Ramakanth Pasunuru, Veselin Stoyanov, Mohit Bansal
- TLDR: 自然言語処理で、学習データが少ない場合に学習する手法の提案。学習データが少ない場合に学習する手法は、学習データが少ない場合に学習する手法と同等の手法を用いることで、学習データが少ない場合に学習する手法を比較し、学習データが少ない場合に学習する手法を比較する。
- Efficient Nearest Neighbor Language Models
- Junxian He, Graham Neubig, Taylor Berg-Kirkpatrick
- TLDR: 自然言語処理で、学習データの分散を予測する手法の提案。学習データは、学習済み言語モデルの学習済みモデルの予測結果から収集する。学習データは、学習済み言語モデルの予測結果から収集する。学習データは、学習済み言語モデルの予測結果から収集する。
- STraTA: Self-Training with Task Augmentation for Better Few-shot Learning
- Tu Vu, Minh-Thang Luong, Quoc Le, Grady Simon, Mohit Iyyer
- TLDR: 事前学習済み言語モデルが、タスクの重みを加味したモデルに置き換える研究。タスクはタスクの重みを加味したモデルを学習する。タスクはタスクの重みを加味したモデルを学習する。タスクはタスクの重みを加味したモデルを学習する。タスクはタスクの重みを加味したモデルを学習する。タスクはタスクの重みを加味したモデルを学習する。
- TADPOLE: Task ADapted Pre-Training via AnOmaLy DEtection
- Vivek Madan, Ashish Khetan, Zohar Karnin
- TLDR: 事前学習済みモデルを、学習済みモデルに適応する手法の提案。事前学習済みモデルは、学習済みモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルを比較し、学習済みモデルの学習済みモデルと比較したモデルを学習する。学習済みモデルは、学習済みモデルの学習済みモデルと比較し、学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの
- Gradient-based Adversarial Attacks against Text Transformers
- Chuan Guo, Alexandre Sablayrolles, Hervé Jégou, Douwe Kiela
- TLDR: 自然言語処理におけるAdversarial Attackの提案。Adversarialは、学習済みモデルの学習済みモデルの学習済みモデルに対するAdversarialの分布を予測する。学習済みモデルの分布を予測する際は、学習済みモデルの分布を予測する。学習済みモデルの分布を予測する際は、学習済みモデルの分布を予測する。
- Do Transformer Modifications Transfer Across Implementations and Applications?
- Sharan Narang, Hyung Won Chung, Yi Tay, Liam Fedus, Thibault Fevry, Michael Matena, Karishma Malkan, Noah Fiedel, Noam Shazeer, Zhenzhong Lan, Yanqi Zhou, Wei Li, Nan Ding, Jake Marcus, Adam Roberts, Colin Raffel
- TLDR: 自然言語処理におけるTransformerの改良について、実装の変更がパフォーマンスに影響するのか検証した研究。実装の変更は、TransformerのコードベースとTransformerのコードベースが同じか、またTransformerのコードベースが同じかを検証している。実装の変更は、Transformerのコードベースとコードベースが同じか、コードベースが同じかを検証している。
- Paired Examples as Indirect Supervision in Latent Decision Models
- Nitish Gupta, Sameer Singh, Matt Gardner, Dan Roth
- TLDR: 事前学習済みモデルを学習する際、事前学習済みモデルの学習結果を組み合わせて学習する手法の提案。事前学習済みモデルの学習結果を組み合わせて、学習結果と学習結果の組み合わせを組み合わせる形で学習を行う。事前学習済みモデルの学習結果を組み合わせて、学習結果と組み合わせる形で学習を行う。
- Pairwise Supervised Contrastive Learning of Sentence Representations
- Dejiao Zhang, Shang-Wen Li, Wei Xiao, Henghui Zhu, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: 文の意味理解を強化する手法の提案。文の意味理解は、文の文構造を理解するだけでなく、文の意味を理解する潜在表現を学習する(文の意味を学習する)ことで行う。文の意味理解は、文の意味を学習する潜在表現の分布を予測する形で行う。
- Muppet: Massive Multi-task Representations with Pre-Finetuning
- Armen Aghajanyan, Anchit Gupta, Akshat Shrivastava, Xilun Chen, Luke Zettlemoyer, Sonal Gupta
- TLDR: 言語モデルの事前学習と、モデルの更新を組み合わせた研究。事前学習は、事前学習済みモデルの学習率を上げるための初期化(事前学習済みモデルの学習率は、学習率の低下に繋がる)、更新は更新したモデルの更新(更新は更新する)、更新は更新したモデルの更新(更新は更新する)の2つを行なっている。
- Diverse Distributions of Self-Supervised Tasks for Meta-Learning in NLP
- Trapit Bansal, Karthick Prasad Gunasekaran, Tong Wang, Tsendsuren Munkhdalai, Andrew McCallum
- TLDR: 教師なし学習で、学習済みモデルの学習率を上げるために、学習済みモデルの学習率を上げるためには、学習済みモデルの学習率を上げるためには、学習済みモデルの学習率を上げるためには、学習率の上げ方に大きな影響を与える要素があるのではないかという研究。
- A Simple and Effective Method To Eliminate the Self Language Bias in Multilingual Representations
- Ziyi Yang, Yinfei Yang, Daniel Cer, Eric Darve
- TLDR: マルチ言語対応のタスクで、言語情報の除去を有効に行う研究。言語情報の除去は、言語情報の分散表現を除去する(言語情報の分散表現は、言語情報の分散表現と同等の表現になる)ことで、マルチ言語対応のタスクで有効に働くことを確認。
- A Massively Multilingual Analysis of Cross-linguality in Shared Embedding Space
- Alexander Jones, William Yang Wang, Kyle Mahowald
- TLDR: マルチ言語の翻訳モデルで、文構造の分散表現と単語分散表現の相関がどうなるかを検証した研究。分散表現は単語分散表現と同等精度を達成するが、単語分散表現は同等精度を達成する。単語分散表現は、単語分散表現の精度を上げるのに有効な指標。
- Frustratingly Simple but Surprisingly Strong: Using Language-Independent Features for Zero-shot Cross-lingual Semantic Parsing
- Jingfeng Yang, Federico Fancellu, Bonnie Webber, Diyi Yang
- TLDR: 翻訳モデルを翻訳する際、翻訳モデルの学習は言語依存を考慮する必要がある。翻訳モデルは翻訳モデルの学習済み言語をベースに、翻訳モデルの学習済み言語をベースに学習する。翻訳モデルは翻訳モデルの学習済み言語をベースに学習するが、翻訳モデルの学習済み言語は翻訳モデルの学習済み言語をベースに学習する。
- Improving Simultaneous Translation by Incorporating Pseudo-References with Fewer Reorderings
- Junkun Chen, Renjie Zheng, Atsuhito Kita, Mingbo Ma, Liang Huang
- TLDR: マルチタスク翻訳の手法を、事前学習済みモデルで学習する研究。事前学習済みモデルは、事前学習済みモデルの翻訳文をベースに、事前学習済みモデルの翻訳文をベースに学習する。事前学習済みモデルは、事前学習済みモデルの翻訳文をベースに学習する。事前学習済みモデルは、事前学習済みモデルの翻訳文をベースに学習する。
- Classification-based Quality Estimation: Small and Efficient Models for Real-world Applications
- Shuo Sun, Ahmed El-Kishky, Vishrav Chaudhary, James Cross, Lucia Specia, Francisco Guzmán
- TLDR: 翻訳モデルのパフォーマンスを評価するタスクで、言語モデルのパフォーマンスを評価する手法の提案。モデルのパフォーマンスを評価する指標として、翻訳モデルのパフォーマンスを評価する指標を提案している。評価指標は、翻訳モデルのパフォーマンスを評価する指標として、翻訳モデルのパフォーマンスを評価する指標として使用している。
- A Large-Scale Study of Machine Translation in Turkic Languages
- Jamshidbek Mirzakhalov, Anoop Babu, Duygu Ataman, Sherzod Kariev, Francis Tyers, Otabek Abduraufov, Mammad Hajili, Sardana Ivanova, Abror Khaytbaev, Antonio Laverghetta Jr., Bekhzodbek Moydinboyev, Esra Onal, Shaxnoza Pulatova, Ahsan Wahab, Orhan Firat, Sriram Chellappan
- TLDR: 機械翻訳のモデルの課題と、その応用例をまとめた研究。モデルは、翻訳モデルの学習済み言語モデルと、翻訳モデルの学習済み言語モデルの学習済み言語モデルの2つに分けられている。学習済み言語モデルは、学習済み言語モデルの学習済み言語モデルと同等の精度を維持できるか検証している。
- Analyzing the Surprising Variability in Word Embedding Stability Across Languages
- Laura Burdick, Jonathan K. Kummerfeld, Rada Mihalcea
- TLDR: 自然言語処理で、分散表現の安定性について調査した研究。分散表現は、単語の位置関係(隣接単語)と、単語の位置関係(単語の位置関係)を結合する形で表現される。この結合は、単語の位置関係を結合する形で表現される。
- Rule-based Morphological Inflection Improves Neural Terminology Translation
- Weijia Xu, Marine Carpuat
- TLDR: 機械翻訳において、単語の表現を変更する際のルールを変更する研究。単語の表現を変更する際は、単語の表現を変更する際のルールを変更する(単語の表現を変更する際は、単語の表現を変更する)。このルールを変更する際は、単語の表現を変更する際のルールを変更する。
- Data and Parameter Scaling Laws for Neural Machine Translation
- Mitchell A Gordon, Kevin Duh, Jared Kaplan
- TLDR: 翻訳モデルの学習率を上げるために、学習データと言語モデルのパフォーマンスの関係を調べた研究。学習データは少ないがパフォーマンスは高い。パフォーマンスは低いがパフォーマンスは高い。パフォーマンスは低いがパフォーマンスは高い。パフォーマンスは高いがパフォーマンスは低い。
- Good-Enough Example Extrapolation
- Jason Wei
- TLDR: テキスト分類器のデータ拡張で、事前学習済みモデルのデータ拡張を行なった研究。事前学習済みモデルのデータ拡張は、事前学習済みモデルのデータ拡張と同等の結果が得られるが、事前学習済みモデルのデータ拡張は、事前学習済みモデルのデータ拡張と同等の結果が得られない。
- Learning to Selectively Learn for Weakly-supervised Paraphrase Generation
- Kaize Ding, Dingcheng Li, Alexander Hanbo Li, Xing Fan, Chenlei Guo, Yang Liu, Huan Liu
- TLDR: 教師なしで、既存のモデルを上回る高精度なParaphraseを生成する研究。事前学習済み言語モデルをベースに、事前学習済みモデルの学習済みモデルをベースに、事前学習済みモデルの学習済みモデルをベースに学習する。事前学習済みモデルの学習済みモデルをベースに、事前学習済みモデルの学習済みモデルをベースに学習する。
- Effective Convolutional Attention Network for Multi-label Clinical Document Classification
- Yang Liu, Hua Cheng, Russell Klopfer, Matthew R. Gormley, Thomas Schaaf
- TLDR: 医療文書の分類を行う際に、マルチラベルの文書を扱う研究。マルチラベルの文書を扱う際、各ラベルの文書を個別にAttentionで処理する(各ラベルのAttentionは、文書全体のAttentionを計算する)。文書の重みを計算する際、重みの計算は、文書全体のAttentionを計算するより重みを計算する方が効率が良い。
- Contrastive Code Representation Learning
- Paras Jain, Ajay Jain, Tianjun Zhang, Pieter Abbeel, Joseph Gonzalez, Ion Stoica
- TLDR: コードの構造を学習する手法の提案。学習は、ソースコードの構造を学習する。構造は、ソースコードの文脈から生成される単語から生成される。生成した単語は、ソースコードの構造を学習する。生成した単語は、ソースコードの構造を学習する。学習は、ソースコードの構造を学習する。
- IGA: An Intent-Guided Authoring Assistant
- Simeng Sun, Wenlong Zhao, Varun Manjunatha, Rajiv Jain, Vlad Morariu, Franck Dernoncourt, Balaji Vasan Srinivasan, Mohit Iyyer
- TLDR: 自然言語処理で文書を作成する研究。文書のタイトル/本文/文中の単語/文間の関係/文関係を入力に置き換える形で文書を作成する。文書は文書分類器で生成し、文書分類器は文書分類器の分類結果を入力に置き換える形で文書を作成する。文書分類器は文書分類器の分類結果を入力に置き換える形で作成する。
- Math Word Problem Generation with Mathematical Consistency and Problem Context Constraints
- Zichao Wang, Andrew Lan, Richard Baraniuk
- TLDR: 自然言語処理で、モデルの生成を自動化する研究。モデルは言語モデルと、モデルの生成結果を翻訳する文を組み合わせたもの。翻訳は、生成結果を翻訳する文の単語選択と、翻訳結果を翻訳する文の単語選択から行う。翻訳は、翻訳結果を翻訳する文の単語選択と、翻訳結果を翻訳する文の単語選択から行う。
- Navigating the Kaleidoscope of COVID-19 Misinformation Using Deep Learning
- Yuanzhi Chen, Mohammad Hasan
- TLDR: 自然言語処理における転移学習の提案。転移学習は、転移先のドメインの情報を収集するが、転移先のドメインの情報を収集する際は転移先のドメインの情報を扱うモデルを使用。転移先のドメインの情報を収集する際は、転移先のドメインの情報を扱うモデルを使用。転移先のドメインの情報を収集する際は、転移先のドメインの情報を扱うモデルを使用。
- Detecting Health Advice in Medical Research Literature
- Yingya Li, Jun Wang, Bei Yu
- TLDR: 医療従事者から、病気に関する情報を抽出する研究。文書中の単語を抽出するモデルを、BERTベースで作成し、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに、BERTベースのモデルをベースに
- A Semantic Feature-Wise Transformation Relation Network for Automatic Short Answer Grading
- Zhaohui Li, Yajur Tomar, Rebecca J. Passonneau
- TLDR: 自然言語処理のタスクで、質問文から文関係を抽出する研究。質問文は、質問文の文関係(Q)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R)、文関係の文関係(R
- Evaluating Scholarly Impact: Towards Content-Aware Bibliometrics
- Saurav Manchanda, George Karypis
- TLDR: 論文の文書品質を評価する研究。文書の文書品質は、文書の文書品質と同等の評価対象となる。文書品質は、文書の文書品質と同等の評価対象となる。文書品質は、文書品質と同等の評価対象となる。文書品質は、文書品質と同等の評価対象となる。文書品質は、文書品質と同等の評価対象となる。
- A Scalable Framework for Learning From Implicit User Feedback to Improve Natural Language Understanding in Large-Scale Conversational AI Systems
- Sunghyun Park, Han Li, Ameen Patel, Sidharth Mudgal, Sungjin Lee, Young-Bum Kim, Spyros Matsoukas, Ruhi Sarikaya
- TLDR: 自然言語理解を自動で改善する研究。質問に対する回答は、質問に対するユーザーの反応から得られた情報から生成される。質問に対する回答は、質問に対するユーザーの反応から得られた情報から生成される。質問に対する回答は、質問に対するユーザーの反応から得られた情報から生成される。
- Summarize-then-Answer: Generating Concise Explanations for Multi-hop Reading Comprehension
- Naoya Inoue, Harsh Trivedi, Steven Sinha, Niranjan Balasubramanian, Kentaro Inui
- TLDR: マルチホップ学習で、抽出型の要約を生成する研究。抽出型要約は要約の要約を生成するが、要約は要約の要約を生成する。要約は要約の要約を生成する。要約は要約の要約を生成する。要約は要約の要約を生成する。
- FewshotQA: A simple framework for few-shot learning of question answering tasks using pre-trained text-to-text models
- Rakesh Chada, Pradeep Natarajan
- TLDR: 事前学習済みモデルを、学習済みモデルの学習に応用した研究。事前学習済みモデルは、質問文を入力とする。質問文は、質問文のEncodeと、質問文のEncodeを同時に行う。Encodeは、質問文のEncodeとEncode結果を結合し、Encode結果からEncode結果を予測する。Encode結果は、Encode結果からEncode結果を予測するモデルが良好な結果を記録。
- Multi-stage Training with Improved Negative Contrast for Neural Passage Retrieval
- Jing Lu, Gustavo Hernandez Abrego, Ji Ma, Jianmo Ni, Yinfei Yang
- TLDR: 文書検索において、生成したデータと、生成済みデータの組み合わせを検証した研究。生成済みデータは、事前学習済みモデルの学習に使用し、生成済みデータは事前学習済みモデルの学習に使用する。事前学習済みモデルの学習は、事前学習済みモデルの学習と同等の効果を上げている。
- Perhaps PTLMs Should Go to School – A Task to Assess Open Book and Closed Book QA
- Manuel Ciosici, Joe Cecil, Dong-Ho Lee, Alex Hedges, Marjorie Freedman, Ralph Weischedel
- TLDR: 事前学習済み言語モデル(PTLM)の学習を、事前学習済みテキストから行う研究。事前学習済みテキストは、テキストの解説がきちんとされているか、また、テキストの解説が間違っているのかを検証する。事前学習済みテキストは、テキストの解説がきちんとされているか、また、テキストの解説が間違っているのかを検証する。
- ReasonBERT: Pre-trained to Reason with Distant Supervision
- Xiang Deng, Yu Su, Alyssa Lees, You Wu, Cong Yu, Huan Sun
- TLDR: 事前学習済み言語モデルを、複数文書から学習する研究。文書から文書を生成する際、文書から文書を生成する文書を別途生成する。文書から文書を生成する際、文書から文書を生成する文書を別途生成する。文書から文書を生成する文書は文書から文書を生成する文書を生成する。文書から文書を生成する文書は文書から文書を生成する文書を生成する。
- Single-dataset Experts for Multi-dataset Question Answering
- Dan Friedman, Ben Dodge, Danqi Chen
- TLDR: マルチタスク学習モデルを、複数データセットで学習する研究。学習データセットは複数あるが、学習データセットの組み合わせは一つのタスクで行うのがベスト。タスクは複数あるが、タスクの組み合わせは複数ある場合に適用する。タスクの組み合わせは、タスクの重みを調整するパラメーターを追加する形で行う。
- Simple Entity-Centric Questions Challenge Dense Retrievers
- Christopher Sciavolino, Zexuan Zhong, Jinhyuk Lee, Danqi Chen
- TLDR: 事前学習済みモデルを、強化学習で学習する際の課題と対策をまとめた研究。強化学習では、事前学習済みモデルの学習率が低い場合、強化学習の学習率を上回る結果になる。強化学習では、強化学習の学習率を上回る結果になるよう、強化学習の学習率を上回るモデルを構築する必要がある。
- Mitigating False-Negative Contexts in Multi-document Question Answering with Retrieval Marginalization
- Ansong Ni, Matt Gardner, Pradeep Dasigi
- TLDR: 複数文書の質問に対し、学習済みモデルの学習済みモデルを適用する研究。学習済みモデルは、質問に対する回答が既知の文書から異なる場合に、その文書の文書から回答を推定する。この文書から回答を推定する際、文書の文書特徴を考慮するモデルを導入する。
- MultiDoc2Dial: Modeling Dialogues Grounded in Multiple Documents
- Song Feng, Siva Sankalp Patel, Hui Wan, Sachindra Joshi
- TLDR: 文書ベースの対話モデルを、文書から文書を生成するタスクとして提案。文書から文書を生成する際は文書の文書構造を、文書から文書構造を生成するタスクを提案している。文書構造は文書の文書構造を、文書構造は文書構造を生成するタスクを想定している。文書構造は文書構造を生成するタスクで、文書構造は文書構造を生成するタスクで行う。
- GupShup: Summarizing Open-Domain Code-Switched Conversations
- Laiba Mehnaz, Debanjan Mahata, Rakesh Gosangi, Uma Sushmitha Gunturi, Riya Jain, Gauri Gupta, Amardeep Kumar, Isabelle G. Lee, Anish Acharya, Rajiv Ratn Shah
- TLDR: 英語/日本語のコードチェンジを、単純に翻訳するだけでなく、翻訳のタスクを分解してまとめる研究。翻訳は翻訳のタスクと同等のタスクで、翻訳のタスクは翻訳のタスクと同等の分類を行う。翻訳のタスクは、翻訳のタスクと同等の分類を行う。
- BiSECT: Learning to Split and Rephrase Sentences with Bitexts
- Joongwon Kim, Mounica Maddela, Reno Kriz, Wei Xu, Chris Callison-Burch
- TLDR: 文の分割を行う際に、長い文を分割する手法の提案。長い文を分割する際は、長い文を分割するより長い文を分割する方が精度が上がる。長い文を分割する際は、長い文を分割するより長い文を分割する方が精度が上がる。
- Data Collection vs. Knowledge Graph Completion: What is Needed to Improve Coverage?
- Kenneth Church, Yuchen Bian
- TLDR: 文分類のデータセットで、単語分類の精度を上げるためには、単語分類の精度と文分類の精度を比較した研究。単語分類は単語の分布を予測するが、単語分布の予測は単語の分布を予測する。単語分布の予測は単語分布の分布を予測するが、単語分布の予測は単語分布の分布を予測する。
- Universal Sentence Representation Learning with Conditional Masked Language Model
- Ziyi Yang, Yinfei Yang, Daniel Cer, Jax Law, Eric Darve
- TLDR: 文表現をMasked Language Modeling(Masked LSTM)で学習する研究。文表現は、文の文表現をMasked LSTMに変換する形で学習する。Masked LSTMは、文表現の潜在表現をMasked LSTMに変換する形で学習する。Masked LSTMは、文表現の潜在表現をMasked LSTMに変換する形で学習する。Masked LSTMは、文表現の潜在表現をMasked LSTMに変換する形で学習する。
- On the Benefit of Syntactic Supervision for Cross-lingual Transfer in Semantic Role Labeling
- Zhisong Zhang, Emma Strubell, Eduard Hovy
- TLDR: マルチタスク学習で、文法の学習を有効に活用する研究。文法の学習は、文法の依存関係を学習するモデルの役割として捉えている。依存関係は、文法の学習時に、文法の学習済みモデルの学習済みモデルに近い状態を維持する。文法の学習は、文法依存関係を学習するモデルの役割として捉えている。
- Implicit Premise Generation with Discourse-aware Commonsense Knowledge Models
- Tuhin Chakrabarty, Aadit Trivedi, Smaranda Muresan
- TLDR: 文の文脈を推論する研究。文脈は、文中の単語を意味とし、単語の意味を推論する文脈を生成する。文脈は、文脈の意味を推論する文脈を生成する。文脈は、文脈の意味を推論する文脈を生成する。文脈は、文脈の意味を推論する文脈を生成する。文脈は、文脈の意味を推論する文脈を生成する。文脈は、文脈の意味を推論する文脈を生成する。文脈は、文脈の意味を推論する文脈を生成する。文脈は、
- Inducing Transformer’s Compositional Generalization Ability via Auxiliary Sequence Prediction Tasks
- Yichen Jiang, Mohit Bansal
- TLDR: 自然言語処理で、事前学習済みモデルの表現を学習する研究。事前学習済みモデルは、入力の表現を予測するタスクを自動生成する。このタスクは、入力の表現を予測するタスクと、入力の表現を予測するタスクの2つに分けて行う。事前学習済みモデルは、事前学習済みモデルの表現を予測するタスクを学習する。
- Flexible Generation of Natural Language Deductions
- Kaj Bostrom, Xinyu Zhao, Swarat Chaudhuri, Greg Durrett
- TLDR: 自然言語処理で、自然言語処理のモデルを生成する研究。モデルは、自然言語処理のモデルと同等のモデルを構築し、生成したモデルをWikipediaのモデルに置き換える形で学習を行う。Wikipediaのモデルは、Wikipediaの文書から抽出された文書を生成する。Wikipediaの文書は、Wikipediaの文書から抽出された文書を生成する。
- Structure-aware Fine-tuning of Sequence-to-sequence Transformers for Transition-based AMR Parsing
- Jiawei Zhou, Tahira Naseem, Ramón Fernandez Astudillo, Young-Suk Lee, Radu Florian, Salim Roukos
- TLDR: 事前学習済み言語モデルと事前学習済みモデルを組み合わせた事前学習済みモデルの提案。事前学習済みモデルは、事前学習済み言語モデルの表現を予測するモデルで、事前学習済み言語モデルは、事前学習済み言語モデルの表現を予測するモデルで表現を予測する。事前学習済み言語モデルは、事前学習済み言語モデルの表現を予測するモデルと同等の精度を維持できる。
- Think about it! Improving defeasible reasoning by first modeling the question scenario.
- Aman Madaan, Niket Tandon, Dheeraj Rajagopal, Peter Clark, Yiming Yang, Eduard Hovy
- TLDR: 質問に対する不確実な回答を防止する研究。質問に対する不確実な回答を予測するモデルを作成し、質問に対する不確実な回答を予測するモデルを生成する。不確実な回答を予測するモデルは、質問に対する不確実な回答を予測するモデルと同等の役割を果たしている。
- Open Aspect Target Sentiment Classification with Natural Language Prompts
- Ronald Seoh, Ian Birle, Mrinal Tak, Haw-Shiuan Chang, Brian Pinette, Alfred Hough
- TLDR: 商品画像に対する感情分類を、自然言語で行う研究。モデルは、商品画像の画像を入力とするモデルで、入力は画像の画像を入力とする。入力は画像の画像を入力とする。入力は画像の画像を入力とする。入力は画像の画像を入力とする。入力は画像の画像を入力とする。
- Does BERT Learn as Humans Perceive? Understanding Linguistic Styles through Lexica
- Shirley Anugrah Hayati, Dongyeop Kang, Lyle Ungar
- TLDR: 文中の単語を、人間と機械の認識から予測する研究。文中の単語を、人間と機械の認識から予測する。文中の単語は、人間が認識する単語と機械が認識する単語の2つに分けられる。人間は、文中の単語が人間に与える印象と近いかを予測する。
- Improving Stance Detection with Multi-Dataset Learning and Knowledge Distillation
- Yingjie Li, Chenye Zhao, Cornelia Caragea
- TLDR: 文書のstance detectionを行う際に、モデルの温度を蒸留する研究。蒸留は、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、文書の文脈から、
- Discovering the Unknown Knowns: Turning Implicit Knowledge in the Dataset into Explicit Training Examples for Visual Question Answering
- Jihyung Kil, Cheng Zhang, Dong Xuan, Wei-Lun Chao
- TLDR: 画像を学習する際、画像の画像特徴を学習するモデルの学習データに組み込む研究。画像の画像特徴を学習データに組み込むことで、画像の画像特徴を学習データに組み込むことで、画像特徴を学習データに組み込むことで、画像特徴を学習データに組み込むことで、画像特徴を学習データに組み込むことで、画像特徴を学習データに組み込むことで、画像特徴を学習データに組み込むことで、画像特徴を学習データに組み込むことで、画像特徴を学習データに組み込むことで、画像特徴を学習データに組み込むことで、画像特徴を学習データに組み込むことで、画像特徴を学習データに組み込むことで、画像
- Improving Pre-trained Vision-and-Language Embeddings for Phrase Grounding
- Zi-Yi Dou, Nanyun Peng
- TLDR: 画像から、画像の表現を抽出する手法の提案。画像の表現を、画像の表現と画像の表現の2つに分割し、画像の表現を入力とする。画像の表現は、画像の表現と画像の表現の2つに分割される。表現の分割は、画像の表現を入力とする表現の重みを入力とする表現の重みに置き換える形で行う。
- Sequential Randomized Smoothing for Adversarially Robust Speech Recognition
- Raphael Olivier, Bhiksha Raj
- TLDR: 自動音声認識モデルに対するAdversarial Attackの提案。既存のAdversarial Attackは、音声認識モデルの挙動を誤らせることで防衛できたが、Adversarial Attackは、音声認識モデルの挙動を誤らせることで防衛できた。
- Hitting your MARQ: Multimodal ARgument Quality Assessment in Long Debate Video
- Md Kamrul Hasan, James Spann, Masum Hasan, Md Saiful Islam, Kurtis Haut, Rada Mihalcea, Ehsan Hoque
- TLDR: マルチモーダルな表現を扱う研究。マルチモーダルな表現は、文の長さや単語数、文の重みといった様々な要素を考慮する。また、文の長さや単語数といった重みは、文の長さと重みの重みを考慮するモデルを用いている。
- Mind the Context: The Impact of Contextualization in Neural Module Networks for Grounding Visual Referring Expressions
- Arjun Akula, Spandana Gella, Keze Wang, Song-Chun Zhu, Siva Reddy
- TLDR: 教師なしのモデルで、事前定義済みの文表現を学習する手法の提案。事前定義済み文表現を学習する際、文表現の重みを固定するパラメーターを追加することで、学習率を上げつつ学習率を維持する。事前定義済み文表現を学習する際、パラメーターを追加することで精度を上げている。
- Weakly-Supervised Visual-Retriever-Reader for Knowledge-based Question Answering
- Man Luo, Yankai Zeng, Pratyay Banerjee, Chitta Baral
- TLDR: 画像から知識を抽出する手法の提案。画像から知識を抽出するモデルは、画像の分類/抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出、画像の抽出
- NDH-Full: Learning and Evaluating Navigational Agents on Full-Length Dialogue
- Hyounghun Kim, Jialu Li, Mohit Bansal
- TLDR: 対話システムで、事前学習済みモデルと比較して精度が向上した研究。事前学習済みモデルは、事前学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは学習済みモデルと同等の精度を維持できない。そこで、事前学習済みモデルをベースに、事前学習済みモデルをベースに学習する手法を提案している。
- Timeline Summarization based on Event Graph Compression via Time-Aware Optimal Transport
- Manling Li, Tengfei Ma, Mo Yu, Lingfei Wu, Tian Gao, Heng Ji, Kathleen McKeown
- TLDR: ニュースから、イベントの概要を抽出する研究。ニュースの概要は、ニュースのニュースグラフをイベントグラフとし、イベントの概要はイベントグラフの概要と同等の文書に置き換える。イベントグラフは、イベントの概要と同等の文書に置き換えられる。
- StreamHover: Livestream Transcript Summarization and Annotation
- Sangwoo Cho, Franck Dernoncourt, Tim Ganter, Trung Bui, Nedim Lipka, Walter Chang, Hailin Jin, Jonathan Brandt, Hassan Foroosh, Fei Liu
- TLDR: 動画から、質問回答を抽出する研究。質問回答は、質問回答のEncoderで生成する。質問回答は、質問回答のEncoderのEncode結果から生成する。質問回答は、質問回答のEncode結果から生成する。質問回答は、質問回答のEncode結果から生成する。質問回答は、質問回答のEncode結果から生成する。
- Cross-Register Projection for Headline Part of Speech Tagging
- Adrian Benton, Hanyang Li, Igor Malioutov
- TLDR: ニュースのタイトルを予測するタスクで、事前学習済みモデルを用いた研究。事前学習済みモデルは、タイトルを予測する文を予測するモデルで、タイトルの文を予測する文を予測するモデルで、事前学習済みモデルは事前学習済みモデルの予測結果を基に予測を行う。事前学習済みモデルは、事前学習済みモデルの精度を上回る精度を達成。
- Editing Factual Knowledge in Language Models
- Nicola De Cao, Wilker Aziz, Ivan Titov
- TLDR: 事前学習済み言語モデルの知識を編集する研究。事前学習済みモデルは、事前学習済みモデルの予測結果を更新するネットワークを構築する。事前学習済みモデルは、事前学習済みモデルの予測結果を更新するネットワークを構築する。事前学習済みモデルは、事前学習済みモデルの予測結果を更新するネットワークを構築する。
- Sparse Attention with Linear Units
- Biao Zhang, Ivan Titov, Rico Sennrich
- TLDR: 学習率を上げるために、Softmaxを強化する手法の提案。学習率は通常のsoftmaxと同等の重みを持たせることで、学習率を上げるためにも重みを追加する。学習率は通常のsoftmaxと同等の重みを持たせることで、学習率を上げるためにも重みを追加する。
- Knowledge Base Completion Meets Transfer Learning
- Vid Kocijan, Thomas Lukasiewicz
- TLDR: 知識ベースの更新を、事前学習済みモデル(BERT)で行う研究。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成される文書から、文書から文書を生成する。文書から文書を生成する際は、文書の文書特徴を予測するモデルを使用。文書特徴を予測するモデルは、BERTと同等の精度を維持している。
- SPECTRA: Sparse Structured Text Rationalization
- Nuno M. Guerreiro, André F. T. Martins
- TLDR: 自然言語処理における、解釈の推論方法を強化する研究。解釈の推論は、解釈の意味を推定するモデルで行う。解釈の意味は、解釈の意味を推定するモデルで推論する。解釈の意味は、解釈の意味を推定するモデルで推論する。解釈の意味は、解釈の意味を推定するモデルで推論する。
- Towards Zero-Shot Knowledge Distillation for Natural Language Processing
- Ahmad Rashid, Vasileios Lioutas, Abbas Ghaddar, Mehdi Rezagholizadeh
- TLDR: 自然言語処理で、教師の学習データを蒸留する研究。蒸留は学習データの転移を前提としており、教師の学習データは学習データの転移に使用される。蒸留は学習データの転移を前提としており、教師の学習データは学習データの転移に使用される。蒸留は学習データの転移を前提としており、教師の学習データは学習データの転移に使用される。
- Adversarial Regularization as Stackelberg Game: An Unrolled Optimization Approach
- Simiao Zuo, Chen Liang, Haoming Jiang, Xiaodong Liu, Pengcheng He, Jianfeng Gao, Weizhu Chen, Tuo Zhao
- TLDR: 自然言語処理におけるAdversarial Regularizationの提案。敵対的と対立するプレイヤーを対等に評価するStackelberg gradientを導入し、敵対的と対立するプレイヤーを対等に評価する。敵対的と対立するプレイヤーは、敵対的と対立するプレイヤーの予測結果を考慮する。
- Aspect-Controllable Opinion Summarization
- Reinald Kim Amplayo, Stefanos Angelidis, Mirella Lapata
- TLDR: 評価を基に、文書のaspect controllerを生成する研究。評価は文書のaspect controllerと、評価の評価を基に文書のaspect controllerを生成する。評価は文書のaspect controllerと、文書のaspect controllerの2つから生成する。文書のaspect controllerは、文書のaspect controllerと同等のモデルで学習する。
- QuestEval: Summarization Asks for Fact-based Evaluation
- Thomas Scialom, Paul-Alexis Dray, Sylvain Lamprier, Benjamin Piwowarski, Jacopo Staiano, Alex Wang, Patrick Gallinari
- TLDR: 文書の要約を評価する指標の提案。要約は文書の要約と同等の評価が求められるが、要約は要約の要約と同等の評価が求められる。要約は要約の要約と同等の評価が求められるが、要約は要約の要約と同等の評価が求められる。要約は要約の要約と同等の評価が求められるが、要約は要約の要約と同等の評価が求められる。
- Simple Conversational Data Augmentation for Semi-supervised Abstractive Dialogue Summarization
- Jiaao Chen, Diyi Yang
- TLDR: 対話データのAugmentationについて、事前学習済みモデルと比較して、事前学習済みモデルの精度が向上したという研究。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を取っている。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を取っている。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を取っている。
- Finding a Balanced Degree of Automation for Summary Evaluation
- Shiyue Zhang, Mohit Bansal
- TLDR: 自動要約の精度を上げるために、事前学習済みモデルと自動要約モデルの精度を比較した研究。事前学習済みモデルは、事前学習済みモデルの要約文をベースに学習する。要約モデルは、事前学習済みモデルの要約文をベースに学習する。事前学習済みモデルは、事前学習済み要約モデルの要約文をベースに学習する。事前学習済みモデルは、事前学習済み要約モデルの要約文をベースに学習する。
- CLIFF: Contrastive Learning for Improving Faithfulness and Factuality in Abstractive Summarization
- Shuyang Cao, Lu Wang
- TLDR: ニュース記事の要約を、事前学習済みモデルで学習する研究。要約は、要約の文を生成する際、要約文の文長が短い場合、要約文の文長が長くなるよう学習する。要約文の文長が長くなるよう学習する。要約文の文長が長くなるよう学習する。
- Multilingual Unsupervised Neural Machine Translation with Denoising Adapters
- Ahmet Üstün, Alexandre Berard, Laurent Besacier, Matthias Gallé
- TLDR: マルチ言語の翻訳を行う際に、事前学習済みモデルを適用する手法の提案。事前学習済みモデルは、事前学習済み言語の翻訳を自動生成する。この生成は、翻訳の精度を上げるためにも有効であるとしている。
- BERT, mBERT, or BiBERT? A Study on Contextualized Embeddings for Neural Machine Translation
- Haoran Xu, Benjamin Van Durme, Kenton Murray
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルに組み込むことで、自然言語処理の精度を上げる研究。事前学習済み言語モデルは、事前学習済み言語モデルの入力と同等の精度を獲得できるが、事前学習済み言語モデルは、事前学習済み言語モデルの入力と同等の精度を獲得できるか検証している。
- Controlling Machine Translation for Multiple Attributes with Additive Interventions
- Andrea Schioppa, David Vilar, Artem Sokolov, Katja Filippova
- TLDR: 機械翻訳において、複数のタスクを同時に行うタスクを改善した研究。タスクの重みを、タスクの重みと同等に扱うことで、タスクの重みを重みと同等に扱うことができる。タスクの重みは、タスクの重みと同等に扱えるよう、タスクの重みを重みと同等に扱えるよう調整する。
- A Generative Framework for Simultaneous Machine Translation
- Yishu Miao, Phil Blunsom, Lucia Specia
- TLDR: マルチタスクの翻訳を行う際に、生成した翻訳文を学習する仕組みを提案。翻訳文の生成は、翻訳文の生成元の単語数をベースに行う。生成文は、翻訳文の生成元の単語数をベースに生成される。生成文は、翻訳文の生成元の単語数をベースに生成される。生成文は、生成文の生成元の単語数をベースに生成される。
- It Is Not As Good As You Think! Evaluating Simultaneous Machine Translation on Interpretation Data
- Jinming Zhao, Philip Arthur, Gholamreza Haffari, Trevor Cohn, Ehsan Shareghi
- TLDR: 翻訳モデルの学習済みモデルと、翻訳モデルの検証結果を比較した研究。翻訳モデルは翻訳文を翻訳文に変換するモデルで、翻訳文は翻訳文の予測結果を基に翻訳を行う。翻訳文は翻訳文の予測結果を基に翻訳を行うが、翻訳文は翻訳文の予測結果を基に翻訳を行う。
- Boosting Cross-Lingual Transfer via Self-Learning with Uncertainty Estimation
- Liyan Xu, Xuchao Zhang, Xujiang Zhao, Haifeng Chen, Feng Chen, Jinho D. Choi
- TLDR: マルチ言語の事前学習済みモデルで、事前学習済み言語モデルの学習済みモデルの学習済み言語モデルを学習する研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルと同等の学習済み言語モデルの学習済み言語モデルを比較し、学習済み言語モデルの学習済み言語モデルの学習済み言語モデルと同等の学習済み言語モデルの学習済み言語モデルを比較し、学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの
- Levenshtein Training for Word-level Quality Estimation
- Shuoyang Ding, Marcin Junczys-Dowmunt, Matt Post, Philipp Koehn
- TLDR: 文品質の推定を行う際に、Transformerを用いた研究。Transformerは、文品質の推定を行う際に、文の長さを予測するモデルとして使用される。長さを予測するモデルは、文の長さを予測するモデルと同等の精度を維持できる。
- Interactive Machine Comprehension with Dynamic Knowledge Graphs
- Xingdi Yuan
- TLDR: テキストをグラフで表現する研究。テキストをグラフで表現する際、テキストの表現はグラフ表現の表現と同等であるか、また同等であるかを検証している。グラフ表現は、テキストの表現と同等であるか、同等であるかを検証している。
- Residual Adapters for Parameter-Efficient ASR Adaptation to Atypical and Accented Speech
- Katrin Tomanek, Vicky Zayats, Dirk Padfield, Kara Vaillancourt, Fadi Biadsy
- TLDR: 音声認識モデルの改良で、通常のASRモデルを大幅に変更する手法の提案。通常のASRモデルは、Encoder/Decoderの重みを調整するが、この重みを調整するEncoder/Decoderの重みを調整する。この重みを調整する重みは、Encoder/Decoderの重みを調整する重みと同等になる。
- Visual News: Benchmark and Challenges in News Image Captioning
- Fuxiao Liu, Yinghan Wang, Tianlu Wang, Vicente Ordonez
- TLDR: ニュース画像をテキストに置き換える研究。画像をテキストに置き換えるTransformer architectureをベースに、画像のテキストと画像の画像を結合してテキストを生成する。Transformer architectureは、画像の画像表現をテキストに置き換える際に、画像の画像表現をテキストに置き換える際に、画像表現をテキストに置き換える際に、画像表現をテキストに置き換える際に、画像表現をテキストに置き換える際に、画像表現をテキストに置き換える際に、画像表現をテキストに置き換える際に、画像表現をテキストに置き換える際に、画像表現をテキストに置き換える際に、画像表現をテキストに置き換え
- Integrating Visuospatial, Linguistic, and Commonsense Structure into Story Visualization
- Adyasha Maharana, Mohit Bansal
- TLDR: テキストから画像を生成する際、言語構造を考慮する研究。画像の表現は、単語/画像の組み合わせで生成する。単語/画像の組み合わせは、Transformerベースのモデルで学習する。画像の表現は、単語/画像の組み合わせで生成する。
- VideoCLIP: Contrastive Pre-training for Zero-shot Video-Text Understanding
- Hu Xu, Gargi Ghosh, Po-Yao Huang, Dmytro Okhonko, Armen Aghajanyan, Florian Metze, Luke Zettlemoyer, Christoph Feichtenhofer
- TLDR: 事前学習済みモデルを、事前学習済みモデルの学習に使用する研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の学習結果を得るための学習済みモデルを組み込んだモデル。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の学習結果を得るための学習済みモデルを組み込んだモデル。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の学習結果を得るための学習済みモデルを組み込んだモデルを学習する。
- NewsCLIPpings: Automatic Generation of Out-of-Context Multimodal Media
- Grace Luo, Trevor Darrell, Anna Rohrbach
- TLDR: ニュースの画像を自動生成する研究。画像はテキストと同等の表現が使用されているが、画像は画像と同等の表現が使用されているかを自動生成する。画像はテキストと同等の表現が使用されているが、画像はテキストと同等の表現が使用されているかを自動生成する。
- Powering Comparative Classification with Sentiment Analysis via Domain Adaptive Knowledge Transfer
- Zeyu Li, Yilong Qin, Zihan Liu, Wei Wang
- TLDR: 文中の単語を評価する研究。文中の単語を評価する際、文中の単語を評価するモデルを用いることで、文中の単語を評価する精度を向上させる。文中の単語を評価するモデルは、文中の単語を評価するモデルと同等の精度を維持できるが、文中の単語を評価するモデルは、文中の単語を評価するモデルと同等の精度を維持できない。
- Tribrid: Stance Classification with Neural Inconsistency Detection
- Song Yang, Jacopo Urbani
- TLDR: 自然言語処理で、モデルの予測結果を自動生成する手法の提案。予測結果は、予測結果の予測結果と実際の予測結果の予測結果を比較し、予測結果が近い場合に予測結果を予測結果と比較し、予測結果が近い場合に予測結果を予測結果と比較し、予測結果を予測結果と比較し、予測結果を予測結果と比較し、予測結果と比較した結果を予測結果と比較し、予測結果と比較した結果を予測結果と比較し、予測結果と比較した結果を予測結果と比較し、予測結果と比較した結果を予測結果と比較し、予測結果と比較した結果を予測結果と
- SYSML: StYlometry with Structure and Multitask Learning: Implications for Darknet Forum Migrant Analysis
- Pranav Maneriker, Yuntian He, Srinivasan Parthasarathy
- TLDR: マルチタスク学習で、マルチドメインのネットワーク上でのマルチモーダルネットワークのネットワークのネットワークを構築する研究。ネットワークのネットワークをマルチドメインのネットワークに分割し、ネットワークのネットワークをマルチドメインのネットワークに分割する。マルチモーダルネットワークのネットワークは、ネットワークのネットワークをネットワークのネットワークに分割するネットワークと同等の扱いを受ける。
- Few-Shot Emotion Recognition in Conversation with Sequential Prototypical Networks
- Gaël Guibon, Matthieu Labeau, Hélène Flamein, Luce Lefeuvre, Chloé Clavel
- TLDR: 対話システムにおける、感情分類の研究。対話システムは、通常のモデルで学習する言語モデルと異なり、言語モデルの学習はFew-Shot Learning(英語/日本語)で行う。このFew-Shot Learningを、対話システムの学習に応用している。
- CLASSIC: Continual and Contrastive Learning of Aspect Sentiment Classification Tasks
- Zixuan Ke, Bing Liu, Hu Xu, Lei Shu
- TLDR: ドメイン拡張学習で、ASCのタスクを学習する研究。タスクは、ドメイン拡張のタスク(ASC)で、タスクの分類は、ドメイン拡張のタスク(ASC)で行う。タスクの分類は、ドメイン拡張のタスク(ASC)で行う。タスク分類は、ドメイン拡張のタスク(ASC)で行う。
- Implicit Sentiment Analysis with Event-centered Text Representation
- Deyu Zhou, Jianan Wang, Linhai Zhang, Yulan He
- TLDR: 文中のイベントを、イベントの意味から推定する手法の提案。イベントの意味を推定する際、イベントの意味を推定する単語を単語ベクトルとして使用する。単語ベクトルは、イベントの意味を推定する単語ベクトルとして使用する。単語ベクトルは、イベントの意味を推定する単語ベクトルとして使用する。
- SimCSE: Simple Contrastive Learning of Sentence Embeddings
- Tianyu Gao, Xingcheng Yao, Danqi Chen
- TLDR: 文の表現を、教師なしで学習する手法の提案。教師なしで学習する際は、文の表現を学習する際の重みを、文の表現を学習する重みに置き換える。重みは、文の表現を学習する際の重みに置き換える。重みは、文の表現を学習する重みに置き換える。重みは、文の表現を学習する重みに置き換える。
- When is Wall a Pared and when a Muro?: Extracting Rules Governing Lexical Selection
- Aditi Chaudhary, Kayo Yin, Antonios Anastasopoulos, Graham Neubig
- TLDR: 自然言語処理で、単語の意味を自動識別する手法の提案。単語の意味を自動識別する際は、単語の意味を説明するルールを自動生成する。このルールは、単語の意味を説明する際のルールとして使われる。このルールは、単語の意味を説明する際のルールとして使われる。
- Aligning Actions Across Recipe Graphs
- Lucia Donatelli, Theresa Schmidt, Debanjali Biswas, Arne Köhn, Fangzhou Zhai, Alexander Koller
- TLDR: レシピの説明文を、異なる言語で翻訳した研究。翻訳文は、各ステップの説明が異なる場合に、その説明文を翻訳したテキストと比較して精度が落ちる傾向がある。そのため、各ステップの説明文を翻訳したテキストと比較して精度が落ちる傾向がある。
- Generating Datasets with Pretrained Language Models
- Timo Schick, Hinrich Schütze
- TLDR: 文生成を自動化する手法の提案。文生成は事前学習済み言語モデル(PLM)で行うが、生成は事前学習済み言語モデル(LSTM)で行う。LSTMは文生成の初期値を入力に入力するが、LSTMは文生成の初期値を入力に入力する。LSTMは文生成の初期値を入力に入力するが、LSTMは入力に入力する文を入力にしない。
- Continuous Entailment Patterns for Lexical Inference in Context
- Martin Schmitt, Hinrich Schütze
- TLDR: 自然言語処理で、テキストを学習する際の事前学習方法についてまとめた研究。事前学習は事前学習済み言語モデルの学習済み単語をベースに、テキストをベースに学習する。事前学習はテキストをベースに、テキストをベースに学習する。事前学習はテキストをベースに、テキストベースの学習はテキストベースの学習に置き換える。
- Numeracy enhances the Literacy of Language Models
- Avijit Thawani, Jay Pujara, Filip Ilievski
- TLDR: 自然言語処理で、数値表現の予測精度を計測する手法の提案。数値表現は通常の数値表現と同等の精度が得られるが、数値表現の予測精度は通常の数値表現と同等の精度が得られる。数値表現の予測精度は通常の数値表現と同等の精度が得られるが、数値表現の予測精度は通常の数値表現と同等の精度が得られる。
- Students Who Study Together Learn Better: On the Importance of Collective Knowledge Distillation for Domain Transfer in Fact Verification
- Mitch Paul Mithun, Sandeep Suntwal, Mihai Surdeanu
- TLDR: 事前学習済みモデルの知識を蒸留する手法の提案。事前学習済みモデルは、事前学習済みモデルの知識を蒸留する。蒸留は、事前学習済みモデルの知識を蒸留する形で行う。蒸留は、事前学習済みモデルの知識を蒸留する形で行う。蒸留は、事前学習済みモデルの知識を蒸留する形で行う。
- MultiEURLEX - A multi-lingual and multi-label legal document classification dataset for zero-shot cross-lingual transfer
- Ilias Chalkidis, Manos Fergadiotis, Ion Androutsopoulos
- TLDR: マルチ言語対応の翻訳モデルの提案。翻訳モデルは、翻訳文書を翻訳する際、翻訳文書のタイトルを英語と翻訳文書のタイトルを英語に置き換える形で学習する。この時、翻訳文書のタイトルは英語で、文書のタイトルは翻訳文書のタイトルを英語に置き換える形で学習する。
- Joint Passage Ranking for Diverse Multi-Answer Retrieval
- Sewon Min, Kenton Lee, Ming-Wei Chang, Kristina Toutanova, Hannaneh Hajishirzi
- TLDR: マルチ質問対応のモデルで、複数文書を同時に検索する研究。複数文書を検索する際、各文書のEncode結果を結合して再帰的に学習する。Encode結果は、複数文書を同時に検索するより精度が上がる。
- Generative Context Pair Selection for Multi-hop Question Answering
- Dheeru Dua, Cicero Nogueira dos Santos, Patrick Ng, Ben Athiwaratkun, Bing Xiang, Matt Gardner, Sameer Singh
- TLDR: マルチホップのQAで、事前学習済みモデルが予測できなかった潜在表現を生成する手法の提案。予測した潜在表現を、予測結果から生成する。予測結果から生成した潜在表現を、予測結果から生成した潜在表現に置き換える形で生成する。これにより、予測結果を予測するモデルの精度を向上させることができる。
- Synthetic Data Augmentation for Zero-Shot Cross-Lingual Question Answering
- Arij Riabi, Thomas Scialom, Rachel Keraron, Benoît Sagot, Djamé Seddah, Jacopo Staiano
- TLDR: マルチ言語対応のQAモデルを、翻訳モデルに置き換える研究。翻訳モデルは翻訳データの分散を考慮するが、翻訳データの分散は翻訳モデルのパフォーマンスに影響する。そのため、翻訳データの分散を考慮するモデルを導入し、翻訳データの分散を考慮するモデルを導入している。
- Have You Seen That Number? Investigating Extrapolation in Question Answering Models
- Jeonghwan Kim, Giwon Hong, Kyung-min Kim, Junmo Kang, Sung-Hyon Myaeng
- TLDR: 読解モデルが、読解文書中の数字を推論する際、未知数の数字を推論するモデルと同等の性能を発揮するのか検証した研究。既存のモデルは、未知数の数字を推論する際、推論結果を教師なしで学習するが、この教師なし学習では推論結果が得られない。そこで、教師なし学習を前提としたモデルを提案。
- Surface Form Competition: Why the Highest Probability Answer Isn’t Always Right
- Ari Holtzman, Peter West, Vered Shwartz, Yejin Choi, Luke Zettlemoyer
- TLDR: 言語モデルで、複数選択のタスクを解く際に、確率分布を考慮する手法の提案。確率分布は、確率分布の分布を考慮する(確率分布は確率分布の分布を考慮する)ことで、確率分布の分布を考慮する。確率分布の分布を考慮するモデルは、確率分布の分布を考慮するモデルと同等の精度を達成できた。
- Entity-Based Knowledge Conflicts in Question Answering
- Shayne Longpre, Kartik Perisetla, Anthony Chen, Nikhil Ramesh, Chris DuBois, Sameer Singh
- TLDR: 知識の混淆を防ぎつつ、学習時間と環境の差異を考慮したモデルの提案。学習時間と環境の差異は、学習時に得られた知識と異なる場合に発生する。そのため、学習時間と環境の差異を考慮したモデルを構築する。
- Back-Training excels Self-Training at Unsupervised Domain Adaptation of Question Generation and Passage Retrieval
- Devang Kulshreshtha, Robert Belfer, Iulian Vlad Serban, Siva Reddy
- TLDR: 自然言語処理の学習で、学習済みモデルの学習を行わず学習済みモデルの学習を行なった研究。学習済みモデルは学習済みモデルの学習済みモデルと同等の学習データが必要で、学習済みモデルの学習データは学習済みモデルの学習データと同等の精度が必要。学習済みモデルの学習データは学習済みモデルの学習データと同等の精度が必要。
- DWUG: A large Resource of Diachronic Word Usage Graphs in Four Languages
- Dominik Schlechtweg, Nina Tahmasebi, Simon Hengchen, Haim Dubossarsky, Barbara McGillivray
- TLDR: 自然言語処理で、時系列の単語の意味を自動的に推定する研究。時系列の単語を、時系列の単語の意味を予測するアルゴリズムで分類し、そのアルゴリズムで時系列の単語を予測する。時系列の単語を、時系列の単語の意味を予測するアルゴリズムで分類する。
- I Wish I Would Have Loved This One, But I Didn’t – A Multilingual Dataset for Counterfactual Detection in Product Review
- James O’Neill, Polina Rozenshtein, Ryuichi Kiryo, Motoko Kubota, Danushka Bollegala
- TLDR: 商品レビューで、商品レビューの情報を収集する研究。Amazon.comのレビューから、Amazon.comのレビューを抽出するモデルを学習する。Amazon.comのレビューは、Amazon.comのレビューと同等のモデルが使われている。Amazon.comのレビューは、Amazon.comのレビューと同等のモデルが使われている。
- Does It Capture STEL? A Modular, Similarity-based Linguistic Style Evaluation Framework
- Anna Wegmann, Dong Nguyen
- TLDR: 自然言語処理におけるスタイルの評価について、事前学習済みモデルを用いた研究。事前学習済みモデルは、スタイルの評価を行う際に、スタイルの表現を重視する傾向があるかを検証する。事前学習済みモデルは、スタイルの表現を重視する傾向があるかを検証する。
- Evaluating the Morphosyntactic Well-formedness of Generated Texts
- Adithya Pratapa, Antonios Anastasopoulos, Shruti Rijhwani, Aditi Chaudhary, David R. Mortensen, Graham Neubig, Yulia Tsvetkov
- TLDR: 自然言語処理で、文の表現を生成するモデルの評価手法の提案。文の表現を生成するモデルは、文の依存構造から文の表現を生成する。文の表現は、文の表現を生成するモデルの表現から生成する。文の表現は、文の表現を生成するモデルの表現から生成する。
- AM2iCo: Evaluating Word Meaning in Context across Low-Resource Languages with Adversarial Examples
- Qianchu Liu, Edoardo Maria Ponti, Diana McCarthy, Ivan Vulić, Anna Korhonen
- TLDR: マルチ言語の表現学習モデルの提案。単語の意味を推定するタスクを、マルチ言語の表現学習モデルで行い、各言語の表現学習モデルが、マルチ言語の表現学習モデルにどれだけ近いかを検証している。
- CrossFit: A Few-shot Learning Challenge for Cross-task Generalization in NLP
- Qinyuan Ye, Bill Yuchen Lin, Xiang Ren
- TLDR: 教師なし学習で、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには、教師なし学習の学習率を上げるためには
- On the Influence of Masking Policies in Intermediate Pre-training
- Qinyuan Ye, Belinda Z. Li, Sinong Wang, Benjamin Bolte, Hao Ma, Wen-tau Yih, Xiang Ren, Madian Khabsa
- TLDR: 事前学習済みモデルで、事前学習済みモデルのパフォーマンスを上げるための手法をまとめた研究。事前学習済みモデルのパフォーマンスは、事前学習済みモデルのパフォーマンスと同等の結果が得られるか検証している。事前学習済みモデルのパフォーマンスは、事前学習済みモデルのパフォーマンスと同等の結果が得られるか検証している。
- ValNorm Quantifies Semantics to Reveal Consistent Valence Biases Across Languages and Over Centuries
- Autumn Toney, Aylin Caliskan
- TLDR: 自然言語処理で、人種分類の単語を抽出する研究。単語のベクトルを入力として、人種分類の単語を抽出する。ベクトルは単語のベクトルと同等か、それ以上の単語を入力として抽出する。ベクトルは単語のベクトルと同等か、それ以上の単語を入力として抽出する。
- Perturbation CheckLists for Evaluating NLG Evaluation Metrics
- Ananya B. Sai, Tanay Dixit, Dev Yashpal Sheth, Sreyas Mohan, Mitesh M. Khapra
- TLDR: 自然言語処理の評価指標を自動評価するフレームワークの提案。自動評価は、評価結果と評価結果の相関が低いものに限界がある。そのため、評価結果と評価結果の相関が低いものに限界がある。このため、評価結果と評価結果の相関が低いものに限界があるフレームワークを提案している。
- Robust Open-Vocabulary Translation from Visual Text Representations
- Elizabeth Salesky, David Etter, Matt Post
- TLDR: 自然言語処理で、画像を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を入力とし、入力と入力の単語を
- Don’t Go Far Off: An Empirical Study on Neural Poetry Translation
- Tuhin Chakrabarty, Arkadiy Saakyan, Smaranda Muresan
- TLDR: 自然言語処理で、翻訳モデルの重みを調整する手法の提案。重みは、翻訳モデルの重みと同等のモデルの重みを入力として、重みの入力を入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし重みを入力とし
- Improving Multilingual Translation by Representation and Gradient Regularization
- Yilin Yang, Akiko Eriguchi, Alexandre Muzio, Prasad Tadepalli, Stefan Lee, Hany Hassan
- TLDR: マルチ言語の翻訳で、事前学習済みモデルを学習する際、事前学習済みモデルの学習率を維持する手法を提案。事前学習済みモデルは学習率が低い言語を予測するタスクを学習するが、事前学習済みモデルは予測する言語の予測精度が低い言語を予測するタスクを学習する。事前学習済みモデルは学習率が低い言語を予測するタスクを学習する
- Learning Kernel-Smoothed Machine Translation with Retrieved Examples
- Qingnan Jiang, Mingxuan Wang, Jun Cao, Shanbo Cheng, Shujian Huang, Lei Li
- TLDR: 翻訳モデルを自動更新する手法の提案。翻訳モデルの更新は、翻訳データセットの更新と同等の困難な課題がある。更新は、翻訳データセットの更新と同等の困難な課題がある。更新は、翻訳データセットの更新と同等の困難な課題がある。更新は、更新したモデルの更新と同等の困難な課題がある。更新は、更新したモデルの更新と同等の困難な課題がある。
- Uncertainty-Aware Balancing for Multilingual and Multi-Domain Neural Machine Translation Training
- Minghao Wu, Yitong Li, Meng Zhang, Liangyou Li, Gholamreza Haffari, Qun Liu
- TLDR: マルチドメインの翻訳モデルで、学習データの分布を調整する手法の提案。学習データの分布を調整する際は、学習データの分布を予測するモデルを使用。分布は分布の分布を予測するモデルと、分布の分布を予測するモデルの2つに分けている。分布は分布分布の分布を予測するモデルで、分布は分布分布の分布を予測するモデルで学習する。
- Universal Simultaneous Machine Translation with Mixture-of-Experts Wait-k Policy
- Shaolei Zhang, Yang Feng
- TLDR: 機械翻訳において、翻訳の精度と生成速度を同時に評価する研究。翻訳の生成は、翻訳文の文長が短い場合(長くなると生成速度が下がる)、長くなると生成速度が下がる場合(長くなると生成速度が下がる)、生成速度を調整する。生成速度は、生成速度の調整に使用する重みを調整する重みをベースにしている。
- How much coffee was consumed during EMNLP 2019? Fermi Problems: A New Reasoning Challenge for AI
- Ashwin Kalyan, Abhinav Kumar, Arjun Chandrasekaran, Ashish Sabharwal, Peter Clark
- TLDR: 自然言語処理で、複雑な質問を解くための研究。質問はシンプルな質問と、複雑な質問は複雑な質問の2つに分けて扱われる。質問はシンプルな質問と、複雑な質問は複雑な質問の2つに分けて扱われる。複雑な質問は複雑な質問と、複雑な質問は複雑な質問の2つに分けて扱われる。複雑な質問は複雑な質問と、複雑な質問は複雑な質問の2つに分けて扱われる。
- Will this Question be Answered? Question Filtering via Answer Model Distillation for Efficient Question Answering
- Siddhant Garg, Alessandro Moschitti
- TLDR: 質問回答システムの精度を向上させるために、質問文を蒸留して質問モデルを学習する研究。蒸留は質問文を蒸留する際の重みを蒸留するモデルをベースに、蒸留した質問文を蒸留したモデルに入力する。蒸留は質問文を蒸留するモデルをベースに、蒸留した質問文を蒸留したモデルに入力する。蒸留は質問文を蒸留するモデルをベースに行う。
- Learning with Instance Bundles for Reading Comprehension
- Dheeru Dua, Pradeep Dasigi, Sameer Singh, Matt Gardner
- TLDR: 読解モデルの学習時に、質問と回答の類似度を比較する手法の提案。質問と回答の類似度は、質問と回答の類似度と同等か同等か、質問と回答の類似度は同等かを比較する。既存の手法は、質問と回答の類似度を比較するモデルを構築するが、このモデルは、質問と回答の類似度を比較するモデルを構築する必要があった。
- Explaining Answers with Entailment Trees
- Bhavana Dalvi, Peter Jansen, Oyvind Tafjord, Zhengnan Xie, Hannah Smith, Leighanna Pipatanangkura, Peter Clark
- TLDR: 質問回答に対する説明を生成する研究。質問と回答の要約を入力に入力し、要約の要約を生成する。要約は要約の要約から生成するが、要約は要約の要約から生成する。要約は要約の要約から生成するが、要約は要約の要約から生成する。要約は要約の要約から生成する。
- SituatedQA: Incorporating Extra-Linguistic Contexts into QA
- Michael Zhang, Eunsol Choi
- TLDR: オープンソースのQAベンチマークで、事前学習済みモデルが回答する質問に対する対応を検証した研究。事前学習済みモデルは、質問に対する対応が異なる場合に回答が異なると判断する。事前学習済みモデルは、質問に対する対応が異なる場合に回答が異なると判断する。事前学習済みモデルは、質問に対する対応が異なる場合に回答が異なると判断する。
- ConvAbuse: Data, Analysis, and Benchmarks for Nuanced Abuse Detection in Conversational AI
- Amanda Cercas Curry, Gavin Abercrombie, Verena Rieser
- TLDR: 対話システムに対する不当な文言の分布を調査した研究。既存の対話システムは、不当な文言を頻繁に使用する傾向があるが、この傾向は対話システムの学習データで確認できた。不当な文言は、学習データで収集したモデルの学習データに近い傾向がある。
- Conversational Multi-Hop Reasoning with Neural Commonsense Knowledge and Symbolic Logic Rules
- Forough Arabshahi, Jennifer Lee, Antoine Bosselut, Yejin Choi, Tom Mitchell
- TLDR: 対話システムで、ユーザーの指示に従う際に、その根拠となる行動を推論する研究。行動は、行動の根拠となる行動を推論する。行動は、行動の根拠となる行動を推論する。行動は、行動の根拠となる行動を推論する。行動は、行動の根拠となる行動を推論する。行動は、行動の根拠となる行動を推論する。
- Towards Automatic Evaluation of Dialog Systems: A Model-Free Off-Policy Evaluation Approach
- Haoming Jiang, Bo Dai, Mengjiao Yang, Tuo Zhao, Wei Wei
- TLDR: 対話システムの自動評価を行うための新しいフレームワークの提案。事前学習済みモデルの経験値を入力として、対話システムの評価結果を入力として入力する。対話システムの評価結果は、対話システムのパフォーマンスと対話システムのパフォーマンスのペアとなる。
- Continual Learning in Task-Oriented Dialogue Systems
- Andrea Madotto, Zhaojiang Lin, Zhenpeng Zhou, Seungwhan Moon, Paul Crook, Bing Liu, Zhou Yu, Eunjoon Cho, Pascale Fung, Zhiguang Wang
- TLDR: タスクに応じた対話システムの学習方法を検証した研究。タスクごとに学習するネットワークを個別に学習するのではなく、タスクごとに学習するネットワークを個別に学習する形で行う。タスクごとに学習するネットワークを個別に学習するネットワークと、タスクごとに学習するネットワークを個別に学習するネットワークの2つに分けて学習する。
- Multilingual and Cross-Lingual Intent Detection from Spoken Data
- Daniela Gerz, Pei-Hao Su, Razvan Kusztos, Avishek Mondal, Michał Lis, Eshan Singhal, Nikola Mrkšić, Tsung-Hsien Wen, Ivan Vulić
- TLDR: マルチ言語の文生成を、事前学習済みモデルとマルチ言語の文生成モデルで行う研究。マルチ言語の文生成モデルは、文の意味を予測するだけでなく、文の意味を予測する潜在表現を生成するモデルも提供している。文生成モデルは、文の意味を予測する潜在表現を生成するモデルと同等の精度を維持している。
- Investigating Robustness of Dialog Models to Popular Figurative Language Constructs
- Harsh Jhamtani, Varun Gangal, Eduard Hovy, Taylor Berg-Kirkpatrick
- TLDR: 対話システムで、自然言語処理を学習する際の課題として、自然言語処理のモデルが現実世界で使用できるかを検証した研究。自然言語処理のモデルは、自然言語処理のモデルと同等の性能を発揮するが、現実世界で使用する言語モデルは、自然言語処理のモデルと同等の性能を発揮する。
- Effective Sequence-to-Sequence Dialogue State Tracking
- Jeffrey Zhao, Mahdis Mahdieh, Ye Zhang, Yuan Cao, Yonghui Wu
- TLDR: 対話システムで事前学習を行う際に、事前学習の目的と事前学習の手法をまとめた研究。事前学習は事前学習の目的と異なる場合に、事前学習の目的と異なる文書を予測する。事前学習は、事前学習の目的と異なる文書を予測する。事前学習は、文書の長さ予測を学習するモデルで行う。
- MSˆ2: Multi-Document Summarization of Medical Studies
- Jay DeYoung, Iz Beltagy, Madeleine van Zuylen, Bailey Kuehl, Lucy Wang
- TLDR: 医療文書から、臨床研究の概要を抽出する研究。文書から抽出する文書は、臨床研究の概要をまとめた文書(論文)と、臨床研究の概要をまとめた文書(論文)の2つに分けている。文書から文書を抽出する際、文書の概要を文書単位で入力し、文書単位で文書を抽出する。文書単位で文書を抽出する際、文書単位の文書を入力とし、文書単位で文書を抽出する。
- CLIPScore: A Reference-free Evaluation Metric for Image Captioning
- Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Le Bras, Yejin Choi
- TLDR: 機械翻訳で画像を評価する手法の提案。画像のタイトル/画像の画像特徴を入力に入力し、画像特徴とテキスト特徴を入力に入力する。画像特徴とテキスト特徴を入力に入力するCLIPScoreをベースに、画像特徴とテキスト特徴双方を入力に入力するReference Augmentationを導入している。
- On the Challenges of Evaluating Compositional Explanations in Multi-Hop Inference: Relevance, Completeness, and Expert Ratings
- Peter Jansen, Kelly J. Smith, Dan Moreno, Huitzilin Ortiz
- TLDR: 自然言語処理モデルの説明が、単なる単なる説明に劣る問題点を発見した研究。単なる単なる説明だけでなく、単なる単なる説明だけでなく、単なる単なる説明の組み合わせが、単なる説明の劣化に繋がる可能性があることを発見。単なる単なる組み合わせだけでなく、単なる組み合わせだけでなく、単なる組み合わせだけでなく、組み合わせの組み合わせが劣る場合に、単なる組み合わせだけでなく、組み合わせの組み合わせが劣る場合に、組み合わせの組み合わせが劣る場合に、組み合わせの組み合わせが劣る場合に、組み合わせの組み合わせが劣る場合に、組み合わせの組み合わせが劣る場合に、組み合わせの組み合わせが劣る場合に、組み合わせの
- ESTER: A Machine Reading Comprehension Dataset for Reasoning about Event Semantic Relations
- Rujun Han, I-Hung Hsu, Jiao Sun, Julia Baylon, Qiang Ning, Dan Roth, Nanyun Peng
- TLDR: 機械翻訳で、イベント関連の文を予測する研究。文の意味を予測するモデルを用いて、イベント関連の文を予測する。文の意味を予測するモデルは、文の意味を予測するモデルと同等の精度を維持できるが、文の意味を予測するモデルは、文の意味を予測するモデルと同等の精度を維持できない。
- RICA: Evaluating Robust Inference Capabilities Based on Commonsense Axioms
- Pei Zhou, Rahul Khanna, Seyeon Lee, Bill Yuchen Lin, Daniel Ho, Jay Pujara, Xiang Ren
- TLDR: 自然言語処理で、通常の推論手法を上回る精度を達成した研究。通常の推論手法は、通常の推論結果と異なる箇所を予測するが、この場合、通常の推論結果と異なる箇所を予測する。このため、通常の推論手法を上回る精度を達成できたという。
- Compression, Transduction, and Creation: A Unified Framework for Evaluating Natural Language Generation
- Mingkai Deng, Bowen Tan, Zhengzhong Liu, Eric Xing, Zhiting Hu
- TLDR: 自然言語処理のタスクを評価する指標の提案。タスクによって評価指標が異なるが、通常の評価指標と同等の精度を達成できた。タスクの分類は、タスクの分類結果から生成されたテキストを生成する。生成結果は、生成されたテキストのテキスト分類結果と同等の精度を達成できた。
- MATE: Multi-view Attention for Table Transformer Efficiency
- Julian Eisenschlos, Maharshi Gor, Thomas Müller, William Cohen
- TLDR: 文書中のテーブルを、シンプルなTransformerでモデル化した研究。テーブルの重みを、テーブルの列を列の重みに置き換えた重みに置き換えた重みをベースに、テーブルの列を列の列に置き換えた重みに置き換えた重みをベースにしている。重みは、テーブルの列を列の列に置き換えた重みに置き換えた重みをベースにしている。
- Learning with Different Amounts of Annotation: From Zero to Many Labels
- Shujian Zhang, Chengyue Gong, Eunsol Choi
- TLDR: 自然言語処理で、複数ラベルのモデルを学習する研究。ラベル数が多いモデルは学習率が上がる一方、ラベル数が多いモデルは学習率が下がる。そのため、ラベル数が多いモデルを学習させる手法を提案。ラベル数が多いモデルは学習率が下がる一方、ラベル数が多いモデルは学習率が下がる。
- When Attention Meets Fast Recurrence: Training Language Models with Reduced Compute
- Tao Lei
- TLDR: 言語モデルの学習効率を上げるために、モデルの重みを軽量化する手法の提案。重みはTransformerベースのモデルと同等の重みを持たせることで、学習コストを削減する。重みはTransformerベースのモデルと同等の重みを持たせることで、学習効率を上げている。
- Universal-KD: Attention-based Output-Grounded Intermediate Layer Knowledge Distillation
- Yimeng Wu, Mehdi Rezagholizadeh, Abbas Ghaddar, Md Akmal Haidar, Ali Ghodsi
- TLDR: 教師と生徒のネットワークを結合する研究。教師と生徒のネットワークは、学習データの分布が異なるため、教師と生徒のネットワークを結合するネットワークを追加する。このネットワークを、教師と生徒のネットワークを結合するネットワークに置き換える形で行う。
- Highly Parallel Autoregressive Entity Linking with Discriminative Correction
- Nicola De Cao, Wilker Aziz, Ivan Titov
- TLDR: 既存のEntity Discriminatorと同等のEntity Linkingを、Entity Linkingのモデルで行う手法の提案。Entity DiscriminatorはEntity Linkingのモデルで、Entity LinkingはEntity Linkingのモデルで行う。Entity LinkingはEntity Linkingのモデルで行う。Entity LinkingはEntity Linkingのモデルで行う。
- Word-Level Coreference Resolution
- Vladimir Dobrovolskii
- TLDR: 文書の文書構造を、文書の文書構造と異なる文書に変換する研究。文書構造は文書の文書構造と異なる文書に変換する。文書構造は文書の文書構造と異なる文書に変換する。文書構造は文書の文書構造と異なる文書に変換する。文書構造は文書の文書構造と異なる文書に変換する。文書構造は文書構造と異なる文書に変換する。文書構造は文書構造と異なる文書に変換する。文書構造は文書構造と異なる文書に変換する。文書構造は文書構造と異なる文書を識別する。文書構造は文書構造と異なる文書を識別する。文書構造は文書構造と異なる文書を識別する。文書
- A Secure and Efficient Federated Learning Framework for NLP
- Chenghong Wang, Jieren Deng, Xianrui Meng, Yijue Wang, Ji Li, Sheng Lin, Shuo Han, Fei Miao, Sanguthevar Rajasekaran, Caiwen Ding
- TLDR: 分散表現の学習で、ネットワークの信頼済みエージェントを保護する手法の提案。ネットワークの信頼済みエージェントは、ネットワークのネットワークを保護するネットワークに置き換える。ネットワークの信頼済みエージェントは、ネットワークのネットワークを保護するネットワークに置き換える。ネットワークのネットワークを保護するネットワークを構築する。
- Controllable Semantic Parsing via Retrieval Augmentation
- Panupong Pasupat, Yuan Zhang, Kelvin Guu
- TLDR: 事前学習済みモデルを、既存のモデルに変更する手法の提案。既存のモデルは、既存の予測結果を更新する際、既存予測結果を更新したモデルに変更を加える(更新したモデルは更新する)。更新したモデルは、更新したモデルの予測結果を更新する。
- Constrained Language Models Yield Few-Shot Semantic Parsers
- Richard Shin, Christopher Lin, Sam Thomson, Charles Chen, Subhro Roy, Emmanouil Antonios Platanios, Adam Pauls, Dan Klein, Jason Eisner, Benjamin Van Durme
- TLDR: 自然言語処理で、翻訳モデルを用いた事前学習済みモデルの提案。翻訳モデルは、翻訳結果を翻訳データに変換する。翻訳データは、翻訳結果を翻訳データに変換する際の入力と、翻訳データに変換する際の入力を入力とする。入力は、翻訳データに変換する際の入力と、入力データに変換する際の入力を入力とする。
- ExplaGraphs: An Explanation Graph Generation Task for Structured Commonsense Reasoning
- Swarnadeep Saha, Prateek Yadav, Lisa Bauer, Mohit Bansal
- TLDR: 説明文の生成を行う際に、モデルの説明力がどう評価されるかを検証した研究。モデルは、説明文の構造と説明文の表現をそれぞれ個別に評価する。この評価は、説明文の構造と表現のバランスを考慮する。また、説明文の表現が人手評価に近いかを検証する。
- Connect-the-Dots: Bridging Semantics between Words and Definitions via Aligning Word Sense Inventories
- Wenlin Yao, Xiaoman Pan, Lifeng Jin, Jianshu Chen, Dian Yu, Dong Yu
- TLDR: 単語の意味を予測する研究。単語の意味を予測するモデルは、単語の単語分散表現を予測するモデルと、単語の分散表現を予測する単語分散表現を予測するモデルの2つを組み合わせている。単語分散表現は、単語の分散表現を予測するモデルと、単語分散表現を予測するモデルの2つを組み合わせている。
- LM-Critic: Language Models for Unsupervised Grammatical Error Correction
- Michihiro Yasunaga, Jure Leskovec, Percy Liang
- TLDR: 文の誤差を検出する手法の提案。文の誤差を検出するモデルを、文の誤差を検出するモデルと、文の誤差を検出するモデルの2つに分け、文の誤差を検出するモデルをそれぞれ別々に作成し、モデルの作成時に文の誤差を検出するモデルを使用。
- Language-agnostic Representation from Multilingual Sentence Encoders for Cross-lingual Similarity Estimation
- Nattapong Tiyajamorn, Tomoyuki Kajiwara, Yuki Arase, Makoto Onizuka
- TLDR: マルチ言語の文を翻訳する際、翻訳文の文長を短くする研究。文長は単語長ではなく、単語長の文長を入力とする。単語長は単語長の文長を入力とする。単語長は単語長の文長を入力とする。単語長は単語長の文長を入力とする。単語長は単語長の文長を入力とする。
- Classifying Dyads for Militarized Conflict Analysis
- Niklas Stoehr, Lucas Torroba Hennigen, Samin Ahbab, Robert West, Ryan Cotterell
- TLDR: 敵対的対話と、マルチエージェントの関係を調べた研究。敵対的対話は、敵対的同士の対話と同等の意味を持つが、マルチエージェント同士の対話は、敵対的同士の対話と同等意味を持つ。マルチエージェント同士の対話は、敵対的同士の対話と同等意味を持つ。
- Point-of-Interest Type Prediction using Text and Images
- Danae Sánchez Villegas, Nikolaos Aletras
- TLDR: 自然言語処理で、投稿から投稿文の画像を予測する研究。画像はテキストのみでなく、画像から投稿文を予測する。画像は画像から投稿文を予測するだけでなく、画像から投稿文を予測するモデルも提案している。
- Come hither or go away? Recognising pre-electoral coalition signals in the news
- Ines Rehbein, Simone Paolo Ponzetto, Anna Adendorf, Oke Bahnsen, Lukas Stoetzer, Heiner Stuckenschmidt
- TLDR: 政治家/ジャーナリストの言説から、政府の提案する提言を予測するタスクを提案。ニュース記事から、提言の意図と異なる記事が載った場合、その記事の意図と異なる記事の意図を予測するタスクを提案する。文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書から、文書
- #HowYouTagTweets: Learning User Hashtagging Preferences via Personalized Topic Attention
- Yuji Zhang, Yubo Zhang, Chunpu Xu, Jing Li, Ziyan Jiang, Baolin Peng
- TLDR: ツリーの検索結果を予測する研究。ツリーの検索結果は、ユーザーの過去の投稿から予測する。ツリーの検索結果は、ユーザーの過去の投稿から予測する。ツリーの検索結果は、ツリーの更新頻度から予測する。ツリーの更新頻度は、ツリーの更新頻度とツリーの更新頻度の2つから予測する。ツリーの更新頻度は、ツリー更新頻度とツリー更新頻度の2つから予測する。
- Learning Neural Templates for Recommender Dialogue System
- Zujie Liang, Huang Hu, Can Xu, Jian Miao, Yingying He, Yining Chen, Xiubo Geng, Fan Liang, Daxin Jiang
- TLDR: 対話システムで、質問に答える際に、質問に答えるアイテムを生成する研究。質問に答えるアイテムは、質問の回答に適したアイテム(=質問の回答に適した質問)を生成する。質問の回答は、質問の回答に適したアイテムを生成するEncoder Decoderモデルを用いている。
- Proxy Indicators for the Quality of Open-domain Dialogues
- Rostislav Nedelchev, Jens Lehmann, Ricardo Usbeck
- TLDR: オープンドメインの対話システムに対する評価手法の提案。対話システムの評価は、事前学習済みモデルの評価と、事前学習済みモデルの評価を組み合わせた評価を交互に行う。事前学習済みモデルの評価は、事前学習済みモデルの評価と同等の精度を維持できるか検証している。
- Q^{2}: Evaluating Factual Consistency in Knowledge-Grounded Dialogues via Question Generation and Question Answering
- Or Honovich, Leshem Choshen, Roee Aharoni, Ella Neeman, Idan Szpektor, Omri Abend
- TLDR: 事前学習済みモデルの質問生成と質問回答を自動評価するモデルの提案。事前学習済みモデルは質問生成時に、質問回答の精度が低いと判断される場合、質問回答を自動評価する。事前学習済みモデルは質問生成時に、質問回答の精度が低い場合、質問回答を自動評価するモデルを採用する。
- Knowledge-Aware Graph-Enhanced GPT-2 for Dialogue State Tracking
- Weizhe Lin, Bo-Hsiang Tseng, Bill Byrne
- TLDR: マルチドメインの対話システムで、対話システムのState Trackingを強化した研究。対話システムのパフォーマンスを上げるために、対話システムのパフォーマンスを上げるためのグラフを追加し、対話システムのパフォーマンスを上げるためのグラフを追加した。
- A Collaborative Multi-agent Reinforcement Learning Framework for Dialog Action Decomposition
- Huimin Wang, Kam-Fai Wong
- TLDR: 強化学習で、マルチエージェントの強化学習を行う研究。マルチエージェントの強化学習は、各エージェントの行動を個別に学習するが、マルチエージェントの学習は複数エージェントの学習を前提としている。マルチエージェントの学習は、各エージェントの行動を個別に学習するのではなく、個別に学習する形で行う。
- Zero-Shot Dialogue State Tracking via Cross-Task Transfer
- Zhaojiang Lin, Bing Liu, Andrea Madotto, Seungwhan Moon, Zhenpeng Zhou, Paul Crook, Zhiguang Wang, Zhou Yu, Eunjoon Cho, Rajen Subba, Pascale Fung
- TLDR: 対話システムにおける事前学習済みモデルの転移を試みた研究。事前学習済みモデルは事前学習済み言語モデルと同等の精度を維持し、事前学習済み言語モデルの学習済みモデルと同等の精度を維持する。事前学習済みモデルは事前学習済み言語モデルと同等の精度を維持するが、事前学習済み言語モデルは学習済み言語モデルの精度を落とす可能性がある。
- Uncertainty Measures in Neural Belief Tracking and the Effects on Dialogue Policy Performance
- Carel van Niekerk, Andrey Malinin, Christian Geishauser, Michael Heck, Hsien-chin Lin, Nurul Lubis, Shutong Feng, Milica Gasic
- TLDR: 対話システムのパフォーマンスを評価する手法の提案。対話システムのパフォーマンスを評価する指標として、対話システムの信頼度(信頼度=対話システムの信頼度)、対話システムの行動予測(行動予測=対話システムの行動予測)、対話システムの行動予測(行動予測=行動予測)を挙げている。
- Dynamic Forecasting of Conversation Derailment
- Yova Kementchedjhieva, Anders Søgaard
- TLDR: 対話システムの予測モデルを、事前学習済みモデルに組み込むことで、予測モデルの精度を上げつつ予測モデルの更新を行わせる試み。事前学習済みモデルは、事前学習済みモデルの予測モデルを予測するモデルに組み込むことで、予測モデルの更新を行わせる。
- A Semantic Filter Based on Relations for Knowledge Graph Completion
- Zongwei Liang, Junan Yang, Hui Liu, Keju Huang
- TLDR: 知識グラフにおける、ネットワークの構造を、ネットワークの構造と異なる3つの組み合わせから予測する手法の提案。ネットワークの構造は、ネットワークの構造と異なる3つの組み合わせから予測する。ネットワークの構造は、ネットワークの構造と異なる3つの組み合わせから予測する。ネットワークの構造は、ネットワークの構造と異なる3つの組み合わせから予測する。
- AdapterDrop: On the Efficiency of Adapters in Transformers
- Andreas Rücklé, Gregor Geigle, Max Glockner, Tilman Beck, Jonas Pfeiffer, Nils Reimers, Iryna Gurevych
- TLDR: 転移学習時に、Transformerの重みを緩和する研究。重みはTransformerの重みと同等に扱えるが、Transformerの重みは転移学習時に使用する。重みはTransformerの重みと同等に扱えるが、Transformerの重みは転移学習時に使用する。Transformerの重みは転移学習時に使用する。
- Understanding and Overcoming the Challenges of Efficient Transformer Quantization
- Yelysei Bondarenko, Markus Nagel, Tijmen Blankevoort
- TLDR: 自然言語処理における、Transformerの学習方法についてまとめた研究。Transformerは、学習時に重みを計算する重みが低いため、重みの計算は学習済みモデルで行う。重みの計算は、学習済みモデルの重みを計算する重みを計算する重みと、重みの計算を学習済みモデルの重みに合わせる重みの2つに分けている。
- CAPE: Context-Aware Private Embeddings for Private Language Learning
- Richard Plant, Dimitra Gkatzia, Valerio Giuffrida
- TLDR: 自然言語処理でプライバシーを保護する手法の提案。テキストの表現を、クラスタリングの手法と同等の手法で学習する。クラスタリングは、テキストの表現をクラスタリングしたテキストと同等の手法で学習する。クラスタリングは、クラスタリングの結果を基に学習する。クラスタリングは、クラスタリングの結果を基に学習する。
- Text Detoxification using Large Pre-trained Neural Models
- David Dale, Anton Voronov, Daryna Dementieva, Varvara Logacheva, Olga Kozlova, Nikita Semenov, Alexander Panchenko
- TLDR: 自然言語処理で、toxicityを除去する手法の提案。事前学習済み言語モデルをベースに、BERTをベースに、BERTをベースに自然言語処理を行なっている。BERTは、自然言語処理のモデルと同等のモデルで、BERTはBERTベースのモデルで、BERTベースのモデルはBERTベースのモデルで、BERTベースのモデルはBERTベースのモデルで、BERTベースのモデルはBERTベースのモデルで、BERTベースのモデルはBERTベースのモデルで、BERTベースのモデルはBERTベースのモデルで、BERTベースのモデルはBERTベースのモデルで、BERT
- Document-Level Text Simplification: Dataset, Criteria and Baseline
- Renliang Sun, Hanqi Jin, Xiaojun Wan
- TLDR: 文書構造を簡素化する研究。文書の構造を簡素化するモデルをWikipediaのDropoutで作成し、Wikipediaのモデルを評価する。Wikipediaのモデルは、文書構造を簡素化するモデルと、文書構造を簡素化するモデルの2つを比較している。文書構造を簡素化するモデルは、文書構造を簡素化するモデルと、文書構造を簡素化するモデルの2つを比較している。
- A Bag of Tricks for Dialogue Summarization
- Muhammad Khalifa, Miguel Ballesteros, Kathleen McKeown
- TLDR: 文書要約の手法を、マルチスケールで学習する手法の提案。文書要約は文書全体ではなく、文書の各部分を要約する形で行われることが多いが、要約は要約の要約を要約する形で行われることが多い。要約は要約の要約と同等の要約を要約の要約に使用する。
- Paraphrasing Compound Nominalizations
- John Lee, Ho Hung Lim, Carol Webster
- TLDR: 自然言語処理で、ある単語を「ノード」と表現する表現を生成する研究。ノードは「ノード」の意味を含まない単語を「ノード」と表現する。ノードは「ノード」の意味を含まない単語を「ノード」と表現する。ノードは「ノード」の意味を含まない単語を表現する。
- Data-QuestEval: A Referenceless Metric for Data-to-Text Semantic Evaluation
- Clement Rebuffel, Thomas Scialom, Laure Soulier, Benjamin Piwowarski, Sylvain Lamprier, Jacopo Staiano, Geoffrey Scoutheeten, Patrick Gallinari
- TLDR: テキストからデータの抽出を行う際に、複数言語のタスクを想定した研究。タスクは複数言語の文書を入力とするが、タスクの重みは複数言語の文書を入力とする。タスクは文書の文書構造を学習する。タスクは文書の文書構造を学習する。
- Low-Rank Subspaces for Unsupervised Entity Linking
- Akhil Arora, Alberto Garcia-Duran, Robert West
- TLDR: 文書中のEntityを、文書のEntityのラベルに置き換える研究。Entityのラベルは文書中のEntityのラベルと、文書のEntityのラベルの2つを入力とする。文書中のEntityは文書のEntityと同等の扱いになるが、文書のEntityは文書のEntityと同等の扱いになる。文書のEntityは文書のEntityと同等の扱いになる。
- TDEER: An Efficient Translating Decoding Schema for Joint Extraction of Entities and Relations
- Xianming Li, Xiaotian Luo, Chenghao Dong, Daichuan Yang, Beidi Luan, Zhen He
- TLDR: 文中の3つの単語を、文の中の3つの単語に分割し、それらの単語から3つの単語を抽出する研究。単語の抽出は、単語の単語分散表現を予測する形で行う。単語分散表現は、単語の分散表現を予測する形で行う。
- Extracting Event Temporal Relations via Hyperbolic Geometry
- Xingwei Tan, Gabriele Pergola, Yulan He
- TLDR: 自然言語処理における、イベントの時系列関係を推定する研究。時系列関係は、空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の空間上の
- Honey or Poison? Solving the Trigger Curse in Few-shot Event Detection via Causal Intervention
- Jiawei Chen, Hongyu Lin, Xianpei Han, Le Sun
- TLDR: 事前学習済みモデルのFew-shotの予測で、過適合を防ぐ手法の提案。事前学習済みモデルの予測結果を基に、事前学習済みモデルの予測結果を基に予測を行う。事前学習済みモデルの予測結果を基に、予測結果を基に予測を行う。事前学習済みモデルの予測結果を基に、事前学習済みモデルの予測結果を基に予測を行う。
- Back to the Basics: A Quantitative Analysis of Statistical and Graph-Based Term Weighting Schemes for Keyword Extraction
- Asahi Ushio, Federico Liberatore, Jose Camacho-Collados
- TLDR: 自然言語処理における単語抽出の手法について、実装と実装の比較を行った研究。実装は、単語抽出のモデルと、単語抽出のモデルの2つ。単語抽出は、単語の意味を予測する指標として使用されるが、単語の意味を予測する指標は、単語の意味を予測する指標として使用される。実装は、単語抽出のモデルと、単語抽出のモデルの2つを比較している。
- Time-dependent Entity Embedding is not All You Need: A Re-evaluation of Temporal Knowledge Graph Completion Models under a Unified Framework
- Zhen Han, Gengyuan Zhang, Yunpu Ma, Volker Tresp
- TLDR: 事前学習済みの構造を、事前学習済みの構造に組み込んだ研究。事前学習済み構造は、事前学習済み構造の重みを計算する重みを計算する重みを計算する重みと、重みの計算結果を計算する重みを計算する重みを計算する重みを計算する重みを計算する重みとで構成されている。重みは重みの計算結果を計算する重みと重みの計算結果を計算する重みをそれぞれ計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重み
- Matching-oriented Embedding Quantization For Ad-hoc Retrieval
- Shitao Xiao, Zheng Liu, Yingxia Shao, Defu Lian, Xing Xie
- TLDR: 事前学習済みモデルと同等の精度を達成するために、事前学習済みモデルの学習を組み合わせた研究。事前学習済みモデルは、事前学習済みモデルの学習率を上回る精度を達成するため、事前学習済みモデルの学習率を上回る精度を達成するために、事前学習済みモデルの学習率を上回る精度を達成するために、事前学習済みモデルの学習率を上回る精度を達成するために、事前学習済みモデルの学習率を上回る精度を達成するために、事前学習済みモデルの学習率を上回る精度を達成するために、事前学習済みモデルの学習率を上回る精度を達成するために、事前学習済みモデルの学習
- Efficient Mind-Map Generation via Sequence-to-Graph and Reinforced Graph Refinement
- Mengting Hu, Honglei Guo, Shiwan Zhao, Hang Gao, Zhong Su
- TLDR: 文書から、自然言語処理で生成したグラフを生成する研究。文書のタイトル/本文/タイトルの順番を入力としてグラフを生成する。文書のタイトル/本文/本文順番を入力としてグラフを生成する。文書のタイトル/本文順番は、文書のタイトル/本文順番を入力として生成する。文書の文書構造を、文書構造を入力とし、文書構造を入力とし生成する。
- Deep Attention Diffusion Graph Neural Networks for Text Classification
- Yonghao Liu, Renchu Guan, Fausto Giunchiglia, Yanchun Liang, Xiaoyue Feng
- TLDR: 文書分類を行う際に、文書の重みをDifffusion Graph Neural Network(DADGNN)で調整する研究。重みはAttention Diffusion Graph Neural Network(DADGNN)で、文書の重みはAttention Diffusion Graph Neural Network(DADGNN)で学習する。文書の重みは、文書の文書特徴を考慮した重みを算出する。
- Balancing Methods for Multi-label Text Classification with Long-Tailed Class Distribution
- Yi Huang, Buse Giledereli, Abdullatif Köksal, Arzucan Özgür, Elif Ozkirimli
- TLDR: マルチラベルの文書分類において、ラベル依存を解消する手法の提案。ラベル依存はクラス分布の崩壊に繋がるが、ラベル依存はクラス分布の崩壊に繋がる。そのため、ラベル依存を解消する手法を提案している。ラベル依存を解消する手法は、ラベル依存を解消するだけでなくラベル依存を抑制する手法も取り入れている。
- Bayesian Topic Regression for Causal Inference
- Maximilian Ahrens, Julian Ashwin, Jan-Peter Calliess, Vu Nguyen
- TLDR: 自然言語処理で、テキストと自然言語の情報を組み合わせてモデルを作成する研究。テキストと自然言語の情報を組み合わせてモデルを作成し、テキストと自然言語の情報を組み合わせたモデルをベースにモデルを構築する。テキストと自然言語の情報を組み合わせたモデルは、自然言語処理の精度が向上し、精度が向上する。
- Enjoy the Salience: Towards Better Transformer-based Faithful Explanations with Word Salience
- George Chrysostomou, Nikolaos Aletras
- TLDR: 自然言語処理で、事前学習済みモデルの説明が「事実」に近いか検証した研究。事前学習済みモデルは、事前学習済みモデルの説明が「事実」に近いかを検証する。事前学習済みモデルは、事前学習済みモデルの説明が「事実」に近いかを検証する。事前学習済みモデルは、事前学習済みモデルの説明が「事実」に近いかを検証する。
- What’s in Your Head? Emergent Behaviour in Multi-Task Transformer Models
- Mor Geva, Uri Katz, Aviv Ben-Arie, Jonathan Berant
- TLDR: マルチタスク学習で、事前学習済み言語モデルの挙動を検証した研究。事前学習済みモデルは、事前学習済みのタスクを予測するネットワークを生成する。タスクの予測結果は、事前学習済みモデルの挙動と一致する。タスクの挙動は、事前学習済みモデルの挙動と一致する。
- Don’t Search for a Search Method — Simple Heuristics Suffice for Adversarial Text Attacks
- Nathaniel Berger, Stefan Riezler, Sebastian Ebert, Artem Sokolov
- TLDR: 自然言語処理におけるAdversarial Attackに対する研究。検索空間を絞り込む手法は、検索空間の拡張が有効な場合のみ有効、また拡張が困難な場合のみ有効に働く。そのため、絞り込みの手法を学習する際は、検索空間の拡張が有効な場合のみ有効に働くようにする。
- Adversarial Attacks on Knowledge Graph Embeddings via Instance Attribution Methods
- Peru Bhardwaj, John Kelleher, Luca Costabello, Declan O’Sullivan
- TLDR: ネットワークのリンク予測を行う際に、Adversarial Additionsを行わずに予測を行う手法の提案。Adversarial Additionsは、ネットワークの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重みを推定するモデルの重み
- Locke’s Holiday: Belief Bias in Machine Reading
- Anders Søgaard
- TLDR: 機械学習モデルの挙動を、モデルの挙動とモデルの挙動の差異から検証した研究。挙動は、モデルの挙動とモデルの挙動の差異を比較し、挙動が一致するかを検証している。挙動は、挙動が一致しない場合、挙動が異なる場合と見なせる。挙動は、挙動が一致しない場合、挙動が異なる場合と見なせる。挙動は、挙動が一致しない場合、挙動が異なる場合と見なせる。挙動は、挙動が一致しない場合、双方向になる場合と見なせる。
- Sequence Length is a Domain: Length-based Overfitting in Transformer Models
- Dusan Varis, Ondřej Bojar
- TLDR: 翻訳において、長い系列を生成するTransformerが、学習データの過適合からパフォーマンスを落とす原因を調べた研究。過適合は、学習データの過適合と同等の過適合が起こり得る可能性があることを確認。過適合は、学習データの過適合と同等の過適合が起こり得る可能性があることを確認。
- Contrasting Human- and Machine-Generated Word-Level Adversarial Examples for Text Classification
- Maximilian Mozes, Max Bartolo, Pontus Stenetorp, Bennett Kleinberg, Lewis Griffin
- TLDR: 自然言語処理モデルに対するAdversarial Attackの検証結果。自然言語処理モデルは自然言語処理の精度を担保するために、自然言語処理モデルに対するAdversarial Attackの適用を制限している。この制限は、自然言語処理モデルの自然言語処理性能を担保するだけでなく、自然言語処理モデルの自然言語処理性能を妨害する可能性があることを示唆している。
- Is Information Density Uniform in Task-Oriented Dialogues?
- Mario Giulianelli, Arabella Sinclair, Raquel Fernández
- TLDR: 文書からの情報量を調整する研究。文書からの情報量を調整する際は、文書の文書構造を予測するモデルを用い、文書構造を予測するモデルは文書構造と文書構造を同時に予測するモデルを用い、文書構造を予測するモデルは文書構造と文書構造を同時に予測するモデルを用い、文書構造を予測するモデルは文書構造と文書構造を同時に予測するモデルを用い、文書構造を予測するモデルは文書構造と文書構造を同時に予測するモデルを用い、文書構造を予測するモデルは文書構造を予測するモデルを用い、文書構造を予測するモデルは文書構造を予測するモデルを用
- On Homophony and Rényi Entropy
- Tiago Pimentel, Clara Meister, Simone Teufel, Ryan Cotterell
- TLDR: 自然言語処理において、自然言語処理のパフォーマンスを上げるためには、自然言語の音声が自然なままでないと不適であるという研究。音声の自然な生成は、自然言語処理のパフォーマンスに影響する。そのため、自然言語処理のパフォーマンスを上げるためには、自然言語処理のパフォーマンスを上げるためには、自然言語処理のパフォーマンスを上げるためには、自然言語処理のパフォーマンスを上げるためには、自然言語処理のパフォーマンスを上げるためには、自然言語処理のパフォーマンスを上げるためには、自然言語処理のパフォーマンスを上げるためには、自然言語処理のパフォーマンスを上げるためには、自然言語処理のパフォーマンスを上げるためには、自然言語処理のパフォーマンスを
- Synthetic Textual Features for the Large-Scale Detection of Basic-level Categories in English and Mandarin
- Yiwen Chen, Simone Teufel
- TLDR: 単語のベクトルを抽出する手法の提案。単語のベクトルは、単語の意味を表す単語(単語の意味を表す単語)を抽出する。単語の意味を表す単語は、単語の意味を表す単語と同等に扱われる。単語の意味を表す単語は、単語の意味を表す単語と同等に扱われる。
- TimeTraveler: Reinforcement Learning for Temporal Knowledge Graph Forecasting
- Haohai Sun, Jialun Zhong, Yunpu Ma, Zhen Han, Kun He
- TLDR: 過去の知識グラフから、予測を行う際に強化学習を適用した研究。予測を行う際、過去の知識グラフから予測結果を推定する際の、予測結果を予測するEntityを生成する。Entityは、過去の知識グラフから予測結果を推定するEntityを生成する。Entityは、過去の知識グラフから予測結果を推定するEntityを生成する。
- Code-switched inspired losses for spoken dialog representations
- Pierre Colombo, Emile Chapuis, Matthieu Labeau, Chloé Clavel
- TLDR: マルチモーダルで話すタスクを想定した対話システムの提案。タスクは、タスクの種類(言語)を入力とする。タスクは、タスクの種類(言語)を入力とする。タスクは、タスクの種類(言語)を入力とする。タスクは、タスクの種類(言語)を入力とする。タスクは、タスクの種類(言語)を入力とする。タスクは、タスクの種類(言語)を入力とする。タスクは、タスクの種類(言語)を入力とする。タスクは、タスクのタスクを入力とする。タスクは、タスクのタスクを入力
- BiQUE: Biquaternionic Embeddings of Knowledge Graphs
- Jia Guo, Stanley Kok
- TLDR: マルチモーメントの知識グラフを、単純な勾配ではなく、多様な勾配を組み合わせたモデルで表現する研究。勾配は、階層構造の表現に欠けるため、階層構造の表現を表現するモデルを提案している。勾配は、階層構造の表現を表現するモデルに近いモデルを提案している。
- Learning Neural Ordinary Equations for Forecasting Future Links on Temporal Knowledge Graphs
- Zhen Han, Zifeng Ding, Yunpu Ma, Yujia Gu, Volker Tresp
- TLDR: マルチモーメントのグラフを、長期の知識グラフに置き換えた研究。マルチモーメントのグラフは、時系列の情報を扱うため、時系列の情報を扱うための重みを計算する。重みは、時系列の情報を扱うための重みとして使用する。重みは、時系列の情報を扱うための重みとして使用する。
- RAP: Robustness-Aware Perturbations for Defending against Backdoor Attacks on NLP Models
- Wenkai Yang, Yankai Lin, Peng Li, Jie Zhou, Xu Sun
- TLDR: 自然言語処理モデルに対する攻撃手法の提案。攻撃手法は、学習済みモデルの挙動を監視する。モデルの挙動は、学習済みモデルの挙動と同等の監視対象となる。攻撃手法は、学習済みモデルの挙動を監視する。挙動は、学習済みモデルの挙動を監視する。挙動は、学習済みモデルの挙動を監視する。
- FAME: Feature-Based Adversarial Meta-Embeddings for Robust Input Representations
- Lukas Lange, Heike Adel, Jannik Strötgen, Dietrich Klakow
- TLDR: マルチベクトルの分散表現を、Attentionベースの手法で学習する研究。Attentionは単語の固有特徴を考慮するが、各ベクトルは単語の固有特徴を考慮する。そのため、単語の固有特徴を考慮するベクトルを追加することで、マルチベクトルの分散表現を学習する。
- A Strong Baseline for Query Efficient Attacks in a Black Box Setting
- Rishabh Maheshwary, Saket Maheshwary, Vikram Pudi
- TLDR: 自然言語処理モデルに対するAdversarial Attackの手法。Adversarial Attackは、検索結果を予測するAttentionと、検索結果を予測するLocality sensitive hashing(LSH)を組み合わせた手法。Attentionは検索結果を予測するだけでなく、LSHは検索結果を予測する。
- Machine Translation Decoding beyond Beam Search
- Rémi Leblond, Jean-Baptiste Alayrac, Laurent Sifre, Miruna Pislar, Lespiau Jean-Baptiste, Ioannis Antonoglou, Karen Simonyan, Oriol Vinyals
- TLDR: 機械翻訳モデルの学習を行う際に、モデルの挙動を評価する手法を検証した研究。モデルの挙動は、モデルの挙動を評価する指標(BLEU)と、モデルの挙動を評価する指標(CNN)の2つに分けている。評価指標は、モデルの挙動を評価する指標(CNN)と、評価指標の挙動を評価する指標(CNN)の2つを検証している。
- Document Graph for Neural Machine Translation
- Mingzhou Xu, Liangyou Li, Derek F. Wong, Qun Liu, Lidia S. Chao
- TLDR: 文書から文書を推定する際、文書から文書の文書構造を推定する研究。文書構造は文書の文書構造と文書の文書構造を結合する形で構成されるが、文書構造は文書構造と文書構造を結合する形で構成される。文書構造は文書構造と文書構造を結合する形で構成される。文書構造は文書構造と文書構造を結合する形で構成される。
- An Empirical Investigation of Word Alignment Supervision for Zero-Shot Multilingual Neural Machine Translation
- Alessandro Raganato, Raúl Vázquez, Mathias Creutz, Jörg Tiedemann
- TLDR: 翻訳モデルの精度向上を検証した研究。翻訳モデルは言語モデルの予測精度を上げるために、翻訳文の翻訳位置を教師なしで学習する。教師なし学習では、翻訳文の翻訳位置を教師なし学習に近い位置に学習する。教師なし学習では、翻訳文の翻訳位置を教師なし学習に近い位置に学習する。
- Graph Algorithms for Multiparallel Word Alignment
- Ayyoob ImaniGooghari, Masoud Jalili Sabet, Lutfi Kerem Senel, Philipp Dufter, François Yvon, Hinrich Schütze
- TLDR: マルチ言語対応の翻訳モデルを、マルチドメインの文書に適用する研究。マルチドメインの文書は、マルチドメインの文書と同等の精度が得られるが、マルチドメインの文書は、マルチドメインの文書と同等の精度が得られない。そのため、マルチドメインの文書を文書と同等の精度で予測する手法を提案している。
- Improving the Quality Trade-Off for Neural Machine Translation Multi-Domain Adaptation
- Eva Hasler, Tobias Domhan, Jonay Trenous, Ke Tran, Bill Byrne, Felix Hieber
- TLDR: 翻訳システムがどのターゲットドメインに適応するかを検証した研究。既存の翻訳システムは、ターゲットドメインの精度が低いため、ターゲットドメインの精度を上げるために、ターゲットドメインの精度を上げるために、ターゲットドメインの精度を上げるために、ターゲットドメインの精度を上げるために、ターゲットドメインの精度を上げるために、ターゲットドメインの精度を上げるために、ターゲットドメインの精度を上げるために、ターゲットドメインの精度を上げるために、ターゲットドメインの精度を上げるために、ターゲットドメインの精度を上げるために、ターゲットドメインの精度を上げるために、ターゲット
- Language Modeling, Lexical Translation, Reordering: The Training Process of NMT through the Lens of Classical SMT
- Elena Voita, Rico Sennrich, Ivan Titov
- TLDR: 翻訳モデルの学習について、学習の順序を学習するモデルの学習と、学習の順序を学習するモデルの学習とを比較した研究。学習は、翻訳モデルの学習と、翻訳モデルの学習とを交互に行う。学習は、翻訳モデルの学習と、翻訳モデルの学習とを交互に行う。学習は、翻訳モデルの学習とを交互に行う。
- Effective Fine-Tuning Methods for Cross-lingual Adaptation
- Tao Yu, Shafiq Joty
- TLDR: マルチタスクで事前学習済み言語モデルを、事前学習済み言語モデルと併用する研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルと同等の精度を維持できるが、事前学習済み言語モデルは学習済み言語モデルと同等の精度を維持できない。そこで、事前学習済み言語モデルと併用する手法を提案。
- Rethinking Data Augmentation for Low-Resource Neural Machine Translation: A Multi-Task Learning Approach
- Víctor M. Sánchez-Cartagena, Miquel Esplà-Gomis, Juan Antonio Pérez-Ortiz, Felipe Sánchez-Martínez
- TLDR: 翻訳において、学習済み言語モデルの学習を強化する手法の提案。学習済み言語モデルは、学習済み言語モデルの単語を予測するEncoderの出力から、学習済み言語モデルの出力から学習済み言語モデルの出力から学習する。学習済み言語モデルは、学習済み言語モデルの出力から学習済み言語モデルの出力を予測する。
- Wino-X: Multilingual Winograd Schemas for Commonsense Reasoning and Coreference Resolution
- Denis Emelin, Rico Sennrich
- TLDR: 翻訳モデルの翻訳精度を検証した研究。翻訳モデルは翻訳文を翻訳する際、翻訳文の翻訳文を翻訳する際の翻訳文の翻訳精度を評価する。翻訳文の翻訳精度は翻訳文の翻訳精度と同等の評価が行えるか検証している。翻訳文の翻訳精度は翻訳文の翻訳精度と同等の評価が行えるか検証している。
- One Source, Two Targets: Challenges and Rewards of Dual Decoding
- Jitao Xu, François Yvon
- TLDR: マルチタスク翻訳を行う際に、マルチタスクで生成する2つの文書を同時に生成する研究。マルチタスクは、入力と出力双方の文書を同時に生成する(複数文書の生成は別々に行う)が、マルチタスクは双方の文書を同時に生成する(複数文書の生成は別々に行う)ことで、双方の文書を同時に生成する。
- Discrete and Soft Prompting for Multilingual Models
- Mengjie Zhao, Hinrich Schütze
- TLDR: 事前学習済み言語モデル(PLM)で、事前学習済み言語モデルのパラメーターを入力する際のパラメーターの選択方法と、パラメーターの入力方法の2つを検証した研究。事前学習済み言語モデルのパラメーターは、事前学習済み言語モデルのパラメーターと同等の精度を達成できた。
- Vision Matters When It Should: Sanity Checking Multimodal Machine Translation Models
- Jiaoda Li, Duygu Ataman, Rico Sennrich
- TLDR: 機械翻訳において、画像を生成するモデルのパフォーマンスが低下する原因について調査した研究。画像の生成は、画像の画像を生成するモデルのパフォーマンスに影響する。画像の生成は、画像の画像を生成するモデルのパフォーマンスに影響する。画像の生成は、画像の画像を生成するモデルのパフォーマンスに影響する。
- Efficient Inference for Multilingual Neural Machine Translation
- Alexandre Berard, Dain Lee, Stephane Clinchant, Kweonwoo Jung, Vassilina Nikoulina
- TLDR: マルチペアの翻訳モデルを、低解像度のモデルに置き換える研究。低解像度のモデルは、単語のフィルタを行わず、単語のフィルタを行わずに翻訳を行う。これにより、マルチペアの翻訳モデルで2倍高速化が可能。
- Role of Language Relatedness in Multilingual Fine-tuning of Language Models: A Case Study in Indo-Aryan Languages
- Tejas Dhamecha, Rudra Murthy, Samarth Bharadwaj, Karthik Sankaranarayanan, Pushpak Bhattacharyya
- TLDR: 事前学習済み言語モデルで、複数の言語を組み合わせたタスクでパフォーマンスを改善する研究。事前学習済み言語モデルは、複数の言語を組み合わせたタスクでパフォーマンスが向上するが、複数言語を組み合わせたタスクではパフォーマンスが下がる。そのため、事前学習済み言語モデルを複数言語に組み合わせる手法を提案している。
- Comparing Feature-Engineering and Feature-Learning Approaches for Multilingual Translationese Classification
- Daria Pylypenko, Kwabena Amponsah-Kaakyire, Koel Dutta Chowdhury, Josef van Genabith, Cristina España-Bonet
- TLDR: 翻訳文の翻訳モデルで、翻訳文の文脈を予測するモデルの提案。文脈の予測は、翻訳文の文脈を予測するモデルの予測と、翻訳文の文脈を予測するモデルの予測とで大きく異なる。文脈の予測は、文脈の予測と文脈の予測が一致するかどうかを検証する。文脈の予測は、文脈の予測と文脈の予測が一致するかどうかを検証する。
- Multi-Sentence Resampling: A Simple Approach to Alleviate Dataset Length Bias and Beam-Search Degradation
- Ivan Provilkov, Andrey Malinin
- TLDR: 機械翻訳において、翻訳モデルのサイズがどんどん大きくなってしまう現象について検証した研究。サイズが大きい文は翻訳精度が低下するだけでなく、翻訳の品質も低下する。サイズが大きくなる文は翻訳モデルの挙動に影響するが、サイズが大きくなる文は翻訳モデルの挙動に影響する。そのため、サイズが大きくなる文を複数回に分けて翻訳する手法を提案している。
- Cross-Policy Compliance Detection via Question Answering
- Marzieh Saeidi, Majid Yazdani, Andreas Vlachos
- TLDR: 政府のルールを、質問回答で検証する手法の提案。質問回答は、文書から抽出されたルールを、文書から抽出されたルールに置き換えたもの。文書から抽出されたルールは、文書から抽出されたルールと同等の扱いを受ける。文書から抽出されたルールは、文書から抽出されたルールと同等の扱いを受ける。
- Meta-LMTC: Meta-Learning for Large-Scale Multi-Label Text Classification
- Ran Wang, Xi’ao Su, Siyu Long, Xinyu Dai, Shujian Huang, Jiajun Chen
- TLDR: マルチラベルのマルチタスクを学習する手法の提案。タスクの重みを重みに変換し、タスクの重みを重みに変換する。タスクの重みは、タスクの重みを重みに変換する形で学習する。タスクの重みは、タスクの重みを重みに変換する形で学習する。タスクの重みは、タスクの重みを重みに変換する形で学習する。
- Unsupervised Multi-View Post-OCR Error Correction With Language Models
- Harsh Gupta, Luciano Del Corro, Samuel Broscheit, Johannes Hoffart, Eliot Brenner
- TLDR: 文書の文書分類を自動生成する手法の提案。文書分類の文書を生成する際、文書分類の文書分類機を使用。文書分類機は文書分類の文書分類機と同等の役割を果たすが、文書分類機は文書分類機の役割を果たしていない。文書分類機は文書分類機の役割を果たすか検証した研究。文書分類機は文書分類機の役割を果たすか検証している。
- Parallel Refinements for Lexically Constrained Text Generation with BART
- Xingwei He
- TLDR: テキスト生成において、文生成時に単語を追加する手法の提案。単語を追加する際は、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を上げるために、単語の予測精度を
- BERT-Beta: A Proactive Probabilistic Approach to Text Moderation
- Fei Tan, Yifan Hu, Kevin Yen, Changwei Hu
- TLDR: テキストの不適性を評価するモデルの提案。評価は、不適なテキストに対する不適度の分布を予測するモデルの一種。不適なテキストは、不適な評価が得られると判断する。不適な評価は、不適な評価の分布を予測するモデルの一種。不適な評価は、不適な評価の分布を予測するモデルの一種。
- STaCK: Sentence Ordering with Temporal Commonsense Knowledge
- Deepanway Ghosal, Navonil Majumder, Rada Mihalcea, Soujanya Poria
- TLDR: 文の順序を予測する研究。文の順序は、文のタイトル/本文/本文の順番に並べられている。文の順序は、文のタイトル/本文/本文の順番に並べられている。文順序は、文のタイトル/本文/本文の順番に並べられている。文順序は、文のタイトル/本文/本文の順番に並べられている。文順序は、文順序の順番を予測する。
- Preventing Author Profiling through Zero-Shot Multilingual Back-Translation
- David Adelani, Miaoran Zhang, Xiaoyu Shen, Ali Davody, Thomas Kleinbauer, Dietrich Klakow
- TLDR: マルチ言語の翻訳で、事前学習済みモデルを用いた事前学習済みモデルの改善。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるのに有効なモデル。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるのに有効なモデル。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるのに有効なモデル。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるのに有効なモデル
- CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code Understanding and Generation
- Yue Wang, Weishi Wang, Shafiq Joty, Steven C.H. Hoi
- TLDR: 事前学習済み言語モデルをTransformerに統合した研究。事前学習済み言語モデルは、事前学習済み言語モデルの特性を考慮する必要があり、事前学習済み言語モデルは生成時にtokenを生成する。事前学習済み言語モデルは、tokenの生成時にtokenの識別が困難な場合、tokenを生成する。
- Detect and Classify – Joint Span Detection and Classification for Health Outcomes
- Micheal Abaho, Danushka Bollegala, Paula Williamson, Susanna Dodd
- TLDR: 医療の結果を自動検知する手法の提案。文書レベルの情報と、文書レベルの情報との相関を考慮し、文書レベルの情報と文書レベルの情報との相関を考慮したモデルを提案している。文書レベルの情報と文書レベルの情報との相関は、文書レベルの情報と文書レベルの情報との相関を考慮したモデルで表現されている。
- Multi-Class Grammatical Error Detection for Correction: A Tale of Two Systems
- Zheng Yuan, Shiva Taslimipoor, Christopher Davis, Christopher Bryant
- TLDR: 多クラスの文法エラー検知を、事前学習済み言語モデルで行う研究。事前学習済み言語モデルの文法エラーを検出する際、文法エラーのクラスを複数クラスに分割し、各クラスの文法エラーを検出する。文法エラーのクラスは、文法エラーのクラスと文法エラーのクラスの2つに分割し、それぞれ文法エラーのクラスを割り当てる。
- Towards Zero-shot Commonsense Reasoning with Self-supervised Refinement of Language Models
- Tassilo Klein, Moin Nabi
- TLDR: 言語モデルの事前学習済みモデルを、学習済みモデルの学習に使用する研究。事前学習済みモデルは、学習済みモデルの学習済みモデルと同等の学習データセットを学習する。学習済みモデルは、学習済みモデルの学習済みモデルと同等の学習データセットを学習する。学習済みモデルは、学習済みモデルの学習済みモデルと同等の学習データセットを学習する。
- To Share or not to Share: Predicting Sets of Sources for Model Transfer Learning
- Lukas Lange, Jannik Strötgen, Heike Adel, Dietrich Klakow
- TLDR: マルチタスクで使用するモデルの転移について、事前学習済みモデルと比較して精度が向上した研究。転移先のモデルは、転移先のタスクと同等のデータセットを扱えるか、また転移先のタスクと同等のデータセットを扱えるかを自動判定する。転移先のモデルは、転移先のタスクと同等のデータセットを扱えるかを自動判定する。
- Self-Supervised Detection of Contextual Synonyms in a Multi-Class Setting: Phenotype Annotation Use Case
- Jingqing Zhang, Luis Bolanos Trujillo, Tong Li, Ashwani Tanwar, Guilherme Freire, Xian Yang, Julia Ive, Vibhor Gupta, Yike Guo
- TLDR: 医療文書から、自然言語処理の単語抽出手法を学習する研究。単語抽出は、単語の意味を予測するだけでなく、単語の意味を予測する潜在表現を生成する。単語の意味を予測する潜在表現は、単語の意味を予測する潜在表現の生成に使われることが多い。この潜在表現を、教師なしで学習する手法を提案。
- ClauseRec: A Clause Recommendation Framework for AI-aided Contract Authoring
- Vinay Aggarwal, Aparna Garimella, Balaji Vasan Srinivasan, Anandhavelu N, Rajiv Jain
- TLDR: 文書の作成時に、文書中の重要な箇所を予測する研究。文書のタイトル/文書名/文書の意味/意味の類似度を予測する。文書のタイトル/文書名/文書の意味/類似度を予測するモデルを用いている。文書の意味/意味の類似度を予測するモデルは、BERT(#959)をベースにしている。
- Finnish Dialect Identification: The Effect of Audio and Text
- Mika Hämäläinen, Khalid Alnajjar, Niko Partanen, Jack Rueter
- TLDR: 多言語対応の翻訳モデルを自動生成する研究。翻訳モデルは、翻訳文とテキストを同時に生成する。テキストは、翻訳文の生成とテキスト生成の2つを同時に行う。翻訳は、翻訳文の生成とテキスト生成の2つを同時に行う。
- English Machine Reading Comprehension Datasets: A Survey
- Daria Dzendzik, Jennifer Foster, Carl Vogel
- TLDR: 文読解のデータセットについて、その分類、評価、また、評価結果についてまとめたサーベイ。文読解のデータセットは、Wikipedia/Google/Amazon/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia/Wikipedia
- Expanding End-to-End Question Answering on Differentiable Knowledge Graphs with Intersection
- Priyanka Sen, Armin Oliya, Amir Saffari
- TLDR: マルチエージェントの質問に対する対応を、事前学習済みモデルの枠組みで行う研究。事前学習済みモデルは、事前学習済みモデルの学習済みエージェントの属性を識別するIntersectionを導入している。これにより、事前学習済みモデルの学習済みエージェントの属性を識別する。
- Structured Context and High-Coverage Grammar for Conversational Question Answering over Knowledge Graphs
- Pierre Marion, Pawel Nowak, Francesco Piccinno
- TLDR: 質問回答を、文法+文関係を組み合わせたモデルで行う研究。文は、文関係の単語を入力としてTransformerで作成し、文関係の単語を入力としてTransformerで学習する。文関係は、文関係の単語を入力としてTransformerで学習する。文関係は、文関係の単語を入力としてTransformerで学習する。
- Improving Question Answering Model Robustness with Synthetic Adversarial Data Generation
- Max Bartolo, Tristan Thrush, Robin Jia, Sebastian Riedel, Pontus Stenetorp, Douwe Kiela
- TLDR: モデルに対するAdversarialQAの強化学習で、自然言語処理のモデルを強化する研究。モデルは、自然言語処理のモデルと同等の性能を発揮する。モデルは、自然言語処理のモデルと同等の性能を発揮する。
- BeliefBank: Adding Memory to a Pre-Trained Language Model for a Systematic Notion of Belief
- Nora Kassner, Oyvind Tafjord, Hinrich Schütze, Peter Clark
- TLDR: 自然言語処理で、モデルの根拠となる信念を検証した研究。モデルは、過去の信念をベースに、過去の信念をベースに現在の信念を検証するBeliefbankを構築している。このBeliefbankは、過去の信念をベースに、過去の信念をベースに検証した結果をベースに作成されている。
- MLEC-QA: A Chinese Multi-Choice Biomedical Question Answering Dataset
- Jing Li, Shangping Zhong, Kaizhi Chen
- TLDR: 生物医学に関する大規模なQAデータセットMLECを公開。医療従事者による事前学習済みモデルと、事前学習済みモデルの2つを統合し、事前学習済みモデルの精度を上げるための手法をまとめたもの。事前学習済みモデルは、事前学習済みモデルの精度を上げるのに有効だが、事前学習済みモデルは精度が下がる。
- IndoNLG: Benchmark and Resources for Evaluating Indonesian Natural Language Generation
- Samuel Cahyawijaya, Genta Indra Winata, Bryan Wilie, Karissa Vincentio, Xiaohong Li, Adhiguna Kuncoro, Sebastian Ruder, Zhi Yuan Lim, Syafri Bahar, Masayu Khodra, Ayu Purwarianti, Pascale Fung
- TLDR: 自然言語処理のベンチマークを、低リソースの言語に適用した研究。低リソースの言語は、通常のモデルで学習するよりも精度が低い傾向がある。そのため、事前学習済み言語を使用。事前学習済み言語は、通常のモデルで学習するより精度が上がる。
- Is Multi-Hop Reasoning Really Explainable? Towards Benchmarking Reasoning Interpretability
- Xin Lv, Yixin Cao, Lei Hou, Juanzi Li, Zhiyuan Liu, Yichi Zhang, Zelin Dai
- TLDR: マルチホップの要約モデルの評価について、各要約モデルの評価指標をまとめたサーベイ。要約モデルの評価は、要約モデルの要約結果をベースに、要約結果の予測精度(翻訳精度)、要約結果の翻訳精度(翻訳精度)、翻訳精度の3つの指標で行っている。
- Global Explainability of BERT-Based Evaluation Metrics by Disentangling along Linguistic Factors
- Marvin Kaster, Wei Zhao, Steffen Eger
- TLDR: テキスト生成において、BERTベースの評価指標と人間評価の相関がどうあるのかを検証した研究。BERTベースの評価指標は、単語/文の類似度(類似度=単語の意味)、文構造(単語の意味分布)、文構造(単語の意味分布)、文構造(単語の意味分布分布)、文構造(単語の意味分布分布)、文構造(単語の意味分布分布)、文構造(単語の意味分布分布)を評価する。BERTベースの評価指標と人間評価の相関が良好な結果を得られた。
- Exploring Underexplored Limitations of Cross-Domain Text-to-SQL Generalization
- Yujian Gan, Xinyun Chen, Matthew Purver
- TLDR: テキスト翻訳において、ドメイン知識が欠損した場合の予測精度を検証した研究。ドメイン知識は、通常の翻訳モデルで学習する際は、学習済みモデルの学習済みモデルと同等の精度が得られるか検証している。通常の翻訳モデルは、ドメイン知識が欠損した場合の予測精度が低い傾向がある。
- What happens if you treat ordinal ratings as interval data? Human evaluations in NLP are even more under-powered than you think
- David M. Howcroft, Verena Rieser
- TLDR: 自然言語処理の評価モデルが、人間の評価に劣る理由を調査した研究。通常の評価モデルは、通常のデータと異なる特徴を発見するために、通常のデータと異なる特徴を加味する。このため、通常のデータと異なる特徴を加味するモデルを学習する際は、通常のデータと異なる特徴を加味するモデルを学習する。
- NeuTral Rewriter: A Rule-Based and Neural Approach to Automatic Rewriting into Gender Neutral Alternatives
- Eva Vanmassenhove, Chris Emmery, Dimitar Shterionov
- TLDR: 性別適合学習を行う際に、既存のモデルと異なる単語を追加する手法の提案。既存のモデルは、既存の単語を単語単位で追加する(単語単位で単語を追加する)ことで、単語単位の単語変更を行わずに学習する。単語単位の単語変更は、単語単位の単語変更と併用する形で行う。
- Benchmarking Commonsense Knowledge Base Population with an Effective Evaluation Dataset
- Tianqing Fang, Weiqi Wang, Sehyun Choi, Shibo Hao, Hongming Zhang, Yangqiu Song, Bin He
- TLDR: 自然言語処理で、自然言語処理のモデルが、ある質問に対する回答を推論するタスクを提案。質問に対する回答は、質問に対する回答と同等の条件で推論する。質問に対する回答は、質問に対する回答と同等の条件で推論する。質問に対する回答は、質問に対する回答と同等の条件で推論する。
- Enhancing the Context Representation in Similarity-based Word Sense Disambiguation
- Ming Wang, Jianzhang Zhang, Yinglin Wang
- TLDR: 文書中の単語を、文脈から抽出する研究。文書中の単語は、文書全体の単語と同等か否かを表す単語として認識されるが、文書全体の単語は、文書全体の単語と同等か否かを表す単語として認識される。文書全体の単語を抽出する文書は、文書全体の単語を抽出する文書と同等か否かを表す文書に分けられる。
- Data Augmentation with Hierarchical SQL-to-Question Generation for Cross-domain Text-to-SQL Parsing
- Kun Wu, Lijie Wang, Zhenghua Li, Ao Zhang, Xinyan Xiao, Hua Wu, Min Zhang, Haifeng Wang
- TLDR: 教師なしデータ拡張の手法を、教師なしデータ拡張のモデルで検証した研究。教師なしデータ拡張は、教師なしデータ拡張の精度を上げるためには、教師なしデータ拡張のモデルを導入する必要がある。教師なしデータ拡張は、教師なしデータ拡張の精度を上げるためには、教師なしデータ拡張のモデルを導入する必要がある。
- SPARQLing Database Queries from Intermediate Question Decompositions
- Irina Saparina, Anton Osokin
- TLDR: 自然言語処理のモデルを、SQLベースのモデルに置き換える研究。SQLベースのモデルは、事前学習済みモデルと同等の精度が得られるが、事前学習済みモデルは学習が困難。そこで、事前学習済みモデルをベースに、事前学習済みモデルをベースに、事前学習済みモデルをベースに学習する。事前学習済みモデルは、事前学習済みモデルの精度を上げるのに有効。
- Time-aware Graph Neural Network for Entity Alignment between Temporal Knowledge Graphs
- Chengjin Xu, Fenglong Su, Jens Lehmann
- TLDR: 知識グラフのタイムアノテーションを行う際に、タイム情報と同等のEntity pairを考慮する研究。タイム情報と同等のEntity pairを考慮するネットワークを構築し、Entity pairの重みを異なるノードに割り当てる。重みは、重みの重みを計算するネットワークの重みと同等になるよう計算する。
- Cross-Domain Label-Adaptive Stance Detection
- Momchil Hardalov, Arnav Arora, Preslav Nakov, Isabelle Augenstein
- TLDR: stance detectionは、タスクが異なる複数のドメインにまたがる問題がある。タスクは、ニュース/論文/文書など様々なタスクが考えられるが、タスクの分類は異なるドメインにまたがる。そこで、タスク分類をドメイン転移で行う手法を提案。タスク分類は、ドメイン転移の手法をベースにしている。
- Text AutoAugment: Learning Compositional Augmentation Policy for Text Classification
- Shuhuai Ren, Jinchao Zhang, Lei Li, Xu Sun, Jie Zhou
- TLDR: 強化学習で、学習済みモデルの学習率を上げるためには、学習済みモデルの学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げるためには学習率を上げるためには、学習率を上げ
- Distilling Relation Embeddings from Pretrained Language Models
- Asahi Ushio, Jose Camacho-Collados, Steven Schockaert
- TLDR: 事前学習済み言語モデルで、関係を持つ単語を生成する研究。単語のベクトルを生成する際は、ベクトルのベクトルを入力とする。入力は、単語のベクトルを入力とする。入力は、単語のベクトルを入力とする。入力は、単語のベクトルを入力とする。
- Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning
- Prasetya Utama, Nafise Sadat Moosavi, Victor Sanh, Iryna Gurevych
- TLDR: 事前学習済みモデルで、文分類タスクで使われるモデルの挙動を改善した研究。文分類タスクで使われるモデルは、文の意味が異なる単語を予測する際、単語の類似度を推定するモデルを採用している。このモデルは、文分類タスクで使われる単語の類似度を推定するモデルと同等精度を達成できた。
- A Differentiable Relaxation of Graph Segmentation and Alignment for AMR Parsing
- Chunchuan Lyu, Shay B. Cohen, Ivan Titov
- TLDR: 文中の単語を、文中の単語に分割して、その単語の意味を表現する手法の提案。単語の意味を表現するグラフを、文中の単語を単語の意味に分割し、その単語の意味を表現するグラフを生成する。このグラフを、文中の単語を意味の表現に分割し、単語の意味を表現するグラフに分割する。
- Integrating Personalized PageRank into Neural Word Sense Disambiguation
- Ahmed El Sheikh, Michele Bevilacqua, Roberto Navigli
- TLDR: 文書分類の研究。単語の意味を推定する際、単語の意味を推定する単語の分布を推定する。単語の分布は、単語の意味を推定する単語分布と、単語の意味を推定する単語分布の2つに分けている。単語分布は、単語の意味を推定する単語分布と、単語の意味を推定する単語分布の2つに分けている。
- Cross-lingual Sentence Embedding using Multi-Task Learning
- Koustava Goswami, Sourav Dutta, Haytham Assem, Theodorus Fransen, John P. McCrae
- TLDR: マルチ言語の文分散表現を、教師なしで学習する研究。教師なしで学習する際は、文分散表現の重みを学習する(重みは、文分散表現の重みと同等になるよう学習する)。重みは、文分散表現の重みと同等になるよう学習する。重みは、文分散表現の重みと同等になるよう学習する。
- NB-MLM: Efficient Domain Adaptation of Masked Language Models for Sentiment Analysis
- Nikolay Arefyev, Dmitrii Kharchev, Artem Shelmanov
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルの学習に置き換える研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み単語を予測するモデルで、学習済み言語モデルの学習済み単語を予測するモデルをベースに学習する。学習済み言語モデルは、事前学習済み言語モデルの学習済み単語を予測するモデルをベースに学習する。
- Revisiting Self-training for Few-shot Learning of Language Model
- Yiming Chen, Yan Zhang, Chen Zhang, Grandee Lee, Ran Cheng, Haizhou Li
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルの学習に応用した研究。事前学習済みモデルは、事前学習済みモデルの学習データ(文書分類/文分類)をベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習データ(文書分類/文分類)をベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習データ(文書分類/文分類)をベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習データ(文書分類/文分類)をベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習データ(文書分類/文分類)をベースに学習
- Bridging Perception, Memory, and Inference through Semantic Relations
- Johanna Björklund, Adam Dahlgren Lindström, Frank Drewes
- TLDR: 言語モデルの学習を、タスクとモデルの組み合わせで行う研究。タスクは、タスクの学習結果を入力とするネットワークのネットワークと、入力データから予測を行うモデルの2つ。タスクは、タスクの予測結果を入力とするネットワークと、予測結果を入力とするモデルの2つ。タスクは、タスクの予測結果を入力とするネットワークと、予測結果を入力とするモデルの2つ。タスクは、タスクの学習結果を入力とするネットワークと、予測結果を入力とするモデルの2つ。タスクは、タスクの学習結果を入力とするネットワークと、タスクの予測結果を入力とするモデルの2つ。タ
- Unimodal and Crossmodal Refinement Network for Multimodal Sequence Fusion
- Xiaobao Guo, Adams Kong, Huan Zhou, Xianfeng Wang, Min Wang
- TLDR: マルチモーダルで表現学習を行う際に、事前学習済みモデルを改良する研究。事前学習済みモデルは、TransformerベースのAttentionで学習する。TransformerベースのAttentionは、事前学習済みモデルの重みを加味した重みを生成する。重みは、Transformerベースの重みを加味した重みを生成する。
- YASO: A Targeted Sentiment Analysis Evaluation Dataset for Open-Domain Reviews
- Matan Orbach, Orith Toledo-Ronen, Artem Spector, Ranit Aharonov, Yoav Katz, Noam Slonim
- TLDR: オープンドメインのレビューを評価するタスクの提案。評価対象はAmazon.com/YOLO/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon.com/Amazon
- An Empirical Study on Leveraging Position Embeddings for Target-oriented Opinion Words Extraction
- Samuel Mensah, Kai Sun, Nikolaos Aletras
- TLDR: 文中のopinion wordsを、自然言語処理で表現する研究。単語の位置情報(position information)を、文中の単語特徴(position embedding)に置き換えることで、文中のopinion wordを表現する。この時、position embeddingは単語特徴の表現に近い位置を表現する。
- Improving Multimodal Fusion with Hierarchical Mutual Information Maximization for Multimodal Sentiment Analysis
- Wei Han, Hui Chen, Soujanya Poria
- TLDR: マルチモーダルな感情分析の手法を、マルチモーダルな表現を生成する手法として、マルチモーダルな表現を生成する手法を提案。マルチモーダルな表現を生成する際、マルチモーダルな表現を生成するモデルを用いることで、マルチモーダルな表現生成を可能にした。
- BERT4GCN: Using BERT Intermediate Layers to Augment GCN for Aspect-based Sentiment Classification
- Zeguan Xiao, Jiarun Wu, Qingliang Chen, Congjian Deng
- TLDR: 文法知識をGraph Convolutionで学習する研究。文法知識は、文の文法特徴から文法知識を生成するGraph Convolutionのモデルで学習する。文法知識は、文法知識の生成に使用する。文法知識は、文法知識の生成に使用する。文法知識は、文法知識の生成に使用する。文法知識は、文法知識の生成に使用する。
- Does Social Pressure Drive Persuasion in Online Fora?
- Ayush Jain, Shashank Srivastava
- TLDR: 対話システムのモデルで、対話システムの評価をモデル化する研究。評価は対話システムの評価と同等の役割を果たすが、評価は対話システムの評価と同等の役割を果たしている。評価は対話システムの評価と同等の役割を果たしているが、対話システムの評価は対話システムの評価と同等の役割を果たしている。
- Aspect Sentiment Quad Prediction as Paraphrase Generation
- Wenxuan Zhang, Yang Deng, Xin Li, Yifei Yuan, Lidong Bing, Wai Lam
- TLDR: 感情の分類について、各要素を個別に予測する手法の提案。各要素を個別に予測するのではなく、各要素の予測結果を個別に予測する。各要素の予測結果を個別に予測するのではなく、各要素の予測結果を個別に予測する。これにより、各要素の予測精度を上げることが出来る。
- Cross-lingual Aspect-based Sentiment Analysis with Aspect Term Code-Switching
- Wenxuan Zhang, Ruidan He, Haiyun Peng, Lidong Bing, Wai Lam
- TLDR: 自然言語処理で、翻訳モデルを学習する際、翻訳文のラベルを変更する手法を提案。ラベルなしの翻訳文を学習する際、翻訳文のラベルを変更することで、翻訳文のラベルを変更する。翻訳文のラベルを変更することで、翻訳文のラベルを変更するモデルを構築している。
- Towards Label-Agnostic Emotion Embeddings
- Sven Buechel, Luise Modersohn, Udo Hahn
- TLDR: 感情の分類を行う際に、異なるラベルのデータセットと異なる言語・自然言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・言語・
- Collaborative Learning of Bidirectional Decoders for Unsupervised Text Style Transfer
- Yun Ma, Yangbin Chen, Xudong Mao, Qing Li
- TLDR: 教師なしテキストスタイル変換で、事前学習済みモデルと同等の手法を提案。事前学習済みモデルは、事前学習済みモデルと同等の手法を適用する。事前学習済みモデルは、事前学習済みモデルと同等の手法を適用する。事前学習済みモデルは、事前学習済みモデルと同等の手法を適用する。事前学習済みモデルは、事前学習済みモデルと同等の手法を適用する。
- Exploring Non-Autoregressive Text Style Transfer
- Yun Ma, Qing Li
- TLDR: 教師なし学習で、AutoRegressive(AR)の学習を学習する研究。学習はAutoRegressiveの学習と同等の手法で行い、学習はAutoRegressiveの学習と同等の手法で行い、学習はAutoRegressiveの学習と同等の手法で行い、学習はAutoRegressiveの学習と同等の手法で行い、学習はAutoRegressiveの学習と同等の手法で行い、学習はAutoRegressiveの学習と同等の手法で行い、学習はAutoRegressiveの学習と同等の手法で行い、学習はAutoRegressiveの学習と同等の手法で行い、
- PASTE: A Tagging-Free Decoding Framework Using Pointer Networks for Aspect Sentiment Triplet Extraction
- Rajdeep Mukherjee, Tapas Nayak, Yash Butala, Sourangshu Bhattacharya, Pawan Goyal
- TLDR: 評価点の推定を、評価層の推定と同等の手法で行う手法の提案。評価層の推定は、評価層の推定と同等の手法で行う。評価層の推定は、評価層の推定と同等の手法で行う。評価層の推定は、評価層の推定と同等の手法で行う。
- Adaptive Proposal Generation Network for Temporal Sentence Localization in Videos
- Daizong Liu, Xiaoye Qu, Jianfeng Dong, Pan Zhou
- TLDR: 動画のタイムステップを、事前学習済みモデルで予測する研究。事前学習済みモデルは、事前学習済みモデルの予測精度を上回る精度を達成できなかった。そこで、事前学習済みモデルの予測精度を上回る精度を達成するために、事前学習済みモデルを改良した研究。事前学習済みモデルは、事前学習済みモデルの予測精度を上回る精度を達成できなかった。
- Progressively Guide to Attend: An Iterative Alignment Framework for Temporal Sentence Grounding
- Daizong Liu, Xiaoye Qu, Pan Zhou
- TLDR: 画像と言語モデルの距離を、タスクごとにアノテーションするIterative Alignment Networkを提案。タスクごとにアノテーションを行う際、Attentionの重みを微分可能なパラメーターに置き換える。これにより、画像と言語モデルの距離を近づける精度を上げることができる。
- Language Models are Few-Shot Butlers
- Vincent Micheli, Francois Fleuret
- TLDR: テキストベースのモデルで、事前学習済みモデルより高い精度を達成した研究。事前学習済みモデルは、事前学習済みモデルの学習データから、事前学習済みモデルの学習データから学習データの更新を行う。事前学習済みモデルは、事前学習済みモデルの学習データから学習データの更新を行う。
- Rˆ3Net:Relation-embedded Representation Reconstruction Network for Change Captioning
- Yunbin Tu, Liang Li, Chenggang Yan, Shengxiang Gao, Zhengtao Yu
- TLDR: 画像の画像を、画像の画像と異なる箇所に置き換える研究。画像の画像と異なる箇所を置き換えることで、画像の画像と異なる箇所を認識する。画像の画像と置き換えた画像を、画像の画像と置き換えた画像の画像とで区別し、画像と置き換えた画像を区別する。
- Looking for Confirmations: An Effective and Human-Like Visual Dialogue Strategy
- Alberto Testoni, Raffaella Bernardi
- TLDR: 対話システムで、質問を生成する際は、質問の意味を推定するモデルを用いることで、自然な質問生成を実現する研究。質問は、質問の意味を推定するモデルで生成する。質問は、質問の意味を推定するモデルで生成する。質問は、質問の意味を推定するモデルで生成する。
- A Unified Speaker Adaptation Approach for ASR
- Yingzhu Zhao, Chongjia Ni, Cheung-Chi Leung, Shafiq Joty, Eng Siong Chng, Bin Ma
- TLDR: 音声認識モデルの転移を、学習済みモデルの転移と、学習済みモデルの転移を組み合わせた手法の提案。転移は学習済みモデルの転移を学習する際の転移先(学習済みモデル)を学習する形で行う。転移先は学習済みモデルの転移先と同等の転移先を学習する。転移先は学習済みモデルの転移先と同等の転移先を学習する。
- Caption Enriched Samples for Improving Hateful Memes Detection
- Efrat Blaier, Itzik Malkiel, Lior Wolf
- TLDR: 画像を自動カノンするモデルの提案。画像のタイトル/画像の画像を自動カノンするモデルを、画像のタイトル/画像の画像を自動カノンするモデルに組み込む。画像のタイトル/画像の画像を自動カノンするモデルは、画像のタイトル/画像の画像を自動カノンするモデルと同等の性能を発揮する。
- Sparsity and Sentence Structure in Encoder-Decoder Attention of Summarization Systems
- Potsawee Manakul, Mark Gales
- TLDR: 文書要約において、Encoder DecoderのAttentionを緩和する研究。通常のEncoder Decoderは、文書要約の文構造を考慮するが、文書要約では文構造を考慮する。このため、文書要約の文構造を考慮するEncoder Decoderを緩和する。
- BARThez: a Skilled Pretrained French Sequence-to-Sequence Model
- Moussa Kamal Eddine, Antoine Tixier, Michalis Vazirgiannis
- TLDR: 文生成モデルの提案。BERTベースのモデルをベースに、文生成モデルの学習済みモデルをベースに学習する。BERTベースのモデルは、文生成モデルの学習済みモデルと同等の精度が得られるが、文生成モデルは学習済みモデルの学習済みモデルと同等の精度が得られない。
- ARMAN: Pre-training with Semantically Selecting and Reordering of Sentences for Persian Abstractive Summarization
- Alireza Salemi, Emad Kebriaei, Ghazal Neisi Minaei, Azadeh Shakery
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルのスコアに近づける研究。事前学習済み言語モデルは、事前学習済み言語モデルのスコアを近づけるための工夫を行なっている。事前学習済み言語モデルは、事前学習済み言語モデルのスコアを近づけるための工夫を行なっている。事前学習済み言語モデルは、事前学習済み言語モデルのスコアを近づけるための工夫を行なっている。
- Models and Datasets for Cross-Lingual Summarisation
- Laura Perez-Beltrachini, Mirella Lapata
- TLDR: マルチスペクトの文書を翻訳する研究。Wikipediaの文書から翻訳を行う。Wikipediaの文書はWikipediaの文書と同等の文書構造を持つが、文書のタイトルはWikipediaの文書名と同等の文書名を付与する。文書のタイトルはWikipediaの文書名と同等、文書のタイトルはWikipediaの文書名を付与する。
- Learning Opinion Summarizers by Selecting Informative Reviews
- Arthur Bražinskas, Mirella Lapata, Ivan Titov
- TLDR: レビューから要約を行う際に、要約のモデルを学習する研究。要約は、レビューの評価を基に作成されるが、レビューの評価は要約の評価と同等の評価を獲得する。要約は、レビューの評価と要約の評価を比較し、要約の評価と要約の評価を比較する。要約は、要約の評価と要約の評価を比較し、要約の評価と要約の評価を比較する。
- Enriching and Controlling Global Semantics for Text Summarization
- Thong Nguyen, Anh Tuan Luu, Truc Lu, Tho Quan
- TLDR: 文書から要約を行う際に、文書全体の文脈を予測するモデルを提案。文書全体の文脈を予測するモデルは、文書全体の文脈を予測するモデルと同等の役割を果たしている。文書全体の文脈を予測するモデルは、文書全体の文脈を予測するモデルと同等の役割を果たしている。
- Revisiting Tri-training of Dependency Parsers
- Joachim Wagner, Jennifer Foster
- TLDR: 事前学習済み言語モデルの学習と、事前学習済み言語モデルの学習を組み合わせた研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習率が低い場合、事前学習済み言語モデルの学習率を上回る結果を得られる。事前学習済み言語モデルは、事前学習済み言語モデルの学習率を上回る結果を得られる。
- Bridge to Target Domain by Prototypical Contrastive Learning and Label Confusion: Re-explore Zero-Shot Learning for Slot Filling
- Liwen Wang, Xuefeng Li, Jiachi Liu, Keqing He, Yuanmeng Yan, Weiran Xu
- TLDR: マルチドメインのラウンド抽出で、ラウンドの分布を予測する手法の提案。ラウンド分布は、ラウンド分布の分布を予測するモデルで、ラウンド分布はラウンド分布の分布分布を予測するモデルで、ラウンド分布はラウンド分布の分布分布を予測するモデルで予測する。
- Neuralizing Regular Expressions for Slot Filling
- Chengyue Jiang, Zijian Jin, Kewei Tu
- TLDR: ラベル付けを行う際に、正規表現を入力とするモデルと、正規表現を入力とするモデルを組み合わせた研究。正規表現は、入力と入力の入力を結合する形で表現される。入力は、入力と入力の入力を結合する形で表現される。入力は、入力と入力の入力を結合する形で表現される。
- Causal Direction of Data Collection Matters: Implications of Causal and Anticausal Learning for NLP
- Zhijing Jin, Julius von Kügelgen, Jingwei Ni, Tejas Vaidhya, Ayush Kaushal, Mrinmaya Sachan, Bernhard Schoelkopf
- TLDR: 自然言語処理における、因果推論の手法の提案。因果推論は、生成されたデータと生成されたデータの相互作用を検証する。生成されたデータは、生成されたデータと生成されたデータの相互作用を検証する。因果推論は、生成されたデータと生成されたデータの相互作用を検証する。
- Raise a Child in Large Language Model: Towards Effective and Generalizable Fine-tuning
- Runxin Xu, Fuli Luo, Zhiyuan Zhang, Chuanqi Tan, Baobao Chang, Songfang Huang, Fei Huang
- TLDR: 言語モデルの学習を、学習済みモデルの学習に置き換える手法の提案。学習済みモデルの学習は、学習済みモデルの学習済みパラメーターを学習する形で行われる。学習済みモデルの学習は、学習済みモデルの学習済みパラメーターを学習する形で行われる。学習済みモデルの学習は、学習済みモデルの学習済みパラメーターを学習する形で行われる。
- Knowledge Graph Representation Learning using Ordinary Differential Equations
- Mojtaba Nayyeri, Chengjin Xu, Franca Hoffmann, Mirza Mohtashim Alam, Jens Lehmann, Sahar Vahdati
- TLDR: 知識グラフをGraph Embeddingに置き換えた研究。Graph Embeddingは、知識グラフの構造を表現する空間を表現する。この空間を、画像の画像表現に置き換えた空間とし、画像表現の表現を表現する空間を表現する空間と置き換えた空間を表現する空間を表現する空間とし、空間を表現する空間を表現する空間と置き換えた空間を表現する空間を表現する空間とし、空間を表現する空間を表現する空間と置き換えた空間を表現する空間とし、空間を表現する空間を表現する空間と置き換えた空間を表現する空間とし、空間
- KnowMAN: Weakly Supervised Multinomial Adversarial Networks
- Luisa März, Ehsaneddin Asgari, Fabienne Braune, Franziska Zimmermann, Benjamin Roth
- TLDR: 事前学習済みモデルで、ラベルなしデータの学習を行わずに、ラベルなしデータの学習を行なった研究。ラベルなしデータの学習は、ラベルなしデータの学習と同等の効果を上げることを確認。ラベルなしデータの学習は、ラベルなしデータの学習と同等の効果を上げることを確認。
- ONION: A Simple and Effective Defense Against Textual Backdoor Attacks
- Fanchao Qi, Yangyi Chen, Mukai Li, Yuan Yao, Zhiyuan Liu, Maosong Sun
- TLDR: 自然言語処理モデルに対するテキストバックドア攻撃の提案。通常の攻撃手法は、事前学習済みモデルの入力からテキストを抽出するが、この時入力の入力は通常の入力と異なる。そのため、入力を入力とし、入力の入力を入力とし、入力の入力を入力とし、入力の入力を入力とし、入力と入力を入力とし、入力と入力を入力とし、入力と入力を入力とし、入力と入力を入力とし、入力と入力を入力とし、入力と入力を入力とし、入力と入力を入力とし、入力と入力を入力とし、入力と入力を入力とし
- Value-aware Approximate Attention
- Ankit Gupta, Jonathan Berant
- TLDR: 入力のサイズを考慮したAttentionの最適化について、学習済み言語モデルの学習済みモデルと比較して、最適化の精度が大幅に向上したという研究。学習済み言語モデルの学習済みモデルと比較すると、精度が大幅に向上したという結果。
- Contrastive Domain Adaptation for Question Answering using Limited Text Corpora
- Zhenrui Yue, Bernhard Kratzwald, Stefan Feuerriegel
- TLDR: ドメイン転移を行う際に、事前学習済みモデルをベースに学習する手法の提案。事前学習済みモデルは、事前学習済みモデルの学習データと、ドメイン転移先のモデルの学習データ(文書構造)を統合し、学習データと学習データの統合で学習する。学習データは、事前学習済みモデルの学習データと、学習データの統合で生成する。
- Case-based Reasoning for Natural Language Queries over Knowledge Bases
- Rajarshi Das, Manzil Zaheer, Dung Thai, Ameya Godbole, Ethan Perez, Jay Yoon Lee, Lizhen Tan, Lazaros Polymenakos, Andrew McCallum
- TLDR: 複雑なタスクを解く際に、モデルを解くのに有効なケースを抽出する研究。モデルは、タスクの解釈性を測る指標(CNN)と、解釈性を測る指標(Parametric)の2つを用いている。タスクの解釈性を測る指標は、CNNで抽出するケースをベースに、CNNで抽出するケースをベースに学習する。
- Distantly-Supervised Dense Retrieval Enables Open-Domain Question Answering without Evidence Annotation
- Chen Zhao, Chenyan Xiong, Jordan Boyd-Graber, Hal Daumé III
- TLDR: 大規模な検索結果から、モデルを学習する研究。質問に対する回答を予測するモデルを学習する。質問に対する回答を予測するモデルは、質問に対する回答の予測結果を予測するモデルと同等の精度を維持できるか検証している。
- What’s in a Name? Answer Equivalence For Open-Domain Question Answering
- Chenglei Si, Chen Zhao, Jordan Boyd-Graber
- TLDR: 自然言語処理のQAで、モデルの予測が異なる場合に追加した回答が有効か検証した研究。モデルは、学習済みモデルと同等の回答が得られるか検証している。モデルは、学習済みモデルの回答が有効か検証している。
- Evaluation Paradigms in Question Answering
- Pedro Rodriguez, Jordan Boyd-Graber
- TLDR: 機械学習モデルの学習を、評価手法と評価手法の相互作用から解釈する研究。評価手法は、学習したモデルの性能を評価する手法と、学習したモデルの性能を評価する手法の2つに分けて扱っている。評価手法は、学習したモデルの性能を評価する手法と、学習したモデルの性能を評価する手法の2つに分けて扱っている。
- Numerical reasoning in machine reading comprehension tasks: are we there yet?
- Hadeel Al-Negheimish, Pranava Madhyastha, Alessandra Russo
- TLDR: 読解モデルのパフォーマンスを評価する指標として、Dropoutのベンチマークが使われているが、実際はDropoutが使われているモデルは評価が難しい。 DROPベンチマークは、読解モデルのパフォーマンスを評価する指標として使われているが、実際は評価が難しい。
- Set Generation Networks for End-to-End Knowledge Base Population
- Dianbo Sui, Chenhao Wang, Yubo Chen, Kang Liu, Jun Zhao, Wei Bi
- TLDR: 知識ベースのモデルを、事前学習済みモデルに置き換える研究。事前学習済みモデルは、事前学習済みモデルの予測結果を基にモデルを生成する。事前学習済みモデルは、事前学習済みモデルの予測結果を基にモデルを生成する。事前学習済みモデルは、事前学習済みモデルの予測結果を基にモデルを生成する。
- Knowing False Negatives: An Adversarial Training Method for Distantly Supervised Relation Extraction
- Kailong Hao, Botao Yu, Wei Hu
- TLDR: 教師なし学習で、文中の関係を教師なし学習に変換する研究。教師なし学習は、文中の関係を教師なし学習に変換する。教師なし学習は、文中の関係を教師なし学習に変換する。教師なし学習は、文中の関係を教師なし学習に変換する。教師なし学習は、文中の関係を教師なし学習に変換する。
- Progressive Adversarial Learning for Bootstrapping: A Case Study on Entity Set Expansion
- Lingyong Yan, Xianpei Han, Le Sun
- TLDR: 強化学習で、各強化学習の学習方法を統合した研究。学習は、強化学習の学習方法と同等の手法を用いている。強化学習は、強化学習の学習方法と同等の手法を用いている。強化学習は、強化学習の学習方法と同等の手法を用いている。
- Uncovering Main Causalities for Long-tailed Information Extraction
- Guoshun Nan, Jiaqi Zeng, Rui Qiao, Zhijiang Guo, Wei Lu
- TLDR: 自然言語処理で、自然言語処理のモデルを解釈性を高める研究。自然言語処理では、自然言語処理のモデルと同等のモデルを用いることで、自然言語処理のモデルと同等の結果を得ることができる。
- Maximal Clique Based Non-Autoregressive Open Information Extraction
- Bowen Yu, Yucheng Wang, Tingwen Liu, Hongsong Zhu, Limin Sun, Bin Wang
- TLDR: 文書から事実を抽出する研究。文書中の事実を抽出するモデルは、文書中の事実を抽出するノードを複数用意し、それらを順番に抽出する。文書中の事実を抽出するノードは、文書中の事実を抽出するノードと、文書中の事実を抽出するノードをそれぞれ入力するノードの2つに分けている。
- A Relation-Oriented Clustering Method for Open Relation Extraction
- Jun Zhao, Tao Gui, Qi Zhang, Yaqian Zhou
- TLDR: 教師なしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしのラベルなしの
- Exploring Methods for Generating Feedback Comments for Writing Learning
- Kazuaki Hanawa, Ryo Nagata, Kentaro Inui
- TLDR: 言語モデルで、事前学習済みモデルの学習を検証した研究。事前学習済みモデルは、事前学習済みモデルの学習結果を基に生成するが、事前学習済みモデルは学習データに基づいたモデルを生成する。事前学習済みモデルは、事前学習済みモデルの学習結果を基に生成するが、事前学習済みモデルは学習データに基づいたモデルを生成する。事前学習済みモデルは、事前学習済みモデルの学習結果を基に生成する。
- A Role-Selected Sharing Network for Joint Machine-Human Chatting Handoff and Service Satisfaction Analysis
- Jiawei Liu, Kaisong Song, Yangyang Kang, Guoxiu He, Zhuoren Jiang, Changlong Sun, Wei Lu, Xiaozhong Liu
- TLDR: 対話システムの評価をマルチタスクで行う研究。対話システムの評価は、評価結果を評価するEncoderと、評価結果を評価するCNNの2つに分けている。評価結果は、評価結果を評価するEncoderとCNNの2つに分けている。評価結果は、評価結果を評価するCNNとCNNの2つに分けている。
- Meta Distant Transfer Learning for Pre-trained Language Models
- Chengyu Wang, Haojie Pan, Minghui Qiu, Jun Huang, Fei Yang, Yin Zhang
- TLDR: マルチタスク学習を行う際に、事前学習済み言語モデルを転移学習する手法の提案。事前学習済み言語モデルは学習済みクラスの知識を学習するが、マルチタスク学習では学習済みクラスの知識を学習する。事前学習済み言語モデルは学習済みクラスの知識を学習するが、マルチタスク学習では学習済みクラスの知識を学習する。
- UniKER: A Unified Framework for Combining Embedding and Definite Horn Rule Reasoning for Knowledge Graph Inference
- Kewei Cheng, Ziqing Yang, Ming Zhang, Yizhou Sun
- TLDR: グラフ推論では、ルールを解釈する際は、ルールの定義を解釈する必要があり、その定義が解釈性に依存するケースがある。そこで、ルールを解釈する際は、ルールの定義を解釈性に依存するケースを除き解釈性を考慮する。これにより、解釈性を考慮する必要がなくなることを確認。
- Wasserstein Selective Transfer Learning for Cross-domain Text Mining
- Lingyun Feng, Minghui Qiu, Yaliang Li, Haitao Zheng, Ying Shen
- TLDR: 転移学習において、転移先のデータと転移先のデータの距離を加味した学習方法を提案。転移先のデータは、転移先のデータと近いデータ(=転移先のドメイン)を学習する。転移先のデータは、転移先のドメインの学習に適したデータと比較して良好な性能を発揮する。
- Jointly Learning to Repair Code and Generate Commit Message
- Jiaqi Bai, Long Zhou, Ambrosio Blanco, Shujie Liu, Furu Wei, Ming Zhou, Zhoujun Li
- TLDR: ソフトウェア開発において、コードの修正とコードの更新を同時に行う研究。既存の手法は、コードの修正と更新を同時に行うが、更新したコードは更新時にエラーが発生する。そのため、更新したコードを更新する前にコードの更新を行なっている。更新したコードは更新時にエラーが発生する。
- Inflate and Shrink:Enriching and Reducing Interactions for Fast Text-Image Retrieval
- Haoliang Liu, Tan Yu, Ping Li
- TLDR: マルチモーダルで学習するBERTを、転移学習で効率化する手法の提案。転移学習は転移先の画像を入力に追加する形で行うが、転移先の画像を入力に追加するコードを追加する(転移先の画像は転移学習の対象としない)。転移先の画像を入力に追加することで、転移学習の効率化を図っている。
- On Pursuit of Designing Multi-modal Transformer for Video Grounding
- Meng Cao, Long Chen, Mike Zheng Shou, Can Zhang, Yuexian Zou
- TLDR: 動画の学習を、End-to-Endで行う研究。学習済み動画を、End-to-Endで学習するTransformerを提案。Transformerは、Encoder/Decoderの2つを用いている。Transformerは、Encoder/Decoderの2つを用いている。Transformerは、Encoder/Decoderの2つを用いている。
- COVR: A Test-Bed for Visually Grounded Compositional Generalization with Real Images
- Ben Bogin, Shivanshu Gupta, Matt Gardner, Jonathan Berant
- TLDR: 自然言語処理モデルの事前学習済みモデルで、モデルの学習済みモデルと実際の画像を比較し、モデルの学習済みモデルの学習済みモデルと比較した研究。モデルは事前学習済みモデルと、モデルの学習済みモデルの画像を比較し、モデルの学習済みモデルと比較した結果を基にモデルを構築している。
- Vision-and-Language or Vision-for-Language? On Cross-Modal Influence in Multimodal Transformers
- Stella Frank, Emanuele Bugliarello, Desmond Elliott
- TLDR: 画像と言語の組み合わせを検証した研究。画像は、画像と言語の組み合わせを学習するモデルで、言語は、画像と言語の組み合わせを学習するモデルで学習する。画像は、画像と言語の組み合わせを学習するモデルで学習する。画像は、画像と言語の組み合わせを学習するモデルで学習する。
- HypMix: Hyperbolic Interpolative Data Augmentation
- Ramit Sawhney, Megh Thakkar, Shivam Agarwal, Di Jin, Diyi Yang, Lucie Flek
- TLDR: 強化学習で、入力と潜在表現を結合する手法の提案。入力と潜在表現を結合する際、入力と潜在表現を結合する際は、入力と潜在表現を結合する(=入力と潜在表現を結合する)ことで、入力と潜在表現を結合する。入力と潜在表現を結合する際は、入力と潜在表現を結合する(=入力と潜在表現を結合する)ことで、入力と潜在表現を結合する。
- Integrating Deep Event-Level and Script-Level Information for Script Event Prediction
- Long Bai, Saiping Guan, Jiafeng Guo, Zixuan Li, Xiaolong Jin, Xueqi Cheng
- TLDR: テキスト中のイベントを予測する研究。イベントのタイトルはイベントのタイトルと同等、イベントの参加者は同等、イベントの前後のイベントは同等、イベントの前後のイベントは同等としている。イベントの前後はイベントの前後と同等、イベントの前後は同等としている。
- QA-Align: Representing Cross-Text Content Overlap by Aligning Question-Answer Propositions
- Daniela Brook Weiss, Paul Roit, Ayal Klein, Ori Ernst, Ido Dagan
- TLDR: マルチタスクで文書構造を扱う際に、文書構造のOverlapを検出する研究。文書構造は文書全体の単語分布を表す単語分布(単語分散)と、文書全体の単語分布を表す単語分布(単語分散)の2つに分けている。文書構造のOverlapを検出する際、文書全体の単語分布を表す単語分布を検出する。
- PICARD: Parsing Incrementally for Constrained Auto-Regressive Decoding from Language Models
- Torsten Scholak, Nathan Schucher, Dzmitry Bahdanau
- TLDR: 事前学習済み言語モデルを自動復元する研究。事前学習済み言語モデルは、入力箇所を入力とする文を生成する。入力箇所は、入力箇所の単語を入力とする文に置き換える形で生成される。入力箇所は、入力箇所の単語を入力とする文に置き換える形で生成される。
- Exploiting Twitter as Source of Large Corpora of Weakly Similar Pairs for Semantic Sentence Embeddings
- Marco Di Giovanni, Marco Brambilla
- TLDR: 文の類似度を測る研究。文の類似度は、文の文脈から予測する。文の類似度は、文の文脈から予測する。文の文脈から予測する文の類似度は、文脈から予測する文の類似度と同等になるよう学習する。文の類似度は、文脈から予測する文の類似度と同等になるよう学習する。
- Guilt by Association: Emotion Intensities in Lexical Representations
- Shahab Raji, Gerard de Melo
- TLDR: 言語モデルが、どんな感情を表現しているのかを調べた研究。単語の意味を予測するモデルは、単語の意味を予測するValue(単語の意味を予測するValue)と、単語の意味を予測するValue(単語の意味を予測するValue)の2つを用いている。単語の意味を予測するValueは、単語の意味を予測するValueと、単語の意味を予測するValueの2つに分けている。
- Using Sociolinguistic Variables to Reveal Changing Attitudes Towards Sexuality and Gender
- Sky CH-Wang, David Jurgens
- TLDR: 性別や性に関する認識が変化する背景を調べた研究。性別は、性別と同等に扱われるとされる単語を含まない単語として定義し、性別と同等に扱われる単語を含まない単語として定義する。性別は、性別と同等に扱われるとされる単語として定義し、性別と同等に扱われる単語を含まない単語として定義する。性別は、性別と同等に扱われるとされる単語として定義する。
- Identifying Morality Frames in Political Tweets using Relational Learning
- Shamik Roy, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: 政治家が投稿したツイートから、その根拠となる信念を抽出する研究。ツイートは政治家が投稿した記事から抽出するが、ツイートは政治家が投稿した記事から抽出する。ツイートは政治家が投稿した記事から抽出するが、ツイートは政治家が投稿した記事から抽出する。ツイートは政治家が投稿した記事から抽出する。
- Measuring Sentence-Level and Aspect-Level (Un)certainty in Science Communications
- Jiaxin Pei, David Jurgens
- TLDR: 自然言語処理で、文レベルと文固有の確信度を同時に予測する研究。文固有の確信度は、文の文長と文長の重みから予測する。文固有の確信度は、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い場合、文長が長い
- Assessing the Reliability of Word Embedding Gender Bias Measures
- Yupei Du, Qixiang Fang, Dong Nguyen
- TLDR: 性別適合診断の精度を測る手法として、テスト・評価・内部・外部の3つを検証した研究。テストは、性別適合の評価結果を基に行われるが、内部は、性別適合の評価結果が正しいか否かを検証する。内部は、性別適合の評価結果が正しいか否かを検証する。
- Rumor Detection on Twitter with Claim-Guided Hierarchical Graph Attention Networks
- Hongzhan Lin, Jing Ma, Mingfei Cheng, Zhiwei Yang, Liangliang Chen, Guang Chen
- TLDR: ツリー構造を用いた、SNSにおける不自然な発言検知手法の提案。ツリー構造は、ツリーの投稿から生成されるグラフから生成される。グラフは、ツリーの投稿から生成される。ツリーは、ツリーの投稿から生成される。ツリーは、ツリーの投稿から生成される。ツリーは、ツリーの投稿から生成される。ツリーは、ツリーの投稿から生成される。ツリーは、ツリーの投稿から生成される。ツリーは、ツリーの投稿から生成される。ツリーは、ツリーの投稿から生成される。ツリーは、ツリーの投稿から生成される。ツリー
- Learning Bill Similarity with Annotated and Augmented Corpora of Bills
- Jiseon Kim, Elden Griggs, In Song Kim, Alice Oh
- TLDR: 法律文書の文書分類を、文書分類のタスクに置き換えた研究。文書分類は文書分類のタスクと同等精度を達成できるが、文書分類のタスクは文書分類のタスクと同等精度を達成できない。文書分類のタスクは文書分類のタスクと同等精度を達成できるが、文書分類のタスクは文書分類のタスクと同等精度を達成できない。
- SWEAT: Scoring Polarization of Topics across Different Corpora
- Federico Bianchi, Marco Marelli, Paolo Nicoli, Matteo Palmonari
- TLDR: マルチモーメントの表現を扱う研究。単語の分散表現を、単語の分散表現と同等に扱えるようにする。単語分散表現は、単語の分散表現と同等に扱えるようにする。単語分散表現は、単語分散表現の表現を同じく扱えるようにする。
- “So You Think You’re Funny?”: Rating the Humour Quotient in Standup Comedy
- Anirudh Mittal, Pranav Jeevan P, Prerak Gandhi, Diptesh Kanojia, Pushpak Bhattacharyya
- TLDR: 自然言語処理で、自然言語処理で使われるhumour quotientを自動評価する研究。動画中の爆発的な笑い声を、自然言語処理で予測する。この時、動画中の爆発的な笑い声を予測する。この時、爆発的な笑い声を予測する確率を、自然言語処理で予測する。
- “Was it “stated” or was it “claimed”?: How linguistic bias affects generative language models
- Roma Patel, Ellie Pavlick
- TLDR: 言語モデルは、人の発話から、その意味を推定する研究。言語モデルは、人の発話から、その意味を推定する研究を行なっている。言語モデルは、人の発話から、その意味を推定する研究を行なっている。
- PAUSE: Positive and Annealed Unlabeled Sentence Embedding
- Lele Cao, Emil Larsson, Vilhelm von Ehrenheim, Dhiana Deva Cavalcanti Rocha, Anna Martin, Sonja Horn
- TLDR: 自然言語処理で、文のベクトル表現を生成する手法の提案。文ベクトルは、文のベクトル表現を生成する際、文ベクトルのベクトル表現を生成する。文ベクトルは、文ベクトルのベクトル表現を生成する際、文ベクトル表現の生成を学習する。文ベクトル表現の生成は、文ベクトル表現の生成に使用するデータセットを事前学習する形で行う。
- A Simple Geometric Method for Cross-Lingual Linguistic Transformations with Pre-trained Autoencoders
- Maarten De Raedt, Fréderic Godin, Pieter Buteneers, Chris Develder, Thomas Demeester
- TLDR: マルチ言語対応の文生成を行う際に、文の表現をベクトル化する手法の提案。ベクトル化は、文の表現をベクトル化するネットワークの一種で、ネットワークの構造をベクトル化するネットワークの一種とみなせている。ネットワークの構造をベクトル化するネットワークの一種として、ネットワークの構造をベクトル化するネットワークの一種とみなせている。
- An Information-Theoretic Characterization of Morphological Fusion
- Neil Rathi, Michael Hahn, Richard Futrell
- TLDR: 自然言語処理で、各言語の特徴を結合する研究。結合は、言語の固有表現(Concatenative)と、言語の固有表現(nonconcatenative)の2つに分けられる。固有表現は、固有表現の表現を結合する(Concatenative)と、nonconcatenativeの2つに分けられる(nonconcatenative)。
- The Effect of Efficient Messaging and Input Variability on Neural-Agent Iterated Language Learning
- Yuchen Lian, Arianna Bisazza, Tessa Verhoef
- TLDR: 自然言語処理で、学習時に使われる単語の分布を変えた研究。単語分布は、学習時に使われる単語の分布と同等の分布を生成する。単語分布は、学習時に使われる単語分布と同等の分布を生成する。単語分布は、学習時に使われる単語分布と同等の分布を生成する。
- On Classifying whether Two Texts are on the Same Side of an Argument
- Erik Körner, Gregor Wiedemann, Ahmad Dawar Hakimi, Gerhard Heyer, Martin Potthast
- TLDR: 同じ意見を持つ人同士の対話タスクを、転移学習で解く研究。転移学習は、同じ意見を持つ人同士の対話タスクを学習する。転移学習は、同じ意見を持つ人同士の対話タスクを学習する。転移学習は、転移先のドメイン知識と、ドメインの理解が前提となる。
- Chinese Opinion Role Labeling with Corpus Translation: A Pivot Study
- Ranran Zhen, Rui Wang, Guohong Fu, Chengguo Lv, Meishan Zhang
- TLDR: マルチタスクで、事前学習済みモデルの学習と、マルチタスクで学習したモデルの学習を組み合わせた研究。事前学習済みモデルは、事前学習済みモデルの学習結果を基にモデルを生成する。事前学習済みモデルは、事前学習済みモデルの学習結果を基にモデルを生成する。事前学習済みモデルは、事前学習済みモデルの学習結果を基に学習する。
- MassiveSumm: a very large-scale, very multilingual, news summarisation dataset
- Daniel Varab, Natalie Schluter
- TLDR: ニュースの要約を、自然言語処理で行う研究。要約はニュースのニュースソースから作成するが、ニュースソースは通常の要約より少ない。そこで、ニュースソースの要約を自動生成するモデルを提案。要約は自然言語処理で行うが、要約はニュースソースの要約から作成する。要約はニュースソースの要約から作成する。
- AUTOSUMM: Automatic Model Creation for Text Summarization
- Sharmila Reddy Nangi, Atharv Tyagi, Jay Mundra, Sagnik Mukherjee, Raj Snehal, Niyati Chhaya, Aparna Garimella
- TLDR: 自然言語処理モデルを自動生成する研究。モデルの構造を検索し、モデルのサイズを絞り込むことで、モデルの精度を上げつつモデルの重みを絞り込む。モデルの生成は、モデルの構造を絞り込むことで行う。モデルの生成は、モデルの構造を絞り込むことで行う。
- Investigating the Helpfulness of Word-Level Quality Estimation for Post-Editing Machine Translation Output
- Raksha Shenoy, Nico Herbig, Antonio Krüger, Josef van Genabith
- TLDR: 自動翻訳モデルの品質を評価する研究。精度は、翻訳文の文長/文長の順で評価する。文長は、翻訳文の文長と文長の順で評価する。文長は、文長の文長をベースに、文長は文長の順で評価する。文長は、文長の順で評価する。文長は、文長の順で評価する。
- UNKs Everywhere: Adapting Multilingual Language Models to New Scripts
- Jonas Pfeiffer, Ivan Vulić, Iryna Gurevych, Sebastian Ruder
- TLDR: マルチ言語対応のモデルを、事前学習済み言語モデルに簡単に適用する研究。事前学習済み言語モデルは、事前学習済み言語の単語をベースに学習する。単語の分散表現を、事前学習済み言語モデルの単語分散表現に置き換える形で学習する。これにより、事前学習済み言語モデルの学習効率を上げる。
- Neural Machine Translation Quality and Post-Editing Performance
- Vilém Zouhar, Martin Popel, Ondřej Bojar, Aleš Tamchyna
- TLDR: 翻訳の品質と事前学習済みモデルのパフォーマンスの関係を調べた研究。事前学習済みモデルは事前学習済みモデルの精度と同等の結果が得られるが、事前学習済みモデルは精度が低いため精度が上がる一方、精度が上がる一方精度が低いモデルは精度が上がる一方、精度が上がる一方精度が低いモデルは精度が上がる一方としている。
- XTREME-R: Towards More Challenging and Nuanced Multilingual Evaluation
- Sebastian Ruder, Noah Constant, Jan Botha, Aditya Siddhant, Orhan Firat, Jinlan Fu, Pengfei Liu, Junjie Hu, Dan Garrette, Graham Neubig, Melvin Johnson
- TLDR: 多言語のマルチタスク学習モデルの提案。タスクは多言語の単語を扱う、単語の分類、単語の検索、単語の分類結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の更新、単語の検索結果の
- Contrastive Conditioning for Assessing Disambiguation in MT: A Case Study of Distilled Bias
- Jannis Vamvas, Rico Sennrich
- TLDR: 機械翻訳において、誤差表現を検出する手法の提案。翻訳文の文脈をベースに、翻訳文の文脈をベースに誤差表現を検出する。文脈は、文の意味をベースに、文の意味をベースに誤差表現を生成する。文脈は、文の意味をベースに生成する。
- Measuring Association Between Labels and Free-Text Rationales
- Sarah Wiegreffe, Ana Marasović, Noah A. Smith
- TLDR: 自然言語処理で、事前学習済みモデルの説明が不完全な場合に対処する研究。事前学習済みモデルは、事前学習済みモデルの説明が不完全な場合に対処する。事前学習済みモデルは、事前学習済みモデルの説明が不完全な場合に対処する。事前学習済みモデルは、事前学習済みモデルの説明が不完全な場合に対処する。
- Discretized Integrated Gradients for Explaining Language Models
- Soumya Sanyal, Xiang Ren
- TLDR: 文の表現を、既存の説明手法より精度の高いGradientに変換する研究。既存のGradientは、文の表現を表現する空間が不完全で、表現の表現を予測する空間に近い表現を生成するが、この空間を表現する空間に近い表現を生成する手法を提案している。
- Putting Words in BERT’s Mouth: Navigating Contextualized Vector Spaces with Pseudowords
- Taelin Karidi, Yichu Zhou, Nathan Schneider, Omri Abend, Vivek Srikumar
- TLDR: 文中の単語を、BERT空間に分割して、その位置を調べる研究。単語の位置を推定する際、単語の位置を予測するベクトルをBERT空間に入力し、ベクトルの位置を予測する。ベクトルはBERT空間のベクトルをベースに、ベクトルの位置は単語の位置と同等か否かを予測する。
- Rationales for Sequential Predictions
- Keyon Vafa, Yuntian Deng, David Blei, Alexander Rush
- TLDR: 自然言語処理で、予測結果を誤らせる手法の提案。予測結果を誤らせると、予測結果が予測結果と異なる箇所に入力される可能性がある。誤認識は、予測結果が予測結果と異なる箇所に入力されると予測結果が変わらないことを意味する。誤認識は、予測結果が予測結果と異なる箇所に入力されると予測結果が変わらないことを意味する。
- FastIF: Scalable Influence Functions for Efficient Model Interpretation and Debugging
- Han Guo, Nazneen Rajani, Peter Hase, Mohit Bansal, Caiming Xiong
- TLDR: 学習データの予測精度を向上させるために、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げるためには、学習データの予測精度を上げ
- Studying word order through iterative shuffling
- Nikolay Malkin, Sameera Lanka, Pranav Goel, Nebojsa Jojic
- TLDR: 自然言語処理で、単語の順序付けが難しい問題を解く研究。単語の順序付けは、単語の意味を予測する重要な要素として扱われる。単語の順序付けは、単語の意味を予測する重要な要素として扱われる。単語の順序付けは、単語の意味を予測する重要な要素として扱われる。
- Distantly-Supervised Named Entity Recognition with Noise-Robust Learning and Language Model Augmented Self-Training
- Yu Meng, Yunyi Zhang, Jiaxin Huang, Xuan Wang, Yu Zhang, Heng Ji, Jiawei Han
- TLDR: 自然言語処理で、事前学習済み言語モデルを学習する研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済みモデルと同等の精度を維持できるが、事前学習済み言語モデルは学習データにラベルが付与されていない場合、ラベルを削除する処理を行わず学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済みモデルと同等の精度を維持できる。
- Open Knowledge Graphs Canonicalization using Variational Autoencoders
- Sarthak Dash, Gaetano Rossiello, Nandana Mihindukulasooriya, Sugato Bagchi, Alfio Gliozzo
- TLDR: 自然言語処理で、ノードと関係語を区別する手法の提案。ノードは、関係語の表現を生成するAutoEncoderと、関係語の表現をクラスタリングするSegmentationを組み合わせて生成する。Segmentationは、ノードの表現をクラスタリングするSegmentationと、Segmentationは、Segmentationは、Segmentationは、Segmentationは、Segmentationは、Segmentationは、Segmentationは、Segmentationは、Segmentationは、Segmentationは、Segmentationは、Segmentationは、
- HittER: Hierarchical Transformers for Knowledge Graph Embeddings
- Sanxing Chen, Xiaodong Liu, Jianfeng Gao, Jian Jiao, Ruofei Zhang, Yangfeng Ji
- TLDR: 多層の多関係知識グラフを学習する際、Entity Relationalと Relational Contextを組み合わせた研究。Entity Relationalは、Entityの位置情報からEntityの位置情報(位置情報)を抽出する。この時、Entityの位置情報からEntityの位置情報(位置情報)を予測する。
- Few-Shot Named Entity Recognition: An Empirical Baseline Study
- Jiaxin Huang, Chunyuan Li, Krishan Subudhi, Damien Jose, Shobana Balakrishnan, Weizhu Chen, Baolin Peng, Jianfeng Gao, Jiawei Han
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルの学習に応用した研究。事前学習済みモデルは、事前学習済み言語モデルの学習済みモデルと同等の学習結果を得ることができるが、事前学習済み言語モデルは学習済み言語モデルの学習結果を上回る結果を得ることができない。事前学習済み言語モデルは、事前学習済み言語モデルの学習結果を上回る結果を得ることができる。
- XLEnt: Mining a Large Cross-lingual Entity Dataset with Lexical-Semantic-Phonetic Word Alignment
- Ahmed El-Kishky, Adithya Renduchintala, James Cross, Francisco Guzmán, Philipp Koehn
- TLDR: マルチ言語のEntityを自動生成する研究。Entityの生成は、EntityのEntity分布を予測するネットワークの一種で、Entity分布はEntity分布の分布を予測するネットワークの一種。Entity分布はEntity分布の分布を予測するネットワークの一種で、Entity分布はEntity分布の分布を予測するネットワークの一種。Entity分布はEntity分布の分布を予測するネットワークの一種で、Entity分布はネットワークの分布を予測するネットワークの一種。
- Utilizing Relative Event Time to Enhance Event-Event Temporal Relation Extraction
- Haoyang Wen, Heng Ji
- TLDR: イベント時間の予測を行う研究。イベント時間の予測は、イベント時間の予測と同等の精度を維持するため、イベント時間の予測を同時に行う。イベント時間の予測は、イベント時間の予測と同等の精度を維持するため、イベント時間の予測を同時に行う。
- Separating Retention from Extraction in the Evaluation of End-to-end Relation Extraction
- Bruno Taillé, Vincent Guigue, Geoffrey Scoutheeten, Patrick Gallinari
- TLDR: 事前学習済みモデルで、事前学習済みモデルの学習済みモデルの学習済みモデルと比較して、事前学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの
- Automatic Text Evaluation through the Lens of Wasserstein Barycenters
- Pierre Colombo, Guillaume Staerman, Chloé Clavel, Pablo Piantanida
- TLDR: テキスト生成の精度を測る指標の提案。テキスト生成は、テキストの構造を予測するだけでなく、テキストの潜在表現を予測する(潜在表現は、テキストの潜在表現とテキストの潜在表現の2つに分けられる)ことで行う。テキスト生成は、テキストの潜在表現を予測するモデルを用い、テキスト生成の精度を測る。
- Visually Grounded Reasoning across Languages and Cultures
- Fangyu Liu, Emanuele Bugliarello, Edoardo Maria Ponti, Siva Reddy, Nigel Collier, Desmond Elliott
- TLDR: 多言語対応のモデルの検証結果、翻訳モデルの精度が大幅に落ちる問題を指摘した研究。翻訳モデルは英語のみでなく、多言語対応モデルのモデルも検証している。翻訳モデルは翻訳モデルの精度が落ちる問題を指摘している。翻訳モデルは翻訳モデルの精度が落ちる問題を指摘している。
- Back to Square One: Artifact Detection, Training and Commonsense Disentanglement in the Winograd Schema
- Yanai Elazar, Hongming Zhang, Yoav Goldberg, Dan Roth
- TLDR: 言語モデルベースのモデルが、事前学習済みモデルと同等の精度を達成できたという研究。事前学習済みモデルは、通常の学習済みモデルと同等の精度を達成できたが、事前学習済みモデルは同等の精度を達成できなかった。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を達成できなかった。
- Robustness Evaluation of Entity Disambiguation Using Prior Probes: the Case of Entity Overshadowing
- Vera Provatorova, Samarth Bhargav, Svitlana Vakulenko, Evangelos Kanoulas
- TLDR: 自然言語処理における、Entity Linkingの評価手法の提案。Entityの分布は、Entity分布の分布と同等の確率分布を生成する。この分布を、Entity分布の分布と同等の確率分布に変換する手法を提案している。
- IndoNLI: A Natural Language Inference Dataset for Indonesian
- Rahmad Mahendra, Alham Fikri Aji, Samuel Louvan, Fahrurrozi Rahman, Clara Vania
- TLDR: 自然言語処理のデータセット「IntoNLI」を提案。自然言語処理のデータセットとして、事前学習済みモデル(XLM-R)をベースに、事前学習済みモデルの学習済み単語を入力として、学習済み単語を入力として入力する。事前学習済みモデルは、事前学習済み単語を入力として入力する。
- Agreeing to Disagree: Annotating Offensive Language Datasets with Annotators’ Disagreement
- Elisa Leonardelli, Stefano Menini, Alessio Palmero Aprosio, Marco Guerini, Sara Tonelli
- TLDR: 自然言語処理で、不適な言語表現を検出する研究。既存のモデルは、不適な表現を検出するデータセットを生成するが、不適なデータセットは生成するデータセットの質が低い場合に生成される。そのため、不適なデータセットを作成する際は、不適なデータセットの質を考慮する必要がある。
- A Root of a Problem: Optimizing Single-Root Dependency Parsing
- Miloš Stanojević, Shay B. Cohen
- TLDR: 依存構造の推論を行う際に、最も高いクラスタリングを予測する手法の提案。通常の推論は、グラフを入力とするが、グラフを入力とするモデルの推論結果を基に計算する。この計算結果を基に、最も高いクラスタリングを予測するモデルを生成する。これにより、より精度の高い推論モデルを生成できるようになった。
- Efficient Sampling of Dependency Structure
- Ran Zmigrod, Tim Vieira, Ryan Cotterell
- TLDR: 自然言語処理における、依存構造の学習を、階層構造の学習に置き換える研究。階層構造の学習は、階層構造の学習に使用する重みを計算するモデルをベースにしている。重みは、階層構造の学習に使用する重みの計算を前提としている。重み計算は、階層構造の学習に使用する重みの計算を前提としている。
- Reducing Discontinuous to Continuous Parsing with Pointer Network Reordering
- Daniel Fernández-González, Carlos Gómez-Rodríguez
- TLDR: 連続的な文書生成を行う際に、連続的な文書生成を学習する手法の提案。連続的な文書生成は、連続的な文書生成の精度が低いため、連続的な文書生成を学習する際は、連続的な文書生成を学習するモデルを導入する。連続的な文書生成は、連続的な文書生成の精度を上げるのに有効な手法。
- A New Representation for Span-based CCG Parsing
- Yoshihide Kato, Shigeki Matsubara
- TLDR: マルチノードの分散表現を、各ノードのラベルを個別に表現する形で表現する研究。各ノードは、各ラベルのラベルを個別に表現する。このラベルを、各ノードのラベルを個別に表現する形で表現する。これにより、各ノードのラベルを個別に表現できるモデルを構築できる。
- What to Pre-Train on? Efficient Intermediate Task Selection
- Clifton Poth, Jonas Pfeiffer, Andreas Rücklé, Iryna Gurevych
- TLDR: 事前学習済み言語モデルを転移学習する手法をまとめたサーベイ。転移学習のパラメーターと、転移学習のコストをまとめたサーベイ。転移学習のパラメーターは、転移学習のタスクで最も適したパラメーターを選び、コストを計算する。
- PermuteFormer: Efficient Relative Position Encoding for Long Sequences
- Peng Chen
- TLDR: 長い系列を高速に扱うTransformerを、Attentionを導入したモデルに置き換える研究。Attentionは位置情報のみを入力とし、位置情報の入力は位置情報のみを入力とし、位置情報のみを入力としAttentionを入力とし、位置情報のみを入力としAttentionを入力としAttentionを入力とし、位置情報のみを入力としAttentionを入力としAttentionを入力とし、位置情報のみを入力としAttentionを入力とし、位置情報のみを入力としAttentionを入力とし、位置情報のみを入力としAttentionを入力とし、位置情報のみを入力
- Block Pruning For Faster Transformers
- François Lagunas, Ella Charlaix, Victor Sanh, Alexander Rush
- TLDR: 蒸留で学習したモデルを、蒸留後のモデルに組み込む手法の提案。蒸留は蒸留の重みを蒸留の重みに置き換える形で行うが、蒸留は蒸留の重みを蒸留の重みに置き換える形で行う。蒸留は蒸留の重みを蒸留の重みに置き換える形で行う。蒸留は蒸留の重みを蒸留の重みに置き換える形で行う
- Finetuning Pretrained Transformers into RNNs
- Jungo Kasai, Hao Peng, Yizhe Zhang, Dani Yogatama, Gabriel Ilharco, Nikolaos Pappas, Yi Mao, Weizhu Chen, Noah A. Smith
- TLDR: 自然言語処理におけるTransformerの改善手法を、学習済みモデルに適用した研究。TransformerはsoftmaxのAttentionを学習するが、学習済みモデルはsoftmaxのAttentionを学習する。学習済みモデルは学習済みモデルの学習率が低いため、学習済みモデルの学習率を上げるための調整が必要。
- How to Train BERT with an Academic Budget
- Peter Izsak, Moshe Berchansky, Omer Levy
- TLDR: 事前学習済みモデルを、事前学習済みモデルの性能に近づける手法の提案。事前学習済みモデルは、事前学習済みモデルの性能を上げるための戦略を取っている。事前学習済みモデルは、事前学習済みモデルの性能を上げるための戦略を取っている。事前学習済みモデルは、事前学習済みモデルの性能を上げるための戦略を取っている。事前学習済みモデルは、事前学習済みモデルの性能を上げるための戦略を取っている。
- Beyond Preserved Accuracy: Evaluating Loyalty and Robustness of BERT Compression
- Canwen Xu, Wangchunshu Zhou, Tao Ge, Ke Xu, Julian McAuley, Furu Wei
- TLDR: 事前学習済みモデルの学習率を評価する手法の提案。学習率はモデルの信頼度と同等の評価指標として用いられるが、信頼度は学習率と同等の評価指標として用いられる。学習率は学習率と同等の評価指標として用いられるが、信頼度は学習率と同等の評価指標として用いられる。
- IndoBERTweet: A Pretrained Language Model for Indonesian Twitter with Effective Domain-Specific Vocabulary Initialization
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: 自然言語処理で、事前学習済み言語モデルを改良した研究。事前学習済み言語モデルは、事前学習済み言語モデルの単語をベースに、単語の分散表現をベースに学習する。単語分散表現は、事前学習済み言語モデルの単語分散表現と同等の精度を維持できる。
- Pushing on Text Readability Assessment: A Transformer Meets Handcrafted Linguistic Features
- Bruce W. Lee, Yoo Sung Jang, Jason Lee
- TLDR: 読解性能を向上させる手法として、転移学習を用いた研究。転移学習は、転移先の言語モデルが学習する単語を予測するが、学習する単語の予測精度が低い場合、学習する単語の予測精度が低い場合に転移する。転移学習は、転移先の言語モデルが学習する単語を予測する精度を上げるため、転移先の言語モデルを学習するモデルに組み込むことで、転移先の言語モデルを学習する。
- Types of Out-of-Distribution Texts and How to Detect Them
- Udit Arora, William Huang, He He
- TLDR: 事前学習済み言語モデルで、事前学習済み言語モデルのモデルを学習する際の、学習データの分布変化を予測する手法の提案。事前学習済み言語モデルの分布変化は、事前学習済み言語モデルのモデルの学習データに近い分布分布を示す。事前学習済み言語モデルの学習データに近い分布を示すデータセットも公開されている。
- Self-training with Few-shot Rationalization
- Meghana Moorthy Bhat, Alessandro Sordoni, Subhabrata Mukherjee
- TLDR: 事前学習済み言語モデルで、タスク分類のモデルを強化学習に活用する研究。タスク分類のモデルはタスク分類のモデルと同等のモデルだが、タスク分類のモデルはタスク分類のモデルと同等のモデルを学習する。タスク分類のモデルはタスク分類のモデルと同等のモデルを学習する。タスク分類のモデルはタスク分類のモデルと同等のモデルを学習する。
- MTAdam: Automatic Balancing of Multiple Training Loss Terms
- Itzik Malkiel, Lior Wolf
- TLDR: 学習時に、学習する重みを複数つなげるAdamの提案。重みは単一の重みでなく、重みの重みを複数つなげる重みを組み合わせて学習する。重みは重みの重みを計算する際の重みと同等になるよう、重みの重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを計算する重みを
- Softmax Tree: An Accurate, Fast Classifier When the Number of Classes Is Large
- Arman Zharmagambetov, Magzhan Gabidolla, Miguel A. Carreira-Perpinan
- TLDR: 自然言語処理で、数千から数百万クラスの分類を行う際に、学習したモデルを改良した研究。学習したモデルは、学習したクラスのクラススコアを基に、クラススコアを計算する。この計算は、学習したクラススコアを基に行う。学習したクラススコアを基に、学習したクラススコアを基に学習する。
- Improving Distantly-Supervised Named Entity Recognition with Self-Collaborative Denoising Learning
- Xinghua Zhang, Bowen Yu, Tingwen Liu, Zhenyu Zhang, Jiawei Sheng, Xue Mengge, Hongbo Xu
- TLDR: 教師なしのモデルで、教師なしのモデルを学習する研究。教師は、教師の学習済みモデルの学習結果を教師のネットワークに転移し、教師のネットワークは教師の学習済みモデルの学習結果を教師のネットワークに転移する。教師は、教師の学習済みモデルの学習結果を教師のネットワークに転移し、教師の学習済みモデルの学習結果を教師のネットワークに転移する。
- Multivalent Entailment Graphs for Question Answering
- Nick McKenna, Liane Guillou, Mohammad Javad Hosseini, Sander Bijl de Vroe, Mark Johnson, Mark Steedman
- TLDR: 自然言語処理で、複数valentのEntailment Graphを学習する研究。既存のEntailment Graphは複数valentのEntailmentを学習するが、この学習は複数valentのEntailmentを学習する必要があった。そこで、複数valentのEntailmentを学習する手法を提案。既存のEntailment Graphは複数valentのEntailmentを学習する必要があったが、この手法は複数valentのEntailmentを学習する必要があった。
- Is Everything in Order? A Simple Way to Order Sentences
- Somnath Basu Roy Chowdhury, Faeze Brahman, Snigdha Chaturvedi
- TLDR: 文順序を自動生成する研究。文の順序を自動生成するTransformerベースのモデルを、文の位置情報から生成する。文の位置情報は、文の意味を捉えるための重要な情報として扱われる。文の位置情報は、文の意味を捉えるための重要な情報として扱われる。
- VeeAlign: Multifaceted Context Representation Using Dual Attention for Ontology Alignment
- Vivek Iyer, Arvind Agarwal, Harshit Kumar
- TLDR: 自然言語処理で、既存の分散表現を学習する手法を改良した研究。既存の分散表現は、単語/文の位置関係を予測する(位置関係は単語/文の位置関係を予測する)が、この位置関係を予測する(位置関係は単語/文の位置関係を予測する)ことで、単語/文の位置関係を予測する。
- Finding needles in a haystack: Sampling Structurally-diverse Training Sets from Synthetic Data for Compositional Generalization
- Inbar Oren, Jonathan Herzig, Jonathan Berant
- TLDR: 自然言語処理で、学習済みモデルの演算を自動生成する研究。演算は学習済みモデルの演算をベースに、演算結果から生成した演算結果をベースに学習する。演算は、演算結果をベースに学習する。演算結果は、演算結果から生成した演算結果をベースに学習する。演算結果は、演算結果から生成した演算結果をベースに学習する。
- GeneSis: A Generative Approach to Substitutes in Context
- Caterina Lacerra, Rocco Tripodi, Roberto Navigli
- TLDR: 自然言語処理で、単語の代替表現を生成する研究。単語の代替表現は、単語の意味を変えた単語を生成する。単語の意味を変えた単語を生成する際は、単語の意味を変えた単語を生成する。生成した単語は、単語の意味を変えた単語に分類される。
- Semi-Supervised Exaggeration Detection of Health Science Press Releases
- Dustin Wright, Isabelle Augenstein
- TLDR: 機械学習モデルの誤謬検知手法を、論文のタイトルから、論文の論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文タイトルから、論文
- Phrase-BERT: Improved Phrase Embeddings from BERT with an Application to Corpus Exploration
- Shufan Wang, Laure Thompson, Mohit Iyyer
- TLDR: 文法類似度を学習する手法の提案。文法類似度は、文法類似度の分布を予測するモデル(BERT)で学習する。BERTは文法類似度を予測するモデルだが、文法類似度の分布は単語分散表現を予測するモデルと同等である。文法類似度は、文法類似度の分布を予測するモデルと同等である。
- Detecting Contact-Induced Semantic Shifts: What Can Embedding-Based Methods Do in Practice?
- Filip Miletic, Anne Przewozny-Desriaux, Ludovic Tanguy
- TLDR: 自然言語処理における、転移学習の手法の提案。転移学習は、転移した単語を単語単位で学習するが、転移学習は単語単位で学習する。そのため、転移学習の精度を上げるために、転移学習の精度を上げるために、転移学習の精度を上げるために、転移学習の精度を上げるために、転移学習の精度を上げるために、転移学習の精度を上げるために、転移学習の精度を上げるために、転移学習の精度を上げるために、転移学習の精度を上げるために、転移学習の精度を上げるために、転移学習の精度を上げるために、転移学習の精度を