NAACL 2022 in Japanese
TLDRs
- Knowledge Router: Learning Disentangled Representations for Knowledge Graphs
- Shuai Zhang, Xi Rao, Yi Tay, Ce Zhang
- TLDR: 知識グラフにおける構造を、抽象化する研究。構造は抽象化するが、構造は抽象化する側面がある。抽象化は、構造の潜在表現を抽象化する側面を除去する形で行う。抽象化は、構造の潜在表現を抽象化する側面を除去する形で行う。
- Distantly Supervised Relation Extraction with Sentence Reconstruction and Knowledge Base Priors
- Fenia Christopoulou, Makoto Miwa, Sophia Ananiadou
- TLDR: 教師なし学習で、文の文構造を学習する研究。文構造は文の文構造と同等になるよう学習する。文構造は文の文構造と同等になるよう学習する。文構造は文構造と同等になるよう学習する。文構造は文構造と同等になるよう学習する。文構造は文構造と同等になるよう学習する。
- Cross-Task Instance Representation Interactions and Label Dependencies for Joint Information Extraction with Graph Convolutional Networks
- Minh Van Nguyen, Viet Dac Lai, Thien Huu Nguyen
- TLDR: 事前学習済みモデルを、同時解いた研究。事前学習済みモデルは、事前学習済みのタスクと同等の精度を達成できたが、事前学習済みモデルはタスクの重みを固定する。タスクの重みは、事前学習済みモデルの重みと同等になるよう調整する。タスクの重みは、事前学習済みモデルの重みと同等になるよう調整する。
- Abstract Meaning Representation Guided Graph Encoding and Decoding for Joint Information Extraction
- Zixuan Zhang, Heng Ji
- TLDR: 自然言語処理で、自然言語処理のタスクと同等のタスクを同時に行う研究。タスクは、自然言語処理のタスクと同等のタスクを同時に行う。タスクは、自然言語処理のタスクと同等のタスクを同時に行う。タスクは、自然言語処理のタスクと同等のタスクを同時に行う。タスクは、自然言語処理のタスクと同等のタスクを同時に行う。タスクは、自然言語処理のタスクと同等のタスクを同時に行う。タスクは、自然言語処理のタスクと同等のタスクを同時に行う。タスクは、自然言語処理のタスクと同
- A Frustratingly Easy Approach for Entity and Relation Extraction
- Zexuan Zhong, Danqi Chen
- TLDR: 自然言語処理で、End-to-EndのEntity Extractionを行う研究。Entityは固有表現(固有表現の単語)と、relativeは固有表現(固有表現の単語)の2つを想定している。固有表現は、Entityとrelativeの2つを想定している。固有表現は、Entity/relativeのEncoderが予測する潜在表現を予測する。
- Event Time Extraction and Propagation via Graph Attention Networks
- Haoyang Wen, Yanru Qu, Heng Ji, Qiang Ning, Jiawei Han, Avi Sil, Hanghang Tong, Dan Roth
- TLDR: 文書単位のイベント情報を、Attention Networkで表現する研究。文書単位のイベント情報を、Attention Networkで表現する。文書単位のイベント情報を、Attention Networkで表現する。文書単位のイベント情報を、Attention Networkで表現する。
- Probing Word Translations in the Transformer and Trading Decoder for Encoder Layers
- Hongfei Xu, Josef van Genabith, Qiuhui Liu, Deyi Xiong
- TLDR: 翻訳を行う際、Encoder layerが翻訳を行う際に使われるネットワークを変更することで、翻訳精度を上げることができるという研究。Encoder layerは翻訳を行う際に使われるネットワークのネットワークを、Encoder layerは翻訳を行う際に使われるネットワークのネットワークを更新する形で学習する。
- Mediators in Determining what Processing BERT Performs First
- Aviv Slobodkin, Leshem Choshen, Omri Abend
- TLDR: ネットワークの挙動を学習する際、学習するネットワークの挙動を予測する際の重みを調整する手法の提案。重みは予測するネットワークの挙動を予測するネットワークの挙動を予測する。重みは予測するネットワークの挙動を予測するネットワークの挙動を予測する。重みは予測するネットワークの挙動を予測する。
- Automatic Generation of Contrast Sets from Scene Graphs: Probing the Compositional Consistency of GQA
- Yonatan Bitton, Gabriel Stanovsky, Roy Schwartz, Michael Elhadad
- TLDR: 教師なしで学習したモデルで、学習済みモデルの性能を落とす手法の提案。学習済みモデルの性能を落とすには、学習済みモデルのモデルのラベルを変更する。ラベルは、学習済みモデルのラベルと同等かそれ以上のものに変更する。
- Multilingual Language Models Predict Human Reading Behavior
- Nora Hollenstein, Federico Pirovano, Ce Zhang, Lena Jäger, Lisa Beinborn
- TLDR: 言語モデルが、読書時間の予測を行う際に、自然言語処理のモデルと同等の精度を発揮するのか検証した研究。言語モデルは自然言語処理のモデルと同等の精度を発揮するが、文処理のモデルは文の重みを入力に入力する。文処理のモデルは、文の重みを入力に入力するモデルと同等の精度を発揮する。
- Do Syntactic Probes Probe Syntax? Experiments with Jabberwocky Probing
- Rowan Hall Maudslay, Ryan Cotterell
- TLDR: 自然言語処理モデルが文法を学習する際、学習済みモデルの文法知識を基に学習する手法を提案。学習済みモデルの文法知識を基に学習するが、文法知識がないと学習データから文法の分類が不適な単語を抽出する。そのため、学習済みモデルの文法知識を基に学習する手法を提案している。
- A Non-Linear Structural Probe
- Jennifer C. White, Tiago Pimentel, Naomi Saphra, Ryan Cotterell
- TLDR: 文構造を学習する研究。文構造は、文構造の学習に使用するパラメーター数を減らす(=学習するパラメーター数を減らす)ことで学習する。パラメーター数を減らすと、文構造の学習が行えた。
- Concealed Data Poisoning Attacks on NLP Models
- Eric Wallace, Tony Zhao, Shi Feng, Sameer Singh
- TLDR: 機械学習モデルに対するデータ汚染手法の提案。入力に50の単語を追加し、それらを予測する。予測結果は、予測結果が予測結果と異なる場合に予測結果が変わる。この場合、予測結果が予測結果と異なる場合に予測結果を予測する。また、予測結果が予測結果と異なる場合に予測結果を予測する。
- Backtranslation Feedback Improves User Confidence in MT, Not Quality
- Vilém Zouhar, Michal Novák, Matúš Žilinec, Ondřej Bojar, Mateo Obregón, Robin L. Hill, Frédéric Blain, Marina Fomicheva, Lucia Specia, Lisa Yankovskaya
- TLDR: 翻訳を行う際に、ユーザーの評価がどう影響するかを調べた研究。翻訳の評価は、翻訳の品質(翻訳者/翻訳モデルの品質)、翻訳の精度(翻訳者/翻訳モデルの品質)、翻訳の精度(翻訳者/翻訳モデルの品質)、翻訳の精度(翻訳精度)、翻訳の精度(翻訳精度)の3つに分けている。評価は、翻訳の品質と精度の3つに分けている。
- Data Filtering using Cross-Lingual Word Embeddings
- Christian Herold, Jan Rosendahl, Joris Vanvinckenroye, Hermann Ney
- TLDR: 翻訳におけるデータのフィルタについて、事前学習済みモデルのパフォーマンスを検証した研究。事前学習済みモデルのパフォーマンスを検証した結果、事前学習済みモデルのパフォーマンスが最も良好だったのは、言語識別のタスクで、事前学習済みモデルのパフォーマンスが最も良好だったタスクでのみ検証した結果。
- Improving the Lexical Ability of Pretrained Language Models for Unsupervised Neural Machine Translation
- Alexandra Chronopoulou, Dario Stojanovski, Alexander Fraser
- TLDR: 教師なし翻訳で、事前学習済み言語モデルと同等の精度を達成するために、事前学習済み言語モデルの潜在表現をマルチタスクで学習する研究。マルチタスクで学習する際、マルチタスクの潜在表現をマルチタスクで学習する。マルチタスクで学習する際、マルチタスクの潜在表現をマルチタスクで学習する。
- Neural Machine Translation without Embeddings
- Uri Shaham, Omer Levy
- TLDR: 機械翻訳において、単語分散表現をUTF-8で表現する手法の提案。単語分散表現は、単語の長さ(長さ=長さ)を表現するベクトルを生成する。このベクトルを、単語分散表現の表現に置き換える形で表現する。これにより、単語分散表現の精度が向上する。
- Counterfactual Data Augmentation for Neural Machine Translation
- Qi Liu, Matt Kusner, Phil Blunsom
- TLDR: 翻訳文の翻訳を行う際に、翻訳文の文法を学習する研究。文法は文法モデルの表現をベースに、文法の表現は文法モデルの表現をベースに学習する。文法は文法モデルの表現をベースに、文法は文法モデルの表現をベースに学習する。文法は文法モデルの表現をベースに、文法は文法モデルの表現をベースに学習する。
- Cultural and Geographical Influences on Image Translatability of Words across Languages
- Nikzad Khani, Isidora Tourni, Mohammad Sadegh Rasooli, Chris Callison-Burch, Derry Tanti Wijaya
- TLDR: 画像を翻訳に使用する際の有効性を調べた研究。画像は同じ言語同士の画像と比較しても、画像と同等の画像を生成する方が有効であることを確認。画像は同じ言語同士の画像と比較しても、画像と同等の画像を生成する方が有効であることを確認。
- Multilingual BERT Post-Pretraining Alignment
- Lin Pan, Chung-Wei Hang, Haode Qi, Abhishek Shah, Saloni Potdar, Mo Yu
- TLDR: マルチ言語の分散表現を事前学習した研究。単語レベルの分散表現を、文レベルの分散表現に近似する形で学習する。単語レベルの分散表現は、単語レベルの分散表現と同等の精度を維持できるか検証している。
- A Million Tweets Are Worth a Few Points: Tuning Transformers for Customer Service Tasks
- Amir Hadifar, Sofie Labat, Veronique Hoste, Chris Develder, Thomas Demeester
- TLDR: 多言語対応のCNNを学習する手法を検証した研究。学習は事前学習済みモデルをベースに、事前学習済みモデルの学習はドメインごとのモデルを学習する形で行う。事前学習済みモデルは、ドメインごとのモデルを学習するモデルと同等の精度を維持できるが、ドメインごとのモデルは学習時にエラーが出る可能性がある。
- Paragraph-level Rationale Extraction through Regularization: A case study on European Court of Human Rights Cases
- Ilias Chalkidis, Manos Fergadiotis, Dimitrios Tsarapatsanis, Nikolaos Aletras, Ion Androutsopoulos, Prodromos Malakasiotis
- TLDR: 文書中の要約を解釈するタスクの提案。要約は文書全体の要約と同等か否かを問うが、要約は要約の要約と同等か否かを問う。要約は要約の要約と同等か否かを問うが、要約は要約の要約と同等か否かを問う。要約は要約の要約と同等か否かを問う。
- Answering Product-Questions by Utilizing Questions from Other Contextually Similar Products
- Ohad Rozen, David Carmel, Avihai Mejer, Vitaly Mirkis, Yftah Ziser
- TLDR: 商品に関する質問に対し、類似度を計測する研究。類似度は、類似した商品に関するレビューがどれだけあるか、またレビューがどれだけあるかを計測する。レビューは、商品に関するレビューと同等の価値を持つものとして扱われる。レビューは、商品に関するレビューと同等の価値を持つものとして扱われる。
- EnSidNet: Enhanced Hybrid Siamese-Deep Network for grouping clinical trials into drug-development pathways
- Lucia Pagani
- TLDR: 臨床実験の類似度を評価する手法の提案。EnSidNetをベースに、Entropy/Deep Neural Networkを組み合わせて評価を行う。Entropyは、臨床実験の類似度を評価するモデルで、Deepは、臨床実験の類似度を評価するモデルで、Entropyは、臨床実験の類似度を評価するモデルで行う。
- DATE: Detecting Anomalies in Text via Self-Supervision of Transformers
- Andrei Manolache, Florin Brad, Elena Burceanu
- TLDR: 画像の異常検知を行う際に、事前学習済みモデルを学習する手法の提案。事前学習済みモデルは、画像の画像特徴を学習する際、画像特徴の予測結果を予測する。画像特徴の予測結果は、画像特徴の予測結果と同等の精度を獲得できる。
- A Simple Approach for Handling Out-of-Vocabulary Identifiers in Deep Learning for Source Code
- Nadezhda Chirkova, Sergey Troshin
- TLDR: 自然言語処理モデルでコードの生成を行う際に、自然言語処理モデルの事前処理を有効に活用した研究。事前処理は、コードの生成時に使われる単語を特定する(out-of-vocabulary)、生成時に使われる単語を特定する(out-of-vocabulary)、生成時に使われる単語を特定する(out-of-vocabulary)、という3つのタスクを行なっている。
- Fast and Scalable Dialogue State Tracking with Explicit Modular Decomposition
- Dingmin Wang, Chenghua Lin, Qi Liu, Kam-Fai Wong
- TLDR: マルチドメインの対話システムで、マルチタスクで学習するMulti-domain Dialogを、マルチタスクで学習するモデルの提案。マルチタスクで学習する際は、マルチドメインの対話システムを複数回に分割し、各タスクで個別に学習する。マルチタスクで学習する際は、マルチドメインの対話システムを複数回に分割し、個別に学習する。
- Augmented SBERT: Data Augmentation Method for Improving Bi-Encoders for Pairwise Sentence Scoring Tasks
- Nandan Thakur, Nils Reimers, Johannes Daxenberger, Iryna Gurevych
- TLDR: 文の文順で文を評価する手法の提案。文順の順次学習を行うが、文順の順次学習は学習データの拡張が必要。そのため、文順の順次学習を行う際に、文順の順次学習を行わず文順の順次学習を行なっている。
- SmBoP: Semi-autoregressive Bottom-up Semantic Parsing
- Ohad Rubin, Jonathan Berant
- TLDR: 事前学習済みモデルの事前学習済みモデルを、事前学習済みモデルの学習済みモデルに置き換えた研究。事前学習済みモデルの学習済みモデルは、事前学習済みモデルの学習済みモデルの学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を維持できない。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を維持できない。
- SGL: Speaking the Graph Languages of Semantic Parsing via Multilingual Translation
- Luigi Procopio, Rocco Tripodi, Roberto Navigli
- TLDR: マルチタスクで翻訳を行う際に、事前学習済みモデルを組み合わせて学習する手法の提案。事前学習済みモデルは、翻訳のタスクで精度が上がるか検証した研究。事前学習済みモデルは、翻訳のタスクで精度が上がるか検証した研究。事前学習済みモデルは、翻訳のタスクで精度が上がるか検証した研究。
- Unifying Cross-Lingual Semantic Role Labeling with Heterogeneous Linguistic Resources
- Simone Conia, Andrea Bacciu, Roberto Navigli
- TLDR: 多言語の文法モデルを、マルチタスクで学習する研究。マルチタスクで学習する際は、各タスクの文法モデルをマルチタスクで学習する。マルチタスクで学習する際は、マルチタスクの文法モデルをベースに、マルチタスクの文法モデルをベースに学習する。マルチタスクで学習する際は、マルチタスクの文法モデルをベースに学習する。
- Fool Me Twice: Entailment from Wikipedia Gamification
- Julian Eisenschlos, Bhuwan Dhingra, Jannis Bulian, Benjamin Börschinger, Jordan Boyd-Graber
- TLDR: マルチプレイヤーで、既存のEntailmentと、既存のEntailmentの類似度を比較した研究。既存のEntailmentは類似度が高いと、既存のEntailmentと同等の結果が出るが、この研究では類似度が高いと同等の結果が出ることを確認。
- Meta-Learning for Domain Generalization in Semantic Parsing
- Bailin Wang, Mirella Lapata, Ivan Titov
- TLDR: ドメインの事前学習を、事前学習済みモデルに適用する研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルを比較し、学習済みモデルの学習済みモデルと同等の学習済みモデルの学習結果を比較し、学習済みモデルの学習結果を比較する。
- Aspect-Controlled Neural Argument Generation
- Benjamin Schiller, Johannes Daxenberger, Iryna Gurevych
- TLDR: 自然言語処理で、文中のaspectを予測する研究。文中のaspectを予測するモデルを、文中のaspectを予測するモデルと、文中のaspectを予測するモデルの2つに分け、文中のaspectを予測するモデルを生成する。文中のaspectを予測するモデルは、文中のaspectを予測するモデルと同等の精度を維持できる。
- Text Generation from Discourse Representation Structures
- Jiangming Liu, Shay B. Cohen, Mirella Lapata
- TLDR: 文書からD文書を生成する研究。文書の構造をLSTMで表現し、文書の構造をLSTMの構造と同等精度で生成する。文書の構造は、文書の文脈から抽出される文書構造をベースにしている。文書構造は、文書の文脈から抽出される文書構造をベースにしている。文書構造は、文書の文脈から抽出される文書構造をベースにしている。
- APo-VAE: Text Generation in Hyperbolic Space
- Shuyang Dai, Zhe Gan, Yu Cheng, Chenyang Tao, Lawrence Carin, Jingjing Liu
- TLDR: 自然言語における階層構造の学習について、階層構造を学習するAutoEncoderを提案。階層構造は、Encoderの入力とEncode結果から生成される。入力は、入力とEncode結果の入力を結合したものを入力とする。入力は、入力とEncode結果の入力を結合したものを入力とする。入力は、入力とEncode結果の入力を結合したものを入力とする。
- DART: Open-Domain Structured Data Record to Text Generation
- Linyong Nan, Dragomir Radev, Rui Zhang, Amrit Rau, Abhinand Sivaprasad, Chiachun Hsieh, Xiangru Tang, Aadit Vyas, Neha Verma, Pranav Krishna, Yangxiaokang Liu, Nadia Irwanto, Jessica Pan, Faiaz Rahman, Ahmad Zaidi, Mutethia Mutuma, Yasin Tarabar, Ankit Gupta, Tao Yu, Yi Chern Tan, Xi Victoria Lin, Caiming Xiong, Richard Socher, Nazneen Fatema Rajani
- TLDR: 自然言語処理で、テーブルの構造を抽出する研究。テーブルのタイトルとテーブルのテーブル長を結合し、テーブル長の重みを抽出する。テーブル長はテーブル長の重みを含まない、テーブル長はテーブル長の重みを含まない、という2つの重みを結合する形で作成している。
- When Being Unseen from mBERT is just the Beginning: Handling New Languages With Multilingual Language Models
- Benjamin Muller, Antonios Anastasopoulos, Benoît Sagot, Djamé Seddah
- TLDR: マルチタスクで学習する言語モデルを、事前学習済み言語モデルに転移する研究。事前学習済み言語モデルは、事前学習済み言語モデルと同等の性能を発揮するが、転移学習は転移先の言語モデルに依存する。そのため、転移先の言語モデルを学習する際は、転移先の言語モデルの文を翻訳する必要がある。
- Multi-Adversarial Learning for Cross-Lingual Word Embeddings
- Haozhou Wang, James Henderson, Paola Merlo
- TLDR: マルチタスク学習で、複数言語の単語分散表現を学習する研究。単語分散表現は、単語の分散表現と単語分散表現の2つを組み合わせて学習する。分散表現は、単語分散表現の重みを入力とする単語分散表現と、単語分散表現の重みを入力とする単語分散表現の2つに分割する。
- Multi-view Subword Regularization
- Xinyi Wang, Sebastian Ruder, Graham Neubig
- TLDR: マルチ言語対応の学習を行う際に、事前学習済みの手法をマルチ言語対応に応用した研究。事前学習済み手法は、事前学習済み言語の単語を個別に学習する(事前学習済み言語の単語は、個別に学習する必要はない)が、マルチ言語対応の学習では、個別の単語を学習する必要はない。
- mT5: A Massively Multilingual Pre-trained Text-to-Text Transformer
- Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, Colin Raffel
- TLDR: 翻訳モデルの学習済み言語モデルを、多言語のデータセットで学習した研究。翻訳モデルは、翻訳モデルの学習済み言語モデルと同等のモデルを学習する。翻訳モデルは、翻訳モデルの学習済み言語モデルと同等のモデルを学習する。翻訳モデルは、翻訳モデルの学習済み言語モデルと同等のモデルを学習する。
- MetaXL: Meta Representation Transformation for Low-resource Cross-lingual Learning
- Mengzhou Xia, Guoqing Zheng, Subhabrata Mukherjee, Milad Shokouhi, Graham Neubig, Ahmed Hassan Awadallah
- TLDR: 低リソース言語の転移学習を、マルチ言語の事前学習済みモデルで行う手法の提案。事前学習済みモデルは、転移学習時に言語間の関係を考慮する必要があり、この点を考慮したモデルを構築する。事前学習済みモデルは、転移学習時に言語間の関係を考慮する必要があり、この点を考慮したモデルを構築する。
- Open Domain Question Answering over Tables via Dense Retrieval
- Jonathan Herzig, Thomas Müller, Syrine Krichene, Julian Eisenschlos
- TLDR: 自然言語処理でテーブル情報を扱う研究。テーブル情報の検索は、文書の文書構造を入力とする。文書構造を入力とするモデルは、文書構造を入力とするモデルと同等の精度を維持できるか検証している。文書構造を入力とするモデルは、文書構造を入力とするモデルと同等の精度を維持できるか検証している。
- Open-Domain Question Answering Goes Conversational via Question Rewriting
- Raviteja Anantha, Svitlana Vakulenko, Zhucheng Tu, Shayne Longpre, Stephen Pulman, Srinivas Chappidi
- TLDR: 質問回答のタスクを、質問回答のタスクとタスクごとのタスクを分けて学習するタスクの提案。タスクは質問回答のタスクで、タスクごとのタスクはタスク分類のタスクで、タスク分類のタスクはタスク分類のタスクで学習する。タスクはタスク分類のタスクで、タスク分類のタスクはタスク分類のタスクで学習する。
- QA-GNN: Reasoning with Language Models and Knowledge Graphs for Question Answering
- Michihiro Yasunaga, Hongyu Ren, Antoine Bosselut, Percy Liang, Jure Leskovec
- TLDR: 事前学習済み言語モデルと知識グラフを組み合わせた研究。事前学習済み言語モデルは、知識グラフの重要性を評価する指標として使われることが多いが、知識グラフは知識グラフの重みを算出する指標として使われることが多い。そのため、知識グラフの重みを算出する指標として使われることが多い。
- XOR QA: Cross-lingual Open-Retrieval Question Answering
- Akari Asai, Jungo Kasai, Jonathan Clark, Kenton Lee, Eunsol Choi, Hannaneh Hajishirzi
- TLDR: マルチ言語のQAを行う際に、質問文を翻訳した文書から質問文を検索するタスクを提案。翻訳は翻訳モデルの学習済みモデルで行うが、翻訳は翻訳文書を翻訳した文書から行う。翻訳文書は翻訳済み文書を翻訳する形で行う。
- SPARTA: Efficient Open-Domain Question Answering via Sparse Transformer Matching Retrieval
- Tiancheng Zhao, Xiaopeng Lu, Kyusong Lee
- TLDR: オープンドメインのQAで、事前学習済みモデルを用いた手法の提案。事前学習済みモデルは、事前学習済みモデルの潜在表現を学習する。この潜在表現を、事前学習済みモデルの潜在表現に変換する。事前学習済みモデルは、事前学習済みモデルの潜在表現を学習する。事前学習済みモデルは、事前学習済みモデルの潜在表現を学習する。
- Implicitly Abusive Language – What does it actually look like and why are we not getting there?
- Michael Wiegand, Josef Ruppenhofer, Elisabeth Eder
- TLDR: 自然言語処理で、自然言語処理のモデルが、自然言語処理のモデルに依存する単語を検知する際の課題と対策についてまとめたサーベイ。学習データセットの提案、また、モデルの作成方法についてもまとめられている。
- The Importance of Modeling Social Factors of Language: Theory and Practice
- Dirk Hovy, Diyi Yang
- TLDR: 自然言語処理において、自然言語処理のモデルが言語モデルの学習に適応していないケースを調査した研究。言語モデルは自然言語処理のモデルと同等のモデルが適応できるか検証しているが、言語モデルの学習に適応していないケースは発見されていない。
- On learning and representing social meaning in NLP: a sociolinguistic perspective
- Dong Nguyen, Laura Rosseel, Jack Grieve
- TLDR: 自然言語処理における、自然言語処理の意味表現の研究。意味表現の生成は、自然言語処理のモデルの枠組みで行われることが多いが、この枠組みでは、言語モデルの枠組みで意味表現を生成する手法を提案している。
- Preregistering NLP research
- Emiel van Miltenburg, Chris van der Lee, Emiel Krahmer
- TLDR: 自然言語処理の研究で、事前学習を行う際に、事前学習済みモデルを使用できるようにする研究。モデルは、事前学習済みモデルのモデルをモデルの作成に使用する。モデルは、事前学習済みモデルのモデルを作成し、モデルの作成に使用するモデルを事前学習済みモデルに入力する。事前学習済みモデルは、事前学習済みモデルのモデルを学習するモデルと同等のモデルを使用。
- Get Your Vitamin C! Robust Fact Verification with Contrastive Evidence
- Tal Schuster, Adam Fisch, Regina Barzilay
- TLDR: 事実を検証するWikipediaの文書を、事実と異なる箇所を追加・変更する手法のサーベイ。Wikipediaの文書を、事実と異なる箇所を追加・変更する手法を検証した研究。Wikipediaの文書は、Wikipediaの文書と同等の文書が使用されている。文書は、Wikipediaの文書と同等の文書が使用されている。
- Representing Numbers in NLP: a Survey and a Vision
- Avijit Thawani, Jay Pujara, Filip Ilievski, Pedro Szekely
- TLDR: 自然言語処理で、単語の意味を表現するタスクをまとめたサーベイ。単語の意味を表現するタスクは、単語の意味を表現するタスクと、単語の意味を表現するタスクの2つに分けられている。単語の意味を表現するタスクは、単語の意味を表現するタスクと、単語の意味を表現するタスクの2つに分けられている。
- Extending Multi-Document Summarization Evaluation to the Interactive Setting
- Ori Shapira, Ramakanth Pasunuru, Hadar Ronen, Mohit Bansal, Yael Amsterdamer, Ido Dagan
- TLDR: 多文書の要約を、事前学習済みモデルの要約と比較し、事前学習済みモデルの要約を比較した研究。要約は要約の生成に使用されるモデルで、要約は要約の生成に使用されるモデルをベースにしている。要約は要約の生成に使用されるモデルをベースにしている。
- Identifying Helpful Sentences in Product Reviews
- Iftah Gamzu, Hila Gonen, Gilad Kutiel, Ran Levy, Eugene Agichtein
- TLDR: レビューから、商品に関する良い点と悪い点を抽出する研究。レビューは、レビューの評価を基に作成されることが多いが、レビューはレビューの評価を基に作成される。レビューは、レビューの評価が良かった/悪い点を抽出する。レビューは、レビューの評価を基に作成されることが多いが、レビューは評価の質を重視する。
- Noisy Self-Knowledge Distillation for Text Summarization
- Yang Liu, Sheng Shen, Mirella Lapata
- TLDR: 教師なし学習で、教師なし学習を有効に使う研究。教師なし学習は、教師の指示に従うと学習が困難になるため、教師なし学習を学習するモデルを導入している。教師なし学習は、教師の指示に従うと学習が困難になるため、教師なし学習を導入している。
- Improving Zero and Few-Shot Abstractive Summarization with Intermediate Fine-tuning and Data Augmentation
- Alexander Fabbri, Simeng Han, Haoyuan Li, Haoran Li, Marjan Ghazvininejad, Shafiq Joty, Dragomir Radev, Yashar Mehdad
- TLDR: 文書要約のモデルを、事前学習済みモデルに転移する研究。事前学習済みモデルは、Wikipediaの文書要約を生成するデータセット(Wikipedia.org)から生成する。Wikipedia.orgはWikipedia.orgの文書要約を生成するデータセットで、Wikipedia.orgはWikipedia.orgの文書要約を生成するデータセットで学習する。
- Enhancing Factual Consistency of Abstractive Summarization
- Chenguang Zhu, William Hinthorn, Ruochen Xu, Qingkai Zeng, Michael Zeng, Xuedong Huang, Meng Jiang
- TLDR: 文書中の事実関係を、事前学習済みモデルで補完する研究。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を取っている。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を取っている。事前学習済みモデルは、事前学習済みモデルの予測精度を上げるための手法を取っている。
- Few-shot Intent Classification and Slot Filling with Retrieved Examples
- Dian Yu, Luheng He, Yuan Zhang, Xinya Du, Panupong Pasupat, Qi Li
- TLDR: 自然言語処理で、ラベルを入力とするタスクで、ラベルを入力とするモデルを学習する手法の提案。ラベルを入力とするタスクで、入力とラベルを入力とするタスクを比較し、ラベルを入力とするタスクでラベルを入力とするタスクを学習する。ラベルを入力とするタスクで、ラベルを入力とするタスクでラベルを入力とするタスクを学習する。
- “Nice Try, Kiddo”: Investigating Ad Hominems in Dialogue Responses
- Emily Sheng, Kai-Wei Chang, Prem Natarajan, Nanyun Peng
- TLDR: 対話システムに対するAd hominem攻撃について、事前学習済みモデルと対話システムのデータセットを比較した研究。対話システムのデータセットは、事前学習済みモデルと対話システムのデータセットを比較し、Ad hominem攻撃に対する対応が異なる場合に、対応が異なるデータセットを比較する。
- Human-like informative conversations: Better acknowledgements using conditional mutual information
- Ashwin Paranjape, Christopher Manning
- TLDR: 対話システムで、新しい事実を追加する際の対応を学習する研究。対話システムは、新しい事実を追加した際に、その事実を認識するかどうかを学習する。対話システムは、新しい事実を追加した際に、認識するかどうかを学習する。対話システムは、事前学習済みの対話システムと同等の精度を維持できるか検証している。
- A Comparative Study on Schema-Guided Dialogue State Tracking
- Jie Cao, Yi Zhang
- TLDR: 対話システムの事前学習で、自然言語の文書を用いた事前学習方法を調査した研究。事前学習済みモデルのEncoder/DecoderのEncode/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEncoder/DecoderのEnco
- Spoken Language Understanding for Task-oriented Dialogue Systems with Augmented Memory Networks
- Jie Wu, Ian Harris, Hongzhi Zhao
- TLDR: 文中のラベルを予測するタスクで、ラベルの予測とラベルの予測を同時に行う研究。ラベルの予測は、ラベルの予測とラベルの予測の2つを同時に行う。ラベルの予測は、ラベルの予測とラベルの予測の2つを同時に行う。ラベルの予測は、ラベルの予測とラベルの予測の2つを同時に行う。
- How to Motivate Your Dragon: Teaching Goal-Driven Agents to Speak and Act in Fantasy Worlds
- Prithviraj Ammanabrolu, Jack Urbanek, Margaret Li, Arthur Szlam, Tim Rocktäschel, Jason Weston
- TLDR: 強化学習で、自然言語で行動を指示するエージェントを生成する研究。エージェントの行動は、行動の目的と報酬の目的を一致させる必要がある。そのため、報酬の目的と報酬の報酬の報酬を一致させるための行動を学習する。
- Linking Entities to Unseen Knowledge Bases with Arbitrary Schemas
- Yogarshi Vyas, Miguel Ballesteros
- TLDR: 事前学習済み知識ベースを学習データに置き換える研究。事前学習済み知識ベースは、事前学習済み知識ベースの属性値を入力とする。この属性値を入力とする文を、事前学習済み知識ベースの属性値に置き換える形で学習する。事前学習済み知識ベースは、事前学習済み知識ベースの属性値を入力とする。
- Self-Training with Weak Supervision
- Giannis Karamanolakis, Subhabrata Mukherjee, Guoqing Zheng, Ahmed Hassan Awadallah
- TLDR: 教師なし学習で、学習データのラベルを誤差させる手法の提案。ラベルなしデータは学習データのラベルが誤差する可能性があるため、ラベルなしデータの予測を教師なし学習に組み込む。教師なし学習は、ラベルなしデータの予測が誤差する可能性がある場合に有効。
- Neural Language Modeling for Contextualized Temporal Graph Generation
- Aman Madaan, Yiming Yang
- TLDR: 事前学習済み言語モデルを事前学習済み文書から自動生成する研究。事前学習済み言語モデルは、文書のタイトル/本文/過去記事/過去記事の順番を予測する。文書のタイトル/本文/過去記事の順番を予測するモデルを事前学習済み言語モデルに組み込むことで、文書の文書構造を予測する。文書の文書構造を予測するモデルを導入し、文書の文書構造を予測するモデルを導入している。
- Probabilistic Box Embeddings for Uncertain Knowledge Graph Reasoning
- Xuelu Chen, Michael Boratko, Muhao Chen, Shib Sankar Dasgupta, Xiang Lorraine Li, Andrew McCallum
- TLDR: 知識ベースの事前学習で、事前学習済み知識を事前学習済み知識に組み込む手法の提案。事前学習済み知識は、事前学習済み知識の予測結果と異なる場合に、事前学習済み知識を追加する。事前学習済み知識は、事前学習済み知識の予測結果と異なる場合に追加する。事前学習済み知識は、事前学習済み知識の予測結果と異なる場合に追加する。
- Document-Level Event Argument Extraction by Conditional Generation
- Sha Li, Heng Ji, Jiawei Han
- TLDR: 文書から、文書内の文書から、文書内の文書から文書内の文書から文書内の文書から文書内の文書から文書内の文書から文書内の文書から文書内の文書から文書内の文書から文書内の文書から文書内の文書から文書内の文書から文書内の文書から文書内の文書から文書文書から文書文書の文書から文書文書から文書文書の文書から文書文書から文書文書から文書文書から文書文書から文書文書から文書文書から文書文書から文書文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書から文書
- Template Filling with Generative Transformers
- Xinya Du, Alexander Rush, Claire Cardie
- TLDR: 文書の埋め込みを、事前学習済みモデルで行う手法の提案。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成するが、事前学習済みモデルは予測結果を基に生成する。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成する。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成する。
- Towards Interpreting and Mitigating Shortcut Learning Behavior of NLU models
- Mengnan Du, Varun Manjunatha, Rajiv Jain, Ruchi Deshpande, Franck Dernoncourt, Jiuxiang Gu, Tong Sun, Xia Hu
- TLDR: 言語モデルの予測精度を上げるために、長いタスクを学習するモデルを導入した研究。長いタスクは予測精度が上がる一方、短いタスクは予測精度が落ちる。そのため、長いタスクを学習する際は長いタスクを学習する。長いタスクは学習率が高いほど学習率が高い傾向があるが、長いタスクは学習率が高い傾向がある。
- On Attention Redundancy: A Comprehensive Study
- Yuchen Bian, Jiaji Huang, Xingyu Cai, Jiahong Yuan, Kenneth Church
- TLDR: マルチラベルのマルチタスクモデルで、Attentionの不変性を検証した研究。事前学習済みモデルと、BERTベースモデルのモデルを比較し、不変性がどの程度かを検証している。不変性は事前学習済みモデルの不変性と同等であるが、不変性は事前学習済みモデルの不変性と同等であるとしている。
- Does BERT Pretrained on Clinical Notes Reveal Sensitive Data?
- Eric Lehman, Sarthak Jain, Karl Pichotta, Yoav Goldberg, Byron Wallace
- TLDR: 医療記録からプライバシー情報を復元する研究。通常の臨床記録からプライバシー情報を復元するのは困難なので、臨床記録を公開するモデルを公開する。公開されるモデルは、臨床記録のデータセットを公開する形で公開されている。公開されるモデルは、臨床記録のデータセットを公開する形で公開されている。
- Low-Complexity Probing via Finding Subnetworks
- Steven Cao, Victor Sanh, Alexander Rush
- TLDR: マルチモーダルモデルの学習で、学習済みモデルの潜在表現を学習する手法の提案。学習済みモデルの潜在表現を学習する際は、学習済みモデルの潜在表現を学習するネットワークを選び、学習済みネットワークのネットワークを学習する。学習済みネットワークのネットワークは学習済みモデルの潜在表現を学習するネットワークと同等の精度を達成。
- An Empirical Comparison of Instance Attribution Methods for NLP
- Pouya Pezeshkpour, Sarthak Jain, Byron Wallace, Sameer Singh
- TLDR: モデルの学習データに対するAttributionの適用を検証した研究。学習データに対するAttributionは、学習データの分布を予測するモデルの予測結果と比較し、分布が異なる場合にAttributionが低いと判断する。分布が異なる場合、Attributionが低いと判断する。
- Generalization in Instruction Following Systems
- Soham Dan, Michael Zhou, Dan Roth
- TLDR: 自然言語処理で、学習データの理解度を検証した研究。学習データの理解度は、学習データの分布が近いか、学習データの分布が近いか、学習データの分布が近いか、学習データの分布が近いか、学習データの分布が近いか、学習データの分布が近いか、など様々な観点から検証している。
- LightningDOT: Pre-training Visual-Semantic Embeddings for Real-Time Image-Text Retrieval
- Siqi Sun, Yen-Chun Chen, Linjie Li, Shuohang Wang, Yuwei Fang, Jingjing Liu
- TLDR: 画像認識/言語モデルの事前学習を効率化する研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを学習する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを学習する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを学習する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するタスクを学習する。
- Measuring Social Biases in Grounded Vision and Language Embeddings
- Candace Ross, Boris Katz, Andrei Barbu
- TLDR: 自然言語処理で、自然言語処理のBiasを測定する手法の提案。Biasは自然言語処理のBiasと同等、また同等に重要であるとし、Biasは言語処理のBiasと同等重要であるとし、Biasは言語処理のBiasと同等重要であるとし、Biasは言語処理のBiasと同等重要であるとし、Biasは言語処理のBiasと同等重要であるとし、Biasは言語処理のBiasと同等重要であるとし、Biasは言語処理のBiasと同等重要であるとし、Biasは言語処理のBiasと同等
- MTAG: Modal-Temporal Attention Graph for Unaligned Human Multimodal Language Sequences
- Jianing Yang, Yongxin Wang, Ruitao Yi, Yuying Zhu, Azaan Rehman, Amir Zadeh, Soujanya Poria, Louis-Philippe Morency
- TLDR: マルチモーダルな表現を扱う研究。マルチモーダルな表現を扱う際は、表現の表現を表現するノードを複数用意し、それらを結合したノードをグラフに分割する。このノードを、マルチモーダルな表現を扱う際に使用する。
- Grounding Open-Domain Instructions to Automate Web Support Tasks
- Nancy Xu, Sam Masling, Michael Du, Giovanni Campagna, Larry Heck, James Landay, Monica Lam
- TLDR: 自然言語の指示をWebLangに入力し、WebEncoderで学習する研究。BERT-LSTMをベースに、WebEncoderの入力をBERT-LSTMに変換し、BERT-LSTMをベースに学習する。BERT-LSTMはBERT-LSTMと同等の構造で、BERT-LSTMはBERT-LSTMと同等の構造で学習する。BERT-LSTMはBERT-LSTMと同等の構造で学習する。
- Modular Networks for Compositional Instruction Following
- Rodolfo Corona, Daniel Fried, Coline Devin, Dan Klein, Trevor Darrell
- TLDR: 自然言語処理のタスクを、学習済みモデルで行う研究。タスクは、自然言語のタスクを学習する。タスクは、タスクの学習済みモデルで学習する。タスクは、タスクの学習済みモデルで学習する。タスクは、タスクの学習済みモデルで学習する。タスクは、タスクの学習済みモデルで学習する。タスクは、タスクの学習済みモデルで学習する。
- Improving Cross-Modal Alignment in Vision Language Navigation via Syntactic Information
- Jialu Li, Hao Tan, Mohit Bansal
- TLDR: 自然言語による3D環境のマニピュレーションを、自然言語の文脈から推定する研究。各文脈の文法情報(依存構造)を、自然言語の文脈から推定する。これにより、自然言語の文脈と、自然言語の文脈との距離を近づける。
- Improving Pretrained Models for Zero-shot Multi-label Text Classification through Reinforced Label Hierarchy Reasoning
- Hui Liu, Danqing Zhang, Bing Yin, Xiaodan Zhu
- TLDR: マルチラベルテキスト分類タスクで、ラベル間の相互依存を強化する手法の提案。ラベルの重みを重みの重みに変換し、ラベルの重みを重みの重みに変換する。重みの重みは、ラベルの重みとラベルの重みの重みの重みを重みの重みに変換する。重みの重みは、重みの重みを重みの重みに変換する。
- Fine-Tuning Pre-trained Language Model with Weak Supervision: A Contrastive-Regularized Self-Training Approach
- Yue Yu, Simiao Zuo, Haoming Jiang, Wendi Ren, Tuo Zhao, Chao Zhang
- TLDR: 事前学習済み言語モデル(LSTM)を、事前学習済みモデルに合わせる研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルの重みを上回る精度を発揮するが、事前学習済みモデルは学習データの過剰なラベルを生成する。そのため、事前学習済みモデルの挙動を予測するモデルを提案。
- Posterior Differential Regularization with f-divergence for Improving Model Robustness
- Hao Cheng, Xiaodong Liu, Lis Pereira, Yaoliang Yu, Jianfeng Gao
- TLDR: 自然言語処理モデルの耐性を強化する手法のサーベイ。事前学習済みモデルの事前学習済みモデルと比較して、事前学習済みモデルの耐性を向上させるための事前学習済みモデルの組み合わせを検証。事前学習済みモデルは事前学習済みモデルと同等の精度を達成できるが、事前学習済みモデルは精度が低下する。
- Understanding Hard Negatives in Noise Contrastive Estimation
- Wenzheng Zhang, Karl Stratos
- TLDR: 教師なし学習で、学習データの選択を誤らせるとされる「negative」の分布を、学習データの分布と比較して誤らせるとしている。学習データの分布は、学習データの分布と比較して、学習データの分布が異なる場合に誤差が大きくなる傾向がある。
- Certified Robustness to Word Substitution Attack with Differential Privacy
- Wenjie Wang, Pengfei Tang, Jian Lou, Li Xiong
- TLDR: 自然言語処理モデルに対するAdversarial耐性を検証した研究。Adversarial耐性は、単語の類似度を予測するモデルの耐性と同等であるとしている。Adversarial耐性は、単語の類似度を予測するモデルの耐性と同等であるとしている。
- DReCa: A General Task Augmentation Strategy for Few-Shot Natural Language Inference
- Shikhar Murty, Tatsunori B. Hashimoto, Christopher Manning
- TLDR: 教師なし学習で、学習データセットの分類を学習する手法の提案。分類はBERTで行うが、分類はデータセットの分類結果をBERTに入力し、BERTの分類結果をBERTの分類結果と比較し、BERTの分類結果をBERTの分類結果と比較し、BERTの分類結果をBERTの分類結果と比較し、BERTの分類結果をBERTの分類結果と比較し、BERTの分類結果をBERTの分類結果と比較し、BERTの分類結果をBERTの分類結果と比較し、BERTの分類結果をBERTの分類結果と比較し、BERTの
- Harnessing Multilinguality in Unsupervised Machine Translation for Rare Languages
- Xavier Garcia, Aditya Siddhant, Orhan Firat, Ankur Parikh
- TLDR: 教師なし翻訳で、低リソースの言語を学習する研究。低リソースの言語を学習する際は、教師なしのモデルをベースに学習する。教師なしのモデルは、低リソース言語の学習に適応する。教師なしのモデルは、低リソース言語の学習に適応する。
- Macro-Average: Rare Types Are Important Too
- Thamme Gowda, Weiqiu You, Constantine Lignos, Jonathan May
- TLDR: 機械翻訳の評価指標について、モデルベースの評価指標と同等の精度を達成できるか検証した研究。モデルベースの評価指標は、翻訳の精度と翻訳の質を比較する指標として使われることが多いが、精度と質のバランスが崩れると判断される。そこで、精度と質のバランスを考慮したモデルを構築し、精度と質のバランスを考慮したモデルを評価する手法を提案している。
- Assessing Reference-Free Peer Evaluation for Machine Translation
- Sweta Agrawal, George Foster, Markus Freitag, Colin Cherry
- TLDR: 翻訳モデルの評価を、モデルの学習済み言語モデルと比較して精度を上げるために、モデルの学習済み言語モデルをベースに、モデルの学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語モデルをベースに学習済み言語
- The Curious Case of Hallucinations in Neural Machine Translation
- Vikas Raunak, Arul Menezes, Marcin Junczys-Dowmunt
- TLDR: 自然言語処理で、自然なノイズが生成される現象について検証した研究。ノイズは単なるノイズではなく、潜在表現のノイズに近いものになる。ノイズは、潜在表現の表現に近いものになる。ノイズは、潜在表現の表現に近いものになる。
- Towards Continual Learning for Multilingual Machine Translation via Vocabulary Substitution
- Xavier Garcia, Noah Constant, Ankur Parikh, Orhan Firat
- TLDR: マルチ言語の翻訳モデルで、翻訳文の単語を自動翻訳する手法の提案。翻訳文の単語を自動翻訳するだけでなく、翻訳文の単語を自動翻訳するモデルも提案している。翻訳文の単語を自動翻訳するモデルは、翻訳文の単語を自動翻訳するモデルと同等の性能を発揮する。
- Towards Modeling the Style of Translators in Neural Machine Translation
- Yue Wang, Cuong Hoang, Marcello Federico
- TLDR: 翻訳モデルの学習時に、翻訳者の情報を利用する研究。翻訳者の情報はTransformerで提供されているが、Transformerは翻訳者の情報のみで学習を行っている。そのため、翻訳者の情報からTransformerの学習を行なっている。
- Self-Supervised Test-Time Learning for Reading Comprehension
- Pratyay Banerjee, Tejas Gokhale, Chitta Baral
- TLDR: 教師なし学習で、文書を読む際に質問回答を学習する研究。文書の文書分類を学習する際、文書分類のモデルを文書分類のモデルと同等のモデルに置き換える。文書分類は文書分類のモデルで行うが、文書分類は文書分類のモデルで行う。文書分類は文書分類のモデルで行う。文書分類は文書分類のモデルで行う。文書分類は文書分類のモデルで行う。文書分類は文書分類のモデルで行う。
- Capturing Row and Column Semantics in Transformer Based Question Answering over Tables
- Michael Glass, Mustafa Canim, Alfio Gliozzo, Saneem Chemmengath, Vishwajeet Kumar, Rishav Chakravarti, Avi Sil, Feifei Pan, Samarth Bharadwaj, Nicolas Rodolfo Fauceglia
- TLDR: テーブルの情報を抽出する研究。入力データのクラス分類をTransformerで行う。入力データのクラス分類は、入力データのクラス分類と入力データのクラス分類の2つに分けている。入力データのクラス分類は、入力データのクラス分類と入力データのクラス分類の2つに分けている。入力データのクラス分類は、入力データのクラス分類と入力データのクラス分類の2つに分けている
- Explainable Multi-hop Verbal Reasoning Through Internal Monologue
- Zhengzhong Liang, Steven Bethard, Mihai Surdeanu
- TLDR: マルチホップの要約を行う際に、自然言語で要約を行う手法の提案。要約は単純な要約と、複数回要約を組み合わせた要約を交互に行う要約の2つに分けて行う。要約は要約の要約を生成するモデルで、要約は要約の要約を生成するモデルで行う。
- Robust Question Answering Through Sub-part Alignment
- Jifan Chen, Greg Durrett
- TLDR: 文書から文関係を推定するモデルの提案。文関係は、文の意味を含まない表現を含まない形で表現される。文関係は、文関係の表現を含まない表現に置き換える形で表現される。文関係は、文関係の表現を含まない表現に置き換える形で表現される。文関係は、文関係の表現を含まない表現に置き換える形で表現される。
- Text Modular Networks: Learning to Decompose Tasks in the Language of Existing Models
- Tushar Khot, Daniel Khashabi, Kyle Richardson, Peter Clark, Ashish Sabharwal
- TLDR: テキストをマルチタスクに分解する研究。入力と出力の2つの入力を結合し、入力と出力の2つの入力を結合する。入力と出力の2つの入力を結合する形で、入力と出力の2つの入力を結合する。出力はテキストベースのモデルで、出力はテキストベースのモデルで行う。
- RECONSIDER: Improved Re-Ranking using Span-Focused Cross-Attention for Open Domain Question Answering
- Srinivasan Iyer, Sewon Min, Yashar Mehdad, Wen-tau Yih
- TLDR: モデルの学習を、span-basedで行う研究。モデルは学習済みモデルと同等のモデルで、学習済みモデルの予測結果をベースに学習する。モデルは、学習済みモデルの予測結果をベースに学習する。学習済みモデルは、学習済みモデルの予測結果をベースに学習する。
- On the Transferability of Minimal Prediction Preserving Inputs in Question Answering
- Shayne Longpre, Yi Lu, Chris DuBois
- TLDR: モデルの予測精度を上げるために、長いパッチを扱うモデルが存在する。このパッチは、予測精度が低い場合に予測精度が低いと判断されるパッチの重みを含んでいる。この重みを入力に追加することで、予測精度を上げることができる。
- Understanding by Understanding Not: Modeling Negation in Language Models
- Arian Hosseini, Siva Reddy, Dzmitry Bahdanau, R Devon Hjelm, Alessandro Sordoni, Aaron Courville
- TLDR: 事前学習済み言語モデルで、自然言語処理のノルムを追加することで、事前学習済みモデルの精度を上げる試み。事前学習済みモデルは、事前学習済みモデルのノルムを追加することで精度を上げている。事前学習済みモデルは、事前学習済みモデルのノルムを追加することで精度を上げている。
- DuoRAT: Towards Simpler Text-to-SQL Models
- Torsten Scholak, Raymond Li, Dzmitry Bahdanau, Harm de Vries, Chris Pal
- TLDR: 自然言語処理でSQLを入力するモデルの提案。既存のモデルは、SQLの入力と潜在表現を結合するTransformerをベースにしており、Transformerは潜在表現を入力とし、Transformerは潜在表現を入力とし、Transformerは潜在表現を入力とし、Transformerは潜在表現を入力とし、Transformerは潜在表現を入力とし、Transformerは潜在表現を入力とし、Transformerは潜在表現を入力とし、双方向の入力を行なっている。
- Looking Beyond Sentence-Level Natural Language Inference for Question Answering and Text Summarization
- Anshuman Mishra, Dhruvesh Patel, Aparna Vijayakumar, Xiang Lorraine Li, Pavan Kapanipathi, Kartik Talamadupula
- TLDR: 自然言語処理で、長い文を扱う際に、文長が短くなる原因を調べた研究。文長が長い場合、文長が長い文長を学習するモデルが有効な結果を出しにくい。そのため、長い文長を学習するモデルを導入する。これにより、長い文長を学習するモデルより精度が向上する。
- Structure-Grounded Pretraining for Text-to-SQL
- Xiang Deng, Ahmed Hassan Awadallah, Christopher Meek, Oleksandr Polozov, Huan Sun, Matthew Richardson
- TLDR: テキストテーブルの事前学習を強化する研究。事前学習は、テキストテーブルの構造を学習する。構造は、テキストテーブルの各ノードの位置関係を予測する。この時、ノードの位置関係を予測するモデルを用い、ノードの位置関係を予測するモデルを学習する。
- Incremental Few-shot Text Classification with Multi-round New Classes: Formulation, Dataset and System
- Congying Xia, Wenpeng Yin, Yihao Feng, Philip Yu
- TLDR: 自然言語処理で、クラス分類を行う際に、クラス分類のサンプル数を増やして学習するタスクの提案。クラス分類のサンプル数を増やして学習するが、この時クラス分類のサンプル数を減らすと学習が失敗する。そのため、クラス分類のサンプル数を減らす手法を提案している。
- Temporal Reasoning on Implicit Events from Distant Supervision
- Ben Zhou, Kyle Richardson, Qiang Ning, Tushar Khot, Ashish Sabharwal, Dan Roth
- TLDR: 自然言語処理で、自然言語処理のモデルが、自然言語処理の予測に適応できるかを検証した研究。自然言語処理では、自然言語処理の予測結果を予測する際、予測結果から予測する時刻を予測する。時刻は、予測結果を予測する際の重要な要素として扱われる。時刻は、予測結果を予測する際の重要な要素として扱われる。
- Disentangling Semantics and Syntax in Sentence Embeddings with Pre-trained Language Models
- James Y. Huang, Kuan-Hao Huang, Kai-Wei Chang
- TLDR: 事前学習済み言語モデルで文の分散表現を学習する研究。文の分散表現は、文の文法と単語の分散表現を結合する形で学習する。文の分散表現は、文の分散表現と文の分散表現を結合する形で学習する。文分散表現は、文分散表現の学習に使用する。
- Structure-Aware Abstractive Conversation Summarization via Discourse and Action Graphs
- Jiaao Chen, Diyi Yang
- TLDR: 対話システムのモデルを、質問に対する回答を生成するモデルに置き換えた研究。質問に対する回答は、質問に対する回答と質問に対する回答の2つに分けて生成する。質問に対する回答は、質問に対する回答と質問に対する回答の2つに分けて生成する。質問に対する回答は、質問に対する回答と質問に対する回答の2つに分けて生成する。
- A New Approach to Overgenerating and Scoring Abstractive Summaries
- Kaiqiang Song, Bingqing Wang, Zhe Feng, Fei Liu
- TLDR: 要約の生成を行う際に、複数の要約を生成する手法を提案。要約は要約の長さと要約の長さをそれぞれ予測し、要約の長さを予測する。要約は要約の長さを予測するが、長さを予測する際は長さを予測する。要約は要約の長さを予測するが、長さを予測する際は長さを予測する。
- D2S: Document-to-Slide Generation Via Query-Based Text Summarization
- Edward Sun, Yufang Hou, Dakuo Wang, Yunfeng Zhang, Nancy X. R. Wang
- TLDR: 文書から文書を作成するタスクを、事前学習済みモデルで行う研究。文書から文書を生成する際、文書タイトルを入力とする。文書タイトルは文書のタイトルと同等の文書タイトルを入力とする。文書タイトルは文書タイトルと同等の文書タイトルを入力とする。文書タイトルは文書タイトルと同等の文書タイトルを入力とする。文書タイトルは文書タイトルと同等の文書タイトルを入力とする。文書タイトルは文書タイトルと同等の文書タイトルを入力とする。文書タイトルは文書タイトルと同等の文書タイトルを入力とする。文書タイトルは文書タイトルと同等の文書タイトルを入力とする。文書タイトルは文書タイトルと同等の文書タイトルを入力とする。文書タイトルは
- Efficient Attentions for Long Document Summarization
- Luyang Huang, Shuyang Cao, Nikolaus Parulian, Heng Ji, Lu Wang
- TLDR: 文書の要約を効率的に行う研究。Encoder DecoderのAttentionを、Encoder DepthのAttentionに置き換える。Attentionは、文書の要約を生成する際の重要な要素を抽出する。文書の要約は、文書の要約を生成するEncoder Depthの重みを計算する。
- RefSum: Refactoring Neural Summarization
- Yixin Liu, Zi-Yi Dou, Pengfei Liu
- TLDR: 文書要約と要約の組み合わせを、既存の手法と比較して、シンプルな手法で行う手法の提案。要約は要約の文を要約文に置き換える形で行うが、要約は要約文の文長が短い場合要約文の長が短くなる。要約は要約文の長が短い場合要約文の長が長くなる。
- Annotating and Modeling Fine-grained Factuality in Summarization
- Tanya Goyal, Greg Durrett
- TLDR: 事前学習済みモデルで、誤った要約を学習する際の注意点をまとめた研究。誤った要約は、文単位だけでなく文全体にも存在する。文単位の誤差は、文全体の誤差と同等の結果になるが、文全体の誤差は、文全体の誤差と同等の結果になる。
- Larger-Context Tagging: When and Why Does It Work?
- Jinlan Fu, Liangjing Feng, Qi Zhang, Xuanjing Huang, Pengfei Liu
- TLDR: 文単位の文書分類を行う際に、文単位の情報だけでなく文書単位の情報も加味した手法を提案。文書単位の情報だけでなく文書単位の情報も加味した手法を提案している。文書単位の情報だけでなく文書単位の情報も加味した手法を提案している。
- Neural Sequence Segmentation as Determining the Leftmost Segments
- Yangming Li, Lemao Liu, Kaisheng Yao
- TLDR: 自然言語処理で、文中の単語を個別に Segmentationする研究。単語のEncoder/DecoderをLSTM-minusで作成し、文中の単語をEncodeした単語をRNNで学習する。Encoder/Decoderは単語のEncode結果を予測するが、Decoderは単語のEncode結果を予測する。
- PCFGs Can Do Better: Inducing Probabilistic Context-Free Grammars with Many Symbols
- Songlin Yang, Yanpeng Zhao, Kewei Tu
- TLDR: 教師なし学習で、単語の意味を抽出する手法の提案。単語の意味を抽出する際、単語の意味を抽出する単語行列を、単語の意味を抽出する単語行列に置き換える形で表現する。単語の意味を抽出する単語行列を、単語の意味を抽出する単語行列に置き換える形で表現する。
- GEMNET: Effective Gated Gazetteer Representations for Recognizing Complex Entities in Low-context Input
- Tao Meng, Anjie Fang, Oleg Rokhlenko, Shervin Malmasi
- TLDR: 自然言語処理で、文中の単語を予測する研究。文中の単語を予測するEntityを、文中の単語を予測するEntityと、文中の単語を予測するEntityの2つに分割し、Entityの予測結果をEntityの予測結果と比較するEntityの予測結果から予測するEntityの予測結果を予測するEntityの予測結果を予測するEntityの予測結果を予測するEntityの予測結果を予測するEntityの予測結果を予測するEntityの予測結果を予測するEntityの予測結果を予測するEntityの予測結果を予測
- Video-aided Unsupervised Grammar Induction
- Songyang Zhang, Linfeng Song, Lifeng Jin, Kun Xu, Dong Yu, Jiebo Luo
- TLDR: 動画から文の意味を推定する手法の提案。動画から単語を推定するだけでなく、文の意味を推定するモデルも提案されている。単語の意味を推定するモデルは、学習済みモデルと同等の精度を維持できるが、学習済みモデルは学習時間が長くなるため、学習時間が長くなるよう学習する。
- Generating Negative Samples by Manipulating Golden Responses for Unsupervised Learning of a Response Evaluation Model
- ChaeHun Park, Eugene Jang, Wonsuk Yang, Jong Park
- TLDR: 対話システムに対する評価を自動生成する研究。対話システムの評価は、質問に対する回答の順番が近いか、質問に対する回答の順番が異なるか、質問に対する回答の順番が異なるか、質問に対する回答の順番が異なるか、など様々な観点から評価を行う。評価は、質問に対する回答の順番が近いか、また質問に対する回答の順番が異なるかを評価する。
- How Robust are Fact Checking Systems on Colloquial Claims?
- Byeongchang Kim, Hyunwoo Kim, Seokhee Hong, Gunhee Kim
- TLDR: 対話システムで、文書リプットの精度が下がる現象について検証した研究。文書リプットは文書の検索結果を予測するモデルで、文書リプットの精度は文書リプットモデルの精度と同程度。文書リプットは文書リプットモデルの精度と同程度だが、文書リプットは文書リプットモデルの精度と同程度。文書リプットモデルは文書リプットモデルの精度が下がる。
- Fine-grained Post-training for Improving Retrieval-based Dialogue Systems
- Janghoon Han, Taesuk Hong, Byoungjae Kim, Youngjoong Ko, Jungyun Seo
- TLDR: マルチタスクで使用する言語モデルの事前学習を、事前学習済みモデルと比較した研究。事前学習済みモデルは、事前学習済みモデルの表現を学習する。事前学習済みモデルは、事前学習済みモデルの表現を学習する。事前学習済みモデルは、事前学習済みモデルの表現を学習する。事前学習済みモデルは、事前学習済みモデルの表現を学習する。
- Put Chatbot into Its Interlocutor’s Shoes: New Framework to Learn Chatbot Responding with Intention
- Hsuan Su, Jiun-Hao Jhan, Fan-yun Sun, Saurav Sahay, Hung-yi Lee
- TLDR: 対話システムの仕組みを、人間に近い状態に変える研究。対話システムは、人間が発するメッセージを予測するモデルをベースにしており、その予測結果をベースに、人間が発するメッセージを予測するモデルをベースにしている。
- Adding Chit-Chat to Enhance Task-Oriented Dialogues
- Kai Sun, Seungwhan Moon, Paul Crook, Stephen Roller, Becka Silvert, Bing Liu, Zhiguang Wang, Honglei Liu, Eunjoon Cho, Claire Cardie
- TLDR: タスクを学習する際、質問に答えるタスクを追加する研究。タスクを学習する際は、タスクの目的を予測する形でタスクを学習する。タスクを学習する際は、タスクの目的を予測する形でタスクを学習する。タスクの目的を予測する形でタスクを学習する。タスクの目的を達成するために、タスクの目的を達成するよう学習する。
- Incorporating Syntax and Semantics in Coreference Resolution with Heterogeneous Graph Attention Network
- Fan Jiang, Trevor Cohn
- TLDR: 文中の文構造をグラフで表現する研究。文中の単語は、文中の単語と同等かそれ以上の単語を含んでいる。単語の位置は、文中の単語と同等かそれ以上の単語を含んでいる。単語の位置は、文中の単語と同等かそれ以上の単語を含んでいる。
- Context Tracking Network: Graph-based Context Modeling for Implicit Discourse Relation Recognition
- Yingxue Zhang, Fandong Meng, Peng Li, Ping Jian, Jie Zhou
- TLDR: 文関係の推定を行う際に、文関係の推定をグラフベースで行う研究。文関係は文書全体のグラフで、文書全体のグラフは文書全体のグラフで学習する。文書全体のグラフは文書全体の文書構造を表すグラフで、文書全体の文書構造を表すグラフは文書構造を表すグラフで学習する。文書構造を表すグラフは文書構造を表す文書構造を表す文書構造を表す文書構造を表す文書構造を表す文書構造を表す文書構造を表す文書構造を表す文書構造を表す文書構造を表す文書構造を
- Improving Neural RST Parsing Model with Silver Agreement Subtrees
- Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, Masaaki Nagata
- TLDR: 文構造の分類を、ラベルなしデータで行う研究。ラベルなしデータは、ラベルなし文書の分類精度を上げるために使われることが多いが、ラベルなし文書の分類精度は、ラベルなし文書の分類精度と同等の性能を維持できるかを検証した研究。ラベルなし文書の分類精度は、ラベルなし文書の分類精度と同等の性能を維持できるかを検証した。
- RST Parsing from Scratch
- Thanh-Tung Nguyen, Xuan-Phi Nguyen, Shafiq Joty, Xiaoli Li
- TLDR: 文書レベルの文書構造の事前学習を、文書構造の学習に使用した研究。文書構造の学習は、文書構造の学習と文書構造の学習の2つに分けて行う。文書構造の学習は、文書構造の学習と文書構造の学習の2つに分けて行う。文書構造の学習は、文書構造の学習と文書構造の学習の2つに分けて行う。
- Did they answer? Subjective acts and intents in conversational discourse
- Elisa Ferracane, Greg Durrett, Junyi Jessy Li, Katrin Erk
- TLDR: 自然言語処理で、文中の単語を個別に解釈する研究。文中の単語は、文中の単語と同等か否かを問う質問文で、文中の単語は「同等」と答える。文中の単語は「同等」と答えるが、文中の単語は「同等」と答える。文中の単語は「同等」と答えるが、文中の単語は「同等」と答える。
- Evaluating the Impact of a Hierarchical Discourse Representation on Entity Coreference Resolution Performance
- Sopan Khosla, James Fiacco, Carolyn Rosé
- TLDR: 自然言語処理で、文構造を階層的に表現する手法の提案。階層構造は、文構造の表現を階層的に表現する。階層構造は、文構造の表現を階層的に表現する。階層構造は、文構造の表現を階層的に表現する。階層表現は、文構造の表現を階層的に表現する。
- Bridging Resolution: Making Sense of the State of the Art
- Hideo Kobayashi, Vincent Ng
- TLDR: マルチタスク学習モデルの比較。モデルは、通常のマルチタスク学習モデルと比較して、マルチタスクの学習率が低いモデル(=マルチタスク学習モデル)を比較し、マルチタスク学習モデルのパフォーマンスを比較した研究。マルチタスク学習モデルは、マルチタスク学習モデルと比較して、マルチタスク学習モデルのパフォーマンスが異なることを確認。
- Explicitly Modeling Syntax in Language Models with Incremental Parsing and a Dynamic Oracle
- Yikang Shen, Shawn Tan, Alessandro Sordoni, Siva Reddy, Aaron Courville
- TLDR: 自然言語処理で、文構造を予測する研究。文構造は、文の意味を予測する潜在表現として使用される。文構造は、文の意味を予測する潜在表現として使用される。文構造は、文の意味を予測する潜在表現として使用される。文構造は、文の意味を予測する潜在表現として使用される。
- Revisiting the Weaknesses of Reinforcement Learning for Neural Machine Translation
- Samuel Kiegeland, Julia Kreutzer
- TLDR: 学習済みモデルの学習方法について、学習済みモデルの学習方法と報酬分布を検証した研究。学習済みモデルは学習済みモデルの学習方法と報酬分布を比較し、報酬分布が低い場合学習が困難、報酬分布が大きい場合学習が困難、という2つの観点から検証している。
- Learning to Organize a Bag of Words into Sentences with Neural Networks: An Empirical Study
- Chongyang Tao, Shen Gao, Juntao Li, Yansong Feng, Dongyan Zhao, Rui Yan
- TLDR: 自然言語処理で、文の順序を変更する研究。文の順序は、文の意味を予測する重要な要素として扱われる。順序は、文の意味を予測する重要な要素として扱われる。順序は、文の意味を予測する重要な要素として扱われる。順序は、文の意味を予測する重要な要素として扱われる。
- Mask Attention Networks: Rethinking and Strengthen Transformer
- Zhihao Fan, Yeyun Gong, Dayiheng Liu, Zhongyu Wei, Siyuan Wang, Jian Jiao, Nan Duan, Ruofei Zhang, Xuanjing Huang
- TLDR: テキスト表現の学習において、Mask Attention NetworkとFeed Forward Networkを組み合わせた研究。Mask AttentionはMask Matrixを学習する際、Mask Matrixの重みをMask Matrixに変換する。Mask MatrixはMask Matrixの重みをMask Matrixに変換する。Mask MatrixはMask Matrixの重みをMask Matrixに変換する。
- ERNIE-Gram: Pre-Training with Explicitly N-Gram Masked Language Modeling for Natural Language Understanding
- Dongling Xiao, Yu-Kun Li, Han Zhang, Yu Sun, Hao Tian, Hua Wu, Haifeng Wang
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルと同等の精度で学習する研究。事前学習済み言語モデルは、事前学習済み言語モデルと同等の精度を達成できるが、事前学習済み言語モデルは事前学習済み言語モデルと同等の精度を達成できない。そこで、事前学習済み言語モデルを事前学習済み言語モデルと同等の精度で学習する手法を提案。
- Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese Pre-trained Language Models
- Yuxuan Lai, Yijia Liu, Yansong Feng, Songfang Huang, Dongyan Zhao
- TLDR: 自然言語処理で、文中の単語をGraph NNで表現し、それをTransformer NNに入力する研究。文中の単語をGraph NNで表現し、Transformer NN を入力とする。Transformer NN は、文中の単語をGraph NNで表現し、Transformer NN は、文中の単語をGraph NN に入力する。
- Modeling Event Plausibility with Consistent Conceptual Abstraction
- Ian Porada, Kaheer Suleman, Adam Trischler, Jackie Chi Kit Cheung
- TLDR: 自然言語処理で、自然言語処理モデルの予測結果と人間が予測結果との相関が低いことを示した研究。予測結果は、予測結果と人間が予測結果との相関が低いことを示している。予測結果は、予測結果と人間が予測結果との相関が低いことを示している。
- UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual Embeddings Using the Unified Medical Language System Metathesaurus
- George Michalopoulos, Yuanxin Wang, Hussam Kaka, Helen Chen, Alexander Wong
- TLDR: 自然言語処理で、事前学習済み言語モデルと事前学習済みドメイン知識を統合する研究。事前学習済みドメイン知識は、事前学習済み言語モデルの事前学習済み単語と同等の精度を達成できるか検証している。事前学習済みドメイン知識は、事前学習済み言語モデルの事前学習済み単語と同等の精度を達成できるか検証している。
- Field Embedding: A Unified Grain-Based Framework for Word Representation
- Junjie Luo, Xi Chen, Jichao Sun, Yuejia Xiang, Ningyu Zhang, Xiang Wan
- TLDR: 自然言語処理で、単語分散表現を学習する研究。単語分散表現は、単語の意味を表現する単語分散表現と、単語分散表現の2つを学習する。単語分散表現は、単語分散表現の学習に使用する。単語分散表現は、単語分散表現の学習に使用する。
- MelBERT: Metaphor Detection via Contextualized Late Interaction using Metaphorical Identification Theories
- Minjin Choi, Sunkyung Lee, Eunseong Choi, Heesoo Park, Junhyuk Lee, Dongwon Lee, Jongwuk Lee
- TLDR: 文中の単語を、文中の単語と同等かそれ以上の意味を持つ表現に置き換える手法の提案。単語の意味を「意味」と「意味」の2つに置き換え、意味の表現を「意味」と「意味」の2つに置き換える。単語の意味を「意味」と「意味」の2つに置き換える形で、文中の単語を分類する。
- Non-Parametric Few-Shot Learning for Word Sense Disambiguation
- Howard Chen, Mengzhou Xia, Danqi Chen
- TLDR: 自然言語処理で、単語分散表現を学習する手法の提案。単語分散表現は、単語の分散表現を学習する際の学習率を考慮する。学習率は、単語分散表現の学習率と同等の精度を維持する。学習率は、単語分散表現の学習率と同等の精度を維持する。
- Why Do Document-Level Polarity Classifiers Fail?
- Karen Martins, Pedro O.S Vaz-de-Melo, Rodrygo Santos
- TLDR: 映画レビューの評価に、過剰なPolarity(Discrimination)を含まない箇所を除去する研究。過剰なPolarityは、評価の誤差が事実と異なる場合に発生する。過剰なPolarityは、評価の誤差が事実と異なる場合に発生する。過剰なPolarityは、評価の誤差が事実と異なる場合に発生する。過剰なPolarityは、評価の誤差が事実と異なる場合に発生する。
- A Unified Span-Based Approach for Opinion Mining with Syntactic Constituents
- Qingrong Xia, Bo Zhang, Rui Wang, Zhenghua Li, Yue Zhang, Fei Huang, Luo Si, Min Zhang
- TLDR: 自然言語処理で、文中の意見表現をスspanベースで表現する研究。スspanベースは、文中の意見表現をスspanベースの表現に置き換えたもの。スspanベースは、文中の意見表現をスspanベースの表現に置き換えたもの。スspanベースは、文中の意見表現をスspanベースの表現に置き換えたもの。スspanベースは、文中の意見表現をスspanベースの表現に置き換えたもの。
- Target-specified Sequence Labeling with Multi-head Self-attention for Target-oriented Opinion Words Extraction
- Yuhao Feng, Yanghui Rao, Yuyao Tang, Ninghua Wang, He Liu
- TLDR: 評価対象のopinion termを抽出する手法の提案。評価対象のopinion termを抽出するタスクは、Aspect/opinion termのEncoder/Decoderの2つに分けて行う。Decoderは、Aspect/opinion termのEncoder/Decoderの2つを同時に抽出する。Decoderは、Aspect/opinion termのEncoder/Decoderの2つを同時に抽出する。
- Does syntax matter? A strong baseline for Aspect-based Sentiment Analysis with RoBERTa
- Junqi Dai, Hang Yan, Tianxiang Sun, Pengfei Liu, Xipeng Qiu
- TLDR: 感情の分類タスクで、事前学習済みモデル(PTM)と、事前学習済みモデル(RoBERTa)の学習方法を比較した研究。事前学習済みモデルは、事前学習済みモデルの学習率を上回る精度を達成できたが、事前学習済みモデルは学習率が下がる傾向がある。事前学習済みモデルは、事前学習済みモデルの学習率を上回る精度を達成できた。
- Domain Divergences: A Survey and Empirical Analysis
- Abhinav Ramesh Kashyap, Devamanyu Hazarika, Min-Yen Kan, Roger Zimmermann
- TLDR: ニューラルネットの学習モデルで、学習モデルのパフォーマンスを計測する指標について調査した研究。データ選択、学習モデルのパフォーマンス、また、学習モデルのパフォーマンスを計測する指標について調査した。データ選択は、情報量・地理・高次元の3つの分類に分けられているが、高次元の分類は、情報量・地理・高次元の3つの分類に分けられている。
- Target-Aware Data Augmentation for Stance Detection
- Yingjie Li, Cornelia Caragea
- TLDR: stance detectionのデータ拡張について、事前学習済みモデルのデータ拡張と、事前学習済みモデルのデータ拡張を組み合わせた研究。事前学習済みモデルのデータ拡張は、事前学習済みモデルの予測結果を基に行う。事前学習済みモデルの予測結果は、事前学習済みモデルの予測結果と同等の結果が得られることを確認。
- End-to-end ASR to jointly predict transcriptions and linguistic annotations
- Motoi Omachi, Yuya Fujita, Shinji Watanabe, Matthew Wiesner
- TLDR: 音声認識で、音声を翻訳する際のタスクを提案。音声を翻訳する際は、音声の長さと長さの差分を考慮する。長さは長くなるほど長くなるが、長くなるほど長くなる音声を認識する。長くなるほど長くなる音声を認識する精度が下がる。
- Source and Target Bidirectional Knowledge Distillation for End-to-end Speech Translation
- Hirofumi Inaguma, Tatsuya Kawahara, Shinji Watanabe
- TLDR: 音声翻訳において、事前学習済みモデルをベースに事前学習済みモデルを導入する研究。事前学習済みモデルは、事前学習済みモデルの学習済み言語をベースに、事前学習済みモデルの学習済み言語をベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習済み言語をベースに学習する。事前学習済みモデルは、事前学習済みモデルの学習済み言語をベースに学習する。
- Searchable Hidden Intermediates for End-to-End Models of Decomposable Sequence Tasks
- Siddharth Dalmia, Brian Yan, Vikas Raunak, Florian Metze, Shinji Watanabe
- TLDR: マルチDecoderの学習で、End-to-Endの学習を行なう手法の提案。学習済みモデルの学習済み表現を、End-to-Endの学習済みモデルに入力し、End-to-Endの学習済みモデルの学習済み表現を入力とする。入力は、End-to-Endの学習済みモデルで入力する。
- SPLAT: Speech-Language Joint Pre-Training for Spoken Language Understanding
- Yu-An Chung, Chenguang Zhu, Michael Zeng
- TLDR: 事前学習済み言語モデルと事前学習済み音声モデルを組み合わせた研究。事前学習済み言語モデルは音声のみで学習するが、事前学習済み音声は事前学習済み言語モデルの予測結果と同等の精度を達成できる。事前学習済み言語モデルは事前学習済み音声のみで学習するが、事前学習済み言語モデルは事前学習済み音声のみで学習する。
- Worldly Wise (WoW) - Cross-Lingual Knowledge Fusion for Fact-based Visual Spoken-Question Answering
- Kiran Ramnath, Leda Sari, Mark Hasegawa-Johnson, Chang Yoo
- TLDR: 画像を検索するタスクで、画像の単語を検索するタスクを提案。画像の単語は、画像の画像を検索するタスクで使われる単語をベースに、画像の画像を検索するタスクで使われる単語をベースにしている。画像の単語は、画像の画像を検索するタスクで使われる単語をベースにしている。
- Align-Refine: Non-Autoregressive Speech Recognition via Iterative Realignment
- Ethan A. Chi, Julian Salazar, Katrin Kirchhoff
- TLDR: 事前学習済みモデルを、自動生成モデルに置き換える研究。事前学習済みモデルは、事前学習済みモデルの精度を上げるため、事前学習済みモデルの精度を上げるための初期値を自動調整する。事前学習済みモデルは、事前学習済みモデルの精度を上げるための初期値を自動調整する。
- Everything Has a Cause: Leveraging Causal Inference in Legal Text Analysis
- Xiao Liu, Da Yin, Yansong Feng, Yuting Wu, Dongyan Zhao
- TLDR: 裁判所の文書から、因果推論を行うためのGraph Baseのモデルを提案。因果推論は文書からではなく文書から行うことが多いが、文書から文書を生成する際は文書から生成した文書を基に文書を生成する。文書から文書を生成する際は文書の文書構造を考慮する必要があるが、文書構造を考慮するよう学習する。
- Counterfactual Supporting Facts Extraction for Explainable Medical Record Based Diagnosis with Graph Network
- Haoran Wu, Wei Chen, Shuang Xu, Bo Xu
- TLDR: 電子医学記録(EMR)を、事前学習済みの知識ベースで解釈する研究。事前学習済みの知識ベースは、通常のEMRの説明と異なる箇所を発見する。そこで、事前学習済みの知識ベースから、複数点の画像を結合した画像を生成する手法を提案。
- Personalized Response Generation via Generative Split Memory Network
- Yuwei Wu, Xuezhe Ma, Diyi Yang
- TLDR: 質問に対する回答を生成する際、ユーザーのプロフィールと投稿履歴を組み合わせて生成を行う研究。投稿履歴は、質問に対する回答を生成する際のベースラインとなる。投稿履歴は、質問に対する回答を生成する際のベースラインとなる。投稿履歴は、質問に対する回答を生成する際のベースラインとなる。
- Towards Few-shot Fact-Checking via Perplexity
- Nayeon Lee, Yejin Bang, Andrea Madotto, Pascale Fung
- TLDR: 事前学習済み言語モデルを、転移学習に活用する研究。事前学習済みモデルは、事前学習済み言語モデルのパラメーターを入力として学習する。パラメーターは、事前学習済み言語モデルのパラメーターを入力として、事前学習済み言語モデルのパラメーターを入力として学習する。事前学習済み言語モデルは、事前学習済み言語モデルのパラメーターを入力として学習する。
- Active^2 Learning: Actively reducing redundancies in Active Learning methods for Sequence Tagging and Machine Translation
- Rishi Hazra, Parag Dutta, Shubham Gupta, Mohammed Abdul Qaathir, Ambedkar Dukkipati
- TLDR: 自然言語処理で、モデルの学習に適したサンプルを自動生成する手法の提案。モデルは、学習時に適したサンプルを自動生成する。自動生成は、モデルの学習に適したサンプルを自動生成するモデルの枠組みで行われる。自動生成は、モデルの学習に適したサンプルを自動生成するモデルの枠組みで行われる。
- Generating An Optimal Interview Question Plan Using A Knowledge Graph And Integer Linear Programming
- Soham Datta, Prabir Mallick, Sangameshwar Patil, Indrajit Bhattacharya, Girish Palshikar
- TLDR: 採用時に、質問bankを自動生成する研究。質問bankは、質問の分類方法(=質問の分類結果)を学習する際の参考となる。質問bankは、質問の分類結果を学習する際の参考となる。質問bankは、質問の分類結果を学習する際の参考となる。
- Model Extraction and Adversarial Transferability, Your BERT is Vulnerable!
- Xuanli He, Lingjuan Lyu, Lichao Sun, Qiongkai Xu
- TLDR: 自然言語処理におけるモデルの盗作手法について、攻撃手法を検証した研究。攻撃手法は、モデルの盗作とAdversarial Transferabilityを併用する。盗作は、モデルの盗作とAdversarial Transferabilityを併用する。盗作は、モデルの盗作とAdversarial Transferabilityを併用する。
- A Global Past-Future Early Exit Method for Accelerating Inference of Pre-trained Language Models
- Kaiyuan Liao, Yi Zhang, Xuancheng Ren, Qi Su, Xu Sun, Bin He
- TLDR: 事前学習済み言語モデルの予測精度を上げるために、事前学習済み言語モデルの予測精度を上げるために、事前学習済み言語モデルの予測精度を上げるために事前学習済み言語モデルの予測精度を上げるために、事前学習済み言語モデルの予測精度を上げるために事前学習済み言語モデルの予測精度を上げるために、事前学習済み言語モデルの予測精度を上げるために事前学習済み言語モデルの予測精度を上げるために、事前学習済み言語モデルの予測精度を上げるために事前学習済み言語モデルの予測精度を上げるために、事前学習済み言語モデルの予測精度を上げるために事前学習済み言語モデルの予測精度を上げるために、事前学習済み言語モデルの予測精度
- Masked Conditional Random Fields for Sequence Labeling
- Tianwen Wei, Jianwei Qi, Shenghuan He, Songtao Sun
- TLDR: マルチタスクでCNNを適用する手法の提案。CNNのタスクで、タスクのタスクをランダムに選択する(CNNのタスクは、タスクのタスクをランダムに選択する)。タスクの選択は、タスクのタスクをランダムに選択する形で行う。タスクは、タスクのタスクをランダムに選択する形で行う。タスクは、タスクのタスクをランダムに選択する形で行う。タスクは、タスクのタスクをランダムに選択する形で行う。タスクは、タスクのタスクをランダムに選択する形で行う。タスクは
- Heterogeneous Graph Neural Networks for Concept Prerequisite Relation Learning in Educational Data
- Chenghao Jia, Yongliang Shen, Yechun Tang, Lu Sun, Weiming Lu
- TLDR: 教師なし学習で、事前学習済みモデルと同等のモデルを学習する研究。モデルは、教師なし学習の枠組みで学習する。教師なし学習は、教師なしモデルの学習と同等のモデルを学習する。教師なしモデルは、教師なしモデルの学習と同等のモデルを学習する。
- Be Careful about Poisoned Word Embeddings: Exploring the Vulnerability of the Embedding Layers in NLP Models
- Wenkai Yang, Lei Li, Zhiyuan Zhang, Xuancheng Ren, Xu Sun, Bin He
- TLDR: 自然言語処理モデルの脆弱性を防ぎつつ、モデルのパフォーマンスを下げるために、マルウェアを導入する手法の提案。マルウェアは、モデルの生成時に単語を入力とする単語ベクトルを生成するが、このベクトルは単語ベクトルの生成時に使われる単語ベクトルをベースに生成する。これにより、モデルのパフォーマンスを下げることが可能になる。
- DA-Transformer: Distance-aware Transformer
- Chuhan Wu, Fangzhao Wu, Yongfeng Huang
- TLDR: テキスト距離を計算するTransformerを、距離を計算する精度を上げるために学習する手法の提案。距離は、Attentionの位置とKey位置の距離を計算する。Key位置は、Attentionの位置とKey位置の距離を計算する。Key位置は、Key位置の位置と位置の距離を計算する。
- ASAP: A Chinese Review Dataset Towards Aspect Category Sentiment Analysis and Rating Prediction
- Jiahao Bu, Lei Ren, Shuang Zheng, Yang Yang, Jingang Wang, Fuzheng Zhang, Wei Wu
- TLDR: レビュー評価を自動生成する手法の提案。レビュー評価は、評価の質と評価の質のバランスを考慮する。評価は、評価の質と評価のバランスを考慮する。評価は、評価の質と評価のバランスを考慮する。評価は、評価の質と評価のバランスを考慮する。評価は、評価のバランスを考慮する。
- Are NLP Models really able to Solve Simple Math Word Problems?
- Arkil Patel, Satwik Bhattamishra, Navin Goyal
- TLDR: 自然言語処理で、アルゴリズムの学習を行わずに、単語の意味を理解するためのモデルを提案。単語の意味を理解するモデルは、単語の意味を理解するモデルと同等の精度を達成できるが、単語の意味を理解するモデルは、単語の意味を理解するモデルと同等の精度を達成できるか検証している。
- WRIME: A New Dataset for Emotional Intensity Estimation with Subjective and Objective Annotations
- Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, Hajime Nagahara
- TLDR: 記事の感情を推定するデータセットの提案。記事のタイトルとタイトルを入力にし、記事のタイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力にし、記事タイトルとタイトルを入力に
- KPQA: A Metric for Generative Question Answering Using Keyphrase Weights
- Hwanhee Lee, Seunghyun Yoon, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Joongbo Shin, Kyomin Jung
- TLDR: 生成文の正しい推定を検証する研究。生成文の単語を予測する際、単語の重みを異なる単語に分割し、その重みをそれぞれ個別に予測する。これにより、生成文の正しい推定が行えるか検証する。
- StylePTB: A Compositional Benchmark for Fine-grained Controllable Text Style Transfer
- Yiwei Lyu, Paul Pu Liang, Hai Pham, Eduard Hovy, Barnabás Póczos, Ruslan Salakhutdinov, Louis-Philippe Morency
- TLDR: テキストのスタイル変換を、事前学習済みモデルと比較した研究。事前学習済みモデルは、文構造、文長、文長、文長の3つの要素を考慮し、各要素の重みを固定する形でスタイル変換を行う。この重みは、文長、文長、文長の3要素に依存する。
- Blow the Dog Whistle: A Chinese Dataset for Cant Understanding with Common Sense and World Knowledge
- Canwen Xu, Wangchunshu Zhou, Tao Ge, Ke Xu, Julian McAuley, Furu Wei
- TLDR: 自然言語処理で、自然言語処理のタスクを解くためのデータセットを提案。タスクは、自然言語処理のタスクで、単語の類似度(=単語の意味)を調べる。単語の意味を調べるだけでなく、単語の意味を調べるタスクも提案されている。
- COVID-19 Named Entity Recognition for Vietnamese
- Thinh Hung Truong, Mai Hoang Dao, Dat Quoc Nguyen
- TLDR: 自然言語処理の研究で、自然言語処理のタスクを自動翻訳する研究。事前学習済み言語モデル(XLM-R)をベースに、事前学習済み言語モデルの単語を自動翻訳する。事前学習済み言語モデルは、単語の分類精度が低いため、単語の分類精度を上げるために、単語の分類精度を上げるために使用している。
- Framing Unpacked: A Semi-Supervised Interpretable Multi-View Model of Media Frames
- Shima Khanehzar, Trevor Cohn, Gosia Mikolajczak, Andrew Turpin, Lea Frermann
- TLDR: ニュースのフレーム分類を自動生成する研究。ニュースのフレーム分類は、ニュースのニュースソースからニュースのニュースソースを生成する。ニュースソースの情報を、ニュースソースのニュースソースから生成する。生成したニュースソースは、ニュースソースのニュースソースに入力する。
- Automatic Classification of Neutralization Techniques in the Narrative of Climate Change Scepticism
- Shraey Bhatia, Jey Han Lau, Timothy Baldwin
- TLDR: 自然変動に対する不信を、自然変動の予測に利用する手法の提案。不信の予測は、自然変動の予測と異なる行動を起こす可能性があることを示唆する。不信の予測は、自然変動の予測と異なる行動を起こす可能性があることを示唆する。
- Suicide Ideation Detection via Social and Temporal User Representations using Hyperbolic Learning
- Ramit Sawhney, Harshit Joshi, Rajiv Ratn Shah, Lucie Flek
- TLDR: ツリーから、SNSのメッセージを抽出する研究。ツリーの画像から、ツリーの画像からツリーの画像を抽出する。ツリーの画像は、ツリーの画像からツリーの画像を抽出する。ツリーの画像は、ツリーの画像からツリーの画像を抽出する。ツリーの画像は、ツリー画像からツリー画像を抽出する。ツリー画像は、ツリー画像からツリー画像を抽出する。ツリー画像は、ツリー画像からツリー画像を抽出する。ツリー画像は、ツリー画像からツリー画像を抽出する。ツリー画像は、
- WikiTalkEdit: A Dataset for modeling Editors’ behaviors on Wikipedia
- Kokil Jaidka, Andrea Ceolin, Iknoor Singh, Niyati Chhaya, Lyle Ungar
- TLDR: 対話システムのモデルで、Wikipediaの編集者と対話を行う際に、感情的な変化を予測する研究。Wikipediaの編集者と対話を行う際、Wikipediaのコミュニティのルールを無視する(=不適な編集)と、Wikipediaのルールを無視する(=不適な編集)を比較し、どちらが不適かを予測する。
- The structure of online social networks modulates the rate of lexical change
- Jian Zhu, David Jurgens
- TLDR: オンラインコミュニティの単語の分類に、ネットワーク構造が関わっているという研究。ネットワークの構造は、ネットワークの規模(大規模なネットワーク)と、ネットワークの規模(大規模なネットワーク)の2つに分けられている。大規模なネットワークは、単語の分類に大きな影響を及ぼす。
- Modeling Framing in Immigration Discourse on Social Media
- Julia Mendelsohn, Ceren Budak, David Jurgens
- TLDR: ニュースのフレームワークを、政治や社会問題に適用した研究。フレームワークは、政治や社会問題に関するフレームワーク(政治/社会問題)をベースに、フレームワークの分類は、政治/社会問題に関するフレームワーク(政治/社会問題)をベースにしている。フレームワークは、政治/社会問題に関するフレームワークをベースにしている。
- Modeling the Severity of Complaints in Social Media
- Mali Jin, Nikolaos Aletras
- TLDR: 不満を持つ人に対して、どんな対応が行えるかを調査した研究。不満を持つ人の行動を分類するネットワークを、学習済みのTransformerベースのモデルで学習し、不満を持つ人の行動を分類する。不満を持つ人の行動を分類するネットワークを、不満を持つ人の行動を分類するネットワークに置き換えたモデルで学習する。
- What About the Precedent: An Information-Theoretic Analysis of Common Law
- Josef Valvoda, Tiago Pimentel, Niklas Stoehr, Ryan Cotterell, Simone Teufel
- TLDR: 裁判の結果が、過去の判決文に基づいた判決文と異なる場合、判決文の事実関係は重要なのか?という問いに、過去の判決文と過去の判決文の事実関係を比較した研究。判決文の事実関係は、判決文の判決文と同等の重要度を有するが、判決文の事実関係は重要ではないとしている。
- Introducing CAD: the Contextual Abuse Dataset
- Bertie Vidgen, Dong Nguyen, Helen Margetts, Patricia Rossini, Rebekah Tromble
- TLDR: 掲示板の荒らし行為を検出するデータセットの提案。荒らしは掲示板の投稿からではなく、投稿文から検出する。荒らしは投稿文のタイトル/タイトルを入力に置き換えたものから、投稿文のタイトル/タイトルを入力に置き換えたものから検出する。荒らしは投稿文から検出する。
- Lifelong Learning of Hate Speech Classification on Social Media
- Jing Qian, Hong Wang, Mai ElSherief, Xifeng Yan
- TLDR: 自然言語処理で、学習済みモデルの学習を継続する研究。学習済みモデルは学習済みモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルを組み合わせて学習する。学習済みモデルは学習済みモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルを組み合わせる。学習済みモデルは学習済みモデルの学習済みモデルと同等の学習済みモデルの学習済みモデルを組み合わせる。
- Learning to Recognize Dialect Features
- Dorottya Demszky, Devyani Sharma, Jonathan Clark, Vinodkumar Prabhakaran, Jacob Eisenstein
- TLDR: 言語モデルの分類を行うタスクについて、マルチタスクで学習した研究。タスクは、言語モデルの分類結果を入力として、言語モデルの分類結果を入力として入力する。タスクは、言語モデルの分類結果を入力として入力する。タスクは、言語モデルの分類結果を入力として入力する。タスクは、言語モデルの分類結果を入力として入力する。
- It’s Not Just Size That Matters: Small Language Models Are Also Few-Shot Learners
- Timo Schick, Hinrich Schütze
- TLDR: 自然言語処理で、モデルの挙動を変えた研究。モデルは、学習済み言語モデルと同等の挙動を取っているが、学習済み言語モデルの挙動は同じ。モデルは、学習済み言語モデルの挙動を変えたモデルをベースに、学習済み言語モデルの挙動を変えたモデルをベースに学習を行っている。
- Static Embeddings as Efficient Knowledge Bases?
- Philipp Dufter, Nora Kassner, Hinrich Schütze
- TLDR: 事前学習済み言語モデル(BERT)が、事前学習済み言語モデル(Masked Knowledge Base)と比較して、事前学習済み言語モデル(Masked Knowledge Base)の精度が大幅に向上したという研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み単語をベースに学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み単語をベースに学習する。
- Highly Efficient Knowledge Graph Embedding Learning with Orthogonal Procrustes Analysis
- Xutan Peng, Guanyi Chen, Chenghua Lin, Mark Stevenson
- TLDR: 自然言語処理で、学習時間を削減する手法の提案。学習済みモデルの潜在表現を、学習済みモデルの潜在表現に置き換える形で学習する。潜在表現は、潜在表現の潜在表現を入力とするモデルに入力する。入力は、入力と入力の潜在表現を入力とする。入力は、入力と入力の潜在表現を入力とする。
- Rethinking Network Pruning – under the Pre-train and Fine-tune Paradigm
- Dongkuan Xu, Ian En-Hsu Yen, Jinxi Zhao, Zhibin Xiao
- TLDR: 事前学習済みモデルの学習と、事前学習済みモデルの学習を比較した研究。事前学習済みモデルは学習データが少ないため、学習データが少ない場合学習率が下がる。学習データが少ない場合学習率が下がるが、学習データが少ない場合学習率が下がる。事前学習済みモデルは学習率が下がる一方、学習データが少ない場合学習率が下がる。
- Towards a Comprehensive Understanding and Accurate Evaluation of Societal Biases in Pre-Trained Transformers
- Andrew Silva, Pradyumna Tambwekar, Matthew Gombolay
- TLDR: 事前学習済み言語モデルで、性別や国籍といった社会的な偏りを検証した研究。性別/国籍の偏りは、事前学習済みモデルのモデルのパフォーマンスに影響を与える可能性があることを確認。また、事前学習済みモデルのパフォーマンスが良好か検証した研究。
- Detoxifying Language Models Risks Marginalizing Minority Voices
- Albert Xu, Eshaan Pathak, Eric Wallace, Suchin Gururangan, Maarten Sap, Dan Klein
- TLDR: マルチカテゴリのテキスト生成モデル(LM)を、過適合を防ぐための過適合防止の手法として、過適合を防ぐための過適合防止の手法を提案している。過適合防止の手法は、マルチカテゴリのテキスト生成モデル(CNN)と同等の効果をもたらすが、過適合を防ぐ手法は、過適合を防ぐための過適合を防ぐための過適合を防ぐための過適合を誘導する。
- HONEST: Measuring Hurtful Sentence Completion in Language Models
- Debora Nozza, Federico Bianchi, Dirk Hovy
- TLDR: 言語モデルが、性別関係の不一致を検出する研究。不一致は性別関係の不一致を検出するモデルの不一致と見なせる。不一致は性別関係の不一致を検出するモデルの不一致と見なせる。不一致は性別関係の不一致を検出するモデルの不一致と見なせる。
- EaSe: A Diagnostic Tool for VQA based on Answer Diversity
- Shailza Jolly, Sandro Pezzelle, Moin Nabi
- TLDR: 画像に対する質問に対する、画像に対する質問に対する、質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問に対する質問
- DeCEMBERT: Learning from Noisy Instructional Videos via Dense Captions and Entropy Minimization
- Zineng Tang, Jie Lei, Mohit Bansal
- TLDR: 動画から画像を抽出する手法の提案。画像を抽出する際、画像の画像をEntropy minimizationでなくAttention lossでなく、画像のEntropy minimizationでなく、画像のEntropy minimizationでAttention lossを導入している。
- Improving Generation and Evaluation of Visual Stories via Semantic Consistency
- Adyasha Maharana, Darryl Hannan, Mohit Bansal
- TLDR: 自然言語処理で、画像生成を行う際に、画像の生成に使われる手法をまとめたサーベイ。画像生成の手法は、画像の生成に使われる画像の質、画像の生成に使われる画像の質、画像の生成に使われる画像の質、画像の生成に使われる画像の質、画像の生成に使われる画像の質、生成に使われる画像の質、生成に使われる画像の質、といった3つの観点から検証を行っている。
- Multilingual Multimodal Pre-training for Zero-Shot Cross-Lingual Transfer of Vision-Language Models
- Po-Yao Huang, Mandela Patrick, Junjie Hu, Graham Neubig, Florian Metze, Alexander Hauptmann
- TLDR: マルチモーダル学習を行う際に、事前学習済みモデルをTransformerで学習する研究。Transformerは英語をベースに、英語以外に多言語のモデルを学習する。Transformerは英語をベースに、多言語のモデルは英語以外に多言語のモデルを学習する。学習済みモデルは、Transformerの学習済みモデルと同等の精度を維持できる。
- Video Question Answering with Phrases via Semantic Roles
- Arka Sadhu, Kan Chen, Ram Nevatia
- TLDR: 動画中の単語を抽出するタスクを、動画の説明から抽出する研究。質問文を抽出する際、質問文の単語数を減らす(単語数を減らす=単語の数を増やす)ことで、質問文の精度を上げている。
- From Masked Language Modeling to Translation: Non-English Auxiliary Tasks Improve Zero-shot Spoken Language Understanding
- Rob van der Goot, Ibrahim Sharaf, Aizhan Imankulova, Ahmet Üstün, Marija Stepanović, Alan Ramponi, Siti Oryza Khairunnisa, Mamoru Komachi, Barbara Plank
- TLDR: 翻訳文のSlot/Intentを、翻訳文のSlotと翻訳文の翻訳文を翻訳文のSlotに分けて学習する研究。翻訳文のSlotは、翻訳文のSlotと翻訳文の翻訳文を翻訳文のSlotに分けて学習する。翻訳文のSlotは、翻訳文のSlotと翻訳文の翻訳文を翻訳文のSlotに分けて学習する。
- WEC: Deriving a Large-scale Cross-document Event Coreference dataset from Wikipedia
- Alon Eirew, Arie Cattan, Ido Dagan
- TLDR: マルチタスクで文書を扱う際に、Wikipediaのイベント抽出を効率的に行う研究。Wikipediaのイベント抽出はWikipediaの文書を参照する形で行われるが、文書の文書分類は文書分類機で行う。文書分類機はWikipediaの文書分類機と同等の精度を維持している。
- Challenging distributional models with a conceptual network of philosophical terms
- Yvette Oortwijn, Jelke Bloem, Pia Sommerauer, Francois Meyer, Wei Zhou, Antske Fokkens
- TLDR: 言語モデルの学習を、大規模なデータセットで行う研究。大規模なデータセットは、言語モデルの学習が難しい場合に限界がある。そこで、言語モデルの学習を、大規模なデータセットで行う手法を提案している。学習は、言語モデルの学習と同等の手法で行い、学習は、言語モデルの学習と同等の手法で行い、学習は、言語モデルの学習と同等の手法で行い、学習は、学習済み言語モデルの学習と同等の手法で行い、学習は、学習済み言語モデルの学習と同等の手法で行い、学習は、学習済み言語モデルの学習と同等の手法で行い、
- KILT: a Benchmark for Knowledge Intensive Language Tasks
- Fabio Petroni, Aleksandra Piktus, Angela Fan, Patrick Lewis, Majid Yazdani, Nicola De Cao, James Thorne, Yacine Jernite, Vladimir Karpukhin, Jean Maillard, Vassilis Plachouras, Tim Rocktäschel, Sebastian Riedel
- TLDR: 自然言語処理で、Wikipediaの文書を事前学習した研究。Wikipediaの文書はWikipediaの文書と同等の構造を取っており、Wikipediaの文書を事前学習したモデルで事前学習したモデルと比較して良好な結果を記録。事前学習済みモデルと比較して、事前学習済みモデルの精度が向上している。
- A Survey on Recent Approaches for Natural Language Processing in Low-Resource Scenarios
- Michael A. Hedderich, Lukas Lange, Heike Adel, Jannik Strötgen, Dietrich Klakow
- TLDR: 自然言語処理において、少ないデータで学習を行う手法についてまとめられたサーベイ。データ拡張や転移学習といった手法がまとめられているが、それらの手法がどれくらい低リソース環境で学習できるかは、各環境の特性を考慮した上での判断が必要。
- Temporal Knowledge Graph Completion using a Linear Temporal Regularizer and Multivector Embeddings
- Chengjin Xu, Yung-Yu Chen, Mojtaba Nayyeri, Jens Lehmann
- TLDR: 時系列のグラフを時系列のデータセットに組み込む研究。時系列のデータセットは、過去のデータセットと比較して更新頻度が高い。そのため、更新頻度が高いデータセットを優先的に組み込むことで、更新頻度が高いデータセットを優先的に組み込むことができる。
- UDALM: Unsupervised Domain Adaptation through Language Modeling
- Constantinos Karouzos, Georgios Paraskevopoulos, Alexandros Potamianos
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルに最適化する手法の提案。事前学習済み言語モデルは、事前学習済み言語モデルの学習率を上回る精度を達成するため、事前学習済み言語モデルの学習率を上回る精度を達成。事前学習済み言語モデルの学習率は、事前学習済み言語モデルの学習率と同等の精度を達成。
- Beyond Black & White: Leveraging Annotator Disagreement via Soft-Label Multi-Task Learning
- Tommaso Fornaciari, Alexandra Uma, Silviu Paun, Barbara Plank, Dirk Hovy, Massimo Poesio
- TLDR: マルチタスクで学習するマルチモーダルモデルの提案。タスクごとにsoft-labelを予測するタスクを追加し、タスクごとにsoft-labelの予測結果を比較するタスクを提案。soft-labelの予測結果は、タスクごとに異なる。
- Clustering-based Inference for Biomedical Entity Linking
- Rico Angell, Nicholas Monath, Sunil Mohan, Nishant Yadav, Andrew McCallum
- TLDR: 自然言語処理で、自然言語処理の文書から自然言語処理の文書にリンクする研究。文書の分類結果から、文書の分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から、文書分類結果から
- Variance-reduced First-order Meta-learning for Natural Language Processing Tasks
- Lingxiao Wang, Kevin Huang, Tengyu Ma, Quanquan Gu, Jing Huang
- TLDR: 事前学習済みモデルを、事前学習済みモデルに近い精度で学習する研究。事前学習済みモデルは、学習済みモデルの重みを予測するモデルで、重みの予測は学習済みモデルの重みを予測するモデルで行う。重みの予測は、学習済みモデルの重みを予測するモデルで行う。
- Diversity-Aware Batch Active Learning for Dependency Parsing
- Tianze Shi, Adrian Benton, Igor Malioutov, Ozan İrsoy
- TLDR: データセットの学習で、バッチの分類を強化する手法の提案。バッチ分類は、バッチの分類結果を予測するモデルで行う。分類結果は、バッチ分類結果の予測精度が低い場合に、バッチ分類結果を予測するモデルで行う。バッチ分類結果は、バッチ分類結果の予測精度が低い場合に、予測精度を上げるために行う。
- How many data points is a prompt worth?
- Teven Le Scao, Alexander Rush
- TLDR: 分類器の予測を行う際に、事前学習済みモデルの予測結果を基に行う手法の提案。事前学習済みモデルは通常のタスク分類器と同等の精度を維持できるが、タスク分類器の予測結果を基に行う場合はタスク分類器の予測結果を基に行う。タスク分類器の予測結果を基に行うと、タスク分類器の予測結果を基に行うとより精度が上がることを確認。
- Can Latent Alignments Improve Autoregressive Machine Translation?
- Adi Haviv, Lior Vassertail, Omer Levy
- TLDR: 機械翻訳モデルの自動生成を行う際に、自動生成モデルの潜在表現を学習させるのに適したモデルの提案。自動生成モデルは、潜在表現の表現を学習させるのに適したモデルの提案。学習済みモデルの潜在表現を学習させるのに適したモデルの提案。自動生成モデルは、学習済みモデルの潜在表現を学習させるのに適したモデルの提案。
- Smoothing and Shrinking the Sparse Seq2Seq Search Space
- Ben Peters, André F. T. Martins
- TLDR: 翻訳において、Entmaxを緩和する手法の提案。Entmaxは学習済みモデルの学習率を上回るが、学習率を下げるには学習率を下げる(Entmaxは学習率の上限)。学習率を下げるには、学習率を下げる=>学習率を下げる(学習率は下げる)ことで学習率を下げる。
- Unified Pre-training for Program Understanding and Generation
- Wasi Ahmad, Saikat Chakraborty, Baishakhi Ray, Kai-Wei Chang
- TLDR: 自然言語処理でコード生成を行う際に、事前学習済み言語モデルを用いた研究。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルと、言語モデルの学習済み言語モデルの学習済み言語モデルを組み合わせている。事前学習済み言語モデルは、事前学習済み言語モデルの学習済み言語モデルと、言語モデルの学習済み言語モデルの学習済み言語モデルを組み合わせている。
- Hyperparameter-free Continuous Learning for Domain Classification in Natural Language Understanding
- Ting Hua, Yilin Shen, Changsheng Zhao, Yen-Chang Hsu, Hongxia Jin
- TLDR: 自然言語処理における、学習済みモデルの更新を行わずに学習する研究。更新は学習済みモデルの更新のみで行い、更新済みモデルの更新は学習済みモデルの更新のみで行い、更新済みモデルの更新は学習済みモデルの更新のみで行い、更新済みモデルの更新は学習済みモデルの更新のみで行い、更新済みモデルの更新は学習済みモデルの更新のみで行い、更新済みモデルの更新は学習済みモデルの更新のみで行い、更新済みモデルの更新は学習済みモデルの更新のみで行う。
- On the Embeddings of Variables in Recurrent Neural Networks for Source Code
- Nadezhda Chirkova
- TLDR: 自然言語処理における、文の役割を再帰的に学習する手法の提案。文の役割は、文のタイトル/単語/文中の単語/文の意味(意味の重み)を含まない形で表現される。この重みを、文の意味を含まない表現に置き換えることで、文の役割を再帰的に学習する。
- Cross-Lingual Word Embedding Refinement by \ell_{1} Norm Optimisation
- Xutan Peng, Chenghua Lin, Mark Stevenson
- TLDR: マルチ言語のWord Embeddingを、事前学習済みモデルの学習に置き換える手法の提案。事前学習済みモデルの学習は、事前学習済みモデルの学習率を上げるための最適化を行なっている。事前学習済みモデルの学習率は、事前学習済みモデルの学習率と同等の精度を維持できる。
- Semantic Frame Forecast
- Chieh-Yang Huang, Ting-Hao Huang
- TLDR: 長い文を予測する研究。文の長さは文長の長さと同等であるが、文長の文長は文長の長さと同等である。文長は文長の長さと同等であるが、文長は文長の長さと同等である。文長は文長の長さと同等であるが、文長は文長の長さと同等である。文長は文長の長さと同等である。文長は文長の長さと同等である。
- MUSER: MUltimodal Stress detection using Emotion Recognition as an Auxiliary Task
- Yiqun Yao, Michalis Papakostas, Mihai Burzo, Mohamed Abouelenien, Rada Mihalcea
- TLDR: ストレスを自動検知する研究。ストレスは人間にとっての感情の表現に影響を与える。ストレスは感情の表現に影響を与えるが、同時に感情の表現を学習するモデルを提案。ストレスの表現は、感情の表現を学習するモデルで学習する。学習は、ストレスの表現を学習するモデルで行う。
- Learning to Decompose and Organize Complex Tasks
- Yi Zhang, Sujay Kumar Jauhar, Julia Kiseleva, Ryen White, Dan Roth
- TLDR: タスク分類のモデルを、タスク分類のモデルと同等のモデルに置き換えた研究。タスク分類は文書から生成するが、文書から生成した文書はタスク分類のモデルに置き換える。文書から文書を生成する際は、文書のベクトルを文書ベクトルに置き換える形で行う。文書ベクトルは文書のベクトルを入力として使用し、文書ベクトルは文書のベクトルを入力として生成する。
- Continual Learning for Text Classification with Information Disentanglement Based Regularization
- Yufan Huang, Yanzhe Zhang, Jiaao Chen, Xuezhi Wang, Diyi Yang
- TLDR: テキスト分類タスクにおける、事前学習済みモデルの更新を自動調整する手法の提案。事前学習済みモデルは事前学習済みモデルの知識を補完する形で学習を行うが、事前学習済みモデルは知識を補完する形で学習を行う。事前学習済みモデルは事前学習済みモデルの知識を補完する形で学習を行う
- Learning from Executions for Semantic Parsing
- Bailin Wang, Mirella Lapata, Ivan Titov
- TLDR: 自然言語の発話から、モデルの学習を行えるようにする研究。学習は、自然言語の発話から行う。発話は、自然言語の発話から生成されるテキストをベースに、生成されたテキストから学習を行う。学習は、学習済みモデルの学習済みテキストをベースに行う。
- Learning to Synthesize Data for Semantic Parsing
- Bailin Wang, Wenpeng Yin, Xi Victoria Lin, Caiming Xiong
- TLDR: テキストからSQLを生成する研究。生成は、テキストを入力とする文を生成する形で行う。入力はテキストを入力とする文を生成する。入力はテキストを入力とする文を生成する。入力はテキストを入力とする文を生成する。入力はテキストを入力とする文を生成する。入力はテキストを入力とする文を生成する。
- Edge: Enriching Knowledge Graph Embeddings with External Text
- Saed Rezayi, Handong Zhao, Sungchul Kim, Ryan Rossi, Nedim Lipka, Sheng Li
- TLDR: 知識グラフの強化学習で、Entityの重みを緩和する手法の提案。Entityの重みは、Entityの位置関係を学習する際の重みとして使用する。重みは、Entityの位置関係を学習する際の重みとして使用する。重みは、Entityの位置関係を学習する際の重みとして使用する。
- FLIN: A Flexible Natural Language Interface for Web Navigation
- Sahisnu Mazumder, Oriana Riva
- TLDR: 自然言語処理で、Webサイト内の各タスクを自動生成する研究。タスクはシンプルなタスクで、タスクの重みを入力する(タスクの重みは、タスクの重みの重みを入力する)、タスクの重みは入力する(タスクの重みは入力する)、タスクの重みは入力する(タスクの重みは入力する)、タスクの重みは入力する(タスクの重みは入力する)、タスクの重みは入力する(タスクの重みは入力する)、タスクの重みは入力する(タスクの重みは入力
- Game-theoretic Vocabulary Selection via the Shapley Value and Banzhaf Index
- Roma Patel, Marta Garnelo, Ian Gemp, Chris Dyer, Yoram Bachrach
- TLDR: 自然言語処理モデルの単語選択について、強化学習で使われるShapley valueとBanzhaf indexを用いた研究。Shapley valueは、各チームのパフォーマンスを計測する指標で、パフォーマンスが高い単語をランキングする。Banzhafは、各チームのパフォーマンスを計測する指標で、パフォーマンスが高い単語をランキングする。
- Incorporating External Knowledge to Enhance Tabular Reasoning
- J. Neeraja, Vivek Gupta, Vivek Srikumar
- TLDR: 自然言語処理で、文書中の文書から文書の文書構造を推論するタスクを解く際に、文書構造を変更することで、文書構造を改善する手法を提案している。文書構造を変更することで、文書構造を改善する手法を提案している。
- Compositional Generalization for Neural Semantic Parsing via Span-level Supervised Attention
- Pengcheng Yin, Hao Fang, Graham Neubig, Adam Pauls, Emmanouil Antonios Platanios, Yu Su, Sam Thomson, Jacob Andreas
- TLDR: 文単位のAttentionを、文長の単語単位で行う研究。単語単位のAttentionは単語分散表現を考慮するが、単語分散表現は単語単位のAttentionを考慮する。単語分散表現は単語単位のAttentionを考慮するが、単語単位のAttentionは単語分散表現を考慮する。
- Domain Adaptation for Arabic Cross-Domain and Cross-Dialect Sentiment Analysis from Contextualized Word Embedding
- Abdellah El Mekki, Abdelkader El Mahdaouy, Ismail Berrada, Ahmed Khoumsi
- TLDR: 自然言語処理で、ドメイン転移を行う際に、事前学習済み言語モデルを転移先ドメインに適用する研究。転移先ドメインは、ドメイン転移の学習済みモデルと同等の学習済みモデルを使用。転移先ドメインは、ドメイン転移の学習済みモデルをベースに学習する。転移先ドメインは、ドメイン転移の学習済みモデルをベースに学習する。
- Multi-task Learning of Negation and Speculation for Targeted Sentiment Classification
- Andrew Moore, Jeremy Barnes
- TLDR: 文法・文法補助タスクをマルチタスクに拡張した研究。単語/文法補助タスクを複数回に分けて学習し、各タスクの学習結果を統合して学習する。単語/文法補助タスクは、単語/文法の類似度を予測するタスクで、文法/文法補助タスクは、単語/文法の類似度を予測するタスクで学習する。
- A Disentangled Adversarial Neural Topic Model for Separating Opinions from Plots in User Reviews
- Gabriele Pergola, Lin Gui, Yulan He
- TLDR: 映画レビューを、自然言語処理で分類する研究。通常の自然言語処理では、レビューのタイトルとレビューの評価を区別するモデルが使われるが、このモデルは評価を区別するタスクを想定していない。そのため、評価を区別するタスクを学習するモデルを提案。評価は、レビューのタイトルと評価の評価を区別するタスクを学習する。
- Graph Ensemble Learning over Multiple Dependency Trees for Aspect-level Sentiment Classification
- Xiaochen Hou, Peng Qi, Guangtao Wang, Rex Ying, Jing Huang, Xiaodong He, Bowen Zhou
- TLDR: 文分類における、依存構造をGraph Neural Networkに組み込む研究。既存のモデルは、依存構造の予測を複数ノードで行うが、この予測は複数ノードの予測を前提としている。そのため、各ノードの予測を複数ノードで行う。これにより、依存構造の予測精度を上げると同時に、予測精度を上げるためのネットワークを構築する
- Emotion-Infused Models for Explainable Psychological Stress Detection
- Elsbeth Turcan, Smaranda Muresan, Kathleen McKeown
- TLDR: ストレスを検出するモデルの提案。BERT(#959)をベースに、マルチタスク学習、言語モデルのFine Tune、また感情モデルのFine Tuneを組み合わせた手法を提案している。BERTは、ストレスを検出するモデルが、BERTのモデルと同等で、また、感情モデルは、感情を表現する単語を予測するモデルと同等で、また、感情モデルは、感情表現を予測するモデルと同等で、また、感情モデルは、感情表現を予測するモデルと同等で、また、感情モデルは、感情表現を予測するモデルと同等で、としている。
- Aspect-based Sentiment Analysis with Type-aware Graph Convolutional Networks and Layer Ensemble
- Yuanhe Tian, Guimin Chen, Yan Song
- TLDR: 画像をGraph Convolutionで表現する研究。AttentionはGraph Convolutionの重みで、重みはGraph Convolutionの重みと同等かそれ以上の重みで表現する。重みは重みの重みを表現する重みで、重みは重みの重みを表現する重みで表現する。重みは重みの重みで表現する重みで、重みは重みの重みで表現する。
- Supertagging-based Parsing with Linear Context-free Rewriting Systems
- Thomas Ruprecht, Richard Mörbitz
- TLDR: 文法の転移を学習するモデルの提案。学習済みのモデルを学習する際、学習済みモデルの単語を学習する。学習済みモデルは、学習済みモデルの単語を学習する。学習済みモデルは、学習済みモデルの単語を学習する。学習済みモデルは、学習済みモデルの単語を学習する。
- Outside Computation with Superior Functions
- Parker Riley, Daniel Gildea
- TLDR: 強化学習で、通常の学習済みモデルより高いクラスタリングを行う手法の提案。クラスタリングは、クラスタリングの結果を基に計算する。クラスタリングは、クラスタリングの結果を基に計算する。クラスタリングは、クラスタリングの結果を基に計算する。
- Learning Syntax from Naturally-Occurring Bracketings
- Tianze Shi, Ozan İrsoy, Igor Malioutov, Lillian Lee
- TLDR: 自然言語処理で、自然言語処理のモデルで学習したモデルが、自然言語処理のモデルより精度が高いことを確認した研究。自然言語処理では、単語の位置関係を予測するモデルが最も精度が高い。また、自然言語処理のモデルは、単語の位置関係を予測するモデルより精度が高いことを確認。
- Bot-Adversarial Dialogue for Safe Conversational Agents
- Jing Xu, Da Ju, Margaret Li, Y-Lan Boureau, Jason Weston, Emily Dinan
- TLDR: 対話システムの安全性を検証した研究。対話システムは、通常の対話システムと異なり、対話中の行動を学習する仕組みを導入している。対話システムは、学習データから生成した対話データで学習を行う。対話データは、学習データの更新頻度(更新頻度が高い=学習率が高い)、更新頻度が高い=学習率が高い、という3つに分類される。
- Non-Autoregressive Semantic Parsing for Compositional Task-Oriented Dialog
- Arun Babu, Akshat Shrivastava, Armen Aghajanyan, Ahmed Aly, Angela Fan, Marjan Ghazvininejad
- TLDR: 文の意味を抽出するモデルを、文の意味を抽出するモデルに置き換えた研究。文の意味を抽出するモデルは、文の意味を抽出するモデルと、文の意味を抽出するモデルの2つを組み合わせている。文の意味を抽出するモデルは、文の意味を抽出するモデルと、文の意味を抽出するモデルの2つを組み合わせている。
- Example-Driven Intent Prediction with Observers
- Shikib Mehri, Mihail Eric
- TLDR: 対話システムの学習で、事前学習済みモデルを改良する研究。事前学習済みモデルは、事前学習済みモデルの表現を学習するモデルと、事前学習済みモデルの表現を学習するモデルの2つを組み合わせている。事前学習済みモデルは、事前学習済みモデルの表現を学習するモデルと、事前学習済みモデルの表現を学習するモデルの2つを組み合わせている。
- Imperfect also Deserves Reward: Multi-Level and Sequential Reward Modeling for Better Dialog Management
- Zhengxu Hou, Bang Liu, Ruihui Zhao, Zijing Ou, Yafei Liu, Xi Chen, Yefeng Zheng
- TLDR: 強化学習で、強化学習の報酬をマルチタスクで計算する研究。タスクごとに報酬を計算するが、タスクごとに報酬を計算するのではなく、タスクごとに報酬を計算する。タスクごとに報酬を計算する際、タスクごとに報酬を計算する。タスクごとに報酬を計算する際、タスクごとに報酬を計算する。
- Action-Based Conversations Dataset: A Corpus for Building More In-Depth Task-Oriented Dialogue Systems
- Derek Chen, Howard Chen, Yi Yang, Alexander Lin, Zhou Yu
- TLDR: 対話システムの強化学習で、ユーザーの行動を評価するタスクを追加した研究。タスクは、ユーザーの行動を評価する。タスクは、ユーザーの行動を評価する。タスクは、ユーザーの行動を評価する。タスクは、ユーザーの行動を評価する。タスクは、ユーザーの行動を評価する。タスクは、ユーザーの行動を評価する。タスクは、ユーザーの行動を評価する。タスクは、ユーザーの行動を評価する。タスクは、ユーザーの行動を評価する。タスクは、ユーザーの行動を評価する。タスクは、ユーザーの行動を評価する。タスクは、ユーザー
- Controlling Dialogue Generation with Semantic Exemplars
- Prakhar Gupta, Jeffrey Bigham, Yulia Tsvetkov, Amy Pavel
- TLDR: 対話システムで、事前学習済みモデルのモデルをモデルの表現とモデルの表現を統合する手法の提案。モデルはモデルの表現をベースに、モデルの表現とモデルの表現を統合する。モデルはモデルの表現をベースに、モデルの表現をベースにモデルの表現を統合する。
- COIL: Revisit Exact Lexical Match in Information Retrieval with Contextualized Inverted List
- Luyu Gao, Zhuyun Dai, Jamie Callan
- TLDR: 事前学習済みモデルの精度を上げる手法の提案。事前学習済みモデルは、事前学習済みモデルの単語表現を基に検索を行うが、事前学習済みモデルは単語表現を基に検索を行う。事前学習済みモデルは、事前学習済みモデルの単語表現を基に検索を行う。事前学習済みモデルは、事前学習済みモデルの精度を上げるための手法を提案している。
- X-Class: Text Classification with Extremely Weak Supervision
- Zihan Wang, Dheeraj Mekala, Jingbo Shang
- TLDR: 文書分類において、クラス分類を学習する手法の提案。文書の分類はクラス分類の枠組みで行うことが多いが、文書の分類はクラス分類の枠組みで行う。文書分類はクラス分類の枠組みで行うが、文書分類はクラス分類の枠組みで行う。文書分類はクラス分類の枠組みで行う。
- Fine-tuning Encoders for Improved Monolingual and Zero-shot Polylingual Neural Topic Modeling
- Aaron Mueller, Mark Dredze
- TLDR: 事前学習済みモデルを、事前学習済みモデルの表現に合わせる手法の提案。事前学習済みモデルの表現を、事前学習済みモデルの表現に合わせる形で学習する。事前学習済みモデルの表現を、事前学習済みモデルの表現に合わせる形で学習する。事前学習済みモデルの表現を、事前学習済みモデルの表現に合わせる形で学習する。事前学習済みモデルの表現を、事前学習済みモデルの表現に合わせる形で学習する。
- Exploring the Relationship Between Algorithm Performance, Vocabulary, and Run-Time in Text Classification
- Wilson Fearn, Orion Weller, Kevin Seppi
- TLDR: 自然言語処理における事前学習の効果についてまとめたサーベイ。事前学習は単語サイズ、モデルパフォーマンス、またモデルの挙動に影響を与える。事前学習は、事前学習済みモデルの挙動を予測するだけでなく、モデルの挙動を予測する(予測結果が予測精度に影響する)ことも含んでいる。
- Faithfully Explainable Recommendation via Neural Logic Reasoning
- Yaxin Zhu, Yikun Xian, Zuohui Fu, Gerard de Melo, Yongfeng Zhang
- TLDR: 説明文を生成する際、説明文の根拠となるグラフを生成する研究。グラフは文書の構造を表すだけでなく、文書の文脈を表すグラフも生成する。文書の文脈は文書の構造を表すだけでなく、文書の文脈を表すグラフも生成する。文書の文脈は文書の文脈から生成される。
- You Sound Like Someone Who Watches Drama Movies: Towards Predicting Movie Preferences from Conversational Interactions
- Sergey Volokhin, Joyce Ho, Oleg Rokhlenko, Eugene Agichtein
- TLDR: 対話システムで、ユーザーの評価を予測する研究。ユーザーの評価は、評価する対象の映画の評価と同等の評価を獲得する。評価は、評価する映画の評価と同等の評価を獲得する。評価は、評価する映画の評価と同等の評価を獲得する。評価は、評価する映画の評価と同等の評価を獲得する。
- Reading and Acting while Blindfolded: The Need for Semantics in Text Game Agents
- Shunyu Yao, Karthik Narasimhan, Matthew Hausknecht
- TLDR: 自然言語処理で、ゲーム中の単語を理解する研究。単語の意味を理解するモデルを構築し、単語の意味を理解するモデルを学習する。単語の意味を理解するモデルは、ゲーム中の単語を認識するモデルと同等のモデルを構築する。単語の意味を理解するモデルは、単語の意味を認識するモデルと同等のモデルを構築する。
- SOrT-ing VQA Models : Contrastive Gradient Learning for Improved Consistency
- Sameer Dharur, Purva Tendulkar, Dhruv Batra, Devi Parikh, Ramprasaath R. Selvaraju
- TLDR: 画像から、画像の説明文を推定するタスクを提案。画像の説明文は、画像の画像表現と同等か、それ以上の表現かを推定するタスクを提案。画像の説明文は、画像の表現と同等か否かを推定するタスクを提案。画像の説明文は、画像の表現と同等か否かを推定するタスクを提案。
- Semi-Supervised Policy Initialization for Playing Games with Language Hints
- Tsu-Jui Fu, William Yang Wang
- TLDR: 強化学習で、自然言語の指示を学習する手法の提案。指示は通常の学習と同様、事前学習済みの言語モデルで行う。指示は通常の学習と同様、事前学習済み言語モデルで行う。指示は通常の学習と同様、事前学習済み言語モデルで行う。
- Revisiting Document Representations for Large-Scale Zero-Shot Learning
- Jihyung Kil, Wei-Lun Chao
- TLDR: 文書から画像を抽出する研究。文書のヘッドを画像に置き換え、文書のヘッドを画像に置き換えた文書を抽出する。文書ヘッドは文書全体の構成を表す単語を抽出する。文書ヘッドは文書全体の単語を表す単語を抽出する。文書ヘッドは文書全体の単語を表す単語を抽出する。文書ヘッドは文書全体の単語を表す単語を抽出する。
- Negative language transfer in learner English: A new dataset
- Leticia Farias Wanderley, Nicole Zhao, Carrie Demmans Epp
- TLDR: 言語学習におけるエラーの原因を自動生成するデータセットの提案。学習データセットは、学習データセットのエラー原因を自動生成する形で作成されている。エラー原因は、学習データセットのエラー原因と異なる単語を入力として入力する。学習データセットは、学習データセットのエラー原因を自動生成する形で作成されている。
- SentSim: Crosslingual Semantic Evaluation of Machine Translation
- Yurun Song, Junchen Zhao, Lucia Specia
- TLDR: 翻訳文の品質を評価する手法の提案。翻訳文の翻訳文を、翻訳文の翻訳文と翻訳文の翻訳文の翻訳文の翻訳文を比較し、翻訳文の翻訳文を翻訳文の翻訳文と翻訳文の翻訳文の翻訳文の翻訳文の翻訳文と翻訳文の翻訳文の翻訳文の翻訳文を比較し、翻訳文の翻訳文を翻訳文の翻訳文と翻訳文の翻訳文の翻訳文の翻訳文の翻訳文と翻訳文の翻訳文の翻訳文の翻訳文の翻訳文を比較し、翻訳文の翻訳文を翻訳文の翻訳文と翻訳文の翻訳文の翻訳文の
- Quality Estimation for Image Captions Based on Large-scale Human Evaluations
- Tomer Levinboim, Ashish V. Thapliyal, Piyush Sharma, Radu Soricut
- TLDR: 画像のキャプチャー品質を自動評価するタスクの提案。画像のキャプチャー品質を自動評価するタスクは、画像のキャプチャー品質を評価するモデルの一種。画像のキャプチャー品質を自動評価するモデルは、画像のキャプチャー品質を自動評価するモデルと同等の精度を維持できる。
- CaSiNo: A Corpus of Campsite Negotiation Dialogues for Automatic Negotiation Systems
- Kushal Chawla, Jaysa Ramirez, Rene Clever, Gale Lucas, Jonathan May, Jonathan Gratch
- TLDR: 対話システムの提案。対話システムは、自然言語処理で使われる単語を入力として、その単語を入力として対話を行う。入力は、単語の意味を入力とし、入力は単語の意味を入力とし、入力は単語の意味を入力とし、入力は単語の意味を入力とし、入力は単語の意味を入力とし、入力は単語の意味を入力とし、入力は単語の意味を入力とし、入力は単語の意味を入力とし、入力は単語の意味を入力とし、入力は単語の意味を入力とし、入力は単語の意味を入力とし、入力は単語の意味
- News Headline Grouping as a Challenging NLU Task
- Philippe Laban, Lucas Bandarkar, Marti A. Hearst
- TLDR: 自然言語処理で、ニュースのタイトルを個別にグループ化するタスクを提案。ニュースタイトルは、ニュースのタイトルと同等の分類対象になる。ニュースタイトルは、ニュースタイトルの分類対象と同等の分類対象になる。ニュースタイトルは、ニュースタイトルの分類対象と同等の分類対象になる。
- Olá, Bonjour, Salve! XFORMAL: A Benchmark for Multilingual Formality Style Transfer
- Eleftheria Briakou, Di Lu, Ke Zhang, Joel Tetreault
- TLDR: マルチ言語の文書を、マルチタスクで学習する試み。マルチタスクで学習する際は、文書のスタイルを変えた方が良いか、また、文書のスタイルを変えた方が良いかを検証する。文書のスタイルを変えた方が良いかは、文書のスタイルを変えた方が良いかを検証する。
- Grouping Words with Semantic Diversity
- Karine Chubarian, Abdul Rafae Khan, Anastasios Sidiropoulos, Jia Xu
- TLDR: 自然言語処理で、単語分類を学習する研究。単語分類は、単語の意味を予測するだけでなく、単語の意味を予測する(単語の意味を予測する)ことで学習する。単語分類は、単語の意味を予測するだけでなく、単語の意味を予測する(単語の意味を予測する)ことで学習する。
- Noise Stability Regularization for Improving BERT Fine-tuning
- Hang Hua, Xingjian Li, Dejing Dou, Chengzhong Xu, Jiebo Luo
- TLDR: 事前学習済み言語モデルを、強化学習で再構築する研究。事前学習済みモデルは、学習済みモデルのノイズを除去する(ノイズは通常のノイズと同等の性能を持つ)ことで安定性を高めている。また、ノイズを除去することで、学習済みモデルの安定性を上げる。
- FlowPrior: Learning Expressive Priors for Latent Variable Sentence Models
- Xiaoan Ding, Kevin Gimpel
- TLDR: 言語モデルで、事前学習を行う際に、事前学習のパラメーターを変更する研究。事前学習は、事前学習のパラメーターを変更することで、事前学習のパラメーターを変更する。事前学習は、事前学習のパラメーターを変更することで、事前学習のパラメーターを変更する。
- HTCInfoMax: A Global Model for Hierarchical Text Classification via Information Maximization
- Zhongfen Deng, Hao Peng, Dongxiao He, Jianxin Li, Philip Yu
- TLDR: 文書分類における、ラベルの相互情報の最大化とラベルの事前学習を組み合わせた研究。事前学習はラベルの事前学習済みモデルで行うが、ラベルの事前学習はラベルの事前学習済みモデルで行う。事前学習はラベルの事前学習済みモデルで行う。事前学習はラベルの事前学習済みモデルで行う。
- Knowledge Guided Metric Learning for Few-Shot Text Classification
- Dianbo Sui, Yubo Chen, Binjie Mao, Delai Qiu, Kang Liu, Jun Zhao
- TLDR: テキスト分類モデルで、教師なしの知識を導入した研究。教師なしの知識は、タスクごとに異なる評価指標を生成する。タスクごとに異なる評価指標を生成するネットワークを構築し、タスクごとに異なる評価指標を生成する。タスクごとに異なる評価指標を生成するネットワークを構築し、タスクごとに異なる評価指標を生成する。
- Ensemble of MRR and NDCG models for Visual Dialog
- Idan Schwartz
- TLDR: 自然言語処理で、質問に答えるモデルを構築する際の課題として、質問に答える人の対応が不完全である点を挙げた研究。質問に答える人の対応は、質問に対する不完全性(=質問に対する回答が不完全であるか)と、質問に対する回答が不完全であるか(不完全であると判断する)2つに分けている。この2つを統合することで、精度を上げつつ精度を維持できるモデルを構築している
- Supervised Neural Clustering via Latent Structured Output Learning: Application to Question Intents
- Iryna Haponchyk, Alessandro Moschitti
- TLDR: 事前学習済みモデルを、事前学習済みモデルの分類結果から、事前学習済みモデルの分類結果を自動生成する研究。事前学習済みモデルは、事前学習済みモデルの分類結果を予測するモデルとして使用される。事前学習済みモデルは、事前学習済みモデルの分類結果を予測するモデルと同等の精度を達成。
- ConVEx: Data-Efficient and Few-Shot Slot Labeling
- Matthew Henderson, Ivan Vulić
- TLDR: セクションラベリングを行う際に、事前学習済みモデルを学習させる手法の提案。事前学習済みモデルは、事前学習済みモデルのパラメーターを学習する。パラメーターは、事前学習済みモデルのパラメーターを学習する。パラメーターは、事前学習済みモデルのパラメーターを学習する。
- CREAD: Combined Resolution of Ellipses and Anaphora in Dialogues
- Bo-Hsiang Tseng, Shruti Bhargava, Jiarui Lu, Joel Ruben Antony Moniz, Dhivya Piraviperumal, Lin Li, Hong Yu
- TLDR: 多様な質問に対し、事前学習済みモデルで対応する手法の提案。事前学習済みモデルは、質問文の文脈を予測すると同時に、質問文の文脈を予測する。文脈は、質問文の文脈から予測する。文脈は、質問文の文脈から予測する。文脈は、文脈の文脈から予測する。文脈は、文脈の文脈から予測する。
- Knowledge-Driven Slot Constraints for Goal-Oriented Dialogue Systems
- Piyawat Lertvittayakumjorn, Daniele Bonadiman, Saab Mansour
- TLDR: 対話システムで、ラベルの枠組みを変更する際のルールを事前学習した研究。事前学習済みモデルをベースに、ラベルの枠組みを変更する際のルールを事前学習したモデルと比較し、事前学習済みモデルのルールを事前学習したモデルと比較した研究。事前学習済みモデルは、事前学習済みモデルの枠組みを学習するモデルと同等の精度を維持できるが、事前学習済みモデルは学習データが少ないため、事前学習済みモデルの精度を上げるための工夫が必要だった。
- Clipping Loops for Sample-Efficient Dialogue Policy Optimisation
- Yen-Chen Wu, Carl Edward Rasmussen
- TLDR: 対話システムで、学習済みのモデルを学習する際、学習済みモデルの挙動を学習データから切り替わる手法の提案。学習データから切り替わる挙動を学習データに切り替わる(学習データは学習データの更新頻度に依存する)。学習データの更新頻度は、学習データの更新頻度と学習データの更新頻度を合わせる。
- Integrating Lexical Information into Entity Neighbourhood Representations for Relation Prediction
- Ian Wood, Mark Johnson, Stephen Wan
- TLDR: 文書から関係推定を行う研究。文書から関係推定を行う際、文書から関係推定のEntity/Relationを抽出する。文書から関係推定のEntity/Relationを抽出するOpenIEを用いた研究。文書から関係推定のEntity/Relationを抽出する際、文書から関係推定のEntity/Relationを抽出する。文書から関係推定のEntity/Relationを抽出する際、文書から関係推定のEntity/Relationを抽出する。
- Noisy-Labeled NER with Confidence Estimation
- Kun Liu, Yao Fu, Chuanqi Tan, Mosha Chen, Ningyu Zhang, Songfang Huang, Sheng Gao
- TLDR: 自然言語処理で、ノイズを加えたモデルを学習する研究。ノイズは、クラス分類器の分類結果から生成される。クラス分類器は、クラス分類器の分類結果から生成されるノイズを除去する。ノイズは、クラス分類器の分類結果から生成される。ノイズは、クラス分類器の分類結果から生成される。
- TABBIE: Pretrained Representations of Tabular Data
- Hiroshi Iida, Dung Thai, Varun Manjunatha, Mohit Iyyer
- TLDR: テーブルの予測を行う際に、事前学習済みモデルを用いた研究。事前学習済みモデルは、テーブルの情報を事前学習済みモデルに入力し、事前学習済みモデルの予測結果を教師なしで学習する。事前学習済みモデルは、事前学習済みモデルの予測結果を教師なしで学習する。
- Better Feature Integration for Named Entity Recognition
- Lu Xu, Zhanming Jie, Wei Lu, Lidong Bing
- TLDR: 自然言語処理のモデルで、構造情報と依存情報の組み合わせを検証した研究。構造情報と依存情報の組み合わせは、構造情報の予測精度と同等の性能を達成できるが、構造情報と依存情報の組み合わせは、構造情報の予測精度と同等の性能を達成できるか検証した。
- ZS-BERT: Towards Zero-Shot Relation Extraction with Attribute Representation Learning
- Chih-Yao Chen, Cheng-Te Li
- TLDR: 教師なし学習で、教師なしの教師なし学習を行う研究。教師なし学習では、教師なしの文書から教師なし文書の文書を生成する。文書の文書特徴を入力とし、文書特徴を入力とし、文書特徴を入力とし、文書特徴を入力とし教師なし学習を行う。文書特徴を入力とし、文書特徴を入力とし教師なし学習を行う。
- Graph Convolutional Networks for Event Causality Identification with Rich Document-level Structures
- Minh Tran Phu, Thien Huu Nguyen
- TLDR: 文書レベルの事前学習を行う際に、文書内のイベント名と文書の関連度をグラフで表現する研究。文書内のイベント名と文書の関連度をグラフで表現し、文書内のイベント名と関連度をグラフから表現する。文書内のイベント名と文書の関連度をグラフから表現する。文書内のイベント名と文書の関連度をグラフから表現する
- A Context-Dependent Gated Module for Incorporating Symbolic Semantics into Event Coreference Resolution
- Tuan Lai, Heng Ji, Trung Bui, Quan Hung Tran, Franck Dernoncourt, Walter Chang
- TLDR: 事前学習済み言語モデルで、文中の単語を抽出する際の注意点をまとめた研究。単語の抽出は、文中の単語が意味を持つかを予測する。単語の抽出は、文中の単語が意味を持つかを予測する。単語の抽出は、文中の単語が意味を持つかを予測する。
- Multi-Style Transfer with Discriminative Feedback on Disjoint Corpus
- Navita Goyal, Balaji Vasan Srinivasan, Anandhavelu N, Abhilasha Sancheti
- TLDR: 自然言語におけるスタイル変換の研究。スタイル変換は、スタイルの異なる2つの言語モデル(Transformerベース/Transformerベースのモデル)を組み合わせて行う。Transformerベースのモデルは、スタイルの異なる2つの言語モデルを組み合わせて生成を行う。Transformerベースのモデルは、スタイルの異なる2つの言語モデルを組み合わせて生成を行う。
- FUDGE: Controlled Text Generation With Future Discriminators
- Kevin Yang, Dan Klein
- TLDR: 自然言語処理で、事前学習済みモデルの予測結果を適用する研究。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成を行うが、生成結果は事前学習済みモデルの予測結果と異なる。事前学習済みモデルは、事前学習済みモデルの予測結果を基に生成を行うが、事前学習済みモデルは生成結果を基に生成を行う。
- Controllable Text Simplification with Explicit Paraphrasing
- Mounica Maddela, Fernando Alva-Manchego, Wei Xu
- TLDR: 文のパラメータ変更を行う際に、文の意味を変えたり、単語を削除したりする手法を提案。文の意味を変えたり、単語を削除したりする手法は、文の意味を変えたりする手法と同等であるとしている。
- Knowledge Graph Based Synthetic Corpus Generation for Knowledge-Enhanced Language Model Pre-training
- Oshin Agarwal, Heming Ge, Siamak Shakeri, Rami Al-Rfou
- TLDR: 自然言語処理で、Wikidataを文書に変換する研究。文書は文書構造をベースに、文書は文書構造をベースに文書構造を生成する。文書構造は文書構造と文書構造を結合する形で生成される。文書構造は文書構造と文書構造を結合する形で生成される。文書構造は文書構造と文書構造を結合する形で生成される。
- Choose Your Own Adventure: Paired Suggestions in Collaborative Writing for Evaluating Story Generation Models
- Elizabeth Clark, Noah A. Smith
- TLDR: 文の生成モデルの評価手法を、文の生成モデルの評価手法と比較した研究。文の生成モデルは、文の生成に際して、文の生成に際して、文の生成に際して、文の生成に際して、文の生成に際して、文の生成に際して、文生成に際して、文生成に際して、文生成に際して、文生成に際して、文生成に際して、文生成に際して、文生成に際して、文生成に際して、文生成に際して、文生成に際して、文生成に際して、文生成に際して、文生成に際して、
- InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language Model Pre-Training
- Zewen Chi, Li Dong, Furu Wei, Nan Yang, Saksham Singhal, Wenhui Wang, Xia Song, Xian-Ling Mao, Heyan Huang, Ming Zhou
- TLDR: マルチ言語の事前学習を、マルチ言語の文書から行う研究。マルチ言語の文書は、同じ意味を持つ単語同士の類似度が低い場合に学習する。マルチ言語の文書は、単語の類似度が低い場合に学習する。マルチ言語の文書は、単語の類似度が高い場合に学習する。
- Context-Interactive Pre-Training for Document Machine Translation
- Pengcheng Yang, Pei Zhang, Boxing Chen, Jun Xie, Weihua Luo
- TLDR: 翻訳文を文書単位で翻訳する際、文書の文脈を予測する研究。文脈は文書の文脈から予測するが、文脈は文書の文脈から予測する。文脈は文書の文脈から予測するが、文脈は文書の文脈から予測する。文脈は文書の文脈から予測するが、文書の文脈から予測するより文書の文脈から予測する方が精度が上がる。
- Code-Mixing on Sesame Street: Dawn of the Adversarial Polyglots
- Samson Tan, Shafiq Joty
- TLDR: マルチ言語の転移学習で、事前学習済みモデルを敵対的学習に使う手法の提案。事前学習済みモデルは、翻訳文を学習する際、翻訳文の単語を予測する単語ベクトルを予測する形で学習する。このベクトルは、翻訳文の単語ベクトルを予測する単語ベクトルと、翻訳文の単語ベクトルを予測する単語ベクトルの2つに分けている。
- X-METRA-ADA: Cross-lingual Meta-Transfer learning Adaptation to Natural Language Understanding and Question Answering
- Meryem M’hamdi, Doo Soon Kim, Franck Dernoncourt, Trung Bui, Xiang Ren, Jonathan May
- TLDR: マルチ言語の転移学習を、事前学習済みモデル(M-BERT/XLM-R)に適用した研究。事前学習済みモデルは事前学習済み言語の転移学習が困難だったため、事前学習済みモデルを学習するモデルを追加し、事前学習済みモデルを学習する。事前学習済みモデルは事前学習済み言語の転移学習が困難だったため、事前学習済みモデルを学習するモデルを追加し学習する。事前学習済みモデルは事前学習済み言語の転移学習が困難だったため、事前学習済みモデルを学習するモデルを追加する
- Explicit Alignment Objectives for Multilingual Bidirectional Encoders
- Junjie Hu, Melvin Johnson, Orhan Firat, Aditya Siddhant, Graham Neubig
- TLDR: マルチ言語対応のEncoderを学習する研究。マルチ言語対応のEncoderは、言語間の類似度を考慮するタスクが限られている。そのため、言語間の類似度を考慮するタスクを学習する。タスクは、単語/文分類/文分類といったタスクで、タスクの精度を上げるために、タスクの精度を上げるためにタスクを絞り込む手法を取っている。
- Cross-lingual Cross-modal Pretraining for Multimodal Retrieval
- Hongliang Fei, Tan Yu, Ping Li
- TLDR: マルチモーダルで画像を検索する研究。画像のサイズは、画像のサイズと同等かそれ以上のサイズかを予測する。サイズは、画像のサイズと同等かそれ以上のサイズかを予測する。サイズは、画像のサイズと同等かそれ以上のサイズかを予測する。サイズは、画像のサイズと同等かそれ以上のサイズかを予測する。
- Wikipedia Entities as Rendezvous across Languages: Grounding Multilingual Language Models by Predicting Wikipedia Hyperlinks
- Iacer Calixto, Alessandro Raganato, Tommaso Pasini
- TLDR: 言語モデルを、事前学習済みモデルに組み込んだ研究。事前学習済みモデルは、Wikipediaの記事から単語を予測する。単語の予測は、Wikipediaの記事から単語を予測する。単語の予測は、Wikipediaの記事から単語を予測する。事前学習済みモデルは、事前学習済みモデルと同等の精度を維持できる。
- multiPRover: Generating Multiple Proofs for Improved Interpretability in Rule Reasoning
- Swarnadeep Saha, Prateek Yadav, Mohit Bansal
- TLDR: 自然言語処理で、複数ノードのグラフを生成する研究。ノードは複数あるが、ノードのグラフは複数ある場合に生成される。ノードは複数ある場合に生成されるが、ノードは複数ある場合に生成される。ノードは複数ある場合に生成されるが、ノードは複数ある場合に生成される。
- Adaptable and Interpretable Neural MemoryOver Symbolic Knowledge
- Pat Verga, Haitian Sun, Livio Baldini Soares, William Cohen
- TLDR: 自然言語処理で、事実を認識するモデルを構築した研究。事実を認識するベクトルを、各ベクトルのベクトルの重みから計算し、ベクトルの重みを計算する。計算は、ベクトルの重みを計算するベクトルの重みを計算する形で行っている。
- CLEVR_HYP: A Challenge Dataset and Baselines for Visual Question Answering with Hypothetical Actions over Images
- Shailaja Keyur Sampat, Akshay Kumar, Yezhou Yang, Chitta Baral
- TLDR: 画像から、画像の表現を推定する研究。画像の表現は、画像の表現と画像の表現双方を含んでいる。画像の表現は、画像の表現と画像の表現双方を含んでいる。画像の表現は、画像の表現と画像の表現双方を含んでいる。画像の表現は、画像の表現と画像の表現双方を含んでいる。
- Refining Targeted Syntactic Evaluation of Language Models
- Benjamin Newman, Kai-Siang Ang, Julia Gong, John Hewitt
- TLDR: 自然言語処理の学習を評価する研究。文法知識を評価する際、文法知識の分布を評価する指標として、文法知識分布の分布を評価する指標を提案している。文法知識分布は、文法知識分布の分布を評価する指標として使用している。文法知識分布は、文法知識分布の分布を評価する指標として使用している。
- Universal Adversarial Attacks with Natural Triggers for Text Classification
- Liwei Song, Xinwei Yu, Hsuan-Tung Peng, Karthik Narasimhan
- TLDR: テキスト分類器に対するAdversarial Attackを、自動生成したテキストに適用した研究。Adversarial Attackは、入力と入力の単語を区別する単語ベクトルを生成する。単語ベクトルは、入力と入力の単語ベクトルを区別する単語ベクトルを生成する。入力と入力ベクトルを区別する単語ベクトルを生成する。
- QuadrupletBERT: An Efficient Model For Embedding-Based Large-Scale Retrieval
- Peiyang Liu, Sen Wang, Xi Wang, Wei Ye, Shikun Zhang
- TLDR: 事前学習済み言語モデルのBERTを、事前学習済みモデルの学習済みモデルに置き換えた研究。BERTは事前学習済みモデルの学習済みモデルと同等の精度を維持するが、事前学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を維持する。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持する。
- Dynamically Disentangling Social Bias from Task-Oriented Representations with Adversarial Attack
- Liwen Wang, Yuanmeng Yan, Keqing He, Yanan Wu, Weiran Xu
- TLDR: テキストから、対話学習における、自然言語処理における、対話の表現を学習する研究。対話は、テキストの表現を学習する際の前提となる表現(「私は」など)から学習する。対話は、テキストの表現を学習する際の前提となる表現から学習する。対話は、テキストの表現から学習する。
- An Empirical Investigation of Bias in the Multimodal Analysis of Financial Earnings Calls
- Ramit Sawhney, Arshiya Aggarwal, Rajiv Ratn Shah
- TLDR: 株式相場の変動を予測する手法の提案。事前学習済みモデルと比較して、事前学習済みモデルの予測精度が大幅に向上している。事前学習済みモデルは、事前学習済みモデルの予測精度と同等の精度を獲得できるが、事前学習済みモデルは予測精度が低い。事前学習済みモデルは、事前学習済みモデルの予測精度を上回る結果を出し得る。
- Beyond Fair Pay: Ethical Implications of NLP Crowdsourcing
- Boaz Shmueli, Jan Fell, Soumya Ray, Lun-Wei Ku
- TLDR: クラウドソーシングによるデータ収集について、事前学習済みのモデルと実際のデータセットを比較し、データセットの品質/パフォーマンスの差異がどれくらいあるかを検証した研究。データセットの品質/パフォーマンスの差異は、データセットの品質/パフォーマンスの差異に大きく依存する。また、データセットの品質/パフォーマンスの差異は、データセットの品質/パフォーマンスの差異に大きく依存する。
- On Transferability of Bias Mitigation Effects in Language Model Fine-Tuning
- Xisen Jin, Francesco Barbieri, Brendan Kennedy, Aida Mostafazadeh Davani, Leonardo Neves, Xiang Ren
- TLDR: 言語モデルのBiasを緩和する手法の提案。Biasを緩和する手法は、事前学習済みモデルのBiasを緩和する手法と同等であるが、事前学習済みモデルのBiasを緩和する手法は別である。事前学習済みモデルのBiasを緩和する手法は、事前学習済みモデルのBiasを緩和する手法と同等であるが、事前学習済みモデルのBiasを緩和する手法は別である。
- Case Study: Deontological Ethics in NLP
- Shrimai Prabhumoye, Brendon Boldt, Ruslan Salakhutdinov, Alan W Black
- TLDR: 自然言語処理における倫理観を調べた研究。自然言語処理では、自然言語処理の仕組みをきちんと理解し、その仕組みを適用する必要がある。このため、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行わず、事前学習済みモデルの学習を行わず、事前
- Privacy Regularization: Joint Privacy-Utility Optimization in LanguageModels
- Fatemehsadat Mireshghallah, Huseyin Inan, Marcello Hasegawa, Victor Rühle, Taylor Berg-Kirkpatrick, Robert Sim
- TLDR: プライバシー保護を強化する手法の提案。学習データのプライバシー保護を強化するDiscriminatorと、プライバシー保護を強化する3つのアルゴリズムを組み合わせている。Discriminatorはプライバシー保護の観点から、3つのアルゴリズムを組み合わせたモデルを提案している。
- On the Impact of Random Seeds on the Fairness of Clinical Classifiers
- Silvio Amir, Jan-Willem van de Meent, Byron Wallace
- TLDR: 医療記録の事前学習で、モデルのパフォーマンスが変動する現象について検証した研究。モデルのパフォーマンスは、事前学習済みモデルと同等の結果が得られるかを検証したが、結果として同等の結果が得られた。事前学習済みモデルは、事前学習済みモデルと同等の結果が得られるかを検証したが、結果として同等の結果が得られた。
- Topic Model or Topic Twaddle? Re-evaluating Semantic Interpretability Measures
- Caitlin Doogan, Wray Buntine
- TLDR: 文書理解モデルの評価について、事前学習済みモデルの評価と実際の評価を比較した研究。事前学習済みモデルの評価は、文書理解モデルの汎化性能を測るための指標として使われることが多いが、実際は汎化性能が低いケースが多い。事前学習済みモデルの評価は、文書理解モデルの汎化性能を測るための指標として使われることが多いが、実際は汎化性能が低いケースが多い。
- Discourse Probing of Pretrained Language Models
- Fajri Koto, Jey Han Lau, Timothy Baldwin
- TLDR: 文書レベルの対話モデルを検証した研究。文書レベルの対話はBERTが良好な結果を記録。文書レベルの対話はBERTが良好な結果を記録。文書レベルの対話はBERTが良好な結果を記録。文書レベルの対話はBERTが良好な結果を記録。
- UniDrop: A Simple yet Effective Technique to Improve Transformer without Extra Cost
- Zhen Wu, Lijun Wu, Qi Meng, Yingce Xia, Shufang Xie, Tao Qin, Xinyu Dai, Tie-Yan Liu
- TLDR: 翻訳モデルの学習に、様々な dropoutを組み合わせた研究。通常の学習は、モデルの挙動を崩すような挙動を行わず、モデルの挙動を崩すような挙動を行なっている。この挙動を、モデルの挙動を崩すような挙動に置き換える手法を提案している。
- tWT–WT: A Dataset to Assert the Role of Target Entities for Detecting Stance of Tweets
- Ayush Kaushal, Avirup Saha, Niloy Ganguly
- TLDR: stance detectionを行う際に、文中のstanceを推定する研究。文中のstanceは、文中のstanceと同等かそれ以上の単語かを推定する。文中のstanceは、文中のstanceと同等かそれ以上の単語かを推定する。文中のstanceは、文中のstanceと同等かそれ以上の単語かを推定する。
- Learning to Learn to be Right for the Right Reasons
- Pride Kavumba, Benjamin Heinzerling, Ana Brassard, Kentaro Inui
- TLDR: モデルの汎化性能を向上させるための手法の提案。学習済みモデルの学習を、汎化性能の向上に寄与するメトリクス(汎化性能の向上=汎化性能が高いモデルになる)に置き換える。汎化性能の向上は、汎化性能の低いモデルに限界がある場合に起こりう現象を想定している。汎化性能の向上は、汎化性能の低いモデルに限界がある場合に起こりう現象を想定している。
- Double Perturbation: On the Robustness of Robustness and Counterfactual Bias Evaluation
- Chong Zhang, Jieyu Zhao, Huan Zhang, Kai-Wei Chang, Cho-Jui Hsieh
- TLDR: モデルの耐性、反事実バイアスを検証する手法の提案。モデルの耐性は、モデルのモデル構造と同等の自然言語モデルの構造をベースに、自然言語モデルの構造をベースに検証する。モデルの構造は、自然言語モデルの構造と同等、また同等に学習できるか検証する。
- Explaining Neural Network Predictions on Sentence Pairs via Learning Word-Group Masks
- Hanjie Chen, Song Feng, Jatin Ganhotra, Hui Wan, Chulaka Gunasekara, Sachindra Joshi, Yangfeng Ji
- TLDR: 自然言語処理で、単語間の関係を推定する研究。単語間の関係は、単語の組み合わせが単語の意味に近いか、単語の組み合わせが単語の意味に近いか、という2つの観点から推定する。単語間の関係は、単語の組み合わせが単語の意味に近いか、という2つの観点から推定する。
- Almost Free Semantic Draft for Neural Machine Translation
- Xi Ai, Bin Fang
- TLDR: 翻訳文の翻訳品質を向上させるために、翻訳文の文書表現をグローバル情報に変換する研究。文書表現は、文書の文書表現と同等の表現を生成する。文書表現は、文書表現の生成時に生成される文書表現をベースに生成する。文書表現は、文書表現の生成時に生成される文書表現をベースに生成する。
- Pruning-then-Expanding Model for Domain Adaptation of Neural Machine Translation
- Shuhao Gu, Yang Feng, Wanying Xie
- TLDR: 翻訳モデルの転移を、学習済みモデルの転移先で行う研究。転移先は学習済みモデルの転移先で、転移先は転移先モデルの転移先で学習する。転移先は転移先モデルの転移先で学習する。転移先は転移先モデルの転移先で学習する。転移先は転移先モデルの転移先で学習する。
- Multi-Hop Transformer for Document-Level Machine Translation
- Long Zhang, Tong Zhang, Haibo Zhang, Baosong Yang, Wei Ye, Shikun Zhang
- TLDR: 文書翻訳において、文書の文構造を翻訳文に組み込む研究。文書の文構造を翻訳文に組み込むことで、文書の文構造を翻訳文に組み込むことで、文書の文構造を翻訳文に組み込む。文書の文構造を翻訳文に組み込むことで、文書の文構造を翻訳文に組み込むことで、文書構造を翻訳文に組み込むことで、文書構造を翻訳文に組み込むことで、文書構造を翻訳文に組み込むことで、文書構造を翻訳文に組み込むことで、文書構造を翻訳文に組み込むことで、文書構造を翻訳文に組み込むことで、文書構造を翻訳文に組み込むことで、文書構造
- Continual Learning for Neural Machine Translation
- Yue Cao, Hao-Ran Wei, Boxing Chen, Xiaojun Wan
- TLDR: 機械翻訳において、学習済みモデルの学習を連続的に繰り返す手法の提案。学習済みモデルの学習は単一ステップで行われるが、学習済みモデルの学習は複数ステップで行われる。学習済みモデルの学習は、学習済みモデルの学習率を上げるためのBias Correctionを導入している。
- Self-Training for Unsupervised Neural Machine Translation in Unbalanced Training Data Scenarios
- Haipeng Sun, Rui Wang, Kehai Chen, Masao Utiyama, Eiichiro Sumita, Tiejun Zhao
- TLDR: マルチ言語モデルの翻訳で、学習データのバランスが崩れるとパフォーマンスが低下するケースを想定した研究。学習データのバランスが崩れると、翻訳モデルのパフォーマンスが低下するケースがある。この場合、学習データのバランスを調整する手法を提案している。
- Smart-Start Decoding for Neural Machine Translation
- Jian Yang, Shuming Ma, Dongdong Zhang, Juncheng Wan, Zhoujun Li, Ming Zhou
- TLDR: 機械翻訳において、学習順序を逆順に変える研究。通常の学習順序は左から右に順番に学習するが、この時左から右に順番に学習する。左から右に順番に学習する際は、左から右に順番に学習する。学習順序は左から右に順番に学習する。
- Multi-Task Learning with Shared Encoder for Non-Autoregressive Machine Translation
- Yongchang Hao, Shilin He, Wenxiang Jiao, Zhaopeng Tu, Michael Lyu, Xing Wang
- TLDR: 翻訳モデルの転移で、翻訳文の文法特徴を異なる言語モデルに変換する研究。翻訳文の文法特徴を異なる言語モデルに変換する際、文法特徴を異なる言語モデルに変換するEncoder/Transformerの2つを組み合わせて学習する。Transformerは翻訳文の文法特徴を認識するが、Transformerは翻訳文の文法特徴を認識することができないため、文法特徴を認識するEncoder/Transformerの2つを組み合わせて学習する。
- ER-AE: Differentially Private Text Generation for Authorship Anonymization
- Haohan Bo, Steven H. H. Ding, Benjamin C. M. Fung, Farkhund Iqbal
- TLDR: プライバシー保護の研究で、文中の人物像を隠す手法の提案。既存の匿名化手法は、人物の属性を隠すための手法を採用しているが、この手法はプライバシー保護の観点から、人物の属性を隠すための手法を採用している。
- Distantly Supervised Transformers For E-Commerce Product QA
- Happy Mittal, Aniket Chakrabarti, Belhassen Bayar, Animesh Anant Sharma, Nikhil Rasiwasia
- TLDR: 事前学習済みモデルを、事前学習済み言語モデルに置き換えた研究。事前学習済みモデルは、事前学習済み言語モデルの予測結果をベースに、事前学習済み言語モデルの予測結果をベースに学習する。事前学習済み言語モデルは、事前学習済み言語モデルの予測結果をベースに学習する。事前学習済み言語モデルは、事前学習済み言語モデルの予測結果をベースに学習する。
- Quantitative Day Trading from Natural Language using Reinforcement Learning
- Ramit Sawhney, Arnav Wadhwa, Shivam Agarwal, Rajiv Ratn Shah
- TLDR: 株式相場の予測を行う際に、テキストを活用する手法の提案。テキストはニュースや株式相場など様々なニュースソースから収集されており、予測結果を基に予測を行う。テキストはニュースソースの更新頻度が速いものが多いため、更新頻度が高いニュースソースを優先的に予測する。
- Restoring and Mining the Records of the Joseon Dynasty via Neural Language Modeling and Machine Translation
- Kyeongpil Kang, Kyohoon Jin, Soyoung Yang, Soojin Jang, Jaegul Choo, Youngbin Kim
- TLDR: 歴史資料を復元する手法の提案。文書の文書構造を学習するだけでなく、文書の文書構造を学習する(文書構造は文書構造の学習で学習する)。文書構造を学習する際は、文書構造を学習する際の学習率を計算する。文書構造を学習する際は、文書構造を学習する際の学習率を計算する。
- Modeling Diagnostic Label Correlation for Automatic ICD Coding
- Shang-Chi Tsai, Chao-Wei Huang, Yun-Nung Chen
- TLDR: 医療文書の診断書を自動生成する研究。各ラベルの予測は、ラベルの依存度を予測するモデルで行う。ラベル依存度は、ラベルの分布分布を予測するモデルで予測する。ラベル分布分布は、ラベル分布分布の分布分布を予測するモデルで学習する。
- Self-Supervised Contrastive Learning for Efficient User Satisfaction Prediction in Conversational Agents
- Mohammad Kachuee, Hao Yuan, Young-Bum Kim, Sungjin Lee
- TLDR: 対話システムで、ユーザーの満足度を評価するモデルの提案。モデルは、ユーザーの満足度を評価するモデルをベースに、ユーザーの満足度を評価するモデルをベースに学習を行う。学習は、モデルの学習済みモデルをベースに行う。
- A recipe for annotating grounded clarifications
- Luciana Benotti, Patrick Blackburn
- TLDR: 自然言語処理で、対話中の表現を理解するための研究。対話中の表現を、言語モデルの枠組みで捉えているかを検証した研究。対話中の表現を、言語モデルの枠組みで捉えているかを検証している。対話中の表現を、言語モデルの枠組みで捉えているかを検証している。
- Grey-box Adversarial Attack And Defence For Sentiment Classification
- Ying Xu, Xu Zhong, Antonio Jimeno Yepes, Jey Han Lau
- TLDR: 敵対的サンプルを作成する手法の提案。敵対的サンプルは、敵対的サンプルの分類結果と同等の精度を維持できるか検証した研究。敵対的サンプルは、敵対的サンプルの分類結果と同等の精度を維持できるか検証した研究。敵対的サンプルは、敵対的サンプルの分類結果と同等の精度を維持できるか検証した研究。敵対的サンプルは、敵対的サンプルの分類結果と同等の精度を維持できるか検証した研究。
- How low is too low? A monolingual take on lemmatisation in Indian languages
- Kumar Saunack, Kumar Saurav, Pushpak Bhattacharyya
- TLDR: 自然言語処理で、低リソース言語の言語モデルを強化する研究。低リソースの場合、単語のフレーズを単語のフレーズに置き換える(フレーズのフレーズを単語のフレーズに置き換える)ことで、単語のフレーズを単語フレーズに置き換える。これにより、低リソース言語のモデルで学習する精度を上げる。
- Causal Effects of Linguistic Properties
- Reid Pryzant, Dallas Card, Dan Jurafsky, Victor Veitch, Dhanya Sridhar
- TLDR: 商品レビューが、Amazonレビューにどのような影響を及ぼしているのかを推定する研究。AmazonレビューはAmazonレビューと同等の評価指標が得られるが、AmazonレビューはAmazonレビューと同等の評価指標が得られない。AmazonレビューはAmazonレビューと同等の評価指標が得られない。AmazonレビューはAmazonレビューと同等の評価指標が得られない。
- Dynabench: Rethinking Benchmarking in NLP
- Douwe Kiela, Max Bartolo, Yixin Nie, Divyansh Kaushik, Atticus Geiger, Zhengxuan Wu, Bertie Vidgen, Grusha Prasad, Amanpreet Singh, Pratik Ringshia, Zhiyi Ma, Tristan Thrush, Sebastian Riedel, Zeerak Waseem, Pontus Stenetorp, Robin Jia, Mohit Bansal, Christopher Potts, Adina Williams
- TLDR: モデルの作成、評価を行う際に、モデルの評価を行う際に、モデルの評価結果を直接ネットワークに送り込んでいる研究。ネットワークは、モデルの評価結果をネットワークのネットワークに送り、ネットワークのネットワークは、モデルの評価結果をネットワークのネットワークに送り、ネットワークのネットワークは、ネットワークのネットワークに送り、ネットワークはネットワークのネットワークに送り、ネットワークはネットワークのネットワークに送り、ネットワークはネットワークのネットワークに送り、ネットワークはネットワークのネットワークに送り、ネットワークはネットワークのネットワークに送り、ネットワークはネットワークのネットワークに送り、ネットワークはネットワークのネットワークに送り、ネットワークはネットワークのネットワークに送り、ネットワークはネットワーク
- Translational NLP: A New Paradigm and General Principles for Natural Language Processing Research
- Denis Newman-Griffis, Jill Fain Lehman, Carolyn Rosé, Harry Hochheiser
- TLDR: 自然言語処理の研究を、翻訳と応用に分けて研究する新しい研究フレームワークの提案。翻訳は自然言語処理の基本要素を学習するが、応用は応用要素を学習する。応用要素は、応用側と応用側双方で学習する。応用側は、応用側が学習する単語を予測するモデルを用い、応用側は単語の予測結果を予測するモデルを用い学習する。
- Predicting Discourse Trees from Transformer-based Neural Summarizers
- Wen Xiao, Patrick Huber, Giuseppe Carenini
- TLDR: 文書から文書への要約を行う際に、文書から要約を行う際に使われる言語モデルの学習方法を調べた研究。文書から要約を行う際に、文書から要約を行う際に使われる言語モデルを生成する。文書から要約を行う際に、文書から要約を行う際に使われる言語モデルを生成する。
- Probing for Bridging Inference in Transformer Language Models
- Onkar Pandit, Yufang Hou
- TLDR: 言語モデルの潜在表現を、事前学習済みモデルに近似する研究。事前学習済みモデルは、潜在表現の距離を近似する(A=>B、B=>C、C=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、D=>D、
- Is Incoherence Surprising? Targeted Evaluation of Coherence Prediction from Language Models
- Anne Beyer, Sharid Loáiciga, David Schlangen
- TLDR: 自然言語処理で、文法の不一致を評価する研究。文法の不一致は文法の不一致と同等の意味を持つが、文法の不一致は文法の不一致と同等の意味を持つ。文法の不一致は文法の不一致と同等の意味を持つが、文法の不一致は文法の不一致と同等の意味を持つ。
- Stay Together: A System for Single and Split-antecedent Anaphora Resolution
- Juntao Yu, Nafise Sadat Moosavi, Silviu Paun, Massimo Poesio
- TLDR: マルチエージェントのアノテーションを検証した研究。マルチエージェントのアノテーションは、通常のSingle-Attentionと同等の精度が得られるが、マルチエージェントのアノテーションは精度が低い。そのため、マルチエージェントのアノテーションを検証する手法を提案している。
- Redefining Absent Keyphrases and their Effect on Retrieval Effectiveness
- Florian Boudin, Ygor Gallina
- TLDR: 自然言語処理で、文書中のKeyphraseを生成する手法の提案。文書中のKeyphraseは、文書の更新に使われる単語でなく、文書中の単語を更新する単語として生成する。文書中のKeyphraseは、文書更新に使われる単語でなく、文書中の単語を更新する単語として生成する。
- CoRT: Complementary Rankings from Transformers
- Marco Wrzalik, Dirk Krechel
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルの学習済みモデルに組み込んだ研究。事前学習済みモデルは、事前学習済みモデルの学習済み単語をベースに学習する。事前学習済みモデルは、事前学習済み単語をベースに学習する。事前学習済みモデルは、事前学習済み単語をベースに学習する。事前学習済みモデルは、事前学習済み単語をベースに学習する。
- Multi-source Neural Topic Modeling in Multi-view Embedding Spaces
- Pankaj Gupta, Yatin Chaudhary, Hinrich Schütze
- TLDR: マルチタスクで文書分散表現を学習する研究。文書分散表現を文書分散表現と同等/それ以上の文書分散表現に置き換え、文書分散表現を文書分散表現と同等/それ以上の文書分散表現に置き換える。文書分散表現は文書分散表現と同等/それ以上の文書分散表現を混合する。文書分散表現は文書分散表現を学習する際の重みとして使用する。
- Inductive Topic Variational Graph Auto-Encoder for Text Classification
- Qianqian Xie, Jimin Huang, Pan Du, Min Peng, Jian-Yun Nie
- TLDR: 文書分類において、文書の構造を推定する研究。文書の構造は文書全体ではなく文書の各文書に依存する。文書全体を推定するのではなく文書全体の構造を推定する(文書全体の構造は文書全体の構造と同等になる)。文書全体の構造を推定する際、文書全体の構造を推定する文書構造を学習する。文書全体の構造を推定する際、文書全体の構造を推定する文書構造を学習する。
- Self-Alignment Pretraining for Biomedical Entity Representations
- Fangyu Liu, Ehsan Shareghi, Zaiqiao Meng, Marco Basaldella, Nigel Collier
- TLDR: 自然言語処理で、自然言語処理のモデルを事前学習する研究。事前学習済みモデルは、自然言語処理のモデルと同等の精度を維持できるか検証している。事前学習済みモデルは、自然言語処理のモデルと同等の精度を維持できるか検証している。
- TaxoClass: Hierarchical Multi-Label Text Classification Using Only Class Names
- Jiaming Shen, Wenda Qiu, Yu Meng, Jingbo Shang, Xiang Ren, Jiawei Han
- TLDR: 文書分類器の学習を、文書のクラス名をベースに行う研究。文書のクラス名をベースに、文書のクラス名をベースに学習する。文書のクラス名は文書の分類器の学習に使用されることが多いが、文書のクラス名は文書の分類器の学習に使用されることが多い。文書のクラス名をベースに学習する
- MERMAID: Metaphor Generation with Symbolism and Discriminative Decoding
- Tuhin Chakrabarty, Xurui Zhang, Smaranda Muresan, Nanyun Peng
- TLDR: 自然言語処理で、文の表現を生成する研究。文の表現は、単語の意味と単語の意味を近似する形で生成する。単語の意味は、単語の意味と単語の意味の近さから生成する。単語の意味は、単語の意味と単語の意味の近さから生成する。
- On Learning Text Style Transfer with Direct Rewards
- Yixin Liu, Graham Neubig, John Wieting
- TLDR: 翻訳モデルの学習時に、事前学習済みモデルと同等の報酬関数を導入する研究。事前学習済みモデルは、事前学習済みモデルと同等の報酬関数を導入するが、事前学習済みモデルは報酬関数を導入していない。事前学習済みモデルは、事前学習済みモデルと同等の報酬関数を導入するが、事前学習済みモデルは報酬関数を導入していない。
- Focused Attention Improves Document-Grounded Generation
- Shrimai Prabhumoye, Kazuma Hashimoto, Yingbo Zhou, Alan W Black, Ruslan Salakhutdinov
- TLDR: 文書更新のタスクを、事前学習済みモデルで改善する研究。文書の文構造を、文書の文特徴をベースに作成する。文書の文特徴をベースに、文書の文特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに文書特徴をベースに
- NeuroLogic Decoding: (Un)supervised Neural Text Generation with Predicate Logic Constraints
- Ximing Lu, Peter West, Rowan Zellers, Ronan Le Bras, Chandra Bhagavatula, Yejin Choi
- TLDR: 自然言語処理で、文の生成を行う際に、単語の位置を予測する研究。単語の位置は、単語の意味を予測する(=単語の位置予測)と、単語の位置を予測する(=単語の位置予測)の2つに分けている。位置予測は、単語の位置予測が予測精度に影響するかどうかを予測する。
- Ask what’s missing and what’s useful: Improving Clarification Question Generation using Global Knowledge
- Bodhisattwa Prasad Majumder, Sudha Rao, Michel Galley, Julian McAuley
- TLDR: 質問回答の生成を行う際に、事前学習済みモデルと同等のモデルを用いることで、事前学習済みモデルの精度を上げる研究。事前学習済みモデルは、事前学習済みモデルと同等のモデルを用いることで、事前学習済みモデルの精度を上げる。事前学習済みモデルは、事前学習済みモデルの精度を上げるためのモデルとして使用されている。
- Progressive Generation of Long Text with Pretrained Language Models
- Bowen Tan, Zichao Yang, Maruan Al-Shedivat, Eric Xing, Zhiting Hu
- TLDR: 自然言語処理で文書生成を行う際に、画像を生成する手法を提案。画像を生成する際は、画像のサイズを大きくする(高解像度の場合高解像度になる)、画像のサイズを小さくする(低解像度の場合高解像度になる)、画像のサイズを大きくする(高解像度の場合高解像度になる)、といった工夫を行っている。
- SOCCER: An Information-Sparse Discourse State Tracking Collection in the Sports Commentary Domain
- Ruochen Zhang, Carsten Eickhoff
- TLDR: 自然言語処理で、状態変化を記録する研究。状態変化は自然言語処理で学習するが、状態変化はモデルの学習に使用される単語(単語分類器)でなく、モデルの学習に使用される単語(文分類器)で学習する。学習は、状態変化を記録する単語を生成する形で行う。
- Plot-guided Adversarial Example Construction for Evaluating Open-domain Story Generation
- Sarik Ghazarian, Zixi Liu, Akash S M, Ralph Weischedel, Aram Galstyan, Nanyun Peng
- TLDR: 自然言語処理のモデルの評価指標について、学習済みモデルの評価指標と同等の精度を達成するために、モデルの評価指標を学習済みモデルの評価指標と同等精度で更新する手法を提案している。
- MultiOpEd: A Corpus of Multi-Perspective News Editorials
- Siyi Liu, Sihao Chen, Xander Uyttendaele, Dan Roth
- TLDR: ニュース記事の提言文を自動生成する研究。記事のタイトル/記事概要/記事のタイトル/タイトルから提言文を生成する。記事のタイトルは「ニュース」で、記事概要は「ニュース」のタイトルと同等か否かを判定する。タイトルは「ニュース」で、タイトルは「ニュース」のタイトルを「ニュース」に置き換える。
- Swords: A Benchmark for Lexical Substitution with Improved Data Coverage and Quality
- Mina Lee, Chris Donahue, Robin Jia, Alexander Iyabor, Percy Liang
- TLDR: 文の代替表現を評価するベンチマークの提案。文の代替表現は、文の意味を変えたもの(単語の意味を変えたもの)を評価する。文の意味を変えた単語は、文の意味を変えた単語と同等の評価が得られる。
- “I’m Not Mad”: Commonsense Implications of Negation and Contradiction
- Liwei Jiang, Antoine Bosselut, Chandra Bhagavatula, Yejin Choi
- TLDR: 自然言語処理における、自然言語処理の不変性を検証した研究。不変性は通常の不変性と異なり、不変性は不変性の表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現に近い表現
- Identifying Medical Self-Disclosure in Online Communities
- Mina Valizadeh, Pardis Ranjbar-Noiey, Cornelia Caragea, Natalie Parde
- TLDR: オンラインの医療関係の投稿について、投稿者のプライバシー保護を検証した研究。投稿者は、投稿のプライバシー保護について、投稿者のプライバシー保護が不明確な場合(No Self-Disclosure)、また、プライバシー保護が不明確な場合(Self-Disclosure)を投稿に含む。
- Language in a (Search) Box: Grounding Language Learning in Real-World Human-Machine Interaction
- Federico Bianchi, Ciro Greco, Jacopo Tagliabue
- TLDR: 自然言語処理で、学習済み言語モデルの学習を疑似モデルで行う研究。学習済み言語モデルは、学習済み言語モデルの学習済み表現をベースに学習する。学習済み言語モデルは、学習済み言語モデルの学習済み表現をベースに学習する。学習済み言語モデルは、学習済み言語モデルの学習済み表現をベースに学習する。
- Finding Concept-specific Biases in Form–Meaning Associations
- Tiago Pimentel, Brian Roark, Søren Wichmann, Ryan Cotterell, Damián Blasi
- TLDR: マルチ言語の不偏不偏を調べる研究。単語の意味と単語の意味を区別する単語を、単語の意味と単語の意味の区別を考慮した単語分類器で分類する。単語の意味と単語の意味の区別は、単語の意味と単語の意味の区別を考慮した単語分類器で行う。
- How (Non-)Optimal is the Lexicon?
- Tiago Pimentel, Irene Nikkarinen, Kyle Mahowald, Ryan Cotterell, Damián Blasi
- TLDR: 自然言語処理における、単語の構造をどう解釈するかを調べた研究。単語の意味を解釈する際は、単語の長さと長さの差を考慮する必要がある。長さは単語の長さと同等、長さは単語の長さと同等に扱われる。長さは単語の長さと同等に扱われる。長さは単語の長さと同等に扱われる。
- Word Complexity is in the Eye of the Beholder
- Sian Gooding, Ekaterina Kochmar, Seid Muhie Yimam, Chris Biemann
- TLDR: 文構造の複雑性は、読者によって異なる点がある。単純な単語だけでなく、複雑な単語の分類方法(単語の分類は、単語の分類器で行う)、複雑な単語の分類方法(単語分類器は、単語分類器の分類器で行う)、複雑な単語の分類方法(単語分類器は、単語分類器の分類器で行う)、複雑な単語の分類方法(単語分類器は、単語分類器の分類器で行う)、といった点が挙げられている。
- Linguistic Complexity Loss in Text-Based Therapy
- Jason Wei, Kelly Finn, Emma Templeton, Thalia Wheatley, Soroush Vosoughi
- TLDR: ストレスの度合いと、言語の複雑性の関係を調べた研究。ストレスの度合いは、単語の複雑性と、単語の分散表現の複雑性(単語分散表現の分布)を比較し、それぞれを比較した。複雑性は、単語分散表現の分布分布(分布分布=分布分布の分布)と、分散表現の分布(分布分布の分布)を比較し、分布の分布が低い場合、分散表現の分布が低い場合、分布の分布が低い場合に見分けがつかないことを確認。
- Ab Antiquo: Neural Proto-language Reconstruction
- Carlo Meloni, Shauli Ravfogel, Yoav Goldberg
- TLDR: 自然言語処理で、過去の音声の変遷をモデル化する研究。過去の音声は、過去の言語の単語を予測する(過去の単語は、過去の単語の単語の予測に使われる)、過去の単語は、過去の単語の予測に使われる(過去の単語は、過去の単語の予測に使われる)という流れ。
- On Biasing Transformer Attention Towards Monotonicity
- Annette Rios, Chantal Amrhein, Noëmi Aepli, Rico Sennrich
- TLDR: 自然言語処理で、学習時に頻度を落とす手法の提案。学習時に頻度を落とす手法は、単調なAttentionを抑制する手法と同等であるとしている。頻度を落とす手法は、単調なAttentionを抑制する手法と同等であるとしている。
- Extracting a Knowledge Base of Mechanisms from COVID-19 Papers
- Tom Hope, Aida Amini, David Wadden, Madeleine van Zuylen, Sravanthi Parasa, Eric Horvitz, Daniel Weld, Roy Schwartz, Hannaneh Hajishirzi
- TLDR: 自然言語処理の論文から、自然言語処理の仕組みについてまとめた研究。自然言語処理の仕組みは、自然言語処理の文書から収集した文書から、文書から文書の構造を抽出する。文書から文書構造を抽出するモデルを構築し、文書から文書構造を抽出するモデルを構築している。
- Constrained Multi-Task Learning for Event Coreference Resolution
- Jing Lu, Vincent Ng
- TLDR: イベントの予測を行う際に、イベントの予測を行うタスクを統合的に学習する研究。イベントの予測は、イベントの生成/生成結果を予測するタスク(Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Entity/Ent
- Empirical Evaluation of Pre-trained Transformers for Human-Level NLP: The Role of Sample Size and Dimensionality
- Adithya V Ganesan, Matthew Matero, Aravind Reddy Ravula, Huy Vu, H. Andrew Schwartz
- TLDR: 言語モデルの重みを削減する手法について、重みの削減はモデルのパフォーマンスに大きな影響を及ぼすとしている。重みの削減は、モデルのパフォーマンスを上げるのに有効な手法であるとしている。重みの削減は、モデルのパフォーマンスを上げるのに有効な手法であるとしている。
- Leveraging Deep Representations of Radiology Reports in Survival Analysis for Predicting Heart Failure Patient Mortality
- Hyun Gi Lee, Evan Sholle, Ashley Beecy, Subhi Al’Aref, Yifan Peng
- TLDR: 医療文書から死亡率を予測する研究。BERTベースの隠れ層を、事前学習済みモデルの予測に使用する。隠れ層は、事前学習済みモデルの予測精度を上げるための重要な要素として位置づけられている。隠れ層は、事前学習済みモデルの予測精度を上げるための重要な要素として位置づけられている。
- On the Use of Context for Predicting Citation Worthiness of Sentences in Scholarly Articles
- Rakesh Gosangi, Ravneet Arora, Mohsen Gheisarieha, Debanjan Mahata, Haimin Zhang
- TLDR: 文の文長さと文長の長さを予測する研究。文長は文長の長さと文長の長さを予測する。文長は文長の長さと長さを予測する。文長は文長の長さと長さを予測する。文長は文長の長さと長さを予測する。文長は文長の長さを予測する。文長は文長の長さを予測する。文長は文長の長さを予測する。
- Data and Model Distillation as a Solution for Domain-transferable Fact Verification
- Mitch Paul Mithun, Sandeep Suntwal, Mihai Surdeanu
- TLDR: 自然言語処理で、事前学習済みモデルの潜在表現を蒸留する研究。蒸留は通常の蒸留と同等の効果が得られるが、蒸留は蒸留済みモデルの潜在表現を蒸留する。蒸留は蒸留済みモデルの潜在表現を蒸留する形で行う。蒸留は蒸留済みモデルの潜在表現を蒸留する形で行う。
- Adapting Coreference Resolution for Processing Violent Death Narratives
- Ankith Uppunda, Susan Cochran, Jacob Foster, Alina Arseniev-Koehler, Vickie Mays, Kai-Wei Chang
- TLDR: 教師なしデータに対する事前学習の提案。教師なしデータは、教師なしデータに対する事前学習の精度が低い傾向がある。教師なしデータは、教師なしデータに対する事前学習の精度が低い傾向がある。教師なしデータに対する事前学習の精度を上げるために、事前学習済みデータに対する事前学習のルールを追加する。
- Time-Stamped Language Model: Teaching Language Models to Understand The Flow of Events
- Hossein Rajaby Faghihi, Parisa Kordjamshidi
- TLDR: 事前学習済み言語モデルを、事前学習済み言語モデルの挙動に応用した研究。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を予測するモデルで、事前学習済み言語モデルの挙動を予測する。事前学習済み言語モデルは、事前学習済み言語モデルの挙動を予測するモデルを採用している。
- If You Want to Go Far Go Together: Unsupervised Joint Candidate Evidence Retrieval for Multi-hop Question Answering
- Vikas Yadav, Steven Bethard, Mihai Surdeanu
- TLDR: マルチホップの要約を行う際に、複数文書を同時に検索する手法の提案。文書の文書分布を予測するRoBERTaベースのモデルをベースに、文書分布を予測する文書分布を予測するモデルをベースに、文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する文書分布を予測する
- SPARTQA: A Textual Question Answering Benchmark for Spatial Reasoning
- Roshanak Mirzaee, Hossein Rajaby Faghihi, Qiang Ning, Parisa Kordjamshidi
- TLDR: 自然言語処理で、画像を扱うタスクで、画像の表現を自動生成する研究。画像の表現は、画像の表現を入力とする質問文と、画像の表現を入力とする質問文の2つに分け、質問文の表現を入力とする質問文と、質問文の表現を入力とする質問文の2つに分け生成する。画像の表現は、画像の表現を入力とする質問文と、画像の表現を入力とする質問文の2つに分け生成する。
- A Dataset of Information-Seeking Questions and Answers Anchored in Research Papers
- Pradeep Dasigi, Kyle Lo, Iz Beltagy, Arman Cohan, Noah A. Smith, Matt Gardner
- TLDR: 自然言語処理の論文をQAで回答する研究。文書から抽出された文書のタイトル/Abstractを、文書の概要/概ねの記述から抽出する。文書は文書全体ではなく、文書のタイトル/Abstractから抽出される文書を優先的に選ぶ。文書のタイトル/Abstractは文書全体の文書から抽出される。文書の文書構造を学習するモデルで、文書の文書構造を学習するモデルで検証した結果。
- Differentiable Open-Ended Commonsense Reasoning
- Bill Yuchen Lin, Haitian Sun, Bhuwan Dhingra, Manzil Zaheer, Xiang Ren, William Cohen
- TLDR: 多肢選択問題を解く研究。質問文を複数回に分けて回答する(複数回の回答は一つの質問に限界がある)、質問文を複数回に分けて回答する(複数回の回答は一つの質問に限界がある)、質問文を複数回に分けて回答する(複数回の回答は一つの質問に限界がある)、というシンプルな構成で解いている。
- Does Structure Matter? Encoding Documents for Machine Reading Comprehension
- Hui Wan, Song Feng, Chulaka Gunasekara, Siva Sankalp Patel, Sachindra Joshi, Luis Lastras
- TLDR: 文書読解で、文書の文長を予測する研究。文書の文長は文書全体の長さではなく、文書全体の長さ(文書全体の長さ)を予測する。文書全体の長さは文書全体の長さと同等になるよう学習する。文書全体の長さは文書全体の長さと同等になるよう学習する。文書全体の長さを予測する際、文書全体の長さを予測する
- Multi-Step Reasoning Over Unstructured Text with Beam Dense Retrieval
- Chen Zhao, Chenyan Xiong, Jordan Boyd-Graber, Hal Daumé III
- TLDR: マルチステップの質問回答を行う際に、複数文書を結合した文書を結合する手法の提案。文書の文書構造を、文書の文書構造を結合した文書構造に置き換える。文書構造は文書構造と文書構造の2つに分けて作成し、文書構造は文書構造と文書構造の2つに分けて作成する。文書構造は文書構造と文書構造の2つに分けて作成する。
- Scalable and Interpretable Semantic Change Detection
- Syrielle Montariol, Matej Martinc, Lidia Pivovarova
- TLDR: ニュースの使用頻度を予測する手法の提案。単語の使用頻度を予測する際は、単語の使用頻度を予測する単語を絞り込む必要がある。このため、単語の使用頻度を予測する単語を絞り込む際に、単語の使用頻度を予測する単語を絞り込む手法を提案している。
- Scalar Adjective Identification and Multilingual Ranking
- Aina Garí Soler, Marianna Apidianaki
- TLDR: 自然言語処理で、Scaleの単語を分類する研究。Scaleは単語の重みを表す単語で、単語の重みは単語の重みの重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す単語の重みを表す
- ESC: Redesigning WSD with Extractive Sense Comprehension
- Edoardo Barba, Tommaso Pasini, Roberto Navigli
- TLDR: 単語の意味を理解するために、単語の意味を推定する研究。単語の意味を推定する際、単語の意味を推定する単語を複数選択する(単語の意味を推定する単語は単語の意味を推定する)。単語の意味を推定する単語を複数選択する際、単語の意味を推定する単語を複数選択する単語の意味を推定する単語の意味を推定する単語の意味を推定する単語の意味を推定する単語の意味を推定する単語の意味を推定する単語の意味を推定する単語の意味を推定する単語の意味を推定する単語の意味
- Recent advances in neural metaphor processing: A linguistic, cognitive and social perspective
- Xiaoyu Tong, Ekaterina Shutova, Martha Lewis
- TLDR: 自然言語処理で、自然言語処理の手法についてまとめられたサーベイ。自然言語処理の手法について、各手法の概要、手法の適用事例、また評価手法についてまとめられている。
- Constructing Taxonomies from Pretrained Language Models
- Catherine Chen, Kevin Lin, Dan Klein
- TLDR: 自然言語処理で、親と子の関係を推定する研究。親と子の関係を推定する際、親と子の関係を予測するモデルを用い、親と子の関係を推定する際は、親と子の関係を予測するモデルを用い、親と子の関係を推定するモデルを用い、親と子の関係を推定するモデルを用い、親と子の関係を推定するモデルを用い、親と子の関係を推定するモデルを用い、親と子の関係を推定するモデルを用い、親と子の関係を推定するモデルを用い、親と子の関係を推定するモデル
- Event Representation with Sequential, Semi-Supervised Discrete Variables
- Mehdi Rezaee, Francis Ferraro
- TLDR: 事前学習済みモデルを、事前学習済みモデルの学習に活用する研究。事前学習済みモデルは、事前学習済みモデルの学習済みパラメーターを学習する。事前学習済みモデルは、事前学習済みモデルの学習済みパラメーターを学習する。事前学習済みモデルは、事前学習済みモデルの学習済みパラメーターを学習する。事前学習済みモデルは、事前学習済みモデルの学習済みパラメーターを学習する。事前学習済みモデルは、事前学習済みモデルの学習済みパラメーターを学習する。事前学習済みモデルは、事前学習済みモデルの学習済みパラメーターを学習
- Seq2Emo: A Sequence to Multi-Label Emotion Classification Model
- Chenyang Huang, Amine Trabelsi, Xuebin Qin, Nawshad Farruque, Lili Mou, Osmar Zaïane
- TLDR: 自然言語処理で、単語分類と単語分類の相互作用を検証した研究。単語分類は単語の意味を予測するが、単語分類は単語の意味を予測する。単語分類は単語の意味を予測するが、単語分類は単語の意味を予測する。単語分類は単語の意味を予測するが、単語の意味を予測するモデルは単語の意味を予測するモデルと同等かそれ以上の精度を達成。
- Knowledge Enhanced Masked Language Model for Stance Detection
- Kornraphop Kawintiranon, Lisa Singh
- TLDR: 自然言語処理で、Sentimentの予測を行う際に、単語の重みを軽量化する手法の提案。重みは通常のBERTベースの手法を上回る。重みはBERTベースの手法を上回る。重みはBERTベースの手法を上回る。
- Learning Paralinguistic Features from Audiobooks through Style Voice Conversion
- Zakaria Aldeneh, Matthew Perez, Emily Mower Provost
- TLDR: 自然言語処理で、感情を認識する際の潜在表現を学習する研究。潜在表現は、言語モデルの学習時に入力する。入力は、言語モデルの学習時に入力する。入力は、入力と入力双方の潜在表現を結合し、入力と入力双方の潜在表現を結合する。入力は、入力と入力双方の潜在表現を結合する。
- Adapting BERT for Continual Learning of a Sequence of Aspect Sentiment Classification Tasks
- Zixuan Ke, Hu Xu, Bing Liu
- TLDR: 文書分類タスクで、学習済みモデルの学習を繰り返す研究。学習済みモデルは学習済みモデルの学習済み知識を学習する。学習済みモデルは学習済み知識を学習する。学習済みモデルは学習済み知識を学習する。学習済みモデルは学習済み知識を学習する。
- Adversarial Learning for Zero-Shot Stance Detection on Social Media
- Emily Allaway, Malavika Srikanth, Kathleen McKeown
- TLDR: ツリーの転移を学習する研究。ツリーの転移は、転移先のニュースを予測するだけでなく、ツリーの転移先のニュースを予測する形で行う。ツリーの転移は、ツリーの転移先のニュースを予測する形で行う。ツリーの転移は、ツリーの転移先のニュースを予測する形で行う。
- Efficiently Summarizing Text and Graph Encodings of Multi-Document Clusters
- Ramakanth Pasunuru, Mengwen Liu, Mohit Bansal, Sujith Ravi, Markus Dreyer
- TLDR: マルチ文書要約の研究。文書単位で要約を行うTransformerと、文書単位で要約を行うTransformerを組み合わせた研究。要約は文書単位で行うが、文書単位の要約は要約の重みを計算する。要約は文書単位で行うが、文書単位の要約は要約の重みを計算する。要約は文書単位で行う。
- Enriching Transformers with Structured Tensor-Product Representations for Abstractive Summarization
- Yichen Jiang, Asli Celikyilmaz, Paul Smolensky, Paul Soulos, Sudha Rao, Hamid Palangi, Roland Fernandez, Caitlin Smith, Mohit Bansal, Jianfeng Gao
- TLDR: 文書要約のモデルを、Transformerに組み込んだ研究。文書要約の生成では、文書の構造と文構造を区別するフレーズを生成する。フレーズは、文書要約の文脈を含まない、文書要約の文脈を含まないフレーズを生成する。フレーズは、文書要約の文脈を含まない、文書要約の文脈を含まないフレーズを生成する。フレーズは、文書要約の文脈を含まない、文書要約の文脈を含まないフレーズを生成する。
- What’s in a Summary? Laying the Groundwork for Advances in Hospital-Course Summarization
- Griffin Adams, Emily Alsentzer, Mert Ketenci, Jason Zucker, Noémie Elhadad
- TLDR: 医療記録の要約を、医療記録の文書から要約を作成する研究。要約は医療記録の文書から要約を作成するが、要約文書は要約文書と同等の文書構造を有する。要約文書は要約文書と同等の文書構造を有するが、要約文書は要約文書と同等の文書構造を有する。要約文書は要約文書と同等の文書構造を有する。
- Understanding Factuality in Abstractive Summarization with FRANK: A Benchmark for Factuality Metrics
- Artidoro Pagnoni, Vidhisha Balachandran, Yulia Tsvetkov
- TLDR: 文の要約を自動生成するモデルで、文の要約が事実誤りに基づいた場合の評価手法を調査した研究。文の要約は、文の要約と同等の精度が得られるが、文の要約は事実誤りが前提で生成される。文の要約は、文の要約と同等の精度が得られるが、文の要約は事実誤りが前提で生成される。
- GSum: A General Framework for Guided Neural Abstractive Summarization
- Zi-Yi Dou, Pengfei Liu, Hiroaki Hayashi, Zhengbao Jiang, Graham Neubig
- TLDR: 事前学習済みモデルの事前学習方法をまとめたサーベイ。事前学習済みモデルは、事前学習済みモデルの学習結果を基にモデルを作成し、モデルの学習結果を基にモデルの学習結果を評価する。事前学習済みモデルは、事前学習済みモデルの学習結果を基にモデルを作成する。
- What Will it Take to Fix Benchmarking in Natural Language Understanding?
- Samuel R. Bowman, George Dahl
- TLDR: 自然言語理解のベンチマークの基準をまとめたサーベイ。評価の仕組みが崩壊する問題点を指摘し、評価の仕組みを改善する手法を提案している。評価の仕組みは、評価の精度(精度=評価結果)と評価結果の信頼性(信頼性=評価結果)を比較し、信頼性を上げるために評価結果を比較する手法を導入している。
- TuringAdvice: A Generative and Dynamic Evaluation of Language Use
- Rowan Zellers, Ari Holtzman, Elizabeth Clark, Lianhui Qin, Ali Farhadi, Yejin Choi
- TLDR: 自然言語処理で、質問に対する回答を生成するタスクの提案。質問に対する回答は、質問に対する回答と同等の文書で生成する。文書は文書と同等の文書で生成するが、文書は文書と同等の文書で生成する。文書は文書と同等の文書で生成するが、文書は文書と同等の文書で生成する。文書は文書と同等の文書で生成する。
- Multitask Learning for Emotionally Analyzing Sexual Abuse Disclosures
- Ramit Sawhney, Puneet Mathur, Taru Jain, Akash Kumar Gautam, Rajiv Ratn Shah
- TLDR: MeTooのニュースを、マルチタスクで学習する研究。ニュースのタイトル/タイトル画像/画像の画像を個別に学習する(画像は画像分類器で分類する)。画像分類器は、画像分類器の分類精度を上げるために、画像分類器の分類精度を上げるために、画像分類器の分類精度を上げるために、画像分類器の分類精度を上げるために、画像分類器の分類精度を上げるために、画像分類器の分類精度を上げるために、画像分類器の分類精度を上げるために、画像分類器の分類精度を上げるために、画像分類器の分類精度を上げるために、画像分類器の分類精度を上げるために、画像分類器
- Self Promotion in US Congressional Tweets
- Jun Wang, Kelly Cui, Bei Yu
- TLDR: アメリカの議会で、女性の方が自己紹介を行うケースが少なくないという研究。アメリカの政治家は、自己紹介が女性に多い傾向があるが、実際は男性より女性の方が少ない。この研究では、女性の方が自己紹介を行うケースが多いことを確認。
- Profiling of Intertextuality in Latin Literature Using Word Embeddings
- Patrick J. Burns, James A. Brofos, Kyle Li, Pramit Chaudhuri, Joseph P. Dexter
- TLDR: 文関係の構造を、文関係の構造と単語関係の構造を比較した研究。単語関係は、文関係の単語を単語と同等に扱うか、単語関係の単語を単語と同等に扱うか、という2つの観点から検証している。単語関係は、単語の意味を予測する単語ベースのモデルで、単語の意味を予測する単語ベースのモデルで学習する。
- Identifying inherent disagreement in natural language inference
- Xinliang Frederick Zhang, Marie-Catherine de Marneffe
- TLDR: 自然言語処理で、自然言語処理のタスクを分類する研究。タスクは、自然言語処理のタスクで、タスクの分類は、自然言語処理のタスクと同等か否かを判定する。タスクは、自然言語処理のタスクと同等か否かを判定する。タスクは、自然言語処理のタスクと同等か否かを判定する。タスクは、タスクの分類結果を、タスクの分類結果から予測する。
- Modeling Human Mental States with an Entity-based Narrative Graph
- I-Ta Lee, Maria Leonor Pacheco, Dan Goldwasser
- TLDR: 自然言語処理で、人物の行動をモデル化する研究。人物の行動は、行動の意図、目的、行動の行動の3つに分類される。行動は、行動の意図、目的の行動の行動の意図、行動の目的の3つに分類される。行動は、行動の意図、目的の行動の意図、目的の行動の意図の3つに分類される。
- A Simple and Efficient Multi-Task Learning Approach for Conditioned Dialogue Generation
- Yan Zeng, Jian-Yun Nie
- TLDR: 事前学習済みのTransformerを、事前学習済みのテキストと組み合わせて、事前学習済みの対話データと対話結果を組み合わせたタスクを学習する研究。事前学習済みテキストと対話結果を組み合わせて、事前学習済みテキストと対話結果を組み合わせたタスクを学習する。事前学習済みテキストと対話結果を組み合わせたタスクを学習する。
- Hurdles to Progress in Long-form Question Answering
- Kalpesh Krishna, Aurko Roy, Mohit Iyyer
- TLDR: 文書生成のタスクで、文書の検索結果をモデルの評価に使う研究。文書検索結果は文書の検索結果と同等の評価が得られるが、文書検索結果は文書の検索結果と同等の評価が得られない。文書検索結果は文書の検索結果と同等の評価が得られない。文書検索結果は文書の検索結果と同等の評価が得られない。
- ENTRUST: Argument Reframing with Language Models and Entailment
- Tuhin Chakrabarty, Christopher Hidey, Smaranda Muresan
- TLDR: 文のフレーズを、文のフレーズに置き換える研究。フレーズは、文のフレーズをフレーズとして表現する。フレーズは、フレーズのフレーズをフレーズとしてフレーズをフレーズとしてフレーズをフレーズとしてフレーズをフレーズとしてフレーズをフレーズとしてフレーズをフレーズとしてフレーズをフレーズとしてフレーズをフレーズとしてフレーズをフレーズとしてフレーズをフレーズとしてフレーズとしてフレーズをフレーズとしてフレーズとしてフレーズをフレー
- Paragraph-level Simplification of Medical Texts
- Ashwin Devaraj, Iain Marshall, Byron Wallace, Junyi Jessy Li
- TLDR: 医療文書を簡素化する研究。医療文書は通常の文法知識が前提で書かれていることが多いが、文法知識を学習するモデルを導入することで、文法知識を学習する。文法知識は、文書の文法知識と同等の扱いが行えるかを検証している。文法知識は、文法知識の学習に使用するTransformerモデルで学習する。
- An Empirical Study on Neural Keyphrase Generation
- Rui Meng, Xingdi Yuan, Tong Wang, Sanqiang Zhao, Adam Trischler, Daqing He
- TLDR: 自然言語処理におけるKeyphrase生成の仕組みについて、実装と実装の差異をまとめた研究。実装はシンプルで、入力とKeyphraseの生成は別々に行うが、各入力の生成は別々に行う。入力の生成は、入力のEncoder/DecoderのEncode結果から行う。入力のEncode結果は、入力のEncode結果と同等の結果になる。
- Attention Head Masking for Inference Time Content Selection in Abstractive Summarization
- Shuyang Cao, Lu Wang
- TLDR: 文書要約モデルで、Attentionの位置を変更する研究。Attentionは文書要約モデルの重みで、文書要約モデルは文書要約モデルの重みを入力とする。文書要約モデルは文書要約の重みを入力とするが、Transformerベースの要約モデルは入力とAttentionの位置を入力としている。
-
- Zexuan Zhong, Dan Friedman, Danqi Chen
- TLDR: 事前学習済み言語モデルで、モデルの予測精度を上げるためには、事前学習済みモデルの質問を学習データに置き換える手法を提案。質問は、学習済みモデルの質問と同等の精度を獲得できるかを検証する。質問は、学習済みモデルの質問と同等の精度を獲得できるかを検証する。
- Evaluating Saliency Methods for Neural Language Models
- Shuoyang Ding, Philipp Koehn
- TLDR: ニューラルネットの予測結果を、どのモデルが信頼できるか検証した研究。予測結果の信頼性は、予測結果の予測結果と異なる箇所を予測する(予測結果が異なる箇所は予測結果と異なる)、予測結果が予測結果と異なる箇所を予測する(予測結果と異なる箇所は予測結果と異なる)、予測結果と異なる箇所を予測する(予測結果と異なる箇所は予測結果と異なる)、といった3点を検証している。
- Contextualized Perturbation for Textual Adversarial Attack
- Dianqi Li, Yizhe Zhang, Hao Peng, Liqun Chen, Chris Brockett, Ming-Ting Sun, Bill Dolan
- TLDR: 自然言語処理モデルに対するAdversarial Exampleの攻撃手法の提案。事前学習済み言語モデルを、Adversarial Exampleの生成に使用する。事前学習済み言語モデルは、Adversarial Exampleの生成に使用するContextualized Adversarial Exampleを、Adversarial Exampleの生成に使用する。
- DirectProbe: Studying Representations without Classifiers
- Yichu Zhou, Vivek Srikumar
- TLDR: 自然言語処理で、モデルの構造を学習する研究。モデルはモデルの重みを表現する空間を生成する。重みはモデルの重みと同等か、それ以上の重みを生成する。重みはモデルの重みと同等か、それ以上の重みを生成する。重みはモデルの重みと同等か、それ以上の重みを生成する。
- Evaluating the Values of Sources in Transfer Learning
- Md Rizwan Parvez, Kai-Wei Chang
- TLDR: 転移学習において、転移先のデータセットを評価する手法の提案。転移先のデータセットは、転移先のモデルの潜在表現を考慮する。転移先のデータセットは、転移先のモデルの潜在表現と近いものを選択する。転移先のデータセットは、転移先のモデルの潜在表現と近いものを選択する。
- Too Much in Common: Shifting of Embeddings in Transformer Language Models and its Implications
- Daniel Biś, Maksim Podkorytov, Xiuwen Liu
- TLDR: 言語モデルの学習で、学習済み言語モデルの表現が学習済み言語モデルと同等に学習できるか検証した研究。学習済み言語モデルの表現は、学習済み言語モデルと同等に学習できるか検証した。結果として、学習済み言語モデルと同等に学習できるか検証した。
- On the Inductive Bias of Masked Language Modeling: From Statistical to Syntactic Dependencies
- Tianyi Zhang, Tatsunori B. Hashimoto
- TLDR: 教師なし学習で、言語モデルの挙動を学習する研究。教師なし学習では、単語の挙動を予測するモデルが学習する潜在表現を予測する。教師なし学習では、単語の挙動を予測するモデルが学習する潜在表現を予測するモデルと同等精度を達成する。
- Limitations of Autoregressive Models and Their Alternatives
- Chu-Cheng Lin, Aaron Jaech, Xin Li, Matthew R. Gormley, Jason Eisner
- TLDR: 自然言語処理で、次の単語の出現確率を予測するモデルの提案。単語の出現確率は、単語の出現確率と同等の確率分布で計算する。単語の出現確率は、単語の出現確率と同等の確率分布で計算する。単語の出現確率は、単語の出現確率と同等の確率分布で計算する。
- On the Transformer Growth for Progressive BERT Training
- Xiaotao Gu, Liyuan Liu, Hongkun Yu, Jing Li, Chen Chen, Jiawei Han
- TLDR: 強化学習で、単一サイズの強化学習よりも、複数サイズの強化学習を組み合わせた研究。単一サイズの強化学習は、単一サイズの強化学習と同等の性能が得られるが、複数サイズの強化学習は、単一サイズの強化学習と同等の性能が得られる。
- Revisiting Simple Neural Probabilistic Language Models
- Simeng Sun, Mohit Iyyer
- TLDR: 言語モデルのパフォーマンスを改善した研究。入力文を入力とするTransformerを、事前学習済みモデルの入力と同等の精度で再構築し、入力文の入力と同等の精度で再構築した。入力文の入力は、入力と同等の精度で再構築できるか検証した。
- ReadTwice: Reading Very Large Documents with Memories
- Yury Zemlyanskiy, Joshua Ainslie, Michiel de Jong, Philip Pham, Ilya Eckstein, Fei Sha
- TLDR: 質問回答を行う際に、複数文を読むのではなく、文書全体を読むというシンプルな手法を提案。文書全体を読むのではなく、文書全体を列挙する形で文書全体を読む。文書全体を列挙するのではなく、文書全体を列挙する形で文書全体を列挙する。文書全体を列挙するより、文書全体を列挙する方がシンプルな手法。
- SCRIPT: Self-Critic PreTraining of Transformers
- Erik Nijkamp, Bo Pang, Ying Nian Wu, Caiming Xiong
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルの学習に応用した研究。事前学習済みモデルは、事前学習済み言語モデルの学習に使用するDiscriminatorをベースに学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習に使用するDiscriminatorをベースに学習する。事前学習済み言語モデルは、事前学習済み言語モデルの学習に使用するDiscriminatorをベースに学習する。
- Learning How to Ask: Querying LMs with Mixtures of Soft Prompts
- Guanghui Qin, Jason Eisner
- TLDR: 自然言語処理で、事前学習済みモデルの知識を補完する手法の提案。事前学習済みモデルの知識は、事前学習済みモデルの学習済み言語モデルに与えられる。事前学習済みモデルは、事前学習済み言語モデルの知識を補完する形で学習を行う。事前学習済みモデルは、事前学習済み言語モデルの知識を補完する形で学習を行う。
- Nutri-bullets Hybrid: Consensual Multi-document Summarization
- Darsh Shah, Lili Yu, Tao Lei, Regina Barzilay
- TLDR: 文書から、各文書の類似点と矛盾点を抽出する研究。文書から、文書の文書構造を抽出する(文書構造は文書構造と同等になる)。文書構造は文書構造と同等になるよう、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし、文書構造を入力とし
- AVA: an Automatic eValuation Approach for Question Answering Systems
- Thuy Vu, Alessandro Moschitti
- TLDR: 事前学習済みモデルの評価を自動で行う手法の提案。事前学習済みモデルの評価は、事前学習済みモデルのEncode/Encode結果から、Encode結果からSelf-Attentionを推定する。Self-Attentionは、質問文の意味を予測するだけでなく、文の意味を予測するモデルの役割も果たしている。
- SpanPredict: Extraction of Predictive Document Spans with Neural Attention
- Vivek Subramanian, Matthew Engelhard, Sam Berchuck, Liqun Chen, Ricardo Henao, Lawrence Carin
- TLDR: 自然言語処理における予測文の抽出について、事前学習済みモデルを用いた研究。事前学習済みモデルは、予測文の単語分布を予測する(単語分布は、単語の分布を予測する)際に、単語分布を予測する単語分布を予測する。単語分布は、単語分布の分布を予測する単語分布と、単語分布の分布を予測する単語分布の2つに分けている。
- Text Editing by Command
- Felix Faltings, Michel Galley, Gerold Hintz, Chris Brockett, Chris Quirk, Jianfeng Gao, Bill Dolan
- TLDR: 文書生成において、文書の編集を行う際にWikiDocEditsを導入した研究。文書の編集はWikiDocEditsで行うが、文書の編集はWikiDocEditsで行う。文書編集はWikiDocEditsで行うが、文書編集はWikiDocEditsで行う。文書編集はWikiDocEditsで行う。
- A Deep Metric Learning Approach to Account Linking
- Aleem Khan, Elizabeth Fleming, Noah Schofield, Marcus Bishop, Nicholas Andrews
- TLDR: 同じ投稿者から投稿された記事から、同じ記事に関連するツリーを生成する研究。ツリーはツリーの更新頻度(更新頻度=更新頻度の更新)を表すベクトルで、ツリーはツリーの更新頻度(更新頻度=更新頻度の更新)を表すベクトルで生成する。ツリーはツリーの更新頻度を表すベクトルで生成する。ツリーはツリーの更新頻度を表すベクトルで生成する。
- Improving Factual Completeness and Consistency of Image-to-Text Radiology Report Generation
- Yasuhide Miura, Yuhao Zhang, Emily Tsai, Curtis Langlotz, Dan Jurafsky
- TLDR: 放射線診断書の生成において、自然言語モデルの生成を強化学習で行う研究。生成された文書はBERTで評価されるBERT-Specをベースに、BERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-SpecをベースにBERT-Spec
- Multimodal End-to-End Sparse Model for Emotion Recognition
- Wenliang Dai, Samuel Cahyawijaya, Zihan Liu, Pascale Fung
- TLDR: マルチモーダルなタスクで、事前学習済みモデルと、事前学習済みモデルの2つのフレームワークを組み合わせた研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデル(Encoder/Decoder)と、事前学習済みモデルの挙動を予測するモデル(Decoder)の2つを組み合わせている。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルを採用している。
- MIMOQA: Multimodal Input Multimodal Output Question Answering
- Hrituraj Singh, Anshul Nasery, Denil Mehta, Aishwarya Agarwal, Jatin Lamba, Balaji Vasan Srinivasan
- TLDR: マルチモーダルで質問回答を行うタスクの提案。タスクはタスク分類機の分類結果を入力とするが、タスクの分類結果はタスク分類機の分類結果から生成される。タスクはタスク分類機の分類結果を入力とするが、タスク分類結果はタスク分類機の分類結果から生成される。タスクはタスク分類機の分類結果から生成される。
- OCID-Ref: A 3D Robotic Dataset With Embodied Language For Clutter Scene Grounding
- Ke-Jyun Wang, Yun-Hsuan Liu, Hung-Ting Su, Jen-Wei Wang, Yu-Siang Wang, Winston Hsu, Wen-Chin Chen
- TLDR: ロボットの視認性能を改善する手法の提案。画像を2次元に拡張し、その画像を3次元に拡張した画像を3次元に拡張した画像を2次元に拡張した画像を入力として使用する。2次元拡張は2次元の画像を入力として使用するが、3次元の画像は3次元の画像を入力として使用する。
- Unsupervised Vision-and-Language Pre-training Without Parallel Images and Captions
- Liunian Harold Li, Haoxuan You, Zhecan Wang, Alireza Zareian, Shih-Fu Chang, Kai-Wei Chang
- TLDR: 教師なしで事前学習したモデルで、画像認識モデルと教師なしで事前学習したモデルを比較した研究。教師なしで事前学習したモデルは、画像認識モデルと教師なしで事前学習したモデルの2つを統合する。教師なしで事前学習したモデルは、教師なしで事前学習したモデルと同等の精度を達成できた。
- Multitasking Inhibits Semantic Drift
- Athul Paul Jacob, Mike Lewis, Jacob Andreas
- TLDR: 強化学習で、自然言語処理のタスクを複数回行う研究。タスクは、タスクの目的達成を達成するための行動を予測する。タスクは、タスクの目的達成を達成するための行動を予測する。タスクは、タスクの目的達成を達成するための行動を予測する。タスクは、タスクの目的達成を達成するための行動を予測する。
- Probing Contextual Language Models for Common Ground with Visual Representations
- Gabriel Ilharco, Rowan Zellers, Ali Farhadi, Hannaneh Hajishirzi
- TLDR: 画像のパッチを検索する際、画像の表現が画像分類器に近いかを検証した研究。画像分類器は画像分類器の表現が画像分類器に近いかを検証するが、画像分類器の表現は画像分類器の表現と同等か否かを検証する。画像分類器は画像分類器の表現が画像分類器に近いかを検証する
- BBAEG: Towards BERT-based Biomedical Adversarial Example Generation for Text Classification
- Ishani Mondal
- TLDR: 医療文書に対するAdversarial Example Generationを強化した研究。BiomedicalとBERT(BERT-MLM)を組み合わせたモデルを構築し、BERTとBERTを組み合わせたモデルを攻撃する。BERTとBERTを組み合わせたモデルは、BERTとBERTを組み合わせたモデルと同等の性能を発揮する。
- Targeted Adversarial Training for Natural Language Understanding
- Lis Pereira, Xiaodong Liu, Hao Cheng, Hoifung Poon, Jianfeng Gao, Ichiro Kobayashi
- TLDR: 自然言語処理におけるAdversarial Trainingの提案。学習は、学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習
- Latent-Optimized Adversarial Neural Transfer for Sarcasm Detection
- Xu Guo, Boyang Li, Han Yu, Chunyan Miao
- TLDR: 転移学習で、転移先のドメインと転移先のドメインのパフォーマンスを比較する研究。転移先のドメインは、転移先のドメインと転移先のドメインのパフォーマンスが同じか、転移先のドメインのパフォーマンスが同じかを比較する。転移先のドメインは、転移先のドメインのパフォーマンスが同じかを比較する。転移先のドメインは、転移先のドメインのパフォーマンスが同じかを比較する。
- Self-training Improves Pre-training for Natural Language Understanding
- Jingfei Du, Edouard Grave, Beliz Gunel, Vishrav Chaudhary, Onur Celebi, Michael Auli, Veselin Stoyanov, Alexis Conneau
- TLDR: 事前学習済み言語モデルを、事前学習済みモデルの学習に応用した研究。事前学習済みモデルは、事前学習済み言語モデルの学習データ(単語/文)を入力とする。単語/文の学習データは、事前学習済みモデルの学習データと同等のデータセットで収集する。事前学習済みモデルは、事前学習済み言語モデルの学習データと同等のデータセットで学習する。
- Supporting Clustering with Contrastive Learning
- Dejiao Zhang, Feng Nan, Xiaokai Wei, Shang-Wen Li, Henghui Zhu, Kathleen McKeown, Ramesh Nallapati, Andrew O. Arnold, Bing Xiang
- TLDR: 距離を測る教師なし学習の提案。学習済みモデルの学習済みモデルと、学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの学習済みモデルの
- TITA: A Two-stage Interaction and Topic-Aware Text Matching Model
- Xingwu Sun, Yanling Cui, Hongyin Tang, Qiuyu Zhu, Fuzheng Zhang, Beihong Jin
- TLDR: 文書の検索結果と、検索エンジンの検索結果を比較する研究。検索エンジンの検索結果は、検索結果と同等の検索結果を獲得する傾向があるが、文書の検索結果は、検索結果と同等の検索結果を獲得する傾向がある。文書の検索結果と文書の検索結果を比較することで、文書の検索結果と同等の検索結果を獲得できるか検証している。
- Neural Quality Estimation with Multiple Hypotheses for Grammatical Error Correction
- Zhenghao Liu, Xiaoyuan Yi, Maosong Sun, Liner Yang, Tat-Seng Chua
- TLDR: 文の誤差検出モデルの提案。文の誤差を推定するモデルは、文の誤差を推定するモデルと同等精度を達成できるか検証するモデルの2つを提案している。文の誤差検出モデルは、文の誤差を推定するモデルと同等精度を達成できるか検証するモデルの2つを提案している。
- Neural Network Surgery: Injecting Data Patterns into Pre-trained Models with Minimal Instance-wise Side Effects
- Zhiyuan Zhang, Xuancheng Ren, Qi Su, Xu Sun, Bin He
- TLDR: ニューラルネットの学習で、精度が低下するケースを除去する研究。学習時に、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず、学習データの更新が行えず
- Discrete Argument Representation Learning for Interactive Argument Pair Identification
- Lu Ji, Zhongyu Wei, Jing Li, Qi Zhang, Xuanjing Huang
- TLDR: 対話システムの提案。対話システムは、議論の結果から対話者と対話結果から意見を生成する。対話は、対話結果から意見を生成する。対話結果から、意見を生成する際は、意見の生成を行わず、意見の生成を行わずに対話を行う。対話結果から、対話結果から意見を生成するモデルを提案している。
- On Unifying Misinformation Detection
- Nayeon Lee, Belinda Z. Li, Sinong Wang, Pascale Fung, Hao Ma, Wen-tau Yih, Madian Khabsa
- TLDR: マルチタスクのマルチモーダルなマルチタスクモデルを、マルチドメインのマルチタスクで学習する研究。マルチタスクのタスクはニュース、クリックポチ、Fake News、Fake News、etc。マルチタスクのタスクは、マルチドメインのタスクを学習する。マルチタスクのタスクは、マルチドメインのタスクを学習する。マルチタスクのタスクは、マルチドメインのタスクを学習する。
- Frustratingly Easy Edit-based Linguistic Steganography with a Masked Language Model
- Honai Ueoka, Yugo Murawaki, Sadao Kurohashi
- TLDR: 編集済み言語モデルを生成する手法の提案。既存の生成手法は、既存の文書を編集する必要があったが、編集済み言語モデルは編集済み文書を生成する必要があった。そこで、既存文書を生成する際は、文書の文書構造を変更する形で行う。文書構造の変更は、文書の文書構造を変更する形で行う。
- Few-Shot Text Classification with Triplet Networks, Data Augmentation, and Curriculum Learning
- Jason Wei, Chengyu Huang, Soroush Vosoughi, Yu Cheng, Shiqi Xu
- TLDR: 教師なし学習で、学習データの拡張を行う手法の提案。学習データ拡張は、学習データの拡張が有効な場合のみ行う。拡張は、学習データ拡張の初期値を更新する(=学習データの更新が有効な場合のみ行う)ことで、学習データ拡張の初期値を更新する。
- Do RNN States Encode Abstract Phonological Alternations?
- Miikka Silfverberg, Francis Tyers, Garrett Nicolai, Mans Hulden
- TLDR: 音声の変化を学習するモデルで、音声の変化を学習する際は、音声の変化を学習するモデルの学習率を上げるために、音声の変化を学習するモデルの学習率を上げるために、音声の変化を学習するモデルの学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げるために、学習率を上げ
- Pre-training with Meta Learning for Chinese Word Segmentation
- Zhen Ke, Liang Shi, Songtao Sun, Erli Meng, Bin Wang, Xipeng Qiu
- TLDR: 事前学習済みモデルを、事前学習済みモデルと同等の手法で学習する手法の提案。事前学習済みモデルは事前学習済みモデルと同等の手法を用い、事前学習済みモデルは事前学習済みモデルの学習済みモデルと同等の手法を用い学習する。事前学習済みモデルは事前学習済みモデルと同等の手法を用い学習する。事前学習済みモデルは事前学習済みモデルと同等の手法を用い学習する。
- Decompose, Fuse and Generate: A Formation-Informed Method for Chinese Definition Generation
- Hua Zheng, Damai Dai, Lei Li, Tianyu Liu, Zhifang Sui, Baobao Chang, Yang Liu
- TLDR: 自然言語処理で、生成された単語の意味を自動生成する研究。生成された単語は、生成された単語の意味を含まない単語として分類される。生成された単語は、生成された単語の意味を含まない単語として分類される。生成された単語は、生成された単語の意味を含まない単語として分類される。
- User-Generated Text Corpus for Evaluating Japanese Morphological Analysis and Lexical Normalization
- Shohei Higashiyama, Masao Utiyama, Taro Watanabe, Eiichiro Sumita
- TLDR: 自然言語処理における、単語分類と文分類の研究。分類は通常の文分類と同等の扱いが難しいため、文分類の分類器を用いた研究。分類器は通常の文分類器と同等の扱いが難しいため、文分類器を用いた研究。文分類器は通常の文分類器と同等の扱いが難しいため、文分類器を用いた研究。
- GPT Perdetry Test: Generating new meanings for new words
- Nikolay Malkin, Sameera Lanka, Pranav Goel, Sudha Rao, Nebojsa Jojic
- TLDR: 自然言語処理のモデルで、新しい単語を生成する研究。単語の定義は人間が作成することが多いが、この場合人間が作成した単語をベースに生成される。このため、人間が作成した単語をベースに生成される単語をベースに、人間が作成した単語をベースに生成される単語をベースに生成される。
- Universal Semantic Tagging for English and Mandarin Chinese
- Wenxi Li, Yiyang Hou, Yajie Ye, Li Liang, Weiwei Sun
- TLDR: 多言語の文法タスクを、単一のタスクに拡張した研究。単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語の意味表現を、単語
- ShadowGNN: Graph Projection Neural Network for Text-to-SQL Parser
- Zhi Chen, Lu Chen, Yanbin Zhao, Ruisheng Cao, Zihan Xu, Su Zhu, Kai Yu
- TLDR: 自然言語処理で、SQLを文書から抽出する研究。文書のタイトルを予測するモデルをベースに、文書のタイトルを予測するモデルをベースに、文書のタイトルを予測するモデルをベースに文書のタイトルを予測するモデルをベースに、文書のタイトルを予測するモデルをベースに文書のタイトルを予測するモデルをベースに、文書のタイトルを予測するモデルをベースに文書のタイトルを予測するモデルをベースに、文書のタイトルを予測するモデルをベースに文書のタイトルを予測するモデルをベースに、文書のタイトルを予測するモデルをベースに文書のタイトルを予測するモデルをベースに、文書のタイトルを予測する
- Contextualized and Generalized Sentence Representations by Contrastive Self-Supervised Learning: A Case Study on Discourse Relation Analysis
- Hirokazu Kiyomaru, Sadao Kurohashi
- TLDR: 文の表現を教師なしで学習する手法の提案。文の表現を教師なしで学習する際、文の表現と文の表現の類似度を最大化する。文の表現は、文の意味と文の意味の類似度を近似する形で学習する。文の表現は、文の意味と文の意味の類似度を近似する形で学習する。
- AMR Parsing with Action-Pointer Transformer
- Jiawei Zhou, Tahira Naseem, Ramón Fernandez Astudillo, Radu Florian
- TLDR: 文からグラフを推定するTransformerの提案。文の位置を推定するTransformerの位置情報を使って、文の位置を推定する。Transformerは、文の位置を推定するモデルで、位置情報の分布を推定するTransformerの位置情報と、位置情報の分布を推定する位置情報の2つから構成されている。
- NL-EDIT: Correcting Semantic Parse Errors through Natural Language Interaction
- Ahmed Elgohary, Christopher Meek, Matthew Richardson, Adam Fourney, Gonzalo Ramos, Ahmed Hassan Awadallah
- TLDR: 自然言語処理で、事前学習済みモデルを改良した研究。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルで、事前学習済みモデルの挙動を予測する。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルを用いている。事前学習済みモデルは、事前学習済みモデルの挙動を予測するモデルを用いている。
- Unsupervised Concept Representation Learning for Length-Varying Text Similarity
- Xuchao Zhang, Bo Zong, Wei Cheng, Jingchao Ni, Yanchi Liu, Haifeng Chen
- TLDR: 自然言語処理で文書類似度を評価する研究。文書の単語特徴を、文書の単語特徴と同等/それ以上の文書特徴から学習する。文書特徴は文書全体の単語特徴と同等/それ以上の文書特徴から学習する。文書特徴は文書全体の単語特徴と同等/それ以上の文書特徴から学習する。
- Augmenting Knowledge-grounded Conversations with Sequential Knowledge Transition
- Haolan Zhan, Hainan Zhang, Hongshen Chen, Zhuoye Ding, Yongjun Bao, Yanyan Lan
- TLDR: 対話システムで、知識の転移を学習する際の課題点をまとめた研究。転移は、質問文のタイトル/単語/文関係を入力とする。質問文は、質問文のタイトル/単語/文関係を入力とする。質問文は、質問文のタイトル/単語/単語関係を入力とする。質問文は、質問文のタイトル/単語/単語関係を入力とする。
- Adversarial Self-Supervised Learning for Out-of-Domain Detection
- Zhiyuan Zeng, Keqing He, Yuanmeng Yan, Hong Xu, Weiran Xu
- TLDR: 対話システムで、事前学習済みモデルの事前学習済み表現を用いた対話システムの事前学習を行う研究。事前学習済みモデルは事前学習済み表現を用いた事前学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは事前学習済み表現を用いた事前学習を行わず、事前学習済みモデルの学習を行わず事前学習済みモデルの学習を行なっている。
- Leveraging Slot Descriptions for Zero-Shot Cross-Domain Dialogue StateTracking
- Zhaojiang Lin, Bing Liu, Seungwhan Moon, Paul Crook, Zhenpeng Zhou, Zhiguang Wang, Zhou Yu, Andrea Madotto, Eunjoon Cho, Rajen Subba
- TLDR: 対話システムの事前学習済みモデルを、対話システムのラベルを自動生成する形で改善した研究。事前学習済みモデルは、ラベルの生成時にラベルの生成を自動的に行う。ラベルは、ラベルの生成時に生成される。ラベルは、ラベルの生成時に生成される。
- Hierarchical Transformer for Task Oriented Dialog Systems
- Bishal Santra, Potnuru Anusha, Pawan Goyal
- TLDR: 対話システムのタスクを、階層型に置き換える研究。階層型は、質問回答や要約といったタスクでよく使われる手法。階層型は、質問回答の生成に使用されるAttention Maskと位置情報の入力を、階層型は、質問回答の生成に使用される位置情報の入力をそれぞれ入力に置き換える形で行う。
- Measuring the ‘I don’t know’ Problem through the Lens of Gricean Quantity
- Huda Khayrallah, João Sedoc
- TLDR: 対話システムの質問に対し、既存の質問と同等の回答を求めた研究。質問に対する回答は、既存の質問と同等の回答を求めた場合に最も高い回答を獲得する。質問に対する回答は、既存質問と同等の回答を獲得する。質問に対する回答は、既存質問と同等の回答を獲得する。
- RTFE: A Recursive Temporal Fact Embedding Framework for Temporal Knowledge Graph Completion
- Youri Xu, Haihong E, Meina Song, Wenyu Song, Xiaodong Lv, Wang Haotian, Yang Jinrui
- TLDR: 時間的な知識グラフを、タイムステップ単位で学習する研究。タイムステップは、時系列の更新を繰り返す更新行列(Markov chain)を意味する。更新は、更新した時点の更新パラメーターを更新する。更新パラメーターは、更新した時点の更新パラメーターを更新する。
- Open Hierarchical Relation Extraction
- Kai Zhang, Yuan Yao, Ruobing Xie, Xu Han, Zhiyuan Liu, Fen Lin, Leyu Lin, Maosong Sun
- TLDR: オープンドメインのネットワークから、新しい関係類型を抽出する研究。ネットワークの構造は、ネットワークの各層(階層)と階層構造の相互依存を考慮する。階層構造は、ネットワークの各層の潜在表現を統合する形で表現される。階層構造は、ネットワークの各層の潜在表現を統合する形で表現される。
- Jointly Extracting Explicit and Implicit Relational Triples with Reasoning Pattern Enhanced Binary Pointer Network
- Yubo Chen, Yunqi Zhang, Changran Hu, Yongfeng Huang
- TLDR: 自然言語処理で、文中の「3」を「3」と置き換える手法の提案。3つを「3」と置き換える=>「3」と置き換える、という形で、文中の3つを「3」と置き換える、という形で行う。文中の3つを「3」と置き換える=>「3」と置き換える、という形で行う。
- Multi-Grained Knowledge Distillation for Named Entity Recognition
- Xuan Zhou, Xiao Zhang, Chenyang Tao, Junya Chen, Bing Xu, Wei Wang, Jing Xiao
- TLDR: 学習済みモデルを蒸留する研究。蒸留は蒸留器の蒸留を蒸留器の蒸留器に蒸留する。蒸留器は蒸留器の蒸留器を蒸留器の蒸留器に蒸留する。蒸留器は蒸留器の蒸留器を蒸留器の蒸留器に蒸留する。蒸留器は蒸留器の蒸留器を蒸留器の蒸留器に蒸留する。蒸留器は蒸留器の蒸留器を蒸留器の蒸留器に蒸留する。蒸留器は蒸留器の蒸留器を蒸留器の蒸留器に
- SGG: Learning to Select, Guide, and Generate for Keyphrase Generation
- Jing Zhao, Junwei Bao, Yifan Wang, Youzheng Wu, Xiaodong He, Bowen Zhou
- TLDR: 文書中のKeyphraseを生成する研究。文書中のKeyphraseは、文書のタイトルに近い単語を生成する。文書のタイトルは、文書のタイトルと同等の意味を持つ単語を含んでいる。文書のタイトルは、文書のタイトルと同等に重要であるとしている。
- Towards Sentiment and Emotion aided Multi-modal Speech Act Classification in Twitter
- Tulika Saha, Apoorva Upadhyaya, Sriparna Saha, Pushpak Bhattacharyya
- TLDR: ツリー表現に対する感情を分類する手法の提案。ツリー表現は、ツリー表現に対する感情を分類するタスクとして使われることが多いが、ツリー表現に対する感情を分類するタスクとして使われることが多い。ツリー表現に対する感情を分類するタスクとして、ツリー表現に対する感情を分類するタスクを提案している。
- Generative Imagination Elevates Machine Translation
- Quanyu Long, Mingxuan Wang, Lei Li
- TLDR: 翻訳を行う際に、画像を生成する研究。画像は翻訳の基本要素として使われるが、画像を生成する際は画像を生成する。画像は生成した画像から生成するが、生成した画像から生成した画像を生成する。生成した画像から生成した画像を生成する。生成した画像から生成した画像を生成する。
- Non-Autoregressive Translation by Learning Target Categorical Codes
- Yu Bao, Shujian Huang, Tong Xiao, Dongqi Wang, Xinyu Dai, Jiajun Chen
- TLDR: 機械翻訳において、事前学習済みモデルと同等の精度を達成するために、事前学習済みモデルの依存構造を学習する手法の提案。事前学習済みモデルは、事前学習済みモデルの依存構造を学習する。この依存構造を学習することで、事前学習済みモデルの精度を上げる。
- Training Data Augmentation for Code-Mixed Translation
- Abhirut Gupta, Aditya Vavre, Sunita Sarawagi
- TLDR: 翻訳モデルの学習を、事前学習済みモデルの学習に置き換えた研究。事前学習済みモデルは、事前学習済みモデルの学習済み言語モデルと同等の学習データが必要。事前学習済みモデルは、事前学習済み言語モデルの学習済み言語モデルと同等の学習データが必要。事前学習済みモデルは、事前学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み言語モデルの学習済み
- Rethinking Perturbations in Encoder-Decoders for Fast Training
- Sho Takase, Shun Kiyono
- TLDR: 学習時間を短縮する手法として、学習時間を短縮する手法をいくつか挙げた研究。学習時間を短縮する手法として、単語の削除、単語の置き換え、単語の削除を挙げている。単語置き換えは、学習時間を短縮するだけでなく、学習時間を短縮する結果をもたらす。
- Context-aware Decoder for Neural Machine Translation using a Target-side Document-Level Language Model
- Amane Sugiyama, Naoki Yoshinaga
- TLDR: 文単位の翻訳モデルで、文の文間の関係を予測する研究。文間の関係は文書レベルの翻訳モデルで予測するが、文書レベルの翻訳モデルでは文書レベルの文間の関係を予測することができない。そこで、文書レベルの翻訳モデルで文間の関係を予測する手法を提案。
- Machine Translated Text Detection Through Text Similarity with Round-Trip Translation
- Hoang-Quoc Nguyen-Son, Tran Thao, Seira Hidano, Ishita Gupta, Shinsaku Kiyomoto
- TLDR: 翻訳文を偽装した翻訳者を検出する研究。翻訳文を偽装した翻訳者と、翻訳文を偽装した翻訳者を識別する。偽装した翻訳者は、翻訳文を偽装した翻訳者と同等の結果を得られることを確認。偽装した翻訳者は、翻訳文を偽装した翻訳者と同等の結果を得られることを確認。
- TR-BERT: Dynamic Token Reduction for Accelerating BERT Inference
- Deming Ye, Yankai Lin, Yufei Huang, Maosong Sun
- TLDR: 事前学習済み言語モデル(PLM)で、文の重みを徐々に小さくしていく手法の提案。重みは、単語の重みを徐々に小さくしていくことで、学習済み言語モデルの重みを小さくする。重みは、単語の重みを小さくする形で学習する。学習済み言語モデルの重みを小さくする手法は、学習済み言語モデルの重みを小さくする手法と同等である。
- Breadth First Reasoning Graph for Multi-hop Question Answering
- Yongjie Huang, Meng Yang
- TLDR: 複数回の質問回答を行うタスクで、質問の文を予測するGraphを提案。質問文を入力とするEntityを、質問文の文長と文長の2つに分割し、Entityの長は文長と文長の2つに分割する。文長は文長の予測に使用する。文長は文長の予測に使用する。
- Improving Zero-Shot Cross-lingual Transfer for Multilingual Question Answering over Knowledge Graph
- Yucheng Zhou, Xiubo Geng, Tao Shen, Wenqiang Zhang, Daxin Jiang
- TLDR: マルチ言語の事前学習済みモデルを、事前学習済みモデルの学習済み言語に適用する研究。事前学習済みモデルは、事前学習済み言語の学習済みモデルと同等の学習データが必要で、事前学習済みモデルの学習済み言語の学習済みモデルと同等の学習データが必要。事前学習済みモデルは、事前学習済みモデルの学習済み言語の学習済みモデルと同等の学習データが必要。
- RocketQA: An Optimized Training Approach to Dense Passage Retrieval for Open-Domain Question Answering
- Yingqi Qu, Yuchen Ding, Jing Liu, Kai Liu, Ruiyang Ren, Wayne Xin Zhao, Daxiang Dong, Hua Wu, Haifeng Wang
- TLDR: オープンドメインのQAで、事前学習済みモデルを改良した研究。事前学習済みモデルは、事前学習済みモデルの学習済みモデルと同等の精度を維持できるが、事前学習済みモデルは学習済みモデルの学習済みモデルと同等の精度を維持できない。そのため、事前学習済みモデルの学習済みモデルをベースに、事前学習済みモデルの学習済みモデルをベースに学習する。
- DAGN: Discourse-Aware Graph Network for Logical Reasoning
- Yinya Huang, Meng Fang, Yu Cao, Liwei Wang, Xiaodan Liang
- TLDR: 文構造をグラフで表現する研究。文構造は文書構造と同等かそれ以上の文書構造を表す。文書構造は文書構造と同等かそれ以上の文書構造を表す。文書構造は文書構造と同等かそれ以上の文書構造を表す。文書構造は文書構造と同等かそれ以上の文書構造を表す。文書構造は文書構造と同等かそれ以上の文書構造を表す。文書構造は文書構造と同等かそれ以上の文書構造を表す。
- Designing a Minimal Retrieve-and-Read System for Open-Domain Question Answering
- Sohee Yang, Minjoon Seo
- TLDR: オープンドメインのQAで、検索エンジンの検索結果を大幅に削減する手法の提案。検索結果を検索エンジンの検索結果に入力し、検索結果を入力とする。検索結果は、検索結果の更新が容易な場合に更新される。更新は、検索結果の更新が容易な場合に行う。
- Unsupervised Multi-hop Question Answering by Question Generation
- Liangming Pan, Wenhu Chen, Wenhan Xiong, Min-Yen Kan, William Yang Wang
- TLDR: マルチホップのQAを学習する研究。複数データセットを組み合わせて生成する(複数データセットは個別に生成する)。生成したデータセットは、学習済みモデルの学習済みモデルと同等の精度を達成。
- Sliding Selector Network with Dynamic Memory for Extractive Summarization of Long Documents
- Peng Cui, Le Hu
- TLDR: 文書から要約を行う際に、文単位の要約を生成するモデルを提案。文単位の要約は、文の長さ(=長さ)を入力とする。要約は、文単位の要約を入力とする。要約は、要約の文を入力とする。要約は、要約の文を入力とする。
- AdaptSum: Towards Low-Resource Domain Adaptation for Abstractive Summarization
- Tiezheng Yu, Zihan Liu, Pascale Fung
- TLDR: 事前学習済みモデルの学習方法を、事前学習済みモデルの学習に応用した研究。事前学習済みモデルは、事前学習済みモデルの学習率と同等の精度を維持できるか検証した。事前学習済みモデルは、事前学習済みモデルの学習率と同等の精度を維持できるか検証した。
- QMSum: A New Benchmark for Query-based Multi-domain Meeting Summarization
- Ming Zhong, Da Yin, Tao Yu, Ahmad Zaidi, Mutethia Mutuma, Rahul Jha, Ahmed Hassan Awadallah, Asli Celikyilmaz, Yang Liu, Xipeng Qiu, Dragomir Radev
- TLDR: 大規模なタスクで、複数ドメインのタスクを同時に行うタスクの提案。タスクは、タスクの概要を入力とする。タスクは、タスクの概要を入力とする。タスクは、タスクの概要を入力とする。タスクは、タスクの概要を入力とする。タスクは、タスクの概要を入力とする。タスクは、タスクの概要を入力とする。タスクは、タスクの概要を入力とする。タスクは、タスクの概要を入力とする。タスクは、タスクの概要を入力とする。タスクは、タスクの概要を入力
- MM-AVS: A Full-Scale Dataset for Multi-modal Summarization
- Xiyan Fu, Jun Wang, Zhenglu Yang
- TLDR: マルチモーダル要約のデータセットを公開。文書から画像、動画、音声、翻訳、翻訳、翻訳文、翻訳文からニュースなど様々な要約の情報を収集している。要約は文書からではなく、翻訳文から行う。要約は文書からではなく、翻訳文から行う。
- MediaSum: A Large-scale Media Interview Dataset for Dialogue Summarization
- Chenguang Zhu, Yang Liu, Jie Mei, Michael Zeng
- TLDR: 対話データセットの提案。NPR/CNNのインタビューから、ニュース記事の概要とタイトルを抽出する。タイトルは「ニュース」で、タイトルは「ニュース」の語彙を「ニュース」とし、タイトルは「ニュース」の語彙を「ニュース」の語彙に置き換える。
- Improving Faithfulness in Abstractive Summarization with Contrast Candidate Generation and Selection
- Sihao Chen, Fan Zhang, Kazoo Sone, Dan Roth
- TLDR: 自然言語処理で、誤った要約を生成する手法の提案。要約の生成時に、要約文の単語/サイズを変えた要約を生成する。要約文の単語/サイズを変えた要約は、要約文の単語/サイズを変えた要約文に置き換える形で生成される。要約文の単語/サイズを変えた要約文は、要約文の単語/サイズを変えた要約文に置き換える形で生成される。
- Inference Time Style Control for Summarization
- Shuyang Cao, Lu Wang
- TLDR: 文書生成において、複数の文書スタイルを同時に生成する手法の提案。文書のスタイルは、文書の構造を予測する単語の予測(単語の意味を予測する)、文書の単語分布を予測する単語分布予測(単語分布予測)、文書の単語分布を予測する文書分布予測(文書分布予測)の3つから構成されている。文書の構造を予測する単語分布予測は、文書の構造を予測する単語分布予測と同等の手法を取っている。
- ReinforceBug: A Framework to Generate Adversarial Textual Examples
- Bushra Sabir, Muhammad Ali Babar, Raj Gaire
- TLDR: 強化学習で、既存のモデルを強化学習で学習する手法の提案。既存のモデルは学習データが少ないため、学習データが少ない場合に学習データの更新が困難なケースがある。そこで、既存モデルの学習データから学習済みモデルを学習させる手法を提案している。学習データは既存モデルの学習済みモデルに近いものになるよう学習する。