先週帰ってきたレビューへのリバッタルの締切だったのでいくつか数値を揃えつつ提出した。

matryoshkaっていう、ベクトルの次元数を後から変更することができるようにモデルを学習する手法と、何も考えずに、既存のモデルのベクトル次元数を、適当に切り落として削減する方法を比較したのだが、これに差が出ないところが、小さな実験では、適当に切り落とした方が性能の低下度合いが少ない。

前者の手法の方が、高級かつ、その方法論はトップの会議で発表すらされている。元論文とは、データの種類が違うとはいえこれはどうなんだ。この手法と、試していた適当に切り落とす手法のモットしっかりとした比較をしたら楽しいかもね。