multi-task learning の最適化が難しい問題が、学習時のタスク間で勾配がコンフリクトしていることに起因していることを示し、それを回避する方法を提案した論文。確かに MTL では発生しそうな問題だが、これは通常の単一タスク、データセットの設定でも発生しそうではある。例外的なサンプルが含まれてることもよくあるので。

Gradient Surgery for Multi-Task Learning

コロナ的に、大学で作業する時にはウェブサイトからチェックイン、チェックアウトする必要が数週間前から発生していたのだが、契約的に自分のアカウントだとそれができなかった。大学の情報部にメールしたが話が進まなかったので直接行ってみたら、まだその対応をどうするか行動できていないので、それまでは何もしないで通常通り作業してくれて良い、と言われた。自分としては面倒が一つ減るので嬉しいだけなのだが、運用としてそれでいいのかは少し気になるところ。


ディナーに新種のパスタ