ここ最近、リバッタルを書いていた論文は、ぶっ壊れるはずのことをしている気がするのにぶっ壊れねえ、という内容だったのだが、雰囲気としては非常に似ている論文を見つけた。
[2506.19004] Broken Tokens? Your Language Model can Secretly Handle Non-Canonical Tokenizations
モデルが学習されたタイミングとは違う粒度で入力を tokenize しても、性能が対して低下しないし、設定によっては性能が向上するってもの。
なんとなく仕事がひと段落ついているのでいろいろ環境をいじっていた。iterm2 から wezterm にして、aerospace を導入してみたりしている。これがひと段落したら、現状の環境を整理してまとめておきたい。