自然言語処理タスクにおける知識ベース (Knowledge Base) の活用に最近興味があるので,その関連について考えていた.このトピックは常に一定の注目を集めているので読む文献に困ることはないが,既存の文献からその発展を考えるだけだと,先日考えたジレンマにおちいるため,少し方向性を変えて考えてみた.

先日のエントリに書いたように,いきなりトップダウンで考えようとすると非常に難しい.が,読み進めている本,でそのような思考をする時に,「アナロジー」を活用するととっかかりになると書いてあったので参考にしてみた.この本では具体的な方法論は今のところ言及されていないので,自己流で久しぶりにノートを開いて考えてみたのだが,なかなか難しい.

Knowledge Base ,やそれを活用したシステムと,その特徴をもとにそれに類似した,全然異なる事例を出そうとしてみた.だいぶ無理やりこじつけたところあるが,いくつかあげることができた.そして,それらの特徴を考えノートに追記した.例として,「KB を参照するモデルは,教科書を試験に持ち込む学生」ってのがある.(似た表現を使っている論文があった,link

いくらか想像を膨らませて,ノートの余白が少なくなってきたところで,起点(自然言語処理と KB) に還元するために,そことの関連を考えてみた.

いきなり素晴らしいアイディアが出てきたり,はしなかったが既存の研究ベースの思考から少し離れたところからトピックについて考えることができた気がする.今のところ,各アナロジーの精度が低い,起点との関連が甘い,ことで解像度がまだまだ低いが,これを広げていくことで何かしら具体的な着地ができないこともなさそう.

適当な日常生活レベルのアナロジーはいくつか思いつくのだが,もう少し専門的,または想像できる人が少ないアナロジーを考えることがなかなかできないことに気づいた.この弊害がまさに,今読んでいる本のメッセージである「幅のある知識を持つ」メリットである気がする.精度の高いアナロジーを考えるためには,ある程度ベースとなる知識が必要で,その知識がカバーする分野数が多ければ多いほど,精度の高いアナロジーをたくさん出すことができる.

自分は,アナロジーの生成に使えるほど深い知識を持っている非専門分野がないので,これまで読んできた本を振り返ってみて考えたりしたわけだが,それだけではなくある程度学術的に専門性のある知識をつけたいと思った.とりあえず脳科学とかの教科書に近い本を読んでみたりするか?