2010-04-23
■ DMLA勉強会
今回は,なかなか良い論文が見つからなかったので, 前回の論文紹介会中に出てきた,ME(最大エントロピー法)について説明しているテクニカルレポートの紹介. 今日は少し,ライトな感じで.
とはいえ,適宜説明していただいて,ものすごくよく理解できて,良かった. 特にエントロピーに関して本質的な理解がよくやくできたのは嬉しかった. 毎回,勉強会のときには資料を配り,勉強会中に頂いたコメントを元に資料を修正しいる. この修正作業というのが,とても良い復習になるのだ. その資料をUPしたので,参考にどうぞ.
ここずっと毎週金曜日,論文紹介しているのだけれど, 紹介すればするほど,色んなことが見えてきている気がする. 特に,勉強会で頂くコメントがホント為になる. 今は教えていただくばかりだけど,いつかは有益なコメントができるようになりたいなぁ〜.
なんとなく,研究というものが見えてきて,ここ最近,充実感を感じている. まだまだ,これからだけど,去年の冬頃に感じていたある種の"絶望感"からは, おかげさまで,ようやく抜けられた気がする. 色々アドバイスを頂いた皆様のおかげで,感謝の念に堪えない.
まだまだ,これからの道筋を模索中なのだが, これからももっと頑張って行きたい.
来週はもっと面白い話が紹介したいな.
■ カレー部
今年度初のカレー部. 茄子のカレー. 今回は,僕は,ナッツをフードプロセッサにかけるだけで, あとは食べる係になったけど(笑),とても美味しかった.
参加者も15人ほど結構多くて,楽しかった. 今度は作るのにも参加したいな〜.
エントロピーの定義式をいきなり見せられても分からんよね。
ほんとやねー.
とりあえず今まで,訳も分からず丸暗記で来てたけど,
情報量-log(p(x))は,事象xを符号化する際,何ビットにすればよいかを表すもので,
エントロピーは各事象の情報量の期待値で,どれくらい事象の分布が"ぐちゃぐちゃ"かを表すものなんやねー.