この講義の背景についてです。写真などの画像にある物体(人やモノなど)の認識の歴史などについて説明されていました。詳しくは講義を見てください。https://www.youtube.com/playlist?list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv
ポイントは2012年Alex Krizhevskyの畳み込みニューラルネットワーク(CNN)の論文とGPU(Graphics Processing Unit)の処理能力の向上で画像分類の精度が格段に向上した。CNNについてはLesson5で説明されます。GPUは画像処理に特化したプロセッサで、ムーアの法則に従いどんどん微細化して性能向上している半導体製造技術の恩恵を受けています。確かにここ数年GPUというキーワードを聞く機会が多くなった気がします。CNN自体は1998年のLeCunらの論文にもあったことからGPUをはじめとしたハードウェアの性能向上の寄与は大きいと考えられる。
おまけの情報として、スライドに参考文献として乗せられていたDeep learning(Ian Goodfellow著)の9,200円もする本の原稿がMITのPress bookとしてネットで無料で公開されていた(http://www.deeplearningbook.org/)。内容は有料の本と一緒かどうかはわかりませんが、とりあえず自分のHDDに保存しておきました(*^^)v
日本人ならまずこんなに公開しないですよね?欧米のこのオープンな感じはありがたい反面、理解を超えるものがあります。
ピンバック: CS231nに挑戦!① – Just go for it