先日、とある研究会に出席したら、基調講演で「ディープ・ラーニング」というのを紹介されました。ディープ・ラーニングとは、多層ニューラルネットワークをベースにした機械学習のことです。ニューラルネットワークは脳の情報処理過程をモデル化して、ニューロンという神経細胞に対応した素子を多数結合した構造を作っておき、入出力関係からニューロン間の結合係数を決めていく学習アルゴリズムです。画像認識とか、音声認識の分野で、ディープ・ラーニングを使った方法が他の方法を駆逐する勢いで、高い性能を示しているといいます。
ニューラルネットワークは、パーセプトロンに代わる手法としてもてはやされ、そして廃れました。ずっと、ニューラルネットワーク「冬の時代」が続いたのです。しかし、それが今、再び脚光を浴びるに至っています。その理由は、よくわからりませんでした。考えられることとして、3つあります。(1) ニューラルネットワークで問題だった過学習を層ごとのプレトレーニングを行って克服する、(2) 誤差逆伝搬法(バック・プロパゲーション)の膨大な計算量を、計算機能力の向上で克服できる、(3) 学習係数、ネットワーク構造などのパラメータを決めるノウハウ(「黒魔術」と呼ばれるらしい)が確立してきた、といったものです。
基調講演では、今取り組んでいる認識問題に、「取りあえず、ディープ・ラーニングを適用してみてはどうか」と主張していました。何か、ブレークスルーがあるのでは?と期待が大きいようです。
0 件のコメント:
コメントを投稿