2013年4月7日日曜日

確率変数

 確率変数というのは、確率統計を学ぼうとする初学者にとってわかりにくい概念ですね。確率の問題では、どの事象が起きるか前もってわかっていないため、実際にその事象が起きてみないと、値が決まらない場合があります。生じる事象によって値が変化する変数が、確率変数です。
 例えば、サイコロを振ったときに出る目を考えましょう。サイコロの目は1から6までありますから、それらの目のどれかが出るのですが、サイコロを振る前はどの目が出るかわかりません。サイコロを振ったとき、サイコロの目が1となる事象を1、サイコロの目が2となる事象を2、というように、サイコロの目に対して1から6までの整数値が対応することにしますと、サイコロを振る前はどの数値をとるかはわからない、というです。この数値を対応させた変数が、確率変数です。
 したがって、確率変数は、試行を行うと値が決まる変数です。試行を行ったとき、起きた事象に対応した具体的な数値は、実現値といいます。サイコロの目が1となる事象を1、サイコロの目が2となる事象を2、としたように、1とか2とかの数値が実現値です。確率変数は大文字で、その実現値は小文字で記述されることが多いです。

確率変数$X$の実現値
123456
$x_1$$x_2$$x_3$$x_4$$x_5$$x_6$

 少し厄介なのは、離散的な値をとる場合と連続的な値をとる場合があることです。サイコロの目のように確率変数の実現値が$x_1 = 1$、$x_2 = 2$、、、といようにとびとびの値をとる場合、確率変数が離散的な値をとるといいます。一方、人の身長のように確率変数の実現値が$-150 \leq X \leq 190$というように連続的な値をとる場合、確率変数が連続的な値をとるといいます。確率変数を使うメリットとして、「サイコロの目が1となる事象」という代わりに、「$X = 1$」といえば済むということがあります。

2013年1月28日月曜日

ディープラーニング

 先日、とある研究会に出席したら、基調講演で「ディープ・ラーニング」というのを紹介されました。ディープ・ラーニングとは、多層ニューラルネットワークをベースにした機械学習のことです。ニューラルネットワークは脳の情報処理過程をモデル化して、ニューロンという神経細胞に対応した素子を多数結合した構造を作っておき、入出力関係からニューロン間の結合係数を決めていく学習アルゴリズムです。画像認識とか、音声認識の分野で、ディープ・ラーニングを使った方法が他の方法を駆逐する勢いで、高い性能を示しているといいます。
 ニューラルネットワークは、パーセプトロンに代わる手法としてもてはやされ、そして廃れました。ずっと、ニューラルネットワーク「冬の時代」が続いたのです。しかし、それが今、再び脚光を浴びるに至っています。その理由は、よくわからりませんでした。考えられることとして、3つあります。(1) ニューラルネットワークで問題だった過学習を層ごとのプレトレーニングを行って克服する、(2) 誤差逆伝搬法(バック・プロパゲーション)の膨大な計算量を、計算機能力の向上で克服できる、(3) 学習係数、ネットワーク構造などのパラメータを決めるノウハウ(「黒魔術」と呼ばれるらしい)が確立してきた、といったものです。
 基調講演では、今取り組んでいる認識問題に、「取りあえず、ディープ・ラーニングを適用してみてはどうか」と主張していました。何か、ブレークスルーがあるのでは?と期待が大きいようです。