TensorFlowの日本語まとめ

TensorFlowの公式サイトに書かれている英文を英語ど素人が翻訳(日本語訳/和訳)します。 間違いがありましたら、優しく教えていただけますと幸いです。 内容を理解したら、使ってみたい。

3.ソフトマックス回帰

私たちは、それが0または9だかMNIST内のすべての画像が数字であることを知っています。私たちは、画像を見て、それが各桁であることのための確率を与えることができるようにしたいです。例えば、私たちのモデルは9の絵を見て、それが9だと確信する確率は80%です。それは8(トップループのため)であること、他の全ての数字のためのわずかな確率に5%のチャンスを与える可能性がありますが、それは確かではありません。

 

スポンサーリンク

 

 

これは、ソフトマックス回帰が自然単純なモデルである古典的なケースですあなたがいくつかの異なるものの一つであるオブジェクトに確率を割り当てたい場合は、ソフトマックスが実行することがあります。私たちはより精巧なモデルを訓練する場合でも、後に、最後のステップは、ソフトマックスの層になります。

 

ソフトマックス回帰は、2つのステップがあります最初、私たちは特定のクラスにいる入力証拠追加し、確率にその証拠を変換します。

 

与えられた画像は、特定のクラスある証拠を集計するために、画素強度の加重和を行いますそのクラスにある画像に対する証拠が高い強度を持っている画素である場合、重みが負です。証拠の根拠がある場合、重みが正です。

 

次の図は、一つのモデルこれらのクラスのそれぞれについて学習した重みを示しています。赤は負の重みを表し、青は正の重みを表しています。

 

f:id:TensorFlow:20160103004442p:plain

 

また、バイアスと呼ばれるいくつかの特別な証拠を追加します基本的に私たちはいくつかのものは、入力と無関係な確率が高いと言うことができるようにしたいです。結果は入力xを与えられたクラスiの証拠があるということです。:

 

f:id:TensorFlow:20151220031622p:plain

Wi重みで、biは、クラスiのバイアスであり、jは、私たちの入力画像xの画素を合計するための指数です。:

 

f:id:TensorFlow:20151220031917p:plain

 

ここでソフトマックスは、私たちが望む線形関数出力を整えて「活性化」またはリンク」機能として提供します。 - この場合10例の確率分布にします。あなたは、各クラスにある入力確率証拠集計変換すると考えることができますそれは次のように定義します。:

 

f:id:TensorFlow:20151220032547p:plain

 

その展開すると次のようになります。:

 

f:id:TensorFlow:20151220032644p:plain

 

しかし、それはしばしばソフトマックスのことを考えてより便利です。最初の方法:その入力を累乗し、それらを正規化します。累乗は、証拠の1以上の単位は、乗算のいくつかの仮説に与えられる重みを増加させることを意味します。そして逆に、証拠の1より少ない単位を有するという仮説が以前の重みの一部を取得することを意味します。仮説はこれまでに、0または負の重みを持っていません。ソフトマックスは、これらの重みを正規化し、それらが1まで追加するように有効な確率分布を形成します。(ソフトマックス関数のもっと多くの直感を取得するには、Michael Nieslenの本でそれについてのsection を調べて、対話型可視化を完了します。)

 

あなたは次のようなもの、より多くのxs探しているとしてソフトマックス回帰を想像することができます。各出力のために、私たちは、xsの加重和を計算し、バイアスを追加し、ソフトマックスを適用します。

 

f:id:TensorFlow:20160103004511p:plain

 

私たちは方程式としてそれを書き出す場合は、取得します:

 

f:id:TensorFlow:20160103004538p:plain

 

私たちは、行列の乗算加算ベクトルにそれを変えるこの手順をベクトル化することができます。これは、計算効率のために有用です。(また、考えるための便利な方法です。)

 

f:id:TensorFlow:20160103004611p:plain

 

よりコンパクトに、私たちは書くことができます。

 

f:id:TensorFlow:20151220044605p:plain

 

(原文サイト)

MNIST For ML Beginnerssoftmax(Wx+b

)

jWi, jxj+bi

evidencei=jWi, jxj+bi