ニューラルネットワークは、人間の脳神経の働きをモデル化し、コンピュータ上で脳神経回路を再現する仕組みです。これは「パーセプトロン」と呼ばれる脳細胞のような小さな計算ユニットを複数つなげて構成されます。
単層パーセプトロン: 単一層のパーセプトロンのみで構成されたニューラルネットワークの構造です。
多層パーセプトロン(MLP): 複数の層から成るニューラルネットワークで、特に4層以上の構造を持つものは「ディープラーニング」とも呼ばれ、複雑な学習が可能です。
ニューラルネットワークは、人間のように学習(機械学習)を行うことで、データに基づいた推論や判断ができるようになります。例えば、手書き文字認識などがその代表例です。
学習の設定パラメータ ニューラルネットワークの学習において、以下のようなパラメータを設定することが多いです。
RATIO 学習用データのうち、どの程度を検証用データとして使用するかを決める割合です。RATIOの値は0.0〜1.0の範囲で設定します。例えば、RATIO=0.1の場合、全データの10%を検証用データ、残り90%を学習用データとして利用します。検証用データを使うことで、モデルが学習しすぎ(過学習)ないように調整できます。
ISEED 擬似乱数のシード値を指定します。シード値を設定すると、毎回同じ乱数列が生成されるため、実験結果を再現しやすくなります。シード値を変更することで異なる乱数列が生成され、新たなデータや条件でモデルをテストできる利点があります。
IGRAPHIC 学習過程のグラフ表示に関する設定です。
IGRAPHIC=1の場合、学習過程や結果を可視化するグラフが表示されます。 IGRAPHIC=0の場合、ウィンドウ表示は非表示になります。 INETWORK ニューラルネットワークの構造設定です。
INETWORK=0の場合、単層パーセプトロン(シンプルな構造) INETWORK=1の場合、多層パーセプトロン(複数層による複雑な構造)
INETWORK=0は単層パーセプトロンを用いたシンプルな構造であり、学習速度は速いものの、認識できるパターンが限定されているため、複雑なデータには対応しきれない場合があります。 一方で、INETWORK=1の設定では多層パーセプトロン(複数層を持つ構造)が用いられ、より多様で複雑な特徴を学習できるため、手書き文字認識などの課題において、正解率が大幅に向上します。この結果、手書き文字認識の実験でも、INETWORK=0のシンプルな構造よりもINETWORK=1の多層構造のほうが高い正解率を達成しました。
INETWORK設定による手書き数字認識の結果の違い..
上記の実行結果から、INETWORKの設定に応じて認識される数字の種類と精度が大きく変わることがわかります。
**INETWORK=0(単層パーセプトロン)**のとき、認識された数字は「1」のみでした。この構造では、学習に限界があり、複雑なパターンや多様な数字の形を十分に認識することができません。そのため、「1」という特定のパターンしか認識されなかったと考えられます。
**INETWORK=1(多層パーセプトロン)**に設定した場合、認識できた数字が「0」「1」「6」と増えました。多層パーセプトロンを用いることで、ネットワークがより複雑なパターンを学習し、複数の数字を認識する能力が向上したことが示されています。層が増えることで、各層が異なる特徴を抽出・学習しやすくなり、結果として「0」「1」「6」といった異なる数字の認識が可能になりました。

