深層学習

深層学習

【深層学習】勾配降下法について学ぼう

本記事では勾配降下法について説明しています。勾配降下法は損失関数が最小に導くアルゴリズムであり、最も一般的なものを最急降下法と呼ばれます。ほかにも確率的勾配降下法やモメンタムなどがあります。
深層学習

【深層学習】活性化関数を知ろう

本記事では活性化関数について説明しています。活性化関数はニューロンの入力数値を変換して次のニューロンへの出力を生成する関数です。非線形、微分可能が特徴であります。代表例としてシグモイド関数やtanh関数などがあげられます。
深層学習

【深層学習】損失関数について知ろう!

本記事では損失関数について説明しています。損失関数とは正解データと出力データを比較する関数であり、損失関数の値は小さいほどいいです。種類としてはクロスエントロピー誤差とMSEがあります。
深層学習

【深層学習】ニューラルネットワークについて学ぼう

本記事ではニューラルネットワークについて説明しています。ニューラルネットワークは、人間の脳を数値的に模倣したモデルで、ニューロンやシナプスで構成されています。重みやバイアスを用いてモデルを学習します。
機械学習

【機械学習】深層学習について学ぼう!

本記事では深層学習と機械学習の違いやライブラリについて解説してあります。深層学習と機械学習の違いや特徴量を自動的に抽出できるかどうかであります。また、実装するときはライブラリを使用したほうがよく、代表的なものにpytorchとtensorflowがあります。