難易度・正答率・重要度
- 難易度:★★☆☆☆(基本用語の対応付け)
- 正答率:★★★☆☆(定義を押さえれば判断可能)
- 重要度:★★★☆☆(深層学習の基礎)
問題文
深層学習(ディープラーニング)に関する以下の文章の空欄A~Dに入る用語の組み合わせとして、最も適切なものを下記の解答群から選べ。
深層学習は、ディープニューラルネットワークを用いた学習方法のことである。ニューラルネットワークは、入力層、 A 、出力層の3つの層から構成されるが、特に A が複数あるニューラルネットワークはディープニューラルネットワークと呼ばれる。
また、ニューラルネットワークの中の B において、複数の入力の重み付け総和などの値から、その出力を決定するための関数は C と呼ばれる。代表的な C には、 D 、双曲線正接関数、ReLU などがあり、これらは目的に応じて使い分けられる。
〔解答群〕
ア
A:畳み込み層 B:シナプス C:誤差関数 D:シグモイド関数
イ
A:畳み込み層 B:ニューロン C:活性化関数 D:ハッシュ関数
ウ
A:隠れ層 B:シナプス C:誤差関数 D:シグモイド関数
エ
A:隠れ層 B:ニューロン C:活性化関数 D:シグモイド関数
オ
A:隠れ層 B:ニューロン C:誤差関数 D:ハッシュ関数
出典: 中小企業診断協会|2023年度 第1次試験問題|経営情報システム(PDF)
解答
- 正解:エ(A=隠れ層、B=ニューロン、C=活性化関数、D=シグモイド関数)
解説(選択肢ごとの評価)
- ア:×
畳み込み層はCNNの構成要素であり、基本三層(入力・隠れ・出力)の「A」には当たらない。Cに誤差関数を置くのも不適切(誤差関数は損失関数)。 - イ:×
Aに畳み込み層は不適切。Dのハッシュ関数は活性化関数ではない(ハッシュは可逆性・微分性も要件外)。 - ウ:×
Aの隠れ層は正しいが、Cに誤差関数は不適切。活性化関数が入るべき。Bをシナプスにすると、活性化の適用主体(ニューロン)と整合しない。 - エ:〇
ニューラルネットワークは入力層・隠れ層・出力層で構成。活性化関数はニューロンで重み付き和から出力を決める関数。代表例にシグモイド、tanh、ReLUがある。 - オ:×
Cに誤差関数、Dにハッシュ関数はいずれも不適切。誤差関数は学習の評価尺度、ハッシュは暗号・索引向けの関数。
学習のポイント
- 隠れ層: 入力と出力の間で特徴を抽出する層。複数あると「ディープ」。
- ニューロン: 重み付き和+活性化関数で出力を生成。
- 活性化関数: 線形性打破と表現力向上のために用いる(シグモイド・tanh・ReLUなど)。
- 誤差関数(損失関数)との違い: 誤差関数はモデルの出力と正解の乖離を測る。活性化関数とは役割が異なる。