過去問解説(経営情報システム)_2023年 第3問

難易度・正答率・重要度

  • 難易度:★★☆☆☆(基本用語の対応付け)
  • 正答率:★★★☆☆(定義を押さえれば判断可能)
  • 重要度:★★★☆☆(深層学習の基礎)

問題文

深層学習(ディープラーニング)に関する以下の文章の空欄A~Dに入る用語の組み合わせとして、最も適切なものを下記の解答群から選べ。

深層学習は、ディープニューラルネットワークを用いた学習方法のことである。ニューラルネットワークは、入力層、 、出力層の3つの層から構成されるが、特に が複数あるニューラルネットワークはディープニューラルネットワークと呼ばれる。

また、ニューラルネットワークの中の において、複数の入力の重み付け総和などの値から、その出力を決定するための関数は と呼ばれる。代表的な には、 、双曲線正接関数、ReLU などがあり、これらは目的に応じて使い分けられる。

〔解答群〕

A:畳み込み層 B:シナプス C:誤差関数 D:シグモイド関数
A:畳み込み層 B:ニューロン C:活性化関数 D:ハッシュ関数
A:隠れ層 B:シナプス C:誤差関数 D:シグモイド関数
A:隠れ層 B:ニューロン C:活性化関数 D:シグモイド関数
A:隠れ層 B:ニューロン C:誤差関数 D:ハッシュ関数

出典: 中小企業診断協会|2023年度 第1次試験問題|経営情報システム(PDF)

解答

  • 正解:エ(A=隠れ層、B=ニューロン、C=活性化関数、D=シグモイド関数)

解説(選択肢ごとの評価)

  • ア:×
     畳み込み層はCNNの構成要素であり、基本三層(入力・隠れ・出力)の「A」には当たらない。Cに誤差関数を置くのも不適切(誤差関数は損失関数)。
  • イ:×
     Aに畳み込み層は不適切。Dのハッシュ関数は活性化関数ではない(ハッシュは可逆性・微分性も要件外)。
  • ウ:×
     Aの隠れ層は正しいが、Cに誤差関数は不適切。活性化関数が入るべき。Bをシナプスにすると、活性化の適用主体(ニューロン)と整合しない。
  • エ:〇
     ニューラルネットワークは入力層・隠れ層・出力層で構成。活性化関数はニューロンで重み付き和から出力を決める関数。代表例にシグモイド、tanh、ReLUがある。
  • オ:×
     Cに誤差関数、Dにハッシュ関数はいずれも不適切。誤差関数は学習の評価尺度、ハッシュは暗号・索引向けの関数。

学習のポイント

  • 隠れ層: 入力と出力の間で特徴を抽出する層。複数あると「ディープ」。
  • ニューロン: 重み付き和+活性化関数で出力を生成。
  • 活性化関数: 線形性打破と表現力向上のために用いる(シグモイド・tanh・ReLUなど)。
  • 誤差関数(損失関数)との違い: 誤差関数はモデルの出力と正解の乖離を測る。活性化関数とは役割が異なる。