G検定2019#3自己採点071−080
[]
前回に引き続き、2019年11月9日に行われたJDLA ジェネラリスト検定の自己採点をしていきたいと思います。日は変わってしまったが、本日2件目。予定の遅れを少々挽回…。
- 071問
- 072問
- 073問
- 074問
- 075問
- 076問
- 077問
- 078問
- 079問
- 080問
- 071問の予想解答
- 072問の予想解答
- 073問の予想解答
- 074問の予想解答
- 075問の予想解答
- 076問の予想解答
- 077問の予想解答
- 078問の予想解答
- 079問の予想解答
- 080問の予想解答
- 注意事項
- 凡例
- 次へ
071問
以下の文章を読み、空欄(ア)に最もよく当てはまる選択肢を1つ選べ。
ECサイトなどでは、顧客の購買を促すために、機械学習によってその顧客が好みそうな商品を特定し、登場する手法が利用されている。代表的な手法として、ユーザの行動履歴から推薦を行う(ア)フィルタリングやアイテムの特徴から推薦を行う(イ)フィルタリングなどが挙げられる。
A) 協調
B) 関連
C) 類似
D) 近接
072問
以下の文章を読み、空欄(イ)に最もよく当てはまる選択肢を1つ選べ。
ECサイトなどでは、顧客の購買を促すために、機械学習によってその顧客が好みそうな商品を特定し、登場する手法が利用されている。代表的な手法として、ユーザの行動履歴から推薦を行う(ア)フィルタリングやアイテムの特徴から推薦を行う(イ)フィルタリングなどが挙げられる。
A) 内容ベース
B) 距離ベース
C) 評価ベース
D) 性質ベース
073問
以下の文章を読み、空欄(ア)に最もよく当てはまる選択肢を1つ選べ。
サンプル同士の類似度をもとに、それらを複数のグループに分ける手法は(ア)と呼ばれる。この手法は正解ラベルが付与されていないデータでも利用することができ、ビジネスにおける顧客のセグメンテーションなど、データマイニン グの領域で広く利用される。また、(ア)の代表的な手法として(イ)がある。
A) 決定木
B) 主成分分析(PCA)
C) クラスタリング
D) 交差検証
074問
以下の文章を読み、空欄(イ)に最もよく当てはまる選択肢を1つ選べ。
サンプル同士の類似度をもとに、それらを複数のグループに分ける手法は(ア)と呼ばれるこの手法は正解ラベルが付与されていないデータでも利用することができ、ビジネスにおける顧客のセグメンテーションなど、データマイニン グの領域で広く利用されるまた(ア)の代表的な手法として(イ)がある。
A) k-nn法
B) k-svm法
C) k-means法
D) k-fold法
075問
以下の文章を読み、空欄(ア)に最もよく当てはまる選択肢を1つ選べ。
アンサンブル学習の手法の1つとして逐次的に弱学習器を構築し損失関数を勾配降下法を用いて最適化する(ア)が知られる。
A) ランダムフォレスト
B) バギング
C) 勾配ブースティング
D) カーネルトリック
076問
分類問題を解くモデルにはさまざまなものがある。その中でも特に単純なモデルのひとつとして、神経細胞であるニューロンの構造を模したパーセプトロンがある。学習済みのパーセプトロンが以下のように定式化されるとき、新しく得られたサンプルがクラス0とクラス1のどちらに分類されるか、最も適切な選択肢を1つ選べ。 \begin{eqnarray} 重みベクトル w = \left( \begin{array}{c} 0.2 \\ 0.6 \\ −0.5 \end{array} \right) , 入力 x = \left( \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right) \\ \\ 総入力 u=w^{T}x \\ \\ 出力:y= \begin{cases} 0 (u \lt 0) ・・・クラス0\\ 1 (u \geqq 0) ・・・クラス1 \end{cases} \\ \\ 新しく得られたサンプル x_{ new } = \left( \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right) = \left( \begin{array}{c} 1 \\ 2 \\ 3 \end{array} \right) \end{eqnarray}
A) クラス0
B) クラス1
077問
以下の文章を読み、空欄(ア)に最もよく当てはまる選択肢を1つ選べ。
サポートベクトルマシン(SVM)はディープラーニングが台頭する以前から広く使われてきたモデルであり、(ア)というコンセプトに基づいて設計されているSVMには分類問題を上手く解くための工夫が施されている。例えば、スラック変数は(イ)ための工夫であり、カーネル法は(ウ)ための工夫である。
A) 情報利得の最大化
B) マージンの最大化
C) 二乗誤差関数の最小化
D) 尤度関数の最大化
078問
以下の文章を読み、空欄(イ)に最もよく当てはまる選択肢を1つ選べ。
サポートベクトルマシン(SVM)はディープラーニングが台頭する以前から広く使われてきたモデルであり、(ア)というコンセプトに基づいて設計されているSVMには分類問題を上手く解くための工夫が施されている。例えば、スラック変数は(イ)ための工夫であり、カーネル法は(ウ)ための工夫である。
A) 外れ値であるサンプルを削除する
B) 一部のサンプルの誤分類に寛容になる
C) 決定境界を非線形にする
D) 入力となる数値を正規化する
E) 計算量を大幅に削減する
F) 画像からピクセルの平均値を引き算する
079問
以下の文章を読み、空欄(ウ)に最もよく当てはまる選択肢を1つ選べ。
サポートベクトルマシン(SVM)はディープラーニングが台頭する以前から広く使われてきたモデルであり、(ア)というコンセプトに基づいて設計されているSVMには分類問題を上手く解くための工夫が施されている。例えば、スラック変数は(イ)ための工夫であり、カーネル法は(ウ)ための工夫である。
A) 外れ値であるサンプルを削除する
B) 一部のサンプルの誤分類に寛容になる
C) 決定境界を非線形にする
D) 入力となる数値を正規化する
E) 計算量を大幅に削減する
F) 画像からピクセルの平均値を引き算する
080問
以下の関数 z を y について偏微分した後の式として、最も適切な選択肢を1つ選べ。
\begin{eqnarray}z = x^2 + 3x - 5y^2 + 3y - 5\end{eqnarray}
A) 2x+3
B) 2x-2
C) -10y+3
D) 2y-10y+6
071問の予想解答
A) 協調
根拠:T.296-297、X.209、XI.8-23
> 071問
072問の予想解答
A) 内容ベース
根拠:X.209、XI.8-23
> 072問
073問の予想解答
C) クラスタリング
根拠:XI.2-1
> 073問
074問の予想解答
C) k-means法
根拠:T.104、X.42、XI.2-3
> 074問
075問の予想解答
C) 勾配ブースティング
根拠:T.100はキーワードのみなので判然としません。勾配ブースティングについてざっくりと説明する - About connecting the dots.に問題文とほぼ同様の表現を見つけました。
勾配ブースティングとは
複数の弱学習器を組み合わせるアンサンブル学習には,いくつかの手法がありますが,ブースティングは逐次的に弱学習器を構築していく手法です.逐次的というのは,弱学習器を1つずつ順番に構築していくという意味です.新しい弱学習器を構築する際に,それまでに構築されたすべての弱学習器の結果を利用します.そのためすべての弱学習器が独立に学習されるバギングと比べると,計算を並列化できず学習に時間がかかります.ブースティングでは,各ステップごとに弱学習器を構築して損失関数を最小化します.その際に,各学習データの扱いはずっと平等ではありません.各学習データのうち,前のステップで間違って識別されたものへのウェイトを重くして,次のステップで間違ったものをうまく識別できるようにしていきます.
> 075問
076問の予想解答
A) クラス0
根拠:\begin{eqnarray} u =\begin{pmatrix} 0.2 & 0.6 & -0.5 \end{pmatrix} \left( \begin{array}{c} 1 \\ 2 \\ 3 \end{array} \right) \\ = (0.2\times1) + (0.6\times2) + (-0.5\times3) \\ = 0.2+1.2-1.5 \\ = -0.1 \lt 0 \\ \therefore y=0 ・・・クラス0 \end{eqnarray}
> 076問
077問の予想解答
B) マージンの最大化
根拠:X.63(ほぼそのままの表現)、XI.3-5、T.101
> 077問
078問の予想解答
B) 一部のサンプルの誤分類に寛容になる
根拠:X.63(ほぼそのままの表現)、XI.3-5
> 078問
079問の予想解答
C) 決定境界を非線形にする
根拠:X.65(ほぼそのままの表現)、XI.3-6、T.101(カーネル法の説明はないが、カーネル関数から想像はつく)
> 079問
080問の予想解答
C) -10y+3
根拠:X.82
> 080問
注意事項
凡例
次へ
[]