あと一週間、E資格の試験日が近づいてきました。(※週末ブログタイトル変更しました)
試験日が近づくと業務が忙しくなる法則が発動していて、なかなか勉強できません(できない子の言い訳)。
しかも、もう生成AIナシでは仕事ができなくなってきた今日この頃、E資格の意義すら微妙になってきていることもあってヤル気がゲンナリです。
今までは受けないという選択肢を行使していましたが、そろそろ研修の有効期限が切れるので、ヤバい感じです。
そうこうしているうちにシラバス(試験内容)も変わっていて、「何が出るのか?!」すら怪しくなっています。(固有値計算とか出題範囲外らしいよ)
こんな時は分厚い本を読むより生成AIに聞いた方が確実だよねということで、シラバスの単語で、確認用の問題を作成してもらいました。
E資格のBERTの範囲で、Masked Language Modeling(MLM)、Next Sentence Prediction(NSP)、事前学習、ファインチューニング、positional embeddings、segment embeddingsの内容について想定問題を10問作ってください
と入力すると、
- 次のうち、BERTの事前学習タスクとして正しい組み合わせはどれか?
a) Masked Language ModelingとSkip-gram
b) Next Sentence PredictionとContinuous Bag of Words
c) Masked Language ModelingとNext Sentence Prediction
d) Word2VecとNext Sentence Prediction
正解: c
解説: BERTの事前学習では、Masked Language Modeling (MLM)とNext Sentence Prediction (NSP)という2つのタスクを同時に学習します。これにより、文脈を考慮した双方向の言語理解能力を獲得します。- BERTの事前学習とファインチューニングの関係について、正しいものはどれか?
a) 事前学習は特定のタスクに特化して行う
b) ファインチューニングは常に全てのパラメータを更新する
c) 事前学習は大規模なコーパスで行い、ファインチューニングは特定のタスクで行う
d) ファインチューニングは必ず事前学習と同じデータセットで行う
正解: c
解説: 事前学習は大規模な一般的なコーパスで行い、その後特定のタスク向けにファインチューニングを行います。これにより、効率的に目的のタスクに適応させることができます。
という感じで10問作ってくれます。とりあえず、全項目で同様のことをやって、問題群を作成しました。問題作成はClaude3.5Sonnetで30分くらい。
ただ読んでるだけても有効ですが、覚えたか確認しながらやりたくなったので、生成AIで、JSON形式に変換して、簡易テストできるhtmlファイルを作ってもらいました。
ChatGPT-o3-mini-highが凄すぎる! いろいろ機能を付けながらhtmlを1時間くらいで完成させました。
思いのほか出来が良かったので、Githubで公開しようと思います。気に入ったらこのブログURLを広めて頂けると嬉しいです。
計算問題とかプログラムの問題はないですが、用語の知識確認には十分ではないかと思います。(間違いとかあればよい機能とか思いついたらGithub上で報告お願いします。)
サーバとかを立てたくなかったので、制御と問題文を分けず、HTMLに埋め込むことにしました。quiz.htmlをダウンロードするだけで、ブラウザだけあれば、PCでもスマホでもチェック可能です。
JSONデータを変えればいろいろできるところもよい感じです。(ゼロから生成させても知れていますが・・・)
こんなことやって結局遊んでいる私でした。
では