情報処理安全確保支援士試験 2024年 秋期 午前202


AIによる画像認識において、認識させる画像の中に人間には知覚できないノイズや微小な変化を含めることによって、AIアルゴリズムの特性を悪用し、誤認識させる攻撃はどれか。
Adaptively Chosen Message攻撃
Adversarial Examples攻撃(正解)
Distributed Reflection Denial of Service攻撃
Model Inversion攻撃

解説

AIによる画像認識において誤認識させる攻撃はどれか【午前2 解説】

要点まとめ

  • 結論:人間には気づかない微小なノイズを加えてAIを誤認識させる攻撃は「Adversarial Examples攻撃」です。
  • 根拠:Adversarial Examples攻撃はAIモデルの脆弱性を突き、微細な摂動で誤分類を誘発します。
  • 差がつくポイント:攻撃の特徴を正確に理解し、他の攻撃手法と混同しないことが重要です。

正解の理由

「イ: Adversarial Examples攻撃」は、画像に人間には知覚できない微小なノイズを加え、AIの画像認識モデルを誤認識させる攻撃手法です。これはAIの学習モデルの特性を悪用し、入力データにわずかな摂動を加えることで、モデルの出力を意図的に誤らせることができます。問題文の「人間には知覚できないノイズや微小な変化を含める」という条件に合致するため、正解となります。

よくある誤解

「Model Inversion攻撃」はモデルの情報を逆算する攻撃であり、画像の誤認識を狙うものではありません。
「Distributed Reflection Denial of Service攻撃」はサービス妨害攻撃であり、AIの誤認識とは無関係です。

解法ステップ

  1. 問題文のキーワード「人間には知覚できないノイズや微小な変化」に注目する。
  2. 画像認識AIに対する攻撃手法を思い出す。
  3. 各選択肢の攻撃の特徴を確認し、微小なノイズを加える攻撃を特定する。
  4. 「Adversarial Examples攻撃」が該当することを判断する。
  5. 他の選択肢の特徴と照らし合わせて誤りを排除する。

選択肢別の誤答解説

  • ア: Adaptively Chosen Message攻撃
    暗号解析などで使われる手法で、画像認識の誤認識とは無関係です。
  • イ: Adversarial Examples攻撃
    微小なノイズを加えてAIを誤認識させる攻撃で、正解です。
  • ウ: Distributed Reflection Denial of Service攻撃
    ネットワークサービスを妨害する攻撃で、画像認識の誤認識とは異なります。
  • エ: Model Inversion攻撃
    モデルの内部情報を逆算する攻撃で、誤認識を狙うものではありません。

補足コラム

Adversarial Examples攻撃はディープラーニングの脆弱性として注目されており、防御策としては敵対的訓練や入力の前処理などが研究されています。AIの安全性確保において重要なテーマです。

FAQ

Q: Adversarial Examples攻撃はどのようにして作られるのですか?
A: モデルの勾配情報を利用して、入力画像に微小な摂動を加え、誤認識を誘発します。
Q: 人間には気づかないノイズでもAIは誤認識するのはなぜですか?
A: AIモデルは高次元の特徴空間で判断しており、微小な変化が大きな影響を与えるためです。

関連キーワード: Adversarial Examples, 画像認識, AIセキュリティ, 敵対的攻撃, ディープラーニング脆弱性
← 前の問題へ次の問題へ →

©︎2025 情報処理技術者試験対策アプリ