ホーム > 情報処理安全確保支援士試験 > 2021年 秋期
情報処理安全確保支援士試験 2021年 秋期 午前2 問01
AIによる画像認識において,認識させる画像の中に人間には知覚できないノイズや微小な変化を含めることによってAIアルゴリズムの特性を悪用し,判定結果を誤らせる攻撃はどれか。
ア:Adaptively Chosen Message攻撃
イ:Adversarial Examples攻撃(正解)
ウ:Distributed Reflection Denial of Service
エ:Model Inversion攻撃
解説
画像認識におけるAIアルゴリズムの特性を悪用し、判定結果を誤らせる攻撃として「Adversarial Examples攻撃(敵対的サンプル攻撃)」があります。以下で詳しく解説します。
Adversarial Examples攻撃とは
Adversarial Examples攻撃とは、AIが画像を認識するときに、元の画像に人間にはほとんど気づかれない程度のノイズや微小な変化を加えることで、AIの判定を誤らせる攻撃です。特に深層学習を用いた画像認識モデルで問題となります。
なぜ誤判定が起きるのか?
画像認識AIは画像を数値ベクトルとして内部処理しています。画像データのわずかな変化であっても、AIの重みやバイアスの計算に大きな影響を及ぼすことがあります。その結果、本来は正しいクラスに分類されるべき画像が、まったく異なるクラスに誤認識されてしまいます。
例えば、画像 に微小なノイズベクトル を加えた画像 が元の画像とほぼ同じ見た目でも、AIは
のように本来の正解 とは異なる誤ったクラス と判定してしまいます。
人間に知覚できないノイズ
重要なのは、「人間には見分けがつかない」程度のノイズである点です。人間が画像を見ても違いが分からず、元の画像とほぼ同じ内容を持っていますが、AIの判断は劇的に変化します。
他の選択肢との違い
-
ア: Adaptively Chosen Message攻撃
通信や暗号分野での特定のメッセージを選んで攻撃を行うものであり、画像認識アルゴリズムへのノイズ攻撃とは異なります。 -
ウ: Distributed Reflection Denial of Service (DRDoS) 攻撃
複数の踏み台から反射的に大量のトラフィックを送り付けてサービス停止を狙う攻撃で、画像認識の誤認識とは関係ありません。 -
エ: Model Inversion攻撃
学習したAIモデルからトレーニングデータの一部を逆算して復元する攻撃です。こちらはプライバシー漏えいに関係し、判定誤りとは別の問題です。
まとめ
- Adversarial Examples攻撃は、画像にほとんど目立たないノイズを加えてAIを騙し、誤認識を誘発する攻撃です。
- 画像認識AIの弱点を狙った典型的なセキュリティリスクであり、セキュリティ対策や堅牢性向上が重要です。
- 問題の選択肢の中で正しい答えは「イ: Adversarial Examples攻撃」です。
このような理解を深めることで、AIの安全な利用や防御技術の重要性を認識でき、実際の試験や実務での応用力が高まるでしょう。