AIはサイバー攻撃をどう変えるのか。Googleのレポートが示す「AI悪用」の現実
Googleの脅威分析部門がまとめた報告によれば、2025年後半はサイバー攻撃の現場でAI活用が進んだという。
AIは情報収集や標的調査、フィッシングメール作成、マルウェア開発などの工程を効率化するツールとして利用され始めているようだ。
ただし現時点では、AIによって攻撃能力が劇的に変化した例は確認されていないと報告されている。
AIモデルを盗む「蒸留攻撃」が増加
特に増加が確認されたのが「モデル抽出攻撃(蒸留攻撃)」と呼ばれる手法だという。
これはAIに大量の質問を行って挙動を分析し、同様の性能を持つ別のAIを低コストで作ろうとする行為を指す。
こうした手法はサービスを破壊する攻撃ではなく、AI技術そのものをコピーする知的財産の窃取に近い性質を持つらしい。
国家支援ハッカーもAIを活用
報告では、北朝鮮やイラン、中国、ロシアなどの国家支援型グループがAIを利用している例も確認された。
主な用途は技術情報の調査や脆弱性分析、標的に合わせた自然な文章の生成などだったという。
AIは攻撃の自動化というよりも、作業効率を高める補助ツールとして使われている段階とみられる。
AI連動型マルウェアの実験も
AIを組み込んだ新しいマルウェアの試みも確認された。
一部の不正プログラムではGeminiのAPIを利用し、追加のマルウェアをダウンロードするコードを生成する仕組みが試された例があるという。
さらに、制限を回避したAIを提供すると称する地下サービスも登場しており、AIの悪用手段は徐々に多様化している可能性がある。
今回の報告では、AIモデルを提供する企業に対し、API利用の監視や不審なアクセス検知の重要性が指摘された。
AIは攻撃を劇的に変えたわけではないが、攻撃の速度と効率を高める技術として定着しつつある段階なのかもしれない。
Top image: © iStock.com / Andrey Suslov






