2023年はChatGPTが急速に一般にも普及し、生成AIを業務に取り入れる活用も見られ、AIという新たな常識がはじまっていることを感じさせる年でした。簡単な情報のインプットだけでかなりの水準の成果物をアウトプットしてくれ、作業・業務の効率化はもちろんのこと、今まで個人単位では難しかったような専門性を伴う作業の補佐に及ぶまで、人々の生産性やクリエイティビティを飛躍的に高めてくれる可能性を持った便利なツールです。
しかし便利なものが登場してくると、必ずそれを悪用しようとしてくる人たちも現れてしまうのが人間社会の性かもしれません。この非常に便利なAIも悪用されてしまうリスクを抱えています。
①システム突破への悪用
まず一つ大きく危惧されている点として、現在導入されているセキュリティシステムでは不十分になってしまう可能性があります。
SNSやネット通販などの認証で、歪んだ数字を入力するものや、9枚の画像から信号機を含んだ画像を選ぶものなどを目にすることがあるかと思います。これらのセキュリティは、現在では人間にしか読み取れないためセキュリティとして効果を発揮できていますが、AI技術の発達によって突破されてしまう恐れがあります。
また、現状用いられているようなセキュリティの脆弱性を突く攻撃についても、脆弱性の特定にAIが悪用され、嫌な言い方ではありますが、効率的にサイバー攻撃を仕掛けられる可能性もあり、AIの利便性ゆえのサイバー攻撃が懸念されています。
②人間を騙すための悪用
システム面以外でも、人間を騙すためにAIが悪用されるというリスクもあります。
昨年は報道番組を装った、AIによって生成された総理大臣の偽動画がインターネット上に拡散され、大きな問題となりました。このようなフェイク動画・音声の作成技術は、すでに特別なものではなくなっており、詐欺分野への悪用は非常に懸念される事項です。
弊社の情報セキュリティ関連記事で以前にもご紹介している通り、サイバー攻撃の内訳としてなりすましメールの割合も依然として多くを占めています。生成AI技術の拡大によりなりすましの精度がさらに高まり騙されてしまう、というリスクも大いに考えられます。
往々にして、システムを騙すよりも人間を騙す方が簡単だったりもするものです。(ゆえに詐欺がいつまでもなくならないのでしょう)些細な変化についても注意を払う必要がありそうです。
では、どうすればいいのか
以上、AIの悪用によるサイバー攻撃のリスクについてご紹介しました。しかしリスクだけを聞くと対処のしようが無いようにも感じられます。私たちは一体どのようにすれば良いのでしょうか。
まず①のシステム面に関して。これは、セキュリティシステムの方面でも、AIを活用したより強固なシステムの開発が進んでいるようです。要するにいたちごっこになるような構図ではありますが、最新の情報を常に取り入れるようにして今取るべきセキュリティ対策は何なのか、を理解した上でシステムを更新していくことが求められそうです。
次に②について。こちらは究極的には人のリテラシーの問題ということになるでしょう。。いずれAI技術の活用によって、なりすましを検知するセキュリティは登場してくるでしょうが、現状生成AIで人を騙すのには十分な精度が出せてしまいますので、個々人が注意し、なりすましを見破っていくほかありません。また広く社内やサプライチェーンに及んで啓発していくことで、全体としての意識を高め予防していく、従来的かつ基本的な取り組みもまた、やはり重要と言えるでしょう。