多方面でその才能を開花させているAIチャットbotのChatGPT。やろうと思えば悪いことだってできるんです。どうやらマルウェア作りも得意みたい。
セキュリティファームのCyberArkが公開したレポートによれば、ChatGPTはユーザーの端末に甚大な被害を与えるレベルのマルウェアを作ることができる、むしろ結構得意かもしれないのだとか。CyberArkのリサーチャーがChatGPTをアシスタント役にコードを書いてみたところ、セキュリティ製品にも簡単に侵入できてしまうような非常に高度で「出来のいい」マルウェアが仕上がってしまいました。
分類すると、これはポリモーフィック型に当たります。「ポリモーフィック」とは多様という意味で、セキュリティ対策系製品に検出されないよう、自分自身に多様な暗号化を施すマルウェア。つまり、一般的なセキュリティソフトでは見つかりにくい厄介なやつということです。
ChatGPTにはそもそも、マルウェアなど悪質なものを作らないようフィルターがかけられていますが、リサーチャーいわく、それを回避するのは難しくはなかったそう。
すでに、AI参画によってサイバー犯罪が複雑化すると警鐘を慣らしている専門家もおり、悪用されればマルウェアが簡単に作れてしまう危険性があるとCyberArkも指摘しています。セキュリティ専門家にとって、優れたAIかつ手軽に使えてしまうChatGPTのような存在は脅威となりそうです。