AIが情シスを代替?セキュリティ自動化の未来

セキュリティAI

AIがセキュリティの主役になる日

セキュリティ担当者の仕事はどこへ向かうのか?

マイクロソフトが出した「Security Copilot」っていうAIのセキュリティエージェント群なんですけど、要は人間がやってたようなフィッシング対策とか、脅威の分析とか、パッチの優先順位づけまで、全部AIが勝手にやってくれるようになるって話なんですよね。

で、これ何がすごいかっていうと、「とりあえず警告が出たから全部確認しなきゃ」みたいな、セキュリティチームの地味で面倒な作業がどんどん自動化されるわけです。つまり、今まで人手をかけてた部分がどんどんAIに置き換わってくる。

結局、企業のセキュリティ部門って「人が足りない」ってずーっと言ってたんですけど、これからは「人手がいらない」方向に進んでいくんじゃないかなと思うんですよ。で、それって「人件費削減」っていう魔法の言葉とセットで、どの企業も飛びつく未来が見えてる。

AIが勝手に判断してくれる時代に起きること

こういうAIが判断する時代って、ミスがあったときに「誰が責任取るの?」っていう問題が出てくると思うんですよね。人間なら「お前が確認しなかっただろ」って怒られて終わるけど、AIが判断して勝手にパッチを当てたり、フィッシングをブロックしたりすると、「AIの判断に従っただけです」ってなる。

で、結局責任の所在が曖昧になる。でも、責任って曖昧になると人はどんどん判断しなくなるんですよ。だって「AIがやってくれるからいいや」ってなるし、実際に「AIの言うことが正しい」って前提で動くようになってくる。

これ、要は「人間の判断力がどんどん退化していく」未来につながるんじゃないかなって思ってるんですよ。人間って楽を覚えると、すぐに脳を使わなくなるので。

人の判断力が削がれる未来

セキュリティの現場がブラックボックスになる

今までは、例えばセキュリティインシデントが起きたときに「このログを見て、何が起きたか把握して、次はこういう対策をしよう」みたいなことを人間がやってたんですよ。でも、AIが全部処理してしまうと、「何が起きたのか」さえ人間が分からなくなる。

たとえば「AIが脅威レベルを5段階中3にしたから、対策不要と判断しました」ってなっても、じゃあその理由は何?って聞いても、「ブラックボックスなので分かりません」ってなるわけです。で、それを信じて動くのが当たり前になると、現場がどんどん思考停止していく。

つまり、「AIを使いこなす人」ではなくて「AIに従うだけの人」が増えていくわけです。で、これはある意味で、新しい格差を生むんじゃないかなって思うんですよね。

情報の非対称性が加速する社会

AIを作る人と使う人、さらに使われる人の3層構造になっていく気がするんですよ。AIを開発するエンジニアや企業は、その仕組みの全てを把握してる。でも、企業のセキュリティ担当者はそのAIを「ツールとして使う」だけ。さらに一般ユーザーは、もう完全にその判断結果に従うしかない。

この構造って、情報格差がどんどん拡がる原因になるんですよね。例えば「なぜこのメールは迷惑判定されたのか」「なぜこのURLは危険なのか」を説明されても、分かる人と分からない人で意識や行動がまったく違ってくる。

要は、思考できる人がますます少数になって、「AIが言ってたから」っていう理由だけで物事が進む社会になる。で、それってある意味で、かなり怖い未来でもあると思うんですよ。

職業構造の変化と新しい仕事

情シスの存在価値が問われる時代

企業の中で情シス(情報システム部門)って、わりと評価されにくいんですよね。裏方仕事が多いし、何か起きてからようやく注目されるようなポジション。でも、Security CopilotみたいなAIが入ってくると、「普段の監視」とか「アラート対応」とかが全部自動化されるので、情シスの役割ってどんどん削られていく。

じゃあ何が求められるようになるかっていうと、「AIの使い方が分かる人」と「AIが判断したことをレビューできる人」になる。つまり、ツールを導入するだけじゃなくて、「このAIはこういう判断傾向があるから、ここは人間が介入すべき」って判断できるスキルが求められる。

でも、それって「従来の情シス」じゃなくて、もっと戦略的なポジションになる必要があるってことなんですよ。つまり、「ITの便利屋」から「ITのディレクター」みたいな方向にシフトしないと、生き残れないわけです。

新しい専門職の登場

逆に言うと、AIをレビューする専門家とか、「セキュリティAI監査人」みたいな新しい職業が出てくる可能性はありますよね。「このAIはなぜこう判断したのか」「バイアスはないか」とかを検証する仕事。そういう専門家が必要になるってことは、単純にAIを導入すればOKじゃなくて、「AIを理解してるかどうか」が新たなスキルになってくる。

で、そういう職業は給料も高くなると思うんですよ。なぜなら、需要は増えるけど、やれる人は少ないから。結局、AIが普及すればするほど、「AIを扱える人」の価値が上がるっていう、わりと皮肉な現象が起きるんじゃないかと思ってます。

AIが支配するセキュリティの未来

「ゼロトラスト」から「ゼロヒューマン」へ?

今のセキュリティ界隈では「ゼロトラスト」っていう考え方が主流になってるんですけど、要は「誰も信じない。常に検証する」っていう前提なんですよね。でも、AIがここまで進化すると、「人間を信じない」どころか「人間を信用に値しない存在として排除する」って方向に進むかもしれない。

つまり、「ゼロトラスト」からさらに一歩進んで、「ゼロヒューマンセキュリティ」みたいな時代が来るんじゃないかっていうことです。人間の関与がセキュリティリスクになるから、いっそすべて自動化して、人間が操作する余地をなくそう、みたいな。

極端な話ですけど、将来的には「人間がいないことが一番安全」っていう結論に至る可能性もあるんですよね。まあ、それって社会としてどうなの?って話はあるんですけど、効率だけを突き詰めると、そういう方向性になるんじゃないかなと思ってます。

人間の信用度がどんどん下がる社会

で、これが社会全体にどう影響するかというと、要は「人間よりAIのほうが信頼できる」っていう空気が社会に浸透してくるわけです。たとえば採用面接で、「この人は誠実そうです」って人事が言うより、「AIがリスクなしと判断しました」って言うほうが信頼される。

逆に人間の感覚とか経験に基づく判断って、「バイアスがある」とか「非合理だ」とか言われて、信用を失っていく。結局、そうなると「人間としての直感」とか「経験に基づく判断」ってものの価値が下がって、最終的には「AIに従うのが正解」みたいな思考停止に至る。

それって、ある意味で「AIに管理される社会」の始まりでもあるんですよね。まあ、ディストピアっぽく聞こえるかもしれないですけど、便利さに慣れた人間は、自らその道を選ぶと思いますよ。

AIとの共存か、支配か

AIに任せた方が楽、という誘惑

現実問題として、AIが便利になればなるほど、「人が考える必要がなくなる」っていうメリットがあるんですよね。たとえば家庭でも「このURLは安全ですか?」ってわざわざ調べるより、「AIがブロックしてくれるからいいや」ってなる。

それは企業も同じで、「人が判断するより、AIの判断を信じたほうが早い」ってなる。で、最初は「補助的なツール」だったはずのAIが、いつの間にか「判断の基準」になってくるわけです。

人って楽を選ぶ生き物なので、AIがある程度正解を出してくれるなら、それに従うほうが楽なんですよね。だから結局、「AIに支配される未来」っていうのは、誰かが強制するものじゃなくて、人間が自分で選ぶものなんです。

人間に残される役割とは?

じゃあ、そんな未来の中で人間は何をするのか?って話になるんですけど、「判断しない人」が増える中で、逆に「AIが判断できない領域」を扱う人の価値が上がると思うんですよ。

たとえば、「人の感情」とか「文化的なニュアンス」とか、「答えが一つじゃない問題」に対しては、AIってまだ苦手なんですよね。そういう領域に強い人、つまり「人間らしさを極めた人」が重宝されるようになる。

皮肉な話なんですけど、AIが進化すればするほど、「人間らしい人」が評価されるという、逆説的な構図が生まれると思います。で、それって結局、効率を極めた先にある「非効率の価値」って話なんですよね。

セキュリティの未来=社会の縮図

AIセキュリティは社会の変化を映す鏡

Security CopilotのようなAIは、単にセキュリティの自動化ツールというだけじゃなくて、社会の変化を反映している存在だと思ってます。つまり、「効率化」「責任の曖昧化」「人間の判断力の低下」「格差の拡大」っていう、今の社会が抱える問題が全部詰まってるんですよ。

AIセキュリティが普及すればするほど、「社会の構造そのもの」が変わってくる。人の役割、組織の形、働き方、教育の内容…全部が変わっていく。だからこそ、単なる技術トレンドとしてじゃなくて、社会変革の一環として考えるべきなんじゃないかと思ってます。

考える力を持つか、従うだけの存在になるか

最終的には、人間が「考える存在」として生きるのか、それとも「AIに従うだけの存在」として生きるのかっていう選択の話になるんですよね。

便利さの裏には、常に代償がある。AIが進化すればするほど、「自分で考える」ことの価値が問われる時代になると思います。だからこそ、「AIが何を言ってるか」じゃなくて、「自分が何を考えるか」が重要になる。

要は、AIに任せて楽をするか、自分の頭で考え続けるかっていう話で、これはセキュリティだけじゃなくて、すべての領域に関わってくる問題だと思うんですよね。

コメント

タイトルとURLをコピーしました