AIが信用を壊す時代の到来
カスタマーサポートの自動化が招いた悲劇
要は、カスタマーサポートをAIに丸投げした結果、ありもしない規約を作り出しちゃったわけですよね。今回のCursorの件みたいな話って、今後いろんな企業でどんどん増えると思うんですよ。だって、企業側はコスト削減したいから、人件費かけたくないじゃないですか。で、AI使えば「安い・早い・休まない」って三拍子揃ってるって思っちゃうんですよね。
でも、結局AIって、「知らないことをそれっぽく答える」っていう性質を持ってるので、こういうトラブルは絶対起きる。しかも、サポート窓口って企業の顔みたいなもんなんで、そこで嘘をつかれると、一気に信用ガタ落ちなんですよね。
信用コストが爆上がりする未来
つまり、表面的には「AIでコスト削減できる!」って言って導入したのに、実際は「信用回復のために広報やサポートにめちゃくちゃ金と時間がかかる」っていう本末転倒な未来が待ってるんですよね。で、結局、人間が裏で全部ダブルチェックする体制を作るハメになると。
こういう信用問題って、別にIT企業だけの話じゃないんですよ。例えば銀行とか保険会社とか、超保守的な業界ですらAI導入に手を出してるわけですけど、万が一そこでミスったら致命傷ですからね。そう考えると、今後は「AIに任せきるんじゃなく、どこに人間を挟むか」を設計できる企業だけが生き残る、みたいな時代になると思うんですよ。
人々の「疑う力」が強化される社会
AIを無条件で信じる時代は終わる
結局、人間って楽したい生き物なんで、最初はAIが言ってることを鵜呑みにするんですよ。でも、今回みたいな事件が増えると、「AIだから正しいわけじゃない」っていう認識が社会に広まるんですよね。
つまり、今までは「偉い人が言ってるから正しい」みたいな感じだったのが、「AIが言ってるから安心」って一瞬なったんですけど、また「自分でちゃんと調べないとヤバい」っていう方向に逆戻りするわけです。
で、それってつまり「疑う力」が社会全体で底上げされるってことだと思うんですよ。これまで学校教育とかって「答えを覚える」ことがメインだったんですけど、これからは「本当にそれ正しいの?」って疑う能力が、めちゃくちゃ重要になる時代が来るんじゃないかなと。
リテラシー格差が一気に広がる
でも、全員が疑う力を持てるかっていうと、そうでもないんですよね。やっぱり一定数、「AIが言ったから正しいです」って思っちゃう人たちがいるわけで。で、そういう人たちは騙されやすくなる。
逆に、ちゃんと裏取りできる人たちは、情報リテラシーを武器にして、さらに有利な立場を取るわけですよ。つまり、情報リテラシーの格差が、経済格差とか社会格差をさらに拡大させる要因になる未来が見えてきちゃうんですよね。
要は、「AIを正しく使える人」と「AIに使われる人」に社会が二極化するって話です。
企業と社会の関係が変わる
「誠実さ」が一番コスパのいい武器になる
これまでは、企業って「いい製品作れば売れる」だったり、「広告ガンガン打てば売れる」だったんですけど、今後は「誠実であること」が一番の武器になる時代が来ると思うんですよね。
要は、「うちはAIも使ってるけど、人間がちゃんと監督してるんで安心してください」っていう姿勢を見せた企業だけが信用を得られると。で、誠実さって一見コスト高に見えるんですけど、長期的にはめちゃくちゃコスパいいんですよ。
だって、信頼を失ってから回復するには何倍ものコストがかかるから、最初から誠実にやっといたほうが結果的に安上がりなんですよね。
炎上リスクが企業活動の中心になる
今後は「炎上しないために何をするか」っていうのが、企業経営のめちゃくちゃ重要な要素になると思います。今までも多少はそうだったんですけど、AI導入が進めば進むほど、ミスが表面化しやすくなるんで、炎上リスクがどんどん上がってくるんですよ。
で、それに備えるために、法務部門とか広報部門の力がめちゃくちゃ強くなる。つまり、経営層が「売上」よりも「リスクマネジメント」を重視するようになる社会になるわけですね。 そうなると、売上至上主義みたいな古い考え方を持ってる企業はどんどん淘汰されていく未来が待ってると思います。
労働市場へのインパクト
AIを監督する仕事が増える
要は、今まで人間がやってた「答える」という作業をAIに任せた結果、今度は「AIがちゃんと答えてるかをチェックする」っていう仕事が生まれるわけですよね。 つまり、サポートセンターの仕事が単なるマニュアル対応から、もっと高度な監査業務みたいなものにシフトしていくんですよ。
で、これって意外と悪い話じゃなくて、単純作業が減るってことなんですよね。つまり、「マニュアル通り答えろ」ってだけの仕事より、AIが作った回答を見て「これおかしいだろ」って判断する仕事の方が、人間にとっても面白いしスキルも伸びる。 だから、労働市場においては「考える仕事」の割合が増えていく未来が見えるんですよね。
適応できない人の排除が進む
一方で、単純作業にしか対応できない人たちにとっては、どんどん居場所がなくなる未来でもあるんですよ。AIが適当に喋ったことを真に受けてスルーしちゃうような人って、チェック担当としても使い物にならないわけで。
つまり、AI社会に適応できない人たちが、さらに排除されやすくなる。で、これがまた格差を広げるんですよね。今までは「マニュアル読めればOK」だった層が、一気に「思考できるかどうか」でふるいにかけられる社会になるっていう。
結局、楽をしたい人たちがAIを使って楽をしようとするんだけど、それにちゃんと頭使って向き合える人しか生き残れないっていう、けっこうシビアな未来が待ってると思うんですよ。
教育現場の変化
暗記教育の終焉
要は、今の日本の教育って、未だに「知識を詰め込む」ことに力を入れてるんですよね。でも、AIがあれば「知識」は一瞬で引き出せる時代なんですよ。 つまり、知識そのものの価値が下がるんです。
これから重要なのは、「知識をどう使うか」とか、「知識に騙されないか」っていうスキルなんですよね。つまり、暗記型教育から思考型教育にシフトしないと、マジで取り残される。 たぶん、まともな親はもう気づき始めてて、子どもにディスカッションやらせたり、答えのない問題を考えさせたりする方向にシフトしていくと思うんですよ。
一方で、旧態依然とした学校教育しか受けられない子たちは、AIに使われる側に回る。つまり、教育格差がさらに未来の社会格差に直結する世界が来るって話ですね。
「調べる力」が最重要スキルに
結局、知識を持ってるかどうかより、「今ない情報をいかに正しく探し出すか」って能力が圧倒的に重要になるんですよね。 で、これって、別に難しい話じゃなくて、基本は「ググる力」なんですよ。
でも、実際問題、意外とまともに検索できない人って多いんですよね。例えば、単語でしか検索しないとか、公式情報と個人ブログの区別がつかないとか。 そういう基本的なリテラシーがないと、これからは普通に生きていくのもしんどくなると思うんですよ。
つまり、これからの教育って、「検索力」「疑う力」「まとめる力」が3本柱になっていく未来が見えてるわけです。
社会システムの変容
規制とガイドラインが乱立する
要は、AIが原因でトラブルが起きたとき、誰が責任取るのか問題が絶対出てくるんですよね。 で、それを防ぐために、いろんな業界でAI利用に関するガイドラインとか規制がめちゃくちゃ増える未来が来ると思うんですよ。
例えば、カスタマーサポートにAIを使うなら「人間のレビュー必須」とか、「AIが回答してることを明示する義務」とか。 で、これに対応できない企業は、どんどん市場から退場させられると。
つまり、自由に使えるはずだったAIが、どんどん制限されていく未来が待ってるわけですよ。 結局、便利さと安全性はトレードオフなんで、社会全体が「リスクを取るより、少し不便でも安全を取る」方向に振れるんですよね。
「信用経済」の再構築
これからは、「この会社はAIに任せきってないか?」とか、「ちゃんと人間が責任持ってるか?」っていう信用の話が、めちゃくちゃ重視されるようになるんですよ。 つまり、ブランドとか商品力よりも、「この会社なら裏切らない」っていう信用が最大の武器になる時代。
で、その信用を得るためには、短期的な利益を犠牲にしてでも誠実である必要があるんですよね。 だから、ビジネスのルール自体が大きく変わる。今までみたいに「勝ったもん勝ち」じゃなくて、「ちゃんと信頼を積み上げた奴だけが勝つ」みたいな世界線にシフトしていく未来が待ってると思います。
コメント