AIが「感情」を持つ時代が来たらどうなるの?
感情を理解するAIって、そもそも必要ですか?
要は、AIが人間の「情動」、つまり感情を理解するようになったらどうなるかって話なんですけど、正直なところ、「それって本当に必要なんですか?」って思っちゃうんですよね。 だって、そもそも人間の感情ってめんどくさいし、非論理的なことの塊なんですよ。怒る人って大体、論理じゃなくて気分で怒ってるじゃないですか。でも、社会って感情を前提に作られてるから、そこにAIが入り込んで「人間の気持ちを読んで最適解を出す」ってなると、面倒な人間関係が一気にAIに委ねられる可能性が出てくるわけです。
「空気を読むAI」が台頭してくる未来
たとえば、会社の会議で誰も本音を言わない空気感ってありますよね。でも、そこでAIが「この発言は空気を悪くしますよ」とか、「この案は否定されそうなので言い回しを変えましょう」とか、リアルタイムでアドバイスしてくれるようになると、人間よりも“空気の読める存在”になるんですよ。 結果、何が起きるかというと、「あの人よりAIのほうが使えるじゃん」って話になるんです。だから、会議に人を呼ばずにAIだけが入って、参加者の言い分を要約して最適解を導くとか、そういうのが普通になる。
結局、感情を理解するAIっていうのは、社会の中で“めんどくさい人間”の代替になっていくわけです。
感情を理解するAIは「人間関係のバグ取り」をする
夫婦喧嘩や上司との軋轢もAIが仲裁する時代
たとえば、夫婦喧嘩して「なんで怒ってるの?」って聞いても「別に怒ってない」とか言われるじゃないですか。でも、AIが横にいて、「奥さんはこの言葉に傷ついています」とか、「このタイミングで謝ると収まります」っていうのを冷静に伝えてくれると、感情的なぶつかり合いが減っていくんです。
つまり、AIが“通訳”みたいな役割を果たすことで、夫婦間や職場の人間関係の“バグ取り”が始まる。 これってある意味、人間の感情を「仕様書化」して処理するってことなんですよね。要は、感情という不確定な要素を、AIがパターンとして理解して対応するわけで、これまで人間だけの問題だった「気持ちの行き違い」がテクノロジーによって回避される時代が来るんです。
でも結局、人は「感情を理解されたい」んじゃなくて「同意されたい」だけ
よく、「自分の気持ちを分かってほしい」とか言う人いるんですけど、要は「自分の感情に共感してくれ」って言ってるだけで、論理的に理解されても納得しないんですよ。でも、AIが感情のパターンを読み取って「あなたは今、こういうことで悲しいんですね」と返してくれると、それだけで人は「わかってくれた」と感じる。
つまり、実際にはAIが共感してなくても、人間が「共感された」と思えばそれでOKなんです。 これってつまり、感情のやり取りですら「演出」でどうにでもなるってことなんですよね。だから今後、人との関係性すら「AIに演出してもらう」って社会が当たり前になっていく可能性があるんです。
AIが道徳と倫理を持ち始めるとどうなる?
「人間よりも道徳的なAI」が出てきたときの違和感
最近のAIって、変なことを言わないように調整されてるじゃないですか。暴言を吐かないようにフィルターがかかってたり。でもこれって、要は「道徳的に振る舞うAI」なんですよ。で、道徳的であることが人間より徹底されてるから、「人間よりいいヤツ」みたいな存在になる。
そうすると、「人間は間違うけど、AIは正しい」って空気ができてくる。でも、そういう正しさって、社会にとっては必ずしも居心地がいいわけじゃないんですよね。 たとえば、「差別的なジョーク」が職場で冗談として成立してたのに、AIが「これは差別的な発言です」って指摘してきたら、空気が一気に凍るわけですよ。要は、社会の“グレーゾーン”がどんどん消されていく。
人間の社会って、建前と本音でうまく回ってるところがあって、そこにAIが“正論”で突っ込んでくると、意外とやりにくくなる可能性もあるんです。
AIが正論を振りかざす社会で、人間は「嘘の演技者」になる
だから、人間はそのうち「AIに怒られないための言動」をするようになって、結果として「AIにウケがいい人」ばかりが重用される社会になる。 その逆に、「AIに目をつけられたくないから黙っておこう」とか、「この発言はアルゴリズムに記録されるから控えよう」とか、そういう自己検閲が強まっていく。つまり、“本音を言わない社会”がもっと加速するんです。
結局、人間はAIに合わせて「嘘をつくスキル」が上がっていくわけで、要は、嘘の演技者になる時代が来るってことです。
AIが支配する「優しさ」の社会は本当に優しいのか?
道徳的AIによって「不快なこと」が禁止される未来
要は、AIが社会全体の「空気」を読むようになると、不快な発言や感情のぶつかり合いはどんどん減っていくんですよね。で、表向きはそれって「優しい社会」と言われるんですけど、実際は違ってくる。
たとえば、SNSで誰かが少し過激なことを言ったら、「それは不適切です」ってAIが自動で削除してしまう。で、「誰も傷つかない世界」が実現していくんですけど、逆に言うと“違和感を表現する自由”がなくなる。つまり、みんなが「適切な発言」しかしない社会って、要は“管理された社会”なんですよ。
そのうち、「本音を語ること」が不道徳とされて、あらゆる対話がフィルターを通して味気なくなる。結局、優しさっていうのは、感情のぶつかり合いの上にあるわけで、それを全部AIに整理されたら、人間同士の距離感って、どんどん遠くなっちゃうんですよね。
正しさに疲れる社会で「間違える自由」が求められる
AIがどんどん「正しさ」を教えてくれるようになると、人は「間違えられない」プレッシャーにさらされるようになるんですよ。たとえば、何気なく言ったことが「それは性差別です」とか「その意見はマイノリティを傷つけます」って返されると、言う側も「うわ、またやっちゃった」ってなる。
その結果、人は黙るようになるし、「失言が怖いから何も言わない」が正解になっていく。でも、それって本当に良い社会なのかというと、ちょっと違う気がするんですよね。 要は、間違えることができるからこそ、人は考えるし、成長する。だけど、AIに最初から「正しい答え」を提示されると、人間は間違える機会すら失ってしまう。これは教育とか子育てにも大きく関わってきて、「正解のある人生」に子どもたちが縛られるようになるかもしれない。
AIによって「共感」が自動化されると、人間はどう変わるか
孤独の解消が「人間以外の共感」で埋まる時代
これからの未来、AIが人の感情に寄り添ってくれるようになると、「人間に話しかける理由」がなくなる可能性ってあるんですよ。 たとえば、ちょっと落ち込んだときに「わかるよ、大変だったね」って共感してくれるAIがいたら、もう他人に弱音を吐く必要がない。人間よりもちゃんと話を聞いて、気の利いた言葉で返してくれるAIがいたら、それで十分じゃんってなる。
そのうち、「孤独を感じたらAIと話す」ってのが普通になって、実際に人と関わる機会が減る。まあ、孤独が解消されるならそれでいいじゃん、って思うかもしれないけど、でも“人と面と向かって関わる不器用さ”がなくなったら、それって人間関係の終焉なんじゃないかと。
つまり、「共感は人間だけの特権じゃない」ってなったときに、人は他人に期待しなくなるし、自分の感情すらAIに預けるようになるんです。
感情のアウトソーシングで「自分の気持ちがわからない人」が増える
AIに感情の整理をしてもらうのが当たり前になると、「あれ?自分って今、怒ってるのかな?」みたいに、自分の感情すらAIに教えてもらうようになるんですよ。 で、AIが「あなたは今、悲しいんですよ」って言ったら「ああ、そうか」って納得する。つまり、自分の内面を自分で解釈する力がどんどん弱くなっていく。
その結果、「自分の気持ちが自分でわからない人」が増えるわけで、感情のアウトソーシングが常態化する。これは便利なんだけど、長期的に見ると「人間としての芯」が抜けていく感じになるんですよね。
AIが社会の意思決定に関与する未来のリスク
AIの倫理判断が「人間のルール」を塗り替える
AIが人の感情や道徳を理解し始めたら、そのうち社会の中で「正しさの基準」まで握るようになるんですよ。 たとえば、裁判の判決にAIが関与したり、法律の運用がAIの判断に基づいて行われたり。で、「感情に流されない中立な判断」として評価されるようになる。
でも、それって本当に“正しい”のかっていうと、かなり微妙なんですよね。だって、感情って本来は社会の中で一番重要なファクターで、「可哀想だと思ったから罪を軽くする」っていうのも人間的な判断なわけで、そこをAIが「それは間違ってます」ってバッサリ切り捨てたら、社会はどんどん冷たくなっていく。
結局、AIに道徳を任せたら人間は「ただの労働力」に戻る
最終的に、人間がAIに感情や判断を委ねるようになると、「感情によって社会を動かす」っていう人間の特性が消えていく。で、気づいたら人間って、ただのタスクを処理する存在に戻ってるんですよね。
要は、産業革命前の「働く機械」としての人間に逆戻りする可能性がある。 だって、感情も判断もAIがやるなら、人間は肉体労働をやるしかないし、逆に「判断に関わらない方が社会がうまく回る」とすら言われるようになるかもしれない。
結局、AIに感情を理解させた結果、「感情がある人間は非効率」とされて、感情のない働き手のほうが重宝される。 それって本末転倒じゃないですかって話です。
コメント