AIの出典明示は危険?思考停止社会の未来

AIリテラシー

AIの情報源明示がもたらす未来

「Citations」で情報の透明性は本当に上がるのか

要は、AnthropicのAI「Claude」が出典を明示することで、AIの回答の信頼性が向上するって話なんですけど、これって本当に効果あるんですかね。AIが「この情報は〇〇のデータから取ってきました」って言ったところで、それをちゃんと読んで理解できる人がどれだけいるのか、っていう話なんですよ。 結局のところ、人間って自分が信じたい情報を信じる生き物なので、出典があろうがなかろうが、フェイクニュースを信じる人は信じるし、疑う人は疑う。例えば、ネットで「このサプリは医者もおすすめ!」って書いてあっても、それを疑いもせず買う人がいるじゃないですか。そういう人たちに「この情報は〇〇という論文から取ってきました」と言ったところで、結局読まないわけですよ。 で、これが社会にどんな影響を与えるかって話なんですけど、たぶん、今後は「AIが出典を示したから正しい」っていう勘違いが広がる可能性があるんじゃないかと思うんですよね。要するに、AIの出典が正しくても、その元ネタ自体が間違ってたら意味ないわけで。Wikipediaに書いてあることをそのままコピペするようなものですよね。

「AIの言うことは正しい」という思考停止が加速する

もうちょっと厄介なのが、「AIが出典を示したから、これは正しい情報だ」と思考停止する人が増えることですね。今でも「ChatGPTがこう言ってたから正しい!」みたいな人がいるじゃないですか。それと同じで、今後は「Claudeがこの論文を元にしてるから正しい」っていう、ある種の盲信が生まれる可能性が高い。 で、ここで問題なのは、AIがどこから情報を引っ張ってきているかを、人間が確認しないまま信じ込むことなんですよ。例えば、AIが「このデータは〇〇の論文から取ってきました」と言っても、その論文が怪しい研究だったらどうするのかって話で。結局、AIが何を参照しているかよりも、その情報が正しいかどうかを判断できる能力が人間側に求められるわけですけど、その能力を持ってる人ってどれくらいいるんですかね? 普通の人は、AIが「出典あり」と言った時点で安心しちゃうわけですよ。でも、そこに嘘の情報が混じっていたら?例えば、極端な話、AIが「地球は平らです」って言って、それに適当な論文を引用したら、信じる人も出てくるわけですよね。だから、AIの出典明示って、結局のところ人間のリテラシーが問われるっていう話なんですよ。

「情報の正しさ」より「納得感」が優先される時代へ

もう一つ問題なのは、人間って「正しい情報」よりも「納得できる情報」を信じる生き物だってことです。だから、AIがどんなに正しい出典を示しても、人間が納得しなかったら意味がない。例えば、ワクチンに反対している人に「このデータはWHOの公式サイトから取りました」ってAIが言っても、「WHOは信用できない!」って言われたら終わりじゃないですか。 つまり、情報の出典が明示されたところで、そもそも受け取る側がその情報をどう解釈するかが問題なわけです。で、これからの時代は、「出典のある情報」よりも「自分が納得できる情報」の方が優先されるんじゃないかと思うんですよね。SNSでもそうですけど、人間って自分の意見に合う情報ばっかり集めたがるじゃないですか。 で、ここから未来の話なんですけど、多分今後はAIを使った「自分に都合のいい情報を見つける」サービスが増えると思うんですよね。要するに、AIが「あなたが信じたい情報はこれですね!」って、自分のバイアスを強化する方向に進む可能性があるわけです。

情報リテラシーが分断を加速させる

「知識格差」がますます広がる未来

これから先、AIの発展によって情報の出典が明示されるようになったとしても、それを正しく理解できる人とできない人の差はどんどん広がると思うんですよね。つまり、「出典を読んで情報の正しさを自分で判断できる層」と、「出典があろうがなかろうがとにかく信じる層」に分かれる。 これ、今の社会の格差と一緒で、情報を扱う能力の差がどんどん大きくなると思うんですよ。例えば、ネットリテラシーの高い人はAIが出典を示したとしても、それを自分で確認して判断する。でも、リテラシーが低い人は「AIが言ったんだから正しい!」って思考停止する。 要は、AIがどんなに賢くなっても、それを使う人間のレベルが追いつかなかったら意味ないんですよね。むしろ、情報を自分で考えずに受け入れる人が増えることで、間違った情報が広がる可能性すらある。

「AIが答えを出すから考えなくていい」という危険

さらに言うと、「AIが出典を示すから、自分で考える必要がない」っていう考え方が広がる可能性もありますよね。要は、AIが「これは〇〇のデータに基づいています」と言えば、それが正しいかどうか考えずに受け入れるようになる。 で、こういう考え方が広がると、どうなるかって話なんですけど、多分「自分で調べて考える人」と「AIに頼り切る人」の二極化が進むんですよ。で、後者の方が圧倒的に多くなる。 例えば、昔は分からないことがあったら本を読んだり、調べたりしたじゃないですか。でも、今はGoogle検索ですぐ答えが出る。で、次のステップとして、今後は「AIに聞けば全部答えてくれる」っていう時代になる。そうなると、人間が自分で考える力をどんどん失っていく可能性が高い。 要は、「考えなくても答えが出る社会」になっていくわけですよね。これって、便利なようで結構怖い話なんですよ。

AI依存社会とそのリスク

「AIが正しい」前提の社会は危険

で、前半では「AIが出典を示しても、それを正しく判断できる人がどれだけいるのか」という話をしましたけど、もう一つ考えなきゃいけないのが、「そもそもAIが間違えることもある」という前提が、どれだけ社会で共有されるかって話なんですよね。 例えば、AIが「このデータは政府の統計から取っています」と言ったとしても、その統計自体が間違っていたらどうするのかっていう話で。実際、過去に政府のデータが改ざんされていたことなんていくらでもあるわけじゃないですか。でも、「AIが公式データを元にしているから正しい」と思い込む人が増えると、間違った情報がそのまま広まる危険性がある。 で、これが社会全体にどう影響するかっていうと、多分「AIの言うことを疑わない人」が増えることで、権力側が都合のいいデータだけを使うようになったり、意図的に情報をコントロールするケースが出てくると思うんですよね。要するに、「AIがこう言ってるから正しい」という状況を作ってしまえば、人間を簡単に誘導できるわけですよ。

「考えない人」が増えた結果、何が起こるのか

で、こういう状況になると、「AIが提示した情報をそのまま受け取る人」と、「AIの情報を疑って自分で検証する人」に分かれるわけですよ。で、前者が圧倒的に多くなる。 例えば、昔はニュースを見たら「これ本当なのかな?」って疑う人が多かったんですけど、今の時代はSNSでバズってる情報をそのまま信じる人が増えてるじゃないですか。で、これがさらに進むと、「AIが言ってるんだから調べる必要ないよね」っていう思考停止に繋がる。 こうなると、もう社会全体が「考えない方向」に進んでいくんですよね。例えば、「この政策はAIが分析して正しいと言っている」と政府が発表したら、誰も疑わずに従うようになる。で、そのAIが間違っていた場合、気づいたときには手遅れになってるわけですよ。

AI時代に求められる「疑う力」

「AIに頼らない人」が強くなる未来

じゃあ、この流れの中で、どんな人が生き残るのかっていう話なんですけど、多分「AIの言うことを鵜呑みにしない人」なんですよね。 例えば、AIが「この薬は安全です」と言っても、自分で論文を読んで確かめる人とか、「この政策はAIの分析で正しい」と言われても、自分でデータを調べる人。こういう人たちは、AI時代においても価値が上がると思うんですよ。要するに、「疑う力」を持ってる人が強くなる時代になる。 逆に、「AIが言ってるから間違いない」と思考停止してる人は、情報に操られる側になっていく。で、これは結構深刻な話で、多分10年後ぐらいには、「AIを信じるだけの人」と「AIを活用しつつも疑う人」の間に、知識格差がものすごく広がると思うんですよね。

「リテラシー格差」が経済格差を生む

で、ここからさらに進むと、「リテラシー格差」が「経済格差」になっていくわけですよ。要するに、「AIを使いこなして、自分で考えられる人」と、「AIに依存して指示待ちになる人」で、仕事の生産性や収入に大きな差が出る。 例えば、今でも「Google検索をうまく使える人」と「検索の仕方が分からない人」では、情報収集のスピードが全然違うじゃないですか。で、これがAIの時代になると、「AIの出した答えを疑いながら活用できる人」と、「AIの言うことをそのまま受け取る人」に分かれるわけです。で、後者の人はどんどん仕事をAIに取られる可能性が高い。 要は、AIが発展すればするほど、それを使いこなせるかどうかで、人生の選択肢が変わるって話なんですよね。

AIが変える未来の価値観

「答えを知ること」に価値がなくなる

で、最終的にどうなるかっていうと、「答えを知ること」自体に価値がなくなる時代が来ると思うんですよ。 昔は、「知識があること」が価値だったじゃないですか。でも、今はスマホがあれば、どんな情報でも調べられる。で、AIが進化すると、「知識を持っていること」よりも「知識をどう使うか」が重要になる。要するに、「AIが知ってること」は誰でもアクセスできるわけで、それをどう活用するかが問われる時代になる。 例えば、「歴史に詳しい人」って昔は価値があったけど、今はWikipediaを見ればすぐ分かるから、それだけでは価値がない。で、これがさらに進むと、「答えを知っているだけの人」はどんどん価値が下がるわけですよ。

考える力を持つ人が生き残る

結局のところ、未来の社会では「AIに頼りすぎない人」が生き残ると思うんですよね。で、「自分で考えられる人」と「AIの言うことをそのまま受け入れる人」の差は、どんどん広がっていく。 要するに、「AIがこう言ってるから正しい」という時代ではなくて、「AIの言ってることが本当に正しいのか?」と疑う力が必要になってくるわけです。で、これができる人は、今後の社会でどんどん価値が上がるし、できない人は情報に振り回されるだけの存在になる。 だから、今後大事なのは、「AIを活用しながらも、自分の頭で考え続けること」なんじゃないですかね。

コメント

タイトルとURLをコピーしました