AI時代の弁護士に求められる「確認力」
要は、AIが悪いんじゃなくて使い方がヘタなだけなんですよ
今回のアメリカの弁護士がAIで作った架空の判例を裁判所に提出して罰金を食らった話って、なんか「AIこわい!」って思う人が出てくると思うんですけど、要は、AIが嘘ついたってよりも、その嘘を見抜けない人が使ってるのが問題なんですよね。AIって便利なツールではあるんですけど、「それって本当ですか?」って疑う視点を持たないと、今回みたいに大恥かくわけで。
つまり、AIはハサミみたいなもので。ハサミって紙も切れるけど、人の指も切れるじゃないですか。でも誰も「ハサミは危険だから禁止しろ!」とは言わないわけで。AIも一緒で、道具として使う分には便利なんだけど、それをどう使うかって部分で人間の責任が問われる時代に入ってるんですよね。
「裏取り文化」の復活とリテラシー格差の拡大
この事件をきっかけに、世の中全体で「裏取り文化」が戻ってくると思うんですよ。昔の記者とか研究者って、めちゃくちゃ裏取りしてたんですけど、ネットが普及してから「ググってそれっぽいこと書いてあるからOK」みたいな空気が広がってた。でも、AIが嘘をつく時代になると、それじゃダメで、ちゃんと自分で確認する力が求められるようになる。
でも、ここで問題になるのがリテラシー格差なんですよね。ちゃんと確認できる人と、AIに何でも頼って騙される人。その差がどんどん広がって、最終的には「AI使ってもミスしない人」と「AIに使われてる人」に社会が二分化されると思ってます。
法曹界だけじゃなく、教育や医療でも同じ構造が起きる
学校教育に「AIとの付き合い方」が入る未来
弁護士の話に限らず、AIって教育や医療でも使われ始めてるじゃないですか。で、教師がChatGPTで教材作るとか、医者が診断支援にAI使うとか、もう普通に起きてるんですよ。でも、そこで「これって本当に正しいの?」って立ち止まれる人がどれだけいるのかって話なんですよね。
つまり、これからの教育現場には「AIとの付き合い方」って科目が必要になると思うんですよ。プログラミング教育より先に、「AIがウソつくこともあるよ」「ちゃんとソースを確認しようね」って教えるべきで。だから、小学校とか中学の授業に「AIリテラシー」って必須科目が入ってくる未来は、ほぼ確定なんじゃないかと思ってます。
医療現場では「責任の所在」がさらに曖昧になる
医療の現場ってもともと曖昧な部分多いんですけど、AIが入るともっとややこしくなるんですよね。「この診断はAIが出しました。でも責任は医師です」とか、「AIが間違ったデータを出しても、それを使ったのは人間ですよね?」みたいな。で、実際に裁判沙汰になったとき、誰が責任を取るのかってのが不明確になる。
なので、医療業界では「AIが出した判断を、人間がどう確認したか」っていうログを取る文化が出てくると思うんですよ。つまり、「この診断はAIが提案したけど、私はこういう理由で採用しました」って医者が自分の意志で書面に残すような。で、そこを怠った医者が訴えられる、みたいな時代に入ると思います。
AIの責任回避と「免責文化」の拡大
AIが出す情報に「信じるほうがバカ」って注意書きが付くようになる
要はですね、AIが出す情報って、これからどんどん「参考程度に」って扱いになるんですよ。昔のWikipediaみたいなもんで、「Wikipediaは誰でも編集できるから正確じゃないよ」ってみんな言ってたじゃないですか。で、今のAIも同じで、「ChatGPTがこう言ってたけど、それが正しいとは限らない」って前提で付き合うべきなんですよね。
そのうち、AIツールに「この内容は正確性を保証しません。ご自身で確認してください」って免責文が表示されるようになるし、それが当たり前になると思うんですよ。で、逆にその注意書きを読まずに使ってる人が「責任取れ!」って言っても、「え、自己責任じゃないですか?」って言われる未来しかない。
責任を取る人がいない時代と「自分で守るしかない」社会
つまり、AIがどんどん生活に入ってくると、最終的には「誰も責任を取らない社会」になるわけです。誰かが間違っても、「AIがそう言ってた」「私はただ使っただけ」って言い訳が通るようになる。でも、それじゃ困るから、結局みんなが「自分で確認する」「自分で判断する」っていうスキルを持たないと生き残れない時代になるんですよね。
で、そうなると「なんでも人のせいにする人」がどんどん淘汰されていくんですよ。つまり、自己責任の社会が加速して、「自分の頭で考えられない人」はAIに使われる側に回って、搾取されていく。だから今後、教育やビジネスの現場でも、「判断力」や「確認力」が重視されるようになっていくと思ってます。
「使い方を教える仕事」が新しい職業になる
AIの導入=職を奪う、じゃない未来
よく「AIが人の仕事を奪う」って言う人いますけど、実際のところ、AIが増えることで新しい仕事も生まれるんですよね。たとえば、今回の件みたいに「AIの使い方を知らなかった弁護士」が罰金を食らうってことは、「正しいAIの使い方を教える人」のニーズが出てくるってことなんですよ。
つまり、これからは「AI操作指導士」とか「AI倫理トレーナー」みたいな職業が普通に出てくると思います。で、その人たちが「こういうプロンプトを使うと危険ですよ」とか、「この情報はどうやって検証するか」とかを教える。ITリテラシーの延長線に、AIリテラシーの専門家ができるわけです。
誰でも先生になれる時代の到来
今までは、「勉強ができる人=偉い」「資格がある人=専門家」って構図だったんですけど、AIの登場でそれが崩れ始めてます。要は、AIをうまく使える人が、知識の有無に関係なく「正解にたどり着ける人」になるんですよね。で、そういう人が、自分のノウハウをYouTubeとかnoteで発信して、「先生」として成立する。
つまり、これからの時代って、「自分の得意なAIの使い方」を持ってる人が、それをコンテンツ化してお金を稼ぐ構造になる。知識じゃなくて、手段を持ってる人が評価される社会になると思ってます。
裁判の在り方が変わる可能性
弁護士の役割が「検索係」になる未来
これまでの裁判って、弁護士が過去の判例を調べて、それを元に戦略を立てるって構造だったんですけど、AIが判例を一瞬で出せるようになると、そこに時間をかける意味がなくなるんですよ。で、そうなると、弁護士の仕事って「AIが出した判例の信頼性を検証する」みたいな方向にシフトしていくと思います。
要は、弁護士の役割が「検索のプロ」から「フィルターのプロ」に変わるってことですね。AIは大量の情報を出してくれるけど、その中から「裁判所に通じる本物の情報」を選ぶのが人間の仕事になる。つまり、AIを鵜呑みにする人は淘汰されて、使いこなせる人が生き残る世界になるってことです。
「AI専用の裁判所」ができる可能性もある
さらに未来を想像すると、AIが関与したトラブルを専門に扱う「AI裁判所」みたいなものができる可能性もあると思うんですよ。たとえば、「AIが作ったデータを信じたら損した」とか、「AIの誤診で手術ミスが起きた」みたいな、責任の所在が曖昧な事件って、通常の裁判だと扱いづらいじゃないですか。
だから、AIが関与した事例は、AIと人間の関係性を前提に判断する専門機関で裁かれるようになる。で、その裁判所にはAIの専門家やテック業界の人間が入って、「このAIの動作は正しかったのか?」とか「この使い方は合理的だったのか?」って判断する時代が来ると思ってます。
「疑う力」が最強のスキルになる
常識を疑える人だけが生き残る
今回の事件で一番重要なのって、「AIが作ったから正しい」って信じたことが間違いだったってことなんですよ。要は、AIだろうが人間だろうが、「これは本当に正しいのか?」って疑える力が、今後は一番大事になるわけで。
で、その「疑う力」って、実はトレーニングできるんですよね。たとえば、ニュースを見るときに「これって誰が得する情報なんだろう?」とか、友達の話を聞くときに「その情報ってどこから来たの?」って考えるクセをつけるだけで、だいぶ変わる。
AI時代は「信じる人」よりも「疑える人」が強くなる時代なんですよ。だから、今後の社会で評価されるのは、単に知識がある人じゃなくて、「情報の背景まで読める人」になっていくと思います。
みんなが「ちょっと疑う」を当たり前にする未来
つまり、これからの社会って「なんでも鵜呑みにしない」ってのがスタンダードになる。子どもでも「この情報はちょっと怪しいかも」って思えるようになって、大人でも「AIが言ってたけど、一応調べるか」って思うようになる。で、それが普通になることで、社会全体が賢くなる。
で、それによって、騙される人が減って、詐欺も減って、フェイクニュースにも引っかからない。逆に言うと、「何も考えない人」は今以上に搾取される立場になっていく。だから、教育でもビジネスでも、「疑う力を育てる」ってのがテーマになる時代が来ると思ってます。
コメント