AIに頼る社会の限界
結局、人間の判断が必要になる
要はですね、AIで虐待の判定をやろうとしたけど、6割も疑わしい判定が出たって話ですよね。で、それが信用できないから結局AIの導入を見送ったと。じゃあ、最初からAIなんて使わずに人間が判断すればよかったんじゃないの?って思う人もいるかもしれないですけど、そもそも「AIで判定したら楽になるんじゃね?」っていう発想がズレてるんですよね。 虐待ってケースバイケースだし、家族の状況とか細かいニュアンスを見極めないといけないわけですよ。例えば、「親が厳しくしつけてるだけなのか、本当に虐待なのか」っていう判断って、データだけじゃできないんですよね。でも、それをAIに丸投げしようとするから、精度が低くて使い物にならないってことになったわけで。 結局、AIがやることになっても最終的に人間がチェックする必要があるし、下手したら「AIがOKって言ったから問題なし」みたいな責任逃れが増えるだけなんですよね。
責任の所在があいまいになる未来
で、これからの未来どうなるかっていうと、行政のAI活用ってどんどん進んでいくと思うんですよ。でも今回みたいにAIの判断が信用できないとなると、結局、最終決定は人間がやることになる。で、「AIの判定に従っただけです」っていう責任逃れがどんどん増えていくんじゃないですかね? 例えば、AIが「この子は虐待のリスクが低い」って判定した後に実際に虐待事件が起きた場合、「いや、AIがそう言ったんで」って役所の職員が言い訳する未来が見えてくるわけですよ。逆に、AIが「この子は危険です!」って言っても、本当にそうなのか確認しなきゃいけないから、結局、行政の負担は減らないんですよね。 だから、「AIを使って効率化しよう!」っていうのはわかるんですけど、責任の所在をどこに置くかっていう問題が全然解決してないんですよ。で、結局、責任の押し付け合いが続く未来が待ってるんじゃないかと。
行政の効率化と人間の怠慢
AI導入の目的は本当に効率化なのか?
要はですね、AIを導入しようとする理由って、「人手不足を補うため」だったり、「行政の負担を減らすため」だったりするわけですよ。でも、本当にそうなの?って話なんですよね。 実際のところ、「AIを入れることで責任を分散させたい」とか「ミスが起きたときに言い訳できるようにしたい」っていう、隠れた目的もあるんじゃないですかね?AIが導入されたからって職員の仕事が減るわけじゃなくて、むしろ「AIが出した判定をチェックする仕事」が増えるわけで。で、結局、業務量が変わらないどころか増えてるんじゃないかと。 これって、本当に効率化になってるんですかね?
行政の現場が「AIに責任を押し付ける社会」になる
例えばですよ、今後AIの導入が進んで、いろんな行政判断をAIがするようになったとする。でも、結局、「AIの判定をどう扱うか」を決めるのは人間なんですよ。で、その結果、何か問題が起きたときに「AIのせいだから」って言い訳する文化が根付いちゃうんじゃないかと。 今回の虐待判定AIの件もそうですけど、「AIを導入すること自体が目的になってる」んですよね。実際のところ、AIを入れても業務が増えるだけで、効率化どころか混乱が増えるだけなんじゃないかと。 で、こういう流れが続くと、役所の人たちが「とりあえずAIに任せとけばいいや」って考えるようになって、最終的に「AIがやったことだから仕方ない」っていう風潮ができてくるんですよね。で、そこから何が起こるかっていうと、「人間が責任を取らない社会」になっていくわけです。
日本のAI政策が抱える根本的な問題
技術を使う側の意識が変わらないと意味がない
日本って「新しい技術を取り入れること」が目的になっちゃうことが多いんですよね。例えば、今回の虐待判定AIの件も、「AIを使えば何とかなるんじゃね?」っていう安易な発想でスタートしてるんですよ。でも、実際にはAIを導入しても、それを運用する人間の意識が変わらないと意味がないわけで。 例えば、アメリカとかだとAIを使うときに「どの範囲までAIに任せるか?」っていうのを明確に決めて、それに対する責任の取り方もルール化されてることが多いんですよ。でも日本の場合、「とりあえずやってみる」→「問題が出る」→「やめる」みたいな流れになりがちなんですよね。 で、結局「AIってダメじゃん」っていう話になって、本当に活用できるはずの技術まで全部ポシャる、みたいな未来が見えてくるわけです。
AI導入の失敗が続くと、日本は技術後進国になる
で、今後どうなるかっていうと、こういう「失敗するAI導入」が何度も繰り返されて、日本全体としてAI活用に対するネガティブなイメージが強くなっていくんじゃないかと。 「どうせAI入れても使えないよね」っていう空気ができると、結局、日本企業とか自治体はAIの導入に消極的になって、結果的にAI技術の発展が遅れるわけですよ。で、海外ではAIをうまく活用して行政サービスの効率化が進んでいくのに、日本だけ「やっぱり人間が全部やるべきだよね」っていう流れになって、どんどん遅れていくと。 で、気づいたら、「海外ではAIでできてることが、日本ではできない」っていう状況になって、日本の競争力がさらに落ちていく未来が待ってるんじゃないですかね?
「AIが使えない国」になる日本
行政のAI導入が失敗し続ける未来
要はですね、日本の行政って「AIを使えば便利になる!」っていう幻想を持ちすぎてるんですよね。でも、実際に導入してみたら、結局「人間のチェックが必要だから負担は減らない」っていうことが今回の虐待判定AIの件で証明されちゃったわけです。 これからも日本の行政はAIをいろんな分野で導入しようとすると思うんですよ。でも、そのたびに「やっぱりAIの判断は信用できない」っていう理由で、最終的に人間が全部確認しないといけなくなる。で、「AIを入れたのに仕事が減らない!」っていう状況が続いて、結局「AIって意味なくね?」っていう空気が広がると。 その結果、「どうせAIを導入しても失敗するんだから、もうやめよう」っていう判断がどこかのタイミングで出てくる可能性があるんですよね。で、日本だけがAIの活用を諦めて、世界から取り残される未来が見えてくると。
海外とのAI格差が広がる
例えばアメリカとか中国は、AIの精度が低かったとしても「試行錯誤しながら改善していく」っていうスタンスでやってるんですよ。でも日本の場合、「一度失敗すると、もうやめちゃう」っていうパターンが多いんですよね。 今回の虐待判定AIもそうですけど、「最初の精度が低いからダメ」って判断するんじゃなくて、「どうやったら精度を上げられるか?」っていう議論が本来は必要なわけです。でも日本は、「失敗した=ダメだったからやめる」っていう発想になりがちなんですよね。 で、このまま行くと、AIを行政に活用して効率化を進める国と、AIを使わずに旧来のやり方を続ける日本っていう構図ができちゃうわけです。で、気づいたら「海外ではAIがやってる仕事を、日本では未だに人間が手作業でやってる」みたいなことになって、どんどん差が開いていくと。
AIを活用するために必要な考え方
人間がAIをうまく使う仕組みを作るべき
要はですね、AIって「人間の判断を補助するツール」なんですよ。でも、日本の行政って「AIにすべてを任せよう」としすぎてるわけです。 例えば、AIが「このケースは危険度が高い」と判断したら、それを踏まえて人間が最終判断するっていう仕組みにすればいいのに、「AIの精度が低いからやめる」っていう極端な結論になっちゃうんですよね。 だから、本当に必要なのは「AIの判断をどこまで信用するのか?」っていうルール作りなんですよ。例えば、AIの判定を参考にするけど、最終的な決定は専門家が行うとか、AIの精度を定期的に評価して改善する仕組みを作るとか、そういう運用の仕方を考えないといけないわけで。
AIとの共存を前提にした社会設計が必要
海外では、「AIは間違えることがある」という前提のもとで運用ルールを作るのが当たり前なんですよね。でも、日本は「AIが完璧じゃないなら使えない」っていう発想になりがちなんですよ。 で、こういう考え方を続けてると、AIの活用がどんどん遅れていって、最終的に「AIをうまく使える国」と「AIを使えない国」に分かれて、日本は後者になる可能性が高いと。
未来の日本はどうなるのか?
「人間がすべて判断する社会」に逆戻りする
今回の虐待判定AIの導入失敗みたいな話が続くと、最終的に「AIなんていらないよね」っていう流れになって、昔のやり方に戻っちゃう可能性があるんですよね。 で、「AIがミスをするなら、やっぱり人間の判断のほうがいい」っていう意見が増えて、どんどんAI導入に消極的になっていくと。そうすると、行政の効率化が進まなくて、いつまで経っても人手不足が解決しないっていう未来が待ってるわけですよ。
技術を使いこなせる国との格差が広がる
海外ではAIがどんどん活用されて、行政の手続きもスムーズになっていく。でも、日本は「AIを信用できないから使わない」っていう選択をして、結果的に非効率な社会が続いていくと。 で、最終的に何が起こるかっていうと、「AIを使える国」と「AIを使えない国」で経済的な格差が生まれるんじゃないですかね?日本がこのままAI導入に消極的なままだと、将来的には「日本って、なんでこんなに時代遅れなの?」って言われるようになるかもしれないですね。
結局、日本はどうするべきか?
AIの失敗を前提にして改善を進める
要はですね、「AIが完璧じゃないから使えない」っていう発想を変えないと、日本はどんどん遅れていくんですよ。 むしろ、「最初はミスがあるのは当たり前」っていう前提で、AIをどうやって改善していくかを考えるべきなんですよね。例えば、「AIの判定が間違っていたら、そのデータを学習させて精度を上げる」とか、そういう運用をしないと、いつまで経ってもAIは使えないままになると。
責任の所在を明確にする仕組みを作る
あと、AIを導入するなら「AIの判断が間違ってた場合、誰が責任を取るのか?」っていうルールを作る必要があるんですよね。 今の日本だと、「AIのせいでミスが起きたときに、誰が責任を取るのか不明確」だから、結局、AIの導入を見送るっていう流れになっちゃうわけで。でも、それって単純に責任逃れしたいだけなんじゃないの?って話なんですよね。 だから、本当にAIを活用したいなら、「最終的な判断は人間がするけど、AIのデータは積極的に活用する」っていう形にするのが現実的なんじゃないですかね? で、そういう仕組みを作れない限り、日本はいつまでも「AIをうまく使えない国」のままなんじゃないですかね?
コメント