生成AI×著作権が試験に登場!未来を読む技術者の条件

AI倫理・法制度

生成AIと試験問題の未来

試験に社会性が求められる時代

要は、応用情報技術者試験で生成AIと著作権の問題が出たって話なんですけど、これって結構大きな意味があると思ってるんですよね。昔の情報処理技術者試験って、もっとアルゴリズムだとか、ネットワークだとか、技術的なことにフォーカスしてたんですよ。でも今は違うと。AIとか著作権って、いわば「社会と技術の接点」なんですよ。

つまり、これからの技術者ってのは、ただコードが書ければいいって時代じゃなくて、社会的なルールや倫理観を理解してないとアウトってことなんですよね。技術が社会に与える影響を考える力が求められると。

で、結局そういう時代になると、何が変わるかっていうと、「技術オタクだけが成功する時代は終わる」ってことです。技術は使い方次第で毒にも薬にもなるんで、それをどう運用するかのセンスが問われると。

社会がAIにどう付き合うかの試金石

著作権の話になると、例えば生成AIが作ったイラストが著作物かって議論があるじゃないですか。あれ、答えとしては「著作物じゃない」ってされるんですけど、でもそれって法律の話であって、現実のトラブルは普通に起きるわけです。

で、トラブルが起きた時に「AIが勝手に作ったんで」って言って逃げるのか、「でもそれを使ったのは人間だから」って責任を取らせるのか、そのバランスが今後の焦点になってくると思うんですよね。

だから、今回の試験問題ってのは、単に知識を問うっていうより、「お前、それちゃんと考えたことある?」っていう社会からの問いかけなんですよ。SNSで「サービス問題だ」とか言ってる人もいるけど、それって「知識」だけで生きてきた人の発想で、もうそれだけじゃ足りないよっていうメッセージでもあるんじゃないかと。

未来に求められるのは「問いを立てる力」

記憶型人材の限界

昔の教育って、「覚えたもん勝ち」だったんですよね。テストでいい点取るには、公式を覚えて、過去問やって、答えを当てにいけばよかったと。でも今は違うんです。AIが記憶と検索のプロなんで、人間が覚えてる意味って、どんどん小さくなってるんですよね。

じゃあ何が必要かっていうと、「そもそもこの問題ってどうやって考えればいいの?」っていう問いを立てる力。つまり、「どの情報が必要なのかを選び取る能力」なんですよ。

生成AIが何でも出してくれるって思ってる人多いけど、実際には「聞き方」が悪いと、とんちんかんな答えが返ってくるんですよ。つまり、いい答えを引き出すためには、いい質問をする能力が必要だと。

この流れが続くと、教育も変わるはずです。知識の詰め込みより、「問いを立てる訓練」が重要になる。で、それができる人が、これからの社会では価値を持つようになると。

AIとの共存で求められる倫理観

AIを使う側の責任って、これからもっと問われるようになると思うんですよね。たとえば、フェイクニュースを生成AIが自動で作るツールが出てきたとするじゃないですか。それを使って他人を攻撃したり、社会を混乱させたりした時、「ツールが勝手にやったんで」って言い訳は通じないんですよ。

つまり、「AIをどう使うか」ってところに倫理観が必要になると。だから、技術者が法や倫理を学ばなきゃいけないってのは、けっこう本質的な話なんですよ。

僕がフランスで生活してて思ったのは、ヨーロッパの人たちって倫理に対する意識が高いんですよね。個人の自由は尊重されるけど、その分、他人への配慮も求められる。それってAIにも同じことが言えると思ってて、「便利だから使う」じゃなくて、「その使い方、誰かを傷つけないか?」って考えることが重要になる。

この視点を持てるかどうかが、AI社会での「信頼」や「信用」を左右する要素になると思うんですよね。

変わる働き方とキャリア形成

資格試験の意味が変わる

これまでの資格って、「その分野の知識があることの証明」だったんですけど、今後は「その分野に対してどう向き合うかの姿勢」も問われるようになると思います。つまり、「この人は技術を扱う資格がある」だけじゃなくて、「社会的に信頼できる技術者である」ってことを示す道具になる。

そうなると、資格試験に出る問題も、技術だけじゃなくて「考え方」や「倫理観」を試すものに変わっていく。で、それって、受験者のキャリアにも影響するんですよね。単なる技術者じゃなくて、「社会と対話できる技術者」が評価される時代になる。

で、こういう時代になると、逆に専門バカみたいな人は厳しくなる。知識はあるけど、他人とまともに会話できないとか、価値観がズレすぎててチームで仕事できないとか、そういう人は淘汰されやすくなると思います。

AIと教育の未来像

「教える」から「共に学ぶ」へ

結局のところ、AIが進化するにつれて、人間の教育の在り方も変わらざるを得ないんですよね。昔の教育って、「正解を教える」ってスタイルが基本だったんですけど、AIが正解を即座に出せる時代には、そのやり方はもう時代遅れになる。

じゃあ何が求められるかというと、「正解のない問いにどう向き合うか」ってところなんですよ。教育は「考え方を鍛える」場にシフトしていく。たとえば、「AIに仕事を奪われるのは本当に悪いことなのか?」とか、「AIが差別的な発言をしたら誰の責任か?」みたいな、複雑な問いに対して自分の考えを持ち、他人と議論できる力が必要になる。

で、それって教える側にも変化を求めるわけで、教師や講師も「答えを教える存在」じゃなく、「一緒に考える存在」になる必要がある。AIと生徒の間に立って、「問いの質」を上げていく役割ですね。

AIリテラシーは読み書き計算と同じくらい必須になる

昔は「読み書きそろばん」ができれば良かったんですけど、今はそれに「AIの使い方」が加わる時代なんですよね。つまり、AIリテラシーが義務教育レベルで必要になってくる。

でも、「AIをどう使うか」を理解している人って意外と少ない。スマホでChatGPTに質問して満足してる人多いけど、それって「使ってる風」であって、実は使いこなせてないってことが多いんですよ。だから、今後は「AIにどう聞けば有益な情報が得られるか」とか、「AIが出した答えをどう評価するか」って部分が教育の核心になる。

AIは便利だけど、答えをうのみにすると危険ですからね。だから、AIを盲信せずに「判断する力」が重要になるんです。で、その判断力を育てるのが、これからの教育の役割になるわけです。

変わる社会のルールと価値観

個人の責任が強まる社会へ

AIを活用する社会では、「誰がどこまで責任を取るか」ってのがますますシビアになります。たとえば、自動運転の車が事故を起こしたとき、誰が悪いのか?プログラマー?メーカー?AI?運転者?

こういう問題って、今までは「誰かが責任を取ればOK」だったんですけど、これからは「複数の立場の責任が重なる」ケースが増えるんですよ。つまり、「みんなちょっとずつ責任を持ってる」って世界になる。

だから、社会全体としてのルール作りが求められるんですけど、個人レベルでも「自分がAIを使ってどう行動したか」に責任を持つ必要が出てくる。これは便利さと引き換えに、個人の倫理観や判断力が問われる社会になるってことです。

で、そういう社会って結局「信頼」が通貨になるんですよ。「この人が使ってるAIなら大丈夫」っていう信頼があれば、その人の言葉や行動に価値が出てくる。逆に言えば、倫理的にズレたことをする人は、信用を失って社会的に排除されていく可能性もある。

新しいリーダー像の登場

今までのリーダーって、「知識がある人」「経験がある人」って感じでしたけど、これからは「AIをうまく使える人」「問いを立てて人を導ける人」が求められるようになると思います。

つまり、「みんなが気づかない問いを見つけて、それをうまく投げかける人」が新しいリーダーになる。そういう人って、別に権力があるとか、知識が豊富とかじゃなくて、「視点が違う人」なんですよ。

で、その視点の違いを生み出すのが、論理的思考だったり、多様な経験だったり、倫理観だったりするわけです。だから、これからのリーダーって、ただの「優秀な技術者」じゃなくて、「社会をどう導くかのビジョンを持ってる人」になる。

結局、AI時代に勝つのはどんな人か?

変化を楽しめる人

未来の話をすると不安になる人も多いと思うんですけど、結局、変化を恐れずに楽しめる人が強いんですよね。「AIが仕事を奪う」って言われたら、「じゃあAIと一緒に何ができるか考えよう」って思える人が勝ち組になる。

技術は進化し続けるんで、それにいちいち文句を言っててもしょうがない。だったら、自分が変わった方が早いし、面白い。そうやって柔軟に考えられる人が、AI時代では求められると思います。

問いを磨き続ける人

で、最終的に重要なのは「問いの質」なんですよ。知識やスキルはAIに任せればいいけど、「何を問いかけるか」は人間しかできない。だから、「面白い問いを立てられる人」が、社会を動かす存在になる。

そのためには、自分の価値観を問い直したり、他人の考えを聞いて視野を広げたりすることが必要。つまり、「日常的に考え続ける人」が、これからの世界では信頼され、選ばれるようになる。

だから、技術だけじゃなく、「どう生きるか」って視点を持つことが大事になるんですよね。

コメント

タイトルとURLをコピーしました