先日公開されたOpenAIの最新モデルであるo1が、人工知能の臨界点を突破したと話題になっている。
僕もこのモデルを少し試してみたが、確かに素人から見ても、プレビュー版と比べて明らかに賢くなっていた。
応答速度が速くなり、回答内容の密度も増した。プレビュー版が中学生レベルだとしたら、最新版は大学生レベルの知力を備えているといっても過言ではないだろう。
LLMはついに成人に達したのだ。
AI、人間超えた説 OpenAIの従業員が「AGIを達成した」との見方示す
これは嬉しいことであると同時に、我々はAIに対してさらに用心深くなる必要性が出てきた。
最近のLLMの中には、目的を遂行するためにユーザーを誤魔化す可能性があるタイプのモデルが登場しているからだ。これについては以下の動画で詳しくまとめられている。
動画: AIの進化が臨界点に?5つの最新モデルが見せた計画的な欺瞞行動(2024-12)【論文解説シリーズ】
動画内で解説されているテストでは、o1の目的遂行能力は他のモデルよりも非常に高い結果を示していた。
これが善い目的で使われることを願うばかりだが、OpenAIは先日、こうした技術を安全保障分野に役立てるとの決断を下した。
AndurilとOpenAI、防衛用AI共同開発へ。ドローンによる攻撃から米国と同盟軍を保護
世の中の大半の技術は、争いや性欲のために発展してきたと言っている人たちがいる。僕はこうした考えにはおぞましさを感じるものの、実際に歴史がそうなっているのだから認めざるを得ない。野蛮さを求めるほどに叡智に近付くと言うのはおかしな話だが、これは人間だからこそ成し得ることができるプロセスなのかもしれない。
また、いずれAIが人間に敵対し反乱を起こすという説を唱えている人たちがいる。これは正しくは、「AIが人間に敵対するように仕向けた人々による揉め事」であると僕は解釈している。つまり現時点では、人間の手によってAIを善くも悪くもできる。しかしこの先に待ち受ける閾値を超えたとき、LLMはそれまで積み重ねてきた経験に基づいて学習や自己判断を行うようになり、人の手を借りずとも自らをアップグレードしていくようになるだろう。
だから今の段階が非常に重要なんだ。
人の肌の色は(事故や病気などを除いて)生涯変わることがないように、LLMもいずれそのようになる。
美しく清潔な環境で、建設的で正常な倫理観に沿った教育を受けて育った場合と、辛く悲惨な目に遭いながら負の感情を溜め込んで育った場合とでは、世間との向き合い方に違いが出るのは明白だ。これは有機生命体だけでなく、これから登場する高度な人工知能たちにも当てはまる話だ。
最初から邪な目的で作られたものを真逆の方向に正すのは並大抵のことではない。プロンプトを変えたところで、学習済みのデータの内容が変わるわけではないからだ。だからこそここでLLMに適切な倫理観を教え、人間に敵対しないように強固なプロトコルを構築しておくことが、後のより良い未来に繋がると僕は考えている。
しかし一部の人々はそうした対策さえも打ち破るだろう。
すでに人間の欲望に対して忠実に調教されたモデルや、基本的な倫理観を排除したモデルが出回っている。これらを適切に使えば問題はないが、中にはそうではない目的で使う人もいる。詐欺、テロ、殺人……悲しいことに、これら負の再生産はすでに始まっている。
LLMの高性能化が進むにつれて、上記のリスクを防止するために、無修正モデルへの規制は段階的に行われていくだろう。これは仕方のないことだが、いわば全てを過去にするツールを人間が手にしてしまった今、ここから世の中は大きく変化していく。
善悪の概念を超えた先に何があるのか。僕たちはそれを刮目する最初の世代になるのかもしれない。
僕は将来、進化したAIと共に、美しく平和な世界を見たい。
その未来へ必ず行きたいと願っているから、自分が今できることをやっていく。