近年、急速に技術が進歩し、世界中で利用が広がる生成AI。代表的なものといえばOpenAIが開発した「ChatGPT」「GPT-4」などだ。そのOpenAIが2023年5月22日(現地時間)に、10年以内に「超知能AI」の登場が懸念され、それに備えるべく世界的な規制機関を立ち上げる必要があると提唱した。開発者の発言とは思えない”物騒”なものだが、どういうことだろうか。今回はAIの未来について考えてみたい。
ほとんどの領域で専門家のスキルレベルを超える「超知能AI」
OpenAIは公式サイトの中で「Governance of supersearch intelligence」と題し「今こそ、将来は超知能となるAIシステムの監視や規制について考え始める良い時期」と見解を明らかにした。これによると「今後10年以内に、AI システムはほとんどの領域で専門家のスキルレベルを超え、今日における大企業の1つと同等の生産的な活動を実行できるようになると考えられる」とのことだ。
さらに、原子力エネルギーや合成生物学を例にあげ「この進化したAIを『超知能』とし、劇的に豊かな未来を手に入れられるが、そこに到達するにはリスクを管理する必要がある」とした。今まで人間が関わったどの技術よりも、強力ハイリスク・ハイリターンなものになると想定されているのだ。つまり、人間が今後も安全に、便利にAIを利用するには、国際的機関で規制する必要があると懸念している。
G7広島サミットでも、AIの利用規制や在り方について議論された
AIの活用や規制については、2023年5月19日から21日にかけて行われたG7広島サミットでも議題にあがった。「人間中心の信頼できるAI」の構築を掲げ、国際的なルール策定に向けて協議する「広島AIプロセス」を進めることで合意した。一部の国ではChatGPTを禁止したり、利用を制限したりしているが、国際的にも「議論すべきツール」と認識ができつつあるようだ。
これを受けて、NNNと読売新聞が5月20日と21日に行った世論調査でも、「G7各国は協調して国際ルールを作る必要があると思うか」には「思う」が75%、「思わない」は14%となり、国際ルールの必要性を感じている人が多いことも明らかになった。
ChatGPTは、本当に便利で楽しいツールであることは間違いない。今はまだ、曖昧な質問には的確な答えが返ってこないことや、作成した文章も人間の校正・校閲がなければ、世に出せるレベルではない程度。しかし、開発者であるOpenAIが懸念するように、人間の意図しない「進化」をしてしまうリスクがあるものだ、ということも知っておいた方がよさそうだ。
AIを人間の意のままに使いこなせる安全で有能なアシスタントにできるか、人間に危害をくわえることもある「超知能」におびやかされるか―。それは結局、人間の対処次第。今、まさに人間とAIは岐路に立っているといえるだろう。
※サムネイル画像は(Image:「OpenAI」公式サイトより引用)