2024年9月4日に次世代AIモデル『GPT NEXT』が遂に発表され、その進化スピードには誰もが驚きを隠せません。
AI技術はここ数年で飛躍的な進歩を遂げ、私たちの日常生活やビジネスのあり方を劇的に変えていますが、『GPT NEXT』はその進化の最前線に立つ存在となるでしょう。
このAIは、前モデルから計算能力が100倍になり、さらなる進化が期待されています。
今年度中にリリースされるであろうOPEN AIの次世代生成AI『GPT-Next』そして開発について発表されたAIプロジェクトの『Strawberry』の最新情報について解説し、これら次世代 AIの登場における今後の展望について考察していきます。
- ChatGPTを日常的に利用しており、最新モデルが気になる方
- ChatGPTはまだ使ったことないが、話題になっているため最新情報は押さえて起きたい方
- AIの進化が100倍ってどういうことを意味するのかについて知りたい方
Open AIのChatGPTが毎年新しいモデルをリリースしていて、毎回ものすごい進化をしていて驚きの連続。心配になってしまうぐらい進化のスピードが早くて、それに追いついて行くのも一苦労だよね。
ほんとにその通り!新しい機能やできることが増えてみて、使い方の幅が広がったりするから新しいモデルになったりアップデートの度にユーザー側もそれも積極的に使ってみたりしてスキルのアップデートが必要になるね。
『GPT-Next』発表についての概要
9月3日、KDDIは「KDDI SUMMIT 2024」というビジネスイベントを開催しました。
KDDI社は、AI分野により力を注いでいくことを改めて表明し、イベントではOpen AI Japan法人の長崎忠雄代表が登壇しました。
長崎氏は、今後発表されるであろう新モデルについて『GPT-Next』と呼び(OpenAI社本社による発表ではないため名称が変わる可能性があります。)、その見解について公表しました。
長崎氏の発言の中で、8月末のアクティブユーザー数について言及しました。
2023年1月にアクティブユーザー数が史上最速で1億人を突破したことが記憶に新しいですが、なんとすでにその倍の2億人を超えたとのことです。
わかりやすく比較してみると、例えばLINEの2024年のアクティブユーザー数は、約9,700万人。
世界中でビジネスチャットツールとして利用されているSLACK。そのアクティブユーザー数は、6,500-7000万人。
つまりそのSLACKユーザー数の3倍以上のユーザーがChatGPTを利用していることを意味しています。
数ある生成AIの中でもChatGPTのユーザー数は、飛び抜けています。
法人向け『ChatGPT Enterprise』のプランがリリースされて以降、企業でのChatGPT導入数がものすごいスピードで増えてきているとのことです。
次世代モデル『GPT-Next』
長崎氏によると、『GPT-Next』は、『GPT-4』と比較して100倍近くその性能が上がっているとのことです。
今までのソフトウェアでこのように1年で100倍進化するようなソフトウェアはありませんでした。
このAIの進化スピードは、驚異的です。直線的ではなく、指数関数的に成長をしていきます。
10月には「Open AI Dev Day」というOpenAI社のデベロッパー向けのイベントが開催されるので、そこで新モデルについて公表される可能性が高いです。
Open AI のプロジェクト『Strawberry』とは?
Openは、難解な数学問題や複雑な言語問題の言語パズルの解読、さらには「深い研究」を行える新たなAI技術「Strawberry」を開発していると発表しました。
つまり既存のGPTモデルでは解けない上記のような問題をと解けるようにすることを目標としているモデル。
Strawberryとは、「OpenAIの新しい生成AI技術のコードネーム」。
2023年末にサムアルトマン氏が退任するように騒動になった一つの原因でもあるプロジェクト「Q」の後継プロジェクトではないかと言われています。
『Strawberry』は、「推論能力」が非常に高いと言われています。
Open AIのサム・アルトマン氏によるとAIの進化における最も重要な部分は、この「推論能力」と言及しています。
『Strawberry』は、自らの誤りを学習し、それを元に推論能力を向上させることができるみたいです。
STaR(Self-Taught Reasoner)とは?
『Strawberry』には、2022年にスタンフォードで開発された「STaR(Self-Taught Reasoner)」という技術が使われています。
今までは受動的学習で、学習させる内容を与えて、トレーニングさせていましたが、今度は能動的学習、すなわち回答だけでなく解説文を生成し、この解説文を含めた文章を自分のモデルに対して、Fine-tuningを行い、自己学習を繰り返していきます。
この手法は理論的には、言語モデルが人間を超える知性レベルに達するために使用できると、その開発者であるスタンフォード大学のノア・グッドマン教授は述べています。
OpenAIがStrawberryで目指している能力の一つは、長期間にわたる複雑なタスク(LHT)を遂行することとしています。
LHT(Long-Horizon Tasks)とは、以下のような特徴を持つ複雑で長期的な目標や課題を指します。
- 長期間にわたる実行
-
タスクの完了までに長い時間(数日、数週間、数ヶ月など)を要する。
- 複数のサブタスクが連鎖
-
全体のタスクが多くの小さなステップや中間目標から構成される。
- 不確実性への対応
-
長期にわたるため、環境の変化や予期せぬ障害に適応する必要がある。
- 戦略的計画と実行
-
長期的な視点での計画立案と、その計画に沿った継続的な実行が求められる。
- 複雑な意思決定
-
途中で多くの意思決定ポイントがあり、それぞれが最終目標に影響する。
- 広範な知識とスキルの適用
-
多岐にわたる知識やスキルを組み合わせて適用する必要がある。
これらの条件を満たす具体的な例として挙げられるのは、大規模なソフトウェア開発プロジェクト、長期的なビジネスプロジェクト、複数の段階を要する複雑な製品の製造プロセス、そして複雑な科学研究プロジェクトなどです。
AIシステムにとって、このような長期的タスクの遂行は大きな課題であり、高度な推論能力、計画能力、適応能力が求められます。
参照元:Reuter7月15日記事
Strawberryの危険性
AIが自分で学習し、自分で推論し、長期的な計画、目標を組み立てられるようになるということです。
高度な自己学習能力の完成により「シンギュラリティ(技術的特異点)」すなわち人工知能(AI)が人間の知能を超える転換点を超えてくる可能性が出てきます。
AIが自分自身で思考、判断、実行と完結できるため、自己フィードバックによる改良をAIが繰り返すことで、いずれ人間を上回る知性をAIが持つであろうと考えられています。
人間を必要とすることなく 、AIが自身でAI の開発を進めるようになります。
こういった危険性があったため、2023年末に内輪揉めみたいな形でサム・アルトマン解任問題が発生しました。
あまりにも早くにこのレベルのAIが完成してしまうと、あらゆる業界のビジネスに驚異的な影響を与えてしまいます。
人間の働く時間が圧倒的に少なくなりベーシックインカムも必要になってくるのではと言われています。
ビジネスの根本的な基幹、政治による法規制、全てが間に合いません。
あまりにも高度な推論能力を持つAIが完成するということには、このような懸念があり、Open AI内においても賛否両論がありますが、サム・アルトマン氏はこの技術の可能性について前向きなスタンスで、プロンジェクトの進展に大きく期待しています。
推論能力の高いAIが完成することの安全性や倫理的なリスク
GPT-NextやStrawberryは、これまでのAIの性能を大きく凌駕するでしょう。
しかしAIの進化が進めば進むほど、これまでにはなかったリスクが新たに生まれます。
意思決定の透明性と説明可能性
高度な推論能力を持つAIシステムの意思決定プロセスは非常に複雑になる可能性があります。
このブラックボックス化により、AIの判断を人間が理解し検証することが困難になる恐れがあります
つまりAIの言っていることが高度すぎて人間が理解しそれを簡単に検証できなくなる可能性があるということです。
これはAIの説明技術も同時に開発を進め、人間が理解できるように説明をできるようにAIが提示できるようになる必要があります。
人間の自律性と意思決定権の侵害
AIの判断が人間の意思決定を過度に支配したり、個人の自由や選択の権利を侵害したりする可能性があります。
特に医療や法律など重要な分野での意思決定において、人間の主体性を維持することが重要です。
世の中では、正しいことが必ずしも正解ではないことがあったりします。
時には非合理的な行動を取るのが人間の特徴なので、AIを活用していても人間の主体性を維持することは重要になってきます。
雇用への影響
高度な推論能力を持つAIの登場により、多くの職種が自動化される可能性があります。
これは社会経済的な影響を及ぼし、新たな格差を生む可能性があります。
AIに仕事が奪われるという認識よりは、AIとともに働く仕事へシフトしていくというのが正しいでしょう。
新たに生まれる職種も今後増えていき、重要度がますます高くなっていきます。
この点については、以下の記事で詳しく解説しているので是非、参考にしてみてください。
制御不能のリスク
AIが予期せぬ方向に学習を進め、人間の意図から逸脱した行動をとる可能性があります。
自律的に学習を続けることで、開発者や運用者の予測を超えた能力を獲得し、制御が困難になる恐れがあります。
セキュリティリスク
高度な自己学習能力を持つAIは、セキュリティシステムの脆弱性を自ら発見し、悪用する可能性があります。
これにより、従来のセキュリティ対策が無効化される危険性があります。
どのような対処が必要か
これらのリスクに対処するためには、AIの開発段階から倫理的ガイドラインの策定や監視システムの構築、人間による適切な管理体制の確立が不可欠となります。
また、AIの自律性と人間の関与のバランスを慎重に検討し、社会全体でAIの進化に対する理解を深めていく必要があります。
今後の展望について
GPT-Nextの登場で生成AIの計算能力は全モデルに比べて100倍となり、同時にProject Strawberyが完成して行くことでどのようなことになるか考察してみましょう。
高度な推論能力の実現
Strawberryは、複雑な数学やプログラミングの問題を解決する能力を持つとされています。
これは、AIが単なるパターン認識や情報検索を超えて、人間のような思考プロセスを模倣できるようになることを意味します。
この進化により、AIは以下のような能力を獲得する可能性があります。
- 複雑な科学的問題の解決
- クリエイティブなプログラミングソリューションの提案
- 長期的な戦略立案と実行
自律的な学習と研究
Strawberryは、自律的にウェブ検索を行い、「深い研究」を実行する能力を持つとされています。これは、AIが人間の介入なしに新しい知識を獲得し、それを応用できるようになることを示唆しています。この能力は以下のような分野で革新をもたらす可能性があります。
- 科学研究の加速
- 新薬開発プロセスの効率化
- 複雑な社会問題に対する新しい解決策の提案
人間とAIの協働体制が進化し、加速
Strawberryの高度な推論能力は、人間とAIの協働のあり方を変える可能性があります。
AIが複雑な問題解決のパートナーとなることで、以下のような変化が起こる可能性があります。
- クリエティブな作業におけるAIの活用拡大
- 意思決定プロセスにおけるAIの役割の増大
- ビジネスなどのプロジェクト管理のアシスタント
- 教育や研究分野でのAIアシスタントの高度化
あとがき
『GPT-Next』や『プロジェクト Strawberry』は、AIの能力を新たな次元に引き上げる可能性を秘めています。
OpenAIはAI技術の限界をさらに押し広げ、私たちの生活や産業に大きな変革をもたらすことが期待されます。
しかし同時に、AIの責任ある開発と利用、そして人間社会との調和を図ることが重要な課題となるでしょう。
今後、AIの進化と社会の変化のバランスを取りながら、この技術をいかに人類の利益のために活用していくかが、私たちの重要な課題となります。
当ブログでは、初心者からでもAIを学べるようAIについての知識の集約、解説、ChatGPTのおすすめスキルなどを発信して行きます。
よかったら、是非、ブックマーク&フォローしてください。