テクノロジーと科学の最新の話題を毎日配信中!!

OpenAIの最新AI「o1-Pro」:最高額の推論モデルが開発者向けにリリース

Y Kobayashi

2025年3月20日

OpenAIは、高度な推論能力を持つAIモデル「o1-Pro」を開発者向けにAPI経由で提供開始した。同モデルは従来の「o1」より多くの計算リソースを使用することで一貫性のある高品質な応答を実現する一方、出力トークン100万につき600ドルという同社史上最高額の価格設定となっている。

スポンサーリンク

o1-Proとは:推論AIの最新進化形

o1-Proは、OpenAIが「推論AI」(reasoning AI)と呼ぶカテゴリに属する最新モデルである。推論AIモデルは通常の大規模言語モデル(LLM)と比較して、ユーザーのプロンプトに応答する際により多くの時間をかけて「考える」ことで、より正確な回答を提供するという特徴を持つ。

現在、o1-Proは新しく導入されたResponses APIを通じて、OpenAIのAPIサービスに少なくとも5ドルを支払った開発者(ティア1-5)に限定して提供されている。技術仕様としては、200,000トークンのコンテキストウィンドウ、100,000トークンの最大出力制限を備え、知識カットオフ日は2023年9月30日となっている。

また、o1-Proは画像入力(vision)、外部データソースとの連携を可能にする関数呼び出し(function calling)、特定のデータ形式での出力を保証する構造化出力(structured outputs)などの機能をサポートしている。さらに、新たに発表されたResponses APIとBatch APIとの互換性も確保されている。

驚異の価格設定:GPT-4.5の2倍、o1の10倍

o1-Proの最大の特徴は、その前例のない高額な価格設定にある。入力トークン100万(約75万語に相当)につき150ドル、出力トークン100万につき600ドルという価格は、OpenAIの最も強力な通常モデルであるGPT-4.5の2倍(GPT-4.5は入力100万トークンにつき75ドル、出力100万トークンにつき150ドル)に相当する。

さらに、この価格は通常のo1モデルの10倍、同社の最も手頃なモデルであるGPT-4o-miniと比較すると、実に10,000倍の開きがある。ただし、Batch API経由での利用時には、入力トークン100万につき75ドル、出力トークン100万につき300ドルと半額での提供が予定されている。

現時点でo1-Proは主にResponses API経由でのみ利用可能であり、これはユーザーに代わって自律的にタスクを実行するよう設計されたAIエージェント向けのアプリケーションを主なターゲットとしている。Chat Completions APIを使用しているアプリケーション開発者は、現時点でo1-Proにアクセスすることができない状況だ。

スポンサーリンク

性能評価:期待と現実のギャップ

OpenAIによれば、o1-Proは数学、科学、コーディングなどの難しい機械学習ベンチマークにおいて、通常のo1やo1-previewモデルよりも優れたパフォーマンスを示すとされている。外部の専門家テスターによる評価では、他の既存の推論モデルと比較して、より信頼性の高い正確で包括的な応答を提供するとの結果が出ている。

しかし、実際の性能向上の程度については疑問の声もある。2024年12月に公開されたOpenAIの内部ベンチマークでは、o1-Proはコーディングや数学的問題においてo1と比較してわずかな性能向上しか示さなかったことが明らかになっている。ただし、これらの問題に対してより信頼性の高い回答を提供する点では確かな改善が見られた。

また、2024年12月からChatGPT Proサブスクライバー向けに提供されていた初期バージョンのo1 Pro modeに対しては、ユーザーから必ずしも肯定的な評価を得られていない。具体的には、数独パズルの解決に苦戦したり、単純な錯視ジョークに混乱するなどの問題が報告されている。これらの課題が、今回API経由で提供される新バージョンでどの程度改善されているかは現時点では不明だ。

ChatGPT Proユーザーはすでに利用可能

o1-Proは昨年12月から、ChatGPT Proプラン(月額200ドル)のユーザー向けにo1 Pro modeとして既に提供が開始されていた。このプランではPlusプランで利用可能な機能に加えて、o1、o1-mini、GPT-4oへの無制限アクセス、高度な音声機能への無制限アクセスなどの特典を提供している。

さらにChatGPT Proユーザーは、より多くの計算能力を活用して最も難しい質問に最適な回答を提供するo1 Pro modeにもアクセスできる特典を享受していた。今回のAPI経由での提供は、これを開発者向けに拡張したものと位置付けられる。

業界への影響と未来のAIモデル

o1-Proの高額な価格設定にもかかわらず、OpenAIは開発者コミュニティからの強い要望に応えて同モデルをAPI経由で提供することを決定した。同社の広報担当者はTechCrunchに対し、「o1-proはより多くのコンピューティングリソースを使用してより深く考え、最も難しい問題に対してさらに優れた回答を提供するo1のバージョンです。開発者コミュニティから多くの要望を受けた後、さらに信頼性の高い応答を提供するためにAPIで提供できることを嬉しく思います」と述べている。

OpenAIは現在、o1-Proよりもさらに高度な推論モデル「o3」を開発中であるが、現時点では公開されていない。この動きは、同社がAI推論能力の向上に注力し続けていることを示唆している。

一方で、AIモデルの価格がその性能向上に比例して急激に上昇していることには、開発者コミュニティから懸念の声も上がりつつある。特定の高度なユースケースではこの追加コストが正当化される可能性もあるが、多くの一般的なアプリケーションでは費用対効果の観点から採用が難しい可能性もある。市場の反応は今後の利用状況によって明らかになるだろう。


Sources

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする
スポンサーリンク

コメントする