OpenAI は、その「推論」AI モデルである o1 を API に導入していますが、これは特定の開発者のみが開始できます。
本日より、o1 は OpenAI の「ティア 5」使用カテゴリーの開発者への展開を開始します。 言った。 Tier 5 の資格を得るには、開発者は OpenAI で少なくとも 1,000 ドルを支払い、最初の支払いが成功してから 30 日以上経過したアカウントを持っている必要があります。
o1 は、API ですでに利用可能だった o1-preview モデルを置き換えます。
ほとんどの AI とは異なり、o1 のようないわゆる推論モデルは効果的に事実確認を行うため、モデルが通常つまずく落とし穴のいくつかを回避できます。欠点として、解決策に到達するまでに時間がかかることがよくあります。
また、非常に高価です。その理由の 1 つは、実行に大量のコンピューティング リソースが必要なためです。 OpenAI は、o1 分析で約 750,000 ワードごとに 15 ドル、モデルが生成する約 750,000 ワードごとに 60 ドルを請求します。それは 6倍 OpenAI の最新の「非推論」モデル GPT-4o のコスト。
OpenAI API の O1 は、関数呼び出し (モデルを外部データに接続できるようにする)、開発者メッセージ (開発者がモデルにトーンやスタイルを指示できる) などの新機能のおかげで、o1-preview よりもはるかにカスタマイズ可能です。画像解析。に加えて 構造化された出力o1 には、モデルがクエリに応答するまでに「考える」時間を制御できる API パラメーター「reasoning_effort」もあります。
OpenAI は、API の o1 のバージョン、そして間もなく同社の AI チャットボット プラットフォームである ChatGPT は、o1 の「トレーニング後の新しい」バージョンであると述べました。 2週間前にChatGPTでリリースされたo1モデルと比較して、このモデル「o1-2024-12-17」は「フィードバックに基づくモデルの動作の領域」が改善されているとOpenAIは漠然と述べた。
「追加の使用量階層へのアクセスを拡大し、レート制限を引き上げるべく取り組みながら、アクセスを段階的に展開しています」と同社は文書で述べている。 ブログ投稿。
本日の他の開発関連ニュースとして、OpenAI は、低遅延の AI 生成音声応答を備えたアプリを構築するための OpenAI の API である Realtime API の一部として、GPT-4o および GPT-4o mini モデルの新バージョンを発表しました。データ効率と信頼性が向上した新モデル (「gpt-4o-realtime-preview-2024-12-17」および「gpt-4o-mini-realtime-preview-2024-12-17」) も安価になりましたOpenAIはこう言った。
リアルタイム API (しゃれではありません) について言えば、まだベータ版のままですが、同時アウトオブバンド応答などのいくつかの新機能が追加されており、これにより、コンテンツのモデレーションなどのバックグラウンド タスクをインタラクションを中断することなく実行できるようになります。この API は、ブラウザベースのクライアント、スマートフォン、モノのインターネット デバイス向けのリアルタイム音声アプリケーションを構築するためのオープン スタンダードである WebRTC もサポートするようになりました。
決して偶然ではありませんが、OpenAI が クリエイター WebRTC の Justin Uberti 氏、12 月初旬。
「当社の WebRTC 統合は、ネットワーク品質が変動する場合でも、現実世界の状況でスムーズで応答性の高いインタラクションを可能にするように設計されています」と OpenAI はブログで書いています。 「オーディオのエンコード、ストリーミング、ノイズ抑制、輻輳制御を処理します。」
火曜日の最後のアップデートで、OpenAI は微調整 API に設定の微調整を導入しました。好みの微調整では、モデルの応答のペアを比較して、質問に対する推奨される回答と「非推奨」の回答を区別するようにモデルを「教育」します。そして同社は、Go と Java の公式ソフトウェア開発者キットの「早期アクセス」ベータ版を開始しました。