ホリデーシーズンが到来し、多くの企業が取引、プロモーション、その他のキャンペーンを通じてメリットを享受する方法を見つけています。 OpenAI は、「12 days of OpenAI」イベント シリーズに参加する方法を見つけました。
水曜日、OpenAI は、 ×ポスト 投稿によれば、同社は12月5日から12日間のライブストリームを主催し、「大小さまざまな新しいもの」をリリースするという。
また: 私は ChatGPT のパワー ユーザーです – Canvas が最高の生産性機能である理由は次のとおりです
ここでは、キャンペーンについて知っておくべきことと、毎日のドロップの概要をすべて紹介します。
「12日間のOpenAI」とは何ですか?
OpenAI CEOのサム・アルトマン氏は、このイベントの詳細をもう少し詳しく語った。このイベントは12月5日午前10時(太平洋時間)に始まり、12日間平日毎日開催され、発表やデモをフィーチャーしたライブストリームが行われる。アルトマン氏によると、打ち上げは「大規模なもの」か「ストッキングの詰め物」の両方になるという。
これまでに何が落とされましたか?
12月17日火曜日
9 日目のリリースはすべて、「Mini Dev Day」と呼ばれる開発者の機能とアップデートに焦点を当てています。これらのリリースには次のものが含まれます。
- によると、o1 モデルは、関数呼び出し、構造化された出力、開発者メッセージ、ビジョン機能、低レイテンシのサポートを備えた API でついにプレビューを終了しました。 会社。
- API の o1 には、「推論努力」という新しいパラメータも追加されています。このパラメーターを使用すると、開発者は答えを定式化するのにどれだけの労力が費やされるかをモデルに伝えることができ、コスト効率の向上に役立ちます。
- OpenAI はまた、Realtime API に対する WebRTC サポートも導入しました。これにより、開発者は「プラットフォーム間でリアルタイム音声製品を構築および拡張する」ことが容易になります。
- Realtime API では、オーディオ トークンの価格が 60% 引き下げられ、GPT-4o mini がサポートされ、応答の制御が強化されました。
- OpenAI によると、微調整 API は現在、Preference Fine-Tuning をサポートしており、ユーザーは「望ましい応答を強化し、望ましくない応答の可能性を減らすことで、望ましい動作を優先するようにモデルを最適化する」ことができます。
- OpenAI はまた、新しい Go および Java SDK をベータ版で導入しました。
- OpenAI GitHub プラットフォームでのライブ ストリーム終了後、プレゼンターによる「AMA」(ask me anything)セッションが 1 時間開催されます。
12月16日月曜日
12 日間の OpenAI シリーズの第 2 月曜日のドロップはすべて、ChatGPT での検索に焦点を当てていました。
- AI 検索エンジンは、ChatGPT にアクセスできる場所であればどこでもサインインしているすべての無料ユーザーを含む、今日からすべてのユーザーが利用できるようになります。この機能は以前は ChatGPT Plus ユーザーのみが利用できました。
- ユーザーが ChatGPT から Web を閲覧できるようにする検索エクスペリエンスは、モバイル上でより高速かつ優れたものになり、充実したマップ エクスペリエンスが提供されるようになりました。アップグレードには、画像が豊富な視覚的な結果が含まれます。
- 検索は Advance Voice モードに統合されており、ChatGPT に話しかけながら検索できるようになりました。この機能を有効にするには、通常と同じ方法で Advance Voice を有効にして、口頭で質問するだけです。その後、ウェブから取得して口頭で質問に答えます。
- OpenAIはまた、開発者たちをからかい、「明日はあなたのものだ」と言い、今度のライブストリームを「ミニ開発日」と呼んだ。
12月13日金曜日
OpenAI の最も要望の多かった機能の 1 つは、会話をより適切に追跡するための組織化機能です。金曜日、OpenAIは「プロジェクト」と呼ばれる新機能を提供した。
- プロジェクトは、ChatGPT でチャットを整理およびカスタマイズするための新しい方法であり、ChatGPT のコア エクスペリエンスを継続的に最適化する一環として提供されます。
- プロジェクトを作成するときは、タイトル、カスタマイズしたフォルダーの色、関連するプロジェクト ファイル、プロジェクトに最適な方法についての ChatGPT の指示などを 1 か所に含めることができます。
- プロジェクトでは、チャットを開始し、サイドバーから以前のチャットをプロジェクトに追加できます。通常のチャット形式でコンテキストを使用して質問に答えることもできます。チャットはプロジェクトに保存できるため、後で会話を再開し、どこで何を探せばよいかを正確に把握することが容易になります。
- 本日より、Plus、Pro、Teams ユーザーに展開されます。 OpenAIは、できるだけ早くユーザーに無料で提供する予定だとしている。 Enterprise および Edu ユーザーは、来年初めに展開される予定です。
12月12日(木)
ライブ ストリームが開始されると、OpenAI は部屋の象、つまり同社のライブ ストリームが前日にダウンしたという事実に対処しました。 OpenAIはご迷惑をおかけしたことを謝罪し、チームが後日掲載する事後調査に取り組んでいると述べた。
そして、それはすぐにニュースになりました – 待望のもう一つの発表です:
- アドバンスト音声モードには、画面共有機能とビジュアル機能が追加されました。つまり、携帯電話のカメラからのものであっても、画面上の内容であっても、表示されているもののコンテキストを支援できるようになります。
- これらの機能は、人間と同じようにカジュアルな会話を行うという、Advanced Voice がすでに優れた機能を備えていることを基盤としています。自然な会話は中断され、複数のターンがあり、非線形な思考の流れを理解することができます。
- デモでは、ユーザーは ChatGPT の高度な音声からコーヒーの淹れ方の指示を受けます。デモ担当者が手順を実行する際、ChatGPT は口頭で洞察と指示を提供します。
- クリスマス シーズンにはもう 1 つのボーナスがあります。ユーザーは新しいサンタの声にアクセスできます。これを有効にするには、ユーザーがスノーフレーク アイコンをクリックするだけです。サンタは今日、ユーザーが ChatGPT 音声モードにアクセスできるあらゆる場所に展開されます。初めてサンタに話しかけると、すでに使用制限に達していても使用制限がリセットされ、サンタと会話できるようになります。
- ビデオと画面の共有は、最新のモバイル アプリで今日から来週にかけて、すべての Team ユーザーとほとんどの Pro および Plus 加入者に展開されます。ヨーロッパの Pro および Plus 加入者は「できるだけ早く」アクセスできるようになり、Enterprise および Edu ユーザーは来年初めにアクセスできるようになります。
12月11日水曜日
Appleは水曜日にiOS 18.2をリリースした。このリリースには、Siri、ライティング ツール、ビジュアル インテリジェンスにわたる ChatGPT との統合が含まれています。その結果、ライブ ストリームでは統合の手順を説明することに重点が置かれました。
- Siri は、代わりに ChatGPT によって回答されることでメリットが得られる、範囲外の質問をしたことを認識できるようになりました。このような場合、ChatGPT を使用してクエリを処理するかどうかを尋ねられます。 ChatGPT にリクエストが送信される前に、ユーザーに通知して許可を求めるメッセージが常に表示され、可能な限りユーザーの手に制御が委ねられます。
- ビジュアル インテリジェンスとは、ユーザーがカメラ コントロール ボタンをタップすることでアクセスできる iPhone 16 ラインナップの新機能を指します。カメラが開くと、ユーザーはカメラを何かに向けて Google で Web を検索したり、ChatGPT を使用して表示している内容について詳しく調べたり、テキストの翻訳や要約などの他のタスクを実行したりできます。
- ライティング ツールに新しい「作成」ツールが追加され、ユーザーは ChatGPT を利用してテキストを最初から作成できるようになりました。この機能を使用すると、ユーザーは DALL-E を使用して画像を生成することもできます。
上記の機能はすべて、ChatGPT の 1 日あたりの使用制限の対象となります。これは、ユーザーが ChatGPT の無料バージョンのモデルを使用しているときに制限に達するのと同じです。ユーザーは、設定で ChatGPT 統合を有効にするかどうかを選択できます。
詳細については、こちらをご覧ください: iOS 18.2 が iPhone に展開: これらの 6 つの新しい AI 機能を今すぐお試しください
12月10日火曜日
- Canvas は、プランに関係なく、GPT-4o ですべての Web ユーザーに提供されます。つまり、ChatGPT Plus ユーザーだけがベータ版で利用できるわけではなくなりました。
- Canvas は GPT-4o にネイティブに組み込まれているため、モデル セレクターの切り替えに移動する代わりに Canvas を呼び出すだけで済みます。
- Canvas インターフェイスは、ChatGPT Plus のベータ版でユーザーが見たものと同じで、左側のテーブルには Q+A のやり取りが表示され、右側のタブにはプロジェクトが表示され、進行中のすべての編集が表示されます。 、ショートカットも同様です。
- Canvas はカスタム GPT とともに使用することもできます。新しい GPT を作成するとデフォルトでオンになり、既存の GPT に Canvas を追加するオプションがあります。
- Canvas には、Canvas 内で Python コードを直接実行する機能もあり、ChatGPT がバグ修正などのコーディング タスクを実行できるようになります。
詳細については、こちらをご覧ください: 私は ChatGPT パワー ユーザーです – 1 か月経った今でも、Canvas は私のお気に入りの生産性向上機能です
12月9日月曜日
OpenAIは3日目の発表を「待ち望んでいたもの」とからかい、続いて待望のビデオモデル「Sora」のドロップを発表した。知っておくべきことは次のとおりです。
- Sora Turbo として知られるこのビデオ モデルは、プレビューされた 2 月のモデルよりもスマートです。
- 米国では本日後半にアクセスが開始されます。ユーザーに必要なのは ChatGPT Plus と Pro だけです。
- Sora はビデオからビデオ、テキストからビデオなどを生成できます。
- ChatGPT Plus ユーザーは、解像度 480p で毎月最大 50 本のビデオを生成できますが、720p ではそれ以下のビデオを生成できます。プロ プランでは 10 倍の使用量が提供されます。
- 新しいモデルは、2月にプレビューされたモデルよりもスマートで安価です。
- Sora には、ユーザーがお互いの作品を閲覧できる探索ページがあります。ユーザーは任意のビデオをクリックして、そのビデオがどのように作成されたかを確認できます。
- ライブデモでは、使用中のモデルが示されました。デモ参加者はプロンプトを入力し、アスペクト比、デュレーション、さらにはプリセットを選択しました。ライブデモビデオの結果はリアルで素晴らしいものであることがわかりました。
- OpenAI はまた、ユーザーがシーケンス内のすべてのフレームに対して入力を生成できるツールである Storyboard も発表しました。
12月6日金曜日:
「シップマス」の 2 日目に、OpenAI は強化微調整研究プログラムへのアクセスを拡大しました。
- OpenAIによると、Reinforcement Fine-Tuningプログラムにより、開発者と機械学習エンジニアはOpenAIモデルを微調整して、「複雑でドメイン固有のタスクの特定のセットで優れた性能を発揮する」ことができるという。
- 強化微調整とは、開発者がタスクを入力し、出力をグレーディングすることによってモデルの動作を定義できるカスタマイズ手法を指します。その後、モデルはこのフィードバックを改善のガイドとして使用し、同様の問題をより適切に推論できるようになり、全体的な精度が向上します。
- OpenAIは、研究機関、大学、企業、特に狭い範囲の複雑なタスクを実行する機関、AIの支援の恩恵を受け、客観的に正しい答えが得られるタスクを実行する機関、にこのプログラムに応募することを奨励している。
- スポットは限られています。興味のある方は必要事項を記入して応募してください このフォーム。
- OpenAI は、2025 年初めに強化微調整を一般公開することを目指しています。
12月5日木曜日:
OpenAI は、チャットボットの 2 つの主要なアップグレード、ChatGPT サブスクリプションの新しい層である ChatGPT Pro と、同社の o1 モデルの完全版を発表し、盛況のうちに始まりました。
o1 の完全版:
- 数学や科学を超えて、あらゆる種類のプロンプトに適しています
- o1-preview よりも重大な間違いをする頻度が約 34% 少なくなり、思考が約 50% 速くなります
- 本日ロールアウトされ、o1-preview がすべての ChatGPT Plus および Pro ユーザーに置き換えられます
- デモで見られるように、ユーザーが画像を入力してマルチモーダル推論 (テキストと画像の両方に関する推論) を提供できるようにします。
ChatGPT プロ:
- ChatGPT Plus スーパーユーザー向けで、OpenAI o1-mini、GPT-4o、およびアドバンスト モードへの無制限のアクセスを含む、OpenAI が提供する最高の機能への無制限のアクセスを許可します。
- o1 プロ モードを備えており、より多くのコンピューティングを使用して、最も難しい科学と数学の問題を推論します。
- 月額 200 ドルの費用がかかります
ライブ ストリームにはどこからアクセスできますか?
ライブ ストリームは OpenAI Web サイトで開催され、直後に YouTube チャンネルに投稿されます。アクセスを容易にするために、OpenAI はライブ ストリームの開始 10 分前 (毎日太平洋時間午前 10 時/東部時間午後 1 時頃) にライブ ストリームへのリンクを X アカウントに投稿します。