Googleは、AIモデルの重要な発表を別のラウンドで発行し、Geminiの提供物を全面的にアップグレードして、ユーザーと開発者がより能力があり信頼できるユーザーと開発者をもたらしています。 Deepseekの台頭と新しいOpenaiモデルをきっかけに、AI開発のペースは減速していません。
最初に、12月にいくつかのために登場したGemini 2.0 Flashモデルがすべての人に展開されているので、デスクトップとモバイルのGeminiアプリで表示されます(これは実際に先週登場し始めたので、すでに持っているかもしれません使用しました)。フラッシュモデルは、パフォーマンスのトレードオフが多すぎず、より速く、より軽量になるように設計されています。
Googleは、すべてのユーザーがテストするために利用可能なGemini 2.0 Flash Thinking Experimental Modelを作成しています。これは、AIがより正確で透明性の高い結果を生成する意図で、AIがその考えを表示するChatGptで見たような別の「推論」モデルです。
また、アプリにアクセスできるすべてのユーザーに表示されるこのモデルのバージョンもあります:Google Search、Google Maps、およびYouTubeが含まれます。 Webからリアルタイムの情報を返し、Googleマップデータ(Journey TimeとLocationの詳細を含む)への参照、およびYouTubeビデオから取得した情報を返します。
最後に、フラッシュモデルの場合、GoogleはGemini 2.0 Flash-Liteを開発者が利用できるようにしています。これは、これまでで最も費用効率の高いジェミニモデルです。これは、ジェミニを使用したビルディングツールにアピールするものですが、さまざまなマルチモーダル入力(テキスト、画像など)にわたって高レベルの処理パフォーマンスを維持しています。
プロレベルモデル
これらのモデルのいくつかを取得するには、Gemini Advancedが必要です。
クレジット:LifeHacker
次に、さらに有能なGemini 2.0 Pro Experimental Modelがここにあります。フラッシュの相当量よりも少し遅いですが、思考、執筆、コーディング、問題解決が優れています。このモデルは現在、開発者とGemini Advancedに月20ドルを支払っているユーザーのために実験的な形で登場しています。
「これまでにリリースしたどのモデルよりも、世界の知識のより良い理解と推論を備えた、最も強いコーディングパフォーマンスと複雑なプロンプトを処理する能力があります」 Googleは言います。また、プロンプトごとに200万個のトークンを摂取することもできます。これは、平均で約140万語で、2回は聖書になります。
これは2.0フラッシュモデルの容量の2倍であり、Googleもいくつかのベンチマークを提供しました。一般的なMMLU-PROベンチマークでは、Gemini 2.0 Flash-Lite、2.0 Flash、および2.0 Proでそれぞれ71.6%、77.6%、79.1%のスコアがあります。プロ。
他のAIベンチマークでも同様の改善があり、Gemini 2.0 Pro Experimentalは、主要な数学テストで91.8%のスコアをヒットしました。これは、2.0フラッシュで90.9%、フラッシュライトで86.8%、1.5 Proで86.5%、1.5フラッシュで77.9%に匹敵します。
このようなAIモデルの標準と同様に、使用されるトレーニングデータ、幻覚のリスクと不正確さ、エネルギー需要の詳細は薄くなっていますが、Googleは新しいフラッシュモデルが最も効率的であると言いますが、最新のモデルはすべて優れていますがこれまで以上に、フィードバックを推論し、潜在的な安全性とセキュリティハックを停止しました。