DeepSeek は最近、前モデルを大幅にアップグレードした新モデル DeepSeek v3 を発表しました。新しいモデルは v2 よりも 3 倍高速であると報告されており、強化された機能とインテリジェンスを誇っています。以前のすべての DeepSeek モデルと同様、v3 はオープンソースです。ベンチマークによると、特に数学や HumanEval などのコーディング タスクにおいて、Claude 3.5 Sonnet や ChatGPT-4o などの既存のモデルよりも優れたパフォーマンスを発揮します。
DeepSeek v3 は 6,710 億のパラメータを持ち、これまでで最大のオープンソース言語モデルであり、LLaMA が保持していた 4,050 億のパラメータというこれまでの記録を上回りました。このモデルは現在 Hugging Face で利用可能であり、DeepSeek チャット UI にも段階的に展開されており、より幅広い視聴者がアクセスできるようになります。
新しいモデルに加えて、いくつかの隠された機能が発見されました。 ディープシーク 生態系。開発中の注目すべき機能の 1 つは、ディープ ロールと呼ばれるもので、ユーザーが中国語と英語の両方で他の人が作成した「ロール」を探索したり、独自にデザインしたりできるようになります。まだ初期段階ではありますが、この機能はカスタム GPT と同様に機能するようで、ユーザーがパーソナライズされたプロンプトを DeepSeek LLM に追加して公開共有できるようになります。ただし、ディープ ロールの全範囲は依然として不明であり、機能の進化に応じてさらなる更新が期待されます。