DeepSeek、フロンティアモデルとの「差を縮める」新しいAIモデルをプレビュー
概要
中国のAIラボDeepSeekは、最新のラージ言語モデル「DeepSeek V4」のFlashおよびProバージョンを発表しました。両モデルはミクスチャー・オブ・エキスパート(MoE)アーキテクチャを採用し、100万トークンのコンテキストウィンドウをサポートしています。V4 Proは1.6兆のパラメータを誇り、推論やコーディングのベンチマークにおいて高い性能を発揮します。DeepSeekは、コスト効率においても既存の主要なフロンティアモデルを大幅に上回る価格設定を実現しています。
(出典:TechCrunch)