國產AI模型DeepSeek24日在「Hugging Face」平台上發布了「DeepSeek V3-0324」模型的更新。DeepSeek稱,這次更新能夠有效且準確地解決現實世界中的挑戰。
🚀 DeepSeek-V3-0324 is out now!
— DeepSeek (@deepseek_ai) March 25, 2025
🔹 Major boost in reasoning performance
🔹 Stronger front-end development skills
🔹 Smarter tool-use capabilities
✅ For non-complex reasoning tasks, we recommend using V3 — just turn off “DeepThink”
🔌 API usage remains unchanged
📜 Models are… pic.twitter.com/QVuPwCODne
DeepSeek深夜突發V3更新
根據了解,「V3」模型是一款強大的混合專家(MoE)語言模型,擁有驚人的6710億個總參數。在處理每個token(如單詞或符號)時,該模型會動態選擇並啟動370億個參數進行計算。
the new DeepSeek V3-0324 has the smoothest motion.
— Deepanshu Sharma (@deepanshusharmx) March 25, 2025
o3-mini looked good initially but isn't following the physics properly, especially in the middle of the video. the ball is not responding properly to gravity.
and let’s not talk about DeepSeek R1 here.
DeepSeek pushed this V3… pic.twitter.com/fPC1PPdcGM
模型保持高效性 且能提高預測準確性與性能
這種混合專家(MoE)技術的應用,不僅使得模型能夠高效運行,還能夠在保持高效性的同時,顯著提高預測準確性與性能。

AP圖片
訓練成本僅為557.6萬美元 成本直降95%
就訓練成本而言,DeepSeek V3-0324展現出極高的成本效益,其訓練成本僅為557.6萬美元,遠低於傳統的閉源模型,節省了95%的成本。這一成本優勢使得DeepSeek V3不僅在技術上取得突破,也讓企業在實際應用中能夠大幅降低成本。

AP圖片