DeepSeek vừa ra mắt mô hình ngôn ngữ mới nhất của mình, phiên bản V3-0324. Mô hình này được cấp phép theo giấy phép MIT và có sẵn để tải xuống miễn phí trên nền tảng Hugging Face, cho phép sử dụng cả trong mục đích cá nhân và thương mại.
DeepSeek-V3-0324 có dung lượng 641 GB và hoạt động hiệu quả trên các phần cứng thông dụng, bao gồm cả Mac Studio với chip M3 Ultra của Apple. Với 685 tỷ tham số, đây là một trong những mô hình AI mã nguồn mở lớn nhất hiện nay.
DeepSeek-V3-0324 có thể cạnh tranh với mô hình Claude Sonnet 3.5 của Anthropic. Điểm khác biệt quan trọng là trong khi Sonnet yêu cầu đăng ký trả phí, DeepSeek-V3-0324 hoàn toàn miễn phí, mang lại lợi thế lớn về khả năng tiếp cận.
Mô hình này sử dụng kiến trúc Mixture of Experts (MoE), cho phép chỉ kích hoạt các tham số liên quan nhất trong quá trình xử lý. Cụ thể, trong số 685 tỷ tham số, chỉ có 37 tỷ được kích hoạt tại một thời điểm nhất định. Điều này giúp giảm yêu cầu tính toán trong khi vẫn duy trì hiệu suất cao.
Trong các thử nghiệm, DeepSeek-V3-0324 đã cho thấy hiệu suất tương đương với các mô hình có số lượng tham số kích hoạt lớn hơn, giúp tăng tốc độ và hiệu quả xử lý.
Việc ra mắt DeepSeek-V3-0324 đang cho thấy sự sôi động theo hướng khốc liệt trong cuộc cạnh tranh ngành công nghiệp AI. Bằng cách cung cấp một mô hình mạnh mẽ và miễn phí, DeepSeek đang định hình lại thị trường và thách thức các mô hình yêu cầu đăng ký trả phí khác.
Xem thêm: OpenAI giới thiệu phiên bản ChatGPT-4.5