Your cart is currently empty!
M1 – một mô hình AI mã nguồn mở đến từ Trung Quốc khiến cả ngành công nghệ choáng váng.
M1 – Gã tân binh Trung Hoa khiến cả làng AI ngỡ ngàng
Nếu bạn nghĩ rằng “cuộc đua AI” đang là sân chơi riêng của những cái tên quen thuộc như OpenAI, Google hay Anthropic – thì có lẽ bạn sẽ cần ngồi xuống, hít một hơi thật sâu, và nghe câu chuyện về Miniax – một nhóm ít người biết đến, nhưng vừa tung ra cú đánh khiến cả ngành giật mình: M1.
Khởi đầu bằng một con số không tưởng: 1 triệu token
Chuyện bắt đầu bằng một con số tưởng như đùa: M1 có khả năng xử lý 1 triệu token đầu vào, và trả lại đến 80.000 token trong một lần hồi đáp. Nói dễ hiểu: bạn nhét hết series Harry Potter vào đầu nó, nó vẫn có thể đọc, nhớ, và trả lời một cách tỉnh bơ.
Để so sánh: GPT-4o chỉ chịu được khoảng 1/8 con số đó. Claude 4 thì khoảng 1/5. DeepSeek R1 (một model mã nguồn mở hàng đầu) là 128K.
M1? Một triệu – và vẫn chạy mượt.
Làm sao mà họ làm được điều đó?
Hai bí quyết:
- Mixture of Experts – mô hình có 32 “chuyên gia nhỏ” trong một “cái đầu to”. Mỗi token chỉ gọi dậy vài chuyên gia, nên mặc dù model có 456 tỷ tham số, chỉ khoảng 46 tỷ hoạt động mỗi lần.
- Lightning Attention – một kỹ thuật thay thế “attention truyền thống”, giúp xử lý chuỗi dài mà không đội chi phí lên trời. Càng dài càng… vẫn nhanh.
Chi phí? Rẻ không tưởng
- Toàn bộ phần reinforcement learning của M1 được huấn luyện trong 3 tuần, trên 512 GPU NVIDIA H800.
- Tổng chi phí? Khoảng 534.700 USD.
- Trong khi đó:
- DeepSeek R1: 5-6 triệu USD.
- GPT-4: Trên 100 triệu USD.
Một mô hình không chỉ dài hơi – mà còn thông minh
Miniax không chỉ đơn thuần làm mô hình dài token. Họ đào tạo M1 bằng một cách rất giống cách… học sinh giỏi luyện thi:
- Tiền huấn luyện: 7.5 nghìn tỷ token, 70% là sách toán, khoa học, lập trình, suy luận.
- Giáo trình luyện thi:
- Hàng chục ngàn bài toán từ kỳ thi toán quốc tế.
- Hơn 30.000 bài lập trình competitive.
- Mô phỏng lỗi phần mềm thực tế từ GitHub – để M1 sửa và chạy test.
- Mô hình chấm điểm riêng (GenRM) để học cách đánh giá câu trả lời tốt.
Kết quả thì sao?
Trên nhiều bài test:
- Math (AM 2024): Đúng 86%, gần ngang với DeepSeek R10528, và vượt hẳn các model open khác.
- Codebench: 65%, gần bằng model lớn Quinn.
- Fullstack (dự án lớn): 68%.
- Logic & kiến thức: MMLU Pro: ~80, GPQA: 70, Zebra Logic: mid-80s.
- Hiểu văn bản siêu dài (MRCR 1M tokens): 56+, chỉ sau Gemini 2.5 Pro.
- Tool use (TAU Bench): ~63%, vượt cả Gemini trong một số bài test.
- Assistant đánh giá bởi GPT-4o: “coherent và helpful” ~ mid-40s – tương đương Claude 4 và DeepSeek.
Những điều thú vị phía sau cánh gà
Trong quá trình huấn luyện, họ gặp đủ kiểu “lỗi đời” mà chỉ dân AI hardcore mới hiểu:
- Model bị lặp vô hạn: cứ lặp đi lặp lại một đoạn văn như chatbot bị kẹt → giải bằng cách cho model… tự dừng nếu nói quá nhiều với độ tự tin cao.
- Precision mismatch: Số liệu không trùng giữa training và inference vì thiếu độ chính xác số học → đổi sang 32-bit float và… hết lỗi.
- Độ dài trả lời càng cao → độ chính xác càng cao: Họ phát hiện khi để model “nghĩ dài hơn”, kết quả bài toán tốt lên hẳn.
M1 không chỉ là model – nó là thông điệp
Miniax nói rằng họ tin vào một tương lai AI hiệu quả hơn, chứ không nhất thiết lớn hơn. M1 không “bơm số” kiểu truyền thống, mà tối ưu từng phần – từ attention, pre-training, đến reinforcement learning.
Họ chứng minh rằng cộng đồng mã nguồn mở hoàn toàn có thể tạo ra model mạnh mẽ, thông minh, tiết kiệm – không thua kém các ông lớn nghìn tỷ USD.
Bạn có thể xài M1 ngay bây giờ
Repo M1 công khai, không khoá API, không vendor lock-in.
- Hỗ trợ VLLM, Transformers.
- Có demo chatbot, gọi search, sinh ảnh, giọng nói, video.
- Có thể chạy on-premise cho doanh nghiệp muốn giữ dữ liệu riêng.
Kết: Một chiếc cúi đầu chào từ Trung Quốc – nhưng là cúi đầu kiểu “võ sư bước vào sàn đấu”
M1 không tuyên bố mình là số 1. Nó không làm thơ, không “dẫn dắt tương lai loài người”. Nhưng nó hiệu quả, tiết kiệm, và cực kỳ thông minh.
Và nếu bạn đang ở trong ngành AI, bạn biết điều đó nghĩa là gì: cuộc chơi đang đổi chiều.