LIQUID AI CHỨNG MINH: KHÔNG CẦN TRANSFORMER ĐỂ VƯỢT GEMINI PRO

LiquidAI vừa phát hành LFM 2.5 — model chỉ 1.2 tỷ parameters nhưng đánh bại Gemini Pro trên nhiều benchmark. Điểm đáng chú ý: nó không dùng kiến trúc Transformer.

Thay vì self-attention mechanism vốn là xương sống của GPT, Claude, Gemini, LiquidAI dùng dynamical systems — một hướng tiếp cận hoàn toàn khác dựa trên lý thuyết hệ thống động. Kết quả: model nhỏ gọn 300 lần vẫn cạnh tranh được với các “gã khổng lồ”. Ba phiên bản phát hành: 1.3B, 3B, 40B, tất cả tối ưu cho edge devices. CEO Ramin Hasani đã demo trực tiếp cùng Lisa Su (CEO AMD) tại CES 2026 — signal về partnership phần cứng.

Ý nghĩa: thị trường AI đang hình thành hai phe — Transformer (OpenAI, Google, Meta) vs non-Transformer (LiquidAI, SubQ, Mamba). Nếu non-Transformer tiếp tục chứng minh hiệu quả trên edge, toàn bộ chiến lược “model to bigger model” có thể cần xem xét lại. Cho AI builder Việt Nam: đáng thử LFM 2.5 cho use case edge/on-device — chi phí inference thấp, không cần GPU đắt tiền.

→ Ai nên thử: Developer build AI app trên mobile/IoT, startup cần AI chạy local không cloud, team nghiên cứu kiến trúc mới.

#ai_opensource #edgeAI #liquidAI

📎 https://www.liquid.ai/blog/lfm2-5-vl-450m