OpenAI vừa cam kết hơn $20 tỷ trong 3 năm cho Cerebras để dịch vụ inference. Đây là một trong những hardware deal lớn nhất trong lịch sử AI industry. WSE (Wafer-Scale Engine) chip của Cerebras claim nhanh hơn GPU 15 lần cho LLM inference.

Ngoài $20 tỷ, OpenAI còn nhận warrant mua 11% cổ phần Cerebras. Deal này thúc đẩy IPO của Cerebras (ticker CBRS) với market cap ước tính khoảng $50 tỷ.

Tại sao OpenAI lại bet lớn vào Cerebras? Wafer-scale computing là một paradigm khác với GPU truyền thống. Thay vì kết nối nhiều chip nhỏ qua network bandwidth bottleneck, Cerebras dùng một wafer silicon nguyên khối — tất cả core trên cùng một chip, giao tiếp nội bộ với bandwidth khổng lồ. Lý thuyết là lý tưởng cho inference workload cần throughput cao.

Ý nghĩa cho industry: OpenAI đang đa dạng hóa hardware supplier, giảm phụ thuộc NVIDIA. Nếu Cerebras deliver đúng claim, cuộc đua AI inference hardware sẽ sôi động hơn — nhiều lựa chọn hơn, giá cạnh tranh hơn, benefit cho end user.

Cho Solopreneur và AI builder: competition trong inference hardware có thể kéo giá API xuống. Chi phí inference đang là một trong những chi phí lớn nhất khi build AI product. Nhiều supplier hơn = nhiều lựa chọn pricing hơn.

Theo dõi Cerebras IPO nếu bạn quan tâm AI infrastructure investment.

📎 Nguồn: BusinessInsider | https://www.businessinsider.com/