<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Toi-Uu-Chi-Phi on Lộc Đặng</title><link>https://locdang.com/tags/toi-uu-chi-phi/</link><description>Recent content in Toi-Uu-Chi-Phi on Lộc Đặng</description><generator>Hugo</generator><language>vi-VN</language><lastBuildDate>Fri, 15 May 2026 22:30:00 +0700</lastBuildDate><atom:link href="https://locdang.com/tags/toi-uu-chi-phi/index.xml" rel="self" type="application/rss+xml"/><item><title>DeepSeek V4-Pro: mô hình code giá rẻ đánh bại GPT trên SWE-bench</title><link>https://locdang.com/posts/deepseek-v4-pro-model-code-gia-re-danh-bai-gpt-tren-swe-bench/</link><pubDate>Fri, 15 May 2026 22:30:00 +0700</pubDate><guid>https://locdang.com/posts/deepseek-v4-pro-model-code-gia-re-danh-bai-gpt-tren-swe-bench/</guid><description>&lt;p&gt;DeepSeek V4-Pro đạt 80.6% SWE-bench, giá $0.30 cho 1 triệu token, giấy phép MIT. Ba con số này kết hợp tạo ra một tín hiệu không thể bỏ qua: mô hình AI mở mã nguồn đã đạt ngưỡng &amp;ldquo;đủ tốt&amp;rdquo; cho hầu hết trường hợp sử dụng thực tế.&lt;/p&gt;
&lt;p&gt;Kiến trúc MoE 1.6T tham số với 80.6% SWE-bench nghĩa là mô hình này xử lý tác vụ lập trình phức tạp ở mức gần GPT-5.5 (chênh 2-3%). Nhưng giá rẻ hơn 10 lần. Giấy phép MIT nghĩa là bạn có thể tự host, sửa đổi, thương mại hóa không giới hạn. Ba yếu tố — hiệu năng, giá, tự do — kết hợp phá vỡ giả định rằng &amp;ldquo;phải dùng mô hình đắt nhất cho tác vụ quan trọng nhất.&amp;rdquo;&lt;/p&gt;</description></item><item><title>Inference chiếm 80% GPU spend — kỷ nguyên training kết thúc</title><link>https://locdang.com/posts/inference-chiem-80-gpu-spend-ky-nguyen-training-ket-thuc/</link><pubDate>Fri, 15 May 2026 22:30:00 +0700</pubDate><guid>https://locdang.com/posts/inference-chiem-80-gpu-spend-ky-nguyen-training-ket-thuc/</guid><description>&lt;p&gt;Thị trường inference vượt 50 tỷ đô năm 2026. Tỷ lệ chi tiêu GPU đã đảo ngược: 80% inference, 20% training. Con số này kể từ năm 2022 đã thay đổi hoàn toàn cách tính toán ROI cho hạ tầng AI.&lt;/p&gt;
&lt;p&gt;Nguyên lý nền tảng: khi một thị trường chuyển từ training-dominant sang inference-dominant, động lực cạnh tranh thay đổi. Trước đây, ai có GPU nhiều nhất để huấn luyện mô hình lớn nhất, người đó dẫn đầu. Song giờ đây, ai phục vụ inference nhanh nhất và rẻ nhất, người đó chiếm thị phần. DeepSeek V4-Pro $0.30/MTok, Qwen3.6 Plus rẻ hơn Claude Opus 30 lần — giá inference đang rơi tự do, giảm 1000 lần so với 2022. H100 giảm giá 94% so với mức đỉnh.&lt;/p&gt;</description></item></channel></rss>