<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Gpu on Lộc Đặng</title><link>https://locdang.com/tags/gpu/</link><description>Recent content in Gpu on Lộc Đặng</description><generator>Hugo</generator><language>vi-VN</language><lastBuildDate>Fri, 15 May 2026 22:30:00 +0700</lastBuildDate><atom:link href="https://locdang.com/tags/gpu/index.xml" rel="self" type="application/rss+xml"/><item><title>Inference chiếm 80% GPU spend — kỷ nguyên training kết thúc</title><link>https://locdang.com/posts/inference-chiem-80-gpu-spend-ky-nguyen-training-ket-thuc/</link><pubDate>Fri, 15 May 2026 22:30:00 +0700</pubDate><guid>https://locdang.com/posts/inference-chiem-80-gpu-spend-ky-nguyen-training-ket-thuc/</guid><description>&lt;p&gt;Thị trường inference vượt 50 tỷ đô năm 2026. Tỷ lệ chi tiêu GPU đã đảo ngược: 80% inference, 20% training. Con số này kể từ năm 2022 đã thay đổi hoàn toàn cách tính toán ROI cho hạ tầng AI.&lt;/p&gt;
&lt;p&gt;Nguyên lý nền tảng: khi một thị trường chuyển từ training-dominant sang inference-dominant, động lực cạnh tranh thay đổi. Trước đây, ai có GPU nhiều nhất để huấn luyện mô hình lớn nhất, người đó dẫn đầu. Song giờ đây, ai phục vụ inference nhanh nhất và rẻ nhất, người đó chiếm thị phần. DeepSeek V4-Pro $0.30/MTok, Qwen3.6 Plus rẻ hơn Claude Opus 30 lần — giá inference đang rơi tự do, giảm 1000 lần so với 2022. H100 giảm giá 94% so với mức đỉnh.&lt;/p&gt;</description></item></channel></rss>