2026 yılına kadar GPU talebinin %70'ini çıkarım yönlendirecek
Yapay zeka hesaplama pazarı yapısal bir değişim geçirerek merkeziyetsiz fiziksel altyapı ağları (DePIN) için belirgin bir rol yaratıyor. Sınır AI model eğitimi, hiper ölçekli veri merkezlerinde yoğunlaşmaya devam ederken, Ovia Systems CEO'su Nökkvi Dan Ellidason'a göre endüstri bir “çıkarım dönüm noktasına” ulaştı. Yakın zamanda 2024'te eğitim, GPU kullanımına hakimken, 2026 yılına kadar talebin tahmini %70'i çıkarım, AI ajanları ve tahmin iş yükleri tarafından yönlendirilecek. Bu dönüşüm, AI hesaplamayı devasa, bir kerelik bir araştırma maliyetinden sürekli, ölçeklenebilir bir hizmet giderine dönüştürerek daha ekonomik işleme çözümleri için bir açılım yaratıyor.
Merkeziyetsiz Ağlar Maliyet Etkin Yapay Zeka İş Yükleri Sunuyor
Sınır AI eğitimi, binlerce GPU'nun mükemmel, düşük gecikmeli senkronizasyonla çalışmasını gerektirir – bu, yalnızca sıkı entegre, merkezi tesislerde mümkün olan bir kurulumdur. Örneğin, Meta, Llama 4 modelini eğitmek için 100.000'den fazla Nvidia H100 GPU kümesi kullandı. Ellidason bunu, işçilerin aynı iskelede tuğlaları elle geçirdiği bir gökdelen inşa etmeye benzetiyor. Merkeziyetsiz bir ağ üzerinden bunu denemek, her tuğlayı ayrı ayrı postalamak gibi olurdu, bu da onu oldukça verimsiz hale getirirdi. Ancak, çıkarım iş yükleri farklıdır. Bunlar daha küçük, bağımsız görevlere bölünebilir, bu da onları dağıtılmış ağlar için ideal kılar.
Çıkarım, hacimli bir iş koludur ve her dağıtılan model ve ajan döngüsüyle ölçeklenir. Burası, mükemmel ara bağlantılardan çok maliyet, esneklik ve coğrafi yayılımın önemli olduğu yerdir.
— Fluence kurucu ortağı Evgeny Ponomarev
Bu, tüketici sınıfı GPU'ları kullanan merkeziyetsiz ağları, verimlilik ve esnekliği önceliklendiren üretim yapay zeka görevleri için daha uygun hale getiriyor. Salad Technologies CEO'su Bob Miles'a göre, bu ağlar, AI ilaç keşfi, büyük ölçekli veri işleme ve metinden görüntü oluşturma gibi maliyete duyarlı iş yüklerinde fiyat-performans açısından üstündür. Dahası, küresel olarak dağıtılmış bir ağ, istekleri coğrafi konumlarına daha yakın bir yerde işleyerek son kullanıcılar için gecikmeyi azaltabilir ve uzak bir veri merkezine birden fazla atlamadan kaçınabilir.
Tüketici GPU'ları Tamamlayıcı Bir Yapay Zeka Katmanı Olarak Ortaya Çıkıyor
Merkeziyetsiz GPU ağları, hiper ölçekleyicilerin yerini almıyor, ancak AI teknoloji yığınında hayati, tamamlayıcı bir katman olarak rol üstleniyor. Açık kaynak modelleri daha verimli hale geldikçe ve Nvidia'nın RTX 4090 veya 5090 gibi tüketici donanımları daha güçlü hale geldikçe, daha geniş bir yelpazede AI görevi merkezi veri merkezleri dışında yürütülebilir. Bu, perakende kullanıcıların ve daha küçük operatörlerin boş GPU kaynaklarını ağa katkıda bulunmalarını sağlar.
Bu dinamik, merkeziyetsiz platformları, çıkarım ve diğer paralelleştirilebilir işlere odaklanan AI pazarının büyüyen payını emmeye konumlandırıyor. AI hesaplamasının önemli ve genişleyen bir segmenti için maliyet etkin ve coğrafi olarak dağıtılmış bir alternatif sunarak, büyük ölçekli model eğitimine hakim olan bir avuç teknoloji devinin ötesinde işlem gücüne erişimi etkin bir şekilde demokratikleştiriyor.