Nvidia, Daha Büyük AI Sistemlerini Yönetmek için Amiral Gemisi Çipini İyileştiriyor

17 Kasım 2023

Nvidia’dan Pazartesi günü yapılan açıklamada, yapay zeka için şirketin en üst düzey çipine yeni özellikler eklendiği ve yeni çipin gelecek yıl piyasaya sürüleceği duyuruldu.

H200 olarak adlandırılan yeni çip, Nvidia’nın halihazırda en iyi çipi olan H100’ü geride bırakacak. Yapılan iyileştirmenin temel olarak, bir çipin en maliyetli parçalarından biri olan ve çipin daha çok veriyi daha kısa bir sürede işleyebilmesine olanak sağlayan bellek bant genişliğini yükseltmek üzerine olduğu belirtiliyor.

Nvidia mevcut durumda, yapay zekâ çipleri pazarında hâkim durumda ve sorgulara insan benzeri yanıtlar veren OpenAI’ın ChatGPT hizmeti ve buna benzer birçok üretken yapay zekâ hizmetini destekliyor. Yeni çipe daha yüksek bant genişliğine sahip belleğin eklenmesi ve çipin işleme elemanlarına daha hızlı bağlantı sağlanması, bu tür hizmetlerin yapılan sorgulara daha hızlı yanıt verebileceği anlamına geliyor.

H100, 80 gigabaytlık bellek bant genişliğine sahipken, H200’de bant genişliği 141 gigabayt. Nvidia, yeni çipteki bellek için tedarikçilerini açıklamadı ancak Micron Technology, Eylül ayında Nvidia tedarikçisi olmak için çalıştığını duyurmuştu. Nvidia Koreli SK Hynix’ten de bellek satın alıyor.

Nvidia’dan yapılan açıklamada, uzmanlaşmış AI bulut sağlayıcıları CoreWeave, Lambda ve Vultr’un yanı sıra Amazon Web Services, Google Cloud, Microsoft Azure ve Oracle Cloud Infrastructure’ın H200 çiplerine erişim sunan ilk bulut hizmet sağlayıcıları arasında olacağı belirtildi.

Kaynak: Reuters
Yayınlayan: T.C. Ticaret Bakanlığı, Ticaret Araştırmaları ve Risk Değerlendirme Genel Müdürlüğü