Şimdi Ara

AMD, Instinct MI300X yapay zeka hızlandırıcısını duyurdu: Nvidia H100'den %60'a kadar hızlı

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
3
Cevap
0
Favori
175
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
4 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj

  • AMD en güçlü yapay zeka hızlandırıcısı MI300X'i tanıttı. Yeni hızlandırıcı Nvidia H100'den %60'a kadar daha iyi performans vadediyor.



    AMD Instinct MI300X, TSMC'nin gelişmiş paketleme teknolojisi ve çiplet tasarımı ile üretildi. Oldukça etkileyici rakamlara sahip hızlandırıcının Nvidia H100 ile kıyaslamasına bakalım.




    • 2.4 kat daha yüksek bellek kapasitesi

    • 1.6 kat fazla bellek bant genişliği

    • 1.3 kat fazla FP8 TFLOPS

    • 1.3 kat fazla FP16 TFLOPS

    • Llama 2 70B, birebir kıyaslamada %20'ye kadar daha hızlı

    • FlashAttention 2, birebir kıyaslamada %20'ye kadar daha hızlı

    • Llama 2 70B, 8v8 sunucuda %40'a kadar daha hızlı

    • FlashAttention 2, 8v8 sunucuda %60'a kadar daha hızlı





    Nvidia H100'den %60'a kadar daha hızlı



    MI300X genel olarak büyük dil modeli (LLM) çekirdek TFLOPs'da H100'den %20'ye kadar daha iyi performans sergiliyor. Platform ölçeğinde ise 8 tane MI300X ile 8 adet H100 kıyaslandığında fark daha da açılarak Llama 2 70B'de %40, Bloom 176B'de %60'a kadar daha yüksek performans sergiliyor.




    AMD, yapay zeka eğitimi performansında MI300X'ın H100 ile eşit düzeyde olduğunu ve fiyat performansta rekabetçi olduğunu, çıkarım iş yüklerinde ise öne çıktığını söylüyor.



    MI300'ün arkasında bulunan güç ROCm 6.0 yazılım kümesi. Çeşitli AI iş yüklerine destek sunan yazılım güncellendi. Yeni yazılım kümesi, FP16, Bf16 ve FP8 (Sparity dahil) gibi en yeni hesaplama formatlarını destekliyor. Yapılan optimizasyonlar sonucu, vLLM'de 2,6 kat, HIP Graph'ta 1,4 kat, Flash Attention'da 1,3 kata kadar hız artışı gerçekleşiyor.  ROCm 6'nın bu ayın sonlarında MI300 AI hızlandırıcılarla birlikte sunulması bekleniyor. 





    153 milyar transistör içeriyor



    AMD Instinct MI300X, CDNA 3 mimarisiyle tasarlandı. 5nm ve 6nm bölümlere sahip çipte 153 milyar transistör bulunuyor. 



    CDNA 3 GPU mimarisini temel alan her bir hesaplama zarı (GCD), 2560 çekirdeğe karşılık gelen toplam 40 işlem birimine sahip. 8 adet GCD bulunuyor. Yani toplamda 320 hesaplama ve 20.480 çekirdek ünitesi bulunuyor. Verim açısından, AMD bu çekirdeklerin küçük bir kısmının ölçeğini küçültecek ve toplam 19.456 akış işlemcisi için toplam 304 hesaplama birimi (GPU yongası başına 38 CU) kullanacak.





    %50 daha fazla bellek



    MI300X, bellek alanında da büyük bir artış ile geliyor. Önceki hızlandırıcı MI250X'den %50 daha fazla olan 192GB belleğe sahip. Yeni bellekler 5.3 TB/s bant genişliği ve 896 GB/s Infınity Fabric bant genişliğine sahip. Kıyaslama açısından Nvidia H200 141 GB belleğe, Intel Gaudi 3 ise 144 GB belleğe sahip.




    • Instinct MI300X - 192 GB HBM3

    • Gaudi 3 - 144 GB HBM3

    • H200 - 141 GB HBM3e

    • MI300A - 128 GB HBM3

    • MI250X - 128 GB HBM2e

    • H100 - 96 GB HBM3

    • Gaudi 2 - 96 GB HBM2e



    Güç tüketiminde ise MI300X, önceki nesil MI250X'den %50 daha fazla olan 750 Watt tüketime sahip. Nvidia H200'den ise 50 Watt daha yüksek.



    Ayrıca Bkz.Google, yeni yapay zeka hızlandırıcısını duyurdu: Büyük dil modelinde 2.8 kat hızlı



    2024'de Nvidia Hopper H200  ve Blackwell B100 GPU'larını, Intel ise Guadi 3 ve Falcon Shores GPU'larını piyasaya sürecek. Yapay zeka alanında rekabet kızışırken, AMD Nvidia'nin hakimiyetini kırmak için çaba gösteriyor. Şirketler piyasa var olan her türlü AI çözümününü silip süpürdüklerinden dolayı AMD'nin yeni hızlandırıcılarının da kendine iyi bir yer edineceğini söylemek zor değil.




    Kaynak:https://wccftech.com/amd-launches-instinct-mi300x-ai-gpu-accelerator-up-to-60-percent-faster-nvidia-h100/







  • off

    < Bu ileti Android uygulamasından atıldı >
  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.