Şimdi Ara

Nvidia’nın yeni nesil Blackwell çiplerinin tanesi 70 bin dolar olabilir

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
8
Cevap
0
Favori
206
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
0 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • Nvidia’nın yeni nesil Blackwell çiplerinin tanesi 70 bin dolar olabilir
    Nvidia’nın GPU'ları, Superchip platformları ve sunucuları içeren Blackwell ürünlerinin mevcut Hopper serisinden çok daha fazla gelir getirmesi bekleniyor. HSBC analistlerine göre, Nvidia'nın yapay zeka uygulamalarına yönelik Blackwell Superchip çözümlerinin birim maliyeti 30 bin dolardan 70 bin dolara kadar uzanacak.



    Nvidia, para basmaya devam edecek



    Aktarılanlara göre Blackwell GB200 Superchip (CPU+GPU) çözümünün tek başına maliyeti 70.000 dolar seviyesinde olacak. Elbette firmalar bu donanımları tek tek almıyor ve Nvidia da genellikle tek tek satış yapmıyor. Bunun yerine yapay zeka devi, B200 NVL72 (36 CPU ve 72 GPU) sunucuları ile müşterilere ulaşacak. Bu sunucuların her birinin ise 3.000.000 dolara mal olacağı belirtiliyor. Bunun GB200 NVL36 varyantının ise 1,800.000 dolara mal olacağı aktarılıyor.



    Nvidia’nın yeni nesil Blackwell çiplerinin tanesi 70 bin dolar olabilir
    Nvidia'nın yeni nesil giriş seviyesi Blackwell B100 GPU’sunun ortalama satış fiyatının ise 30.000 ila 35.000 dolar aralığında olması bekleniyor, bu fiyat mevcutta bulunan H100 ile eşleşiyor diyebiliriz. Tek bir Grace CPU'yu iki B200 GPU ile birleştiren daha güçlü GB200'ün fiyatının ise 60.000 ila 70.000 dolar arasında olacağı bildiriliyor.



    Ayrıca Bkz.Küçük bir ekran kartı tamiri için servet istediler



    Ancak bu rakamlar sadece birer analist tahmini. Nvidia’nın fiyatlandırması müşteriye göre bile değişiklik gösterebilir ve daha yüksek olabilir. Nvidia, Blackwell çözümlerini tanıtırken NVL72 sunucunu öne çıkarıyordu. Çünkü bu sunucu biriminin tüm kurulumu oluşturmasını amaçlıyor Nvidia. Zira, tüm kurulum yüksek bant genişliğine sahip bağlantılarla entegre olarak devasa bir GPU işlevi görüyor ve 13.824 GB toplam VRAM sağlıyor. Bu bellek miktarı, yapay zekaların eğitimi için kritik önem taşıyor.




    Kaynak:https://wccftech.com/nvidia-blackwell-gpus-cost-up-to-35000-usd-ai-servers-3-million-gearing-for-next-gold-rush/







  • Olsun Nvidia. 80.000 olsun.

  • 200 kilo altın istesinler. Umurumda değil. GT5010 çıkaracaklar mı o önemli. O paraya zaten baya kuvvetli FPGA alınarak çok hızlı hesaplama yapılabilir.




    < Bu mesaj bu kişi tarafından değiştirildi Tugrul_512bit -- 15 Mayıs 2024; 19:11:47 >
  • Tugrul_512bit kullanıcısına yanıt
    Madem öyle, o zaman o paraya neden baya kuvvetli FPGA alıp da çok hızlı hesaplama yapmıyorlar da gidip Blackwell için yıllık sıraya giriyorlar?

    Diye sorarım şimdi ben de.

  • V4LKyR V kullanıcısına yanıt

    Büyük projelerde ar-ge yapan şirketler daha az sayıda server kullanmak için server başına daha çok GPU gücü kullanıyorlar. Bunun için de en güçlü GPU'yu kullanmak avantajlı oluyor. GPU'yu programlamak, FPGA programlamaktan çok daha kolay. Kolay olunca ar-ge süresi azalıyor. Bu çok önemli. Tabi para sınırsızsa. Bende para sınırlı. Tek çipe 70bin dolar (2.1 milyon, ev parası) vereceksem, buna değecek bir hesaplama gücü sunmalı. Yapılan işe göre bunu sağlayamayabilir. Atıyorum, bitcoin kazacak kişi GPU kullanmaz, FPGA (hatta bunun sabitlenmiş hali olan özel ASIC çipini) alır. Ayrıca FPGA içerisinde çalışan algoritmalar tamamen kullanıcının yazdığı satırlardan ibaret. Açık kaynak kodlu ve güvenilir. Ama Nvidia, bize sormadan bilgileri alıp bakabiliyor.


    Ucuz et için de sıraya giriliyor hocam. Ucuz et mi daha sağlıklı yoksa kaliteli et mi?


    Ucuz ekmek için de sıraya giriliyor. Burada iyi olan ekmek değil, fiyatı.


    Nvidia'nın paha GPU sırasına girmelerinin sebebi, CUDA programlama araçlarının çok gelişmiş olması ve programlama süresini azaltması, kolaylaştırması. Aynı şey FPGA sistemine de yavaş yavaş geliyor, şu anda OpenCL destekleyen FPGA'lar var ama CUDA kadar gelişmemiş.


    Yapılacak iş belliyse, FPGA/özel ASIC tasarımları, herhangi bir GPU'ya göre çok daha verimli çalışırlar.




    < Bu mesaj bu kişi tarafından değiştirildi Tugrul_512bit -- 16 Mayıs 2024; 9:57:55 >




  • Tugrul_512bit kullanıcısına yanıt

    Şu iki cümle birbiri ile çelişiyor:


    CÜMLE 1:


    Alıntı

    metni:
    Nvidia'nın paha GPU sırasına girmelerinin sebebi, CUDA programlama araçlarının çok gelişmiş olması ve programlama süresini azaltması, kolaylaştırması. Aynı şey FPGA sistemine de yavaş yavaş geliyor, şu anda OpenCL destekleyen FPGA'lar var ama CUDA kadar gelişmemiş.


    CÜMLE 2:


    Alıntı

    metni:
    Yapılacak iş belliyse, FPGA/özel ASIC tasarımları, herhangi bir GPU'ya göre çok daha verimli çalışırlar.


    Yapılacak iş belli, yapay zeka eğitimi. Madem FPGA CUDA'nın yeteneklerine sahip değil, nasıl verimli çalışıyor? Tükettiği enerji olarak mı kastettin hocam? O zaman farklı tabii, tekrar bakmak lazım. Ama işlem gücü ise doğru değil.


    Bu trilyon dolarlık şirketler Nvidia'nın çipi için sıraya girmişler. Onlar da sonuçta FPGA falan biliyorlardır. Neden o FPGA yoluna girmiyorlar, çünkü maliyeti daha fazla, niye? Çünkü şimdiki durumda Nvidia'nın çipine parayı basıp geçiyorlar. FPGA yoluna girseler, tasarım yapacaklar, ona göre kod yazacaklar, onu ürettirecekler/dökecekler, SDK yazacaklar, vs vs vs. Çok inanılmaz uzun iş.


    Dip noktada YİNE DE Nvidia'nın çözümünden daha iyi olur mu, pek sanmam açıkçası. Çünkü FPGA, TEK BİR KİLİT İŞ için tasarlanır. Ama "yapay zeka eğitimi" diyince altında çok fazla alt rutin var.




    < Bu mesaj bu kişi tarafından değiştirildi V4LKyR -- 16 Mayıs 2024; 11:3:3 >




  • V4LKyR V kullanıcısına yanıt

    "Yapılacak iş belli, yapay zeka eğitimi. Madem FPGA CUDA'nın yeteneklerine sahip değil, nasıl verimli çalışıyor? "


    Sadece o işi yapacak şekilde yeniden programlanarak. CUDA is sabit donanıma sahip. Yapay zeka algoritması değişirse, CUDA donanımı değişmeyeceği için ya destekleyemez ya da verimsiz kullanılır. Yenisini almak gerekir.


    Ayrıca fazla alt rutin olan algoritmalar için de özel çipler tasarlanıyor. Bunlardan biri cerebras. Çipin üzerinde 18GB cache var.


    Nvidia GPU satın alan kişi, sadece yapay zeka çalıştıracağı zaman, raytracing donanımına boşuna para ödemiş oluyor. FPGA ise üzerindeki elemanların %100'e yakın kısmını istenilen işe yönlendirebiliyor. Nvidia GPU, üzerinde DX12, OpenGL, ... bir ton destek sunan donanıma sahip. Sadece 1+1=2 hesaplanacağı zaman bu donanımın %90'ı boşa gidiyor. FPGA ise üzerindeki mantık elemanlarının tamamını 1+1=2 hesabı yapan devrelere dönüştürebiliyor.




    < Bu mesaj bu kişi tarafından değiştirildi Tugrul_512bit -- 16 Mayıs 2024; 11:20:7 >




  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.