Şimdi Ara

Nvidia GeForce 6800: Önemli noktalar...

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
1 Misafir - 1 Masaüstü
5 sn
16
Cevap
0
Favori
3.007
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
0 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • 2 kamp halindeki grafik alemi Nvidia'nın elini çabuk tutmasıyla yeni nesil ekran kartlarından neyi bekleyebileceğimizi açığa kavuşturdu.

    Bu açıklığın en can alıcı noktası 60$'dan 500$'a kadar ekran kartı alan bütün bilgisayar kullanıcılarını daha doğrusu oyuncularını etkiliyor çünkü bilgisayar oyunları yoğun rekabet ortamında en üst basamaktan yararlanabilecek şekilde yazılıyor her ne kadar daha düşük donanımlar için geriye doğru uyumlu olsa da.

    Yani donanımın üst ucu bilgisayar oyunlarının da üst ucunu belirliyor.

    Mesela Far Cry'ı ele alalım. Oyun teknik olarak giriş seviyesi sayabileceğimiz FX5600'lerde bile Medium ayarlarla P4 2.4C gibi bir işlemciyle 1024x768 çözünürlükte oynanabilir seviyede çalışabiliyor.

    Ama oyun tepe noktasını yeni Nvidia donanımı 6800'ler ile Pixel Shader/Vertex Shader 3.0 açıkken yakalıyor.

    Son teknolojinin getirdiği sınırlar sadece parası olan üst uç kartları alacakları değil herkesi etkiliyor kısaca çünkü sınırları bu şekilde çiziyoruz.

    Konunun bütünlüğü açısından yukarıdakileri vurguladıktan sonra şimdi ana konumuz olan Nvidia GeForce 6800'e geri dönelim. Bu kısmı alışılmış yazıların aksine Soru/Cevap şeklinde yapacağım ki bazı noktaların altını rahatça çizebileyim.

    NOT: Bu yazı son kullanıcının rahatça anlayabilmesi açısından teknik açıklama ve detaylardan mümkün olduğunca uzak durularak yazılmıştır.

    S: Nvidia GeForce 6800 oldukça hızlı bir kart. Peki yeni nesil ATI'lerle karşılaştırıldığında durum nedir ? Hangisi önde ?C: Şu anda elimizde ATI ile yapılmış hiç bir test yok. Kanada firması ürününü çok iyi saklıyor ve  ipucu vermiyor. Ama öte yandan bazı iddialar daha doğrusu dedikodular var. Bunlara göre ATI R420/R423'lerin Nvidia GeForce 6800'den önde olduğu yolunda.

    S: Eğer söylentiler doğruysa o zaman yine NV3x'lerde olduğu gibi mağlup mu oldu ?

    C: Hayır. Birincisi ATI ile ilgili söylentilerin doğruluğu belli değil. İkincisi doğru bile olsa Nvidia bu sefer tamamen başka bir silah kullanıyor, saf hız/performans üzerine oynamıyor.

    S: Nvidia eğer sadece hız ve performans üzerine oynamıyorsa peki elinde ATI'ye karşı ne koz var ? Niye aynı fiyata biraz daha hızlı bir kart varken Nvidia'yı seçelim ?

    C: Nvidia uzun dönem çalışmasının ardından özellikle geliştiriciler için şeker niteliğinde ciddi bir artıyla beraber sundu GeForce 6800'ü. Pixel Shader/Vertex Shader 3.0 desteği ve 32-bit precision yani kesinlik değeri.

    S: Peki bu özellikler ATI'de yok mu ?

    C: Hayır, ATI R42X serisinde ATI PS/VS 3.0 desteği sunmuyor. Precision değeri ise eskisi gibi 24bit. Ancak gelecek yıl sunmayı planladığı R5xx serisi ile bu teknolojilere destek verecek.

    S: Bu teknolojilerin getirisi ne ? Son kullanıcıya ne kazandıracak ? Niye Nvidia'yı tercih edilebilir yapsın ?

    C: Bu teknolojileri tam olarak açıklayabilmek ancak teknik bir makale ve okuyucunun bazı ön bilgilere sahip olması ile mümkün olabilir. Eğer en basit biçimde son kullanıcıya anlatmak gerekirse Pixel Shader/Vertex Shader 3.0 hız artışı ve yeni efektler anlamına geliyor. Yani bir oyunun PS 2.0 ve 3.0 modunun olduğunu düşünürsek 3.0 olan versiyonu daha hızlı (daha doğrusu verimli) çalışıyor ve 2.0'da göremeyeceğiniz efektlere sahip oluyor. Bu da oyunun oynanabilirliği ile beraber zenginliğini arttırıyor. Rahatça görebileceğiniz gibi bu önemli silaha sadece Nvidia sahip. Rakibine göre hız dezavantajını (EĞER OLURSA ?) hem PS 3.0 kullanarak belirli bir ölçüde giderebilir hem de görsellik ve keyif açısından daha fazlasını sunabilir. Aşağıya geliştiriciler için PS/VS 3.0'ın öncüllerine göre ne kadar büyük bir gelişme olduğunu gösteren bir tablo ekledim. Versiyon sütunundaki numaraların yanında o versiyonun hangi GPU'larca kullanıldığı gösteren kılavuzlar var. Bu rakamlar haricinde Dinamik Akış Kontrolü, Centroid Örnekleme gibi 3.0'la gelen pek çok yenilik daha var.

    Versiyon Minimum Komut Maksimum
    1.1 8 8
    1.2 / 1.3 12 12
    1.4 14 14
    2.0 (ATI) 64 Aritmetik, 32 Texture 64 aritmetik, 32 Texture
    2.0 Extended (GeForce FX) 96 512
    3.0 (GeForce 6800) 512 32,768

    ATI'deki 24 bit floating point precision yerine Nvidia'da 32 bit precision kullanılması ise son kullanıcı için daha gerçekçi gölgeleme, yüzeyler demek.

    S: Tamam PS/VS 3.0 yeni ve güzel bir teknoloji. Ama daha önce biz son kullanıcılar DirectX 9 oyunları için neredeyse 1 yıl kadar bekledik. Bu teknoloji içinde 1 yıl bekleyeceksek ne anlamı var ?

    C: DirectX 9 oyunları için yaşanan gecikme doğru ama. Fakat PS/VS 3.0 için beklemeyeceksiniz çünkü piyasada hali hazırda bu teknolojiyi destekleyen oyunlar bulunuyor ve merakla beklenen eli kulağında olan Doom 3, Half Life 2 gibi çıkmak için gün sayan oyunlar da PS/VS 3.0 desteği ile geliyor ! İşin aslı PS/VS 3.0 bugüne kadar piyasada donanımla beraber aynı anda bulunan ilk "marchitecturing" olayı ve bu açıdan öneme sahip. Bu kadar hızlı geçişin en önemli sebebi PS/VS 3.0 oyun yazarlarının hayatını ciddi ölçüde kolaylaştırıp, kafalarındakini daha kolay ve verimli şekilde uygulama şansı tanıması. PS/VS 3.0 destekli yeni çıkacak/piyasada olan oyunlardan bazıları şunlar (Listede tüm oyunlar yok !): Lord of the Rings, Battle For Middle-earth, STALKER: Shadows of Chernobyl, Vampire: Bloodlines, Splinter Cell X, Tiger Woods 2005, Madden 2005, Driver 3, Grafan, Painkiller, FarCry.

    S: GeForce 6800'de 2 adet molex güç girişi var. Elektrik tüketimi ve ısınma problemi varmış gibi gözüküyor/söyleniyor. Gerçekte durum nedir ?

    C: GeForce 6800 tam 222 milyon transistör (1 MB L2 önbellekli P4 Prescott'da toplam 125 milyon) içeriyor. Milyonlara ağzımız alıştığı için söylemesi kolay geliyor ama bilgisayar dünyası için çok ciddi bir rakam. Bu kadar çok transistör bir arada olunca enerji tüketimi ve ısı oluşumu artıyor. Ama bunu minimum da tutmanın metotları var. Bunlardan en önemlisi GeForce 6800'ün üretiminde kullanılan IBM'in "Low-K Dielectric" metodu. Transistörler daha dar alanlara yerleştirildikçe haylaz elektronlar gitmesi gereken yollar dışına çıkarlar; buna akı kaçakları diyoruz. Bu kaçak elektronlar verimin düşmesine ve ısı üretimine neden oluyor. Bunun önüne geçebilmek için geliştirilen IBM'in "Low-K Dielectric" metodu ile dünyanın en az güç tüketen/ısınan masaüstü ya da sunucu işlemcileri üretiliyor (IBM Power PC 970FX -> Apple XServer G5). Bu kanıtlanmış teknoloji 6800'leri de mümkün olduğunca kaçaklara karşı koruyor.

    Nvidia GeForce 6800 çalışabilmek için düzenli 12V ve akıma ihtiyaç duyuyor. Günümüz güç kaynakları 12V'u istenen akımda anakart haricinde güvenilir biçimde her bir kablo ile sağlayama biliyor. Bu durumda Nvidia risk almaktansa riski yayıp güvenilir bir yol izlemek için 2 adet birbirinden bağımsız kablo ile beslemenin hem ekran kartı hem de sistemdeki diğer bileşenlerin sağlığı için düşünmüş ve doğru da yapmış.

    Bunu yaparken de minimum kullanılması gereken güç kaynağını 480W olarak belirlemiş. Bu rakam standart bir kullanıcının 300-350W seviyesindeki güç kaynağına göre oldukça yüksek. Sebebi ise bu rakamın yine güvenlik amaçlı olarak tam yük altında hesaplanmış olması.

    2 molex ihtiyacının kartın PCI Express versiyonunda 1 adete ineceğini de bu noktada söylemek lazım. Sebebi PCI Express'in 75W'a kadar güç sağlayabilmesi.

    Şimdi işin güç tüketimi ile sarsıcı kısmına geçelim. Burada 2 molex ile başlayan paniğin ne kadar yersiz olduğunu grafiklerle göstereceğiz. Zira 6800 Ultra bir Radeon 9800XT'ye göre çok da fazla güç çekmiyor. Bu aradaki 2 kat transistör farkı hesaplandığında çok başarılı bir fark !

    Radeon 9800 XT 0.15 mikron 110 milyon transistör / Nvidia GeForce 6800 0.13 mikron 222 milyon transistör

    Yukarıdaki test Tom's Hardware Guide sitesince yapılmış ve tam yük altındaki güç tüketimlerini gösteren bir test. Radeon 9800XT ile GeForce 6800 Ultra (400MHz) arasında yalnızca 27 Watt fark var. Yani Radeon 9800XT'yi rahatça çalıştıran bir güç kaynağından sadece güvenlik açısından 50Watt daha büyük güç kaynağı ile yeni Nvidia sorunsuz kullanılabilir. THG'nin ölçümlerini doğrulamak açısından başka bazı sitelerinde benzer sonuçlara vardığını vurgulamak lazım bu arada. Ama yine de Nvidia'nın önerileri doğrultusunda mutlaka kaliteli minimum 480Watt bir güç kaynağı tercih etmek gerekli.

    Güç tüketimi ile ilgili bilgileri verdikten sonra sırada şimdi de ısınma var. Bazı forumlarda özellikle fazla bilgisi olmayan son kullanıcı tarafından vurgulanan yanlış bir bilgi de 6800'lerin çok ısındığı. Bunu da sözü fazla uzatmadan bir grafikle göstermek söylentileri son bulduracaktır:

    NOT: ATI Radeon 9800XT'nin yük altında 72°C civarında olduğunu göz önünde bulundurun. (kaynak için tıklayın)

    Bu tablo NvNews.net sitesinin incelemesinden alınmıştır.Ölçüm Enemy Territory oyununu 1024x768 çözünürlükte 5 dakika oynadıktan sonra alınmış. Kasanın kapalı olduğu da belirtilmiş. Biraz daha zorlayıcı bir oyunda daha yüksek çözünürlükte maksimum rakamın 3-5 derece kadar yukarı öteleneceğini tahmin ediyorum ama kart elimde olmadığından bir ölçüm yapabilmiş değilim ! Sonuçta yukarıdaki değerler bir ATI Radeon 9800XT ile karşılaştırıldığında pratik olarak aynı. Yani 2 kat transistör sayısı ciddi bir ısı farkı yaratmamış. Yeni etkili soğutmanın ve üretim yöntemi oldukça başarılı gözüküyor.

    S: GeForce 6800 Ultra'nın final saat hızları belli mi ? Çekirdek testlerdeki gibi 400MHz mi olacak yoksa 475MHz mi ?

    C: Bu konuda çeşitli rivayetler var. Test için gönderilen kartların A1 revizyonu olması ve sonradan bir kaç kişinin eline daha yeni bir revizyon olan A2'nin geçmesi bu sorunun kaynağını oluşturuyor. Zira A2 revizyonu kartın GPU hızı 475 MHz.

    S: Nvidia testlerde kullanılan ForceWare 60.72 sürücülerinde önceki gibi 3D Mark'larda hile yaptı mı ?

    C: Hayır. 60.72 sürücüleri Nvidia'nın isteği üzerine Futuremark tarafından incelendi ve onaylandı.

    "Update April 14th, 2004: Futuremark has reviewed the ForceWare 60.72 drivers for the launch of the GeForce 6800 Series graphics cards at NVIDIA's specific request. We found that the 60.72 drivers used with the GeForce 6800 Series fulfill the optimization guidelines for 3DMark03 Build 340. Please note that the ForceWare 60.72 drivers are approved only for the GeForce 6800 Series graphics cards, and any future approved WHQL drivers will replace the 60.72 non-WHQL drivers."

    S: Bazı sitelerde FarCry'ın PS 3.0 modunu açtıklarını söylüyorlar. Bunu ForceWare 60.72'lerle mi yapıyorlar ?

    C: Hayır. ForceWare 60.72'lerde zaten 3.0 desteğinin açık olduğu söyleniyor Nvidia yetkilileri tarfından. Fakat sistemde DirectX'in bir sonraki versiyonu kurulu değilse (Dx 9.0c ya da 9.1 ?), 3.0 desteğinden yararlanmanız mümkün değil. Yani elinizde bugün 6800'de olsa Microsoft yeni DirectX sürümünü yayınlamadan 3.0 desteği etkinleşmeyecek. Hali hazırda geliştiricilerin elinde uygun kitler var.

    S: Bütün bu yazı Nvidia'yı savunmak için mi yazıldı ?

    C: Yazı Nvidia'yı savunmak, reklamını yapmak için yazılmadı. Bunu açıklama gereği hissettim zira bazı kullanıcılar ATI ve Nvidia olarak 2 cephede bir savaşın içinde düşünüyorlar kendilerini, buna göre tepki verebiliyorlar.

    Aksine esas olan pazarda birden fazla iyi markanın oyuncu olarak yer alabilmesi çünkü tüketiciye esas yarayan bu. ATI ve Nvidia birbirlerine rakip olmasalardı hem teknoloji bu kadar hızlı ilerlemeyebilirdi hem de fiyatlar daha yüksek olabilirdi. Esasında kişisel dileğim duopol yapıya benzer pazara bir üçüncü yarışçının eklenmesi.

    Yazının amacı şu anda ilk olarak Nvidia GeForce 6800 ardından da Radeon X800 serisi ile geldiğimiz/geleceğimiz noktada artık sadece benchmark ve oyunlardaki hıza göre seçim yapılan dönemin bittiğinin altını kalınca çizmek. Bir de az bilinen ya da tam algılanamayan bazı noktaları anlaşılır kılmak.

    Artık her ne kadar Radeon X800'ü görmesek de en kötü ihtimalle 6800 kadar hızlı olduğunu tahmin edersek, pek çok oyun 1280x1024 (bu çözünürlük özellikle 17" LCD kullanıcıları açısından önemli) ve üzeri çözünürlükte rahatlıkla oynanabilir hale geldi.

    Bundan sonra satın alma alışkanlıklarında yeni bir kavram olan hız yerine özellik konusu üzerinde de değerlendirme yapmak gerekecek. Eğer ATI daha hızlı çıkarsa soru şu olacak: Daha hızlı olan mı yoksa daha fazla özellik sunan mı ?

    Umarız kafalardaki bazı basit sorulara yanıt verebilmişizdir.

    Daha fazla bilgiye ulaşmak isteyenler için bazı kaynaklar:

    »EliteBastards - Shader Model 3.0 - What's it all about?
    »3DCenter.de - ATi R420 & R423 specifications
    »THG
    »Gamer's Depot - Who's right for DX9 gaming ?
    » Microsoft -Shader Model 3.0 - No Limits
    »http://www.futuremark.com/community/drivers/?approved
     







  • yaza bil. toplayacam.oncelikle su psu olayına kafam bozuldu.ben 350 watt lık bir pus almakda bile cok zorlanıyordum simdi basıma 480watt <u>enaz</u> isteniyor ve kart zaten pahalı olacak bide 480 wattlık psu yu ekleyince iyice pahalıya gelecek.

    ikinci olarakta radeonlar.eger hızda nvidianın onune gecerse ozaman ya hız deyip radeona yada efekt diyip nvidiaya gidecegiz iki arada bir derede kalacagız ama bence orta seviyede kullanıcı olanlar nvidiayı tecih edecek cunku orta seviyeli yani radeondan istedimiz hızda olan kartın nividia daki karsılıgını alcagız alırsak hem hızdan odun vermeyiz hemde efekten.asıl uc kartı alcaklar bu sorunu dusunmeli cunku onlar bu ikilemde kalacak.
  • Donanımhaber anasayfasında gördüğüm en "iyi" haber girişi.
  • Pol-e +1 diyorum çok güzel bir yazı olmuş tebrikler [clps]
  • Evet, hem inceleme ,hemde bu incelemenin her a#351;amas#305;nda yorum var. Saf inceleme yap#305;p yorumu okuyana b#305;rakmaktansa bu #351;ekilde çok güzel ve doyurucu olmu#351;.
    <blockquote id='quote'><font size='1' face='Verdana, Arial, Helvetica' id='quote'>quote:<hr height='1' noshade id='quote'><i>Originally posted by PoL--E</i>
    <br />Donanımhaber anasayfasında gördüğüm en "iyi" haber girişi.
    <hr height='1' noshade id='quote'></blockquote id='quote'></font id='quote'>
  • Bende yazıyı okduktan sora acaba bu yazıyı yazan arkadas bi yerden cevırımı yapmıs kendı mı yazmıs dıe merak ettim ve nerden alıntı yapılmıs dıe bı not aradım fakat goremedım.Foruma gırdım yazıyım derken gordumkı baska arkadaslarda benle aynı fıkırte gercekten cok basarılı bi haber yazmıssın ınfoman.
  • sicaklik degerlerini 1024x768'de Wolfenstein'i 5 dk calistirarak olcmek ve bunu 1 saat idle + 1 saat 3DMark 2003 loop'u gormus bir 9800XT'nin sicakligiyla karsilastirmak hatali olur. kanimca sicaklik degerleri 3-5 dereceden daha fazla artardi. (nvnews.net'te bahsedilen sicaklik tablosunu bir turlu bulamadim. daha uyanamadim galiba )
    tabi amac boyle guzel bir yaziya b.k atmak degil, yorum yapmak [^]
    ati de cicilerini cikarsa da sevinsek...
  • Olumlu eleştiriler için teşekkür ederim.

    Haber hiç bir yerden çeviri değil, "0" dan kendim yazdım, ama belirttiğim gibi grafikler ve bazı bilgiler ilgili sitelerden. Maalesef elimizde kart olmadığı için ölçümlerde alıntı yapmaya mecbur kalıyoruz.

    @ oztuert

    Nvnews sitesinde sıcaklık grafiğini şu şekilde görebilirsiniz:

    http://www.nvnews.net/ sitesine girin, üstten Archive'ı seçin, ardından April 2004 yani Nisan ayını tıklayın, aşağı doğru sayfayı kaydırın (Temperature Tests diye aratırsanız hemen çıkar) .

    Maalesef direkt bir linki olmadığı için veremedim.

    Sıcaklık ölçümü konusunda aynı fikirdeyiz; ben de yazımda bunun 3-5 derece yüksek olabileceğini yazdım. Ama kolay kolay da 80 dereceyi geçme ihtimali olduğunu sanmıyorum (400 MHz çekirdek saat hızı için !). (tabii yazıda da belirttiğim gibi kişisel olarak ölçme şansım olmadı :) )

    Bir de 3DMark serisi bir ekran kartını tam yük altına almak için bence en iyi çözüm değil.




  • :) Efekmi yani FX gibi bişlermi yaw aldanmayın her zaman hız önemlidir zaten Nvidia op efeklerin hepsini kullansa ancak ati kadar bi görüntü verebilir herhalde :)) Fx kartlar çıkmadan elimize geçmeden öncede her sitede atıldı tutuldu kart elimize geçti bu sefer kartı elinde tutan olmadı. Nvidia kazığı biraz daha sivriltmiş yakında birde güç kaynağı çıkartır Ekran kartının yanında onu satar o zaman hiç şaşırmam işte :)) Ati Ölümüne Ati bea...
  • Güzel bir yazı ben de teşekkür ediyorum.

    Ama benim eleştirilerim de var [ngt]

    R420 ile ilgili kesin bir bilgi yok bu doğru. O yüzden elbette buradaki bilgiler söylentiler ve eskiden Ati tarafından verilmiş ipuçlarına dayanarak yazılmış.

    Yanlız bence önemli bir yanlışlık var zira, R420'de PS3.0 desteklenmiyor (en azından öyle görünüyor) belki ama VS3.0 (vertex shader v3.0) desteklenmediğini nereden duyduğunuzu söyleyebilir misiniz? Yazarken ps/vs3.0 diye yazmışsınız ama bunlar çok farklı motorlar ve ortalıkta dolaşan söylentiler "ps3.0 yok ama vs3.0 var" şeklinde genelde.
  • @ Aspart

    Her ne kadar pixel ve vertex shader isimleri işlev farkından dolayı ayrı anılsa da bunlar bir evrensel kümenin alt kümeleridir.

    Model desteği değerlendirilirken alt kümeler değil evrensel küme kullanılır.

    Teknik olarak sizin önerdiğiniz gibi ayrı ayrı birbirlerinden bağımsız değildirler. Yani PS 3.0 desteği olan bir kartta VS 3.0 desteği de vardır. Ama bir kartta sadece PS 3.0 desteği olup da VS 2.0 bulunmaz (ya da tam tersi).

    Sanırım ben yazımda Shader Model ortak adını kullanmadığım için böyle bir karışıklık olmuş sizin bilgi eksikliğinizle beraber.

    Bunu açıklama fırsatı verdiğiniz için teşekkürler :)

    Eğer Shader Modelleri hakkında bilginizi güncellemek/arttırmak isterseniz:

    http://www.gamedev.net/columns/hardcore/dxshader1/ adresine bir uğrayın.

    Bir de yazının sonunda bulunan

    http://www.3dcenter.org/artikel/2004/04-19.php

    linkiyle yazıya eklemediğim

    http://www.theregister.co.uk/2004/03/11/ati_drops_pixel_vertex_shader/

    linkine bakarsanız açıklamalarımın doğruluğunu görebilirsiniz.




  • Öncelikle yeni link için teşekkürler. Şunu baştan yazsaydınız da beni uğraştırmasaydınız

    Bilgi eksikliği demeniz hoş değil. Bir şeyin teorik olarak mümkün olması pratikte kullanım alanı bulmasını gerektirmez elbette ama pixel shader v3 desteği olmadan da vertex shader 3 spesifikasyonu sağlayan bir gpu tasarlanabilir. Ayrıca gönderdiğiniz link de bir alman sitesine dayandırıyor haberini.

    Ben de Ati'nin bunca toz duman arasında evet alın size Shader 3.0 diyeceğini zannetmiyorum ama yine de shaderlarından bahsederken shader plus ifadesi gördüm bir yerlerde. Yani belki de v3 desteklemeyişlerini, model 2 spesifikasyonlarının ötesinde birşeyler koyarak bertaraf etmeye çalışıyor olabilirler. Zira basına sızmış benchmarklarda oldukça yüksek shader performansı görünüyor.

    Neyse ya çıksa da görsek.




  • <blockquote id='quote'><font size='1' face='Verdana, Arial, Helvetica' id='quote'>quote:<hr height='1' noshade id='quote'>Bilgi eksikliği demeniz hoş değil.<hr height='1' noshade id='quote'></blockquote id='quote'></font id='quote'>

    Bunu olumsuz algılamanıza üzüldüm kötü niyetle sizi kırmak için sarfedilmiş bir cümle değildi...

    Sanırım teknik açıdan dediğiniz gibi bit GPU tasarlanabilir ama hiçte işlevsel olmayacaktır, Shader Modelleri birbirini tamamlayan yapılar çünkü.

    ATI'nin sızan test sonuçlarının doğruluğunu bilmiyoruz henüz ama eğer beklendiği gibi yüksek çıkarsa bu açıkladığım verilerle çelişkili bir durum yaratmıyor zaten.

    ATI'nin yüksek performansının sebebi artan pipeline sayısı, yeni komut işleme metotları ve geliştirdikleri sıkıştırma tekniklerine bağlamak daha doğru olur, bunu net olarak kart ancak ortaya çıktığında anlayacağız.

    Bir de "model 2 spesifikasyonlarının ötesinde birşeyler koyarak" gibi bir ifadeniz var ki bu kesin olarak geçerli değil çünkü 2.0 ve 2.0 Extended'ın ötesi Shader Model 3.0 zaten. (bunu sadece bilgi vermek amacıyla yazıyorum yapıcı bir eleştiri olarak kabul edin lütfen) Bir de firmaların bu standartları direkt kendilerinin geliştirmediğini anlamanız çok önemli, bütün bunlar Microsoft tarafından yürütülüyor, son söz MS tarafından söyleniyor.




  • infoman ilginize teşekkür ediyorum.

    Ben kötü niyetle yaklaştığınızı düşünmüyorum elbette. Ama yazdıklarınıza kendiniz de bir bakarsanız (örn: bunu anlamanız çok önemli vs) biraz ben anlatıyorum sen öğren tarzına yaklaştığınızı farkedebilirsiniz. Bu tavrınız, yazınızla ilgili eleştirimi istemeden rahatsız edici bir şekilde ifade etmiş olmamdan kaynaklanıyorsa özür dilerim.

    Beni tam olarak anlamadığınızı düşünüyorum. Zira benim, üreticilerin standart belirlemesi vs gibi bir söylemim olmadı. Model 2 spesifikasyonlarınlarının ötesinde birşeyden kastım geforce fx'ler gibi 2.0 extended desteği olabilir (bu "extended" da nv3x'dan sonra çıktı hatırlarsak). Performans artışını bununla lgilendirmedim zaten (edit:anlatmaya çalıştığım şey eforlarını shader 2 performansını iyileştirmeye harcamış olabilir). Bunu shader 3 karşısında bir pazarlama taktiği olarak kullanabilirler belki. Tomshardware'de nv30 ile ilgili yazıdan aşağıya alıntı yaptım.<blockquote id='quote'><font size='1' face='Verdana, Arial, Helvetica' id='quote'>quote:<hr height='1' noshade id='quote'>The programmability of the pixel and vertex shaders clearly surpasses the requirements found in the DirectX 9 specification. This is why NVIDIA emphasizes this by adding a "+" to their denotation<hr height='1' noshade id='quote'></blockquote id='quote'></font id='quote'> (http://www.tomshardware.com/graphic/20021118/geforcefx-11.html). Ayrıca F-buffer ile nv30'un esnekliğine cevap vermeye çalıştıklarını da hatırlıyoruz (bknzhttp://tech-report.com/reviews/2003q1/radeon-9800pro/index.x?pg=1, f-buffer ayrıntılarhttp://graphics.stanford.edu/projects/shading/pubs/hwws2001-fbuffer/fbuffer.pdf).

    Aslında shader 3.0 desteğinin ne kadar önemli olduğunu ancak zaman gösterecek. Nvidia yine kağıt üzerinde başarılı kalabilir (hızlı da olabilir tabi). Ame eğer hızlı olmazsa shader 3.0 desteği de tek başına itici güç olmayacaktır muhtemelen. Her iki üretici de destekleyene kadar geliştiriciler beklemeyi tercih edecekler mi bakalım.

    Teşekkür ederim.




  • infoman arkada?lar takdir konusunda haks?z de?iller ...siteye katk?n yads?namaz er bile olsan :))
  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.