Şimdi Ara

## GeForce GTX 200 Serisinin Resmi Saat Hızları ## (3. sayfa)

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
82
Cevap
0
Favori
8.854
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
0 oy
Öne Çıkar
Sayfa: önceki 12345
Sayfaya Git
Git
sonraki
Giriş
Mesaj
  • Kobb yaziyi bir yerden alintiladin mi yoksa oturup kendin mi yazdin bilmiyorum ama, ellerine saglik. Kafamdaki bir suru soruya yanit vermis oldun.

    Cunku, GTX 280'in $600+ fiyatinin mantikli olabilmesi icin, $500'luk 9800GX2'den saglam sekilde daha hizli olmasi gerekiyor. 9800GX2'nin 9800GTX (ve G92 GTS, 8800GT, 8800GTX vb.)'e kiyasla performansini dusunursek su ortaya cikiyor: GTX 280'in, G92 (ve G80)'e en az 2 kat fark atmasi gerekiyor, fiyatinin anlamli olmasi icin.

    Spesifikasyonlari okuyunca cok sasirdim cunku shader sayisi 1.9 katina cikmis ama shader clock 1500'den 1300'e indirilmis. Shader'larin islem gucunu kabaca kiyaslamak istersek 128 x 1500 = 192000 ve 240 x 1300 = 312000. Sonuc olarak 1.6 kat civari olmus oluyor. Ki, bu da %100 verim oldugu zamanlarda (gerci Nvidia'nin mimarisi [yani bir suru thread uzerinde 1 instruction] %100 civari verimle calistiriyor shader'lari).

    Fiyati dolayisiyla en az 9800GX2 kadar hizli olmasi gereken GTX 260 icin benzer hesaplamayi yaparsak 230.000 cikiyor onda da; yani 192000 olan G92'nin sadece biraz daha ilerisinde, ama 1.6-1.7 kat daha hizli olmak durumunda.

    (bu kaba hesaplamalar icin ROP, TMU unitelerini eklemeye gerek yok, cunku [g80'den beri ayri hardware'de calisiyor olmalarina ragmen] bu unitelerin isi SP'lerin bittigi yerde, yani pixel shader isini bitirdikten sonra devreye giriyor)

    Demek ki kalan farki da MUL'u "ekleyerek" saglamis NVidia.

    Peki, sadece MUL yapan ALU'larin kullanilamiyor olmasiyla ilgili bir makale ya da yazi gonderebilir misin? Zaten bir SP 3 birimden olusuyordu: integer scalar unit, flopt32 mad scalar ve flopt32 mul scalar. Bu MUL scalar unitesi hic mi calismiyormus yani oyunlarda? Ha bi de, bunlar floating point oldugu icin ALU degil de FPU olmuyor mu?



    < Bu mesaj bu kişi tarafından değiştirildi annihilator -- 27 Mayıs 2008; 1:07:13 >




  • ula adamlar görse varya bu konuşmaları şerefsizim biz bunlara paramı veriyoruz die oturup düşünür



    < Bu mesaj bu kişi tarafından değiştirildi JrMaster -- 27 Mayıs 2008; 1:15:27 >
  • Arkadaşlar zenginin parası züğürdün çenesini yorarmış diye bir söz var. çıkmamış kart için bu yorumları yapmaya gerek yok. hem çıksa bile hemen gidip alacakmısınız. zaten kartların fiyatları el yakıyor. Bir kart için birbirinizi kırmaya değmez
  • kesinlikle alinmaz yine alde patlar

    ati gdrr5 cikariyor dx 10.1 cikariuyor vsvs bu hala

    dx10 ardina bir daha cikaracak elde patliyacak
  • @fx57,haber için teşekkürler.

    @kobb,derin teknik bilgilerle desteklediğin,buna karşın hiçbir agresif iddia içermeyen yorumun çok güzel ve aydınlatıcı olmuş,teşekkürler.
  • Annihilator yazı en azından yeni gpuyla ilgili bazı noktaları aydınlattıysa ne mutlu... Bu arada ben biryerlerden alıntı yapmam. Ancak şu kadarını da ekleyelim ki GPU resmi olarak duyurulana kadar hiçbirşey %100 garanti değil.

    GTX 280'in 600+ doları haketmesi konusuna gelecek olursak bence burada kriter 8800 GTX olmalı. 8800 GTX fiyatının hakkını veriyor muydu? Eğer bu soruya bir kişi evet diyorsa bence aynı durum GTX 280 için de geçerli olabilir.

    Eksik MUL işlemi konusuna gelirsek eğer bu konu oldukça karmaşık. İlk olarak Beyond3D'de duyduk bu durumu sonra da konu birçok platformda dallanıp budaklandı:http://www.beyond3d.com/content/reviews/1/11

    Ancak Nvidia'nın kartlarıyla ilgili birtakım konular gibi bu konu hakkında da hiçbir zaman tam olarak sizin dediğiniz gibi bir makale çıkmadı. Sadece konudan anlayan kişilerin deneyimleri ve yorumları... Ve bir de konu hakkında yeterli bilgisi olmayan bir sürü kişinin yorumları... SP ile bu Interpolator birimleri konusu bile başlı başına karışık. Şu var ki Nvidia sadece insanların bilmesini istediği kadarını söylüyor kartları hakkında. Geri kalan hiçbirşeyden bahsetmiyor ve bu konuda Ati gibi cömert davranmıyor. Şu kadarını söyleyebilirim ki Nvidia'nın kendi sunumlarında ve notlarında bile 8800 GTX için mesela bazı yerlerde grafik üzerinde yaklaşık 520 GFlops, bazı yerlerde yaklaşık 350 GFlops gösterildiğini gördüm. Ama olay şu ki GF 8 serisi (ve GF 9 kartları) vermeleri gereken performansı verdiler. Sentetik testlerde bile.

    quote:

    Zaten bir SP 3 birimden olusuyordu: integer scalar unit, flopt32 mad scalar ve flopt32 mul scalar............. Ha bi de, bunlar floating point oldugu icin ALU degil de FPU olmuyor mu?


    Bu birimler ALU oluyor çünkü zaten sizin de yukarıda belirttiğiniz gibi sadece floating point işlemleri değil integer işlemleri ve hatta special function işlemleri de yapıyorlar. Bazıları sayısal olarak çok göz önünde olduğu için bu işlem birimlerinin sadece kayar nokta hesapları yaptığını zannediyor ki aslında bu işlem birimleri daha pek çok işlem yapıyorlar.




  • paralel islem birimi hizlari bir hayli dusmus
  • quote:

    Orjinalden alıntı: kobb

    Annihilator yazı en azından yeni gpuyla ilgili bazı noktaları aydınlattıysa ne mutlu... Bu arada ben biryerlerden alıntı yapmam. Ancak şu kadarını da ekleyelim ki GPU resmi olarak duyurulana kadar hiçbirşey %100 garanti değil.

    GTX 280'in 600+ doları haketmesi konusuna gelecek olursak bence burada kriter 8800 GTX olmalı. 8800 GTX fiyatının hakkını veriyor muydu? Eğer bu soruya bir kişi evet diyorsa bence aynı durum GTX 280 için de geçerli olabilir.

    Eksik MUL işlemi konusuna gelirsek eğer bu konu oldukça karmaşık. İlk olarak Beyond3D'de duyduk bu durumu sonra da konu birçok platformda dallanıp budaklandı:http://www.beyond3d.com/content/reviews/1/11

    Ancak Nvidia'nın kartlarıyla ilgili birtakım konular gibi bu konu hakkında da hiçbir zaman tam olarak sizin dediğiniz gibi bir makale çıkmadı. Sadece konudan anlayan kişilerin deneyimleri ve yorumları... Ve bir de konu hakkında yeterli bilgisi olmayan bir sürü kişinin yorumları... SP ile bu Interpolator birimleri konusu bile başlı başına karışık. Şu var ki Nvidia sadece insanların bilmesini istediği kadarını söylüyor kartları hakkında. Geri kalan hiçbirşeyden bahsetmiyor ve bu konuda Ati gibi cömert davranmıyor. Şu kadarını söyleyebilirim ki Nvidia'nın kendi sunumlarında ve notlarında bile 8800 GTX için mesela bazı yerlerde grafik üzerinde yaklaşık 520 GFlops, bazı yerlerde yaklaşık 350 GFlops gösterildiğini gördüm. Ama olay şu ki GF 8 serisi (ve GF 9 kartları) vermeleri gereken performansı verdiler. Sentetik testlerde bile.

    quote:

    Zaten bir SP 3 birimden olusuyordu: integer scalar unit, flopt32 mad scalar ve flopt32 mul scalar............. Ha bi de, bunlar floating point oldugu icin ALU degil de FPU olmuyor mu?


    Bu birimler ALU oluyor çünkü zaten sizin de yukarıda belirttiğiniz gibi sadece floating point işlemleri değil integer işlemleri ve hatta special function işlemleri de yapıyorlar. Bazıları sayısal olarak çok göz önünde olduğu için bu işlem birimlerinin sadece kayar nokta hesapları yaptığını zannediyor ki aslında bu işlem birimleri daha pek çok işlem yapıyorlar.


    Anladım, sağol. Zaten senin cevabını beklemeyip "missing MUL" diye arattığımda direk Beyond3D'nin forumları çıktı, oradan baktım:)

    GTX 280'in 600 doları hakedip haketmeyeceği, doğal olarak piyasadaki rakiplerinin fiyatlarına ve performanslarına göre değişecektir. Demek istediğim, şu an $500 civarında 9800GX2 varken, insanlar eğer GTX 280 daha hızlı değilse $600+ verip de GTX 280 almayacaktır. Dolayısıyla en azından %10 daha hızlı olmalı.

    Biraz araştırıp edindiğim bilgilere göre, GPU'daki compiler'in (NVidia'da "thread process manager" oluyor bu, cluster'larin hangi shader'lari hangi thread uzerinde çalıştıracaklarono söyleyen şey) koddan çıkardığı instruction'larin %30 civarı multiply oluyormus. Yani buna gore, direk FLOP hesabi yaparsak elde edeceğimiz "GTX 280'in shader basina %50 daha hızlı olacağı (ADD+MUL=2 yerine ADD+MUL+MUL=3)" ancak teorik peak hızda olabiliyor; normalde işlemlerin çoğu add olduğu için 1 multiply daha ekleyince reel uygulamalarda SP başına %50 performans artışı görmek mümkün değil, %20 civarı olması lazım. Bu yaklaşım doğru mudur acaba?

    Bu arada evet, 8800GTX'in asıl maksimum işlem gücü 128 * 1437 * 2 = 365 GFLOPS oluyor. NVidia'nın SP blok şemalarında gösterdiği gibi MADD + MUL olsa 550 GFLOPS olurdu.

    Tabii örneğin 3870x2'nin teorik çıktısı 1000 GFLOP civarı, ama GTX 280'in 1300 * 240 * 3 = 936 GFLOP. Yani bu teorik işlem gücüyle karşılaştırma yapmak çok mantıklı değil. Ama bence benzer mimarilerde (aynı markanın benzer mimarilerinde yani) bu şekilde karşılaştırma yapmak çok kötü sonuç vermemeli.




  • saat hizlari birsey ifade etmiyor, artik olay mimaride bitiyor.
    bu arada fx bravo, koca koca donanimhaber yazmissin resimlere ki bazi siteler hic haber kaynagi vermeden alinti/calinti yapiyorlar, bunu engellemissin:
    http://www.theinquirer.net/gb/inquirer/news/2008/05/24/gtx260-280-revealed
    yalniz, inquirer'a gore gtx280 r700'den cok kotu olacakmis (inquirer'in yalancisiyim)
  • 65 nm artık son sınırına geldi.Yeni mimariye artık geçmesi gerekiyor nvidianın
  • şu testler gelsin bir öyle bakalım..Zaten psu yandı garanti yapamazsa yeni alcam 550watt..Eralde yeter değil mi 4870 veya nvidia GTX 260'A???
  • horoz dovusu gıbı kım kımı yener-se...
  • nvidianın iddaası basit "yeni nesil 240 adet sp ile%50 daha fazla oyun performansı" her bi sp nin %50 daha fazla verimde çalıştığı iddaa edilmiyor, aradaki ayrıma dikkat. ayrıca nvidianın güç tüketim değerlerini makul tutmak adına sp hızlarını düşük tuttuğunu sanmıyorum, 65 nm çekirdek + 1.4 milyar transistor = aşırı yüksek ısı değerleri, belliki nvidia saat hızlarını istediği düzeye getirememiş, hedeflenenin çok altında kalmış, eğer nvidia güç tüketimine cidden çok önem veriyo olsaydı, bu 3. nesil dx10 kartlarında 55 nm. tekniğini kullanırdı hadi bunuda geçtim, gddr4 yada gddr5 bellek kullanarak güç tüketimini azaltırdı, ayrıca 1000 mhz üstü gddr3 belleklerde oldukça pahalı, olay nvidia çok ii bildiği 65 nm tekniğini kullanıyor değil, mesele şu ki nividia GT200 ü 55nm. ve gddr4 yada gddr5 kullanarak üretim yapmaya cesaret edemiyor, risk almak istemiyor, o yüzden ilk etapta güç ve ısı durumunu 2. plana atarak performansı garanti ama eski bilindik teknikle (65 nm.) bi kart yapmak istiyor arkasından zaten 55 nm versiyonların hazırlanacağı belirtilmiş, ama bunun yan etkileride var, istenen saat hızlarının tutturulamaması, aşırı yuksek guç ve ısı değerleri ve aşırı yuksek maliyetler, çok yakında nvidianın gt200 ü 55nm. gddr4-5 olarak hazırlayacağına hiç şüpheniz olmasın.

    ayrıca "nvidia böyle yapıyosa bi bildiği vardır, nvidia böyle dedi demekki böyle olcak, nvidia bunu böyle yapmayı bilmiyomuydu sanki" gibi söylemler komik cidden, ati çok başarılı x1900 deki nokta tarayıcıların çalışma mantığını neden direk R600 e adapte etmedide shaderların çalışma mantığını değiştirdi farklı bi yol izledi ati bilmiyomuydu sanki, evet bilmiyoduki böyle oldu, amd neden phenomlarda l2 cache leri düşük tuttu ve çok önceleri başına gelmiş olmasına rağmen neden TLB hatası tekrar etti, amd bilmiyomuydu, demekki bilmiyodu, yada intel in prescott ları neden boktandı, intel bilmiyomuydu. bunları gecelim artık nividia önce bellek mimarisini adam etsin, bellek yönetimi nasıl yapılır önce bunu öğrensin.



    < Bu mesaj bu kişi tarafından değiştirildi tobold -- 27 Mayıs 2008; 10:08:30 >




  • benmi yannış okudum biraz düşük degilmi bunlar yahu???
  • quote:

    Orjinalden alıntı: tobold

    nvidianın iddaası basit "yeni nesil 240 adet sp ile%50 daha fazla oyun performansı" her bi sp nin %50 daha fazla verimde çalıştığı iddaa edilmiyor, aradaki ayrıma dikkat. ayrıca nvidianın güç tüketim değerlerini makul tutmak adına sp hızlarını düşük tuttuğunu sanmıyorum, 65 nm çekirdek + 1.4 milyar transistor = aşırı yüksek ısı değerleri, belliki nvidia saat hızlarını istediği düzeye getirememiş, hedeflenenin çok altında kalmış, eğer nvidia güç tüketimine cidden çok önem veriyo olsaydı, bu 3. nesil dx10 kartlarında 55 nm. tekniğini kullanırdı hadi bunuda geçtim, gddr4 yada gddr5 bellek kullanarak güç tüketimini azaltırdı, ayrıca 1000 mhz üstü gddr3 belleklerde oldukça pahalı, olay nvidia çok ii bildiği 65 nm tekniğini kullanıyor değil, mesele şu ki nividia GT200 ü 55nm. ve gddr4 yada gddr5 kullanarak üretim yapmaya cesaret edemiyor, risk almak istemiyor, o yüzden ilk etapta güç ve ısı durumunu 2. plana atarak performansı garanti ama eski bilindik teknikle (65 nm.) bi kart yapmak istiyor arkasından zaten 55 nm versiyonların hazırlanacağı belirtilmiş, ama bunun yan etkileride var, istenen saat hızlarının tutturulamaması, aşırı yuksek guç ve ısı değerleri ve aşırı yuksek maliyetler, çok yakında nvidianın gt200 ü 55nm. gddr4-5 olarak hazırlayacağına hiç şüpheniz olmasın.

    Dediğine bende katılıyorum güç tüketimi ile saat hızlarının bir ilgisi yok eğer buna önem verseydi 55nm ile bu gpu ları üretirdi (hatta 45nm olsa daha iyi olurdu) ve ddr5 kullanırdı aslında bu seri alınmamalı bir nevi bu deneme aşaması olucak tabi bu kartlarda herhangi bir aksaklık olacak manasında söylemiyorum sadece güç tüketimi yönünden iyi değil 9800gx2 de aynı güç tüketimine sahip ama çift gpu lu bir model tek gpu lu bir kartta güç tüketimi biraz daha az olmalı çünkü bununda çift gpu lu modelleri olacaktır birsonraki serinin hem 55nm hemde ddr5 olmasada ddr4 olarak gelmesine ben kesin gözle bakıyorum buda güç tüketimine olumlu yansıyacaktır



    < Bu mesaj bu kişi tarafından değiştirildi Cpt. Miller -- 27 Mayıs 2008; 10:23:11 >




  • Shader ve gpu hızları beklediğimiz gibi gelmemiş olabilir fakat demekki ısı problemi devam ediyor ki
    daha fazla yükseltememişler.512bit ten iyi verim alınabilirse gerçekten rakip tanımaz bu kartlar
  • quote:

    Orjinalden alıntı: larnon

    Yine nVidia ATI'yi oyunlarda geçecek ama 3DMark gibi programlarda ATI fark atcak. Neden? Çünkü nVidia oyun yapımcıları ile anlaşıyor. ATI'yede fiyatları indirmek düşüyor böylece F/P oranı yüksek oluyor.nVidia ise en hızlı ekran kartını üretiyor.Nesillerdir bu böyle.


    ATI'nin 9700 serisini piyasaya sürdüğü ve Nvidia'nın Ti4600 üretiiği dönemlerde pek böyle olmuyordu.

    Bazı arkadaşlar GT260'a takoz demiş. O takoz dediğiniz kartın şu andaki tek GPU'lu en hızlı karttan çok daha hızlı olacağına emin olabilirsiniz.

    Yorumlar genellikle yeni GPU'lara geçişte hiçbir teknolojik iyileştirme yapılmadığı düşünülerek yapılıyor. Şunu kesin olarak söyleyebilecek var mıdır ? Eğer kağıt üzerinde bütün rakamlar bire bir aynı olsaydı, yeni kartlar bir önceki nesil ile aynı parformansı verirdi.

    Konuşulanları şuna benzetiyorum : Bir araç var ve bu araç 2000 cc 4 silindirli. Bir başka araç 1800 cc fakat 5 silindirli. Şimdi ikisi arasında hangisinin daha güçlü olduğunu söyleyebilir misiniz ?




  • quote:

    Biraz araştırıp edindiğim bilgilere göre, GPU'daki compiler'in (NVidia'da "thread process manager" oluyor bu, cluster'larin hangi shader'lari hangi thread uzerinde çalıştıracaklarono söyleyen şey) koddan çıkardığı instruction'larin %30 civarı multiply oluyormus. Yani buna gore, direk FLOP hesabi yaparsak elde edeceğimiz "GTX 280'in shader basina %50 daha hızlı olacağı (ADD+MUL=2 yerine ADD+MUL+MUL=3)" ancak teorik peak hızda olabiliyor; normalde işlemlerin çoğu add olduğu için 1 multiply daha ekleyince reel uygulamalarda SP başına %50 performans artışı görmek mümkün değil, %20 civarı olması lazım. Bu yaklaşım doğru mudur acaba?


    Daha önceden sizin de dediğiniz gibi Geforce 8'de neredeyse %100'e varan MADD görevlendirmesinde bir sıkıntı yok. Her durumda mesela 8800 GTX için 345 GFlops değeri çok küçük kayıplar dışında yakalanıyor. G200'deki ekstra MUL durumunu ise bekleyip görmek lazım. Elbette %50 de peak bir değer ve MADD gibi %100'e yakın bir verimle gerçekleşmeyebilir. Bu durum elbette yine derleyicilerin ve thread görevlendirici birimlerin kabiliyetine göre ve de koda göre değişebilir. Yani %50'lik artış yine her durumda olmayabilir. En iyisi bekleyip görmek.

    quote:

    Tabii örneğin 3870x2'nin teorik çıktısı 1000 GFLOP civarı, ama GTX 280'in 1300 * 240 * 3 = 936 GFLOP. Yani bu teorik işlem gücüyle karşılaştırma yapmak çok mantıklı değil. Ama bence benzer mimarilerde (aynı markanın benzer mimarilerinde yani) bu şekilde karşılaştırma yapmak çok kötü sonuç vermemeli.


    Evet, aynı mimarilerde teorik karşılaştırma oldukça iyi bir fikir verebiliyor genellikle. Ama ara sıra vermediği durumlar da ortaya çıkıyor. Ama genelde dediğinize katılıyorum.

    -------------------------------

    Arkadaşlar dediğim gibi bu konu %100 kesinleşmiş birşey değil sadece konuyla ilgilenen birçok kişi - ki ben de - olayın böyle olabileceğini düşünüyor. Sadece biz değil konu hakkında bilgisi olan bazı haber siteleri de aynen bizim anladığımız gibi bir anlam çıkarmış bu verilerden. +%50'lik artış tam eksik MUL'u karşılıyor ve SP başına olan oyunlardaki kayar nokta işlem gücünü 2 Flops'dan 3 Flops'a çıkarıyor. Bu konu G200 çıkınca netliğe kavuşacak. %100 birşey yok ama olma olasılığı var.

    Performans/güç tüketimi konusunda yaptığım açıklama sanırım yeterince açık olmamış. Benim demek istediğim burada Nvidia'nın güç tüketimini düşürmek istemesi ya da güç tüketimini makul seviyelerde tutmak istemesi değil, aşağıda belirttiğim gibi belli bir hedef güç tüketimi değeri için olabilecek en yüksek performansa ulaşacak mimarinin yapılması. Yani hedef zaten 230-240 watt ki ATi HD 4870 X2 çıkınca o da böyle birşey olacak. Zaten HD 4870 şu an 150+ W değil mi? Olay şu: Nvidia yeni bir üst sınıf gpu yapmak istiyor. Mühendisler bu yeni nesil gpu için kendilerine belli dizayn kriterleri koyuyorlar. Bu kriterler (ya da limitler diyelim) gpu büyüklüğü, güç tüketimi transistör sayısı gibi şeyler olabilir. Hedeflenen şey maliyeti olabildiğince düşük tutmaksa mesela gpu büyüklüğü limitleri daha proje başlarken bu göz önünde bulundurularak yapılır. Güç tüketimi, transistör sayısı, gpu büyüklüğü gibi değerler gpu bitmesine yakın ya da dizayn oluştukça ortaya kendiliğinden çıkan değerler değil. Baştan az çok belirleniyorlar.

    Nvidia da 225-250 W arası (ki aylardır gelen bilgi hep bu aralığı gösteriyor) bir hedef seçmiş yeni gpusu için. Niçin böyle bir değer? Çünkü bu en üst seviye bir gpu olacak. Fiyat/Performans'a oynayan bir performans serisi gpu değil. Daha sonra yapılan şey dediğim gibi bu güç tüketim aralığında bir gpunun nasıl daha hızlı yapılabileceği. Yani Nvidia mesela 180 tane 1.6 GHz hızında çalışan SP yerine 240 tane 1.3 GHz hızında çalışan SP'yi daha yüksek performanslı bulmuş olabilir. Ve sonuçta mesela iki gpu da 240 W güç tüketimine ulaşıyorsa Nvidia tabii ki daha yüksek performanslı olan 240 SP@1.3 GHz kombinasyonu tercih edecektir.

    Buradan demek istenen Nvidia'nın güç tüketimini düşürmek istediği değil. Mantık bu değil. Olayın mantığı hedeflenen bir güç tüketim değeri için olabilecek en yüksek performansı vermek. Yani düşük güç tüketimi değil, olabilecek en yüksek performans. Ancak elbette Nvidia çok başarılı olacak diye bir kural yok. Nvidia en doğrusunu yaptı diye birşey de yok. Durumu kart çıkınca anlayacağız.

    Ayrıca Nvidia hızları düşük tuttu deniliyor ama neye göre düşük?

    Kaç olmalıydı ki? 600 MHz çekirdek bence gayet normal. 2200 MHz bellek de normal. 1300 MHz SP hızı genel çekirdek hızına oransal olarak mesela G92'ye göre düşük, 1500 MHz gibi bir değer olmalıydı ama bu SP'lerin içeriğini tam olarak bilmiyoruz. Pekala Nvidia bu 150-200 MHz'lik farkı başka başka türlü kazanım yolları bulmuş olabilir. Olmayabilir de tabii. Bunu göreceğiz.

    Ama şu var ki 1.3 GHz hızıyla Nvidia 1 TFlops değerini az bir farkla kaçırıyor (1.4 GHz olsa 1 Tflops edecekti). Bu eminim istedikleri birşey değildi. Sonuçta 1 Tflops değeri iyi bir pazarlama malzemesi. Bunu tutturamamış olma ihtimalleri var tabii. Bu durumun iç yüzü kart çıkınca anlaşılır.

    G200 isminin de vurguladığı gibi 3. nesil değil, 2. nesil bir DX10 kartı. Zaten Nvidia da bu mimariyi 2. nesil birleşik shader mimarisi olarak adlandırmış. Geforce 9 sadece pazarlama kaygıları nedeniyle Geforce 9 olarak isimlendirildi. Hatta GF 8'le çoğunlukla aynı gpuları (G92 ve G98) kullanmıyor mu? 9800 GX2'ye 8800 GX2 denseydi kaç kişi itiraz ederdi?

    Nvidia elbette 55 nm tekniğini maceraya atılmamak için kullanmıyor. Her seferinde olmaz ama ya bir kerelik bile olsa üretimde sıkıntı yaşarsa ve gpular piyasaya olması gerektiğinden geç çıkarsa? NV30 bir örnek. R600'ün 80 nm olması, R520'nin 90 nm olması sizce değdi mi ATi'nin zararlarına? Bana göre değmedi. Sonuçta günün sonu geldiğinde önemli olan kasada ne kadar paranın biriktiğidir. Bu hayatın gerçeği. Ve bazen bir eski silikon tekniğiyle üretip gpuyu piyasaya erken sürmek çok daha uzun süre gpuyu rakipsiz satacağınız için silikonu daha yeni bir silikon tekniğiyle üretip daha ucuza maletmekten çok daha fazla ekonomik getiri sağlayabilir. GPU'lar aynı anda bile çıksa bile biraz daha az kar marjı ile satarsınız ama yine de risk almamış olursunuz. Bence akıllıca.

    GDDR4 ve GDDR5 kullanmak da emin olun iş değil. Ancak GDDR4'ün doğru dürüst hiçbir getirisi yok. GDDR5 için ise şu an stok sıkıntısı yaşanıyor çünkü oldukça yeni. Şu an ATi'ye GDDR5'i Qimonda veriyor diye biliyorum. Qimonda GDDR4'ü hemen hiçbir getirisi olmadığı için pas geçip doğrudan GDDR5 üretimine yönelmişti. Samsung ve Hynix de partiye katılacaktır. Ancak bu durum HD 4870'in durumunu etkiliyor. Kart sırf bellek yetersizliği sebebiyle piyasada ancak temmuz ayında hacimli sayıda olacak. Bu GDDR5 bellekler için tek bir kart modeline bile yetebilecek kadar stok olmadığını gösteriyor. Nvidia bu durumda GDDR5 kullanmak isteseydi aynı stok sıkıntılarını yaşayacaktı. Niçin böyle bir belirsizliğe mahal versinler ki? GDDR3 512 ya da 448 bit bellek kontrolcüsüyle birleşince oldukça iyi sonuçlar verecektir. Ayrıca GDDR5'in ilk çıktığı ve stoklarda sıkıntı olduğu şu ilk zamanlarında oldukça oturmuş bir teknoloji olan 0.833 ns GDDR3 ve 1 ns GDDR3'e göre fiyatlarının çok yüksek olduğunu kestirmek de hiç de zor değil. GDDR4 bile oldukça pahalı. Niçin daha pahalı bellek kullansın? Kaldı ki hızlı biraz daha pahalı olan 0.833 ns'lik GDDR3'ler sadece GTX 280 gibi 600+ dolar fiyat etiketli yani kar marjı son derece yüksek olan bir üründe kullanılacak. 1 ns.'lik belleklerdense bahsetmeye gerek yok. Artık iyice ayağa düştüler. Maliyetleri çok çok ucuz kartlar dışında her kartta kullanılabilecek kadar düşük.




  • @kobb yazdılarını okudum bazı arkadaslar gibi bos seyler yazmamıssın bu yuzden fikirlerini paylastıgın icin teskler....ati nin gddr5 durumuna gelince bencede bir stok krizi olacaktır..bu yuzden hem gdd3 hemde gddr5 kullanımı icin iki ayrı alternatif dusunmuste olabilirler...ama 512bit bir kartta gddr3 ve gddr5 arasında bi perf. farkı olacagını dusunmuyorum...hem 512bit hemde gddr5 bu kadar bant genisiligine suanda gereksinim duyacak ir oyun olmadıgını dusunuyorum...ama nvidia 512bit olayını standart hale getirirse alt-tab sorunununa cozmus olacagını dusunuyorum...



    < Bu mesaj bu kişi tarafından değiştirildi F.@.T.İ.H -- 27 Mayıs 2008; 15:05:59 >
  • quote:

    Orjinalden alıntı: bulentozi1905gs

    insanlar ati shader hızı düşük diye kızıyolarda demekki atinin bir bildiği varmış

    Cidden güzel espriydi

    Saat hızları düşük gibi gözükse de gt280 performansıyla bunları unutturacaktır diye düşünüyorum..
  • 
Sayfa: önceki 12345
Sayfaya Git
Git
sonraki
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.