Şimdi Ara

Ve Nvidia açıkladı: Yüksek performanslı bilgi-işlem için işlemci geliştiriyoruz (2. sayfa)

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
40
Cevap
0
Favori
3.261
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
0 oy
Öne Çıkar
Sayfa: önceki 12
Sayfaya Git
Git
Giriş
Mesaj
  • quote:

    Orijinalden alıntı: sadtneverdie

    quote:

    Orijinalden alıntı: .45 ACP

    yanlis baslik mobile kurbani.su super intel islemcilerinizi upgrade edin be kardesim forum cokup duruyor.


    arm çok hızlı güçleniyor. arm çok hızlı güçleniyor olmasa windows 8 arm desteğiyle gelmezdi. biraz ileriyi görmeyi dene bundan 5 sene sonra sen evinde dev gibi kasa mı? yoksa lcd ye usb den bağlayıp her işini halledebileceğin bir alet mi istersin? bundan 30 sene önce dev gibi salonlarda kullanılan bilgisayarlar şu an evimizde ve minicik. tegra 2 bir bilgisayarı bir telefon boyutuna sığdırdı. sor bakalım kendine arm mi küçük senin hayalgücün mü?


    senin hayalgucun yaninda arm filan halt etmis.ms oyle bir destek verecek ki x86si olmayan arm ortalikta intel amd filan birakmayacak winarm olacak he mi?




  • quote:

    Orijinalden alıntı: sahafiec
    @OverClocKing
    iyi güzel yazmışsın sağ ol da yazma amacın daha detaylı bilgi paylaşmak mı birilerini küçümsemek mi anlaşılmadı pek.
    hem kendi adına hemde benim adıma yazmaya özen gösterip gereksiz atıf ve karşılaştırmalarda bulunuyorsun.
    hayırdır? yaşını yazmasaydın bari de gençliğe ve hevese bağlasaydık bunları..

    farkında değilsin belki ama işlemci konusunda habire GPU'lardan bahsediyorsun...neyse uzatmak istemiyorum, belli ki anlamsız.
    sen fikrini değiştirme ama onu beyan ederken başkalarına bilgisiz ve düşüncesiz muamelesi de yapma.
    nasıl olsa 2 sene sonra hem ARM'ı hemde seni görücez, bu kaçınılmaz...

    Dostum beni yanlış anlamışsın sanırım. Seninle sürekli forumda bilgi paylaşımı yapıyoruz. Neden seni veya bir başkasını küçümseyeyim ki?

    Yaşım zaten Profilimde de yazıyor da. Benim orada dikkat çekmek istediğim şey çok eskiden beri teknolojiyi takip ediyorum. Üstelik çok içerisindeyim. Şu an bunların bu hızına bakılacak olursa gerçekten dediklerim hayal olmayabilir. Keşke olmasa da dediğim gibi hızla gelişse. Çok güzel şeyler bunlar. Umarım olur da Dünya daha güzel bir yer haline gelir.

    GPU dan bahsediyorum çünkü CPU yu aştılar. Ve göreceksin bu işin çözüm yolu GPU. nVidia öyle bir CPU yapacak ki aynı zamandan süper bir GPU olacak. Ve inşallah ARM tabanlı olacak. Normal işletim sistemini de hızlandıracak. Ben öyle öngörüyorum. Umarım yanılmıyorumduır.

    Niyetim seni kırmak değildi. Bu forumdaki aklı başında herkesi dostum olarak görüyorum. Sen de onlardan birisisin. Umarım 2 sene sonra da öyle kalırsın ve bu günleri yâd ederiz. Görüşmek üzere.




  • benim de amacım kırılmak değil zaten ve bu yazdıklarına kısmen hak vermiyorum değil.

    gel gelelim şu anda bulunduğumuz noktayı fazlasıyla aşıyor bu öngörüler, ki haberin kendisi de henüz bir anons niteliğinde.
    elde avuçta daha ne CPU var ne GPU içinde CPU ve daha epey bir süre işletim sistemi için CPU kulanmak zorunda kalacağız.
    nVidia bile buna CPU adını veriyorsa amaç açık ortada zaten...

    demek istediğim bu yoksa bende birkaç zaman önce yakında akıllı telefonlar konsoldan daha iyi grafik sergileyebilir dediğimde bazıları bir dediğini bırakmamıştı. bu tür insanları dikkate bile almamak gerek, o başka mesele...

    ARM son yıllarda mobil iletişim sektörü sayesinde çok hızlı gelişti bu bir gerçek.
    fakat ben şu an için onun x86 mimarisi karşısında ezici bir avantajını göremiyorum mobil platformlar dışında.
    tam tersine düşük güç tüketimi için tasarlındığından performansı mobil cihazların dışında kullanımını oldukça sınırlıyor.

    bunlar tabii şu an için geçerli, nVidia ve ya diğer ARM üzerinde yoğun çalışma yapan firmalar bunu başka bir boyuta taşıyacakmı hep birlikte görücez.



    < Bu mesaj bu kişi tarafından değiştirildi sahafiec -- 6 Ocak 2011; 14:49:14 >




  • quote:

    Orijinalden alıntı: sahafiec
    tam tersine düşük güç tüketimi için tasarlındığından performansı mobil cihazların dışında kullanımını oldukça sınırlıyor.

    Gülüm benim işte bak yukarıda biraz sığ düşünmüşsün. Hani Ahmet Şerif İzgören'in olayların bütününe bakabilme olayı var ya bilmiyorum biliyor musun...
    Olayların bütününe bakabilme. Ben bunu çok iyi yapıyorum. Hatta belki de en iyi olduğum konudur..

    Tamam senaryo şöyle: Cihaz telefon. Yolda oyun oynamak için açıyorsun. 10 tane oyun yüklü. Bazıları çok güçlü konfigürasyon istiyor bazıları normal.
    Telefonun 2.5Ghz 8 çekirdekli işlemcisi var ama 1.2Ghz de 4 çekirdek olarak çalışıyor.
    Yolda giderken normal oyunları oynuyorsun. Diğer güçlü olanı açtığında sana cihazı elektriğe takıp harici ekran kartını bağlayınız diye bir yazı çıkıyor. Tabi oyunu açmıyor.
    Eve gidiyorsun. Harici bir docking station var. Üzerinde ekran kartı var ve telefonun gireceği bir soket var. Oturtunca da telefon elektriğe bağlanmış oluyor. Aynı zamanda Power Mod a geçiyor ve 8 çekirdek kullanılabilir hale geliyor. Tabi daha fazla güç çektiği için elektrik ihtiyacı duyuyor ama çok yüksek işlem gücü veriyorlar diyelim ve oturttuğun yuvanın üzerinde Tegra 5 var diyelim. Oyunu açıyorsun oynuyorsun, Internete giriyorsun, her istediğini yapıyorsun, 8 çekirdek ve her birisi 2.5Ghz. Abarttığımı söyleme çünkü 2.5 Ghz yapılıyormuş diye duymuştum.

    Şimdi yukarıdaki anlattığımda ne var yanlış olan? Bana hiç hayal gibi gelmiyor. Neden olmasın. Dün akşam Motorola yeni çıkarttığı telefonunda aynı bunun gibi bir Netbook vereceğini ve telefonu oturtunca PC gibi kullanılacağını söyledi. Bu beni doğruluyor.
    Neden olmasın ki ?

    Aynı bunun gibi:
    Ve Nvidia açıkladı: Yüksek performanslı bilgi-işlem için işlemci geliştiriyoruz




  • quote:

    Orijinalden alıntı: OverClocKing

    quote:

    Orijinalden alıntı: sahafiec
    tam tersine düşük güç tüketimi için tasarlındığından performansı mobil cihazların dışında kullanımını oldukça sınırlıyor.

    Gülüm benim işte bak yukarıda biraz sığ düşünmüşsün. Hani Ahmet Şerif İzgören'in olayların bütününe bakabilme olayı var ya bilmiyorum biliyor musun...
    Olayların bütününe bakabilme. Ben bunu çok iyi yapıyorum. Hatta belki de en iyi olduğum konudur..

    Tamam senaryo şöyle: Cihaz telefon. Yolda oyun oynamak için açıyorsun. 10 tane oyun yüklü. Bazıları çok güçlü konfigürasyon istiyor bazıları normal.
    Telefonun 2.5Ghz 8 çekirdekli işlemcisi var ama 1.2Ghz de 4 çekirdek olarak çalışıyor.
    Yolda giderken normal oyunları oynuyorsun. Diğer güçlü olanı açtığında sana cihazı elektriğe takıp harici ekran kartını bağlayınız diye bir yazı çıkıyor. Tabi oyunu açmıyor.
    Eve gidiyorsun. Harici bir docking station var. Üzerinde ekran kartı var ve telefonun gireceği bir soket var. Oturtunca da telefon elektriğe bağlanmış oluyor. Aynı zamanda Power Mod a geçiyor ve 8 çekirdek kullanılabilir hale geliyor. Tabi daha fazla güç çektiği için elektrik ihtiyacı duyuyor ama çok yüksek işlem gücü veriyorlar diyelim ve oturttuğun yuvanın üzerinde Tegra 5 var diyelim. Oyunu açıyorsun oynuyorsun, Internete giriyorsun, her istediğini yapıyorsun, 8 çekirdek ve her birisi 2.5Ghz. Abarttığımı söyleme çünkü 2.5 Ghz yapılıyormuş diye duymuştum.

    Şimdi yukarıdaki anlattığımda ne var yanlış olan? Bana hiç hayal gibi gelmiyor. Neden olmasın. Dün akşam Motorola yeni çıkarttığı telefonunda aynı bunun gibi bir Netbook vereceğini ve telefonu oturtunca PC gibi kullanılacağını söyledi. Bu beni doğruluyor.
    Neden olmasın ki ?

    Aynı bunun gibi:
    Ve Nvidia açıkladı: Yüksek performanslı bilgi-işlem için işlemci geliştiriyoruz



    hocam iyi güzel hoş hayaler kuruyosunda,o küçücük telefonun içindeki o muazzam güce sahip işlemcisini nasıl soğutmayı düşünüyosun?



    < Bu mesaj bu kişi tarafından değiştirildi atyay -- 6 Ocak 2011; 16:43:03 >




  • Tamam da zaten 2.5Ghz 2011 veya 2012 de Akıllı telefon işlemcilerini çıkacağı söylendi. Hatta haberi bile vardı.
    Nasıl soğutacaklar? = Nanometrik küçülme, düşük voltaj, yüksek verimlilik vs. vs.

    Graphene adı verilen madde ile silicon un üzeri kaplandığı zaman yüksek saat hızlarında sinyalde bozulma olmuyor.

    1000Ghz işlemci yapılabilecek. Hatta 750Ghz çalışan transistör yapıldı. Birkaç yıl sonra cep telefonlarında bile 50Ghz falan gibi hızlar görebiliriz.
    Intel 1000 çekirdek mümkün dedi diye haber vardı geçen gün.

    Bunları Intel söyleyince "Adamlar yapar" oluyor, ben söyleyince Hayal oluyor. Niye inanmıyorsunuz anlamıyorum.

    Samsung dün 3D Gözlük çıkarttı. Kablosuz şarj oluyor, ben telefon 8 çekirdek olabilir diyince millet bana saldırıyor Pil dayanmaz diye.
    Nedir ben anlamadım. Biraz inanın teknolojiye...

    Neler neler çıkıyor âdete bilim kurgu filmlerinden fırlamış gibi görüyoruz. Ama hâlâ inanmıyoruz. Bundan 1 sene önce wireless sinyallerini elektriğe dönüştüren cihaz üretildi hatta 60$ a satılıyordu ve hâlâ satılıyor.
    Her yerde wireless var. Telefona yapsalar sürekli şarj olur. Onu da yapacaklar. O da yakında çıkabilir...

    Saygılar.




  • quote:

    Şimdi yukarıdaki anlattığımda ne var yanlış olan? Bana hiç hayal gibi gelmiyor. Neden olmasın. Dün akşam Motorola yeni çıkarttığı telefonunda aynı bunun gibi bir Netbook vereceğini ve telefonu oturtunca PC gibi kullanılacağını söyledi. Bu beni doğruluyor. Neden olmasın ki ?

    istediğini istediğin gibi yorumlayıp, istediğine bir kanıt olarak görmek senin hakkın tabii ki - hayal kurmak da öyle.
    bana kalırsa asıl kafa karıştıran bir günümüzden bir yakın gelecekten birde aniden uzak gelecekten bahsedip bunları iyice birbirine karıştırman.

    bunlara dayanarak da "siz sığ düşünüyorsunuz, ben olayın bütününe bakabiliyorum" diyorsun...

    e iyi madem, kolay gelsin...




  • Huang, "tegra bizim geleceğimiz demişti" ileride bu söz çok hatırlanacak.
  • quote:

    Orijinalden alıntı: OverClocKing

    Tamam da zaten 2.5Ghz 2011 veya 2012 de Akıllı telefon işlemcilerini çıkacağı söylendi. Hatta haberi bile vardı.
    Nasıl soğutacaklar? = Nanometrik küçülme, düşük voltaj, yüksek verimlilik vs. vs.

    Graphene adı verilen madde ile silicon un üzeri kaplandığı zaman yüksek saat hızlarında sinyalde bozulma olmuyor.

    1000Ghz işlemci yapılabilecek. Hatta 750Ghz çalışan transistör yapıldı. Birkaç yıl sonra cep telefonlarında bile 50Ghz falan gibi hızlar görebiliriz.
    Intel 1000 çekirdek mümkün dedi diye haber vardı geçen gün.

    Bunları Intel söyleyince "Adamlar yapar" oluyor, ben söyleyince Hayal oluyor. Niye inanmıyorsunuz anlamıyorum.

    Samsung dün 3D Gözlük çıkarttı. Kablosuz şarj oluyor, ben telefon 8 çekirdek olabilir diyince millet bana saldırıyor Pil dayanmaz diye.
    Nedir ben anlamadım. Biraz inanın teknolojiye...

    Neler neler çıkıyor âdete bilim kurgu filmlerinden fırlamış gibi görüyoruz. Ama hâlâ inanmıyoruz. Bundan 1 sene önce wireless sinyallerini elektriğe dönüştüren cihaz üretildi hatta 60$ a satılıyordu ve hâlâ satılıyor.
    Her yerde wireless var. Telefona yapsalar sürekli şarj olur. Onu da yapacaklar. O da yakında çıkabilir...

    Saygılar.

    iyi güzel hayaler kuruyosun derken şuan öyle bişey yok ama olursa çok güzel olur manasında söyledim yanlış anlaşmışsın beni:)

    yalnız bu docking station olayını tam anlayamadım açıkçası,yani madem telefondaki işlemci prize bağlı değilken tam performansta çalışmıycak ve tam performansa prize takılıyken geçicek ozaman niye çok çok daha güçlü bi işlemciyi docking stationda barındırmak ve soğutmasınıda daha kolay sağlamak varken telefonda kulanılan işlemcinin hızını düşürüp maliyetini artırıyoruz

    bide yukarda yazdığın bişeye değinmek istiyorum
    "GPU dan bahsediyorum çünkü CPU yu aştılar. Ve göreceksin bu işin çözüm yolu GPU. nVidia öyle bir CPU yapacak ki aynı zamandan süper bir GPU olacak. Ve inşallah ARM tabanlı olacak. Normal işletim sistemini de hızlandıracak. Ben öyle öngörüyorum. Umarım yanılmıyorumduır."
    bu konuda hala daha tam olarak anlaşılmayan şeyler var ancak yaşının verdiği tecrübeyle belki bilmediğim bişey biliyosundur diye basitce sormak istiyorum
    bugün piyasadaki gpu lar neden cpulardan daha güçlü?




  • quote:

    Orijinalden alıntı: OverClocKing

    quote:

    Orijinalden alıntı: sahafiec
    yani sen diyorsun ki 2 sene içinde ARM x86'nin son yıllarda gösterdiği tüm mimari gelişmeyi, Sandy Bridge ve Buldozer'i geride bırakır unutturur resmen. öyle mi?
    yazdıklarında buna ilişkin hiçbir mimari dayanak ve destek görmüyorum ama.
    mobil dünyasındaki gelişmeleri birebir masaüstü ve hatta sunucu dünyasına taşımak nekadar doğru artık sen karar ver.
    "gürünen köy kılavuz istemez" diyorsun ama bence de biraz "denizi görmeden paçaları sıyırıyorsun" hocam....

    Bak şimdi. Normalde haklısın. Kulağa saçma geliyor. Gerçekten de öyle. Fakat ben 35 yaşında birisiyim ve yanlış anlama yaşım büyük falan anlamında söylemiyorum.
    Sebebi şu: Gençken yani 20 li yaşlarda insan daha bir hayal etmeyi seviyor. Ben 25 yaşında olsam amma sallardım. Fakat benim bir özelliğim var:
    Olayların bütününe çok iyi bakabiliyorum. İyi analiz ederim. Bir de tahmin duygum çok kuvvetlidir. Bir şey söylemeden önce her zaman iyice tartıp, düşünüp söylüyorum.

    Normalde dediğim 2 sene olayı saçma gelebilir. Yıllardır geliştirilen bir mimariden bahsediyoruz değil mi ? Intel'in teknolojisinden bahsediyorum.
    Evet ama sadece Intel geliştirdi. ARM'ı ise 25 firma birden geliştiriyor.

    Şu an Tesla denilen GPU sistemi süper bilgisayarlarda kullanılıyor ve CPU dan daha güçlü.
    nVidia da işlemci işine girdi. Sanıyor musun ki sadece sunucu için üretecek. Ben sanmıyorum. nVidia Microsoft'un da ARM için Windows çıkartacağını duydu ya. Öyle bir işlemci üretecek ki GPU dan güç alacak.
    İşte o zaman göreceksin neden yakın dediğimi. Çünkü ARM zaten Tegra2 ve 3 te de kullanılan mimari. nVidia zaten bunu yıllardır geliştiriyor. Adamların işleri de ekran kartı. Dolayısıyla GPU su güçlü bir cihaz Sandybridge i de geçebilir.

    Tabi sen buna güleceksin. Tarihte ne insanlar var nelere gülmüşler. IBM ile Bill Gates anlaşma yaptığı zaman "Ben bu DOS'u başkasına da satmak istiyorum" dediğinde IBM: "Satarsan sat. Yazılım işinde para yok ki. Bilgisayar satışında var" demişti.
    Ama nooldu bak..

    Haa diyelim öyle bir GPU geliştirdiler ve Tegra 5 dediler diyelim. Bu GPU illa akıllı telefonda kullanılacak diye bir şey yok. Kandi anakartı veya sistemi üzerinde kendi soğutucusu ile de çalışabilir.

    Mimari dayanak yok demişsin. Evet var. ARM. Başka dayanağa ne gerek var. Windows çıksın. ARM da çalışsın. Ben geçmek isterim. Haa akıllı telefon yapılır. Saat hızı düşük veya özellikleri kapalı çalışır. Eve gelip docking stationa takınca tam güce geçer. Mesela böyle bir şey yapılabilir. Şundan 4 sene önce cep telefonlarının işlemcileri tek çekirdekli ve 369Mhz idi. Şu an 4 çekirdek 1.2Ghz yapılıyor ve 6 ay var.

    Ben fikrimi değiştirmedim. 2 sene sonra ARM ı görün. O zaman bana çok haklıymışsın diyeceksiniz...



    Olaya bir başka açıdan mimari sıkışma olarak ta baklılabilir. Zira nm rik küçülme, saat hızı artırımı, çekirdek sayısını artırma, veri işlemede revizyona gitme hataları düzeltme de bir yere kadar sonuçta.

    Desenize intel ARM ile anlaşmaya gidiyor. Karşılıklı lisans anlaşması. Ya da NVidia ARM i satın alıyor. Bakalım. Bir firma elbet ARM ile ortaklığa gidecek ya da satın alacak. Ya da daha farklı bir şey. Bakalım kıyamet falan kopmaz ya da ömrümüz yeterse 2012 yi bekleyeceğim.

    Açıkçası özellikle 2011 yılı baya hareketli geçecek gibi. Belki tahminlerin daha erkeni bile bulabilir. Uzayabilir de tabi. Ama işin ilginci kanı oluşturmak için mi bilmiyorum ama 2012 tarihli pek çok gelişme olacak. Yani pek çok önemli projenin bitişi vb gibi şeyler hep 2012 taviminde. Adam da tırsıyor yani bir yandan bunu düşününce. O seneye gelen o kadar gelişme, mimari yapı ve hatta gök olayları. Daaaaaaaaaaa dan daaaaaaaa dan daaa dan da dan da-dan dadadadadadadadaddnnnnnn.




  • quote:

    Orijinalden alıntı: OverClocKing

    Tamam da zaten 2.5Ghz 2011 veya 2012 de Akıllı telefon işlemcilerini çıkacağı söylendi. Hatta haberi bile vardı.
    Nasıl soğutacaklar? = Nanometrik küçülme, düşük voltaj, yüksek verimlilik vs. vs.

    Graphene adı verilen madde ile silicon un üzeri kaplandığı zaman yüksek saat hızlarında sinyalde bozulma olmuyor.

    1000Ghz işlemci yapılabilecek. Hatta 750Ghz çalışan transistör yapıldı. Birkaç yıl sonra cep telefonlarında bile 50Ghz falan gibi hızlar görebiliriz.
    Intel 1000 çekirdek mümkün dedi diye haber vardı geçen gün.

    Bunları Intel söyleyince "Adamlar yapar" oluyor, ben söyleyince Hayal oluyor. Niye inanmıyorsunuz anlamıyorum.

    Samsung dün 3D Gözlük çıkarttı. Kablosuz şarj oluyor, ben telefon 8 çekirdek olabilir diyince millet bana saldırıyor Pil dayanmaz diye.
    Nedir ben anlamadım. Biraz inanın teknolojiye...

    Neler neler çıkıyor âdete bilim kurgu filmlerinden fırlamış gibi görüyoruz. Ama hâlâ inanmıyoruz. Bundan 1 sene önce wireless sinyallerini elektriğe dönüştüren cihaz üretildi hatta 60$ a satılıyordu ve hâlâ satılıyor.
    Her yerde wireless var. Telefona yapsalar sürekli şarj olur. Onu da yapacaklar. O da yakında çıkabilir...

    Saygılar.


    Dostum bu ne gaz anlamadım. Altın madeni bulmuşsun ve onun heyecanını yaşıyor gibisin. 35 yaşındayım diyosun ama 15 yaşında çocuk gibi heyecanlısın Bu heyecanın sebebini anlayamadım ayrıca. ARM lisansın var onu mu satıcaksın, yoksa geleceğin çok teknolojik olacağını bilmek seni heyecanlandırıyor mu?

    Bir malzeme mühendisi olarak söyleyebileceğim yegane şey, elektronik sektörü ilerler, hatta çok daha bomba bi şekilde ilerler gitgide. Ama malzeme sektörü öyle değil. O senin dediğin Graphene hoş güzel bi malzeme de, onu bütün piyasadaki ürünlerde kullanmak için büyük hacimlerde üretmek lazım, o da hala yalan dolan. Ne efsane mazlemeler var ama çoğu lab şartlarında düşük hacimlerde üretilebiliyor. Ama bence çok da önemli değil, daha silikonun çok yolu var. Uzun süre daha silikon kullanılır. Çünkü dediğim gibi her gün yeni efsane malzemeler bulunuyor; ama onları büyük hacimde üretmek değişik bir çeliği, metali geniş hacimde üretmek gibi kolay olmuyor.

    Diğer dediklerinin çoğu bana çok da bilim kurgudna çıkmış gibi gelmiyor. Çok efsane var, misal Tesla abimizin zamanında çok basit bi şekilde havadan elektrik iletimini keşfettiğini söylerler. Çoğu sahip olduğu dökümanın da ya yandığı, ya da devlet tarafından ele geçirildiği söylenir. Yani hani bilim kurgu artık bilim kurgu olmaktan çoktan çıktı. Bilim kurgu sadece olayın içine insan girince oluyor. Misal insanların uzaya gitmesi, Star Wars, Star Trek hala bir bilim kurgu; ama orda kullanılan aletlerin çoğu artık pek de bilim kurgu değil

    Neyse sonuçta haberler güzel ve çoğu söylediğine de katılıyorum. Özellikle ARM muhabbeti ve mobil cihazların çok öne geçmesi konularına kesinlikle katılıyorum. 5 sene sonra evlerimizde kullandığımız aletlerden, ceplerimizde kullandığımız aletlere kadar çoğu şey baya bi değişmiş olacak.




  • quote:

    Orijinalden alıntı: atyay
    iyi güzel hayaler kuruyosun derken şuan öyle bişey yok ama olursa çok güzel olur manasında söyledim yanlış anlaşmışsın beni:)

    yalnız bu docking station olayını tam anlayamadım açıkçası,yani madem telefondaki işlemci prize bağlı değilken tam performansta çalışmıycak ve tam performansa prize takılıyken geçicek ozaman niye çok çok daha güçlü bi işlemciyi docking stationda barındırmak ve soğutmasınıda daha kolay sağlamak varken telefonda kulanılan işlemcinin hızını düşürüp maliyetini artırıyoruz

    bide yukarda yazdığın bişeye değinmek istiyorum
    "GPU dan bahsediyorum çünkü CPU yu aştılar. Ve göreceksin bu işin çözüm yolu GPU. nVidia öyle bir CPU yapacak ki aynı zamandan süper bir GPU olacak. Ve inşallah ARM tabanlı olacak. Normal işletim sistemini de hızlandıracak. Ben öyle öngörüyorum. Umarım yanılmıyorumduır."
    bu konuda hala daha tam olarak anlaşılmayan şeyler var ancak yaşının verdiği tecrübeyle belki bilmediğim bişey biliyosundur diye basitce sormak istiyorum
    bugün piyasadaki gpu lar neden cpulardan daha güçlü?

    Evet docking station için daha iyi bir düşünce. O şekilde de yapılabilir. Ama telefonda olursa mesela oyun oynanmayan ama telefonun çok hızlı çaışması istenen ve o anda şarja takılı olduğu durumlarda da docking station'u yanında taşımadan yine tam performanslı çalıştırılabilir. Böyle bir şey olabilir.

    GPU neden CPU dan hızlı? Bunu zaten biliyorsun. Zaten transistör sayıları bile denk değil. Bugün çıkan en kompleks CPU Sandybridge 995 milyon transistör içeriyor. En büyük GPU ise 3.1Milyar. Tabi bunun etkisi büyük.
    Kaldı ki GPu larda bulunan SP üniteleri çok güçlü ve fazla sayıdalar. 512 tane Stream Processor tabii ki 8 çekirdekli bir işlemciden daha iyi hesaplama yapar.

    Sen mühendissin. Benden daha iyi biliyorsundur. Ben sadece soru cevapsız kalmasın ve ilgilenen arkadaşlardan bilmeyen varsa veya ileride birisi okursa faydalansın diye cevapladım..

    Bu arada bir üstteki mesajı yeni gördüm. Ona da bir iki şey diyeyim bari.

    Tesla çok büyük adamdı. Yalnız ne yazık ki adamın not alma alışkanlığı yokmuş. Çalışmalarını hep beyninde saklamayı tercih ediyormuş. O öldükten sonra bulunan eşyalarını da gizli servisler maalesef iç etmişler. Çünkü Tesla yanlış hatırlamıyorsam ışınla imha türü şeyleri de icat etmişti ve Ulusal Güvenlik falan onun projeleri ile çok ilgileniyordu. Hatta Amerikada kitaplara konu olan Philaderphia Deneyi bile Tesla'dan faydalınarak yapıldı. Tesla kendi anlattıkları ile uzay-zamanda dolaşabiliyordu. Hatta buluşlarının ona nasıl geldiğini anlattığı zamanlar tüylerim diken diken olmuştu. Tüm belgesellerini izledim. Normal bir insan o kadar çok şey icat edemez. Zaten icat edişleri çok garip olaylar. Birdenbire gözünün kararıp gri bir görüntü gelmesi sonra onun yavaş yavaş yok olup icat edeceği şeyin belirmesi falan aklıma başka şeyler getiriyor ya neyse...

    Benim hakkımda sadece Teknolojiyi çok sevdiğimi beni çok heyecanlandırdığını söyleyebilirim. Hiçbir hobim yok. Hobim Teknoloji. Bu..

    Arm.. Param çok olsaydı %1 hissesini almak için bile her şeyimi evimi barkımı satar yine de alırdım. Ama sanırım şu an Apple aynı şeyi düşünüyor. Umarım almaz veya alırsa da işlemcilerini yine aynı şekilde lisanslar. Yoksa bu hızlı gidiş durur gibi geliyor.



    < Bu mesaj bu kişi tarafından değiştirildi OverClocK1ng -- 7 Ocak 2011; 15:17:39 >




  • aslında bunu sebebi nvidianın kendini yanlız hissetmesi sonucu korktuğudandır nedenmi intel işelmcilerine gömülü ekran kartı yaparak özellikle dizüstünde nvidiaya şimdilik küçük bir darbe vurdu ve intelin ilerde tamamen bir kendine ai güçli bir ekran kartı yapmasından korkuyor amd nin ise zaten kendi ekran kartı var savaş çok büyük artık
  • quote:

    Orijinalden alıntı: interyasin
    aslında bunu sebebi nvidianın kendini yanlız hissetmesi sonucu korktuğudandır nedenmi intel işelmcilerine gömülü ekran kartı yaparak özellikle dizüstünde nvidiaya şimdilik küçük bir darbe vurdu ve intelin ilerde tamamen bir kendine ai güçli bir ekran kartı yapmasından korkuyor amd nin ise zaten kendi ekran kartı var savaş çok büyük artık

    İşte öyle bir laf ettin ki tüm konuları doğru şekilde bağlıyorum. Sağol.

    Intel ekran kartını işlemcinin içerisine entegre ettiği zaman ilk önce kızmış, sırf ekran kartı satış miktarında 1.liği sürdürsün diye yaptığını düşünmüştüm.
    Fakat sonra bir şey aklıma geldi.

    1- Parası kısıtlı olay ama iyi bir işlemci almak ama aynı zamanda oyun da oynamak isteyen, o an 1 sene idare etsin sonra iyi bir ekran kartı alırız diyen insanlara ekran kartı almalarına gerek kaldırmadan bunu sağlamak ve kendi işlemcisini entegre iyi ekran kartlı AMD ye karşı ön plana çıkartmak. Düşünsenize Sandybridge olmasaydı insanlar ekran kartı iyi diye idareten AMD 880G veya benzeri bir anakart alıp kullanabilirlerdi. Ama Intel, madem şimdilik oyun oynayacaksınız, AMD yerine Sandybridge alın onda da iyi ekran kartı var dedi..

    2- Sanıyorum ileriye yönelik benim yukarıda bahsettiğim GPU nun işletim sistemine destek vererek hızlandırması teorisini işlemciye güçlü GPU entegre ederek denemek istiyor olabilir...




  • bilgisayarım pentiumII 400 mhz idi ve ben age of empires oynuyordum, chat yapıyordum, msn kullanyordum word de yazı yazıyordum vs ...

    bilgisayarımı değiştirdim Amd Athlon 1800+ ilemcili, evet daha iyi bir performansı var ama ben halen age of empires oynuyordum, chat yapıyordum, msn kullanyordum word de yazı yazıyordum vs ...

    offf yine yeni işlemciler çıktı 3ghz pentium lar var şimdi prescot falan ... artık yenilemeliyim dedim , eski pc mi biradere kaskaslayıp aldım 3.2 ghz bir prescot.. Ama ben halen age of empires oynuyordum, chat yapıyordum, msn kullanyordum word de yazı yazıyordum vs ...

    arkasından venice sonrasında Core2duo işlemci vs.... ben age of empires oynuyorum, chat yapıyorum, msn kullanyorum word de yazı yazıyorum vs ...



    Şu aralar hız konusunda ilgimi çeken tek parça ssd ler, malûm "bilgisayarınızın hızı en yavaş parçanızın hızı kadardır" gibi doğru bir mantık var. 16 çekirdekli bilmem ne kadar ghz de çalışan bir işlemci olsada yavaş bir hardisk yine aynı sonucu verecek .

    aslında demem o ki; Tamam elbette teknoloji gelişiyor gelişecek te ama işin yazılım tarafına baktığımda gerçekten beni heyecanlandıracak bir gelişme yok, ne zaman yazılım tarafında yapay zeka geliştirirler o zaman heyecanlanırım , aksi halde işlem gücü beni ilgilendirmiyor , çünkü o kadar işlem gücüne hiç birimizin ihtiyacı olduğunu düşünmüyorum, gelecek sadece mobilite vaad ediyor şu an başka birşey değil, nanometrik küçülmeyle doğru orantılı olarak küçülen ve hızlanan cihazlar.. Varmı heyecan uyandıran bir yazılım? İnsan zekasına benzeyen bir yapay zeka mesela? Öğrenebilen Kendini geliştirebilen bir yazılım?




  • quote:

    Orijinalden alıntı: OverClocKing

    GPU neden CPU dan hızlı? Bunu zaten biliyorsun. Zaten transistör sayıları bile denk değil. Bugün çıkan en kompleks CPU Sandybridge 995 milyon transistör içeriyor. En büyük GPU ise 3.1Milyar. Tabi bunun etkisi büyük.
    Kaldı ki GPu larda bulunan SP üniteleri çok güçlü ve fazla sayıdalar. 512 tane Stream Processor tabii ki 8 çekirdekli bir işlemciden daha iyi hesaplama yapar.



    Ben bu konuda uzman falan değilim alt tarafı diplomam var sadece ama okulda mimari dersi gördüm,gpu mimarisi diye bişey gösterilmedi gerçi ama aralarında dağlar kadar fark yok hatta tüm microchipler aslında çalışma şekli olarakda aynıdır,veriyi çeker,çektiği veriyi çözer,çözdüğü veriyi işler sonrada kaydeder mantık bu:)

    Şimdi gelelim gpunun neden daha hızlı olduğuna.Sende yazmışsın zaten stransistör sayıları arasında fark var diye,gpuların gerek transistör sayıları olsun gerek şuanki maksimum güç olarak 300w olarak sınırlandırılması temel nedenler,cpularda hem intel hem amd 130w aşmamaya çalışıyolar.Gpudaki sp dediğin birimler aslında çok güçlü sayılmazlar yani cpulardan pekbi farkları yok ama evet çok fazla sayıdalar ve asıl fark burda yatıyo.Peki bu splerin sayısı artıkça performansda artarken cpularda aynı yöntem niye kulanılmıyo?Öncelikle spler yani alu ve fpu birimlerinin artması neden bukadar yarar sağlıyo ona bakalım.Çok fazla sayıda hesaplama birimi çok yarar sağlıyo çünkü aynı anda hesaplanması gereken çok fazla sayıda veri var,işte burası önemli hatta en önemli kısım burası deyim yerindeyse kodlar cuk oturuyo mimariye.
    Bi oyun düşün mesela fps oynu elinde silah karşına çıkan düşmanlara ateş ediyosun.Uzun bi koridora geldin diyelim bu koridordan geçiceksin,koridorun sağında solunda koridora bağlı bisürü cisim var borular,malzeme kutuları falan bisürü nesne var,koridoru ve etraftaki cisimleri oluşturan bi sürü üçgen var,bu üçgenlerin köşeleri ve köşelerinde uzayboşluğunda adresleri.Sen atıyorum 1 metre x yönünde ileri gittiğinde tüm bu koridoru oluşturan etraftaki cisimleri oluşturan üçgenlerin adresleri -x yönünde 1metre kadar mesafe eklenerek aynı anda hesaplanıyo,bu üçgenlerin adresleri birbirlerini etkilemiyo yani aynı yönde hareket ediyolar ama birinin adresi diyerinin adresine bağlı değil,dedimya kodlar cuk oturuyo mimariye diye,diyelimki 500tane adres aynı anda hesaplanması gerek,gpuda 500 hesaplama birimi varsa hepsini aynı anda kulanabilirsin.Peki ya aynı yönde hareket etmezse nolucak yada 500tane hesaplama birimi var ama aynı yönde ve aynı mesafede(burasıda önemli) sadece 100tanesi hareket ediyo,eğer bu 500 hesaplama birimi sadece tek bi SIMD motoruna bağlıysa sadece 100tanesi kulanılabilir çünkü aynı yönde ve aynı mesafede hareket eden ve hesaplanması gereken başka veriler yok.SIMD denilen teknik sadece tek bi instruciton ile aynı anda bisürü veri üzerinde işlem yapmayı sağlar yani instruction derki -x yönünde 1metre ekleyerek yeniden hesapla,SIMDin bağlı olduğu hesaplama birimleri verileri alır ve -x yönünde 1 metre ekleyerek tekrardan hesaplar.Gördüğün gibi SIMDe bağlı hesaplayıcılar artıkca kodlarında ona göre yazılması gerekli yoksa çok verimli çalışamıyo yada SIMDe bağlı hesaplayıcıların sayısını düşürür ve SIMD sayısını artırırsın ama buda daha fazla transistör demek,yada çok daha verimli olan ve birden fazla instruction alan MIMD mimari tekniğini kulanırsın.

    Şimdi gelelim cpunun yaptığı işleri gpuya yaptırmaya,yukarda gpunun gücünü nereden aldığını anlattım niye aynı teknik cpuda kulanılmıyo,sonuçta nekadar yarar sağladığı ortadayken bunu kulanmamak ahmaklıktır.Peki niye inteldeki ve amd deki ahmaklar bunu yapmıyo???
    Çünkü gpu bisürü veri üzerinde aynı anda işlem yapmak için tasarlandı,yukarda anlatığım oyun örneğinde olduğu gibi kodlar gpunun çok fazla sayıdaki hesaplayıcılarına cuk oturuyo,ama iş cpunun yaptığı işlere gelince oyun örneğindeki gibi çoklu veri üzerinde aynı anda işlem yapma çok nadiren karşılaşılan bi durumdur ve hesaplayıcıları artırmak bu sebepten nadiren işe yarar ama bunun yanında cpuyu gereksiz büyütür,cpunun işi bisürü instructionı az sayıdaki verilere uygulamak.
    Basitce şöyle:
    a=a+b(a ile b yi topla a ya ata)
    a=b(b yi a ya ata)
    a==b(b a ya eşitmi)
    a>b(a b den büyükmü)
    a<=b(a b den küçük yada eşitmi)
    gibi.
    Yani çok fazla hesaplayıcı bi işe yaramıyo bu durumda çünkü hesaplanıcak çok fazla veri yok.Az sayıdaki veri çok hızlı hesaplanması gerekiyo,cpu buna göre tasarlanıyo.
    Ve Nvidia açıkladı: Yüksek performanslı bilgi-işlem için işlemci geliştiriyoruz

    Mesela şuan en hızlı x86 mimarisi olarak sandy bridge var ve bunun herbir çekirdeğinde resimde gördüğün kadar hesaplayıcı var,üstelik hepside aynı işi yapmıyo.

    Muhtemelen aklına şu gelebilir,bu işlemler paralel çalıştırılamazmı?Yukarda caner arkadaşımızda bunu dile getirmiş,yani sırayla yapılması gereken işlemlerin paralel çalıştırılarak performans elde edicez.Hadi basit bikaç örnek üzerinde işlemleri paralel çalıştırarak neler olucağını görelim.

    Mesela:a=1,b=2,c=4,x=null(yani boş),z=null(boş)

    1)x=a+b(a ile b yi topla sonucu x'e yaz)
    2)x=x+c(x ile c yi topla sonucu tekrar x'e yaz)
    3)z=x(x'in değerini z'ye kopyala)

    Şimdi bu işlemlerin sırayla ve paralel çalıştırılarak neler değiştiğine bakalım.

    Sıralı işlem:1.işlem 1+2=3 ve x değeri 3 olur,2.işlem x'in değeri 3 olmuştu 3+4=7 x'in yeni değeri artık 7,3.işlem x'in değeri 7 oldu ve bunu z ye kopyaladık artık z'de 7

    Paralel işlem(curcunaya bak:P):1.işlem 1+2=3 x'in değeri 3 olucak galiba:D aynı anda 2.işlem x in ilk değeri null yani boş demek boş+4=4:) ozaman x'in değeri 4 olucak galiba ama bi saniya diğer hesaplayıcı 3 diyo bu 4 diyo hangisi doğru???:))) 3.işlem 1. ve 2. işlemle aynı anda işleme sokuluyo x'in değeri boş,ozaman z de boş zaten boştu,boşa boşu kopyaladık:)

    Farklara bakalım,x'in değeri bu işlem sonunda sıralıya göre 7 olması gerekli doğrusuda bu ama paralelde elimizde 2 tane x değeri var ve hangisi doğru bilmiyoruz:)
    z nin değeri x'in kopyası olması gerekiyo ama elde 2 tane x değeri var ve z hala boş yani x değerlerinden hiçbirini göstermiyo,gördüğün gibi hocam zorla paralel çalıştırmak malesef böyle hatalara neden oluyo.

    Peki hiçmi mümkün değil paralel çalıştırmak,aslında teorik olarak mümkün şöyleki bu işlemleri direk paralel çalıştırmak yerine yine sıralı çalıştırırsın mesela 1. 2. ve 3. işlemleri hepsini direk SIMDlere gönderirsin ama sırayla yaptırırsın ilk 1. işlem gerçekleşir sonra x değeri hafızaya kayedilmeden 2. SIMDe gönderilir sonra x değeri yine kayedilmeden 3. SIMDe gönderirsin tüm işlemler bittiğinde elde ettiğin tüm değerleri kaydedersin.Yalnız dikat edersin hesaplayıcı demedim SIMD dedim çünkü komutlar farklı olduğundan herbiri farklı SIMD ile hesaplanılmalı,hadi 1. ve 2. işlemde toplama yapılıyo sonra atama yapılıyo bu ikisini aynı SIMD ile hesaplattık ama 3. illa farklı bi SIMDe olmalı çünkü sadece atama yapılıyo farklı bi instruction var,yani gördüğün gibi yine çok verimli değil tüm hesaplayıcılar kullanılamıyo herzaman.
    Peki bu bize ne kazandırır bu sayede işlemler yapılım kaydedilmesi sonra başka işlemler için tekrar alınması sırasında oluşan zaman kaybını engeleyerek birnevi hız kazanırsın,ama cpu lar zaten böyle işlemler için tasarlandığından gpu ile cpuya fark atmayı bırak bu yönteme ramen yinede geri kalabilir gpu,böyle bi teknik kulanılmadan bişey söylemek zor.
    Ha bu yöntem için daha fazla transistör kullanılması gerekdiğini,gpuyu büyüteceğini ve oyunlarda bu transistörlerin bi halta yaramıycağını anlatmama gerek yok sanırım:P

    Gpunun gücünden yararlanmanın tek yolu ona birbirinden bağımsız çok fazla sayıdaki veriler üzerinden hesaplama yaptırmaktan geçiyo,ki bu tarz olaylar zaten şuan yaptırılıyo.

    Çok fazla yazdım sanırım ama umarım bu yazdıklarım sayesinde neden gpuların cpuları öldüremeyeceği ile ilgili sana bi fikir verir hocam.

    Saygılar:)

    edit:insan bukadar hesaplama hatası yapamaz,neyse allahtan erken farkettim



    < Bu mesaj bu kişi tarafından değiştirildi atyay -- 8 Ocak 2011; 0:30:14 >




  • Bu adamlar 2009 da demediler mi böyle bi plan yok diye? Ben mi yanlış hatırlıyorum yoksa
  • @atyay

    Kardeşim gerçekten çok teşekkür ederim. Üşenmeyip o kadar anlatmışsın, yazmışsın. Eline sağlık.

    Gerçekten çok açıklayıcı, anlaşılır ve tatminkardı. Gayet net bir şekilde anladım. Dediğine göre gerçekten şu an zor ama belki bir yolu bulunabilir.

    Çünkü ben tüm firmaların bunu yapmayı düşündüğünü tahmin ediyorum. Ama benim tahminimce bu işi yapsa yapsa nVidia yapacak.

    Çünkü GPU konusunda aşırı derecede uzman ve GPGPU konusunda da Tesla ile önder. Kaldı ki şu an CPU yaptıklarını da açıkladılar.
    Umarım dediğim gibi çıkar. Belki x86 da dediğin gibi ama ARM da ve Android de durum değişebilir. Google yapılamaz denilen pek çok şeyi yapmayı başardı.
    Belki birlikte sıkı bir çalışmayla aşabilirler. Belki başka bir yolunu bulurlar bilemiyorum ama nVidia tarafından edilen şu laf da benim için ümit vâdediyor: "Denver, PC'leri ve sunucuları x86 mimarisinin yetersizliğinden ve hegemonyasından kurtaracak."

    ARM'ın 2 sene içerisinde yapacakları ile ilgili söylediğim şeylerin hâlâ arkadasındayım. Yani 2013 yılında (Tabi 2012 Doomsday olmazsa)

    Yürüyün be ARM ve nVidia. Kim tutar sizi...



    < Bu mesaj bu kişi tarafından değiştirildi OverClocK1ng -- 8 Ocak 2011; 6:21:00 >




  • :) doğmamış bebeğe don biçiyorsunuz! İntel ve Amd ile kıyaslamaya yarıştırmaya bile başladınız bakıyorum.Tabiki güzel bir firmanın daha girmesi fakat masa üstü diz üstü platformuna girmek o kadar kolay değil girse bile buişte senelerini vermiş 2 firma ile performans yarışına girmek hiç kolay değil mobil cihazlardaki işlemci ile iş yükünde kullanılan işlemci teknolojisi arasında uçurum var.Hayal görmeyelim sadece mobil dünyasında güzel gelişmeler olabilir o kadar yoksa 2 3 yıl içinde ne intel nede amd ile yarışacak düzeye gelmesi imkansız...
  • 
Sayfa: önceki 12
Sayfaya Git
Git
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.