Şimdi Ara

NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) (8. sayfa)

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
169
Cevap
16
Favori
16.918
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
7 oy
Öne Çıkar
Sayfa: önceki 56789
Sayfaya Git
Git
sonraki
Giriş
Mesaj
  • moonquad kullanıcısına yanıt
    vga işi bozuyor olabilir.
  • X-FI X kullanıcısına yanıt
    buda oyundan kareler siz karar verin tabiki de hocam vga eski teknoloji ama görüntüdeki renkleri iyi ayarladığımı düşünüyorum.
     NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH)



    < Bu mesaj bu kişi tarafından değiştirildi moonquad -- 12 Şubat 2015; 2:22:15 >




  • NVIDIA driverlarına yeni bir ayar daha ekledi. HDMI üzerinden bağlı aygıtların bit derinliği ayarlanabiliniyor.

     NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH)


    Eklenme sebebi artık UHD sayesinde bluray standardı değişip 8-bit ten 10-12bit renk derinliğine geçecek. Şu an piyasada hazırda 10-bit monitorler ve TV ler bulunmakta, fiyatlar pahalı gerçi. Ayrıca 10bit e remastered edilmiş bluray filmlerde mevcut bile. Eğer böyle bir aygıta sahipseniz, NVIDIA kart varsa denemek isteyebilrisiniz.

    Not: Piyasadaki çoğu monitor 6-8bit olduğunuda hatırlatayım. Yani 16.7 million renge denk oluyor 8-bit... Bunu 32bpp (bits per pixel) desktop renk derinliğiyle karıştırmayın.



    < Bu mesaj bu kişi tarafından değiştirildi X-FI -- 28 Mayıs 2015; 17:09:34 >




  • X-FI X kullanıcısına yanıt
    HDMI, o görüntüyü taşıyabiliyor mu acaba? Bant genişliği yeterli mi yani?
  • bocekgrafik kullanıcısına yanıt
    Hiç aklıma gelmedi valla. Google dan baktım trustedreviews çıktı (sevidğim yer)http://www.trustedreviews.com/opinions/hdmi-2-0-vs-1-4

    HDMI 2.0 yukarıda anlattığım yeni bluray standardı için çıkacak. HDMI 1.3 ten itibarende 12-bit destek var diye gördüm.
  • Ana mesaj güncel.
  • Gtx 1070 kullanıyorum yaklaşık 3 aydır . Daha önce hep amd kart kullandım üzülerek söylemeliyim ki aradaki farkı bariz görebiliyorum . AMD renkler daha canlıydı ve video kalitesi de çok iyiydi . Nvidia bu işi yıllar yılı çözememiş belli ki .

    Bundan 6 sene önce falan forumda biri Nvidia daha HD 'ye geçemedi AMD kartlarının önünde niye HD yazıyor boşa mı sanıyorsunuz gibi bir şey demişti de dalga geçmiştik epey . Adam pek haksız da sayılmazmış

    + olarak metro 2033 üzerinden grafik kalitesi açısından feci bir kavga çıkmıştı ekran kartı bölümünde . Nvidianın görüntü kalitesinden kısarak AMD yi köşeye sıkıştırdığı Metro 2033 görselleri ile ortaya konmuştu .



    < Bu mesaj bu kişi tarafından değiştirildi m-99 -- 26 Ekim 2016; 19:03:12 >
  • m-99 M kullanıcısına yanıt
    1070 almayı düşünürken tam ,amd kullandım daha önce hayal kırıklığına ugratırmı beni nvidia ,sanırım üst segment amd kartlarını bekliyecegim

    < Bu ileti mini sürüm kullanılarak atıldı >
  • Riesso kullanıcısına yanıt
    Nvidia sizi FPS bazında hayal kırıklığına uğratmaz da benim için renkler video kalite vs önemli diyorsanız benim işim gücüm bunlarla oyunlarla öyle cok aram da yok zaten derseniz AMD iyi seçenek . Nvidia'nın kalite ayarlarında birtakım çakallıklar yaptığını inkar edemiyorum olay bu .
  • quote:

    Orijinalden alıntı: moonquad

    aşırı parlaklık sorunu nvidia da mevcut klasik renk ayarlarında soluklar kendini belli ediyor ama çok kolay bir ayar ile hem filmlerdeki renklerin canlılığını hemde oyunlardaki renklerin tam olarak kendini göstermesini sağlayabilirsiniz benim kullandığım ayarlar bu şekilde
    isterseniz sizlerde denebilirsiniz.

     NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH)
     NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH) NVIDIA Renk, Parlaklık, Dynamic Range (HDR TV, RGB RANGE, BIT DEPTH)

    Ayarlarınızı aynen kullanıyorum.GAyet güzel ayarlar.DP 1.2 ile bağlıyım.



    < Bu mesaj bu kişi tarafından değiştirildi AC Kiriklar -- 27 Ekim 2016; 0:37:54 >




  • Nvidia kalite ayarlarında düzenbazlık yapmıyor eğer öyle birşey olsaydı emin ol senden önce bir sürü kişi yabancı forumlarda bildirirdi ki yakından takip ediyorum. (Eskiden driver ile oyun resim kalitesini düşürdüler diye bir haber vardı fakat düzeltildi ve bir daha olmadı).

    Parlaklık ve renk konusunda Nvidia'nın çözeceği en ufak sorun bile yok. Renkler ve parlaklık normal seviyede (etkisiz eleman sıfır gibi) geliyor. Yani karta ne veriliyorsa, değişiklik yapılmadan monitöre aktarılıyor ve neyse onu görüyorsun sen (bu tarafta kullanılan monitor panel tipi, parlaklık oranı, ayarlar vs önemli).

    HD muhabbetini hiç görmedim de bu şekilde dalga geçen insanlar böyle bir konuda ne kadar cahil olduklarını belli ediyor.
    AMD'nin kartları HD6500 gibi ibareyle sattığını biliyorum, baya saçmalık bana soracak olursanız, yani HD (High Definition) demek senin kart modeli isimlendirmeyle ne alakası var? AMD'nin marketing departmanı fail.

    Sonuç olarak beğenmiyorsan değiştirip AMD alırsın, ama yanlış bilgilerle başkalarının kafasını karıştıramazsın.



    < Bu mesaj bu kişi tarafından değiştirildi X-FI -- 26 Ekim 2016; 22:24:38 >




  • moonquad'ın paylaştığı ayarlarıda çok önceden söylemiştim, onlar komple doğallığı bozuyor ve ayrıca video ayarlarında full RGB enable edilmemeli, program ayarlarında bırakılmalı.

    Fakat gözünüze iyi geliyor ve beğeniyorsanız, diyecek birşeyim yok ama sadece bilin ki gözlerini kandırıyorsunuz, film olsun oyun olsun yapımcının vermek istediği gözüntüyü alamazsınız o ayarlarla oynarsanız.

    En iyi örnek, öncedende yazdım, eğer Samsung telefon kullanıyorsanız orta-üst segmentte, ekran ayarları dynamic olarak geliyor, bu RGB doğal renkleri yansıtmıyor, satüre olarak veriyor. Basic mode'a aldığınızda ise RGB'yi 99% accurate olarak verebiliyor ve ilk bakışta renkler soldu dersiniz hep ama alışırsınız.



    < Bu mesaj bu kişi tarafından değiştirildi X-FI -- 26 Ekim 2016; 22:31:39 >
  • X-FI X kullanıcısına yanıt
    Ortada yanlış bir bilgi yok karşılaştırabilecek kadar uzun süre deneyimledim . HD muhabbeti elbette başka konu zaten zamanında gereken cevabı verdik . Beğenmiyor olmam AMD almamı gerektirmediği gibi amdnin renk parlaklık video gibi konularda daha başarılı olduğu gerçeğini değiştirmiyor üzgünüm . En azından benim söyleyebileceğim bu . Yabancı forumlarda bir şey aramaya gerek yok . Emir vererek konuşman anlamsız seni hatırlıyorum 2010dan hiç değişmemişsin .
  • m-99 M kullanıcısına yanıt
    İşin aslını anlatıyorum, nedir ne değildir söylüyorum, sen hala daha yanlış birşey yok diyorsun. Bari öğren şu yazdıklarımı da renk ve parlaklık konusunda başarı kazanma diye bir olay olmadığını anla. AMD'nin satüre olmuş görüntüsünü mü istiyorsun? Bak yukarıda arkadaş birkaç SS paylamış, ayarları kurcala color vibrantı çek sona.

    Buraya aktardığım bütün bilgileri internette araştırarak, anlayıp, derleyerek aktarıyorum. Az bir bölümünüde kendim deneyimleyerek tecrübe ediyorum ve keşfediyorum. Yabancı forumlarda hesaplarım var, mesela Guru3D, oradaki insanların hepsi işin detayına giren bireyler, bir tane lagalula konu ya da kafasından atan insan göremezsin DH'de olduğu gibi.
  • Ana mesajı güncelledim. Şu bit olaylarına açıklama getirdim zira eskiden beri var olan birşeyi "HDR TV" adı altıyla yeni teknoloji diye satmaya başladılar hemde tüm gerekli herşeyi barındırıp ama HDR10 destekli olmayan TV'ler yararlanamayacak ve bana göre şu anki durumu fail. Ayrıca piyasada panel kaliteleri beklenildiği gibi olmayan TV'ler var, bazıları ise çakma 4K. Bunların nedeni teknolojinin daha olgunlaşmadan firmaların bir an önce pazara atılma hırsı yüzünden oldu. TV alacak olanlarada bir bilinçlendirme olur umarım.

    quote:


    10-bit ve 12-bit monitorler hakkında, WCG (wide color gamut) olarakta geçiyorlar ve oldukça pahalılar. Genelde fotoğrafla uğraşanlar alıyor.

    1) HDMI 2.0 60FPS 4:4:4 (Full) RGB 4K'da 12-bit görüntü aktaramıyor.
    2) Bu tür monitorlerin ekstra olarak kalibre edilmeye ve OS ortamında renk profili oluşturulmaya ihtiyaçları var. Aksi takdirde normal web sayfalarında ki renkler kötü gözükecektir. Çünkü normal web sayfaları 6-8-bit monitorler için tasarlanıyor (AdobeRBG farkı).
    3) Color banding sorunu bu monitorlerde olmaz fakat bazı oyunlarda oyun motorundan kaynaklı aynı sorun çıkabilir.
    4) 10-bit/12-bit panellerden yararlanmak için oyunlarında desteklemsi lazım mesela Alien Isolation destekliyor.
    5) 10-bit/12-bit paneller daha fazla renk sunacağından farkı anlayacaksınız fakat eğer görüntü o kadar renk verebiliyorsa. Mesela fotoğrafçılar sırf 12-bit içerikle çalışıyorlar, yeni nesil DSLR makineler 10-bit çekebiliyor vs. Ama oyunlar hala 6-8bit, bluray filmler bile 8-bit (4:2:0). UHD Bluray için 4:4:4 konuşuluyor (gerçek lossless).

    Normal monitorlerin kalibre edilmeye ihtiyacı yok, şahsi fikrim, fabrikadan gelen ayar uygun görüntüyü verecektir. Ama ben elle ayarlamak istiyorum diyorsanız, internette monitorunuz için hazır ayarlar bulmanız çok basit.
    Hatta renk profiller bile var (manual ayar yapınca kullanılması gerekiyor bazen) ama exclusive fullscreen alan uygulamalar (oyunlar vs) renk profili disable oluyor ve oyunun kendi profili kullanılıyor, her ne kadar bunun gerekli olduğu düşünsemde WCG monitorlerde bu kötü bir olay ve bunu engellemek için bazı ufak tool'lar mevcut.

    Ekstra bir not ise HDR TV'ler hakkında. HDR TV'ler 10-bit (WGC) panellere sahipler ve parlaklık range'i baya geniş, diyeceksiniz ki benimde panelde öyle o zaman bende de HDR desteği var. Hayır yok, malesef firmalar para kazansın diye HDR desteğini ayrı bir olay olarak tanıttılar (tamamen salakça bir gimmick) ve "HDR10" veya Dolby Vision uyumlu içerik adı altıyla UHD Bluray'ler falan çıkacak.
    Yani HDR10 destekli bir içeriğede sahip olmanız lazım. HDR içerikler 4:4:4 Full RGB değil hatırlatayım (ne kadar saçma değil mi?) ve piyasada hala daha gerçek 4K olmayan bir sürü model TV var.

    Dolby Vision HDMI 2.0A ile 12-bit görüntü sunuyor ve çıkabildiği parlaklık seviyesi HDR10'in 4 katı, (HDMI 2.0B ise 10-bit). UHD bluraylerde standard olarak HDR10 kullanılacak deniliyor.



    < Bu mesaj bu kişi tarafından değiştirildi X-FI -- 27 Ekim 2016; 21:25:27 >




  • quote:

    Orijinalden alıntı: X-FI

    Ana mesajı güncelledim. Şu bit olaylarına açıklama getirdim zira eskiden beri var olan birşeyi "HDR TV" adı altıyla yeni teknoloji diye satmaya başladılar hemde tüm gerekli herşeyi barındırıp ama HDR10 destekli olmayan TV'ler yararlanamayacak ve bana göre şu anki durumu fail. Ayrıca piyasada panel kaliteleri beklenildiği gibi olmayan TV'ler var, bazıları ise çakma 4K. Bunların nedeni teknolojinin daha olgunlaşmadan firmaların bir an önce pazara atılma hırsı yüzünden oldu. TV alacak olanlarada bir bilinçlendirme olur umarım.

    quote:


    10-bit ve 12-bit monitorler hakkında, WCG (wide color gamut) olarakta geçiyorlar ve oldukça pahalılar. Genelde fotoğrafla uğraşanlar alıyor.

    1) HDMI 2.0 bile 60FPS 4:4:4 (Full) RGB 4K'da 12-bit görüntü aktaramıyor.
    2) Bu tür monitorlerin ekstra olarak kalibre edilmeye ve OS ortamında renk profili oluşturulmaya ihtiyaçları var. Aksi takdirde normal web sayfalarında ki renkler kötü gözükecektir. Çünkü normal web sayfaları 6-8-bit monitorler için tasarlanıyor (AdobeRBG farkı).
    3) Color banding sorunu bu monitorlerde olmaz fakat bazı oyunlarda oyun motorundan kaynaklı aynı sorun çıkabilir.
    4) 10-bit/12-bit panellerden yararlanmak için oyunlarında desteklemsi lazım mesela Alien Isolation destekliyor.
    5) 10-bit/12-bit paneller daha fazla renk sunacağından farkı anlayacaksınız fakat eğer görüntü o kadar renk verebiliyorsa. Mesela fotoğrafçılar sırf 12-bit içerikle çalışıyorlar, yeni nesil DSLR makineler 10-bit çekebiliyor vs. Ama oyunlar hala 6-8bit, bluray filmler bile 8-bit.

    Normal monitorlerin kalibre edilmeye ihtiyacı yok, şahsi fikrim, fabrikadan gelen ayar uygun görüntüyü verecektir. Ama ben elle ayarlamak istiyorum diyorsanız, internette monitorunuz için hazır ayarlar bulmanız çok basit.
    Hatta renk profiller bile var (manual ayar yapınca kullanılması gerekiyor bazen) ama exclusive fullscreen alan uygulamalar (oyunlar vs) renk profili disable oluyor ve oyunun kendi profili kullanılıyor, her ne kadar bunun gerekli olduğu düşünsemde WCG monitorlerde bu kötü bir olay ve bunu engellemek için bazı ufak tool'lar mevcut.

    Ekstra bir not ise HDR TV'ler hakkında. HDR TV'ler 10-bit (WGC) panellere sahipler, diyeceksiniz ki benimde panelde öyle o zaman bende de HDR desteği var. Hayır yok, malesef firmalar para kazansın diye HDR desteğini ayrı bir olay olarak tanıttılar (tamamen salakça bir gimmick) ve "HDR10" veya Dolby Vision uyumlu içerik adı altıyla UHD Bluray'ler falan çıkacak.
    Yani HDR10 destekli bir içeriğede sahip olmanız lazım. HDR içerikler 4:4:4 Full RGB değil hatırlatayım (ne kadar saçma değil mi?) ve piyasada hala daha gerçek 4K olmayan bir sürü model TV var.


    Bu bilgi yanlış. "Dolby Vision" HDMI 2.0A standardına göre belirlenmiş 12-bit kaynak içerir. HDMI 2.0B ise 10-bit. Dolby'nin 2 bit fazlalığı 10-bit video içerdiğinden. Eğer "4:4:4 değil" denirse, o zaman HDR10 da 4:4:4 değil. Onun 2-biti, HDR'ye ayrılmış 8-bit 4K60p 4:2:0 görüntü.




  • Mete Can Karahasan kullanıcısına yanıt
    Hemen değiştiriyorum. Dolby Vision'ı araştırmamıştım, HDR10 ile aynı sandım.
  • Interstellar 4K Bluray remux'u: MPEG-H HEVC Video 51670 kbps 2160p / 23.976 fps / 16:9 / Main 10 Profile 5.1 High / 4:2:0 / 10 bits / HDR / BT.2020 / dosyasına sahip,gerçek 10 bıt, 1 milyar renk sunan tv ile gtx960 ekran kartı ile 10bıt renk alınabiliyor sanırsam ..yani gtx960 ekran kartı 10bıt gerçek panele tv/monitör fark etmeksizin 10bıt renk sunabiliyormu..
    https://forums.geforce.com/default/topic/859515/gtx-960-10-12-bit-colors-/



    < Bu mesaj bu kişi tarafından değiştirildi MERNEPTAH -- 5 Şubat 2018; 3:57:18 >
  • NVIDIA ekran kartlarında oyun oynarken, RGB + Full mı yoksa ycbcr444 sınırlı mı ? yapılması lazım.
  • EnverPascha kullanıcısına yanıt
    DVI'dan bağlıyorsan o ayarın gözükmemesi lazım (ya da DP). HDMI'dan TV'ye bağlısın galiba, RGB Full olmalı, ayrıca TV'den de PC moduna alınmalı (internette araştır) ve HDMI black level standard'a normal'e ayarlı olması lazım.

    Neden YCbCr444 değil dersen de, PC'de gördüğün görüntünün formatı ister oyun ister video olsun RGB'dir. YCbCr seçersen chroma'yı yani rengi convert etmiş oluyorsun, ideal değil. Diyebilirsin ki bluray formatı YCbCr420 o zaman nasıl oluyor, YCbCr420'ı HDMI'dan yollayamazsın ve zaten PC'nin ana formatı RGB olduğundan bunu convert etmen gerek. Bunu en iyi yapan şeyse madVR. Banding ve kalite kaybı olmadan bluray formatını RGB 4:4:4'e (full) PC standard'ına convert yapıyor.



    < Bu mesaj bu kişi tarafından değiştirildi X-FI -- 18 Şubat 2018; 18:53:49 >
  • 
Sayfa: önceki 56789
Sayfaya Git
Git
sonraki
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.