Şimdi Ara

“Grok, bu doğru mu?”: X’te Grok’u bilgi doğrulamak için kullanmayın

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
12
Cevap
0
Favori
795
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
3 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • “Grok, bu doğru mu?”: X’te Grok’u bilgi doğrulamak için kullanmayın
    Elon Musk’ın sahibi olduğu X (eski adıyla Twitter), geçtiğimiz ay xAI’ın yapay zeka destekli asistanı Grok’u platforma entegre etti. Kullanıcılar, Perplexity gibi sistemlerin sunduğuna benzer bir deneyim yaşamak için Grok’a doğrudan sorular yöneltebiliyor. Ancak, bazı kullanıcıların Grok’u bir doğrulama aracı olarak görmeye başlamış olması oldukça endişe verici.



    Grok’un dezenformasyon potansiyeli



    Hem Türkiye’de hem de dünya genelinde kullanıcılar, çeşitli gönderilerin alına “@grok, bu doğru mu?” şeklinde yorum atarak konuya dair gerçek bilgileri istiyor. Ancak bu, pek istenen bir davranış değil.



    Grok’un yapay zeka tabanlı bir asistan olarak doğal ve güvenilir bir dil kullanabilmesi, yanlış bilgileri bile gerçeğe yakın ve ikna edici göstermesine neden olabiliyor. Bu durum, özellikle siyasi tartışmalarda manipülasyon riskini artırıyor. Çünkü Grok, ChatGPT ve benzeri modeller “gerçek” ile “yanlış” bilginin ne olduğunu bilmezler, aslına bakarsanız doğaları gereği herhangi bir şeyi bilmezler. Verilen yanıtlar birer olasılık hesabıdır ve modeller, halüsinasyon görmeye eğilimlidir; yani Grok gibileri bir şeyler uydurabilir.



    Her ne kadar Grok ve diğerleri doğru bilgi verecek şekilde duvarlarla çevrilmiş olsa da yanıtları her zaman güvenilir değil ve ciddi bilgi kirliliği yaratma potansiyeline sahip. Bir diğer faktör de Grok ve diğerlerinin eğitim aldığı verilerle ilgili. Grok’un verdiği yanıtlar ne kadar ikna edici olursa olsun, yalnızca beslendiği veriler kadar iyidir. Grok, X'e gerçek zamanlı olarak erişebiliyor; bu, anlık güncel bilgiye erişmek için faydalı olsa da yanlış bilgiye de hızlıca erişilebileceği anlamına geliyor.



    Ayrıca Bkz.Google Gemini'ye iki yeni özellik geliyor: Canvas ve Popcast oluşturma



    Öte yandan, yapay zeka asistanlarının sosyal medya platformlarında herkesin erişimine açık olması, yanlış bilgilerin kitlesel bir etkiye dönüşme riskini artırıyor. Kullanıcılar, Grok’un verdiği bilgilerin hatalı olabileceğinin farkında olsalar bile, yanlış bilgiyi gören diğer kişiler bunu sorgulamadan gerçek kabul edebilir. Üstelik Grok, verdiği yanıtlarda herhangi bir uyarı da yapmıyor.



    Elbette Grok’un tüm yanıtlarında hata vardır demiyoruz; burada bir olasılıktan bahsediyoruz. Verilen bilgilerin çoğunluğu doğru olabilir ancak arada yanlış olanlar da bulunuyor.



    “Grok, bu doğru mu?”: X’te Grok’u bilgi doğrulamak için kullanmayın
    Bunlar için birkaç örnek vereceğim. İlk örnekte Grok, Sırbistan’da olan bir protestonun İstanbul’da Saraçhane’de olduğunu söylüyor.



    “Grok, bu doğru mu?”: X’te Grok’u bilgi doğrulamak için kullanmayın
    İkinci örnek ise eski futbolcu Ümit Karan’ın bir şarkı eşliğinde dans ettiği video hakkında. Kullanıcı şarkının adını öğrenmek istiyor ancak Grok, yanlış cevap vererek şarkının “I Will Survive” olduğunu söylüyor. Oysa çalan şarkı “Smack Yo'” adında bir parça.



    “Grok, bu doğru mu?”: X’te Grok’u bilgi doğrulamak için kullanmayın
     Benzer bir hata da Grok'un yanlış film adı vermesiyle ortaya çıkıyor. Grok, videodaki "Georgie & Mandy's First Marriage" filminin "Men & Chicken" olduğuna inanıyor. 









  • "Bilmek” kelimesini herhangi bir kurallı sistemin çıktı üretmesiyle eş tutarsak, o zaman bir hesap makinesi de ‘biliyor’ olur, çünkü 2+2’ye 4 cevabını verir. Ancak ‘bilmek’, daha çok bir sistemin çıktılarıyla değil, o çıktılar üzerine sahip olduğu kavramsal ve bağlamsal farkındalık ile anlamlandırma yeteneğiyle ilgili.

    İnsan bilişini yapay sinir ağlarıyla kıyaslarken genellikle ‘nöronlar da bilinçli değil, kurallar çerçevesinde çalışıyor’ gibi argümanlar öne sürmek ilk bakışta mantıklı geliyor olabilir. Ancak takdir edersiniz ki insan zihni sadece nöronlardan oluşan bir hesaplama sistemi değil; bilinç, sezgi, anlam inşası ve öznel deneyimler gibi unsurlarla şekillenir. İnsan beynindeki bağlantılar dinamik, bağlamsal ve amaç yönelimlidir; yalnızca istatistiksel bir çıktı üretmekten fazlasını yapar.

    Öte yandan, büyük dil modelleri (LLM'ler) sadece olasılıksal dağılımlara göre kelime üreten sistemlerdir. Modelin eğitildiği veri kümesi içindeki kelime örüntülerini analiz ederek, hangi kelimenin hangi bağlamda ne sıklıkla kullanıldığını hesaplar. Bu nedenle, bir LLM’nin yanıt üretme süreci bilinçli anlamlandırmaya değil, istatistiksel olasılıklara dayanır.

    Örneğin, ChatGPT veya Grok, "Su 100 C’de kaynar" ifadesini ürettiğinde bu gerçeği bildiği için değil, yalnızca eğitim verisinde bu cümlenin yüksek olasılıkla geçtiği için üretiyor. Eğer eğitim verisinde sıkça ‘Su 90 C’de kaynar’ gibi yanlış bilgiler olsaydı, model bu yanlışı gerçekmiş gibi tekrar edebilirdi. Çünkü modelin, bilgiyi doğrulama veya gerçeklikle kıyaslama yetisi bulunmuyor.
    Bilmek ne demek? Parametrelerin matematiksel olarak belirli bir kurala dayalı sonuç üretmesi ve sistemin buna göre çalışması onun bir şey bilmediği anlamına geliyorsa insan zekası da riske girer. Çünkü insan zekasını oluşturan nöronlar da tekil olarak bilinçli değiller ve belirli kurallar çerçevesinde sonuç üretiyorlar.
  • Bu sanal zekalar suistimale çok açık şeyler.Doğruyu bunlardan kabul etmek,
    Tabiri caizse hafif tabirle biraz saflıktır.

  • Sürekli her şeyi yapay zekaya başvurmak bir yönden insan IQ sunun zayıflamasına kim bilir insan beyninin bir bölgesinin de küçülmesine neden olabilir. Tam akademik bir araştırma konusu.

  • Ekrem grok’u da yemiş

    < Bu ileti iOS uygulamasından atıldı >
  • @grok Bu haber doğru mu?

  • quote:

    Çünkü Grok, ChatGPT ve benzeri modeller “gerçek” ile “yanlış” bilginin ne olduğunu bilmezler, aslına bakarsanız doğaları gereği herhangi bir şeyi bilmezler.


    Bilmek ne demek? Parametrelerin matematiksel olarak belirli bir kurala dayalı sonuç üretmesi ve sistemin buna göre çalışması onun bir şey bilmediği anlamına geliyorsa insan zekası da riske girer. Çünkü insan zekasını oluşturan nöronlar da tekil olarak bilinçli değiller ve belirli kurallar çerçevesinde sonuç üretiyorlar.

    < Bu ileti Android uygulamasından atıldı >
  • Adamın memleketten haberi yok yazmış grok bu doğru mu?

    < Bu ileti Android uygulamasından atıldı >
  • Yapay Zeka’dan İlgili Konular
    Daha Fazla Göster
  • Ulan Musk kullanıcısına yanıt
    "Bilmek” kelimesini herhangi bir kurallı sistemin çıktı üretmesiyle eş tutarsak, o zaman bir hesap makinesi de ‘biliyor’ olur, çünkü 2+2’ye 4 cevabını verir. Ancak ‘bilmek’, daha çok bir sistemin çıktılarıyla değil, o çıktılar üzerine sahip olduğu kavramsal ve bağlamsal farkındalık ile anlamlandırma yeteneğiyle ilgili.

    İnsan bilişini yapay sinir ağlarıyla kıyaslarken genellikle ‘nöronlar da bilinçli değil, kurallar çerçevesinde çalışıyor’ gibi argümanlar öne sürmek ilk bakışta mantıklı geliyor olabilir. Ancak takdir edersiniz ki insan zihni sadece nöronlardan oluşan bir hesaplama sistemi değil; bilinç, sezgi, anlam inşası ve öznel deneyimler gibi unsurlarla şekillenir. İnsan beynindeki bağlantılar dinamik, bağlamsal ve amaç yönelimlidir; yalnızca istatistiksel bir çıktı üretmekten fazlasını yapar.

    Öte yandan, büyük dil modelleri (LLM'ler) sadece olasılıksal dağılımlara göre kelime üreten sistemlerdir. Modelin eğitildiği veri kümesi içindeki kelime örüntülerini analiz ederek, hangi kelimenin hangi bağlamda ne sıklıkla kullanıldığını hesaplar. Bu nedenle, bir LLM’nin yanıt üretme süreci bilinçli anlamlandırmaya değil, istatistiksel olasılıklara dayanır.

    Örneğin, ChatGPT veya Grok, "Su 100 C’de kaynar" ifadesini ürettiğinde bu gerçeği bildiği için değil, yalnızca eğitim verisinde bu cümlenin yüksek olasılıkla geçtiği için üretiyor. Eğer eğitim verisinde sıkça ‘Su 90 C’de kaynar’ gibi yanlış bilgiler olsaydı, model bu yanlışı gerçekmiş gibi tekrar edebilirdi. Çünkü modelin, bilgiyi doğrulama veya gerçeklikle kıyaslama yetisi bulunmuyor.





  • Yapay zeka ancak farklı bir bakış açısından yeni bir fikir verebilir. Nihai değerlendirmeyi yine kullanıcıya bırakır. O nedenle yapay zeka gerçek anlamda bir medya ombudsmanının yerine geçemez.


    Yapay zekaya aşırı güvenip kendi akıl süzgecini nadasa bırakanlar bu hususu gözden kaçırmaktadır. Bu durum toplumdaki medya okuryazarlığı becerisine karşı ciddiye alınması gereken bir tehdittir.

  • Metin Yasir Akpınar kullanıcısına yanıt
    Katılmadığım noktalar mevcut. Bir sisteme yönelttiğim 2+2 sorusuna sistemden gelen bir cevap var ise, bu bilgi sistem tarafından “biliniyor” şeklinde kabul etmek daha doğru olur. Eğer “bilmek” kavramı, bu sonuca dair “kavramsal ve bağlamsal farkındalık ile anlamlandırma yeteneği” ile tanımlanıyorsa, o hâlde 2+2 için doğru bir cevap veren fakat bu işlemin arkasındaki kavramsal anlayışa sahip olmayan birçok insanın da “bilmiyor” olarak değerlendirilmesi gerekebilir.

    İkinci paragrafta belirttiğiniz gibi, bir sistemi oluşturan parçaların, sistemin bütünüyle aynı özellikleri taşıması gerekmiyor. Bu durum zaten emergent behavior olarak adlandırılıyor ve hem insan beyninde hem de yapay sinir ağları için geçerli. Doğal olarak yapay sinir ağlarının temelindeki basit istatistiksel ve matematiksel işlemlerden yola çıkarak, bu yapıların bütününün de sadece istatistiksel çıktılar ürettiğini savunmak yanıltıcı olabilir. Çünkü yeterli büyüklükteki bir sistemde, insana özgü olduğunu düşündüğümüz özellikler birer birer ortaya çıkabilir. İnsan beynindeki bağlantılar ve yapının ise nasıl olduğunun mevcut modellerimizin kabiliyetleri açısından bir sınırlayıcılığı yok çünkü yine yukarıdaki sebepten mevcut yapay sinir ağlarındaki parametrelerin, insan beynindeki nöronlar kadar esnek ve dinamik olması şart değil. Yeterli sayıda parametre bir araya geldiğinde oluşturduğu üst yapı bir nöronun esnekliği ve dinamikliği şeklinde belirttiğimiz davranışı da pekala sergileyebilir. Buna isterseniz beyin kimyasını veya diğer unsurları da dahil edebilirsiniz.

    Eğitim verisi konusuna gelirsek, bir insan zekası da eğitim verisinde sürekli “Su 90°C’de kaynar” bilgisiyle karşılaşırsa, bunu bu şekilde öğrenir. Eğer elinizdeki termometre her seferinde 90°C’yi gösteriyorsa ve bunun aksini iddia eden bir bilgiyle karşılaşmadıysanız, insan zekâsı bu noktada nasıl bir fark oluşturur? Gerçekliğimiz, büyük ölçüde aldığımız eğitim verisiyle şekillenir.





  • Ulan Musk kullanıcısına yanıt
    Forumda aradığımız tartışma modeli budur.

  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.