Şimdi Ara

1960’lardan kalan ELIZA, Turing testinde ChatGPT’yi yendi!

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
1 Misafir - 1 Masaüstü
5 sn
9
Cevap
0
Favori
469
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
2 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj

  • "GPT-4 Turing Testini Geçiyor mu?" başlıklı bir ön baskı araştırma makalesinde, UC San Diego'dan iki araştırmacı, OpenAI'ın GPT-4 yapay zeka dil modelini insan katılımcılarla, GPT-3.5 ve ELIZA ile karşı karşıya getirerek hangisinin katılımcıları insan olduğuna inandırmada daha başarılı olduğunu görmeye çalıştı. Ancak hakemli olmayan çalışma, insan katılımcıların oturumları yalnızca yüzde 63'ünde diğer insanları doğru bir şekilde tanımladığını ve 1960'lardan kalma ELIZA'nın ChatGPT'nin ücretsiz sürümüne güç veren yapay zeka modelini geride bıraktığını ortaya koydu.



    İngiliz matematikçi ve bilgisayar bilimcisi Alan Turing, Turing testini ilk olarak 1950 yılında "The Imitation Game" ismiyle ortaya koymuştu. O zamandan bu yana, bir makinenin insan konuşmasını taklit etme yeteneğini belirlemek için ünlü ancak tartışmalı bir kriter haline geldi. Testin modern versiyonlarında, bir insan yargıç tipik olarak hangisinin hangisi olduğunu bilmeden ya başka bir insanla ya da bir sohbet robotuyla konuşuyor. Eğer yargıç sohbet robotunu insandan belirli bir oranda güvenilir bir şekilde ayıramazsa, sohbet robotunun testi geçtiği söylenir. Testi geçme eşiği özneldir, bu nedenle geçme başarı oranını neyin oluşturacağı konusunda hiçbir zaman geniş bir fikir birliği olmadı.



    ChatGPT, ELIZA'ya yenildi




    Ekim ayı sonunda arXiv'de yayınlanan çalışmada, UC San Diego araştırmacıları Cameron Jones ve Benjamin Bergen turingtest.live adlı bir web sitesi kurarak, GPT-4'ün farklı şekillerde uyarıldığında insanları insan olduğuna ne kadar iyi ikna edebileceğini görmek amacıyla Turing testinin iki oyunculu bir uygulamasını çevrimiçi olarak gerçekleştirdiler.



    Site aracılığıyla, insan sorgucular ya diğer insanları ya da yukarıda bahsedilen GPT-4, GPT-3.5 ve 1960'lardan kalma kural tabanlı bir konuşma programı olan ELIZA'yı içeren yapay zeka modellerini temsil eden çeşitli "yapay zeka tanıkları" ile etkileşime girdi. Teste katılan herkese rastgele roller atandı. Testte tanıklara sorgucuyu insan olduklarına ikna etmeleri talimatı verildi. Yapay zeka modelleriyle eşleşen oyuncular ise her zaman sorgucu rolündeydi.



    Deneyde 652 katılımcının toplam 1.810 oturum tamamladığı ve bunlardan 1.405 oyunun da analiz edildiği belirtiliyor. Şaşırtıcı bir şekilde, 1960'ların ortalarında MIT'de bilgisayar bilimcisi Joseph Weizenbaum tarafından geliştirilen ELIZA, çalışma sırasında yüzde 27'lik bir başarı oranı elde ederek nispeten iyi bir puan aldı. GPT-3.5, soruya bağlı olarak, ELIZA'nın gerisinde kalarak yüzde 14'lük bir başarı oranı elde etti. GPT-4 yüzde 41'lik bir başarı oranına ulaşarak gerçek insanlardan sonra ikinci sırada yer aldı.




    ChatGPT'nin ücretsiz sürümünün arkasındaki temel model olan GPT-3.5, OpenAI tarafından özellikle kendisini bir insan olarak sunmaması için şartlandırılmıştı, bu da düşük performansını kısmen açıklayabilir.



    Oturumlar sırasında sıkça kullanılan stratejiler arasında küçük sohbetler ve sorgulamalar yer alıyordu. Dilsel üslup ve sosyo-duygusal özelliklere dayalı olarak yapılan değerlendirmeler, katılımcıların kararlarını şekillendirmekte etkili olmuş gibi görünüyor.  Ek olarak çalışma, eğitim seviyesi ve dil modellerine aşinalığın yapay zeka tespitinde belirleyici olmadığını gösteriyor.



    GPT-4 de başarısız



    Sonuç olarak, çalışmanın yazarları GPT-4'ün Turing testinin başarı kriterlerini karşılamadığı, ne yüzde 50 başarı oranına ulaştığı (50/50 şanstan daha yüksek) ne de insan katılımcıların başarı oranını aştığı sonucuna vardı.



    Ayrıca Bkz.ChatGPT için evrensel “jailbreak” istemi bulundu!



    Araştırmacılar, doğru uyarı tasarımıyla GPT-4 veya benzer modellerin sonunda Turing testini geçebileceğini düşünüyor. Ancak asıl zorluk, insan konuşma tarzlarının inceliklerini taklit eden bir ipucu tasarlamakta yatıyor. GPT-3.5 gibi GPT-4 de kendini insan gibi göstermemeye şartlandırılmış durumda.



    Öte yandan yapılan oturumlarda insanlar, karşılarında gerçek bir insan olmasına rağmen onların gerçek olduğuna ikna olmadı veya başka bir deyişle; insanlar, insan olduklarını kanıtlayamadı. Bu durum insan zekasının yapısından ziyade testin doğası ve yapısı ile jüri üyelerinin beklentilerini yansıtıyor olabilir. Araştırmacılar bazı insanların yapay zeka gibi davranarak “trolleme” yaptıklarını da belirtiyor.




    Kaynak:https://arstechnica.com/information-technology/2023/12/real-humans-appeared-human-63-of-the-time-in-recent-turing-test-ai-study/







  • Çeviri haber yapıyorsunuz tamam, e bi kere okusanız. Türkçeye biraz saygınız olsun.

  • Kesin öyledir bu arada ya :d


  • O zaman Eliza geliştirilmeli.

    < Bu ileti iOS uygulamasından atıldı >
  • ilk yapilan sohbet programlarinda uygulanmis cok akillica hileler vardi, tamamen insani kandirmak icin yapilmisti. mesela soru sordugunuzda soruyla cevap veriyor. gercek yapay zeka degil ama sorulari tatmin edici sekilde savusturabiliyor. ote yandan caht gpt sorulara cevap vermek icin yapildigindan uzun uzun yaziyor, dilindeki politik dogrucu ifadeleride dusununce chat gpt yi daha once kullanmis biri hemen cumlelerinden dilinden onu ayirt edebilir. ama chat gpt insani kandirmak ai olmadigina ikna etmek icin yapilmis olsaydi durum farkli olurdu, ayirt edebilecek insan buyuk ihtimal cikmazdi. cunku dile gercekden cok hakim. sorulan sorulari yanlis cevapladigi oluyor ama neredeyse hemen her zaman sorulan sorunun ne oldugunu anliyor, yanlisda yazsaniz, iki dili karistiripda yazsaniz, sokak dilinden tabirler benzetmelerde kullansaniz anliyor. insani taklit edip kisa basit cevaplar verse tamamen ayirt edilemez olur.

  • Google duplex gibi insan ses mimik hareketlerini taklit etseydi kaç kişi ayırt edebilirdi.

  • adı üstünde yapay zeka, gercek zeka ile yarışamaz, globalden gelen haberlerin cogu balon zaten, bir kesim var ki yapay zeka bizi ele gecirsin hemen diye dua ediyor, genelde de bu kesim abartıyor zaten, yapay zeka hicbir işe yaramayacak bir balon, onumuzdeki senelerde yapay zeka işleri arttıkca herkes öğğ demeye başlayacak, yapay zeka ise direkt çöpe gönder gibi gibi deyimler oluşacak, neyse yapay zeka bizi ele gecirsin lutfen, matrix gercek olsun tayfasini uzmeyelim fazla, hayal kurmaya devam👋

    < Bu ileti Android uygulamasından atıldı >
  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.