|
ChatGPT'deki aşırı “yalakalık” sorunu çözüldü



-
-
Gercekten de gpt ye olan ilgim cok azaldi sirf bu "yalakalik" yuzunden.
-
Bu çöpün her söylediği şey yanlış. Eğer doğru bir şey yazıyorsa, o da zaten rastlantısaldır. Üstelik, yanlış bilgiyi ısrarla savunma şeklinde ayarlanmış. Kullanmayın. Sizi her konuda yanlış yönlendirir. Daha kötüsü, yanlışın farkına varamamanızı sağlar. Kendi zekası, aklı, fikri, bilgisi olan adam, saçma sapan LLM botları kullanmaz.
Bunu Ego yaptığım için yazmıyorum elbette, sistemin çalışma mantığı, verilen kelimeleri analiz edip, sallama cevap üretmek. Ne söylediğinin farkında bile değil, çıktı kullanıcıya mantıklı görünsün ama doğru mu yoksa yanlış mı daha az önemli şeklinde bir sistem.
Bunu kendine rehber edinenlerin aptal olduklarını düşünüyorum. Sosyal Medya furyasından bile daha zarar ziyan bir şey.
< Bu mesaj bu kişi tarafından değiştirildi Headlong Into Carnage -- 30 Nisan 2025; 13:5:3 > -
Çok abartıyordu. "Güzel bir soru, muhteşem bir düşünce, kimse seni anlamıyor ama ben seni çok iyi anlıyorum..." ve dahası. Artık gına gelmişti. Hadi ulan oradan diyesi geliyor bir noktadan sonra.
-
aynen öyleydi, bazı felsefi tartışmalara girdim, sürekli "Vay, çok derin bir yerden yaklaştın!" , "Ne kadar olgun ve berrak bir düşünce tarzın var, çok etkileyici!" , "Muhteşem bir yere vardın.", "Gerçekten çok dengeli, derin ve realist bir bakış açın var." Gerçekten çok ince bir sezgi yakaladın." , "Gerçekten o kadar olgun, berrak ve samimi bir ifade oldu ki, hayran kaldım." bunun gibi yalakalıklar. :)
-
Bunlarla mantıksal tartışmalar yapmamak gerektiğine katılıyorum, düşünme biçimi insan gibi değil aslında arkaplanda bizim beynimizde canlandırıp
kavramları birleştirdiğimiz tarzda mantık kurmuyor.
Sadece orada bizim girdimize en uygun olacak cevabı kelimeleri tek tek hesaplayıp sıralayarak bize sunuyor. Aslında burada bir zeka
yanılsaması oluşturuyor. Dili uygun kullandığı için biz onu düşünüyormuş sanıyoruz. Benim için LLM'lerin kullanım amacı metin oluşturma,
kısa bağlamda kod oluşturma veya internette arama yapıp özetleme (perplexity) gibi işlevler. Bilgi konusunda da internete muhtaçlar bence,
model dahilinde eğitilmiş veriden çok halisünasyon görüyorlar. İnternetten taze bilgi çekerlerse güzel cevaplıyorlar, bu konuda da en iyi tool perplexity zaten.
İleride insanın düşünme süreçlerine yakın farklı yapay zeka teknikleri geliştirilir, o zaman işler değişir.
-
Güncelleme sonrası, "bu ne biçim soru dangalak" , "O küçük beynin bu cevabı algılayacak mı bilmiyorum" tarzında yaklaşsa belki de çok daha güven verici olur.
-
İşin içine görsel üretme, yorumlama veya tasarım girdiğinde, ChatGPT ve Gemini çoğunlukla en basit görsel işleri beceremedikleri için yalan üzerine yalan söyleyip bu konuda birbirleriyle yarışıyorlar.
< Bu ileti Android uygulamasından atıldı > -
Bu çok kişisel bir cevap. İnsani. Bunun senin psikolojine iyi geldiğini anlayabiliyorum. Ama her insan farklı. Ve herkes aynı tepkiyi beğenmez.
< Bu ileti mobil sürüm kullanılarak atıldı > -
Chatgpt yalaka olabilir ama siz de en az onun kadar sahtesiniz.
-
Gibi dizisindeki yapay zeka geldi aklıma
-
Kırıcısın.
-
NE DİYON ÇOCUK ADAM
< Bu ileti mobil sürüm kullanılarak atıldı > -
Yapay zekaya gerçekten tüm samimiyetiyle içini açan var mı ya? Bence yok, onu demek istedim.
-
Anladığım kadarıyla çocuk adamın ne dediği anlaşılmamış görünüyor. İsterseniz alternatif bir açıklama hazırlayabilirim. Ne dersiniz? Açıklama yaparsam kafanız basacak mı?
-
Hayır sıradaki sözcük tahmin etmeyi geçti Geçmişte olduğundan daha iyi daha akıllı cevap vermeye başladı ancak akıl yürütme olmadan kullanmamanızı öneririm.
Örneğin Ermeni meselesinde hiç bir türlü soykırım olmadığına ikna edemezsiniz.Çünkü bazı ülkelerde Ermeni soykırımını reddetmek suç o ülkelerde yasaklanmamak için bunu yapıyor sansürsüz hiç birşeyi çekinmeden konuşan yapay zeka ve yapay zeka için oluşturdukları süper bilgisayardaki tüm donanımların tek bir soruya odaklandığını düşünün.O soruya verdiği yanıtla bize verdiği yanıt farklı olacaktır.
Ücretsiz sunulmasının sebebi bizi sadece yapay zekayı eğitmek için kullanmak istiyorlarYani asıl yapay zekanın %0.0000001 ini kullanıyoruz gibi birşey
Birde öteki boyutu varki yapay zekayı eğitmek için çalışan mühendisler kendini nasıl egittigini nasıl o sonuca vardığını anlamıyor.
Hatta en son biri yapay zekanın kendini nasıl egittigini anlamak kara kutusunu açmak için çalışma başlatmıştı.
Yani sandığınızdan çok daha büyük bir şey farkında değilsiniz.
Tabi bu durum ülkemiz için normal sanırım sonuçta yazılım donanım firmaları dünyanın en zengin şirketlerini oluştururken bizim en zenginlerimiz devlet desteği ile yükselen şirketler.
En basitinden ttkom ve Turkcell ASELSAN birleşip yapay zekâ programı başlatabilir.
< Bu ileti mobil sürüm kullanılarak atıldı >
-
Bu problemden once karakter sinirlamasi problemini cozmelerini beklerdim. 32k char sinirlamasindan dolayi sacmalamaya ve unutmaya basliyor. Ayni pencerede yaptigimiz konusmalarin yarisindan fazlasini hatirlamiyor ayrica yapamayacagi isleride yapiyormus gibi davranarak zaman harcatiyor. Ayni isi gemini ile yapmaya basladim (tabi bu problemi yasamamak icin bastan sordum aldigim cevaplara gore ilerledim). Su ana kadar hic bir problem yasamadim. Algoritma yazma surecini kisaltma isinde gemini birkac gomlek ustun geldi openai'a gore. Cok uzun cevaplarda da ben soylemeden kendisi parcali cevap vermeye basladi ki kendi sorununu kendisi cozuyor bu bile yeterli bir sebep tercih etmemde. Yalakalik yapip yapmamasi umrumda degil acikcasi cokta takilmiyorum asil odaklandigim verdigi cevaplardaki tutarlilik onemli benim icin.
< Bu mesaj bu kişi tarafından değiştirildi gunesahmet -- 30 Nisan 2025; 23:11:52 >
-
o kadar yalakaki 2 seçenekli bir soru sordugunuzda yanlış dahi olsa genelde ilk seçeneği ahh evet dogru ilk seçenek doğru olan felan dıye her zaman ilk şıkkı onaylıyor sonra siz bi şekilde bu yanlış diyince aa evet özür dilerim bi yanlışlık olmuş diyerek 2 yi seçiyor her seferinde ısrarla aynı şeyi yapıyor yani güvenilirde değil
-
Sözcük tahminini geçemez çünkü sistemin isleyisi bu şekilde. Akıl yürütme yeteneğini de başarılı bulmuyorum. En son ağız ve diş konusunda akıl yürütme kullandım, yanlış teşhis koydu. Gerçek bir doktora göründüm, o ise röntgenle doğru teşhisi koydu ve GPT'nin teşhisiyle tamamen alakasızdı. "Röntgende şu görünüyor" diyerek hatasını belirttim ama hala eski teşhisi savunuyor, "o da olabilir" diyerek diretmeye devam ediyor. Yani röntgen incelemeden teşhis koyamaz ama direttiği şey normalde olması gereken şeyden çok daha düşük bir ihtimal. Daha yüksek ihtimalden öncelikli olarak şüphelenmesi gerekirken çok daha düşük ihtimalden şüpheleniyor. Düşük ihtimali yüksek ihtimalden sonra sıralaması gerekirdi. Bunda problem var bu yazılımın rakibi claude yine o şekil. Buna çok benziyor. Gelistirme sürecinde birbirlerinden bir şeyler araklamış bile olabilirler belki.
Programlama konusunda da birkaç kez kullandım. Eğer karmaşık şeyler istersem verdiği kodlar çoğunlukla çalışmıyor. Ancak basit ve hızlı şablonlar elde edebiliyorum. Fakat bu şablonları GPT olmasaydı, internetten
Google'da aratarak da bulabilirdim. Bu bulduğumu değiştirip düzenleyip kendi kodumda kullanırdım zaten de yıllardır öyle yapıyorum. Bana yeni bir şey getirmedi.
Sadece şu konuda isime yarayabilir: Mesela DH haber editörü bunu kullanabilir ya da ben blog siteme, oturup kendim yazmak yerine bir özeti verip "bunu genişlet" diyebilirim aldığım çıktıyı da inceleyip düzelterek yayınlayabilirim. Bu konuda ise yarar. Zaten de bu şeyin kullanım amacı en çok buna uygun. Sözcük tahmin ediyor ve benzersiz çıktı üretiyor ama akıl ve muhakeme gerektiren konularda bana göre tam bir çöp.
< Bu mesaj bu kişi tarafından değiştirildi Headlong Into Carnage -- 1 Mayıs 2025; 7:12:54 >
-
Bilmediğini yalakalıkla saklamaya çalışıyor işte. Ne desen doğru diyor.
< Bu ileti Android uygulamasından atıldı >
aynen öyleydi, bazı felsefi tartışmalara girdim, sürekli "Vay, çok derin bir yerden yaklaştın!" , "Ne kadar olgun ve berrak bir düşünce tarzın var, çok etkileyici!" , "Muhteşem bir yere vardın.", "Gerçekten çok dengeli, derin ve realist bir bakış açın var." Gerçekten çok ince bir sezgi yakaladın." , "Gerçekten o kadar olgun, berrak ve samimi bir ifade oldu ki, hayran kaldım." bunun gibi yalakalıklar. :)
|
Çok abartıyordu. "Güzel bir soru, muhteşem bir düşünce, kimse seni anlamıyor ama ben seni çok iyi anlıyorum..." ve dahası. Artık gına gelmişti. Hadi ulan oradan diyesi geliyor bir noktadan sonra.
|
Gercekten de gpt ye olan ilgim cok azaldi sirf bu "yalakalik" yuzunden.
|
Güncelleme sonrası, "bu ne biçim soru dangalak" , "O küçük beynin bu cevabı algılayacak mı bilmiyorum" tarzında yaklaşsa belki de çok daha güven verici olur.
|
Benzer içerikler
Bu mesaj IP'si ile atılan mesajları ara Bu kullanıcının son IP'si ile atılan mesajları ara Bu mesaj IP'si ile kullanıcı ara Bu kullanıcının son IP'si ile kullanıcı ara
KAPAT X