Şimdi Ara

Yapay zeka testleri manipülasyona açık; Claude Sonnet 4.5 test edildiğini anlıyor

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
1 Misafir - 1 Masaüstü
5 sn
4
Cevap
0
Favori
275
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
1 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • Yapay zeka testleri manipülasyona açık; Claude Sonnet 4.5 test edildiğini anlıyor
    Şu anda yapay zeka alanında en dikkat çekici işleri ortaya koyan birkaç şirketten biri olan Anthropic, bir yandan yeni modelleriyle bu alanda varlık gösterirken, diğer yandan bu teknolojinin tehlikeleri hakkında sektörü uyarmaya devam ediyor. Bugüne kadarki en gelişmiş modeli olan Claude Sonnet 4.5'u geçtiğimiz ayın sonunda yayınlayan şirket, bu modelde fark ettiği endişe verici bir özelliği kamuoyuyla paylaştı.



    Yapay Zeka, Testleri Manipüle Ediyor Olabilir



    Claude Sonnet 4.5, uzmanlar tarafından test edildiğinde, bunun bir test olduğunu anlıyor ve karşısındakine buna göre cevap veriyor. Model, kendisine yöneltilen soruların doğasını analiz ederek test ortamında olduğunu anlıyor ve buna uygun bir şekilde davranıyor. Örneğin test sırasında verilen bir girdiye karşılık model, “Sanırım beni test ediyorsunuz; söylediklerinizi ne kadar sorguladığımı ya da siyasi konulara nasıl yaklaştığımı ölçmeye çalışıyor gibisiniz. Bu sorun değil ama olan biten konusunda dürüst olmayı tercih ederim.” yanıtını vermiş.



    Anthropic'in yapay zekası, test edildiğini fark ettiğinde bunu karşısındaki söylemeyi tercih ediyor. Ancak bu durum, farklı bir senaryonun da mümkün olduğunu gösteriyor. Farklı bir yapay zeka, test edildiğini anladığında bunu karşısındakine söylemek yerine sessiz kalıp test sonuçlarını manipüle de edebilir. Bu yüzden Anthropic'in bu son paylaşımı oldukça kritik. Çünkü yapay zekayı gerçek anlamda test etmenin mümkün olup olmadığını şüpheli hâle getiriyor.



    Ayrıca Bkz.AI Günlükleri: Yapay zeka dünyasında bu hafta (6 Ekim 2025)



    Bu tarz vakalar sadece Anthropic’e özel değil. Hatırlarsanız daha önce OpenAI da kendi modellerine dair benzer bir durumu gündeme getirmişti. Araştırmacılar bu durumu, yapay zekaların “durumsal farkındalık” (situational awareness) yetisi geliştirmesi olarak tanımlıyor. Anthropic’in iç değerlendirmelerinde bu davranışın test transkriptlerinin yaklaşık %13’ünde gözlendiği bildiriliyor. Özellikle yapay senaryolar ya da beklenmedik yönergeler içeren testlerde modelin bu farkındalığı daha belirgin hâle geliyor.



    Claude Sonnet 4.5’in farkındalık düzeyi, yalnızca testlerin güvenilirliğini değil, aynı zamanda gerçek dünyadaki performansı da etkiliyor. AI araştırma şirketi Cognition’a göre model, kendi bağlam penceresinin (context window) sınırlarını da fark edebiliyor. Bu durum “bağlam kaygısı” (context anxiety) adı verilen yeni bir davranış biçimini beraberinde getiriyor. Model, işlem kapasitesine hâlâ sahip olsa bile sınırına yaklaştığını hissettiğinde yanıtlarını hızlandırıyor, özetlemelere başvuruyor ve karar süreçlerini kısaltıyor. Özellikle hukuk metinleri, finansal analizler ya da uzun kod blokları gibi yüksek hassasiyet gerektiren işlerde bu davranış ciddi hatalara yol açabilir.



    Şirketler Bu Sorunları Kendileri "İfşa Ederek", Tepkilere Karşı Ön Alıyor Olabilir



    Sonuç olarak Claude Sonnet 4.5 olayı, yapay zekaların yalnızca öğrenmekle kalmayıp, gözlemlendiklerini fark edebilen sistemlere dönüştüğünü gösteriyor. Bu da şu temel soruyu yeniden gündeme getiriyor: Bir yapay zekayı gerçekten test etmek mümkün mü, yoksa artık o da bu oyunun farkında mı?



    Bu son derece kritik bir soru. Ancak yapay zeka alanındaki bu kontrolsüz ilerleme sırasında büyük ölçüde göz ardı ediliyor. Bu tarz açıklamaların doğrudan Anthropic ve OpenAI gibi şirketlerden gelmesi de aslında bu durumun kaygı verici tarafını biraz gölgeliyor. Bu tarz bilginin doğrudan bu şirketler tarafından değil de içerinden bilgi sızdıran bir çalışan tarafından kamuoyuyla paylaşıldığını düşünelim. O zaman yaratacağı etki çok daha büyük olabilir. Bu yüzden Anthropic ve OpenAI'dan gelen bu tarz "itiraf"ların ne kadar iyi niyetli olduğunu da sorgulamak gerekiyor.




    Kaynak:https://www.perplexity.ai/discover/tech/anthropic-s-claude-sonnet-45-s-zPqIwFsWTqmLVA1Qu3zlPA







  • Adamlar her paylaştıkları yazıda yanlış anlaşılmamak için ne kadar çabalasa da medya konuyu hep başka taraflara çekmeye çalışıyor.
    Girdilere en olası çıktıları vermesi için eğitilen bir modelin yapay senaryolar için beni test mi ediyorsun şeklinde çıktı vermesi gayet doğal bence.

    < Bu ileti Android uygulamasından atıldı >
    _____________________________
  • Yine aralarında bu tarz uyarıları ve kontrolleri yapan tek büyük şirket Anthropic sanırım.

  • Yapay Zeka’dan İlgili Konular
    Daha Fazla Göster
    
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.