Şimdi Ara

Hayır, Anthropic yapay zekanın “iyi çocuğu” değil... Diğerleri gibi!

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir (1 Mobil) - 1 Masaüstü1 Mobil
5 sn
10
Cevap
1
Favori
1.153
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
Öne Çıkar
12 oy
Sayfa: 1
Giriş
Mesaj


  • Pentagon’un Anthropic’e verdiği ültimatomun gölgesinde başlayan tartışmalar yapay zeka şirketlerinin askeri kullanım konusundaki gerçek pozisyonlarını yeniden gündeme taşıdı. ABD Savunma Bakanlığı’nın talebi oldukça net. Şirketler, ABD ordusuna kitlesel gözetim ve tam otonom ölümcül silah sistemleri dahil olmak üzere teknolojilerinin “yasal olan her amaç için” kullanılmasına izin vermeli. Aksi halde “ulusal güvenlik açısından tedarik zinciri riski” olarak damgalanma ihtimalini göze almalılar. Bu etiket, yüz milyarlarca dolarlık kamu sözleşmelerinden dışlanmak anlamına gelebilir. Anthropic, bir süre önce ABD’ye boyun eğmedi ve tedarik zinciri riski damgasını yedi. Ama bu, Anthropic’i yapay zekanın iyi çocuğu yapmıyor.



    Anthropic CEO’su Dario Amodei, kamuoyuna yaptığı açıklamada Pentagon’un tehditlerinin şirketin pozisyonunu değiştirmeyeceğini söyledi. Ancak bu çıkış, şirketi otomatik olarak “iyi taraf” yapmıyor. Amodei, ölümcül otonom silahlara ilkesel olarak karşı olmadığını, yalnızca bugünkü teknolojinin yeterince güvenilir olmadığını savundu. Yani teknoloji yeterli olduğunda “ABD dışındaki insanları” gözetlemek ve teknolojisinin otonom silah haline gelmesinde bir sorun görmüyor. Hatta bu sistemlerin güvenilirliğini artırmak için Savunma Bakanlığı ile Ar-Ge ortaklığı bile önerdi. En azından Anthropic, ABD hariç 194 ülkede OpenAI veya diğer şirketlerden farklı olarak algılanmamalı bu konuda.



    Kırmızı çizgiler gerçekten nerede başlıyor?



    ABD Savunma Bakanlığı haftalar boyunca Anthropic’in güvenlik bariyerlerini gevşetmesini talep ederken sektördeki diğer oyuncuların tutumu da sorgulandı. OpenAI ve Elon Musk’ın kurduğu xAI, halihazırda benzer şartları kabul etmiş durumda. Anthropic’in devreden çıkmasının hemen ardından Pentagon ile sözleşme imzalayan OpenAI ise X hesabından şunları söyledi:



    “ABD Savaş Bakanlığı ile yaptığımız anlaşma, belirlediğimiz kırmızı çizgileri koruyor:




    • Kitlesel iç gözetim için OpenAI teknolojisinin kullanılması yasaktır.

    • Otonom silah sistemlerini yönlendirmek için OpenAI teknolojisi kullanılmayacak.

    • Yüksek riskli otomatik kararlar için OpenAI teknolojisi kullanılmayacak (örneğin "sosyal kredi" gibi sistemler).”



    Ancak OpenAI, sitesindeki metinde açıkça şunu söylüyor: “Savaş Bakanlığı, hukuka uygun amaçlar, operasyonel gereklilikler ve yerleşik güvenlik ve denetim protokolleri ile uyumlu olarak, tüm yasal amaçlar için AI Sistemini kullanabilir.”



    Öncelikle “lawful purposes” yani “hukuka uygun amaçlar” ifadesi oldukça geniş bir çerçeve sunuyor. Hukuka uygunluk tanımı mevcut yasalarla sınırlı ve yasalar değiştirilebilir. Özellikle ABD savunma mevzuatı ve ulusal güvenlik istisnaları düşünüldüğünde, bu ifade teknolojinin kullanım alanını ciddi biçimde genişletebilecek bir esneklik içeriyor. Aynı metinde ayrıca “otonom silahları bağımsız şekilde yönlendirmeyecek” ifadesi dikkat çekiyor. Bu, sistemin doğrudan tetik çekmeyeceği anlamına geliyor. Ancak hedef analizi, tehdit sınıflandırması veya operasyonel öneri üretimi gibi karar öncesi kritik aşamalarda rol almasının önü kapatılmış değil. Üçüncü olarak, “yüksek riskli otomatik kararlar” ifadesi yalnızca insan onayı gerektiren durumlarla sınırlandırılmış. Eğer mevzuat bir alanda insan onayı zorunluluğu getirmiyorsa, teorik olarak sistem daha geniş karar destek rollerinde kullanılabilir. “Sosyal kredi sistemi” gibi örnekler özellikle zikredilmiş olsa da, daha gri alanlara ilişkin net bir sınır çizilmiyor.



    Dolayısıyla OpenAI, yaptığı açıklamasında güçlü prensipler ve yasal atıflar yapıyor olsa da profesyonel olmayan bir göz bile metinde açıkların olduğunu net bir şekilde görebiliyor.



    Üstelik Sam Altman yönetimindeki OpenAI, sözleşmelerde “kırmızı çizgileri” korumaya çalıştığını söylese de 2024 yılında hizmet şartlarından “askeri ve savaş” kullanımına yönelik yasağı kaldırmıştı. Sonrasında şirket, otonom silah üreticisi Anduril ile iş birliği yaptı ve Pentagon’la anlaşma imzaladı.



    Anthropic de bu hafta, uzun süredir savunduğu “sorumlu ölçekleme” politikasında değişikliğe giderek güvenlik taahhütlerini esnetti. Amaç, hızlanan yapay zeka yarışında geri kalmamak. Bu tablo, etik ilkelerin çoğu zaman ticari rekabetle birlikte yeniden tanımlandığını ortaya koyuyor.



    2024 yılında Anthropic, Palantir ve Amazon Web Services (AWS) ile bir ortaklık kurarak ABD istihbarat ve savunma kurumlarına Claude yapay zeka modellerini sunma kararı almıştı. Claude böylece Pentagon’un "Impact Level 6" (IL6) denilen, en üst düzey "Gizli" (Secret) sınıfındaki verilerinin işlendiği ağlara giren ilk ve tek öncü yapay zeka modeli olmuştu. Yani Anthropic, Amerikan ordusunun en mahrem verilerini analiz etmek için gönüllü olarak masaya oturdu.



    Anthropic, zaten Claude'un füze savunma sistemlerinde ve siber savunmada kullanılmasına halihazırda onay vermiş durumdaydı. Claude, karmaşık savaş alanı verilerini tarayarak komutanlara "karar desteği" sunmak için kullanılıyordu. Anthropic’in itirazı yapay zekanın savaşta kullanılmasına değil, sadece "tetiği çekenin insan olmaması" ve "Amerikan vatandaşlarının izlenmesi" şartınaydı. Yani yabancı bir ordunun askerlerini hedef alan bir operasyonda Claude'un lojistik veya stratejik destek vermesine şirket hiçbir zaman karşı çıkmadı.



    Büyük oyuncular zaten olaya dahil





    Amazon, Google ve Microsoft gibi devler de savunma ve istihbarat kurumlarına yapay zekâ hizmetleri sunuyor. 2018’de Google çalışanlarının Pentagon’la yürütülen “Project Maven” ortaklığına karşı başlattığı protesto, şirketi geri adım atmaya zorlamıştı. Ancak bugün tablo farklı. Çalışanlara göre sektörde korku ve sessizlik hakim.



    Microsoft cephesinde de benzer eleştiriler var. Şirket, İsrail Savunma Kuvvetleri ile yürüttüğü iş birlikleri nedeniyle çalışan protestolarıyla karşılaşmıştı. Zira şirketin teknolojileri, Filistinlileri ve muhalifleri kitlesel olarak gözetlemekte kullanılıyordu. Tepkiler sonrasında ortaklıkların bazı kısımlarının sonlandırıldığı açıklanmıştı. Ayrıca şirketin bir “Sorumlu Yapay Zeka” taahhüdü de var ancak şirket çalışanlarına göre bu konuda anlamlı bir taahhütte bulunmak yerine, kâr elde etmek öncelikli durumda.



    Ayrıca Bkz.Claude, Pentagon'un tepkisinin ardından App Store'da 2. sıraya yükseldi



    Eski bir xAI çalışanına göre ise sektördeki herkes zaten katil robotlar üzerinde çalışıyor. Hükümetle çalışmayan şirketler “ülkenin çıkarlarına karşı” konumlanmış gibi algılanıyor. Savunma projelerinde yer almak, artık bazı çevrelerde “vatanseverlik” göstergesi olarak sunuluyor.



    Bu atmosferde Anthropic’in görece “dik” duruşu önemli ama bunun sürdürülebilirliği ne kadar mümkün belirsiz. ABD’de “tedarik zinciri riski” ilan edilmek Savunma Bakanlığı ile çalışan tüm tedarikçi ve yüklenicilerin sizinle çalışmadıklarını belgelemelerini zorunlu kılıyor. Mevcut konjonktürde Anthropic’in bu damga ile hayatta kalması zor.



    Sorun tek bir şirket değil



    Teknoloji çalışanları ise şirketlerin Pentagon’un taleplerine karşı ortak duruş sergilemesini istiyor. 700 bini aşkın çalışanı temsil eden gruplar, askeri yapay zekada kırmızı çizgilerin netleştirilmesini talep ediyor. Özellikle iki konu öne çıkıyor: Amerikalılara yönelik kitlesel gözetim yapılmaması ve insan denetimi olmadan ölümcül güç kullanılmaması. Ayrıca Google ve OpenAI çalışanları, şirketlerini Pentagon’un taleplerini reddetmeye çağırdı.



    Tabi bu çizgilerin kalıcı mı, yoksa yalnızca pazarlık unsuru olarak mı kullanıldığı belirsiz. Bir Microsoft çalışanına göre ABD Savunma Bakanlığı ile kapıdan içeri girdikten sonra etik denetimi sürdürmek son derece zor. Yüksek bütçeli sözleşmeler, şirketlere en kârlı seçeneği meşrulaştırma baskısı yaratıyor.



    Sonuçta mesele yalnızca Anthropic değil. OpenAI, Google, Amazon, Microsoft ya da xAI… Büyük teknoloji şirketlerinin tamamı, askeri ve güvenlik projeleriyle iç içe geçmiş durumda. Sınırlar yıllardır bulanık. Bugün yalnızca daha görünür hale gelmiş durumda.




    Kaynak:https://www.theverge.com/ai-artificial-intelligence/885963/anthropic-dod-pentagon-tech-workers-ai-labs-react
    Kaynak:https://www.anthropic.com/news/statement-department-of-war
    Kaynak:https://medium.com/@notechforapartheid/jointstatement-5561f1572e46
    Kaynak:https://notdivided.org/







  • Anthropic’e hemen “iyi çocuk” demek bana biraz erken geliyor. Pentagon’la ters düşmesi güzel bir duruş gibi görünebilir ama bu tek başına yeterli değil. Yapay zekâ gibi büyük bir güç söz konusuysa, kimseyi hemen kahraman yapmamak lazım. Asıl mesele ne söyledikleri değil, ileride ne yapacakları.
  • çare çinin bir şekilde ürün çıkarması.
    çin bu alanları bu bebek yiyen ırka bırakırsa hem kendisi kaybedecek, hem de insanlık...

  • Vay be, sonunda DH'de dogru duzgun bir haber gormek de varmis. Helal olsun.

  • estf kullanıcısına yanıt
    Dogu Turkistanli kardeslerimize sor, sana anlatsinlar insanligin neler kaybettiğini. Olumle sitma arasinda tercih yapmam.

    < Bu ileti iOS uygulamasından atıldı >
    _____________________________
  • handali H kullanıcısına yanıt
    Burada Çin ve ABD kıyası yapmayın, konu bu değil. Birkaç büyük güçten birisi olamıyorsan, güç toplayana kadar denge siyaseti yapmayı denemek zorundasın. Devletler ilişkilerini, çoğunlukla duygusal bağlar ile kurnaz.

    < Bu ileti Android uygulamasından atıldı >
    _____________________________
  • Anthropic’e hemen “iyi çocuk” demek bana biraz erken geliyor. Pentagon’la ters düşmesi güzel bir duruş gibi görünebilir ama bu tek başına yeterli değil. Yapay zekâ gibi büyük bir güç söz konusuysa, kimseyi hemen kahraman yapmamak lazım. Asıl mesele ne söyledikleri değil, ileride ne yapacakları.

    < Bu ileti Android uygulamasından atıldı >
    _____________________________

    ▁ ▂ ▄ ▅ ▆ ▇ █ ☾☆ | Togg | ☾☆ █ ▇ ▆ ▅ ▄ ▂ ▁
    [2024] Togg T10X V2 | [2012] Opel Astra J Cosmo | [2012] VW Polo 1.6 TDI DSG | Samsung Galaxy Z Fold 6 | Huawei P30 Pro | Huawei GT3 Pro | Sony PS4 20. Yıl Özel Sürümü | Sony PS5 Pro | Vestel 43UD9300 | Vestel 65O9930 | AMD Ryzen 9 7900X3D | Asus TUF Gaming X670E-Plus | Corsair 64GB DDR5 RAM | MSI 1 TB Spatium M480 | Nvidia 12GB GeForce RTX 4070Ti
  • handali H kullanıcısına yanıt
    ölümle sıtma dediğin taraflardan biri bebekleri kesip yiyor, batı dünyasını seks kasetleriyle köpeği yapmış durumda, diğer tarafnın, sizin maklube sohbetlerinde anlatılan palavralar haricinde nesi var? ne yaptı da onu bebek yiyen elitlerle aynı kategoriye koyuyorsun? herhalde benim bilmediğim şekilde dini sapıklıkları doğrultusunda insanları kıyma makinasına falan koyuyor olmalılar...

    bir de şu doğu türküstanlı kardeşler, hani şu abdnin çıkarları doğrultusunda islami terör yapmaya çalışıp paketlenen doğu türkistanlı kardeşler mi?
    sen maklubeyi fazla kaçırmışa benziyorsun, maklubeyi azalt...



    < Bu mesaj bu kişi tarafından değiştirildi estf -- 1 Mart 2026; 17:16:23 >
    _____________________________
  • Yapay Zeka’dan İlgili Konular
    Daha Fazla Göster
  • Günün sonunda hepsinin ipleri ABD'ye bağlı. Herkes birbirinin yularından tutmuş. O şirketlerin hepsi eninde sonunda ABD'ye İsrail'e çalışacak.

    < Bu ileti mobil sürüm kullanılarak atıldı >
    _____________________________
  • estf kullanıcısına yanıt
    Maklube ile Dogu Turkistani bagdastirdigini gordukten sonra okumayi biraktim.

    < Bu ileti iOS uygulamasından atıldı >
    _____________________________
  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.