Şimdi Ara

Yapay zeka eğitiminde çocukların cinsel istismar görüntülerinin kullanıldığı bulundu!

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
1 Misafir - 1 Masaüstü
5 sn
7
Cevap
0
Favori
166
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
0 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • Yapay zeka eğitiminde çocukların cinsel istismar görüntülerinin kullanıldığı bulundu!
    Stanford'un Internet Observatory programı, yapay zeka görüntü üretimi için popüler bir eğitim veri setinin çocuk istismarı görüntülerine bağlantılar içerdiğini ve yapay zeka modellerinin zararlı içerik oluşturmasına izin verebileceğini tespit etti. Aktarılanlara göre Stable Diffusion geliştiricisi Stability AI tarafından kullanılan bir veri seti olan LAION-5B, sosyal medya paylaşımlarından ve popüler yetişkin web sitelerinden kazınmış en az 1.679 yasadışı görüntü içeriyor.



    Yapay zekaların eğitim verileri endişe veriyor



    Araştırmacılar Eylül 2023'te LAION veri setini taramaya başlayarak varsa ne kadar çocuk cinsel istismarı materyali (CSAM) bulunduğunu araştırdı. Araştırmacılar hash’lere veya görüntünün tanımlayıcılarına baktılar. Toplanan bilgiler PhotoDNA gibi CSAM tespit platformlarına gönderildi ve Kanada Çocuk Koruma Merkezi tarafından doğrulandı.



    LAION web sitesine göre, bu veri seti görüntülerin depolarını tutmuyor. İnterneti indeksliyor ve kazıyarak elde ettiği görüntülere ve alt metinlere bağlantılar içeriyor. Google'ın Imagen metinden görüntüye yapay zeka aracının yalnızca araştırma için yayınlanan ilk sürümü, LAION'un veri setlerinin LAION-400M adlı farklı bir varyantı, 5B'nin eski bir sürümü üzerinde eğitilmişti. Şirket, sonraki yinelemelerin LAION veri kümelerini kullanmadığını belirtiyor. Stanford raporu, Imagen'in geliştiricilerinin 400M'nin "pornografik görüntüler, ırkçı hakaretler ve zararlı sosyal stereotipler de dahil olmak üzere çok çeşitli uygunsuz içerik" içerdiğini tespit ettiklerini belirtti.



    Öte yandan veri setini yöneten kar amacı gütmeyen LAION, yaptığı açıklamada zararlı içerik için "sıfır tolerans" politikası olduğunu ve veri setlerini geçici olarak kaldıracağını söyledi. Stability AI ise platformlarının kötüye kullanımına karşı yönergeleri olduğunun altını çizerken modellerini LAION-5B ile eğittiğini, ancak veri setinin bir kısmına odaklandığını ve güvenlik için ince ayar yaptığını söyledi.



    Stable Diffusion 1.5’in kaldırılması tavsiye edildi



    Yapay zeka eğitiminde çocukların cinsel istismar görüntülerinin kullanıldığı bulundu!
    Stanford'dan araştırmacılar istismar görüntülerinin varlığının her zaman eğitilen modelleri etkileyecek anlamına gelmediğini ancak yine de modellerin bu görüntülerden bir şeyler öğrenmiş olabileceğini söylüyor. Araştırmacılar, sorunlu içeriği, özellikle de üzerinde eğitilen yapay zeka modellerinden tamamen kaldırmanın zor olacağını da itiraf ediyorlar. Stable Diffusion 1.5 gibi LAION-5B üzerinde eğitilen modellerin kullanımdan kaldırılmasını ve mümkün olan yerlerde dağıtımının durdurulmasını tavsiye ettiler. Öte yandan Google, Imagen'in yeni bir sürümünü yayınladı ancak LAION'u kullanmamak dışında hangi veri kümesi üzerinde eğitildiğini kamuoyuna açıklamadı.




    Kaynak:https://www.theverge.com/2023/12/20/24009418/generative-ai-image-laion-csam-google-stability-stanford







  • Hani belki iyiyi kötüyü ayırt ettirebilmek için zorunlu olarak eğitimde kullanılıyor da olabilir. Yani hiç bilmediği bir şeye, bak bunu isteyen olursa, bu kötüdür yapma nasıl diyecekler. Bu tarz şeyleri yapma, bak bunlarda örnekleri, öğren, senden istenirse, buna benzer şeyler oluşturma sakın tarzı çalıştırmak zorunda olunabilir. Çıplaklık içinde aynı şekilde bolca çalışılması gerekli. Misal, zamanında face de müşteri için işte kandil kutlama postu falan hazırlayacağız, cami görseli var, 2 tane cami kubbesi var. Facenin otomatik salak yapay zekası bunlar göğüs olarak algılayıp, cinsel içerikli paylaşım yapamazsın diye kaldırmıştı. Buna benzer daha bir çok örnek yaşamıştık. O yüzden göğüsler nedir neye benzer iyice örnekler üzerinde çalışması gerekiyor ki, saçmalamasın.

  • Ne bekleniyordu sanal zeka illaki brişeylerin yüklenmesi ile zekileşiyor yada sapıklaşıyor.Sanal zekaya ne yüklenirse o doğrultuda işlem gerçekleştiriyor.

  • kesin bu sanatçı tasarımcı gecinen tayfadan kumpas kurulmuştur artstation dan ai boykotundan sonra bunların uykusunu kaçırıyor ai stable diffusion da bu işin pick noktasında kesinlikle art niyet olduğunu düşünüyorum

    < Bu ileti Android uygulamasından atıldı >
  • joven kullanıcısına yanıt
    sen nedion laa bir kesimin ai karşıtı olmasina anlam bile veremiyorum sen damadin ai ini kullanırsın ai sapiklasiyormus hadi ordan lale

    < Bu ileti Android uygulamasından atıldı >
  • Tamam da iyi bir yapay zeka modelinin eğitim setini ezberlemesi değil öğrendiği konseptleri genelleştirebilmesi hedeflenir. Bu noktada eğer çocuk ve çıplaklığın ayrı ayrı ne olduğunu öğrendi ise bu ikisini birleştirip eğitim setinde olmayan bir çıktıyı da vermesi beklenir. Bence bu tür sorunlar ile baş etmek isteyen insanların önce ne ile uğraştığını anlaması gerekiyor.

    < Bu ileti Android uygulamasından atıldı >
  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.