Tüm Hakları Saklıdır
AI Görsel Oluşturucu Veritabanı Sızdı: Kullanıcı tercihleri ortaya çıktı
Bir AI görsel oluşturucunun veritabanı sızdırıldı. Binlerce müstehcen içerik ortaya çıktı.
Yapay zeka tarafından üretilen on binlerce müstehcen yapay zeka görsel internette herkesin erişimine açık kaldı. Bir yapay zeka görüntü oluşturma firmasına ait açık bir veri tabanı, Ariana Grande, Kardashianlar ve Beyoncé gibi ünlülerin çocuk gibi görünecek şekilde görüntüleri ve bazı hızlı veriler de dahil olmak üzere on bine yakın görüntü ortaya çıktı. 45 GB boyutunda görsel sızdırıldı.
Son yıllarda yapay zeka sektörünün güçlenmesiyle onlarca “deepfake” ve “nudify” yapay zeka web siteleri yapıldı. Bu uygulamaların bazılarında gerçek insanların müstehcen görüntüsü oluşturulabiliyor. Sızdırılan görüntülerde bunun içinde çocuk görsellerinin de olması özellikle dikkat çekiyor. Bu durum yapay zekanın kötü niyetli kullanımlarından biri.
Görüntüleri yorumlayan bazı uzmanlar bunun dehşet verici olduğunu düşünüyor.
Açığı tespit eden kullanıcılar hemen ilgili AI görsel oluşturucu web sitesini bilgilendirdi ve bu açık hemen kapatıldı. İlgili AI aracında metinden görsel oluşturulabiliyor, görselden görsel oluşturulabiliyor. Asıl büyük sorun bu noktada oluşuyor. Çünkü görselden görsel oluşturma aracı ile yüz değiştirilebiliyor, kullanıcılar yükledikleri görsellerden müstehcen içerik oluşturabiliyor. İlgili AI aracı web sitesinde NSFW galerisi de mevcut. Kullanıcılar oluşturabildikleri görüntüleri pazarda satabiliyor.