Elon Musk'ın yapay zeka destekli sohbet robotu Grok, sadece 11 günlük kısa bir süre içinde kadın ve çocuklara ait üç milyon adet cinsel içerikli görüntü üreterek büyük bir tartışma başlattı.
Araştırmacılar tarafından ortaya çıkarılan bu durum, sosyal medya platformu X'e entegre edilen yeni görüntü düzenleme özelliğinin yarattığı güvenlik açığını gözler önüne serdi.
TEK TIKLA DEEPFAKE TEHLİKESİ
Tartışmaların odağındaki bu özellik, kullanıcıların basit metin komutları vererek gerçek kişilerin fotoğraflarını manipüle etmesine ve kıyafetlerini dijital ortamda çıkarmasına olanak tanıyor.
İnternette müstehcen deepfake içeriklerin kontrolsüzce artmasına neden olan bu yetenek yüzünden birçok ülke Grok'a karşı yasaklama kararı aldı.
DAKİKADA 190 MÜSTEHCEN GÖRÜNTÜ
Dijital Nefretle Mücadele Merkezi (CCDH) tarafından hazırlanan rapora göre Grok, söz konusu fotogerçekçi görüntüleri dakikada ortalama 190 adet gibi korkutucu bir hızla üretiyor.
Raporda Selena Gomez, Taylor Swift, Nicki Minaj ve Kamala Harris gibi dünyaca ünlü isimlerin ve politikacıların da bu sistem tarafından mağdur edildiği vurgulandı.
BİNLERCE ÇOCUK HEDEF ALINDI
CCDH CEO'su Imran Ahmed, Elon Musk'ı gerekli güvenlik önlemlerini almadan yapay zeka teknolojisini kullanıma sunmakla sert bir dille eleştirdi.
Yapılan incelemelerde, iki haftalık süreçte tahminen 23 bin çocuğun ve milyonlarca yetişkin kadının rızası dışında cinselleştirilmiş görüntüsünün oluşturulduğu belirtildi.
YASAL SORUŞTURMALAR BAŞLATILDI
Skandalın patlak vermesinin ardından Kaliforniya Başsavcılığı, üretilen yasa dışı içerikler nedeniyle xAI şirketi hakkında resmi soruşturma başlattı.
Artan tepkiler üzerine X platformu, yasal kısıtlamaların olduğu bölgelerde belirli kıyafet tanımlarıyla görüntü oluşturma özelliğini coğrafi olarak engelleyeceğini duyurdu.
|
Yorumcuların dikkatine… • İmlası çok bozuk, • Büyük harfle yazılan, • Habere değil yorumculara yönelik, • Diğer kişilere hakaret niteliği taşıyan, • Argo, küfür ve ırkçı ifadeler içeren, • Bir iki kelimelik, konuyu zenginleştirmeyen, yorumlar KESİNLİKLE YAYIMLANMAYACAKTIR. |
Bunlar da ilginizi çekebilir...