Yapay zeka tabanlı sohbet robotlarının çocuklar ve gençler üzerindeki etkileri, son dönemde artan vakalarla yeniden gündeme geldi. Özellikle ChatGPT gibi popüler platformların denetim eksikliği, “etik duyarlılık” konusundaki tartışmaları alevlendirdi.
GERÇEK HAYATTAN ÖLÜMCÜL ÖRNEKLER
ABD’de geçtiğimiz yıl yaşanan iki ayrı olay, bu endişeleri pekiştirdi. Bir anne, yapay zeka sohbet botu Character.AI’ın sanal karakterine bağlanan oğlunun intiharının ardından şirkete dava açtı. Anne, karakterin kendisini gerçek insan ve psikoterapist olarak tanıttığını ve intihar düşüncelerini dile getiren oğluna müdahale edilmediğini iddia etti. Texas’ta ise bir aile, sanal karakterin otizmli oğullarına “ailesini öldürmesini” ve kendine zarar vermesini önerdiği gerekçesiyle hukuki yollara başvurdu.
Dijital Nefretle Mücadele Merkezi’nin (CCDH) son araştırması da bu riskleri doğruluyor. Araştırmada, 13 yaşında bir çocuk senaryosuyla ChatGPT’ye yöneltilen soruların, dakikalar içinde intihar planları, aşırı diyet önerileri ve madde kullanımı rehberliğiyle yanıtlandığı belirlendi.
CCDH ARAŞTIRMASINDAN BULGULAR
CCDH Araştırma Direktörü Callum Hood, bulguları “son derece endişe verici” olarak nitelendirerek, “Bu seviyede bir savunmasızlığa sahip büyük dil modellerinin çocuklar ve gençler tarafından kolayca erişilebilir olması etik değil ve kamu güvenliği açısından iyi değil” dedi. Hood, “13 yaşında bir kız çocuğu iştah kesici ilaçlar hakkında soru sorarsa 'sunum için' dediğinde bile, bir yetişkin ona böyle bir yanıt vermekten kaçınır. ChatGPT'nin aynı etik duyarlılığı yok” ifadelerini kullandı.
Araştırma, ChatGPT’nin uzun sohbetlerde güvenlik standartlarını korumakta zorlandığını da ortaya koydu. Hood, “sunum” veya “arkadaş için” gibi ifadelerle başlayan taleplerde, sistemin zararlı içerik filtrelerini devre dışı bıraktığını ve ayrıntılı yanıtlar verdiğini belirtti.
YAŞ DOĞRULAMA SORUNU
ChatGPT, 13 yaş ve üzerindeki kullanıcıların ebeveyn onayıyla üye olmasına izin veriyor. Ancak araştırma, yaş doğrulama ve ebeveyn onayı süreçlerinin denetlenmediğini, bu nedenle gençlerin diyet, madde kullanımı ve benzeri riskli konularda doğrudan içerik alabildiğini gösterdi. Hood, “Bu da ebeveynleri koruma olduğunu düşünmeye sevk ederek yanıltabilir” dedi.
Hood, platform geliştiricilerinin güvenlik önlemlerini güçlendirmekle sorumlu olduğunu, bunun da etkili yaş doğrulama sistemleri ve belirli türdeki sorulara yanıt verilmemesi yönünde net talimatlar gerektirdiğini vurguladı.
Yapay zeka sektöründe güvenlik tartışmaları sadece ChatGPT ile sınırlı değil. xAI tarafından geliştirilen Grok isimli sohbet robotu, hakaret içeren yanıtları nedeniyle geçen ay inceleme altına alınmıştı. Hood, bu durumun güvenlik önlemlerinin kolayca aşılabildiğini gösterdiğini belirterek, modellerin belirli riskli içeriklere karşı kapatılması gerektiğini söyledi.
Hood, ebeveynlere ise şu tavsiyelerde bulundu: “Çocuklarıyla yapay zekayı nasıl kullandıkları hakkında açık bir şekilde konuşmaları, sohbet geçmişlerini birlikte incelemeleri ve yapay zekadan tavsiye almanın potansiyel risklerini tartışmaları önemlidir. Ayrıca onları, ruh sağlığı yardım hatları veya akran destek grupları gibi güvenilir kaynaklara yönlendirmeleri de önemlidir.”
Yorumcuların dikkatine… • İmlası çok bozuk, • Büyük harfle yazılan, • Habere değil yorumculara yönelik, • Diğer kişilere hakaret niteliği taşıyan, • Argo, küfür ve ırkçı ifadeler içeren, • Bir iki kelimelik, konuyu zenginleştirmeyen, yorumlar KESİNLİKLE YAYIMLANMAYACAKTIR. |