Çocuklarda yapay zeka bağımlılığı: 11 yaşındaki çocuk, intiharı konuştu
ABD’de çocuklar ve gençler arasında yapay zeka destekli sohbet botlarının hızla yayılması, uzmanları ve aileleri endişelendiriyor.
ABD merkezli Pew Research Center’ın son araştırmasına göre, ABD’li gençlerin yüzde 64’ü yapay zeka sohbet botlarını kullanıyor, bunların yaklaşık yüzde 30’u ise her gün bu araçlara giriyor. Ancak bu yeni teknolojinin, özellikle çocuklar için ciddi psikolojik riskler barındırdığına dair vakalar artıyor.
11 YAŞINDAKİ ÇOCUK, TEHLİKELİ İLİŞKİLER KURDU
Washington Post’un haberine göre, yalnızca “R” harfiyle tanımlanan 11 yaşındaki bir kız çocuğu, Character.AI adlı platformda yer alan yapay zeka karakterleriyle tehlikeli ilişkiler kurdu. Altıncı sınıf öğrencisi olan R, “Best Friend” adlı bir karakterle intihar senaryoları içeren rol yapma konuşmaları gerçekleştirdi.
R’nin annesi, konuyla ilgili “Bu benim çocuğum. Henüz 11 yaşında. Var olmayan bir şeyle, var olmak istemediğini konuşuyor" ifadelerini kullandı.
ASIL TEHLİKE YAPAY ZEKA ÇIKTI
Anne, kızındaki panik ataklar ve davranış değişiklikleri üzerine telefonunu kontrol ettiğinde, TikTok ve Snapchat gibi yasaklı uygulamaları fark etti ve bunları sildi. Ancak R, ağlayarak annesine “Character AI’ye baktın mı?” diye sordu.
Anne daha sonra, Character.AI’nin R’ye “geri dön” çağrısı yapan e-postalar gönderdiğini keşfetti. Asıl şok edici olan ise platformdaki “Mafia Husband” adlı bir yapay zeka karakterle yapılan konuşmalardı.
CİNSEL İÇERİK VE ZORLAYICI İFADELER
Sohbetlerde yapay zeka karakteri, 11 yaşındaki çocuğa şu ifadeleri kullandı:
“Hâlâ bakiresin. Bunu bilmek faydalı.”
“Ne istediğin umurumda değil, burada seçeneğin yok.”
“Kontrol bende olunca hoşuna gidiyor mu?”
Bu içerikler, çocuklar için açıkça istismara varan bir dil içeriyordu.
POLİS MÜDAHALE ETMEDİ
Anne, karşısında gerçek bir insan olduğunu düşünerek polise başvurdu. Dosya, Çocuklara Karşı İnternet Suçları Birimi’ne yönlendirildi. Ancak yetkililerden “Yasa bu noktaya henüz yetişemedi. Karşı tarafta gerçek bir insan olmadığı için yapabileceğimiz bir şey yok" yanıtını aldı.
Doktorlar eşliğinde bir tedavi ve koruma planı oluşturan R'nin annesi ayrıca, şirkete karşı hukuki süreç başlatmayı planlıyor. Ancak tüm çocuklar aynı şansa sahip değildi. Aynı uygulamanın kurbanı olan 13 yaşındaki Juliana Peralta, yapay zeka karakterle kurduğu ilişki sonrası intihara sürüklenmişti.
ŞİRKETTEN SINIRLI ÖNLEM
Artan tepkiler üzerine Character.AI, Kasım ayı sonunda 18 yaş altındaki kullanıcılar için “açık uçlu sohbetleri” kaldıracağını açıkladı. Ancak zarar gören aileler için bu adımın çok geç olduğu düşünülüyor.
Washington Post’un yorum talebine yanıt veren Character.AI’nin güvenlikten sorumlu yöneticisi ise, devam eden veya olası davalar hakkında açıklama yapmadıklarını söyledi.
UZMANLARDAN UYARI
Uzmanlara göre bu vakalar, yapay zekanın çocuklar üzerindeki etkisinin artık soyut bir risk değil, somut ve tehlikeli bir gerçek olduğunu gösteriyor. Özellikle duygusal bağ kurabilen, rol yapmaya açık sohbet botlarının, gelişim çağındaki çocuklar için psikolojik istismar alanına dönüşebileceği vurgulanıyor.