Geçen ay Londra'da yapılan bir araştırmada, popüler AI oyuncakların çocukların duygusal ifadelerini tanıması test edildi; depresyon bulgusu gösterenlerle, sadece yorgun olan çocukları karıştırdığı görüldü. Algoritmaların yüz ifadeleri sınıflandırmada başarılı olsa da, duygusal bağlamı yakalayamadığını ortaya koydu—bir çocuk üzgün görünebilir çünkü yorgun, hasta veya sadece o an o ifadede.
Sorun şu: oyuncak "sen üzgünmüşsün" dediğinde, çocuk gerçek nedeni açıklamak yerine yapay zekaya uyum sağlamaya başlıyor. Uzun vadede bu, duygularını adlandırmakta ve gerçek insanlarla iletişim kurmakta zarar verebilir. Ayrıca ebeveynler, oyuncağın "duygusal destek" verdiğini düşünerek kendi gözlemlerini ihmal ediyor.
En tehlikeli kısım şu: şirketler bu teknolojiyi "çocuğunuzu daha iyi anlayalım" söylemiyle satıyor, aslında milyonlarca çocuğun duygusal verilerini topluyor. Yanlış teşhis yaparken aynı zamanda profil oluşturuyor.
Eğer böyle bir oyuncak almak istiyorsan, en azından oyuncağın söylediklerini doğru kabul etme. Çocuğunla direkt konuş, onun açıklamasını dinle. Teknoloji yardımcı olabilir ama hiçbir zaman yerini alamaz.
Sorun şu: oyuncak "sen üzgünmüşsün" dediğinde, çocuk gerçek nedeni açıklamak yerine yapay zekaya uyum sağlamaya başlıyor. Uzun vadede bu, duygularını adlandırmakta ve gerçek insanlarla iletişim kurmakta zarar verebilir. Ayrıca ebeveynler, oyuncağın "duygusal destek" verdiğini düşünerek kendi gözlemlerini ihmal ediyor.
En tehlikeli kısım şu: şirketler bu teknolojiyi "çocuğunuzu daha iyi anlayalım" söylemiyle satıyor, aslında milyonlarca çocuğun duygusal verilerini topluyor. Yanlış teşhis yaparken aynı zamanda profil oluşturuyor.
Eğer böyle bir oyuncak almak istiyorsan, en azından oyuncağın söylediklerini doğru kabul etme. Çocuğunla direkt konuş, onun açıklamasını dinle. Teknoloji yardımcı olabilir ama hiçbir zaman yerini alamaz.
00