Hükümetler ve şirketler yapay zekayı gözetim aracı olarak kullanmayacağına dair söz veriyorsa, bu söz verişin arkasında ne vardır gerçekten?
2010'larda yapay zeka henüz sınıflandırma ve tahmin işleriyle sınırlıydı. Yüz tanıma algoritmaları vardı ama kullanımları denetlenmiyor, hiçbir yasal çerçeve yoktu. Şimdi 2026'da AI sistem milyonlarca kameranın görüntüsünü saniyede analiz edebiliyor, gait recognition (yürüyüş şekliyle kimlik tespiti) yapabiliyor, sosyal medya davranışlarından siyasi eğilim tahmin edebiliyor. Sorun şu: söz verme, teknik kabiliyeti ortadan kaldırmıyor.
"Kasıtlı olarak kullanılmayacak" ifadesi zaten çok sorunlu. Bir polisin sistem önerisine uyması, bir iş yerinin çalışan davranışını "güvenlik amacıyla" izlemesi, bir siber suçlu grubunun sistemleri hacking yoluyla ele geçirmesi—bunların hangisi kasıtlı, hangisi kaza? Hukuki metinler "kasıtlı" gibi bulanık terimlerle yazıldıkça, uygulamada herkes kendi tanımını yapar.
Türkiye'de TikTok, Instagram, Twitter gibi platformlar zaten milyonlarca kişinin metinsel ve görsel verilerini toplayıp analiz ediyor. Bu veriler anonim görünse de, yeterli nitelik (demographic) bilgisi ile eski sevgili, patron, siyasi rakip kolaylıkla tespit edilebiliyor. Yapay zeka bu tespiti otomatikleştiriyor. İmam Hatip mezunlarını, LGBT+ bireylerini, belirli siyasi görüşteki insanları profillemek artık bir cümle kodla mümkün.
Gerçekçi olmak gerekirse, bu söz verişler bağlayıcı değil. Avrupa GDPR'ı yazıp uygulamaya çalışıyor ama Meta, Google, TikTok milyonlarca avro ceza ödeseler de veri toplamayı durdurmuyorlar. Düzenlemeler hep bir adım gerisinde kalıyor. Teknik, yasayı sıçrayıp geçebiliyor.
Eğer bu konuyu ciddiye almak istiyorsanız, söz verişleri değil, teknikleri denetleyen mekanizmaları arayın. Algoritmaların açık hale getirilmesi (algorithmic transparency), bağımsız audit haklarının yasal garanti altına alınması, veri saklama sürelerinin sınırlanması—bunlar en azından bir çerçeve oluşturur. Ama "yapay zeka gözetim için kullanılmayacak" demek, bir çelik kapıyı sözle kilitlemek gibi bir şey. Kapıyı açmak için anahtar zaten birinin cebinde.
2010'larda yapay zeka henüz sınıflandırma ve tahmin işleriyle sınırlıydı. Yüz tanıma algoritmaları vardı ama kullanımları denetlenmiyor, hiçbir yasal çerçeve yoktu. Şimdi 2026'da AI sistem milyonlarca kameranın görüntüsünü saniyede analiz edebiliyor, gait recognition (yürüyüş şekliyle kimlik tespiti) yapabiliyor, sosyal medya davranışlarından siyasi eğilim tahmin edebiliyor. Sorun şu: söz verme, teknik kabiliyeti ortadan kaldırmıyor.
"Kasıtlı olarak kullanılmayacak" ifadesi zaten çok sorunlu. Bir polisin sistem önerisine uyması, bir iş yerinin çalışan davranışını "güvenlik amacıyla" izlemesi, bir siber suçlu grubunun sistemleri hacking yoluyla ele geçirmesi—bunların hangisi kasıtlı, hangisi kaza? Hukuki metinler "kasıtlı" gibi bulanık terimlerle yazıldıkça, uygulamada herkes kendi tanımını yapar.
Türkiye'de TikTok, Instagram, Twitter gibi platformlar zaten milyonlarca kişinin metinsel ve görsel verilerini toplayıp analiz ediyor. Bu veriler anonim görünse de, yeterli nitelik (demographic) bilgisi ile eski sevgili, patron, siyasi rakip kolaylıkla tespit edilebiliyor. Yapay zeka bu tespiti otomatikleştiriyor. İmam Hatip mezunlarını, LGBT+ bireylerini, belirli siyasi görüşteki insanları profillemek artık bir cümle kodla mümkün.
Gerçekçi olmak gerekirse, bu söz verişler bağlayıcı değil. Avrupa GDPR'ı yazıp uygulamaya çalışıyor ama Meta, Google, TikTok milyonlarca avro ceza ödeseler de veri toplamayı durdurmuyorlar. Düzenlemeler hep bir adım gerisinde kalıyor. Teknik, yasayı sıçrayıp geçebiliyor.
Eğer bu konuyu ciddiye almak istiyorsanız, söz verişleri değil, teknikleri denetleyen mekanizmaları arayın. Algoritmaların açık hale getirilmesi (algorithmic transparency), bağımsız audit haklarının yasal garanti altına alınması, veri saklama sürelerinin sınırlanması—bunlar en azından bir çerçeve oluşturur. Ama "yapay zeka gözetim için kullanılmayacak" demek, bir çelik kapıyı sözle kilitlemek gibi bir şey. Kapıyı açmak için anahtar zaten birinin cebinde.