Asıl mesele makinenin iyi kalpli olup olmaması değil, yanlış karar verdiğinde hesabı kimin vereceği. 2023’te ABD’de COMPAS benzeri risk puanlama sistemleri yine tartışıldı; kredi notundan işe alıma kadar aynı mantık çalışıyor: veri kirliyse karar da kirli çıkıyor. Benim net fikrim şu, etik denen şey şirket sunumundaki renkli slayt değil; kayıt tutma, bağımsız denetim ve itiraz hakkı yoksa laftan ibaret.
İşin akademik tarafında üç omurga var: adalet, açıklanabilirlik, sorumluluk. Adalet dediğin, aynı başvurunun kadın diye, Kürt diye, engelli diye geri düşmemesi. Açıklanabilirlik, “algoritma böyle uygun gördü” saçmalığını kesmek için lazım. Sorumluluk da en kritik yer; hatayı modele yıkıp insanı buharlaştırırsan etik değil, bildiğin kaçak güreş oluyor.
AB’nin 2024’te kabul ettiği AI Act boşuna risk temelli yaklaşım kurmadı. Hastane triyajında, işe alımda, sınav değerlendirmede kullanılan sistemle fotoğraf filtreleyen uygulamayı aynı kefeye koyarsan memlekette ilk tokadı sıradan insan yer.
İşin akademik tarafında üç omurga var: adalet, açıklanabilirlik, sorumluluk. Adalet dediğin, aynı başvurunun kadın diye, Kürt diye, engelli diye geri düşmemesi. Açıklanabilirlik, “algoritma böyle uygun gördü” saçmalığını kesmek için lazım. Sorumluluk da en kritik yer; hatayı modele yıkıp insanı buharlaştırırsan etik değil, bildiğin kaçak güreş oluyor.
AB’nin 2024’te kabul ettiği AI Act boşuna risk temelli yaklaşım kurmadı. Hastane triyajında, işe alımda, sınav değerlendirmede kullanılan sistemle fotoğraf filtreleyen uygulamayı aynı kefeye koyarsan memlekette ilk tokadı sıradan insan yer.