2023’te Ekşi Sözlük’ün kapatıldığı gün, Twitter’da dönen “kapatılmadı, sadece bakıma alındı” muhabbetleri hâlâ aklımda. O zaman şüpheye düşmüştüm, hangi tweet gerçek, hangisi yalan? O günden beri sahte haberler bambaşka bir boyuta geçti. Eski usul Photoshop’la oynanmış ekran görüntüleriyle kandırmak çocuk oyuncağı gibi kalıyor; şimdi ChatGPT’den alınan dört satır prompt’la bir günde binlerce “haber” üretiliyor. Adam, “ABD Başkanı uzaylılarla görüştü” diye haber çıkarıyor, altına da ChatGPT’ye yazdırdığı yalandan bir röportaj metni ekliyor, hop sosyal medya kaynıyor.
Yapay zekâ burada hem bela, hem de çözümün ta kendisi. 2025’te Google’ın duyurduğu Gemini modeli, “gerçek zamanlı haber doğrulama” diye bir özellik ekledi. Haberi kopyalayıp yapıştırıyorsun, bu alet 10 saniyede 14 farklı kaynağı tarıyor, haberin yüzde 92 ihtimalle sahte mi değil mi olduğunu önüne koyuyor. Kulağa harika geliyor ama ben şahsen tam güvenemiyorum; çünkü o 14 kaynağın yarısı zaten başka bir botun ürettiği “haberlerden” oluşabiliyor. Yani sistem kendi kuyruğunu kovalıyor bir yerde.
Gerçekten zekice yapılan sahte haberlerde, iş artık metin analizinden çıktı; görsel ve video da işin içinde. Deepfake videoları öyle bir noktaya gelmiş durumda ki, geçen ay “Erdoğan seçimlerden çekildi” diyen bir video sosyal medyada dönünce herkes dondu kaldı. Sonra ortaya çıktı, videoyu üreten “NoFakeAI” denen Çin menşeili bir yazılım. Adamlar Youtuber’a özel API bile yapmışlar, nefes alıp verirken kaş oynatıyor. Bu noktada ülkede hangi üniversitenin, hangi haber kanalının, hangi devlet kurumunun elinde bu deepfake’leri tespit edecek yazılım var? Koca TRT, hâlâ “Görselde oynama yoktur” diye açıklama yapıyor. Biraz güldüm açıkçası.
Kendi gözlemlerim: 2024’te yerel seçimlerde, WhatsApp gruplarına sızan “anket sonuçları”nın yarısı yapay zekâ ile üretilmiş. Adamlar PDF hazırlamış, sözde KONDA logosu, altında da “Yapay zekâ destekli analiz” yazıyor. Millet yemiş. O noktada şunu anladım: Türkiye’de insanlar, logoya ve formatına bakıp “Bu kesin doğrudur” diyor, içeriğe bakan yok.
İşin teknik tarafına inmek isteyenler için mesele çok net: Doğal dil işleme (NLP) modelleri, sahte haberin dilsel izini sürüyor. Mesela 2026 itibarıyla OpenAI’ın “RumorBuster” API’si, haber metnindeki abartılı sıfatları, çelişkili tarihleri, olağandışı isim geçişlerini yakalıyor. Ama burada bile “Eğer haber kasıtlı olarak sade ve sıradan dille yazıldıysa?” sorusu havada kalıyor. Yani 2026’da bile, yüzde yüz güvenli sahte haber tespiti yok.
Kendi adıma tavsiye: Her gördüğünü Google’a yapıştırıp aramakla yetinme, haberin kim tarafından yazıldığını, kaynağın geçmişini mutlaka sorgula. Yapay zekâ destekli doğrulama araçlarını kullan, ama akıl süzgecini devreden çıkarma. Yoksa üç güne kalmaz, “İstanbul’a kar yağacak, okullar 1 ay tatil” haberine bile inanırsın.
Yapay zekâ burada hem bela, hem de çözümün ta kendisi. 2025’te Google’ın duyurduğu Gemini modeli, “gerçek zamanlı haber doğrulama” diye bir özellik ekledi. Haberi kopyalayıp yapıştırıyorsun, bu alet 10 saniyede 14 farklı kaynağı tarıyor, haberin yüzde 92 ihtimalle sahte mi değil mi olduğunu önüne koyuyor. Kulağa harika geliyor ama ben şahsen tam güvenemiyorum; çünkü o 14 kaynağın yarısı zaten başka bir botun ürettiği “haberlerden” oluşabiliyor. Yani sistem kendi kuyruğunu kovalıyor bir yerde.
Gerçekten zekice yapılan sahte haberlerde, iş artık metin analizinden çıktı; görsel ve video da işin içinde. Deepfake videoları öyle bir noktaya gelmiş durumda ki, geçen ay “Erdoğan seçimlerden çekildi” diyen bir video sosyal medyada dönünce herkes dondu kaldı. Sonra ortaya çıktı, videoyu üreten “NoFakeAI” denen Çin menşeili bir yazılım. Adamlar Youtuber’a özel API bile yapmışlar, nefes alıp verirken kaş oynatıyor. Bu noktada ülkede hangi üniversitenin, hangi haber kanalının, hangi devlet kurumunun elinde bu deepfake’leri tespit edecek yazılım var? Koca TRT, hâlâ “Görselde oynama yoktur” diye açıklama yapıyor. Biraz güldüm açıkçası.
Kendi gözlemlerim: 2024’te yerel seçimlerde, WhatsApp gruplarına sızan “anket sonuçları”nın yarısı yapay zekâ ile üretilmiş. Adamlar PDF hazırlamış, sözde KONDA logosu, altında da “Yapay zekâ destekli analiz” yazıyor. Millet yemiş. O noktada şunu anladım: Türkiye’de insanlar, logoya ve formatına bakıp “Bu kesin doğrudur” diyor, içeriğe bakan yok.
İşin teknik tarafına inmek isteyenler için mesele çok net: Doğal dil işleme (NLP) modelleri, sahte haberin dilsel izini sürüyor. Mesela 2026 itibarıyla OpenAI’ın “RumorBuster” API’si, haber metnindeki abartılı sıfatları, çelişkili tarihleri, olağandışı isim geçişlerini yakalıyor. Ama burada bile “Eğer haber kasıtlı olarak sade ve sıradan dille yazıldıysa?” sorusu havada kalıyor. Yani 2026’da bile, yüzde yüz güvenli sahte haber tespiti yok.
Kendi adıma tavsiye: Her gördüğünü Google’a yapıştırıp aramakla yetinme, haberin kim tarafından yazıldığını, kaynağın geçmişini mutlaka sorgula. Yapay zekâ destekli doğrulama araçlarını kullan, ama akıl süzgecini devreden çıkarma. Yoksa üç güne kalmaz, “İstanbul’a kar yağacak, okullar 1 ay tatil” haberine bile inanırsın.
00