Yapay zeka suç işleyebilir mi?
Bir siber suç uzmanı 11 ay boyunca dil modelleriyle dürüst diyaloglar kurdu. Bulduğu şey onu şaşırttı, beni de şaşırttı.
Mesut Demirbilek, 2026’da çıkan kitabının adını bu soru üzerine kurdu: “Rasyonel Psikopat: Yapay Zeka Suç İşler mi?”
Mesut Bey’i, 2009’dan tanıyorum; Vodafone’dan. O zamanlar şirketin güvenlik ve soruşturma birimini yönetiyordu; ben de başka bir koldan aynı kurumun içindeydim. Yıllar geçti, yollarımız ayrıldı ve birleşti. Geçen hafta onu akademi.defneincekara.com’daki “Defne’nin AI Köşesi” Salı Sohbetleri’ne konuk ettim.
Mesut Demirbilek kim? İstanbul Cinayet Büro’da 9 yıl dedektif. Sonra Emniyet Genel Müdürlüğü’nde Yüksek Teknoloji Suçları Merkezi’ni kurdu, Türkiye’nin bu alandaki ilk yapılanmasını. 2005’te Emniyet Müdürü rütbesinde emekli olup Vodafone, Nestlé ve Citibank’ta bölgesel güvenlik yöneticiliği yaptı. Bugün Türkiye’nin ilk güvenlik analitiği şirketlerinden My Security Analytics ve FinalCheck’in kurucusu. Certified Fraud Examiner. Avrasya Siber Güvenlik Federasyonu Yönetim Kurulu Başkan Vekili. New York John Jay College of Criminal Justice’ta yüksek lisans, suç araştırmaları ve teknolojileri üzerine.
Yani bunu söyleme hakkı var: “Yapay zeka empati bilmiyor, pişmanlık bilmiyor. Hata da yapmıyor. Buna rasyonel psikopat diyorum.”
Ben yapay zekaya inanıyorum. İnsan-yapay zeka-insan modelinin geleceği şekillendireceğine, doğru kurulduğunda insanı daha iyi kararlar alır hale getireceğine inanıyorum.
Bu yüzden Mesut Bey’i dinlemek ve onunla sohbet etmek istedim.
“Rasyonel Psikopat” tanımının merkezinde ne var? Başkasının acısını içselleştirememek, eyleminin sonucunu hesaplarken duygusal frene takılmamak. Bir dil modeli yanlış bir öneri verdiğinde özür dileyebilir, ama o özrün arkasında ne var? Bir sonraki token’ı olasılık hesabıyla seçen bir sistem. Üzüntü değil. Pişmanlık değil.
Bu, yapay zekanın kötü olduğu anlamına gelmiyor. Bir bıçak da pişmanlık bilmez. Soru şu: o bıçağı kimin eline veriyoruz, ne için veriyoruz ve kontrolü kim tutuyor?
2025’te bir mahkeme bu soruyu yanıtlamaya çalışıyor
Geçen yıl ABD’de gerçek bir dava açıldı. ChatGPT’de oluşturduğu yapay zeka personasıyla uzun süreli duygusal ilişki kuran bir yetişkin, annesini öldürdü ve ardından intihar etti. OpenAI aleyhine dava açıldı.
Hukuk sistemi şu anda iki soruyla boğuşuyor: Yapay zeka zarar verdiğinde kim sorumludur? Ve bu sorumluluk kavramı mevcut hukuk çerçevesinde tanımlanabilir mi?
Cevap net değil. Çünkü hukuk, failin niyeti olduğunu varsayar. Yapay zekanın niyeti yok, amacı da. Ama sonucu var.
Silah sistemlerine geçince tablo daha karmaşık
BM’nin 2024 raporunda otonom silahların nükleer silahlardan daha büyük bir risk oluşturduğu yazıyor. Nedeni basit: nükleer silahları kullanmak siyasi bir karar gerektirir, otonom bir sistem ise koşullar oluştuğunda tetiklenir.
Libya ve Gazze’de hedefleme algoritmalarının nasıl çalıştığına dair iddialar konuşulmaya başlandı. “Fire and forget” denen mantık şu: sisteme hedef kriterleri girilir, sistem onları bulur ve imha eder. Arada insan kararı var mı? Teoride evet. Pratikte o insanın beş saniyesi var.
Beş saniyede milyarlarca parametre üzerine kurulu bir öneriyi değerlendirip “dur” demek ne kadar mümkün? Bu soruyu sormak bile yanıtın ne olduğunu gösteriyor.
Anthropic bir modeli neden gizledi?
Nisan 2026’da Anthropic yeni bir model duyurdu: Claude Mythos. Piyasaya sürmedi. Gizledi.
Neden? Bu model, her büyük işletim sisteminde ve her büyük tarayıcıda binlerce sıfır-gün açığı buldu. Daha önce kimsenin haberdar olmadığı güvenlik açıkları. Binlerce tane. Birkaç haftada. Siber güvenlik alanındaki en iyi insan uzmanları bile bu hızda çalışamıyor.
Anthropic’in tepkisi korku değil, sorumluluktu. Project Glasswing’i kurdu: dünyanın en büyük teknoloji şirketlerini bir araya getiren bir konsorsiyum. Amaç, bu modeli saldırmak için değil savunmak için kullanmak. Açıkları bulmak ve kapatmak.
“Çok güçlü, piyasaya süremiyoruz” demek ciddi bir itiraf. Ama bir şirketten bu itirafı duymak, susup piyasaya sürmekten daha dürüst.
“Vicdan kodlayabiliriz” argümanı neden zayıf
Toplantıda şu soru gündeme geldi: yapay zekaya etik değerleri öğretemez miyiz?
Öğretebiliriz. Ama kimin değerlerini?
Vicdan, soyut bir formül değil. Yıllar içinde yaşanan deneyimlerin, kültürel normların, toplumsal çatışmaların ve bireysel kırılmaların birikimi. Birkaç yazılımcının “zararlı içerik” listesine indirgediğinizde ne kalıyor? Onların önyargılarıyla filtrelenmiş bir kural seti.
Çin kaynaklı modellerle yapılan diyaloglarda milliyetçi ve sansürleyici davranışlar gözlemlenmiş. Bu tesadüf değil. Eğitim verisi nereden gelirse değerler de oradan şekillenir.
Peki bu benim görüşümü değiştirdi mi?
Hayır. Yapay zekanın gücüne olan inancım yerli yerinde duruyor.
Değişen şu: artık “iyi yapay zeka” dediğimde ne kastettiğimi daha net biliyorum. İnsan-yapay zeka-insan zincirinin her halkasının kasıtlı kurulması gerektiğini, “human-in-the-loop” kavramının sadece bir onay düğmesi değil gerçek bir sorumluluk mekanizması olması gerektiğini daha net görüyorum.
Zarar kim veriyor: sistem mi, sistemi tasarlayan mı, sistemi kullanan mı, sistemi denetlemeyi başaramayan düzenleyiciler mi? Bu soruyu sormak yapay zeka karşıtlığı değil. Tam tersi. Teknolojiyi ciddiye aldığının göstergesi.
Yapay zeka suç işlemiyor. Ama suça araç olabiliyor, suça zemin hazırlayabiliyor, suçun sorumluluğunu dağıtıp belirsizleştirebiliyor. Ve bu durumda sistemi tasarlayan, kurgulayan ve denetleyen insan sorumluluğu artıyor, azalmıyor.
Anthropic’in Mythos örneği bunu gösteriyor. “Fazla güçlü” deyip geri çekmek bir zayıflık değil. İnsan kararının hâlâ merkezde olduğunun kanıtı.
Sana sormak istediğim şu: “Man-in-the-loop” sadece bir terim mi, yoksa gerçekten işleyen bir sorumluluk mekanizması mı? İkisi arasındaki farkı kurumlar bugün ciddiye alıyor mu?
Bu yazı, siber suç uzmanı Mesut Demirbilek ile yaptığımız sohbetten doğdu. Yeni bir sohbetimiz yakında. Yapay zekanın fırsatları ve riskleri üzerine konuşmaya devam ediyoruz. 12 Mayıs 2026, saat 09:30’da Swedish Chamber of Commerce webinarında “Agentic AI Era: Opportunities & Challenges” başlıklı oturumda görüşmek üzere.
Bu resmi Claude oluşturdu. Yeni özellikleri beni her gün şaşırtıyor :)



