Pentagon neden bir yapay zeka şirketini "ulusal güvenlik riski" ilan etti
Bu etiket normalde Çin hükümetine bağlı şirketler için kullanılıyor. Bir Amerikan teknoloji şirketine yapıştırılması ilk kez oluyor.
Bir yapay zeka şirketi düşünün. Ürünü ABD ordusunun İran operasyonlarında aktif olarak kullanılıyor. Geliri bir yılda 9 milyardan 20 milyar dolara fırladı. Kurumsal pazarda payı %4’ten %40’a çıktı. Rakibi OpenAI’ın payı aynı dönemde %50’den %27’ye düştü.
Ve bu şirket, en büyük müşterilerinden birine “hayır” diyor.
5 Mart 2026’da Pentagon, Anthropic’i resmi olarak “tedarik zinciri riski” ilan etti. Bu etiket normalde Çin hükümetine bağlı şirketler için kullanılıyor. Bir Amerikan teknoloji şirketine yapıştırılması ilk kez oluyor.
Sebep basit: Anthropic, Claude modelinin kitlesel gözetleme ve otonom silah sistemlerinde sınırsız kullanımını reddetti.
Ve tam burada durun.
“Hayır” demenin bu kadar pahalı olduğu bir dünya.
Pentagon’un talebi şuydu: Claude’u istediğimiz her yasal amaç için, hiçbir kısıtlama olmadan kullanacağız. Anthropic’in cevabı: Otonom öldürme kararları ve Amerikan vatandaşlarının kitlesel gözetlenmesi konusunda kırmızı çizgilerimiz var.
Sıradan bir iş anlaşmazlığı gibi görünebilir. Değil.
İyimser okuma: Anthropic ilkeli duruşuyla tarih yazıyor. Dario Amodei, “vicdanen bu talebe uyamayız” dedi. 300’den fazla Google çalışanı ve 60’tan fazla OpenAI çalışanı açık mektup yazarak Anthropic’i destekledi. Rakipleri bile “onlarla aynı kırmızı çizgileri paylaşıyoruz” açıklaması yaptı. Claude, App Store’da zirveye çıktı. OpenAI’a boykot kampanyası başladı.
Kötümser okuma: Bu bir PR zaferi, iş stratejisi olarak tartışılır. Anthropic henüz kârlı değil. Pentagon bağlantısı kopunca Amazon ve Google ile federal ihaleleri de tehlikeye giriyor. Altı ay içinde Claude’un askeri sistemlerden çıkarılması emredildi. Ve Pentagon zaten OpenAI ve xAI ile gizli sistem anlaşmaları imzaladı.
Bence gerçek ikisinin arasında. Ve bu, kurumsal liderler için çok tanıdık bir gerilim.
25 yıllık kurumsal teknoloji kariyerimde bu sahneyi defalarca gördüm: büyük bir müşteri masaya oturur ve sınırlarınızı test eder. “Bunu yapın, yoksa...” derler. O anda verdiğiniz karar, şirketinizin DNA’sını belirler. Kısa vadede “Hayır” demek, “Evet”ten çok daha pahalıdır. Ama “Hayır” diyemeyenler, uzun vadede çok daha ağır bedeller öderler.
Anthropic şu anda kısa vadeli bedeli ödüyor. Ama bir şey dikkatimi çekiyor: geliri 20 milyar dolara ulaşmış bir şirket, bu pozisyonu “zayıflıktan” almıyor. Kurumsal müşteri tabanı genişlemeye devam ediyor. Mühendisler Claude Code ile yazılım dünyasını sarsıyor.
Asıl soru şu: bu duruş sürdürülebilir mi?
Pentagon’un “tedarik zinciri riski” etiketi, bir tehdit gibi görünse de aslında bir testi temsil ediyor. Özel sektör, devlete nereye kadar “hayır” diyebilir? Teknoloji şirketleri, ürünlerinin kullanımı üzerinde ne kadar söz sahibi olabilir? Etik ilkelerin bir iş modeli maliyeti var mı; yoksa tam tersine, bir iş modeli avantajı mı?
Ben test ettim diyemem, bu benim odak alanım değil ama sahada şunu görüyorum: Türkiye’deki şirketlerin çoğu “etik yapay zeka kullanımı” konusunu henüz gündemine almadı. Yapay zeka stratejisi denince akla verimlilik geliyor, maliyet düşürme geliyor. “Bu teknolojiyi nerede kullanmayacağız” sorusu hiç sorulmuyor.
Anthropic’in hikayesi uzak bir ülkedeki büyük bir kavga gibi görünebilir. Ama içindeki gerilim evrensel:
Büyümek mi, doğru olanı yapmak mı? İkisi birlikte mümkün mü?
Anthropic’in cevabı: “Evet, ama bedeli var.”
Sizin şirketinizin yapay zeka kırmızı çizgisi ne?
#YapayZeka #Anthropic #AIEtik #KurumsalStrateji #TeknolojiFelsefe
Bu bültene her gün yapay zeka ile çalışmanın gerçeklerini yazıyorum. Parlak vaatleri değil, gerçek deneyimleri. Neyin işe yaradığını, neyin yaramadığını ve arada öğrendiğim dersleri.
Eğer bu yazıda kendini gördüysen, muhtemelen önümüzdeki yazılarda da göreceksin.
Abone ol, her yeni yazı sana gelsin. Birlikte öğrenelim.

