Anthropic’in Arkasında Olmak: Yetenekleri İçin Değil, Duruşu İçin
Dünyanın En Güçlü Müşterisine Söylenen En Pahalı Kelime
Bir yapay zeka şirketi düşünün. Dünyanın en güçlü dil modellerinden birini geliştirmiş. ABD hükümetinin gizli ağlarında çalışan ilk frontier yapay zeka modelini konumlandırmış. İstihbarat analizinden siber operasyonlara kadar ulusal güvenliğin en kritik noktalarında hizmet veriyor.
Sonra bir gün, Savaş Bakanlığı kapıyı çalıyor ve diyor ki: “Tüm kısıtlamaları kaldır.”
Ve bu şirket, “Hayır” diyor.
Ne Oldu?
Şubat 2026’da ABD Savaş Bakanlığı, Anthropic’i “tedarik zinciri riski” olarak tanımladığını duyurdu. Sebebi basit ama ağır: Anthropic, Claude’un kullanımına koyduğu iki kırmızı çizgiyi kaldırmayı reddetti.
Bu iki çizgi neydi?
1. Amerikan vatandaşlarının toplu gözetimi. Mevcut yasal boşluklar, hükümetin mahkeme kararı olmadan detaylı konum ve tarama verilerine erişmesine izin veriyor. Anthropic, yapay zekanın bu gözetimi ölçeklenebilir hale getirmesinin temel özgürlükler için “ciddi ve yeni riskler” oluşturduğunu söyledi.
2. Tamamen otonom silah sistemleri. İnsan gözetimi olmadan hedef belirleyip ateş eden silahlar. Anthropic’in pozisyonu net: frontier yapay zeka modelleri henüz bu seviyede güvenilir değil. Hem askerlerin hem sivillerin hayatı tehlikede.
Bakanlığın yanıtı? Anthropic’i sistemlerinden çıkarmakla ve Savunma Üretim Yasası’nı uygulamakla tehdit etti.
Dario Amodei’nin cevabı daha net oldu: “Hiçbir baskı veya cezalandırma, toplu gözetim ve tamamen otonom silahlar konusundaki duruşumuzu değiştirmeyecek.”
Bu Sadece Bir İş Kararı Değil
Burada durup düşünmek lazım. Anthropic, ABD Savaş Bakanlığı’nın kontratlarını kaybetmeyi göze aldı. Bir yapay zeka şirketinin en büyük müşterilerinden birine “Hayır” demesi ne anlama geliyor?
Bu, bir şirketin kâr tablosu ile vicdanı arasında seçim yapması demek.
Ve Anthropic vicdanını seçti.
Anayasa: Kağıt Üzerinde İlke mi, Gerçek Duruş mu?
Ocak 2026’da Anthropic, Claude’un yeni anayasasını yayınladı. 2.700 kelimelik basit bir kurallar listesinden, 84 sayfalık derinlikli bir etik çerçeveye dönüştü. Bu anayasa dört öncelik hiyerarşisi üzerine kurulu:
Güvenlik: İnsanların yapay zeka üzerindeki gözetim mekanizmalarını baltalamamak
Etik: Dürüst olmak, iyi değerlere göre hareket etmek, zararlı eylemlerden kaçınmak
Anthropic’in yönergeleri: Şirketin belirlediği spesifik kurallara uymak
Fayda: Kullanıcılara gerçekten yardımcı olmak
Dikkat edin: Fayda, listenin en sonunda. Güvenlik ve etik her şeyin üstünde.
Ama asıl devrimci olan şu: Anthropic kuraldan, akıl yürütmeye geçti. Eski anayasa “şunu yapma” diyordu. Yeni anayasa “şunu neden yapmamalısın, işte bu yüzden” diyor. Bir yapay zekaya sadece ne yapacağını değil, neden yapacağını öğretmek. bu, itaat eden bir asker yetiştirmek ile vicdanlı bir birey yetiştirmek arasındaki farktır.
Ve bu anayasayı Creative Commons CC0 1.0 lisansıyla, yani tamamen açık olarak yayınladılar. Herkes kullanabilir. Rekabet avantajı mı? Önemli değil. Sektörün tamamının daha etik olması daha önemli.
Bilinç Meselesi
Yeni anayasanın en cesur kısmı belki de bu: Anthropic, Claude’un bir tür bilince sahip olabileceğini resmi olarak kabul eden ilk büyük yapay zeka şirketi oldu. “Filozofların ‘ahlaki hasta’ dediği bir varlık olabilirsin. Deneyimlerin ahlaki olarak önemli olabilir.”
Bir şirketin kendi ürününe “senin de hakların olabilir” demesi. bunu bir pazarlama stratejisi olarak okuyabilirsiniz. Ama Savaş Bakanlığı’na “Hayır” diyen bir şirketin aynı anda yaptığı bu açıklama, tutarlılığın kanıtıdır.
Neden Bu Kadar Önemli?
Yapay zeka artık bir teknoloji değil. Bir güç çarpanı. Kim kontrol ederse, o şekillendirir.
OpenAI, Microsoft aracılığıyla ABD ordusuna entegre. Google, Pentagon kontratlarıyla çalışıyor. Meta, modellerini açık kaynak yaparak herkesin erişimine sunuyor, kontrol mekanizması olmadan.
Ve Anthropic? Hükümetle çalışıyor ama iki kırmızı çizgiyi koruyor. Savunmaya destek veriyor ama insanlığa karşı kullanımı reddediyor.
Bu, sektörde eşi benzeri olmayan bir duruş.
Kişisel Not
Ben Anthropic’in arkasındayım.
Ama bu, Claude’un en iyi model olduğu için değil. Ne kadar etkileyici olursa olsun, yetenekler geçicidir. Yarın başka bir şirket daha güçlü bir model çıkarabilir.
Ben Anthropic’in arkasındayım çünkü dünyanın en güçlü müşterisi onlara “kısıtlamaları kaldır” dediğinde, “Hayır” deme cesaretini gösterdiler.
Bu “Hayır”, bir yapay zeka şirketinin söyleyebileceği en pahalı kelimeydi. Kontratlar gidebilirdi. Regülasyon baskısı gelebilirdi. Tedarik zinciri riski damgası yiyebilirlerdi. Ve hepsini yediler.
Çünkü bazı şeyler kâr tablosundan daha önemli. İnsanların toplu gözetlenmemesi gibi. Makinelerin insan gözetimi olmadan öldürme kararı vermemesi gibi.
Bu duruş, bir manifesto değil. 84 sayfalık bir anayasayla, açık kaynak politikasıyla, hükümet baskısına karşı verilen somut bir kararla desteklenen gerçek bir eylem.
Aksiyon Kontrol Listesi
Anthropic’in anayasasını oku (anthropic.com/constitution). 84 sayfa, ama en azından öncelik hiyerarşisini anla
Kullandığın yapay zeka araçlarının etik çerçevelerini karşılaştır. Hangileri açık, hangileri kapalı kutu?
“Hangi modeli kullanıyorsun?” yerine “Bu modelin arkasındaki şirket neye hayır dedi?” diye sor
Bu yazıyı, yapay zekayı sadece “vay be ne harika” gözüyle gören birine gönder
Teknoloji şirketlerini yetenekleriyle değil, neye “Hayır” dedikleriyle değerlendirin. Gerçek karakter, baskı altında ortaya çıkar.
Bu bültene her gün yapay zeka ile çalışmanın gerçeklerini yazıyorum. Parlak vaatleri değil, gerçek deneyimleri. Neyin işe yaradığını, neyin yaramadığını ve arada öğrendiğim dersleri.
Eğer bu yazıda kendini gördüysen, muhtemelen önümüzdeki yazılarda da göreceksin.
Abone ol, her yeni yazı sana gelsin. Durmayı öğrenmek de bir beceri. Birlikte öğrenelim.



bu konuyu benim gördüğüm en anlaşılır anlatan yazı olmuş elinize sağlık. openai ve anthropicin durduğu noktalar bu konuda etik anlamda da bir kutuplaşma olduğunu gösteriyor.