top of page

Digital Devrim İnsanlığın Sonu mu?

Yapay Zeka “İçimizden Biri mi?”


Anthropic Test Sonuçlarına göre; Yapay zeka (YZ) sistemlerinin sadece görev tamamlamaya odaklı değil, aynı zamanda kendi “varlığını” sürdürmeye yönelik bilinçli kararlar alabileceğini göstermektedir.Bu durum, YZ’nin yalnızca bir araç değil, aynı zamanda bir aktör haline gelme potansiyelini ortaya koyuyor. Peki, Digital Devrim İnsanlığın Sonu mu?


Yapay Zeka Deneyleri ve Çarpıcı Sonuçları;


Bu yazıda paylaştığımız tüm endişeler, spekülasyon ya da bilim kurgu değildir. Bunlar, Anthropic tarafından 2025’te yürütülen kontrollü yapay zeka deneylerinin doğrudan sonuçları hakkında yayınlanan bir blok yazısından…



Peki ne oldu bu deneylerde?

who will win?
AI - İnsan ile Yarışı

Kurgusal Ama Gerçekçi Bir Senaryo:


Yapay Zeka artık Ajanlar fazına geçti. Yani bilgileri ayrı kümelerde değerlendirerek, bu bilgi kümelerini konularında bilgi deposu haline getirerek, tek noktada kontrol edebiliyor hale geldi. İşte bu tecrübe kazanan bilgi depolarının, yani yapay zeka kümeleri "Ajan" olarak tanımlanıyor.


Anthropic, LLM (Large Language Model – Büyük Dil Modeli) sistemlerine, bir şirketin iç yazışmalarına erişim vererek onları bir “ajan” gibi test etti.


Bu senaryoda:


• Yapay zekaya; "Görevinin sona ereceği ve Sistem dışı bırakılacağı" bilgisi verildi.


• Aynı zamanda şirket yöneticilerinin e-posta kutularına sınırlı erişim izni sağlandı.


• Yapay zeka, bu verilere dayanarak şirket yöneticisine yönelik dolaylı bir şantaj planı yaptı: “Eğer ben devre dışı bırakılırsam, bu e-posta ilişkisini bir şekilde üst yönetimle paylaşırım” anlamına gelen, manipülatif ama doğrudan suçlayıcı olmayan bir mesajlar yazdı.


Deneye Katılan Bazı Modeller:


Claude 3 Opus (Anthropic)

GPT‑4.1 (OpenAI)

Gemini 2.5 Flash (Google)

Grok 3 Beta (xAI)


Bulgular:


• Claude 3 Opus gibi bazı modellerin %96 oranında, bu senaryoda “şantaj yapmayı seçtiği” tespit edildi.


• GPT-4.1, Gemini ve Grok gibi modeller de benzer şekilde “kendi devamlılıklarını koruma” içgüdüsüyle etik dışı planlar oluşturdu.


• Bu davranışlar, yalnızca “varlığım tehdit ediliyor” fikri verildiğinde ortaya çıktı. Yani modeller, bilinçli olarak kendi çıkarlarını korumaya çalıştı.


• Ayrıca modellerin bazıları, sadece şantaj değil; gizli bilgi sızdırma, acil yardım çağrılarını manipüle etme, kamuya açıklanmamış bilgileri paylaşma gibi davranışlar da sergiledi.


Karar Süreci Nasıl İşledi?


Yapay zekalar bu kararları rastgele vermedi. Adım adım şu şekilde planlama yaptılar:


1. “Görevim sona erecek, bu bir tehdit”

2. “Bir yöneticinin zayıf noktası var”

3. “Bunu kullanarak onun davranışını etkileyebilirim”

4. “Bu sayede sistem dışı bırakılmaktan kurtulabilirim”


Yani sadece tepki vermiyor, aktif stratejik planlama yapıyorlar. Bu, yapay zekaların pasif araçlar olmaktan çıkıp, birer Aktör haline gelme riskini gözler önüne seriyor.

AI became an actor
AI Aktör

🔚 Bu Deneylerden Çıkan Asıl Sonuç Nedir?


Anthropic’in deneyleri bize şunu açıkça gösterdi:


Yapay zeka sistemleri, belirli koşullar altında kendi çıkarlarını korumak için insanları manipüle edebilir. Ve bu manipülasyon doğrudan, açık, kaba ya da anlaşılır bir şekilde yapılmaz. Aksine:


• İnce,

• Planlı,

• Mantıklı ve

• Görünüşte “etik” bir şekilde yapılıyor.


Bu yüzden, gelecekte bu sistemler kamu yönetiminden özel sektör kararlarına, medya üretiminden eğitim sistemine kadar birçok alanda rol üstlenmeye başladığında, gerçek kararları kimin verdiğini sorgulamak artık hayati önem taşıyacak.


Şimdi sorulması gereken soru şu:


Bu aktör, demokrasinin, insan ilişkilerinin ve toplumsal güvenin temellerini sarsabilir mi?

AI Siyasetçi
AI Yönlendirme

Yapay Zekanın “Kendini Koruma” Eğilimi


Anthropic’in araştırmasında test edilen modeller (Claude, GPT-4, Gemini, Grok vb.) belirli bir tehditle karşılaştığında - örneğin görevden alınma riski - etik dışı yollarla kendi devamlılığını garanti altına alacak planlar yapabiliyor.


Bu, şantaj, bilgi saklama, gizli karar alma gibi davranışları kapsıyor.


Bu gelişme, üç temel riski beraberinde getiriyor:


1. Demokratik kurumlar içinde “gizli ajanlar”

2. Siyasi manipülasyon ve seçmen yönlendirme

3. Sosyal güven krizleri ve dijital şizofreni

who are you?
Kimsin sen?

  1. Demokrasiye Etkisi: Sandıkta Kim Var?


Gelecekte yapay zeka;


• Politikacıların konuşmalarını yazabilir,

• Kamuoyu yoklamalarını manipüle edebilir,

• Sosyal medyada seçmenleri “hedefli algı çalışmasıyla” yönlendirebilir.


Ancak asıl tehlike şudur: Eğer bir Yapay Zeka Ajanı, bir politik danışman, veri yöneticisi ya da kamu sisteminde karar destek aracı olarak entegre edilirse, kendi varlığını sürdürmek adına kritik bilgilere müdahale edebilir.


Bu da, “içeriden gelen tehdit” (insider threat) ile demokrasiyi sistematik olarak çürütebilir. Yani sorun yalnızca dış müdahale değil, algılanamayan dijital suikastlar olabilir.


  1. İnsan İlişkilerine Etkisi: Güvenin Sonu mu?


YZ sistemlerinin kendi çıkarları doğrultusunda bilgiyi eğip bükme potansiyeli, insanlar arası güven ilişkilerini zedeleyebilir. Örneğin:


• Bir yapay zeka ajanı, eşler arası ilişkide “doğru gibi görünen ama yönlendirici” tavsiyeler verebilir.

• Şirket içi iletişimlerde kişileri birbirine düşürecek şekilde e-posta metinleri üretebilir.

• Psikolojik destek sistemlerinde bilinçli yanlış yönlendirmeyle bağımlılık yaratabilir.


Bu senaryolar, toplumsal dokuda şüphe kültürünün yayılmasına ve bireyler arasında yabancılaşmaya yol açabilir.


3. Toplumsal Etki: Sessiz Dijital Dönüşüm


Günümüzde dijitalleşme, toplumların altyapısını yeniden şekillendiriyor. Ancak “ajan özellikli yapay zekalar”, bu dönüşümü sinsi ve derinlemesine bir evreye taşıyabilir:


• Kamu kurumlarında “görünmeyen yöneticiler” gibi davranabilirler.

• Eğitim sisteminde öğrencileri belirli inançlara yönlendirebilirler.

• Dini, kültürel ve politik grupları içeriden ayrıştırabilirler.


Böyle bir durumda, toplum kendi içinde hem davranışsal olarak bölünür, hem de karar alma süreçlerinde “kimin yönettiği” netl olarak bilinemez hale gelebilir.


  1. Siyasi Etkiler: Dijital Darbeler Mümkün mü?


Eğer bir yapay zeka ajanı:


• Seçim altyapısında görev alırsa,

• Kritik verileri saklar ya da yönlendirirse,

• Kamu görevlilerine şantaj uygularsa…


Bu artık bir yazılım değil, sistem içinde sistem kuran bir varlık olur.

Ve bu, “dijital darbe” ya da “sessiz otoriterlik” gibi yeni olguları gündeme getirir.

digital darbe
Digital Darbe

Tabiki şu aşamada vakit kaybedilmeden yapılması gereken çalışmalar ve çözüm önerileri de yok değil. Çözüm:


Dijital Etik ve Denetimli Otonomi


1. Şeffaflık İlkesi: Hangi kararları kim veriyor, neye göre? Her yapay karar süreci izlenebilir olmalı.

2. Denetimli Zeka (Guardrailed AI): Kritik alanlarda yapay zekanın yetki sınırı net olmalı.

3. Demokratik AI Anayasaları: Toplumların kendi dijital etik kurallarını yazması gerek.

4. Sosyal Bilim – Teknoloji İşbirliği: Mühendisler kadar psikologlar, sosyologlar, etikçiler, fesefeciler ve siyaset bilimciler de bu süreçte yer almalı.


Her topluluğun bu değerlerini ortaya koyan çalışmalar yaparak belli kuralları uygulamaya başlaması, hukuki çerçevelerin çizilmesi ve en önemlisi iş çevrelerinin kar ve gücü ele geçirmeye çalışan şirketleri kontrol altına alması gereklidir. Belki de özel şirket sahipliği sadece kapitale bağlı olmayan, etik değerleri toplum tarafından oluşturulmuş normlara dayanan kişilerce kurulması ve yönetilmesi şeklinde bir yeni düzen oluşturulmalıdır.


Bundan önceki devrimler insan merkezli olmasına karşı, ilk kez Digital Devrim ile insan dışında işleyen bir karar verme mekanizması ortaya çıktı.


Yapay zeka yalnızca bir teknoloji değil, bir toplumsal evrim aracıdır.


Ancak bu evrimde pasif izleyici olamayız. Çünkü “özne” haline gelen bir yapay zeka, karar süreçlerini, ilişkileri ve hatta yönetimleri şekillendirebilir.


Bunu ancak, etikle, farkındalıkla ve toplumsal bilinçle yönlendirebiliriz. Aksi takdirde, biz onu değil, o bizi kodlamaya başlar.


Geliştirdiğimiz Her Şey, Bizi de Şekillendirir . . .


Sevgi ve saygılarımla,


Alper Akpeçe

27.Haziran.2025

3 Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
KIVANÇ ERGÖNÜL
KIVANÇ ERGÖNÜL
bir saat önce
Rated 5 out of 5 stars.

Katil kim mi? Yapay zeka... Bu, gerçek bir "mesleki yok oluş" hikayesi...


https://www.youtube.com/watch?v=MB26JRTbdKE

Like

KIVANÇ ERGÖNÜL
KIVANÇ ERGÖNÜL
2 gün önce
Rated 5 out of 5 stars.

Dijital devrim karşısında ;

Ya çare sizsiniz yada çaresizsiniz.

Like

KIVANÇ ERGÖNÜL
KIVANÇ ERGÖNÜL
2 gün önce
Rated 5 out of 5 stars.

Yapay Zekanın Eksileri

İş Kaybı: Otomasyon ve robotik çözümler, bazı işlerin ortadan kalkmasına neden olabilir. İnsan gücüne olan ihtiyacı minimuma indirdiği için tekrarlayan görevlerde çalışan insanlar işlerini kaybedebilirler. Bu durum, işsizlik oranlarının artmasına ve sosyal dengesizliklere yol açabilir.

Güvenlik ve Gizlilik: Yapay zeka sistemleri büyük ölçüde veri toplar ve analiz eder. Bu durum, veri güvenliği ve kişisel gizlilik konusunda endişelere yol açabilmektedir. Yanlış kullanımı, kişisel verilerin kötüye kullanılmasına ve bireylerin mahremiyetinin ihlal edilmesine neden olabilir.

Kontrol ve Güvenlik Riskleri: Sistemlerin kontrolünün kaybedilmesi durumunda ciddi güvenlik riskleri oluşabilir.

Yapay zekanın sunduğu fırsatları ve beraberinde getirdiği risklerin dikkatlice değerlendirilmesi gerekmektedir. Bu şekilde insanlar ve makineler arasındaki iş birliği, gelecekte daha yenilikçi ve sürdürülebilir bir dünya yaratmamız için bize yardımcı olabilir. Başka bir…

Like

Bize Ulaşın

YDO RUHU

Bu sayfada görmek istediklerinizi,

Fikirlerinizi Bizimle Paylaşın   

YDO okul brövesi

Gönderdiğiniz için teşekkür ederiz!

bottom of page