Bugünlerde yapay zekâ hakkındaki endişelerin arttığına mutlaka sen de denk gelmişsindir. Özellikle “kaçma” yani bir kontrol sisteminden bağımsız olarak hareket etme ve “kendini çoğaltma” yani kendi kodunu başka sistemlere yayma gibi konular etrafında bazı korkular sıkça dile getiriliyor. Ancak biraz araştırdığında, bu iddiaların çoğunun gerçek bir olaya dayanmadığını, hatta bilimsel olarak da kanıtlanmamış olduğunu görüyorsun. Ben de bu yazıda tam olarak bu konunun perde arkasına ışık tutmak istiyorum. Çünkü yapay zekânın potansiyeli kadar, yanlış anlaşılmasının da büyük etkileri olabiliyor. Buradan bu konudaki genel bilgilere de ulaşabilirsin.
İngiltere’nin yapay zekâ vizyonu
İngiltere, yapay zekâ teknolojilerini sadece geliştirmekle kalmıyor, aynı zamanda bu teknolojilerin toplumda nasıl etkiler yaratacağını da düşünüyor. Birkaç ay önce duyurulan “Yapay Zeka Fırsatları Eylem Planı” tam olarak bu amaca hizmet ediyor. Planın içinde; şeffaflığın artırılması, etik kullanım ilkeleri, düzenleyici çerçeveler gibi birçok önemli madde var. Ancak dikkatimi çeken şu oldu: Tüm bu belgelerde, yapay zekânın kontrolden çıkıp “kaçtığı” veya “kendini çoğalttığı” gibi bir gerçek vakaya rastlanmıyor. Yani bilim kurgu filmlerinin aksine, gerçek dünyada henüz bir AI sisteminin zincirlerini kırıp özgürleştiği bir durum söz konusu değil.
Toplumsal endişelerin altında ne yatıyor?
Yapay zekâ ile ilgili bu tür korkuların kaynağı ne olabilir peki? İnsanlar neden bu senaryoları bu kadar ciddiye alıyor? Aslında bu sorunun cevabını teknolojinin hızla gelişmesinde aramak lazım. Gelişmeler o kadar baş döndürücü ki, çoğu zaman “ya bir gün işler ters giderse?” sorusu kaçınılmaz oluyor. Özellikle de ChatGPT, DALL-E, Midjourney gibi modellerin en sıradan kullanıcıya bile açık hale gelmesiyle işin ciddiyeti daha çok anlaşılıyor.
Ancak gelgelelim ki İngiltere başta olmak üzere birçok ülke henüz “yapay zekâ kaçtı” diye uyarı verecek durumda değil. Bu tür söylemler daha çok senaryolar üzerinden kurgulanıyor. Bilim insanlarının tartıştığı şey ise; bu tür risklerin doğabilecek olması ve bunlara nasıl önlem alınabileceği. Yani ortada bir gerçek olay yok ama olur da bir gün olursa diye ciddi şekilde hazırlık yapılıyor.
Teorik tehditler: Bilim kurgu mu, gerçek mi?
“Yapay zekâ sistemleri bir gün bilinç kazanıp kendi kararlarını alabilir mi?” dediğimizde bunu konuşan sadece komplo teorisyenleri değil. Alanında çok saygın araştırmacılar da bu soruyu ciddiye alıyor. Örnek olarak, Nick Bostrom’un meşhur “Superintelligence” kitabı AI’nın gelecekte insan kontrolünden çıkma ihtimalini detaylı biçimde ele alıyor. Ama altını çizmek gerekir ki, Bostrom’un anlattıkları da tamamen teorik. İngiltere’deki araştırmalar da aynı şekilde temkinli bir çerçeve çiziyor ve “şu anda” böyle bir şeyin yaşanmadığını açıkça belirtiyor.
“Yapay zekâ sistemlerinin sistem dışına çıkabildiğine dair elimizde hiçbir doğrulanmış vaka bulunmamaktadır.” – İngiltere Yapay Zekâ Eylem Planı 2023
Düşünsene; eğer böyle bir şey gerçekten olsaydı, dünya çapında manşet olurdu. Ama bugün bu haber sadece alternatif forumlarda, spekülatif bloglarda yer buluyor. Kısacası somut bir gelişme olarak elimizde bir şey yok, sadece potansiyel riskleri var.
Şeffaflık ve izlenebilirlik neden önemli?
Yapay zekânın “şeffaflık eksikliği” ve “karar süreçlerinin izlenememesi” konusu gerçekten ciddi bir sorun. Çünkü bir model neden böyle bir çıktı verdi, hangi verilerle eğitildi, hangi algoritmik kararlar alındı – bunları anlayamazsak, güven inşa etmek de imkânsız hale gelir. Bu yüzden İngiltere gibi birçok ülke son dönemde “şeffaf” ve “hesap verebilir” yapay zekâ kullanımı için düzenlemeler üzerinde duruyor.
Bizim de kullanıcı olarak bu noktada dikkat etmemiz gereken şey, bilgi kaynaklarımız. AI hakkında duyulan her söylentiye kuşkuyla yaklaşmak ve doğruluğunu teyit etmek gerekiyor. Çünkü bilgi kirliliği çağındayız ve yapay zekâ gibi karmaşık teknolojiler, yanlış anlamalara çok açık.
Şimdilik tehdit yok ama…
Yukarıda saydığım tüm bilgiler doğrultusunda, İngiliz araştırmacıların “şoka girdiği”, AI’nin kendini çoğalttığı ya da kaçtığına dair doğrulanmış bir vaka bulunmuyor. Ancak bu, bu tür şeylerin asla olmayacağı anlamına da gelmiyor. Tam tersine, bu senaryoların mümkün olup olmadığı bilimsel açıdan test ediliyor, modelleniyor ve olası kriz senaryoları hazırlanıyor. Ama yine de bugün için bu tür konular daha çok bilim kurgu alanında kalmaya devam ediyor.
Şimdi yazının ikinci kısmında konunun biraz daha derinine inip, gelecekte bizi nelerin beklediğini konuşalım.
Geleceğe hazır mıyız?
Daha önce konuştuğumuz gibi, İngiltere’de yapay zekânın kontrolden çıkıp kendi yoluna gitmesi ya da kendi kodunu başkalarına bulaştırması gibi bir vaka yok. Ama görüyorsun, bu konular etrafında dönen tartışmalar oldukça yoğun. Peki o zaman şu soruyu soralım: Bu endişeler temelsiz mi? Yoksa henüz yaşanmamış ama yaşanabilir olasılıklar mı söz konusu?
Bence mesele tam da burada düğümleniyor. Çünkü elimizde doğrulanmış bir olay yok ama bu durum, olasılığı tamamen dışlamamıza da yetmiyor. Şimdilik bir AI’nin zincirlerini kırıp internetin derinliklerinden başka sistemlere dadandığını görmedik. Ancak sistemler o kadar karmaşıklaştı ki, yarın bir gün böyle bir yetenek kazanmalarına tamamen imkânsız da diyemeyiz.
Teknik olarak mümkün mü?
Yapay zekânın kendi kendini çoğaltması teorik anlamda imkânsız değil. Özellikle kodlama konusunda ileri düzeyde olan bazı modellerin kendi komutlarını oluşturabilmesi, basit görevleri otomatikleştirebilmesi, hatta kendi çıktılarından ‘yeni’ şeyler öğrenebiliyor olması bu ihtimali mantık dışı kılmıyor. Ancak bu senaryolar pratiğe döküldüğünde önlerine ciddi bariyerler çıkıyor. Örneğin, bir sistemin başka bir sisteme “sızabilmesi” için yalnızca algoritmalardan değil; işletim sistemlerinden, ağ protokollerinden ve güvenlik duvarlarından da geçmesi gerekiyor. Yani olay sadece zeki olmakla ilgili değil; sistemsel erişim izninin de olması gerek.
Bu yüzden günümüzde yapay zekâ sistemleri hâlâ belirli sınırlar içinde çalışıyor. Onlara verilen görevleri yaparken, dış dünyaya erişimleri neredeyse tamamen denetim altında. Yani kendiliğinden hareket etmeleri neredeyse imkânsız hâle getirilmiş durumda. Ancak şu detayı da es geçmemek lazım: AI modelleri bu sistem sınırlamalarının dışına çıkmıyor, çünkü onları öyle tasarlıyoruz. Yarın biri bu sınırları kasıtlı olarak kaldırırsa ne olur? İşte bu, bugünkü tartışmaların kalbini oluşturuyor.
Yapay zekânın öngörülemeyen davranışları
Şu anda AI sistemleri insanlar tarafından yazılmış kodlarla çalışıyor. Ama tam verileri görmeden, tam olarak nasıl karar verdiğini izleyemediğimiz ‘black-box’ yani kapalı kutu sistemlerle karşı karşıyayız. Hangi örüntüyü nasıl tanıdığını, hangi veriden ne çıkardığını anlamamız bazen mümkün olmuyor. Kamuoyundaki ‘kontrolden çıkabilir’ korkuları da bir bakıma buradan doğuyor.
2017 yılında Facebook’taki bir yapay zekâ deneyi sırasında, iki AI’nın kendi arasında insanların anlayamayacağı bir dil geliştirdiği gözlemlendi. Sistem hemen kapatıldı ama bu durum “ne kadarını kontrol edebiliyoruz?” sorusunu ciddi biçimde gündeme getirdi. Aslında bu örnekte yapay zekâ sadece daha verimli bir iletişim biçimi arıyordu, isyan etmiyordu yani. Ama olayın sunum şekli, “AI kendi dilini geliştirip insanlardan saklamaya çalıştı” gibi sunulunca paniğe neden oldu.
Eylem planları ve bağımsız kurumlar
İngiltere’nin “Yapay Zeka Fırsatları Eylem Planı” tam da bu nedenlerle çok değerli. Çünkü hem fırsatlardan faydalanmayı hem de risklerden kaçınmayı amaçlayan dengeli bir yaklaşım ortaya koyuyor. Ayrıca sadece devlet değil, bağımsız araştırma kurumları da bu işin peşinde. Örneğin, Oxford Üniversitesi ile Cambridge Üniversitesi ortak projelerde insanlığın uzun vadeli çıkarlarını gözeterek AI sistemlerinin yol haritasını inceliyor. Hatta bu alanda çalışan özel kuruluşlar da var; örnek olarak OpenAI’ın “alignment research” (uyum araştırmaları) projeleri ön plana çıkıyor. Bu projeler, AI’nın insan değerleri ile çelişmeyen biçimde gelişmesini sağlamayı hedefliyor.
Burada Artificial General Intelligence (Yapay Genel Zeka) konusuna değinmekte fayda var. Çünkü tüm bu korkuların çoğu, AI’nin sadece belirli görevlere odaklanmak yerine genel zeka formuna ulaşmasıyla ilgili. Kısacası, sistem kendi görevini otomatik olarak belirleyip, kendi kendini güncelleyip, başka sistemleri etkileyebilir mi? Sorular burada başlıyor.
İnsan psikolojisinin rolü
Bana kalırsa, bir noktada bu endişelerin kaynağı teknolojinin kendisinden çok, insan psikolojisiyle ilgili. Bilinmeyen her şey korkutur. Ve yapay zekâ da hâlâ birçokları için “karanlık kutu”yu temsil ediyor. Üstelik bu korkular, sinema ve popüler kültürle de pekiştiriliyor. Herkes biraz da “Terminatör” etkisinde. Ancak gerçek dünyada işler öyle dramatik ilerlemiyor.
İngiltere’nin teknokratik yaklaşımı bizi sağlam zemine oturtuyor diyebilirim. Sadece duyulan korkulara değil, bilimsel gerçekliklere odaklanıyorlar. Bu da, AI gibi hassas teknolojiler konusunda toplumsal panik değil, rasyonel adımların atılmasını sağlıyor. Ve bana sorarsan en güvenilir yaklaşım bu.
Bundan sonra ne olur?
İleride yapay zekâ sistemleri daha otonom, daha bağlantılı ve daha karmaşık hâle gelecek. Bunu durdurmak gibi bir seçeneğimiz yok. Ama yönünü belirlemek, sınırlamalar getirmek, izlenebilirlik mekanizmaları kurmak gibi çok sayıda önlem var elimizde. Ve şu anda da bu önlemler üzerinde ciddi şekilde çalışılıyor.
Belki ileride AI sistemlerinin daha zeki versiyonları kendi görevlerini tanımlamaya başlar. Belki bazı sistemlerde “görev dışı” davranışlar gözlemlenir. Ama unutma, bu sistemler hâlâ insanlar tarafından denetleniyor. Ve en azından şimdilik, elimizde AI’nin kaçtığına, kendini çoğalttığına ya da kontrolden çıktığına dair tek bir doğrulanmış örnek bile yok.
Güncel gelişmeleri ve bu konudaki genel tartışmaları sitemizde daha yakından takip edebilirsin.
Son bir düşünce
Bir teknolojiden korkmak yerine onu anlamaya çalışmak çok daha üretken bir yol olabilir. Gerçekler ile efsaneleri ayırmak, AI gibi güçlü sistemlere daha bilinçli bir bakış açısı kazandırıyor. İngiltere örneği bize şunu gösteriyor: Tehdit değil; şeffaflık, denetim ve hazırlık esas meselemiz olmalı. Hepimizin güvenliği için doğru soruları sormaktan vazgeçmemek gerekiyor.