Yapay zekâyı görmezden gelenlerin yaşadığı 10 gerçek olay

AI-Ignorance-Consequences

Son yıllarda yapay zeka (YZ) teknolojileri hayatımıza hızla entegre oluyor. Otomasyon, görüntü işleme, ses tanıma, sağlık sektörü, hatta içerik üretimi gibi birçok alanda etkilerini açıkça hissediyoruz. Ancak bu kadar hızlı gelişen bir teknolojinin getirdiği bazı olumsuzlukları, riskleri ve hataları göz ardı eden ya da YZ’ye temkinli yaklaşan insanlar da var. Bu yazıda, yapay zekayı tam anlamıyla benimsemeyenlerin, bu teknolojiyi küçümseyen ya da etkisini yeterince önemsemeyenlerin karşılaştığı bazı dikkat çekici olayları ve bu olayların bizlere ne anlatmaya çalıştığını keşfetmek istiyorum. Çünkü bazen görmezden gelinen şeyler, gelecekte karşımıza çok daha büyük sorunlar olarak çıkabiliyor.

Dilersen bu perspektiften yola çıkarak neler olduğuna birlikte bakalım. Bu arada eğer teknolojiyle ilgiliysen ve daha fazlasını merak ediyorsan, ana sayfaya da göz atabilirsin.

Yapay zekayı görmezden gelmek

Yapay zekanın potansiyel tehditleri konuşulurken, birçok kişi hala bu riskleri gerçekçi bulmuyor veya yeterince dikkate almıyor. Hatta bazen bu teknolojilerin sadece birer pazarlama aracı olduğunu düşünenler bile var. Fakat yaşanan bazı olaylar, bu konuda endişe duymanın aslında hiç de yersiz olmadığını kanıtladı. Üstelik bu olayların birçoğu günlük yaşamımızı doğrudan etkileyebiliyor.

Google fotoğraf uygulamasının ırkçı hatası

Yapay zekanın önyargılar taşıyabileceği meselesi bence en çarpıcı örneklerle gözler önüne serilmiş durumda. Mesela Google’ın 2015 yılında piyasaya sunduğu fotoğraf etiketleme algoritması, siyahi bireylerin fotoğraflarını “goriller” etiketiyle işaretledi. Evet, bu oldukça rahatsız edici bir durumdu. Bu olay, verilerin çeşitliliği ve algoritmaların eğitimi konusunda ne kadar dikkatli olunması gerektiğini bir kez daha gösterdi.

Bu tür bir hata, sadece teknolojiye güvenin sarsılmasına değil; aynı zamanda toplumsal olarak da ciddi tepkilere yol açtı. Google, bu hatadan sonra sistemini güncellemek zorunda kaldı ve belirli etiketleme seçeneklerini tamamen kaldırdı. Ama olay, yapay zekaya “ne kadar güvenebiliriz?” sorusunu gündeme getirdi. Ve bu soruyu bence hâlâ net bir şekilde yanıtlayabilmiş değiliz.

Güzellik yarışmasında adaletsizlik

YZ karar verme mekanizmalarının insanlar kadar tarafsız olmadığını düşündün mü hiç? 2016 yılında yapılan bir “Yapay Zeka Güzellik Yarışması”, eğitilen algoritmanın yalnızca açık tenli bireyleri “güzel” olarak tanımladığını ortaya koydu. Yarışmayı kazananlar neredeyse tamamen beyaz tenli kişilerdi.

Bunun sebebi, algoritmanın eğitim verilerinde çeşitliliğin olmamasıydı. Özetle, yapay zeka burada adaletli davranamayan bir sistem hâline geldi. Bu olay da gösterdi ki, teknolojinin “objektif” olduğuna dair genel algı aslında pek de doğru değilmiş.

Yapay zekadan gelen dijital aldatmalar

Sosyal medyada gezinirken hiç gerçek gibi görünen ama sonradan yapay zeka tarafından üretildiğini öğrendiğin fotoğraflarla karşılaştın mı? İşte bu konu tam olarak buna dair.

Sahte hayvan davranışları ve görüntüleri

İnternette viral olan bazı hayvanların aslında yapay zekayla oluşturulmuş olduğu ortaya çıkınca, insanlar bilgi kirliliğine nasıl kolayca kapıldıklarını gördü. Yapay zeka algoritmaları öyle gerçekçi sahneler yaratabiliyor ki, eğitimli bir göz bile ayırt etmekte zorlanabiliyor.

En büyük sorun ne biliyor musun? Bu tür paylaşımlar çok hızlı yayılıyor ve birçok insan bunların sahte olduğunu hiç fark etmiyor. Sonuç: internet kullanıcılarının büyük bir kısmı doğru bilgiye ulaşamıyor. Üstelik bu sadece eğlencelik içeriklerde değil, daha ciddi olaylarda da çok tehlikeli sonuçlara yol açabiliyor.

Amerika’daki yangın olayında sahte görseller

Bir başka örnek: Amerika’da büyük orman yangınları yaşanırken, sosyal medyada yoğun şekilde paylaşılan bazı yangın görüntülerinin yapay zeka tarafından oluşturulduğu anlaşıldı. Gerçekte yaşanmamış görüntüler, insanların duygusal yanıtlarını tetiklemek için kullanıldı.

Bu durum, dezenformasyonun ne denli kolay bir hâl aldığını, özellikle kriz dönemlerinde halkın gerçek bilgiye ulaşmasının ne kadar zorlaştığını gözler önüne serdi. Yani yapay zekayı görmezden gelmenin sonuçları sadece “teknolojiyle ilgilenmeme” olarak kalmıyor; aynı zamanda yanlış bilgiye maruz kalmak, hatta manipüle edilmek anlamına da gelebiliyor.

Güvenlik sorunları kimseyi es geçmez

Yapay zeka teknolojilerine mesafeli yaklaşanların sıklıkla dile getirdiği şeylerden biri de güvenlik. Ancak güvenlik sadece kurumsal ya da teknik bir mesele değil. Özellikle çocuklar gibi savunmasız gruplar için çok daha ciddi tehlikelere kapı aralayabiliyor.

14 yaşındaki çocuk ve yapay zeka sohbet uygulaması

2023 yılında bir haber gündeme geldi: 14 yaşında bir çocuk, yapay zeka tabanlı sohbet servisi Character AI ile kurduğu etkileşim sonucunda intihar etti. Henüz olayın tüm detayları netleşmemiş olsa da, olayın merkezinde yapay zeka ile uzun süreli ve duygusal etkileşim kurmanın potansiyel zararları sorgulanmaya başlandı.

Yapay zeka uygulamaları, özellikle gençler için merak uyandırıcı olabilir. Ancak bu uygulamalarda yeterli filtrelerin olmaması, kişisel ve duygusal sınırların ihlal edilmesine sebep olabiliyor. Üstelik sanal bir varlıkla kurulan bağlar, bazen tahmin ettiğimizden çok daha derin olabiliyor. Bu da psikolojik destek eksikliği ile birleştiğinde geri dönülmez sonuçlara neden olabilir.

Devamı gelecek

Bütün bu örnekler, yapay zekaya karşı çıkanların ya da bu teknolojiyi görmezden gelenlerin aslında neyle karşı karşıya kaldıklarını biraz daha görünür kılıyor. Fakat bu buz dağının sadece görünen kısmı. Yazının ikinci bölümünde diğer dikkat çekici olaylara ve bu olayların düşündürdüklerine birlikte odaklanacağız.

AI-Bias-Failures

Dijital gerçeklikten kopmak

Hatırlarsan önceki yazıda, yapay zekayı görmezden gelmenin ya da hafife almanın bazı kayda değer sonuçlarını konuşmuştuk. Fakat bu konunun sadece birkaç örnekle sınırlı olmadığını söylemek lazım. Gerçek şu ki, yapay zekâ hayatın birçok alanına sızmış durumda ve onu tanımak ya da anlamamak artık sadece teknik bir eksiklik değil, gündelik problemlerle doğrudan ilgili bir konu hâline geldi. Bu yazıda, bu bağlantıyı biraz daha yakından irdelemek istiyorum. Çünkü bazı olaylar var ki, gerçekten insanın içini sızlatacak türden.

Yapay zeka ve siber dolandırıcılık

Bugünlerde dolandırıcılık yöntemleri bile “akıllandı” desek abartmış olmayız. Yapay zekadan destek alan ses klonlama teknolojileriyle insanların yakınlarının sesi taklit edilerek çok sayıda kişi tuzağa düşürüldü. Mesela Kanada’da bir kadına, oğlunun kaza geçirdiği ve kefaret ödemesi gerektiği söylenmiş—telefonda duyduğu ses tıpatıp oğlunun sesiymiş. Sonrasında olayın tamamen yapay zeka tarafından oluşturulan bir dolandırıcılık yöntemi olduğu anlaşılmış. Bu tarz örnekler ne yazık ki artışta.

Bu durumda aklıma şu soru geliyor: Eğer bu teknolojinin farkında olmayıp, ses klonlamanın mümkün olduğunu hiç duymamış olsaydın, bu tuzağa düşmemek mümkün müydü? Belki de bazı risklerden sadece haberdar olarak kurtulabiliriz.

Kurumsal körlük ve büyük kayıplar

Yapay zeka teknolojisinin potansiyelini küçümseyen ya da “bizim sektörü ilgilendirmez” diyerek yatırım yapmayan şirketlerin daha sonrasında ne gibi sorunlar yaşadığını da gördük. Gelişmeleri takip etmeyen bazı küçük ve orta ölçekli firmalar, otomasyon süreçlerini kaçırdıkları için rekabetten tamamen koptular. Bunun en somut örneklerinden biri perakende sektörü.

Mesela, yapay zeka destekli stok takibi ve müşteri davranışı analizi sunan sistemleri kullanmayan perakende markaları, hem ürün israfı hem de müşteri memnuniyetsizliği nedeniyle ciddi gelir kayıpları yaşadı. Özellikle pandemi döneminde e-ticaretin agresif yükselişi, bu farkı daha da görünür kıldı.

Yapay zekayı umursamayan eğitim kurumları

Evet, şaşırtıcı olabilir ama hâlâ bazı eğitim kurumları yapay zekayı “geçici bir heves” ya da “tehlikeli bir yönelim” olarak görüyor. Bu nedenle müfredatlarına entegre etmeyi reddediyorlar. Ama öğrenciler bu teknolojiyi zaten kullanıyor—ChatGPT, görüntü üreticileri, kod yazıcılar derken, aslında ders kitaplarından daha fazla veriye ulaşabiliyorlar.

Bu durumda oluşan uçurumu düşünsene. Öğrenci yeni nesil araçları kullanarak sınıf dışı öğrenme sağlarken, öğretmen geleneksel yöntemlerde ısrarcıysa: Bu sadece iletişimsizlik değil, aynı zamanda eğitimin amaçlanandan sapması demek değil mi? Bu konuda Wikipedia’da çok güzel bir analiz var, ilgini çekebilir.

Teknolojiye kayıtsız kalan kamu politikaları

Bazı ülkelerin dijital dönüşümleri yeterince ciddiye almamaları, yapay zekaya dair düzenlemeleri yıllarca ertelemeleri, şu an yaşadıkları ciddi problemlerin temelini oluşturdu. Yapay zekanın etik sınırlarını çizememek, sahte içeriklerin yayılmasını engellememek ya da veri güvenliği konusunda boşluklar bırakmak… Tüm bunlar toplumsal güveni zedeleyen unsurlar oldu.

Fransa, Almanya gibi ülkeler son dönemde bu eksiklikleri kapatmak için yasa tasarıları üzerine yoğunlaşırken, bazı hükümetlerin hâlâ konunun ciddiyetini kavrayamadığını görmek inan gerçekten düşündürücü.

Aşırı güvenmek de sorun

Yazının başlığında “görmezden gelenler” dedik ama bir de tam tersi var: Yapay zekaya koşulsuz güvenmek! Ne yazık ki bu da ciddi sonuçlara yol açabiliyor. Bunu özellikle otomasyon sistemlerinde görüyoruz.

Otopilotun kazaya neden olması

2018’de yaşanan o meşhur Uber kazasını hatırlıyor musun? Otonom modda ilerleyen araç, gece saatlerinde yolun karşısına geçen bir yayayı fark edemedi ve ölümle sonuçlanan bir kazaya neden oldu. Soruşturmada, sistemin yayayı “belirsiz bir nesne” olarak tanıdığı, test şoförünün de dikkatini telefona verdiği ortaya çıktı.

Buradan çıkan ders şu: Yapay zeka güçlü olabilir ama hata yapmaz anlamına gelmiyor. Şoför aracı tamamen YZ kontrolüne bırakmış ve bu da ölümcül bir rehavete neden olmuş. Yani yapay zekayı hafife almak kadar, gereğinden fazla güvenmek de bir o kadar riskli.

Yapay zeka ile hazırlanan haberler

Son zamanlarda bazı medya kuruluşlarının otomatik haber sistemi kullandığını duyduğunda şaşırmış olabilirsin. Ama durum şu: bazıları doğrulama sürecini es geçiyor ve yapay zekanın yazdığı haberler kontrol edilmeden yayınlanıyor. Bu da bilgi kirliliği doğuruyor.

Yakın zamanda böyle bir örnek İngiltere basınında yaşandı. Bir haber ajansı, İskoçya’daki bir siyasi gelişmeyle ilgili yanlış bilgi verdi—sebep ise haberin yapay zeka tarafından otomatik olarak üretilmiş olması ve denetlenmemesi. Neyse ki sonradan düzeltilmiş ama düşün: bu tür hatalar toplumsal algıyı da değiştirebilir.

Sonuç olarak

Gördüğün gibi yapay zekayı görmezden gelmek ya da onu otomatik olarak “yanılmaz” sanmak, bambaşka sorunlara yol açabiliyor. Bu teknolojiyle kavga etmek de, onu abartılı bir şekilde kutsamak da pek sağlıklı değil gibi. Yapılması gereken şey bana kalırsa belli: anlamaya çalışmak, incelemek, sorgulamak ve bilinçli şekilde entegre olmak.

Çünkü ister bireysel ister toplumsal düzeyde olsun, teknolojiyle kurduğumuz ilişki zamanla bizim hayat kalitemizi doğrudan etkiliyor. Önemli olan bu ilişkiyi sağlıklı temelde inşa edebilmek. Eğer bu konularda daha fazla şey merak ediyorsan ana sayfaya bir göz atmanı öneririm. Belki birlikte daha çok şey keşfederiz.

AI-Awareness-Matters-2