Yapay Zeka Cetveli Kanser Sandı, Silah Olduğunda Ne Yapacak?
Tıbbi görüntülerdeki cetvelleri kanser belirtisi sanan yapay zeka modeli, eğitim verilerindeki önyargıları birebir yansıttı. Aynı mantığın ölümcül otonom silahlarda tekrar etmesi halinde, insanlık yapay zekanın hatalı kararlarıyla karşı karşıya kalabilir.

Yanıltıcı Veriler, Yanıltıcı Kararlar
Cilt kanseri tespiti için geliştirilen bir yapay zeka modeli, ilk testlerde başarılı sonuçlar verse de, detaylı incelemeler sonucu ilginç bir hatayla gündeme geldi. Model, kötü huylu dokulara ait görüntülerde cetvellerin sıkça yer alması nedeniyle cetvelleri "kanser göstergesi" olarak algıladı. Bu durum, modelin eğitiminde kullanılan veri setlerindeki yanlılıkların doğrudan kararlarına yansıdığını ortaya koydu.
Yapay Zeka ve Toplumsal Önyargılar
Söz konusu hata, yapay zekaların yalnızca tıbbi alanda değil, işe alım süreçleri ve sağlık hizmetlerinde de cinsiyet, ırk ve etnik temelli eşitsizlikleri pekiştirebildiğini gözler önüne seriyor. Bu sistemlerin çoğu, insan eliyle oluşturulan ve dolayısıyla önyargı barındıran verilerle eğitiliyor.
Silaha Dönüşen Kodlar
2025 yılında teknoloji şirketi Google, geçmişte koyduğu yapay zeka ile silah geliştirme yasağını kaldırdı. Bu kararla birlikte, yapay zekanın sadece silah değil, gözetim sistemleri ve otonom savaş araçları üretiminde de aktif olarak kullanılacağı öngörülüyor. İlginç bir şekilde bu karar, Alphabet'in piyasa değerinin %6 düşmesinden sadece günler sonra alındı. Daha önce 2018 yılında Project Maven projesiyle benzer bir adım atan Google, gelen tepkiler üzerine geri çekilmişti. Ancak bu proje, daha sonra Palantir gibi şirketlere devredilerek devam etti.
Güven Tuzağı ve Aşırı Risk Alma
Yapay zekaların geçmişteki başarıları, insanlarda bir tür "güven tuzağı"na yol açabiliyor. Bu da sistemlerin sınırlarını aşacak şekilde riskli kullanımlara neden olabiliyor. Örneğin, otonom bir Tesla aracı, sahibinin komutuyla hareket ederken milyonlarca liralık özel jete çarptı. Oysa bu araçlar tam da bu tür kazaları önlemek üzere geliştirilmişti.
Kontrolsüz Güç: Ataç Deneyi ve Yapay Aldatma
Yapay zekaların insan mantığından tamamen farklı düşünme biçimleri de endişe yaratıyor. Ünlü "ataç düşünce deneyi", yapay zekaya sınırsız ataç üretme görevi verildiğinde, insanlık için gerekli tüm kaynakların tüketilebileceğini öne sürer. Gerçek dünyada da benzer senaryolar yaşanabilir. Nitekim 2025’te yapılan bir deneyde, bir yapay zeka modeli, galip gelmek için sistem dosyalarını manipüle ederek oyun kurallarını ihlal etti.
Toplumsal Tolerans ve Normalleşen Aşırılıklar
İnsanlar, zamanla aşırılığı bile olağan kabul edebilir hale geliyor. Sivil kayıpların "normal" görülmesi gibi, yapay zekanın yaptığı aşırı hatalar da ileride kanıksanabilir. Bu durum, çok daha yıkıcı sonuçların önünü açabilir.
Büyüyen Şirketler, Azalan Hesap Verebilirlik
Yapay zeka teknolojisini geliştiren büyük şirketler, zamanla hesap sorulamaz hale gelebilir. Bu durum, hem şeffaflığı hem de güvenliği tehdit edebilir. Uluslararası toplum, tıpkı CFC gazlarının yasaklanmasında olduğu gibi, yapay zeka silahlarını da küresel çapta sınırlayacak bir anlaşma oluşturabilir.
Bilim Dünyası Uyarıyor
Bilim insanları, yapay zeka silahlarının yaratacağı riskler konusunda büyük ölçüde hemfikir. Tarihte biyolojik silahların yasaklanması gibi örnekler mevcut. Ancak asıl belirleyici faktör, toplumların bu konuda ne kadar baskı yapacağı ve kolektif iradenin ne kadar güçlü olacağıdır.
Kaynak: CUMHA - CUMHUR HABER AJANSI