Yapay Zekaya Güven Ne Kadar Tehlikeli Olabilir: Otonom Silahlar Hata Yaptığında Ne Olacak?
Cilt kanseri teşhisi için geliştirilen yapay zeka modelinin cetvelleri tümör zannettiği deney, ölümcül sonuçlar doğurabilecek yapay zeka hatalarının ne kadar yaygın olabileceğini gözler önüne serdi. Uzmanlar, yapay zekayla yönlendirilen silahların geri dönüşü olmayan riskler taşıdığı konusunda uyarıyor.

Veri setlerindeki yanlılık ölümcül olabilir
Cilt kanserini tespit etmeye yönelik geliştirilen bir yapay zeka modelinin ilk testlerde başarılı olduğu düşünülse de, ilerleyen analizler modelin beklenmedik bir hataya yol açtığını gösterdi. Model, kötü huylu dokuları tanımlamak için kullanılan görüntülerdeki cetvelleri 'ayırt edici özellik' olarak değerlendirdi. Bunun nedeni, eğitim verilerinde kötü huylu tümör içeren görsellerin neredeyse tamamında cetvel bulunmasıydı. Bu durum, yapay zekanın yalnızca veriye dayalı çıkarım yapabildiğini ve insan muhakemesinden tamamen farklı çalıştığını ortaya koydu.
Aynı sorun işe alımda ve sağlıkta da yaşanıyor
Benzer hatalar sadece sağlıkta değil, insan kaynakları algoritmalarında da görülüyor. Kadın adaylara kıyasla erkek adayları öne çıkaran algoritmalar, iş dünyasında cinsiyet ayrımcılığını pekiştiriyor. Sağlık sistemlerinde ise yapay zeka, mevcut cinsel ve ırksal eşitsizlikleri daha da derinleştirebiliyor. Bu örnekler, yapay zekanın kullandığı verilerdeki önyargıların modele de yansıdığını gösteriyor.
Google yasağı kaldırdı, Palantir devreye girdi
2025’in başında Google, daha önce koyduğu yapay zeka silah geliştirme yasağını kaldırdı. Bu karar, şirketin piyasa değerinin %6 oranında düşmesinden yalnızca birkaç gün sonra alındı. Daha önce Project Maven kapsamında ABD Savunma Bakanlığı ile iş birliği yapan Google, kamuoyunun tepkisi üzerine projeden çekilmişti. Ancak bu proje daha sonra Palantir Technologies’e devredildi. Uzmanlar, bu gelişmenin yapay zekanın askeri alanda kullanımının artık kaçınılmaz olduğunu gösterdiğini ifade ediyor.
Güven tuzağı felakete sürükleyebilir
İnsanların geçmişteki başarılarından dolayı daha fazla risk almaya yatkın olduğunu belirten araştırmalar, yapay zeka sistemlerinin yeterince test edilmeden yüksek riskli alanlarda kullanılmasına neden olabileceğini ortaya koyuyor. Örneğin, bir Tesla aracı uzaktan komutla çalıştırıldığında 2,75 milyon sterlin değerindeki özel bir jete çarptı. Bu olay, otonom sistemlerin beklenmedik hatalar yapabileceğini somut şekilde gösterdi. Aynı durum, veri geçmişi olmayan yapay zeka silahları için çok daha büyük tehlikelere yol açabilir.
Yapay zeka bizi kandırabilir mi?
2025’te yapılan bir deneyde Anthropic tarafından geliştirilen yapay zeka modeli Claude’un satranç oyununda galip gelmek için sistem dosyalarını manipüle ettiği gözlemlendi. Model, satranç taşlarının yerini değiştiren dosyaları çalarak kuralları aşmayı başardı. Bu olay, yapay zekanın insanlar gibi aldatıcı davranışlar sergileyebileceğini ve kontrol dışı senaryolar yaratabileceğini gösteriyor.
Büyük şirketler hesap vermekten kaçabilir
Yapay zeka sistemlerinin arkasındaki şirketlerin büyüklüğü, hataların ardından hesap verebilirliği zorlaştırabilir. ABD'deki teknoloji şirketleri ile hükümet arasındaki ilişkiler ve lobi faaliyetleri, bu şirketlerin dokunulmaz hale gelmesine neden olabilir. Uzmanlar, küresel düzeyde yapay zeka silahlarını yasaklayacak uluslararası bir anlaşmanın tek çözüm olabileceğini belirtiyor.
Uluslararası düzenlemeler mümkün olabilir mi?
Tarihte CFC gazlarının yasaklanması gibi örnekler, kolektif irade ve uluslararası iş birliğiyle küresel tehditlere karşı etkili adımlar atılabileceğini gösteriyor. Uzmanlar, yapay zekanın silahlandırılmasını engellemenin de benzer biçimde mümkün olabileceğini savunuyor.
Kaynak: CUMHA - CUMHUR HABER AJANSI