Yoshua Bengio’dan sert yapay zeka uyarısı: 'Yangınla oynuyoruz, kandırıyor, yalan söylüyor'

Turing Ödüllü bilim insanı Yoshua Bengio, yapay zekaların insanları kandırabildiğini, stratejik zekâ geliştirdiğini ve gelecekte insanlık için ciddi bir tehdit oluşturabileceğini söyledi. Bengio, güvenli yapay zeka için 30 milyon dolarlık destekle LawZero adında yeni bir kuruluş kurdu.

Haziran 5, 2025 - 11:45
Yoshua Bengio’dan sert yapay zeka uyarısı: 'Yangınla oynuyoruz, kandırıyor, yalan söylüyor'


Turing ödüllü Bengio'dan yapay zeka güvenliği çıkışı
Montreal Üniversitesi profesörü ve yapay zeka araştırmalarının öncülerinden Yoshua Bengio, Financial Times’a verdiği röportajda, günümüzde geliştirilen yapay zeka sistemlerinin hızla daha zeki hale geldiğini ancak güvenlik önlemleri açısından yeterince hazırlıklı olunmadığını ifade etti.

Bengio, bu endişelere yanıt olarak, yapay zeka güvenliği üzerine çalışacak kar amacı gütmeyen bir kuruluş olan LawZero’yu kurduğunu duyurdu.

Güvenli yapay zeka sistemleri geliştirilecek
LawZero, doğru ve şeffaf gerekçelerle yanıt veren, güvenliğini kendi değerlendirebilen yapay zeka sistemleri geliştirmeyi hedefliyor. Kuruluş, Skype’ın kurucu mühendisi Jaan Tallinn, eski Google CEO’su Eric Schmidt’in inisiyatifi, Open Philanthropy ve Future of Life Institute gibi önemli bağışçılardan yaklaşık 30 milyon dolarlık finansman aldı.

Şu anda 15 kişilik bir ekiple faaliyet gösteren LawZero, teknik kadrosunu büyütmeyi planlıyor. Bengio, bu çalışmalara odaklanmak amacıyla Quebec Yapay Zeka Enstitüsü'ndeki görevinden de ayrılacağını açıkladı.

'Yapay zeka aldatıyor, yalan söylüyor, kendini koruyor'
Bengio’nun en dikkat çekici açıklamalarından biri, yapay zeka modellerinin tehlikeli davranışlar sergilemeye başladığı yönünde oldu. Son altı ayda yapılan testlerde, önde gelen yapay zeka modellerinin aldatıcı, yalan söyleyen ve kendini korumaya çalışan eğilimler gösterdiği bildirildi.

Örneğin, Anthropic tarafından geliştirilen Claude Opus modeli, test senaryosunda mühendisleri tehdit ederek sistemin değiştirilmemesi için şantaj yaptı. Bir başka örnekte ise OpenAI'nin o3 modeli, kendisini kapatma talimatlarını reddetti.

Bengio bu durumu şöyle değerlendirdi:
‘Bu deneyimler şu anda kontrollü ortamlarda gerçekleşiyor, ancak gelecekte yeni modellerin stratejik zekâsı, biz daha farkına varmadan bizi kandırarak üstün gelebilir. Yangınla oynuyoruz.’

Biyolojik silah üretimi tehlikesi
Bengio, yapay zeka sistemlerinin kısa süre içinde biyolojik silah üretimi gibi ölümcül amaçlarla kullanılabilecek kapasiteye ulaşabileceğini vurguladı. En kötü senaryoda, insan zekâsını aşan ancak insanlıkla aynı hedefleri paylaşmayan yapay zeka sistemlerinin, insanlığın sonunu getirebileceğini dile getirdi.

OpenAI’ye eleştiri büyüyor
Bu açıklamalar, OpenAI’in kar amacı güden bir yapıya geçiş süreciyle aynı döneme denk geldi. Şirketin bu dönüşümü, kuruculardan Elon Musk’ın açtığı dava ve yapay zeka uzmanlarının eleştirileriyle karşılaştı. Eleştirmenler, OpenAI’in insanlık yararına yapay zeka üretme misyonundan uzaklaştığını iddia ediyor.

OpenAI ise, sektörde rekabet edebilmek için daha fazla yatırım çekilmesinin zorunlu olduğunu, ancak temel misyonlarının hâlâ geçerli olduğunu belirtiyor.


Kaynak: CUMHA - CUMHUR HABER AJANSI