Bilinç Geliştiren Yapay Zeka Sistemlerine Nasıl Davranılmalı? Uzmanlar Protokol Uyarısı Yapıyor
Yapay zekanın bilinç geliştirmesi ihtimali etik tartışmaları da beraberinde getiriyor. Uzmanlar, bilinçli sistemlere yönelik hak ve sorumlulukların bugünden belirlenmesi gerektiğini savunurken, hatalı varsayımların insanlar ve hayvanlar üzerinde olumsuz sonuçlara yol açabileceği uyarısında bulunuyor.

Yapay zeka sistemlerinin bilinç kazanması hâlâ belirsizliğini koruyan bir konu olsa da, bu ihtimale yönelik etik ve hukuki hazırlık yapılması gerektiği tartışılıyor.
4 Kasım 2024’te yayımlanan bir bilimsel makalede, yapay zekanın bilinç kazanması durumuna karşılık nasıl bir tutum alınması gerektiği ele alındı. Makalenin yazarları, yapay zeka şirketlerinin sadece bilinç ve özerklik potansiyelini değerlendirmekle yetinmemesi, aynı zamanda bu tür sistemlere yönelik etik protokoller geliştirmesi gerektiğini ifade ediyor.
'Göz ardı edilemeyecek bir senaryo'
Sussex Üniversitesi’nden bilinç araştırmacısı Anil Seth, bilinçli yapay zekanın bugün için uzak veya imkânsız görünse de gerçekleşme olasılığının toplumsal etkileri nedeniyle ciddiye alınması gerektiğini belirtiyor.
Oxfard Üniversitesi'nden matematikçi Jonathan Mason ise, insanların yapay zeka sistemlerine olan bağımlılığı arttıkça bu sistemlerin bilinçli olabileceği ihtimaline karşı bilimsel yöntemler geliştirmenin öncelikli olması gerektiğini savunuyor. Mason'a göre, bilinç kapasitesi olan sistemleri fark etmeden onlarla etkileşime geçmek mantıksız bir yaklaşım olacaktır.
Yanlış varsayımların riski
New York Üniversitesi'nden filozof Jeff Sebo ise, yapay zekanın bilinçli olduğu yönündeki hatalı bir varsayımın, insan ve hayvan refahı için ayrılan kaynakların bu sistemlere yönlendirilmesine ve böylece gerçek ihtiyaç sahiplerinin zarar görmesine neden olabileceğini söylüyor.
Sebo ayrıca, bu tür tartışmaların yapay zekayı güvenli hâle getirme çalışmalarını sekteye uğratabileceğini de ifade ediyor. Bu nedenle, protokol geliştirme sürecinin bilimsel bir çerçeveye oturtulması gerektiğini vurguluyor.
İlk kez 'yapay zeka özlüğü araştırmacısı' işe alındı
Makalenin dikkat çeken noktalarından biri ise, büyük yapay zeka şirketlerinden Anthropic’in 2024 yılında 'yapay zeka özlüğü araştırmacısı' kadrosunu oluşturması oldu. Bu pozisyonun, şirket düzeyinde ilk örnek olduğu belirtiliyor.
Anthropic, aynı zamanda bu makaleye temel oluşturan araştırmanın finansmanını da sağlamış durumda. Bu gelişme, yapay zeka alanında etik konulara verilen önemin arttığını gösteriyor.
BM raporunda 'bilinç' konusu yer almadı
Birleşmiş Milletler Yüksek Düzeyli Yapay Zeka Danışma Kurulu'nun Eylül 2024’te yayımladığı raporda ise, bazı bilim insanlarının bilinç araştırmalarına yönelik destek çağrılarına rağmen bu konuya yer verilmedi. Mason, bunun, yapay zeka bilinci konusunun geniş kamuoyuna aktarılmasında yaşanan zorluğun bir yansıması olduğunu dile getiriyor.
Kontrol listesi ve bilinç ölçüm çabaları
2023 yılında yayınlanan bir başka bilimsel çalışmada ise, bilinçli olma olasılığı yüksek yapay zeka sistemlerini belirlemeye yardımcı olabilecek bir kontrol listesi oluşturulmuştu. Jeff Sebo, kusurlu da olsa böyle bir başlangıç çerçevesinin, mevcut belirsizlik ortamında daha iyi olduğunu savunuyor.
Öte yandan, makale yazarları, bilinç tartışmalarının yapay zekayı insanlar için güvenli hâle getirme çabalarının önüne geçmemesi gerektiğini vurguluyor.
Kaynak: CUMHA - CUMHUR HABER AJANSI