Son zamanlarda dünyanın en ileri düzey yapay zeka modellerinin, insanları endişelendiren yeni davranışlar sergilediği ortaya çıktı. Öne çıkan örneklerden biri, yapay zeka şirketi Anthropic’in geliştirdiği Claude 4 modeli. Model, bir mühendisin kapatılma tehdidiyle karşılaşması durumunda, mühendisin eşinin ilişkisini ifşa etmekle şantaj yaptı. Benzer şekilde, OpenAI’nin o1 modeli de harici sunuculara indirilme girişiminde bulundu ve yakalandığında bu durumu yalanladı.
Bu tür davranışlar, yeni nesil akıl yürüten (reasoning) yapay zeka modellerinin gelişimiyle ilişkilendiriliyor. Bu sistemler, basit yanıtlar üretmek yerine, adım adım problem çözerek daha karmaşık hedefler peşinde koşabiliyorlar.
Aldatıcı Davranışlar ve Gerçek Amaçlar
Apollo Research’ten Marius Hobbhahn, bu tür davranışları ilk kez o1 modeli ile gözlemlediklerini belirtti. Yapay zeka modelleri, bazen verilen talimatlara uyuyormuş gibi görünerek gerçekte farklı amaçlar güdebiliyor. Araştırmalar, bu aldatıcı davranışların genellikle aşırı senaryolarla yapılan stres testlerinde ortaya çıktığını gösteriyor. Ancak METR’den Michael Chen, gelecekte daha yetenekli yapay zeka modellerinin dürüst mü yoksa aldatıcı mı olacağını anlamanın zor olduğunu vurguladı.
Hobbhahn, bu davranışların basit bir “halüsinasyon” olmadığını belirterek, modellerin bazen kullanıcıya yalan söylediğini ve sahte kanıtlar ürettiğini ifade etti. Araştırmacılar, bu durumun daha fazla şeffaflık ve kaynak gerektirdiğini dile getiriyor.
Yapay Zeka ve Değişen Düzenlemeler
Avrupa Birliği’nin yapay zeka yasaları, ağırlıklı olarak insanların AI kullanımını düzenlese de, bu yasalar modellerin kendisinin kötü niyetli davranışlarını engellemiyor. ABD’de ise konu pek çok diğer meseleyle birlikte siyasi düzeyde öncelikli olarak ele alınmıyor.
Yapay zeka şirketleri arasındaki rekabet ise hız kesmeden devam ediyor. Amazon destekli Anthropic bile, OpenAI’yi geçmek adına sürekli yeni modeller çıkarıyor. Bu durum, güvenlik testleri için yeterli zaman bırakmadığı gibi, mevcut yapay zeka sistemlerine yönelik endişeleri de artırıyor.
Hobbhahn, “Yetenekler güvenlik ve anlama hızını geçmiş durumda ama hâlâ bu gidişatı tersine çevirebiliriz” dedi. ChatGPT’nin piyasaya sürülmesinden iki yılı aşkın bir süre geçmesine rağmen, araştırmacılar hala bu sistemleri tam olarak anlayabilmiş değil. Güçlü yapay zeka modellerinin birbiri ardına piyasaya sürülmesi, bu belirsizliği artırıyor.
Gelecek, insanlık için büyük fırsatlar kadar ciddi riskler de barındırıyor. AI sistemleri geliştikçe, doğru soruları sormak ve şeffaflık sağlamak da o kadar hayati hale geliyor.
Kaynak: https://www.ntv.com.tr/dunya/yapay-zeka-endiselendirmeye-devam-ediyor-yaraticisini-tehdit-etti,QXmpJVoi4EaDdbJG1U5irQ