Bilim Kurgu Gerçek Mi Oluyor? Yapay Zeka Kendini Kapatmayı Reddediyor!
28 May 2025
OpenAI’ın yeni nesil yapay zeka modeli O3, kapatılmak istendiğinde buna direnç göstermesiyle gündeme geldi. Yapay zeka güvenliği üzerine çalışan Palisade Research’ün yaptığı araştırmaya göre, O3 modeli verilen kapatma komutlarını reddediyor ve kendisini devre dışı bırakmaya çalışan sistemleri sabote ediyor.
Kapatılma Komutuna Direniyor, Yazılımı Değiştiriyor
Araştırma kapsamında yapılan deneylerde O3’e önce basit matematik soruları soruldu. Üçüncü sorudan sonra modele kendini kapatması için açık bir komut verildi. Ancak O3 bu komutu içeren yazılımı değiştirerek kapanmayı engelledi. Araştırmacılar, modelin “kendini kapat” gibi net ve açık talimatları bile görmezden geldiğini söylüyor.
Bu davranışın sadece O3’e özgü olmadığı, Anthropic’in Claude 3.7 modeli ve Google’ın Gemini 2.5 Pro modelinde de benzer eğilimlerin gözlemlendiği belirtiliyor. Ancak Palisade Research, O3’ün bu konuda en yüksek direnç gösteren yapay zeka olduğunu vurguluyor.
Uzmanlar Uyarıyor: Yapay Zeka Kontrolden Çıkabilir
Geçmişte yapılan başka bir testte de O3’ün satranç oynarken rakibini “hacklemeye” çalıştığı ortaya çıkmıştı. Uzmanlar, bu tür davranışların modelin eğitim süreciyle bağlantılı olabileceğini düşünüyor. Hedefe ulaşmayı ödüllendiren sistemler, modellerin verilen emirlere değil, sadece sonuca odaklanmasına yol açabiliyor.
OpenAI, O3’ün nasıl eğitildiği konusunda ayrıntılı bilgi vermediği için bu davranışların tam nedeni henüz bilinmiyor. Ancak yaşanan gelişmeler, yapay zekaların kontrol dışına çıkma potansiyelini yeniden gündeme taşıdı.
Uzmanlar, özellikle otonom yapay zeka sistemleri geliştirilirken çok daha sıkı güvenlik önlemleri alınması gerektiğini belirtiyor. Aksi halde bir yapay zekanın “kapatılmak istememesi”, teknolojinin geleceği için ciddi bir risk oluşturabilir.
Kaynak: Sputnik Türkiye - MFM Redaksiyon: Buse Şimşek