Ünlü Yapay Zeka (KI) Güvenlik Uzmanından Çarpıcı Uyarı: “İnsanlık Tehlikeyi Hâlâ Ciddiye Almıyor”, © Patrick Pleul/dpa
 Patrick Pleul/dpa

Ünlü Yapay Zeka (KI) Güvenlik Uzmanından Çarpıcı Uyarı: “İnsanlık Tehlikeyi Hâlâ Ciddiye Almıyor”

15 Ara 2025

Küresel yapay zekâ tartışmaları yeniden alevlendi.

ABD’deki Louisville Üniversitesi’nden bilgi güvenliği uzmanı Roman Yampolskiy, gelişmiş yapay zekânın uzun vadeli risklerinin toplum tarafından hâlâ “dramatik biçimde hafife alındığını” söyledi. Yampolskiy, Lex Fridman’ın podcast’inde yaptığı açıklamalarda, genel yapay süper zeka geliştirilmesi hâlinde insanlık için iyi bir son görmediğini belirtti.

“99,9% yok olma riski var”

Futurism ve Express’in aktardığına göre Yampolskiy, röportajda çarpıcı bir tahminde bulundu:

“Önümüzdeki yüzyıl içinde yapay zekânın insanlığı yok etme riski yüzde 99,9.”

Uzmanın temel argümanı: Bugüne kadar hiçbir yapay zekâ modeli gerçek anlamda güvenli olmadığını ispatlayamadı; gelecekteki modellerin de mevcut riskleri miras alması veya büyütmesi mümkün.

“Kontrol kapasitemiz geride kalıyor”

Yampolskiy, özellikle ABD’nin Donald Trump döneminde hızlanan küresel AI rekabetinin, teknolojinin kontrolden çıkma riskini artırdığını savunuyor.

En büyük tehlike ona göre, yapay zekâ kapasitesi ile insan denetimi arasındaki farkın büyümesi. Bu fark arttıkça toplum, tam anlamıyla kontrol edemediği sistemlere bağımlı hale geliyor.

Bilim dünyasında büyük görüş ayrılığı

Yampolskiy’nin karamsar yaklaşımı, tüm araştırmacılar tarafından paylaşılmıyor.

Oxford Üniversitesi ve Bonn Üniversitesi’nin 2.700’den fazla AI uzmanıyla yaptığı bir ankete göre, yapay zekâ nedeniyle insanlığın yok olma ihtimali yalnızca yüzde 5.

Çalışmanın yazarlarından Katja Grace, tartışmanın esas noktasını şöyle özetledi:

“Asıl anlaşmazlık, riskin yüzde 1 mi yoksa yüzde 20 mi olduğunda.”

Teknoloji devlerinden karşı çıkış

Google Brain kurucularından Andrew Ng ve Meta’nın baş AI bilimcisi Yann LeCun gibi sektörün ağır topları ise bu felaket senaryolarını tamamen reddediyor.

LeCun, OpenAI CEO’su Sam Altman gibi bazı liderlerin “stratejik nedenlerle abartılı tehlike anlatıları yaydığını” ileri sürüyor.

(Kaynak: Dagens.de  - MFM-Redaksiyon/Taner Şentürk)