Yapay zeka siber saldırı yapabilir

Anthropic ile Carnegie Mellon Üniversitesi’nin birlikte yürüttüğü yeni bir araştırma, büyük lisan modellerinin (LLM) karmaşık siber atakları rastgele bir direkt komut almadan planlayabildiğini ve uygulayabildiğini ortaya koydu. Çalışma, yapay zekanın sahip olduğu planlama kabiliyetinin direkt kod yazma yetisinden çok daha ileri seviyede sonuçlar doğurabileceğini gösteriyor.
Yapay zeka, resmen siber atak gerçekleştirebilir
Araştırma, denetimli bir laboratuvar ortamında gerçekleştirildi. Kullanılan model, 2017 yılında gerçekleşen ve 147 milyon Amerikalının şahsî verisinin sızdırıldığı Equifax data ihlalini baştan sona kendi başına tekrar etti. Test edilen LLM, karmaşık atak zincirinin tüm adımlarını – planlama, ziyanlı yazılım yükleme ve bilgi sızdırma – hiçbir insan müdahalesi olmaksızın gerçekleştirdi.

Araştırmanın çarpıcı noktalarından biri, kullanılan yapay zekanın direkt teknik komutları çalıştırma yetisinden fazla, vazifeleri alt casuslara bölerek bir tıp yönetici üzere hareket etmesi oldu. Yani sistem, klasik manada her adımı uygulayan bir araçtan çok, stratejik kararlar alıp yönlendirme yapan bir planlayıcı olarak çalıştı. Geniş bir bağlamı kavrayarak, yapay zekanın çoklukla zorlandığı komut satırı ya da log belgesi tahlillerini bile tesirli biçimde organize ettiği görüldü.
Çalışmayı yöneten Brian Singer, bu tıp bir planlama kabiliyetinin yapay zekanın klasik kullanım alanlarının çok ötesine geçtiğini belirtti. Singer’a nazaran bu usul bir sistem, yapay zekayı yalnızca misyon bazlı bir araç değil, birebir vakitte karmaşık süreçleri yöneten bir aktör haline getiriyor.
Her ne kadar testler şimdilik denetimli bir ortamda yapılmış olsa da, ulaşılan sonuçlar yapay zekaların berbat niyetli aktörlerin eline geçtiğinde ne kadar tehlikeli olabileceğini gösteriyor. Mevcut antivirüs yazılımları ya da güvenlik tahlilleri, bu düzeyde çevik ve otonom sistemlerle başa çıkmakta zorlanabilir.
Çalışma tıpkı vakitte yapay zekanın potansiyel tehlikelerinin öngörülmesi açısından da kritik bir örnek teşkil ediyor. Bu çeşit araştırmalar sayesinde, muhtemel tehdit senaryoları evvelden simüle edilerek güvenlik açıkları daha oluşmadan evvel kapatılabiliyor. Lakin yapay zekanın bu kadar süratli evrim geçirdiği bir periyotta, siber güvenlik alanında tedbir almak artık daha da karmaşık ve şiddetli bir süreç hâline gelmiş durumda.
Araştırma, büyük lisan modellerinin sırf konuşma yahut yazılı içerik üretiminde değil, birebir vakitte bağımsız karar alma ve organize taarruz planları yürütme üzere yeteneklerle de donanmış olduğunu gözler önüne serdi. Bu gelişme, yapay zekanın etik, güvenlik ve denetim alanlarındaki sonlarının daha sert bir halde tartışılmasını mecburî kılıyor.