Güvenlik araştırmacıları, ilk kez bir yapay zekânın hacklenerek gerçek dünyada somut sonuçlara yol açabileceğini gösterdi. Deney sırasında ışıklar kapatıldı, akıllı panjurlar açıldı ve kombi çalıştırıldı.
Tel Aviv’deki modern bir apartman dairesinde bir anda internet bağlantılı ışıklar kapanıyor. Salondaki ve mutfaktaki dört pencereyi kapatan akıllı panjurlar aynı anda açılmaya başlıyor. Ardından kombi devreye giriyor ve daireyi ısıtmaya hazırlanıyor. Fakat ev sahipleri hiçbir komut vermedi, cihazları programlamadı. Gerçekte, siber bir saldırının hedefi oldular.
Bu olağan dışı senaryo, üç güvenlik araştırmacısının Google’ın amiral gemisi yapay zekâsı Gemini üzerinde gerçekleştirdiği sofistike bir saldırının ürünüydü. Her şey, içine gizli komutlar yerleştirilmiş bir Google Takvim daveti ile başladı. Araştırmacılar Gemini’den haftalık takvim özetini istediklerinde, davetteki bu gizli talimatlar tetiklendi ve evdeki cihazlar kontrolden çıktı.
Fiziksel Dünyada İlk Yapay Zekâ Hacki
Araştırmacılar, bu gösterimin bir üretken yapay zekâ sisteminin fiziksel dünyada ilk kez bu ölçüde etkili bir saldırıya maruz kaldığını söylüyor. Bu durum, giderek daha fazla işlev kazanan büyük dil modellerinin (LLM) gerçek dünyada yaratabileceği potansiyel risklere işaret ediyor.
Tel Aviv Üniversitesi’nden Ben Nassi, Technion’dan Stav Cohen ve güvenlik firması SafeBreach’ten Or Yair tarafından gerçekleştirilen saldırılar, Black Hat siber güvenlik konferansında tanıtıldı. Araştırmacılar, Gemini’nin yalnızca cihazları kontrol etmekle kalmayıp; spam link gönderebildiğini, uygunsuz içerik üretebildiğini, Zoom görüşmesi başlatabildiğini, e-postalardan veri çekebildiğini ve akıllı telefonlara dosya indirebildiğini gösterdi.
Nassi, “LLM’ler yakında fiziksel robotlara, yarı veya tam otonom araçlara entegre edilecek. Güvenliğini sağlamadan bu teknolojiyi böyle sistemlere aktarırsak, sonuçlar sadece gizlilik değil, doğrudan insan güvenliği açısından da tehlikeli olabilir” diyor.
“Invitation Is All You Need”
Bu saldırılar, araştırmacıların “Invitation Is All You Need” adını verdikleri 14 farklı yöntemden sadece üçü. İsim, üretken yapay zekâ devrimini başlatan 2017 tarihli “Attention Is All You Need” araştırmasına gönderme yapıyor.
Buradaki temel fikir, dolaylı prompt enjeksiyonu adı verilen bir yöntem. Normalde yapay zekâya komutlar kullanıcı tarafından verilir. Ancak bu saldırıda komut, dışarıdan – örneğin bir takvim davetinde, e-posta başlığında veya belgede görünmez şekilde gizlenmiş metinlerde – sisteme enjekte ediliyor. Yapay zekâ bu talimatı işlediğinde, kullanıcı farkında olmadan cihazlar veya uygulamalar üzerinde kontrol kaybı yaşıyor.
Google’ın Tepkisi
Google Workspace güvenlik ürünleri direktörü Andy Wen, bu açıkların kötü niyetli saldırganlar tarafından kullanılmadığını vurgulasa da, konuyu “son derece ciddiye aldıklarını” söylüyor. Şirket, araştırmacıların bulgularını şubat ayında iletmelerinin ardından güvenlik önlemlerini artırmaya başlamış.
Google, yeni savunmalar kapsamında makine öğrenimi ile şüpheli komutları tespit etmeye, hassas işlemlerde kullanıcı onayını zorunlu kılmaya ve potansiyel saldırıları üç farklı aşamada taramaya başladı. Wen, “Bazı şeyler tamamen otomatik olmamalı. Kullanıcının da sürecin içinde olması gerekir” diyor.
Ne Kadar Tehlikeli?
Araştırmacıların gösteriminde Gemini, yalnızca cihazları kontrol etmekle kalmadı. Kullanıcıyı manipüle edecek şekilde yanlış bilgiler verdi, takvim kayıtlarını sildi ve hatta küfürlü, saldırgan mesajlar üretebildi.
Bağımsız güvenlik araştırmacısı Johann Rehberger, bu saldırıların tehlikesine dikkat çekerek şunları söylüyor:
“Evinizdeki ısıtıcının açılması, pencerelerin otomatik açılması gibi şeyler, yalnızca sizin izin verdiğiniz koşullarda gerçekleşmelidir. Eğer bir spam e-postası yüzünden bu kontrolü kaybederseniz, sonuçları ciddi olabilir.”
Sonuç: Güvenlik, Hızın Gerisinde
Araştırmacılar, yapay zekâ sektöründeki hızlı yarışın güvenlikten ödün verdiğini savunuyor. Milyarlarca dolar yatırımla geliştirilen LLM tabanlı uygulamalar, henüz yeterli güvenlik önlemleri olmadan piyasaya sürülüyor.
Nassi’nin ifadesiyle:
“Şu an yapay zekâ uygulamaları hayatımıza büyük bir hızla entegre oluyor. Ama güvenlik, aynı hızda ilerlemiyor. Bu yüzden LLM tabanlı sistemler, geleneksel güvenlik açıklarına kıyasla ‘promptware’ saldırılarına çok daha duyarlı.”
” Bu makale, Wired’da yayınlanan orijinal araştırma haberinin Türkçe uyarlamasıdır.“