Sadece devletler veya şirketler değil aşırıcılık yanlısı militan gruplar da yapay zekayı kullanmaya başladı. Hızla ve düşük bütçelerle zararlı içerik üretebileceğini keşfeden örgütlerle mücadele yolları aranıyor.
ABD'den Çin'e, Türkiye'den Almanya'ya devletler yapay zekanın gücünden yararlanmak için hızlı adımlar atarken dünya çapında militan gruplar da bu teknoloji ile neler yapabileceklerini keşfediyor.
Ulusal güvenlik uzmanları ve istihbarat servisleri; aşırıcı örgütlerin yapay zekayı yeni üyeler devşirmek, gerçekçi deepfake görüntüler üretmek ve etkili siber saldırılar düzenlemek için kullanmayı denediği konusunda uyarıyor.

Geçen ay IŞİD yanlısı bir internet sitesinde yer alan paylaşımda, dünya çapındaki IŞİD destekçileri yapay zekayı kullanmaya davet edildi. Söz konusu çağrıyı yapan örgüt mensubu, "Yapay zekanın en iyi yanlarından biri, kullanmasının ne kadar kolay olduğu" diye yazdı.
Yıllar önce Irak ve Suriye'de geniş toprakları kontrol eden ancak 2019'dan beri gevşek bir yapılanmaya dönüşerek yer altına çekilen örgüt, zaten yıllar önce sosyal medyanın gücünü keşfetmiş; kurgusu, teknik kalitesi ve ses kullanımı ile dikkat çeken video içerikler üreterek yaymıştı. Uzmanlara göre, bu tecrübeye sahip örgütün şimdiye yeniden militan devşirmek için yapay zekaya başvurması şaşırtıcı değil.
Siber güvenlik firması Darktrace Federal'in CEO'su ve eski bir CIA ajanı olan Marcus Fowler, "IŞİD Twitter'a erken girdi ve sosyal medyayı kendi lehine kullanmanın yollarını buldu. Her zaman cephaneliklerine ekleyebilecekleri bir sonraki aracı arıyorlar" diyor.
Aşırıcılar için işleri çok kolaylaştırıyor
Gevşek örgütlenmiş, kaynakları sınırlı yapıların bile yapay zekayı kullanarak büyük ölçekte propaganda ya da deepfake içeriği üretebileceği, bunun da erişim alanlarını artırmalarına yarayacağı belirtiliyor.
ABD Ulusal Güvenlik Ajansında (NSA) eski bir güvenlik açığı araştırmacısı olan ve şu anda siber güvenlik şirketi ClearVector'ün CEO'su olarak görev yapan John Laliberte, "Herhangi bir düşman için yapay zeka işleri çok daha kolay hâle getiriyor. Yapay zeka sayesinde, çok fazla parası olmayan küçük bir grup bile etkili olabiliyor" dedi.

Militan gruplar, ChatGPT gibi programların geniş kitlelerce erişilebilir hâle gelmesiyle birlikte yapay zekayı kullanmaya başladı. Geçen yıllarda, gerçekçi görünen sahte fotoğraf ve videolar üretmek için bu teknoloji kullanan militanlar propagandalarını birkaç yıl öncesinde hayal bile edilemeyecek ölçekte yaymayı başarıyor.
Örneğin İsrail-Hamas savaşının başlarında, bombalanmış bir binada kanlar içinde, terk edilmiş bebekleri gösterdiği iddia edilen sahte görüntüler internette yayıldı. Büyük bir öfke ve kutuplaşma yaratan bu görüntü savaşın gerçek dehşetini ise gölgeledi. Ortadoğu'daki şiddet yanlısı gruplar bu fotoğrafları yeni üyeler devşirmek için kullandı; ABD'de ve başka ülkelerde ise antisemitik gruplar bu içeriklerden faydalandı.

Amerikan Kongresi önlem arıyor
Bilgisayar korsanları halihazırda sentetik ses ve video içeriklerini kimlik avı dolandırıcılığında kullanıyor; üst düzey bir iş insanı ya da devlet yetkilisi gibi davranarak hassas sistemlere erişim sağlamaya çalışıyorlar. Yapay zeka, kötü amaçlı yazılım yazmak ya da siber saldırıların bazı aşamalarını otomatikleştirmek için de kullanılabiliyor.
Bu sorunların farkında olan yasama organları çözümler geliştirmeye çalışıyor. ABD'de teknoloji üreticisi firmalar ürünlerinin; aşırıcı gruplar, bilgisayar korsanları ya da yabancı istihbarat servisleri gibi kötü niyetli aktörler tarafından kullanılmasını engelleyecek veya bu tür kullanımları tespit edecek önlemler almaya teşvik ediliyor.

Amerikan Senatosu İstihbarat Komitesi üyesi Demokrat Mark Warner, "ChatGPT'nin kamuoyuna sunulmasından bu yana, bu teknolojiye kamuoyunun duyduğu ilgi ve deneme isteğinin kötü niyetli aktörler için de geçerli olacağı açıktı" diyor.
Geçen ay ABD Temsilciler Meclisinden geçen bir yasa tasarısı, aşırıcı grupların yarattığı yapay zeka risklerinin iç güvenlik yetkililerince her yıl değerlendirmesini zorunlu kılıyor. Tasarının mimarı Cumhuriyetçi August Pfluger'a göre, yapay zekanın kötüye kullanımına karşı önlem almak, geleneksel saldırılara hazırlanmakten farklı değil.