Yapay zeka, yaşamın her alanını etkileyen bir teknoloji olarak etkisini artırmaya devam ediyor. Özellikle büyük dil modelleri (LLM’ler) aracılığıyla son kullanıcılar tarafından yoğun olarak kullanılan yapay zeka, çeşitli amaçlar için fayda sağlarken, maalesef bazı kötü niyetli kullanıcılar tarafından suç amaçlı da kullanılabiliyor.
Öne Çıkan Yapay Zeka Modelleri ve Suç Amaçlı Kullanım Riskleri
ChatGPT, Gemini, DeepSeek, Perplexity, Grok, Microsoft Copilot ve Claude gibi önde gelen yapay zeka modelleri, araştırmadan sağlığa kadar birçok alanda bilgi edinmek için kullanılıyor. Ancak, fiziksel saldırı planlaması, silah ve mühimmat üretimi gibi suç faaliyetleri için de potansiyel bir araç haline gelebiliyorlar. Bu durum, platformları suç amaçlı kullanımlara karşı önlemler almaya yöneltiyor.
Kanada’daki Olay ve OpenAI’nin Rolü
Kanada’nın British Columbia eyaletinde 10 Şubat’ta meydana gelen okul ve ev saldırısı, yapay zekanın suç amaçlı kullanımına bir örnek teşkil ediyor. Saldırgan 18 yaşındaki Jesse Van Rootselaar’ın, ChatGPT’yi suç amaçlı kullandığı ve OpenAI tarafından aylar önce tespit edildiği ortaya çıktı. Wall Street Journal’ın haberine göre, Van Rootselaar, geçen yıl haziran ayında ChatGPT’ye silahlı şiddet içeren senaryolar yazdı. OpenAI, bu yazışmaları otomatik inceleme sistemiyle tespit etti ve kullanıcının hesabını kapattı. Ancak, şirketin bu bilgileri kolluk kuvvetlerine bildirmemesi, veri mahremiyeti ve erken önlem sistemleri üzerine tartışmaları beraberinde getirdi.
Platformların Aldığı Önlemler
Yapay zeka platformları, suç amaçlı kullanımların önüne geçmek için çeşitli güvenlik protokolleri uyguluyor. Örneğin, Gemini, suç amaçlı kullanımları tespit etmek ve engellemek için çok katmanlı güvenlik önlemleri alıyor. Sistem, gelen sorguları gerçek zamanlı olarak tarayan güvenlik filtreleri kullanıyor ve silah yapımı, yasa dışı madde sentezi veya şiddet planlama gibi talepleri otomatik olarak reddediyor. Ayrıca, uzmanlar ve bağımsız incelemeciler, sistemin işaretlediği riskli konuşmaları düzenli olarak gözden geçiriyor. Google, politikalarına göre, yakın ve ciddi bir fiziksel zarar riski olan durumlarda yetkililerle veri paylaşabileceğini belirtiyor.
Yapay zeka platformları, teknolojinin kötüye kullanımını engellemek için sürekli olarak güvenlik önlemlerini geliştiriyor. Ancak, bu mücadele, veri gizliliği ve güvenlik arasındaki dengeyi koruma zorunluluğunu da beraberinde getiriyor. Kaynak: Habertürk
