Yapay zeka platformları, sistemlerini suç amaçlı kullanan kullanıcıları tespit ederek hesaplarını kapatabiliyor ve gerek görülmesi durumunda güvenlik birimlerine konuyla ilgili bilgi verebiliyor. Yapay zeka, hayatın her alanına etki eden bir teknoloji olarak etkisini her geçen gün artırıyor. Bu teknoloji, son kullanıcılar tarafından büyük dil modelleri aracılığıyla yoğun şekilde kullanılıyor.
En fazla kullanılan yapay zeka büyük dil modellerine bakıldığında ChatGPT, Gemini, DeepSeek, Perplexity, Grok, Microsoft Copilot ve Claude öne çıkıyor. Araştırmadan sağlık bilgisine kadar birçok amaç için kullanılan yapay zeka modelleri, bazı kullanıcılar tarafından suç amaçlı da kullanılabiliyor.
Fiziksel saldırıların planlanması, çeşitli silah ve mühimmat üretimi gibi durumlar, yapay zekanın suç amaçlı kullanım örneklerini oluşturuyor. Platformlar bu tür kullanımlara karşı modellerini eğiterek taleplerin reddedilmesini sağlamaya çalışıyor.
Önleyici Tedbir mi, Veri Mahremiyeti mi?
Yapay zekanın suç amaçlı kullanımına ilişkin bir örnek Kanada’da yaşandı. British Columbia eyaletinde 10 Şubat’ta bir okul ve evde düzenlenen silahlı saldırıda, aralarında saldırganın da bulunduğu 10 kişi hayatını kaybetti, 27 kişi yaralandı.
Saldırgan 18 yaşındaki Jesse Van Rootselaar’ın ChatGPT’yi suç amaçlı kullandığı, yapay zeka platformunun sahibi OpenAI tarafından aylar önce tespit edildi.
Wall Street Journal’ın haberine göre, Van Rootselaar geçen yıl haziran ayında ChatGPT’ye birkaç gün boyunca silahlı şiddet içeren senaryoları anlattı. Bu yazışmalar, ChatGPT’nin otomatik inceleme sistemi tarafından işaretlendi ve OpenAI çalışanlarına iletildi. Kullanıcının hesabı kapatıldı.
Şirket içinde bu paylaşımların kolluk kuvvetlerine bildirilmesi konusunda değerlendirme yapıldı; gerekli kriterleri karşılamadığı için güvenlik birimlerine konu iletilmedi. Bu durum, platformların erken önlem sistemi olarak kullanılıp kullanılamayacağı konusunda veri mahremiyeti tartışmalarını da beraberinde getirdi.
Suç Oluşmadan Önce Yapılacak Bildirimler Şirketlerin İnisiyatifinde
Yapay zeka platformları, çeşitli mekanizmalarla suç amaçlı kullanımın önüne geçmeye çalışıyor. ChatGPT gibi Gemini de, suç amaçlı kullanımları tespit etmek ve engellemek için çok katmanlı güvenlik protokolleri uyguluyor.
Gemini’nin gerçek zamanlı güvenlik filtreleri, gelen sorguları tarıyor. Bir kullanıcının silah yapımı talimatı, yasa dışı madde sentezleme veya fiziksel şiddet planlama gibi taleplerde bulunması durumunda sistem bunu otomatik olarak reddediyor. Ayrıca, uzman ve bağımsız incelemeciler, sistemin işaretlediği riskli konuşmaları düzenli olarak gözden geçiriyor.
Google ise politikalarına göre, yakın ve ciddi bir fiziksel zarar riski taşıyan durumlarda yetkililerle veri paylaşabiliyor.
Acil durumlarda Google’ın sitesinde verilen bilgiler şöyle:
“Birinin ölümünü veya ciddi fiziksel zarar görmesini önleyebileceğimize makul şekilde inanıyorsak, örneğin bomba tehditleri, okul saldırıları, kaçırma olayları, intihar önleme ve kayıp kişiler vakalarında, bir devlet kurumuna bilgi sağlayabiliriz. Bu talepleri yine de geçerli yasalar ve politikalarımız ışığında değerlendiriyoruz.”
Mevcut düzenlemeler, teknoloji şirketlerinin genellikle suç işlendikten sonra veri paylaşımını kapsıyor. Suç oluşmadan yapılacak bildirimler ise şirketlerin inisiyatifinde bulunuyor.
26.02.2026—15:45

