Konya AÇIK 33°
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Amasya
  • Ankara
  • Antalya
  • Artvin
  • Aydın
  • Balıkesir
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkâri
  • Hatay
  • Isparta
  • Mersin
  • istanbul
  • izmir
  • Kars
  • Kastamonu
  • Kayseri
  • Kırklareli
  • Kırşehir
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Kahramanmaraş
  • Mardin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Şanlıurfa
  • Uşak
  • Van
  • Yozgat
  • Zonguldak
  • Aksaray
  • Bayburt
  • Karaman
  • Kırıkkale
  • Batman
  • Şırnak
  • Bartın
  • Ardahan
  • Iğdır
  • Yalova
  • Karabük
  • Kilis
  • Osmaniye
  • Düzce
a

Yapay zeka platformları suç amaçlı kullanımları tespit edebiliyor

Yapay zeka platformları, sistemlerini suç amaçlı kullanan kullanıcıları tespit ederek hesaplarını kapatabiliyor ve gerekli görülmesi durumunda güvenlik birimlerine konuyla ilgili bilgi verebiliyor.

AA muhabirinin derlediği bilgilere göre, yapay zeka hayatın her alanına etki eden bir teknoloji olarak etkisini her geçen gün artırıyor. Bu teknoloji, son kullanıcılar tarafından büyük dil modelleri aracılığıyla yoğun olarak kullanılıyor.

En fazla kullanılan yapay zeka büyük dil modellerine bakıldığında ChatGPT, Gemini, DeepSeek, Perplexity, Grok, Microsoft Copilot ve Claude öne çıkıyor. Araştırmadan sağlıkla ilgili bilgi edinmeye kadar birçok amaç için yararlanılan yapay zeka modelleri, bazı kullanıcılar tarafından suç amaçlı da kullanılabiliyor.

 

Fiziksel saldırıların planlanması, çeşitli silah ve mühimmat üretimi gibi durumlar yapay zekanın suç amaçlı kullanım örneklerini oluşturuyor. Platformlar bu tarz kullanımlara karşı modellerini eğiterek taleplerin reddedilmesini sağlamaya çalışıyor.

 

 

Önleyici tedbir mi, veri mahremiyeti mi?
Yapay zekanın suç amaçlı kullanımına ilişkin örnek Kanada’da yaşandı. Ülkenin British Columbia eyaletinde 10 Şubat’ta bir okul ve evde düzenlenen silahlı saldırıda, aralarında saldırganın da bulunduğu 10 kişi hayatını kaybetti, 27 kişi yaralandı.

 

 

Saldırgan 18 yaşındaki Jesse Van Rootselaar’ın ChatGPT’yi suç amaçlı kullandığı, yapay zeka platformunun sahibi OpenAI tarafından aylar önce tespit edildi.

Wall Street Journal’ın haberine göre, Van Rootselaar, geçen yıl haziran ayında ChatGPT’ye birkaç gün boyunca silahlı şiddet içeren senaryoları anlattı. Bu yazışmalar ChatGPT’nin otomatik inceleme sistemi tarafından işaretlenerek ilgili OpenAI çalışanlarına iletildi ve kullanıcının hesabı kapatıldı.

 

 

Şirket içerisinde bu paylaşımların kolluk kuvvetlerine bildirilmesi konusunda değerlendirme yapıldı ve gerekli kriterleri karşılamadığı belirlenerek güvenlik birimlerine konu iletilmedi. Bu durum, platformların erken önlem sistemi olarak kullanıp kullanılamayacağı veri mahremiyeti tartışmalarını da beraberinde getirdi.

 

 

Suç oluşmadan önce yapılacak bildirimler şirketlerin inisiyatifinde​​
Yapay zeka platformları çeşitli mekanizmalarla suç amaçlı kullanımın önüne geçmeye çalışıyor. ChatGPT gibi Gemini da suç amaçlı kullanımları tespit etmek ve engellemek için tasarlanmış çok katmanlı güvenlik protokolleri uyguluyor.

 

 

Gemini’nin kendisine gelen sorguları gerçek zamanlı olarak tarayan güvenlik filtreleri bulunuyor. Bir kullanıcının silah yapımı talimatı, yasa dışı madde sentezleme, fiziksel şiddet planlama gibi taleplerde bulunması durumunda sistem bunu otomatik olarak reddediyor ve yanıt vermiyor. Ayrıca çok sayıda uzman ve bağımsız incelemeci, sistemin işaretlediği riskli konuşmaları düzenli olarak gözden geçiriyor.

 

 

Google, politikalarına göre yakın ve ciddi bir fiziksel zarar riski olan durumlarda yetkililerle veri paylaşabileceğini belirtiyor.

Acil durumlarda bilgi taleplerine ilişkin Google’ın sitesinde şu bilgiler yer alıyor:

“Birinin ölümünü veya ciddi fiziksel zarar görmesini önleyebileceğimize makul şekilde inanıyorsak, örneğin bomba tehditleri, okul saldırıları, kaçırma olayları, intihar önleme ve kayıp kişiler vakalarında, bir devlet kurumuna bilgi sağlayabiliriz. Bu talepleri yine de geçerli yasalar ve politikalarımız ışığında değerlendiriyoruz.”

Mevcut düzenlemeler, teknoloji şirketlerinin genellikle suç işlendikten sonra veri paylaşımını kapsıyor. Suç oluşmadan önce yapılacak bildirimler şirketlerin inisiyatifinde bulunuyor.​​​​​​​

Kaynak: AA

0 0 0 0 0 0
YORUMLAR

s

En az 10 karakter gerekli

Sıradaki haber:

Yapay zeka destekli analiz araçlarıyla siber güvenlikte yeni dönem

HIZLI YORUM YAP

0 0 0 0 0 0

Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.