Veri zehirlenmesi yapay zeka hesaplarınızı altüst edebilir
Yapay zeka asistanınıza güvenmeden önce iki kez düşünmelisiniz. Zira veri tabanı zehirlenmesi asistanınızın çıktılarını önemli ölçüde, hatta tehlikeli bir şekilde değiştirebilir.
Siber güvenlik şirketi ESET; güvenlik, gizlilik ve güvenden ödün vermeden yapay zekanın potansiyelini nasıl ortaya çıkarabiliriz araştırdı, önerilerini paylaştı.
Sürekli ortaya çıkan sayısız güvenlik açığından da görebileceğimiz gibi, modern teknoloji kusursuz olmaktan çok uzak. Bu nedenle, güvenlik genellikle arka planda kalır ve yalnızca asgari uyumluluk gerekliliklerini yerine getirir. Bu değiş tokuş özellikle hassas veriler söz konusu olduğunda endişe verici hale gelir çünkü bu tür veriler kritiklikleriyle orantılı korumalar gerektirir. Günümüzde, yetersiz güvenlik önlemlerinin riskleri, verilerin işlevselliklerinin temelini oluşturduğu yapay zeka ve makine öğrenimi (AI/ML) sistemlerinde giderek daha belirgin hale gelmektedir.
GÜVENLİK RİSKLERİ
Yapay zeka ve makine öğrenimi modelleri, denetimli ve denetimsiz öğrenme yoluyla sürekli olarak güncellenen temel eğitim veri kümeleri üzerine inşa edilir. Makine öğrenimi yapay zekânın gelişmesinde önemli rol oynar. Makine öğrenimi sayesinde gerçekleşen derin öğrenme, diğer etkenlerle birlikte yapay zekânın yeteneklerini ilerletmesini mümkün kılar. Veriler ne kadar çeşitli ve güvenilir olursa modelin çıktıları da o kadar doğru ve kullanışlı olacaktır. Bu nedenle, eğitim sırasında bu modellerin büyük miktarda veriye erişmesi gerekir.
Öte yandan, doğrulanmamış veya iyi incelenmemiş veri kümeleri güvenilmez sonuçların ortaya çıkma olasılığını artırdığından veri yığınlarına güvenmek riskleri de beraberinde getirmektedir. Üretken yapay zekanın, özellikle de büyük dil modellerinin (LLM'ler) ve bunların yapay zekâ asistanları şeklindeki uzantılarının, modelleri kötü niyetli amaçlarla kurcalayan saldırılara karşı özellikle savunmasız olduğu bilinmektedir.
En sinsi tehditlerden biri, düşmanların modelin davranışını değiştirmeye çalıştığı ve yanlış, önyargılı ve hatta zararlı çıktılar üretmesine neden olduğu veri (veya veri tabanı) zehirlenmesidir. Bu tür tahrifatların sonuçları uygulamalar arasında dalgalanarak güveni sarsabilir ve hem insanlar hem de kuruluşlar için sistemik riskler doğurabilir.