Yapay Zekâ Zehirlenmesi: Kötü Niyetli AI’dan Nasıl Korunursunuz?
Kötü niyetli yapay zekâ (AI) zaten aramızda. Amacı kaos yaratmak, suç faaliyetlerinde bulunmak ve genel olarak kötülük yapmak olan modeller mevcut. Ancak, meşru yapay zekâ araçları da kolaylıkla bozulabilir. Hacker’lar, AI’ı zehirlemek için sisteme yanlış veya manipüle edilmiş veriler besleyebilir. Buradaki nihai hedef, AI’ın veri setini etkilemek ve sonuçlarını değiştirmektir.
Bir saldırgan, daha dikkat çekmeyen sonuçlar elde etmek isteyebilir. Örneğin, yapay zekâda önyargılar oluşturabilir. Diğer durumlarda ise, tehlikeli yanlışlıklar veya yanıltıcı öneriler gibi daha kötü niyetli sonuçlar hedeflenebilir. Unutmayın, yapay zekâ sadece bir araçtır. Olumlu mu yoksa olumsuz bir amaçla mı kullanıldığını ayırt edemez. Dikkatli olmazsanız, siber suçların hedefi haline gelebilirsiniz.
Geçtiğimiz hafta, binlerce siber güvenlik uzmanını bir araya getiren RSAC Konferansı’ndaydım. Bu fırsatı değerlendirerek Microsoft’un kırmızı takımında (red team) "Veri Kovboyu" olarak görev yapan Ram Shankar Siva Kumar ile yapay zekâ güvenliği üzerine derinlemesine bir sohbet gerçekleştirdim. Kırmızı takımlar, şirketler için iç sızma testi uzmanları gibi çalışır. Sistemleri kırmak veya manipüle etmek için kasıtlı olarak yollar arayarak güvenlik açıklarını tespit etmeye çalışırlar.
Kumar ile yaptığımız sohbette, tehlikeye atılmış bir yapay zekâdan nasıl korunabileceğinize dair bir dizi önemli ipucu aldım. Bu, sohbet ettiğiniz bir chatbot veya bilgileri otomatik olarak işleyen bir aracı olabilir. Çünkü maalesef, zehirlenmiş bir yapay zekâyı tespit etmek oldukça zordur.
Foundry’den Jon Martindale’in de belirttiği gibi, her yapay zekâ aracının güvenlik açıkları olacaktır. Ancak, bu alandaki daha büyük oyuncuların niyetine (ve bu açıkları gidermeye hazır ekiplerin büyüklüğüne) daha çok güvenebilirsiniz. Çünkü bu şirketler sadece daha köklü olmakla kalmaz, aynı zamanda yapay zekâ için net hedeflere de sahiptirler.
Örneğin, OpenAI’ın ChatGPT’si, Microsoft Copilot ve Google Gemini gibi platformlar, küçük ve bilinmeyen bir subreddit’te rastgele bulduğunuz bir chatbot’tan daha güvenilirdir. En azından, bu platformlara belirli bir düzeyde güven duyabilirsiniz.
Yakın zamana kadar, Google’a Kaliforniya mı yoksa Almanya mı daha büyük diye sorduğunuzda, yapay zekâ destekli arama özeti size Almanya’nın daha büyük olduğunu söylüyordu. (Tabii ki hayır.) Mil ile kilometre karşılaştırmasını yakın zamanda düzelttiler.
Bu, masum bir "halüsinasyon" örneğidir. Yani, yanlış bilginin doğruymuş gibi sunulmasıdır. (İki yaşındaki komşunuzun köpeklerin sadece erkek olabileceğini iddia etmesi gibi.)
Ancak, tehlikeye atılmış bir yapay zekâ, daha tehlikeli şekillerde halüsinasyonlar görebilir veya sizi kasıtlı olarak tehlikeli yollara sevk edebilir. Örneğin, bir yapay zekâ, tıbbi tavsiye verme konusunda güvenlik önlemlerini göz ardı edecek şekilde zehirlenmiş olabilir.
Bu nedenle, yapay zekâ tarafından verilen herhangi bir tavsiye veya talimatı her zaman nazik bir şüpheyle kabul edin.
Bir yapay zekâ chatbot sorularınızı yanıtladığında, gördüğünüz şey aslında bulduğu bilgilerin bir özetidir. Ancak bu bilgiler, yalnızca kaynakların kalitesi kadar iyidir ve şu anda kaynaklar her zaman en üst düzeyde değildir.
Yapay zekânın dayandığı kaynak materyali her zaman gözden geçirmelisiniz. Bazen, ayrıntıları bağlamından koparabilir veya yanlış yorumlayabilir. Veya, en iyi sitelere güvenmek (ve tersine, anlamlı içerik yayınlamayan siteleri ayırmak) için veri setinde yeterli çeşitlilik olmayabilir.
Bildiğim bazı insanlar, önemli haberleri paylaşırlar, ancak bilgiyi kimden aldıklarını her zaman dikkatlice düşünmezler. Ben her zaman bu bilgileri nereden duyduklarını sorarım ve daha sonra kaynağın güvenilir olup olmadığına kendim karar veririm. Eminim siz de aynısını yapıyorsunuzdur. Bu alışkanlığı yapay zekâya da uygulayın.
PCWorld’ün de belirttiği gibi, özetlemek gerekirse: Her şeyi bilemezsiniz. (En azından, çoğumuz bilemeyiz.) En iyi ikinci beceri, kime güveneceğinizi anlamak ve buna nasıl karar vereceğinizi bilmektir. Kötü niyetli yapay zekâ, beyninizi kapattığınızda kazanır.
Bu nedenle, her zaman kendinize sorun: Bu kulağa doğru geliyor mu? Güvene aldanmayın.
Yukarıdaki ipuçları size başlamanız için bir yol haritası sağlayacaktır. Ancak, okuduğunuz bilgileri düzenli olarak çapraz referanslayarak (yani, yapay zekâ yardımcınızın çalışmasını kontrol etmek için birden fazla kaynağa bakarak) ve ek yardım için kime başvuracağınızı öğrenerek bu ivmeyi koruyabilirsiniz. Benim hedefim, bu çalışmadan sonra ikinci bir soruyu cevaplayabilmek: Birisi bu kaynak makaleyi veya videoyu neden oluşturdu?
Bir konu hakkında daha az bilgi sahibi olduğunuzda, kime güveneceğiniz konusunda akıllı olmanız gerekir.
Teknoloji ve video oyunları gazeteciliğinde 14 yıllık deneyime sahip olan Alaina Yee, PCWorld için çeşitli konuları ele almaktadır. 2016’da ekibe katıldığından beri, CPU’lar, Windows, PC toplama, Chrome, Raspberry Pi ve daha birçok konu hakkında yazılar yazdı. Aynı zamanda PCWorld’ün indirim avcısı olarak da görev yapmaktadır. Şu anda odak noktası güvenliktir ve insanların kendilerini çevrimiçi ortamda en iyi şekilde nasıl koruyacaklarını anlamalarına yardımcı olmaktadır. Daha önce PC Gamer, IGN, Maximum PC ve Official Xbox Magazine gibi yayınlarda da yazıları yayınlanmıştır.