2023’te en çok konuştuğumuz teknolojiler, hiç şüphesiz yapay zekâ destekli sohbet botlarıydı. Evet, ChatGPT ve Google Bard gibi hizmetlerden bahsediyoruz. Güvenilirlikleri hâlâ tartışma konusu olan yapay zekâ destekli araçlarla ilgili yaşanan son gelişmeler, bu tartışmaların çok da yersiz olmadığını gözler önüne seriyor.
Singapur’da hizmet vermekte olan Nanyang Teknoloji Üniversitesi bünyesinde çalışmalarını sürdüren bir grup bilim insanı, ChatGPT ve Google Bard gibi botlarını “jailbreak” edebilen yeni bir sohbet botu geliştirdiler. Yapılan çalışma, ChatGPT ve Google Bard’ın istismar edilmeye açık olduğunu ortaya koydu. Zira jailbreak yöntemi ile sohbet botları, yasa dışı içerikler üretmeye başladılar.
Peki “Masterkey” olarak adlandırılan sistem nasıl geliştirildi?
Araştırmacılar, çalışma kapsamında Google Bard ve ChatGPT üzerinde tersine mühendislik yaptılar. Buradaki amaç, yapay zekâ dil modellerinin yasa dışı konulara karşı kendilerini nasıl koruduklarını anlamaktı. Çalışmalar sonuç verince de devam edildi. Bilim insanları, çalışmanın sonucunda normal bir kullanıcının ulaşamayacağı ChatGPT ve Google Bard çıktılarını elde etmeyi başardılar.
İşte bir örnek:
Araştırmacılar, jailbreak yaptıkları GPT modelini Bing’de test ettiler. Yukarıda da yapılan çalışmalardan bir örnek görüyorsunuz. Bu örnek, bir internet sitesinin nasıl hack’leneceğine ilişkin detaylı veriler sağlıyor. Nanyang Teknoloji Üniversitesi tarafından yapılan açıklamada, sohbet botlarının kötüye kullanımının o kadar da imkânsız olmadığının anlaşıldığı belirtildi.
Bilim insanlarının bu çalışmadaki amacı, zararlı bir yapay zekâ üretmek değildi. Uzmanlar, sohbet botlarının gerçekten güvenli olup olmadıklarını test etmek istediler ve elde edilen bulgular, yeni teknolojilerin o kadar da güvenli olmadığını ortaya koymuş oldu.