Şeytanın aklına gelmez: ChatGPT, sahte anılarla

Sektörün bilinen güvenlik araştırmacısı Johann Rehberger, ChatGPT için tehlikeli bir güvenlik açığı keşfettiğini açıkladı. Bu açık, saldırganların kullanıcının uzun vadeli hafıza ayarlarına zararlı talimatlar ve yanlış bilgiler yerleştirmesine olanak tanıyordu. Rehberger, bu bulguyu OpenAI’ye bildirdiğinde şirket, bu durumu bir güvenlik sorunu olarak nitelendirerek açılan talebi hemen kapattı.

ChatGPT açığı düşünülenden ciddi olabilir!

Rehberger, araştırmacıların sıklıkla yaptığı gibi, bu açığı daha da derinlemesine inceledi ve bir kavram kanıtı (PoC) hazırladı. Bu PoC, güvenlik açığından yararlanarak kullanıcının tüm girdilerini kalıcı bir şekilde dışarıya sızdırabildiğini gösterdi. Bunun üzerine OpenAI mühendisleri durumu ciddiye aldı ve bu ayın başlarında kısmi bir düzeltme yayımladı.

mac-chatgpt-uygulamasi-acildi-macosmac-chatgpt-uygulamasi-acildi-macos

OpenAI, Şubat ayında test etmeye başladığı uzun vadeli hafıza özelliğini Eylül ayında genişletti. Bu özellik, ChatGPT’nin kullanıcının önceki konuşmalarını hatırlamasına ve her yeni sohbette bu bilgileri kullanmasına olanak tanıyordu. Böylece kullanıcının yaşı, inançları veya diğer kişisel bilgileri her seferinde yeniden girmesine gerek kalmıyordu.

Ancak bu özellik, saldırganlar tarafından kötüye kullanılabildiği keşfedildi. Rehberger, yapay zeka sistemlerinin güvenilmeyen içeriklerden (örneğin e-postalar, blog yazıları veya belgeler) gelen talimatları takip etmesini sağlayan dolaylı prompt enjeksiyonu adı verilen bir saldırı yöntemini kullanarak ChatGPT’nin hatıralarına sahte bilgiler ekleyebileceğini keşfetti.


ChatGPT için gelişmiş ses modu kullanıma sunuldu! Nasıl kullanılır?ChatGPT için gelişmiş ses modu kullanıma sunuldu! Nasıl kullanılır?

ChatGPT için gelişmiş ses modu kullanıma sunuldu! Nasıl kullanılır?

OpenAI, ChatGPT için Gelişmiş Ses Modu (AVM) özelliğini kullanıma sundu. Daha doğal ve yeni ses seçenekleri geldi.

Bu sayede, ChatGPT’ye bir kullanıcının 102 yaşında olduğunu, Matrix’te yaşadığını ve dünyanın düz olduğunu ‘öğretmek’ mümkün olabiliyordu. Bu tür sahte bilgiler, Google Drive veya Microsoft OneDrive gibi bulut servislerine dosya yüklenerek, hatta bir internet sitesi üzerinden görüntü eklenerek yerleştirilebiliyordu.

OpenAI, bu açığı kapatmak için bir düzeltme yayımladı ancak uzmanlara göre halen yapay zekanın uzun vadeli hafızasına yanlış bilgiler eklenebilmesi mümkün. Bu sebeple, kullanıcıların yeni bir hafıza eklendiğini gösteren uyarılara dikkat etmesi ve hafıza ayarlarını düzenli olarak kontrol etmesi öneriliyor.

Siz de konuyla ilgili görüşlerinizi yorumlarda paylaşmayı ihmal etmeyin.