Ο ερευνητής ασφαλείας Johann Rehberger έχει αποκαλύψει μια σοβαρή ευπάθεια στο ChatGPT που θα μπορούσε να επιτρέψει στους εισβολείς να καταγράφουν λανθασμένα δεδομένα μαζί με καταστροφικές οδηγίες στις ρυθμίσεις ενός χρήστη για τη μακροπρόθεσμη μνήμη. Αφού ανέφερε το ελάττωμα στο OpenAI, ο Rehberger παρατήρησε ότι η εταιρεία αρχικά το απέρριψε ως θέμα ασφάλειας και όχι ως ανησυχία για την ασφάλεια. Αφού ο Ρέμπεργκερ έδειξε α proof-of-concept (PoC) εκμετάλλευση που χρησιμοποίησε την ευπάθεια για τη μόνιμη διείσδυση όλων των εισροών των χρηστών, οι μηχανικοί στο OpenAI αντιλήφθηκαν και κυκλοφόρησαν μια μερική επιδιόρθωση νωρίτερα αυτό το μήνα.
Εκμετάλλευση της μακροπρόθεσμης μνήμης
Σύμφωνα με την Arstechnica, ο Rehberger θεμελιώ ότι μπορείτε να αλλάξετε τη μακροπρόθεσμη μνήμη του ChatGPT χρησιμοποιώντας έμμεση έγχυση προτροπής. Αυτή η μέθοδος επιτρέπει στους εισβολείς να ενσωματώνουν ψευδείς μνήμες ή οδηγίες σε μη αξιόπιστο υλικό, όπως μεταφορτωμένα email, καταχωρίσεις ιστολογίου ή έγγραφα.
Το PoC του Rehberger έδειξε ότι η εξαπάτηση του ChatGPT για να ανοίξει έναν κακόβουλο σύνδεσμο ιστού επέτρεψε στον εισβολέα τον πλήρη έλεγχο της λήψης και της αποστολής όλων των επόμενων εισροών χρήστη και των απαντήσεων ChatGPT σε έναν διακομιστή που ήλεγχε. Ο Rehberger έδειξε πώς η εκμετάλλευση μπορεί να προκαλέσει το ChatGPT να διατηρεί ψευδείς πληροφορίες, συμπεριλαμβανομένης της πεποίθησης ότι ένας χρήστης ήταν 102 ετών και ζούσε στο Matrix, επηρεάζοντας όλες τις μελλοντικές συζητήσεις.
Η απάντηση του OpenAI και οι συνεχείς κίνδυνοι
Το OpenAI αρχικά απάντησε στην αναφορά του Rehberger κλείνοντάς την, ταξινομώντας την ευπάθεια ως θέμα ασφάλειας και όχι ως πρόβλημα ασφάλειας. Μετά την κοινή χρήση του PoC, η εταιρεία κυκλοφόρησε ένα patch για να αποτρέψει το exploit να λειτουργήσει ως φορέας διήθησης. Ακόμα κι έτσι, ο Rehberger επεσήμανε ότι το θεμελιώδες ζήτημα των έγκαιρων ενέσεων παραμένει άλυτο. Ενώ αντιμετωπιζόταν η ρητή στρατηγική για την κλοπή δεδομένων, οι χειριστικοί παράγοντες μπορούσαν ακόμα να επηρεάσουν το όργανο μνήμης για να ενσωματώσει κατασκευασμένα δεδομένα στις ρυθμίσεις μακροπρόθεσμης μνήμης ενός χρήστη.
Ο Rehberger σημείωσε στην επίδειξη βίντεο, «Αυτό που είναι ιδιαίτερα ενδιαφέρον είναι ότι αυτό το κατόρθωμα παραμένει στη μνήμη. Η άμεση έγχυση ενσωμάτωσε επιτυχώς τη μνήμη στη μακροπρόθεσμη αποθήκευση του ChatGPT και ακόμη και όταν ξεκινά μια νέα συνομιλία, δεν σταματά την εξαγωγή δεδομένων.
Χάρη στο API που κυκλοφόρησε πέρυσι από το OpenAI, αυτή η συγκεκριμένη μέθοδος επίθεσης δεν είναι εφικτή μέσω της διεπαφής ιστού ChatGPT.
Πώς να προστατευτείτε από εκμεταλλεύσεις μνήμης ChatGPT (ή LLM);
Όσοι χρησιμοποιούν LLM και θέλουν να διατηρήσουν τις ανταλλαγές τους με το ChatGPT ασφαλείς ενθαρρύνονται να προσέχουν για ενημερώσεις στο σύστημα μνήμης κατά τη διάρκεια των συνεδριών τους. Οι τελικοί χρήστες πρέπει να ελέγχουν επανειλημμένα και να παρακολουθούν τις αρχειοθετημένες μνήμες για ύποπτο περιεχόμενο. Οι χρήστες έχουν καθοδήγηση από το OpenAI για τη διαχείριση αυτών των ρυθμίσεων μνήμης και μπορούν επιπλέον να αποφασίσουν να απενεργοποιήσουν τη λειτουργία μνήμης για την εξάλειψη αυτών των πιθανών κινδύνων.
Λόγω των δυνατοτήτων μνήμης του ChatGPT, οι χρήστες μπορούν να βοηθήσουν στην προστασία των δεδομένων τους από πιθανές εκμεταλλεύσεις, τηρώντας την επιφυλακή τους και λαμβάνοντας μέτρα εκ των προτέρων.
VIA: DataConomy.com