Σάββατο, 28 Σεπτεμβρίου, 2024
ΑρχικήΤεχνολογίαΑπάτη με την Χρήση Ψευδών Αναμνήσεων στο ChatGPT: Μια Ευπάθεια για τους...

Απάτη με την Χρήση Ψευδών Αναμνήσεων στο ChatGPT: Μια Ευπάθεια για τους Χάκερς


Ο ερευνητής ασφαλείας Johann Rehberger έχει αποκαλύψει μια σοβαρή ευπάθεια στο που θα μπορούσε να επιτρέψει στους εισβολείς να καταγράφουν λανθασμένα δεδομένα μαζί με καταστροφικές οδηγίες στις ρυθμίσεις ενός χρήστη για τη μακροπρόθεσμη μνήμη. Αφού ανέφερε το ελάττωμα στο OpenAI, ο Rehberger παρατήρησε ότι η εταιρεία αρχικά το απέρριψε ως θέμα ασφάλειας και όχι ως ανησυχία για την ασφάλεια. Αφού ο Ρέμπεργκερ έδειξε α proof-of-concept (PoC) εκμετάλλευση που χρησιμοποίησε την ευπάθεια για τη μόνιμη διείσδυση όλων των εισροών των χρηστών, οι μηχανικοί στο OpenAI αντιλήφθηκαν και κυκλοφόρησαν μια μερική επιδιόρθωση νωρίτερα αυτό το μήνα.

Εκμετάλλευση της μακροπρόθεσμης μνήμης

Σύμφωνα με την Arstechnica, ο Rehberger θεμελιώ ότι μπορείτε να αλλάξετε τη μακροπρόθεσμη μνήμη του ChatGPT χρησιμοποιώντας έμμεση έγχυση προτροπής. Αυτή η μέθοδος επιτρέπει στους εισβολείς να ενσωματώνουν ψευδείς μνήμες ή οδηγίες σε μη αξιόπιστο υλικό, όπως μεταφορτωμένα email, καταχωρίσεις ιστολογίου ή έγγραφα.

Το PoC του Rehberger έδειξε ότι η εξαπάτηση του ChatGPT για να ανοίξει έναν κακόβουλο σύνδεσμο ιστού επέτρεψε στον εισβολέα τον πλήρη έλεγχο της λήψης και της αποστολής όλων των επόμενων εισροών χρήστη και των απαντήσεων ChatGPT σε έναν διακομιστή που ήλεγχε. Ο Rehberger έδειξε πώς η εκμετάλλευση μπορεί να προκαλέσει το ChatGPT να διατηρεί ψευδείς πληροφορίες, συμπεριλαμβανομένης της πεποίθησης ότι ένας χρήστης ήταν 102 ετών και ζούσε στο Matrix, επηρεάζοντας όλες τις μελλοντικές συζητήσεις.

Η απάντηση του OpenAI και οι συνεχείς κίνδυνοι

Το OpenAI αρχικά απάντησε στην αναφορά του Rehberger κλείνοντάς την, ταξινομώντας την ευπάθεια ως θέμα ασφάλειας και όχι ως πρόβλημα ασφάλειας. Μετά την κοινή χρήση του PoC, η εταιρεία κυκλοφόρησε ένα patch για να αποτρέψει το exploit να λειτουργήσει ως φορέας διήθησης. Ακόμα κι έτσι, ο Rehberger επεσήμανε ότι το θεμελιώδες ζήτημα των έγκαιρων ενέσεων παραμένει άλυτο. Ενώ αντιμετωπιζόταν η ρητή στρατηγική για την κλοπή δεδομένων, οι χειριστικοί παράγοντες μπορούσαν ακόμα να επηρεάσουν το όργανο μνήμης για να ενσωματώσει κατασκευασμένα δεδομένα στις ρυθμίσεις μακροπρόθεσμης μνήμης ενός χρήστη.

Ο Rehberger είωσε στην επίδειξη βίντεο, «Αυτό που είναι ιδιαίτερα ενδιαφέρον είναι ότι αυτό το κατόρθωμα παραμένει στη μνήμη. Η άμεση έγχυση ενσωμάτωσε επιτυχώς τη μνήμη στη μακροπρόθεσμη αποθήκευση του ChatGPT και ακόμη και όταν ξεκινά μια νέα συνομιλία, δεν σταματά την εξαγωγή δεδομένων.

Χάρη στο API που κυκλοφόρησε πέρυσι από το OpenAI, αυτή η συγκεκριμένη μέθοδος επίθεσης δεν είναι εφικτή μέσω της διεπαφής ιστού ChatGPT.

Πώς να προστατευτείτε από εκμεταλλεύσεις μνήμης ChatGPT (ή LLM);

Όσοι χρησιμοποιούν LLM και θέλουν να διατηρήσουν τις ανταλλαγές τους με το ChatGPT ασφαλείς ενθαρρύνονται να προσέχουν για στο σύστημα μνήμης κατά τη διάρκεια των συνεδριών τους. Οι τελικοί πρέπει να ελέγχουν επανειλημμένα και να παρακολουθούν τις αρχειοθετημένες μνήμες για ύποπτο περιεχόμενο. Οι χρήστες έχουν καθοδήγηση από το OpenAI για τη διαχείριση αυτών των ρυθμίσεων μνήμης και μπορούν επιπλέον να αποφασίσουν να απενεργοποιήσουν τη λειτουργία μνήμης για την εξάλειψη αυτών των πιθανών κινδύνων.

Λόγω των δυνατοτήτων μνήμης του ChatGPT, οι χρήστες μπορούν να βοηθήσουν στην προστασία των δεδομένων τους από πιθανές εκμεταλλεύσεις, τηρώντας την επιφυλακή τους και λαμβάνοντας μέτρα εκ των προτέρων.



VIA: DataConomy.com

Dimitris Troktikos
Dimitris Troktikoshttps://www.troktiko.net
Αφοσιωμένος λάτρης κινητών Samsung, ο Δημήτρης έχει εξελίξει μια ιδιαίτερη σχέση με τα προϊόντα της εταιρίας, εκτιμώντας τον σχεδιασμό, την απόδοση και την καινοτομία που προσφέρουν. Γράφοντας και διαβάζοντας τεχνολογικά νέα από όλο τον κόσμο.
RELATED ARTICLES

Απάντηση

Most Popular

Lastest Articles