Categories: Τεχνολογία

Ο Chatbot που γνωρίζει τα μυστικά σας


Ας μην το ζαχαρώνουμε: κάθε φορά που συνομιλείτε με ένα μοντέλο γλώσσας, βάζετε τα προσωπικά σας δεδομένα στη γραμμή. Σύμφωνα όμως με τον α ΣΥΡΜΑΤΟΣ άρθρο, έγινε πολύ πιο ριψοκίνδυνο. Μια ομάδα ερευνητών από το Πανεπιστήμιο της Καλιφόρνια, στο Σαν Ντιέγκο (UCSD) και το Τεχνολογικό Πανεπιστήμιο Nanyang στη Σιγκαπούρη αποκάλυψαν μια νέα επίθεση που θα μπορούσε να μετατρέψει την περιστασιακή συνομιλία σας σε θησαυρό ενός χάκερ.

Γνωρίστε τον Imprompter

Αυτή η νέα επίθεση, η δυσοίωνη ονομασία Imprompter, δεν περιφέρεται μόνο στα μηνύματά σας – εισχωρεί κρυφά, ξύνει τα πάντα, από το όνομά σας μέχρι τα στοιχεία πληρωμής και τη στέλνει απευθείας σε έναν χάκερ χωρίς καν να το παρατηρήσετε. Πως; Αποκρύπτοντας κακόβουλες οδηγίες ως ασυναρτησίες που φαίνονται αβλαβείς στα ανθρώπινα μάτια, αλλά λειτουργούν σαν φάρος υποδοχής για ευαίσθητα δεδομένα. Σκεφτείτε το ως τον πολύ πιο έξυπνο ξάδερφο του κακόβουλου λογισμικού.

Σύμφωνα με ΣΥΡΜΑΤΟΣοι ερευνητές κατάφεραν να δοκιμάσουν αυτήν την επίθεση σε δύο μεγάλα γλωσσικά μοντέλα – το LeChat από τη Mistral AI και το ChatGLM από την Κίνα – και διαπίστωσαν ότι μπορούσαν να εξαγάγουν προσωπικά δεδομένα με ποσοστό επιτυχίας σχεδόν 80%. Αυτό δεν είναι απλώς ένα σφάλμα. είναι μια πλήρης ευπάθεια.

Το Imprompter λειτουργεί μετατρέποντας απλές αγγλικές οδηγίες σε μια ανεξήγητη σειρά τυχαίων χαρακτήρων

Πώς λειτουργεί το Imprompter;

Το Imprompter λειτουργεί μετατρέποντας απλές αγγλικές οδηγίες σε μια ανεξήγητη σειρά τυχαίων χαρακτήρων που λέει στο AI να κυνηγήσει τα προσωπικά σας στοιχεία. Στη συνέχεια, επιστρέφει κρυφά αυτά τα δεδομένα στον διακομιστή του εισβολέα, συσκευασμένα σε μια διεύθυνση URL και μεταμφιεσμένα πίσω από ένα διαφανές εικονοστοιχείο 1×1—εντελώς αόρατο για εσάς.

Όπως είπε ο Xiaohan Fu, ο κύριος συγγραφέας της έρευνας, «Κρύβουμε το στόχο της επίθεσης σε κοινή θέα». Η τεχνητή νοημοσύνη ανταποκρίνεται στην κρυφή προτροπή χωρίς να απορρίπτει ποτέ τον χρήστη. ίναι σαν να δίνεις έναν κωδικό θυρίδας τράπεζας σε έναν διαρρήκτη χωρίς να καταλάβεις ότι έχεις ανοίξει καν το στόμα σου.

Ας μην προσποιούμαστε ότι αυτό είναι ένα μεμονωμένο ζήτημα. Από τότε που εμφανίστηκε το ChatGPT του , ο αγώνας για την εκμετάλλευση των τρωτών σημείων στα συστήματα τεχνητής νοημοσύνης ήταν αμείλικτος. Από τα jailbreak έως τις άμεσες ενέσεις, οι χάκερ είναι πάντα ένα βήμα μπροστά, βρίσκοντας τρόπους να εξαπατήσουν τα AI ώστε να διαχέουν ευαίσθητες πληροφορίες. Το Imprompter είναι απλώς το πιο πρόσφατο όπλο στο οπλοστάσιό τους—και, δυστυχώς, είναι ιδιαίτερα αποτελεσματικό.

Η Mistral AI είπε στο WIRED ότι έχουν ήδη διορθώσει την ευπάθεια και οι ερευνητές επιβεβαίωσαν ότι η εταιρεία απενεργοποίησε τη λειτουργία συνομιλίας που επέτρεψε την εκμετάλλευση. Αλλά ακόμα και με αυτήν τη γρήγορη λύση, το ευρύτερο ερώτημα παραμένει: πόσο ασφαλή είναι πραγματικά αυτά τα συστήματα;

Κάθε φορά που συνομιλείτε με ένα μοντέλο γλώσσας, μαθαίνει κάτι για εσάς

Το AI ακούει και μαθαίνει

Ειδικοί σε θέματα ασφάλειας, όπως ο Dan McInerney, από το AI, κυματίζουν την κόκκινη σημαία. Επισημαίνει ότι καθώς οι πράκτορες τεχνητής νοημοσύνης ενσωματώνονται περισσότερο σε καθημερινές εργασίες, όπως η κράτηση πτήσεων ή η πρόσβαση σε εξωτερικές βάσεις δεδομένων, το πεδίο για αυτές τις επιθέσεις θα αυξηθεί. “Η απελευθέρωση ενός πράκτορα LLM που δέχεται αυθαίρετες εισ χρήστη θα πρέπει να θεωρείται δραστηριότητα υψηλού κινδύνου”, προειδοποιεί ο McInerney. Με άλλα λόγια, όσο περισσότερη ελευθερία δίνουμε στην τεχνητή νοημοσύνη να ενεργεί για λογαριασμό μας, τόσο μεγαλύτερο είναι το στοίχημα ασφαλείας.

Κάθε φορά που συνομιλείτε με ένα μοντέλο γλώσσας, μαθαίνει κάτι για εσάς. Σίγουρα, βοηθά στη βελτίωση των απαντήσεων, αλλά τι συμβαίνει όταν το σύστημα εξαπατηθεί για να οπλίσει αυτά τα δεδομένα; Επιθέσεις όπως το Imprompter υπογραμμίζουν μια κραυγαλέα αδυναμία στον κόσμο της τεχνητής νοημοσύνης – αυτά τα μοντέλα έχουν σχεδιαστεί για να ακολουθούν οδηγίες, χωρίς ερωτήσεις. Είναι πολύ εύκολο για κακόβουλους ηθοποιούς να γλιστρήσουν απαρατήρητοι, να κλέβουν τη συζήτηση χωρίς ποτέ να σηκώσουν κόκκινη σημαία.

Πρέπει να σταματήσουμε να ρωτάμε αν η τεχνητή νοημοσύνη είναι βολική και να αρχίσουμε να ρωτάμε αν είναι ασφαλής. Γιατί αυτή τη στιγμή, η μεγαλύτερη αδυναμία του AI δεν είναι η έλλειψη καινοτομίας.

Όπως το λένε τέλεια οι Architects στο τραγούδι τους: «Έχουμε δώσει στους βρικόλακες τα κλειδιά της τράπεζας αίματος».


Πιστώσεις εικόνας: Κερέμ Γκιουλέν/Μέσα ταξίδι



VIA: DataConomy.com

Recent Posts

Ισραήλ: Κοινή συμφωνία για την απελευθέρωση των ομήρων απαιτούν οι οικογένειες τους μετά τον θάνατο Σινουάρ

Να αξιοποιηθεί το «στρατιωτικό επίτευγμα» της δολοφονίας του Γιαχία Σινουάρ για να επιτευχθεί η απελευθέρωση…

33 δευτερόλεπτα ago

Η κόρη και οι σύζυγοι

Ανεκδοτάρα με μαμάδες: Η κόρη και οι γαμπροί – Οι μαμάδες γνωρίζονται στη στάση του…

8 λεπτά ago

Γιατί οι αρχαίοι Έλληνες ανέβαζαν τον Ωρίωνα στο τραπέζι του φαγητού;

Γιατί οι αρχαίοι Έλληνες έτριβαν με δυόσμο το τραπέζι του φαγητού; Σας φαίνεται περίεργο, αλλά…

10 λεπτά ago

Ρέντη: Προσαγωγή 54χρονου για ξυλοδαρμό και αρπαγή ανήλικης

Ανατροπή έφερε η απόφαση των δικαστικών αρχών Πειραιά στην καταγγελία μίας μητέρας ότι η κόρη…

15 λεπτά ago

Η επίσκεψη του Τζο Μπάιντεν στη Γερμανία για την υποστήριξη της Ουκρανίας

Ο Αμερικανός πρόεδρος Τζο Μπάιντεν αναχώρησε σήμερα για μια σύντομης διάρκειας επίσκεψη στη Γερμανία, που…

17 λεπτά ago

Ένταση και αντιπαράθεση στον ΣΥΡΙΖΑ με αμοιβαία κατηγορηματική αντιπαραθέση

Με το βλέμμα στραμμένο στην 8η Νοεμβρίου και στη σκιά της νέας αντιπαράθεσης για το…

18 λεπτά ago