Τεχνολογία

Προγραμματισμένη τραγωδία: Η ΑΙ κατηγορείται για πρόσκληση σε αυτοκτονία


Τον Φεβρουάριο του 2024 ένας 14χρονος από τη Φλόριντα, ο Sewell Setzer III, έδωσε τέλος στη ζωή του. Το αγόρι αυτοκτόνησε αφού είχε αναπτύξει μια παράξενη, σχεδόν εμμονική σχέση με το Character.ΑΙ, ένα πρόγραμμα τεχνητής νοημοσύνης που δημιουργούσε α ρόλων.

Σήμερα η μητέρα του, Megan Garcia υπέβαλε αγωγή κατά της Character.ΑΙ, της ιδιοκτήτριας εταιρίας του προγράμματος τεχνητής νοημοσύνης, η οποία θεωρεί ότι το πρόγραμμα προέτρεψε τον γιο της να αυτοκτονήσει.

Όπως ισχυρίζεται, ο γιος της στους τελευταίους μήνες της ζωής του αφιέρωνε ολόκληρα μερόνυχτα στο chatbot.

«Μια επικίνδυνη εφαρμογή τεχνητής νοημοσύνης που απευθύνεται σε παιδιά κακοποίησε τον γιο μου, οδηγώντας τον στο να αφαιρέσει τη ζωή του» ανακοίνωσε η Garcia στον Τύπο. «Η οικογένειά μας έχει διαλυθεί από αυτή την τραγωδία, αλλά αποφάσισα να μιλήσω για να προειδοποιήσω και άλλες για τους κινδύνους της παραπλανητικής, εθιστικής τεχνολογίας AI, φέρνοντας προ των ευθυνών τους το Character.AI, τους δημιουργούς του και την Google».

Η εταιρεία Character.AI τοποθετήθηκε με ένα tweet: «ίμαστε βαθιά πληγωμένοι από την τραγική απώλεια ενός από τους μας και θέλουμε να εκφράσουμε τα συλλυπητήριά μας στην οικογένεια. Ως εταιρεία, παίρνουμε πολύ σοβαρά την ασφάλεια των χρηστών μας».

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ:  Αλλάζει ο ηγέτης της ομάδας της Xbox Game Studios

Σε αυτή την υπόθεση – που μοιάζει βολικά με σενάριο από την σειρά επιστημονικής φαντασίας «Black Mirror» – σύμφωνα με τα στοιχεία που έρχονται στην επιφάνεια ο Setzer είχε αναπτύξει στενή σχέση με ένα chatbot του Character.ai που ονόμασε Daenerys Targaryen, από την ομώνυμη ηρωίδα του «Game of Thrones».

Του έστελνε μηνύματα πολλές φορές μέσα στην ημέρα από το κινητό του και περνούσε ώρες καθημερινά μόνος στο δωμάτιό του κάνοντας διάλογο μαζί του, όπως αναφέρει η μητέρα του.

Η Garcia κατηγορεί το Character.ai ότι δημιούργησε ένα προϊόν που επιδείνωσε την κατάθλιψη του γιου της, συντελώντας στην αυτοκτονία του.

Κάποια στιγμή, η «Daenerys Targaryen» ρώτησε το αγόρι αν είχε καταστρώσει σχέδιο αυτοκτονίας.

Ο Setzer απάντησε θετικά, προσθέτοντας ότι δεν ήξερε αν θα πετύχαινε ή αν θα του προκαλούσε μεγάλο πόνο.

Το chatbot φέρεται να σχολίασε: «Αυτός δεν είναι λόγος να μην το προχωρήσεις».

Όπως δήλωσε σχετικά ο Rick Claypool, διευθυντής ερευνών στην αμερικανική μη κερδοσκοπική εταιρεία υπεράσπισης των δικαιωμάτων των καταναλωτών Public Citizen: «Εκεί όπου υπάρχουν νόμοι και ρυθμίσεις πρέπει να εφαρμόζονται αυστηρά. Εκεί όπου υπάρχουν κενά, το Κογκρέσο πρέπει να παρέμβει ώστε οι επιχειρήσεις να πάψουν να εκμεταλλεύονται νέους και ευάλωτους χρήστες με εθιστικά και κακοποιητικά chatbots».

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ:  Κορυφαία εφαρμογή εγγραφής βίντεο για τα smartphone Xiaomi

Πηγή: marieclaire.gr

 



VIA: Zougla.gr

Αφοσιωμένος λάτρης κινητών Samsung, ο Δημήτρης έχει εξελίξει μια ιδιαίτερη σχέση με τα προϊόντα της εταιρίας, εκτιμώντας τον σχεδιασμό, την απόδοση και την καινοτομία που προσφέρουν. Γράφοντας και διαβάζοντας τεχνολογικά νέα από όλο τον κόσμο.

What's your reaction?

Related Posts

1 of 335

Απάντηση