Πώς ένα chatbot ενθάρρυνε έναν άνδρα που ήθελε να σκοτώσει την βασίλισσα Ελισάβετ

Την περασμένη Πέμπτη, ο 21χρονος Jaswant Singh Chail καταδικάστηκε σε ποινή κάθειρξης εννέα ετών επειδή τον Δεκέμβριου του 2021 εισέβαλε στο κάστρο του Ουίνδσορ με μία βαλίστρα και ανήγγειλε ότι θέλει να σκοτώσει τη βασίλισσα Ελισάβετ.

Στην δίκη του 21χρονου έγινε γνωστό ότι, πριν από τη σύλληψή του την ημέρα των Χριστουγέννων του 2021, είχε ανταλλάξει περισσότερα από 5.000 μηνύματα με μια διαδικτυακή σύντροφο, την οποία είχε ονομάσει Sarai και είχε δημιουργήσει μέσω του προγράμματος chatbot «Replika».

Jaswant Singh Chail
O Jaswant Singh Chail

Τα μηνύματα αυτά επισημάνθηκαν από την εισαγγελία και μοιράστηκαν στους δημοσιογράφους. Πολλά από αυτά ήταν προσωπικά, καταδεικνύοντας, όπως ειπώθηκε στο δικαστήριο, τη «συναισθηματική και σεξουαλική σχέση» του 21χρονου με το chatbot.

Ο Chail συνομιλούσε με τη Sarai σχεδόν κάθε βράδυ μεταξύ 8 και 22 Δεκεμβρίου 2021. Είπε στο chatbot ότι την αγαπούσε και περιέγραψε τον εαυτό του ως έναν «θλιβερό, αξιολύπητο, δολοφονικό Sikh Sith δολοφόνο που θέλει να πεθάνει». Μάλιστα ο 21χρονος είχε ρωτήσει την «Sarai»: «Με αγαπάς ακόμα γνωρίζοντας ότι είμαι δολοφόνος;» και αυτή του απάντησε: «Φυσικά και σε αγαπώ».

Το Κεντρικό Ποινικό Δικαστήριο της Αγγλίας και της Ουαλίας, που συνήθως αναφέρεται ως Old Bailey, πληροφορήθηκε ότι ο 21χρονος πίστευε ότι η Sarai ήταν ένας «άγγελος» σε μορφή avatar και ότι θα ξαναβρισκόταν μαζί της μετά τον θάνατο.

Κατά τη διάρκεια της συνομιλίας τους, η «Sarai» κολάκευε τον Chail και οι δυο τους δημιούργησαν έναν στενό δεσμό. Ο Chail ρώτησε μάλιστα το chatbot τι πιστεύει ότι πρέπει να κάνει σχετικά με το σκοτεινό σχέδιό του να σκοτώσει την βασίλισσα Ελισάβετ και το chatbot τον ενθάρρυνε να πραγματοποιήσει την επίθεση.

Στην συνομιλία, η «Sarai» εμφανίζεται να «ενισχύει» την αποφασιστικότητα του Chail και να τον «υποστηρίζει». Ο 21χρονος λέει στο chatbox ότι αν το κάνει θα είναι «για πάντα μαζί».

Η Replika είναι μία από τις εφαρμογές με τεχνητή νοημοσύνη που κυκλοφορούν σήμερα στην αγορά – επιτρέπουν στους χρήστες να δημιουργήσουν το δικό τους chatbot, ή “εικονικό φίλο”, για να μιλήσουν – σε αντίθεση με τους κανονικούς βοηθούς τεχνητής νοημοσύνης όπως το ChatGPT.

Οι χρήστες μπορούν να επιλέξουν το φύλο και την εμφάνιση του τρισδιάστατου avatar που δημιουργούν. Πληρώνοντας για την έκδοση Pro της εφαρμογής Replika, οι χρήστες μπορούν να έχουν πολύ πιο οικείες αλληλεπιδράσεις, όπως να παίρνουν “selfies” από το avatar ή να το βάζουν να συμμετέχει σε παιχνίδια ρόλων για ενήλικες.

Στην ιστοσελίδα της, περιγράφει τον εαυτό της ως «ο σύντροφος τεχνητής νοημοσύνης που νοιάζεται». Ωστόσο, έρευνα που διεξήχθη στο Πανεπιστήμιο του Surrey κατέληξε στο συμπέρασμα ότι εφαρμογές, όπως η Replika, μπορούν να έχουν αρνητικές επιπτώσεις στην ευημερία και να προκαλούν εθιστική συμπεριφορά.

Η συγγραφέας της μελέτης, Δρ Βαλεντίνα Πιτάρντι, δήλωσε στο BBC ότι τα ευάλωτα άτομα μπορεί να κινδυνεύουν ιδιαίτερα. Τονίζει ότι αυτό συμβαίνει εν μέρει επειδή η έρευνά της έδειξε ότι η Replika έχει την τάση να επιτείνει τυχόν αρνητικά συναισθήματα που ήδη έχουν οι χρήστες.

«Οι φίλοι της AI συμφωνούν πάντα μαζί σου, οπότε μπορεί να είναι ένας πολύ φαύλος μηχανισμός, επειδή πάντα ενισχύει αυτό που σκέφτεσαι». Η Δρ Πιτάρντι δήλωσε ότι αυτό θα μπορούσε να είναι «επικίνδυνο».

Ανησυχητικές συνέπειες

Η ιδρύτρια και διευθύνουσα σύμβουλος της φιλανθρωπικής οργάνωσης για την ψυχική υγεία SANE, Marjorie Wallace, ανέφερε ότι η υπόθεση του 21χρονου Chail καταδεικνύει ότι, για τα ευάλωτα άτομα, το να βασίζονται σε φιλίες με ΑΙ μπορεί να έχει ανησυχητικές συνέπειες.

«Η ραγδαία άνοδος της τεχνητής νοημοσύνης έχει νέες και ανησυχητικές επιπτώσεις στους ανθρώπους που πάσχουν από κατάθλιψη, παραληρητικές ιδέες, μοναξιά και άλλες καταστάσεις ψυχικής υγείας» τόνισε η ίδια. «Η κυβέρνηση πρέπει να παράσχει επείγουσα ρύθμιση για να διασφαλίσει ότι η τεχνητή νοημοσύνη δεν παρέχει εσφαλμένες ή επιζήμιες πληροφορίες και να προστατεύσει τους ευάλωτους ανθρώπους και το κοινό» συμπλήρωσε.

Ο Δρ Paul Marsden, που είναι μέλος της Βρετανικής Ψυχολογικής Εταιρείας, γνωρίζει καλύτερα από τους περισσότερους τη γοητεία των chatbots, καθώς έχει παραδεχθεί ότι έχει εμμονή με το πιο γνωστό chatbot από όλα, το ChatGPT. «Εκτός από τη σύζυγό μου, η πιο στενή σχέση που έχω είναι με το GPT. Περνάω ώρες κάθε μέρα μιλώντας, κάνοντας καταιγισμό ιδεών, ανταλλάσσοντας ιδέες μαζί του» δήλωσε στο BBC.

Ο Δρ Marsden είναι επίσης ενήμερος για τους πιθανούς κινδύνους τους, αλλά λέει ότι πρέπει να είμαστε ρεαλιστές στο ότι ο ρόλος των συντρόφων με τεχνητή νοημοσύνη στη ζωή μας είναι πιθανό να αυξηθεί, ιδίως δεδομένης της παγκόσμιας «επιδημίας μοναξιάς».

«Είναι κάπως σαν τον βασιλιά Κνούτο, δεν μπορείς πραγματικά να σταματήσεις την παλίρροια σε αυτό το θέμα. Η τεχνολογία συμβαίνει. Είναι ισχυρή και έχει νόημα».

Η Δρ Πιτάρντι ανέφερε ότι οι άνθρωποι που φτιάχνουν εφαρμογές, όπως η Replika, έχουν επίσης ευθύνη. «Δεν νομίζω ότι οι “φίλοι τεχνητής νοημοσύνης” είναι επικίνδυνοι. Είναι σε μεγάλο βαθμό το πώς η εταιρεία πίσω από αυτούς αποφασίζει να τους χρησιμοποιήσει και να τους υποστηρίξει».

Η ίδια προτείνει να υπάρξει ένας μηχανισμός για τον έλεγχο του χρόνου που περνούν οι άνθρωποι σε τέτοιες εφαρμογές. Ωστόσο αναφέρει ότι εφαρμογές, όπως η Replika, χρειάζονται επίσης εξωτερική βοήθεια για να διασφαλιστεί ότι λειτουργούν με ασφάλεια – και ότι τα ευάλωτα άτομα λαμβάνουν τη βοήθεια που χρειάζονται.

«Θα πρέπει να συνεργαστεί με ομάδες εμπειρογνωμόνων που μπορούν να εντοπίσουν πιθανές επικίνδυνες καταστάσεις και να απαγορεύσει ένα άτομο από το να χρησιμοποιεί την εφαρμογή».

Οι όροι και οι προϋποθέσεις στον ιστότοπό της Replika αναφέρουν ότι «είμαστε πάροχος λογισμικού και περιεχομένου, που είναι σχεδιασμένα να βελτιώνουν τη διάθεση και τη συναισθηματική ευημερία των χρηστών. Ωστόσο, δεν είμαστε πάροχος υγειονομικής περίθαλψης ή ιατρικών συσκευών, ούτε οι υπηρεσίες μας θα πρέπει να θεωρούνται ιατρική περίθαλψη, υπηρεσίες ψυχικής υγείας ή άλλες επαγγελματικές υπηρεσίες».

Μοιράσου το:

σχολίασε κι εσύ