Η χρήση των AI ρομαντικών συντρόφων έχει γίνει όλο και πιο διαδεδομένη, με πολλές εφαρμογές chatbot να επιτρέπουν τη δημιουργία εικονικών συντρόφων. Ακόμα και αν μια εφαρμογή δεν διαφημίζει αυτή τη δυνατότητα, πολλά κανονικά chatbot μπορούν να προσφέρουν τον ρόλο του ερωτικού συντρόφου, εφόσον ρωτηθούν με τον σωστό τρόπο.
Αν και αυτό μπορεί να φαίνεται ως αθώα διασκέδαση, οι ειδικοί προειδοποιούν για σοβαρούς κινδύνους που κρύβονται πίσω από αυτήν την τεχνολογία.
Η εξέλιξη της τεχνολογίας deepfake
Η τεχνολογία deepfake έχει σημειώσει εντυπωσιακή πρόοδο τα τελευταία χρόνια, επιτρέποντας τη δημιουργία εικονικών ρομαντικών συντρόφων που φαίνονται εξαιρετικά ρεαλιστικοί.
Σύμφωνα με τον Jamie Akhtar, Συνιδρυτή και Διευθύνοντα Σύμβουλο της CyberSmart, «αν και τα avatars αγαπημένων προσώπων που έχουν πεθάνει ή οι εικονικοί σύντροφοι μπορεί να φαίνονται ακόμα λίγο αλλόκοτοι, η τεχνολογία βελτιώνεται συνεχώς». Ωστόσο, αυτή η τεχνολογία μπορεί να χρησιμοποιηθεί για κακόβουλους σκοπούς.
Η εκμετάλλευση συναισθημάτων από κυβερνοεγκληματίες
«Οι κυβερνοεγκληματίες εκμεταλλεύονται εδώ και καιρό τα ανθρώπινα συναισθήματα για να διαπράξουν επιθέσεις κοινωνικής μηχανικής. Οι πιο επιτυχημένες επιθέσεις βασίζονται σε συναισθηματικά στοιχεία, δημιουργώντας μία αίσθηση επείγοντος ή συγκινώντας το θύμα με μια φανταστική συγκινητική ιστορία», προσθέτει.
Τα deepfakes και τα griefbots ανεβάζουν το επίπεδο των επιθέσεων αυτών, καθώς υποδύονται ένα αγαπημένο πρόσωπο που έχει πεθάνει, ή έναν ερωτικό σύντροφο.
Οι συνέπειες της κακόβουλης χρήσης της AI
Τα deepfakes και τα griefbots μπορούν να χρησιμοποιηθούν για να εκβιάσουν και να κλέψουν χρήματα από θύματα ή να τα παγιδεύσουν ώστε να κατεβάσουν κακόβουλο λογισμικό.
Σύμφωνα με τον Jamie, υπάρχουν ήδη παραδείγματα τέτοιων επιθέσεων, όπως η περίπτωση ενός υπαλλήλου χρηματοοικονομικής εταιρείας που εξαπατήθηκε για να πληρώσει $25 εκατομμύρια σε κυβερνοεγκληματίες που προσποιούνταν τον επικεφαλής οικονομικό διευθυντή της επιχείρησης, χρησιμοποιώντας τεχνολογία deepfake.
Καθώς η τεχνολογία εξελίσσεται και γίνεται πιο προσιτή, αναμένεται να τη δούμε να χρησιμοποιείται ολοένα και περισσότερο κατά ατόμων και επιχειρήσεων.
Προστασία από κινδύνους
Για να προστατευτείς, είναι σημαντικό να χρησιμοποιείς μόνο επίσημες, γνωστές και καλά αξιολογημένες εφαρμογές όταν μιλάς με chatbots.
Αποφεύγεις τη λήψη chatbots από third-party καταστήματα εφαρμογών ή από αμφίβολες ιστοσελίδες, καθώς δεν ξέρεις ποιος κρύβεται πίσω από την τεχνητή νοημοσύνη.
Επίσης, ακόμα και με επίσημα chatbots, δεν πρέπει να μοιράζεσαι πολλά προσωπικά δεδομένα, καθώς αυτά μπορούν να διαρρεύσουν και να χρησιμοποιηθούν εναντίον σου και σίγουρα μην συμφωνείτε να στείλετε χρήματα
Οι ειδικοί έχουν προειδοποιήσει εδώ και καιρό ότι δεν πρέπει να μοιράζεστε πάρα πολλές ιδιωτικές πληροφορίες με κανένα chatbot—ακόμα και σε γνωστές εφαρμογές όπως το ChatGPT του OpenAI ή το Google Gemini.
Η καλοπροαίρετη συμπεριφορά απέναντι σε chatbots μπορεί να δημιουργήσει ένα ψευδές αίσθημα ασφάλειας, ειδικά όταν μιλάς με chatbots που έχουν δημιουργηθεί από άγνωστα τρίτα μέρη/third parties.
Μην ξεχνάς ότι τα chatbots πρέπει να αντιμετωπίζονται ως άγνωστοι στο διαδίκτυο και μην κάνεις λάθη που μπορούν να ωφελήσουν κυβερνοεγκληματίες.
«Υπάρχουν αρκετές ανησυχίες σχετικά με την ασφάλεια και το απόρρητο των AI που παίζουν τον ρόλο κοριτσιών/αγοριών και των griefbots» δήλωσε ο Chris Hauk, Υποστηρικτής Απορρήτου Καταναλωτών στην Pixel Privacy, μιλώντας στην Sun.
«Αυτές οι εφαρμογές συλλέγουν πολλές πληροφορίες σχετικά με τους χρήστες τους, χρησιμοποιούν trackers που στέλνουν πληροφορίες πίσω σε εταιρείες στην Κίνα και τη Ρωσία, καθώς και σε άλλες εταιρείες που αναζητούν δεδομένα, όπως η Facebook και η Google. Πολλές από αυτές τις εφαρμογές δεν διευκρινίζουν ποια δεδομένα μοιράζονται με τρίτους, ούτε είναι σαφείς σχετικά με την τεχνητή νοημοσύνη που χρησιμοποιούν. Καθώς οι χρήστες νιώθουν πιο άνετα στη συνομιλία με ένα bot τεχνητής νοημοσύνης, είναι πιθανό να αποκαλύψουν επιπλέον πληροφορίες για τον εαυτό τους»
Πηγή: FOXreport.gr