Πώς αποφασίζει το ChatGPT τι θα πει στη συνέχεια; – Η γρήγορη εξήγηση

Το ChatGPT και άλλα chatbot που οδηγούνται από την τεχνητή νοημοσύνη μπορούν να μιλήσουν άπταιστα, με γραμματικά ορθές προτάσεις που μπορεί ακόμη και να έχουν φυσικό ρυθμό. Αλλά μην παρασυρθείτε στο να μπερδέψετε αυτόν τον καλά εκτελεσμένο λόγο για σκέψη, συναίσθημα ή ακόμα και πρόθεση, λένε οι ειδικοί.

Ο τρόπος με τον οποίο λειτουργεί ένα chatbot μοιάζει πολύ περισσότερο με μια μηχανή που εκτελεί μαθηματικούς υπολογισμούς και στατιστική ανάλυση για να καλεί τις σωστές λέξεις και προτάσεις ανάλογα με το πλαίσιο, είπαν οι ειδικοί. Υπάρχει πολλή εκπαίδευση στο backend που βοηθά στην προσομοίωση λειτουργικών συνομιλιών.

Τα ρομπότ όπως το ChatGPT εκπαιδεύονται επίσης σε μεγάλους όγκους συνομιλιών που έχουν διδάξει στα μηχανήματα πώς να αλληλεπιδρούν με ανθρώπινους χρήστες. Η OpenAI, η εταιρεία πίσω από το ChatGPT , λέει στον ιστότοπό της ότι τα μοντέλα της λαμβάνουν οδηγίες για πληροφορίες από μια σειρά πηγών, συμπεριλαμβανομένων των χρηστών και του υλικού που έχει αδειοδοτήσει.

Τεχνητή Νοημοσύνη: Πώς λειτουργούν αυτά τα chatbots

Τα chatbots AI, όπως το ChatGPT του OpenAI, βασίζονται σε μεγάλα γλωσσικά μοντέλα ή LLM, τα οποία είναι προγράμματα που εκπαιδεύονται σε όγκους κειμένου που λαμβάνονται από δημοσιευμένη γραφή και πληροφορίες στο διαδίκτυο — γενικά περιεχόμενο που παράγεται από ανθρώπους.

Τα συστήματα εκπαιδεύονται σε σειρές λέξεων και μαθαίνουν τη σημασία των λέξεων. Έτσι, όλη αυτή η εμποτισμένη γνώση όχι μόνο εκπαιδεύει μεγάλα γλωσσικά μοντέλα σε τεκμηριωμένες πληροφορίες , αλλά τους βοηθά και σε μοτίβα ομιλίας και στον τρόπο με τον οποίο οι λέξεις συνήθως χρησιμοποιούνται και ομαδοποιούνται.

Τα chatbot εκπαιδεύονται επίσης περαιτέρω από τους ανθρώπους σχετικά με το πώς να παρέχουν κατάλληλες απαντήσεις και να περιορίζουν τα επιβλαβή μηνύματα.

«Μπορείτε να πείτε, “Αυτό είναι τοξικό, αυτό είναι πολύ πολιτικό, αυτό είναι άποψη” και να το πλαισιώσετε για να μην δημιουργήσετε αυτά τα προβλήματα», δήλωσε ο Kristian Hammond, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο Northwestern. Ο Hammond είναι επίσης διευθυντής του Κέντρου Προώθησης της Ασφάλειας Μηχανικής Ευφυΐας του πανεπιστημίου.

Όταν ζητάτε από ένα chatbot να απαντήσει σε μια απλή τεκμηριωμένη ερώτηση, η διαδικασία ανάκλησης μπορεί να είναι απλή: Πρόκειται για την ανάπτυξη ενός συνόλου αλγορίθμων για την επιλογή της πιο πιθανής πρότασης για την απάντηση. Και επιλέγει τις καλύτερες δυνατές αποκρίσεις μέσα σε χιλιοστά του δευτερολέπτου, και από αυτές τις κορυφαίες επιλογές, παρουσιάζει μία τυχαία. (Γι’ αυτό το να κάνετε την ίδια ερώτηση επανειλημμένα μπορεί να δημιουργήσει ελαφρώς διαφορετικές απαντήσεις).

Μπορεί επίσης να αναλύσει τις ερωτήσεις σε πολλά μέρη, απαντώντας σε κάθε μέρος με τη σειρά και χρησιμοποιώντας τις απαντήσεις του για να το βοηθήσει να ολοκληρώσει τις απαντήσεις.

Ας υποθέσουμε ότι ζητήσατε από το ρομπότ να ονομάσει έναν πρόεδρο των ΗΠΑ που έχει το πρώτο όνομα του πρωταγωνιστική της ταινίας “Camelot”. Το ρομπότ μπορεί να απαντήσει πρώτα ότι ο εν λόγω ηθοποιός είναι ο Ρίτσαρντ Χάρις και στη συνέχεια να χρησιμοποιήσει αυτήν την απάντηση για να σας δώσει τον Ρίτσαρντ Νίξον ως απάντηση στην αρχική σας ερώτηση, είπε ο Kristian Hammond.

“Οι δικές της απαντήσεις νωρίτερα έγιναν μέρος της προτροπής”, πρόσθεσε.

Προσέξτε τι δεν γνωρίζουν τα chatbot

Τι συμβαίνει όταν του κάνετε μια ερώτηση στην οποία δεν γνωρίζει την απάντηση; Εκεί τα chatbot δημιουργούν τα περισσότερα προβλήματα λόγω ενός εγγενούς χαρακτηριστικού — δεν ξέρουν τι δεν ξέρουν. Έτσι κάνουν παρέκταση, με βάση αυτά που γνωρίζουν — δηλαδή, κάνουν μια εικασία. 

Αλλά δεν σας λένε ότι μαντεύουν – μπορεί απλώς να παρουσιάσουν πληροφορίες ως γεγονός. Όταν ένα chatbot επινοεί πληροφορίες που παρουσιάζει σε έναν χρήστη ως πραγματικές, ονομάζεται “ψευδαίσθηση”.

«Αυτό είναι αυτό που ονομάζουμε μεταγνώση», είπε ο William Wang, αναπληρωτής καθηγητής που διδάσκει επιστήμη υπολογιστών στο Πανεπιστήμιο της Καλιφόρνια στη Σάντα Μπάρμπαρα. Είναι επίσης συνδιευθυντής της ομάδας επεξεργασίας φυσικής γλώσσας του πανεπιστημίου.  «Το μοντέλο δεν καταλαβαίνει πολύ καλά τα “γνωστά άγνωστα”», είπε.

 

Μοιράσου το:

σχολίασε κι εσύ