«Τεμπελιάζει» το ChatGPT; Έρευνα της OpenAI έπειτα από δεκάδες αναφορές χρηστών

Οι χρήστες του ChatGPT γκρινιάζουν ότι το δημοφιλές chatbot «τεμπελιάζει» και αρνείται να ολοκληρώσει ορισμένα πολύπλοκα αιτήματα. Η δημιουργός του, OpenAI, έχει ξεκινήσει έρευνα για την περίεργη «συμπεριφορά» του ChatGPT .

Τα social media, όπως το X και το Reddit, καθώς και το forum προγραμματιστών της OpenAI, έχουν γεμίσει με αναφορές ότι το ChatGPT αντιστέκεται σε εντολές, όπως αιτήματα για να βοηθήσει τους χρήστες να γράψουν κώδικα και αιτήματα να μεταγράψει τμήματα κειμένου.

Η παράξενη αυτή «συμπεριφορά» έχει εμφανιστεί καθώς η OpenAI που υποστηρίζεται από τη Microsoft, αντιμετωπίζει έντονο ανταγωνισμό από προϊόντα γεννητικής τεχνητής νοημοσύνης άλλως εταιρειών, συμπεριλαμβανομένης της Google, η οποία κυκλοφόρησε πρόσφατα το δικό της εργαλείο chatbot «Gemini».

Στα τέλη του περασμένου μήνα, ο Matt Wensing δημοσίευσε ένα screenshot, το οποίο έδειχνε μία συζήτηση με το ChatGPT. Ο Wensing ζητούσε από το chatbot να «απαριθμήσει όλες τις εβδομάδες από τώρα έως τις 5 Μαΐου 2024». Εκείνο αρχικά αρνήθηκε, ισχυριζόμενο ότι «δεν μπορεί να δημιουργήσει μια λίστα κάθε μεμονωμένης εβδομάδας» αλλά τελικά συμμορφώθηκε όταν ο Wensing επέμεινε.

«Το GPT έχει σίγουρα γίνει πιο ανθεκτικό στο να κάνει κουραστικές εργασίες. Ουσιαστικά σας δίνει ένα μέρος της απάντησης και μετά σας λέει να κάνετε τα υπόλοιπα» έγραψε ο Wensing στις 27 Νοεμβρίου.

Σε ένα δεύτερο παράδειγμα, ο Wensing ζήτησε από το ChatGPT να δημιουργήσει μερικές δεκάδες γραμμές κώδικα. Αντ’ αυτού, το chatbot του παρείχε ένα πρότυπο και του είπε να «ακολουθήσει αυτό το μοτίβο» για να ολοκληρώσει την εργασία. 

Σε μια άλλη viral περίπτωση, το ChatGPT αρνήθηκε το αίτημα ενός χρήστη να μετατρέψει μία εικόνα από ένα βιβλίο σε κείμενο.

Τι αναφέρει η OpenAI για το πρόβλημα

Οι υπεύθυνοι του ChatGPT επιβεβαίωσαν ότι ερευνούν την κατάσταση. «Έχουμε ακούσει όλα τα σχόλιά σας σχετικά με το GPT4 που γίνεται πιο τεμπέλικο! Δεν έχουμε ενημερώσει το μοντέλο από τις 11 Νοεμβρίου και αυτό σίγουρα δεν είναι σκόπιμο. Η συμπεριφορά του μοντέλου μπορεί να είναι απρόβλεπτη και εξετάζουμε το ενδεχόμενο να το διορθώσουμε».

Η OpenAI διευκρίνισε αργότερα ότι «δεν άλλαξε μόνο του το μοντέλο από τις 11 Νοεμβρίου». «Απλώς οι διαφορές στη συμπεριφορά του μοντέλου μπορεί να είναι ανεπαίσθητες – μόνο ένα υποσύνολο προτροπών μπορεί να υποβαθμιστεί και μπορεί να χρειαστεί πολύς χρόνος για τους πελάτες και τους υπαλλήλους να παρατηρήσουν και να διορθώσουν αυτά τα μοτίβα», δήλωσε η εταιρεία.

Προβλήματα με τα chatbots

Το ChatGPT και άλλα chatbots έχουν αυξήσει τη δημοτικότητά τους από πέρυσι. Ωστόσο, οι ειδικοί έχουν εκφράσει ανησυχίες σχετικά με την τάση τους να “έχουν παραισθήσεις” ή να δίνουν ψευδείς και ανακριβείς πληροφορίες.

Μια πρόσφατη μελέτη που διεξήχθη από ερευνητές του Πανεπιστημίου του Λονγκ Άιλαντ διαπίστωσε ότι το ChatGPT απάντησε εσφαλμένα σε περίπου 75% των ερωτήσεων σχετικά με τη χρήση συνταγογραφούμενων φαρμάκων – και έδωσε ορισμένες απαντήσεις που θα προκαλούσαν βλάβη στους ασθενείς.

πηγή: FOXreport.gr

Προσοχή νέα χριστουγεννιάτικη απάτη: Διαγράψτε αμέσως το email αν δείτε αυτήν την φράση

Light No Fire: Το νέο παιχνίδι που έκλεψε λίγη από τη λάμψη του GTA 6 – Δείτε το εντυπωσιακό τρέιλερ

Μοιράσου το:

σχολίασε κι εσύ