Οι επιστήμονες του Πανεπιστημίου του Σικάγο κυκλοφόρησαν αυτήν την εβδομάδα το Nightshade 1.0, ένα εργαλείο που δημιουργήθηκε για την προστασία των δημιουργών περιεχομένου από την κλοπή των έργων τους από μοντέλα τεχνητής νοημοσύνης.
Το Nightshade είναι ένα εργαλείο που χρησιμοποιείται για να κάνει πιο δύσκολο για τα μοντέλα AI να μάθουν από δεδομένα που έχουν συλλεχθεί χωρίς άδεια. Λειτουργεί προσθέτοντας κρυφά σφάλματα στα δεδομένα που χρησιμοποιούνται για εκπαίδευση, τα οποία κάνουν τα μοντέλα λιγότερο αποτελεσματικά στην αναγνώριση εικόνας.
Το Nightshade ανήκει στην ίδια κατηγορία προγραμμάτων με άλλο ένα εργαλείο που ονομάζεται Glaze, με στόχο την προστασία των έργων των δημιουργών περιεχομένου και των καλλιτεχνών.
Ουσιαστικά το Nightshade είναι ένα εργαλείο που «δηλητηριάζει» αρχεία εικόνας για να τα κάνει δυσνόητα και δυσδιάκριτα στα μοντέλα μηχανικής εκμάθησης. Αυτό το εργαλείο έχει σχεδιαστεί για να αναγκάσει τα μοντέλα εκμάθησης εικόνας να σέβονται τις επιθυμίες των δημιουργών περιεχομένου σχετικά με τη χρήση του έργου τους.
«Το Nightshade λειτουργεί ως πολυπαραμετρική βελτιστοποίηση του αποτελέσματος, η οποία έχει ως στόχο να ελαχιστοποιήσει τις ορατές αλλαγές στην αρχική εικόνα» ανέφερε η ομάδα που ήταν υπεύθυνη για το project.
«Για παράδειγμα, τα ανθρώπινα μάτια μπορούν να δουν την εικόνα μιας αγελάδας σε ένα καταπράσινο λιβάδι σε μεγάλο βαθμό αμετάβλητη, αλλά ένα μοντέλο AI μπορεί να δει μια μεγάλη δερμάτινη τσάντα να βρίσκεται στο γρασίδι».
Το Nightshade δημιουργήθηκε από τους διδακτορικούς φοιτητές του Πανεπιστημίου του Σικάγο Shawn Shan, Wenxin Ding και Josephine Passananti και τους καθηγητές Heather Zheng και Ben Zhao, μερικοί από τους οποίους βοήθησαν επίσης στην ανάπτυξη του Glaze.
Τα δύο εργαλεία μπορούν να δουλέψουν συμπληρωματικά, καθώς το Nightshade μπορεί να χρησιμοποιηθεί για να δυσκολέψει την εκπαίδευση μοντέλων μηχανικής εκμάθησης σε δεδομένα που έχουν συλλεχθεί χωρίς άδεια, ενώ το Glaze μπορεί να χρησιμοποιηθεί για να βοηθήσει τους δημιουργούς περιεχομένου να προστατεύσουν τα έργα τους από την αναπαραγωγή.
Το «δηλητήριο» στις εικόνες
Το Nightshade, όπως περιγράφεται σε μια ερευνητική εργασία τον Οκτώβριο του 2023, είναι «τεχνική δηλητηρίασης δεδομένων» που το κάνει να δίνει λάθος απάντηση. Η «δηλητηρίαση» μιας εικόνας περιλαμβάνει την επιλογή μιας ετικέτας (π.χ. μια γάτα) που αντιστοιχεί στην πραγματική περιγραφή της εικόνας, με σκοπό να θολώσει τα όρια της έννοιας αυτής της ετικέτας, κατά τη διάρκεια της εκπαίδευσης του μοντέλου.
Στο συγκεκριμένο παράδειγμα, το Nightshade μπορεί να χρησιμοποιηθεί για να μπερδέψει ένα μοντέλο που αναγνωρίζει εικόνες γατών. Το Nightshade θα μπορούσε να προσθέσει κρυφές αλλαγές σε εικόνες γατών, όπως ψευδείς λεπτομέρειες ή θόρυβο. Αυτό θα μπορούσε να κάνει το μοντέλο να μπερδευτεί και να αναγνωρίσει μια γάτα ως κάτι άλλο, όπως έναν σκύλο ή ένα ψάρι.
Έτσι, ένα άτομο που χρησιμοποιεί ένα μοντέλο το οποίο έχει εκπαιδευτεί σε εικόνες δηλητηριασμένες με Nightshade ενδέχεται να εισάγει μια εντολή για μια γάτα και να λάβει μια ειδοποίηση για μια εικόνα σκύλου ή ψαριού. Αυτού του είδους οι απρόβλεπτες απαντήσεις καθιστούν τα μοντέλα text-to-image λιγότερο χρήσιμα, γεγονός που σημαίνει ότι οι δημιουργοί των μοντέλων έχουν κίνητρο να χρησιμοποιούν μόνο δεδομένα που έχουν ληφθεί με νόμιμο τρόπο.
«Το Nightshade μπορεί να προσφέρει ένα ισχυρό εργαλείο για τους κατόχους περιεχομένου ώστε να προστατεύσουν την πνευματική τους ιδιοκτησία από εκπαιδευτές μοντέλων που παραβλέπουν ή αγνοούν ειδοποιήσεις για τα πνευματικά δικαιώματα, οδηγίες μη χρήσης ιστοσελίδων ή περιεχομένου χωρίς άδεια και λίστες μη συμμετοχής» αναφέρουν οι συγγραφείς στην εργασία τους.
Η έλλειψη σεβασμού των επιθυμιών των δημιουργών και των κατόχων έργων τέχνης οδήγησε στην κατάθεση μιας αγωγής πέρυσι, ως μέρος μιας ευρύτερης αντίδρασης κατά της μη εξουσιοδοτημένης συλλογής δεδομένων για την προώθηση των επιχειρήσεων τεχνητής νοημοσύνης.
Στη μήνυση, που υποβλήθηκε εκ μέρους πολλών καλλιτεχνών εναντίον της Stability AI, της Deviant Art και της Midjourney, υποστηρίζεται ότι το μοντέλο Stable Diffusion που χρησιμοποιείται από τις εταιρείες αυτές ενσωματώνει το έργο των καλλιτεχνών χωρίς την άδειά τους. Η υπόθεση, στην οποία προστέθηκε τον Νοέμβριο του 2023 ένας νέος ενάγων, η Runway AI, συνεχίζει να εκδικάζεται.
Οι περιορισμοί
Οι συγγραφείς προειδοποιούν ότι το Nightshade έχει ορισμένους περιορισμούς. Συγκεκριμένα, οι εικόνες που υποβάλλονται σε επεξεργασία με το Nightshade ενδέχεται να διαφέρουν ελαφρώς από το πρωτότυπο έργο, ιδιαίτερα όταν πρόκειται για έργα τέχνης που χρησιμοποιούν επίπεδα χρώματος και ομαλό φόντο. Οι συγγραφείς αναγνωρίζουν επίσης ότι είναι πιθανό να αναπτυχθούν τεχνικές για την αναίρεση του Nightshade, αλλά πιστεύουν ότι μπορούν να αναπροσαρμόσουν το εργαλείο τους για να αντιμετωπίσουν αυτές τις απειλές.
Το Glaze, από την πλευρά του, το οποίο έφτασε στην έκδοση 1.0 τον περασμένο Ιούνιο, διαθέτει πλέον μια διαδικτυακή έκδοση και έχει αναβαθμιστεί στην έκδοση 1.1.1. Αυτό το εργαλείο τροποποιεί τις εικόνες προκειμένου να αποτρέψει τα μοντέλα τεχνητής νοημοσύνης που έχουν εκπαιδευτεί σε αυτές από το να μιμηθούν τον οπτικό στυλ του καλλιτέχνη.
Η έκδοση 1.1.1 του Glaze ενσωματώνει μια σειρά βελτιώσεων, συμπεριλαμβανομένης της δυνατότητας προσαρμογής των αλλαγών που πραγματοποιούνται στις εικόνες.
Η μίμηση του στυλ, που διατίθεται μέσω κλειστών υπηρεσιών text-to-image όπως το Midjourney και μέσω μοντέλων open source όπως το Stable Diffusion, είναι δυνατή με μία απλή εντολή σε ένα text-to-image μοντέλου να παράγει μια εικόνα στο στυλ ενός συγκεκριμένου καλλιτέχνη. Ουσιαστικά κάποιος παρέχει στο μοντέλο ένα δείγμα από το έργο του καλλιτέχνη και του ζητά να παράγει μια νέα εικόνα στο ίδιο στυλ.
«Η μίμηση του στυλ έχει μια σειρά από αρνητικές επιπτώσεις που μπορεί να μην είναι άμεσα εμφανείς. Για τους καλλιτέχνες των οποίων το στυλ αντιγράφεται σκόπιμα, αυτό μπορεί να οδηγήσει σε απώλεια παραγγελιών και εισοδήματος, αλλά και τα χαμηλής ποιότητας αντίγραφα που κυκλοφορούν στο Διαδίκτυο μπορούν προκαλέσουν την υποβάθμιση της φήμης τους και του εμπορικού σήματός τους. Επιπλέον, πολλοί καλλιτέχνες ταυτίζουν το στυλ τους με την ίδια τους την ταυτότητα», αναφέρουν οι ερευνητές, που παρομοιάζουν τη μίμηση του στυλ με κλοπή ταυτότητας και λένε ότι αποθαρρύνει τους επίδοξους καλλιτέχνες να δημιουργήσουν νέα έργα.
Η ομάδα των επιστημόνων που ανέπτυξαν τις συγκεκριμένες εφαρμογές, συνιστά στους καλλιτέχνες να χρησιμοποιούν και το Nightshade και το Glaze. Επί του παρόντος, τα δύο εργαλεία πρέπει να ληφθούν και να εγκατασταθούν ξεχωριστά, αλλά μια συνδυαστική εκδοχή βρίσκεται σε διαδικασία ανάπτυξης.
Πηγή: FOXreport.gr
Τρομακτική μελέτη: Σχεδόν το 75% των ΗΠΑ κινδυνεύει από καταστροφικούς σεισμούς – Χάρτης