Ευρετήριο – Επιστήμη – Πόσο επικίνδυνοι είναι το ChatGPT και ο Ούγγρος αδελφός του, PULI;

Όλοι έχουν ακούσει για το ChatGPT, το μεγάλο γλωσσικό μοντέλο που ονομάζεται τεχνητή νοημοσύνη που λέγεται ότι απειλεί τις δουλειές μας και καταλαμβάνει τη ζωή μας. Είναι εύκολο για εμάς να παρασυρθούμε σε τέτοιες αποκαλυπτικές φαντασιώσεις, όταν το μόνο που ξέρουμε είναι ότι η «μηχανή» που απαντά σε όλες μας τις ερωτήσεις και συνομιλεί μαζί μας σαν τον γείτονα – που, αν είναι η μετενσάρκωση του Αϊνστάιν, ξέρει την απάντηση σχεδόν σε κάθε ερώτηση. τις ερωτήσεις μας.

Θα ήταν επικίνδυνο; Με τιποτα. Ενήμερος? Σίγουρα όχι. Ευαίσθητος? Δημιουργικός? Όχι και όχι. Για να ξεκαθαρίσουμε τις παρεξηγήσεις, απευθυνθήκαμε στον Gábor Prószéky, σχεδιαστή προγράμματος, μαθηματικό, γλωσσολόγο και προγραμματιστή του ουγγρικού PULI, ο οποίος μπορεί να θεωρηθεί ο μικρότερος αδελφός του ChatGPT. Κέντρο Γλωσσικών Ερευνών Το αφεντικό του.

Ανθρώπινο μοντέλο

Όταν το πρόγραμμα συνομιλίας του OpenAI ξεκίνησε τα τρία τέταρτα του έτους πριν, κανείς δεν πίστευε ότι θα ήταν τόσο επιτυχημένο και θα εκτινάσσονταν την προηγούμενη σκέψη και τις γνώσεις μας σχετικά με την τεχνητή νοημοσύνη, τους υπολογιστές και τα ρομπότ. Όπως λέει ο Gábor Prószéky, «Το ChatGPT2 δεν δημοσιοποιήθηκε λόγω της ικανότητάς του να δημιουργεί ψεύτικες ειδήσεις. Έτσι, μεταξύ άλλων, αυτό το τέχνασμα μάρκετινγκ βοήθησε στην επιτυχία του ChatGPT, το οποίο βασίζεται στο GPT3, ικανό να δημιουργήσει έναν πραγματικό διάλογο με τους ανθρώπους. , και κατασκευάστηκε με τη συμμετοχή πολλών ανθρώπων. Ακριβώς για αυτόν τον λόγο οι πρώτες αντιδράσεις του συστήματος, τις οποίες έμαθε, ταξινομήθηκαν σε πραγματικές επικοινωνιακές καταστάσεις. Στη συνέχεια, οι αντιδράσεις του εξορθολογισμένου συστήματος ταξινομήθηκαν ξανά και ούτω καθεξής…»

Τα μοντέλα μας γίνονται όλο και καλύτερα, αλλά μαθαίνουν από εμάς, βασικά δεν μπορούν να εφεύρουν νέα, αλλά χρησιμοποιούν πολύ καλά τα μαθημένα μοντέλα, απλά δεν είναι διαισθητικά με την ανθρώπινη έννοια. Ούτε έχουν σκοπό.

Όπως αναφέρει ο Prószéky, ακόμη και ο χρήστης μπορεί να βελτιώσει το θέμα, οπότε νιώθουμε ότι καταλαβαίνει τι θέλουμε θεματικά, αλλά δεν υπάρχει καμία μαγεία σε αυτό, είναι απλώς ένας όγκος δεδομένων και κειμένου που δεν μπορεί να γίνει κατανοητός από ένα άτομο.

Στην πραγματικότητα, το λογισμικό δεν «καταλαβαίνει» τι παράγει, αλλά αυτό που δημιουργεί είναι πολύ πειστικό και μπορεί να είναι δημοφιλές επειδή βοηθά στην παροχή απαντήσεων «με ανθρώπινο τρόπο». Λέγεται συχνά ότι το ChatGPT έχει φέρει, μεταξύ άλλων, τους μεταφραστές σε δύσκολη θέση, γιατί μπορεί να μην χρειάζονται πλέον, αλλά σύμφωνα με τον Gábor Prószéky, αυτό είναι λάθος.

Ακόμα και όταν πρόκειται για μετάφραση, μπορεί να βοηθήσει μόνο στη μηχανική μετάφραση, δεν μπορεί να κάνει τεχνητή μετάφραση, γιατί δεν είναι δημιουργικός με ανθρώπινο τρόπο. Αυτό λειτουργεί καλά, αλλά κάποιος πρέπει να επαληθεύσει αυτά τα έργα. Λόγω της βελτίωσης της αυτόματης μετάφρασης, η λεγόμενη εστίαση έχει μετατοπιστεί στη δημιουργία νέων τύπων εργαλείων λογισμικού που υποστηρίζουν την εκ των υστέρων επεξεργασία και βελτιώνουν αποτελεσματικά τα κείμενα.

Και όσον αφορά τη μετάφραση, οι δάσκαλοι που ενδιαφέρονται για την κατάρτιση στη μετάφραση παραπονιούνται ότι είναι δύσκολο να γνωρίζουν εάν πρόκειται για άτομο ή ChatGPT που κάνει το μάθημα, αλλά ο Prószéky λέει ότι μπορεί επίσης να λυθεί αλλάζοντας στάση: δώστε στον καθηγητή μια διαφορετική εργασία, π.χ. αφήστε τους μαθητές αναζητήστε σφάλματα μετάφρασης ChatGPT ή η μπάρα θα πρέπει να είναι υψηλότερη εάν δεν είναι δυνατό να εξαλειφθεί η είσοδος του μηχανήματος.

Και τα δικαιώματα;

Ο Gábor Prószéky λέει ότι η λογοκλοπή είναι μια συνειδητή δραστηριότητα, αλλά δεν υπάρχει εδώ. Τα κείμενα που προκύπτουν, όσο περίεργα κι αν είναι, είναι μοναδικά: κανείς δεν έχει περιγράψει ποτέ τα κείμενα ChatGPT ακριβώς έτσι πριν. Το σύστημα δεν αντιγράφει το κείμενο όταν δημιουργείται.

Στα μεγάλα γλωσσικά μοντέλα, δεν υπάρχει κείμενο, μόνο αριθμοί, πιθανότητα εμφάνισης, που δείχνουν την πιθανότητα να εμφανιστεί μια νέα λέξη στο τέλος μιας συγκεκριμένης ακολουθίας λέξεων.

Στις τελευταίες ειδήσεις ότι οι New York Times μήνυσαν την OpenAI για κλοπή και χρήση των κειμένων των εφημερίδων, σχολίασε ότι το ChatGPT δεν χρησιμοποιεί απευθείας τα κείμενα των εφημερίδων, μπορεί μόνο να τροποποιήσει τις πιθανότητες των πιθανών ακολουθιών των γλωσσικών ενοτήτων που «περιέχουν. κείμενο. «Κάθε λέξη προέρχεται από κάπου αλλού, κάθε λέξη υπάρχει από μόνη της, και η πιθανότητα μιας άλλης λέξης μετά τη λέξη δεν μπορεί να υπερασπιστεί με τον ίδιο τρόπο όπως η ίδια η λέξη».

Μερικές φορές είναι χάλια

Όλες οι γνώσεις ChatGPT προορίζονται για πριν από τον Σεπτέμβριο του 2021, αλλά εξακολουθεί να ανταποκρίνεται.

Είναι αστείο πώς ξέρουμε ότι το γλωσσικό μοντέλο δεν ξέρει την απάντηση όταν ρωτιέται, ας πούμε, για ένα σύγχρονο φαινόμενο, αλλά ούτως ή άλλως κόβει. Δεν ξέρει να υπολογίζει μόνος του, αλλά μπορεί να κάνει προσθήκες αν τον μάθουμε χωριστά μέσα από παραδείγματα.

Αυτό που λέει ένα γλωσσικό μοντέλο αποτελείται από γλωσσικά κόλπα, μπορεί δηλαδή να αναδημιουργήσει πιθανές γλωσσικές εκδηλώσεις -σε πολύ υψηλό επίπεδο- αλλά όχι οτιδήποτε άλλο. Όταν το λέμε αυτό Το ChatGPT έχει παραισθήσειςΑυτό συμβαίνει επειδή εμείς έχουμε μια κοσμοθεωρία, αυτός όχι, μόνο μια γλωσσική άποψη, επομένως δεν μπορεί να ξέρει τι σημαίνουν στον πραγματικό κόσμο τα πράγματα για τα οποία κάνει γλωσσικούς ισχυρισμούς.

Το κουτάβι του σκύλου μας: PULI

Όπως εξηγεί ο Prószéky, μεγάλα γλωσσικά μοντέλα, όπως το GPT ή το PULI, κατασκευάζουν έναν γλωσσικό κόσμο από το περιεχόμενο των μαθησιακών κειμένων. Εάν υπάρχουν ουγγρικά κείμενα στο διδακτικό υλικό, τότε το μοντέλο μπορεί να μάθει την ουγγρική σύζευξη ή τη σειρά λέξεων από αυτά, γι’ αυτό και το ChatGPT μπορεί να μιλήσει και ουγγρικά, αλλά δεν έχει περιεχόμενο ή θέματα συγκεκριμένους ουγγρικούς πολιτισμούς. Έτσι η ΠΟΥΛΗ είχε το δικαίωμα ύπαρξης. «Γλωσσικά, έχει μάθει από το μεγαλύτερο διαθέσιμο αρχείο κειμένου της Ουγγαρίας, αλλά δεν έχει ακόμη «βελτιωθεί» για καταστάσεις διαλόγου, όπως το ChatGPT, αλλά μετά τα στάδια ανάπτυξής του γνωρίζει πλέον πολλές γλωσσικές οδηγίες, τις οποίες η βασική PULI μοντέλο δεν ήξερε ακόμα.

Το PULI είναι ένα πολύπλοκο νευρωνικό δίκτυο, το οποίο έχει τώρα την ευκαιρία να «γίνεται φίλος» με τον μεγαλύτερο υπερυπολογιστή της Ουγγαρίας, τον Komondor. Αποκτήσαμε πρόσβαση, επομένως μια νέα έκδοση PULI μεγαλύτερης χωρητικότητας θα μπορούσε να δημιουργηθεί σύντομα, καθώς οι παράμετροι αυξάνονται κατά την κατασκευή μοντέλων σε μεγαλύτερο μηχάνημα, ώστε να μπορεί να δημιουργηθεί ένα δίκτυο με πλουσιότερη γνώση.

Όπως λέει, η παλέτα επεκτείνεται στο Komondor, τα βασικά PULI που έμαθαν από 30 δισεκατομμύρια λέξεις συνεχούς κειμένου, ξεπερνούν πλέον τα 41 δισεκατομμύρια. Και καθώς οι γνώσεις του για τον κόσμο μπορούν να επεκταθούν με κείμενα σε άλλες γλώσσες, έμαθε επίσης αγγλικά και κινέζικα, ο συνολικός αριθμός των οποίων ξεπερνά ήδη τις 200 δισεκατομμύρια λέξεις, δηλαδή «η βάση των μαθητών του PULI-GPTrio είναι τόσο μεγάλη ως ChatGPT.” Το σύστημά μας δεν είναι ακόμα αρκετά περίπλοκο, αλλά χάρη στις παραπάνω διαστάσεις είναι πολύ ικανό: ο PULI ταίριαξε με τους μεγάλους όσον αφορά το εκπαιδευτικό υλικό, αλλά από την άποψη της γνώσης της ουγγρικής, είναι πολύ, πολύ καλύτερος.

(Φωτογραφία εξωφύλλου: Gábor Prószéky. Φωτογραφία: Kata Németh / Index)