Δεν λείπουν τα σενάρια καταστροφής της τεχνητής νοημοσύνης (AI), επομένως εδώ είναι ένας άλλος ειδικός της τεχνητής νοημοσύνης που προβλέπει ωμά ότι η τεχνολογία θα σημάνει το τέλος όλων μας.
Αυτή τη φορά δεν είναι ο πατέρας της τεχνητής νοημοσύνης που κρούει τον κώδωνα του κινδύνου, αλλά ένας αμφιλεγόμενος θεωρητικός και προβοκάτορας της τεχνητής νοημοσύνης, ο Eliezer Yudkowsky, ο οποίος προηγουμένως είχε ζητήσει την έκρηξη των κέντρων δεδομένων στην Κίνα. machine learning. Φουτουρισμός.
«Δεν νομίζω ότι είμαστε έτοιμοι ακόμα, δεν ξέρουμε τι κάνουμε και νομίζω ότι όλοι θα πεθάνουμε», είπε ο Yudkowsky σε ένα επεισόδιο της σειράς «AI IRL» του Bloomberg.
Μία από τις πεποιθήσεις της αποκάλυψης της τεχνητής νοημοσύνης είναι πιο γελοία από την άλλη, αλλά ο Yudkowsky τις έχει πάρει στα σοβαρά εδώ και δεκαετίες. Και τον τελευταίο καιρό, η καταστροφική προπαγάνδα του για την τεχνητή νοημοσύνη έχει γίνει ακόμη πιο μοντέρνα καθώς η βιομηχανία αναπτύχθηκε με ιλιγγιώδη ταχύτητα, μεταμορφώνοντας διάσημους επιστήμονες υπολογιστών που άνοιξαν το δρόμο σε άτομα με ενοχές.
Προσθέτοντας στη συνολική αποκάλυψη, αυτοί οι φόβοι έχουν επαναληφθεί από στελέχη και ειδικούς της βιομηχανίας AI, πολλοί από τους οποίους έχουν υποστηρίξει την προσωρινή διακοπή της περαιτέρω ανάπτυξης της τεχνολογίας. Πράγματι, αυτό το μοντέλο είναι μια από τις κύριες ανησυχίες του Yudkowsky.
Το θέμα είναι ότι δεν έχουμε σχεδόν καμία ιδέα για το τι συμβαίνει στο GPT-4. Έχουμε θεωρίες, αλλά δεν είμαστε σε θέση να εξετάσουμε τους τεράστιους πίνακες κλασματικών αριθμών που πολλαπλασιάζονται και προστίθενται εκεί, ή τι σημαίνουν αυτοί οι αριθμοί.
Η τεχνητή νοημοσύνη θέτει και άλλα προβλήματα, προς το παρόν, πιο σοβαρά
Αυτοί οι φόβοι είναι σίγουρα βάσιμοι, αλλά όπως έχουν παρατηρήσει ορισμένοι επικριτές, τείνουν να αποσπούν την προσοχή από τις πιο άμεσες αλλά σχετικά εγκόσμιες συνέπειες της τεχνητής νοημοσύνης, όπως η μαζική λογοκλοπή, ο εκτοπισμός της ανθρώπινης εργασίας και το τεράστιο περιβαλλοντικό αποτύπωμα.
«Αυτό το είδος ομιλίας είναι επικίνδυνο γιατί έχει γίνει ένα βασικό μέρος του λόγου», είπε στο Bloomberg η Sasha Luccioni, ερευνήτρια στην startup τεχνητής νοημοσύνης Hugging Face.
Οι εταιρείες που ρίχνουν λάδι στη φωτιά το χρησιμοποιούν για να αποφύγουν τις ευθύνες τους. Όταν μιλάμε για υπαρξιακούς κινδύνους, η ευθύνη μπορεί να διαφύγει της προσοχής μας.
Κανείς δεν συνοψίζει αυτό το όραμα καλύτερα από τον Διευθύνοντα Σύμβουλο του OpenAI. Ο Σαμ Άλτμαν, που είναι ομολογημένη αποκάλυψη, δεν κρύβει τους φόβους του και τις αντικρουόμενες απόψεις του για την τεχνητή νοημοσύνη που χτίζει και αν θα μπορούσε να προκαλέσει μαζική εξαφάνιση της ανθρωπότητας ή να καταστρέψει τον κόσμο. Φυσικά, όλα αυτά δεν εμπόδισαν τον πρώην μη κερδοσκοπικό οργανισμό του να πάρει δισεκατομμύρια δολάρια από τη Microsoft.
Να διαβασω:
“Τυπικός τηλεοπτικός νίντζα. Λάτρης της ποπ κουλτούρας. Ειδικός στο Διαδίκτυο. Λάτρης του αλκοόλ. Καταθλιπτικός αναλυτής. Γενικός λάτρης του μπέικον.”