Ο István Bartolits, επικεφαλής του τμήματος τεχνολογικής ανάλυσης της Εθνικής Αρχής Μέσων και Επικοινωνιών, δήλωσε στο napi.hu: σύμφωνα με τις τρέχουσες γνώσεις μας, η τεχνητή νοημοσύνη έχει πτυχία.
Γενικά, διακρίνονται τρεις κύριοι βαθμοί:
- ANI – Στενή Τεχνητή Νοημοσύνη
- AGI – Τεχνητή Γενική Νοημοσύνη
- ASI – Τεχνητή Υπερευφυΐα
Αυτήν τη στιγμή βρισκόμαστε στην αρχή της εποχής του ANI, της τεχνητής νοημοσύνης με στόχο τον στόχο. Αυτά τα συστήματα τεχνητής νοημοσύνης έχουν σχεδιαστεί για να επιλύουν μια συγκεκριμένη εργασία, για έναν συγκεκριμένο σκοπό, και είναι επίσης ικανά να αυτοεκπαιδεύονται, αλλά μόνο στον τομέα που αντιστοιχεί στη συγκεκριμένη εργασία. Τυπικά, για παράδειγμα, ένα σύστημα αναγνώρισης εικόνας είναι σε θέση να αναγνωρίζει όλο και με μεγαλύτερη ακρίβεια αυτό που βλέπει στην εικόνα, αλλά η γνώση του συγκεντρώνεται σε αυτό, δεν θα γράψει ποτέ, για παράδειγμα, μια ομιλία ή δεν θα αναλύσει ποιήματα. Το κύριο καθήκον αυτών των συστημάτων AI είναι να απαλλάξουν τους ανθρώπους από μονότονες εργασίες.
Έχουν εμφανιστεί, για παράδειγμα, σε συστήματα εξυπηρέτησης πελατών, όπου σε πολλές περιπτώσεις πρέπει να δίνονται παρόμοιες ή πανομοιότυπες απαντήσεις σε τυπικές ερωτήσεις, αλλά εάν ληφθεί μια πιο περίπλοκη ερώτηση, το σύστημα την κατευθύνει σε ένα ζωντανό άτομο και με αυτόν τον τρόπο επεκτείνει την γνώση βασισμένη σε όσα έχει ακούσει. Τα στοχευμένα συστήματα ANI προσφέρουν ήδη αμέτρητες δυνατότητες εφαρμογής.
Έχουν εμφανιστεί και στα ιατρικά διαγνωστικά, στα συστήματα μεταφορών, στον οικονομικό και τραπεζικό κόσμο, αλλά ακόμα και στα τηλεπικοινωνιακά δίκτυα βοηθάει η τεχνητή νοημοσύνη π.χ. σε περίπτωση απροσδόκητου σφάλματος στη διαχείριση του δικτύου και την αναδιοργάνωση της κυκλοφορίας. Έχουν επίσης εμφανιστεί σε κινητά συστήματα 5G, όπου θα διαδραματίσουν σημαντικό ρόλο στη βέλτιστη κατανομή πόρων δικτύου και στον έλεγχο της κυκλοφορίας.
Δεν χρειάζεται να φοβόμαστε αυτές τις εφαρμογές με την έννοια ότι θα αναπτυχθούν εναντίον μας ή θα στραφούν εναντίον μας. Ταυτόχρονα, ορισμένοι νομίμως πιστεύουν ότι ορισμένες εφαρμογές ενέχουν υψηλό κίνδυνο ή ακόμη και είναι ασυμβίβαστες με τα ανθρώπινα δικαιώματα. Εδώ, λοιπόν, δεν είναι η τεχνητή νοημοσύνη που είναι επικίνδυνη, αλλά η απόφαση που χρησιμοποιούν οι άνθρωποι σε περιπτώσεις όπου η απόφαση δεν πρέπει να ανατεθεί στην τεχνητή νοημοσύνη.
Το σχέδιο κανονισμού που δρομολόγησε η Ευρωπαϊκή Ένωση στις 21 Απριλίου 2021 βασίζει τη ρύθμιση της τεχνητής νοημοσύνης ακριβώς σε αυτό το σημείο, όταν ταξινόμησε τις εφαρμογές τεχνητής νοημοσύνης σε τέσσερις κατηγορίες: ελάχιστος κίνδυνος, περιορισμένος κίνδυνος, υψηλός κίνδυνος και απαράδεκτος κίνδυνος. Μεταξύ αυτών, επέβαλε αυστηρούς κανόνες σε εφαρμογές υψηλού κινδύνου και απαγόρευσε εφαρμογές με απαράδεκτο κίνδυνο.
Αυτή η κατηγορία περιλαμβάνει συστήματα τεχνητής νοημοσύνης που απειλούν την ασφάλεια, τα μέσα διαβίωσης και τα δικαιώματα των ανθρώπων (χειραγώγηση της ανθρώπινης συμπεριφοράς, κοινωνική βαθμολογία από τις κυβερνήσεις, μαζική βιομετρική αναγνώριση κ.λπ.).
Το επόμενο επίπεδο είναι το AGI, η τεχνητή γενική νοημοσύνη, γνωστό και ως ισχυρό AI ή πλήρες AI. Το χαρακτηριστικό του είναι ότι είναι σε θέση να πραγματοποιήσει τις περισσότερες ανθρώπινες δραστηριότητες, άρα μπορούμε να πούμε ότι μπορεί να είναι πλήρως σύντροφός μας, ακόμα κι αν προφανώς δεν έχει τη δική του συνείδηση και τα δικά του συναισθήματα.
Οι φόβοι δεν είναι δικαιολογημένοι
Ακόμα κι εδώ, οι γνωστοί φόβοι για τις ταινίες επιστημονικής φαντασίας δεν δικαιολογούνται, αλλά μπορεί να υπάρχουν κίνδυνοι που πρέπει να αντιμετωπιστούν έγκαιρα. Η ημερομηνία δημιουργίας αυτού του επιπέδου ονομάζεται singularity από τον Ray Kurzweil και στο βιβλίο του “The Singularity is near” που δημοσιεύτηκε το 2005, βάζει την ημερομηνία στο 2045. Ο Ουγγρικός τίτλος του βιβλίου: On the edge of the singularity.
Τέλος, το υψηλότερο επίπεδο τεχνητής νοημοσύνης είναι το ASI, η τεχνητή υπερνοημοσύνη, που ξεπερνά τις ανθρώπινες δυνατότητες σχεδόν σε κάθε σημαντικό τομέα. Επομένως, μπορεί να έχουμε λόγους να φοβόμαστε εάν δεν κάνουμε τίποτα για να εμποδίσουμε αυτά τα συστήματα να μας κυβερνήσουν με κακό τρόπο. Ωστόσο, αυτό θα συμβεί σε πολύ μακρινό χρόνο, εάν η τεχνολογία εξελιχθεί πραγματικά προς αυτό
υπογράμμισε ο István Bartolits.
Η Οδηγία Ευθύνης AI (ALD) θα επιτρέπει σε άτομα και εταιρείες να μηνύσουν για αποζημίωση εάν έχουν υποστεί βλάβη από ένα σύστημα τεχνητής νοημοσύνης.
Πώς μπορούν οι εταιρείες που δεν ακολουθούν τους κανόνες να λογοδοτήσουν;
Το σχέδιο οδηγίας για την AILD δημιουργήθηκε από την ΕΕ για να επεκτείνει την κάλυψη της εξωσυμβατικής ζημίας, η οποία ήταν γνωστή εδώ και καιρό σε άλλους τομείς, επομένως αυτό το εργαλείο δεν είναι καθόλου μια νέα νομική λύση. Τι νέο υπάρχει – και γι’ αυτό έπρεπε να δράσουμε σε αυτό το θέμα – επειδή τα ισχύοντα νομικά συστήματα δεν αναγνωρίζουν τη χορήγηση νομικού καθεστώτος σε τεχνητά συστήματα, σε τέτοιες περιπτώσεις το βάρος της ευθύνης φέρει συνήθως ο φορέας εκμετάλλευσης.
Αυτή είναι η κατάσταση και στη χώρα μας, οι ισχύοντες ουγγρικοί κανονισμοί δεν θεωρούν την τεχνητή νοημοσύνη ως οντότητα με ξεχωριστή νομική οντότητα – και άρα ειδικότερα ως νομικό πρόσωπο. Στην παρούσα κατάσταση, κάποιος πρέπει να αναλάβει την ευθύνη για τη ζημιά. Εφόσον η Ευρωπαϊκή Επιτροπή συνειδητοποίησε ότι αυτό είναι ένα πρόβλημα σε όλα τα κράτη μέλη, δημοσίευσε στις 28 Σεπτεμβρίου 2022 ένα σχέδιο οδηγίας για την ευθύνη που σχετίζεται με την τεχνητή νοημοσύνη, προκειμένου να αποφευχθούν διαφορετικά εθνικά νομοθετικά βήματα για το θέμα αυτό.
Αυτό το έργο εισάγει τις έννοιες του παρόχου τεχνητής νοημοσύνης και του χρήστη τεχνητής νοημοσύνης, όπου ο πάροχος τεχνητής νοημοσύνης είναι η εταιρεία που αναπτύσσει το σύστημα και ο χρήστης τεχνητής νοημοσύνης είναι αυτός που χρησιμοποιεί το σύστημα τεχνητής νοημοσύνης υπό την παρακολούθησή του. Αυτά τα δύο νομικά πρόσωπα μπορούν να ενάγονται για πιθανή εξωσυμβατική ζημία.
Επιπλέον, εισάγει επίσης την έννοια του δυνητικού αιτούντος, η οποία περιλαμβάνει άτομα που δεν έχουν ακόμη υποβάλει αξίωση για αποζημίωση, αλλά έχουν εξετάσει τη δυνατότητα να το κάνουν.
Είναι θέμα ευθύνης
Η AIDL θεωρεί ότι οι προγραμματιστές και οι χρήστες διώκονται για αδικοπραξίες, αλλά η όλη διαδικασία δεν μπορεί παρά να είναι αμφιλεγόμενη. Η διαδικασία παραπομπής είναι ακριβώς η ίδια όπως σε οποιαδήποτε άλλη δίκη για αδικοπραξία. Σε άλλες περιπτώσεις, η αποζημίωση μπορεί να μην είναι ανακτήσιμη, αλλά αυτό έχει και τις δικές του νομικές συνέπειες.
Όχι μόνο το σχέδιο οδηγίας για την AILD, αλλά και το σχέδιο κανονισμού για την τεχνητή νοημοσύνη περιλαμβάνει υποχρεώσεις και κυρώσεις που πρέπει να εκπληρωθούν. Αυτά θα μπορούν να λειτουργούν με ομοιόμορφο τρόπο εντός της Ευρώπης, για την οποία η ΕΕ επιθυμεί να συστήσει το Ευρωπαϊκό Συμβούλιο για την Τεχνητή Νοημοσύνη, μέλη του οποίου θα είναι οι εθνικές εποπτικές αρχές και η Ευρωπαϊκή Επιτροπή θα είναι ο πρόεδρος. Κάθε κράτος μέλος πρέπει να συστήσει αρμόδιες εθνικές αρχές. Καθώς οι κανονισμοί είναι ενοποιημένοι, ο χειρισμός των παραβιάσεων εντός της ΕΕ θα καταστεί σαφής και, σε περίπτωση εξελίξεων εκτός ΕΕ, ο χειριστής (στην ορολογία AILD, ο χρήστης) θα τιμωρηθεί.
Σε περιοχές υψηλού κινδύνου, απαιτούνται ήδη αυστηροί κανόνες, και σε περιοχές απαράδεκτου κινδύνου – που μπορεί να θέσει σε κίνδυνο την ασφάλεια, τη διαβίωση και τα δικαιώματα των ανθρώπων – το έργο χρησιμοποιεί το εργαλείο της απαγόρευσης .
Απαγορευτικό εργαλείο
Τι ακριβώς εννοούμε με αυτό; Το σχέδιο κανονισμού της ΕΕ, που κυκλοφόρησε στις 21 Απριλίου 2021, περιγράφει λεπτομερώς τι πρέπει να τηρείται στην περίπτωση συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου. Το έργο θεωρεί βασικές δραστηριότητες διαχείρισης και λειτουργίας υποδομών ζωτικής σημασίας, εκπαίδευσης και επαγγελματικής κατάρτισης, απασχόλησης, διαχείρισης εργαζομένων και πρόσβασης σε αυτοαπασχόληση, πρόσβαση και χρήση ιδιωτικών και δημόσιων υπηρεσιών, επιβολής του νόμου, μετανάστευσης, ασύλου και ελέγχου των συνόρων. υψηλού κινδύνου. , συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στη δικαιοσύνη και τις δημοκρατικές διαδικασίες, εξ αποστάσεως βιομετρική ταυτοποίηση φυσικών προσώπων.
Επιπλέον, το διάταγμα προβλέπει II. στο παράρτημά της, η εναρμονισμένη νομοθεσία της ΕΕ σύμφωνα με την οποία το προϊόν χρησιμοποιεί σύστημα τεχνητής νοημοσύνης ως στοιχείο ασφαλείας ή ως σύνολο. Αυτές οι περιοχές, π.χ. το πεδίο της νομοθεσίας εναρμόνισης που εφαρμόζεται στην ασφάλεια των παιχνιδιών, των σκαφών, των ανελκυστήρων και του εξοπλισμού ασφαλείας τους, των εγκαταστάσεων αναβατήρα σκι, των ιατρικών συσκευών διάγνωσης in vitro και των αεροπορικών μεταφορών, των σιδηροδρομικών μεταφορών, των θαλάσσιων και οδικών εμπορευματικών και γεωργικών μηχανημάτων.
Το σχέδιο διατάγματος ορίζει αυστηρούς κανόνες για αυτούς, όπως σαφή ενημέρωση, υψηλή αξιοπιστία, ακριβή τεκμηρίωση και κατάλληλη ανθρώπινη επίβλεψη. Το προσχέδιο προβλέπει πλήρη απαγόρευση σε περιοχές απαράδεκτου κινδύνου, επομένως η χρήση τεχνητής νοημοσύνης απαγορεύεται σε αυτούς τους τομείς. Αυτές οι περιοχές ορίζονται επακριβώς στο έργο, μπορούμε μόνο να κάνουμε μια ενδεικτική λίστα εδώ.
Αυτά περιλαμβάνουν συστήματα που χρησιμοποιούν υποσυνείδητες τεχνικές (κάτω από το όριο συνείδησης), συστήματα που εκμεταλλεύονται την ευπάθεια των ανθρώπων λόγω της ηλικίας τους, σωματικές ή πνευματικές αναπηρίες, συστήματα που χρησιμοποιούνται από τις αρχές για την αξιολόγηση ή την ταξινόμηση της αξιοπιστίας των φυσικών προσώπων, ως αποτέλεσμα που ενδέχεται να τυγχάνουν δυσμενούς ή δυσμενούς μεταχείρισης,
Επιπλέον, τα συστήματα βιομετρικής ταυτοποίησης μάζας σε πραγματικό χρόνο, εκτός από ορισμένα, λειτουργούν για την επιβολή του νόμου, την αναζήτηση αγνοουμένων ή την πρόληψη τρομοκρατικών ενεργειών. Σύμφωνα με το προσχέδιο, όλες οι εφαρμογές που στοχεύουν στη χειραγώγηση ανθρώπων ή την αξιοποίηση της ηλικίας, της σωματικής ή πνευματικής τους αναπηρίας εμπίπτουν στην απαγορευμένη κατηγορία. Απαγορεύεται επίσης η χρήση του για την αξιολόγηση ή την ταξινόμηση της αξιοπιστίας ατόμων εάν προωθεί δυσμενή ή δυσμενή μεταχείριση. Τέλος, η μαζική βιομετρική ταυτοποίηση σε πραγματικό χρόνο σε μέρη προσβάσιμα στο κοινό θα απαγορευόταν, με εξαίρεση τις περιστασιακές έρευνες για αγνοούμενους ή ιδιαίτερα επικίνδυνους εγκληματίες που υπόκεινται σε άδεια.
Αυτά θα είναι καθήκοντα των κρατών μελών
Το πρώτο και σημαντικότερο πράγμα είναι ότι πρέπει να συσταθούν ή να οριστούν αρμόδιες εθνικές αρχές για την εκτέλεση των καθηκόντων που περιλαμβάνονται στον κανονισμό. Πρέπει να οργανωθούν με τέτοιο τρόπο ώστε η λειτουργία τους να είναι αντικειμενική και αμερόληπτη. Μεταξύ των καθορισμένων εθνικών αρμόδιων αρχών, πρέπει να οριστεί μια εθνική εποπτική αρχή που θα ενεργεί ως κοινοποιούσα αρχή και ως αρχή εποπτείας της αγοράς.
Οι αρμόδιες εθνικές αρχές θα πρέπει να διαθέτουν επαρκή αριθμό μόνιμου προσωπικού ικανού και ειδικευμένου στις τεχνολογίες τεχνητής νοημοσύνης, στην επεξεργασία δεδομένων και δεδομένων, στα θεμελιώδη δικαιώματα, στους κινδύνους για την υγεία και την ασφάλεια, καθώς και σε βάθος γνώση των ισχυόντων προτύπων και νομικών απαιτήσεων .
Οι αρμόδιες εθνικές αρχές πρέπει να εκτελούν όλα τα καθήκοντα που καθορίζονται στον κανονισμό, από τη δημιουργία βάσεων δεδομένων, τη συλλογή και ανάλυση τεκμηρίωσης έως τη λήψη ειδοποιήσεων και τις επιθεωρήσεις αγοράς. Επιπλέον, πρέπει να παραμείνουν σε επαφή με το συμβούλιο της ΕΕ και να εκπροσωπηθούν στο Ευρωπαϊκό Συμβούλιο για την τεχνητή νοημοσύνη και να εκτελούν τα καθήκοντα από εκεί.
Συνολικά, αυτό θα δώσει στις χώρες-μέλη πολλές δουλειές, ειδικά μετά την ευρεία υιοθέτηση συστημάτων τεχνητής νοημοσύνης. Αυτό το έργο γίνεται ακόμη πιο δύσκολο εάν η εθνική εποπτική αρχή διαπιστώσει παραβίαση αντίθετη με τις διατάξεις του διατάγματος, καθώς πρέπει στη συνέχεια να καθοδηγήσει τα διάφορα στάδια της διαδικασίας και η εξέταση των συστημάτων AI σε αυτές τις περιπτώσεις σημαίνει επίσης σοβαρή εργασία ειδικός.
“Τυπικός τηλεοπτικός νίντζα. Λάτρης της ποπ κουλτούρας. Ειδικός στο Διαδίκτυο. Λάτρης του αλκοόλ. Καταθλιπτικός αναλυτής. Γενικός λάτρης του μπέικον.”