Quantcast

ΕΕ: Νέος κανονισμός βάζει φρένο στην τεχνητή νοημοσύνη

Πρόκειται για μία εξέλιξη ορόσημο στην προσπάθεια να ελεγχθεί η ιλιγγιώδης εξάπλωσή της

Ένα νέο κανονισμό, γνωστό ως «Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη», ο οποίος είναι ο πρώτος του είδους στη Δύση και είναι πολύ κοντά στο να γίνει νόμος της ΕΕ, ενέκριναν νομοθέτες στο Ευρωπαϊκό Κοινοβούλιο.

 

Πρόκειται για μία εξέλιξη ορόσημο στην προσπάθεια να ελεγχθεί η ιλιγγιώδης εξάπλωση της Τεχνητής Νοημοσύνης, όπως αναφέρει το CNBC, κάτι που μέχρι στιγμής έχει κάνει μόνο η Κίνα.

Ο νέος κανονισμός

Ο νέος κανονισμός καθορίζει τις απαιτήσεις για τους παρόχους των λεγόμενων «μοντέλων θεμελίωσης», όπως το ChatGPT, που αποτελεί μεγάλη ανησυχία για τις αρχές, τόσο λόγω του ρυθμού εξάπλωσης όσο και λόγω πιθανών μελλοντικών κινδύνων για τους εργαζόμενους.

Ειδικότερα, ο νέος κανονισμός, κατηγοριοποιεί τις εφαρμογές της τεχνητής νοημοσύνης σε τέσσερα επίπεδα κινδύνου: απαράδεκτος, υψηλός, περιορισμένος και ελάχιστος ή καθόλου. Σημειώνεται ότι η πρώτη κατηγορία, δηλαδή οι εφαρμογές απαράδεκτου κινδύνου απαγορεύονται εξ ορισμού και δεν μπορούν να αναπτυχθούν στην ΕΕ.

Οι εφαρμογές αυτές περιλαμβάνουν περιλαμβάνουν:

Συστήματα Τεχνητής Νοημοσύνης που χρησιμοποιούν υποσυνείδητες τεχνικές ή τεχνικές χειραγώγησης ή παραπλάνησης για τη διαστρέβλωση της συμπεριφοράς
Συστήματα ΤΝ που εκμεταλλεύονται τρωτά σημεία ατόμων ή συγκεκριμένων ομάδων
Συστήματα βιομετρικής κατηγοριοποίησης με βάση ευαίσθητα χαρακτηριστικά ή ιδιότητες
Συστήματα ΤΝ που χρησιμοποιούνται για κοινωνική βαθμολόγηση ή αξιολόγηση της αξιοπιστίας
Συστήματα ΤΝ που χρησιμοποιούνται για εκτιμήσεις κινδύνου που προβλέπουν ποινικές ή διοικητικές παραβάσεις
Συστήματα ΤΝ που δημιουργούν ή επεκτείνουν βάσεις δεδομένων αναγνώρισης προσώπου μέσω μη στοχευμένης απόξεσης
Συστήματα ΤΝ που συμπεραίνουν συναισθήματα στην επιβολή του νόμου, τη διαχείριση των συνόρων, τον χώρο εργασίας και την εκπαίδευση
Σημειώνεται ότι αρκετοί νομοθέτες έχουν ταχθεί υπέρ αυστηρότερων μέτρων ώστε να διασφαλιστεί ότι θα καλύπτουν το ChatGPT. Στην κατεύθυνση αυτή, οΟι προγραμματιστές θα πρέπει να εφαρμόζουν ελέγχους ασφαλείας, μέτρα διακυβέρνησης δεδομένων και μετριασμούς κινδύνου πριν δημοσιοποιήσουν τα μοντέλα τους. Θα πρέπει επίσης να διασφαλίζουν ότι τα δεδομένα εκπαίδευσης που χρησιμοποιούνται για την ενημέρωση των συστημάτων τους δεν παραβιάζουν τη νομοθεσία περί πνευματικών δικαιωμάτων.

Σημειώνεται τέλος ότι ενώ ο κανονισμός έχει ψηφιστεί από τους νομοθέτες του Ευρωπαϊκού Κοινοβουλίου, έχει ακόμη πολύ δρόμο έως ότου αποτελέσει νόμο του μπλοκ.