Σάββατο, 25 Μαΐου 2024

Θα οριστεί ως νόμος στην Ευρώπη το AI Act; | Πόσο μακριά βρισκόμαστε από ένα νομοθετικό πλαίσιο για την τεχνητή νοημοσύνη;

Δημοσίευση: 23/05/2023
AI, τεχνητή νοημοσύνη

Ο νέος ευρωπαϊκός κανονισμός για την Τεχνητή Νοημοσύνη (AI) εγκρίθηκε από την επιτροπή νομοθετών και οδεύει στο να γίνει ευρωπαϊκός νόμος.

Πρόκειται για μια εξέλιξη ορόσημο σε μια εποχή που οι κυβερνήσεις προσπαθούν να βάλουν το νομικό πλαίσιο σε αυτό το τεχνολογικό επίτευγμα που εξελίσσεται με ιλιγγιώδη ταχύτητα. Ο νόμος, γνωστός ως Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη (AI Act), είναι ο πρώτος νόμος για τα συστήματα Τεχνητής Νοημοσύνης στη Δύση. Η Κίνα έχει ήδη αναπτύξει σχέδια κανόνων που αποσκοπούν στη διαχείριση του τρόπου με τον οποίο οι εταιρείες αναπτύσσουν προϊόντα AI, όπως είναι το ChatGPT.

Ο νόμος υιοθετεί μια προσέγγιση που βασίζεται στον κίνδυνο για τη ρύθμιση της AΙ, όπου οι υποχρεώσεις για ένα σύστημα είναι ανάλογες με το επίπεδο κινδύνου που ενέχει.

Οι κανόνες καθορίζουν επίσης τις απαιτήσεις για τους παρόχους των λεγόμενων «μοντέλων θεμελίωσης», όπως το ChatGPT, τα οποία αποτελούν πηγή βασικής ανησυχίας για τις ρυθμιστικές αρχές, δεδομένου του πόσο προηγμένα γίνονται και των φόβων ότι θα μπορούσαν να  εκτοπίσουν ακόμη και εξειδικευμένους εργαζόμενους.

Τι λένε οι κανόνες

Ο νόμος για την AΙ κατηγοριοποιεί τις εφαρμογές της  σε τέσσερα επίπεδα κινδύνου: μη αποδεκτός κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος ή μηδενικός κίνδυνος.

Οι εφαρμογές μη αποδεκτού κινδύνου απαγορεύονται εξ ορισμού και δεν μπορούν να αναπτυχθούν στην Ευρωπαϊκή Ένωση.

Αφορούν:

  • Συστήματα AΙ που χρησιμοποιούν υποσυνείδητες τεχνικές ή τεχνικές χειραγώγησης ή παραπλάνησης για τη διαστρέβλωση της συμπεριφοράς
  • Συστήματα AΙ που εκμεταλλεύονται τρωτά σημεία ατόμων ή συγκεκριμένων ομάδων
  • Συστήματα βιομετρικής κατηγοριοποίησης με βάση ευαίσθητα χαρακτηριστικά ή ιδιότητες
  • Συστήματα AI που χρησιμοποιούνται για κοινωνική βαθμολόγηση ή αξιολόγηση της αξιοπιστίας
  • Συστήματα AI που χρησιμοποιούνται για εκτιμήσεις κινδύνου που προβλέπουν ποινικές ή διοικητικές παραβάσεις
  • Συστήματα AΙ που δημιουργούν ή επεκτείνουν βάσεις δεδομένων αναγνώρισης προσώπου μέσω μη στοχευμένης απόξεσης
  • Συστήματα AΙ που συμπεραίνουν συναισθήματα στην επιβολή του νόμου, τη διαχείριση των συνόρων, τον χώρο εργασίας και την εκπαίδευση

Αρκετοί νομοθέτες είχαν ζητήσει να γίνουν τα μέτρα πιο ακριβή για να διασφαλιστεί ότι θα καλύπτουν το ChatGPT. Για τον σκοπό αυτό, έχουν επιβληθεί απαιτήσεις για «μοντέλα θεμελίωσης», όπως τα μεγάλα γλωσσικά μοντέλα και η γενεσιουργός AΙ.

Οι προγραμματιστές των θεμελιωδών μοντέλων θα πρέπει να εφαρμόζουν ελέγχους ασφαλείας, μέτρα διακυβέρνησης δεδομένων και μετριασμούς κινδύνου πριν δημοσιοποιήσουν τα μοντέλα τους.

Θα πρέπει επίσης να διασφαλίζουν ότι τα δεδομένα εκπαίδευσης που χρησιμοποιούνται για την ενημέρωση των συστημάτων τους δεν παραβιάζουν τη νομοθεσία περί πνευματικών δικαιωμάτων.

Οι πάροχοι τέτοιων μοντέλων τεχνητής νοημοσύνης θα πρέπει να λαμβάνουν μέτρα για την αξιολόγηση και τον μετριασμό των κινδύνων για τα θεμελιώδη δικαιώματα, την υγεία και την ασφάλεια και το περιβάλλον, τη δημοκρατία και το κράτος δικαίου”, δήλωσε στο CNBC ο Ceyhun Pehlivan, σύμβουλος της Linklaters και συν-επικεφαλής της ομάδας πρακτικής τηλεπικοινωνιών, μέσων ενημέρωσης και τεχνολογίας και πνευματικής ιδιοκτησίας της δικηγορικής εταιρείας στη Μαδρίτη.

«Θα υπόκεινται επίσης σε απαιτήσεις διακυβέρνησης δεδομένων, όπως η εξέταση της καταλληλότητας των πηγών δεδομένων και των πιθανών προκαταλήψεων».

Είναι σημαντικό να τονιστεί ότι, ενώ ο νόμος έχει ψηφιστεί από τους νομοθέτες του Ευρωπαϊκού Κοινοβουλίου, απέχει πολύ από το να γίνει νόμος, με επίσημες πηγές να αναφέρουν ότι “ίσως εφαρμοστεί κάπου το 2023”.

Πηγή: ot.gr

 

Ακολουθήστε το insuranceforum.gr στο Google News.

Διαβάστε Ακόμα

36th Thessaloniki Insurance Conference

Παρασκευή 9 Φεβρουαρίου

«Αντιμετωπίζοντας προκλήσεις – Δημιουργώντας ευκαιρίες»