Δευτέρα, 24 Ιουνίου 2024

ΕΕ: Θέσπιση του 1ου νόμου για τη χρήση της τεχνητής νοημοσύνης – AI

Δημοσίευση: 04/09/2023
AI, τεχνητή νοημοσύνη, νόμος, ΕΕ

Σε μέτρα προστασίας των ατόμων και των επιχειρήσεων που ανήκουν στην ΕΕ προέβη το Ευρωπαϊκό Κοινοβούλιο, θεσπίζοντας τον πρώτο νόμο στον κόσμο που θα επιβλέπει και θα ρυθμίζει την χρήση της τεχνητής νοημοσύνης (AI)

Μετά την έγκρισή του από την επιτροπή νομοθετών καθώς και μετά από πιέσεις σχετικά με τη δημιουργία ενός κανονιστικού πλαισίου για τη γενετική τεχνητή νοημοσύνη, ο νέος νόμος έχει ήδη τεθεί σε ισχύ.

Ως μέρος της ψηφιακής στρατηγικής της, η ΕΕ θέλει να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της καινοτόμου τεχνολογίας. Η τεχνητή νοημοσύνη μπορεί να αποφέρει πολλά οφέλη, όπως καλύτερη υγειονομική περίθαλψη, ασφαλέστερη και καθαρότερη μεταφορά, αποτελεσματικότερη παραγωγή, φθηνότερη και βιωσιμότερη ενέργεια.

Τον Απρίλιο του 2021, η Ευρωπαϊκή Επιτροπή πρότεινε το πρώτο ρυθμιστικό πλαίσιο της ΕE για την τεχνητή νοημοσύνη. Προτείνει τα συστήματα τεχνητής νοημοσύνης που μπορούν να χρησιμοποιηθούν σε διαφορετικές εφαρμογές να αναλυθούν και να ταξινομηθούν ανάλογα με τον κίνδυνο που ενέχουν για τους χρήστες. Τα διαφορετικά επίπεδα κινδύνου θα σημαίνουν περισσότερη ή λιγότερη ρύθμιση. Μόλις εγκριθούν, αυτοί θα είναι οι πρώτοι κανόνες στον κόσμο για την τεχνητή νοημοσύνη.

Τι θέλει το Κοινοβούλιο στη νομοθεσία για την τεχνητή νοημοσύνη

Προτεραιότητα του Κοινοβουλίου είναι να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην EΕ είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς διακρίσεις και φιλικά προς το περιβάλλον. Για την πρόληψη επιβλαβών αποτελεσμάτων, τα συστήματα τεχνητής νοημοσύνης θα πρέπει να επιβλέπονται από ανθρώπους και όχι από αυτοματισμούς.

Το Κοινoβούλιο θέλει επίσης να καθιερώσει έναν τεχνολογικά ουδέτερο, ενιαίο ορισμό για την τεχνητή νοημoσύνη που θα μπορούσε να εφαρμοστεί σε μελλοντικά συστήματα τεχνητής νοημοσύνης.

Πράξη Τεχνητής Νοημοσύνης: διαφορετικοί κανόνες για διαφορετικά επίπεδα κινδύνου

Οι νέοι κανόνες θεσπίζουν υποχρεώσεις για τους παρόχους και τους χρήστες ανάλογα με το επίπεδο κινδύνου από την τεχνητή νοημοσύνη. Ενώ πολλά συστήματα τεχνητής νοημοσύνης ενέχουν ελάχιστο κίνδυνο, πρέπει να αξιολογηθούν.

Απαράδεκτος κίνδυνος

Τα συστήματα τεχνητής νοημοσύνης απαράδεκτου κινδύνου είναι συστήματα που θεωρούνται απειλή για τους ανθρώπους και θα απαγορευθούν. Αυτά περιλαμβάνουν:

γνωστική συμπεριφορική χειραγώγηση ατόμων ή συγκεκριμένων ευάλωτων ομάδων: για παράδειγμα παιχνίδια που ενεργοποιούνται με φωνή που ενθαρρύνουν επικίνδυνη συμπεριφορά στα παιδιά

κοινωνική βαθμολογία: ταξινόμηση ατόμων με βάση τη συμπεριφορά, την κοινωνικοοικονομική κατάσταση, τα προσωπικά χαρακτηριστικά

συστήματα βιομετρικής αναγνώρισης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου

Ενδέχεται να επιτρέπονται ορισμένες εξαιρέσεις: Για παράδειγμα, τα απομακρυσμένα βιομετρικά συστήματα ταυτοποίησης, όπου η ταυτοποίηση πραγματοποιείται μετά από σημαντική καθυστέρηση, θα επιτρέπεται να διώκουν σοβαρά εγκλήματα και μόνο μετά από δικαστική έγκριση.

Υψηλός κίνδυνος

Τα συστήματα τεχνητής νοημοσύνης που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα θα θεωρούνται υψηλού κινδύνου και θα χωρίζονται σε δύο κατηγορίες.

1. Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της EΕ για την ασφάλεια των προϊόντων. Αυτό περιλαμβάνει παιχνίδια, αεροπορία, αυτοκίνητα, ιατρικές συσκευές και ανελκυστήρες.

2. Συστήματα τεχνητής νοημοσύνης που εμπίπτουν σε οκτώ συγκεκριμένους τομείς που θα πρέπει να καταχωρηθούν σε μια βάση δεδομένων της EΕ:

• βιομετρική ταυτοποίηση και κατηγοριοποίηση φυσικών προσώπων

• διαχείριση και λειτουργία υποδομών ζωτικής σημασίας

• εκπαίδευση και επαγγελματική κατάρτιση

• απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση

• πρόσβαση και απόλαυση βασικών ιδιωτικών υπηρεσιών και δημόσιων υπηρεσιών και παροχών

• επιβολή του νόμου

• διαχείριση μετανάστευσης, ασύλου και ελέγχου των συνόρων

• βοήθεια στη νομική ερμηνεία και εφαρμογή του νόμου.

Όλα τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα αξιολογηθούν πριν διατεθούν στην αγορά και καθ’ όλη τη διάρκεια του κύκλου ζωής τους.

Γενετική τεχνητή νοημοσύνη

Γενετική τεχνητή νοημoσύνη, όπως το ChatGPT, θα πρέπει να συμμορφώνονται με τις προϋποθέσεις διαφάνειας:

  • Αποκαλύπτοντας ότι το περιεχόμενο δημιουργήθηκε από AΙ
  • Σχεδιασμός του μοντέλου για να αποτρέψει τη δημιουργία παράνομου περιεχομένου
  • Δημοσίευση περιλήψεων δεδομένων που προστατεύονται από πνευματικά δικαιώματα που χρησιμοποιούνται για εκπαίδευση

Περιορισμένος κίνδυνος

Τα συστήματα τεχνητής νοημοσύνης περιορισμένου κινδύνου θα πρέπει να συμμορφώνονται με ελάχιστες απαιτήσεις διαφάνειας που θα επιτρέπουν στους χρήστες να λαμβάνουν τεκμηριωμένες αποφάσεις. Αφού αλληλεπιδράσει με τις εφαρμογές, ο χρήστης μπορεί στη συνέχεια να αποφασίσει αν θέλει να συνεχίσει να το χρησιμοποιεί. Οι χρήστες θα πρέπει να ενημερώνονται όταν αλληλεπιδρούν με την τεχνητή νοημoσύνη. Αυτό περιλαμβάνει συστήματα AΙ που δημιουργούν ή χειρίζονται περιεχόμενο εικόνας, ήχου ή βίντεο (π.χ. deepfakes).

Ακολουθήστε το insuranceforum.gr στο Google News.

Διαβάστε Ακόμα

36th Thessaloniki Insurance Conference

Παρασκευή 9 Φεβρουαρίου

«Αντιμετωπίζοντας προκλήσεις – Δημιουργώντας ευκαιρίες»