
16 Απριλίου 2026
Η Ευρωπαϊκή Ένωση κατέληξε σε μια ιστορική ρυθμιστική συμφωνία για την ανάπτυξη της τεχνητής νοημοσύνης

Περίληψη άρθρου:
Οι νομοθέτες της Ευρωπαϊκής Ένωσης κατέληξαν σε μια ιστορική συμφωνία σχετικά με το εκτεταμένο νομοσχέδιο για την ανάπτυξη της ασφάλειας του νόμου για την τεχνητή νοημοσύνη, καθιστώντας την Ευρώπη πρωτοπόρο στη ρύθμιση της τεχνητής νοημοσύνης. Οι προτεινόμενοι κανονισμοί θα υπαγορεύουν την ανάπτυξη και τη χρήση μοντέλων τεχνητής νοημοσύνης σε διάφορους τομείς, κατηγοριοποιώντας τα με βάση τον κοινωνικό κίνδυνο. Η συμφωνία επετεύχθη μετά από διαταραχές από τη Γαλλία, τη Γερμανία και την Ιταλία σχετικά με τους κανονισμούς για τα παραγωγικά μοντέλα τεχνητής νοημοσύνης. Η Ευρωπαϊκή Επιτροπή στοχεύει να διασφαλίσει ότι η τεχνητή νοημοσύνη εξυπηρετεί την ευημερία των ανθρώπων, υποστηρίζοντας παράλληλα την τεχνολογική ανάπτυξη. Συνεργάζονται επίσης με τα μέλη του κλάδου για να αναπτύξουν εθελοντικά εσωτερικούς κανόνες.
Κύρια σημεία του άρθρου:
- Η Ευρώπη κατέληξε σε μια ιστορική συμφωνία σχετικά με το επεκτατικό νομοσχέδιο για την ανάπτυξη της ασφάλειας της AI Act, γεγονός που την τοποθετεί στην πρώτη γραμμή των προσπαθειών ρύθμισης της AI.
- Οι προτεινόμενοι κανονισμοί θα υπαγορεύουν τους τρόπους με τους οποίους τα μελλοντικά μοντέλα μηχανικής μάθησης θα μπορούν να αναπτύσσονται και να διανέμονται εντός του εμπορικού μπλοκ.
- Η ανάπτυξη της ΤΝ θα χωρίζεται σε τέσσερις κατηγορίες: ελάχιστος κίνδυνος, περιορισμένος κίνδυνος, υψηλός κίνδυνος και απαγόρευση.
- Οι απαγορευμένες χρήσεις περιλαμβάνουν οτιδήποτε καταστρατηγεί τη συγκατάθεση των χρηστών, στοχεύει προστατευόμενες κοινωνικές ομάδες ή παρέχει βιομετρική παρακολούθηση σε πραγματικό χρόνο.
- Οι χρήσεις υψηλού κινδύνου περιλαμβάνουν στοιχεία ασφάλειας προϊόντων και εφαρμογές σε κρίσιμες υποδομές, την εκπαίδευση, νομικά/δικαστικά θέματα και προσλήψεις εργαζομένων.
- Τα chatbots όπως το ChatGPT εμπίπτουν στην κατηγορία "περιορισμένου κινδύνου".
Αναλυτικά το άρθρο:
Η απόφαση τοποθετεί την Ευρώπη στην πρώτη γραμμή των προσπαθειών ρύθμισης της τεχνολογίας.
Έπειτα από μια μαραθώνια συζήτηση 72 ωρών, οι νομοθέτες της Ευρωπαϊκής Ένωσης κατέληξαν την Παρασκευή σε μια ιστορική συμφωνία σχετικά με το επεκτατικό νομοσχέδιο για την ανάπτυξη της ασφάλειας της νομοθεσίας για την τεχνητή νοημοσύνη, το ευρύτερο και εκτενέστερο του είδους του μέχρι σήμερα, αναφέρει η Washington Post. Οι λεπτομέρειες της ίδιας της συμφωνίας δεν ήταν άμεσα διαθέσιμες.
"Αυτή η νομοθεσία θα αποτελέσει πρότυπο, ένα μοντέλο, για πολλές άλλες δικαιοδοσίες εκεί έξω", δήλωσε ο Dragoș Tudorache, ρουμάνος νομοθέτης που είναι συν-επικεφαλής της διαπραγμάτευσης του νόμου για την τεχνητή νοημοσύνη, στην εφημερίδα The Washington Post, "πράγμα που σημαίνει ότι πρέπει να έχουμε ένα επιπλέον καθήκον προσοχής όταν το συντάσσουμε, επειδή πρόκειται να επηρεάσει πολλούς άλλους".
Οι προτεινόμενοι κανονισμοί θα υπαγορεύουν τους τρόπους με τους οποίους τα μελλοντικά μοντέλα μηχανικής μάθησης θα μπορούν να αναπτύσσονται και να διανέμονται εντός του εμπορικού μπλοκ, επηρεάζοντας τη χρήση τους σε εφαρμογές που κυμαίνονται από την εκπαίδευση έως την απασχόληση και την υγειονομική περίθαλψη. Η ανάπτυξη της τεχνητής νοημοσύνης θα χωρίζεται σε τέσσερις κατηγορίες ανάλογα με το πόσο κοινωνικό κίνδυνο ενέχει δυνητικά η καθεμία - ελάχιστη, περιορισμένη, υψηλή και απαγορευμένη.
Οι απαγορευμένες χρήσεις θα περιλαμβάνουν οτιδήποτε καταστρατηγεί τη βούληση του χρήστη, στοχεύει σε προστατευόμενες κοινωνικές ομάδες ή παρέχει βιομετρική παρακολούθηση σε πραγματικό χρόνο (όπως η αναγνώριση προσώπου). Οι χρήσεις υψηλού κινδύνου περιλαμβάνουν οτιδήποτε "προορίζεται να χρησιμοποιηθεί ως συστατικό ασφαλείας ενός προϊόντος" ή που πρόκειται να χρησιμοποιηθεί σε καθορισμένες εφαρμογές, όπως οι κρίσιμες υποδομές, η εκπαίδευση, τα νομικά/δικαστικά θέματα και οι προσλήψεις εργαζομένων. Τα chatbots όπως το ChatGPT, το Bard και το Bing θα εμπίπτουν στις μετρήσεις "περιορισμένου κινδύνου".
"Η Ευρωπαϊκή Επιτροπή για άλλη μια φορά βγήκε με τολμηρό τρόπο για να αντιμετωπίσει την αναδυόμενη τεχνολογία, όπως ακριβώς είχε κάνει και με την προστασία της ιδιωτικής ζωής των δεδομένων μέσω του ΓΚΠΔ", δήλωσε στο Engadget το 2021 η Dr. Brandie Nonnecke, διευθύντρια του εργαστηρίου πολιτικής CITRIS στο UC Berkeley. "Η προτεινόμενη ρύθμιση είναι αρκετά ενδιαφέρουσα στο ότι επιτίθεται στο πρόβλημα από μια προσέγγιση που βασίζεται στον κίνδυνο", παρόμοια με αυτή που έχει προταθεί στο προτεινόμενο κανονιστικό πλαίσιο για την τεχνητή νοημοσύνη του Καναδά.
Οι τρέχουσες διαπραγματεύσεις σχετικά με τους προτεινόμενους κανόνες είχαν διακοπεί τις τελευταίες εβδομάδες από τη Γαλλία, τη Γερμανία και την Ιταλία. Οι εν λόγω χώρες εμπόδιζαν τις συνομιλίες σχετικά με τους κανόνες που καθοδηγούσαν τον τρόπο με τον οποίο τα κράτη μέλη της ΕΕ θα μπορούσαν να αναπτύξουν Θεμελιώδη Μοντέλα, γενικευμένες Τεχνητές Νοημοσύνες από τις οποίες θα μπορούσαν να βελτιωθούν πιο εξειδικευμένες εφαρμογές. Το GPT-4 του OpenAI είναι ένα τέτοιο θεμελιώδες μοντέλο, καθώς το ChatGPT, τα GPT και άλλες εφαρμογές τρίτων εκπαιδεύονται από τη βασική του λειτουργικότητα. Η τριάδα των χωρών ανησυχούσε ότι οι αυστηροί κανονισμοί της ΕΕ σχετικά με τα μοντέλα γεννητικής ΤΝ θα μπορούσαν να παρεμποδίσουν τις προσπάθειες των κρατών μελών να τα αναπτύξουν ανταγωνιστικά.
Η Ευρωπαϊκή Επιτροπή είχε προηγουμένως αντιμετωπίσει τις αυξανόμενες προκλήσεις της διαχείρισης των αναδυόμενων τεχνολογιών ΤΝ μέσω μιας ποικιλίας προσπαθειών, εκδίδοντας τόσο την πρώτη ευρωπαϊκή στρατηγική για την ΤΝ όσο και το συντονισμένο σχέδιο για την ΤΝ το 2018, ακολουθούμενο από τις κατευθυντήριες γραμμές για την αξιόπιστη ΤΝ το 2019. Το επόμενο έτος, η Επιτροπή εξέδωσε Λευκή Βίβλο για την ΤΝ και Έκθεση σχετικά με τις επιπτώσεις της Τεχνητής Νοημοσύνης, του Διαδικτύου των Πραγμάτων και της ρομποτικής στην ασφάλεια και την ευθύνη.
"Η τεχνητή νοημοσύνη δεν πρέπει να αποτελεί αυτοσκοπό, αλλά ένα εργαλείο που πρέπει να εξυπηρετεί τους ανθρώπους με απώτερο στόχο την αύξηση της ανθρώπινης ευημερίας", έγραψε η Ευρωπαϊκή Επιτροπή στο σχέδιο κανονισμών για την τεχνητή νοημοσύνη. "Οι κανόνες για την τεχνητή νοημοσύνη που διατίθεται στην αγορά της Ένωσης ή επηρεάζει με άλλο τρόπο τους πολίτες της Ένωσης θα πρέπει συνεπώς να θέτουν τον άνθρωπο στο επίκεντρο (να είναι ανθρωποκεντρικοί), ώστε να μπορούν να εμπιστεύονται ότι η τεχνολογία χρησιμοποιείται με τρόπο ασφαλή και σύμφωνο με το νόμο, συμπεριλαμβανομένου του σεβασμού των θεμελιωδών δικαιωμάτων".
"Ταυτόχρονα, οι εν λόγω κανόνες για την τεχνητή νοημοσύνη θα πρέπει να είναι ισορροπημένοι, αναλογικοί και να μην περιορίζουν ή εμποδίζουν άσκοπα την τεχνολογική ανάπτυξη", συνεχίζει. "Αυτό έχει ιδιαίτερη σημασία διότι, μολονότι η τεχνητή νοημοσύνη είναι ήδη παρούσα σε πολλές πτυχές της καθημερινής ζωής των ανθρώπων, δεν είναι δυνατόν να προβλεφθούν όλες οι πιθανές χρήσεις ή εφαρμογές της που μπορεί να συμβούν στο μέλλον".
Πιο πρόσφατα, η Ευρωπαϊκή Επιτροπή άρχισε να συνεργάζεται με τα μέλη του κλάδου σε εθελοντική βάση για τη δημιουργία εσωτερικών κανόνων που θα επέτρεπαν στις εταιρείες και τις ρυθμιστικές αρχές να λειτουργούν βάσει των ίδιων συμφωνημένων βασικών κανόνων. "[Ο διευθύνων σύμβουλος της Google Sundar Pichai] και εγώ συμφωνήσαμε ότι δεν έχουμε την πολυτέλεια να περιμένουμε έως ότου ο κανονισμός για την τεχνητή νοημοσύνη καταστεί πραγματικά εφαρμόσιμος και να συνεργαστούμε με όλους τους προγραμματιστές τεχνητής νοημοσύνης για να αναπτύξουμε ήδη ένα σύμφωνο για την τεχνητή νοημοσύνη σε εθελοντική βάση πριν από τη νομική προθεσμία", δήλωσε ο επικεφαλής της βιομηχανίας της Ευρωπαϊκής Επιτροπής (ΕΚ) Τιερί Μπρετόν σε δήλωση του Μαΐου. Η ΕΚ έχει ξεκινήσει παρόμοιες συζητήσεις και με εταιρείες με έδρα τις ΗΠΑ.
Πηγή: The EU has reached a historic regulatory agreement over AI development






