
21 Μαρτίου 2025

Το νέο μοντέλο τεχνητής νοημοσύνης Llama 3.1 της Meta είναι δωρεάν, ισχυρό και ριψοκίνδυνο

Περίληψη Άρθρου:
Η Meta κυκλοφόρησε το LLAMA 3.1, ένα ισχυρό γλωσσικό μοντέλο, δωρεάν, διαφορετικό από τις κλειστές προσεγγίσεις άλλων εταιρειών AI. Ενώ θεωρείται εξαιρετικά ικανό και ενδεχομένως μετασχηματιστικό, οι ανησυχίες σχετικά με την ασφάλεια του AI οφείλονται σε πιθανή κατάχρηση. Η META σκοπεύει να ενθαρρύνει την έρευνα όσον αφορά την ασφάλειά του ενώ επιβάλλει περιορισμούς στην εμπορική χρήση, εξασφαλίζοντας ορισμένες διασφαλίσεις κατά των επιβλαβών εφαρμογών.
Κύρια σημεία του άρθρου:
- Η Meta κυκλοφόρησε το LLAMA 3.1, ένα ισχυρό γλωσσικό μοντέλο.
- Το LLAMA 3.1 είναι δωρεάν και διαφέρει από κλειστές προσεγγίσεις άλλων εταιρειών AI.
- Το μοντέλο θεωρείται εξαιρετικά ικανό και δυνητικά μετασχηματιστικό.
- Υπάρχουν ανησυχίες σχετικά με την ασφάλεια του AI που οφείλονται σε πιθανή κατάχρηση.
- Η META σκοπεύει να ενθαρρύνει την έρευνα όσον αφορά την ασφάλεια του AI περιορίζοντας παράλληλα την εμπορική χρήση.
- Οι διασφαλίσεις εφαρμόζονται για την πρόληψη των επιβλαβών εφαρμογών.
Αναλυτικά το άρθρο:
Η νεότερη έκδοση του Llama θα καταστήσει την τεχνητή νοημοσύνη πιο προσιτή και εξατομικευμένη, αλλά θα προκαλέσει επίσης προβληματισμό σχετικά με τους κινδύνους της κυκλοφορίας της τεχνητής νοημοσύνης χωρίς προστατευτικά μέτρα.
ΟΙ ΠΕΡΙΣΣΟΤΕΡΟΙ ΤΕΧΝΟΛΟΓΟΙ ελπίζουν να πουλήσουν την τεχνητή νοημοσύνη στις μάζες. Αλλά ο Μαρκ Ζούκερμπεργκ δίνει δωρεάν αυτό που η Meta θεωρεί ότι είναι ένα από τα καλύτερα μοντέλα τεχνητής νοημοσύνης στον κόσμο.
Η Meta κυκλοφόρησε τη Δευτέρα δωρεάν τη μεγαλύτερη και πιο ικανή έκδοση ενός μεγάλου γλωσσικού μοντέλου που ονομάζεται Llama. Η Meta δεν έχει αποκαλύψει το κόστος ανάπτυξης του Llama 3.1, αλλά ο Ζούκερμπεργκ δήλωσε πρόσφατα στους επενδυτές ότι η εταιρεία του δαπανά δισεκατομμύρια για την ανάπτυξη της τεχνητής νοημοσύνης.
Μέσω αυτής της τελευταίας έκδοσης, η Meta δείχνει ότι η κλειστή προσέγγιση που προτιμούν οι περισσότερες εταιρείες τεχνητής νοημοσύνης δεν είναι ο μόνος τρόπος για την ανάπτυξη της τεχνητής νοημοσύνης. Αλλά η εταιρεία θέτει επίσης τον εαυτό της στο επίκεντρο της συζήτησης σχετικά με τους κινδύνους που εγκυμονεί η κυκλοφορία AI χωρίς ελέγχους. Η Meta εκπαιδεύει το Llama με τρόπο που αποτρέπει το μοντέλο από το να παράγει εξ ορισμού επιβλαβή αποτελέσματα, αλλά το μοντέλο μπορεί να τροποποιηθεί ώστε να αφαιρεθούν αυτές οι διασφαλίσεις.
Η Meta λέει ότι το Llama 3.1 είναι εξίσου έξυπνο και χρήσιμο με τις καλύτερες εμπορικές προσφορές από εταιρείες όπως η OpenAI, η Google και η Anthropic. Σε ορισμένα κριτήρια αναφοράς που μετρούν την πρόοδο στην τεχνητή νοημοσύνη, η Meta λέει ότι το μοντέλο είναι η πιο έξυπνη τεχνητή νοημοσύνη στη γη.
«Είναι πολύ συναρπαστικό», λέει ο Percy Liang, αναπληρωτής καθηγητής στο Πανεπιστήμιο του Στάνφορντ που παρακολουθεί την τεχνητή νοημοσύνη ανοιχτού κώδικα. Αν οι προγραμματιστές βρουν ότι το νέο μοντέλο είναι εξίσου ικανό με τα κορυφαία της βιομηχανίας, συμπεριλαμβανομένου του GPT-4o του OpenAI, λέει ο Liang, θα μπορούσε να δει πολλούς να περνούν στην προσφορά της Meta. «Θα είναι ενδιαφέρον να δούμε πώς θα αλλάξει η χρήση», λέει.
Σε μια ανοιχτή επιστολή που αναρτήθηκε με την κυκλοφορία του νέου μοντέλου, ο διευθύνων σύμβουλος της Meta Zuckerberg συνέκρινε το Llama με το λειτουργικό σύστημα ανοικτού κώδικα Linux. Όταν το Linux απογειώθηκε στα τέλη της δεκαετίας του '90 και στις αρχές της δεκαετίας του 2000, πολλές μεγάλες εταιρείες τεχνολογίας είχαν επενδύσει σε κλειστές εναλλακτικές λύσεις και κατέκριναν το λογισμικό ανοιχτού κώδικα ως επικίνδυνο και αναξιόπιστο. Σήμερα, ωστόσο, το Linux χρησιμοποιείται ευρέως στο cloud computing και χρησιμεύει ως πυρήνας του λειτουργικού συστήματος Android για κινητά τηλέφωνα.
«Πιστεύω ότι η τεχνητή νοημοσύνη θα αναπτυχθεί με παρόμοιο τρόπο», γράφει ο Ζούκερμπεργκ στην επιστολή του. «Σήμερα, αρκετές εταιρείες τεχνολογίας αναπτύσσουν κορυφαία κλειστά μοντέλα. Αλλά ο ανοιχτός κώδικας κλείνει γρήγορα το χάσμα».
Ωστόσο, η απόφαση της Meta να παραχωρήσει την τεχνητή νοημοσύνη της δεν στερείται ιδιοτελούς συμφέροντος. Οι προηγούμενες κυκλοφορίες του Llama βοήθησαν την εταιρεία να εξασφαλίσει μια σημαίνουσα θέση μεταξύ των ερευνητών AI, των προγραμματιστών και των νεοφυών επιχειρήσεων. Ο Liang σημειώνει επίσης ότι το Llama 3.1 δεν είναι πραγματικά ανοιχτού κώδικα, επειδή η Meta επιβάλλει περιορισμούς στη χρήση του - για παράδειγμα, περιορίζοντας την κλίμακα στην οποία το μοντέλο μπορεί να χρησιμοποιηθεί σε εμπορικά προϊόντα.
Η νέα έκδοση του Llama έχει 405 δισεκατομμύρια παραμέτρους ή στοιχεία που μπορούν να ρυθμιστούν. Η Meta έχει ήδη κυκλοφορήσει δύο μικρότερες εκδόσεις του Llama 3, μία με 70 δισεκατομμύρια παραμέτρους και μία άλλη με 8 δισεκατομμύρια. Η Meta κυκλοφόρησε σήμερα επίσης αναβαθμισμένες εκδόσεις αυτών των μοντέλων με την ονομασία Llama 3.1.
Το Llama 3.1 είναι πολύ μεγάλο για να εκτελεστεί σε έναν κανονικό υπολογιστή, αλλά η Meta αναφέρει ότι πολλοί πάροχοι cloud, συμπεριλαμβανομένων των Databricks, Groq, AWS και Google Cloud, θα προσφέρουν επιλογές φιλοξενίας που θα επιτρέπουν στους προγραμματιστές να εκτελούν προσαρμοσμένες εκδόσεις του μοντέλου. Το μοντέλο είναι επίσης προσβάσιμο στη διεύθυνση Meta.ai.
Ορισμένοι προγραμματιστές λένε ότι η νέα έκδοση του Llama θα μπορούσε να έχει ευρείες συνέπειες για την ανάπτυξη της τεχνητής νοημοσύνης. Η Stella Biderman, εκτελεστική διευθύντρια του EleutherAI, ενός έργου τεχνητής νοημοσύνης ανοικτού κώδικα, σημειώνει επίσης ότι το Llama 3 δεν είναι πλήρως ανοικτού κώδικα. Αλλά η Biderman σημειώνει ότι μια αλλαγή στην τελευταία άδεια χρήσης της Meta θα επιτρέψει στους προγραμματιστές να εκπαιδεύσουν τα δικά τους μοντέλα χρησιμοποιώντας το Llama 3, κάτι που οι περισσότερες εταιρείες AI απαγορεύουν επί του παρόντος. «Αυτό είναι μια πολύ, πολύ μεγάλη υπόθεση», λέει ο Biderman.
Σε αντίθεση με το OpenAI και τα τελευταία μοντέλα της Google, το Llama δεν είναι «πολυτροπικό», δηλαδή δεν έχει κατασκευαστεί για να χειρίζεται εικόνες, ήχο και βίντεο. Αλλά η Meta λέει ότι το μοντέλο είναι σημαντικά καλύτερο στη χρήση άλλου λογισμικού, όπως ένα πρόγραμμα περιήγησης στο διαδίκτυο, κάτι που πολλοί ερευνητές και εταιρείες πιστεύουν ότι θα μπορούσε να κάνει την τεχνητή νοημοσύνη πιο χρήσιμη.
Αφού η OpenAI κυκλοφόρησε το ChatGPT στα τέλη του 2022, ορισμένοι ειδικοί της τεχνητής νοημοσύνης ζήτησαν να υπάρξει μορατόριουμ στην ανάπτυξη της τεχνητής νοημοσύνης, από φόβο ότι η τεχνολογία θα μπορούσε να χρησιμοποιηθεί καταχρηστικά ή να είναι πολύ ισχυρή για να ελεγχθεί. Ο υπαρξιακός συναγερμός έχει έκτοτε καταλαγιάσει, αλλά πολλοί εμπειρογνώμονες εξακολουθούν να ανησυχούν ότι τα απεριόριστα μοντέλα AI θα μπορούσαν να χρησιμοποιηθούν καταχρηστικά από χάκερ ή να χρησιμοποιηθούν για την επιτάχυνση της ανάπτυξης βιολογικών ή χημικών όπλων.
«Οι απανταχού εγκληματίες του κυβερνοχώρου θα ενθουσιαστούν», λέει ο Geoffrey Hinton, ένας νικητής του βραβείου Turing, του οποίου η πρωτοποριακή εργασία σε έναν τομέα της μηχανικής μάθησης, γνωστό ως βαθιά μάθηση, έθεσε τις βάσεις για μεγάλα γλωσσικά μοντέλα.
Ο Hinton εντάχθηκε στην Google το 2013, αλλά αποχώρησε από την εταιρεία πέρυσι για να μιλήσει για τους πιθανούς κινδύνους που μπορεί να προκύψουν από τα πιο προηγμένα μοντέλα τεχνητής νοημοσύνης. Λέει ότι η τεχνητή νοημοσύνη είναι θεμελιωδώς διαφορετική από το λογισμικό ανοικτού κώδικα, επειδή τα μοντέλα δεν μπορούν να ελεγχθούν με τον ίδιο τρόπο. «Οι άνθρωποι τελειοποιούν τα μοντέλα για τους δικούς τους σκοπούς, και ορισμένοι από αυτούς τους σκοπούς είναι πολύ κακοί», προσθέτει.
Η Meta έχει συμβάλει στην εξάλειψη ορισμένων φόβων με την προσεκτική διάθεση προηγούμενων εκδόσεων του Llama. Η εταιρεία λέει ότι υποβάλλει το Llama σε αυστηρές δοκιμές ασφαλείας πριν από την κυκλοφορία και προσθέτει ότι υπάρχουν ελάχιστες αποδείξεις ότι τα μοντέλα της διευκολύνουν την ανάπτυξη όπλων. Η Meta δήλωσε ότι θα κυκλοφορήσει διάφορα νέα εργαλεία για να βοηθήσει τους προγραμματιστές να διατηρήσουν τα μοντέλα Llama ασφαλή, μετριάζοντας την παραγωγή τους και εμποδίζοντας τις προσπάθειες παραβίασης των περιορισμών. Ο Jon Carvill, εκπρόσωπος της Meta, λέει ότι η εταιρεία θα αποφασίσει κατά περίπτωση αν θα κυκλοφορήσει μελλοντικά μοντέλα.
Ο Dan Hendrycks, επιστήμονας πληροφορικής και διευθυντής του Center for AI Safety, ενός μη κερδοσκοπικού οργανισμού που επικεντρώνεται στους κινδύνους της τεχνητής νοημοσύνης, λέει ότι η Meta έχει γενικά κάνει καλή δουλειά όσον αφορά τον έλεγχο των μοντέλων της πριν τα κυκλοφορήσει. Λέει ότι το νέο μοντέλο θα μπορούσε να βοηθήσει τους εμπειρογνώμονες να κατανοήσουν τους μελλοντικούς κινδύνους. «Η σημερινή κυκλοφορία του Llama 3 θα δώσει τη δυνατότητα σε ερευνητές εκτός των μεγάλων εταιρειών τεχνολογίας να διεξάγουν την αναγκαία έρευνα για την ασφάλεια της τεχνητής νοημοσύνης».
Πηγή: Meta’s New Llama 3.1 AI Model Is Free, Powerful, and Risky