
23 Απριλίου 2026
Τα M2 Macs δημιουργούν τώρα εικόνες Stable Diffusion σε λιγότερο από 18 δευτερόλεπτα

Περίληψη άρθρου:
Η Apple κυκλοφόρησε βελτιστοποιήσεις στο Core ML για το Stable Diffusion, μια γεννήτρια εικόνων τεχνητής νοημοσύνης παρόμοια με το DALL-E. Οι χρήστες μπορούν να εισάγουν μια προτροπή κειμένου και η τεχνητή νοημοσύνη θα παράγει μια εικόνα. Με το αυξανόμενο ενδιαφέρον για το Stable Diffusion, η Apple υπογραμμίζει τα πλεονεκτήματα της τοπικής εκτέλεσης του αντί σε διακομιστή. Σε αυτά περιλαμβάνονται η διασφάλιση της ιδιωτικότητας καθώς τα δεδομένα των χρηστών παραμένουν στη συσκευή, η μεγαλύτερη ευελιξία καθώς οι χρήστες δεν χρειάζονται σύνδεση στο διαδίκτυο και η μείωση του κόστους με την εξάλειψη του κόστους που σχετίζεται με τον διακομιστή. Οι βελτιστοποιήσεις επέτρεψαν στις βασικές συσκευές M2 Macbook Air να παράγουν εικόνες χρησιμοποιώντας ένα μοντέλο Stable Diffusion με 50 βήματα εξαγωγής συμπερασμάτων σε λιγότερο από 18 δευτερόλεπτα.
Κύρια σημεία του άρθρου:
- Η Apple κυκλοφόρησε βελτιστοποιήσεις στο Core ML για σταθερή διάχυση στο macOS 13.1 και στο iOS 16.2.
- Μετά τις βελτιστοποιήσεις, οι συσκευές Mac με βάση το M2 μπορούν να δημιουργήσουν εικόνες Stable Diffusion σε λιγότερο από 18 δευτερόλεπτα.
- Το iPad Pro M1 μπορεί να δημιουργήσει μια εικόνα χρησιμοποιώντας ένα μοντέλο Stable Diffusion με 50 βήματα εξαγωγής συμπερασμάτων σε λιγότερο από 30 δευτερόλεπτα.
- Η Apple κυκλοφόρησε ένα πακέτο Python και ένα πακέτο Swift για να βοηθήσει τους προγραμματιστές να μετατρέψουν και να αναπτύξουν μοντέλα Stable Diffusion.
Αναλυτικά το άρθρο:
Νέες βελτιστοποιήσεις επέτρεψαν στις συσκευές Mac με βάση το M2 να παράγουν εικόνες Stable Diffusion σε λιγότερο από 18 δευτερόλεπτα.
Το Stable Diffusion είναι μια γεννήτρια εικόνων τεχνητής νοημοσύνης παρόμοια με το DALL-E. Οι χρήστες μπορούν να εισάγουν μια προτροπή κειμένου και η τεχνητή νοημοσύνη θα παράγει μια εικόνα που συχνά είναι πολύ καλύτερη από αυτό που οι περισσότεροι από εμάς τους κοινούς θνητούς μπορούμε να κάνουμε.
Η Apple είναι υποστηρικτής του προγράμματος Stable Diffusion και δημοσίευσε μια ενημέρωση στο blog της για τη μηχανική μάθηση αυτή την εβδομάδα σχετικά με το πώς βελτιώνεται η απόδοση στους Mac.
"Πέρα από τη δημιουργία εικόνων από προτροπές κειμένου, οι προγραμματιστές ανακαλύπτουν και άλλες δημιουργικές χρήσεις για το Stable Diffusion, όπως επεξεργασία εικόνας, in-Painting, out-Painting, super-resolution, μεταφορά στυλ και ακόμη και δημιουργία παλέτας χρωμάτων", έγραψε η Apple.
"Με τον αυξανόμενο αριθμό εφαρμογών του Stable Diffusion, η διασφάλιση ότι οι προγραμματιστές μπορούν να αξιοποιήσουν αποτελεσματικά αυτή την τεχνολογία είναι σημαντική για τη δημιουργία εφαρμογών που θα μπορούν να χρησιμοποιούν οι απανταχού δημιουργοί".
Η Apple υπογραμμίζει ότι υπάρχουν πολλοί λόγοι για τους ανθρώπους που θέλουν να τρέξουν το Stable Diffusion τοπικά αντί για έναν διακομιστή:
- Διασφάλιση του απορρήτου - Τα δεδομένα των χρηστών παραμένουν στη συσκευή.
- Περισσότερη ευελιξία - Οι χρήστες δεν χρειάζεται να συνδεθούν στο διαδίκτυο.
- Μειωμένο κόστος - Οι χρήστες μπορούν να εξαλείψουν τα έξοδα που σχετίζονται με τον διακομιστή.
Η Apple αναφέρει ότι έχει κυκλοφορήσει βελτιστοποιήσεις στο Core ML για το Stable Diffusion στο macOS 13.1 και στο iOS 16.2, μαζί με κώδικα για να βοηθήσει στην έναρξη σε συσκευές που βασίζονται σε M.
Μετά τις βελτιστοποιήσεις, ένα βασικό M2 Macbook Air μπορεί να δημιουργήσει μια εικόνα χρησιμοποιώντας ένα μοντέλο Stable Diffusion με 50 βήματα συμπερασμού σε λιγότερο από 18 δευτερόλεπτα. Αναμφισβήτητα πιο εντυπωσιακό είναι ότι ακόμη και ένα iPad Pro M1 μπορεί να κάνει τη δουλειά σε λιγότερο από 30 δευτερόλεπτα.
Η έκδοση περιλαμβάνει επίσης ένα πακέτο Python για τη μετατροπή των μοντέλων Stable Diffusion από το PyTorch στο Core ML χρησιμοποιώντας diffusers και coremltools, καθώς και ένα πακέτο Swift για την ανάπτυξη των μοντέλων.
Πηγή: M2 Macs now generate Stable Diffusion images in under 18 seconds






