29 Μαρτίου 2024

Είναι το Cloud έτοιμο για τα Big Data;

Η τεχνολογία, μας έχει αποφέρει μεγάλο όγκο δεδομένων, ωστόσο, με οποιοδήποτε trending, νέα τεχνολογία ή εφεύρεση που να ονομάζεται 'κύμα του μέλλοντος' είναι σημαντικό να κοιτάξουμε την διαφημιστική εκστρατεία και να αναλύσουμε τι πραγματικά συμβαίνει. Επίσης, παρότι αποδίδεται μεγάλη σημασία στην συλλογή δεδομένων, ένα μικρό ποσοστό από αυτά χρησιμοποιούνται.

Σύμφωνα με το MIT Technology Review, μόνον το 0.5% των ψηφιακών δεδομένων έχει αναλυθεί. Από την πλευρά των επιχειρήσεων, αυτό σημαίνει ότι εκατομμύρια εταιρείες έχουν χάσει σημαντικές ευκαιρίες να αυξήσουν την αποδοτικότητά τους, το κέρδος τους, ακόμη και να βρουν νέους πελάτες, επειδή δεν αναλύουν τα δεδομένα που συλλέγουν.

Ενώ το ποσοστό που αναλύονται είναι απογοητευτικό, τα δεδομένα που συλλέγονται αυξάνονται με εκθετικό ρυθμό. Μέχρι το 2020 κάθε άνθρωπος θα δημιουργεί περίπου 1.7 megabytes/δευτερόλεπτο.

Όταν ψάχνουμε γιατί η ανάλυση των δεδομένων υστερεί και πως μπορούμε να επιλύσουμε το πρόβλημα, είναι σημαντικό να σκεφτούμε που είναι αποθηκευμένα τα δεδομένα. Ενώ ορισμένοι οργανισμοί αποθηκεύουν τα δεδομένα για χρόνια στο Cloud, τα ευαίσθητα δεδομένα τους διατηρούνται στις εγκαταστάσεις επεξεργασίας των δεδομένων. Παρότι οι υποδομές είναι ασφαλείς, οι επιχειρήσεις θα πρέπει να ξοδέψουν χρήματα αλλά και χρόνο για να χτίσουν ένα τέτοιο κέντρο.

To Cloud έχει αυτοματοποιήσει μερικά από τα μεγάλα “βάρη” της τεχνολογίας και είναι οικονομικά αποδοτικό, αλλά δεν έχει τελειοποιηθεί για να αντιμετωπίσει τα μεγάλα δεδομένα. Η μετακίνηση μεγάλων ποσοτήτων δεδομένων μέσα και έξω από το Cloud γίνεται με κίνδυνο και απειλείται η ασφάλεια των δεδομένων, ειδικά όταν έχουμε να κάνουμε με terabytes, petabytes ακόμη και exabytes. Επίσης, οι παραδοσιακές λύσεις των Clouds δεν πληρούν ακόμη τις ελάχιστες απαιτήσεις, που απαιτούνται για την ένταξη εφαρμογών μεγάλων δεδομένων αλλά και ενσωμάτωσης λογισμικού. Οι κουραστικές εργασίες του σχεδιασμού, της ανάπτυξης και της συντήρησης των δεδομένων γίνονται από τους πελάτες.

Η Google για παράδειγμα έχει πάνω από 105 εκατομμύρια ενεργούς χρήστες και συλλέγει 14 διαφορετικούς τύπους δεδομένων συν τα κλικ στις διαφημίσεις, πληροφορίες του προγράμματος περιήγησης, ερωτήματα αναζήτησης και πολλά άλλα. Η αποθήκευση και η επεξεργασία αυτής της ογκώδης ποσότητας δεδομένων απαιτεί μια ισχυρή λύση, η οποία είναι συνεχής και συνεπής. Μια τέτοια λύση ήταν δύσκολο να επιτευχθεί με το virtualization καθώς είναι δύσκολο ένας διακομιστής να εξυπηρετήσει πλήθος εταιρειών. Ένα hypervisor, το οποίο επιτρέπει το virtualization αλλά εμποδίζει την ανάλυση όταν είναι πολλοί χρήστες ενεργοί. Αυτό το φαινόμενο είναι γνωστό ως ο 'θορυβώδης γείτονας ή ενοχλητικός γείτονας' και κατορθώνοντας να περιορίζει τις δυνατότητες του Cloud, εξυπηρετεί πολλούς χρήστες.

Μέχρι αυτό το σημείο, οι δύο μεγάλες λύσεις που έχουμε για την αποθήκευση και την επεξεργασία των δεδομένων είναι είτε δαπανηρές (κέντρα αποθήκευσης δεδομένων) ή αναξιόπιστες ή ανεπαρκώς αυτοματοποιημένα και χωρίς ασφάλεια (virtualized cloud). Χωρίς σαφή λύση, αυτό που μπορούμε να κάνουμε είναι να αξιοποιήσουμε όσα δεδομένα έχουμε στο μέγιστο.

Τρεις φάσεις τις τεχνολογικής καινοτομίας

Οι σημαντικές τεχνολογικές καινοτομίες περιλαμβάνουν τα μεγάλα δεδομένα και συνήθως κινούνται σε τρεις φάσεις.

Η πρώτη είναι οι υποδομές, ο ακρογωνιαίος λίθος της αρχιτεκτονικής των δεδομένων.

Η δεύτερη φάση περιλαμβάνει τα εργαλεία που δημιουργήθηκαν για να βοηθήσουν την τεχνολογία και τρίτη και τελευταία είναι οι εφαρμογές.

Με μια υποδομή και τα διαθέσιμα εργαλεία, οι εφαρμογές των δεδομένων που έχουν αναπτυχθεί για τα Clouds είναι τα εξής:

  • Programming Frameworks: Hadoop, Apache Spark
  • SQL βάσεις δεδομένων: Oracle, MySQL
  • NoSQL βάσεις δεδομένων: Datastax, MongoDB, Couchbase
  • Analytics: Datameer, Platfora, Trifacta
  • Visual Analytics: Zoomdata, Tableau

Το σύννεφο γίνεται όλο και πιο "ελαφρύ" για μεγάλα δεδομένα. Το bare-metal cloud παρουσιάζεται ως μια ειδική υποδομή η οποία θα είναι το μέλλον των "έργων" των δεδομένων που βασίζονται στα Clouds. Όπως αναφέραμε και παραπάνω, το παραδοσιακό σύννεφο παρουσιάζει έλλειψη ασφάλειας και μειωμένες επιδόσεις. Το bare-metal cloud απομονώνει τους χρήστες, οπότε έχουμε μεγαλύτερες αποδόσεις καθ όλη την διάρκεια μιας διαδικασίας και ελαχιστοποίηση του κόστους, αφού δεν χρειάζεται οι επιχειρήσεις να δαπανήσουν υπέρογκα ποσά για την κατασκευή κτιρίων φύλαξης των δεδομένων τους.

Πηγή: http://dataconomy.com