Quantcast

Η διαχείριση των τεράστιων όγκων δεδομένων με τεχνολογία “ανάλυσης σε πραγματικό χρόνο”

Για μια διαφορετική προσέγγιση στο ζήτημα της εκρηκτικής αύξησης των δεδομένων που σήμερα «παράγει» ο άνθρωπος σε όλο τον πλανήτη μίλησε η κ. Αναστασία Αϊλαμάκη

Για μια διαφορετική προσέγγιση στο ζήτημα της εκρηκτικής αύξησης των δεδομένων που σήμερα «παράγει» ο άνθρωπος σε όλο τον πλανήτη μίλησε η κ. Αναστασία Αϊλαμάκη, κεντρική ομιλήτρια στο 9ο Technology Forum, καθηγήτρια του Τμήματος Πληροφορικής και Επικοινωνιών του Ομοσπονδιακού Πολυτεχνείου της Λωζάνης (EPFL), συνιδρύτρια και διευθύνουσα σύμβουλος της «RAW Labs SA», εταιρείας με έδρα την Ελβετία, η οποία δραστηριοποιείται στην ανάπτυξη συστημάτων για την ανάλυση ετερογενών Μεγάλων Δεδομένων από πολλαπλές πηγές.

Αναφερόμενη στον εκρηκτικό ρυθμό με τον οποίο δημιουργούνται, αποθηκεύονται και πρέπει να αναλύονται δεδομένα σήμερα η κ. Αϊλαμάκη πρότεινε την δική της οπτική που αποκαλεί “από το LotsOfCode στο NoCode”, μια φιλοσοφία διαχείρισης δεδομένων που βασίζεται στο ότι, όπως ανέφερε, σήμερα η επεξεργαστική τεχνολογία παγκόσμια προχωρά πολύ πιο αργά από την συλλογή δεδομένων. “Κανένας κώδικας δεν μπορεί να μας βγάλει από τη δυσκολία που είναι πως δεν υπάρχει κώδικας που να μπορεί να διαχειριστεί τόσα data που συλλέγουμε πια…”, τόνισε η καθηγήτρια του Τμήματος Πληροφορικής και Επικοινωνιών του Ομοσπονδιακού Πολυτεχνείου της Λωζάνης (EPFL) που εργάζεται εδώ και χρόνια πάνω στο ζήτημα της διαχείρισης δεδομένων (σ.σ. data management).

Σύμφωνα με την Ελληνίδα το ζήτημα που προκύπτει με τον όγκο και τον τρόπο επεξεργασίας δεδομένων δημιουργεί θέματα και στην λήψη αποφάσεων (σ.σ Decision Making). “Αν και έχουμε δεδομένα, δεν ξέρουμε τι να κάνουμε…”, τόνισε η ειδικός και εξήγησε πως σε αυτή την πραγματικότητα που έχει να αντιμετωπίσει κάποιος που του έχει ανατεθεί η εξαγωγή συμπερασμάτων από αυτά τα βουνά των δεδομένων, το τελικό συμπέρασμα που μπορεί να βγει συχνά επηρεάζεται από τρία πράγματα. Τον όγκο των δεδομένων, τον εξοπλισμό (σ.σ hardware) που χρησιμοποιεί κανείς και τις εφαρμογές  (σ.σ applications) που έχει, τρεις δυναμικές οι οποίες ωθούν τα συμπεράσματα από τα δεδομένα η κάθε μια προς την δική της κατεύθυνση. “Τα τόσα πολλά δεδομένα καταλήγουνε τελικά να είναι… εμπόδιο στην ανακάλυψη,” σχολίασε η κ. Αϊλαμάκη.

Για την ίδια η λύση έρχεται από την επεξεργασία την ‘τελευταία στιγμή’. “Το πρόβλημα δεν είναι ο όγκος αλλά η ποικιλία των δεδομένων. Οι διάφορες μορφές των δεδομένων. Πλέον έχουμε πολλών ειδών δεδομένα ενώ τα περισσότερα σήμερα μάλιστα παράγονται από υπολογιστικές μηχανές (σ.σ. machine generated data)” εξηγεί η καθηγήτρια του Τμήματος Πληροφορικής και Επικοινωνιών του Ομοσπονδιακού Πολυτεχνείου της Λωζάνης. Σύμφωνα με την κα. Αϊλαμάκη αυτό που χρειάζεται πλέον είναι η επεξεργασία ετερογενών δεδομένων εκείνη ακριβώς τη στιγμή (σ.σ “just in time generated engine”) που το σύστημα βλέπει τα δεδομένα που φτάνουν σε αυτό. Τότε αυτό θα πρέπει να διαθέτει μια εφαρμογή που να ξεκινά να τα επεξεργάζεται εκείνη τη στιγμή. “Κάτι σαν τον… αντάπτορα πρίζας που βάζουμε όταν πάμε σε άλλη χώρα που έχει άλλου τύπου πρίζες τη στιγμή ακριβώς που συνδεόμαστε στο ρεύμα”, εξηγεί η κα. Αϊλαμάκη.

Με την τεχνολογία που περιγράφει η Ελληνίδα η καθηγήτρια Πληροφορικής και Επικοινωνιών “στην ουσία έχεις όλα τα διαθέσιμα δεδομένα άλλα δεν κάνεις τίποτα με αυτά πάρα όταν έχεις ένα ερώτημα (σ.σ query), τονίζει η ειδικός που εξηγεί έτσι μπορεί να υπάρχει ένα καλύτερο αποτέλεσμα μετά την ανάλυση των δεδομένων αφού “χρησιμοποιούμε πια τεχνολογίες σε πραγματικό χρόνο (σ.σ Real Time Intelligence) στη διαχείριση των δεδομένων μας”.