Αναζήτηση
  • Κωνσταντίνος Μουτσιάνας

Η ηθική στροφή της τεχνητής νοημοσύνης.


Ήταν μόλις λίγες ημέρες πριν ο Μαρκ Ζάκερμπεργκ ανακοινώσει τα μεγαλεπήβολα σχέδια για το «μετασύμπαν» των επιχειρήσεών του. Το Άμστερνταμ φιλοξένησε το Παγκόσμιο Συνέδριο Τεχνητής Νοημοσύνης και το «Κ» βρέθηκε εκεί, αναζητώντας τον παλμό της τεχνολογικής κοινότητας σε μια στιγμή που όλα έχουν ταυτόχρονα προεξοφληθεί και την ίδια στιγμή παραμένουν ανατριχιαστικά άγνωστα για τους περισσότερους από μας.


Το Άμστερνταμ είναι γνωστό και ως «η πόλη της αμαρτίας». Η ελεύθερη κατανάλωση προϊόντων κάνναβης και μανιταριών στα περίφημα καφενεία, αλλά και η απενοχοποιημένη παρουσίαση εκδιδόμενων γυναικών στις βιτρίνες της συνοικίας των κόκκινων φαναριών, δημιουργούν ένα ιδανικό περιβάλλον για να σκεφτεί κανείς βαθύτερα τι είναι σωστό και τι λάθος, τι μπορεί να είναι καλό και τι κακό. Δεν είχα σκοπό να εμβαθύνω σε τέτοια θέματα όταν προσγειωνόμουν στα μέσα Οκτωβρίου στο Άμστερνταμ, προκειμένου να παρακολουθήσω ένα μεγάλο συνέδριο για την τεχνητή νοημοσύνη, αλλά διαρκώς οι περιστάσεις με έστρεφαν προς τα εκεί.

Πρώτα απ’ όλα, πληροφορήθηκα από τον ταξιτζή που με μετέφερε στο ξενοδοχείο ότι τα ποσοστά εμβολιασμού στην Ολλανδία ξεπερνούν το 90%, και αυτός είναι ο λόγος που έχουν ξεφορτωθεί τις μάσκες. «Μόνο στα μέσα μαζικής μεταφοράς είναι υποχρεωτικό», με ενημέρωσε. Πράγματι, κοιτάζω έξω από το τζάμι και δεν βλέπω ούτε έναν άνθρωπο να φοράει μάσκα, μέσα κι έξω από τα μαγαζιά.


Το ίδιο συμβαίνει και την επόμενη μέρα στο πολυπληθές συνέδριο. Όταν αρχίζω να ψάχνω λίγο καλύτερα το ποσοστό εμβολιασμού, μαθαίνω από έγκυρη πηγή ότι βρίσκεται λίγο κάτω από το 70%. Φαίνεται ότι οι Ολλανδοί είναι συνεννοημένοι να λένε ένα ψεματάκι στους ξένους, ίσως και στους ίδιους τους εαυτούς τους, καθώς οι δουλειές τους και η οικονομία τους εξαρτώνται επίσης από την ανοσία της αγέλης. Πόσο ηθικό είναι να λες ψέματα και να καθησυχάζεις τους ανθρώπους ενώ ο ιός κυκλοφορεί κανονικότατα; Να ένα από τα πρώτα ηθικά ζητήματα που αντιμετώπισα στο Άμστερνταμ. Εννοείται πως δεν χαλάρωσα ούτε στιγμή. Και η αγωνία μου κορυφώθηκε όταν, μετά από σχεδόν δύο χρόνια, έκανα την πρώτη μου χειραψία. Τελικά, προσαρμόστηκα στη συνθήκη και υποδύθηκα τον άνετο, ακολουθώντας την αγέλη. Μπορεί να μη βρίσκεις κάτι σωστό και παρ’ όλα αυτά, εξαιτίας της κοινωνικής πίεσης, να αναγκάζεσαι να το κάνεις. Αυτό είναι ο άνθρωπος, μια οντότητα που διαρκώς μαθαίνει. Αλλά εδώ δεν ήρθα για τον άνθρωπο που μαθαίνει, ήρθα για τις μηχανές που μαθαίνουν. Κι αν αύριο η ηθική των μηχανών τούς υπαγορεύει να μας λένε και κάποια ψέματα, τότε πρέπει μάλλον να λάβουμε τα μέτρα μας – πριν να είναι αργά.


Υπονομεύοντας την εμπιστοσύνη

Στις 12, 13 και 14 Οκτωβρίου, η καρδιά της κοινότητας της τεχνητής νοημοσύνης (ΤΝ) χτύπησε στο κέντρο του Άμστερνταμ. Το Παγκόσμιο Συνέδριο Τεχνητής Νοημοσύνης πραγματοποιήθηκε στο επιβλητικό κέντρο Beurs Van Berlage για πέμπτη συνεχόμενη χρονιά – με ένα απαραίτητο online διάλειμμα το 2020, λόγω κορωνοϊού. Περισσότεροι από 600 άνθρωποι συγκεντρώθηκαν εδώ –και παραπάνω από 3.500 συνδέθηκαν διαδικτυακά– προκειμένου να παρακολουθήσουν ομιλίες, εργαστήρια και συζητήσεις πάνω στις μεγάλες προκλήσεις και τις ευκαιρίες της τεχνητής νοημοσύνης. «Ενώ όλα τα προηγούμενα χρόνια συζητούσαμε για τις επιχειρηματικές ευκαιρίες, για τεχνικά ζητήματα, για επενδύσεις και συναφή, φέτος σχεδόν όλες οι παρουσιάσεις και οι συζητήσεις περιστρέφονταν γύρω από την ηθική», μου λέει ο Ματίας Βερκότερεν, ο οποίος συμβουλεύει επιχειρήσεις και οργανισμούς πάνω στην ηθική διάσταση των αυτοματισμών. Το γεγονός επιβεβαιώνεται και από τον διευθυντή της οργάνωσης του συνεδρίου, τον Τσάρλι Κράκνελ. «Πράγματι», μου λέει, «η ηθική διάσταση της ΤΝ εξετάστηκε σε βάθος και τις τρεις ημέρες. Εκτός αυτού όμως τέθηκαν και πολλά άλλα σοβαρά θέματα, όπως η ιδιωτικότητα, η χρήση των δεδομένων, η καλλιέργεια εμπιστοσύνης και οι επενδύσεις». Ρωτάω τον Βέλγο σύμβουλο γιατί δίνεται τόσο μεγάλη σημασία στην ηθική και μου δίνει την απάντηση που είχε δώσει πριν από λίγο ένας κύριος ομιλητής του συνεδρίου, ο καθηγητής στο Πανεπιστήμιο του Τίλμπουργκ, Εμίλ Άαρτς: «Η στροφή αυτή οφείλεται στα σκάνδαλα». «Τα τελευταία πέντε χρόνια, εκτός από το σκάνδαλο της Cambridge Analytica, έχουν καταγραφεί τέσσερις ακόμα σοβαρές περιπτώσεις υπονόμευσης της εμπιστοσύνης απέναντι στην ΤΝ», λέει ο Ολλανδός καθηγητής. Ένα σκάνδαλο τον χρόνο δηλαδή. Κάθε λίγο, ένας μάρτυρας δημοσίου συμφέροντος έρχεται και ταράζει τα νερά, και τίποτα δεν μας λέει ότι οι αποκαλύψεις αυτού του τύπου θα σταματήσουν. Η κυρίαρχη αίσθηση είναι το ακριβώς αντίθετο.


Περπατάω στις όχθες του ποταμού με το μυαλό μου σε όσα άκουσα στο συνέδριο. Αφήνω τη διαίσθησή μου να με οδηγήσει. Δεν ψάχνω ειδικά κάτι. Ξαφνικά, πέφτω πάνω σε ένα απρόσμενο έργο τέχνης. Είναι ξεκάθαρα το κεφάλι του ιδιοκτήτη του Facebook, του Μαρκ Ζάκερμπεργκ, μισοπνιγμένο στο ποτάμι. Λίγες ημέρες μετά, ο Μαρκ θα ανακοίνωνε τα φιλόδοξα σχέδιά του για το «μετασύμπαν» (metaverse), δίνοντας νέο όνομα και λογότυπο στις επιχειρήσεις του. Το Facebook επιχειρεί μέσω του νέου του brand ονόματι Meta μια στρατηγική μετατόπιση των λειτουργιών του προς την εικονική (VR) και επαυξημένη (AR) πραγματικότητα.


Θα αλλάξει άραγε τον χαρακτήρα της τεχνολογίας πειθούς που είναι; Θα σταματήσει να εκμεταλλεύεται τα δεδομένα των χρηστών του, να βασίζεται στην εντυπωσιοθηρία, στον εθισμό και στη χειραγώγηση του ενδιαφέροντος; Στο Άμστερνταμ, η εκπρόσωπος του Facebook προσπάθησε μέσω βιντεοκλήσης να ζωγραφίσει την ίδια ωραιοποιημένη εικόνα του μέλλοντος που ζωγράφισε και ο Μαρκ στην παρουσίαση του νέου του οράματος, αλλά δεν ξέρω πόσους έπεισε.


Τεχνολογίες υψηλού ρίσκου Στο συνέδριο μίλησαν πολλοί επιστήμονες των δεδομένων, επιχειρηματίες, πολιτικοί και διαμορφωτές πολιτικών αποφάσεων. «Διερεύνησαν επισταμένως πολλούς τρόπους αξιοποίησης της ΤΝ στην ανακάλυψη νέων φαρμάκων, στην ενίσχυση της έρευνας και στην επικοινωνία με τους πολίτες», λέει ο Κράκνελ. Ωστόσο, όλοι ανεξαιρέτως αναφέρθηκαν στην ανάγκη ρυθμίσεων της ΤΝ, αναγνωρίζοντας τον κίνδυνο που ελλοχεύει σε μια πιο χαλαρή ή ήπια προσέγγιση αυτής της τεχνολογίας. Ακούω την επιχειρηματία Ντενελίζ Λ’Εκλίζ να λέει χαρακτηριστικά ότι «μέσα στην πανδημία εκτοξεύτηκαν οι καινοτομίες και τώρα θα πρέπει να τις εξετάσουμε πιο προσεκτικά». Πράγματι, υπήρξε παγκοσμίως μια επιτάχυνση αυτούς τους τελευταίους είκοσι μήνες και τώρα μοιάζει ότι πρέπει όλοι να σταθούμε και να σκεφτούμε πώς θα πάμε παρακάτω. Η ΤΝ, η «πιο ισχυρή τεχνολογία που εφηύρε ποτέ ο άνθρωπος», σύμφωνα με την Τζάνετ Άνταμς από το Πανεπιστήμιο της Μοναδικότητας, και ο συνακόλουθος εκδημοκρατισμός της φέρνουν μεγάλες ευθύνες στις πλάτες όλων μας. Οι λέξεις που επαναλαμβάνονταν ξανά και ξανά αυτό το τριήμερο ηχούν ακόμη στα αυτιά μου. Ποικιλομορφία, περιεκτικότητα, βιωσιμότητα, δικαιοσύνη. Οι ομάδες εργασίας, αλλά και τα δεδομένα, πρέπει να αντικατοπτρίζουν όλο το φάσμα της κοινωνίας. Φαίνεται ότι εδώ στην Ευρώπη εξακολουθούμε να νοιαζόμαστε γι’ αυτά τα πράγματα, και αυτό δεν μπορεί παρά να είναι θετικό. Το νομοσχέδιο για την ΤΝ που έχει κατατεθεί στο Ευρωκοινοβούλιο για διαβούλευση απαγορεύει ρητά κάποιες υψηλού ρίσκου τεχνολογίες ΤΝ.

Η ΕΕ έχει πάρει πολύ στα σοβαρά τον ρόλο της και έχει διαβαθμίσει τις απειλές σε μια «πυραμίδα κινδύνου». Αλλά η ψήφιση του νόμου μπορεί να πάρει ακόμα και δύο χρόνια. Ποιος ξέρει πόσο θα έχει εξελιχθεί έως τότε αυτή η ταχύτατα αναπτυσσόμενη τεχνολογία, που σε λίγο θα είναι τόσο διαδεδομένη όσο το ηλεκτρικό ρεύμα;


Παλιές αξίες, νέα προβλήματα Σε ένα από τα πιο ενδιαφέροντα πάνελ, ο φιλόσοφος Γερόεν Βαν ντεν Χόβεν, ο οποίος διδάσκει ηθική της τεχνολογίας στο τεχνολογικό πανεπιστήμιο του Ντελφτ, σημειώνει ότι οι άνθρωποι ενδιαφέρονται πολύ για τις αξίες τους. Γι’ αυτό και η διαφάνεια και η λογοδοσία της ΤΝ είναι ό,τι πιο σημαντικό. Τα συστήματα πρέπει να είναι σε θέση να εξηγούν τις αποφάσεις τους και να μην είναι «μαύρα κουτιά», να μη μεροληπτούν, να μην παραβιάζουν την ιδιωτικότητα των ανθρώπων. Ο κόσμος δικαίως θέλει να γνωρίζει πώς θα χρησιμοποιηθεί όλος αυτός ο πλούτος των δεδομένων του. Η ΤΝ τον αφορά προσωπικά. Την ίδια ώρα, η βιομηχανία της Big tech δεν ενδιαφέρεται ούτε για τη δημοκρατία ούτε για την ηθική. Κάνει απλώς τη δουλειά της. Αλλά τα προβλήματα που δημιουργούνται στην πορεία είναι σοβαρά και πρακτικά δεν έχουν τέλος. Εξαιτίας της αυτοματοποίησης, άνθρωποι θα χάσουν τις δουλειές τους από ρομπότ, θα αδικηθούν από μηχανικές αποφάσεις ή ακόμα και θα σκοτωθούν από αυτόνομα όπλα. Η απώλεια της εμπιστοσύνης μας απέναντι στις ρηξικέλευθες τεχνολογίες της ΤΝ είναι μόνο ένα μικρό στραβοπάτημα μακριά. Και κάπως έτσι, τα ηθικά ζητήματα μοιραία θα έρχονται διαρκώς στην επιφάνεια.


Εμείς και οι μηχανές: η σημασία του αυτοελέγχου

Το συνέδριο κατέγραψε ζωηρά την ανάγκη να επιστρέψουμε στα βασικά. Η ΤΝ μας αναγκάζει να σκεφτούμε τον πυρήνα της ανθρωπιάς μας. Αυτό που μας ξεχωρίζει από τα υπόλοιπα όντα είναι οι αξίες και οι αρχές μας, το γεγονός ότι μπορούμε να έχουμε αυτοέλεγχο. Βέβαια, αν κοιτάξουμε την ιστορία μας, δεν τα έχουμε καταφέρει και πάρα πολύ καλά έως τώρα. Η ροπή μας στον πόλεμο και στην απληστία δεν συνιστά λεπτομέρεια. Ο Μο Γκόντατ, πρώην μεγαλοστέλεχος της Google και συγγραφέας του βιβλίου Scary Smart, The future of artificial intelligence and how you can save our world, έκλεισε τις εργασίες της πρώτης ημέρας, με ένα πολύ τρομακτικό μήνυμα. Είχε προηγηθεί η διαδικτυακή προειδοποίηση του Εσθονού Γιαν Τάλινν για τον υπαρξιακό κίνδυνο που θέτουν οι εξυπνότερες από εμάς μηχανές στην ανθρωπότητα. Ο Γκόντατ δεν έχασε χρόνο και ξεκίνησε λέγοντάς μας ότι θα μας τρομάξει. «Η ΤΝ δεν είναι ένα εργαλείο σαν τα άλλα», είπε, «δεν είναι καν σκλάβος ή αφέντης μας». Είναι όπως ένας άνθρωπος. Αυτή τη στιγμή μεγαλώνουμε ένα παιδί, το οποίο είναι ακόμη βρέφος. Σε μερικά χρόνια όμως θα γίνει έφηβος. Και όσοι έχουν μεγαλώσει εφήβους ξέρουν πολύ καλά τι σημαίνει αυτό. Ο Γκόνταντ πιστεύει ότι πρέπει οπωσδήποτε να αποφύγουμε την οργισμένη εφηβική φάση της ΤΝ, γιατί, αν δεν το κάνουμε, κινδυνεύουμε να πυροδοτήσουμε δυστοπικά σενάρια, τα οποία δεν μπορούμε καν να φανταστούμε.

«Η νοημοσύνη των σκεπτόμενων μηχανών σε μερικά χρόνια θα είναι απείρως πιο ισχυρή από τη δική μας», λέει ο Γκόνταντ. «Στην πραγματικότητα, θα είναι ένα δισεκατομμύριο φορές πιο έξυπνες από εμάς». Για να το εικονογραφήσει καλύτερα, ο συγγραφέας κάνει μια μεταφορά που κόβει την ανάσα. «Η ΤΝ θα είναι ο Αϊνστάιν κι εμείς μια μύγα», επισημαίνει. «Ναι, το 2025 θα είμαστε ο πίθηκος και το 2045 θα είμαστε η μύγα». «Πιστεύετε ότι έχει κάποιο νόημα να πει η μύγα ότι θα ρυθμίσει τον Αϊνστάιν;» ρωτά το καθηλωμένο κοινό του. Ο Γκόνταντ επιστρέφει κι αυτός στην ηθική. Πρέπει να ενσταλάξουμε στην ΤΝ έναν ηθικό κώδικα, με τον ίδιο τρόπο που το κάνουμε στα παιδιά μας. Η ΤΝ θα κάνει ό,τι τη διδάξουμε. Σήμερα, που τη διδάσκουμε να γίνεται όλο και καλύτερο όπλο, όλο και καλύτερο μέσο χειραγώγησης, όλο και καλύτερο μέσο εξαγωγής κέρδους, την εκπαιδεύουμε να γίνει φονική, χειριστική και άπληστη. Βάσει αυτών των δεδομένων, το μέλλον μας δεν διαγράφεται ρόδινο. «Είμαστε σε ένα σταυροδρόμι», λέει ο Γκόνταντ, «δεν έχουμε όμως πολύ χρόνο. Κι εξαρτάται απ’ όλους εμάς το τι θα γίνει». Η συζήτηση για την ΤΝ και την ηθική της δεν είναι θεωρητική. Όλες οι θεωρίες έχουν στόχο να μπουν σε πράξη. Το τι θα κάνουμε με την υπερδύναμη που έχουμε εφεύρει θα καθορίσει το μέλλον όλων μας. Η ρομαντική μεταφορά του καλού γονιού θα ακούγεται όλο και συχνότερα εφεξής. Ας μεγαλώσουμε το νέο παιδί μας υπεύθυνα, μοιάζει να λένε αυτοί που αντιλαμβάνονται πιο έντονα τον κίνδυνο των αυτοδίδακτων μηχανών. Ας του εμφυσήσουμε αξίες που θα του κάνουν καλό. Ας του διδάξουμε τον αυτοέλεγχο – κανείς μας δεν θα βγει χαμένος. Κι ας το πάμε, μεγαλώνοντας, μια βόλτα στην πόλη της αμαρτίας. Ίσως να μην υπάρχει καλύτερο μέρος για να διδάξει κανείς τι είναι μια καλή ηθική πυξίδα.


Στιγμιότυπα

→ η «συλλογή της Enron» Τα δεδομένα είναι το καύσιμο της ΤΝ και της μηχανικής μάθησης (ΜΜ). Ένας νέος που μόλις αποφοίτησε από το πανεπιστήμιο του Άμστερνταμ και βρήκε αμέσως δουλειά ως επιστήμονας των δεδομένων σε ολλανδική επιχείρηση μου λέει ότι ένα από τα βασικά προβλήματα που αντιμετωπίζουν οι συνάδελφοί του είναι ότι δεν υπάρχουν πολλά δεδομένα για να δουλέψουν. Αν δεν είσαι η Google, το Facebook ή η Amazon, τα δεδομένα που κυκλοφορούν ελεύθερα εκεί έξω δεν είναι άφθονα. Μαθαίνω έκπληκτος ότι υπάρχει μια τεράστια βάση δεδομένων, η επονομαζόμενη «Συλλογή της ENRON», η οποία περιλαμβάνει 150.000 emails από προσωπικούς λογαριασμούς υπαλλήλων της πτωχευμένης επιχείρησης. Τα δεδομένα αυτά (που έχουν μέσα τους κάθε καλή και κακή έκφανση της ανθρώπινης συμπεριφοράς) είναι προσβάσιμα στον καθένα και αποτελούν έναν πραγματικό θησαυρό για όσους πειραματίζονται με τη ΜΜ και την ΤΝ. Το ηθικό ερώτημα που προκύπτει αβίαστα και προκαλεί εύλογη ανησυχία είναι αυτό: αν πτωχεύσει αύριο μία από τις επιχειρήσεις στις οποίες εμπιστευόμαστε τόσο πολλά, πώς θα νιώθαμε αν όλα μας τα ιδιωτικά μηνύματα, οι αναζητήσεις, το καθετί, βρισκόταν εκεί έξω διαθέσιμο σε όλους;


Στο συνέδριο παρακολουθήσαμε ένα πάνελ με νεαρά παιδιά. Τα πιο θετικά σχόλια απέσπασε η 15χρονη Σελίν Αλάρα Όρνεκ, η οποία παρουσίασε δύο ρομπότ που έφτιαξε η ίδια με τη βοήθεια του πατέρα της. Η παρουσιάστρια του συνεδρίου, η δημοσιογράφος του BBC Μπαμπίτα Σάρμα, δεν έκρυψε τον ενθουσιασμό της και πόζαρε γελαστή δίπλα στα δημιουργήματα της νεαρής από την Τουρκία. Το ίδιο έσπευσε να κάνει και πλήθος συμμετεχόντων. Το ένα από τα δύο αυτόματά της είναι ο σκύλος AIC4U, ένα πειραματικό ρομπότ-σκύλος για τυφλούς. «Το έχω δοκιμάσει με ανθρώπους, αλλά ήταν κάπως επικίνδυνα τα αιχμηρά αυτιά του», μου είπε όταν μιλήσαμε. Όταν ο μπαμπάς της έχασε τον σκύλο του, εκείνη στενοχωρήθηκε. Είδε τότε στον δρόμο έναν τυφλό και σκέφτηκε ότι θα ήταν ωραία αν του έφτιαχνε έναν σκύλο. Έτσι θα ευχαριστούσε τόσο τον τυφλό όσο και τον μπαμπά της. Ο κόσμος δεν σταμάτησε να της δίνει συγχαρητήρια.


→ γράμμα από την Kίνα Έθεσα δημόσια μια ερώτηση στον Κάι Φου Λι, συγγραφέα του βιβλίου AI Superpowers, China, Silicon Valley and the new world order, την απλή, αλλά μάλλον ταμπού, ερώτηση. «Όλα αυτά τα όμορφα πράγματα που περιγράφετε για την ηθική έχουν εφαρμογή στην Κίνα; Είναι συμβατή η δημοκρατία με την τεχνητή νοημοσύνη στην Κίνα;». Ο συγγραφέας μού απάντησε ότι μάλλον παρακολουθώ πολύ τα ρεπορτάζ των media και συνέχισε μιλώντας για τη ζωηρή αγορά της Κίνας. Απάντηση στο ερώτημά μου δεν έλαβα. Στο διάλειμμα ωστόσο που ακολούθησε, μίλησα με μια φοιτήτρια από την Αυστρία, η οποία μου είπε ότι οι γονείς της πηγαίνουν τακτικά στην Κίνα και γνωρίζουν ανθρώπους που, χάνοντας πόντους στο social credit system, χάνουν κάποια προνόμια και ελευθερίες που απολάμβαναν. Όλα αυτά αυτοματοποιημένα, μέσα από την εφαρμογή μιας ΤΝ.


→ κάν’ το όπως η Oλλανδία Συνολικά, ο σχεδιασμός του συνεδρίου είχε περισσότερο ευρωπαϊκή ματιά, ενώ η ψηφιακή πολιτική της Ολλανδίας ήταν διαρκώς παρούσα, είτε με τη μορφή ομιλητών, υποστηρικτικών οργανισμών είτε νεοφυών επιχειρήσεων. Η Ολλανδία επενδύει συστηματικά και μεθοδικά στις νέες τεχνολογίες, ενώ τα πανεπιστημιακά ιδρύματα που ειδικεύονται στην επιστήμη των υπολογιστών βγάζουν διαρκώς νέα ταλέντα. Στη χώρα υπάρχει οργασμός δημιουργίας στον τεχνολογικό τομέα, κάτι που διαπίστωσα με τα μάτια μου, μιλώντας και ακούγοντας πλήθος νέων και μη ανθρώπων που σχετίζονται με τον χώρο. Στην έναρξη του συνεδρίου, ο πρίγκιπας Κωνσταντίνος μίλησε με θερμά λόγια για τον ολλανδικό τεχνολογικό τομέα, έχοντας πίσω του το χάσταγκ #EmpowerDutchTech. Η στιβαρή ψηφιακή στρατηγική της χώρας είναι έκδηλη παντού.

Πηγή: Καθημερινή, Μανώλης Ανδριωτάκης