Παρακολουθήσεις Μητσοτάκη 2.0 – Αυτή τη φορά με AI

Από τις 2 Φεβρουαρίου οι ευρωπαϊκές κυβερνήσεις θα χρησιμοποιούν εργαλεία AI κατά των πολιτών τους σε δημόσιους χώρους. Η έρευνα Investigate Europe – Reporters United – ΕφΣυν τεκμηριώνει με εμπιστευτικά έγγραφα ότι η κυβέρνηση Μητσοτάκη έπαιξε παρασκηνιακό όσο και πρωταγωνιστικό ρόλο στην απόρριψη περιορισμών στη χρήση του ΑΙ, ανοίγοντας τον δρόμο για μαζικές και ανεξέλεγκτες παρακολουθήσεις με την επίφαση της εθνικής ασφάλειας. Όπως ακριβώς συνέβη και στο σκάνδαλο των υποκλοπών. Αυτή τη φορά, όμως, με όπλο την Τεχνητή Νοημοσύνη.

Εικονογράφηση: Τζωρτζίνα Χολέβα / Spoovio
Παρακολουθήσεις Μητσοτάκη 2.0 – Αυτή τη φορά με AI
Εικονογράφηση: Τζωρτζίνα Χολέβα / Spoovio


Η έρευνα της διασυνοριακής ομάδας δημοσιογράφων Investigate Europe δημοσιεύεται από τα μέσα ενημέρωσης Disclose (Γαλλία), EU Observer (Bέλγιο), Ιl Fatto Quotidiano (Ιταλία), InfoLibre (Ισπανία), Netzpolitik (Γερμανία), Publico (Πορτογαλία), Εφημερίδα των Συντακτών και Reporters United (Ελλάδα).

Η 2α Φεβρουαρίου πέφτει Κυριακή. Από εκείνη τη μέρα, το δικαίωμά μας να χανόμαστε στο πλήθος θα καταργηθεί. Οι ευρωπαϊκές κυβερνήσεις θα έχουν, και με τη βούλα του νόμου, τη δυνατότητα να χρησιμοποιούν τεχνολογίες Τεχνητής Νοημοσύνης (AI) για να παρακολουθούν και να αναλύουν την συμπεριφορά πολιτών σε δημόσιους χώρους, χρησιμοποιώντας τεχνολογίες αναγνώρισης προσώπων αλλά και συναισθημάτων, τόσο σε πραγματικό χρόνο όσο και εκ των υστέρων.

Στήριξε την ανεξάρτητη δημοσιογραφία του Reporters United εδώ!

Αυτό το δυστοπικό -κυριολεκτικά και μεταφορικά- αύριο είναι επίτευγμα (και) της κυβέρνησης Μητσοτάκη. Για δύο λόγους: 

Πρώτον, με παρέμβασή της ζήτησε -και πέτυχε- να επεκταθεί η χρήση του AI στις φυλακές και στις συνοριακές ζώνες, απλώνοντας ένα δίχτυ μαζικής και αδιάκριτης παρακολούθησης των πολιτών σε εκτεταμένες περιοχές της χώρας.

Δεύτερον, ενώ πολλές άλλες κυβερνήσεις ζήτησαν να θεσμοθετηθούν δικλείδες ασφαλείας, η ελληνική κυβέρνηση ήταν η μόνη από τα κράτη μέλη που τις απέρριψε όλες (και τις πέντε!). Μάλιστα σε δύο από τις πέντε ήταν μόνη της απέναντι στα άλλα κράτη μέλη!

Η Ελλάδα «ζήτησε να εξαιρεθούν ρητά οι συνοριακές περιοχές και οι φυλακές από τον ορισμό του “δημόσια προσβάσιμου χώρου”, σε ό,τι αφορά τη χρήση RBI σε πραγματικό χρόνο».
Γερμανικό διπλωματικό έγγραφο, 30.11.2023

Η πολύχρονη διαπραγμάτευση για τον νέο ευρωπαϊκό νόμο για την Τεχνητή Νοημοσύνη (AI Act) είχε ως διακύβευμα την απαγόρευση της χρήσης ΑΙ στον δημόσιο χώρο – εκτός εξαιρέσεων. Όμως, η έρευνα των Investigate Europe – Reporters United – ΕφΣυν δείχνει ότι καθολική απαγόρευση στην πραγματικότητα δεν θα υπάρξει. Οι ευρωπαϊκές κυβερνήσεις όρισαν ποιες θα μπορούσαν να είναι οι χρήσεις της τεχνητής νοημοσύνης που εγκυμονούν κινδύνους και στη συνέχεια, με μια σειρά εξαιρέσεων, αναίρεσαν τον εαυτό τους επιτρέποντας τη χρήση τους από τις αρχές ασφαλείας – αλλά και από κάθε ιδιωτική εταιρεία που συνεργάζεται με αυτές.

Ο νέος ευρωπαϊκός νόμος ορίζει 16 εξαιρέσεις σχετικά με τη χρήση συστημάτων αναγνώρισης προσώπου στο δημόσιο χώρο. Εικονογράφηση: Spoovio / Τζωρτζίνα Χολέβα.

Αποκτήσαμε πρόσβαση σε 100 εμπιστευτικά έγγραφα που περιγράφουν τις διαπραγματεύσεις για τον νέο ευρωπαϊκό νόμο, οι οποίες ολοκληρώθηκαν στα τέλη του 2023. Το συμπέρασμα: Κάθε φορά που μία κυβέρνηση, συνήθως η γαλλική, ζητούσε να διευρυνθεί η χρήση του ΑΙ, παραδείγματος χάριν για να κατηγοριοποιούν οι αρχές τους πολίτες ανάλογα με τις πεποιθήσεις τους, για να συντάσσουν καταλόγους με πιθανούς μελλοντικούς παραβάτες ή για να αναλύουν σε πραγματικό χρόνο ποιοι είναι οι πιο θυμωμένοι σε ένα πλήθος, η ελληνική κυβέρνηση παρακολουθούσε χωρίς να διαφωνεί. 

Έγγραφο 1ο: Η κυβέρνηση Μητσοτάκη ζητάει εξαίρεση για φυλακές και σύνορα

Στις 29 Νοεμβρίου 2023, ο εκπρόσωπος της ελληνικής κυβέρνησης ζήτησε να μην ισχύει κανένας περιορισμός στη χρήση των εργαλείων τεχνητής νοημοσύνης σε πραγματικό χρόνο όταν πρόκειται για συνοριακές περιοχές και φυλακές. 

Αυτό προκύπτει από την αναφορά της γερμανικής διπλωματικής αποστολής, περιγράφοντας τη συνεδρίαση. Το έγγραφο περιλαμβάνεται σε αυτά που ήρθαν στην κατοχή μας. Η Ελλάδα «ζήτησε να εξαιρεθούν ρητά οι συνοριακές περιοχές και οι φυλακές από τον ορισμό του “δημόσια προσβάσιμου χώρου”, σε ό,τι αφορά τη χρήση RBI σε πραγματικό χρόνο». (RBI, δηλαδή Remote Biometric Identification, είναι η ταυτοποίηση βιομετρικών στοιχείων μέσω καμερών από τις αρχές ασφαλείας.) Αν οι συνοριακές περιοχές και οι φυλακές δεν θεωρούνται «δημόσιος χώρος», τότε όποιοι περιορισμοί κι αν τεθούν στη χρήση βιομετρικών εργαλείων στο δημόσιο χώρο δεν θα τις αφορούν. 

Μετάφραση από τα γερμανικά στα ελληνικά του γερμανικού διπλωματικού εγγράφου. Το απόσπασμα περιγράφει την εξαίρεση που ζήτησε η ελληνική κυβέρνηση για τις φυλακές και τις συνοριακές περιοχές στις 29 Νοεμβρίου 2023. Εικονογράφηση: Spoovio / Τζωρτζίνα Χολέβα.

Τα συστήματα ταυτοποίησης σε πραγματικό χρόνο περιλαμβάνονται στον κατάλογο των «εφαρμογών τεχνητής νοημοσύνης υψηλού κινδύνου» για τα θεμελιώδη δικαιώματα. Οι καθηγήτριες του πανεπιστημίου του Μάαστριχτ Άλις Τζανίνι και Σάρα Τας εξηγούν: «Τα συστήματα RBI ταυτοποιούν άτομα που μπορεί να μην αποτελούν επισήμως αντικείμενο αστυνομικής έρευνας, να μην είναι ύποπτοι, αλλά απλά στοχοποιούνται. Ο όρος είναι εγγενώς ασαφής και άρα επιδέχεται πολλές ερμηνείες». 

Παρόλα αυτά, η Ελλάδα ζήτησε την εξαίρεση και αυτή εγκρίθηκε. Στη συνέχεια, «χάθηκε» στο κείμενο μιας πολύ ευρύτερης διατύπωσης, που επιτρέπει ακόμα περισσότερα. «Ένα κράτος μέλος μπορεί να επιτρέψει την πλήρη ή μερική χρήση συστημάτων RBI σε πραγματικό χρόνο στο δημόσιο χώρο για λόγους τήρησης της τάξης», αναφέρει το άρθρο 5 του νέου ευρωπαϊκού νόμου για την Τεχνητή Νοημοσύνη. 

Τίθενται κάποιες προϋποθέσεις, παραδείγματος χάριν να υπάρχει αντίστοιχη πρόβλεψη στην εθνική νομοθεσία ή να ενημερώνεται για τη χρήση των συστημάτων η Κομισιόν, αλλά ούτε κι αυτές ισχύουν αν ένα κράτος επικαλεστεί λόγους εθνικής ασφαλείας. 

Το Ευρωπαϊκό Κοινοβούλιο προσπάθησε μάταια να αποτρέψει την εξέλιξη αυτή. «Ήταν μια από τις πιο σκληρές μάχες», μας είπε πηγή του Ευρωκοινοβουλίου που μετείχε στις διαπραγματεύσεις με τις κυβερνήσεις. «Χάσαμε». 

Έγγραφο 2ο: Η κυβέρνηση Μητσοτάκη απορρίπτει όλες τις δικλείδες ασφαλείας

Στη συνεδρίαση της 24ης Νοεμβρίου 2023, η Ελλάδα ζήτησε να καταργηθεί και κάθε δικλείδα ασφαλείας στη χρήση RBI εκ των υστέρων – ουσιαστικά να μην υπάρχουν όρια στην αναδρομική αξιοποίηση οπτικοακουστικού υλικού με χρήση Τεχνητής Νοημοσύνης. 

Ακολουθεί αυτούσιο το απόσπασμα από το γερμανικό διπλωματικό έγγραφο που αναφέρεται στην επίμαχη συνεδρίαση:

Εκ των υστέρων εξ αποστάσεως βιομετρική ταυτοποίηση (Post RBI)

1η Δικλείδα Ασφάλειας (ενημέρωση της εποπτικής αρχής): Υποστήριξη από Ιταλία, Δανία, Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ελλάδα.

2η Δικλείδα Ασφαλείας (ενημέρωση της αρχής προστασίας δεδομένων): Υποστήριξη από Ιταλία, Δανία, Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ελλάδα. 

3η Δικλείδα Ασφαλείας (διευρυμένες υποχρεώσεις εγγραφής σε μητρώα): Υποστήριξη: Ιταλία, Δανία, Ιρλανδία, Πολωνία, Μάλτα. Απόρριψη: Γερμανία, Ελλάδα.

4η Δικλείδα Ασφαλείας (δυνατότητα για τα κράτη-μέλη να υιοθετήσουν πιο περιοριστικούς εθνικούς κανόνες): Υποστήριξη από Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ιταλία, Δανία, Ελλάδα. 

5η Δικλείδα Ασφαλείας (υποχρέωση ενημέρωσης της Κομισιόν): Υποστήριξη από Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ιταλία, Δανία, Γερμανία, Ελλάδα.

Μετάφραση από τα γερμανικά στα ελληνικά του γερμανικού διπλωματικού εγγράφου που αναφέρεται στη στάση της ελληνικής κυβέρνησης στη συνεδρίαση του Συμβουλίου της ΕΕ στις 24 Νοεμβρίου 2023. Εικονογράφηση: Spoovio / Τζωρτζίνα Χολέβα.

Είναι χαρακτηριστική η έμμονη ιδέα της Αθήνας να αποφευχθούν με κάθε τρόπο οι θεσμικές εγγυήσεις που θα ανέμενε κανείς σε ένα σύγχρονο κράτος δικαίου. Όπως φαίνεται από το διπλωματικό έγγραφο, η κυβέρνηση Μητσοτάκη απέρριψε «την ενημέρωση της εποπτικής αρχής» και «της Αρχής Προστασίας Δεδομένων» (ΑΠΔ), αλλά και τη διεύρυνση της «υποχρέωσης εγγραφής σε μητρώα». Πρόκειται ακριβώς για ανάλογες πρακτικές με αυτές που η κυβέρνηση Μητσοτάκη χρησιμοποίησε στην υπόθεση των υποκλοπών, προκειμένου να εξουδετερώσει τα θεσμικά αντίβαρα της Αρχής Διασφάλισης του Απορρήτου των Επικοινωνιών (ΑΔΑΕ) και της ΑΠΔ. 

Ζητήσαμε από τη Μόνιμη Ελληνική Αντιπροσωπεία στις Βρυξέλλες περισσότερες λεπτομέρειες για τη στάση της κυβέρνησης, αλλά δεν λάβαμε απάντηση.

«Η εκ των υστέρων βιομετρική ταυτοποίηση, καθώς βασίζεται σε μεγαλύτερα σετ δεδομένων και έχει περισσότερο χρόνο στη διάθεσή της για την επεξεργασία δεδομένων, μπορεί να έχει ακόμη μεγαλύτερες επιπτώσεις στα θεμελιώδη δικαιώματα και τις ελευθερίες από την ταυτοποίηση σε πραγματικό χρόνο», σημειώνουν οι καθηγήτριες Τζανίνι και Τας. 

AI εναντίον προσφύγων στη Σάμο

Το σίγουρο είναι ότι η ελληνική κυβέρνηση δεν περιμένει την εφαρμογή του AI Act για να αξιοποιήσει τα καινούργια της εργαλεία. Όταν πραγματοποίησε την παρέμβαση υπέρ της βιομετρικής επιτήρησης στα σύνορα, τον Νοέμβριο του 2023, είχε μόλις κάνει χρήση των τεχνολογιών αυτών, στη δομή αιτούντων άσυλο της Σάμου. 

Αυτό αποκάλυψε διεθνής έρευνα του Solomon στα μέσα Ιανουαρίου του 2025. Η έρευνα περιγράφει τα συμβάντα του Οκτωβρίου του 2023, όταν στη δομή επικράτησε αναβρασμός λόγω των επιθέσεων της Χαμάς στο Ισραήλ και του Ισραήλ στη Γάζα. Με την βοήθεια εικόνων από ντρόουν, που αναμεταδίδονταν στην Αθήνα, οι πύλες που χώριζαν τα διάφορα τμήματα του χρηματοδοτούμενου από την ΕΕ καμπ σφραγίστηκαν και πέντε αιτούντες άσυλο συνελήφθησαν. 

«Οι κάμερες διαθέτουν έναν αλγόριθμο τεχνητής νοημοσύνης που τους επιτρέπει να εστιάζουν όπου υπάρχει αναταραχή, στέλνοντας ειδοποιήσεις τόσο στο υπουργείο Μετανάστευσης όσο και στον κόμβο καμερών της δομής», εξήγησε αρμόδιος στο Solomon. 

Μια αναστάτωση σε κλειστή δομή προσφύγων για την Ελλάδα, μια διοργάνωση Ολυμπιακών Αγώνων για τη Γαλλία –  κάθε χώρα βρίσκει αφορμές να δοκιμάσει και να νομιμοποιήσει τη χρήση εργαλείων τα οποία μπορεί να αποβούν πολύ επικίνδυνα για απλούς ανθρώπους που έτυχε να μοιάζουν με υπόπτους ή να έχουν καταχωρηθεί σε βάση δεδομένων με πιθανούς μελλοντικούς παραβάτες. 

Τα έγγραφα στα οποία είχαμε πρόσβαση δείχνουν τον ενθουσιασμό των κυβερνήσεων για τη χρήση εργαλείων προληπτικής αστυνόμευσης. Τα εργαλεία αυτά πράγματι επιτρέπονται στην τελική εκδοχή του νόμου, όπως επιτρέπονται και τα εργαλεία αναγνώρισης συναισθημάτων από τις αρχές – ακόμα και μέσα σε σχολεία, πανεπιστήμια ή εργασιακούς χώρους, αρκεί να θεωρείται ότι συντρέχουν λόγοι ασφαλείας. 

Δεδομένα στην κατοχή των εταιρειών

«Απαγορεύεται», γράφει το ΑΙ Αct, «η χρήση συστημάτων τεχνητής νοημοσύνης για να συναχθούν συμπεράσματα για τα συναισθήματα ενός ατόμου στον χώρο εργασίας ή σε εκπαιδευτικά ιδρύματα, εκτός αν συντρέχουν ιατρικοί λόγοι ή λόγοι ασφαλείας». 

Επίσης, επιτρέπεται στις κρατικές υπηρεσίες να συλλέγουν και να επεξεργάζονται οποιοδήποτε στοιχείο μπορεί να συναχθεί από την εμφάνιση και την παρουσία του καθενός στο δημόσιο χώρο. «Είναι πολύ σημαντικό να διατηρήσουμε τη δυνατότητα να αναζητούμε ένα άτομο που έχει εκφράσει μια θρησκευτική πεποίθηση ή μια πολιτική άποψη, όπως είναι το να φοράει μια κονκάρδα ή ένα αξεσουάρ», είπε ο αντιπρόσωπος της Γαλλίας στο Συμβούλιο της Ευρωπαϊκής Ένωσης της 24ης Νοεμβρίου 2023. Όλα αυτά «όταν πρόκειται για άτομο που εμπλέκεται σε βίαιο εξτρεμισμό ή θεωρείται ότι υπάρχει κίνδυνος να εμπλακεί σε τρομοκρατία».  

«Στην πραγματικότητα, η νομοθεσία είναι ένα εργαλείο υπέρ της βιομηχανίας, που είχε στόχο να ενισχύσει τις εταιρείες Τεχνητής Νοημοσύνης στην Ευρώπη».

Σάρα Τσάντερ, οργάνωση Equinox

Έτσι, αν θεωρείται απαραίτητο για «την επιβολή του νόμου» το ΑΙ Αct επιτρέπει να χρησιμοποιείται η Τεχνητή Νοημοσύνη «για να προσδιοριστεί η φυλή, οι πολιτικές απόψεις, η συμμετοχή σε συνδικαλιστικούς φορείς, οι θρησκευτικές ή φιλοσοφικές πεποιθήσεις, η σεξουαλική ζωή ή ο σεξουαλικός προσανατολισμός».

«Οι κυβερνήσεις μας αναζητούν φορτικά όλο και περισσότερους πόρους, νόμους και τεχνολογικές δυνατότητες για την παρακολούθηση, τον έλεγχο και την τιμωρία καθημερινών ανθρώπων», υποστήριξε η Σάρα Τσάντερ της οργάνωσης για την προστασία των ατομικών ελευθεριών Equinox. 

Στην πράξη τα δεδομένα των πολιτών δεν μένουν καν στις κρατικές υπηρεσίες, συγκεντρώνονται νομίμως από τις ιδιωτικές εταιρείες ή τις τρίτες χώρες που παρέχουν τεχνολογία Τεχνητής Νοημοσύνης στις αστυνομικές αρχές. O νόμος δίνει μια ακόμα καταπληκτική δυνατότητα στις ιδιωτικές εταιρείες που αναπτύσσουν εφαρμογές Τεχνητής Νοημοσύνης: μπορούν μόνες τους να αποφασίσουν αν οι εφαρμογές χαρακτηρίζονται υψηλού ρίσκου και άρα αν θέλουν ή όχι να υποβληθούν σε απαγορεύσεις ή αυξημένους ελέγχους. 

Εσωτερικό έγγραφο της νομικής υπηρεσίας του Ευρωκοινοβουλίου, στο οποίο απέκτησε πρόσβαση η έρευνά μας, τονίζει ότι αυτό «αφήνει πολλά περιθώρια υποκειμενικών κρίσεων στις εταιρείες, σε αντίθεση με τους στόχους του AI Act, που είναι να ελαχιστοποιήσει τους κινδύνους από τη χρήση AI». 

Αν όμως οι στόχοι δεν ήταν αυτοί; «Στην πραγματικότητα, η νομοθεσία είναι ένα εργαλείο υπέρ της βιομηχανίας, που είχε στόχο να ενισχύσει τις εταιρείες Τεχνητής Νοημοσύνης στην Ευρώπη», θεωρεί η Τσάντερ.

Αφήστε μια απάντηση