,

Σύστημα αναγνώρισης προσώπου: Νέα φίλτρα προστατεύουν την ιδιωτικότητά μας στο διαδίκτυο

Είναι 2020 και είναι ασφαλές να υποθέσουμε ότι κάθε φωτογραφία που δημοσιεύεται στο διαδίκτυο αναλύεται από κάποιο σύστημα αναγνώρισης προσώπου. Πολυεθνικές όπως η Google

Σύστημα αναγνώρισης προσώπου: Νέα φίλτρα προστατεύουν την ιδιωτικότητά μας στο διαδίκτυο

Είναι 2020 και είναι ασφαλές να υποθέσουμε ότι κάθε φωτογραφία που δημοσιεύεται στο διαδίκτυο αναλύεται από κάποιο σύστημα αναγνώρισης προσώπου. Πολυεθνικές όπως η Google και το Facebook εφαρμόζουν αναγνώριση προσώπου, αλλά και άλλες εταιρίες, όπως η Clearview AI, χρησιμοποιούν διακριτικά εικόνες από το διαδίκτυο για να πουλήσουν τεχνολογία αναγνώρισης προσώπου στην αστυνομία εδώ και χρόνια.

Τώρα, ερευνητές της τεχνητής νοημοσύνης αναζητούν τρόπους με τους οποίους η τεχνολογία θα μπορέσει να επιλύσει το πρόβλημα που δημιούργησε. Αλγόριθμοι με ονόματα όπως “PrivacyNet”, “AnonymousNet” και “Fawkes” προσφέρουν έναν τρόπο διαφυγής από τους αλγόριθμους της αναγνώρισης προσώπου που καραδοκούν παντού στο διαδίκτυο.

Advertisment

Αυτοί οι αλγόριθμοι δεν αποτελούν τη λύση στην ιδιωτικότητα του διαδικτύου – και δεν ισχυρίζονται ότι το κάνουν. Αλλά πρόκειται για εργαλεία που, αν υιοθετηθούν από διαδικτυακές πλατφόρμες, θα μπορούσαν να μας βοηθήσουν να ανακτήσουμε λίγη από την ιδιωτικότητα που χάνουμε από τη δημοσίευση φωτογραφιών.

Το Fawkes είναι ένα σύστημα αντι- αναγνώρισης προσώπου που βασίζεται σε έρευνα που διεξήχθη από το Πανεπιστήμιο του Σικάγο. Το πρόγραμμα, που έχει πάρει το όνομα από τις μάσκες Guy Fawkes των χάκερ Anonymous, προσπαθεί να περιορίσει τη χρήση εικόνων με πρόσωπα που δημοσιεύονται διαδικτυακά.

Τι κάνει ένας αλγόριθμος αναγνώρισης προσώπου; Αναγνωρίζει την εμφάνιση ενός ατόμου, βρίσκοντας συσχετίσεις ανάμεσα σε pixels από διάφορες πρότυπες εικόνες. Αυτή η συσχέτιση μπορεί να είναι τόσο απλή όσο η γεωμετρία ενός προσώπου, αλλά ερευνητές από το Πανεπιστήμιο του Σικάγο τονίζουν ότι αυτοί οι αλγόριθμοι εντοπίζουν επίσης αόρατα «χαρακτηριστικά» της εμφάνισης ενός ατόμου.

Advertisment

Το Fawkes αναγνωρίζει αυτά τα αόρατα χαρακτηριστικά και τα τροποποιεί, ακυρώνοντας τα κοινά σημεία ανάμεσα σε φωτογραφίες. Καθώς αυτά τα μικρά χαρακτηριστικά δεν ήταν ορατά από πριν στο ανθρώπινο μάτι, ούτε και οι τροποποιήσεις γίνονται αντιληπτές από εμάς. Αυτές οι μικρές αλλαγές ονομάζονται «cloak» ή αλλιώς «πέπλο».

Για να ελέγξουν πόσο αποτελεσματικά μπορούν αυτά τα συστήματα να ξεγελάσουν τους αλγόριθμους αναγνώρισης προσώπων, οι ερευνητές εκπαίδευσαν τους αλγόριθμους αναγνώρισης προσώπων που πωλούνται από την Microsoft, την Amazon, και την Google σε φωτογραφίες που έχουν υποστεί «cloak». Αν και περίπου το 15% των φωτογραφιών διασταυρώθηκαν, το ποσοστό διασταύρωσης έπεσε κάτω από το 40%.

«Αν και δεν έχουμε την ψευδαίσθηση ότι αυτό το προτεινόμενο σύστημα μας προστατεύει από οποιοδήποτε μελλοντικό κίνδυνο, πιστεύουμε ότι είναι ένα σημαντικό και απαραίτητο πρώτο βήμα στην ανάπτυξη εργαλείων ιδιωτικότητας προσανατολισμένο στον χρήστη που θα αντιστέκονται σε παράνομα μοντέλα χρήσης πληροφοριών», γράφουν οι ερευνητές.

Άλλες προσεγγίσεις καταπολέμησης τέτοιων συστημάτων δημιουργούν ορατές αλλαγές στην εμφάνιση ενός ατόμου σε μια προσπάθεια να περιορίσουν την αναγνώριση τόσο από ανθρώπους όσο και από μηχανές. Αν και μια τέτοια ιδέα φαίνεται πιο δύσχρηστη, αποτελεί μια προσέγγιση που έχει κερδίσει την προσοχή του Facebook, αλλά και διάφορων πανεπιστημίων.

Ερευνητές του Facebook στο Tel Aviv πρότειναν μια μέθοδο που αλλάζει την εμφάνιση ενός χρήστη στα live video, καθιστώντας το μη αναγνωρίσιμο στις μηχανές. Αυτή η προσέγγιση χρησιμοποιεί ένα βίντεο και μια υπάρχουσα φωτογραφία του χρήστη. Ο αλγόριθμος βρίσκει τις ομοιότητες ανάμεσα στην εικόνα και το βίντεο και ύστερα προσπαθεί να τροποποιήσει τα παρόμοια χαρακτηριστικά του προσώπου, την ώρα που παίζει το βίντεο.

Αυτή η ιδέα μοιάζει αρκετά στο deepfake προς την αντίθετη κατεύθυνση. «Αυτό επιτρέπει, για παράδειγμα, στο χρήση να αφήσει ένα μήνυμα μέσω βίντεο σε ένα δημόσιο forum ανώνυμα, εμποδίζοντας την τεχνολογία αναγνώρισης προσώπου να τον αναγνωρίσει», αναφέρουν οι ερευνητές.

Δύο εργασίες, μία από το Πανεπιστήμιο Temple και μια άλλη από συνεργασία των Πανεπιστημίων του Rochester και του Purdue, ακολουθούν μια διαφορετική τακτική. Παράγουν τυχαιοποιημένα πλαστά πρόσωπα και τα «κολλούν» πάνω στα πρόσωπα που δεν θέλουν να αναγνωριστούν. Αυτή η προσέγγιση θα μπορούσε να χρησιμοποιηθεί για να προστατέψει την ιδιωτικότητα όσων εμφανίζονται στο φόντο φωτογραφιών.

Αυτή η τακτική θα μπορούσε να είναι επίσης ιδανική και για προσωπική χρήση. Αν σε μια φωτογραφία μιας παρέας, κάποιος δεν θέλει το πρόσωπό του να δημοσιευτεί διαδικτυακά, η τεχνική αντικατάστασης του προσώπου έχει τη δυνατότητα να αλλάξει το συγκεκριμένο πρόσωπο χωρίς να χρειαστεί να θολώσει κανείς εκείνο το σημείο και πιθανώς να καταστρέψει τη φωτογραφία.

Εντούτοις, χωρίς να θέλουμε να μειώσουμε την αξία όλων αυτών των ερευνών, οι σημαντικότερες αλλαγές στην ιδωτικότητα που χρειαζόμαστε είναι δομικές μεταρρυθμίσεις που θα βάλουν φρένο στις εταιρίες, ιστοσελίδες και πολυεθνικές και όχι ατομικά μέτρα πρόληψης και προστασίας.

Απόδοση – Επιμέλεια: Στέφη Βαρούχου

[toggle title="Πηγές"]

onezero.medium.com/this-filter-makes-your-photos-invisible-to-facial-recognition-a26929b5ccf

research.fb.com/wp-content/uploads/2019/10/Live-Face-De-Identification-in-Video.pdf

[/toggle]

Λάβετε καθημερινά τα άρθρα μας στο e-mail σας

Σχετικά θέματα

Θερινή ώρα: Πώς καθιερώθηκε και πότε γυρνάμε τα ρολόγια μία ώρα μπροστά
Σχολή Ευελπίδων: Στην έκτη θέση της λίστας με τις 25 καλύτερες στρατιωτικές σχολές στον κόσμο
Δωρεά Οργάνων: Μέσω SMS στο κινητό θα δηλώνουμε αν θέλουμε να γίνουμε δωρητές οργάνων
Παγκόσμια Ημέρα κατά του Σχολικού Εκφοβισμού: Τι πρέπει να κάνω αν το παιδί μου είναι θύτης ή θύμα

Πρόσφατα Άρθρα

Εναλλακτική Δράση