EPIOSYINFO NEWS
latest

728x90

468x60

Δευτέρα, 26 Οκτωβρίου 2020

Facial recognition και αντεγκληματική πολιτική: Μια βεβιασμένη συνύπαρξη

Το ζήτημα της ασφάλειας στον δημόσιο χώρο αποτελεί προτεραιότητα κάθε έννομης τάξης, καθιστώντας την έγκαιρη πρόληψη και καταπολέμηση του εγκλήματος αναπόσπαστο κομμάτι της ημερήσιας διάταξης.

Η ανάδυση νέων μορφών και διαύλων εγκληματικότητας και η χρήση της τεχνολογίας για εγκληματικούς σκοπούς, ωθεί τα όργανα επιβολής του νόμου να προσαρμοστούν γρήγορα στις νέες προκλήσεις.

Σε αυτό το πλαίσιο, η ψηφιακή αναγνώριση προσώπου (facial recognition) έχει ενταχθεί δυναμικά στο οπλοστάσιο της αστυνομίας διεθνώς, ευελπιστώντας πώς θα αποτελέσει έναν ακόμα σύμμαχο στον αγώνα κατά του εγκλήματος.

Συνοπτικά, η τεχνολογία facial recognition συλλέγει σε πραγματικό χρόνο τα βιομετρικά χαρακτηριστικά του προσώπου και με τη βοήθεια ενός εξειδικευμένου αλγόριθμου επιχειρεί να τα ταυτοποιήσει με φωτογραφίες που βρίσκονται αποθηκευμένες σε βάσεις δεδομένων.

Η εν λόγω διαδικασία είναι αυτοματοποιημένη και όλες οι κρίσιμες αποφάσεις λαμβάνονται από έναν υπολογιστή. Τι μπορεί να πάει άραγε λάθος; 


Οι ιστορίες των Robert Williams και Michael Oliver είναι ενδεικτικές.

Ο Robert Williams, ένας Αφροαμερικανός κάτοικος του Detroit, συνελήφθη στα τέλη Ιουνίου στην είσοδο του σπιτιού του, μπροστά στις δύο ανήλικες κόρες του, χωρίς κανείς να μπορεί να του αναφέρει τον λόγο.

Στο αστυνομικό τμήμα ενημερώθηκε πως θεωρείται ύποπτος για την ληστεία ενός καταστήματος το 2018, καθώς το πρόσωπό του ταυτοποιήθηκε με ένα απόσπασμα από την κάμερα ασφαλείας του καταστήματος.

Στη συγκεκριμένη περίπτωση, η ταυτοποίηση έγινε με βάση μια παλιά φωτογραφία από δίπλωμα οδήγησης. Μετά από τριάντα ώρες κράτησης, ο Robert Williams αφέθηκε τελικά ελεύθερος.

Η κυνική ομολογία των αστυνομικών του Detroit είναι αφοπλιστική: «ο υπολογιστής μάλλον έκανε λάθος».

Ο Williams επέλεξε να δώσει δημοσιότητα στην ιστορία του, δηλώνοντας ότι δεν ξέρει πώς να εξηγήσει σε δύο ανήλικα κορίτσια ότι ο μπαμπάς τους συνελήφθη κατά λάθος μπροστά στα μάτια τους.

Ταυτόχρονα, επεσήμανε πως, μολονότι η δική του περιπέτεια έληξε μέσα σε τριάντα ώρες, «σίγουρα υπάρχουν περιπτώσεις ανθρώπων που ταλαιπωρούνται πολύ περισσότερο για πολύ μεγαλύτερο χρονικό διάστημα εξαιτίας αντίστοιχων λαθών».

Ο Michael Oliver, επίσης Αφροαμερικανός κάτοικος Detroit, αποκάλυψε τη δική του περιπέτεια, αφού πρώτα άκουσε για την ιστορία του Williams.

Τον Ιούνιο του 2019, ο Oliver συνελήφθη από την αστυνομία του Detroit στον δρόμο για τη δουλειά του, με την κατηγορία της κλοπής του iPhone ενός δασκάλου.

Μοναδικό αποδεικτικό στοιχείο εναντίον του ήταν το καρέ από ένα βίντεο μιας κάμερας ασφαλείας. Το συγκεκριμένο στιγμιότυπο εισήχθη στην εφαρμογή facial recognition της αστυνομίας του Detroit και ο Oliver υποδείχθηκε από το σύστημα ως βασικός ύποπτος.

Σε αντίθεση με τον Williams, η δική του υπόθεση κράτησε πολύ περισσότερο από τριάντα ώρες, καθώς οδηγήθηκε σε δίκη, όπου και τελικά αθωώθηκε τρεις μήνες μετά την σύλληψή του. 

Οι παραπάνω ιστορίες προσφέρουν ένα χρήσιμο παράδειγμα για τα όρια και τους κινδύνους της μαζικής χρήσης της τεχνολογίας facial recognition από τις αστυνομικές αρχές.

Είναι εύλογο να αναρωτιέται κάποιος κατά πόσο είναι αρκετό το ταίριασμα μια παλιάς φωτογραφίας από έναν υπολογιστή για την σύλληψη, κι ενδεχομένως την καταδίκη, ενός ανθρώπου.

Ταυτόχρονα, είναι σημαντικό να διερευνηθεί το ζήτημα της ευθύνης σε περίπτωση λανθασμένου αποτελέσματος, καθώς και να αξιολογηθεί το κατά πόσο είναι  πράγματι ουδέτερη η συγκεκριμένη τεχνολογία.

Στους προβληματισμούς αυτούς, καθώς και στο ζήτημα της προστασίας των προσωπικών δεδομένων, θα επιχειρήσουμε να απαντήσουμε ευθύς αμέσως. 


Facial recognition και τεχνολογικοποίηση των διακρίσεων

Αν προσέξει κανείς τις ιστορίες των Robert Williams και Michael Oliver, ένα κοινό χαρακτηριστικό γίνεται αμέσως διακριτό: και οι δύο συλληφθέντες είναι Αφροαμερικανοί.

Σύμφωνα με την έρευνα του National Institute of Standards and Technology (NIST), η χρήση της τεχνολογίας facial recognition έχει ως αποτέλεσμα την εσφαλμένη αναγνώριση (false positives) ανθρώπων αφρικανικής ή ασιατικής καταγωγής, έως και 100 φορές περισσότερο συγκριτικά με τους λευκούς, ενώ η ομάδα που πλήττεται περισσότερο από false positives είναι οι Αμερικάνοι, ινδιάνικης καταγωγής.

Αντίθετα, η πληθυσμιακή κατηγορία που επωφελείται από το χαμηλότερο ποσοστό λάθους είναι οι λευκοί άντρες μέσης ηλικίας. 

Τρία από τα βασικά εργαλεία ψηφιακής αναγνώρισης προσώπων που έχουν αναπτυχθεί από τεχνολογικούς κολοσσούς (Microsoft, IBM, Megvii), δίνουν λάθος αποτελέσματα μία στις τρεις φορές, όταν πρόκειται για την ταυτοποίηση του φύλου μαύρων γυναικών.

Αντίθετα, το ποσοστό λάθος ταυτοποίησης λευκών ανδρών είναι μόλις 1%.

Αντίστοιχα, σε μια δοκιμαστική μελέτη του λογισμικού Rekognition της Amazon, το πρόγραμμα ταυτοποίησε λανθασμένα 28 μέλη του Κογκρέσου με άτομα που είχαν συλληφθεί στο παρελθόν για κάποιο έγκλημα. Οι λάθος ταυτοποιήσεις αφορούσαν  συντριπτικά σε μαύρους και λατίνους. 

Ο υψηλός αριθμός false positives σε βάρος των μαύρων αποτελεί επί της ουσίας την τεχνολογικοποίηση των ήδη υφιστάμενων διακρίσεων.

Όσο κι αν τα νούμερα φαντάζουν δυστοπικά, δεν διαφέρουν πολύ σε σχέση με όσα συμβαίνουν στου αμερικανικούς δρόμους μέχρι σήμερα, όπου η πρακτική του racial profiling έχει ως αποτέλεσμα να σταματώνται καθημερινά για έλεγχο από την αστυνομία δυσανάλογα περισσότεροι μαύροι.

Ενδεικτικά, το 2019, σε σύνολο 13.459 ελέγχων στο δρόμο από το αστυνομικό τμήμα της Νέας Υόρκης, το 90% αφορούσε σε μαύρους και λατίνους και μόλις το 9% σε λευκούς.

Ως εκ τούτου, η χρήση της ψηφιακής αναγνώρισης προσώπου από την αστυνομία  αποτελεί επί της ουσίας τη μεταφορά της διαδεδομένης πρακτικής profiling στον ψηφιακό κόσμο.


Facial recognition και αντεγκληματική πολιτική 

Η χρήση της τεχνολογίας facial recognition δεν περιορίζεται στο να ξεκλειδώνουμε με ευκολία το κινητό μας.

Ούτε αφορά μόνο τον έλεγχο του διαβατηρίου μας από την ασφάλεια του αεροδρομίου. Η ψηφιακή αναγνώριση προσώπου αποτελεί πλέον ένα ισχυρό ερευνητικό και ανακριτικό εργαλείο στα χέρια των αστυνομικών αρχών.

Στις Η.Π.Α., ένα στα τέσσερα αστυνομικά τμήματα έχει πρόσβαση σε εφαρμογές facial recognition με σκοπό την καταπολέμηση της εγκληματικότητας.

Αντίστοιχα, το σύστημα ψηφιακής αναγνώρισης προσώπου της Interpol (IFRS) περιέχει αποθηκευμένες φωτογραφίες προσώπων σε περισσότερες από 160 χώρες. 

Ωστόσο, η απουσία στοιχείων για την αποτελεσματικότητα και την πραγματική συμβολή της συγκεκριμένης τεχνολογίας στην καταπολέμηση της εγκληματικότητας είναι ανησυχητική, ενισχύοντας έτσι τις φωνές που αγωνίζονται υπέρ της απαγόρευσης της χρήσης facial recognition από την αστυνομία.

Χαρακτηριστικά, αναφέρεται πως η χρήση facial recognition δεν έχει οδηγήσει μέχρι στιγμής στην διαλεύκανση κανενός βαρύτερου ή ειδεχθούς εγκλήματος, παρά μόνο στην εξιχνίαση μικροπαραβάσεων και κλοπών


Απουσία ρυθμιστικού πλαισίου 

Ακόμα κι αν κάποιος δεν υποστηρίζει την καθολική κατάργηση της χρήσης facial recognition από την αστυνομία, δεν μπορεί παρά να αναγνωρίζει την ανάγκη θεσμοθέτησης ενός κανονιστικού πλαισίου που θα συμβάλει στην ενίσχυση της διαφάνειας.

Χαρακτηριστικά, η Amazon, της οποίας το λογισμικό ψηφιακής αναγνώρισης προσώπου Rekognition χρησιμοποιείται από πολλά αστυνομικά τμήματα ανά τον κόσμο, αναγνώρισε πως η απουσία ρυθμιστικού πλαισίου για τις εφαρμογές facial recognition είναι μείζονος σημασίας.

Μάλιστα,  σε σχετική δήλωση, τον Ιούνιο του 2020, ανακοίνωσε ότι θα παύσει την παροχή υπηρεσιών facial recognition σε αστυνομικές αρχές για ένα χρόνο, με σκοπό να ωθήσει τα κράτη να δημιουργήσουν ένα αυστηρό ρυθμιστικό πλαίσιο για την ηθική χρήση της τεχνολογίας.

Παράλληλα, η εφαρμογή Clearview AI αποτελεί την πιο ευρέως χρησιμοποιούμενη εφαρμογή από τα όργανα επιβολής του νόμου παγκοσμίως, διαθέτοντας μία βάση δεδομένων με περισσότερες από 3 δισεκατομμύρια εικόνες προσώπου, οι οποίες έχουν συλλεχθεί από μέσα κοινωνικής δικτύωσης.

Η εν λόγω εφαρμογή βασίζεται στη χρήση τεχνολογίας facial recognition και δίνει τη δυνατότητα στον χρήστη να ανεβάσει τη φωτογραφία ενός ατόμου στην εφαρμογή και να επιτύχει την αναγνώριση και σύνδεση του με τους λογαριασμούς του στα μέσα κοινωνικής δικτύωσης. 

Σύμφωνα με διεθνή ειδησεογραφικά μέσα, περισσότερες από 600 αστυνομικές αρχές παγκοσμίως κάνουν χρήση της εν λόγω εφαρμογής.

Ο Υπουργός Προστασίας του Πολίτη, σε επιστολή του προς τη Homo Digitalis, αρνήθηκε τη χρήση της εφαρμογής από την Ελληνική Αστυνομία.

Σε διεθνές επίπεδο, αυξάνονται οι αντιδράσεις απέναντι στην αποτελεσματικότητα της εφαρμογής, ενώ εισαγγελικές έρευνες έχουν ξεκινήσει σε Καναδά, Αυστραλία και Αγγλία. Μάλιστα, στον απόηχο των εισαγγελικών ερευνών, η Clearview αποφάσισε να διακόψει την παροχή των υπηρεσιών της προς την καναδική αστυνομία. 

Γίνεται σαφές πως οι εφαρμογές facial recognition δεν είναι ακόμα σε θέση να προσφέρουν απολύτως ασφαλή αποτελέσματα.

Ο υψηλός αριθμός λανθασμένων ταυτοποιήσεων και η σύλληψη αθώων πολιτών δεν μπορεί να γίνει δεκτή ως παράπλευρη απώλεια της χρήσης μια τεχνολογικής εφαρμογής.

Μάλιστα, φαίνεται πως ακόμα και οι εταιρίες που αποκομίζουν οικονομικό όφελος από την ανάπτυξη και τη χρήση των συγκεκριμένων εφαρμογών, πλέον παρουσιάζουν σημαντικούς ενδοιασμούς στην παροχή των υπηρεσιών τους, ζητώντας από τα κράτη να προβούν στη θέσπιση ρυθμιστικού πλαισίου που θα προστατεύει τους πολίτες από τη λανθασμένη χρήση της τεχνολογίας.

Προς το παρόν, ούτε η τεχνολογία ούτε το ρυθμιστικό πλαίσιο για την εφαρμογή της δείχνουν ικανά να εγγυηθούν την προστασία των δικαιωμάτων και ελευθεριών των πολιτών. Η χρήση εφαρμογών facial recognition από τις αστυνομικές αρχές πρέπει να περιμένει.

 

Πηγή: homodigitalis.gr




Ενα Like μας βοηθάει να συνεχίσουμε Facebook

ΠΡΟΣΟΧΗ: ΚΟΙΝΟΠΟΙΗΣΕ κάθε Δημοσίευση μας….Ορισμένα αναρτώμενα απο το διαδίκτυο, κείμενα ή εικόνες (με σχετική σημείωση της πηγής) θεωρούμε οτι είναι δημόσια. Αν υπάρχουν δικαιώματα, παρακαλούμε ενημερώστε μας για να τα αφαιρέσουμε. Οι απόψεις του ιστολογίου μπορεί να μην συμπίπτουν με τα περιεχόμενα του άρθρου !!!!!
« PREV
NEXT »

Δεν υπάρχουν σχόλια

Το ΕΠΙΟΣΥ INFO ουδεμία ευθύνη εκ του νόμου φέρει περί των επωνύμων ή ανωνύμων σχολίων που φιλοξενεί. Σε περίπτωση που θεωρείτε πως θίγεστε από κάποιο εξ αυτών, επικοινωνήστε μέσω e-mail έτσι ώστε να αφαιρεθεί. Σχόλια με αναφορές σε προσωπικά δεδομένα, τηλέφωνα, διευθύνσεις , υβριστικά ή συκοφαντικά θα αφαιρούνται!