Τεχνητή Νοημοσύνη για την εγκληματικότητα;- Τι είναι το “πείραμα του Τορόντο” που αντιγράφει η ΕΛ.ΑΣ
Την χρήση της Τεχνητής Νοημοσύνης μελετά να εισάγει η ΕΛ.ΑΣ για την επιτάχυνση στην διερεύνηση εγκλημάτων, όπως αναφέρει σε πρωτοσέλιδο ρεπορτάζ της η “Καθημερινή”. Το εάν η εφαρμογή νέων τεχνολογιών συνδέεται με τις έκτακτες κρίσεις στην ηγεσία της αστυνομίας μένει να διαπιτωθεί, ωστόσο αυτό που διοχετεύεται από την Κατεχάκη είναι ότι η πολιτική ηγεσία επιχειρεί να φέρει καθ΄ ημάς το μοντέλο που εφαρμόζεται σταδιακά τα τελευταία χρόνια στο Τορόντο του Καναδά.
Η εφαρμογή Τεχνητής νοημοσύνης, ωστόσο, από τις αστυνομικές αρχές συγκεντρώνει διεθνώς μεγάλη καχυποψία και διατυπώνονται επιφυλάξεις, παρά το γεγονός ότι, όντως, μπορεί να βοηθήσει στην ταχύτερη διερεύνηση εγκληματικών πράξεων, σε συνδυασμό με την επέκταση του συστήματος καμερών. Πρόσφατα η κυβέρνηση ανακοίνωσε την τοποθέτηση περίπου 2.000 επιπλέον καμερών σε οδικές αρτηρίες (διασταυρώσεις, φανάρια κ.ά) αλλά και γενικότερα, κάτι που πιθανότατα σχετίζεται με το σχέδιο για τη νέα τεχνολογία της AI.
Στον Καναδά διατυπώνονται σφοδρές ενστάσεις από νομικούς κύκλους αλλά και επιτροπές για την προάσπιση των ανθρωπίνων δικαιωμάτων.
Η διασταύρωση της τεχνητής νοημοσύνης (AI) και της ποινικής δικαιοσύνης είναι ένας ταχέως εξελισσόμενος τομέας με σημαντικές επιπτώσεις. Οι τεχνολογίες τεχνητής νοημοσύνης χρησιμοποιούνται σε διάφορες πτυχές του συστήματος δικαιοσύνης, από την αστυνόμευση έως την επιβολή ποινών . Ενώ η τεχνητή νοημοσύνη προσφέρει πιθανά οφέλη, εγείρει επίσης ανησυχίες σχετικά με το απόρρητο, την προκατάληψη και τη λογοδοσία.
Στα νομικά κείμενα που έχουν δημοσιευτεί για την εφαρμογή της AI στο Τορόντο αναφέρεται μεταξύ άλλων:
Η προγνωστική αστυνόμευση, η οποία χρησιμοποιεί αλγόριθμους για την πρόβλεψη περιοχών με υψηλή πιθανότητα εγκληματικής δραστηριότητας, έχει γίνει ολοένα και πιο κοινή. Αναλύοντας δεδομένα για εγκλήματα του παρελθόντος, δημογραφικές τάσεις και άλλους παράγοντες, αυτοί οι αλγόριθμοι μπορούν να βοηθήσουν τις υπηρεσίες επιβολής του νόμου να κατανέμουν τους πόρους πιο αποτελεσματικά. Ωστόσο, υπάρχουν ανησυχίες ότι η προγνωστική αστυνόμευση μπορεί να διαιωνίσει τις υπάρχουσες προκαταλήψεις και να στοχεύσει δυσανάλογα τις περιθωριοποιημένες κοινότητες.
Για παράδειγμα, εάν ένας αλγόριθμος τεχνητής νοημοσύνης εκπαιδεύεται σε δεδομένα που αντικατοπτρίζουν δυσανάλογα τις εμπειρίες λευκών ατόμων, μπορεί να είναι πιο πιθανό να προσδιορίσει περιοχές με υψηλούς πληθυσμούς έγχρωμων ατόμων ως υψηλού κινδύνου εγκληματικότητας. Αυτό μπορεί να οδηγήσει σε αυξημένη αστυνομική παρουσία σε αυτές τις κοινότητες, ακόμη και αν δεν υπάρχει πραγματική αύξηση της εγκληματικότητας.
Η αναγνώριση προσώπου
Ένας άλλος τομέας όπου χρησιμοποιείται η τεχνητή νοημοσύνη είναι η αναγνώριση προσώπου. Οι υπηρεσίες επιβολής του νόμου χρησιμοποιούν όλο και περισσότερο τεχνολογία αναγνώρισης προσώπου με τεχνητή νοημοσύνη για τον εντοπισμό υπόπτων και θυμάτων. Αν και αυτή η τεχνολογία μπορεί να είναι ένα πολύτιμο εργαλείο, εγείρει επίσης ανησυχίες για παραβιάσεις του απορρήτου και την πιθανότητα εσφαλμένης αναγνώρισης. Τα συστήματα αναγνώρισης προσώπου μπορεί να είναι επιρρεπή σε σφάλματα, ιδιαίτερα όταν αντιμετωπίζουμε εικόνες χαμηλής ποιότητας ή άτομα από περιθωριοποιημένες ομάδες.
Για παράδειγμα, τα συστήματα αναγνώρισης προσώπου μπορεί να δυσκολεύονται να αναγνωρίσουν με ακρίβεια άτομα με πιο σκούρες αποχρώσεις δέρματος, οδηγώντας σε παράνομες συλλήψεις και καταδίκες. Επιπλέον, η ευρεία χρήση της τεχνολογίας αναγνώρισης προσώπου εγείρει ανησυχίες για το απόρρητο, καθώς μπορεί να χρησιμοποιηθεί για την παρακολούθηση και την παρακολούθηση ατόμων χωρίς τη γνώση ή τη συγκατάθεσή τους.
[Διαβάστε: Ο Αντίκτυπος της εφαρμογής Τεχνητής Νοημοσύνης στη Δικαιοσύνη/ Barriston Law]
Αυτοί και πολλοί ακόμα προβληματισμοί έχουν τεθεί στις δημόσιες συζητήσεις στον Καναδά. Προφανώς κάτι ανάλογο θα τεθεί και στη δημόσια διαβούλευση στην Ελλάδα όταν το υπουργείο Προστασίας του Πολίτη εξειδικεύσει τις προθέσεις του για την εφαρμογή της Τεχνητής Νοημοσύνης.
Τι περιλαμβάνει το μοντέλο του Τορόντο
Στη δημόσια συνεδρίασή του στις 28 Φεβρουαρίου 2022, το Συμβούλιο Αστυνομικών Υπηρεσιών του Τορόντο (Συμβούλιο) ενέκρινε τη νέα Πολιτική του Διοικητικού Συμβουλίου με τίτλο « Χρήση Τεχνολογίας Τεχνητής Νοημοσύνης ».
Αυτή η Πολιτική του Διοικητικού Συμβουλίου καθιερώνει τη διακυβέρνηση για τη χρήση νέας ή/και βελτιωμένης τεχνολογίας Τεχνητής Νοημοσύνης (AI) και για προηγουμένως εγκεκριμένη τεχνολογία τεχνητής νοημοσύνης που θα χρησιμοποιηθεί για νέους σκοπούς ή περιστάσεις. Επιπλέον, αυτή η πολιτική θεσπίζει ένα πλαίσιο αξιολόγησης και λογοδοσίας σχετικά με την απόκτηση και τη χρήση τεχνολογίας AI.
Σε απάντηση αυτής της πολιτικής του Διοικητικού Συμβουλίου, η Υπηρεσία βρίσκεται υπό τη δημιουργία της διαδικασίας AI για να παρέχει στα μέλη της Υπηρεσίας ένα πλαίσιο για την απόκτηση και τη χρήση τεχνολογίας AI. Το προσχέδιο της διαδικασίας τεχνητής νοημοσύνης δημοσιεύτηκε για ανατροφοδότηση στις 24 Νοεμβρίου 2022 και το δημόσιο σχόλιο ήταν ζωτικής σημασίας για τη συνεχή ανάπτυξη της μετρημένης προσέγγισης για την αξιολόγηση κινδύνου, το κόστος και τα οφέλη που σχετίζονται με τη χρήση της τεχνολογίας τεχνητής νοημοσύνης από την Υπηρεσία
Καθώς προκύπτουν νέες πληροφορίες, τεχνολογικές εξελίξεις και νομοθετικές απαιτήσεις, η διαδικασία τεχνητής νοημοσύνης συνεχίζει να αναπτύσσεται.
Αυτή η Πολιτική Διοικητικού Συμβουλίου καθορίζει την κατεύθυνση για την ανάλυση κινδύνου όλης της τεχνολογίας AI που χρησιμοποιείται από την Υπηρεσία και για τη δημοσίευση της λίστας στον ιστότοπο της TPS. Στη δημόσια συνεδρίαση της 11ης Ιανουαρίου 2024, το Διοικητικό Συμβούλιο δημοσίευσε τον κατάλογο των αποθεμάτων τεχνητής νοημοσύνης.
Η Χρήση Τεχνητής Νοημοσύνης κατά την διερεύνηση εγκλημάτων περιλαμβάνει:
-Το σύστημα βοηθά τους ερευνητές συγκρίνοντας μια εικόνα υπόπτου εγκληματίας που λήφθηκε σε σχέση με ένα εγκληματικό συμβάν με μια βάση δεδομένων εικόνων ποινικού μητρώου που αποκτήθηκαν νόμιμα (φωτογραφίες κρατήσεων).
-Το σύστημα χρησιμοποιεί έναν σταθερό αλγόριθμο για να παρέχει εικόνες από τη βάση δεδομένων που ενδέχεται να ταιριάζουν με την εικόνα που τραβήχτηκε για περαιτέρω έλεγχο.
-Οι πιθανές αντιστοιχίσεις εικόνων (εάν υπάρχουν) εξετάζονται και εξετάζονται από έναν Αναλυτή Αναγνώρισης Προσώπου.
-Οι πιθανές αντιστοιχίσεις παρέχονται στη συνέχεια στον ερευνητή για πρόσθετη εξέταση.
-Το σύστημα βοηθά τους ερευνητές παρέχοντας τα εργαλεία για να συγκρίνουν τα δακτυλικά αποτυπώματα που βρίσκονται στον τόπο του εγκλήματος με μια βάση δεδομένων γνωστών εγκληματιών.
-Το σύστημα χρησιμοποιεί έναν σταθερό αλγόριθμο για να παρέχει ειδικά εκπαιδευμένους Εξεταστές Δακτυλικών Αποτυπωμάτων με πιθανούς υποψήφιους για μη αυτόματη σύγκριση.
-Τα αποτελέσματα εξετάζονται χειροκίνητα και συγκρίνονται από έναν Εξεταστή δακτυλικών αποτυπωμάτων
-Αυτόματη συσκευή ανάγνωσης πινακίδων κυκλοφορίας (ALPR) η οποία είναι τοποθετημένη σε όχημα επιβολής στάθμευσης. Χρησιμοποιεί τεχνολογία οπτικής αναγνώρισης χαρακτήρων για την παρατήρηση και την αναγνώριση χαρακτήρων στις πινακίδες κυκλοφορίας.
-Στη συνέχεια, οι χαρακτήρες προετοιμάζονται για σύγκριση με γνωστά αναφερόμενα κλεμμένα αυτοκίνητα και πινακίδες με σχετικά προβλήματα.
-Τα αποτελέσματα εμφανίζονται για τον χειριστή για να βοηθήσει στον καθορισμό των επόμενων ενεργειών.
Το πανεπιστήμιο του Σικάγο …προβλέπει το έγκλημα:
Οι πρόοδοι στην τεχνητή νοημοσύνη και τη μηχανική μάθηση έχουν προκαλέσει το ενδιαφέρον των κυβερνήσεων που θα ήθελαν να χρησιμοποιήσουν αυτά τα εργαλεία για προγνωστική αστυνόμευση για την αποτροπή του εγκλήματος. Ωστόσο, οι πρώτες προσπάθειες για την πρόβλεψη του εγκλήματος ήταν αμφιλεγόμενες, επειδή δεν λαμβάνουν υπόψη τις συστημικές προκαταλήψεις στην επιβολή της αστυνομίας και την περίπλοκη σχέση της με το έγκλημα και την κοινωνία.
Τα δεδομένα του Πανεπιστημίου του Σικάγο και οι κοινωνικοί επιστήμονες ανέπτυξαν έναν νέο αλγόριθμο που προβλέπει το έγκλημα μαθαίνοντας πρότυπα στο χρόνο και τις γεωγραφικές τοποθεσίες από δημόσια δεδομένα για βίαια εγκλήματα και εγκλήματα ιδιοκτησίας. Έχει επιδείξει επιτυχία στην πρόβλεψη μελλοντικών εγκλημάτων μία εβδομάδα νωρίτερα με ακρίβεια περίπου 90% .
Σε ένα ξεχωριστό μοντέλο, η ομάδα ερευνητών μελέτησε επίσης την αντίδραση της αστυνομίας στο έγκλημα αναλύοντας τον αριθμό των συλλήψεων μετά από περιστατικά και συγκρίνοντας αυτά τα ποσοστά μεταξύ γειτονιών με διαφορετική κοινωνικοοικονομική κατάσταση. Είδαν ότι η εγκληματικότητα σε πιο πλούσιες περιοχές είχε ως αποτέλεσμα περισσότερες συλλήψεις, ενώ οι συλλήψεις σε μειονεκτικές γειτονιές μειώθηκαν. Το έγκλημα σε φτωχές γειτονιές δεν οδήγησε σε περισσότερες συλλήψεις, ωστόσο, υποδηλώνοντας μεροληψία στην αντίδραση και την επιβολή της αστυνομίας.
«Αυτό που βλέπουμε είναι ότι όταν τονίζεις το σύστημα, απαιτεί περισσότερους πόρους για τη σύλληψη περισσότερων ανθρώπων ως απάντηση στο έγκλημα σε μια πλούσια περιοχή και αντλεί αστυνομικούς πόρους μακριά από περιοχές με χαμηλότερη κοινωνικοοικονομική θέση», δήλωσε ο Ishanu Chattopadhyay, PhD, Επίκουρος Καθηγητής. της Ιατρικής στο UChicago και ανώτερος συγγραφέας της νέας μελέτης, η οποία δημοσιεύθηκε στις 30 Ιουνίου 2022, στο περιοδικό Nature Ανθρώπινη Συμπεριφορά .
Το νέο εργαλείο δοκιμάστηκε και επικυρώθηκε χρησιμοποιώντας ιστορικά δεδομένα από την πόλη του Σικάγο γύρω από δύο ευρείες κατηγορίες αναφερόμενων γεγονότων: βίαια εγκλήματα (ανθρωποκτονίες, επιθέσεις και μπαταρίες) και εγκλήματα ιδιοκτησίας (διαρρήξεις, κλοπές και κλοπές αυτοκινήτων). Αυτά τα δεδομένα χρησιμοποιήθηκαν επειδή ήταν πολύ πιθανό να καταγγελθούν στην αστυνομία σε αστικές περιοχές όπου υπάρχει ιστορική δυσπιστία και έλλειψη συνεργασίας με τις αρχές επιβολής του νόμου. Τέτοια εγκλήματα είναι επίσης λιγότερο επιρρεπή σε μεροληψία επιβολής, όπως συμβαίνει με τα εγκλήματα ναρκωτικών, τις στάσεις κυκλοφορίας και άλλες παραβάσεις πλημμελημάτων.
Επιφυλάξεις
Ωστόσο, στην Επιτροπή για τα Ανθρώπινα Δικαιώματα του Οντάριο έχουν αναφερθεί πολλές περιπτώσεις στρεβλής χρησιμοποίησης των μεθόδων Τεχνητής Νοημοσύνης ή άλλων σύγχρονων τεχνολογιών από αστυνομικούς.
Όπως σημείωσε το Citizenlab στην έκθεσή του Surveil and Predict: A Human Rights Analysis of Algorithmic Policing στον Καναδά , υπάρχουν πολλά ζητήματα με τη χρήση της τεχνητής νοημοσύνης και της τεχνολογίας αναγνώρισης προσώπου στην αστυνόμευση, όπως:
–ανησυχίες περί απορρήτου που σχετίζονται με τη σύλληψη και τη διατήρηση φωτογραφικών δεδομένων από τις αρχές επιβολής του νόμου
–αναξιόπιστη τεχνολογία αναγνώρισης προσώπου – ιδιαίτερα στην περίπτωση φυλετικών ατόμων και γυναικών
–ανταλλαγή δεδομένων μεταξύ του ιδιωτικού τομέα και των αρχών επιβολής του νόμου.
Σύμφωνα με την πολιτική του TPSB για το 2020 για τις κάμερες που φοριούνται στο σώμα:
Οι εγγραφές από κάμερες που φοριούνται από το σώμα δεν επιτρέπεται να χρησιμοποιούνται σε συνδυασμό με τεχνολογία αναγνώρισης προσώπου, λογισμικό ανάλυσης βίντεο, λογισμικό αναγνώρισης φωνής ή για τη δημιουργία βάσης δεδομένων εικόνων ατόμων που έχουν αλληλεπιδράσει με Μέλη Υπηρεσίας με δυνατότητα αναζήτησης, με εξαίρεση τη σύγκριση εικόνων που σχετίζονται άμεσα με μια έρευνα σε μια βάση δεδομένων «σκοτών κούπας» με τρόπο που έχει εγκριθεί από το Δ.Σ.
Ωστόσο, το OHRC εξακολουθεί να ανησυχεί για τη χρήση της τεχνητής νοημοσύνης σε συνδυασμό με την αναγνώριση προσώπου και τις κάμερες που φοριούνται από το σώμα λαμβάνοντας υπόψη την υπερβολική επιτήρηση και την υπερφόρτιση των κοινοτήτων μαύρων και την προηγούμενη χρήση τεχνολογίας αναγνώρισης προσώπου από την TPS.
Αρκετές δικαιοδοσίες έχουν αναστείλει τη χρήση της αναγνώρισης προσώπου από τις αρχές επιβολής του νόμου. Το 2020, η Καλιφόρνια εφάρμοσε μια τριετή απαγόρευση στην αστυνομία να χρησιμοποιεί τεχνολογία αναγνώρισης προσώπου σε πλάνα από κάμερες που φοριούνται στο σώμα. Oakland, San Francisco και Somerville θέσπισαν ακόμη ευρύτερες απαγορεύσεις στη χρήση αυτής της τεχνολογίας από τους δήμους.