Μπορεί το AI να έχει παρεκτροπές;

Συγγραφέας: Laura McKinney
Ημερομηνία Δημιουργίας: 5 Απρίλιος 2021
Ημερομηνία Ενημέρωσης: 26 Ιούνιος 2024
Anonim
Μπορεί το AI να έχει παρεκτροπές; - Τεχνολογία
Μπορεί το AI να έχει παρεκτροπές; - Τεχνολογία

Περιεχόμενο


Πάρε μακριά:

Τα τελευταία χρόνια, η ΑΠ υιοθετήθηκε όλο και περισσότερο και εφαρμόστηκε σε όλα, από την αξιολόγηση της ομορφιάς έως την εκτίμηση του κινδύνου υποτροπής. Με αυτόν τον τρόπο, έχει επίσης υποστηρίξει πρότυπα που υποστηρίζουν προκατάληψη και διακρίσεις σε αρκετές περιπτώσεις.

Η πρόοδος της τεχνολογίας έχει τη δυνατότητα πραγματικά να εκδημοκρατίσει την πρόσβαση σε πληροφορίες και ευκαιρίες. Ωστόσο, όταν σε ορισμένες περιπτώσεις χρησιμοποιείται με τρόπους που ενισχύουν την αντίληψη ότι στην κοινωνία μας κάποιοι άνθρωποι είναι πιο ίσοι από τους άλλους.

Αυτό που έχουμε δει από τις ακόλουθες επτά περιπτώσεις όπου η τεχνητή νοημοσύνη (AI) χρησιμοποιείται σκόπιμα για να αποκλείσει ορισμένες κατηγορίες ή στην οποία απλώς αντανακλά την προκατάληψη που ενσωματώνουν οι ανθρώπινοι προγραμματιστές της με διακριτική επίδραση.

Το AI Beauty Bias

Η ομορφιά μπορεί να είναι στο μάτι του θεατή, αλλά όταν αυτή η υποκειμενική άποψη μπορεί να προγραμματίσει AI, έχετε την προκατάληψη στο πρόγραμμα. Η Rachel Thomas αναφέρθηκε σε ένα τέτοιο επεισόδιο σε ένα διαγωνισμό ομορφιάς από το beauty.ai το 2016. Τα αποτελέσματα έδειξαν ότι οι ελαφρύτερες επιδερμίδες χαρακτηρίστηκαν πιο ελκυστικές από τις σκοτεινές.


Το επόμενο έτος, το FaceApp, το οποίο χρησιμοποιεί νευρωνικά δίκτυα για τη δημιουργία φίλτρων για φωτογραφίες, δημιούργησε ένα φίλτρο "θερμότητας" που ελαφρύνει το δέρμα των ανθρώπων και τους έδωσε περισσότερα ευρωπαϊκά χαρακτηριστικά.

Η Εξέλιξη των Φύλων στις Γλώσσες

Ο Θωμάς αναφέρει επίσης ένα τεκμηριωμένο παράδειγμα μεταφράσεων που μεταφέρουν στερεότυπες προσδοκίες για σταδιοδρομία. Το σημείο εκκίνησης είναι δύο προτάσεις: "Είναι γιατρός, είναι νοσοκόμα".

Εάν τα μεταφράσετε στη συνέχεια στα τουρκικά και πίσω στα αγγλικά, θα έχετε τα αποτελέσματα που ίσως θα περίμενε κανείς από ένα παιχνίδι τηλεφώνου.

Αντί να παίρνετε ό, τι ξεκινήσατε, θα είχατε την προσδοκία της δεκαετίας του 1950: «Είναι γιατρός, είναι νοσοκόμα». Εξηγεί ότι αυτό οφείλεται στην μοναδική ανδρική ανδρική ιδιότητα στην τουρκική γλώσσα που θα καθορίσει το φύλο με βάση τις προσδοκίες και τη στερεοτυπική προκατάληψη. (Διαβάστε τις γυναίκες στο AI: Ενισχύοντας το σεξισμό και τα στερεότυπα με την τεχνολογία)


Ενώ οι φυλετικές και φυλετικές προκαταλήψεις που φιλτράρουν τις εικόνες και τη γλώσσα είναι αιτία για εκφοβισμό, δεν είναι ακριβώς το ίδιο με την ενεργό διάκριση που προκύπτει από την ΑΠ, αλλά αυτό συνέβη επίσης.

Η απόδειξη ήταν ένα στιγμιότυπο των περιορισμών που τέθηκαν σε μια διαφήμιση κάτω από την κατηγορία κατοικίας της που επέτρεψε την επιλογή για τη μείωση του κοινού ελέγχοντας εξαιρέσεις των κατηγοριών όπως η αφρικανική αμερικανική, ασιατική αμερικανική ή ισπανόφωνες. Η διαφήμιση μπορεί να προβληθεί εδώ.

Όπως επισημαίνει η ProPublica, το διακριτικό αποτέλεσμα τέτοιων διαφημίσεων είναι παράνομο, τόσο βάσει του νόμου περί δίκαιης στέγασης του 1968 όσο και του νόμου περί αστικών δικαιωμάτων του 1964. Η μόνη υπεράσπιση στην περίπτωση αυτή ήταν ότι η διαφήμιση δεν ήταν για στέγαση, t για ένα ακίνητο ή σπίτι για πώληση ή ενοικίαση.

Εντούτοις, υπήρξαν άλλες περιπτώσεις στόχευσης που υποδηλώνουν φυλετική προκατάληψη και αυτό έχει παρακινήσει διάφορες οντότητες να φέρουν αστικές αγωγές ενάντια στο κοινωνικό δίκτυο. Όπως δήλωσε η Wired, επιτέλους αποφάσισε να προσαρμόσει την τεχνολογία στόχευσης των διαφημίσεών της ως αποτέλεσμα της επίλυσης πέντε νομικών υποθέσεων που την επιβάλλουν να επιτρέπουν διακρίσεις κατά μειονοτήτων μέσω διαφημίσεων το Μάρτιο του 2019.

Στην έκθεσή της για την επίλυση, η ACLU επεσήμανε πόσο ύπουλες αυτές οι στοχευμένες διαφημίσεις θα μπορούσαν να είναι, καθώς οι μειονότητες και οι γυναίκες μπορεί να μην συνειδητοποιούν ότι δεν τους παρέχεται η ίδια πρόσβαση σε πληροφορίες, στέγαση και ευκαιρίες απασχόλησης που μοιράζονται με τους λευκούς άνδρες.

Καθώς περισσότεροι άνθρωποι στραφούν στο διαδίκτυο για να βρουν δουλειές, διαμερίσματα και δάνεια, υπάρχει πραγματικός κίνδυνος η στόχευση διαφημίσεων να αναπαράγει και ακόμη να επιδεινώσει τις υφιστάμενες φυλετικές και φυλετικές μεροληψίες στην κοινωνία. Φανταστείτε εάν ένας εργοδότης επιλέξει να προβάλει διαφημίσεις για εργασίες μηχανικής μόνο σε άνδρες - όχι μόνο οι χρήστες που δεν είναι αναγνωρισμένοι ως άνδρες δεν θα βλέπουν ποτέ αυτές τις διαφημίσεις, δεν θα γνωρίζουν επίσης ποτέ τι χάθηκαν.

Μετά από όλα, έχουμε σπάνια έναν τρόπο να προσδιορίσουμε τις διαφημίσεις που δεν βλέπουμε στο διαδίκτυο. Το γεγονός ότι αυτή η διάκριση είναι αόρατη στον αποκλεισμένο χρήστη καθιστά ακόμη πιο δύσκολη τη διακοπή.

2. Διακρίσεις λόγω φύλου και ηλικίας στις θέσεις εργασίας

Μεταξύ των νομικών υποθέσεων ήταν η παράνομη διάκριση στις κατοικίες που επέτρεπε τη στόχευση. Στην έκθεσή της σχετικά με τον διακανονισμό, η ProPublica δήλωσε ότι έχει δοκιμάσει την πλατφόρμα και κατάφερε να αγοράσει «διαφημίσεις που σχετίζονται με τη στέγαση σε εκείνες τις αποκλεισμένες ομάδες όπως οι Αφροαμερικανοί και οι Εβραίοι και βρήκε προηγουμένως διαφημίσεις εργασίας που εξαιρούν τους χρήστες κατά ηλικία και φύλο που είναι νοικοκυριά. "

Ο αριθμός των διαφημίσεων εργασίας που βρήκε το ACLU και οι οποίοι απευθύνονταν αποκλειστικά σε άνδρες σε συγκεκριμένη ηλικιακή ομάδα, όπως οι χρήστες μπορούσαν να βρουν κάνοντας κλικ στην απάντηση, για ποιο λόγο είχαν δείξει ότι μια συγκεκριμένη διαφήμιση παρουσιάστηκε σε άλλο ενσύρματο άρθρο. Η ACLU προσέβαλε την Επιτροπή Ίσων Ευκαιριών για την Απασχόληση κατά του κοινωνικού δικτύου και των εταιρειών που έβαλαν τις διαφημίσεις με το αιτιολογικό ότι παραβίαζαν τόσο τους νόμους περί εργασίας όσο και τα δικαιώματα των πολιτών.

Οι διακρίσεις κατά της πρόσληψης ατόμων άνω των 40 ετών παραβιάζουν τον ομοσπονδιακό νόμο περί διακρίσεων λόγω ηλικίας στην απασχόληση (ADEA). Αλλά η στόχευση διαφημίσεων εργασίας μόνο σε άτομα κάτω από αυτή την ηλικία είναι ένα από τα πράγματα που ενεργοποιούνται από την πλατφόρμα.

Η ProPublica κατέστησε το επίκεντρο μιας εκθέσεώς της να αποκαλύψει ποιες διαφημίσεις εργασίας επωφελήθηκαν από αυτήν την παράνομη μορφή αποκλεισμού κατά ηλικία. Τα ονόματα των νοικοκυριών περιλαμβάνουν Verizon, UPS, Uber, Target, Statefarm, Northwestern Mutual, Microsoft, J Street, HusbSpot, IKEA, Ταμείο για το δημόσιο συμφέρον, Goldman Sach, OpenWorks και ο ίδιος, μεταξύ άλλων.

Η αποτυχία αναγνώρισης προσώπου

"Η αναγνώριση προσώπου είναι ακριβής αν είστε λευκός" δήλωσε τον τίτλο ενός άρθρου της New York Times που δημοσιεύθηκε τον Φεβρουάριο του 2018. Αναφέρθηκε στα αποτελέσματα που βρήκαν μια ξεχωριστή συσχέτιση μεταξύ του τόνου του δέρματος και του ελαττωματικού προσδιορισμού:

"Όσο πιο σκούρα είναι το δέρμα, τόσο περισσότερα σφάλματα εμφανίζονται - έως και 35% για τις εικόνες των πιο σκουρόχρωμων γυναικών, σύμφωνα με νέα μελέτη που αναλύει το πώς λειτουργεί η τεχνολογία σε ανθρώπους διαφορετικών φυλών και φύλου".

Τα ευρήματα πιστώνονται στον Joy Buolamwini, ερευνητή στο MIT Media Lab, και ο ιδρυτής της Αλγριθμιζικής Δικαιοσύνης (AJL). Ο τομέας της έρευνας είναι οι προκαταλήψεις που υποκρύπτουν το ΑΙ, με αποτέλεσμα τέτοια λοξά αποτελέσματα όταν πρόκειται για την αναγνώριση προσώπων που δεν ταιριάζουν με το λευκό ανδρικό πρότυπο που έχει οριστεί για το μοντέλο.

Ο Buolamwini παρουσίασε το πρόβλημα της φυλετικής και του φύλου μεροληψίας για αναγνώριση προσώπου σε μια ομιλία του 2017 TED, την οποία ανέφερε στις αρχές του 2018 στο βίντεο στο The Gender Shades Project από το Εργαστήριο MIT:

<

Το γράμμα που περιγράφεται στην περιγραφή του βίντεο είναι ότι η αποχώρηση από την AI δεν έχει επαληθευτεί "θα παρακωλύσει την εποχή της αυτοματοποίησης και θα επιδεινώσει περαιτέρω την ανισότητα εάν αφήσουμε να φθαρεί". Οι κίνδυνοι δεν είναι τίποτε λιγότερο από "να χάσουν τα κέρδη που έγιναν με το κίνημα των πολιτικών δικαιωμάτων και το κίνημα των γυναικών κάτω από την ψευδή παραδοχή της μηχανικής ουδετερότητας".

Η περιγραφή βίντεο προσθέτει την προειδοποίηση που έχουν επισημάνει πολλοί άλλοι, όπως είδαμε στις "Γυναίκες στο AI: Ενίσχυση του Σεξισμού και των Στερεοτύπων με την Τεχνική: Τα αυτοματοποιημένα συστήματα δεν είναι εγγενώς ουδέτερα, αντικατοπτρίζουν τις προτεραιότητες, τις προτιμήσεις και τις προκαταλήψεις - το βλέμμα-εκείνων που έχουν τη δύναμη να διαμορφώνουν τεχνητή νοημοσύνη. "

Στις 25 Ιανουαρίου 2019 ο Buolamnwini δημοσίευσε μια μεσαία θέση που έριξε την έρευνά της και αυτή των επιπρόσθετων ερευνητών που επισημαίνουν πως οι αδυναμίες της ΑΠ οδηγούν σε λάθη στην Αναγνώριση του Αμαζονίου και απαίτησαν η εταιρεία να σταματήσει να πωλεί την υπηρεσία ΑΙ στα αστυνομικά τμήματα.

Ενώ η Rekognition μπορούσε να έχει 100% ακρίβεια για την αναγνώριση των ανοιχτόχρωμων αρσενικών και ακρίβεια 98,7%, ακόμη και για τα πιο σκούρα αρσενικά, όταν ήταν γυναίκες, η ακρίβεια μειώθηκε στο 92,9% για τα ελαφρύτερα θηλυκά. Ακόμα πιο έντονο ήταν η απότομη πτώση σε ακρίβεια μόλις 68,6% για πιο σκοτεινά θηλυκά.

Αλλά η Amazon αρνήθηκε να υποχωρήσει. Ένα άρθρο του Venture Beat ανέφερε μια δήλωση του Dr. Matt Wood, γενικού διευθυντή της βαθιάς μάθησης και του AI στο AWS, όπου επέμεινε ότι τα ευρήματα των ερευνητών δεν αντικατόπτριζαν τον τρόπο με τον οποίο χρησιμοποιείται πραγματικά το AI, εξηγώντας:

"Η ανάλυση προσώπου και η αναγνώριση του προσώπου είναι εντελώς διαφορετικές όσον αφορά την τεχνολογία και τα δεδομένα που χρησιμοποιούνται για την εκπαίδευσή τους. Η προσπάθεια να χρησιμοποιηθεί η ανάλυση του προσώπου για να μετρηθεί η ακρίβεια της αναγνώρισης του προσώπου είναι άσχημη, καθώς δεν είναι ο επιδιωκόμενος αλγόριθμος για το σκοπό αυτό. "

Αλλά δεν είναι μόνο εκείνοι που συνδέονται με μεγάλα ερευνητικά κέντρα που έχουν βρει τους αλγορίθμους να είναι πολύ προβληματικοί. Η ACLU έτρεξε τη δική της δοκιμή με το πιο λογικό κόστος των 12,33 δολαρίων, σύμφωνα με την έκθεση Gizmodo. Διαπίστωσε ότι η Αναγνώριση αντιστοιχούσε σε 28 μέλη του Κογκρέσου με φωτογραφίες εγκληματιών.

"Οι ψευδείς ταυτοποιήσεις έγιναν όταν η ACLU της Βόρειας Καλιφόρνιας ανέθεσε την Αναγνώριση με αντίστοιχες φωτογραφίες από όλα τα 535 μέλη του Κογκρέσου έναντι 25.000 διαθέσιμων φωτογραφιών mugshot".

Δεδομένου ότι 11 από τους 28 ήταν άνθρωποι χρώματος, αυτό αντανακλούσε ένα σημαντικό ποσοστό σφάλματος 39% γι 'αυτούς. Αντίθετα, το ποσοστό σφάλματος στο σύνολό του ήταν περισσότερο αποδεκτό 5%. Έξι μέλη της Μαύρης Εθνοσυνέλευσης του Κογκρέσου, οι οποίοι συγκαταλέγονται μεταξύ αυτών των Αναγνώρισης που συνδέονται με τα κορίτσια, εξέφρασαν την ανησυχία τους με ανοιχτή επιστολή προς τον Διευθύνοντα Σύμβουλο της Amazon.

Αναίρεση υποτροπής

Η μεροληψία που ενσωματώνεται στο ΑΙ ενάντια στους ανθρώπους του χρώματος γίνεται πιο σοβαρό πρόβλημα όταν σημαίνει κάτι περισσότερο από απλό σφάλμα στον προσδιορισμό. Αυτό ήταν το εύρημα μιας άλλης έρευνας ProPublica το 2016. Οι συνέπειες μιας τέτοιας προκατάληψης δεν είναι τίποτε λιγότερο από την ατομική ελευθερία σε συνδυασμό με την παραβίαση του πραγματικού κινδύνου από το πρόσωπο του οποίου το χρώμα του δέρματος ευνοείται από τον αλγόριθμο.

Το άρθρο αναφέρεται σε δύο παράλληλες υποθέσεις που αφορούν έναν λευκό δράστη και έναν μαύρο. Ένας αλγόριθμος χρησιμοποιήθηκε για να προβλεφθεί ποιος θα μπορούσε να παραβιάσει και πάλι τον νόμο. Το μαύρο βαθμολογήθηκε με υψηλό κίνδυνο και το λευκό με χαμηλό κίνδυνο.

Η πρόβλεψη το έκανε εντελώς λανθασμένο, και ο λευκός που πήγε ελεύθερος έπρεπε να φυλακιστεί ξανά. Αυτό είναι εξαιρετικά προβληματικό, διότι τα δικαστήρια βασίζονται στη βαθμολογία όταν αποφασίζουν για την απαγόρευση και αυτό σημαίνει ότι η φυλετική προκατάληψη που λαμβάνεται υπόψη στο πρόγραμμα σημαίνει άνιση μεταχείριση βάσει του νόμου.

Η ProPublica έβαλε τον αλγόριθμο στη δική της δοκιμή, συγκρίνοντας τα αποτελέσματα των περισσότερων από 7.000 ατόμων που συνελήφθησαν στην περιφέρεια Broward της Φλόριντα το 2013 και το 2014 στον αριθμό που είχε νέες ποινικές κατηγορίες κατά των δύο ετών.

Αυτό που διαπίστωσε ήταν ότι μόνο το 20% των προβλέψεων για επανάληψη εγκλημάτων βίαιης φύσης έγινε πραγματικότητα, ενώ περισσότερα ελάσσια εγκλήματα εμφανίστηκαν μόνο στο 61% των ατόμων με βαθμολογίες που υποδεικνύουν κίνδυνο.

Το πραγματικό πρόβλημα δεν είναι μόνο η έλλειψη ακρίβειας, αλλά η σχετική φυλετική προκατάληψη:

  • Η φόρμουλα ήταν ιδιαίτερα πιθανό να σημάνει ψευδώς τους μαύρους κατηγορούμενους ως μελλοντικούς εγκληματίες, λανθασμένα τους επισημαίνοντας έτσι με σχεδόν διπλάσιο ρυθμό ως λευκοί κατηγορούμενοι.
  • Οι λευκοί κατηγορούμενοι κατηγορήθηκαν ως χαμηλοί κίνδυνοι συχνότερα από τους μαύρους κατηγορούμενους.

Στην πραγματικότητα, αυτό μεταφράστηκε σε ποσοστό σφάλματος 45% για τους μαύρους και 24% για τους λευκούς. Παρά την εντυπωσιακή στατιστική, ο Θωμάς ανέφερε ότι το Ανώτατο Δικαστήριο του Ουισκόνσιν εξακολουθούσε να υποστηρίζει τη χρήση αυτού του αλγορίθμου. Αναφέρεται επίσης σε άλλα προβλήματα που σχετίζονται με αλγορίθμους υποτροπής.