Τι είναι οι αλγοριθμικές προκαταλήψεις και πώς να τις εντοπίσετε;

Η αλγοριθμική προκατάληψη μπορεί να επηρεάσει διάφορες πτυχές της ζωής μας, από τη λήψη συστάσεων περιεχομένου στο διαδίκτυο μέχρι την εύρεση εργασίας και τη λήψη οικονομικών αποφάσεων.

Η προκατάληψη είναι στην ανθρώπινη φύση. Διαφορετικοί άνθρωποι έχουν διαφορετικό φύλο, φυλή, ανατροφή, μορφωτικό υπόβαθρο, κουλτούρες, πεποιθήσεις, εμπειρίες κ.λπ.

Έτσι, οι απόψεις, οι σκέψεις, οι συμπάθειες και οι αντιπάθειές τους και οι προτιμήσεις τους διαφέρουν μεταξύ τους. Μπορούν να αναπτύξουν ορισμένες προκαταλήψεις προς ή κατά ορισμένων κατηγοριών.

Οι μηχανές δεν διαφέρουν. Αυτά μπορεί επίσης να βλέπουν διαφορετικά άτομα, πράγματα και γεγονότα λόγω προκαταλήψεων που εισάγονται στους αλγόριθμούς τους. Λόγω αυτών των προκαταλήψεων, τα συστήματα AI και ML μπορούν να παράγουν άδικα αποτελέσματα, εμποδίζοντας τους ανθρώπους με πολλούς τρόπους.

Σε αυτό το άρθρο, θα συζητήσω ποιες είναι οι αλγοριθμικές προκαταλήψεις, οι τύποι τους και πώς να τις ανιχνεύσουμε και να τις μειώσουμε προκειμένου να ενισχυθεί η δικαιοσύνη στα αποτελέσματα.

Ας ξεκινήσουμε!

Πίνακας περιεχομένων

Τι είναι οι αλγοριθμικές προκαταλήψεις;

Μια αλγοριθμική μεροληψία είναι η τάση των αλγορίθμων ML και AI να αντικατοπτρίζουν ανθρώπινες προκαταλήψεις και να δημιουργούν άδικα αποτελέσματα. Οι προκαταλήψεις θα μπορούσαν να βασίζονται στο φύλο, την ηλικία, τη φυλή, τη θρησκεία, την εθνικότητα, τον πολιτισμό και ούτω καθεξής.

Στο πλαίσιο της τεχνητής νοημοσύνης και της μηχανικής μάθησης, οι αλγοριθμικές προκαταλήψεις είναι συστηματικά, επαναλαμβανόμενα σφάλματα που εισάγονται σε ένα σύστημα που παράγει άδικα αποτελέσματα.

Προκαταλήψεις στους αλγόριθμους μπορεί να προκύψουν για πολλούς λόγους, όπως αποφάσεις που σχετίζονται με τον τρόπο συλλογής, επιλογής, κωδικοποίησης ή χρήσης των δεδομένων για την εκπαίδευση του αλγορίθμου, την προβλεπόμενη χρήση, τη σχεδίαση του αλγορίθμου κ.λπ.

Παράδειγμα: Μπορείτε να παρατηρήσετε αλγοριθμική προκατάληψη σε ένα αποτέλεσμα μηχανής αναζήτησης, που οδηγεί σε παραβιάσεις του απορρήτου, κοινωνικές προκαταλήψεις κ.λπ.

Υπάρχουν πολλές περιπτώσεις αλγοριθμικών προκαταλήψεων σε τομείς όπως τα αποτελέσματα των εκλογών, η διάδοση ρητορικής μίσους στο Διαδίκτυο, η υγειονομική περίθαλψη, η ποινική δικαιοσύνη, οι στρατολογήσεις κ.λπ. Αυτό επιδεινώνει τις υπάρχουσες προκαταλήψεις όσον αφορά το φύλο, τη φυλή, την οικονομία και την κοινωνία.

Τύποι αλγοριθμικών προκαταλήψεων

#1. Προκατάληψη δεδομένων

Η προκατάληψη δεδομένων συμβαίνει όταν τα δεδομένα που απαιτούνται για την εκπαίδευση ενός μοντέλου τεχνητής νοημοσύνης δεν αντιπροσωπεύουν σωστά σενάρια ή πληθυσμούς του πραγματικού κόσμου. Αυτό θα μπορούσε να οδηγήσει σε μη ισορροπημένα ή λοξά σύνολα δεδομένων.

Πηγή: TELUS International

Παράδειγμα: Ας υποθέσουμε ότι μια λύση λογισμικού αναγνώρισης προσώπου εκπαιδεύεται κυρίως στον λευκό πληθυσμό. Έτσι, μπορεί να έχει κακή απόδοση όταν ανατίθεται να αναγνωρίσει άτομα με πιο σκούρες αποχρώσεις δέρματος, επηρεάζοντάς τους.

#2. Μεροληψία μέτρησης

Αυτή η μεροληψία μπορεί να προκύψει λόγω σφάλματος στη διαδικασία μέτρησης ή συλλογής δεδομένων.

Παράδειγμα: Εάν εκπαιδεύσετε έναν διαγνωστικό αλγόριθμο υγειονομικής περίθαλψης ώστε να ανιχνεύει μια ασθένεια με βάση ορισμένες μετρήσεις, όπως προηγούμενες επισκέψεις σε γιατρό, μπορεί να θολώσει την κρίση και να προκαλέσει μεροληψία, παραβλέποντας τα πραγματικά συμπτώματα.

#3. Μοντέλο Μεροληψία

Οι προκαταλήψεις μοντέλων προκύπτουν κατά τον σχεδιασμό του αλγορίθμου ή του μοντέλου AI.

Παράδειγμα: Ας υποθέσουμε ότι ένα σύστημα τεχνητής νοημοσύνης έχει έναν αλγόριθμο που έχει σχεδιαστεί για να μεγιστοποιεί τα κέρδη ανεξάρτητα από το πώς. μπορεί να καταλήξει να δώσει προτεραιότητα στα οικονομικά κέρδη σε βάρος της επιχειρηματικής ηθικής, της ασφάλειας, της δικαιοσύνης κ.λπ.

#4. Μεροληψία αξιολόγησης

Η μεροληψία αξιολόγησης μπορεί να προκύψει όταν οι παράγοντες ή τα κριτήρια για την αξιολόγηση της απόδοσης ενός συστήματος τεχνητής νοημοσύνης είναι μεροληπτικά.

Πηγή: Εκκαθάριση αναθεώρησης

Παράδειγμα: Εάν ένα σύστημα AI αξιολόγησης απόδοσης χρησιμοποιεί τυπικές δοκιμές που ευνοούν μια συγκεκριμένη κατηγορία εργαζομένων σε μια εταιρεία, μπορεί να προάγει ανισότητες.

  5 απροσδόκητοι ιστότοποι για λήψη εικόνων, ήχου και βίντεο χωρίς δικαιώματα που ξεχωρίζουν

#5. Μεροληψία αναφοράς

Η μεροληψία αναφοράς μπορεί να προκύψει όταν το σύνολο δεδομένων εκπαίδευσης δεν έχει ακριβή αντανάκλαση της πραγματικότητας στη συχνότητα συμβάντων.

Παράδειγμα: Εάν ένα εργαλείο ασφαλείας AI δεν έχει καλή απόδοση σε μια συγκεκριμένη κατηγορία, μπορεί να επισημάνει ολόκληρη την κατηγορία ως ύποπτη.

Αυτό σημαίνει ότι το σύνολο δεδομένων στο οποίο έχει εκπαιδευτεί το σύστημα επισήμανε κάθε ιστορικό περιστατικό που σχετίζεται με αυτήν την κατηγορία ως ανασφαλές λόγω της υψηλότερης συχνότητας συμβάντων.

#6. Μεροληψία επιλογής

Η μεροληψία επιλογής προκύπτει όταν τα δεδομένα εκπαίδευσης επιλέγονται χωρίς σωστή τυχαιοποίηση ή δεν αντιπροσωπεύουν καλά τον συνολικό πληθυσμό.

Παράδειγμα: Εάν ένα εργαλείο αναγνώρισης προσώπου εκπαιδεύεται σε περιορισμένα δεδομένα, μπορεί να αρχίσει να παρουσιάζει κάποιες διακρίσεις σε σχέση με δεδομένα που συναντά λιγότερο, όπως η αναγνώριση έγχρωμων γυναικών στην πολιτική από ό,τι των ανδρών και των ατόμων με ανοιχτόχρωμη επιδερμίδα στην πολιτική.

#7. Σιωπηρή μεροληψία

Η σιωπηρή μεροληψία προκύπτει όταν ο αλγόριθμος AI κάνει υποθέσεις με βάση ορισμένες προσωπικές εμπειρίες, οι οποίες μπορεί να μην ισχύουν ρητά για ευρύτερες κατηγορίες ή άτομα.

Παράδειγμα: Εάν ένας επιστήμονας δεδομένων που σχεδιάζει προσωπικά έναν αλγόριθμο AI πιστεύει ότι στις γυναίκες αρέσει κυρίως το ροζ και όχι το μπλε ή το μαύρο, το σύστημα μπορεί να προτείνει προϊόντα ανάλογα, κάτι που δεν ισχύει για κάθε γυναίκα. Πολλοί αγαπούν το μπλε ή το μαύρο.

#8. Προκατάληψη Αναφοράς ομάδας

Αυτή η προκατάληψη μπορεί να συμβεί όταν οι σχεδιαστές αλγορίθμων εφαρμόζουν πράγματα που προορίζονται για συγκεκριμένα άτομα σε μια πλήρη ομάδα, είτε αυτά τα άτομα είναι μέρος της ομάδας είτε όχι. Η μεροληψία ομαδικής απόδοσης είναι κοινή στα εργαλεία πρόσληψης και αποδοχής.

Παράδειγμα: Ένα εργαλείο εισαγωγής μπορεί να ευνοήσει υποψηφίους από ένα συγκεκριμένο σχολείο, κάνοντας διακρίσεις σε βάρος άλλων μαθητών που δεν ανήκουν σε αυτό το σχολείο.

#9. Ιστορική προκατάληψη

Η συλλογή ιστορικών συνόλων δεδομένων είναι σημαντική κατά τη συλλογή συνόλων δεδομένων για την εκπαίδευση ενός αλγόριθμου ML. Αλλά αν δεν δώσετε προσοχή, μπορεί να προκύψει προκατάληψη στους αλγόριθμούς σας λόγω των προκαταλήψεων που υπάρχουν στα ιστορικά δεδομένα σας.

Παράδειγμα: Εάν εκπαιδεύσετε ένα μοντέλο τεχνητής νοημοσύνης με ιστορικά δεδομένα 10 ετών για τη λίστα υποψηφίων για τεχνικές θέσεις, μπορεί να ευνοήσει τους άνδρες υποψήφιους εάν τα δεδομένα εκπαίδευσης περιλαμβάνουν περισσότερους άνδρες από γυναίκες.

#10. Μεροληψία ετικέτας

Ενώ εκπαιδεύετε αλγόριθμους ML, ίσως χρειαστεί να επισημάνετε πολλά δεδομένα για να τα κάνετε χρήσιμα. Ωστόσο, η διαδικασία επισήμανσης δεδομένων ενδέχεται να ποικίλλει πολύ, δημιουργώντας ασυνέπειες και εισάγοντας μεροληψία στο σύστημα τεχνητής νοημοσύνης.

Παράδειγμα: Ας υποθέσουμε ότι εκπαιδεύετε έναν αλγόριθμο τεχνητής νοημοσύνης προσθέτοντας ετικέτες σε γάτες σε εικόνες χρησιμοποιώντας κουτιά. Εάν δεν δώσετε προσοχή, ο αλγόριθμος μπορεί να αποτύχει στην αναγνώριση μιας γάτας σε μια εικόνα, εάν το πρόσωπό της δεν είναι ορατό, αλλά μπορεί να αναγνωρίσει αυτές με τα πρόσωπα της γάτας πάνω τους.

Αυτό σημαίνει ότι ο αλγόριθμος είναι προκατειλημμένος στην αναγνώριση εικόνων με γάτες που κοιτούν μπροστά. Δεν μπορεί να αναγνωρίσει τη γάτα εάν η εικόνα λαμβάνεται από διαφορετική γωνία όταν φαίνεται το σώμα αλλά όχι το πρόσωπο.

#11. Μεροληψία αποκλεισμού

Πηγή: Πύλη έρευνας

Η μεροληψία αποκλεισμού προκύπτει όταν ένα συγκεκριμένο άτομο, μια ομάδα ατόμων ή μια κατηγορία αποκλείεται ακούσια ή σκόπιμα κατά τη συλλογή δεδομένων, εάν θεωρηθεί ότι είναι άσχετα. Συμβαίνει κυρίως κατά το στάδιο προετοιμασίας δεδομένων του κύκλου ζωής ML τη στιγμή του καθαρισμού των δεδομένων και της προετοιμασίας τους για χρήση.

Παράδειγμα: Ας υποθέσουμε ότι ένα σύστημα πρόβλεψης που βασίζεται σε AI πρέπει να προσδιορίσει τη δημοτικότητα ενός συγκεκριμένου προϊόντος κατά τη χειμερινή περίοδο με βάση το ποσοστό αγοράς του. Έτσι, εάν ένας επιστήμονας δεδομένων παρατηρήσει ορισμένες αγορές τον Οκτώβριο και αφαιρέσει αυτά τα αρχεία, νομίζοντας ότι είναι λανθασμένα και λαμβάνοντας την τυπική διάρκεια από τον Νοέμβριο έως τον Ιανουάριο. Υπάρχουν όμως μέρη που ο χειμώνας ξεπερνά αυτούς τους μήνες. Έτσι, ο αλγόριθμος θα είναι προκατειλημμένος προς τις χώρες που λαμβάνουν χειμώνα από τον Νοέμβριο έως τον Ιανουάριο.

Πώς εισάγονται οι προκαταλήψεις στους αλγόριθμους;

Δεδομένα Εκπαίδευσης

Η κύρια πηγή αλγοριθμικής προκατάληψης είναι τα μεροληπτικά δεδομένα που χρησιμοποιούνται για την εκπαίδευση των αλγορίθμων AI και ML. Εάν τα ίδια τα δεδομένα εκπαίδευσης έχουν στοιχεία ανισοτήτων και προκαταλήψεων, ο αλγόριθμος θα μάθει αυτά τα στοιχεία και θα διαιωνίσει τις προκαταλήψεις.

Σχέδιο

Κατά το σχεδιασμό του αλγόριθμου, ο προγραμματιστής μπορεί εν γνώσει του ή εν αγνοία του να εισάγει τις αντανακλάσεις των προσωπικών σκέψεων ή προτιμήσεων στο σύστημα AI. Έτσι, το σύστημα AI θα είναι προκατειλημμένο προς ορισμένες κατηγορίες.

  Αποκωδικοποίηση σύνθετης επεξεργασίας συμβάντων με απλούστερους όρους

Λήψη αποφάσης

Πολλές φορές, οι επιστήμονες δεδομένων και οι ηγέτες λαμβάνουν αποφάσεις με βάση τις προσωπικές τους εμπειρίες, το περιβάλλον, τις πεποιθήσεις τους και ούτω καθεξής. Αυτές οι αποφάσεις αντικατοπτρίζονται επίσης σε αλγόριθμους, γεγονός που προκαλεί προκαταλήψεις.

Έλλειψη διαφορετικότητας

Λόγω έλλειψης διαφορετικότητας στην ομάδα ανάπτυξης, τα μέλη της ομάδας καταλήγουν να δημιουργούν αλγόριθμους που δεν αντιπροσωπεύουν ολόκληρο τον πληθυσμό. Δεν έχουν εμπειρία ή έκθεση σε άλλες κουλτούρες, υπόβαθρα, πεποιθήσεις, τρόπους κ.λπ., γι’ αυτό οι αλγόριθμοί τους μπορεί να είναι προκατειλημμένοι με έναν συγκεκριμένο τρόπο.

Προεπεξεργασία δεδομένων

Η μέθοδος που χρησιμοποιείται για τον καθαρισμό και την επεξεργασία δεδομένων μπορεί να εισάγει αλγοριθμική προκατάληψη. Επιπλέον, εάν δεν σχεδιάσετε προσεκτικά αυτές τις μεθόδους για να αντιμετωπίσετε την προκατάληψη, μπορεί να γίνει σοβαρή στο μοντέλο AI.

Αρχιτεκτονική

Η αρχιτεκτονική του μοντέλου και ο τύπος του αλγόριθμου ML που επιλέγετε μπορούν επίσης να εισάγουν προκατάληψη. Ορισμένοι αλγόριθμοι προσελκύουν μεροληψία περισσότερο από άλλους, μαζί με τον τρόπο σχεδιασμού τους.

Επιλογή χαρακτηριστικών

Τα χαρακτηριστικά που επιλέξατε για να εκπαιδεύσετε έναν αλγόριθμο AI είναι μία από τις αιτίες της μεροληψίας. Εάν δεν επιλέξετε χαρακτηριστικά λαμβάνοντας υπόψη τις επιπτώσεις τους στη δικαιοσύνη της παραγωγής, μπορεί να προκύψει κάποια προκατάληψη, ευνοώντας ορισμένες κατηγορίες.

Ιστορία και Πολιτισμός

Εάν ένας αλγόριθμος τροφοδοτείται και εκπαιδεύεται σε δεδομένα που λαμβάνονται από την ιστορία ή ορισμένους πολιτισμούς, μπορεί να κληρονομήσει προκαταλήψεις, όπως προκαταλήψεις, πεποιθήσεις, κανόνες κ.λπ. Αυτές οι προκαταλήψεις μπορεί να επηρεάσουν τα αποτελέσματα της τεχνητής νοημοσύνης, ακόμη κι αν είναι άδικα και άσχετα στο παρόν.

Data Drift

Τα δεδομένα που χρησιμοποιείτε για την εκπαίδευση των αλγορίθμων σας AI σήμερα ενδέχεται να γίνουν άσχετα, άχρηστα ή παρωχημένα στο μέλλον. Αυτό μπορεί να οφείλεται στην αλλαγή της τεχνολογίας ή της κοινωνίας. Ωστόσο, αυτά τα σύνολα δεδομένων μπορούν ακόμα να εισάγουν μεροληψία και να παρεμποδίσουν την απόδοση.

Βρόχοι ανατροφοδότησης

Ορισμένα συστήματα AI όχι μόνο μπορούν να επικοινωνούν με τους χρήστες αλλά και να προσαρμόζονται στις συμπεριφορές τους. Με αυτόν τον τρόπο, ο αλγόριθμος μπορεί να ενισχύσει την υπάρχουσα προκατάληψη. Έτσι, όταν οι προσωπικές προκαταλήψεις των χρηστών εισέρχονται στο σύστημα AI, μπορεί να δημιουργήσει έναν βρόχο μεροληπτικής ανάδρασης.

Πώς να εντοπίσετε αλγοριθμική προκατάληψη;

Ορίστε τι είναι “Δίκαιο”

Για να ανιχνεύσετε άδικα αποτελέσματα ή προκαταλήψεις σε αλγόριθμους, πρέπει να ορίσετε τι ακριβώς σημαίνει «δίκαιο» για το σύστημα AI. Για αυτό, μπορείτε να λάβετε υπόψη παράγοντες όπως το φύλο, η ηλικία, η φυλή, η σεξουαλικότητα, η περιοχή, ο πολιτισμός κ.λπ.

Προσδιορίστε τις μετρήσεις για τον υπολογισμό της δικαιοσύνης, όπως ίσες ευκαιρίες, προγνωστική ισοτιμία, επιπτώσεις κ.λπ. Αφού ορίσετε τη “δικαιοσύνη”, θα είναι πιο εύκολο για εσάς να εντοπίσετε τι δεν είναι δίκαιο και να επιλύσετε την κατάσταση.

Στοιχεία Εκπαίδευσης Ελέγχου

Αναλύστε διεξοδικά τα δεδομένα προπόνησής σας για να αναζητήσετε ανισορροπίες και ασυνέπειες στην αναπαράσταση διαφορετικών κατηγοριών. Πρέπει να εξετάσετε την κατανομή των χαρακτηριστικών και να ελέγξετε αν αντιπροσωπεύει δημογραφικά στοιχεία του πραγματικού κόσμου ή όχι.

Για την οπτικοποίηση δεδομένων, μπορείτε να δημιουργήσετε ιστογράμματα, χάρτες θερμότητας, διαγράμματα διασποράς κ.λπ. για να επισημάνετε ανισότητες και μοτίβα που δεν μπορούν να αποκαλυφθούν με τη βοήθεια απλής στατιστικής ανάλυσης.

Εκτός από εσωτερικούς ελέγχους, μπορείτε να εμπλέκετε εξωτερικούς εμπειρογνώμονες και ελεγκτές για την αξιολόγηση της μεροληψίας του συστήματος.

Μετρήστε την απόδοση του μοντέλου

Για να εντοπίσετε προκαταλήψεις, δοκιμάστε να μετρήσετε την απόδοση του μοντέλου σας AI για διάφορα δημογραφικά στοιχεία και κατηγορίες. Θα βοηθούσε αν χωρίσετε την προπόνηση σε διαφορετικές ομάδες με βάση τη φυλή, το φύλο κ.λπ. Μπορείτε επίσης να χρησιμοποιήσετε τις μετρήσεις δικαιοσύνης για να υπολογίσετε τις διαφορές στα αποτελέσματα.

Χρησιμοποιήστε κατάλληλους αλγόριθμους

Επιλέξτε αλγόριθμους που προωθούν δίκαια αποτελέσματα και μπορούν να αντιμετωπίσουν την προκατάληψη στην εκπαίδευση ενός μοντέλου AI. Οι αλγόριθμοι με επίγνωση της δικαιοσύνης στοχεύουν στην πρόληψη της μεροληψίας, διασφαλίζοντας παράλληλα ίσες προβλέψεις σε διάφορες κατηγορίες.

Λογισμικό ανίχνευσης προκατάληψης

Μπορείτε να χρησιμοποιήσετε εξειδικευμένα εργαλεία και βιβλιοθήκες που έχουν επίγνωση της δικαιοσύνης για τον εντοπισμό προκαταλήψεων. Αυτά τα εργαλεία προσφέρουν μετρήσεις δικαιοσύνης, οπτικοποιήσεις, στατιστικές δοκιμές και πολλά άλλα για τον εντοπισμό προκατάληψης. Μερικά δημοφιλή είναι το AI Fairness 360 και το IBM Fairness 360.

Αναζητήστε σχόλια χρηστών

Ρωτήστε τους χρήστες και τους πελάτες για τα σχόλιά τους σχετικά με το σύστημα AI. Ενθαρρύνετέ τους να κάνουν τις ειλικρινείς κριτικές τους εάν έχουν νιώσει άδικη μεταχείριση ή προκατάληψη στο σύστημα AI. Αυτά τα δεδομένα θα σας βοηθήσουν να καταλάβετε ζητήματα που ενδέχεται να μην επισημανθούν σε αυτοματοποιημένα εργαλεία και άλλες διαδικασίες ανίχνευσης.

  6 καλύτερες προσθήκες προσβασιμότητας WordPress το 2022

Πώς να μετριάζετε την προκατάληψη σε αλγόριθμους

Διαφοροποιήστε την Εταιρεία σας

Η δημιουργία διαφορετικότητας στην εταιρεία και την ομάδα ανάπτυξης σας επιτρέπει τον ταχύτερο εντοπισμό και την εξάλειψη των προκαταλήψεων. Ο λόγος είναι ότι οι προκαταλήψεις μπορούν να γίνουν αντιληπτές γρήγορα από χρήστες που επηρεάζονται από αυτές.

Επομένως, διαφοροποιήστε την εταιρεία σας όχι μόνο σε δημογραφικά στοιχεία αλλά και σε δεξιότητες και εξειδίκευση. Συμπεριλάβετε άτομα διαφορετικών φύλων, ταυτοτήτων, φυλών, χρωμάτων δέρματος, οικονομικών καταβολών κ.λπ., καθώς και άτομα με διαφορετικές εκπαιδευτικές εμπειρίες και υπόβαθρα.

Με αυτόν τον τρόπο, θα συλλέξετε ευρείας κλίμακας προοπτικές, εμπειρίες, πολιτιστικές αξίες, συμπάθειες και αντιπάθειες, κ.λπ. Αυτό θα σας βοηθήσει να βελτιώσετε τη δικαιοσύνη των αλγορίθμων τεχνητής νοημοσύνης σας, μειώνοντας τις προκαταλήψεις.

Προώθηση της διαφάνειας

Να είστε διαφανείς με την ομάδα σας σχετικά με τον στόχο, τους αλγόριθμους, τις πηγές δεδομένων και τις αποφάσεις σχετικά με ένα σύστημα AI. Αυτό θα επιτρέψει στους χρήστες να κατανοήσουν πώς λειτουργεί το σύστημα AI και γιατί παράγει συγκεκριμένα αποτελέσματα. Αυτή η διαφάνεια θα ενισχύσει την εμπιστοσύνη.

Αλγόριθμοι Fairness Aware

Χρησιμοποιήστε αλγόριθμους με επίγνωση της δικαιοσύνης κατά την ανάπτυξη του μοντέλου για να διασφαλίσετε ότι δημιουργούνται δίκαια αποτελέσματα για διαφορετικές κατηγορίες. Αυτό γίνεται προφανές εάν δημιουργήσετε συστήματα τεχνητής νοημοσύνης για βιομηχανίες με υψηλή ρύθμιση, όπως η χρηματοδότηση, η υγειονομική περίθαλψη κ.λπ.

Αξιολογήστε την απόδοση του μοντέλου

Δοκιμάστε τα μοντέλα σας για να εξετάσετε την απόδοση του AI σε διάφορες ομάδες και υποομάδες. Θα σας βοηθήσει να κατανοήσετε ζητήματα που δεν είναι ορατά στις συγκεντρωτικές μετρήσεις. Μπορείτε επίσης να προσομοιώσετε διαφορετικά σενάρια για να ελέγξετε την απόδοσή τους σε αυτά τα σενάρια, συμπεριλαμβανομένων σύνθετων.

Ακολουθήστε τις κατευθυντήριες γραμμές ηθικής

Διατυπώστε ορισμένες δεοντολογικές κατευθυντήριες γραμμές για την ανάπτυξη συστημάτων τεχνητής νοημοσύνης, με σεβασμό της δικαιοσύνης, της ιδιωτικής ζωής, της ασφάλειας και των ανθρωπίνων δικαιωμάτων. Πρέπει να επιβάλλετε αυτές τις οδηγίες σε ολόκληρο τον οργανισμό σας, έτσι ώστε η δικαιοσύνη να αυξηθεί σε ολόκληρο τον οργανισμό και να αντικατοπτρίζεται στα αποτελέσματα του συστήματος AI.

Ορίστε ελέγχους και ευθύνες

Θέστε σαφείς ευθύνες για όλους στην ομάδα που εργάζονται για το σχεδιασμό, την ανάπτυξη, τη συντήρηση και την ανάπτυξη του συστήματος AI. Πρέπει επίσης να ορίσετε κατάλληλους ελέγχους με αυστηρά πρωτόκολλα και πλαίσια για την αντιμετώπιση προκαταλήψεων, σφαλμάτων και άλλων ανησυχιών.

Εκτός από τα παραπάνω, πρέπει να διεξάγετε τακτικούς ελέγχους για να μειώσετε τις προκαταλήψεις και να προσπαθείτε για συνεχείς βελτιώσεις. Επίσης, μείνετε ενημερωμένοι με τις πρόσφατες αλλαγές στην τεχνολογία, τα δημογραφικά στοιχεία και άλλους παράγοντες.

Παραδείγματα Αλγοριθμικών Προκαταλήψεων στον Πραγματικό Κόσμο

#1. Αλγόριθμος της Amazon

Η Amazon είναι ηγέτης στον κλάδο του ηλεκτρονικού εμπορίου. Ωστόσο, είναι εργαλείο πρόσληψης που χρησιμοποίησε την τεχνητή νοημοσύνη για την αξιολόγηση των αιτούντων εργασία σύμφωνα με τα προσόντα τους, έδειξε προκατάληψη για το φύλο. Αυτό το σύστημα AI εκπαιδεύτηκε χρησιμοποιώντας βιογραφικά προηγούμενων υποψηφίων στους τεχνικούς ρόλους.

Δυστυχώς, τα δεδομένα είχαν μεγαλύτερο αριθμό ανδρών αιτούντων, κάτι που έμαθε η AI. Έτσι, ευνόησε ακούσια τους άνδρες αιτούντες σε τεχνικούς ρόλους έναντι των γυναικών που υποεκπροσωπούνταν. Η Amazon χρειάστηκε να διακόψει το εργαλείο το 2017, παρά τις προσπάθειες να μειώσει την προκατάληψη.

#2. Ρατσιστικοί αλγόριθμοι υγειονομικής περίθαλψης των ΗΠΑ

Ένας αλγόριθμος που χρησιμοποιούσαν τα νοσοκομεία με έδρα τις ΗΠΑ για την πρόβλεψη ασθενών που χρειάζονται πρόσθετη φροντίδα ήταν σε μεγάλο βαθμό προκατειλημμένος προς λευκούς ασθενείς. Το σύστημα αξιολόγησε τις ιατρικές ανάγκες των ασθενών με βάση το ιστορικό δαπανών τους για την υγειονομική περίθαλψη, συσχετίζοντας το κόστος με τις ιατρικές ανάγκες.

Ο αλγόριθμος του συστήματος δεν έλαβε υπόψη τον τρόπο με τον οποίο οι λευκοί και οι μαύροι ασθενείς πλήρωσαν για τις ανάγκες υγειονομικής περίθαλψης τους. Παρά την ανεξέλεγκτη ασθένεια, οι μαύροι ασθενείς πλήρωναν κυρίως για επείγοντα περιστατικά. Έτσι, κατηγοριοποιήθηκαν ως πιο υγιείς ασθενείς και δεν πληρούν τις προϋποθέσεις για πρόσθετη φροντίδα σε σύγκριση με τους λευκούς ασθενείς.

#3. Ο Αλγόριθμος Διακρίσεων της Google

Βρέθηκε το διαδικτυακό σύστημα διαφημίσεων της Google οξυδερκής. Έδειξε υψηλό αμειβόμενες θέσεις, όπως Διευθύνοντες Σύμβουλοι, σε άνδρες σημαντικά μεγαλύτερες από τις γυναίκες. Ακόμα κι αν το 27% των CEO των ΗΠΑ είναι γυναίκες, η εκπροσώπηση για αυτούς είναι πολύ μικρότερη στη Google, περίπου 11%.

Ο αλγόριθμος θα μπορούσε να έχει δείξει το αποτέλεσμα μαθαίνοντας τη συμπεριφορά των χρηστών, όπως οι άντρες που βλέπουν και κάνουν κλικ σε διαφημίσεις για ρόλους με υψηλό κόστος. ο αλγόριθμος AI θα εμφανίζει αυτές τις διαφημίσεις σε άνδρες περισσότερο από ό,τι σε γυναίκες.

συμπέρασμα

Η αλγοριθμική προκατάληψη στα συστήματα ML και AI μπορεί να οδηγήσει σε άδικα αποτελέσματα. Αυτά τα αποτελέσματα μπορούν να επηρεάσουν άτομα σε διάφορους τομείς, από την υγειονομική περίθαλψη, την ασφάλεια στον κυβερνοχώρο και το ηλεκτρονικό εμπόριο έως τις εκλογές, την απασχόληση και πολλά άλλα. Μπορεί να οδηγήσει σε διακρίσεις με βάση το φύλο, τη φυλή, τα δημογραφικά στοιχεία, τον σεξουαλικό προσανατολισμό και άλλες πτυχές.

Ως εκ τούτου, είναι σημαντικό να μειωθούν οι προκαταλήψεις στους αλγόριθμους AI και ML για την προώθηση της δικαιοσύνης στα αποτελέσματα. Οι παραπάνω πληροφορίες θα σας βοηθήσουν να εντοπίσετε προκαταλήψεις και να τις μειώσετε, ώστε να μπορείτε να δημιουργήσετε δίκαια συστήματα τεχνητής νοημοσύνης για τους χρήστες.

Μπορείτε επίσης να διαβάσετε για τη Διακυβέρνηση AI.