Η ΤΕΧΝΗΤΗ ΝΟΗΣΜΟΣΥΝΗ ΠΡΟΤΙΜΑ ΤΟΥΣ ΛΕΥΚΟΥΣ ΚΑΙ ΕΝΑ ΦΥΛΟ
Ερευνητές του MIT και του Stanford University ανέλυσαν τρία διαφορετικά προγράμματα αναγνώρισης προσώπου, βασισμένα σε τεχνητή νοημοσύνη και ανακάλυψαν πως τα αποτελέσματα διαφοροποιόντουσαν ανάλογα με τη φυλή και το φύλο των συμμετεχόντων. Συγκεκριμένα, η ομάδα ανέλυσε το βαθμό επιτυχίας αναγνώρισης προσώπου για προγράμματα τα οποία υπόσχονται πάνω από 97% ακρίβεια, της Microsoft, της IBM και της Face++ η οποία διαθέτει τη μεγαλύτερη βάση δεδομένων κινεζικών προσώπων.
Αυτό που διαπίστωσαν όμως ήταν πως τα δεδομένα που χρησιμοποιήθηκαν για να στηθεί το πρόγραμμα αποτελούνται από 77% άντρες και 83% λευκούς. Έτσι, αυτή η ελάχιστα διαφοροποιούμενη βάση χρηστών, αυξάνει το περιθώριο λάθους για οποιονδήποτε δεν είναι λευκός ή άντρας. Στις δοκιμές των ερευνητών χρησιμοποιήθηκαν 1.200 φωτογραφίες οι οποίες στην πλειοψηφία τους είχαν γυναίκες και έγχρωμους ανθρώπους, με το χρώμα να κωδικοποιείται βάσει της κλίμακας Fitzpatrick για τους χρωματικούς τόνους, υπό την επίβλεψη χειρούργου δερματολόγου. Όταν λοιπόν το ένα σύστημα δοκιμάστηκε σε αυτό το σετ δεδομένων, το περιθώριο λάθους για τις πιο σκουρόχρωμες γυναίκες έφτασε το 20.8%, 34.5% και 34.7%. Για τα άλλα δύο συστήματα το περιθώριο λάθους ήταν ακόμα χειρότερο, στο 46.5% και 46.8%.
Όπως αντιλαμβάνεστε αυτά τα ποσοστά δεν μπορεί να είναι αποδεκτά για οποιοδήποτε σύστημα, ειδικά όταν εμπλέκεται η ασφάλεια σε αυτά. Η έρευνα αποδεικνύει πως υπάρχει προκατάληψη στη δημιουργία των tech αλγορίθμων ή τουλάχιστον πως δε λαμβάνεται υπόψη η ποικιλία της ανθρώπινης φυλής που αποτελεί τη βάση χρηστών και συχνά περιορίζεται σε λευκούς άντρες, οι οποίοι και αποτελούν την κυρίαρχη φυλή στο εργατικό δυναμικό των tech εταιριών αυτού του είδους.
Αυτό που διαπίστωσαν όμως ήταν πως τα δεδομένα που χρησιμοποιήθηκαν για να στηθεί το πρόγραμμα αποτελούνται από 77% άντρες και 83% λευκούς. Έτσι, αυτή η ελάχιστα διαφοροποιούμενη βάση χρηστών, αυξάνει το περιθώριο λάθους για οποιονδήποτε δεν είναι λευκός ή άντρας. Στις δοκιμές των ερευνητών χρησιμοποιήθηκαν 1.200 φωτογραφίες οι οποίες στην πλειοψηφία τους είχαν γυναίκες και έγχρωμους ανθρώπους, με το χρώμα να κωδικοποιείται βάσει της κλίμακας Fitzpatrick για τους χρωματικούς τόνους, υπό την επίβλεψη χειρούργου δερματολόγου. Όταν λοιπόν το ένα σύστημα δοκιμάστηκε σε αυτό το σετ δεδομένων, το περιθώριο λάθους για τις πιο σκουρόχρωμες γυναίκες έφτασε το 20.8%, 34.5% και 34.7%. Για τα άλλα δύο συστήματα το περιθώριο λάθους ήταν ακόμα χειρότερο, στο 46.5% και 46.8%.
Όπως αντιλαμβάνεστε αυτά τα ποσοστά δεν μπορεί να είναι αποδεκτά για οποιοδήποτε σύστημα, ειδικά όταν εμπλέκεται η ασφάλεια σε αυτά. Η έρευνα αποδεικνύει πως υπάρχει προκατάληψη στη δημιουργία των tech αλγορίθμων ή τουλάχιστον πως δε λαμβάνεται υπόψη η ποικιλία της ανθρώπινης φυλής που αποτελεί τη βάση χρηστών και συχνά περιορίζεται σε λευκούς άντρες, οι οποίοι και αποτελούν την κυρίαρχη φυλή στο εργατικό δυναμικό των tech εταιριών αυτού του είδους.
Δεν υπάρχουν σχόλια