Τα “έξυπνα” αυτοκίνητα χωρίς οδηγό χτυπούν συχνότερα ανθρώπους με σκούρο δέρμα
Σοβαρότερο ακόμα είναι ένα δεύτερο ζήτημα που αναδεικνύει η έρευνα, δηλαδή πως οι κατασκευάστριες εταιρείες δε δημοσιεύουν τα δεδομένα τους στους επιστήμονες, παρότι υπάρχουν σαφή ζητήματα δημόσιου συμφέροντος και ασφάλειας.
Η τεχνητή νοημοσύνη μπαίνει ολοένα και πιο δυναμικά στη ζωή μας κι όπως είναι λογικό το επιστημονικό ενδιαφέρον για τους τρόπους και τις συνέπειες της εφαρμογής της στην καθημερινότητά μας προσελκύουν διαρκώς το επιστημονικό ενδιαφέρον. Σοκαριστικά θα μπορούσαν να χαρακτηριστούν τα ευρήματα έρευνας του Πολυτεχνείου της Τζώρτζια στις ΗΠΑ, που εντόπισαν ότι οι αλγόριθμοι στους οποίους βασίζονται τα συστήμα εντοπισμού αντικειμένων των “έξυπνων” αυτόματων αμαξιών χωρίς οδηγό, έχουν “ρατσιστικές προκαταλήψεις”. Κι αυτό γιατί έχουν μεγαλύτερες πιθανότητες να χτυπήσουν οποιονδήποτε δεν είναι λευκός, καθώς οι ανιχνευτές τους, όπως αισθητήρες και κάμερες είναι προγραμματισμένες να εντοπίζουν ευκολότερα ανθρώπους με πιο ανοιχτό τόνο δέρματος.
Δεν είναι η πρώτη φορά που η τεχνητή νοημοσύνη βρίσκεται στο στόχαστρο για ρατσιστικές πρακτικές. Τ0 2015 είχε ξεσπάσει σάλος, όταν το σύστημα αναγνώρισης εικόνων εμφάνιζε τη λεζάντα “γορίλας”, κάτω από πρόσωπα Αφροαμερικανών.
Σύμφωνα με την έρευνα τα μοντέλα αναγνώρισης αντικειμένων των αυτοκινήτων δοκιμάστηκαν κυρίως στη βάση λευκών πεζών, αλλά και δε δόθηκε αυξημένη έμφαση στην εκμάθηση από τα λιγοστά παραδείγματα πιο σκούρων πεζών που συμπεριλήφθηκαν, ζήτημα που θα λυνόταν ευκολότερα αν απλώς είχαν εξαρχής συμπεριληφθεί περισσότεροι.
Αυτό συμβαίνει γιατί τα αλγοριθμικά συστήματα “μαθαίνουν” στη βάση των πληροφοριών που λαμβάνουν. Αν δεν τους δοθεί επαρκής αριθμός μαύρων γυναικών στη φάση “εκμάθησης”, θα δυσκολευτούν να τις αναγνωρίσουν όταν αρχίσει η κανονική τους χρήση.
Η Joy Buolamwini, Αμερικανίδα επιστήμονας πληροφορικής στο ΜΙΤ με καταγωγή από την Γκάνα, έχει ιδρύσει την οργάνωση “Λίγκα Δικαιοσύνης στους Αλγόριθμους”, ώστα να αντιμετωπιστούν οι προκαταλήψεις σε λογισμικά λήψεις αποφάσεων.
“Καθώς η τεχνητή νοημοσύνη συνεχίζει να αναπτύσσεται, οι τεχνολογικές εταιρείες έχουν ευθύνη να διασφαλίσουν πως τα προϊόντα τους χρησιμοποιούνται για να ενισχύσουν τις κοινότητες, όχι για να βαθύνουν τις φυλετικές ανισότητες” ανέφερε η ίδια προς το Ίδρυμα Φορντ. Όσο η διασφάλιση μιας τέτοιας ισότητας εναπόκειται απλώς στην καλή διάθεση των εταιρειών, το μέλλον δεν προδιαγράφεται και τόσο αισιόδοξο σε αυτό το θέμα.
Με πληροφορίες από telesur