Η τεχνολογία επηρεάζει κάθε πτυχή της ζωής μας, και οι αλγόριθμοι βρίσκονται πλέον στο επίκεντρο των αποφάσεων που επηρεάζουν το μέλλον μας: από το αν θα πάρουμε ένα δάνειο, μέχρι το αν θα επιλεγούμε για μια θέση εργασίας ή αν θα αντιμετωπιστούμε ευνοϊκά από το κράτος. Σε μια εποχή που η λεγόμενη "αλγοριθμική διακυβέρνηση" επεκτείνεται ραγδαία, τίθεται ένα θεμελιώδες ερώτημα: Μπορεί μια κοινωνία που βασίζεται σε αλγοριθμικές αποφάσεις να είναι δίκαιη;
Αυτό το άρθρο διερευνά σε βάθος τις κοινωνικές και ηθικές διαστάσεις του bias (μεροληψίας) στους αλγορίθμους αξιολόγησης, εξετάζει πραγματικά παραδείγματα και προτείνει στρατηγικές αντιμετώπισης του φαινομένου.
Ο όρος “αλγοριθμική μεροληψία” αναφέρεται στην τάση ενός αλγόριθμου να παράγει μη αντικειμενικές ή διακριτικές αποφάσεις, λόγω μεροληπτικών δεδομένων ή μη ισότιμης σχεδίασης. Οι αλγόριθμοι, παρά το φαινομενικά ουδέτερο χαρακτήρα τους, “κληρονομούν” τα ελαττώματα των ανθρώπων που τους δημιουργούν – ή των κοινωνιών που παρέχουν τα δεδομένα εκπαίδευσής τους.
Παραδείγματα:
Ένα σύστημα που εκπαιδεύτηκε σε ιστορικά δεδομένα προσλήψεων ενδέχεται να αποκλείει γυναίκες, επειδή ιστορικά προσλαμβάνονταν λιγότερες.
Ένα AI σύστημα ποινικής δικαιοσύνης μπορεί να αξιολογεί Αφροαμερικανούς κατηγορούμενους ως υψηλότερου κινδύνου, απλώς επειδή τα ιστορικά δεδομένα αντανακλούν μια προκατειλημμένη αστυνόμευση.
Η χρήση αλγορίθμων αξιολόγησης είναι ήδη ενσωματωμένη σε πολλούς κρίσιμους τομείς:
Η εξάρτηση από τέτοια συστήματα γίνεται όλο και πιο έντονη, και η έλλειψη διαφάνειας ή ελέγχου προκαλεί αυξανόμενη ανησυχία.
Παραδείγματα:
Ένα σύστημα που εκπαιδεύτηκε σε ιστορικά δεδομένα προσλήψεων ενδέχεται να αποκλείει γυναίκες, επειδή ιστορικά προσλαμβάνονταν λιγότερες.
Ένα AI σύστημα ποινικής δικαιοσύνης μπορεί να αξιολογεί Αφροαμερικανούς κατηγορούμενους ως υψηλότερου κινδύνου, απλώς επειδή τα ιστορικά δεδομένα αντανακλούν μια προκατειλημμένη αστυνόμευση.
Υπάρχουν τρεις βασικοί τρόποι μέσω των οποίων οι αλγόριθμοι γίνονται μεροληπτικοί:
3.1 Μεροληψία στα Δεδομένα (Data Bias)
Τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση αλγορίθμων αντανακλούν την ιστορική πραγματικότητα – και η ιστορική πραγματικότητα είναι συχνά άδικη. Εάν, για παράδειγμα, σε μια χώρα υπάρχουν κοινωνικές διακρίσεις εις βάρος μιας ομάδας, οι αλγόριθμοι που εκπαιδεύονται με αυτά τα δεδομένα θα τις αναπαράγουν.
3.2 Μεροληψία στον Σχεδιασμό (Design Bias)
Ακόμη και αν τα δεδομένα είναι “καθαρά”, ο τρόπος που σχεδιάζεται ο αλγόριθμος –δηλαδή τι μετράει, πώς το σταθμίζει, τι θεωρεί επιτυχία ή αποτυχία– μπορεί να εισάγει ανισότητες.
3.3 Μεροληψία στην Ερμηνεία (Interpretation Bias)
Το bias μπορεί να προκύψει ακόμη και από τον τρόπο που οι άνθρωποι ερμηνεύουν τα αποτελέσματα του αλγορίθμου και τα εφαρμόζουν στην πράξη.
.4.1 Amazon και το προσβλητικό HR bot
Το 2018 αποκαλύφθηκε ότι το AI της Amazon για επιλογή υπαλλήλων υποβάθμιζε αυτόματα βιογραφικά γυναικών. Επειδή το σύστημα εκπαιδεύτηκε με δεδομένα από ανδροκρατούμενες ομάδες ανάπτυξης, είχε “μάθει” ότι η ανδρική παρουσία είναι το επιθυμητό πρότυπο.
.4.2 COMPAS: Η ψευδαίσθηση της ουδετερότητας
Το εργαλείο COMPAS, που χρησιμοποιείται στις ΗΠΑ για αξιολόγηση υποτροπής εγκληματιών, αποδείχθηκε ότι βαθμολογούσε υπερβολικά υψηλά τους Αφροαμερικανούς, ακόμη κι όταν δεν υπήρχε τέτοια πρόβλεψη από τα πραγματικά δεδομένα.
.4.3 Ο “αλγόριθμος των πανελληνίων” στο Ηνωμένο Βασίλειο
Κατά τη διάρκεια της πανδημίας, ο υπολογισμός των τελικών βαθμών έγινε από αλγόριθμο που βασιζόταν στο ιστορικό του σχολείου. Το αποτέλεσμα ήταν μαζικές αδικίες σε μαθητές από φτωχότερες περιοχές που έχασαν θέσεις στα πανεπιστήμια.
.5.1 Δημοκρατία και Διαφάνεια
Οι αλγόριθμοι δεν πρέπει να αποφασίζουν εν κρυπτώ. Χρειάζονται θεσμοί που να επιβλέπουν, να ελέγχουν και να ρυθμίζουν τη χρήση τους, όπως οι ανεξάρτητες αρχές προστασίας προσωπικών δεδομένων ή τα δικαστήρια.
.5.2 Διαφάνεια στον Κώδικα και στα Δεδομένα
Η πρόσβαση στον πηγαίο κώδικα των αλγορίθμων και στα δεδομένα εκπαίδευσης είναι ζωτικής σημασίας για τη διασφάλιση της ισότητας. Οι πολίτες και οι οργανισμοί έχουν δικαίωμα να γνωρίζουν πώς και γιατί παίρνονται αποφάσεις που τους επηρεάζουν.
.5.3 Ευθύνη και Επαναληψιμότητα
Όταν ένας άνθρωπος αδικείται από ένα αλγοριθμικό σύστημα, πρέπει να μπορεί να το αμφισβητήσει. Χρειάζεται ένα “ψηφιακό δικαίωμα στη δίκαιη κρίση”, και αυτό απαιτεί νομοθεσία και νομικές διαδικασίες.
Η λύση δεν είναι να απορρίψουμε την τεχνολογία, αλλά να τη χρησιμοποιήσουμε με τρόπο που να ενισχύει τη δημοκρατία και την κοινωνική ισότητα.
Αλγοριθμικός έλεγχος (algorithmic auditing): Τακτικοί ανεξάρτητοι έλεγχοι στους αλγορίθμους που λαμβάνουν αποφάσεις για πολίτες.
Ποικιλία στις ομάδες ανάπτυξης: Οι ομάδες που σχεδιάζουν AI να περιλαμβάνουν ανθρώπους διαφορετικών φύλων, εθνοτήτων και κοινωνικού υπόβαθρου.
Εκπαίδευση πολιτών και επαγγελματιών: Ο κάθε πολίτης πρέπει να γνωρίζει τα βασικά δικαιώματά του σε σχέση με τα συστήματα AI. Οι επαγγελματίες πρέπει να εκπαιδεύονται στη δεοντολογία του αλγοριθμικού σχεδιασμού.
Νομική ρύθμιση: Η αλγοριθμική λήψη αποφάσεων πρέπει να υπόκειται σε έλεγχο από τη νομοθεσία – όπως ο GDPR, αλλά και νέες μορφές “AI νομοθεσίας”.
. Συμπεράσματα
Η τεχνητή νοημοσύνη μπορεί να είναι ένα εργαλείο απελευθέρωσης ή ένα εργαλείο καταπίεσης. Όλα εξαρτώνται από το ποιος την ελέγχει, πώς σχεδιάζεται και τι σκοπούς εξυπηρετεί. Οι αλγόριθμοι δεν είναι ανεξάρτητοι από την κοινωνία· είναι προϊόντα της. Και όπως ακριβώς μπορούμε να σχεδιάσουμε πολιτικές πιο δίκαιες, μπορούμε να σχεδιάσουμε και αλγορίθμους πιο δίκαιους.
Η κοινωνία του αλγόριθμου δεν είναι αναγκαστικά μια κοινωνία διακρίσεων. Μπορεί να είναι και μια κοινωνία πιο δίκαιη, διαφανής και συμμετοχική – αν το επιλέξουμε συνειδητά.
WebSite365