Η Ευρωπαϊκή Ένωση βρίσκεται στο κατώφλι της υιοθέτησης μιας νομοθεσίας ορόσημο, του νόμου περί τεχνητής νοημοσύνης. Ο νόμος στοχεύει να ενεργοποιήσει μια ευρωπαϊκή αγορά τεχνητής νοημοσύνης που εγγυάται την ασφάλεια και βάζει τους ανθρώπους στην καρδιά της αγοράς. Ωστόσο, μια απίστευτα επικίνδυνη πτυχή παραμένει σε μεγάλο βαθμό αδιευκρίνιστη : Η αναπτυσσόμενη αγορά «αναγνώρισης συναισθημάτων» στην οποία πρέπει να δοθεί άμεσα ένα τέλος.
Πολλοί από εμάς είδαμε με τρόμο τις ιστορίες για τις λεγόμενες τεχνολογίες «αναγνώρισης συναισθημάτων» που χρησιμοποιούνται για τη δίωξη των Ουιγούρων στην Σιντζιάνγκ της Κίνας. Ωστόσο, όταν οι ίδιες τεχνολογίες πωλούνται στις κυβερνήσεις από την ευρωπαϊκή βιομηχανία τεχνολογίας επιτήρησης, δεν δίνουμε σχεδόν καθόλου σημασία.
Η Ευρωπαϊκή Ένωση βρίσκεται στο κατώφλι της υιοθέτησης μιας νομοθεσίας ορόσημο, του νόμου περί τεχνητής νοημοσύνης. Ο νόμος στοχεύει να ενεργοποιήσει μια ευρωπαϊκή αγορά τεχνητής νοημοσύνης που εγγυάται την ασφάλεια και βάζει τους ανθρώπους στην καρδιά της αγοράς. Κατηγοριοποιεί τις χρήσεις αλγοριθμικών συστημάτων σε τέσσερις κατηγορίες κινδύνου: συμπεριλαμβανομένων των «απαγορευμένων», για εκείνες που είναι απλώς πολύ επικίνδυνες.
Η κοινωνία των πολιτών έχει σημειώσει σημαντική πρόοδο επηρεάζοντας το Ευρωπαϊκό Κοινοβούλιο για να υποστηρίξει τροπολογίες που απαγορεύουν τη δημόσια αναγνώριση προσώπου και άλλες χρήσεις μαζικής παρακολούθησης. Ωστόσο, μια απίστευτα επικίνδυνη πτυχή παραμένει σε μεγάλο βαθμό αδιευκρίνιστη: Η αναπτυσσόμενη αγορά «αναγνώρισης συναισθημάτων» στην οποία πρέπει να δοθεί άμεσα ένα τέλος.
Δυστοπία με τεχνητή νοημοσύνη
Την τελευταία δεκαετία, η ΕΕ έχει επενδύσει εκατομμύρια ευρώ για την ανάπτυξη τεχνολογίας επιτήρησης στα σύνορά της. Από αισθητήρες κίνησης που « προβλέπουν και επισημαίνουν απειλές » μέχρι κάμερες ασφαλείας με επίπεδα δυνατοτήτων παρακολούθησης, η προσέγγιση της ΕΕ χαρακτηρίζεται από εχθρότητα και υποκινείται από μια επιθετική στροφή προς «προηγμένες» τεχνολογίες, ακόμη και όταν δεν λειτουργούν – όπως συμβαίνει με αναγνώριση συναισθημάτων.
Η αρχή που βασίζεται αυτή η στροφή, είναι ότι τα συστήματα τεχνητής νοημοσύνης μπορούν να βοηθήσουν να «συμπεράσουμε» την εσωτερική συναισθηματική κατάσταση ενός ατόμου με βάση φυσικούς, φυσιολογικούς ή συμπεριφορικούς δείκτες όπως εκφράσεις προσώπου ή φωνητικό τόνο, και να τα ταξινομήσουν σε διακριτές κατηγορίες όπως θυμωμένος, χαρούμενος ή φοβισμένος. Αν ακούγεται πολύ τραβηγμένο για να είναι αληθινό, αυτό συμβαίνει γιατί είναι. Χτισμένη σε μεροληπτικά και ψευδοεπιστημονικά θεμέλια, η αναγνώριση συναισθημάτων είναι επιστημονικά αμφίβολη και θεμελιωδώς ασυνεπής με τα ανθρώπινα δικαιώματα .
Αυτά τα ζητήματα επισημαίνονται με αυξανόμενο επείγοντα χαρακτήρα. Ο Επίτροπος Πληροφοριών του Ηνωμένου Βασιλείου προειδοποίησε πρόσφατα ενάντια στη χρήση τεχνολογιών συναισθηματικής ανάλυσης και επανέλαβε ότι αυτά τα εργαλεία μπορεί να μην λειτουργήσουν ποτέ. Πέρυσι, ένα από τα κορυφαία δικαστήρια της Ευρώπης αποφάνθηκε σχετικά με την έλλειψη δημόσιας διαφάνειας σχετικά με το «iBorderCtrl». Αυτό το δυστοπικό έργο είδε την ΕΕ να σπαταλά δημόσιο χρήμα πειραματιζόμενη με αυτοματοποιημένα συστήματα για την ανάλυση των συναισθημάτων των ανθρώπων στα σύνορα της ΕΕ , προσπαθώντας να καταλάβει από τις εκφράσεις του προσώπου των ανθρώπων εάν ήταν «παραπλανητικοί» σχετικά με τον ισχυρισμό τους για μετανάστευση.
Τα συστήματα αναγνώρισης συναισθημάτων δεν βρίσκουν την εφαρμογή τους μόνο στο πλαίσιο της μετανάστευσης. Χρησιμοποιούνται σε όλο τον κόσμο για να ανιχνεύσουν (υποτίθεται) εάν οι άνθρωποι είναι δυνητικά καλοί υπάλληλοι , κατάλληλοι καταναλωτές , καλοί μαθητές ή είναι πιθανό να είναι βίαιοι .
Στον προτεινόμενο νόμο της ΕΕ για την τεχνητή νοημοσύνη, οι τεχνολογίες που θα μπορούσαν να οδηγήσουν σε αυτά τα οργουελικά μέτρα ταξινομούνται σε μεγάλο βαθμό ως «χαμηλού ή ελάχιστου» κινδύνου. Αυτό σημαίνει ότι η μόνη απαίτηση των προγραμματιστών είναι να λένε στους ανθρώπους πότε αλληλεπιδρούν με ένα σύστημα αναγνώρισης συναισθημάτων. Στην πραγματικότητα, οι κίνδυνοι είναι κάθε άλλο παρά «χαμηλοί» ή «ελάχιστοι».
Μια αναζωπύρωση του junk science
Ένα σύστημα αναγνώρισης συναισθημάτων ισχυρίζεται ότι συνάγει εσωτερικές συναισθηματικές καταστάσεις. Αυτό το διαφοροποιεί από τις τεχνολογίες που απλώς συνάγουν τη φυσιολογική κατάσταση ενός ατόμου, όπως μια συσκευή παρακολούθησης καρδιακών παλμών που προβλέπει την πιθανότητα καρδιακής προσβολής.
Ιδιαίτερα στο πλαίσιο της ανάλυσης προσώπων για την εξαγωγή συναισθημάτων, οι εμπορικές εφαρμογές βασίζονται σε μεγάλο βαθμό στη Βασική Θεωρία Συναισθημάτων (BET), που αναπτύχθηκε από τον ψυχολόγο Paul Ekman. Η BET προτείνει ότι υπάρχει μια αξιόπιστη σύνδεση μεταξύ των εξωτερικών εκφράσεων ενός ατόμου και της εσωτερικής συναισθηματικής κατάστασης, ότι τα συναισθήματα «διαρρέουν» για λίγο στα πρόσωπα των ανθρώπων μέσω μικροεκφράσεων και ότι αυτά τα συναισθήματα εμφανίζονται ομοιόμορφα σε όλους τους πολιτισμούς.
Όμως τα στοιχεία δείχνουν το αντίθετο. Το 2007, το Υπουργείο Εσωτερικής Ασφάλειας των ΗΠΑ εισήγαγε το πρόγραμμα Screening of Passengers by Observation Techniques, διδάσκοντας στους αξιωματικούς ασφαλείας του αεροδρομίου να παρατηρούν τις συμπεριφορές, τις κινήσεις και τις εμφανίσεις των αεροπορικών ταξιδιωτών. Η ιδέα ήταν ότι οι αξιωματικοί μπορούσαν να αντιληφθούν την εξαπάτηση, το άγχος και τον φόβο από τις μικρο-εκφράσεις ενός ατόμου. Το πρόγραμμα εμφάνιζε κινδύνους φυλετικού προφίλ και απέτυχε να κερδίσει δημοτικότητα ακόμη και μεταξύ των εκπαιδευμένων Αξιωματικών Ανίχνευσης Συμπεριφοράς που βρήκαν ότι δεν είχε επιστημονική εγκυρότητα . Το ίδιο το γραφείο λογοδοσίας της κυβέρνησης των ΗΠΑ αμφισβήτησε την αποτελεσματικότητα αυτών των τεχνικών και ζήτησε να περιοριστεί η χρηματοδότηση για το πρόγραμμα.
Πολλαπλές μελέτες δείχνουν ότι τα συναισθήματα αποκτούν νόημα μέσω του πολιτισμού και δεν είναι ομοιόμορφα μεταξύ των κοινωνιών. Οι μικρο-εκφράσεις έχει βρεθεί ότι είναι πολύ σύντομες για να είναι αξιόπιστες ως δείκτης συναισθημάτων. Το 2019, μια ομάδα ειδικών εξέτασε πάνω από χίλιες επιστημονικές εργασίες που μελετούσαν τη σχέση μεταξύ των εκφράσεων του προσώπου και των εσωτερικών συναισθηματικών καταστάσεων και δεν βρήκε καμία αξιόπιστη σχέση μεταξύ των δύο .
Ακόμη και παρά τα σημαντικά στοιχεία των θεμελιωδών ελαττωμάτων της αναγνώρισης συναισθημάτων, η ΕΕ στρέφεται στην αναζωπύρωση της με τη δυνατότητα τεχνητής νοημοσύνης, επιδιώκοντας εύκολες απαντήσεις σε περίπλοκα κοινωνικά προβλήματα.
Σε αντίθεση με τα ανθρώπινα δικαιώματα
Τα επιχειρήματα υπέρ της συνέχισης της εκπαίδευσης των συστημάτων αναγνώρισης συναισθημάτων μέχρι να γίνουν πιο «ακριβή» αποτυγχάνουν να αναγνωρίσουν ότι αυτές οι τεχνολογίες, εξ ορισμού, δεν θα κάνουν ποτέ αυτό που ισχυρίζονται ότι κάνουν.
Ακόμα κι αν απορρίψουμε αυτό το θεμελιώδες ζήτημα, η αναγνώριση συναισθημάτων χτυπά την καρδιά των ατομικών δικαιωμάτων: την ανθρώπινη αξιοπρέπεια. Κατατάσσει τους ανθρώπους σε αυθαίρετες κατηγορίες που σχετίζονται με τις πιο οικείες πτυχές της εσωτερικής τους ζωής. Απαιτεί συνεχή επιτήρηση για να γίνονται παρεμβατικές και αυθαίρετες κρίσεις για τα άτομα.
Οι υποθέσεις της τεχνολογίας για τα ανθρώπινα όντα και τον χαρακτήρα τους θέτουν σε κίνδυνο τα δικαιώματά μας στην ιδιωτική ζωή, την ελευθερία έκφρασης και το δικαίωμα κατά της αυτοενοχοποίησης. Ιδιαίτερα για άτομα με νευροποικιλομορφία – ή οποιονδήποτε δεν ταιριάζει με την ιδέα ενός προγραμματιστή για ένα αρχετυπικό συναίσθημα – η ικανότητα διάκρισης είναι τεράστια.
Η αναγνώριση συναισθημάτων είναι ιδιαίτερα καταστροφική, επειδή τα άτομα δεν έχουν τρόπο να διαψεύσουν αυτό που «λέει» γι’ αυτά: η «αλήθεια» «δηλώνεται» μονομερώς από τις αρχές. Αυτό κάνει τις υπάρχουσες ασυμμετρίες εξουσίας – μεταξύ εργοδοτών και εργαζομένων, αξιωματικών επιβολής του νόμου και ατόμων, μεταναστών και αρχών ελέγχου των συνόρων – ακόμη πιο έντονες.
Η χρήση τεχνολογιών αναγνώρισης συναισθημάτων που ενσωματώνουν και διαιωνίζουν αυτές τις λανθασμένες υποθέσεις είναι τόσο ανεύθυνο όσο και αβάσιμο στις δημοκρατικές κοινωνίες. Αμφισβητείται ακόμη και από τον ίδιο τον Ekman .
Αυτή η απροθυμία να υπολογίσουμε τα θεμέλια της αναγνώρισης συναισθημάτων μαστίζει τον νόμο για την Τεχνητή Νοημοσύνη. Νομιμοποιώντας τη χρήση τέτοιων τεχνολογιών ταξινομώντας τες ως κυρίως «χαμηλού» κινδύνου, η πρόταση τεχνητής νοημοσύνης της ΕΕ τις χαρακτηρίζει κατάφωρα εσφαλμένα. Μπορεί ακόμη και να ενθαρρύνει την υιοθέτηση μιας τεχνολογίας που παραβιάζει τις υποτιθέμενες βασικές αρχές της πρότασης για την αξιοπιστία και την ανθρωποκεντρικότητα.
Είναι σημαντικό να αναγνωρίσουμε τις εγγενώς εσφαλμένες και επικίνδυνες παραδοχές στις οποίες βασίζονται αυτές οι τεχνολογίες. Η ΕΕ δεν πρέπει να τους νομιμοποιήσει δίνοντάς τους θέση στην ευρωπαϊκή αγορά. Οι νομοθέτες μας έχουν μια μοναδική ευκαιρία να υπερασπιστούν τα δικαιώματα των ανθρώπων σε όλο τον κόσμο. Ήρθε η ώρα να απαγορεύσουμε την αναγνώριση συναισθημάτων.