Η Google έφτιαξε μοντέλα AI που «διαβάζουν συναισθήματα»… Όπως ανακοίνωσε ο τεχνολογικός κολοσσός την Πέμπτη, 5 Δεκεμβρίου, η οικογένεια μοντέλων PaliGemma 2 μπορεί να αναλύει εικόνες, επιτρέποντας στην τεχνολογία AI να δημιουργεί λεζάντες και να απαντά σε ερωτήσεις σχετικά με τους ανθρώπους που «βλέπει» στις φωτογραφίες.
«Το PaliGemma 2 παράγει λεπτομερείς και σχετικές με το πλαίσιο λεζάντες για εικόνες, πηγαίνοντας πέρα από την απλή αναγνώριση αντικειμένων για να περιγράψει ενέργειες, συναισθήματα και το γενικότερο πλαίσιο της σκηνής», έγραψε η Google σε μια επικοινωνία που μοιράστηκε με την ιστοσελίδα TechCrunch.
Πρέπει να σημειωθεί ότι η λειτουργία αναγνώρισης συναισθημάτων δεν είναι ενεργοποιημένη εξ αρχής στο PaliGema 2, αλλά το πρόγραμμα πρέπει να ρυθμιστεί λεπτομερώς για τον συγκεκριμένο σκοπό.
Παρ’ όλα αυτά, οι ειδικοί με τους οποίους μίλησε το TechCrunch θορυβήθηκαν έντονα από την προοπτική ενός ανοιχτά διαθέσιμου ανιχνευτή συναισθημάτων.
Μπορεί, αλήθεια, το AI να διαβάσει συναισθήματα;
«Αυτό με προβληματίζει πολύ», δήλωσε στο TechCrunch η Sandra Wachter, καθηγήτρια σε θέματα ηθικής των δεδομένων και της τεχνητής νοημοσύνης στο Internet Institute του πανεπιστημίου της Οξφόρδης. «Θεωρώ προβληματικό να υποθέτουμε ότι μπορούμε να ”διαβάσουμε” τα συναισθήματα των ανθρώπων. Είναι σαν να ζητάμε συμβουλές από μια κρυστάλινη μπάλα».
Εδώ και χρόνια, τόσο οι νεοφυείς επιχειρήσεις όσο και οι τεχνολογικοί γίγαντες προσπαθούν να δημιουργήσουν τεχνητή νοημοσύνη που μπορεί να ανιχνεύει συναισθήματα, η οποία μπορεί να έχει πολλές χρήσεις, από την εκπαίδευση πωλητών μέχρι την πρόληψη ατυχημάτων. Ορισμένες εταιρείες ισχυρίζονται ότι ήδη έχουν δημιουργήσει τέτοιες τεχνολογίες, αλλά είναι δύσκολο να αποδειχτεί η αποτελεσματικότητά τους.
Οι περισσότεροι «ανιχνευτές συναισθημάτων» αντλούν στοιχεία από το πρώιμο έργο του Paul Ekman, ενός ψυχολόγου που θεωρούσε ότι όλοι οι άνθρωποι έχουν έξι κοινά θεμελιώδη συναισθήματα: Θυμό, έκπληξη, αηδία, απόλαυση, φόβο και θλίψη. Μεταγενέστερες μελέτες αμφισβήτησαν, ωστόσο, την υπόθεση του Ekman, αποδεικνύοντας ότι υπάρχουν μεγάλες διαφορές στον τρόπο με τον οποίο οι άνθρωποι εκφράζουν τα συναισθήματά τους, ανάλογα με τις προηγούμενες εμπειρίες τους και το υπόβαθρό τους.
«Γενικότερα, η ανίχνευση συναισθημάτων δεν είναι δυνατή σε μεγάλη κλίμακα, επειδή τα ανθρώπινα όντα βιώνουν τα συναισθήματα με πολύπλοκους τρόπους», εξηγεί ο Mike Cook, ερευνητής στο Πανεπιστήμιο Queen Mary με ειδίκευση στην τεχνητή νοημοσύνη.
Ανιχνευτής συναισθημάτων ή συνονθύλευμα προκαταλήψεων;
«Φυσικά, πιστεύουμε ότι μπορούμε να καταλάβουμε τι αισθάνονται οι άλλοι άνθρωποι κοιτάζοντάς τους και πολλοί άνθρωποι ανά τους καιρούς έχουν προσπαθήσει, όπως οι υπηρεσίες κατασκοπείας ή οι εταιρείες μάρκετινγκ. Είμαι σίγουρος ότι μπορούμε να ανιχνεύσουμε κάποια γενικά σημάδια σε ορισμένες περιπτώσεις, αλλά δεν είναι κάτι που μπορούμε ποτέ να κατανοήσουμε πλήρως» πρόσθεσε ο Cook.
Ως αποτέλεσμα, τα συστήματα που διαφημίζονται ως «ανιχνευτές συναισθημάτων» τείνουν να είναι αναξιόπιστα, ενώ συχνά «κληρονομούν» τις προκαταλήψεις των δημιουργών τους, σημειώνει το TechCrunch.
Όπως έδειξε μία μελέτη του MIT από το 2020, τα μοντέλα ανάλυσης προσώπου μπορούν να αναπτύξουν «προτιμήσεις» για ορισμένες εκφράσεις, όπως για παράδειγμα το χαμόγελο. Άλλες, πιο πρόσφατες μελέτες, ανακάλυψαν ότι τα μοντέλα συναισθηματικής ανάλυσης αποδίδουν περισσότερα αρνητικά συναισθήματα στα πρόσωπα των μαύρων από ό,τι στα πρόσωπα των λευκών.
Από την πλευρά της, η Google αναφέρει ότι διεξήγαγε «εκτεταμένες δοκιμές» για την αξιολόγηση των δημογραφικών προκαταλήψεων στο PaliGemma 2 και διαπίστωσε «χαμηλά επίπεδα τοξικότητας και βωμολοχίας» σε σύγκριση με τα πρότυπα της βιομηχανίας. Ωστόσο, η εταιρεία δεν διευκρίνισε ποια ήταν τα κριτήρια αναφοράς που χρησιμοποίησε, ούτε σε ποιες ακριβώς δοκιμές υποβλήθηκε το μοντέλο.
Σύμφωνα με κάποιους εμπειρογνώμονες, όπως ο Heidy Khlaaf, επικεφαλής επιστήμονας τεχνητής νοημοσύνης στο AI Now Institute, ακόμη και αν τα μοντέλα ανίχνευσης συναισθημάτων μπορούσαν να «διαβάσουν» με ακρίβεια τις εκφράσεις του προσώπου μας, αυτό και πάλι δεν θα ήταν αρκετό.
«Άσχετα με την τεχνητή νοημοσύνη, η επιστημονική έρευνα μας έχει δείξει ότι έχει δείξει ότι δεν μπορούμε να συμπεράνουμε συναισθήματα μόνο από τα χαρακτηριστικά του προσώπου».
Η ΕΕ αντιδρά με νέους νόμους για το AI
Καθώς οι τεχνολογικές-και όχι μόνο-εταιρείες προσπαθούν να κατασκευάσουν όλο και πιο εξελιγμένα μοντέλα AI, τα νομοθετικά όργανα της Ευρωπαϊκής Ένωσης σπεύδουν να περιορίσουν τη χρήση τους σε περιβάλλοντα που χαρακτηρίζονται «υψηλού κινδύνου».
Για παράδειγμα, ο Ευρωπαϊκός Κανονισμός για την Τεχνητή Νοημοσύνη απαγορεύει στα σχολεία και τους εργοδότες να αναπτύσσουν ανιχνευτές συναισθημάτων, αλλά αυτός ο περιορισμός δεν δεσμεύει στις αστυνομικές αρχές.
Η μεγαλύτερη πηγή ανησυχίας γύρω από μοντέλα όπως το PaliGema 2, το οποίο είναι ανοικτά διαθέσιμο σε διάφορες πλατφόρμες στο διαδίκτυο, συμπεριλαμβανομένης της ιστοσελίδας Hugging Face, είναι ότι θα γίνει κατάχρηση τους, οι συνέπειες της οποίας θα είναι εμφανείς στον πραγματικό κόσμο.
«Εάν αυτή η λεγόμενη συναισθηματική αναγνώριση βασίζεται σε ψευδοεπιστημονικές υποθέσεις, θα υπάρχουν σημαντικές επιπτώσεις στον τρόπο με τον οποίο αυτή η τεχνολογία μπορεί να χρησιμοποιηθεί για την περαιτέρω διάκριση σε βάρος περιθωριοποιημένων ομάδων», δήλωσε ο Khlaaf, δίνοντας παραδείγματα για τη χρήση της τεχνολογίας από την αστυνομία ή από τις υπηρεσίες μετανάστευσης.
Ερωτηθείς σχετικά με τους κινδύνους της κυκλοφορίας του PaliGemma 2, ένας εκπρόσωπος της Google δήλωσε ότι η εταιρεία έχει πάρει τα απαραίτητα μέτρα και πραγματοποίησε «ισχυρές αξιολογήσεις των μοντέλων του PaliGemma 2 όσον αφορά την ηθική και την ασφάλεια, συμπεριλαμβανομένης της ασφάλειας των παιδιών, της ασφάλειας του περιεχομένου», πρόσθεσαν.
«Θα θέλατε ένα δάνειο; Παρακαλώ περάστε πρώτα από τον ανιχνευτή συναισθημάτων»
Όμως η Sandra Wachter του Internet Institute στο πανεπιστήμιο της Οξφόρδης δεν πιστεύει ότι η Google έκανε αρκετά.
«Υπεύθυνη καινοτομία σημαίνει ότι σκέφτεσαι τις συνέπειες από την πρώτη μέρα που μπαίνεις στο εργαστήριό σου και συνεχίζεις να το κάνεις καθ’ όλη τη διάρκεια του κύκλου ζωής ενός προϊόντος», είπε στο TechCrunch, προτού συνεχίσει.
«Μπορώ να σκεφτώ μυριάδες πιθανά ζητήματα (με μοντέλα όπως το PaliGemma 2) που μπορούν να οδηγήσουν σε ένα δυστοπικό μέλλον, όπου τα συναισθήματά σας θα καθορίζουν αν θα πάρετε μία δουλειά, αν θα σας δοθεί ένα δάνειο και αν θα γίνετε δεκτός στο πανεπιστήμιο».