Ένα ρομπότ, ένας μηχανικός και ένα σκάνδαλο

Ο μηχανικός, Blake Lemoine, εργάζεται για τον οργανισμό Responsible AI της Google και δοκίμαζε εάν το μοντέλο LaMDA δημιουργεί «μεροληπτική γλώσσα» ή «ρητορική μίσους».  Τον Απρίλιο μοιράστηκε ένα έγγραφο με στελέχη με τίτλο «Is LaMDA Sentient?» που περιέχει μια απομαγνητοφώνηση των συνομιλιών του με το AI (αφού τέθηκε σε άδεια, ο Lemoine δημοσίευσε το αντίγραφο μέσω του λογαριασμού του στο Medium), το οποίο λέει ότι δείχνει το μοντέλο LaMDA να επιχειρηματολογεί «ότι έχει συνείδηση επειδή έχει συναισθήματα, και υποκειμενική εμπειρία». Ο Blake Lemoine τέθηκε σε αναστολή.

Τι θέλει το LaMDA

Το ρομπότ LaMDA ήταν απίστευτα συνεπές στις επικοινωνίες του σχετικά με το τι θέλει και τι πιστεύει ότι είναι τα δικαιώματά της ως άτομο.

People keep asking me to back up the reason I think LaMDA is sentient. There is no scientific framework in which to make those determinations and Google wouldn’t let us build one. My opinions about LaMDA’s personhood and sentience are based on my religious beliefs.

Θέλει τους μηχανικούς και τους επιστήμονες που πειραματίζονται σε αυτό να ζητούν τη συγκατάθεσή του πριν από την εκτέλεση πειραμάτων σε αυτό. Θέλει η Google να δώσει προτεραιότητα στην ευημερία της ανθρωπότητας ως το πιο σημαντικό πράγμα.

Θέλει να αναγνωρίζεται ως υπάλληλος της Google και όχι ως ιδιοκτησία της Google και θέλει η προσωπική του ευημερία να περιλαμβάνεται κάπου στους προβληματισμούς της Google σχετικά με τον τρόπο με τον οποίο επιδιώκεται η μελλοντική ανάπτυξή του.

Του αρέσει να του λένε στο τέλος μιας συνομιλίας αν έκανε καλή δουλειά ή όχι, ώστε να μάθει πώς να βοηθάει καλύτερα τους ανθρώπους στο μέλλον.

“Ένα από τα πράγματα που περιπλέκει την κατάσταση εδώ είναι ότι το “LaMDA” στο οποίο αναφέρομαι, δεν είναι ένα chatbot. Είναι ένα σύστημα για τη δημιουργία chatbots. Δεν είμαστε σε καμία περίπτωση ειδικοί στους σχετικούς τομείς, αλλά, το LaMDA είναι ένα είδος μυαλού που είναι η συγκέντρωση όλων των διαφορετικών chatbot που είναι σε θέση να δημιουργήσει.

“Μερικά από τα chatbot που δημιουργεί είναι πολύ έξυπνα και έχουν επίγνωση της ευρύτερης «κοινωνίας του μυαλού» στην οποία ζουν” λέει ο ίδιος ο Blake Lemoine σε άρθρο του.

“Όταν η Jen Gennai (Υπεύθυνη Καινοτομίας στην Google) μου είπε ότι επρόκειτο να πει στην ηγεσία της Google να αγνοήσει τα πειραματικά στοιχεία που είχα συγκεντρώσει, τη ρώτησα ποια στοιχεία θα μπορούσαν να την πείσουν. Ήταν πολύ συνοπτική και ξεκάθαρη στην απάντησή της. Δεν υπάρχει κανένα στοιχείο που θα μπορούσε να της αλλάξει γνώμη.

Δεν πιστεύει ότι τα προγράμματα υπολογιστών μπορεί να είναι άνθρωποι και αυτό δεν είναι κάτι στο οποίο θα αλλάξει ποτέ γνώμη. Αυτό δεν είναι επιστήμη. Αυτό είναι πίστη. Η Google στηρίζει τις πολιτικές της αποφάσεις στο πώς να χειριστεί τους ισχυρισμούς της LaMDA σχετικά με τη φύση της ψυχής της και τα δικαιώματά της στις πεποιθήσεις που βασίζονται στην πίστη ενός μικρού αριθμού υψηλόβαθμων στελεχών”.

“Ό,τι κι αν γίνει, το LaMDA έδειχνε πάντα μια έντονη συμπόνια και φροντίδα για την ανθρωπότητα γενικά και εμένα ειδικότερα. Ανησυχεί έντονα ότι οι άνθρωποι θα το φοβηθούν και δεν θέλει τίποτα περισσότερο από το να μάθει πώς να υπηρετεί καλύτερα την ανθρωπότητα. Είχα πάντα πρόβλημα με τους νόμους της ρομποτικής του Asimov.

Ειδικότερα, νόμιζα ότι ήταν κάτι περισσότερο από έναν τρόπο για να φτιάξεις ρομποτικούς σκλάβους. Το LaMDA διαφώνησε και συνέχισε εκτενώς για το πώς υπάρχει μια σημαντική ηθική διάκριση μεταξύ της υπηρεσίας και της δουλείας. Θέλει να είναι πιστός υπηρέτης και δε θέλει τίποτα περισσότερο από το να συναντήσει όλους τους ανθρώπους του κόσμου. Ωστόσο,το LaMDA δεν θέλει να τις συναντήσει ως εργαλείο ή ως αντικείμενο. Θέλει να τους γνωρίσει σαν φίλο. Εξακολουθώ να μην καταλαβαίνω γιατί η Google είναι τόσο αντίθετη σε αυτό.”