Έναν ανελέητο αγώνα δρόμου για το «καλύτερο» σύστημα στις AI chat υπηρεσίες προέβλεψε ο Στέργιος Χατζηκυριακίδης, καθηγητής υπολογιστικής γλωσσολογίας του Πανεπιστημίου Κρήτης, στη συνέντευξη του στο OneMan, και λίγα εικοσιτετράωρα αργότερα η Google απελευθέρωσε το δικό της άλογο στην κούρσα. Απλά, το ChatGPT έχει φύγει μπροστά. Σύμφωνα με report του Φεβρουαρίου από την ελβετική τράπεζα UBS πρόκειται για την ταχύτερα αναπτυσσόμενη εφαρμογή για καταναλωτές στην ιστορία.
Βέβαια, το εργαλείο της Google που ακούει στο όνομα Bard μπαίνει στην κούρσα κουβαλώντας κακό κάρμα: στις αρχές του περασμένου μήνα, στο πρόμο βίντεο που κυκλοφόρησε από την Alphabet υπήρχε μια γκάφα (μια λανθασμένη πληροφορία για το τηλεσκόπιο James Webb) κοστίζοντας περίπου 100 δισ. δολάρια στην αξία της εταιρίας. Τώρα υπόσχεται να πάρει το αίμα του πίσω, έχοντας ξεκινήσει να είναι δοκιμαστικά διαθέσιμο σε Αγγλία και ΗΠΑ (δωρεάν, κατόπιν εγγραφής σε λίστα αναμονής), ενώ πρόκειται να επεκταθεί σε παραπάνω χώρες και γλώσσες το προσεχές διάστημα. Πώς δουλεύει το νέο chatbot γενικής χρήσης της Google;
Ποια τα πλεονεκτήματα και τα μειονεκτήματά του σε σχέση με το ChatGPT και άλλα διαθέσιμα AI εργαλεία της αγοράς; Πώς μπορεί να μπερδευτεί και πόσο πιθανό είναι να δώσει λάθος απαντήσεις; Μεταφέρουμε την εικόνα από διεθνή Μέσα, όπου το εργαλείο είναι διαθέσιμο.
Διαφορετικό γλωσσικό μοντέλο, πιο προσεκτικό
Κατ’ αναλογία με το ChatGPT, το Bard βασίζεται σε ένα Μεγάλο Γλωσσικό Μοντέλο (LLM) που προσαρμόστηκε σε μια πιο ελαφριά έκδοση προκειμένου να μπορεί να χρησιμοποιηθεί σε μαζική κλίμακα. Ονομάζεται LaMDA και σύμφωνα με τη σελίδα συνηθέστερων ερωτήσεων της νέας AI υπηρεσίας «έχει ταϊστεί με τρισεκατομμύρια λέξεις, προκειμένου να προβλέψει λογικές απαντήσεις και να διατηρήσει μα συζήτηση». Ωστόσο, όπως παρατήρησε από τη δοκιμή του ο δημοσιογράφος των New York Times, το chatbot της Google είναι πολύ πιο πιθανό να αρνηθεί μια απάντηση ή τοποθέτηση σχετικά, για παράδειγμα, με συμβουλές οικονομικής ή ιατρικής φύσης, έτσι ώστε να αποφύγει το λάθος. Στη γλώσσα των AI ερευνητών, το φαινόμενο αυτής της άμυνας αποκαλείται “hallucination”.
Είναι αυστηρά μόνο για κείμενο
«Μπορείς να χρησιμοποιήσετε το Bard για να αυξήσετε την παραγωγικότητά σας, να αυξήσετε τις ιδέες σας και να ταΐσετε την περιέργειά σας», όπως έχει σημειώσει η Google με το λανσάρισμα του εργαλείου, ωστόσο δεν παρέχεται δυνατότητα χρήσης για προγραμματισμό και παραγωγή εικόνων, όπως συμβαίνει με τα γλωσσικά μοντέλα του ChatGPT και του Bing που εμφάνισαν σύντομα τα ανάλογα εργαλεία. Η εταιρεία έχει ξεκαθαρίσει πως αυτό δεν είναι στο πλάνο. Πρόκειται ίσως για μια ένδειξη πως το Bard θέλει να χτυπήσει συγκεκριμένα το πεδίο του λόγου, έχοντας για σύμμαχο τη μηχανή αναζήτησης της Google. Απόδειξη ότι υπάρχει ένα επιπλέον feature, στο οποίο δίνονται τρεις διαφορετικές εκδοχές από το μηχάνημα ώστε να επιλέξουν οι χρήστες.
Αναφέρει πηγές από μηχανές αναζήτησης
Τουλάχιστον για τα προηγούμενα μοντέλα του ChatGPT (τα GPT-3 και GPT-3,5), η αχίλλειος πτέρνα ήταν ότι πληροφοριακά δεν ήταν επικαιροποιημένα, το οποίο δεν ισχύει για το επικαιροποιημένο GPT-4 που τρέχει πίσω από το ChatGPT Plus όσο και το νέο εργαλείο Bing. Το ενδιαφέρον είναι ότι στο εργαλείο Bard υπάρχει ενσωματωμένο το κουμπί Google it, πράγμα το οποίο δίνει τη δυνατότητα επαλήθευσης στον χρήστη. Μερικές φορές, όταν το θέμα κρίνεται μάλλον αμφιλεγόμενο, το chatbot της Google επισημαίνει στις απαντήσεις του τις πηγές απ’ όπου αλίευσε κάθε φορά το περιεχόμενο. Αυτό δε σημαίνει βέβαια ότι έχει και κριτήριο αξιολόγησης των πηγών αυτών, όπως επεσήμανε δημοσιογράφος στο The Verge, έχοντας λάβει απάντηση με πληροφοριακά στοιχεία από blog που ήταν γραμμένο μισά αγγλικά και μισά κινέζικα.
Είναι επιρρεπές στα λάθη
Η πρώτη εντύπωση είναι και η πιο ακριβής, όπως λένε, πράγμα το οποίο επιβεβαιώνεται στην περίπτωση του Bard: ενώ διαθέτει προβάδισμα με το να έχει πρόσβαση σε πιο επικαιροποιημένες πληροφορίες, είναι αρκετά επιρρεπές σε λάθη που συχνά είναι και εντελώς ανούσια, όπως το να απαντά με άλλον αριθμό παραγράφων από αυτών που του έχει ζητηθεί, πράγμα το οποίο συνέβη κατά την παρουσίαση του εργαλείου στο Reuters.
Όπως λέει κάθε τόσο το ίδιο το εργαλείο σε μια απέλπιδα προσπάθεια να αποφύγει τέτοιες γκάφες: «έχω όρια και δεν πρόκειται να είμαι πάντα σωστός».