Παρόλα αυτά δεν δίστασαν να το βάλουν σε δημόσια λειτουργεία.
Τις εβδομάδες πριν από τη δημόσια κυκλοφορία του Bard – του νέου chatbot τεχνητής νοημοσύνης της Google, παρόμοιο με το ChatGPT – ζητήθηκε από τους υπαλλήλους της Google να δοκιμάσουν το εργαλείο τεχνητής νοημοσύνης. Σε μια νέα αναφορά από το Bloomberg, επικαλούμενοι 18 νυν και πρώην υπαλλήλους καθώς και εσωτερική τεκμηρίωση, οι εργαζόμενοι που αξιολόγησαν τον Bard προειδοποίησαν την Google να μην το κυκλοφορήσει και χαρακτήρισαν το chatbot «παθολογικό ψεύτη».
Σε άλλα εσωτερικά σχόλια που επικαλείται το Bloomberg, ένας υπάλληλος της Google είπε ότι ο Bard ήταν μία πηγή γνήσιας παραπληροφόρησης. Άλλοι περιέγραψαν πώς το chatbot παρείχε επικίνδυνες συμβουλές για την προσγείωση ενός αεροπλάνου και τις καταδύσεις. Ωστόσο, άλλοι στην Google λένε ότι πιστεύουν ότι οι έλεγχοι ασφαλείας της Google ήταν αποτελεσματικοί και ότι το πρόγραμμα ήταν ασφαλέστερο από άλλα chatbot.
Πώς θα καταλάβεις ό,τι σου έχουν χακάρει το τηλέφωνο;
Σε μια εσωτερική ομάδα ανταλλαγής μηνυμάτων εντός της εταιρείας, ένας υπάλληλος έγραψε τον Φεβρουάριο ότι ο Bard ήταν «χειρότερος από άχρηστος» και προειδοποίησε την εταιρεία να μην ξεκινήσει την δημοσιοποίηση του. Περίπου 7.000 εργαζόμενοι είδαν το μήνυμα, με πολλούς να συμφωνούν, σύμφωνα με το Bloomberg. Αυτά τα ευρήματα πυροδοτούν ερωτήματα σχετικά με το εάν η Google διακυβεύει τα ηθικά πρότυπα ενώ δίνει προτεραιότητα στον ανταγωνισμό με άλλες εταιρείες.
Η έκθεση του Bloomberg περιλαμβάνει επίσης λεπτομέρειες σχετικά με τα βήματα που παραλείφθηκαν λόγω βιασύνης για την κυκλοφορία του προϊόντος, όπως τα στοιχεία που έδωσε η επικεφαλής διακυβέρνησης της τεχνητής νοημοσύνης Jen Gennai που λέει ότι ορισμένοι συμβιβασμοί στην παραγωγή ενδέχεται να είναι απαραίτητοι για μια ταχύτερη κυκλοφορία.
Η αξιολόγηση κινδύνου ανέφερε ότι το Bard δεν ήταν έτοιμo γιατί θα μπορούσε να προκαλέσει βλάβη, αλλά σε μια δήλωση που παρείχε η Gennai, είπε ότι δεν ήταν αποκλειστικά δική της απόφαση αλλά ανώτερων στελεχών.
Πηγή