Δύο χρόνια περιθώριο για τη θανάσιμη απειλή της Τεχνητής Νοημοσύνης δίνει σύμβουλος του Βρετανού πρωθυπουργού.
Ο Ματ Κλίφορντ, σύμβουλος AI του Ρίσι Σούνακ, προειδοποιεί για τις απειλές βιολογικών όπλων και κυβερνοεπιθέσεων, σε βάθος δύο χρόνων καθώς τα συστήματα τεχνητής νοημοσύνης θα μπορούν να είναι αρκετά ισχυρά ώστε να «σκοτώσουν πολλούς ανθρώπους».
Ο Κλίφορντ, ο οποίος βοηθά τον Βρετανό πρωθυπουργό να συγκροτήσει την κυβερνητική ομάδα εργασίας για την τεχνητή νοημοσύνη, δήλωσε ότι οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να είναι προετοιμασμένοι για απειλές που κυμαίνονται από κυβερνοεπιθέσεις έως τη δημιουργία βιολογικών όπλων, εάν η ανθρωπότητα δεν βρει τρόπο να ελέγξει την τεχνολογία.
«Επικίνδυνες απειλές που θα μπορούσαν να σκοτώσουν πολλούς ανθρώπους»
«Μπορείτε να έχετε πραγματικά πολύ επικίνδυνες απειλές για τους ανθρώπους που θα μπορούσαν να σκοτώσουν πολλούς ανθρώπους», είπε μιλώντας στο TalkTV.
Μεσοπρόθεσμα, οι ειδικοί προειδοποιούν ότι η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για τον σχεδιασμό χημικών και βιολογικών όπλων και τη διεξαγωγή μαζικών επιθέσεων μέσω του Διαδικτύου, αναφέρει το δημοσίευμα των βρετανικών Times.
Την περασμένη εβδομάδα μια δήλωση που υπογράφηκε από 350 ειδικούς σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένου του διευθύνοντος συμβούλου τoυ OpenAI, το οποίο ανέπτυξε το ChatGPT, προειδοποίησε ότι υπάρχει επίσης ο κίνδυνος μακροπρόθεσμα η τεχνολογία να οδηγήσει στην εξαφάνιση της ανθρωπότητας.
Ο Κλίφορντ δήλωσε ότι αποτελεί πραγματική ανησυχία και είναι ένας από τους λόγους για τους οποίους οι χώρες πρέπει να συνεργαστούν για τη δημιουργία κανονισμών.
«Το είδος του υπαρξιακού κινδύνου για το οποίο νομίζω ότι μιλούσαν οι συγγραφείς της επιστολής είναι … τι θα συμβεί όταν δημιουργήσουμε ουσιαστικά ένα νέο είδος, ξέρετε, μια νοημοσύνη που είναι μεγαλύτερη από τους ανθρώπους», είπε, προσθέτοντας ότι σε μια «αισιόδοξη» χρονική κλίμακα θα μπορούσαμε να έχουμε έναν υπολογιστή πιο έξυπνο από τον άνθρωπο μέσα σε δύο χρόνια.
«Αν προσπαθήσουμε να δημιουργήσουμε τεχνητή νοημοσύνη που είναι πιο έξυπνη από τον άνθρωπο και δεν ξέρουμε πώς να την ελέγξουμε, τότε αυτό θα δημιουργήσει ένα ενδεχόμενο για κάθε είδους κινδύνους τώρα και στο μέλλον … είναι σωστό να είναι πολύ ψηλά στην ατζέντα των φορέων χάραξης πολιτικής.
«Οι άνθρωποι που κατασκευάζουν τα πιο ικανά συστήματα τεχνητής νοημοσύνης παραδέχονται ότι δεν τα κατανοούν απόλυτα»
Αυτό που τον ανησυχεί στην παρούσα κατάσταση, είπε, είναι ότι «οι άνθρωποι που κατασκευάζουν τα πιο ικανά συστήματα παραδέχονται ανοιχτά ότι δεν κατανοούν ακριβώς πώς παρουσιάζουν τις συμπεριφορές που παρουσιάζουν».
Ωστόσο, ο Κλίφορντ δήλωσε ότι η τεχνητή νοημοσύνη έχει επίσης τη δυνατότητα να αποτελέσει μια συντριπτική δύναμη για το καλό – υπό την προϋπόθεση ότι θα βρούμε τρόπους να την ελέγξουμε. «Αν όλα πάνε καλά… μπορείτε να φανταστείτε την Τεχνητή Νοημοσύνη να θεραπεύει ασθένειες, να κάνει την οικονομία πιο παραγωγική, να μας βοηθά να φτάσουμε σε μια οικονομία ουδέτερου άνθρακα».
Οι παγκόσμιες ρυθμιστικές αρχές προσπαθούν να αντιμετωπίσουν την τεχνολογία που κινείται με ταχύτατους ρυθμούς. Τόσο ο Λευκός Οίκος όσο και η Ντάουνινγκ Στριτ συγκάλεσαν συνόδους κορυφής των ηγετών στον τομέα του AI τις τελευταίες εβδομάδες για να βρουν μια πορεία προς τα εμπρός.
Οι ρυθμιστικές αρχές της Ευρώπης και των ΗΠΑ συναντήθηκαν αυτή την εβδομάδα στη Σουηδία προκειμένου να βρουν κάποιο κοινό έδαφος για έναν εθελοντικό κώδικα δεοντολογίας σχετικά με τις εταιρείες τεχνητής νοημοσύνης, παρά τις ενδείξεις ότι έχουν διαφορές στην προσέγγισή τους.
Οι Βρυξέλλες προχωρούν με τον νόμο για την τεχνητή νοημοσύνη, ο οποίος θα χαρακτηρίζει ορισμένους τύπους της τεχνολογίας ως υψηλού ή χαμηλού κινδύνου. Τόσο οι ΗΠΑ όσο και το Ηνωμένο Βασίλειο επιθυμούν να αναπτύξουν προσεγγίσεις που δεν βλάπτουν την καινοτομία, αλλά ο Σουνάκ έχει δηλώσει πρόσφατα ότι η Βρετανία μπορεί να υιοθετήσει μια πιο παρεμβατική προσέγγιση από ό,τι είχε αρχικά υποδείξει σε πρόσφατη λευκή βίβλο.
Οι μεγαλύτεροι κίνδυνοι δεν προέρχονται από την ίδια την τεχνολογία
Καθώς οι προειδοποιήσεις από ορισμένες πλευρές της βιομηχανίας τεχνητής νοημοσύνης γίνονται πιο ηχηρές και πιο ακραίες, ορισμένοι στον τομέα πιστεύουν ότι ο συναγερμός μπορεί να κρύβει συμφέροντα. Ο Αρβίντ Ναραγιανάν, καθηγητής Πληροφορικής στο Princeton, έγραψε την περασμένη εβδομάδα: «Η ιστορία της τεχνολογίας μέχρι σήμερα δείχνει ότι οι μεγαλύτεροι κίνδυνοι δεν προέρχονται από την ίδια την τεχνολογία, αλλά από τους ανθρώπους που ελέγχουν την τεχνολογία και τη χρησιμοποιούν για να συσσωρεύσουν δύναμη και πλούτο».
Άλλοι πιστεύουν ότι οι φωνές διακεκριμένων επιστημόνων πληροφορικής, όπως ο Τζόφρι Χίντον και ο Γιόσουα Μπέντζιο, δύο από τους «νονούς» της τεχνητής νοημοσύνης που προειδοποίησαν πρόσφατα για τις απειλές της τεχνολογίας, αντιμετωπίζονται ως «ήρωες επιστήμονες» αλλά πολλοί έχουν επιφυλάξεις.
Ο Αζίμ Αζάρ, ειδικός της βιομηχανίας στην ερευνητική ομάδα Exponential View, δήλωσε σε ενημερωτικό δελτίο: «Το γεγονός ότι οι άνθρωποι είναι ειδικοί στον πυρήνα της έρευνας των νευρωνικών δικτύων δεν τους καθιστά σπουδαίους προγνώστες, ειδικά όταν πρόκειται για κοινωνικά ζητήματα ή ζητήματα της οικονομίας ή ζητήματα γεωπολιτικής».
Επεσήμανε ότι ο Χίντον προειδοποίησε το 2016 ότι οι ακτινολόγοι θα μπορούσαν να καταστούν παρωχημένοι από την τεχνητή νοημοσύνη – αλλά η πραγματικότητα είναι πως εξακολουθούν να υπάρχουν ελλείψεις ακτινολόγων παγκοσμίως.
Πηγή