Ο διευθύνων σύμβουλος της Google Sundar Pichai έδωσε μια αποκαλυπτική συνέντευξη στην εκπομπή 60 minutes του CBS για να εκφράσει με τον πιο σαφή τρόπο τις ανησυχίες του για τις καταιγιστικές εξελίξεις στον τομέα της τεχνητής νοημοσύνης.
“Δεν μπορώ να κοιμηθώ τα βράδια” παραδέχθηκε ο Sundar Pichai εξηγώντας ότι η τεχνολογία Artificial Intelligence μπορεί να αποδειχθεί ιδιαίτερα επιβλαβής εάν αναπτυχθεί λανθασμένα.
O Sundar Pichai προειδοποίησε ότι υπάρχει άμεση ανάγκη για ένα παγκόσμιο ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη, παρόμοιο με τις συνθήκες για τη ρύθμιση της χρήσης πυρηνικών όπλων.
Ο ανταγωνισμός για την παραγωγή προόδου στη τεχνολογία τεχνητής νοημοσύνης θα μπορούσε να οδηγήσει σε δυστοπικό περιβάλλον…
- «Μπορεί να είναι πολύ επιβλαβής εάν αναπτυχθεί λανθασμένα και δεν έχουμε ακόμη όλες τις απαντήσεις σε αυτό το πεδίο και η τεχνολογία προχωρά γρήγορα. Δηλαδή με κρατάει ξύπνιο το βράδυ»
Οι ειδικοί -και η Google– φοβούνται ότι η ανάπτυξη της τεχνητής νοημοσύνης θα μπορούσε να ξεφύγει από τον έλεγχό τους.
Η μητρική της Google, η Alphabet, είναι ιδιοκτήτρια της εταιρείας τεχνητής νοημοσύνης DeepMind με έδρα το Ηνωμένο Βασίλειο και έχει ξεκινήσει ένα chatbot με τεχνητή νοημοσύνη, το Bard, ως απάντηση στο ChatGPT που αναπτύχθηκε από την αμερικανική εταιρεία τεχνολογίας OpenAI, το οποίο έχει εξελιχθεί σε… φαινόμενο από την κυκλοφορία του τον Νοέμβριο.
Ο Pichai είπε ότι οι κυβερνήσεις θα πρέπει να βρουν παγκόσμια πλαίσια για τη ρύθμιση της τεχνητής νοημοσύνης όπως αυτή αναπτύχθηκε.
Τον περασμένο μήνα, χιλιάδες ειδικοί, ερευνητές και υποστηρικτές της τεχνητής νοημοσύνης -συμπεριλαμβανομένου του ιδιοκτήτη του Twitter, Elon Musk υπέγραψαν μια επιστολή που ζητούσε να σταματήσει η δημιουργία «κολοσσών» της τεχνητής νοημοσύνης για τουλάχιστον 6 μήνες, εν μέσω ανησυχιών ότι η ανάπτυξη της τεχνολογίας ΑΙ θα μπορούσε να φύγει εκτός ελέγχου.
Ο Pichai πρόσθεσε ότι η τεχνητή νοημοσύνη θα μπορούσε να προκαλέσει βλάβες μέσω της ικανότητάς της να παράγει παραπληροφόρηση.
- «Θα είναι δυνατό με την τεχνητή νοημοσύνη να δημιουργηθεί εύκολα ένα βίντεο που θα μπορούσε να δείχνει τον δημοσιογράφο του CBS ή εμένα να λέμε κάτι που δεν είπαμε ποτέ. Και θα μπορούσε να φαίνεται ακριβές. Αλλά ξέρετε, σε κοινωνική κλίμακα, μπορεί να προκαλέσει πολύ κακό».