- Οι απόψεις επιχειρήσεων και υπευθύνων χάραξης πολιτικής διαφοροποιούνται, ως προς το μέλλον της διακυβέρνησης της Τεχνητής Νοημοσύνης
- Το κενό ενημέρωσης, εγκυμονεί κινδύνους
Σύμφωνα με παγκόσμια έρευνα της EY, παρατηρούνται σημαντικές διαφορές ως προς τον τρόπο με τον οποίο ο δημόσιος και ο ιδιωτικός τομέας αντιλαμβάνονται το μέλλον των συστημάτων Τεχνητής Νοημοσύνης, όσον αφορά σε ζητήματα ηθικής, διακυβέρνησης, ιδιωτικότητας και ρυθμιστικού πλαισίου. Η έκθεση, Bridging AI’s trust gaps, που εκπονήθηκε σε συνεργασία με τον οργανισμό The Future Society τον Ιούλιο του 2020, διαπιστώνει διαφοροποιήσεις ως προς τη χρήση της Τεχνητής Νοημοσύνης, σε τέσσερις βασικούς τομείς: αμεροληψία και αποφυγή προκαταλήψεων, καινοτομία, πρόσβαση σε δεδομένα και, τέλος, προστασία της ιδιωτικότητας και των δεδομένων.
Στην έρευνα που διεξήχθη μεταξύ 71 υπεύθυνων χάραξης πολιτικής και περισσότερων από 280 επιχειρήσεων παγκοσμίως, οι συμμετέχοντες κλήθηκαν να ιεραρχήσουν, κατά σειρά σημασίας, ηθικές αρχές που σχετίζονται με την Τεχνητή Νοημοσύνη, στο πλαίσιο 12 διαφορετικών περιπτώσεων χρήσης (use cases), ενώ, παράλληλα, καταγράφηκε η άποψή τους σχετικά με τους κινδύνους, αλλά και τη ρύθμιση της χρήσης Τεχνητής Νοημοσύνης.
Ενώ οι υπεύθυνοι χάραξης πολιτικής ευθυγραμμίζονται ως προς συγκεκριμένες προτεραιότητες, στον ιδιωτικό τομέα υπάρχει διάσταση απόψεων
Σύμφωνα με τις απαντήσεις τους στην έρευνα, καταδεικνύεται μία ευρεία συναίνεση μεταξύ των υπευθύνων χάραξης πολιτικής, γύρω από τις ηθικές αρχές που σχετίζονται με διαφορετικές εφαρμογές της Τεχνητής Νοημοσύνης. Για παράδειγμα, ως προς τη χρήση της Τεχνητής Νοημοσύνης για την αναγνώριση προσώπων, οι υπεύθυνοι χάραξης πολιτικής συμφωνούν ότι «η αμεροληψία και η αποφυγή των προκαταλήψεων» και «η προστασία της ιδιωτικότητας και των δεδομένων», αποτελούν – μακράν των υπολοίπων – τις δύο κορυφαίες αρχές, ενώ, αντίθετα, οι απαντήσεις του ιδιωτικού τομέα είναι πιο ομοιόμορφα κατανεμημένες ανάμεσα στις έντεκα διαθέσιμες επιλογές, με τις κορυφαίες εξ αυτών να συνδέονται με το υφιστάμενο κανονιστικό πλαίσιο (π.χ. General Data Protection Regulation).
Η διάσταση απόψεων ως προς τη μελλοντική κατεύθυνση της διακυβέρνησης της Τεχνητής Νοημοσύνης, ενέχει κινδύνους
Ενώ οι υπεύθυνοι χάραξης πολιτικής και οι επιχειρήσεις συμφωνούν ότι απαιτείται μια προσέγγιση που θα εμπλέκει όλα τα ενδιαφερόμενα μέρη, προκειμένου να ορισθούν οι κατευθυντήριες γραμμές της διακυβέρνησης της Τεχνητής Νοημοσύνης, η έρευνα αναδεικνύει διαφωνίες ως προς τη μορφή που θα λάβει αυτή: το 38% των ιδιωτικών επιχειρήσεων αναμένουν ότι επικεφαλής της πρωτοβουλίας αυτής θα τεθεί ο ιδιωτικός τομέας, άποψη με την οποία συμφωνεί μόνο το 6% των υπευθύνων χάραξης πολιτικής. Η διαφοροποίηση αυτή, δημιουργεί δυνητικές προκλήσεις και για τις δύο πλευρές ως προς την εξέλιξη του πλαισίου διακυβέρνησης, ενώ, παράλληλα, επιφυλάσσει κινδύνους σχετικούς με την αγορά, αλλά και τις ρυθμιστικές προκλήσεις, για τις επιχειρήσεις που ήδη αναπτύσσουν προϊόντα Τεχνητής Νοημοσύνης, τη στιγμή που οι διάφορες προσεγγίσεις ως προς τη διακυβέρνηση, είναι ακόμη υπό συζήτηση.
Ξεπερνώντας τις διαφορές μέσω της συνεργασίας
Σύμφωνα με την έρευνα, και στις δύο πλευρές υπάρχουν αδιόρατα σημεία όσον αφορά την εφαρμογή της ηθικής Τεχνητής Νοημοσύνης, με το 69% των επιχειρήσεων του ιδιωτικού τομέα να εκτιμούν ότι οι ρυθμιστικές αρχές κατανοούν την πολυπλοκότητα των τεχνολογιών Τεχνητής Νοημοσύνης και των σχετιζόμενων επιχειρηματικών προκλήσεων, ενώ το 66% των υπευθύνων χάραξης πολιτικής διαφωνούν με αυτή την άποψη.
Τα ευρήματα αυτά αναδεικνύουν την ανάγκη για αυξημένη συνεργασία μεταξύ των δύο πλευρών, για να καλυφθούν τα όποια κενά γνώσης. Οι υπεύθυνοι χάραξης πολιτικής θα πρέπει, μέσω στοχευμένων διαβουλεύσεων με τον ιδιωτικό τομέα, να κατανοήσουν σύνθετα τεχνικά και επιχειρηματικά θέματα, που σχετίζονται με τις εφαρμογές Τεχνητής Νοημοσύνης. Παράλληλα, ο ιδιωτικός τομέας θα πρέπει να εντείνει τις προσπάθειές του για επίτευξη συναίνεσης γύρω από τις αρχές διακυβέρνησης Τεχνητής Νοημοσύνης, έτσι ώστε να λαμβάνονται υπόψη οι απαιτήσεις και των δύο μερών, όσον αφορά το ρυθμιστικό πλαίσιο.
Με αφορμή τα ευρήματα της έρευνας, ο κος Ηλίας Βυζάς, Εταίρος στο Τμήμα Συμβουλευτικών Υπηρεσιών της EY Ελλάδος και Επικεφαλής για θέματα Τεχνολογικού Μετασχηματισμού και Αξιόπιστων Συστημάτων Τεχνητής Νοημοσύνης στην περιοχή της Ευρώπης, Μέσης Ανατολής, Ινδίας και Αφρικής (ΕΜΕΙΑ), σχολιάζει: «Η εξέλιξη της Τεχνητής Νοημοσύνης εγείρει μια σειρά από ζητήματα ηθικής, προσωπικών δεδομένων, διακυβέρνησης, ρυθμιστικού πλαισίου και, τελικά, εμπιστοσύνης της κοινωνίας. Η πρόσφατη παγκόσμια έρευνα της ΕΥ εντοπίζει σημαντικά ζητήματα, στα οποία οι αντιλήψεις και οι απόψεις του ιδιωτικού τομέα και των υπευθύνων χάραξης πολιτικής, διαφοροποιούνται. Είναι κρίσιμο, επιχειρήσεις και κυβερνήσεις να ευθυγραμμιστούν και να διαμορφώσουν από κοινού ένα πλαίσιο λειτουργίας και διακυβέρνησης, το οποίο θα βελτιώνει την εμπιστοσύνη της κοινωνίας προς τα συστήματα Τεχνητής Νοημοσύνης και θα επιτρέπει την απρόσκοπτη, αλλά και ηθική ανάπτυξη της τεχνολογίας αυτής».
Για την πλήρη έρευνα, πατήστε εδώ.