Με τις τεχνολογίες τεχνητής νοημοσύνης (ΑΙ) να επιταχύνουν το μετασχηματισμό των επιχειρήσεων και την αύξηση των αποφάσεων που διαμορφώνονται από αλγόριθμους μηχανικής μάθησης, η υπεύθυνη χρήση των ισχυρών αυτών εργαλείων αναδεικνύεται σε προτεραιότητα ύψιστης σημασίας. Επιπλέον, η ύπαρξη κατάλληλης διακυβέρνησης είναι αναγκαία για την επίτευξη των επιθυμητών αποτελεσμάτων.
Η KPMG, με στόχο να βοηθήσει τις εταιρείες να διαχειριστούν και να αναπτύξουν την τεχνητή νοημοσύνη με υπεύθυνο τρόπο, δημιούργησε το AI In Control, ένα πλαίσιο που υποστηρίζεται από μια σειρά μεθόδων, εργαλείων και αξιολογήσεων και βοηθάει τις εταιρείες να παράγουν αξία από τις τεχνολογίες ΑΙ, ενώ επιτυγχάνει επιτακτικούς στόχους, όπως η ακεραιότητα, η λογοδοσία, η δικαιοσύνη και η ευελιξία των αλγόριθμων.
Όλο και πιο συχνά, οι αλγόριθμοι λαμβάνουν κρίσιμες αποφάσεις που επηρεάζουν τη ζωή μας. Η ευρεία τους διάδοση δημιουργεί στην κοινωνία την απαίτηση από τις τεχνολογίες ΑΙ να είναι αξιόπιστες και ηθικά ορθές, σύμφωνα με τον καθηγητή Sander Klous, PhD, global lead του προγράμματος ΑΙ In Control της KPMG και Partner της KPMG Ολλανδίας.
«Με πολλές εταιρείες να έχουν ήδη μπει στο δρόμο του ψηφιακού μετασχηματισμού, τα περισσότερα στελέχη που ηγούνται της προσπάθειας δεν εμπιστεύονται τις αναλύσεις στις οποίες βασίζονται οι αποφάσεις εντός των εταιρειών τους[1]», σημειώνει ο καθηγητής Klous. «Η αυξανόμενη επίγνωση της ανάγκης για εμπιστοσύνη στις αποφάσεις που παράγει η τεχνητή νοημοσύνη, επικεντρώνεται πλέον στις εταιρείες που αναπτύσσουν αυτές τις τεχνολογίες και την ευθύνη τους να διασφαλίσουν ποιότητα και ακεραιότητα. Αυτή οφείλει να είναι και η προτεραιότητα για τα εκτελεστικά και τα εποπτικά όργανα των εταιρειών αυτών».
Η Cathy O’Neil, μαθηματικός και συγγραφέας του βιβλίου “Weapons of Math Destruction” και Διευθύνουσα Σύμβουλος της O’Neil Risk Consulting and Algorithmic Auditing, Inc. (ORCAA) δηλώνει σχετικά: «Είναι ευχαρίστησή μας να συνεργαζόμαστε με την KPMG στο θέμα της διαχείρισης αλγόριθμων. Η συνεργασία αυτή θα μας επιτρέψει να εστιάσουμε στη δεοντολογία και τη λογοδοσία, αλλά και να κλιμακώσουμε τη διαδικασία ελέγχου των αλγορίθμων αξιοποιώντας την εμπειρία της KPMG στους κινδύνους της τεχνολογίας και στη διακυβέρνηση. Υπάρχει επείγουσα ανάγκη για διαχείριση της μεροληψίας, της δικαιοσύνης και της λογοδοσίας σε ολόκληρο το τοπίο της τεχνητής νοημοσύνης. Συνεργασίες αυτής της μορφής αποτελούν σημαντικό βήμα για την αντιμετώπιση των θεμάτων αυτών».
Το προϊόν AI in Control της KPMG χρησιμοποιεί ένα πλαίσιο ως οδηγό για τις εταιρείες κατά τον εξελικτικό κύκλο ζωής της τεχνητής νοημοσύνης (ΤΝ), από την κατάρτιση στρατηγικής ως την εκτέλεση και την εξέλιξη.
Το πλαίσιο αυτό περιλαμβάνει μεθοδολογίες, εργαλεία και προτεινόμενους ελέγχους ώστε ένα πρόγραμμα ΤΝ να επιφέρει καλύτερα επιχειρηματικά αποτελέσματα μέσω των παρακάτω παραμέτρων:
Διακυβέρνηση Τεχνητής Νοημοσύνης – βασικά χαρακτηριστικά:
- Σχεδιάζει και διαμορφώνει κριτήρια για τη δημιουργία και συνεχή παρακολούθηση καθώς και τον έλεγχο των λύσεων ΤΝ και της απόδοσής τους, χωρίς να παρεμποδίζονται η καινοτομία και η ευελιξία.
Αξιολόγηση Τεχνητής Νοημοσύνης – βασικά χαρακτηριστικά:
- Διεξάγει διαγνωστικούς ελέγχους των λύσεων ΤΝ και εκτιμήσεις κινδύνου σε περιβάλλοντα ελέγχου ώστε να καθορίζει την επιχειρησιακή ετοιμότητα για τον αποτελεσματικό έλεγχο της ΤΝ.
- Παρέχει μεθόδους και εργαλεία για την αξιολόγηση αλγορίθμων κρίσιμων για τις επιχειρήσεις, θεσπίζει δοκιμαστικούς ελέγχους και επιβλέπει τη σχεδίαση, την εφαρμογή και τη λειτουργία προγραμμάτων τεχνητής νοημοσύνης για την αντιμετώπιση των εγγενών προκλήσεων της ΤΝ: ακεραιότητα, την επεξήγηση, δικαιοσύνη και ευελιξία.
AI In Control για το δήμο του Άμστερνταμ
Η KPMG Ολλανδίας σήμερα συνεργάζεται με το δήμο του Άμστερνταμ για την αξιολόγηση μιας ψηφιοποιημένης δημοτικής υπηρεσίας, η οποία θα ενισχύσει την εμπιστοσύνη των δημοτών σε μια ασφαλή και φροντισμένη πόλη και θα βοηθήσει το δήμο στην αποστολή του να προστατέψει τα ψηφιακά δικαιώματα των πολιτών.
Το έργο αυτό αποτελεί μέρος της νέας ψηφιακής ατζέντας της Αντιδημάρχου του Άμστερνταμ, Touria Meliani, που πρόκειται να ανακοινωθεί τις επόμενες εβδομάδες. Οι δεοντολογικές κατευθυντήριες γραμμές δημιουργήθηκαν σε συνεργασία με επιστήμονες από το Πανεπιστήμιο του Άμστερνταμ, και αποτελεί ένα παράδειγμα του Συνασπισμού των Δήμων για τα Ψηφιακά Δικαιώματα (Cities Coalition for Digital Rights) που ίδρυσαν πρόσφατα ο δήμος του Άμστερνταμ, η Βαρκελώνη και η Νέα Υόρκη, σύμφωνα με τον Ger Baron, Υπεύθυνο Τεχνολογίας του δήμου του Άμστερνταμ.
«Το Άμστερνταμ είναι μία από τις μεγάλες πόλεις του κόσμου που βρίσκεται σε διαδικασία ψηφιακού μετασχηματισμού» σημειώνει ο Baron. «Στόχος μας είναι να προστατέψουμε τα ψηφιακά δικαιώματα των πολιτών μας και έχουμε ευθύνη να εφαρμόζουμε διαφάνεια και συμμετοχικότητα στους αλγόριθμους μηχανικής μάθησης που χρησιμοποιούμε για να υποστηρίξουμε τις δημοτικές υπηρεσίες και τα προγράμματά μας».
Το σύστημα διαχείρισης ζητημάτων που αφορούν στους δημόσιους χώρους του Άμστερνταμ δίνει τη δυνατότητα στους δημότες να υποβάλλουν εύκολα ηλεκτρονικά αιτήματα για υπηρεσίες σχετικές με ζητήματα όπως τα σκουπίδια στο δρόμο – ο αλγόριθμος αναγνωρίζει το είδος του ζητήματος και την κατάλληλη δημοτική υπηρεσία που θα ανταποκριθεί. Στο άμεσο μέλλον η εφαρμογή θα προσδιορίζει και το επίπεδο προτεραιότητας των ζητημάτων. Χάρη στη μηχανική μάθηση με το πέρασμα του χρόνου θα βελτιωθεί επίσης η ικανότητα λήψης αποφάσεων του αλγόριθμου.
Οι δυνητικοί κίνδυνοι είναι συνυφασμένοι με την μεροληψία των μηχανών. Για παράδειγμα, δεδομένα όπως η γεωγραφική τοποθεσία του ζητήματος θα μπορούσαν ακούσια να οδηγήσουν σε μοντέλα μάθησης τα οποία σταδιακά ο αλγόριθμος θα χρησιμοποιούσε ως κανόνα, εξάγοντας πιθανότατα λάθος συμπεράσματα και λαμβάνοντας αποφάσεις με στρεβλώσεις. Η εφαρμογή AI In Control επιτρέπει την αποτελεσματική αξιολόγηση του πλαισίου διαχείρισης κινδύνων του δήμου για την παρακολούθηση των διαδικασιών, παρέχοντας συνεχή έλεγχο των εξελισσόμενων εφαρμογών τεχνητής νοημοσύνης.
Σύμφωνα με τον Martin Sokalski, Global Emerging Technology Risk network leader και Principal της KPMG ΗΠΑ: «Οι πραγματικές δυνατότητες της τεχνητής νοημοσύνης θα ξεκλειδωθούν μόλις υπάρξει μεγαλύτερη εμπιστοσύνη και διαφάνεια. Αυτό θα επιτευχθεί ενσωματώνοντας θεμελιακές επιταγές για τα προγράμματα ΑΙ όπως η ακεραιότητα, η λογοδοσία/επεξήγηση, η δικαιοσύνη και η ευελιξία, οι οποίες αποτελούν και τη φιλοσοφία που διέπει το προϊόν μας».
1 Μόλις 35% των στελεχών δηλώνουν ότι έχουν υψηλά επίπεδα εμπιστοσύνης στη χρήση των αναλύσεων από την εταιρεία τους, The Guardians of Trust, Φεβρουάριος 2018, KPMG International