Chatbot, ηλεκτρονικό “ψάρεμα”, ψευδή στοιχεία, απάτη, επίθεση. Πώς θα διαχωριστεί ο άνθρωπος από την τεχνητή νοημοσύνη; Θα έχει ευθύνες ο ιδιοκτήτης του μηχανήματος; Πώς ορίζεται το ασφαλιστικό συμβάν; Τι απαντά μελέτη των Lloyds που δόθηκε στην δημοσιότητα την περασμένη εβδομάδα.

της Ελενας Ερμείδου (μέρος α’)

H τεχνολογία της τεχνητής νοημοσύνης (ΑΙ) δεν είναι νέα, είναι πάνω από 60 ετών. Ξεκίνησε να γίνεται γνωστή στους κόλπους της ακαδημαϊκής κοινότητας και μόλις τα τελευταία χρόνια άρχισε να υιοθετείται σε πολλούς άλλους επιχειρηματικούς τομείς, όπως στην διάγνωση ιατρικών συνθηκών, στη σάρωση νομικών εγγραφών, στην γεωργία, την αυτοκινητοβιομηχανία. Λόγω της πολυπλοκότητας εγείρονται ηθικά, δεοντολογικά, νομικά, ρυθμιστικά ερωτήματα στα οποία απαντήσεις επιχειρούνται να δοθούν από τα Lloyds του Λονδίνου. Οι προκλήσεις θα είναι πολλές και οι επιχειρηματικές ευκαιρίες επίσης. Η μετάβαση, πάντως από την συμβατική στην τεχνολογία της τεχνητής νοημοσύνης δεν θα είναι απλή υπόθεση.

Η νέα μελέτη των Lloyds εξετάζει τους κινδύνους και τις επιχειρηματικές ευκαιρίες για τους ασφαλιστές και το κλάδο μελετώντας τον συνδυασμό της τεχνολογίας τεχνητής νοημοσύνης με την τεχνολογία 5G η οποία επιτρέπει την συλλογή όγκου δεδομένων για την τροφοδότηση των συστημάτων τεχνητής νοημοσύνης.

Κίνδυνοι που απορρέουν από την τεχνολογία

Αβεβαιότητα

Υπάρχουν κίνδυνοι σε ό,τι αφορά την  υιοθέτηση της Τεχνητής Νοημοσύνης, καθώς το είδος αυτό της τεχνολογίας “πλέεi” σε άγνωστα.  Είναι κατανοητοί οι φόβοι που εκφράζουν όλοι οι ενδιαφερόμενοι και οι ρυθμιστικές αρχές.

Δεοντολογία

Η “δράση” των μηχανών εξαρτάται από τις μεγάλες συλλογές δεδομένων από τα οποία εξάγεται η γνώση μέσω κωδικοποίησης των ιστοριών. Εντούτοις, μέσα σε αυτές τις ιστορίες υπάρχουν προκαταλήψεις, μεροληπτικές θέσεις και κοινωνικές.  Συνεπώς, η τεχνητή νοημοσύνη εξαρτάται από τις πληροφορίες που έχουν δοθεί κάτι και το οποίο μπορεί ενεργήσει κατά των ανθρωπίνων συμφερόντων.

Εμπιστοσύνη και διαφάνεια

Η διαφάνεια της διαδικασίας λήψης αποφάσεων και η ικανότητα κατανόησης του τρόπου με τον οποίο ο μηχανισμός τεχνητής νοημοσύνης κατέληξε σε συγκεκριμένο συμπέρασμα θα είναι το κλειδί για την ανάπτυξη εμπιστοσύνης στην τεχνολογία.

Ευθύνη

Μια άλλη σημαντική πρόκληση είναι η νομική κατάσταση των συστημάτων και υπηρεσιών της τεχνητής νοημοσύνης. Αν και μπορεί να γίνουν πολλά στην διαχείριση των δεδομένων και στο τρόπου που αυτά περνάνε από τους μηχανικούς στην τεχνητή νοημοσύνη, θα πρέπει να υπάρξουν ισχυρά νομικά πλαίσια για τον ορισμό της ευθύνης.

Σε γενικές γραμμές, ο κατασκευαστής ενός προϊόντος ευθύνεται για ελαττώματα που προκαλούν ζημιές στους χρήστες. Ωστόσο, στην περίπτωση της τεχνητής νοημοσύνης ,οι αποφάσεις δεν είναι συνέπεια του σχεδιασμού, αλλά της ερμηνείας της πραγματικότητας από μια μηχανή.

Ασφάλεια

Αξίζει να σημειωθεί ότι η τεχνητή νοημοσύνη αποτελεί επίσης μια νέα διάσταση στην ασφάλεια του κυβερνοχώρου καθώς μπορεί να μάθει και να αντιδρά σε απειλές πολύ πιο γρήγορα από τις παραδοσιακές μεθόδους που χρησιμοποιούνται από τα παλαιότερα προϊόντα ασφαλείας. Ωστόσο, οι εγκληματίες αρχίζουν επίσης να χρησιμοποιούν την τεχνητή νοημοσύνη για να μάθουν πώς να διεξάγουν όλα τα στάδια μιας τυπικής επίθεσης: από την αναγνώριση μέχρι τη δημιουργία μιας συγκεκριμένης επίθεσης.

Καθώς αυτά τα συστήματα καθίστανται πιο πολύπλοκα και εσωτερικά συνδεδεμένα, οι παραβιάσεις της ασφάλειας (cyber) θα αποκτήσουν μεγαλύτερο οικονομικό αντίκτυπο.

Αντίκτυπος στις ασφάλειες

Η έκθεση εντοπίζει τις συνέπειες για την ανάκληση προϊόντων, την ευθύνη των τρίτων για τα αυτοκίνητα, τις αποζημιώσεις, τα ιατρικά λάθη, τον κυβερνοχώρο, την πιστότητα και τους πολιτικούς κινδύνους.

Ευθύνη προϊόντος και ανάκληση προϊόντος

Υπάρχουν πολλοί τρόποι με τους οποίους ένα προϊόν που εξαρτάται από την τεχνολογία τεχνητής νοημοσύνης μπορεί να επηρεάσει την ευθύνη και ανάκληση προϊόντος.

Παραδείγματα περιλαμβάνουν:

  • Μια νέα κατάσταση στην οποία η τεχνητή νοημοσύνη δεν έχει προγραμματιστεί να αντιμετωπίσει, προκαλώντας βλάβη ή δυσλειτουργία.
  • Τα ελαττώματα του προϊόντος θα μπορούσαν να προκύψουν από σφάλματα επικοινωνίας μεταξύ δύο μηχανών ή μεταξύ μηχανής και υποδομής.

Ευθύνες:  οι μηχανές τεχνητής νοημοσύνης δεν μπορούν να ευθύνονται για αμέλειες πράξεις ή παραλείψεις που προκαλούν ζημιές σε τρίτους. Το ερώτημα που προκύπτει είναι “Ποιος είναι υπεύθυνος όταν μια μηχανή διαπράξει αστικό λάθος;”.

Οι κατασκευαστές / πωλητές προϊόντων, οι σχεδιαστές / προμηθευτές και όσοι αγοράζουν τεχνητή νοημοσύνη θα μπορούν να προσαχθούν  στα δικαστήρια για  ευθύνες. Αυτό σημαίνει ότι οι περισσότερες εταιρείες θα πρέπει να αγοράσουν περισσότερες συμβατικές εγγυήσεις και ευθύνες για να καλύψουν τους κινδύνους ευθύνης τεχνητής νοημοσύνης.

Αστική ευθύνη αυτοκινήτου

Η ανάθεση και η κάλυψη της ευθύνης θα γίνουν πιο προκλητικές στο μέλλον λόγω της πιθανής μετατόπισης της ευθύνης από τους ανθρώπινους οδηγούς στα αυτοματοποιημένα οχήματα (AV) και συνεπώς στους κατασκευαστές.

Υπάρχει επίσης δυναμική για διαφορετικές νομικές και ρυθμιστικές απαντήσεις σε διάφορες χώρες, δημιουργώντας ένα περίπλοκο διεθνές περιβάλλον κινδύνου.

Ιατρική αμέλεια

Υπάρχουν διάφοροι τρόποι με τους οποίους θα μπορούσε να προκύψει αμέλεια. Η τεχνητή νοημοσύνη χρησιμοποιείται για τη διάγνωση των συνθηκών και εφαρμόζεται σε τομείς όπως οι ακτίνες.  Εάν ένα σφάλμα οδηγεί σε λανθασμένη διάγνωση ή ψευδώς θετικό αποτέλεσμα, αυτό θα μπορούσε να ισοδυναμεί με αμέλεια.

– Ακόμη και αν η τεχνητή νοημοσύνη χρησιμοποιήθηκε βοηθητικά για παραπομπές, εάν αυτές οι παραπομπές προκάλεσαν έρευνες ή διαδικασίες που ήταν περιττές, επεμβατικές ή οδήγησαν σε φτωχότερα αποτελέσματα ασθενών τότε θα μπορούσε να προκύψει ευθύνη.

Cyber

Καθώς η τεχνολογία chatbot αναπτύσσεται, γίνεται όλο και πιο δύσκολο να διαχωριστεί ο άνθρωπος από την τεχνητή νοημοσύνη. Αυτό θα μπορούσε να διευκολύνει τη διεξαγωγή απάτης ηλεκτρονικού “ψαρέματος” και να κάνει ακόμα πιο δύσκολη την ανίχνευση.

-Αυτό εγείρει ερωτήματα σχετικά με το είδος των ασφαλιστικών καλύψεων που θα πρέπει να σχεδιαστούν από τέτοιου είδους κυβερνοεπιθέσεις. Επίσης θα πρέπει οριστεί προσεκτικά το είναι ασφαλιστικό συμβάν.

– Η ευθύνη τρίτων θα μπορούσε επίσης να καταστεί πιο περίπλοκη. Εάν ένας chatbot κάνει επίθεση, ο ιδιοκτήτης του θα μπορούσε να είναι υπεύθυνος αν δεν μπορέσει να δείξει ότι είχε λάβει εύλογα μέτρα ασφαλείας για να αποτρέψει μια τέτοια επίθεση να συμβεί.

Πιστότητα

Η δόλια δραστηριότητα των εργαζομένων θα μπορούσε να επιδεινωθεί με οποιαδήποτε από τις μεθόδους που αναφέρονται παραπάνω για το Cyber ​​. Οι ασφαλιστές πιστότητας θα πρέπει να θεωρούν ότι η απάτη μπορεί να προέρχεται όλο και περισσότερο από εργαζόμενους που έχουν πρόσβαση σε συστήματα πληροφορικής και όχι από υπαλλήλους με οικονομική εξουσία.

Πολιτικοί κίνδυνοι

Η πόλεμος της τεχνητής νοημοσύνης θα μπορούσε να λάβει πολλές μορφές, συμπεριλαμβανομένης της διαφθοράς των δεδομένων, της μεροληπτικής επιλογής δεδομένων και της παράνομης χρήσης δεδομένων που οδηγούν σε διάφορα αποτελέσματα, συμπεριλαμβανομένης της προπαγάνδας, της αλλαγής συμπεριφοράς και της εξαπάτησης.

Από την άποψη της κάλυψης των πολιτικών κινδύνων, η τεχνητή νοημοσύνη μπορεί να συμβάλει στη δημιουργία νέων ή επιδείνωσης των υφιστάμενων πολιτικών γεγονότων, όπως απαλλοτριώσεις, πολέμους, τρομοκρατικές ενέργειες, πολιτικές διαταραχές και άλλες μορφές πολιτικής βίας τόσο στις αναπτυσσόμενες όσο και στις αναπτυγμένες αγορές.

 

Insuranceworld.gr

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ