Από Manu Santamaría Delgado
Το ChatGPT, το δημόσιο γεννητικό AI που κυκλοφόρησε τον Νοέμβριο του 2022, έχει προκαλέσει σημαντική ανησυχία σχετικά με τη δυνατότητα ενίσχυσης της σοβαρότητας και της πολυπλοκότητας των κυβερνοαπειλών. Πράγματι, αμέσως μετά την ανακοίνωση της κυκλοφορίας από την OpenAI , πολλοί ήταν οι ειδικοί ασφαλείας που πρόβλεψαν ότι είναι θέμα χρόνου η χρήση του AI chatbot από επιτιθέμενους για τη δημιουργία malware ή ακόμα και ενίσχυσης των επιθέσεων phishing.
Οι υποψίες επιβεβαιώθηκαν γρήγορα, καθώς ανακαλύφθηκε ότι οι κυβερνοεγκληματίες έχουν ήδη αρχίσει να χρησιμοποιούν αυτό το εργαλείο με βάση το μοντέλο γλώσσας AI GPT-3 για την αναπαραγωγή τύπων κακόβουλου λογισμικού και τη διάπραξη διαφορετικών τύπων επιθέσεων. Οι κυβερνοεγκληματίες χρειάζεται απλώς να έχουν ένα λογαριασμό OpenAI, τον οποίο μπορούν να δημιουργήσουν δωρεάν από τον ιστότοπό τους, και στη συνέχεια, να θέσουν ένα ερώτημα.
Τι μπορούν να κάνουν οι κυβερνοεγκληματίες με το ChatGPT;
Οι επιτιθέμενοι μπορούν να εκμεταλλευτούν την γεννητική τεχνητή νοημοσύνη του ChatGPT για να δημιουργήσουν κακόβουλη δραστηριότητα, συμπεριλαμβανομένων:
Απάτες phishing:
Οι απειλητικοί παράγοντες μπορούν να χρησιμοποιήσουν το μεγάλο μοντέλο γλώσσας- Large Language Model (LLM) του συστήματος ChatGPT για να απομακρυνθούν από τα καθολικά φορμάτ και να αυτοματοποιήσουν τη δημιουργία μοναδικών emails phishing ή spoofing, γραμμένων με τέλεια γραμματική και φυσικά μοτίβα λόγου που προσαρμόζονται σε κάθε στόχο. Αυτό σημαίνει ότι επιθέσεις email που δημιουργήθηκαν με τη βοήθεια της συγκεκριμένης τεχνολογίας δείχνουν πολύ πιο πειστικές, καθιστώντας πιο δύσκολο για τους αποδέκτες να τις ανιχνεύσουν και να αποφύγουν το κλικ που οδηγεί σε κακόβουλους συνδέσμους και ενδέχεται να περιέχουν malware.
Κλοπή ταυτότητας:
Εκτός από το phishing, κακόβουλοι δράστες μπορούν να χρησιμοποιήσουν το ChatGPT για να προσποιηθούν μια αξιόπιστη οντότητα, χάρη στη δυνατότητα της τεχνολογίας να αναπαράγει τον επιχειρησιακό τόνο και τον τρόπο επικοινωνίας με μία τράπεζα ή ενός φορέα και στη συνέχεια να εκμεταλλευτούν αυτά τα μηνύματα στα μέσα κοινωνικής δικτύωσης, σε SMS ή μέσω ηλεκτρονικού ταχυδρομείου για να αποκτήσουν πρόσβαση σε προσωπικές και χρηματοοικονομικές πληροφορίες των ανθρώπων. Κακόβουλοι δράστες μπορούν επίσης να γράψουν αναρτήσεις στα μέσα κοινωνικής δικτύωσης προσποιούμενοι διάσημους αξιοποιώντας αυτήν τη δυνατότητα.
Άλλες επιθέσεις κοινωνικής μηχανικής:
Οι επιθέσεις κοινωνικής μηχανικής μπορούν επίσης να πραγματοποιηθούν κάθε φορά που οι δράστες χρησιμοποιούν το μοντέλο για τη δημιουργία ψεύτικων προφίλ στα κοινωνικά μέσα, καθιστώντας τα πολύ ρεαλιστικά, και στη συνέχεια να απατούν τους ανθρώπους ώστε να κάνουν κλικ σε κακόβουλους συνδέσμους ή να τους πείσουν να μοιραστούν προσωπικές πληροφορίες.
Δημιουργία κακόβουλων bots:
Το ChatGPT μπορεί να χρησιμοποιηθεί για τη δημιουργία chatbots, καθώς διαθέτει ένα API που μπορεί να τροφοδοτήσει άλλες συνομιλίες. Το φιλικό προς το χρήστη περιβάλλον του, σχεδιασμένο για επωφελείς χρήσεις, μπορεί να χρησιμοποιηθεί για να εξαπατήσει ανθρώπους και να εκτελέσει πειστικές απάτες, καθώς και για να εξαπλωθεί ανεπιθύμητη αλληλογραφία ή να εκτελέσει επιθέσεις phishing.
Κακόβουλο Λογισμικό:
Το ChatGPT μπορεί να βοηθήσει στην εκτέλεση μιας εργασίας που συνήθως απαιτεί δεξιότητες υψηλού επιπέδου προγραμματισμού: τη δημιουργία κώδικα σε διάφορες γλώσσες προγραμματισμού. Το μοντέλο επιτρέπει στους κακόβουλους χρήστες με περιορισμένες ή και καθόλου δεξιότητες προγραμματισμού, να αναπτύξουν κακόβουλο λογισμικό. Το ChatGPT γράφει τον κώδικα απλά γνωρίζοντας ποια λειτουργικότητα θα πρέπει να έχει το κακόβουλο λογισμικό.
Αντίστοιχα, οι προηγμένοι κυβερνοεγκληματίες μπορούν να χρησιμοποιήσουν αυτήν την τεχνολογία για να καταστήσουν τις απειλές τους πιο αποτελεσματικές ή θέσουν εκτός λειτουργίας υπάρχοντα παραθυράκια ασφαλείας. Σε ένα περιστατικό που μοιράστηκε ένας εγκληματίας σε ένα φόρουμ, το ChatGPT χρησιμοποιήθηκε για να δημιουργήσει malware χρησιμοποιώντας έναν κώδικα βασισμένο σε Python που μπορεί να αναζητά, αντιγράφει και εξαγάγει 12 κοινούς τύπους αρχείων, όπως έγγραφα Office, PDF και εικόνες από ένα μολυσμένο σύστημα. Με άλλα λόγια, αν εντοπίσει ένα αρχείο που παρουσιάζει ενδιαφέρον, το malware το αντιγράφει σε έναν προσωρινό φάκελο, το συμπιέζει και το στέλνει μέσω web. Ο ίδιος ‘συγγραφέας’ malware έδειξε επίσης πώς χρησιμοποίησε το ChatGPT για να γράψει κώδικα Java, ώστε να κατεβάσει τον client PuTTY SSH και το telnet, αλλά και να το τρέξει στο σύστημα μέσω του PowerShell.
Προηγμένες απειλές απαιτούν προηγμένες λύσεις
Οι προηγμένες κυβερνοαπειλές πρέπει να αντιμετωπίζονται με λύσεις που είναι αντάξιες της πρόκλησης. Το WatchGuard EPDR συνδυάζει δυνατότητες προστασίας (EPP) και ανίχνευσης και απόκρισης (EDR) σε μια μόνο λύση. Χάρη στα νέα και αναδυόμενα μοντέλα τεχνητής νοημοσύνης μηχανικής μάθησης και βαθιάς γνώσης, το WatchGuard EPDR προστατεύει από προηγμένες απειλές, επίμονες προηγμένες απειλές (APTs), κακόβουλο λογισμικό zero day, κρυπτογραφημένο κακόβουλο λογισμικό, ψεύτικα email (phishing), rootkits, ευπάθειες μνήμης και επιθέσεις χωρίς κακόβουλο λογισμικό, ενώ παρέχει πλήρη ορατότητα και παρακολούθηση των συστημάτων και των δραστηριοτήτων, ανιχνεύοντας κακόβουλη δραστηριότητα που μπορεί να ξεγλιστρήσει από τις περισσότερες παραδοσιακές λύσεις antivirus.
Επίσης, παρακολουθεί συνεχώς όλες τις εφαρμογές και ανιχνεύει κακόβουλη συμπεριφορά, ακόμα και αν προέρχεται από νόμιμες εφαρμογές. Είναι επίσης ικανό να οργανώνει μια αυτοματοποιημένη αντίδραση και, ανταλλάζοντας πληροφορίες μέσω δεικτών προηγούμενης επίθεσης, να επιτρέπει την πλήρη έρευνα κάθε προσπάθειας επίθεσης μέσω προηγμένων δεικτών επίθεσης (IoA).
Συνολικά, η καινοτομία ενός εργαλείου όπως το ChatGPT μπορεί να είναι θετική για τον κόσμο και να αλλάξει τα τρέχοντα παραδείγματα, αλλά μπορεί επίσης να προκαλέσει σοβαρές ζημιές εάν πέσει στα λάθος χέρια. Έχοντας την κατάλληλη λύση κυβερνοασφάλειας, μπορούμε να αποτρέψουμε την αρνητική χρήση όλων αυτών των πολλά υποσχόμενων εργαλείων από το να φτάσουν στην εταιρεία σας μέσω της κακής χρήσης που ενδέχεται να κάνουν οι κακόβουλοι χρήστες.
Εάν θέλετε να μάθετε περισσότερα σχετικά με το ChatGPT και τους πιθανούς κινδύνους για την ασφάλεια στον κυβερνοχώρο από κακή χρήση, μπορείτε να ακούσετε τα παρακάτω podcasts της ομάδας του WatchGuard Threat Lab: