Το Generative AI (GenAI), συγκεκριμένα το ChatGPT, έπληξε την παγκόσμια τεχνολογική σκηνή σαν ένα τσουνάμι στα τέλη του 2022 – και οι επιπτώσεις αυτού του κύματος μόλις αυξήθηκαν όλο το 2023.
Αν και το GenAI δεν είναι ένα νέο εργαλείο, οι βελτιώσεις στην υπολογιστική ισχύ επέτρεψαν στα πιο πρόσφατα chatbots να αναδειχθούν στο επίκεντρο ως η επόμενη τεχνολογία που θα φέρει επανάσταση στον τρόπο ζωής και εργασίας μας. Αλλά μαζί με αυτό, έχουμε δει μια αντίδραση κατά της τεχνητής νοημοσύνης με έμφαση στους αντιληπτούς κινδύνους – ένας από αυτούς είναι η χρήση της τεχνητής νοημοσύνης για κακόβουλους σκοπούς, ιδιαίτερα για το έγκλημα στον κυβερνοχώρο.
Λόγω της ευρείας προσβασιμότητας, η GenAI έχει αναβαθμίσει τις δυνατότητες ηλεκτρονικού “ψαρέματος” των φορέων απειλών, καθιστώντας τις πολύ πιο αποτελεσματικές.
Νωρίτερα φέτος, η Darktrace δημοσίευσε έρευνα που καταδεικνύει ότι, ενώ ο αριθμός των επιθέσεων ηλεκτρονικού ψαρέματος σε όλη τη βάση πελατών της παρέμεινε σταθερός από την κυκλοφορία του ChatGPT, αυτές που βασίζονται στην εξαπάτηση των θυμάτων για να κάνουν κλικ σε κακόβουλους συνδέσμους έχουν μειωθεί. Ταυτόχρονα, η γλωσσική πολυπλοκότητα, συμπεριλαμβανομένου του όγκου του κειμένου, των σημείων στίξης και του μήκους των προτάσεων έχει αυξηθεί. Βρήκανε επίσης μια αύξηση 135 τοις εκατό στις «καινοφανείς επιθέσεις κοινωνικής μηχανικής» σε χιλιάδες ενεργούς πελάτες Darktrace/Email από τον Ιανουάριο έως τον Φεβρουάριο του 2023, που αντιστοιχεί στην ευρεία υιοθέτηση του ChatGPT.
Η τάση εγείρει ανησυχίες ότι το GenAI, όπως το ChatGPT, θα μπορούσε να παρέχει μια λεωφόρο στους παράγοντες απειλών για να δημιουργήσουν εξελιγμένες και στοχευμένες επιθέσεις σε ταχύτητα και κλίμακα – όπως ένα email που μοιάζει σαν να προέρχεται από το προιστάμενο της δουλειά με τη σωστή ορθογραφία, γραμματική και στίξη. και τον τόνο.
Πώς εξελίσσεται το τοπίο των ηλεκτρονικών μηνυμάτων τεχνητής νοημοσύνης
Πιο πρόσφατα, μεταξύ Μαΐου και Ιουλίου του τρέχοντος έτους, το Darktrace έχει δει αλλαγές σε επιθέσεις που καταχρώνται την εμπιστοσύνη. Το κακόβουλο μήνυμα ηλεκτρονικού ταχυδρομείου δεν φαίνεται πλέον ότι προήλθε από τον προιστάμενο, φαίνεται ότι προήλθε από την ομάδα IT. Οι ερευνητές ανακάλυψαν ότι ενώ η πλαστοπροσωπία των μηνυμάτων λεκτρονικού ψαρέματος που μιμούνται ανώτερα στελέχη – μειώθηκε κατά 11 τοις εκατό, ενώ η πλαστοπροσωπία της εσωτερικής ομάδας πληροφορικής αυξήθηκε κατά 19 τοις εκατό.
Οι αλλαγές είναι χαρακτηριστικές της συμπεριφοράς του επιτιθέμενου: αλλαγή τακτικής για αποφυγή άμυνας.
Τα ευρήματα υποδηλώνουν ότι καθώς οι εργαζόμενοι έχουν προσαρμοστεί καλύτερα στην πλαστοπροσωπία των ανώτερων στελεχών, οι επιτιθέμενοι στρέφονται στην πλαστοπροσωπία των ομάδων πληροφορικής για να εξαπολύσουν τις επιθέσεις τους. Έχοντας το GenAI στα χέρια τους, μπορεί να δούμε το πρόβλημα να αναπτύσσονται με εργαλεία που συμβάλλουν στην αύξηση της γλωσσικής πολυπλοκότητας και εξαιρετικά ρεαλιστικές απομιμήσεις φωνής που χρησιμοποιούνται για να ξεγελάσουν τους υπαλλήλους με μεγαλύτερη επιτυχία.
Το ηλεκτρονικό ταχυδρομείο παραμένει η κύρια πηγή ευπάθειας των επιχειρήσεων, η τεχνητή νοημοσύνη έχει προσθέσει ένα νέο επίπεδο πολυπλοκότητας στην άμυνα στον κυβερνοχώρο. Καθώς το GenAI γίνεται πιο mainstream – σε εικόνες, ήχο, βίντεο και κείμενο – μπορούμε μόνο να περιμένουμε ότι η εμπιστοσύνη στις ψηφιακές επικοινωνίες συνεχίζει να διαβρώνεται.
Δεν είναι όλα καταστροφή : Η τεχνητή νοημοσύνη μπορεί επίσης να αξιοποιηθεί για τα καλά
Ενώ γίνεται πολύς λόγος και εικασίες για τις αρνητικές πτυχές της τεχνητής νοημοσύνης και της ασφάλειας, είναι σημαντικό να θυμόμαστε ότι καμία τεχνητή νοημοσύνη δεν είναι εγγενώς κακή, αλλά ο τρόπος με τον οποίο οι άνθρωποι την εφαρμόζουν μπορεί να δημιουργήσει άσχημα αποτελέσματα, όπως η κατάχρηση από επιτιθέμενους στον κυβερνοχώρο. Αλλά είναι πολύ σημαντικό, οι άνθρωποι – συγκεκριμένα, οι ομάδες ασφάλειας στον κυβερνοχώρο – μπορούν να αυξηθούν με AI για τα καλά, για να βοηθήσουν στην καταπολέμηση των επιθέσεων στον κυβερνοχώρο, είτε τροφοδοτούνται από AI είτε όχι.
Τελικά, η μάχη για την ασφάλεια στον κυβερνοχώρο εξακολουθεί να είναι άνθρωπος εναντίον ανθρώπου. Ανεξάρτητα από το αποτέλεσμα, υπάρχει ένα πραγματικό πρόσωπο, ένας απαίσιος παράγοντας απειλής, που κινείται πίσω από μια οθόνη – η τεχνητή νοημοσύνη είναι στην πραγματικότητα άψογη. Πρέπει να διασφαλίσουμε ότι οι ομάδες ασφαλείας, να στηρίζουν τις ελπίδες στην τεχνητή νοημοσύνη για να βοηθήσουν στην επίλυση των προβλημάτων ασφαλείας , και όχι να την βλέπουν απλώς ως φορέα απειλής. Εάν μπορούμε να το πετύχουμε συλλογικά, έχουμε μια ευκαιρία να πολεμήσουμε ενάντια σε απειλές που τροφοδοτούνται από το AI.
Πηγή άρθρου: https://australiancybersecuritymagazine.com.au/