Przyszłość cyberbezpieczeństwa w rękach sztucznej inteligencji.

W ostatnich latach technologie oparte o sztuczną inteligencje zyskują coraz więcej zwolenników. Z powodzeniem technologię te wykorzystują biolodzy, lekarze i inżynierowie na całym świecie. Nie do podważenia jest też rola sztucznej inteligencji w rozwoju bezpieczeństwa cybernetycznego.  

Doskonałym przykładem wykorzystania AI do walki z cyberprzestępczością jest rozwiązanie Darktrace. Platforma Cyber AI wykorzystuje algorytmy sztucznej inteligencji do ochrony sieci korporacyjnych przed atakami. Dzięki zastosowaniu uczenia maszynowego, Darktrace wykrywa i neutralizuje dotąd nieznane zagrożenia we wszystkich typach sieci. 

Wykorzystanie sztucznej inteligencji zrewolucjonizowało bezpieczeństwo IT. Czy to jednak koniec walki o cyberprzestrzeń? 

Od kilku lat niezmiennie najpopularniejszą formę atak stanowią phishing spear-phishing. W przypadku spear-phishingu atakujący poświęcają wiele czasu zanim przystąpią do działania. Muszą dokonać dokładnej rewizji środowiska wybranej ofiary (w tym przegląd mediów społecznościowych, zarówno prywatnych jak i biznesowych). Jest to zabieg czasochłonny i kosztowny, ale na pewno bardzo skuteczny. Gdyby prace ludzką w projektowaniu szkodliwego mailingu zastąpić złośliwą sztuczną inteligencją, efekt mógłby być zatrważający.  

Hipotetycznie: E-wiadomość wysłana przez złośliwą AI o wiele łatwiej przenika do wybranych struktur firmowych niż tradycyjny phishing. Złośliwe oprogramowanie napędzane przez sztuczną inteligencję omija nawet najbardziej zaawansowane systemy obronne i niezauważone wtapia się w normalną aktywność. W ten sposób złośliwe oprogramowanie pozostaje nieuchwytne i „po cichu” skanuje sieć w poszukiwaniu słabych punktów. Następnie szkodliwe AI samodzielnie odnajduje czułe punkty i przenika do wrażliwych danych zainfekowanej organizacji.  

Podsumowując

Atak przeprowadzony z udziałem sztucznej inteligencji może być bardzo precyzyjny i wręcz niemożliwy do wykrycia. Dodatkowo szacuje się, że czas skonstruowania takiego maila jest kilkakrotnie krótszy niż standardowy email phishing. Sztuczna inteligencja staje się coraz bardziej wyrafinowana w swojej zdolności do modelowania ludzkich zachowań. W związku z tym, musimy ponownie przemyśleć nasze podejście do bezpieczeństwa cybernetycznego, aby w przyszłości lepiej bronić się przed „inteligentnymi napastnikami”. 

Rozwój sztucznej inteligencji nabiera zaskakującego tempa. Niedawno machine learning stał się zdolny do generowania i modyfikowania obrazów i wideo. Twarz generowana przez sztuczną inteligencję wykorzystuje sieci neuronowe do tworzenia fałszywych obrazów (GAN). Technologia ta kryje się pod nazwą deepfakesDeepfakes mnożą się w Internecie przybierając formę wysokiej rozdzielczości zdjęć ludzi, którzy naprawdę nie istnieją.  

Podczas gdy GAN są wykorzystywane głównie do tworzenia fałszywychobrazów i wideo – te same lub bardzo podobne technologie są już wykorzystywane do złośliwych celów. Tak jak AI produkuje deepfake’y, tak sztuczna inteligencja zastosowana podczas kampanii spear-phishingowych może produkować e-maile, które wyglądają i brzmią dokładnie tak samo jak prawdziwe wiadomości z wiarygodnego źródła. Rezultatem jest prawie pewna metoda oszukiwania niczego nieświadomych ofiar. 

Wchodzimy w nową erę technologiczną, w której sztuczna inteligencja oprócz pozytywnego zastosowania, staje się jednocześnie niebezpieczną bronią w rękach cyberprzestępców. Jedyną technologią, która będzie w stanie przeciwdziałać złośliwej AI – jest sama AI.  

Organizacje na całym świecie coraz częściej poszukują rozwiązań opartych o cybernetyczną inteligencję do ochrony przed niepewną przyszłością. Firma Darktrace dostarcza rozwiązania oparte o tą nowoczesną i obecnie bardzo pożądaną technologię AI. Darktrace podaje, że liczba klientów korzystających z rozwiązania do inteligentnej ochrony poczty elektronicznej – Antigena Email, od stycznia 2020 roku wzrosła dwukrotnie. 

Zdolność Antigena Email do odróżniania złośliwych wiadomości e-mail od legalnej komunikacji biznesowej oraz powstrzymywania tych wiadomości przed dotarciem do skrzynki odbiorczej pracownika – nigdy nie była bardziej krytyczna. Technologia ta, napędzana przez cyberinteligencję, po wdrożeniu w struktury firmy uczy się „normalnych zachowań” pracowników i procesów jakie w niej zachodzą. Pozwala to na wykrywanie i zatrzymywanie wszelkich anomalii oraz nietypowych działań, które mogą poważnie zaszkodzić infrastrukturze firmy. 

Podsumowując, technologie oparte o sztuczną inteligencję – to przyszłość naszego cybernetycznego świata. Tylko od nas zależy, czy wykorzystamy AI do ochrony naszych firm, czy też padniemy jej ofiarą. 

Jeśli masz pytania dotyczące rozwiązania Darktrace – zapraszamy do kontaktu z nami.

Źródło: https://www.wired.com/brandlab/2020/02/offensive-ai-surfacing-truth-age-digital-fakes/