Przyszłość cyberbezpieczeństwa w rękach sztucznej inteligencji
W ostatnich latach technologie oparte o sztuczną inteligencje zyskują coraz więcej zwolenników. Z powodzeniem technologię te wykorzystują biolodzy, lekarze i inżynierowie na całym świecie. Nie do podważenia jest też rola sztucznej inteligencji w rozwoju bezpieczeństwa cybernetycznego.
Doskonałym przykładem wykorzystania AI do walki z cyberprzestępczością jest rozwiązanie Darktrace. Platforma Cyber AI wykorzystuje algorytmy sztucznej inteligencji do ochrony sieci korporacyjnych przed atakami. Dzięki zastosowaniu uczenia maszynowego, Darktrace wykrywa i neutralizuje dotąd nieznane zagrożenia we wszystkich typach sieci.
Wykorzystanie sztucznej inteligencji zrewolucjonizowało bezpieczeństwo IT. Czy to jednak koniec walki o cyberprzestrzeń?
Od kilku lat niezmiennie najpopularniejszą formę atak stanowią phishing i spear-phishing. W przypadku spear-phishingu atakujący poświęcają wiele czasu zanim przystąpią do działania. Muszą dokonać dokładnej rewizji środowiska wybranej ofiary (w tym przegląd mediów społecznościowych, zarówno prywatnych jak i biznesowych). Jest to zabieg czasochłonny i kosztowny, ale na pewno bardzo skuteczny. Gdyby prace ludzką w projektowaniu szkodliwego mailingu zastąpić złośliwą sztuczną inteligencją, efekt mógłby być zatrważający.
Hipotetycznie: E-wiadomość wysłana przez złośliwą AI o wiele łatwiej przenika do wybranych struktur firmowych niż tradycyjny phishing. Złośliwe oprogramowanie napędzane przez sztuczną inteligencję omija nawet najbardziej zaawansowane systemy obronne i niezauważone wtapia się w normalną aktywność. W ten sposób złośliwe oprogramowanie pozostaje nieuchwytne i „po cichu” skanuje sieć w poszukiwaniu słabych punktów. Następnie szkodliwe AI samodzielnie odnajduje czułe punkty i przenika do wrażliwych danych zainfekowanej organizacji.
Podsumowując
Atak przeprowadzony z udziałem sztucznej inteligencji może być bardzo precyzyjny i wręcz niemożliwy do wykrycia. Dodatkowo szacuje się, że czas skonstruowania takiego maila jest kilkakrotnie krótszy niż standardowy email phishing. Sztuczna inteligencja staje się coraz bardziej wyrafinowana w swojej zdolności do modelowania ludzkich zachowań. W związku z tym, musimy ponownie przemyśleć nasze podejście do bezpieczeństwa cybernetycznego, aby w przyszłości lepiej bronić się przed „inteligentnymi napastnikami”.
Rozwój sztucznej inteligencji nabiera zaskakującego tempa. Niedawno machine learning stał się zdolny do generowania i modyfikowania obrazów i wideo. Twarz generowana przez sztuczną inteligencję wykorzystuje sieci neuronowe do tworzenia fałszywych obrazów (GAN). Technologia ta kryje się pod nazwą deepfakes. Deepfakes mnożą się w Internecie przybierając formę wysokiej rozdzielczości zdjęć ludzi, którzy naprawdę nie istnieją.
Podczas gdy GAN są wykorzystywane głównie do tworzenia fałszywychobrazów i wideo – te same lub bardzo podobne technologie są już wykorzystywane do złośliwych celów. Tak jak AI produkuje deepfake’y, tak sztuczna inteligencja zastosowana podczas kampanii spear-phishingowych może produkować e-maile, które wyglądają i brzmią dokładnie tak samo jak prawdziwe wiadomości z wiarygodnego źródła. Rezultatem jest prawie pewna metoda oszukiwania niczego nieświadomych ofiar.
Wchodzimy w nową erę technologiczną, w której sztuczna inteligencja oprócz pozytywnego zastosowania, staje się jednocześnie niebezpieczną bronią w rękach cyberprzestępców. Jedyną technologią, która będzie w stanie przeciwdziałać złośliwej AI – jest sama AI.
Organizacje na całym świecie coraz częściej poszukują rozwiązań opartych o cybernetyczną inteligencję do ochrony przed niepewną przyszłością. Firma Darktrace dostarcza rozwiązania oparte o tą nowoczesną i obecnie bardzo pożądaną technologię AI. Darktrace podaje, że liczba klientów korzystających z rozwiązania do inteligentnej ochrony poczty elektronicznej – Antigena Email, od stycznia 2020 roku wzrosła dwukrotnie.
Zdolność Antigena Email do odróżniania złośliwych wiadomości e-mail od legalnej komunikacji biznesowej oraz powstrzymywania tych wiadomości przed dotarciem do skrzynki odbiorczej pracownika – nigdy nie była bardziej krytyczna. Technologia ta, napędzana przez cyberinteligencję, po wdrożeniu w struktury firmy uczy się „normalnych zachowań” pracowników i procesów jakie w niej zachodzą. Pozwala to na wykrywanie i zatrzymywanie wszelkich anomalii oraz nietypowych działań, które mogą poważnie zaszkodzić infrastrukturze firmy.
Podsumowując, technologie oparte o sztuczną inteligencję – to przyszłość naszego cybernetycznego świata. Tylko od nas zależy, czy wykorzystamy AI do ochrony naszych firm, czy też padniemy jej ofiarą.
Jeśli masz pytania dotyczące rozwiązania Darktrace – zapraszamy do kontaktu z nami.
Źródło: https://www.wired.com/brandlab/2020/02/offensive-ai-surfacing-truth-age-digital-fakes/
Czytaj więcej