Tag: sztuczna inteligencja

AI Act, czyli sztuczna inteligencja pod kontrolą. Jak nowe rozporządzenie wpłynie na pracę z systemami AI
10.10.2025
Integrity Partners

AI Act, czyli sztuczna inteligencja pod kontrolą. Jak nowe rozporządzenie wpłynie na pracę z systemami AI?

Sztuczna inteligencja staje się kluczowym narzędziem wykorzystywanym w biznesie i codziennym życiu. Jednocześnie stawia przed nami fundamentalne pytania o etykę, bezpieczeństwo danych i kontrolę nad technologią. W odpowiedzi na nie Unia Europejska wprowadza AI Act, czyli rozporządzenie, które ma uregulować systemy AI. Czym dokładnie jest AI Act, kogo dotyczy i jakie wyzwania stawia przed firmami oraz użytkownikami? 

Czym jest AI Act i o co w nim chodzi?

AI Act, czyli Akt o sztucznej inteligencji, to rozporządzenie Unii Europejskiej, które reguluje zasady rozwoju, wprowadzania na rynek oraz korzystania z systemów sztucznej inteligencji (AI). Ma zagwarantować, że systemy AI rozwijane i używane w UE są bezpieczne, przejrzyste, odpowiedzialne i respektują wartości etyczne. 

W Polsce, za nadzór i egzekwowanie przepisów AI Act odpowiadać będzie nowo powołana instytucja. To Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRIBSI).

Jak podkreśla w podkaście „NIEbezpieczne rozmowy” na kanale IntegriTV Michał Jaworski, National Technology Officer w Microsoft – celem AI Act, tak jak i innych europejskich praw, jest ochrona fundamentalnych praw człowieka. To ważne w przypadku sztucznej inteligencji, bo jest to technologia, która może wpływać na to, jak człowiek jest postrzegany, w jaki sposób zdobywa pracę czy jest oceniany. Ważne jest to, aby te procesy spełniały pewne warunki, żeby ta ocena była fair i żeby nie było dyskryminacji. Liczy się także możliwość zdobycia informacji, co wpłynęło na taką, a nie inną ocenę.

Fundamentalne prawa człowieka a sztuczna inteligencja 

Fundamentalne prawa człowieka stanowią podstawę Unii Europejskiej i zapisane są m.in. w Karcie Praw Podstawowych Unii Europejskiej. Obejmują szeroki zakres wartości, takich jak godność ludzka czy prawo do prywatności i ochrony danych osobowych. Dodatkowo niedyskryminacja, wolność słowa, prawo do sprawiedliwego procesu, prawo do edukacji, pracy czy dostęp do opieki zdrowotnej.

W kontekście sztucznej inteligencji ochrona tych praw staje się kluczowa, ponieważ systemy AI, ze względu na swoją autonomię, złożoność i zdolność do przetwarzania ogromnych ilości danych, mogą potencjalnie dyskryminować, naruszać prywatność, podejmować decyzje oparte na niejasnych kryteriach czy naruszać wolność słowa.

– Algorytmy AI mogą nieumyślnie lub celowo powielać i wzmacniać istniejące uprzedzenia społeczne. To z kolei może prowadzić do dyskryminacji w procesie rekrutacji czy udzielania kredytów. Dodatkowo systemy AI często przetwarzają dane osobowe na dużą skalę, stwarzając ryzyko naruszenia prywatności i profilowania bez świadomej zgody użytkownika – mówi Michał Gołębiewski, Cloud Business Unit Director w Integrity Partners.

Systemy AI mogą być również wykorzystywane do manipulowania informacjami, tworzenia deepfake’ów czy automatycznej cenzury, co zagraża wolności wypowiedzi i demokratycznej debacie. AI Act ma zapobiegać tym zagrożeniom, narzucając konieczność dostosowania systemów AI do odpowiednich wymogów.

Kogo dotyczy AI Act?

AI Act reguluje działalność gospodarczą i publiczną związaną ze sztuczną inteligencją. Oznacza to, że dotyczy przede wszystkim firm i organizacji, które są dostawcami narzędzi opartych na sztucznej inteligencji. Czyli tworzą je i wprowadzają na rynek, lub podmiotami je stosującymi, czyli używającymi tych narzędzi w swojej działalności.

Użytkownicy prywatni, korzystający z systemów AI w ramach osobistej działalności pozazawodowej, nie są bezpośrednio objęci przepisami AI Act. 

Co istotne, rola dostawcy nie ogranicza się jedynie do wielkich firm technologicznych. 

– Jeżeli jestem bankiem albo starostwem powiatowym i przygotowałem z pomocą narzędzi AI, otrzymanych na przykład z Microsoftu, jakąś aplikację, staję się dostawcą. Obowiązki, które są nakładane na dostawców, przechodzą również na mnie – podkreśla Michał Jaworski w rozmowie.

Oznacza to, że każda firma, która wewnętrznie tworzy i wdraża rozwiązania oparte na AI, może zostać uznana za dostawcę. A to wiąże się z koniecznością dostosowania rozwiązania do odpowiednich wymogów unijnych.

Wpływ AI Act na firmy tworzące narzędzia AI i korzystające z nich

AI Act będzie miał znaczący wpływ na obie wspomniane grupy firm.

Dostawcy

Dostawcy będą musieli przede wszystkim sklasyfikować swoje systemy AI pod kątem ryzyka. AI Act dzieli systemy AI na cztery kategorie ryzyka, a wymagania regulacyjne rosną wraz ze wzrostem jego poziomu. 

Niedopuszczalne ryzyko (Unacceptable Risk): 

Systemy AI, które stwarzają wyraźne zagrożenie dla bezpieczeństwa, życia lub praw podstawowych ludzi, są w pełni zakazane. Ich użycie jest sprzeczne z wartościami Unii Europejskiej. Np. systemy „punktacji społecznej” (social scoring) stosowane przez rządy, oceniające zachowanie obywateli i prowadzące do dyskryminacji. 

Wysokie ryzyko (High Risk): 

Systemy AI, które mogą negatywnie wpływać na bezpieczeństwo lub prawa podstawowe, ale ich korzyści dla społeczeństwa są na tyle znaczące, że dopuszcza się ich użycie pod warunkiem spełnienia rygorystycznych wymogów. Np. systemy AI wykorzystywane w procesach rekrutacji (choćby do analizy CV, oceny kandydatów), a także w medycynie (diagnozowanie chorób). Lub też służące do oceny zdolności kredytowej lub przyznawania świadczeń socjalnych.

Ograniczone ryzyko (Limited Risk): 

Systemy AI, które wymagają spełnienia pewnych obowiązków w zakresie przejrzystości, aby użytkownicy byli świadomi, że wchodzą w interakcję z AI lub że ich treści są generowane przez AI. Np. chatboty, z którymi użytkownicy wchodzą w interakcje na stronie internetowej.

Minimalne ryzyko (Minimal Risk): 

Większość systemów AI zalicza się do tej kategorii. Uważa się, że stwarzają minimalne lub żadne ryzyko dla praw podstawowych lub bezpieczeństwa. Np. gry AI, systemy rekomendacji czy filtry antyspamowe.

70% AI Act dotyczy systemów wysokiego ryzyka, które podlegają najbardziej rygorystycznym wymogom. Takie systemy wymagają obszernej dokumentacji, testowania, nadzoru ludzkiego i zapewnienia przejrzystości.

– Jeżeli tylko zweryfikujecie, że jesteście systemem wysokiego ryzyka, to od razu wykonajcie telefon do prawników. I róbcie wszystko zgodnie z tym, co oni powiedzą – przestrzega Michał Jaworski.

Podmioty stosujące

Podmioty stosujące muszą mieć świadomość, że mogą stać się dostawcami, jeśli rozwijają własne aplikacje oparte na AI, nawet z wykorzystaniem gotowych narzędzi. 

– Firmy, które korzystają z narzędzi opartych na sztucznej inteligencji, muszą upewnić się, że te narzędzia są zgodne z przepisami AI Act, szczególnie w przypadku systemów wysokiego ryzyka. Niewiedza lub brak oceny ryzyka może prowadzić do poważnych konsekwencji. Warto więc współpracować ze sprawdzonymi partnerami. Pomogą oni wybrać profesjonalne technologie, dostarczane przez firmy godne zaufania i na pewno działające w zgodzie z prawem. Dodatkowo podmioty stosujące są zobowiązane m.in. do szkolenia pracowników korzystających z AI – wyjaśnia Michał Gołębiewski z Integrity Partners.

Narzędzia AI w firmie – używać czy nie używać?

AI Act to akt prawny o charakterze „szkieletowym”, co oznacza, że jego szczegóły będą doprecyzowywane przez liczne instrukcje i wytyczne. To może rodzić wiele pytań i skłaniać firmy do refleksji, czy w ogóle warto wdrażać systemy oparte na sztucznej inteligencji. 

– Obawy przed nieznanymi przepisami i potencjalnymi konsekwencjami prawnymi są zrozumiałe. Jednak rezygnacja z AI w firmie byłaby błędem. Sztuczna inteligencja to potężne narzędzie, które może znacząco przyspieszyć pracę, zautomatyzować rutynowe zadania i usprawnić wiele procesów biznesowych. Dzięki temu przyczynia się do wzrostu efektywności i innowacyjności. Kluczem jest jednak odpowiedzialne i świadome korzystanie z jej możliwości – komentuje Michał Gołębiewski z Integrity Partners.

Aby zminimalizować ryzyko, firmy powinny pamiętać o kilku kluczowych zasadach:

Korzystanie ze sprawdzonych i certyfikowanych narzędzi

Należy wybierać dostawców AI, którzy aktywnie pracują nad zgodnością z AI Act i innymi regulacjami, takimi jak RODO. Warto zwracać uwagę na rozwiązania, które oferują wbudowane funkcje compliance i bezpieczeństwa, a ich zgodność jest potwierdzona certyfikatami (np. ISO/IEC 42001).

Ograniczanie ryzyka uczenia modelu na danych firmowych

Każda firma powinna upewnić się, że używane narzędzia AI nie wykorzystują wprowadzanych przez pracowników danych do uczenia ogólnych modeli, co mogłoby prowadzić do wycieku poufnych informacji. Istotne jest stosowanie rozwiązań, które gwarantują prywatność danych i ich separację.

Zwracanie uwagi na uprawnienia użytkowników

Administratorzy IT powinni starannie zarządzać uprawnieniami dostępu do systemów AI w firmie. Zapewnienie, że pracownicy mają dostęp tylko do tych funkcji i danych, które są im niezbędne do wykonywania obowiązków, minimalizuje ryzyko nieuprawnionego użycia lub naruszenia bezpieczeństwa.

Szkolenie pracowników korzystających z AI 

Kluczowe jest edukowanie personelu z zakresu bezpiecznego i zgodnego z polityką firmy korzystania z narzędzi AI. Pracownicy muszą rozumieć zarówno korzyści, jak i potencjalne ryzyka związane z AI, a także zasady odpowiedzialnego korzystania z technologii, szczególnie w kontekście ochrony danych i prywatności.

Monitorowanie użycia nieautoryzowanych narzędzi

Warto zwracać uwagę także na to, z jakich narzędzi AI korzystają pracownicy. Wiele dostępnych publicznie rozwiązań AI nie spełnia standardów bezpieczeństwa i prywatności wymaganych w środowisku biznesowym. Dlatego tak ważne jest wprowadzenie jasnych zasad dotyczących użycia zatwierdzonych narzędzi AI i monitorowanie ich przestrzegania.

Firmy stoją dziś przed wyborem: mogą potraktować regulacje jako przeszkodę albo jako szansę. Świadome i odpowiedzialne podejście do systemów AI, zgodne z nowymi przepisami, to nie tylko sposób na uniknięcie problemów prawnych. To przede wszystkim budowanie zaufania wśród klientów i partnerów. Zaufania opartego na transparentności, bezpieczeństwie i etyce.

Cała rozmowa z Michałem Jaworskim na temat AI Act dostępna jest na kanale IntegriTV.

Czytaj więcej
Jak wykorzystać sztuczną inteligencję AI w cyberbezpieczeństwie
29.11.2024
Łukasz Grudzień

Elastic AI – SIEM, który wie, jak wykorzystać sztuczną inteligencję

Rozwój generatywnej sztucznej inteligencji jest przełomowym momentem w świecie technologii. Firmy, które wcześniej niż inne opanują jej potencjał, staną się liderami przyszłości. Pomóc w tym mogą rozwiązania Elastic. 

Rozwój generatywnej AI można porównać do innych punktów zwrotnych, które zmieniły świat: 

Rewolucji przemysłowej – podobnie jak maszyny parowe zautomatyzowały pracę fizyczną, AI automatyzuje pracę umysłową. Ta transformacja zmienia fundamentalnie sposób, w jaki pracujemy i organizujemy społeczeństwo. 

Wynalezienia druku – tak jak druk demokratyzował dostęp do wiedzy, AI demokratyzuje dostęp do mocy obliczeniowej i analizy danych. Obie technologie radykalnie zmieniły sposób, w jaki ludzie uczą się i przetwarzają informacje. 

Elektryczności – elektryfikacja zmieniła każdy aspekt życia i umożliwiła powstanie nowych branż. AI ma potencjał do transformacji praktycznie każdej dziedziny ludzkiej działalności.  

 Co to oznacza dla ludzi, biznesu i bezpieczeństwa? 
AI = ogromne możliwości 
Sztuczna inteligencja w codziennym życiu 
Poranek 2025 roku nie różnił się szczególnie od innych, przynajmniej na pierwszy rzut oka. Maria jak zwykle obudziła się przy dźwiękach swojego inteligentnego asystenta, który już zdążył przeanalizować jej cykl snu i wybrał najlepszy moment na pobudkę. Kawa była już zaparzona, a jej domowy system, zauważywszy wczorajsze zmęczenie, automatycznie zwiększył jej moc o 10%. 

Gdy przygotowywała się do pracy, jej cyfrowy asystent przeglądał wyniki badań krwi, które zrobiła poprzedniego dnia. Zanim zdążyła wyjść z domu, otrzymała spersonalizowane zalecenia dietetyczne i plan ćwiczeń. Wszystko idealnie dostosowane do jej obecnej kondycji i celów zdrowotnych. 

W drodze do biura jej autonomiczny samochód wybrał optymalną trasę. Uwzględnił nie tylko aktualny ruch uliczny, ale także wzorce pogodowe i planowane roboty drogowe. Maria wykorzystała ten czas, by przejrzeć raporty przygotowane przez AI. Setki stron danych zostały przekształcone w zwięzłe, zrozumiałe wnioski, dokładnie takie, jakich potrzebowała do dzisiejszej prezentacji. 
Wnioski, raporty, sugestie
W pracy na stanowisku architektki Maria współpracowała z zaawansowanym systemem projektowym, który nie tylko pomagał jej tworzyć innowacyjne rozwiązania, ale także automatycznie sprawdzał zgodność z tysiącami przepisów budowlanych i środowiskowych. System sugerował nawet alternatywne materiały, które mogłyby zmniejszyć ślad węglowy budynku, jednocześnie obniżając koszty konstrukcji. 

Podczas przerwy obiadowej otrzymała powiadomienie od systemu opieki zdrowotnej. AI wykryło nietypowy wzorzec w ostatnich wynikach badań jej ojca i zaleciło dodatkową konsultację. Zanim zdążyła się zaniepokoić, system już zaproponował kilka terminów wizyty i przygotował wstępną analizę dla lekarza. 

Wieczorem, gdy wróciła do domu, jej inteligentny system domowy już dostosował temperaturę i oświetlenie do jej preferencji. Podczas gdy przygotowywała się do snu, AI analizowało jej dzisiejsze interakcje i stres, sugerując krótką sesję medytacyjną i odpowiednią muzykę relaksacyjną. 
AI – niewidzialny partner 
To, co kiedyś wydawało się science fiction, stało się codziennością. Sztuczna inteligencja nie zastąpiła ludzi. Zamiast tego stała się niewidzialnym partnerem, pomagającym nam podejmować lepsze decyzje, oszczędzać czas i żyć zdrowiej. Największa zmiana polega na tym, że technologia przestała być czymś, o czym musimy myśleć – po prostu jest tam, gdzie jej potrzebujemy, działając w tle naszego życia jak dobrze naoliwiona maszyna. 

Maria, zasypiając, pomyślała o swojej babci, która zawsze powtarzała, że technologia oddali ludzi od siebie. Paradoksalnie, stało się odwrotnie – uwolnieni od rutynowych zadań ludzie znaleźli więcej czasu na to, co naprawdę ważne: relacje, kreatywność i rozwój osobisty. AI nie zmieniło tego, kim jesteśmy – pomogło nam lepiej wykorzystać to, kim zawsze byliśmy. 
Ogromny potencjał generatywnej sztucznej inteligencji w systemach SIEM  
SOC przyszłości 
Teraz wyobraźmy sobie centrum operacji bezpieczeństwa (SOC) przyszłości. Sara, główna analityczka bezpieczeństwa, pamięta jeszcze czasy, gdy jej zespół tonął w powodzi alertów, spędzając niezliczone godziny na ręcznej analizie każdego potencjalnego zagrożenia. 

Dziś, siedząc przed swoim stanowiskiem, obserwuje, jak generatywna AI zaimplementowana w rozwiązanie Elastic, tworzy coś, co kiedyś wydawało się nieosiągalne – prawdziwie inteligentną obronę cyberprzestrzeni. 

System nie tylko zbiera i analizuje logi – on je rozumie. W czasie rzeczywistym na życzenie operatorów przetwarza gigabajty danych. Dostrzega subtelne wzorce ataków, których ludzkie oko mogłoby nigdy nie zauważyć. Gdy pojawia się nowe zagrożenie, AI nie tylko jest w stanie pomóc je wykryć. Natychmiast potrafi też stworzyć szczegółowy raport wyjaśniający kontekst, potencjalne skutki i proponowane działania naprawcze. 
Elastic AI – system, który ciągle się uczy i udoskonala 
Najważniejsze jednak jest to, że AI nie działa w próżni. System uczy się z każdej interakcji, każdej decyzji podejmowanej przez zespół bezpieczeństwa. Adaptuje się do nowych typów zagrożeń, aktualizuje swoje modele i udoskonala zdolności wykrywania. To prawdziwa symbioza między ludzką intuicją a maszynową precyzją. 

Co więcej, system potrafi komunikować się w języku zrozumiałym dla różnych odbiorców. Dla zarządu generuje zwięzłe raporty koncentrujące się na ryzyku biznesowym i ROI. Dla zespołu technicznego dostarcza szczegółowych analiz technicznych. Dla audytorów automatycznie przygotowuje dokumentację zgodności. 

Automatyzacja rutynowych zadań uwolniła zespół Sary od wielu zadań. Dała mu więc czas na zajmowanie się bardziej strategicznymi aspektami bezpieczeństwa. Zamiast tracić czas na ręczne przeglądanie logów, pracownicy mogą skupić się na udoskonalaniu polityk bezpieczeństwa, planowaniu strategicznym i reagowaniu na najbardziej złożone zagrożenia. 
SIEM Elastic – partner w ochronie organizacji 
System SIEM Elastic wspomagany przez generatywną AI stał się nie tylko narzędziem do wykrywania zagrożeń. Przekształcił się w prawdziwego partnera w ochronie cyberbezpieczeństwa organizacji. Nie poprzestaje na reagowaniu na ataki, ale aktywnie kształtuje bezpieczniejszą przyszłość cyfrową. 

Sara, patrząc na spokojny dashboard swojego systemu, uśmiecha się. Technologia nie zastąpiła człowieka – wzmocniła go, dając narzędzia do skuteczniejszej walki w coraz bardziej złożonym świecie cyberzagrożeń. A to dopiero początek – potencjał generatywnej AI w systemach SIEM dopiero zaczyna się ujawniać, a przyszłość rysuje się fascynująco. 
SIEM w wykonaniu Elastic AI – wartość dla Twojej organizacji 
Korzyści z implementacji AI w rozwiązaniu Elastic przekładają się na wymierne rezultaty: 

Redukcja czasu reakcji na incydenty o 60-80% 

Zmniejszenie liczby fałszywych alarmów o 40-60% 

Zwiększenie produktywności zespołu SOC o 30-50% 

Redukcja kosztów operacyjnych o 25-40% 

Skrócenie czasu potrzebnego na analizę incydentów o 70-90% 

Podsumowując, Elastic AI nie tylko usprawnia procesy bezpieczeństwa, ale tworzy realną wartość biznesową. Redukuje koszty, zwiększa efektywność i umożliwia organizacji skupienie się na strategicznych inicjatywach zamiast na rutynowych zadaniach operacyjnych. 

Elastic zaufało już ponad 50% firm z listy Fortune 500. Odkryj, dlaczego liderzy wybierają Elasticsearch do budowania inteligentnych rozwiązań AI nowej generacji. 

Jeśli zainteresowały Cię możliwości rozwiązań Elastic, skontaktuj się z ekspertami Integrity Partners. 

 

Jesteś zainteresowany/a przedstawionym rozwiązaniem? Skontaktuj się z Integrity Partners – sprawdzonym integratorem rozwiązań cybersecurity, cloud i identity security.
Zarezerwuj termin w Microsoft Teams!
Napisz do nas: marketing@integritypartners.pl
 

 

 

Czytaj więcej