Wróć do pozostałych postów

„AI ACT” w pigułce - czym jest pierwsza na świecie regulacja prawna dotycząca sztucznej inteligencji

Sztuczna inteligencja to szybko rozwijająca się dziedzina technologii, która z dnia na dzień wtargnęła w nasze życie. Narzędzia takie jak ChatGPT, Google Bard czy DALL-E2 są już powszechnie wykorzystywane niemal we wszystkich dziedzinach życia. Jednak wraz z rozwojem AI rośnie również ryzyko związane z jej wykorzystaniem. 

W celu zapewnienia bezpieczeństwa i rzetelności systemów bazujących na sztucznej inteligencji (dalej: SI) 14 czerwca 2023 roku Parlament Europejski uchwalił pierwszy na świecie akt prawny regulujący stosowanie SI. Czym tak naprawdę jest „AI ACT”?

Kogo dotyczy i co reguluje „AI ACT”?

Przepisy AI ACT dotyczą wszystkich podmiotów, które wprowadzają do obrotu lub oddają do użytku systemy SI (niezależnie od tego, czy mają swoją siedzibę w UE), operatorów takich systemów posiadających siedzibę na terenie UE oraz dostawców i operatorów systemów SI znajdujących się poza obszarem UE, jeżeli skutki związane z wykorzystanie dostarczonych przez nich systemów powstają na terenie Unii.

Wyjaśnijmy, że „dostawcą” systemu SI jest podmiot, który system taki opracowuje (lub zleca jego opracowanie) w celu wprowadzenia go do obrotu (a więc np. Google Inc. w przypadku Barda), a pod pojęciem „operatora” kryje się w zasadzie każdy podmiot, który z danego systemu korzysta (a więc nie tylko dostawca czy importer, ale także końcowy użytkownik).

AI ACT zakłada, że pewne systemy oparte na SI nie będą mogły być wykorzystywane na obszarze Unii Europejskiej, a inne, stwarzające odpowiednio duże ryzyko dla podstawowych praw i wolności obywateli będą musiały spełnić określone wymagania prawne i techniczne. Konieczne będzie także informowanie użytkowników o tym, że mają oni do czynienia z treściami generowanymi przez SI.

Kategorie ryzyka zastosowania sztucznej inteligencji

AI ACT wyróżnia cztery kategorie ryzyka zastosowania systemów opartych na SI:

  • kategoria niskiego ryzyka (kategoria ta obejmuje systemy, które nie stanowią znaczącego zagrożenia),
  • kategoria średniego ryzyka (do tej kategorii zaliczamy popularne w ostatnich miesiącach chatboty takie jak np. ChatGPT),
  • kategoria wysokiego ryzyka (kategoria ta obejmuje technologie, które mogą wywierać wpływ na bezpieczeństwo i prawa podstawowe użytkownika),
  • kategoria niedopuszczalnego ryzyka (kategoria obejmuje systemy stwarzające ogromne ryzyko dla bezpieczeństwa; jako przykład można podać systemy przeznaczone do dokonywania oceny społecznej).

Systemy sztucznej inteligencji wysokiego ryzyka

Zgodnie z zapisami Załącznika III do w/w rozporządzenia za systemy sztucznej inteligencji wysokiego ryzyka uznaje się systemy:

  1. przeznaczone do identyfikacji biometrycznej osób fizycznych, w tym także w czasie rzeczywistym ,
  2. przeznaczone do zarządzania krytyczną, np. obsługi ruchu drogowego czy zaopatrzenia w wodę,
  3. wykorzystywane w kształceniu i szkolnictwie, w tym przeznaczone do prowadzenia rekrutacji oraz oceny uczniów,
  4. przeznaczone do zatrudniania i zarządzania pracownikami, w tym np. systemy przeznaczone do rekrutacji pracowników,
  5. wykorzystywane w celu udzielenia dostępu do usług prywatnych lub usług i  świadczeń publicznych oraz korzystania z nich, w tym np. przeznaczone do oceny zdolności kredytowej,
  6. przeznaczone do ścigania przestępstw, w tym także przeznaczone do oceny ryzyka popełnienia lub ponownego popełnienia przestępstwa,
  7. przeznaczone do zarządzania migracją, azylem i kontrolą graniczną,
  8. wykorzystywane w celach związanych ze sprawowaniem wymiaru sprawiedliwości i procesów demokratycznych, w tym np. przeznaczone do analizy stanów faktycznych poszczególnych spraw.

Na mocy przepisów rozporządzenia podmioty wykorzystujące systemy SI wysokiego ryzyka zobowiązane będą do dokonania oceny działania takich systemów pod kątem wpływu na prawa podstawowe osób fizycznych, a nadto wdrożyć odpowiednie środki bezpieczeństwa. AI ACT przyznaje także osobom, których prawa zostały naruszone decyzją wydaną z wykorzystaniem SI do wniesienia skargi do właściwego organu państwowego, a w dalszej perspektywie – zaskarżenie jego do sądu.

Podsumowanie

Choć do apokaliptycznych wizji rodem z serii filmów o podróżujących w czasie elektronicznych mordercach jeszcze daleka droga, to niewątpliwie przyjęcie pierwszych regulacji prawnych dotyczących systemów opartych o SI stanowi krok we właściwym kierunku. Niestety przepisy AI ACT zaczną obowiązywać dopiero za 2 lata. Istnieje zatem spore ryzyko, że w chwili wejścia w życie omawianego rozporządzenia nie będzie ono przystawać do technologii, które dopiero powstaną.

Maciej Spławski
Maciej Spławski
Adwokat

Absolwent Uniwersytetu im. Adama Mickiewicza w Poznaniu oraz Uniwersytetu Ekonomicznego w Poznaniu. Od 2018 r. Adwokat przy Okręgowej Radzie Adwokackiej w Poznaniu. W ramach praktyki zawodowej koncentruje się na sprawach z zakresu prawa handlowego i gospodarczego oraz prawa własności intelektualnej.

Potrzebujesz pomocy prawnej doświadczonego adwokata?

+48 61 221 63 59

Wyślij wiadomość



Warte przeczytania: