Unijne przepisy w sprawie sztucznej inteligencji

Unijne przepisy w sprawie sztucznej inteligencji Canva

W środę Parlament zatwierdził akt w sprawie sztucznej inteligencji, który zapewnia bezpieczeństwo i przestrzeganie praw podstawowych, a jednocześnie wspiera innowacje.

  • Zabezpieczenia dotyczące sztucznej inteligencji ogólnego przeznaczenia
  • Ograniczenia w korzystaniu z systemów identyfikacji biometrycznej dla organów ścigania
  • Zakaz klasyfikacji punktowej obywateli i stosowania SI do manipulowania użytkownikami i wykorzystywania ich słabości
  • Prawo konsumentów do składania skarg i otrzymywania merytorycznych wyjaśnień

W grudniu 2023 r., po negocjacjach z państwami członkowskimi, Parlament przyjął rozporządzenie w sprawie sztucznej inteligencji (SI). 523 posłów głosowało za, 46 przeciw, a 49 posłów wstrzymało się od głosu.

Ma ono chronić prawa podstawowe, demokrację, praworządność i środowisko przed systemem sztucznej inteligencji wysokiego ryzyka. Jednocześnie ma wspierać innowacje i sprawić, że Europa będzie liderem w dziedzinie AI. Rozporządzenie określa obowiązki w stosunku do sztucznej inteligencji w oparciu o potencjalne ryzyko z nią związane i jej potencjalne skutki.

Zakaz pewnych zastosowań

Nowe przepisy zakazują pewnych zastosowań sztucznej inteligencji, które zagrażają prawom obywateli. Są to między innymi systemy kategoryzacji biometrycznej, które wykorzystują cechy wrażliwe i nieukierunkowane pobieranie wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej, by stworzyć bazy danych służące rozpoznawaniu twarzy. Zakazane będą też rozpoznawanie emocji w miejscu pracy i instytucjach edukacyjnych, klasyfikacja punktowa obywateli, prognozowanie przestępczości (wyłącznie na podstawie profilowania osoby lub oceny jej cech). Nie będzie też dozwolona sztuczna inteligencja, która manipuluje zachowaniem ludzi lub wykorzystuje ich słabości.

Wyjątki dla organów ścigania

Organom ścigania z reguły nie wolno korzystać z systemów identyfikacji biometrycznej. Są jednak pewne wyjątki, które wąsko zdefiniowano na zamkniętej liście. Organy te mogą wykorzystywać systemy identyfikacji biometrycznej w czasie rzeczywistym tylko wtedy, gdy spełniły ściśle określone warunki. Na przykład mogą je stosować w określonym czasie i w określonym położeniu geograficznym. Muszą też posiadać specjalne zezwolenie sądowe lub administracyjne. Mogą je wykorzystywać, by odnaleźć zaginioną osobę lub zapobiegać atakowi terrorystycznemu. Istnieją też tzw. systemy zdalnej identyfikacji biometrycznej post factum. Ich stosowanie wiąże się z wysokim ryzykiem i wymaga zezwolenia sądowego, ponieważ systemy takie wykorzystuje się do wyszukiwania w związku z przestępstwem.

Obowiązki dotyczące systemów wysokiego ryzyka

Szczególne obowiązki określono również dla innych systemów sztucznej inteligencji wysokiego ryzyka. A to dlatego, że stanowią one potencjalne zagrożenie dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności. Obszary, w których wykorzystuje się takie systemy, to na przykład infrastruktura krytyczna, edukacja i szkolenie zawodowe, zatrudnienie, podstawowe usługi prywatne i publiczne (np. opieka zdrowotna, bankowość). Opierają się też na nich niektóre systemy organów ścigania. Wykorzystuje się je, by zarządzać migracją i granicami oraz na potrzeby wymiaru sprawiedliwości i procesów demokratycznych (np. by wpływać na wybory). Takie systemy muszą oceniać i ograniczać ryzyko oraz prowadzić rejestry zdarzeń. Muszą też być przejrzyste i dokładne oraz podlegać kontroli przez człowieka. Dzięki rozporządzeniu obywatele będą mieć prawo składać skargi dotyczące systemów SI. Będą także otrzymywać wyjaśnienia decyzji podejmowanych przez systemy sztucznej inteligencji wysokiego ryzyka, które mają wpływ na ich prawa.

Wymogi przejrzystości

Systemy sztucznej inteligencji ogólnego przeznaczenia i modele sztucznej inteligencji ogólnego przeznaczenia, na których oparte są takie systemy, muszą spełniać określone wymogi przejrzystości i być zgodne z unijnym prawem autorskim  oraz publikować dokładne zestawienia materiałów użytych podczas trenowania swoich modeli. Najbardziej zaawansowane modele sztucznej inteligencji ogólnego przeznaczenia, które mogą stwarzać ryzyko systemowe, będą musiały spełniać dodatkowe wymagania. Operatorzy SI będą musieli między innymi przeprowadzać oceny modeli, oceniać i ograniczać ryzyko systemowe i zgłaszać incydenty.

Ponadto należy wyraźnie oznaczać nieautentyczne lub zmanipulowane obrazy, treści audio lub wideo, tzw. deepfakes.

Działania wspierające innowacje i MŚP

Należy ustanowić na szczeblu krajowym piaskownice regulacyjne, czyli środowisko ułatwiające opracowywanie i testowanie innowacyjnych systemów sztucznej inteligencji przed wprowadzeniem do obrotu, oraz testowanie w warunkach rzeczywistych. Należy też zapewnić MŚP i przedsiębiorstwom typu start-up łatwy dostęp do nich. Dzięki temu będzie można opracowywać i trenować innowacyjne systemy SI przed wprowadzeniem na rynek.

Kolejne kroki

Rozporządzenie muszą jeszcze ostatecznie zweryfikować prawnicy lingwiści. Ma ono zostać przyjęte przed końcem kadencji (tzw. procedura sprostowania). Rozporządzenie musi też formalnie przyjąć Rada.

Rozporządzenie wejdzie w życie dwadzieścia dni po publikacji w Dzienniku Urzędowym, a w pełni obowiązywać będzie 24 miesiące po jego wejściu w życie. Wyjątki to: zakazy niedozwolonych praktyk (będą obowiązywać sześć miesięcy po wejściu rozporządzenia w życie), kodeksy postępowania (dziewięć miesięcy po wejściu w życie), przepisy o sztucznej inteligencji ogólnego przeznaczenia, w tym dotyczące zarządzania (12 miesięcy po wejściu w życie) oraz obowiązki dotyczące systemów wysokiego ryzyka (36 miesięcy po wejściu w życie).

Kontekst

Akt o sztucznej inteligencji stanowi bezpośrednią odpowiedź na propozycje obywateli z Konferencji w sprawie przyszłości Europy (COFE), w szczególności na propozycję 12 w sprawie zwiększenia konkurencyjności UE w sektorach strategicznych, propozycję 33 w sprawie bezpiecznego i godnego zaufania społeczeństwa, w tym przeciwdziałania dezinformacji i zapewnienia ostatecznej kontroli nad ludźmi, wniosku nr 35 w sprawie promowania innowacji cyfrowych przy jednoczesnym zapewnieniu nadzoru ze strony człowieka oraz  godnego zaufania i odpowiedzialnego korzystania ze sztucznej inteligencji, ustanawiania zabezpieczeń i zapewniania przejrzystości, a także wniosku nr 37 w sprawie wykorzystywania sztucznej inteligencji i narzędzi cyfrowych w celu poprawy dostępu obywateli do informacji, w tym osób niepełnosprawnych.

Źródło: Parlament Europejski 

O Autorze

MM Magazyn Przemysłowy jest międzynarodową marką medialną należącą do holdingu Vogel Communications Group. W ramach marki MM Magazyn Przemysłowy wydawane jest czasopismo, prowadzony jest portal magazynprzemyslowy.pl oraz realizowana jest komunikacja (różnymi narzędziami marketingowymi) w przemysłowym sektorze B2B.

Tagi artykułu

Zobacz również

MM Magazyn Przemysłowy 4/2024

Chcesz otrzymać nasze czasopismo?

Zamów prenumeratę