Sztuczna inteligencja (ang. Artificial Intelligence (AI)) w ostatnim czasie budzi bardzo duże zainteresowanie opinii publicznej. Systemy sztucznej inteligencji osiągają coraz większe możliwości i przełamują kolejne granice. Wraz z korzyściami, płynącymi z rozwoju i rozpowszechnienia sztucznej inteligencji pojawiają się także rozmaite problemy prawne. Przełomowym aktem prawnym dla sztucznej inteligencji niewątpliwie stanowi rozporządzenie Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji), potocznie zwanym „AI Act”.
Przepisy dotyczące sztucznej inteligencji
Rozporządzenie zostało przyjęte przez Parlament Europejski w dniu 13 marca 2024 r., a 21 maja 2024 r. przez Radę Unii Europejskiej. Publikacja nastąpiła w dniu 12 lipca 2024 r. w Dzienniku Urzędowym UE. Przepisy AI Act wchodzą w życie stopniowo. W dniu 2 lutego 2025 r. weszła w życie spora grupa przepisów, w tym art. 5, który zakazuje stosowania niektórych praktyk w zakresie sztucznej inteligencji.
Zakazane praktyki w zakresie sztucznej inteligencji
Zgodnie z art. 5 AI Act do zakazanych praktyk w zakresie sztucznej inteligencji należy m.in. wprowadzanie do obrotu, oddawania do użytku lub wykorzystywania systemów AI, które:
- stosują techniki podprogowe będące poza świadomością danej osoby lub celowe techniki manipulacyjne lub wprowadzające w błąd, czego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub grupy osób poprzez znaczące ograniczenie ich zdolności do podejmowania świadomych decyzji, powodując tym samym podjęcie przez nie decyzji, której inaczej by nie podjęły, w sposób, który wyrządza lub może wyrządzić u niej, u innej osoby lub u grupy osób poważną szkodę;
- wykorzystują słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, których celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub osoby należącej do tej grupy w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tej osoby lub u innej osoby poważną szkodę;
- na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości, kiedy to scoring społeczny prowadzi do krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane oraz krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub grup osób, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi;
- tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej;
- wyciągają wnioski na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa;
Wyzwania prawne związane ze sztuczną inteligencją
Fenomen sztucznej inteligencji bez wątpienia stanowi wyzwanie dla wszystkich gałęzi prawa. Organy Unii Europejskiej zdecydowały się na całkowity zakaz stosowania niektórych systemów sztucznej inteligencji w celu ochrony obywateli UE przed zagrożeniami płynącymi z zastosowania tych systemów. W niniejszym wpisie przedstawiono najważniejsze systemy, których stosowanie zostało zakazane, ale nie wszystkie. Kompletna lista znajduje się w art. 5 AI Act.
Ostatnie 5 lat poświęciłem na badania dotyczące sztucznej inteligencji, w szczególności w zakresie prawa cywilnego. Jeżeli potrzebują Państwo pomocy we wdrożeniu AI Act lub w zakresie innych problemów prawnych związanych ze sztuczną inteligencją zapraszam do kontaktu w Kancelarii przy ul. Moniuszki 20 w Tarnobrzegu oraz pod numerem telefonu 668 001 003.
