Jak wskazuje Komisja Europejska, technologie oparte na sztucznej inteligencji (AI) mogą pobudzić gospodarkę i poprawić jakość życia w niemal każdej sferze: od transportu i opieki zdrowotnej, poprzez zindywidualizowaną edukację, przyznawanie kredytów, po uwolnienie pracowników od uciążliwych i powtarzających się zadań. Jednak aby móc swobodnie korzystać z zalet AI oraz przeciwdziałać ich potencjalnemu nadużywaniu, konieczne jest przyjęcie regulacji prawnych w tym zakresie. Prace nad takimi przepisami na poziomie UE są już zaawansowane. Czekają na nie zwłaszcza przedsiębiorcy, którzy brak odpowiedniego ustawodawstwa i jasnych zasad odpowiedzialności za błędy AI wskazują jako jedną z największych barier w korzystaniu i wdrażaniu tej technologii.
Algorytmy i systemy sztucznej inteligencji są coraz powszechniej wykorzystywane w gospodarce i wielu dziedzinach życia. Dlatego też problematyka odpowiednich regulacji prawnych, które obejmowałyby ten obszar, pozwalając na użytkowanie ich w sposób transparentny i bezpieczny, z każdym rokiem zyskuje na znaczeniu.
– Definicja prawna sztucznej inteligencji to jest bardzo soczysty temat, ponieważ próby jej sklasyfikowania są podejmowane już od dłuższego czasu. Największym wyzwaniem jest kwestia ciągle zmieniającego się otoczenia technicznego, w którym żyjemy. Prawo nie nadąża za technologią i te definicje, nawet jeśli powstają, to szybko się dezaktualizują – mówi agencji Newseria Biznes Marta Kosiedowska, radca prawny i partner w kancelarii act BSWW legal & tax. – Nie oznacza to jednak, że w kwestii regulacji prawnych, które miałyby zastosowanie do sztucznej inteligencji, panuje dziś wolnoamerykanka. To byłoby zbyt dalece idące stwierdzenie. Po pierwsze, takie prawo jest projektowane, prace nad nim są już dość zaawansowane na poziomie europejskim. Po drugie, obecnie obowiązujące regulacje – chociażby w obszarze prawa cywilnego – też mogą znaleźć zastosowanie dla AI.
Na unijnym forum prace trwają już od kilku lat – sztuczna inteligencja jest jednym z głównych elementów unijnej strategii tworzenia jednolitego rynku cyfrowego. W kwietniu 2021 roku Komisja Europejska przedstawiła pierwszą na świecie tak kompleksową strategię rozwoju sztucznej inteligencji (AI Package), której częścią jest projekt rozporządzenia ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji w całej UE. Ma ono stworzyć ramy prawne dla prawidłowo funkcjonującego rynku systemów AI, na którym uwzględnione zostaną zarówno korzyści społeczno-ekonomiczne, jak i zagrożenia, jakie niesie za sobą wykorzystanie tej technologii.
Projektowane przepisy mają ponadto zapewnić sprzyjające warunki dla badań i rozwoju AI przy jednoczesnym zapewnieniu wysokiego poziomu bezpieczeństwa użytkowników oraz sprzyjać swobodnemu przepływowi towarów i usług wykorzystujących sztuczną inteligencję. Europejskie podejście do uregulowania tego obszaru opiera się na dwóch filarach: „excellence in AI”, czyli dążeniu do doskonałości w obszarze sztucznej inteligencji, oraz „trustworthy AI”, czyli tworzeniu rozwiązań godnych zaufania.
Prace nad projektem rozporządzenia dotyczącego sztucznej inteligencji (Artificial Intelligence Act) są już na zaawansowanym etapie, a zgodnie z jego aktualnym brzmieniem nowe przepisy mają być stosowane we wszystkich państwach członkowskich UE po upływie dwóch lat od ich przyjęcia.
– Myślę, że już wkrótce możemy spodziewać się regulacji, które od strony prawnej będą definiowały sztuczną inteligencję, ponieważ projekt rozporządzenia już powstał, jest opracowywany i jest na etapie dalszych prac w komisjach. Tak więc wydaje się, że jest to już kwestia najbliższej przyszłości – mówi Marta Kosiedowska.
Pod koniec września ubiegłego roku Komisja Europejska przyjęła również propozycję dyrektywy dotyczącej odpowiedzialności cywilnej za sztuczną inteligencję (tzw. dyrektywa AILD), która wprowadza po raz pierwszy przepisy dotyczące szkód wyrządzonych przez systemy AI. Jej celem jest m.in. ustanowienie szerszej ochrony dla ofiar systemów sztucznej inteligencji i ułatwienie dochodzenia roszczeń o odszkodowanie.
– Mimo że nie ma jeszcze odrębnych regulacji dotyczących odpowiedzialności za sztuczną inteligencję, to są zasady odpowiedzialności cywilnej dotyczące chociażby producentów i osób, które wprowadzają do obrotu produkty niebezpieczne, jak również ogólne zasady odpowiedzialności za winę. To oznacza, że w zależności od sytuacji, która doprowadziła do powstania szkody w związku z użyciem maszyny opartej na technologii sztucznej inteligencji, np. samochodu autonomicznego, możemy mówić albo o odpowiedzialności podmiotu, który wprowadza do obrotu taki produkt, albo użytkownika. O ile odpowiedzialność producenta należałoby w takich przypadkach rozpatrywać na zasadzie pewnego ryzyka odpowiedzialności za produkt niebezpieczny, która już jest sklasyfikowana przez Kodeks cywilny, o tyle odpowiedzialność użytkownika – na zasadach winy – wyjaśnia prawniczka.
Dyrektywa AILD ma uregulować odpowiedzialność za szkody spowodowane przez systemy AI powstałe w wyniku losowych zdarzeń czy incydentów między podmiotami, których nie wiązała umowa. Przykładem takiej sytuacji może być chociażby potrącenie pieszego na pasach przez samochód autonomiczny albo zniszczenie cennej paczki przez drona sterowanego AI. Dyrektywa nie będzie jednak regulować odpowiedzialności kontraktowej między podmiotami, które wiązała umowa (np. jeśli firma kupi od dostawcy usług IT system sztucznej inteligencji, który zawiedzie).
– Międzynarodowa instytucja stanowiąca prawo AI to jest zagadnienie z punktu widzenia prawnego dość trudne, ponieważ w obecnym porządku prawnym mamy określone instytucje, które mogą to prawo tworzyć, czy na płaszczyźnie narodowej, czy ponadnarodowej, np. w Unii Europejskiej. Natomiast na pewno takie instytucje są potrzebne, jeśli chodzi o kwestie monitoringu, nadzoru, implementowania prawa. Projekt rozporządzenia w sprawie harmonizacji sztucznej inteligencji przewiduje nawet powstanie takiej instytucji, Europejskiej Rady ds. Sztucznej Inteligencji, ale nie jako organu prawotwórczego, bo inne organy Unii Europejskiej są odpowiedzialne za tworzenie prawa, ale bardziej organu nadzorczego, opiniotwórczego, spinającego działanie organów narodowych, inspirującego zmiany w prawie i projekty dotyczące aktów prawnych, natomiast na pewno nie jako instytucja, która stanowiłaby prawo – mówi Marta Kosiedowska.
Jak wynika z unijnych dokumentów, w przeprowadzonym w 2020 roku przez IPSOS europejskim badaniu przedsiębiorstw, które dotyczyło technologii opartych na sztucznej inteligencji, odpowiedzialność cywilna znalazła się wśród trzech największych barier w korzystaniu z tej technologii. Ponadto ta kwestia została również uznana za najistotniejszą zewnętrzną przeszkodę dla firm planujących w przyszłości wdrożyć systemy sztucznej inteligencji do swojej działalności.
Z przytaczanych przez KE danych z badania ekonomicznego skutków regulacji wynika, że środki harmonizujące w zakresie odpowiedzialności cywilnej za sztuczną inteligencję mogłyby spowodować wzrost rzędu 5–7 proc. na wartość produkcji w handlu transgranicznym w porównaniu ze scenariuszem bazowym. Na podstawie całkowitej wartości unijnego rynku sztucznej inteligencji dotkniętego problemami związanymi z odpowiedzialnością szacuje się, że dyrektywa może przynieść dodatkową wartość rynkową w wysokości ok. 0,5–1,1 mld euro.
O zagrożeniach, jakie niesie brak regulacji dotyczących sztucznej inteligencji, i możliwościach, jakie stworzy ich przyjęcie, ekspertki kancelarii act BSWW legal & tax rozmawiały w czasie debaty zorganizowanej w ramach Thursday Gathering. To coczwartkowe spotkanie społeczności innowatorów, które jest szansą na omówienie najważniejszych rynkowych trendów, podzielenie się doświadczeniem i nawiązanie kontaktów. Organizatorem cyklu jest Fundacja Venture Café Warsaw.
Źródło: NEWSERIA
Leave a Reply