za każdą decyzją, która wpływa na życie człowieka, musi stać realna odpowiedzialność niezależnie od tego, czy została podjęta przez człowieka, czy przez komputer.
Lewica popiera projekt ustawy o AI, wskazując na potrzebę odpowiedzialności i mechanizmów kontroli.
Pełna wypowiedź
3 min czytania · podświetlone fragmenty wybrał model jako kluczowe
Poseł Joanna Wicha (tekst niewygłoszony): Stanowisko Panie Marszałku! Wysoka Izbo! Rozwój systemów sztucznej inteligencji przekłada się na postępującą automatyzację. Automatycznie i masowo zapadają decyzje, nad którymi kiedyś musiał uważnie pochylić się człowiek. Jednak efektywność, którą to zapewnia, nie może przesłonić nam zagrożeń. W Stanach Zjednoczonych była sprawa przeciwko Ericowi Loomisowi. Był rok 2016 w stanie Wisconsin. Przy wymierzaniu kary sąd posłużył się werdyktem algorytmu oceniającego: ryzyko powrotu do przestępstwa. Późniejsze analizy pokazały, że tego typu algorytmy częściej błędnie oznaczały osoby czarnoskóre jako osoby wysokiego ryzyka. Pokazano, że dwie osoby o podobnej sytuacji, ale o innym kolorze skóry, mogły zostać osądzone inaczej, i to nie ze względu na swoje czyny, tylko ze względu na uprzedzenia wobec nich. Kilka lat później w Holandii wybuchła afera wokół systemu SyRI, czyli państwowego narzędzia do wykrywania nadużyć socjalnych. W 2020 r. sąd w Hadze uznał, że jego stosowanie narusza prawa obywateli, bo system był nietransparentny, a ponadto uderzał przede wszystkim w osoby o niższych dochodach. Jeszcze mocniejszy przykład to sprawa Robodebt scheme w Australii. W latach 2016-2019 automatyczny system wyliczał rzekome nadpłaty świadczeń i wysyłał ludziom wezwania do zwrotu pieniędzy. Tysiące osób dostało błędne decyzje. Jest też rażący przykład z rynku pracy, czyli sprawa systemu rekrutacyjnego Amazon, który zaczął systematycznie obniżać oceny CV kobiet. Nawet Amazon uznał, że to zbyt niemoralne. Państwo nie może zostać bierne wobec narzędzi realnie wpływających na życie ludzi. Jeśli sztuczna inteligencja nie będzie regulowana przez państwo, to obywatele będą regulowani przez algorytmy. Dlatego potrzebujemy konkretnych mechanizmów kontroli. Projekt ustawy o systemach sztucznej inteligencji, druk nr 2443, właśnie tego dotyczy. Ministerstwo Cyfryzacji przygotowało wdrożenie europejskiego AI Act. Ustawa proponuje powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. To ma być organ, który prowadzi kontrole, wszczyna postępowania, wydaje decyzje i nakłada kary, kiedy to konieczne. Co istotne, jest to organ kolegialny, z udziałem przedstawicieli różnych instytucji - od UOKiK po KNF - co ma zwiększać jakość decyzji i ograniczać ryzyko uznaniowości. Obywatele będą mogli w końcu korzystać z mechanizmu skargowego. Jeśli padniemy ofiarą dyskryminacji czy nasze dane zostaną wykorzystane w sposób nieuprawniony, to będziemy mieli gdzie się zwrócić. Taka skarga może uruchomić formalne postępowanie i zakończyć się decyzją nakazującą usunięcie naruszeń. To jest przejście od sytuacji, w której ˝system taki jest˝, do sytuacji, w której ktoś za to działanie odpowiada. Ustawa wprowadza też system monitorowania, czy podmioty korzystające z AI przestrzegają przepisów. Nie chodzi jednak tylko o kontrolę. Bardzo ciekawym elementem przewidzianym w ustawie są tzw. piaskownice regulacyjne. W praktyce oznacza to, że firmy, szczególnie małe i średnie, mogą testować nowe rozwiązania AI w kontrolowanym środowisku z uproszczonymi procedurami. To ważne z dwóch powodów. Po pierwsze, obniża barierę wejścia. Mała firma często nie ma zasobów, żeby od razu spełnić wszystkie wymogi regulacyjne. Piaskownica pozwala jej rozwijać technologię, jednocześnie ucząc się, jak działać zgodnie z prawem. Po drugie, państwo nie dowiaduje się o technologii po fakcie, tylko widzi ją na etapie testów. Może zidentyfikować ryzyka wcześniej, zanim system trafi na rynek i zacznie wpływać na ludzi. To jest model, który łączy innowacyjność z odpowiedzialnością. Z perspektywy Lewicy to kluczowe. Jesteśmy za rozwojem technologii. Niemniej nie zgadzamy się na rozwój, który odbywa się kosztem praw obywateli. Dlatego ważne są też przepisy o karach i środkach naprawczych. Państwo musi mieć narzędzia skutecznego wymuszania zgodności z prawem. Ryzykiem nie jest sama technologia. Ryzykiem jest sytuacja, w której ktoś podejmuje decyzję, ale nikt nie bierze za nią odpowiedzialności. Wtedy zawsze można by powiedzieć: Tak wyszło z systemu. Można by zasłonić się algorytmem, którego nikt nie widzi i którego nikt nie rozlicza. To jednak nie z nami. Wierzymy, że państwo nie może pozwolić, żeby technologia stała się wygodnym alibi. Nie może być tak, że wraz z automatyzacją znika odpowiedzialność. Dlatego potrzebujemy jasnej zasady: