AI Act: Potrzebny jest plan wdrożenia regulacji o sztucznej inteligencji
REKLAMA
REKLAMA
- Sztuczna inteligencja pod kontrolą
- Sztuczna inteligencja – ani zła, ani dobra
- Systemy wysokiego ryzyka
- Rynek będzie się dynamicznie rozwijał
Sztuczna inteligencja pod kontrolą
REKLAMA
13 marca 2024 r. Parlament Europejski zatwierdził AI Act. To pierwsza tego typu regulacja tak szeroko obejmująca obszar sztucznej inteligencji. Jej celem jest zbudowanie środowiska prawnego, które pozwoli na rozwój tej technologii, przy jednoczesnym poszanowaniu praw podstawowych, ochronie demokracji czy praworządności przed systemami wysokiego ryzyka.
REKLAMA
AI Act przewiduje m.in. skategoryzowanie zakazanych praktyk w zakresie rozwiązań sztucznej inteligencji, szczególnie tych, które zagrażają prawom obywateli. Zaliczono do nich m.in. używanie technik podprogowych oraz dyskryminujących, manipulujących zachowaniem ludzi lub wykorzystujących ich słabości. Nowe przepisy zakażą stosowania systemów sztucznej inteligencji w zakresie tzw. social scoringu, czyli klasyfikacji punktowej obywateli. Ograniczą także korzystanie z systemów identyfikacji biometrycznej dla organów ścigania. Będzie także obowiązek wyraźnego oznaczania nieautentycznych lub zmanipulowanych obrazów, treści audio lub wideo.
Sztuczna inteligencja – ani zła, ani dobra
REKLAMA
Michał Boni, adiunkt na Uniwersytecie SWPS i były minister cyfryzacji, uważa, że sztuczna inteligencja sama w sobie nie jest ani zła, ani dobra - jest neutralna. Regulacje są potrzebne do tego, żeby zanalizować ryzyka, które mogą przynieść konkretne zastosowania sztucznej inteligencji. Kluczowa będzie ocena takiego ryzyka i potencjalnego wpływu na bezpieczeństwo obywateli.
– Jeśli te ryzyka są zbyt duże, to być może powinno być ograniczenie wprowadzania w życie danego rozwiązania, a jeśli są mniejsze, ale jakieś są jednak, to wtedy firma powinna przejść test sprawdzający, czy te ryzyka wpłyną na ludzi, społeczeństwo, środowisko zewnętrzne – mówi Michał Boni. Takie testy zostały przygotowane przez grupę ekspertów zajmujących się m.in. etycznymi wymiarami sztucznej inteligencji. - Więc to jest do okiełznania, tylko musimy podejść praktycznie od strony zastosowań i ryzyk, a nie od mówienia generalnego o sztucznej inteligencji – dodaje ekspert.
Systemy wysokiego ryzyka
W AI Act określono szczególne obowiązki dla systemów wysokiego ryzyka. Obszary, w których są one wykorzystywane, to m.in. infrastruktura krytyczna, zatrudnienie, podstawowe usługi prywatne i publiczne (np. opieka zdrowotna, bankowość). Opierają się też na nich niektóre systemy organów ścigania. Takie systemy muszą być przejrzyste i dokładne oraz podlegać kontroli przez człowieka.
Michał Boni proponuje, żeby Komisja Europejska, ale to może być też polska rola podczas prezydencji, przygotowała plan wdrożenia regulacji o sztucznej inteligencji.
- To jest skomplikowane, bo niektóre rzeczy z tego aktu będą wchodziły w kilka miesięcy po przyjęciu, inne w rok, inne w półtora, inne w dwa lata, do trzech, więc to będzie trwało. Po to, żeby to było sensownie zrobione, to taki plan wdrażania powinien być przygotowany – ocenia Michał Boni. Dodaje też, że tam, gdzie różne rzeczy nie będą do końca jasne, należy pójść w stronę kodeksu dobrych praktyk. - Czyli biznes między sobą powinien ustalać, razem z innymi partnerami, np. użytkownikami, jakie rozwiązanie jest dobre i trzyma się ducha prawa o sztucznej inteligencji, które między innymi ma chronić naszą podmiotowość – mówi Boni.
Rynek będzie się dynamicznie rozwijał
Postępująca cyfryzacja gospodarki sprawia, że kolejne organizacje decydują się na zastosowanie narzędzi opartych na sztucznej inteligencji. Ponad 90% firm chce osiągnąć wyższy poziom dojrzałości w zakresie AI w trakcie najbliższych trzech lat. Wiele środowisk na etapie tworzenia nowego prawa wyrażało obawy, że wprowadzenie wspomnianych regulacji może spowolnić rozwój rynku sztucznej inteligencji. Takiej oceny nie podziela Michał Boni.
– Myślę, że rynek będzie się tak samo dynamicznie rozwijał jak teraz, dlatego że wiele firm już stosuje te zasady, mechanizmy, choćby analizy ryzyka, które są wpisane do tej regulacji. Natomiast na pewno będzie potrzebne dobre doradztwo, szczególnie dla małego biznesu, jak niektóre przepisy zinterpretować, ale też przede wszystkim, czy te zastosowania sztucznej inteligencji, które chcą wprowadzić, jakąś predykcję, przewidywanie w oparciu o dane tego, co z biznesem się może dziać, czy to tworzy jakieś ryzyka, czy nie – mówi były minister cyfryzacji.
REKLAMA
REKLAMA
- Czytaj artykuły
- Rozwiązuj testy
- Zdobądź certyfikat