REKLAMA

REKLAMA

Kategorie
Zaloguj się

Zarejestruj się

Proszę podać poprawny adres e-mail Hasło musi zawierać min. 3 znaki i max. 12 znaków
* - pole obowiązkowe
Przypomnij hasło
Witaj
Usuń konto
Aktualizacja danych
  Informacja
Twoje dane będą wykorzystywane do certyfikatów.

Czy można ukarać sztuczną inteligencję?

Czy można ukarać sztuczną inteligencję?
Czy można ukarać sztuczną inteligencję?
Shutterstock

REKLAMA

REKLAMA

Sztuczna inteligencja rozwija się coraz szybciej, dlatego też rośnie liczba rozwiązań, których zadaniem jest kontrolowanie tego, w jaki sposób jest wykorzystywana. To odpowiedź między innymi na dezinformację w postaci dystrybucji fałszywych informacji, zdjęć czy filmów dystrybuowanych w internecie, ale także wzrost liczby cyberataków na firmy i instytucje, w czasie których używa się właśnie różnego rodzaju AI. Jka kontrolować AI analizuje Przemysław Wójcik, ekspert ds. cyberbezpieczeństwa Prezes AMP SA.

Wady i zalety sztucznej inteligencji

REKLAMA

Oczywiście istnieją już aplikacje oraz narzędzia nadzorujące działanie sztucznej inteligencji, a ich liczba rośnie wraz z rozwojem tej technologii oraz zwiększeniem potrzeby nadzoru nad nimi. Takie aplikacje są wykorzystywane do monitorowania, oceny oraz zapewnienia, że algorytmy AI działają zgodnie z założeniami, przestrzegają standardów etycznych, uchwalonych przepisów a także nie wykazują niepożądanych odchyleń lub błędów. To różnego rodzaju platformy, które automatycznie analizują działanie sztucznej inteligencji. Są także wykorzystywane przy projektowaniu nowych funkcjonalności AI. 

REKLAMA

Historie o kandydacie na wiceprezydenta związane z wykorzystywaniem dzieci, kolportowane w czasie ostatnich wyborów w USA, słynne zdjęcia papieża w futrzanej kurtce czy prezydentów Trumpa i Bidena wspólnie grillujących to tylko niektóre przykłady dezinfomacji tworzonych i dystrybuowanych z użyciem AI. Ale sztuczna inteligencja jest także narzędziem używanym przez cyberprzestępców do przeprowadzania ataków na  firmy i instytucje, które mogą prowadzić do strat finansowych, ale także zagrożenia życia ludzkiego. 

Nie ma odwrotu od rozwoju sztucznej inteligencji szczególnie, że przynosi ona także korzyści nie tylko zagrożenia. SI pozwala na automatyzację powtarzalnych zadań, co zwiększa wydajność i oszczędza czas. Może przetwarzać ogromne zbiory danych i dostarczać cennych wniosków, co wspomaga podejmowanie decyzji opartych na faktach. Dzięki SI można dostosować oferty i komunikację do indywidualnych potrzeb użytkowników, poprawiając doświadczenie klienta. Wspiera rozwój nowych technologii i produktów, np. w medycynie (np. diagnoza), transporcie (autonomiczne pojazdy) czy edukacji (spersonalizowane nauczanie). Wykorzystanie SI w systemach monitoringu, rozpoznawania twarzy czy analizy zagrożeń może poprawić bezpieczeństwo w wielu dziedzinach. To tylko niektóre przykłady, które jednak są dowodem na to, że AI obok wielu korzyści generuje także zagrożenia.

Jak kontrolować AI

REKLAMA

Tym bardziej więc istotny jest nadzór nad jej wykorzystaniem. Akt o Sztucznej Inteligencji (AI Act) to pionierskie rozporządzenie Unii Europejskiej, które wprowadza kompleksowe ramy prawne regulujące rozwój i stosowanie systemów AI. Jego główne założenia mają na celu ochronę praw obywateli, zapewnienie bezpieczeństwa oraz promowanie etycznego i odpowiedzialnego korzystania z AI. Na szczeblu unijnym powołany zostanie **Europejski Urząd ds. Sztucznej Inteligencji** (European Artificial Intelligence Board), który będzie koordynować działania i zapewniać spójność wdrażania regulacji. Za naruszenie przepisów AI Act przewidziano surowe sankcje, sięgające nawet do 6% globalnych rocznych przychodów firmy, co sprawia, że jest to jedno z bardziej restrykcyjnych rozporządzeń na świecie.

Jednak rodzi się pytanie, czy człowiek jest w stanie nadążyć za rozwojem sztucznej inteligencji? Czy nie lepiej nadzór nad sztuczną inteligencją przekazać sztucznej inteligencji, która nie tylko kontrolowała by przestrzeganie zasad, ale mogła także karać AI i osoby z niej korzystające? Nałożenie sankcji na tego typu rozwiązania to temat trudny i niejednoznaczny, głównie dlatego, że AI nie posiada świadomości ani poczucia moralności. A to oznacza, że klasyczne formy kary – takie jak więzienie czy grzywny – są dla niej bezcelowe. Zamiast tego, kara dla AI powinna polegać na ograniczeniu jej działania lub nałożeniu sankcji na osoby lub organizacje odpowiedzialne za jej działanie. 

Dalszy ciąg materiału pod wideo

Czy można ukarać sztuczną inteligencję?

Jeśli system AI popełnia błędy lub działa w sposób nieetyczny, najprostszą formą „kary” jest jego zawieszenie lub wyłączenie. Przykładem może być wycofanie go z użytku, np. jeśli chatbot rozprzestrzenia dezinformację, jego twórcy mogą go zablokować lub przeprogramować. AI może być „ukarane” poprzez aktualizacje zmieniające jej działanie, w tym przez nałożenie dodatkowych restrykcji, np. ograniczenie dostępu do niektórych danych lub zmniejszenie autonomii. Taka zmiana pozwala na pozostawienie AI w użyciu, ale z wyeliminowaniem jej potencjalnie szkodliwych zachowań. Ponieważ AI jest narzędziem stworzonym przez ludzi, odpowiedzialność prawna i finansowa spada na twórców lub właścicieli systemu. Przykładowo, firmy mogą być ukarane grzywną lub ograniczeniem możliwości działania, jeśli ich system AI narusza prawo, np. poprzez stosowanie niedozwolonych algorytmów nadzoru. 

W niektórych sytuacjach można nałożyć na twórców AI obowiązek naprawienia szkód wyrządzonych przez system. Przykładem jest sytuacja, gdy AI wprowadza w błąd klientów – w takim przypadku organizacja może zostać zobowiązana do zrekompensowania strat osobom poszkodowanym. W przypadkach, gdy system AI jest potencjalnie niebezpieczny, jego użycie może zostać ograniczone do „piaskownicy”, czyli kontrolowanego środowiska, gdzie może działać bez dostępu do prawdziwych danych. Dzięki temu można przetestować i poprawić działanie systemu, zanim zostanie on ponownie wdrożony na szeroką skalę. Firmy mogą zostać zobligowane do zwiększenia transparentności dotyczącej działania systemu AI, co oznacza regularne raportowanie o decyzjach podejmowanych przez AI, ewentualnych błędach i sposobach ich naprawiania. To działanie przypomina „karę” w postaci dodatkowej odpowiedzialności i pracy administracyjnej dla firmy. W przypadku systemów AI, które są szczególnie szkodliwe lub niezgodne z regulacjami, można nałożyć na firmę lub zespół zakaz dalszego rozwijania tej konkretnej technologii. Może to być skuteczne zwłaszcza w przypadkach AI generujących dezinformację lub naruszających prywatność.

To tylko niektóre przykłady jak ograniczać niepożądane efekty działalności i wykorzystania sztucznej inteligencji. Coraz więcej państw wprowadza do swojego ustawodawstwa nowe przepisy regulujące te kwestie. Ale wydaje się zasadne pytanie czy człowiek jest w stanie nadążyć za rozwojem AI? Czy sztuczna inteligencja nie powinna być kontrolowana przez… sztuczną inteligencją, będącą oczywiście pod kontrolą człowieka. Wydaje się, że mogłoby to przyśpieszyć, zautomatyzować proces nadzoru nad AI i zmniejszyć liczbę niebezpiecznych przypadków tego typu rozwiązań.

***

AMP S.A. to polska firma działająca na rynku od 2019 roku, specjalizująca się w usługach związanych z cyberbezpieczeństwem. 

Więcej ważnych informacji znajdziesz na stronie głównej Infor.pl

Źródło: Źródło zewnętrzne

Oceń jakość naszego artykułu

Dziękujemy za Twoją ocenę!

Twoja opinia jest dla nas bardzo ważna

Powiedz nam, jak możemy poprawić artykuł.
Zaznacz określenie, które dotyczy przeczytanej treści:
Autopromocja

REKLAMA

QR Code

REKLAMA

Prawo
Zapisz się na newsletter
Zobacz przykładowy newsletter
Zapisz się
Wpisz poprawny e-mail
Wadliwe umowy kredytu z WIBOR-em. Sądy przyznają rację kredytobiorcom - przegląd aktualnego orzecznictwa

Wedle szacunków przed polskimi sądami powszechnymi toczy się ponad tysiąc postępowań dotyczących zakwestionowania umów kredytowych z powołaniem się na wadliwość klauzuli zmiennego oprocentowania kredytu odwołującej się do stawki referencyjnej WIBOR. Analiza dostępnego publicznie agregatora orzecznictwa jakim jest Portal Orzeczeń Sądów Powszechnych, pozwala na przyjęcie wniosku, że zaczęły się pojawiać precedensowe orzeczenia uwzględniające rację kredytobiorców w sporach z bankami. W niniejszym artykule przedstawiam i omawiam te orzeczenia.

TSUE: Masz prawo wiedzieć, jak AI ocenia Twoją zdolność kredytową!

Trybunał Sprawiedliwości UE orzekł, że firmy stosujące automatyczne systemy oceny kredytowej muszą ujawniać, jakie dane wpływają na decyzję. Jeśli algorytm zdecyduje o odmowie kredytu lub usługi, klient ma prawo do wyjaśnień i zakwestionowania wyniku. Wyrok zapadł po sprawie w Austrii, gdzie kobieta nie dostała abonamentu za 10 euro, bo system AI uznał, że jej nie stać.

Dopłata do nowego auta: od 18750 do 40000 zł! O co chodzi z rządowym programem „NaszEauto”?

Chcesz kupić nowy samochód elektryczny? Teraz możesz dostać nawet 40 tys. zł dopłaty, przy spełnieniu określonych warunków! Oto wystartował rządowy program „NaszEauto”, który ułatwia Polakom przejście na ekologiczny transport. Sprawdź, kto może otrzymać wsparcie, w jakiej dokładnie wysokości i jak złożyć wniosek!

Molestowanie seksualne w pracy - nieoczywiste przypadki w orzeczeniach SN. Niestosowne komentarze, dotyk, sprośne dowcipy, sugestywne spojrzenia. Odpowiedzialność pracodawcy i sprawcy

Kodeks pracy wyraźnie stanowi, iż na molestowanie seksualne w miejscu pracy składać mogą się zarówno zachowania czysto fizyczne jak i te werbalne lub pozawerbalne. Z orzecznictwa Sądu Najwyższego płynie wniosek, że również pozornie neutralny kontakt fizyczny może stanowić zachowanie niestosowne. Również nieodpowiednie elementy werbalne lub pozawerbalne nie powinny być bagatelizowane. Sam sprawca ponosić może za nie odpowiedzialność karną i cywilną, a pracodawca również odpowiedzialność odszkodowawczą przewidzianą w Kodeksie pracy.

REKLAMA

Polska eldorado dla seniorów z zagranicy? ZUS wypłaca coraz więcej emerytur obcokrajowcom!

Liczba świadczeń długoterminowych dla cudzoziemców rośnie lawinowo! W ciągu roku ZUS wypłaca o kilka tysięcy więcej emerytur i rent, a kwoty idą w dziesiątki milionów złotych. Eksperci ostrzegają – to dopiero początek, a Polska może stać się rajem emerytalnym dla naszych wschodnich sąsiadów. Ile kosztuje nas ten trend i co nas czeka w przyszłości?

WSA interweniuje: MOPS odmówił 3287 zł świadczenia pielęgnacyjnego. Bo żona umierającego męża opiekowała się dziećmi zamiast pracować

Mąż zachorował na chorobę, na którą umiera się po 3-5 latach. Żona zajmowała się dziećmi. Od 20 lat nie pracowała. Choroba zaskoczyła rodzinę. MOPS nie chciał przyznać świadczenia pielęgnacyjnego bo nie było elementu rezygnacji z pracy przez kobietę. To seryjnie wadliwe interpretowanie przepisów przez MOPS. Nawet osoba bezrobotna od 20 lat mogła otrzymać świadczenie pielęgnacyjne (stare). O ile wyraziła gotowość do pracy i wykazała, że przeszkodą w podjęciu pracy jest kalectwo (niepełnosprawność znaczna) ojca albo matki.

Co trzeba zmienić w prawie restrukturyzacyjnym? Aktualne wyzwania okiem naukowca i sędziego

Wyzwanie to nowa sytuacja, z którą trzeba się zmierzyć, aby osiągnąć zakładane pozytywne rezultaty. Mówiąc o wyzwaniach prawa zakładamy, że na co dzień mierzą się z nimi praktycy, ale oczekujemy, że ostatecznie właściwe rozwiązania znajdą decydenci, a w szczególności twórcy prawa. Jakie są aktualne wyzwania prawa restrukturyzacyjnego?

FIZ na celowniku! Przełomowe wyroki w sprawie unikania opodatkowania

Sądy administracyjne masowo uchylają decyzje Szefa KAS dotyczące funduszy inwestycyjnych zamkniętych (FIZ). Czy to koniec stosowania klauzuli przeciwko unikaniu opodatkowania? A może podatnicy wciąż są na straconej pozycji?

REKLAMA

Rozstrzyganie o istotnych sprawach dziecka

Dla każdego społeczeństwa i systemu prawnego ochrona praw dziecka jest niezwykle istotna. Jednym z kluczowych aspektów tej ochrony jest uregulowanie kwestii rozstrzygania o sprawach dziecka, w których to jeszcze samodzielnie decydować nie może, a które to sprawy są istotne z perspektywy jego obecnego i przyszłego życia, zdrowia, czy rozwoju intelektualnego, zawodowego, czy nawet duchowego.

SN: Emerytowi za pracę ZUS przeliczył ponownie emeryturę z 6.449,32 zł na 5.577,57 zł (254,30 miesięcy średniego trwania życia) zamiast (238,90 miesięcy)

Na szczęście w omawianej w artykule sprawie zamiast 5.577,57 zł mamy emeryturę 6.482,97 zł. Wszystko dzięki sądom: okręgowym i apelacyjnym. Ta wyższa wysokość (6.482,97 zł) wynika z 238,90 miesięcy (tablice dalszego trwania życia) - ZUS próbował przyjąć większą liczbę miesięcy (aż 254,30 - to bardzo niekorzystnie dla emeryta) przy ponownym przeliczeniu emerytury. Dałoby to wynik 5.577,57 zł emerytury - aż o 871,75 zł mniej. Prosta reguła - im większa liczba miesięcy w przeliczeniu, tym gorzej dla emerytury.

REKLAMA