Trybunał Sprawiedliwości UE orzekł, że firmy stosujące automatyczne systemy oceny kredytowej muszą ujawniać, jakie dane wpływają na decyzję. Jeśli algorytm zdecyduje o odmowie kredytu lub usługi, klient ma prawo do wyjaśnień i zakwestionowania wyniku. Wyrok zapadł po sprawie w Austrii, gdzie kobieta nie dostała abonamentu za 10 euro, bo system AI uznał, że jej nie stać.
- AI odmówiło abonamentu za 10 euro, bo uznało, że nie ma zdolności kredytowej
- RODO kontra tajemnica przedsiębiorstwa. Co orzekł TSUE?
- Algorytmy pod kontrolą – co oznacza wyrok TSUE?
Czy algorytm AI może decydować o tym, czy dostaniesz kredyt lub podpiszesz umowę? Trybunał Sprawiedliwości UE wydał dzisiaj przełomowy wyrok w tym zakresie, który może wpłynąć na miliony konsumentów. Sprawa dotyczy Austriaczki, której odmówiono abonamentu za 10 euro, ponieważ system AI ocenił jej zdolność kredytową jako niewystarczającą. Gdy kobieta zażądała wyjaśnień, firma zasłoniła się tajemnicą przedsiębiorstwa. TSUE uznał jednak, że każda osoba ma prawo wiedzieć, jakie dane zostały wykorzystane w automatycznej ocenie oraz zakwestionować decyzję. To ważny krok w walce o większą przejrzystość algorytmów wpływających na życie konsumentów.
AI odmówiło abonamentu za 10 euro, bo uznało, że nie ma zdolności kredytowej
TSUE uznał, że osoba, którego zdolność kredytowa została oceniona przed automatyczny system, ma prawo do uzyskania wyjaśnienia, na podstawie jakich danych podjęto wobec niej decyzję oraz, w przypadku wątpliwości, prawo do jej zakwestionowania.
W sprawie przed Trybunałem chodzi o sytuację z Austrii, gdzie operator telefonii komórkowej odmówił klientce zawarcia umowy argumentując to tym, że nie miała ona wystarczającej zdolności kredytowej. Jej ocenę na zlecenie operatora wykonała spółka Dun & Bradstreet Austia specjalizująca się w dokonywaniu oceny zdolności kredytowych konsumentów przy wykorzystaniu zautomatyzowanego systemu opartego na technologii AI. W sprawie chodziło o abonament w wysokości 10 euro miesięcznie.
Po uzyskaniu odpowiedzi odmownej, klientka zwróciła się do Dun & Bradstreet o wyjaśnienia. Chciała się dowiedzieć na jakiej podstawie została podjęta decyzja, ale firma odmówiła udzielenia pełnych informacji zasłaniając się tajemnicą przedsiębiorstwa.
RODO kontra tajemnica przedsiębiorstwa. Co orzekł TSUE?
Sprawa trafiła najpierw do sądu krajowego, który uznał, że spółka naruszyła przepisy o ochronie danych (RODO), ponieważ nie udzieliła powódce „istotnych informacji o zasadach zautomatyzowanego podejmowania decyzji” bez wytłumaczenia właściwie dlaczego nie może ich udzielić. Austriacki sąd zwrócił się do Trybunału Sprawiedliwości UE o wykładnię RODO i przepisów o tajemnicy przedsiębiorstw.
W wydanym w czwartek 27 lutego br. orzeczeniu TSUE orzekł, że firma ma obowiązek konkretnie opisać procedurę i zasady stosowane w procesie zautomatyzowanego podejmowania decyzji, tak żeby osoba, która sprawa dotyczy mogła zrozumieć, które z jej danych osobowych i w jaki sposób zostały wzięte pod uwagę. Klient, który poddawany jest ocenie powinien otrzymać też informację o tym, czy i w jakim stopniu zmiana jej danych mogłaby zaowocować inną decyzją.
Jeśli przedsiębiorca, w tym wypadku spółka Dun & Bradstreet, uzna, że informacje, które ma przekazać zawierają chronione dane osób trzecich lub ujawniają tajemnice przedsiębiorstwa, powinna je przekazać właściwemu urzędowi nadzorczemu lub sądowi. To one zdecydują, które informacje mogą zostać ujawnione domagającemu się ich klientowi.
Algorytmy pod kontrolą – co oznacza wyrok TSUE?
Orzeczenie Trybunału Sprawiedliwości UE to istotny krok w kierunku większej transparentności procesów decyzyjnych opartych na sztucznej inteligencji. Firmy stosujące algorytmy do oceny zdolności kredytowej nie mogą zasłaniać się tajemnicą przedsiębiorstwa, gdy klienci domagają się wyjaśnień. To oznacza, że osoby, które spotykają się z odmową na podstawie decyzji AI, mają prawo dowiedzieć się, jakie dane były brane pod uwagę i czy możliwa jest ich korekta.
Wyrok TSUE może mieć szerokie konsekwencje dla sektora finansowego i telekomunikacyjnego, w którym coraz częściej wykorzystuje się zautomatyzowane systemy oceny ryzyka. Wprowadzenie obowiązku przejrzystości w działaniu algorytmów to krok w stronę ochrony praw konsumentów, ale także wyzwanie dla firm, które muszą dostosować swoje procedury do nowych wymogów.