Demonetyzacja treści serwisów internetowych (np. filmu na YouTube). Kiedy jest to legalne? Czy można żądać odszkodowania za skutki działania błędnego algorytmu AI?
REKLAMA
REKLAMA
- Treści wideo na platformach internetowych – zarabianie na reklamach (monetyzacja) i demonetyzacja
- Jak wygląda proces decyzyjny podjęcia decyzji przez algorytm AI platform internetowych?
- Jak należy definiować Sztuczną Inteligencję?
- Demonetyzacja filmu – czy to legalne?
- Jakie konsekwencje niesie błędna decyzja algorytmu AI
- Rozwiązania de lege ferenda
Treści wideo na platformach internetowych – zarabianie na reklamach (monetyzacja) i demonetyzacja
REKLAMA
Współczesne platformy internetowe, takie jak przykładowo YT, zrewolucjonizowały sposób, w jaki tworzymy i konsumujemy treści wideo. Przykład: amerykańska platforma YouTube, z ponad 2 miliardami miesięcznie aktywnych użytkowników, z czego znaczną część twórców chociażby w Polsce coraz częściej stanowią profesjonalni dziennikarze.
Taki serwis stanowi więc kolejne źródło dystrybucji treści wideo tworzonych przez profesjonalistów, w tym materiałów zarabiających na reklamach. Twórcy, którzy udostępniają swoje filmy na platformie, liczą więc na dochody z tak zwanego ruchu treści i popularności kontentu jak również z wyświetlanych reklam.
Platformy, które pierwotnie były tworzone dla stworzenia wolności bezpłatnego udostępniania, edycji, nadawania na żywo i komentowana filmów, stały się obecnie miejscem konfliktu interesu, pomiędzy prewencyjnymi środkami bezpieczeństwa treści a wolnością aktywności prasowej.
Demonetyzacja, czyli utrata możliwości zarabiania na filmie, jest jednym z najczęstszych problemów napotykanych przez twórców. Zgodnie z informacjami udostępnianymi przez samych autorów, decyzje o demonetyzacji podejmowane są w dużej mierze rzekomo przez algorytmy sztucznej inteligencji (AI), które analizują treści wideo pod kątem ich zgodności z polityką reklamową platform. Niestety, algorytmy te nie są pozbawione wad, co czasem prowadzi do wątpliwych subiektywnie decyzji o zablokowaniu tak zwanej monetyzacji, czyli statusu materiału video zgodnego ze standardowymi zasadami funkcjonowania na takiej platformie.
REKLAMA
Taka ocena materiału filmowego i problemy związane z użytkownikami portali są ciekawym zjawiskiem z perspektywy zasad i skutków należytego wykonania umowy. Jest sprawą otwartą czy i w jaki sposób takie relacje mogłyby być ocenione jako nienależyte wykonanie umowy przez platformy internetowe oraz jakie konsekwencje prawne mogą wynikać z takich błędów.
Jak wygląda proces decyzyjny podjęcia decyzji przez algorytm AI platform internetowych?
Algorytmy sztucznej inteligencji stosowane przez platformy internetowe do wykrywania naruszeń polityki reklamowej platform są niezwykle złożone. Systemy te analizują zarówno treść audio, jak i wideo, szukając elementów, które mogą być uznane za naruszenie zasad społeczności danej platformy lub zasady monetyzacji. Mogą to być np. treści promujące przemoc, nienawiść, dezinformację czy inne kontrowersyjne tematy. Algorytmy są zaprogramowane tak, aby identyfikować takie elementy na podstawie określonych wzorców, co pozwala na automatyczne ocenianie treści wideo w czasie rzeczywistym. Chociaż w teorii taki system ma na celu zapewnienie sprawiedliwości i eliminowanie treści naruszających zasady platformy, w praktyce dochodzi do licznych błędów, które skutkują niesłuszną demonetyzacją.
Przykładem może być sytuacja, w której film, zawierający kontrowersyjny, ale legalny materiał, jest demonetyzowany, mimo iż nie łamie zasad takich platform jak YouTube.
Możliwość popełnienia błędu wynika z faktu, że algorytmy AI mogą mieć trudności z interpretacją kontekstu lub rozpoznawaniem niuansów w treści wideo. Z tego powodu, decyzje algorytmów mogą być błędne. To, z kolei, może stanowić potencjalne naruszenie umowy pomiędzy twórcą a taką platformą.
Jak należy definiować Sztuczną Inteligencję?
Zarówno w polskim jak i europejskim systemie prawnym nie ma jednolitej definicji sztucznej inteligencji, natomiast w obecnym czasie trwają prace nad projektem rezolucji Parlamentu Europejskiego z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL), P9_TA(2020)0276). Przez to właśnie, Parlament Europejski spróbował jednak podjąć tę próbę, a mianowicie, że system sztucznej inteligencji to system oparty na oprogramowaniu lub wbudowanym w urządzenia, który wykazuje zachowanie symulujące inteligencję. Działa on m.in. poprzez gromadzenie i przetwarzanie danych, analizowanie otoczenia oraz podejmowanie działań w sposób autonomiczny, mający na celu osiągnięcie określonych celów.
Demonetyzacja filmu – czy to legalne?
Pytanie jest otwarte i wiąże się między innymi z indywidualną oceną działania nie tylko polskich zasad tak zwanego „należytego” wykonania umowy publikacji treści video, ale samego statusu prawnego jako tak zwanego „materiału prasowego”.
Zgodnie z art. 3 ust. 5 Ustawy o zasadach uczestnictwa przedsiębiorców zagranicznych i innych osób zagranicznych w obrocie gospodarczym na terytorium Rzeczypospolitej Polskiej. Dz.U.2022.470 t.j. z dnia 25 lutego 2022 roku, podmiot administrujący platformę internetową teoretycznie wypełnia ustawową definicję osoby zagranicznej [dokładnie będąc zwykle osobą prawną z siedzibą za granicą]. Często bowiem operator takiego portalu nie posiada odrębnego oddziału w Polsce. Są jednak wyjątki. Przykładowo popularny portal YouTube na polskim rynku jest zarządzany przez Google Poland sp. z o.o., który na gruncie powyższej regulacji posiada obiektywnie swoją siedzibę w Warszawie.
Z kolei, jeśli chodzi o zakwalifikowanie udostępnianych przez osoby pełniące zawód dziennikarza materiałów wideo, można stwierdzić, że zgodnie z art. 1 w związku z art. 7 ustawy prawo prasowe, prasą są także wszelkie istniejące i powstające w wyniku postępu technicznego środki masowego przekazywania, w tym także rozgłośnie oraz tele i radiowęzły zakładowe, upowszechniające publikacje periodyczne za pomocą druku, wizji, fonii lub innej techniki rozpowszechniania; prasa obejmuje również zespoły ludzi i poszczególne osoby zajmujące się działalnością dziennikarską. Kluczowy w tej kwestii wydaje się wyrok Sądu Najwyższego, z dnia 24 listopada 2017 r., I CSK 73/17, w którym sąd wskazał, że w myśl prawa prasowego, prasą są nie tylko dzienniki i czasopisma, lecz także “wszelkie istniejące i powstające w wyniku postępu technologicznego publikacje periodyczne za pomocą druku, wizji, fonii lub innej techniki rozpowszechniania”. Warto podkreślić, że choć dana treść rozpowszechniana jest za pośrednictwem Internetu, nie ma znaczenia dla jej klasyfikacji prawnej jako prasy. Nie oznacza to jednak, że każdy blog powinien być z góry uznany za prasę, a jego twórca powinien go niezwłocznie zarejestrować. Rozstrzygająca jest tutaj funkcja, jaką pełni dany blog, a nie forma przekazu.
Status prawny twórcy materiału na platformie zależy w dużej mierze od tego czy taka współpraca z portalem wpisuje się w ramy regulacji prawa prasowego. Ważne jest, że nie każdy twórca materiału wpisuje się w ustawową definicję dziennikarza. Polskie prawo prasowe w sposób sztywny i precyzyjny rozróżnia w swoich definicjach legalnych nie tylko kwestie istotne z perspektywy samej platformy, takie jak prasa, czasopismo czy materiał prasowy. Polska regulacja definiuje konkretnie sam status dziennikarza, redaktora czy redaktora naczelnego, a dopiero ten status i łącznie wszystkie powyższe elementy tworzą obiektywnie możliwość korzystania z wszystkich mechanizmów ochrony prasy jakie tworzy prawo prasowe. Dlatego, trzeba wskazać, że w przeważającej większości twórców model współpracy z platformą internetową odbiega od wszystkich wymogów i przesłanek, aby podlegać ochronie z prawa prasowego, a to z kolei stwarza większe pole wolności zasad publikowania materiału wideo tworzonych jednostronnie przez operatora takiej platformy.
Dlatego regulaminy platform internetowych to nic innego jak rodzaj zasad wykonywania umowy, przy czym jest to umowa, której się co do zasady nie negocjuje. Jedna strona wskazuje w stworzonym przez siebie dokumencie warunki współpracy, a druga – jeżeli przystaje na te warunki – musi je zaakceptować. Akceptacja regulaminu jest najczęściej jednoznaczna z zawarciem umowy o treści w nim określonej. Może być traktowany jako element umowy cywilnej zawieranej z użytkownikiem platformy, której warunki nie muszą być sprzeczne z obowiązującymi przepisami prawa polskiego. Oznacza to, że, platforma ustalająca swoje zasady globalnie, nie powinna kształtować regulaminu w sposób, który może naruszać zasady porządku prawnego obowiązującego w Polsce, w tym przepisów Kodeksu Cywilnego. W przypadku dziennikarzy, którzy prowadzą konta publicystyczne, ale na platformach internetowych kontrowersyjne w ogóle jest czy podlegają oni przepisom prawa prasowego. Prawo prasowe w Polsce zapewnia dziennikarzom szczególną ochronę dotyczącą ich pracy (m.in. wolność słowa, prawo do publikacji). Jest więc sprawą otwartą czy regulamin takiej platformy, nawet jeśli jest umową cywilną, nie może ograniczać tych uprawnień w sposób sprzeczny z prawem krajowym. Tylko dziennikarze, bowiem, powinni w świetle prawa prasowego korzystać z ochrony jeśli ich materiały mają charakter publicystyczny, informacyjny lub opiniotwórczy zgodnie z ich profilem zawodowym i są publikowane w ramach systemu definiowanego w prawie prasowym, których współpraca z platformami nie zawsze wypełnia te przesłanki. Zatem w przypadku, gdyby platforma internetowa ograniczała możliwość publikacji materiału zgodnego z przepisami prawa prasowego, zachodzi w ogóle pytanie czy dziennikarz mógłby powołać się na niewykonanie umowy cywilnej na podstawie przepisów Kodeksu Cywilnego.
Twórca treści może w takich przypadkach jedynie teoretycznie dochodzić roszczeń na podstawie nienależytego wykonania umowy i domagać się odszkodowania, jeśli platforma nie spełnia swoich zobowiązań wynikających z umowy (np. blokując lub demonetyzując zgodne z prawem treści oraz regulaminem).
Jakie konsekwencje niesie błędna decyzja algorytmu AI
Usunięcie filmu podjęte na podstawie algorytmu AI można skonfrontować z Ustawą o świadczeniu usług drogą elektroniczną (art.13). Blokowanie albo ewentualne usuwanie treści w materiale dotyczy bowiem modyfikacji danych. Zgodnie z tym przepisem można w niektórych przypadkach wyłączyć odpowiedzialność usługodawców świadczących usługi cachingu, ponieważ nie ponosi odpowiedzialności za przechowywane dane ten, kto transmitując dane oraz zapewniając automatyczne i krótkotrwałe pośrednie przechowywanie tych danych w celu przyspieszenia ponownego dostępu do nich na żądanie innego podmiotu ani nie modyfikuje danych; ani nie posługuje się uznanymi i stosowanymi zwykle w tego rodzaju działalności technikami informatycznymi określającymi parametry techniczne dostępu do danych oraz nie zakłóca posługiwania się technikami informatycznymi uznanymi i stosowanymi zwykle w tego rodzaju działalności w zakresie zbierania informacji o korzystaniu ze zgromadzonych danych.
Caching (z ang. "cache" – pamięć podręczna) to technika wykorzystywana w informatyce i technologii komputerowej, mająca na celu przyspieszenie dostępu do danych poprzez przechowywanie najczęściej używanych informacji w szybszym źródle pamięci. Głównym celem cachingu jest zmniejszenie opóźnienia w dostępie do danych, co w efekcie poprawia wydajność systemów komputerowych, aplikacji czy stron internetowych.
Omawiany przepis jest implementacją art. 13 dyrektywy 2000/31 2000/31/WE PARLAMENTU EUROPEJSKIEGO I RADY z dnia 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach rynku wewnętrznego (dyrektywa o handlu elektronicznym). Ponadto, Unia Europejska w najnowszym rozporządzeniu dotyczącym sztucznej inteligencji, wprowadza wymóg, aby systemy sztucznej inteligencji, zwłaszcza te o wysokim ryzyku, były przejrzyste i odpowiadały za swoje decyzje. Dla platform internetowych oznacza to, że algorytmy stosowane w platformie (np. algorytmy rekomendacji, moderacji treści, demonetyzacji wideo) mogą wymagać większej przejrzystości.
Platformy zatem mogą być zobowiązane do:
- wyjaśniania użytkownikom, jak działają algorytmy: na przykład, w jaki sposób działają algorytmy rekomendacji treści lub algorytmy oceny filmów,
- umożliwienia większej kontroli użytkownikom, co może oznaczać, że w niektórych przypadkach użytkownicy mogą otrzymać możliwość wpływania na sposób, w jaki AI wybiera treści, które są im polecane.
Akt o AI wprowadza przepisy mające na celu odpowiedzialność za decyzje podejmowane przez AI, zwłaszcza w przypadku systemów o wysokim ryzyku. Platformy internetowe korzystające z AI do moderacji treści, oceny naruszeń regulaminów czy wykrywania plagiatów, mogą zatem być zobowiązane do:
- odpowiedzialności za błędy algorytmów; jeśli algorytmy platform popełnią błąd (np. błędnie demonetyzują materiał lub usuną go bez uzasadnienia), platformy mogą być zobowiązane do przejęcia odpowiedzialności i zapewnienia mechanizmów odwoławczych, które umożliwiają użytkownikom naprawienie takiej sytuacji.
- wdrożenia transparentności w procesach automatycznych: w przypadku decyzji podejmowanych automatycznie przez AI (np. demonetyzacja wideo, blokada konta), platformy internetowe mogą być zmuszone do dokładniejszego przedstawiania uzasadnienia tych decyzji, co może zmniejszyć liczbę fałszywych alarmów.
Rozwiązania de lege ferenda
Szybki rozwój sztucznej inteligencji oraz związane z nim zagrożenia stanowią problem o zasięgu globalnym. Nic więc dziwnego, że Unia Europejska podjęła się regulacji tego obszaru. Choć odpowiednie przepisy jeszcze nie weszły w życie, na stronie Parlamentu Europejskiego można znaleźć projekt rezolucji z zaleceniami dla Komisji dotyczącej systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL)). Dokument ten zawiera m.in. ramy przyszłego rozporządzenia dotyczącego odpowiedzialności za szkody wyrządzone przez AI oraz uzasadnienie dla tego aktu prawnego. Zawiera także opinie Komisji Rynku Wewnętrznego i Ochrony Konsumentów dotyczące tej regulacji. Całość pozwala na uzyskanie wstępnego wglądu w to, jak może wyglądać odpowiedzialność za działania sztucznej inteligencji w niedalekiej przyszłości. Brak jasnych ram prawnych chociażby, na przykładzie omawianym w tym artykule dotyczącym platform internetowych, pokazuje jak wiele rozbieżności może zaistnieć w tej kwestii. Błędy algorytmiczne w procesie demonetyzacji mogą negatywnie wpłynąć na twórców. Wprowadzenie bardziej precyzyjnych algorytmów, systemów odwoławczych oraz rekompensat dla twórców może pomóc w rozwiązaniu problemów związanych z nienależytym wykonaniem umowy oraz poprawić sprawiedliwość procesu demonetyzacji.
Autor: K. Jakub Gładkowski, radca prawny, partner, kancelaria radców prawnych KG LEGAL KIEŁTYKA GŁADKOWSKI
REKLAMA
REKLAMA
© Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A.
- Czytaj artykuły
- Rozwiązuj testy
- Zdobądź certyfikat