Czy użytkownicy mediów społecznościowych wreszcie nie będą śledzeni?
REKLAMA
REKLAMA
- Scrollowanie a skutki dla psychiki
- Eksperyment z udziałem młodej matki
- Nowe unijne prawo dotyczące usług cyfrowych
Scrollowanie a skutki dla psychiki
REKLAMA
– Badania pokazują, że czas, jaki spędzamy na platformach internetowych, scrollując niewysokiej jakości treści, które budzą emocje i sensację, ale nie przekazują nam wartościowych informacji, ma daleko idące skutki dla naszej psychiki. Jest na ten temat cała grupa badań pokazujących negatywne skutki dla psychiki ludzi, szczególnie młodych. Ewidentnie widać wzrost odsetka ludzi z depresją, uzależnionych od urządzeń, którzy mają problemy ze snem, z koncentracją etc. – mówi agencji Newseria Biznes Katarzyna Szymielewicz, prawniczka, współzałożycielka i prezeska Fundacji Panoptykon.
REKLAMA
Z Facebooka, TikToka, X (dawniej Twitter) czy YouTube’a korzystają codziennie setki milionów użytkowników. Te największe platformy internetowe gromadzą na ich temat ogromne ilości danych. Dzięki temu algorytmy porządkujące treści w tzw. newsfeedzie są w stanie podrzucać użytkownikom coraz lepiej dopasowane treści, które angażują, żerują na emocjach, przykuwają do ekranów, pożerają czas i uzależniają od scrollowania. Korzystanie z takich feedów ma jednak negatywny wpływ na zdrowie psychiczne, zwłaszcza młodszych pokoleń, i może napędzać depresję, lęki, uzależnienia czy zaburzenia odżywiania.
– Projektujący te usługi doskonale wiedzą, jak wciągnąć nas w scrollowanie, jak wciągnąć nas w to, żebyśmy korzystali z mediów społecznościowych więcej, intensywniej, niż racjonalnie sobie tego życzymy – podkreśla ekspertka.
Eksperyment z udziałem młodej matki
REKLAMA
To, w jaki sposób działanie algorytmów reklamowych i porządkujących treści wpływa na zdrowie psychiczne, pokazało m.in. badanie, które Fundacja Panoptykon przeprowadziła w 2021 roku we współpracy z Piotrem Sapieżyńskim, badaczem z University of Northwestern. Z pomocą fundacji prześledził on ponad 2 tys. reklam, które w ciągu dwóch miesięcy pojawiły się w newsfeedzie jednej z użytkowniczek – młodej matki, dla której zdrowie było drażliwym tematem od czasu śmierci jednego z rodziców na raka. Eksperyment, szeroko opisywany m.in. przez „Financial Times”, dowiódł, że algorytm bazował na jej lęku przez zachorowaniem na nowotwór i niepokoju o zdrowie najbliższych. Dlatego ok. 20 proc. wyświetlanych jej reklam dotyczyło właśnie zdrowia. Do tego na liście zainteresowań badanej, które do celów reklamowych przypisał jej Facebook, znalazło się 21 kategorii związanych ze zdrowiem, w tym onkologia, świadomość raka, wady genetyczne i nowotwory. Użytkowniczka dostała też treści dotyczące zdrowia w określonej kolejności – najpierw te wywołujące u niej najsilniejsze emocje, np. zbiórki na leczenie ciężko chorych dzieci, a następnie zniżki na badania genetyczne w kierunku nowotworu albo innej choroby.
– Dziś w zasadzie wszystkie firmy, które projektują algorytmy serwujące nam treści, opierają się na tym samym modelu. Modelu, w którym zysk pochodzi z angażowania naszej uwagi i z reklamy. Dopóki ten model jest obowiązujący, trudno liczyć na to, że sam algorytm stanie się dla nas łaskawszy, że będzie nam proponował lepsze treści. On jest tylko narzędziem – tłumaczy Katarzyna Szymielewicz. – Jeżeli model się zmieni, jeżeli pod spodem będziemy mieli inne przepływy finansowe, jeżeli ludzie będą płacili za jakościowe treści, będą ich aktywnie szukali i media będą takie treści serwowały, to również algorytm – jako narzędzie doboru treści – nie będzie problemem. To jest wyłącznie pośrednik, który w tym momencie podrzuca nam to, co jest w sieci i na co my prawdopodobnie zareagujemy silnymi emocjami.
Wbrew temu, co deklarują platformy internetowe, ich użytkownicy nie mają możliwości wyeliminowania niepożądanych treści. Eksperyment Sapieżyńskiego i Panoptykonu dowiódł, że nawet wyczyszczenie preferencji w ustawieniach reklamowych Facebooka nie daje żadnego efektu, ponieważ platforma szybko przypisuje użytkownikowi nowe, podobne kategorie zainteresowań.
Istotne jest też to, że w praktyce bardzo trudno jest zrezygnować z użytkowania tej platformy, chociażby ze względu na fakt, że kontakty międzyludzkie w ogromnej części przeniosły się do świata online. Facebook stał się forum wymiany informacji, ale też umożliwia uczestnictwo np. w grupach czy wydarzeniach. Wiele firm wręcz wymaga od swoich pracowników aktywnego korzystania z tego portalu.
– To jest wyścig zbrojeń, w którym człowiek zawsze przegrywa. Dlatego my nie mówimy: „Człowieku, ogarnij się, odłóż telefon, nie scrolluj”, nie proponujemy takiego rozwiązania. Oczywiście tak jest lepiej i jeśli ktoś ma świadomość, że jest uzależniony od telefonu, że scrolluje za dużo, ogląda treści, które powodują negatywne skutki dla psychiki, to powinien coś z tym zrobić. Ale to jest bardzo trudne. Dlatego potrzebujemy prawa i regulacji, które zmienią naturę tych usług, zakażą najgorszych, najbardziej inwazyjnych praktyk. I właśnie to robi dziś Unia Europejska po przyjęciu, po pełnym wdrożeniu w życie DSA, czyli Kodeksu usług cyfrowych, który zakazuje projektowania wciągającego ludzi, manipulowania ich uwagą – mówi Katarzyna Szymielewicz.
Nowe unijne prawo dotyczące usług cyfrowych
Na mocy nowego unijnego prawa – Digital Services Act – wielkie platformy internetowe takie jak Facebook czy TikTok były zobowiązane do 25 sierpnia br. wdrożyć zmiany umożliwiające użytkownikom korzystanie z lepszych feedów. Te zmiany na platformach dotyczą m.in. algorytmów rekomendujących treści. Od 25 sierpnia br. platformy muszą nie tylko wyjaśniać logikę funkcjonowania swoich feedów, ale też proponować użytkownikom możliwość wyboru przynajmniej jednego systemu doboru treści, który nie bazuje na śledzeniu, czyli nie wykorzystuje danych osobowych do rekomendowania treści. Platformy muszą też regularnie oceniać ryzyka związane z działaniem swoich algorytmów i wykazywać, jak starają się im zapobiegać.
– Korzystając z nowych funkcji, jakie platformy wprowadziły pod wpływem nowego prawa unijnego, przede wszystkim możemy dziś wybrać sobie feed, który nie jest profilowany w oparciu o nasze dane. To oznacza, że nie musimy zgadzać się na to, że nasz telefon podpowiada nam treści, które oparte są na śledzeniu naszego zachowania i są obliczone na taki efekt, w którym nie możemy się od tego odkleić. W zamian można wybrać sobie np. strumień aktualności, który pokazuje treści popularne w mojej okolicy, treści jakościowe, które nie są dobrane do mnie, ale mimo to mogą być dla mnie ciekawe. Niektóre platformy poszły innym tropem i pokazują nam np. treści chronologicznie wrzucane przez naszych znajomych, co może być mniej angażujące, ale bardziej wartościowe, jeżeli interesuje mnie właśnie to, co robią moi znajomi. Dlatego zachęcamy do eksperymentowania z tym, jaki feed można sobie ustawić, bo te opcje się pojawiają – mówi ekspertka.
Jak podkreśla, może to mieć skutki także dla debaty publicznej. Dziś – ze względu na sposób działania algorytmów – promowane są treści niskiej jakości, szybkie, clickbaitowe, angażujące emocje. Dlatego też media idą właśnie tym tropem i w ten sposób tworzą swoje treści, bo w ten sposób konkurują o uwagę scrollującego użytkownika
– To jest błędne koło, w którym my dostajemy coraz gorsze treści, bo nie ma lepszych, a nie ma lepszych, bo ludzie klikają w te słabe, a klikają w nie, bo właśnie te słabe, ale angażujące są podbijane najwyżej w newsfeedach. Cały ten model musi się zmienić, żebyśmy zaczęli mieć dostęp do treści jakościowych, karmiących naszą potrzebę wiedzy o świecie, a nie tylko potrzebę bycia zaangażowanym – podkreśla prezeska Fundacji Panoptykon.
Więcej ważnych informacji znajdziesz na stronie głównej Infor.pl
REKLAMA
REKLAMA
- Czytaj artykuły
- Rozwiązuj testy
- Zdobądź certyfikat