Facebook przed sądem
Uzależnienie od mediów społecznościowych
W październiku 2023 roku prokuratorzy generalni czterdziestu jeden amerykańskich stanów złożyli liczący 233 strony pozew przeciwko Meta Platforms, Inc.
Wyjątkowość tego dokumentu – jego historyczny wymiar – nie leży w powadze zarzutów, lecz w tożsamości najważniejszego świadka oskarżenia. Skarga została zbudowana niemal wyłącznie ze słów pracowników i współpracowników korporacji Meta: jej wewnętrznych badań, patentów, zeznań kongresowych jej dyrektorów, prywatnych e-maili inżynierów.
Jednocześnie toczą się dwa procesy przed ławami przysięgłych – w Santa Fe i w centrum Los Angeles – podczas gdy federalny sąd apelacyjny w San Francisco rozstrzyga istotne zagadnienia wstępne.
Poniżej próba zmapowania całego pola bitwy.
- Dyskusja o tym artykule – pod postem na LinkedIn.
Facebook prowadzi batalie sądowe na trzech frontach
Wszystkie trzy postępowania łączy tożsamość pozwanej korporacji, stan faktyczny i moralna architektura. Różnią je teoria prawna, strona powodowa i cel strategiczny.
Santa Fe: operacja pod przykryciem
Na początku 2026 roku ruszył proces w Santa Fe przed nowomeksykańską ławką przysięgłych—pierwsze w historii samodzielne postępowanie stanowe, które postawiło Metę przed dwunastoma obywatelami w oparciu o zarzut eksploatacji seksualnej dzieci za pośrednictwem algorytmów platformy. Prokurator generalny Nowego Meksyku Raúl Torrez przygotował się do procesu w niekonwencjonalny sposób. Jego biuro przeprowadziło tajną operację śledczą, o kryptonimie Operacja MetaPhile, w ramach której śledczy założyli fikcyjne konto trzynastoletniej dziewczynki o imieniu Issa Bee na Facebooku. W ciągu tygodni konto zgromadziło 5 000 znajomych i ponad 6 700 obserwujących—niemal wyłącznie dorosłych mężczyzn z Nigerii, Ghany i Dominikany. Algorytm rekomendacyjny Mety stale rozszerzał zasięg konta. Platforma zaproponowała Issie Bee założenie konta profesjonalnego i monetyzację obserwujących. Operacja objęła kilka fikcyjnych profili; trzy osoby zostały zatrzymane po przybyciu na miejsce w przekonaniu, że spotkają się z nieletnimi.
O tej sprawie pisałem miesiąc temu w artykule Nowy Meksyk kontra Meta & Facebook.
Los Angeles: Zuckerberg zmuszony do zeznań
W sali sądowej w centrum Los Angeles od początku lutego 2026 roku toczył się inny proces. Adam Mosseri, szef Instagrama, zeznawał 11 lutego, przed pojawieniem się Zuckerberga. To sprawa bellwether—jeden przypadek testowy wybrany spośród ponad 1 600 pozwów złożonych przez rodziców przeciwko Mecie, Google’owi (YouTube), Snapowi i TikTokowi. TikTok i Snap zawarły poufne ugody. Meta i Google pozostają pozwanymi.
Powódka, identyfikowana w aktach jako Kaley G.M.—ma dziś dwadzieścia lat, jej nazwisko jest utajnione—zaczęła używać Instagrama w wieku dziewięciu lat. 18 lutego zasiadła w pierwszym rzędzie i obserwowała, jak Mark Zuckerberg, jeden z pięciu najbogatszych ludzi na świecie, zasiada na ławce świadka strony przeciwnej. W ciemnogranatowym garniturze i szarokremowym krawacie, blady i wyraźnie poirytowany, był przez kilka godzin przesłuchiwany przez Marka Laniera—adwokata z Teksasu, który reputację budował w sprawach przeciwko Purdue Pharma.
Lanier przedstawił dokumenty wykazujące, że 4 miliony dzieci poniżej 13 lat miało konta na Instagramie w 2015 roku, w tym ok. 30% wszystkich amerykańskich dzieci w wieku 10–12 lat. E-mail Zuckerberga z końca 2015 roku wyrażał nadzieję na 12-procentowy wzrost czasu spędzonego w aplikacji. Wewnętrzne dokumenty z 2022 roku wyznaczały „kamienie milowe”: 40 minut dziennie na aktywnego użytkownika w 2023, 42 w 2024, 44 w 2025, 46 w 2026. Mosseri w swojej samoocenie opisał główny cel Instagrama jako zapewnienie „kulturowej relewancji mierzonej czasem sesji, szczególnie wśród nastolatków”.
Zuckerberg uparł się, że to nie były „cele”, lecz „kamienie milowe”. „Nie dajesz im celów, dajesz im kamienie milowe”—powiedział Lanier z teksaską bezpośredniością. „To nieprawda, fałszywie charakteryzujesz dokument i to, co powiedziałem”—odpowiedział płasko Zuckerberg. Ława przysięgłych, złożona z dwunastu zwykłych ludzi, zapewne noszących Instagrama w kieszeni, wzięła to pod uwagę.
San Francisco: pytanie, które decyduje o wszystkim
Trzecie postępowanie jest pod niektórymi względami najważniejsze, choć wywołało znacznie mniej zainteresowania mediów niż zeznanie Zuckerberga. W Dziewiątym Okręgu Sądu Apelacyjnego w San Francisco Meta zaskarżyła decyzję sądu pierwszej instancji odmawiającą oddalenia pozwu 41 stanów na podstawie Sekcji 230. Numer sprawy to 24-7032, a pytanie postawione sądowi jest precyzyjne: czy Sekcja 230 chroni platformę przed odpowiedzialnością za własne decyzje projektowe—infinite scroll, algorytmy maksymalizujące zaangażowanie, architekturę powiadomień—czy ochrona ta sięga wyłącznie treści tworzonych przez użytkowników?
W czerwcu 2025 roku koalicja organizacji i prawników akademickich złożyła amicus brief po stronie stanów. Wśród sygnatariuszy znaleźli się Danielle Keats Citron z University of Virginia, Frank Pasquale z Cornell University i Neil Richards z Washington University w St. Louis. Ich pismo jest intelektualnym szkieletem wszystkich trzech postępowań.
Czy media społecznościowe chroni immunitet przed odpowiedzialnością?
Aby docenić wagę sprawy w Dziewiątym Okręgu, warto zrozumieć, skąd pochodzi Sekcja 230—i, co ważniejsze, czego nigdy nie miała chronić.
W 1995 roku sąd w Nowym Jorku rozstrzygnął sprawę o zniesławienie dotyczącą platformy Prodigy Services. Prodigy moderowała swoje tablice: zakazywała obscenicznych treści i egzekwowała zasady społeczności. Sąd orzekł, że ta działalność redakcyjna czyniła z Prodigy wydawcę w sensie prawnym, a nie dystrybutora. Konsekwencja była alarmująca: każda platforma moderująca treści użytkowników mogła być pociągnięta do odpowiedzialności za wszystkie treści, których nie usunęła. Kongres uznał to za pułapkę i działał szybko. Sekcja 230, uchwalona w 1996 roku, ustanowiła, że platformy internetowe nie są wydawcami treści swoich użytkowników, niezależnie od tego, czy moderują.
Problem polega na tym, że to, co Kongres uchwalił jako skalpel, było przez trzydzieści lat używane jako maczuga. Przepis miał rozwiązać jeden konkretny problem—„dylemat moderatora”—i nic więcej. Dylemat w najprostszej postaci: jeśli moderowanie platformy czyni cię odpowiedzialnym za wszystko, czego nie usunąłeś, albo zaprzestaniesz moderowania, albo w ogóle zaprzestaniesz hostowania użytkowników. Sekcja 230 usunęła tę konkretną odpowiedzialność. Nie miała immunizować platform przed skutkami ich własnych wyborów inżynierskich.
Test, który wszystko rozstrzyga
Dziewiąty Okrąg wypracował dwuelementowy test określający, kiedy Sekcja 230 ma zastosowanie, doskonalony przez linię orzeczniczą od Barnes v. Yahoo! (2009) przez Lemmon v. Snap (2021) do Calise v. Meta (2024). Po pierwsze: czy spełnienie obowiązku wynikającego z danego roszczenia wymagałoby od platformy monitorowania, edytowania lub usuwania treści generowanych przez użytkowników? Po drugie: czy źródłem tego obowiązku jest decyzja platformy o hostowaniu lub moderowaniu treści użytkowników—czy coś zupełnie innego? Tylko jeśli obie odpowiedzi brzmią „tak”, Sekcja 230 chroni pozwanego.
Przełomowy wyrok to Lemmon v. Snap z 2021 roku. Snap zbudował filtr wyświetlający prędkość jazdy użytkownika. Nastolatkowie używali go podczas prowadzenia samochodu. Kilkoro zginęło. Sąd orzekł, że roszczenie o wadliwy projekt produktu nie jest zablokowane przez Sekcję 230, ponieważ obowiązek bezpiecznego projektowania nie wynika z decyzji o hostowaniu treści użytkowników. Pochodzi z innej roli: projektanta produktu.
To jest teoria prawna, która zasila wszystkie trzy sprawy przeciwko Mecie jednocześnie. Amicus brief formułuje ją z charakterystyczną zwięzłością:
“Section 230 is not a get-out-of-jail-free card. It is a scalpel to be used on a specific type of speech-endangering claim—one that is not at issue in this case.” — EPIC Amicus Brief, No. 24-7032, 30 czerwca 2025
Sześć typów działań, których Sekcja 230 nie chroni
Pozew 41 stanów atakuje działania korporacji Meta na sześciu płaszczyznach. Żadna nie dotyczy treści publikowanych przez użytkowników. Każdy dotyczy wyboru, który Meta podjęła jako projektant produktu.
Infinite scroll i autoplay. Meta opatentowała mechanizm ciągłego dostarczania treści, który eliminuje naturalne punkty zatrzymania. Zamiast „strona wypełniona” pojawia się nowy ładunek treści. Alternatywa—paginacja lub wymóg aktywnego uruchomienia odtwarzania—nie wymaga dotykania żadnej treści użytkownika. Tak działał internet przed 2012 rokiem.
Algorytmy rekomendacyjne maksymalizujące czas sesji. Facebook przeszedł z chronologicznego feedu na engagement-based w 2009 roku; Instagram w 2016. Algorytm nie rankinguje treści według wartości informacyjnej ani wyraźnych preferencji użytkownika. Rankinguje je według przewidywanego prawdopodobieństwa wywołania zachowań maksymalizujących czas spędzony na platformie. Wewnętrzne dokumenty wyznaczały „kamienie milowe” rosnącego czasu sesji na kolejne cztery lata. Alternatywa—optymalizacja pod kątem relewancji—nie wymaga usuwania żadnej treści.
Filtry zmieniające wygląd. Instagram oferuje narzędzia do modyfikowania fotografii imitujące efekty chirurgii plastycznej. Wewnętrzny panel osiemnastu ekspertów Mety—potwierdzony przez Zuckerberga pod przysięgą podczas procesu w Los Angeles—rekomendował ich zablokowanie. Meta odmówiła, powołując się na wolność wyrazu. Własne badania firmy dokumentowały związek filtrów z dysmorfiką ciała u nastolatek. Meta tymczasowo je zablokowała—i przywróciła.
System powiadomień projektowany pod psychologiczną podatność. Meta opatentowała algorytm wyznaczający optymalny moment wysłania powiadomienia—nie wtedy, gdy jest to wygodne dla użytkownika, lecz gdy jest on najbardziej podatny na kliknięcie. Nastolatki otrzymują średnio 237 powiadomień dziennie. Wyłączenie wszystkich powiadomień naraz jest niemożliwe; trzeba to robić kategoria po kategorii.
Efemeryczność jako narzędzie przymusu FOMO. Stories znikają po 24 godzinach. Wewnętrzna prezentacja z 2019 roku dokumentuje, że ponad połowa nastolatków używających Instagrama doświadcza strachu przed pominięciem, a „nastolatkowie są dobrze świadomi, że Instagram może być szkodliwy dla ich zdrowia psychicznego, lecz czują się zmuszeni do spędzania na nim czasu z obawy przed pominięciem trendów”.
Przerywane harmonogramy wzmocnienia zmiennego (IVRS). Termin pochodzi z psychologii behawioralnej i opisuje najskuteczniejszy znany mechanizm podtrzymywania kompulsywnych zachowań: nagrodę pojawiającą się nieregularnie. Na tej zasadzie działają automaty do gry. Pracownik Mety napisał w dokumencie wewnętrznym, cytowanym w równoległych postępowaniach przed tym samym sądem: „Przerywane nagrody są najskuteczniejsze (pomyśl o automatach do gry), wzmacniając zachowania, które stają się szczególnie trudne do wygaszenia.” Dokument opisywał cel projektowy.
Facebook vs Facebook – Korporacja jako własny świadek koronny
Jeśli teoria prawna jest szkieletem tego sporu, dokumenty wewnętrzne Mety są jego ciałem. Pozew 41 prokuratorów jest wyjątkowym dokumentem nie dlatego, że stawia poważne zarzuty—robi to wiele pozwów—lecz dlatego, że każdy zarzut jest udokumentowany czymś, co Meta napisała sama.
Zeznanie założyciela
W 2017 roku Sean Parker—pierwszy prezydent Facebooka i jeden z głównych architektów jego strategii wzrostu—udzielił wywiadu, który, gdyby był złożony pod przysięgą, wystarczyłby jako centralny dowód w procesie:
„Proces myślowy, który leżał u podstaw budowania tych aplikacji, polegał w całości na jednym pytaniu: jak pochłonąć jak najwięcej twojego czasu i świadomej uwagi? To oznacza, że musimy co jakiś czas dawać ci małą dawkę dopaminy, bo ktoś polubił lub skomentował zdjęcie. I to skłoni cię do publikowania więcej treści. To pętla społecznej walidacji—dokładnie taki rodzaj rzeczy, który haker taki jak ja by wymyślił, bo eksploatujesz słabości ludzkiej psychologii.” — Sean Parker, Axios, listopad 2017
Parker nie był niezadowolonym byłym pracownikiem mówiącym do dziennikarza. Opisywał filozofię projektowania, która, jak twierdzi pozew, pozostała operacyjna w Mecie od tamtej pory. Był z niej dumny, w niepokojący sposób, w jaki inżynierowie bywają dumni z opisywania działania szczególnie eleganckiej maszyny.
„Cenny, ale nieeksploatowany segment”
Pozew dokumentuje, że Meta opisywała dzieci w wieku 10–12 lat jako „wartościowy, ale nieeksploatowany segment”. Firma powołała wewnętrzny zespół do badania tej grupy. Zleciła analizy strategicznych możliwości biznesowych, jakie stwarzają dzieci przed 13. rokiem życia. Planowała uruchomić Instagram Kids—osobną aplikację dla dzieci poniżej 13 lat—i wycofała się wyłącznie pod presją prokuratorów generalnych i Kongresu. Badania organizacji Thorn wykazywały, że 45% dzieci w wieku 9–12 lat używa Facebooka codziennie, a 40% Instagrama. Meta miała dostęp do tych danych.
Na Kapitolu tymczasem Antigone Davis, globalny szef ds. bezpieczeństwa Mety, zeznawała 30 września 2021 roku przed Kongresem, że firma nie „buduje” swoich platform „by były uzależniające”. W lipcu 2018 roku Meta powiedziała BBC, że „na żadnym etapie chęć, żeby coś było uzależniające, nie wchodzi w proces projektowania”.
Metryka, która kłamała systemowo
Co kwartał Meta publikowała raporty Community Standards Enforcement Reports, informując, że treści naruszające zasady stanowią ułamki procenta wszystkich wyświetleń. Zuckerberg określił tę metrykę „przewagi” przed Kongresem jako wzorzec transparentności korporacyjnej.
Jednocześnie inżynier bezpieczeństwa Arturo Béjar prowadził wewnętrzne badanie o nazwie BEEF (Bad Experiences and Encounters Framework)—ankietę przeprowadzoną wśród ok. 240 000 użytkowników latem 2021 roku, która wykazała, że 51% użytkowników Instagrama doświadczyło negatywnego lub szkodliwego zdarzenia w ciągu ostatnich siedmiu dni; wśród nastolatków w wieku 13–15 lat wskaźnik ten przekraczał 54%. Dwie liczby mierzone w tym samym czasie. Jedna—publiczna. Druga—tajna. Nie są sprzeczne technicznie: metryka „przewagi” mierzy udział szkodliwych wyświetleń w stosunku do wszystkich wyświetleń, nie odsetek użytkowników dotkniętych szkodą. To statystyczny równoważnik stwierdzenia przemysłu tytoniowego, że odsetek rakotwórczych paczek papierosów jest znikomy.
Projekt Daisy i wybrany brak działania
Inżynierowie Mety przeprowadzili projekt Daisy, badając, co się stanie, jeśli platforma przestałaby pokazywać użytkownikom liczbę lajków pod postami. Wyniki wskazywały, że ukrycie liczb lajków było korzystne dla znacznej części użytkowników.
Meta nie wdrożyła tego jako ustawienia domyślnego. Zaoferowała możliwość jako trudno dostępną opcję opt-in. W maju 2021 roku opublikowała post twierdząc, że nie wdrożyła projektu Daisy, bo „nie widzenie liczby lajków było korzystne dla jednych, ale irytujące dla innych”. Pozew dokumentuje, że to uzasadnienie było fałszywe. Własne badanie Mety „Teen Mental Health Deep Dive”—ankieta obejmująca ponad 2 500 nastolatków w USA i Wielkiej Brytanii, po raz pierwszy ujawniona przez Wall Street Journal we wrześniu 2021 roku—wykazało, że jeden na pięciu nastolatków twierdzi, że Instagram sprawia, iż czuje się gorzej ze sobą, a 24% nastolatków ze wskazanych poczuciem bycia „niedość dobrym” śledziło jego początki do czasu spędzonego na aplikacji. Meta archiwizowała te badania wewnętrznie i nadal pokazywała liczby lajków domyślnie.
Molly Russell
Czternastoletnia Brytyjka Molly Russell zmarła w listopadzie 2017 roku, gdy algorytmy Instagrama serwowały jej przez tygodnie—bez jej prośby—treści dotyczące samookaleczenia i samobójstwa. Meta wysłała Elizabeth Lagone, szefową ds. zdrowia i dobrostanu, na przesłuchanie coronera, by zaprzeczyć jakiemukolwiek związkowi platformy ze śmiercią dziewczynki. Coroner odrzucił ten argument. Raport z października 2022 roku stwierdził, że Molly „zmarła wskutek aktu samookaleczenia, cierpiąc na depresję i negatywne skutki treści internetowych”, których nie szukała—lecz które algorytmy platformy jej dostarczyły:
„Platforma działała w taki sposób, wykorzystując algorytmy, że w pewnych okolicznościach dochodziło do długich sesji binge’owania obrazów, klipów wideo i tekstów, z których część była wybierana i dostarczana bez proszenia o to. Te długie sesje … prawdopodobnie miały wpływ na stan psychiczny Molly.” — Raport Coronera, 13 października 2022
Było to niezależne postępowanie prawne w innym kraju, prowadzone w oparciu o inne reguły dowodowe. Osiągnęło ten sam wniosek co pozew złożony przez czterdziestu jeden prokuratorów generalnych.
Dane epidemiologiczne
Pozew zestawia dokumenty wewnętrzne z danymi Centrów Kontroli i Zapobiegania Chorobom (CDC). W 2011 roku—rok przed gwałtownym wzrostem popularności Instagrama—około 19% uczennic szkół średnich poważnie rozważało próbę samobójczą. Do 2021 roku odsetek ten wzrósł do 30%. W tej samej dekadzie liczba prób samobójczych wśród uczennic wzrosła o ok. 30%. Badania Jean Twenge i innych, oparte na danych trendów CDC, dokumentują również gwałtowne skoki wskaźników samobójstw wśród młodszych adolescentów w pierwszych latach po wzroście popularności Instagrama, chociaż dwuletnia metodologia YRBS CDC utrudnia przypisanie precyzyjnych danych jednorocznych konkretnym grupom wiekowym z pełną pewnością.
Korelacja to nie przyczynowość, i pozew nie twierdzi inaczej. Argumentuje, że ten wzorzec epidemiologiczny, w połączeniu z dokumentami wewnętrznymi wykazującymi, że Meta wiedziała o szkodzie i wybrała systemowe zaniechanie, stanowi coś poważniejszego niż zaniedbanie. Arturo Béjar, były dyrektor ds. integralności witryny, zeznawał przed Senatem w listopadzie 2023 roku, że Zuckerberg ignorował jego osobiste apele o „zmianę kultury” w kwestii bezpieczeństwa nastolatków. Meta, powiedział Béjar, „wie o krzywdach, których nastolatki doświadczają na jej produkcie, i wybiera, żeby tego nie podejmować”.
Wzorzec: tytoń, opioidy, algorytmy mediów społecznościowych
Analogia do przemysłu tytoniowego i opioidowego nie jest retoryczna. Jest historycznym wzorcem powtórzonym z przerażającą regularnością. Przemysł tytoniowy wiedział na początku lat 50., że papierosy powodują raka. Ugoda Master Settlement Agreement nastąpiła w 1998 roku—ok. 50 lat później.
Purdue Pharma rozumiała uzależniający potencjał OxyContinu od końca lat 90. Pierwotna ugoda Sacklerów została odrzucona przez Sąd Najwyższy USA w czerwcu 2024 roku. Nowe porozumienie na sumę 7,4 mld dolarów zostało zatwierdzone przez stany w czerwcu 2025 roku, choć ostateczne zatwierdzenie sądowe pozostawało w toku w momencie zamknięcia tego artykułu—około ćwierć wieku po pierwszym potwierdzeniu skali szkody.
W obu przypadkach mechanizm był identyczny: wewnętrzne badania potwierdzające szkodę; agresywny marketing skierowany na najbardziej wrażliwe grupy; lobbing regulacyjny blokujący nadzór; publiczne zaprzeczenia zachowujące wiarygodne zaprzeczenie; i wreszcie—ugoda finansowa korzystna dla właścicieli na tle wyrządzonej szkody. Lanier, który teraz pyta Zuckerberga w sali sądowej w Los Angeles, pracował przy sprawach opioidowych. Zna scenariusz.
Różnica, i to na niekorzyść Mety, jest różnicą prędkości i skali. Tytoń i opioidy działały powoli, na dorosłych. Algorytm działa w czasie rzeczywistym, na skalę globalną, ze szczególną intensywnością na rozwijające się mózgi. Dane dotyczące zdrowia psychicznego zaczęły odbiegać od trendu bazowego w 2012 roku. To rok, w którym smartfon stał się produktem masowym. To także rok, w którym Meta przejęła Instagram za miliard dolarów.
W 2017 roku Chamath Palihapitiya—wiceprezes Facebooka ds. wzrostu użytkowników—publicznie oświadczył, że zabronił własnym dzieciom używać platformy, którą pomagał budować. W tym samym roku Facebook miał dwa miliardy użytkowników. Ludzie, którzy projektowali ten produkt, wiedzieli, że nie chcą, żeby ich dzieci były na niego narażone. I budowali go dalej—bo czyjeś dzieci zawsze były bardziej dostępne niż własne.
Aktualny status sporów sądowych Facebooka
Dziewiąty Okrąg: decyzja, która nadaje ramy wszystkiemu
Apelacja w sprawie 24-7032 jest najmniej medialna z trzech postępowań i niemal na pewno najważniejsza. Jeśli Dziewiąty Okrąg stwierdzi, że Sekcja 230 blokuje roszczenia stanów dotyczące projektów produktu, skarga 41 stanów się zapada. Jeśli przyjmie wykładnię zaproponowaną przez amicus brief—Sekcja 230 chroni tylko przed roszczeniami, które powodowałyby dylemat moderatora—sprawy zostaną rozpatrzone merytorycznie.
Ostatnie precedensy tego sądu biegną w jednym kierunku. Lemmon (2021), Calise v. Meta (2024), HomeAway v. Santa Monica (2019), Internet Brands (2016), Barnes v. Yahoo! (2009)—każdy z nich odmawiał rozszerzenia Sekcji 230 poza jej historyczny cel. Żadna z kwestionowanych decyzji projektowych nie wymaga od Mety usunięcia jednego słowa treści użytkownika. Wymagają zmiany jej własnych decyzji inżynierskich.
Los Angeles: bellwether
Mowy końcowe odbyły się 12 marca; w chwili oddania tekstu do druku ława przysięgłych nadal obraduje. Werdykt w sprawie Kaley G.M. wyznaczy trajektorię dla 1 600 pozostałych spraw. Zasądzone odszkodowanie pociągnie obie strony do negocjacji globalnej ugody, prawdopodobnie w miliardach, na wzór ugody tytoniowej i opioidowej. Wyrok obronny drastycznie obniży wartość ugodową pozostałych spraw, choć nie zakończy litigacji.
Czego werdykt w żadnym kierunku nie rozstrzygnie, to kwestii legislacyjnej. Kongres od ponad dekady próbuje znowelizować Sekcję 230. Każda ustawa ginie w komisji, uśmiercona połączeniem lobbingu technologicznego i autentycznego sporu konstytucyjnego o granice Pierwszej Poprawki. Sądy mogą nałożyć odpowiedzialność finansową. Nie mogą przepisać przepisu. Dlatego postępowanie w Dziewiątym Okręgu jest ważniejsze niż proces ławkowy—nawet jeśli nigdy nie stworzy sceny równie poruszającej jak Zuckerberg na ławce świadków.
Santa Fe: precedens metodologiczny
Sprawa nowomeksykańska jest metodologicznie najodważniejsza. Zamiast polegać na dokumentach wewnętrznych i zeznaniach whistleblowerów, stan oparł dowody na operacji undercover w czasie rzeczywistym, dokumentując, co algorytmy Mety rzeczywiście robią, gdy na platformie pojawia się konto wyglądające jak trzynastolatka. To metodologia zaczerpnięta raczej ze ścigania przestępczości zorganizowanej niż z typowych sporów konsumenckich.
Obrona Mety atakowała etykę śledztwa: badacze używali fałszywych dat urodzenia, by obejść funkcje ochrony nastolatków, i posługiwali się fotografiami prawdziwej kobiety, by zbudować przykrywkę. Platforma, twierdziła Meta, nie może być obarczana odpowiedzialnością za niewykrycie oszustwa, które zostało celowo zaprojektowane tak, by pokonać jej zabezpieczenia. Dorozumiana odpowiedź strony stanowej jest oczywista: każde dziecko z dostępem do internetu i podstawową znajomością arytmetyki może zrobić dokładnie to, co zrobili śledczy. Meta zawsze o tym wiedziała.
Na dzień 15 marca 2026 roku proces toczy się nadal przed ławą przysięgłych w Santa Fe. Prokuratorzy przedstawiali nagrania wideo z depozycji Zuckerberga i Mosseri; zakończenie postępowania spodziewane jest pod koniec marca.
Lustro europejskie: DSA
Te postępowania toczą się w amerykańskich sądach, ale ich implikacje są globalne—zwłaszcza w Europie, gdzie Digital Services Act obowiązuje w pełni od 2024 roku. DSA reprezentuje fundamentalnie inną filozofię regulacyjną niż Sekcja 230. Tam, gdzie Sekcja 230 jest reaktywna, DSA jest prewencyjna. Nakłada afirmatywne obowiązki na największe platformy zanim dojdzie do szkody. Artykuł 27 wymaga przejrzystości systemów rekomendacyjnych. Artykuł 35 zobowiązuje do ograniczania ryzyk systemowych, w tym ryzyk dla zdrowia psychicznego. Artykuł 28 zakazuje profilowania dzieci na cele reklamowe.
Jeśli amerykańskie procesy potwierdzą, że Meta wiedziała o szkodliwych mechanizmach projektowych i nie działała, ten zapis faktyczny będzie dostępny dla Komisji Europejskiej w postępowaniach nadzorczych DSA. W architekturze DSA świadome zaniechanie to podstawa administracyjnej kary do 6% globalnego obrotu. Dokumenty ujawnione w amerykańskim discovery nie zatrzymają się na granicach państwowych.
Oba modele regulacyjne—amerykańska odpowiedzialność cywilna i europejski nadzór administracyjny—są często opisywane jako konkurencyjne podejścia do tego samego problemu. Lepiej rozumieć je jako komplementarne. DSA próbuje zapobiec szkodzie przez obowiązki proceduralne przed jej powstaniem. Amerykańska odpowiedzialność kompensacyjna próbuje ją wynagrodzić po fakcie i—przez efekt odstraszający—zmienić przyszłe zachowanie. Każdy model ma słabości, które drugi częściowo koryguje. Żaden sam w sobie nie jest wystarczający.
Cztery tezy końcowe
Po pierwsze: design liability jako dojrzała teoria. Lemmon v. Snap nie był przypadkiem. Był punktem w rozwijającej się linii orzeczniczej, która od 2016 roku konsekwentnie odmawia rozszerzenia Sekcji 230 poza jej historyczny cel. Każda platforma cyfrowa—nie tylko w USA, ale globalnie, przez efekt normowania standardów przez wyroki federalne—powinna ponownie przeanalizować, które jej decyzje projektowe mogą stanowić podstawę roszczeń.
Po drugie: koalicja 41 stanów jako wzorzec replikowalny. Tam, gdzie Kongres nie może lub nie chce działać, stany tworzą nowe prawo przez skoordynowane procesy. Ten model—skoordynowane powództwa, spójna teoria prawna, dokumenty korporacyjne uzyskane w discovery—może być replikowany przez organy regulacyjne w Europie i Australii oraz przez prokuratury w każdym kraju, gdzie prawa ochrony konsumenta dają analogiczne instrumenty.
Po trzecie: syndrom wiedzy korporacyjnej to coś więcej niż tylko „zaniedbanie”. Zaniedbanie to brak odpowiednich środków ostrożności. To, co dokumenty opisują, to korporacja, która przeprowadziła szczegółowe wewnętrzne badania potwierdzające szkodliwość swoich produktów, publicznie zaprzeczyła tym badaniom, zaprojektowała narzędzia ochrony tak, by były nieskuteczne, i stosowała wiedzę naukową o rozwijającym się mózgu nastolatka, by uczynić swoje produkty jeszcze bardziej uzależniającymi. Przemysł tytoniowy potrzebował 50 lat, by zostać pociągnięty do odpowiedzialności za ten wzorzec. Opioidowy ok. 25. Odległość się skraca.
Po czwarte: korporacja, która wiedziała i wybrała brak działania, nie zasługuje na immunitet, niezależnie od brzmienia przepisu. Tarcza wystawiona przez Kongres w 1996 roku chroniła decyzje podejmowane w dobrej wierze w warunkach prawdziwej niepewności. Nie chroni wiedzy połączonej z systemowym zaniechaniem. Sekcja 230 była skalpelem przeznaczonym do jednego cięcia. Przez trzydzieści lat branża tech nosiła go jako maczugę. Trzy opisane tu postępowania są próbą przywrócenia mu pierwotnego wymiaru.
18 lutego 2026 roku Kaley G.M. siedziała w pierwszym rzędzie sali sądowej w Los Angeles i patrzyła, jak mężczyzna, którego algorytm ukształtował jej dzieciństwo, tłumaczy ławie przysięgłych różnicę między celami a kamieniami milowymi. Miała dziewięć lat, gdy po raz pierwszy otworzyła Instagrama. Dziś ma dwadzieścia.
Gdzieś w aktach sprawy—w 233 stronach pozwu wielostanowego lub w jednym z setek wewnętrznych dokumentów, które prawnicy Mety przez lata starali się utrzymać w tajemnicy—znajduje się dokument z badania „Teen Mental Health Deep Dive” z 2019 roku, ujawnionego po raz pierwszy przez Wall Street Journal we wrześniu 2021 roku, w którym badacze Mety odnotowali nastolatków opisujących relację z aplikacją niemal językiem uzależnionego. „Czuję się źle, kiedy używam Instagrama”—powiedział jeden z badanych nastolatków—„a jednak nie mogę przestać.”
Meta zleciła tamto badanie. Jest ono, w ostatecznym rozrachunku, najbardziej szczerą recenzją produktu, jaką kiedykolwiek opublikowała.
Robert Nogacki
Radca prawny (WA-9026), Managing Partner, Kancelaria Prawna Skarbiec, Warszawa
Artykuł wyraża osobiste poglądy autora i nie stanowi porady prawnej.
Źródła:
Complaint for Injunctive and Other Relief, Case 4:23-cv-05448-YGR (41 stanów v. Meta, N.D. Cal., 24.10.2023) | EPIC et al. Amicus Brief, No. 24-7032 (9th Cir., 30.06.2025) | Lemmon v. Snap, 995 F.3d 1085 (9th Cir. 2021) | Calise v. Meta, 103 F.4th 732 (9th Cir. 2024) | Stratton Oakmont v. Prodigy Services, 1995 WL 323710 | Coroner’s Prevention of Future Deaths Report re Molly Russell (13.10.2022) | Arturo Béjar, zeznanie przed Senatem (listopad 2023) | Frances Haugen, Whistleblower Disclosures (wrzesień–październik 2021) | CDC Youth Risk Behavior Survey 2011–2021 | Sean Parker, Axios (listopad 2017) | Jean Twenge, Increases in Depression, Self-Harm, and Suicide Among U.S. Adolescents After 2012, Psychiatric Research and Clinical Practice (2020) | Georgia Wells, Jeff Horwitz & Deepa Seetharaman, „Facebook Knows Instagram Is Toxic for Teen Girls”, Wall Street Journal (14.09.2021) | CCDH, „7 Ways Meta Is Harming Kids” (marzec 2024) | Komunikat prasowy AG Nowego Meksyku, Operacja MetaPhile (5.12.2023) | Zeznanie Zuckerberga, CNN (18.02.2026) | Zeznanie Mosseri, AP News (11.02.2026) | Mowy końcowe, PBS NewsHour (12.03.2026) | Meta przed sądem w Nowym Meksyku, Wired | Depozycje wideo NM, AP/US News (3.03.2026) | Frank Pasquale, Cornell DLI

Robert Nogacki – radca prawny (WA-9026), założyciel Kancelarii Prawnej Skarbiec.
Są prawnicy, którzy zajmują się prawem. I są tacy, którzy zajmują się problemami, na które prawo nie ma gotowej odpowiedzi. Od ponad dwudziestu lat Kancelaria Skarbiec pracuje na przecięciu prawa podatkowego, struktur korporacyjnych i ludzkiej niechęci do oddawania państwu więcej, niż się państwu należy. Doradzamy przedsiębiorcom z kilkunastu krajów – od tych z listy Forbesa po tych, którym fiskus właśnie zajął konto i którzy nie wiedzą, co robić jutro rano.
Jeden z najczęściej cytowanych ekspertów prawa podatkowego w polskich mediach – pisze dla Rzeczpospolitej, Dziennika Gazety Prawnej i Parkietu nie dlatego, że to dobrze wygląda w CV, lecz dlatego, że pewnych rzeczy nie da się wyjaśnić w piśmie procesowym i ktoś musi je powiedzieć głośno. Autor AI Decoding Satoshi Nakamoto. Sztuczna inteligencja na tropie twórcy Bitcoina. Współautor nagrodzonej książki Bezpieczeństwo współczesnej firmy.
Kancelaria Skarbiec zajmuje czołowe pozycje w rankingach kancelarii podatkowych Dziennika Gazety Prawnej. Czterokrotny laureat Medalu Europejskiego, laureat tytułu International Tax Planning Law Firm of the Year in Poland.
Specjalizuje się w sporach z organami skarbowymi, międzynarodowym planowaniu podatkowym, regulacjach kryptoaktywów i ochronie majątku. Od 2006 roku prowadzi sprawę WGI – jedną z najdłuższych spraw karnych w historii polskiego rynku finansowego, bo są rzeczy, których nie wolno zostawić w połowie, nawet jeśli trwają dwie dekady. Wierzy, że prawo jest zbyt poważne, żeby traktować je wyłącznie poważnie – i że najlepsza porada prawna to ta, dzięki której klient nigdy nie musi stanąć przed sądem.