Technologia deepfake, początkowo traktowana jako nowinka z pogranicza sztuki cyfrowej i rozrywki, stała się jednym z najbardziej niepokojących narzędzi współczesnej przemocy cyfrowej. Oparta na głębokim uczeniu maszynowym (deep learning), pozwala generować hiperrealistyczne obrazy, filmy i nagrania audio przedstawiające ludzi w sytuacjach, które nigdy nie miały miejsca. W efekcie — twarz każdej osoby, także tej anonimowej, może zostać bez jej zgody osadzona w scenach pornograficznych. Co gorsza, bywa to zaskakująco łatwe.
Technologia w służbie przemocy: dlaczego to takie łatwe?
Do stworzenia deepfake’u wystarczy dziś kilkanaście zdjęć z mediów społecznościowych lub kilkusekundowe wideo. Algorytmy, takie jak GAN (Generative Adversarial Networks) czy Wav2Lip, analizują mimikę, rysy twarzy, a nawet głos danej osoby. Wystarczy jedno selfie z LinkedIna, by aplikacja z Google Play mogła wygenerować realistyczny, pornograficzny film. Nie są potrzebne studia filmowe ani specjalistyczna wiedza — wystarczy smartfon i dostęp do jednej z licznych aplikacji typu face-swap.

Według raportu australijskiego eSafety postęp technologiczny idzie w parze z dostępnością narzędzi — wiele aplikacji umożliwia dziś tworzenie deepfake’ów bez wiedzy technicznej i całkowicie poza nadzorem człowieka. Co gorsza, coraz więcej takich treści powstaje w sposób zautomatyzowany, a wykorzystywane technologie są tanie, szybkie i szeroko dostępne.
Jeszcze w 2017 roku deepfake pornografię tworzył jeden użytkownik Reddita przy pomocy TensorFlow i bibliotek open source. Dziś takie treści powstają masowo i automatycznie.
Skala zjawiska: liczby, które niepokoją
Sensity AI szacuje, że aż 96% dostępnych w sieci deepfake’ów ma charakter pornograficzny i niemal wyłącznie dotyczy kobiet, które nie wyraziły zgody na takie wykorzystanie swojego wizerunku.
Zjawisko przybrało rozmiary epidemii:
– w 2024 roku liczba deepfake’ów pornograficznych wzrosła o 540% względem 2019 roku,
– tysiące nowych materiałów pojawiają się codziennie na Telegramie, Reddicie i forach poświęconych tej tematyce,
– ponad 70% ofiar nie ma świadomości, że ich twarz została wykorzystana do stworzenia fałszywego filmu pornograficznego.

W styczniu 2024 roku na platformie X (dawniej Twitter) pojawiły się seksualizowane deepfake’i przedstawiające Taylor Swift. W ciągu zaledwie 17 godzin zyskały 45 milionów wyświetleń i setki tysięcy reakcji, zanim zostały usunięte. Jeśli nawet najbardziej rozpoznawalne kobiety świata nie są chronione, to jaką szansę mają osoby prywatne?
Gdy ofiarą jest celebryta, a gdy jest nią „zwykła osoba”
Osoby publiczne, choć znacznie częściej padają ofiarą deepfake’ów, mają — przynajmniej teoretycznie — dostęp do zasobów prawnych, medialnych i prawniczych. Taylor Swift, Scarlett Johansson czy Gal Gadot wielokrotnie doświadczały tego rodzaju przemocy. Swift określiła nawet wideoinstalację z jej nagim wizerunkiem jako „zemstę pornograficzną”, a mimo upływu lat materiały te wciąż krążą po sieci.
W przypadku osób prywatnych sytuacja jest znacznie poważniejsza. Z raportu eSafety wynika, że skutki takiej cyfrowej przemocy są długofalowe i głęboko niszczące: utrata pracy, reputacji, relacji społecznych i zdrowia psychicznego. Ofiary czują się zawstydzone, zastraszone, tracą pewność siebie. Często następuje tzw. efekt uciszenia — wycofanie się z życia towarzyskiego i publicznego w obawie przed kolejnymi atakami. A sprawcy? Najczęściej pozostają anonimowi i bezkarni.

Deepfake porno dotyka wszystkich: uczennice, nauczycielki, dziennikarki, youtuberki ASMR, osoby aktywne zawodowo i całkowicie anonimowe. To forma cyfrowej przemocy seksualnej — demoralizująca, degradująca i pozbawiona elementarnej etyki.
Jak trafnie zauważyła Samantha Cole z portalu VICE:
– To nie wyraz seksualności. To nie żart. To nie satyra. To forma przemocy. Algorytmiczna broń tworzona przez mężczyzn, którzy traktują kobiety jak obiekty, a tworzenie deepfake’ów jak niewinną zabawę z baseballowymi kartami.
Społeczne przyzwolenie i niewidzialność sprawców
Dlaczego to zjawisko tak się rozrasta? Bo wiele platform — mimo deklaracji — wciąż nie radzi sobie z moderacją tych treści. Reddit, Telegram, Twitter/X — wszystkie te serwisy odnotowują wysyp materiałów deepfake porno, a ich reakcje są zbyt powolne. W międzyczasie zyski z kliknięć i wiralowego zasięgu napędzają algorytmy, które premiują kontrowersje i szok.
Jednak problem nie tkwi jedynie w technologii. To problem kulturowy i społeczny — związany z brakiem edukacji, odpowiedzialności i systemowych narzędzi przeciwdziałania.
Deepfake porno to nie tylko kwestia prywatności. To także narzędzie nękania, cyberprzemocy, szantażu i dyskredytowania w miejscu pracy. Staje się bronią wymierzoną w kobiety, osoby LGBTQ+, dziennikarki, aktywistów i polityków. Niezależnie od celu — czy chodzi o pornografię, zemstę, kompromitację czy „żart” — efekt jest ten sam: trwałe naruszenie godności człowieka.
Korea Południowa — cyfrowa sex-przemoc w szkolnych mundurkach
W Korei Południowej problem deepfake’owej pornografii przybrał rozmiary kryzysu narodowego. Skala zjawiska, jego brutalność i bezkarność sprawców sprawiły, że temat ten trafił na czołówki mediów, a prezydent Yoon Suk Yeol publicznie przyznał, że „wiele ofiar to nieletni — tak samo jak wielu sprawców”.
Przemoc z Telegrama
Ruma, studentka z Seulu, dowiedziała się, że jej twarz została osadzona na ciałach nagich kobiet w wulgarnych materiałach rozsyłanych na Telegramie. Sprawcy znali jej dane osobowe, wysyłali pogróżki i szydzili: „Fajne to, nie? Oglądać swój własny film porno?” Policja nie potrafiła pomóc — platforma nie współpracowała. To nie był odosobniony przypadek.
Telegram w Korei stał się epicentrum tej formy przemocy — użytkownicy zakładali tam „pokoje upokorzenia”, w których można było przesyłać zdjęcia koleżanek z pracy czy szkoły i prosić o wygenerowanie z nich deepfake’ów. Szczególnie bezlitosne były grupy powstające wokół konkretnych szkół średnich i podstawowych. W jednej z nich, skupiającej się na jednej uczennicy, było ponad 2000 członków.
Epidemia w szkołach
W 2023 roku koreańskie Ministerstwo Edukacji odnotowało ponad 900 przypadków deepfake’owych napaści seksualnych wśród uczniów, nauczycieli i pracowników szkół — bez uwzględnienia uniwersytetów, gdzie problem jest nie mniej poważny. Według danych ACOSAV (Centrum Rzecznictwa dla Ofiar Nadużyć Seksualnych w Internecie), tylko w pierwszych ośmiu miesiącach 2024 roku liczba nieletnich ofiar sięgnęła 238, a w ciągu jednego tygodnia zgłosiło się kolejnych 64 nastolatków.
To nie tylko liczby. To strach, trauma i zniszczone poczucie bezpieczeństwa. Dziesiątki młodych kobiet usuwają zdjęcia z mediów społecznościowych lub całkowicie dezaktywują konta — boją się, że ich twarze zostaną przerobione i rozpowszechnione.

Nieufność i wstyd
Niektóre ofiary podejmują własne śledztwa. Tak jak wspomniana już Ruma, która przy wsparciu aktywistki Won Eun-ji zinfiltrowała grupę na Telegramie, doprowadzając do aresztowania dwóch studentów prestiżowego uniwersytetu SNU. Główny sprawca został skazany na 9 lat więzienia.
Z kolei nauczycielka Kim została powiadomiona przez ucznia, że w sieci krąży jej zdjęcie zmontowane w sposób seksualny. Policja zasugerowała, że identyfikacja sprawcy zajmie „zbyt wiele czasu”. Wraz z koleżanką postanowiły działać same. Ostatecznie ustaliły, że materiał stworzył ich własny uczeń.
Kim mówi dziś wprost:
– To zniszczyło moje życie. A ludzie pytają: dlaczego to w ogóle przestępstwo, skoro to nie twoje prawdziwe ciało?
Reakcja władz — za późno i za słaba?
Pod naciskiem opinii publicznej Korea Południowa zintensyfikowała działania:
- znowelizowano przepisy, podnosząc maksymalny wymiar kary za tworzenie i udostępnianie deepfake’owej pornografii do 7 lat więzienia,
- za samo posiadanie i oglądanie takich materiałów grozi do 3 lat więzienia,
- uruchomiono specjalną infolinię i zwiększono dwukrotnie liczbę osób monitorujących sieć,
- zobowiązano Telegram do utworzenia kanału zgłoszeniowego i usunięcia 148 materiałów o charakterze przestępczym.
Ale krytycy nie mają złudzeń — działania władz są spóźnione, a sprawców nadal chroni anonimowość i nieefektywność prawa. Z 964 zgłoszonych przypadków tylko 23 zakończyły się aresztowaniem.
Gdy państwo zawodzi, głos zabierają ofiary
– To jak stan wojenny” — powiedziała Park Seonghye z ACOSAV, opisując ostatnie tygodnie, w których organizacja otrzymywała dziesiątki dramatycznych zgłoszeń dziennie — często od niepełnoletnich dziewcząt, uczennic i studentek, które dowiadywały się, że ich twarz została wykorzystana w deepfake’ach krążących po sieci. Płacz, panika, wstyd, strach przed rodzicami i szkołą — to codzienność zespołu interwencyjnego.
Z kolei Park Jihyun — aktywistka, która w 2019 roku ujawniła aferę „Nth Room” — apeluje dziś o całkowitą blokadę aplikacji Telegram na terytorium kraju. W tamtej sprawie przestępcy prowadzili zamknięte pokoje czatowe, w których użytkownicy płacili kryptowalutą za dostęp do brutalnych nagrań gwałtów i przemocy seksualnej wobec kobiet i dzieci. To śledztwo ujawniło skalę nadużyć i bezkarności w cyfrowym podziemiu Korei.
Dziś, jak twierdzi Park, Telegram wciąż nie współpracuje z władzami w wystarczającym stopniu i pozostaje „bezpiecznym azylem dla cyfrowych oprawców”, również tych wykorzystujących technologię deepfake.
Choć Telegram deklaruje „zero tolerancji dla nielegalnej pornografii”, działania podejmuje dopiero wtedy, gdy presja staje się nie do zniesienia. Prawdziwa zmiana może nadejść tylko wtedy, gdy rząd przestanie obawiać się oskarżeń o cenzurę i potraktuje tę kwestię jak zagrożenie dla zdrowia publicznego.
USA: nowe prawo, zamknięcia serwisów i luki systemowe
Tymczasem w Stanach Zjednoczonych problem deepfake porno doczekał się wreszcie reakcji legislacyjnej. W maju 2025 roku prezydent Donald Trump podpisał ustawę Take It Down Act – jeden z pierwszych kompleksowych aktów prawnych mających na celu walkę z nieautoryzowanymi materiałami intymnymi, w tym treściami wygenerowanymi z wykorzystaniem technologii deepfake.
Nowe przepisy wymagają od platform internetowych, by na żądanie ofiary usunęły zgłoszone treści w ciągu 48 godzin. Naruszenie tego obowiązku może skutkować karami administracyjnymi, a publikacja takich materiałów – nawet karą do trzech lat więzienia, jeśli dotyczy osoby niepełnoletniej.
– To moment, który należy celebrować – ocenił Henry Ajder, badacz zajmujący się dezinformacją i sztuczną inteligencją, komentując zamknięcie jednego z największych portali deepfake porno – MrDeepfakes.com.
Serwis zniknął z sieci po tym, jak jeden z kluczowych dostawców infrastruktury technicznej odmówił dalszego wsparcia. Strona, która istniała od 2018 roku, była miejscem wymiany tysięcy nielegalnych treści seksualnych wygenerowanych bez zgody osób przedstawionych na nagraniach – często kobiet-celebrytek, ale również osób prywatnych, a nawet dzieci.

Badanie z 2024 roku przeprowadzone przez Stanford i UC San Diego wykazało, że aż 95,3% ofiar filmów zamieszczonych na MrDeepfakes to kobiety z życia publicznego, jednak na platformie znajdowały się także setki nagrań z osobami prywatnymi, w tym materiały zawierające przemoc seksualną i gwałty.
Ajder ostrzega jednak, że likwidacja jednego serwisu nie rozwiązuje problemu:
– Jestem pewien, że te społeczności znajdą sobie nowe miejsce, ale nie będzie ono już tak duże i wpływowe. I to jest kluczowe.
„Take It Down Act”: dobre chęci, realne problemy
Choć nowa ustawa została przyjęta niemal jednogłośnie przez Kongres (409 głosów „za”, tylko 2 „przeciw”), eksperci podkreślają, że to dopiero pierwszy krok – a nie rozwiązanie całości problemu.
Prawo ma charakter reaktywny – działa dopiero wtedy, gdy ofiara sama wykryje, że padła ofiarą nadużycia, co często jest niemożliwe przy treściach rozpowszechnianych w zamkniętych grupach, sieciach P2P czy na forach z ograniczonym dostępem. Platformy objęte ustawą muszą wprawdzie wdrożyć mechanizmy zgłoszeniowe, ale nie mają obowiązku proaktywnego monitorowania treści.
Dodatkowo wiele portali działa poza jurysdykcją USA, co utrudnia egzekwowanie przepisów w praktyce.
Nie brakuje również kontrowersji związanych z tym, że ciężar dowodu spoczywa na ofierze. To ona musi zidentyfikować materiał, udowodnić naruszenie prywatności, zgłosić go i podać dane kontaktowe — często będąc pod silną presją psychiczną i w stanie zagrożenia.
Ustawa przewiduje również wyjątki dla celów edukacyjnych, medycznych i naukowych. Choć są one uzasadnione, eksperci wskazują, że brak precyzyjnych definicji „szkodliwego zamiaru” czy „realnej krzywdy” może prowadzić zarówno do nadużyć, jak i uniewinniania sprawców z powodu niejednoznaczności przepisów.
San Francisco daje przykład?
Osobny, lecz istotny sygnał płynie z Kalifornii, gdzie miasto San Francisco wygrało sprawę przeciwko firmie Briver LLC – operatorowi dwóch serwisów generujących deepfake’owe „nagie zdjęcia” kobiet i dzieci. Firma zgodziła się na trwałą blokadę działalności oraz zapłatę 100 tysięcy dolarów kary cywilnej.
Sprawa była częścią szerszego śledztwa, w ramach którego pozwano 16 najczęściej odwiedzanych stron z deepfake’ami pornograficznymi. Dziesięć z nich zostało już wyłączonych z sieci.
– Te strony zajmują się jawnym wykorzystywaniem seksualnym. Musimy je powstrzymać – oświadczył David Chiu, prokurator z San Francisco.
Jego urząd poinformował, że deepfake’i były wykorzystywane również do szantażu i nękania dziewcząt w szkołach, w tym uczennic kalifornijskiego gimnazjum.
Gdy wirtualna przemoc kończy się realnym wyrokiem: sprawcy deepfake porno przed sądem
Przez lata sprawcy deepfake porno mogli działać niemal całkowicie bezkarnie – ukryci za pseudonimami, działający z poziomu prywatnych serwerów i zamkniętych forów. Organy ścigania, często nieprzygotowane technologicznie i legislacyjnie, nie nadążały za tempem rozwoju narzędzi AI. Dziś sytuacja powoli zaczyna się zmieniać. Choć luki prawne nadal istnieją, a egzekwowanie przepisów to często droga przez mękę – pojawiają się pierwsze realne wyroki. Oto trzy symboliczne sprawy z trzech różnych części świata, które pokazują, że deepfake porno przestało być szarą strefą internetu.

Brandon Tyler – 173 fałszywe gwałty w imię „satysfakcji”
W maju 2024 roku brytyjskie media opublikowały szczegóły sprawy Brandona Tylera z hrabstwa Essex. To jeden z pierwszych tak rozbudowanych procesów karnych dotyczących wykorzystania deepfake’ów pornograficznych w Wielkiej Brytanii. Tyler przez kilka miesięcy tworzył i publikował dziesiątki sfabrykowanych filmów pornograficznych, na których umieszczał twarze 20 realnych kobiet – znajomych i przypadkowych osób, których zdjęcia pobrał z Instagrama, Facebooka czy LinkedIna.
W sumie powstały 173 materiały, z czego znaczna część została opatrzona skandalicznymi podpisami typu „Ona tego chciała” lub „Zgódź się czy nie – i tak to się stanie”. Zawierały one brutalne sceny i poniżające fantazje, a część z nich była udostępniana na forach fetyszystycznych i w grupach Discorda, gdzie Tyler był aktywnym użytkownikiem. Policja zatrzymała go po zgłoszeniu jednej z ofiar, która przypadkiem natrafiła na własny „wizerunek” w serwisie dla dorosłych.
Sąd uznał go za winnego 33 przestępstw, w tym molestowania, prześladowania, nielegalnego rozpowszechniania materiałów seksualnych oraz publikacji wizerunku w celu uzyskania gratyfikacji seksualnej. Tyler został skazany na 5 lat więzienia, a w uzasadnieniu wyroku sędzia podkreślił, że oskarżony „zamienił technologię w narzędzie zorganizowanej przemocy seksualnej – bez dotknięcia ofiary, ale z taką samą siłą rażenia”. Sprawa uznawana jest dziś za precedensową i może stać się fundamentem dla przyszłych zmian w brytyjskim prawie.
Uczniowie z Beverly Hills – cyfrowy seksizm zaczyna się wcześnie
Nie mniej wstrząsająca była historia z Beverly Hills High School, jednej z prestiżowych szkół w Kalifornii. W kwietniu 2024 roku wybuchł skandal, gdy wyszło na jaw, że pięciu uczniów stworzyło i rozpowszechniło deepfake’i pornograficzne, przedstawiające ich koleżanki z klasy. Wizerunki dziewcząt zostały pobrane z ich profili na TikToku i Instagramie, a następnie „ubrane” w cyfrowo wygenerowaną nagość i umieszczone w sugestywnych pozach.
Sprawa wyszła na jaw po tym, jak jeden z uczniów pochwalił się grafikami w zamkniętej grupie Discord. Informacja dotarła do nauczycieli i rodziców, a następnie do lokalnych mediów. Szkoła natychmiast wszczęła wewnętrzne postępowanie, a pięciu uczniów zostało wydalonych. Do sprawy włączyła się również policja z Los Angeles, badając, czy doszło do przestępstw podlegających pod nową federalną ustawę Take It Down Act, która penalizuje publikację fałszywych materiałów intymnych bez zgody osoby przedstawionej.
Choć część rodziców oskarżonych uczniów próbowała bagatelizować sprawę jako „niewinny żart”, reakcja społeczna była jednoznaczna.
– To nie są memy. To seksualna przemoc z użyciem technologii – mówiła w lokalnej telewizji jedna z matek poszkodowanych dziewcząt.
Sprawa uświadomiła wielu Amerykanom, że deepfake porno nie jest problemem celebrytów, lecz społecznym mechanizmem opresji, który może dotknąć dzieci w każdej szkole.
Andrew Hayler – obsesja zamieniona w cyfrową zemstę
W Australii najgłośniejszym przypadkiem ostatnich lat była sprawa Andrew Haylera, który stworzył stronę internetową zatytułowaną The Destruction of Hannah. Inspiracją dla nazwy było imię jednej z jego byłych koleżanek z pracy, którą darzył obsesyjnym zainteresowaniem. Ale to nie ona była jedyną ofiarą – w sumie Hayler wygenerował i opublikował setki deepfake’ów pornograficznych z udziałem ponad 60 kobiet: koleżanek, współpracownic, znajomych z siłowni.
Na stronie umieszczano nie tylko filmy, ale też sfabrykowane komentarze, oceny „wykonania”, propozycje głosowania na „najlepsze ujęcia gwałtu” oraz instrukcje dotyczące dzielenia się materiałem w darknetowych kanałach. Hayler prowadził swój projekt z zaskakującą systematycznością – przez niemal dwa lata. Zatrzymano go dopiero po tym, jak jedna z kobiet zorientowała się, że jej wizerunek został wykorzystany w brutalnym filmie, z którym nie miała żadnego związku.
W 2023 roku Hayler został skazany na 9 lat więzienia. Australijskie media uznały ten wyrok za pierwszy w kraju tak stanowczy akt sprawiedliwości wobec twórcy deepfake porno, a organizacje kobiece podkreślały, że to „historyczny moment dla cyfrowych ofiar przemocy”. Co ważniejsze – sprawa zapoczątkowała zmiany legislacyjne, które mają ułatwić ściganie podobnych przestępstw w przyszłości, m.in. poprzez wprowadzenie nowej kategorii przestępstwa: wirtualna napaść seksualna.
Każdy z tych przypadków ukazuje inne oblicze problemu: obsesyjnego sprawcę, żartujących nastolatków i „zwykłego” internautę, który w cyfrowym świecie poczuł się ponad prawem. Ale wszystkie prowadzą do tej samej konkluzji: deepfake porno to przemoc, która nie potrzebuje dotyku, by ranić – i która coraz częściej kończy się przed sądem.
W miarę jak AI staje się coraz potężniejszym narzędziem, społeczeństwo – i prawo – musi nadrobić zaległości. A wymiar sprawiedliwości powinien wysyłać jasny sygnał: niezależnie od tego, czy ofiara jest celebrytką, uczennicą czy sąsiadką – prawo do własnego wizerunku i cielesnej autonomii nie kończy się w Internecie.
Ekspert ESET: To nie technologia, to przemoc. Czas przestać ignorować realne cierpienie
W debacie na temat deepfake porno zbyt często uwaga koncentruje się na technologii: jak działa, jak ją rozpoznać, kto ją stworzył. Tymczasem – jak zauważa Kamil Sadkowski, analityk laboratorium antywirusowego ESET – problem leży nie w algorytmach, lecz w ich użyciu. A dokładniej – w tym, co robimy innym ludziom.
– Nie potrzeba już popularności ani rozpoznawalności, by stać się ofiarą. Wystarczy publiczny profil na Instagramie, kilka zdjęć dostępnych w sieci i obecność w wyszukiwarce. Każda osoba, która dzieli się swoim wizerunkiem w Internecie, może zostać skopiowana i umieszczona w fałszywym, pornograficznym kontekście. Włączając w to, niestety, także dzieci – podkreśla Sadkowski.
To już nie tylko problem celebrytek, ale zautomatyzowana forma przemocy, która rozlewa się po sieci jak cień – niemal niewidocznie, ale bezlitośnie. A gdy taki materiał raz trafi do Internetu, jego usunięcie staje się niemal niemożliwe. Dlatego, jak mówi ekspert ESET, konieczna jest zmiana narracji – nie wolno dłużej traktować tego zjawiska jak technologicznego „wyzwania”. To przemoc – i jako taka wymaga zdecydowanej reakcji: prawnej, społecznej i kulturowej.
Cyfrowa przemoc nie bierze się znikąd – ktoś ją tworzy, ktoś ją hostuje
Za eksplozją deepfake’owej pornografii nie stoi wyłącznie popyt. To także efekt działania całej cyfrowej infrastruktury: forów, platform, narzędzi, modeli AI. Ich twórcy i użytkownicy wiedzą, jak obchodzić regulaminy, jak maskować funkcje, jak przemycać nielegalne treści pod neutralnymi nazwami i przenosić je między serwisami.
Sadkowski wskazuje przykład platformy Hugging Face – znanej przestrzeni open source dla modeli sztucznej inteligencji. Po zamknięciu kontrowersyjnych modeli na serwisie Civitai, setki narzędzi wykorzystywanych do generowania deepfake porno zostały przeniesione właśnie tam. Wystarczyła zmiana nazwy, opis, kategoria – i narzędzie znów było publicznie dostępne.

– Przykład Hugging Face pokazuje, jak trudno zatrzymać krążenie niebezpiecznych narzędzi w przestrzeni cyfrowej. Gdy jedna platforma ulega presji i próbuje działać odpowiedzialnie, inna staje się – często nieświadomie – kolejnym ogniwem w łańcuchu przemocy. W praktyce oznacza to, że narzędzia do cyfrowego naruszania czyjejś cielesności są wciąż dostępne – wystarczy wiedzieć, gdzie ich szukać – wyjaśnia Sadkowski.
To nie incydent – to systemowy schemat. I dopóki nie zostanie przerwany na poziomie regulacji, egzekwowania prawa i odpowiedzialności platform, kolejne serwisy będą przejmować rolę tych, które próbują działać etycznie. Cyfrowa przemoc nie zniknie sama – trzeba zacząć ją traktować tak poważnie, jak na to zasługuje.
Co możemy zrobić już teraz?
Jak podkreśla Kamil Sadkowski z ESET, nie stoimy bezradnie wobec przemocy deepfake’owej. Rozwiązania istnieją – problemem nie jest ich brak, lecz opieszałość instytucji i brak systemowego wdrażania. Już dziś można ścigać twórców i dystrybutorów takich materiałów na podstawie istniejących przepisów: jako formę zniesławienia, nękania, naruszenia dóbr osobistych czy prywatności.
– Ofiary są odsyłane od jednej instytucji do drugiej. Zgłoszenia są bagatelizowane, a system często udaje, że Internet to jakiś osobny świat, który nie podlega prawu – komentuje Sadkowski.
Wymiar sprawiedliwości powinien traktować te sprawy z taką samą powagą, jak fizyczną przemoc – bo skutki psychiczne i społeczne mogą być równie dewastujące. Ale to nie tylko rola prokuratur i sądów. Równie istotna jest profilaktyka, czyli edukacja cyfrowa – i to już od najmłodszych lat.
Cyfrowa higiena: podstawowa ochrona przed nadużyciami
Każdy użytkownik Internetu – niezależnie od wieku – powinien znać i stosować zasady bezpieczeństwa cyfrowego. Choć nie eliminują one ryzyka całkowicie, mogą utrudnić sprawcom dostęp do naszych danych i wizerunku. Ekspert ESET rekomenduje:
• korzystanie z silnych, unikalnych haseł oraz uwierzytelnianie dwuskładnikowe,
• ustawienie restrykcyjnej prywatności w mediach społecznościowych (np. ograniczenie widoczności zdjęć tylko dla znajomych),
• ostrożność w publikowaniu zdjęć twarzy, dzieci i członków rodziny,
• unikanie udzielania aplikacjom szerokich, niepotrzebnych uprawnień (np. dostępu do kamery lub galerii),
• regularną weryfikację, kto faktycznie znajduje się na naszej liście znajomych lub obserwatorów.
To podstawowe kroki, które – choć nie rozwiązują problemu globalnie – mogą zmniejszyć szanse stania się łatwym celem.

Potrzebujemy kulturowego zwrotu
Na koniec Sadkowski apeluje: deepfake porno to nie marginalna ciekawostka z ciemnych zakątków Internetu. To forma przemocy – zautomatyzowane, cyfrowe narzędzie krzywdzenia. I jak każda przemoc – wymaga reakcji. Nie tylko prawnej, ale i kulturowej.
– Potrzebujemy wspólnych zasad, które obejmą także globalne platformy technologiczne. Reguł, które jasno określą, gdzie zaczyna się odpowiedzialność – i jak ją egzekwować. Ale równie ważna jest zmiana społeczna. Przestańmy mówić o tym zjawisku jako o „nowince technologicznej”. To przemoc. A przemoc trzeba nazywać po imieniu – i zatrzymać – mówi ekspert ESET.
To oznacza rozmowę w szkołach, programy edukacyjne, materiały informacyjne w mediach i jasny przekaz od liderów opinii. Przemoc deepfake’owa nie zniknie, dopóki nie uznamy, że jej ofiary to realni ludzie – nie „cyfrowe avatary”, ale osoby z imieniem, historią i prawem do autonomii.
Dopóki tego nie zobaczymy, system pozostanie ślepy.
źródła: medium.com, nsvrc.org, vice.com, esafety.gov.au, cnn.com, tvn24.pl, bbc.com, theconversation.com, cbsnews.com, abc7.com, beverlypress.com




Dodaj komentarz