Doniesienia z przyszłości Pierwszy rok od uruchomienia Kontroli Czatów

Uwaga

To jest eksperyment myślowy przedstawiający możliwe konsekwencje uchwalenia obowiązkowego skanowania wszystkich zdjęć i filmów przesyłanych przez obywateli Unii Europejskiej. Analizowanie miałoby się odbywać w celu znajdowania treści dotyczących wykorzystywania seksualnego dzieci.

Przedstawiona propozycja skanowania jest prawdziwa, ale wszystkie przedstawione dalej artykuły są fikcją.

Cytaty bazują na prawdziwych wypowiedziach podanych osób, ale zostały podane w innych okolicznościach niż w rzeczywistości. Każdy taki cytat posiada dodany odnośnik do oryginalnej wypowiedzi.

Futurystyczne aplikacja są wymyślone, ale bazują one na aktualnie badanych pomysłach.

Day 1

Reuters logo

Nowe prawo unijne zmusza Big Techy do walki z wykorzystywaniem dzieci, aktywiści obierają kurs

Brussels — dziś wchodzi w życie unijna regulacja mająca na celu zapobieganie niegodziwemu traktowaniu dzieci w celach seksualnych (CSAR). Uważa się, że nowe prawo doprowadzi do współpracy Unii Europejskiej z niespodziewanym partnerem - gigantami technologicznymi, którzy dotychczas byli przede wszystkim karani finansowo za nieposzanowanie prywatności użytkowników.

Szeroko stosowanie w komunikacji szyfrowanie od końca do końca (end-to-end encryption - E2EE) pozwoliło firmom i rządom na kontakt z poczuciem bezpieczeństwa ważnych dla nich informacji. Takie bezpieczeństwo miało jednak swoją cenę - organy ścigania miały ograniczone możliwości badania potencjalnych przestępstw.

Technologia E2EE działa na zasadzie wymiany cyfrowych kluczy między odbiorcą i nadawcą wiadomości, dzięki którym komunikacja możliwa jest do odczytania tylko przez te strony. W tym systemie możliwe jest też wdrożenie dodatkowego, trzeciego, klucza na potrzeby analizowania komunikacji przez zewnętrzne instytucje, ale to oznacza konieczność odpowiedniego zabezpieczenia, żeby mógł być on wykorzystywany tylko przez podmioty uprawnione. Ten problem dotychczas skutecznie powstrzymywał przed skorzystaniem z tego rozwiązania.

Przeciwnicy nowego prawa telekomunikacyjnego zmienili podejście w momencie odkrycia nowego rozwiązania. Wspomniana nowa regulacja zobowiązuje teraz dostawców komunikatorów do weryfikowania przesyłanych zdjęć i filmów pod kątem treści dotyczących wykorzystywania małoletnich jeszcze zanim komunikacja zostanie zaszyfrowana i wysłana. Oprogramowanie może tymczasowo przesłać niezaszyfrowaną treść multimedialną na własne serwery moderacyjne lub użyć bezpośrednio na urządzeniu wyszkolonego na treściach pozyskanych przez służby oprogramowania AI. Każda nowo zidentyfikowana nielegalna treść musi być wtedy przesłana do organów ścigania.

Ponad 100 organizacji praw człowieka sprzeciwiało się "kontroli czatów" jeszcze zanim stało się ono prawem. Krytycy opowiadali się za walką w Trybunale Sprawiedliwości Unii Europejskiej za łamanie prawa do prywatności gwarantowanej przez Kartę praw podstawowych Unii Europejskiej.

"Korzystając z powszechnego skanowania komunikacji nie jesteśmy w stanie uniknąć błędnych raportów, nawet jeśli deklarowana dokładność jest wysoka, a to natomiast prowadzić będzie do licznych szkód niewinnych osób. Masowy i bezkrytyczny monitoring znacznie zredukuje u ludzi poczucie swobody wypowiedzi, którzy zaczną ograniczać sposoby komunikacji z innymi, a także zaczną stosować samocenzurę." - oświadczył Wysoki komisarz Narodów Zjednoczonych do spraw praw człowieka.

"Ta regulacja traktuje każde udostępnione przez nas zdjęcie jako potencjalny dowód naszej winy dopóki to my nie udowodnimy ponad wszelką wątpliwość swojej niewinności. Dziś monitoring zdjęć jest usprawiedliwiany dobrem dzieci, jutro analizowanie może być rozszerzone do wszystkiego co robimy na naszych urządzeniach w celu przeciwdziałania terroryzmowi i zorganizowanym przestępstwom." — opisuje aktywista i programista Jeremiah Lee.

Ten artykuł nigdy nie został wydany przez Reuters. Patrz: Uwaga.

Signal logo

Wiadomość prasowa

Aby pozostać bezpiecznym, Signal musi opuścić Unię Europejską

Signal logo faded over a map of the EU composed of EU yellow dots on EU blue background

San Francisco — dziś Signal Foundation z wielką przykrością przestało dostarczać swoją usługę komunikatora w krajach UE.

Signal ostrzegał prawodawców unijnych, że zmuszanie ich do osłabiania gwarancji prywatności doprowadzi do wycofania komunikatora Signal z rynku UE.

"Nie ma możliwości wdrożenia CSAR w komunikatorze stosującym szyfrowanie od końca do końca bez jednoczesnego znacznego osłabiania szyfrowania i tworzenia niebezpiecznych podatności w infrastrukturze, których konsekwencje byłyby odczuwalne daleko poza Europą" - opisuje Meredith Whittaker, szefowa Signal.

Konta użytkowników utworzone z telefonów komórkowych z kodami krajów Unii Europejskiej nie mogą już wysyłać ani odbierać wiadomości z użyciem komunikatora Signal. Aplikacja nie jest też już dostępna do pobrania ze sklepów App Store ani Google Play dla osób zamieszkałych na terenie UE. Istniejące instalacje pozwolą na dostęp do dotychczas przesłanej komunikacji, ale nie będzie w nich możliwości na tworzenie nowych.

Ta wiadomość prasowa nigdy nie została wydana przez Signal. Patrz: Uwaga.

Reuters logo

Chaos komunikacyjny" dla urzędników państwowych z powodu uruchomienia Kontroli Czatów w UE

Brussels — nocne negocjacje prowadzone przez Komisję Europejską nie przekonały fundacji Signal do kontynuowania dostarczania swojej usługi dla urzędników państwowych, agencji bezpieczeństwa oraz wojska, którzy są wykluczeni z obowiązkowego skanowania komunikacji.

Komisja zaleciła w 2020 roku używanie Signal do komunikacji między pracownikami instytucji po serii wycieków tysięcy depeszy dyplomatycznych. Aktualnie badana jest możliwość wewnętrznego skopiowania i rozwinięcia otwartoźródłowego projektu Signal lub wdrożenia narzędzi używających protokołu Matrix - nie można jednak spodziewać się żadnej nowej rekomendacji przez co najmniej 6 najbliższych miesięcy.

Ten artykuł nigdy nie został wydany przez Reuters. Patrz: Uwaga.

Apple logo

Wiadomość prasowa

Apple przedstawia nowe potężne narzędzia zabezpieczeń

Cupertino — w aplikacji Wiadomości są teraz dostępne nowe narzędzia dotyczące bezpieczeństwa dzieci. Dostępny na urządzeniu model uczenia maszynowego będzie wykrywał, zgłaszał i usuwał treści o charakterze seksualnym z udziałem dzieci. Apple stało się pionierem tej technologii już w 2021 roku, które dziś wprowadza innowację na rynku ze wsparciem rządów chcących chronić dzieci.

Funkcja Bezpieczeństwa Komunikacji od Apple a także framework Sensitive Content Analysis są zaprojektowane z poszanowaniem prywatności użytkowników. Zamiast stosować skanowanie treści w chmurze, urządzenie analizuje je samodzielnie bazując na bazach danych dostarczonych przez Narodowe Centrum Dzieci Zaginionych i Wykorzystanych (NCMEC) oraz przez inne organizacje specjalizujące się w tej dziedzinie. To wszystko pozwala Apple na raportowanie wykrytych treści do agencji bezpieczeństwa.

Będziemy kontynuować naszą współpracę z rządami, agencjami praw dziecka oraz innymi organizacjami w celu chronienia młodych osób z zachowaniem ich prywatności. Takim działaniem uczynimy Internet bezpieczniejszym dla dzieci i dla nas wszystkich.

Ta wiadomość prasowa nigdy nie została wydana przez Apple. Patrz: Uwaga.

Meta logo

Wiadomość prasowa

  • WhatsApp
  • Messenger
  • Instagram

Bezpieczny Czat dostępny dla każdego użytkownika

Grayscale illustration of a photo that had been blurred, with a blue shield in front of it

Menlo Park — Meta kontynuuje swoje zaangażowanie w bezpieczeństwo publiczne wykorzystując zaawansowane narzędzia AI do skutecznego identyfikowania nielegalnych treści w obrębie Unii Europejskiej i zgłaszania ich w razie konieczności do organów ścigania.

Bezpieczeństwo młodych osób jest wyzwaniem od samego początku Internetu. Taktyki przestępców ewoluują, a więc my też musimy unowocześniać swoje systemy obrony.

Wyspecjalizowaliśmy nasze modele sztucznej inteligencji bazując na milionach manualnych decyzji moderacyjnych. Nowa regulacja pozwala teraz na rozszerzenie tej ochrony o obrazy i filmy przesyłane w ramach zaszyfrowanej komunikacji.

Problem rozpowszechnienia treści obrazujących wykorzystywanie dzieci (CSAM) zobowiązał wszystkich dostawców usług telekomunikacyjnych i nie jest w stanie rozwiązać go tylko jedna organizacja. "Meta z radością przyjmuje aktywną postawę rządów dostosowujących zasady działania Internetu tak, żeby zachować w nim to, co najlepsze - swobodę wyrażania siebie i tworzenia nowych rzeczy - z jednoczesnym chronieniem społeczeństwa." - mówi Mark Zuckerberg, dyrektor wykonawczy firmy Meta.

Komunikator WhatsApp codziennie łączy setki miliony osób w Unii Europejskiej i na całym świecie. Wszystkie nasze narzędzia wykorzystywane są do niesamowitych działań, co tylko umacnia nasze zaangażowanie do zapewniania każdemu pozytywnego doświadczania komunikacji.

Od 2016 roku Meta zainwestowała w sumie ponad 20 miliardów dolarów w budowanie zaufania i poczucia bezpieczeństwa. "Meta działa zdecydowanie ponad nakładane na nią wymagania, aby zapewnić że żadna tego rodzaju aktywność nie będzie się zdarzać." - informuje Narodowe Centrum Dzieci Zaginionych i Wykorzystanych (NCMEC).

Ta wiadomość prasowa nigdy nie została wydana przez Metę. Patrz: Uwaga.

Day 83

Distopični Časi

Policja oczyszcza matkę z zarzutów pedofilii

Ljubljana (Reuters) — Młoda matka oświadcza że niedawno uchwalona regulacja dotycząca przeciwdziałania wykorzystywaniu dzieci doprowadziła do nieodwracalnego zniszczenia jej reputacji po tym jak WhatsApp zgłosił przesłane przez nią zdjęcia.

Policja przeprowadziła rewizję domu 21-letniej Słowenki Melody Bostic. Stało się to kilka tygodni po tym, jak przesłała swojej matce zdjęcie pieluszkowego odparzenia u swojego dziecka w celu zasięgnięcia porady medycznej.

"Stale boję się, że zrobię krzywdę swojej córce, a nie jestem w stanie chodzić z nią do lekarza za każdym razem gdy zobaczę coś niepokojącego. Nigdy nie podejrzewałabym, że policja mogłaby wkroczyć do mojego domu, wziąć mój telefon i zażądać odblokowania go, żeby potem pokazać im całą moją galerię zdjęć" - mówi Bostic.

Rzecznik organu ścigania potwierdził, że poszukiwania młodej matki miało miejsce i że ostatecznie nie postawiono jej żadnych zarzutów. Konsekwencje zdarzenia są stale odczuwane przez Melody. "Mimo że nie zostałam uznana za winną, moi sąsiedzi wciąż mnie unikają. Widzieli radiowozy stojące pod moim domem przez kilka godzin".

Jak twierdzi matka Bostic, "gdy oskarży się ciebie o zrobienie czegoś okropnego, trudno nie być wobec ciebie podejrzliwym przez cały czas. Mamy dziesięć przykazań które każą nam nie oskarżać fałszywie siebie nawzajem, a co z aplikacjami? One też nie powinny. Moja córka jest teraz karana przez ich kłamstwo. Jak to może być uczciwe?"

Meta odmawia komentarza w tej sprawie uzasadniając to polityką niedyskutowania o indywidualnych przypadkach.

Ten artykuł nigdy nie został wydany przez Reuters. Patrz: Uwaga.

Day 203

Wired logo
Den stora berättelsen

Koniec ery prywatności? Nie na warcie tych geeków.

Podczas gdy UE wycofuje się z zapewniania prywatności, powstały już zewnętrzne narzędzia usuwające prawnie narzucone systemy z ich ulubionych komunikatorów, a także tworzone są zupełnie nowe, które mają być odporne na nowe regulacje.

Nieoficjalne programy do obsługi komunikatora WhatsApp nie są niczym nowym, ale ich ogromna popularność - już tak. Twórcy WasÄpp szacują, że już ćwierć europejskich użytkowników WhatsApp używa ich narzędzia. WasÄpp wygląda i działa niemal identycznie co WhatsApp, ale jego popularność wynika z tego, że nie posiada pewnej funkcji.

Unijna regulacja do przeciwdziałania wykorzystywaniu dzieci w celach seksualnych (CSAR) narzuciła wymóg, żeby komunikatory analizowały przesyłane przez nie zdjęcia i filmy pod kątem nielegalnej zawartości. WasÄpp omija tę regulację, bo tak naprawdę nie jest on komunikatorem, a jedynie programem-opakowaniem, który korzysta z WhatsApp w imieniu użytkownika i przesyła multimedia w formie zwykłego tekstu. Prawodawcy wykluczyli bowiem zwykłe wiadomości tekstowe ze zautomatyzowanej analizy kierując się względami prywatności.

Zamiast bezpośrednio załączać multimedia do wiadomości, WasÄpp szyfruje je i przesyła do Google Drive, Dropbox lub innej przestrzeni w chmurze należącej do nadawcy. Następnie, WasÄpp wysyła odnośnik do pliku i klucz deszyfrujący w formie zwykłego tekstu, żeby WasÄpp na urządzeniu adresata mógł ich automatycznie użyć do pobrania, zdekodowania i wyświetlenia pliku.

Po jednorazowej konfiguracji, użytkownicy nie odczuwają automatycznych czynności dziejących się pod maską WasÄpp. Z ich perspektywy komunikator obsługuje się tak samo co pierwowzór przed wprowadzeniem kontrowersyjnej regulacji - i o to właśnie chodzi. Dopóki Unia Europejska nie zakaże szyfrowania własnych danych, niewiele może zrobić z takim obejściem ustanowionego prawa.

Nowy rodzaj oprogramowania nie czeka bezczynnie na okazję do obrony. Funkcjonowanie bez podlegania rządowej kontroli jest konkretnym celem projektowym dla ValidChat, Wallow Messenger i Freebirdnet Chat. Wszystkie dostarczają znany użytkownikom interfejs, ale czymś co je wyróżnia to ich wewnętrzna architektura, która jest tak dobrana, żeby bronić się przed Brukselą.

Po pierwsze, ich kod jest otwartoźródłowy, więc każdy może je pobrać, zmodyfikować i rozprowadzać swoje wersje. Po drugie, komunikatory działają wewnątrz przeglądarki internetowej, a więc są niezależne od reguł sklepów z aplikacjami od Apple i Google. Po trzecie, oprogramowanie korzysta z technologii peer-to-peer do bezpiecznego i anonimowego przekazywania wiadomości między urządzeniami, bez użycia scentralizowanej infrastruktury.

"Inspirowaliśmy się anonimową siecią Tor, którą usprawniliśmy i zastosowaliśmy w komunikatorze" - mówi członek legendarnej grupy haktywistycznej Cult of the Living Unicorn, który w wolnym czasie współtworzy ValidChat.

Z powodu braku centralnego zarządzania, zależności serwerwych, wyraźnych punktów kontrolnych i tego, że użytkowanie wspomnianych komunikatorów dla dostawców internetowych wygląda jak zwykła aktywność, niewiele jest regulacji, które mogłyby zatrzymać Europejczyków przed tworzeniem prawdziwie prywatnych, szyfrowanych, komunikatorów.

Kiedy zapytaliśmy czy przeszkadzałby im fakt używania ich oprogramowania przez kryminalistów, programista Wallow Messenger odparł - "Wyrządzona krzywda nie powinna być ignorowana. Wszelkie ofiary zasługują na sprawiedliwość. Nie możemy jednak pozbawiać ludzi ich fundamentalnego prawa do prywatności tylko dlatego, że mały procent użytkowników angażuje się w niegodziwe cele."

Ten artykuł nigdy nie został wydany przez Wired. Patrz: Uwaga.

Day 365

Reuters logo

Mija rok od wprowadzenia Kontroli Czatów w UE, prawodawcy wznowili debatę nad nadzorem dla zapewnienia bezpieczeństwa

Brussels — unijna regulacja dotycząca przeciwdziałaniu wykorzystywania dzieci w celach seksualnych, potocznie znana jako Kontrola Czatów (Chat Control), została uruchomiona rok temu. Zarówno krytycy jak i zwolennicy nowego prawa zgadzają się, że nie przyczyniło się ono do znaczącego poprawienia bezpieczeństwa osób małoletnich. Zaplanowane są kolejne, polaryzujące, debaty nad nowelizacją regulacji.

W ostatnim roku liczba zgłoszeń do organów ścigania w związku z podejrzeniami pedofilii zwiększyła się o 600% po tym jak dostawcy komunikatorów wdrożyli wymagane przez regulację zautomatyzowane analizowanie i raportowanie podejrzanych treści. Zwiększenie zgłoszeń nie poskutkowało jednak zwiększeniem liczby wyroków, bo tylko 4 zarzuty karne wykorzystały dowody uzyskane z automatycznych zgłoszeń, gdzie wszystkie 4 dochodzenia były w toku przed uzyskaniem dodatkowych dowodów.

"Byliśmy przytłoczeni liczbą tych zgłoszeń. Nie mamy wystarczającego budżetu do zatrudnienia i przeszkolenia odpowiedniej liczby osób, aby sprawnie na nie reagować. Czujemy się jakby sieci społecznościowe oddelegowały ich problem moderacyjny na instytucje rządowe" - mówi pracownik jednego z organów ścigania chcący zachować anonimowość.

Unijne Cetrum nadzorujące działanie regulacji potwierdziło, że większość zgłoszeń było nieszkodliwych, bo przedstawiały one zdjęcia dzieci korzystających z czasu wakacyjnego lub były to nagie zdjęcia przesyłane przez nastolatków za ich obopólną zgodą.

Krytycy wprowadzonego nadzoru komunikacji twierdzą, że prawo poszło za daleko w ograniczaniu prywatności i przedstawiają jego nieskuteczność jako powód do rezygnacji z regulacji. Zwolennicy natomiast uważają wspomnianą nieskuteczność jako powód do dalszego uszczelniania prawa i zwiększania liczby obowiązków nakładanych na dostawców.

"Kryminaliści działają szybko, a my musimy działać szybciej. Podejrzewamy, że przestępcy przerzucili się na używanie komunikatorów, których nadzór aktualnie nie dotyczy" - twierdzi inny pracownik organów ścigania, również chcący zachować anonimowość.

Komunikatory używające inspirowaną Torem i dark webem technologię peer-to-peer zaczęły być też szerzej znane jako programy z "czarnym dymkiem", co jest nawiązaniem do kolorowania dymków wiadomości w urządzeniach Apple na niebiesko i zielono, gdzie niebieskie to wiadomości przesłane z użyciem iMessage, a zielone to te przesłane z użyciem starszej technologii SMS.

W zeszłym tygodniu krajowi reprezentanci w Radzie Europejskiej rozpoczęli debatę nad rozszerzeniem nadzoru komunikatorów pod kątem zwalczania nadużyć na nieletnich. Pierwsza tego typu propozycja padła już wiosną 2023 podczas szwedzkiej prezydencji w Radzie Unii Europejskiej, zaś jej zaktualizowana wersja dopuszczałaby możliwość żądania od dostawców dostępu do niezaszyfrowanych danych użytkowników na podstawie nakazu sądowego.

Organizacje skupione na prawach człowieka sprzeciwiają się propozycjom powołując się na trudności techniczne jakie przyniosłoby ich wdrażanie.

"Tak zwane "dopuszczanie uprawnionego dostępu" to w rzeczywistości "dopuszczanie braku zabezpieczeń". Nie ma możliwości wgrania tylnej furtki do oprogramowania lub bezpiecznego skanowania danych bezpośrednio na urządzeniu na potrzeby policji bez jednoczesnego narażania się na wykorzystanie tych narzędzi przez wrogie kraje lub hakerów. To nie jest fetysz prywatności, to jest rzeczywistość." - twierdzi Jeremiah Lee, specjalizujący się w technologiach dotyczących prywatności.

Debata nad zachowaniem równowagi między prawem do prywatności, a rządowymi możliwościami zapewnienia ofiarom sprawiedliwości będzie prawdopodobnie trwać przez pokolenia. Dla niektórych ta dyskusja odwraca jedynie uwagę od szukania nietechnicznych rozwiązań nietechnicznych problemów.

"To jest samonegujący się paradoks. Nie ma możliwości wdrożenia masowego nadzoru z jednoczesnym zachowaniem prywatności, kropka." - twierdzi Meredith Whittaker, szefowa Signal.

Ten artykuł nigdy nie został wydany przez Reuters. Patrz: Uwaga.

Post scriptum

Zacznij działać jeśli nie podoba Ci się taka wizja przyszłości.

  1. Napisz do swojego parlamentarzysty UE, do Stałego Przedstawicielstwa w Radzie Europejskiej i do liderów Twojego kraju. I głosuj zgodnie z poglądami.
  2. Złóż darowiznę na rzecz Fundacji Panoptykon, European Digital Rights (EDRi) i innych organizacji działających na terenie twojego kraju.
  3. Używaj komunikatora Signal do komunikacji ze swoją rodziną i znajomymi, a także wesprzyj go finansowo.

Czytaj więcej:

Zasługi

Napisane i zaprojektowane przez
Jeremiah Lee

Specjalne podziękowania dla
Jonathan Cowperthwait
Marcel Waldvogel

Przetłumaczone przez
Bartłomiej Garbiec

Możesz pomóc w tłumaczeniu tej strony na język francuski, holenderski, flamandzki, Esperanto lub inny? Skontaktuj się ze mną!

Logotypy i nazwy firm są znakami towarowymi ich właścicieli. Używane w celach dozwolonego użytku (fair-use) w ramach śledztwa dziennikarskiego oraz krytyki kulturowej, recenzji, karykatury i parodii.

W tworzeniu zostały użyte otwartoźródłowe projekty:
Hero Icons (licencja MIT), Monaspace Krypton (licencja SIL Open Font 1.1), Old Standard TT (licencja SIL Open Font 1.1), Tailwind CSS (licencja MIT)

Obrazek użyty we wiadomości prasowej Meta użyty ze strony Meta Newsroom

Headlines from the first year of Chat Control by Jeremiah Lee and Polski translation by Bartłomiej Garbiec are licensed under CC BY 4.0

Last updated: 2024-09-27T14:53:58+0000

←︎ More writing by Jeremiah