Social media
Google nie chce odpowiadać za propagandę terrorystów, choć rekomenduje takie treści
Google nie chce być odpowiedzialne za obecność propagandy terrorystycznej na swoich platformach ani za fakt, iż promują ją algorytmy rekomendacji treści – np. w serwisie YouTube. Już wkrótce kwestię tę rozstrzygnie amerykański Sąd Najwyższy.
Sprawa odpowiedzialności Google'a za rekomendowane przez należący do tej firmy serwis YouTube treści terrorystycznych znalazła się w amerykańskim Sądzie Najwyższym przez śmierć młodej Nohemi Gonzalez – dziewczyny, która zginęła podczas zamachu terrorystycznego w Paryżu w 2015 roku.
Jej rodzina (Gonzalez była obywatelką USA) argumentuje, że do śmierci córki nie doszłoby, gdyby nie oddziaływanie materiałów wideo z propagandą terrorystyczną, która szerzy się na YouTube i pomaga ekstremistom rekrutować nowych członków organizacji dopuszczających się działań takich, jak np. paryski zamach.
Rodzice Gonzalez twierdzą, że propaganda ta szerzy się przede wszystkim dzięki algorytmom rekomendacji treści na YouTube, „wciągającym" użytkowników w „czarną dziurę" treści ekstremistycznych i propagujących terroryzm. Ich zdaniem, to właśnie platformy cyfrowe ponoszą odpowiedzialność za taki stan rzeczy – w końcu to one są właścicielami i operatorami tych algorytmów.
Czytaj też
Co powie sąd?
Rodzina Gonzalez pozwała właściciela platformy YouTube – firmę Google, oskarżając ją o wspomaganie propagandy terrorystycznej właśnie przez algorytmy rekomendacji treści, a co za tym idzie – pomoc ekstremistom.
W ubiegłym roku sprawą zgodził się zająć Sąd Najwyższy USA, a wysłuchanie w tej sprawie ma odbyć się niebawem.
Google systematycznie broni siebie i swojej platformy, argumentując iż nie jest odpowiedzialne za treści dzięki tzw. Sekcji 230 (Sekcja 230 tytułu 47 Kodeksu Stanów Zjednoczonych – część obowiązującej w USA ustawy o przyzwoitości w komunikacji. Zapewnia platformom wolność od odpowiedzialności za treści generowane przez użytkowników – red.).
Czytaj też
Odpowiedzialność za rekomendacje
Google ocenia, że Sekcja 230 powinna chronić serwisy również przed odpowiedzialnością za negatywne skutki wynikające z działania algorytmów rekomendowania treści.
Zdaniem koncernu, system rekomendowania nagrań przez YouTube to narzędzie stworzone po to, aby umożliwiać komunikację i docieranie treści do innych. „Sekcja 230 obejmuje algorytmiczne sortowanie treści przez zdefiniowanie >>interaktywnej usługi komputerowej<< jako zawierającej narzędzia do proponowania, wybierania, filtrowania, wyszukiwania, organizowania i reorganizowania treści" – twierdzi firma.
Zdaniem Google'a, jeśli Sąd nie uwzględni w sprawie Gonzalez obowiązywania przepisów Sekcji 230 w odniesieniu do YouTube'a, tym samym unieważni mechanizm ochrony wszystkich stron internetowych wykorzystujących algorytmy do sortowania i proponowania treści.
Precedens ten dotknie zatem nie tylko serwisy takie jak YouTube, ale też wyszukiwarki internetowe oraz strony z zakupami online, a w rezultacie doprowadzi do „zdezorganizowanego bałaganu i pola minowego odpowiedzialności prawnej".
Internet zamieni się w dystopię?
Serwis Ars Technica komentuje, że jeśli Sąd Najwyższy wyda orzeczenie sprzeczne z interesami Google'a, to w opinii tej firmy internet zamieni się w dystopię, w której każdy może pozwać każdego za dzielenie się treściami, które całkowicie subiektywnie będą mogły zostać uznane za ofensywne.
Google argumentuje ponadto, że jeśli dojdzie do takiej sytuacji, niektóre duże strony internetowe mogą uciekać się do wzmożonej, prewencyjnej autocenzury, aby uniknąć nieprzyjemności prawnych.
Posiedzenie Sądu Najwyższego w tej sprawie zaplanowano na 21 lutego tego roku.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].