Trzy mity na temat zwalczania szkodliwych i niezgodnych z prawem treści w internecie
7 lutego 2023
Dzisiaj jest Dzień Bezpiecznego Internetu, ale dla zespołu ds. zaufania i bezpieczeństwa w Inżynierskim Centrum Bezpieczeństwa Google w Dublinie to dzień jak co dzień.
Członkowie tego zespołu są częścią globalnej, interdyscyplinarnej grupy, której celem jest pomaganie ludziom w dostępie do wiarygodnych informacji przez egzekwowanie stosowania naszych zasad i moderowanie treści na dużą skalę – wszystko po to, aby zwiększyć bezpieczeństwo i wygodę korzystania z sieci dla wszystkich użytkowników.
Stale rozwijamy i ulepszamy nasze narzędzia, procesy i zespoły, które pomagają nam zapewniać dostęp do przydatnych informacji i moderować treści, dlatego Dzień Bezpiecznego Internetu jest również okazją do przyjrzenia się niektórym częstym błędnym przekonaniom na temat rozpowszechniania niezgodnych z prawem i szkodliwych treści w internecie.
Mit: sztuczna inteligencja może wykryć wszystkie niezgodne z prawem i szkodliwe treści
To prawda, że moderacja treści wykorzystuje automatyczne systemy do szybkiego wykrywania na dużą skalę treści niezgodnych z prawem i treści naruszających zasady. Zbyt duże poleganie na maszynach może jednak prowadzić do problemów, takich jak nadmierne usuwanie treści czy nieumyślne ograniczanie wolności słowa lub dostępu do informacji. Kluczowe znaczenie w rozpoznawaniu szkodliwych treści i podejmowaniu dotyczących ich decyzji ma możliwość rozumienia kontekstu i niuansów przez ludzi.
Dlatego bazujemy na połączeniu automatycznych systemów i działań weryfikatorów, aby identyfikować problematyczne treści i egzekwować stosowanie naszych zasad. W tym celu podejmujemy między innymi współpracę z zaufanymi organizacjami i umożliwiamy im zgłaszanie potencjalnie problematycznych treści. Polegamy na przeszkolonych weryfikatorach. Mogą oni podejmować skomplikowane decyzje, kierując się własną oceną.
Ten proces obejmuje też automatyczne systemy, które działają szybko i na dużą skalę, dzięki czemu problematyczne treści są usuwane, zanim większe grono odbiorcówuzyska do nich dostęp, lub zanim ktokolwiek je zobaczy.
Mit: łatwiej jest po prostu usunąć wszystkie „niepożądane” treści
W Google dokładamy wszelkich starań, aby znaleźć odpowiednią równowagę – chcemy umożliwiać dzielenie się pomysłami i usługami z ludźmi z całego świata i jednocześnie dbać o to, aby nikt nie ucierpiał:
- określamy zasady obowiązujące w przypadku każdego naszego produktu i usługi oraz usuwamy treści, które naruszają te zasady lub przepisy lokalne;
- wyróżniamy wiarygodne treści z zaufanych źródeł;
- przeciwdziałamy rozpowszechnianiu potencjalnie szkodliwych treści i treści bliskich łamania wytycznych, które mogą zawierać nieprawdziwe informacje lub szkodzić użytkownikom – nie wzmacniamy ich pozycji przez rekomendacje;
- wyznaczamy wysokie standardy jakości i niezawodności dla wydawców i twórców treści, którzy chcą zarabiać na swoich treściach lub je reklamować.
Zachowanie tej równowagi jest niezwykle ważne, aby użytkownicy mieli wybór i dostęp do wysokiej jakości informacji, które pomagają ludziom również w potrzebie.
Mit: walka z nieprawdziwymi informacjami w internecie jest prosta
Walka z nieprawdziwymi informacjami w internecie to nieustanne wyzwanie – treści online zmieniają się każdego dnia, oczekiwania społeczne i użycie języka ewoluują, a nieuczciwe osoby zawsze wprowadzają innowacje, próbując obejść wykrywanie szkodliwych treści. Z pełnym zaangażowaniem doskonalimy jednak egzekwowanie stosowania naszych zasad na dużą skalę oraz podejmujemy współpracę z podmiotami legislacyjnymi, innymi firmami i organizacjami społecznymi.
Nie poprzestajemy na usuwaniu szkodliwych informacji – pracujemy nad wyróżnianiem informacji z zaufanych źródeł i podejmujemy wysiłek na rzecz promowania kompetencji w zakresie korzystania z mediów w ramach partnerstw i inicjatyw w całej Europie.
Na przykład w pierwszych dniach inwazji na Ukrainę zespoły wyszukiwarki i Map Google zapewniły w najważniejszym momencie wsparcie, aby pomóc uchodźcom w znalezieniu materiałów z wiarygodnych źródeł. W tym celu współpracowaliśmy z wieloma partnerami, w tym z Wysokim Komisarzem Narodów Zjednoczonych ds. Uchodźców, Czerwonym Krzyżem, Ministerstwem Spraw Zagranicznych Ukrainy i Agencją Reutera.
Z kolei w Google Play promowaliśmy opracowaną przez ukraiński rząd aplikację z alertami o nalocie, która pomaga ostrzegać ludność cywilną o zbliżających się nalotach.
Dzięki tym działaniom i partnerstwom użytkownicy mogli mieć pewność, że informacje są prawdziwe, godne zaufania i aktualne.
Google opiera się na założeniu, że informacje mogą być potężnym narzędziem w rękach ludzi na całym świecie. Jesteśmy zdeterminowani, aby nadal robić wszystko, co w naszej mocy, żeby ułatwiać ludziom na całym świecie znajdowanie potrzebnych informacji i zapewniać im kontekst niezbędny do podejmowania świadomych decyzji dotyczących treści widocznych w internecie.
Więcej o naszej odpowiedzialności za treści można znaleźć na stronie Inżynierskiego Centrum Bezpieczeństwa Google w Dublinie, a na safety.google opisujemy nasze działania na rzecz zapewniania bezpieczeństwa i dostępu do wiarygodnych informacji w internecie.