4 Rs of Responsibility - 4 fundamenty odpowiedzialności
W ciągu najbliższych kilku miesięcy przedstawimy nasze działania w ramach każdej z nich. Tym razem skupimy się na pierwszej, czyli Usuwaniu szkodliwych treści. Od samego początku istnienia na YouTube nie było miejsce na niebezpieczne i szkodliwe treści. W ostatnich latach zintensyfikowaliśmy jednak nasze działania i staraliśmy się udoskonalić system usuwania tego typu materiałów. Na poniższej infografice możecie prześledzić najważniejsze udoskonalenia i aktualizacje wprowadzane od 2016 roku. Dzięki nim, w ciągu ostatnich 18 miesięcy zredukowaliśmy o 80% liczbę wyświetleń filmów, które po umieszczeniu zostały usunięte z powodu naruszeń zasad naszej platformy. Nieustannie pracujemy nad tym, aby jeszcze bardziej poprawić ten wynik.
Udoskonalanie zasad YouTube
Zanim zdecydujemy się usunąć treści, które naruszają zasady YouTube, zawsze musimy upewnić się, że dobrze wyznaczyliśmy granicę pomiędzy tym, co należy zablokować, a co możemy zaakceptować. Wszystko po to, aby zachować wolność wypowiedzi i jednocześnie wciąż wspomagać prężnie rozwijającą się społeczność. W tym celu nasz dedykowany zespół opracowuje nasze zasady, a także systematycznie dokonuje ich przeglądu, aby mieć pewność, że są one aktualne, zapewniają bezpieczeństwo naszym użytkownikom, a także nie przeciwstawiają się otwartości, która przyświeca YouTube.
Po dokładnym przeanalizowaniu zasad, często dochodzimy do wniosku, że fundamentalne zmiany nie są konieczne. Jednak nadal, zauważamy obszary, które mogą być niejasne lub mylące dla użytkowników. Dlatego wiele aktualizacji stanowi jedynie wyjaśnienie obowiązujących wcześniej wytycznych. Na przykład, na początku tego roku
uszczegółowiliśmy zasady dotyczące popularnych „wyzwań” („challenges”), które mogą być niebezpieczne dla użytkowników. Od 2018 r. wprowadziliśmy dziesiątki aktualizacji naszych wytycznych dotyczących egzekwowania zasad, wiele to drobne wyjaśnienia, ale jest też kilka dużo bardziej znaczących.
W przypadku skomplikowanych problemów, na opracowanie nowych wytycznych YouTube poświęcamy nawet kilka miesięcy. W tym czasie konsultujemy się z ekspertami zewnętrznymi oraz twórcami, aby dokładnie zrozumieć, w jaki sposób nasze obecne działania mogą nie spełniać oczekiwań społeczności. Uwzględniamy też wtedy różnice regionalne, aby upewnić się, że proponowane zmiany mogą być stosowane uczciwie na całym świecie.
Jedną z takich znaczących zmian w polityce YouTube, była
aktualizacja dotycząca mowy nienawiści. Przed jej wprowadzeniem spędziliśmy z naszym zespołem wiele miesięcy na uważnym opracowywaniu nowych zasad i wspólnej pracy nad szkoleniami i narzędziami, które pomogą nam w ich egzekwowaniu. Od wprowadzenia jej w życie na początku czerwca, nasz zespół sprawdza i usuwa więcej materiałów niezgodnych z nowymi zasadami. Idzie to w parze z coraz lepszym wykrywaniem treści niezgodnych z polityką YouTube przez nasze algorytmy. Oczywiście, udoskonalenie narzędzi do egzekwowania nowych wytycznych może zająć jeszcze trochę czasu. Jednak wpływ aktualizacji dotyczącej mowy nienawiści jest już widoczny w danych opublikowanych w raporcie
Egzekwowanie Wytycznych dla społeczności:
Gwałtowny wzrost liczby usuniętych materiałów jest spowodowany skasowaniem z platformy komentarzy, filmów i kanałów, których obecność przed aktualizacją była dozwolona. W
kwietniu 2019 roku ogłosiliśmy, że pracujemy nad udoskonaleniem zasad dotyczących przeciwdziałania nękaniu, w tym także gnębieniu występującym pomiędzy twórcami. W nadchodzących miesiącach na pewno zaprezentujemy postępy i wyniki naszej pracy.
Algorytmy do wyłapywania szkodliwych treści
Kiedy już wprowadzimy nowe zasady YouTube, zaczynamy polegać zarówno na użytkownikach platformy, jak i na technologii. Dzięki temu oznaczone treści trafiają do zespołów, których zadaniem jest ich sprawdzenie oraz ocena. Czasami używamy tagowania (lub cyfrowych odcisków palców) do przechwytywania kopii znanych materiałów naruszających prawo, zanim zostaną one udostępnione na naszej platformie. W przypadku niektórych treści, takich jak pornografia dziecięca lub filmy o charakterze terrorystycznym, używamy specjalistycznych baz danych z tagami, dzięki czemu nasze maszyny mogą rozpoznać szkodliwe materiały jeszcze w fazie przesyłania na platformę.
W 2017 roku rozwinęliśmy naszą technologię uczenia maszynowego, aby skuteczniej wykrywać treści potencjalnie naruszające zasady, a następnie przekazywać je do oceny przez zespół pracowników. Technologia uczenia maszynowego jest niesamowicie efektywna w rozpoznawaniu materiałów, ponieważ potrafi wychwycić pewne wzorce, które później pomagają nam w znalezieniu materiałów podobnych do tych, które zostały już raz usunięte z serwisu. Algorytmy pomagają nam także w oznaczaniu mowy nienawiści lub innych szkodliwych treści. Należy jednak zaznaczyć, że wydźwięk niektórych treści w dużej mierze zależy od kontekstu, dlatego nieustannie podkreślamy znaczenie oceny naszych pracowników w podejmowaniu zniuansowanych decyzji. Niemniej jednak ponad 87% z 9 milionów wideo, które usunęliśmy w drugim kwartale 2019 roku, w pierwszej kolejności było rozpoznanych i oznaczonych przez nasz automatyczny system.
Dlatego też inwestujemy w zautomatyzowane systemy wykrywania szkodliwych treści, a nasz zespół inżynierów stara się ulepszać je z miesiąca na miesiąc. Wystarczy wspomnieć, że niedawna aktualizacja systemów wykrywania spamu przeprowadzona w drugim kwartale 2019 roku, doprowadziła do wzrostu o ponad 50% liczby usuniętych kanałów z powodu naruszenia naszej polityki dotyczącej spamu.
Usuwanie szkodliwych treści, zanim dotrą do widzów
Dokładamy wszelkich starań, aby szkodliwe treści nie trafiły do szerokiej publiczności i zostały usunięte, zanim zostaną obejrzane przez kogokolwiek. Jak już wspominaliśmy, udoskonalenia w naszym systemie automatycznego oznaczania treści pomogły nam wykryć i sprawdzić wiele materiałów, zanim jeszcze zdążyły zostać zgłoszone jako szkodliwe przez członków społeczności YouTube. W drugim kwartale 2019 roku, ponad 80% automatycznie oznaczonych wideo była usuwana zanim została obejrzana przez nawet jednego użytkownika.
Co więcej, uważamy, że najskuteczniejszą metodą w szybkim usuwaniu szkodliwych treści, jest przewidywanie problemów, zanim w ogóle nastąpią. W styczniu 2018 roku, powołaliśmy zespół Intelligence Desk, który proaktywnie monitoruje pojawiające się informacje, wpisy w mediach społecznościowych, a także raporty użytkowników. Ich zadaniem jest rozpoznanie i zrozumienie schematów i pewnych właściwości, które mogą mieć wpływ na pojawianie się niepożądanych materiałów. Dzięki temu możemy przygotować się na ich pojawienie, zanim nastąpi eskalacja problemu.
W swoich działaniach jesteśmy zdeterminowani, aby jak najbardziej ograniczyć widoczność szkodliwych treści. Właśnie dlatego w Google
ponad 10 000 osób pracuje nad wykrywaniem, sprawdzaniem i usuwaniem materiałów, które naruszają nasze zasady. Ze względu na naszą zdolność do szybkiego usuwania tego typu treści, filmy naruszające te zasady stanowią ułamek procenta wyświetleń na YouTube.
Na przykład, prawie 30 000 filmów, które usunęliśmy z powodu mowy nienawiści w ostatnim miesiącu, wygenerowało zaledwie 3% wyświetleń uzyskanych przez filmy dotyczące robienia na drutach w tym samym okresie.
W poprzednim tygodniu zaktualizowaliśmy nasz kwartalny raport dotyczący
Egzekwowania Wytycznych dla społeczności, który prezentuje dodatkowe informacje o liczbie materiałów, które usuwamy z YouTube, dlaczego to robimy oraz w jaki sposób je wykrywamy i sprawdzamy. Raport pokazuje także znaczenie technologii, którą wdrożyliśmy w ostatnich latach i która pomogła nam usuwać szkodliwe materiały z YouTube szybciej niż kiedykolwiek wcześniej. Niemniej jednak, znalazły się w nim także dane, które wskazują, że fachowa wiedza zespołu naszych pracowników jest nadal kluczowym elementem w zakresie egzekwowania zasad i wytycznych. To właśnie oni nieustannie pracują nad polityką YouTube, starannym przeglądem zamieszczanych treści i efektywnym wdrażaniem technologii uczenia maszynowego.
Zespół YouTube https://lh4.googleusercontent.com/K0Pd2fvGGi2XiaONPyyF9UwrxKV7bv85HhMT9uHaluTudzcf2XxWdfQrq1TGubCDccmgs1LixauCbBQ96stRNJWJLqB3TBgUCLNzvqfUdeG3oWEYIiy458pxw3trRoXp7EUuJWnW Team YouTube