Wytyczne dla społeczności YouTube dotyczące mowy nienawiści
6 sierpnia 2019
W czerwcu informowaliśmy na blogu YouTube o zmianach na naszej platformie.
We wpisie zwróciliśmy między innymi uwagę na to, że w ciągu ostatnich kilku lat inwestowaliśmy w nasze produkty i systemy, tak aby jak najlepiej chronić społeczność YouTube przed szkodliwymi treściami. Dzięki tym inwestycjom materiały wideo naruszające zasady korzystania z YouTube są usuwane szybciej niż kiedykolwiek wcześniej, a użytkownicy widzą mniej takich materiałów.
Na bieżąco weryfikujemy zasady YouTube – chcemy mieć pewność, że wytyczamy właściwe granice. Tylko w 2018 roku dokonaliśmy ponad 30 aktualizacji naszych wytycznych. Jednym z najbardziej złożonych i ciągle zmieniających się obszarów, z którymi mamy do czynienia, jest mowa nienawiści. Przyglądaliśmy się uważnie naszemu podejściu do treści nacechowanych nienawiścią we współpracy z dziesiątkami ekspertów z zakresu ekstremizmu, suprematyzmu, praw obywatelskich i wolności słowa.
W konsekwencji wprowadziliśmy ostatnio nową zasadę w naszej polityce zwalczania mowy nienawiści. Zakazaliśmy publikacji takich materiałów, w których dowolną grupę ludzi definiuje się jako lepszą, by uzasadnić dyskryminację, segregację lub ostracyzm innej grupy ze względu na takie cechy, jak wiek, płeć, rasa, kasta, religia, orientacja seksualna lub status weterana. Rozszerzamy również nasze wytyczne, aby lepiej egzekwować zasady dotyczące niepełnosprawności fizycznej lub psychicznej, jeśli są przedstawiane jako choroba lub nadają jej sens niedoboru psychicznego bądź fizycznego, lub jeśli są wykorzystywane jako uzasadnienie relacji podporządkowania.
Dotyczyć to będzie na przykład materiałów wideo, które sugerują wyższość rasy białej nad innymi rasami (co miałoby na celu promocję segregacji rasowej) bądź że wiara chrześcijańska jest rodzajem choroby psychicznej. W tej kategorii mieszczą się również materiały, które przedstawiają np. sugestie, że środowisko LGBTQ kojarzone jest z pedofilią.
To zaostrzone podejście nie ma nic wspólnego z atakiem na jedne czy drugie opinie polityczne. Materiały wideo, których przekaz polega na promowaniu dyskryminacji, segregacji lub wykluczenia, podlegają usunięciu – bez względu na to, z której strony spektrum politycznego pochodzą. Każdy użytkownik YouTube podlega nowym zasadom w zakresie mowy nienawiści – zarówno w zamieszczanych materiałach wideo, jak i w publikowanych komentarzach i innych treściach. W lutym podjęliśmy również nowe działania, aby jeszcze lepiej egzekwować Wytyczne dla Społeczności YouTube. Ujednoliciliśmy system sankcji za publikowanie materiałów wymagających usunięcia, jak również udoskonaliliśmy nasz system powiadomień. Z uwagi na ogromną liczbę materiałów wideo umieszczanych na platformie YouTube, może zdarzyć się tak, że dojdzie do nieuzasadnionego zablokowania danego materiału. Kiedy dowiemy się o takim błędzie, robimy wszystko, aby jak najszybciej przywrócić zablokowaną treść. Wdrożyliśmy również proces odwoławczy dla użytkowników, którzy chcieliby się odwołać od decyzji o usunięciu, jeśli uważają, że popełniono błąd.
Zdajemy sobie sprawę, że niektóre z opisywanych treści mają pewną wartość dokumentalną, np. dla badaczy i organizacji pozarządowych, które pragną zrozumieć mechanizmy mowy nienawiści, by z nią walczyć. Właśnie z uwagi na ten cel analizujemy możliwości ich udostępnienia. W decyzji o usunięciu zawsze ważną rolę odgrywa kontekst – niektóre materiały mogą pozostać dostępne, ponieważ omawiają takie tematy, jak planowane akty prawne bądź mają na celu potępienie lub ujawnienie mowy nienawiści, jak również przedstawiają analizy bieżących wydarzeń.
Otwartość platformy YouTube przyczyniła się do rozwoju kreatywności i zwiększenia dostępu do informacji. Naszym obowiązkiem jest ochrona tego dorobku i zapobieganie wykorzystywaniu naszej platformy do podżegania do nienawiści, dyskryminacji i przemocy. Zobowiązujemy się do podjęcia kroków niezbędnych do wywiązania się z tego obowiązku dzisiaj i w przyszłości.