Miliardy ludzi z całego świata odwiedzają YouTube z przeróżnych powodów. Bez względu na to, czy chcą obejrzeć trudno dostępny koncert, czy opanować nową umiejętność, na YouTube znajdą pokaźny zbiór różnorodnych treści i opinii. Nie byłoby to jednak możliwe, gdyby nie nasze zaangażowanie w ochronę społeczności – ta główna wartość leży u podstaw wszystkich naszych systemów i umacnia każdy aspekt naszych usług.
Kilka razy w roku zabiorę Was za kulisy i opowiem, jak radzimy sobie z niektórymi z największych wyzwań stojących przed YouTube, oraz, co ważniejsze, przybliżę skomplikowane konsekwencje i kompromisy związane z każdym rozważanym przez nas działaniem. W kolejnych wpisach zgłębimy takie tematy jak nasze wysiłki na rzecz klasyfikowania wiarygodnych treści oraz kluczowe kamienie milowe w zakresie odpowiedzialności. Jednak w pierwszym poście chcę opowiedzieć o działaniach, które obecnie podejmujemy, aby zwalczać potencjalnie szkodliwe nieprawdziwe informacje w YouTube.
W ciągu ostatnich 5 lat zainwestowaliśmy wiele w model, który nazywamy 4 filarami odpowiedzialności. Używając kombinacji systemów uczących się oraz ludzi, szybko usuwamy szkodliwe treści, promujemy wiarygodne źródła i ograniczamy rozprzestrzenianie się problematycznych materiałów (o tym, dlaczego to ważne, można przeczytać w tym poście na blogu). Połączenie tych narzędzi jest kluczowe w ograniczaniu liczby wyświetleń nieodpowiednich treści przy zachowaniu otwartości na naszej platformie. Jednak w czasach, gdy wprowadzające w błąd informacje rozprzestrzeniają się coraz szybciej i dalej, musimy dostosowywać nasze podejście do aktualnych okoliczności. Oto trzy wyzwania, z którymi nasze zespoły chcą się zmierzyć.
Wyłapywanie nowych obszarów dezinformacji
Jeśli chodzi o nieprawdziwe informacje szerzone w internecie, przez wiele lat królowało kilka dyżurnych tematów – teorie spiskowe dotyczące 11 września, lądowania na Księżycu czy płaskiej Ziemi. Te krążące już od dłuższego czasu teorie spiskowe wygenerowały całe archiwum treści. Dzięki temu mogliśmy wytrenować nasze systemy uczące się w rozpoznawaniu wzorców charakterystycznych dla tego typu materiałów i ograniczaniu rekomendacji filmów, które te wzorce zawierają. Jednak coraz częściej pojawiają się zupełnie nowe teorie i szybko zyskują na popularności. Narracje mogą też prześlizgiwać się z jednego tematu na drugi – np. ogólne treści dotyczące zdrowia mogą nawiązać do wątpliwości w kwestii szczepień. Każda narracja może wyglądać i oddziaływać na odbiorców inaczej, a niektóre z nich mogą mieć typowo lokalny charakter.
Z tymi wyzwaniami musieliśmy zmierzyć się na samym początku pandemii COVID-19, kiedy teoria o rozprzestrzenianiu koronawirusa przez wieże 5G skłoniła ludzi do palenia stacji bazowych w Wielkiej Brytanii. W związku z niezaprzeczalnym ryzykiem realnych szkód wywołanych przez te informacje postanowiliśmy wpisać tego typu treści na listę niedozwolonych w nowej wersji naszych wytycznych. W tym przypadku mogliśmy działać szybko, ponieważ już wcześniej wprowadziliśmy zasady dotyczące szerzenia nieprawdziwych informacji o COVID-19 zgodne z wytycznymi lokalnych i międzynarodowych instytucji zdrowia publicznego.
Jednak nie będziemy w stanie aktualizować naszych zasad zgodnie z zaleceniami ekspertów w przypadku każdej kolejnej szybko rozprzestrzeniającej się narracji. Im nowsza jest wprowadzająca w błąd teoria, tym mniej przykładów mamy do trenowania naszych systemów. Aby temu zaradzić, nieustannie szkolimy nasz system na nowych danych. Szukamy więc sposobów na wykorzystanie bardziej ukierunkowanych klasyfikatorów, słów kluczowych w wielu językach i informacji od regionalnych analityków do identyfikowania narracji, których nasz główny klasyfikator nie wyłapuje. Z czasem sprawi to, że będziemy szybciej i dokładniej wyłapywać te dezinformacje.
Poza ograniczaniem zasięgu niektórych treści, nasze systemy podsuwają widzom filmy z informacjami z wiarygodnych źródeł w wynikach wyszukiwania i w rekomendacjach. Ale niektórym tematom brakuje treści zaufanych — nazywamy to pustymi danymi. Weźmy na przykład pod uwagę szybko pojawiające się wiadomości, takie jak katastrofa naturalna, w której bezpośrednio po niej możemy zobaczyć niezweryfikowane treści spekulujące na temat przyczyn i ofiar. Tworzenie nowych treści wideo przez zaufane źródła może zająć trochę czasu, a gdy dezinformacje szybko się rozprzestrzeniają, nie zawsze jest wystarczająco dużo wiarygodnych treści, na które możemy wskazać w krótkiej perspektywie.
W przypadku ważnych wydarzeń, takich jak klęska żywiołowa, tworzymy panele informacyjne, aby kierować widzów do artykułów tekstowych dotyczących danego tematu. W przypadku tematów niszowych, których media mogą nie omawiać, udostępniamy widzom pola wyboru faktów. Ale sprawdzanie faktów również wymaga czasu, a nie każdy pojawiający się temat zostanie omówiony. W takich przypadkach badaliśmy dodatkowe typy etykiet, które można dodać do filmu lub na górze wyników wyszukiwania, np. ostrzeżenie dla widzów, że brakuje wysokiej jakości informacji. Musimy również zastanowić się, czy pojawienie się etykiety mogłoby przypadkowo zwrócić uwagę na temat, który w przeciwnym razie nie zyskałby na popularności. Nasze zespoły aktywnie omawiają te kwestie, szukając właściwego podejścia.
Ograniczanie wyświetleń filmów potencjalnie wprowadzających w błąd zamieszczonych na innych platformach
Kolejnym wyzwaniem jest rozprzestrzenianie się filmów bliskich łamania wytycznych poza YouTube – to filmy, które w świetle naszych zasad nie kwalifikują się do usunięcia, ale niekoniecznie chcemy je polecać użytkownikom. Przeprowadziliśmy restrukturyzację naszych systemów rekomendacji, aby konsumpcja treści, które są bliskie łamania wytycznych i pochodzą z naszych rekomendacji, wynosiła mniej niż 1%. Jednak nawet jeśli nie polecamy konkretnego filmu bliskiego łamania wytycznych, nadal może on być wyświetlany na innych stronach, gdzie umieszczono film z YouTube lub link do niego.
Możliwym rozwiązaniem tego problemu jest dezaktywacja przycisku udostępniania lub przerwanie linku do filmów, w przypadku których rekomendowanie jest ograniczone. Z pewnością skutecznie uniemożliwiłoby to umieszczenie linku do filmu lub samego filmu na innej stronie. Jednak blokowanie udostępniania może za bardzo ograniczać wolność widzów na naszej otwartej platformie. Udostępnienie linku jest wyborem konkretnej osoby w odróżnieniu od bardziej pasywnego działania, jakim jest np. obejrzenie polecanego filmu.
Trzeba też pamiętać o kontekście — umieszczenie filmu bliskiego łamania wytycznych w badaniu naukowym czy wiadomościach może wymagać innego traktowania. Musimy zachować równowagę między ograniczaniem zasięgu potencjalnie szkodliwych nieprawdziwych informacji a pozostawieniem przestrzeni na swobodną dyskusję oraz edukowanie o drażliwych lub kontrowersyjnych tematach. Innym potencjalnym rozwiązaniem mogłoby być wyświetlanie reklamy pełnoekranowej przed rozpoczęciem odtwarzania filmu bliskiego łamania wytycznych umieszczonego na innej stronie bezpośrednio lub za pomocą linku. W ten sposób moglibyśmy dać widzom znać, że dany materiał może zawierać nieprawdziwe informacje. Reklamy pełnoekranowe działają jak próg zwalniający – odbiorca zyskuje dodatkową chwilę na refleksję, zanim obejrzy lub udostępni film. Te reklamy wykorzystujemy już w przypadku treści drastycznych lub z ograniczeniem wiekowym i uważamy je za ważne narzędzie do informowania widzów o charakterze filmu, który zamierzają obejrzeć, co pozwala im podejmować świadome wybory.
Będziemy nadal uważnie badać różne opcje, aby upewnić się, że ograniczamy rozprzestrzenianie się szkodliwych dezinformacji w internecie.
Zwiększanie wysiłków na rzecz ograniczania dezinformacji na całym świecie
Nasza praca na rzecz ograniczania dezinformacji już przyniosła wymierne rezultaty, ale w miarę wprowadzania tych rozwiązań w ponad 100 krajach i kilkunastu językach, które obsługujemy, cały czas napotykamy nowe przeszkody.
W różnych kulturach ludzie inaczej postrzegają to, co czyni źródło wiarygodnym. W niektórych krajach publiczni nadawcy, tacy jak BBC w Wielkiej Brytanii, są uważani za źródło wiarygodnych informacji. Z kolei w innych krajach działalność nadawców państwowych może być bliska propagandy. W swoich ekosystemach wiadomości i informacji państwa mają różnorodne podejście do prezentowanego zakresu treści – ich dostawcy mogą wymagać rygorystycznego sprawdzania faktów albo nadzorować je i weryfikować w ograniczonym stopniu. Natomiast środowiska polityczne, kontekst historyczny oraz bieżące wydarzenia mogą prowadzić do powstawania lokalnych narracji opartych na nieprawdziwych informacjach. Na przykład podczas epidemii wirusa Zika w Brazylii niektórzy widzieli przyczynę jej wybuchu w międzynarodowych spiskach. Z kolei w zeszłym roku w Japonii szerzyły się nieprawdziwe pogłoski o tym, że trzęsienie ziemi było spowodowane ingerencją człowieka.
W obliczu tego regionalnego zróżnicowania nasze zespoły mierzą się z tymi samymi problemami, które widzimy w przypadku pojawiających się dezinformacji, od zmieniających się narracji po brak wiarygodnych źródeł. Przykładowo na początku pandemii zaobserwowaliśmy, że nie we wszystkich krajach instytucje zdrowia publicznego udostępniały najnowsze wyniki badań, czasami też zdarzało im się publikować sprzeczne wytyczne.
To, co uznajemy za dopuszczalną granicę, również może podlegać znaczącemu zróżnicowaniu. Zawsze bierzemy pod uwagę to, jak wytyczne naszych weryfikatorów treści mogą być interpretowane w różnych językach i kulturach. Praca z lokalnymi zespołami i ekspertami w celu określenia kontekstu kulturowego, który ma wpływ na to, czy film jest zostanie zaklasyfikowany jako bliski łamania wytycznych, wymaga czasu.
Poza tym, że zatrudniamy w naszych zespołach kolejne osoby, które rozumieją wzajemny wpływ regionalnych niuansów i nieprawdziwych informacji, rozważamy dalsze zaangażowanie we współpracę z ekspertami i organizacjami pozarządowymi z całego świata. Podobnie jak w przypadku tematów błyskawicznie zdobywających popularność, pracujemy nad sposobami częstszego aktualizowania modeli, co umożliwi nam wychwytywanie regionalnych informacji wprowadzających w błąd dzięki obsłudze lokalnych języków.
Dalsze działania oparte na przejrzystości
W YouTube będziemy kontynuować naszą pracę nad ograniczeniem szerzenia szkodliwych, nieprawdziwych informacji we wszystkich naszych usługach i zasadach, jednocześnie nadal chroniąc otwartość, która pozwala, aby na platformie wybrzmiewały różnorodne opinie. Zdajemy sobie sprawę, że nie znamy wszystkich odpowiedzi, ale uznajemy za istotne dzielenie się kwestiami i problemami, które rozważamy. Nigdy nie było bardziej odpowiedniej chwili, by przyspieszyć pracę nad bezpieczeństwem i dobrym samopoczuciem naszej społeczności. O jej efektach będę z radością informował Was na bieżąco.
Wprowadzamy wbudowane podsumowania oraz format bez podziału na strony w Dokumentach
Pozbądź się ograniczeń dzięki formatowi bez podziału na strony w Dokumentach
Łatwe importowanie informacji z Kalendarza informacji za pomocą szablonu notatek ze spotkania w Dokumentach
Podgląd linków do Map Google bezpośrednio w Dokumentach dzięki inteligentnym okienkom map
Przyspiesz analizę i zredukuj liczbę błędów dzięki korektom formuł w Arkuszach
Opinie Google to skarbnica wiedzy o lokalnych miejscach - szczególnie gdy chcemy odkrywać te nowe. Dzięki opiniom możecie znaleźć miejsca i firmy, które najbardziej przypadną Wam do gustu - od piekarni z najlepszymi bezglutenowymi babeczkami, po pobliską restaurację z muzyką na żywo.
Miliony opinii zamieszczanych przez użytkowników z całego świata sprawiają, że codziennie informacje w Google stają się bardziej aktualne i dokładne. Znaczna część naszej pracy nad ochroną przed pojawianiem się nieodpowiednich treści w opiniach dzieje się za kulisami, dlatego chcieliśmy rzucić nieco światła na to, co dzieje się, gdy klikacie w opiniach przycisk Opublikuj.
Zespół prasowy jest dostępny pod adresem e-mail: press-pl@google.com Odpowiedzi udzielamy wyłącznie przedstawicielom prasy. W przypadku wszystkich pozostałych pytań zapoznaj się z możliwościami kontaktu.