U swych podstaw sztuczna inteligencja (SI) to oprogramowanie komputerowe zdolne do uczenia się i adaptacji. Nie jest w stanie rozwiązać wszystkich problemów, ale ma ogromny potencjał, aby pomóc zmienić nasze życie na lepsze. W Google wykorzystujemy SI by nasze produkty były bardziej użyteczne – od wolnej od spamu i łatwej do uporządkowania poczty elektronicznej przez inteligentnych asystentów, z którymi można swobodnie porozmawiać, aż po odkrywanie zabawnych elementów na zdjęciach. 
Poza naszymi produktami korzystamy z pomocy SI, aby radzić sobie z najpilniejszymi problemami na świecie. Para licealistów buduje czujniki obsługiwane przez sztuczną inteligencję, przewidujące ryzyko wybuchu pożarów lasów. Rolnicy korzystają z niej, aby obserwować stan zdrowia swoich stad. Lekarze zaczynają wykorzystywać SI w diagnozowaniu nowotworów i zapobieganiu utracie wzroku. Te jednoznaczne korzyści są przyczyną, dla której Google inwestuje znaczne środki w badanie i rozwój sztucznej inteligencji oraz udostępnia szeroko technologie SI za pośrednictwem swoich narzędzi i otwartego kodu.
Mamy świadomość, że technologia z takimi możliwościami rodzi równie istotne wątpliwości dotyczące jej wykorzystania. Rozwój SI oraz sposób, w jaki będziemy z niej korzystać, będą wywierać coraz silniejszy wpływ na społeczeństwo. Jako liderzy w dziedzinie sztucznej inteligencji, odczuwamy ciążącą na nas wielką odpowiedzialność za jej właściwe wykorzystanie. Dlatego publikujemy dziś siedem zasad, którymi będziemy się kierować w dalszej pracy. Nie są to czysto teoretyczne koncepcje; to konkretne standardy, które będą czynnie rządzić naszymi badaniami i rozwojem produktów oraz oddziałując na podejmowane decyzje biznesowe.

Zdajemy sobie sprawę, że obszar ten jest dynamiczny i stale ewoluuje. Podejdziemy do naszych zadań z pokorą, zobowiązując się do wewnętrznego i zewnętrznego zaangażowania oraz gotowi do przystosowania swojego podejścia do zdobywanej z upływem czasu wiedzy.


Cele dla zastosowań SI

Będziemy oceniać zastosowania SI w świetle poniższych celów. Wierzymy, że SI powinna:


1. Przynosić korzyści społeczne.

Rozwój nowych technologii wywiera coraz silniejszy wpływ na społeczeństwo. Postępy w dziedzinie sztucznej inteligencji dokonają istotnych przemian w bardzo wielu dziedzinach, między innymi opiece zdrowotnej, bezpieczeństwie, energetyce, transporcie, produkcji czy rozrywce. Rozważając potencjalny rozwój i zastosowania technologii SI, będziemy brać pod uwagę szeroki zakres czynników społeczno-ekonomicznych i będziemy kontynuować swoje działania tam, gdzie naszym zdaniem ogólne prawdopodobne korzyści istotnie przewyższą przewidywane wady oraz ryzyko.
SI zwiększa również naszą zdolność do wyłuskiwania znaczenia z dużych ilości danych. Będziemy dążyć do udostępniania wysokiej jakości, precyzyjnych informacji z wykorzystaniem SI, nie rezygnując przy tym z poszanowania dla norm kulturowych, społecznych i prawnych w krajach, w których działamy. Będziemy również nadal wnikliwie oceniać, kiedy udostępniać nasze technologie na zasadach niekomercyjnych.


2. Unikać tworzenia lub umacniania krzywdzących zniekształceń.

Algorytmy i zbiory danych sztucznej inteligencji mogą odzwierciedlać, umacniać lub osłabiać krzywdzące zniekształcenia. Zdajemy sobie sprawę, że ich odróżnienie od rzeczywistych tendencji nie zawsze jest łatwe i w poszczególnych kulturach i społecznościach kształtują się one inaczej. Dołożymy starań, aby uniknąć ich niekorzystnego oddziaływania na ludzi, w szczególności w przypadku tak wrażliwych wyróżników jak rasa, pochodzenie etniczne, płeć, narodowość, dochody, orientacja seksualna, sprawność fizyczna czy poglądy polityczne i religijne.


3. Być opracowywana i sprawdzana pod kątem bezpieczeństwa.

Będziemy nadal rozwijać i wdrażać rygorystyczne środki ochronne i zabezpieczające, aby uniknąć niepożądanych rezultatów niosących za sobą ryzyko wyrządzenia jakichkolwiek szkód. Zaprojektujemy nasze systemy SI, aby wykazywały się właściwą ostrożnością, będziemy też je rozwijać zgodnie z najlepszymi praktykami w dziedzinie badań nad bezpieczeństwem sztucznej inteligencji. W odpowiednich przypadkach przeprowadzimy testy technologii SI w zamkniętym środowisku, obserwując ich funkcjonowanie od momentu wdrożenia.


4. Odpowiadać przed ludźmi.

Zaprojektujemy systemy SI w taki sposób, aby dostarczały właściwych możliwości do uzyskania opinii zwrotnej, należytych wyjaśnień i odwołań. Nasze technologie SI będą podlegać należytemu nadzorowi i kontroli człowieka.

5. Zawierać zasady zachowania prywatności.
Umieścimy nasze zasady ochrony prywatności w ramach rozwoju oraz wykorzystania technologii SI. Zapewnimy możliwość powiadamiania i wyrażenia zgody, będziemy wspierać architekturę chroniącą prywatność oraz zadbamy o należytą przejrzystość oraz nadzór nad wykorzystaniem danych.


6. Zachowywać wysokie standardy rzetelności naukowej.

Innowacje technologiczne opierają się na metodzie naukowej i zobowiązaniu do zasad otwartości badań, dyscypliny intelektualnej, uczciwości i współpracy. Narzędzia SI mają potencjał, aby otworzyć nowe obszary badań naukowych i wiedzy w kluczowych dziedzinach, takich jak biologia, chemia, medycyna i nauki o środowisku. Pracując nad rozwojem SI, dążymy do wysokich standardów doskonałości naukowej.
Będziemy współpracować z zainteresowanymi stronami w celu promowania rozważnego przywództwa w tej dziedzinie, korzystając z rygorystycznych pod względem badawczym, łączących wiele dziedzin nauki zasad. Będziemy również odpowiedzialnie dzielić się wiedzą na temat SI, publikując materiały edukacyjne, najlepsze praktyki i badania, które umożliwią większej liczbie osób opracowanie jej przydatnych zastosowań.

7. Być udostępniana do zastosowań zgodnych z niniejszymi zasadami.
Wiele technologii można wykorzystać do różnorakich celów. Będziemy pracować nad ograniczeniem potencjalnie szkodliwych lub naruszających zasady zastosowań. Opracowując i wdrażając technologie SI, będziemy oceniać prawdopodobne zastosowania w świetle następujących czynników:
Podstawowy cel i zastosowanie: podstawowy cel i prawdopodobne zastosowanie technologii i aplikacji, w tym stopień, w jakim rozwiązanie ma lub po adaptacji może mieć związek ze szkodliwym wykorzystaniem.
Charakter i wyjątkowość: czy udostępniamy technologię unikatową, czy raczej ogólnie dostępną.
Skala: czy wpływ zastosowania danej technologii będzie istotny.
Charakter zaangażowania Google: czy dostarczamy narzędzia ogólnego zastosowania, integrujemy narzędzia dla klientów, czy też opracowujemy rozwiązania niestandardowe.

Zastosowania dla sztucznej inteligencji, których nie będziemy rozwijać
Niezależnie od powyższych celów nie będziemy projektować ani wdrażać SI w następujących obszarach zastosowań:
  1. Technologie, które powodują lub mogą powodować ogólne szkody. Jeżeli istnieje istotne ryzyko wystąpienia szkody, będziemy kontynuować prace tylko wtedy, kiedy uznamy, że korzyści znacznie przewyższają ryzyko, i wprowadzimy odpowiednie ograniczenia związane z bezpieczeństwem.
  2. Broń lub inne technologie, których głównym celem lub konsekwencją jest spowodowanie obrażeń u ludzi lub bezpośrednie ułatwienie ich zadawania. 
  3. Technologie, które zbierają lub wykorzystują informacje do inwigilacji z naruszeniem norm międzynarodowych.
  4. Technologie, których przeznaczenie narusza powszechnie przyjęte zasady prawa międzynarodowego i praw człowieka.
Chcemy jasno powiedzieć, że choć nie opracowujemy SI do stosowania w broni, będziemy kontynuować naszą współpracę z rządami i wojskiem w wielu innych obszarach. Obejmują one bezpieczeństwo cybernetyczne, szkolenia, rekrutację wojskową, opiekę zdrowotną dla weteranów oraz akcje poszukiwawcze i ratownicze. Współpraca ta jest ważna i będziemy aktywnie poszukiwać sposobów by wesprzeć niezwykle ważne zadania tych instytucji oraz zapewnienie bezpieczeństwa personelowi wojskowemu oraz ludności cywilnej.

SI w perspektywie długoterminowej
Chociaż wybieramy właśnie takie podejście do sztucznej inteligencji, rozumiemy że w tej dyskusji jest miejsce dla wielu opinii. Wraz z postępem technologicznym w tym obszarze będziemy współpracować z wieloma zainteresowanymi stronami w celu promowania przemyślanego przywództwa w tej dziedzinie, korzystając z rygorystycznych pod względem badawczym, łączących wiele dziedzin nauki zasad. Będziemy nadal dzielić się tym, czego się nauczyliśmy, aby udoskonalać technologie i praktyki w zakresie SI.
Wierzymy, że te zasady stanowią właściwą podstawę dla naszej firmy i przyszłego rozwoju sztucznej inteligencji. Takie podejście jest zgodne z wartościami określonymi w naszym pierwotnym liście założycielskim z 2004 roku. Wyraziliśmy tam jasno nasz zamiar kierowania się perspektywą długoterminową, nawet jeśli oznacza to krótkoterminowe kompromisy. Tak wówczas powiedzieliśmy i nadal podtrzymujemy te słowa.