Przedstawiamy nasz najświeższy raport dotyczący wdrożenia zasad korzystania ze sztucznej inteligencji, w którym zawarliśmy ustrukturyzowane procesy i narzędzia.
Choć to dopiero początek 2023 roku, już wiadomo, że sztuczna inteligencja odgrywa coraz bardziej kluczową rolę dla ludzkości. Polegamy na niej w wielu dziedzinach – od wykrywania chorób po przewidywanie klęsk żywiołowych. Dla Google też stanowi niezrównane narzędzie. Wraz z jej rozwojem udoskonalamy wyszukiwania, zdjęcia i tłumaczenia w czasie rzeczywistym na jeszcze więcej języków.
Zalety sztucznej inteligencji czynią z niej potężną i pomocną nową technologię, którą stosujemy we wszystkich usługach Google. Musimy z niej korzystać rozważnie i odpowiedzialnie. Taka myśl przyświecała nam w 2018 roku, kiedy jako jedna z pierwszych firm stworzyliśmy zasady korzystania ze sztucznej inteligencji i wytyczne, opisujące w jakich przypadkach z niej nie skorzystamy. Zasady korzystania ze sztucznej inteligencji to kodeks, którego przestrzegamy, podejmując decyzje dotyczące badań, projektowania usług i rozwoju. Pamiętamy o nich również wtedy, gdy musimy zmierzyć się z mnóstwem wyzwań – zarówno projektowych, inżynieryjnych, jak i operacyjnych – podczas wdrażania nowych technologii.
Stworzenie zasad to jedno. Trzeba je jeszcze stosować. W opublikowanym ostatnio raporcie będącym czwartą, coroczną aktualizacją zasad korzystania ze sztucznej inteligencji przedstawiamy pełny przegląd tego, jak wdrażamy te zasady w życie. Te raporty zawierają nasze zobowiązanie odpowiedzialnego wykorzystania nowoczesnych technologii takich jak sztuczna inteligencja. Aby te reguły miały zastosowanie, muszą podlegać również sformalizowanemu nadzorowi oraz rygorystycznym testom i kontrolom w zakresie spełniania zasad etycznych.
Bez solidnego nadzoru wdrożenie zasad podczas tworzenia nowoczesnych technologii nie będzie możliwe. Sztuczna inteligencja to wciąż raczkująca dziedzina i wiąże się z wieloma niebezpieczeństwami, nawet takimi, z których jeszcze nie zdajemy sobie sprawy. Dlatego tak ważne jest, aby zostały wprowadzone procesy pozwalające identyfikować i niwelować ryzyka wynikające z użycia SI w usługach i produktach, zanim te zostaną udostępnione do użytku.
W naszym raporcie prezentujemy, jak poradziliśmy sobie z tymi kwestiami w 2022 roku. Zaobserwowaliśmy, że wdrożenie zasad w naszych działaniach zaowocowało stworzeniem rozwiązań, które jeszcze lepiej służą ludziom w codziennym życiu. Taka jest moc tworzenia sztucznej inteligencji w sposób sprawiedliwy, bezpieczny, z zachowaniem prywatności i wzięciem pełnej odpowiedzialności za jej stosowanie. Po prostu usługi rozwijane do właściwych celów, odpowiedzialnie i etycznie bronią się same.
W 2023 roku musimy bezzwłocznie zająć się identyfikowaniem i minimalizowaniem ryzyk płynących z korzystania ze sztucznej inteligencji. Odgrywa ona coraz istotniejszą rolę w naszym społeczeństwie i gospodarce, dlatego należy wdrażać odpowiedzialne praktyki i angażować w ten proces organy regulujące, obywateli i społeczności. Wspólnie zrozumiemy, jakie zagrożenia niesie ze sobą korzystanie z SI, jak możemy je rozwiązywać, oraz jak czerpać z niej coraz więcej korzyści.
Rozwój i wdrażanie sztucznej inteligencji przyniesie ludziom najwięcej zysków, tylko jeśli osoby nad nią pracujące stworzą procesy jej wykorzystania zgodne z zasadami etycznymi, udostępnią te procesy innym i same będą działały zgodnie z nimi. W naszym raporcie znajdują się między innymi trzy filary zarządzania zgodnie z zasadami korzystania ze sztucznej inteligencji, dzięki którym zespoły badawcze, operacyjne i produktowe łatwiej stworzą własne, ustrukturyzowane reguły.
Trzy filary kontroli zgodne z zasadami korzystania ze sztucznej inteligencji
Google zobowiązuje się w pełni przestrzegać zasad korzystania ze sztucznej inteligencji, które stworzono na podstawie trzech filarów:
W 2023 roku Google będzie świętować 25. rocznicę powstania. To wspaniała okazja, aby życzyć sobie kolejnych co najmniej 25 lat istnienia i wprowadzać następne innowacje z myślą o formalnym zastosowaniu zasad korzystania ze sztucznej inteligencji w każdym aspekcie naszej działalności. Nasza misja pozostaje bez zmian: chcemy uporządkować światowe zasoby informacji tak, aby stały się powszechnie dostępne i użyteczne dla każdego. Sztuczna inteligencja to kolejne narzędzie do realizacji tego celu.
Jen Gennai, Director of Responsible Innovation Marian Croak, VP, Responsible AI and Human-Centered Technology
Zespół prasowy jest dostępny pod adresem e-mail: press-pl@google.com Odpowiedzi udzielamy wyłącznie przedstawicielom prasy. W przypadku wszystkich pozostałych pytań zapoznaj się z możliwościami kontaktu.