Odpowiedzialne wykorzystywanie sztucznej inteligencji: rok 2022 i plany na przyszłość
Choć to dopiero początek 2023 roku, już wiadomo, że sztuczna inteligencja odgrywa coraz bardziej kluczową rolę dla ludzkości. Polegamy na niej w wielu dziedzinach – od wykrywania chorób po przewidywanie klęsk żywiołowych. Dla Google też stanowi niezrównane narzędzie. Wraz z jej rozwojem udoskonalamy wyszukiwania, zdjęcia i tłumaczenia w czasie rzeczywistym na jeszcze więcej języków.
Zalety sztucznej inteligencji czynią z niej potężną i pomocną nową technologię, którą stosujemy we wszystkich usługach Google. Musimy z niej korzystać rozważnie i odpowiedzialnie. Taka myśl przyświecała nam w 2018 roku, kiedy jako jedna z pierwszych firm stworzyliśmy zasady korzystania ze sztucznej inteligencji i wytyczne, opisujące w jakich przypadkach z niej nie skorzystamy. Zasady korzystania ze sztucznej inteligencji to kodeks, którego przestrzegamy, podejmując decyzje dotyczące badań, projektowania usług i rozwoju. Pamiętamy o nich również wtedy, gdy musimy zmierzyć się z mnóstwem wyzwań – zarówno projektowych, inżynieryjnych, jak i operacyjnych – podczas wdrażania nowych technologii.
Stworzenie zasad to jedno. Trzeba je jeszcze stosować. W opublikowanym ostatnio raporcie będącym czwartą, coroczną aktualizacją zasad korzystania ze sztucznej inteligencji przedstawiamy pełny przegląd tego, jak wdrażamy te zasady w życie. Te raporty zawierają nasze zobowiązanie odpowiedzialnego wykorzystania nowoczesnych technologii takich jak sztuczna inteligencja. Aby te reguły miały zastosowanie, muszą podlegać również sformalizowanemu nadzorowi oraz rygorystycznym testom i kontrolom w zakresie spełniania zasad etycznych.
Bez solidnego nadzoru wdrożenie zasad podczas tworzenia nowoczesnych technologii nie będzie możliwe. Sztuczna inteligencja to wciąż raczkująca dziedzina i wiąże się z wieloma niebezpieczeństwami, nawet takimi, z których jeszcze nie zdajemy sobie sprawy. Dlatego tak ważne jest, aby zostały wprowadzone procesy pozwalające identyfikować i niwelować ryzyka wynikające z użycia SI w usługach i produktach, zanim te zostaną udostępnione do użytku.
W naszym raporcie prezentujemy, jak poradziliśmy sobie z tymi kwestiami w 2022 roku. Zaobserwowaliśmy, że wdrożenie zasad w naszych działaniach zaowocowało stworzeniem rozwiązań, które jeszcze lepiej służą ludziom w codziennym życiu. Taka jest moc tworzenia sztucznej inteligencji w sposób sprawiedliwy, bezpieczny, z zachowaniem prywatności i wzięciem pełnej odpowiedzialności za jej stosowanie. Po prostu usługi rozwijane do właściwych celów, odpowiedzialnie i etycznie bronią się same.
W 2023 roku musimy bezzwłocznie zająć się identyfikowaniem i minimalizowaniem ryzyk płynących z korzystania ze sztucznej inteligencji. Odgrywa ona coraz istotniejszą rolę w naszym społeczeństwie i gospodarce, dlatego należy wdrażać odpowiedzialne praktyki i angażować w ten proces organy regulujące, obywateli i społeczności. Wspólnie zrozumiemy, jakie zagrożenia niesie ze sobą korzystanie z SI, jak możemy je rozwiązywać, oraz jak czerpać z niej coraz więcej korzyści.
Rozwój i wdrażanie sztucznej inteligencji przyniesie ludziom najwięcej zysków, tylko jeśli osoby nad nią pracujące stworzą procesy jej wykorzystania zgodne z zasadami etycznymi, udostępnią te procesy innym i same będą działały zgodnie z nimi. W naszym raporcie znajdują się między innymi trzy filary zarządzania zgodnie z zasadami korzystania ze sztucznej inteligencji, dzięki którym zespoły badawcze, operacyjne i produktowe łatwiej stworzą własne, ustrukturyzowane reguły.
Trzy filary kontroli zgodne z zasadami korzystania ze sztucznej inteligencji
Google zobowiązuje się w pełni przestrzegać zasad korzystania ze sztucznej inteligencji, które stworzono na podstawie trzech filarów:
- Zasady korzystania ze sztucznej inteligencji to nasz kodeks etyczny – służą nam podczas tworzenia reguł korzystania z usług. W raporcie opisujemy, jakie usługi wprowadzone w 2022 roku są zgodne z tymi zasadami. Przedstawiamy też szczegółowo 3 kontrowersyjne sytuacje: musieliśmy podjąć decyzje, czy wprowadzać usługę do użytku, czy nie oraz jak rozwiązać dylematy dotyczące odpowiedzialnego, na przykład sprawiedliwego, używania SI w kilku usługach naraz.
- Edukację i zapewnienie odpowiednich zasobów na temat SI realizujemy, oferując szkolenia z zakresu etyki i specjalne narzędzia, za pomocą których można sprawdzać, oceniać i kontrolować przestrzeganie zasad we wszystkich produktach i usługach Google. Po raz pierwszy zdradzamy też szczegóły dotyczące nowego narzędzia dostępnego w Google. Służy ono do badania produktów pod kątem odpowiedzialnej dojrzałości sztucznej inteligencji. W raporcie są też między innymi aktualizacje na temat technicznych rozwiązań kwestii przejrzystości danych i sprawiedliwości.
- Struktury i procesy to nic innego jak rozwiązania umożliwiające ocenę ryzyka, sprawdzanie pod kątem zachowania zasad etycznych i odpowiedzialność osób decyzyjnych. W raporcie omawiamy, jak dokładnie identyfikujemy i oceniamy ryzyko, wdrażając zasady korzystania ze sztucznej inteligencji. Rzucamy też światło na sposób, w jaki kontrolujemy nowe zastosowania sztucznej inteligencji – służy to na przykład określeniu i ocenie tych zastosowań, z których zrezygnujemy.
W 2023 roku Google będzie świętować 25. rocznicę powstania. To wspaniała okazja, aby życzyć sobie kolejnych co najmniej 25 lat istnienia i wprowadzać następne innowacje z myślą o formalnym zastosowaniu zasad korzystania ze sztucznej inteligencji w każdym aspekcie naszej działalności. Nasza misja pozostaje bez zmian: chcemy uporządkować światowe zasoby informacji tak, aby stały się powszechnie dostępne i użyteczne dla każdego. Sztuczna inteligencja to kolejne narzędzie do realizacji tego celu.