Eksperymenty generatywnej AI takie jak Bard, narzędzia takie jak interfejsy API PaLM i MakerSuite oraz rosnąca liczba usług z całego ekosystemu AI wywołują pozytywne emocje ze względu na potencjał transformacyjny AI, jednak jednocześnie wzbudzają obawy o potencjalne nadużycia. Warto wspomnieć, że pomimo swojego rewolucyjnego charakteru, AI po cichu wspomaga nas od lat. Jeśli używacie wyszukiwarki internetowej lub nowoczesnego smartfona, to zdarzyło Wam się już skorzystać z AI. Możliwe jednak, że nie od razu udało Wam się dostrzec to, co jej zawdzięczamy: usprawnienia (i wyższy poziom bezpieczeństwa). Tutaj znajdziecie więcej informacji o tym, dlaczego AI pozostaje w centrum naszych zainteresowań. 












 



 




 


 



 



Obecnie AI kreuje nowe możliwości w różnych dziedzinach naukowych takich jak medycyna spersonalizowana, rolnictwo precyzyjne, fuzja jądrowa, odsalanie wody i badania materiałowe – Demis Hassabis, współzałożyciel firmy DeepMind, określił to zjawisko mianem „eksploracji naukowej z cyfrową prędkością”. Na pierwszy plan wysuwa się zdolność tej technologii do przewidywania – od przyszłych katastrof po strukturę białek. Może ona odegrać kluczową rolę w stawianiu czoła globalnym wyzwaniom, z którymi mierzy się ludzkość – począwszy od zmian klimatycznych aż po niedobór żywności. 

W jaki sposób w pełni wykorzystać jej potencjał? James Manyika przeprowadził na ten temat eksperyment myślowy: 

Jest rok 2050. Okazało się, że AI w olbrzymim stopniu przysłużyła się społeczeństwu. Co się stało? Jakie możliwości dostrzegliśmy? Jakie problemy rozwiązaliśmy? 

Najbardziej oczywistą i podstawową odpowiedzią, a także punktem początkowym rozmów jest fakt, że do kształtowania rozwoju i zastosowania AI niezbędne byłoby zjednoczenie sił obywateli, edukatorów, naukowców, społeczeństwa obywatelskiego oraz instytucji rządowych. 


Co oznacza „odpowiedzialna AI”? 


Wiele mówi się o odpowiedzialności AI wobec przemysłu i społeczeństwa obywatelskiego, jednak kwestia jej ogólnie przyjętej definicji wciąż pozostaje otwarta. Odpowiedzialność AI najczęściej kojarzona jest wyłącznie z unikaniem ryzyka, jednak to, co rzeczywiście obserwujemy, dotyczy jej dwóch aspektów: nie tylko niweluje ona złożoności i ryzyko , lecz także wspomaga użytkowników na co dzień i odpowiada na wyzwania społeczne oraz naukowe. Potrzeba wkomponowania istotnych wartości społecznych takich jak bezbłędność, prywatność, obiektywność i przejrzystość nie podlega wątpliwości. Jednak znalezienie właściwej równowagi pomiędzy nimi jest kwestią złożoną. Inne aspekty, na przykład te dotyczące prędkości i zakresu wdrożenia najnowszych zdobyczy technologii, budzą kontrowersje. 

W 2018 roku jako jedna z pierwszych firm opublikowaliśmy zasady dotyczące AI. Bazując na naszym doświadczeniu związanym z internetem, a także biorąc pod uwagę wszelkie korzyści i wyzwania, wprowadziliśmy inteligentne funkcje monitorujące i naprawcze w naszych usługach , aby u ich podstaw leżała korzyść społeczna. Nasza pierwsza zasada dotycząca AI mówi o tym, że AI powinna być „użyteczna dla społeczeństwa” i dosadnie opisuje to, co znajduje się na szali: „W ogólnym ujęciu prawdopodobne korzyści powinny znacznie przewyższać przewidywalne ryzyko i negatywne skutki”. 


A co się z tym wiąże? 


Zrealizowanie tej aspiracji jest wymagające. Od lat koncentrujemy na tym nasze wysiłki. Swoją pracę nad obiektywnością systemów uczących się rozpoczęliśmy jeszcze w 2014 roku, na 3 lata przed opublikowaniem przełomowego badania na temat Transformatora – podstawy nowoczesnych modeli językowych. 

Od tamtej pory nieustannie doskonalimy nasze praktyki, stosując najwyższe standardy branżowe w badaniach na temat wpływu i zarządzania ryzykiem w kontekście AI, oceniając oferty dotyczące nowych badań nad AI i jej zastosowań pod kątem zgodności z naszymi zasadami, a także publikując niemal 200 dokumentów, których celem jest wsparcie i opracowanie norm branżowych. Nieprzerwanie poddajemy ponownej ocenie najlepsze sposoby uwzględniania w naszej pracy kwestii związanych z odpowiedzialnością i bezpieczeństwem. O swoich postępach informujemy w publikacjach. 

Kilka przykładów: W 2021 roku firma DeepMind opublikowała pierwszą wersję dokumentu na temat kwestii etycznych związanych z dużymi modelami językowymi (LLM). W 2022 roku wprowadziliśmy innowacje w dziedzinie dźwiękowych systemów uczących się (i możliwości wykrywania mowy syntetycznej). W tym samym roku opublikowaliśmy skalę odcieni skóry Monka i zaczęliśmy dodawać ją do takich produktów i usług jak wyszukiwanie obrazów, Zdjęcia Google czy Pixel, umożliwiając dokładniejsze uchwycenie zakresu odcieni skóry. Natomiast w 2022 roku w ramach publikacji naszego modelu PaLM podzieliliśmy się wnioskami płynącymi ze wstępnej oceny treści generowanych przez modele LLM. 












Wsłuchując się w szerokie spektrum głosów, które do nas docierają, rozważamy wszelkie korzyści i zagrożenia związane z wprowadzeniem (lub niewprowadzeniem) naszych usług na rynek. Nasza powściągliwość we wdrażaniu niektórych narzędzi AI jest celowa. 

Na przykład w 2018 roku ogłosiliśmy, że nie opublikujemy uniwersalnego interfejsu API do rozpoznawania twarzy, chociaż nasi konkurenci posuwali się naprzód bez opracowanych prawnych i technicznych ram dopuszczalnego użytkowania. A gdy jeden z naszych zespołów opracował model AI do czytania z ruchu warg, który mógłby wesprzeć osoby niedosłyszące lub z zaburzeniami mowy, przeprowadziliśmy rygorystyczną analizę, aby upewnić się, że modelu nie można zastosować do masowej inwigilacji, zanim jeszcze opublikowaliśmy nasze badania. 

Udostępniając Barda stale rosnącej rzeszy użytkowników, za priorytet obraliśmy: opinie użytkowników, bezpieczeństwo, odpowiedzialność, wprowadzanie zabezpieczeń takich jak limity wymienianych wypowiedzi z myślą o pomocnym i rzeczowym charakterze interakcji, a także określenie oczekiwań wobec możliwości i ograniczeń modelu. Jak zauważył amerykański filozof Daniel Dennett, istotnym jest, aby odróżniać kompetencję od rozumienia, a my mamy świadomość, że jesteśmy na samym początku tej drogi. W nadchodzących tygodniach i miesiącach będziemy dalej doskonalić eksperyment generatywnej AI na podstawie opinii użytkowników. 

Zdajemy sobie sprawę, że przełomowe rozwiązania AI są nowymi technologiami – a nauka analizy powiązanego ryzyka i możliwości znacznie wykracza poza mechaniczne programowanie reguł w rzeczywistości modeli uczących się i ocenę wyników. 


Jak możemy wspólnie lepiej pracować? 


Zgodnie z tym podejściem żadna firma nie jest w stanie samodzielnie poczynić postępów w tym zakresie. Odpowiedzialność AI to kwestia zbiorowego działania – współpracy, w której niezbędne jest zestawienie różnych perspektyw, co przyczyni się do zachowania równowagi. Thomas Friedman nazywa to „złożonymi koalicjami adaptacyjnymi”. Tak jak zaobserwowaliśmy podczas narodzin internetu, wszyscy czerpiemy korzyści ze wspólnych standardów, protokołów i instytucji nadzorczych. 

Dlatego zależy nam na współpracy nad wyznaczaniem właściwego kierunku rozwoju AI. Od lat rozbudowujemy społeczności naukowców i badaczy zaangażowanych w tworzenie standardów i wytycznych dotyczących rozwoju odpowiedzialnej AI. Współpracujemy z badaczami akademickimi z instytucji takich jak Australian National University, University of California Berkeley,Data & Society Research Institute, University of Edinburgh, McGill, University of Michigan, Naval Postgraduate School, Stanford oraz Swiss Federal Institute of Technology. Aby wspomóc międzynarodowe standardy i podzielić się sprawdzonymi metodami, zaangażowaliśmy się w program standaryzacyjny wspólnego komitetu ISO and IEC Joint Technical Committee w obszarze sztucznej inteligencji. 

Dzięki tym partnerstwom eksperci reprezentujący różne dziedziny mogą przyjrzeć się złożonym zagadnieniom związanym z AI – tym o charakterze naukowym, etycznym, a także tym z pogranicza różnych domen. 


Co jest niezbędne, aby we właściwy sposób prowadzić politykę publiczną w zakresie AI? 


Jeśli chodzi o AI, potrzebujemy zarówno niezależnych dobrych praktyk, jak i wspólnych standardów branżowych. Jednak społeczeństwo potrzebuje czegoś więcej: rozsądnej polityki rządowej, która promuje rozwój, jednocześnie ograniczając ryzyko nadużyć. Opracowanie właściwej polityki wymaga angażującej debaty pomiędzy instytucjami rządowymi, sektorem prywatnym, uczonymi oraz społeczeństwem obywatelskim. 

Od lat powtarzamy, że AI jest zbyt ważna, aby nie regulować jej prawnie i zbyt ważna, aby regulować ją prawnie w niewłaściwy sposób. Wyzwaniem jest zrealizowanie tego założenia tak, aby ograniczyć ryzyko i promować wiarygodne aplikacje w myśl obietnicy AI – przysługując się społeczeństwu. 

Oto niektóre z podstawowych zasad, które mogą służyć za przewodnik podczas wspomnianych prac: 

  • Bazuj na istniejących regulacjach prawnych, gdyż wiele przepisów dotyczących prywatności, bezpieczeństwa i innych celów publicznych już ma zastosowanie do aplikacji opartych na AI. 

  • Wybierz proporcjonalne i oparte na ryzyku ramy skupiające się na aplikacjach, biorąc pod uwagę fakt, że AI jest technologią wielofunkcyjną i wymaga niestandardowego podejścia oraz zróżnicowanego poziomu odpowiedzialności wśród programistów, wdrożeniowców i użytkowników. 

  • Promuj interoperacyjne podejście do standardów i nadzoru AI, pamiętając o tym, że wymagają one ujednolicenia w skali międzynarodowej. 

  • Zapewnij równość oczekiwań pomiędzy systemami bez AI i opartymi na AI, pamiętając, że nawet niedoskonałe systemy AI mogą się rozwijać na podstawie istniejących procesów. 

  • Promuj przejrzystość i odpowiedzialność, aby pomagać użytkownikom i zdobywać ich zaufanie. 


Co istotne, przy opracowywaniu nowych wytycznych dla AI decydenci będą musieli pogodzić sprzeczne cele, takie jak konkurencja, moderowanie treści, prywatność i bezpieczeństwo. Będą także musieli uwzględnić mechanizmy pozwalające na ewoluowanie reguł wraz z rozwojem technologii. AI pozostaje niezwykle dynamicznym i szybko zmieniającym się obszarem, a my będziemy uczyć się dzięki nowym doświadczeniom. 

Dzięki trwającej już współpracy i dialogowi z udziałem wielu stron praca nad wytycznymi i odpowiedzialnymi praktykami w zakresie AI nie musi zaczynać się od zera. 

Do dwóch solidnych przykładów należą AI Risk Management Framework amerykańskiego instytutu National Institute of Standards and Technology oraz AI Principles and AI Policy Observatory Organizacji Współpracy Gospodarczej i Rozwoju. Te jasne wytyczne opracowane dzięki otwartej współpracy mogą zostać zastosowane do nowych aplikacji, ryzyka i rozwiązań związanych z AI. My zaś nadal będziemy udzielać opinii na temat propozycji takich jak oczekująca ustawa dotycząca sztucznej inteligencji przygotowana przez Unię Europejską. 

Organy regulacyjne w pierwszej kolejności powinny zastanowić się, w jaki sposób wykorzystać istniejące zasoby, w tym reguły, które zapewniają bezpieczeństwo usług i zapobiegają dyskryminacji, a także opracować nowe reguły, dzięki którym możliwe będzie stawienie czoła nieznanym dotąd wyzwaniom. 


Co dalej? 


Niezależnie od tego, czy mówimy o pojawieniu się pisma, o wynalezieniu prasy lub radia, czy o powstaniu internetu, przełomowe wynalazki technologiczne od zawsze niosą za sobą zmiany społeczne i gospodarcze. Od zawsze też towarzyszą im nowe obyczaje społeczne i ramy prawne. 

W tym kontekście AI niczym się od nich nie różni – ona także potrzebuje opracowania tych norm. 

Jako społeczeństwo z optymizmem możemy obserwować, jak przemyślane podejścia i nowe pomysły z całego ekosystemu AI pomogą nam poruszać się w okresie przejściowym, znaleźć wspólne rozwiązania i zmaksymalizować niesamowity potencjał AI. Jednak potrzeba przysłowiowej „wioski” – współpracy i zaangażowania nas wszystkich, aby poprowadzić rozwój AI we właściwym kierunku. 

Nasza współpraca nad planem rozwoju nie jest tylko pożądana. Jest tutaj kluczowa.