Jestem w Google już od 13 lat. To niesamowite, że misja założycielska firmy w zakresie uczynienia informacji powszechnie dostępnymi i użytecznymi jest dzisiaj tak samo stosowna, jak wtedy kiedy dołączyłem. Od samego początku byliśmy zainteresowani rozwiązywaniem złożonych problemów za pomocą zaawansowanej wiedzy komputerowej i rozwiązań z nią związanych.

Najbardziej skomplikowane problemy to zazwyczaj te, które dotyczą codziennego życia. To ekscytujące widzieć jak wiele osób uczyniło Google częścią swojego życia - właśnie osiągnęliśmy liczbę 2 miliardów użytkowników Androida, YouTube ma nie tylko miliard użytkowników, ale także jest na nim oglądane miliard godzin wideo każdego dnia, użytkownicy używają Map Google do wyznaczania 1 mld km tras dziennie. Ten wzrost byłby nie do pomyślenia bez przejścia komputeryzacji w erę urządzeń mobilnych, co zmusiło nas do ponownego przemyślenia wszystkich naszych produktów - stworzenia ich na nowo, by odzwierciedlały nowy model interakcji, takich jak ekrany dotykowe.

Jesteśmy świadkami kolejnej zmiany w komputeryzacji, przejście od świata mobile first do AI first. I tak jak poprzednio, zmusza nas to do ponownego wymyślenia naszych produktów, w świecie, który pozwala na bardziej naturalne i płynne obcowanie z technologią. Wystarczy pomyśleć o wyszukiwarce Google: została zbudowana dzięki możliwości rozumienia stron internetowych. Jednak teraz, dzięki postępom w dziedzinie sztucznej inteligencji i uczeniu maszynowemu, jesteśmy w stanie uczynić obrazy, zdjęcia, wideo i mowę przydatnymi, co nie było osiągalne wcześniej. Twój aparat może „widzieć”, możesz mówić do swojego telefonu i uzyskać odpowiedzi - mowa i widzenie stają się tak samo ważne jak klawiatury czy ekrany dotykowe.

Asystent jest najlepszym przykładem tego postępu. Dostępny jest już na 100 mln urządzeń i staje się każdego dnia coraz bardziej przydatny. Możemy teraz rozróżnić różne głosy w Google Home, dając użytkownikom bardziej spersonalizowane doświadczenie korzystania z urządzenia. Dziś, jesteśmy także w stanie uczynić aparat w telefonie, narzędziem, które pomoże wykonywać zadania. Google Lens to zestaw możliwości przetwarzania informacji wizualnych, które pozwolą zrozumieć to na co patrzysz i pomogą podjąć działanie w oparciu o te informacje. Jeśli przedzierałeś się pod biurkiem kolegi by zobaczyć długie, skomplikowane hasło do Wi-Fi naklejone z tyłu routera, to teraz Twój telefon może rozpoznać to hasło, stwierdzić, że próbujesz zalogować się do sieci i automatycznie cię zalogować. Najważniejsze, że nie musisz uczyć się czegoś nowego - interfejs i Twoje doświadczenie mogą być znacznie bardziej intuicyjne niż np. kopiowanie i wklejanie w aplikacjach na smartfonie. Na początku wprowadzimy funkcje Google Lens w Asystencie i Zdjęciach Google, możecie się spodziewać jej także niebawem w kolejnych produktach.

Dzięki Google Lens aparat smartfona nie tylko zobaczy to, co widzisz, ale także zrozumie, czego szukasz i pomoże Ci podjąć działanie.
[Uwaga, poniższy akapit jest dla geeków!]

Wszystko to wymaga odpowiedniej architektury obliczeniowej. W zeszłym roku ogłosiliśmy pierwszą generację naszych TPU, które pozwalają na szybsze i sprawniejsze działanie algorytmów uczenia maszynowego. Dzisiaj zapowiedzieliśmy następną generację TPU - Cloud TPU, które są zoptymalizowane zarówno dla interferencji jak i treningu i potrafią przetwarzać bardzo dużo informacji. Aby firmy i programiści mogli korzystać z tych rozwiązań, wprowadzamy Google Cloud TPU do Google Compute Engine.

Cloud-TPU są specjalnie skonstruowane do uczenia maszynowego; 64 z tych urządzeń może zostać połączone w pod-TPU superkomputer ML o mocy 11,5 petaflopa.
Ważne, by nasze postępy były dostępne dla każdego, a nie tylko użytkowników produktów Google. Wierzymy, że przełomowe odkrycia w rozwiązaniu złożonych problemów społecznych będą możliwe gdy naukowcy i inżynierowie otrzymają lepsze, bardziej wydajne narzędzia i wiedzę na wyciągnięcie ręki. Jednak dzisiaj jest zbyt wiele barier, by tak się stało.

Właśnie dlatego stworzyliśmy inicjatywę Google.ai, która skupia wszystkie nasze działania związane ze sztuczną inteligencją w jednym miejscu, co pozwoli znieść przynajmniej część tych barier i przyspieszyć pracę naukowców, programistów i firm w dziedzinie AI (sztucznej inteligencji).

Jednym ze sposobów, który może pomóc w dostępności AI jest uproszczenie procesu tworzenia modeli uczenia maszynowego, zwanego sieciami neuronowymi. Dzisiaj projektowanie sieci neuronowych jest niezwykle czasochłonne i wymaga fachowej wiedzy, która ogranicza jej wykorzystanie do mniejszej społeczności naukowców i inżynierów. Właśnie dlatego stworzyliśmy AutoML, rozwiązanie pokazujące, że sieci neuronowe mogą zostać zaprojektowane przez inne sieci neuronowe. Mamy nadzieję, że AutoML będzie potrafiło to, co dzisiaj potrafi zaledwie kilku doktorów nauk i w ciągu trzech do pięciu lat umożliwi setkom tysięcy deweloperów na projektowanie sieci neuronowych dla swoich potrzeb.



Ponadto, Google.ai, łączy naukowców Google z zewnętrznymi naukowcami i programistami, by rozwiązywać problemy z różnorodnych dyscyplin, co przynosi obiecujące rezultaty. Użyliśmy uczenia maszynowego do poprawy algorytmu, który wykrywa rozprzestrzenianie się raka piersi do sąsiadujących węzłów chłonnych. Zaobserwowaliśmy również, jak AI pozwoliło dokonać istotnego postępu w dokładności z jaką naukowcy mogą przewidywać właściwości molekuł i sekwencjonować DNA.

AI może również pomóc nauce, np. w procesie sekwencjonowania DNA. Nowe narzędzie od Google.ai pomaga naukowcom łatwiej zidentyfikować warianty genetyczne.
Ta zmiana nie polega tylko na budowaniu futurystycznych urządzeń czy przeprowadzaniu najnowocześniejszych badań. Uważamy również, że może pomóc dzisiaj milionom ludzi poprzez demokratyzację dostępu do informacji i udostępnianie nowych możliwości. Na przykład, prawie połowa amerykańskich pracodawców mówi, że wciąż mają problemy ze znalezieniem pracowników na otwarte stanowiska pracy. Tymczasem osoby poszukujące pracy często nie wiedzą, że tuż za rogiem jest dostępna pasująca oferta. To dlatego, że charakterystyka ogłoszeń o pracę - wysoka płynność kadr, niski ruch, niespójność w nazwach stanowisk pracy - sprawiły, że wyszukiwarkom trudno było je klasyfikować. Dzięki nowej inicjatywie, Google for Jobs (dostępnej na razie w Stanach Zjednoczonych), mamy nadzieję łączyć firmy z potencjalnymi pracownikami i pomóc osobom poszukującym pracy znaleźć nowe możliwości. Wprowadzamy nową funkcję wyszukiwania, która pomoże znaleźć pracę osobom z różnym doświadczeniem i na różnych poziomach wynagrodzeń, w tym oferty pracy, które tradycyjnie były trudniejsze do wyszukania i klasyfikowania, np. w branżach handlowej czy hotelarskiej.

Stworzyliśmy nową funkcję wyszukiwarki, która niezależnie od tego, kim jesteś i jakiego rodzaju pracy szukasz, pomoże znaleźć ogłoszenia odpowiednie dla Ciebie.
Inspirujące jest widzieć jak AI zaczyna przynosić owoce, które użytkownicy mogą smakować. Jest jeszcze wiele do zrobienia, zanim będziemy mogli mówić o świecie AI-first, jednak im więcej możemy zrobić w demokratyzacji dostępu do technologii - zarówno jeśli chodzi o narzędzia z jakich użytkownicy mogą korzystać jak i to jak my j stosujemy - tym szybciej wszyscy będą mogli z nich skorzystać.

Zachęcam też do przeczytania na temat wielu innych nowości ogłoszonych na Google I/O - włączając w to Androida, Zdjęcia i VR.