Marzia Niccolai, Technical Program ManagerRead More
Niektórym podobają się zdecydowane pociągnięcia pędzla w „Gwiaździstej Nocy” Van Gogha, inni wolą patrzeć na bogato pozłacany „Pocałunek” Klimta, jedno jest jednak pewne: ludzie kochają sztukę. Co miesiąc w wyszukiwarce Google odnotowujemy ponad 500 milionów wyszukiwań związanych ze sztuką. Obojętnie, czy jesteście amatorami, czy prawdziwie zaangażowanymi fanami sztuki, dzięki Google możecie stać się ekspertami na tym polu. Od dziś podczas wyszukiwania haseł związanych ze sztuką macie dostęp do lepiej dopasowanych wyników i możecie sprawniej zgłębiać tematy, które Was interesują. Dodaliśmy także nową funkcję w Street View: wyobraźcie sobie coś w rodzaju wirtualnego przewodnika, który dostarczy Wam kluczowych informacji o dziełach sztuki znajdujących się w muzeach, które odwiedzacie w sieci.
Odkrywaj sztukę w wyszukiwarce Google
Abyście mogli jeszcze skuteczniej odkrywać sztukę, zespół Google Arts & Culture połączył siły z inżynierami zajmującymi się wyszukiwarką. Wszystko po to, by pomóc naszym systemom rozumieć i rozpoznawać dzieła sztuki, a także miejsca, gdzie można je zobaczyć, ich twórców oraz używane przez nich materiały, okres, w których owe dzieła powstawały i powiązania między wszystkim tymi elementami.
W najbliższym czasie przy wyszukiwaniu artysty takiego jak Gustav Klimt zobaczycie interaktywny Panel Wiedzy, który podpowie wam, jak przejść do dalszych odkryć w świecie sztuki. Będziecie mogli na przykład zapoznać się z całą kolekcję prac danego artysty czy nawet obejrzeć muzea, w których wiszą jego obrazy. Przy niektórych dziełach będziecie też mieli możliwość przyjrzeć się ich doskonałym kopiom w wysokiej rozdzielczości przygotowanych przez Google Arts & Culture.
Google Arts & Culture: wirtualny przewodnik po muzeum
Możecie zwiedzać setki muzeów na całym świecie, nie ruszając się sprzed laptopa dzięki Mapom Google i Google Arts & Culture. Od dzisiaj także wirtualne spacery ze Street View w przeglądarce oraz mobilnej wersji Chrome będą dostarczać Wam więcej informacji. Teraz, chodząc po muzealnych korytarzach w Mapach Google, zobaczycie użyteczne adnotacje na ścianach przy poszczególnych obrazach. Jeśli klikniecie taką notkę, zostaniecie przeniesieni na nową stronę z większą ilością informacji udostępnionych Wam przez setki cenionych muzeów z całego świata. Będziecie także mogli powiększyć daną pracę, uzyskując obraz o wysokiej rozdzielczości, i w ten sposób znaleźć się jeszcze bliżej legendarnych dzieł sztuki.
Żeby stworzyć tę funkcję, użyliśmy naszego oprogramowania do rozpoznawania obrazu. Działa w podobny sposób, co mechanizm Zdjęć Google pozwalający Wam szukać poszczególnych motywów w swojej galerii: nasze narzędzie zeskanowało ściany muzeów na całym świecie, zidentyfikowało i dopasowało do odpowiednich kategorii ponad 15 tys. prac.
Odkrywanie świata sztuki z Google jeszcze nigdy nie było tak proste. Mamy nadzieję, że zainspiruje Was to do pogłębiania swojej wiedzy w tym zakresie. Zatrzymajcie się na chwilę i kto wie — może wystarczy chwila, byście odkryli w sobie pasję do sztuki!
Piotr Zalewski, Communications & Public Affairs ManagerRead More
Kilka tygodni temu ogłosiliśmy uruchomienie trzech darmowych programów wsparcia startupów typu equity-free, kierowanych do firm na różnych stadiach rozwoju: Launchpad Start, Campus Residency i Launchpad Accelerator. Launchpad Start już za nami. Teraz miło nam ogłosić listę firm, które zakwalifikowały się do dwóch pozostałych programów.
Campus Residency to trwający 6 miesięcy program dla startupów w fazie wzrostu.
Daje im możliwość skupienia się na swojej działalności, jednocześnie oferując dostęp do specjalistycznej wiedzy mentorów i ekspertów Campusu oraz darmową przestrzeń do pracy. Do pierwszej edycji Campus Residency zakwalifikowały się firmy, które w najbliższych tygodniach rozpoczną pracę w Campus Warsaw. Poniżej ich pełna lista:
Autenti − platforma do autoryzacji dokumentów i zawierania umów przez internet,
theConstruct − platforma do projektowania i przeglądania projektów w wirtualnej rzeczywistości,
Oscar Senior − czeska platforma umożliwiająca seniorom dostęp do opieki i innych usług,
OvuFriend − platforma dla kobiet starających się o dziecko,
Xchanger.io − platforma wymiany walut online dla firm,
Quotiss − narzędzie do zarządzania cenami frachtu morskiego,
WealthArc − platforma wspierająca firmy inwestycyjne w zarządzaniu portfelami,
UserEngage − narzędzie do automatyzacji marketingu w czatach i mailach,
Kredytmarket − platforma udzielająca firmom kredytów przez internet.
Launchpad Accelerator to trwający 6 miesięcy międzynarodowy program akceleracyjny organizowany przez globalny zespół Google Developers dla szybko rosnących startupów z potwierdzoną historią sukcesów rynkowych (tzw. scale-ups), które chcą dotrzeć do kolejnego miliona użytkowników. Program rozpoczyna się 2-tygodniowym akceleratorem w Dolinie Krzemowej. Po raz pierwszy objął firmy z regionu Europy Środkowo-Wschodniej. Zakwalifikowały się do niego:
DrOmnibus (Polska) − multimedialne narzędzie wspierające edukację i terapię dzieci z zaburzeniami rozwoju i/lub zachowania (autyzm, zespół Downa, ADHD),
Gamee (Czechy) − społecznościowa platforma dla graczy,
Spendee (Czechy) − narzędzie do zarządzania finansami online,
PublishDrive (Węgry) − platforma dla wydawców książek online.
Wszystkim startupom gratulujemy i życzymy sukcesów… a Campus czeka na kolejne!
Piotr Zalewski, Communications & Public Affairs Manager
Czy pamiętaliście, żeby złożyć dziś mamie życzenia z okazji Dnia Matki? Aby uczcić to święto i przypomnieć wszystkim o tej ważnej dacie, na stronie głównej polskiej wersji wyszukiwarki Google wita Was dzisiaj stworzony specjalnie na tę okazję doodle. To pierwszy doodle przygotowany gościnnie przez polskiego artystę. Stworzył go ...Read More
Czy pamiętaliście, żeby złożyć dziś mamie życzenia z okazji Dnia Matki? Aby uczcić to święto i przypomnieć wszystkim o tej ważnej dacie, na stronie głównej polskiej wersji wyszukiwarki Google wita Was dzisiaj stworzony specjalnie na tę okazję doodle. To pierwszy doodle przygotowany gościnnie przez polskiego artystę. Stworzył go Tymek Jezierski, warszawski rysownik i malarz. Mogliście natknąć się na jego ilustracje w prasie, słuchać płyt z jego rysunkami na okładkach albo bawić się na imprezie reklamowanej jego plakatem.
Artysta postanowił utrzymać doodle w konwencji dziecięcego rysunku. Pracując nad nim, przyjął nieco inną technikę niż ta, którą zwykle stosuje. Na początku, zamiast szkicować, stworzył komputerową wersję ilustracji, a dopiero później modyfikował ją ręcznie, starając się ją „odcyfrowić”. Na obrazku poniżej możecie podejrzeć różne etapy jego pracy:
Jak widać, początkowo Tymek miał więcej niż jeden pomysł na dzisiejszego doodla. W końcu wybrana została jedna koncepcja i ilustrator mógł przejść do pracy nad kolejnymi wersjami grafiki. Powstało ich w sumie pięć, finalną widzicie dziś w wyszukiwarce.
Skąd wziął się pomysł narysowania rodziny na rowerach? Wyobraziłem sobie matkę, która dostaje wolne w pracy i zabiera dzieciaki na wycieczkę rowerową, a potem idą na lody — opowiada Tymek.
Więcej wolnego czasu — dla dzieci i dla siebie — dużo radości i energii: to właśnie to, czego i my chcielibyśmy dziś życzyć wszystkim mamom z okazji ich święta. Drogie mamy, jesteście wspaniałe!
Piotr Zalewski, Communications & Public Affairs Manager
Jakiś czas temu zapytaliśmy Was, czy mielibyście ochotę stworzyć oficjalne klipy do trzech największych hitów Eltona Johna ze słowami Berniego Taupina: „Rocket Man”, „Bennie and the Jets” i „Tiny Dancer”. Na Waszą odpowiedź nie trzeba było długo czekać. Zgłoszenia spłynęły z ponad 50 państw na całym świecie, przypominając nam, jak niezwykłe rezultaty może przynieść zderzenie technologii i twórczości.
Te trzy kultowe utwory Eltona Johna zostały wydane w latach 1971, 1972 i 1973, jeszcze przed erą teledysków. Wykorzystaliśmy to, żeby tchnąć nową energię w jedne z najbardziej uwielbianych hitów wszech czasów. Jesteśmy szczęśliwi, że dziś możemy przedstawić Wam wyniki projektu The Cut — Supported by YouTube, stworzonego przez Eltona Johna i Berniego Taupina z okazji pięćdziesięciolecia ich twórczej współpracy po to, by wspierać nowe talenty takie jak Wy. Pomysł był tyleż prosty, co piękny. A jego efekty — niesamowite.
Teledysk: „Rocket Man”
Medium: animacja
Zwycięzca: Majid Adin
Klip Majida Adina do „Rocket Man” to przejmujący film animowany czerpiący z osobistych doświadczeń autora, uchodźcy z Iranu, i historii jego podróży do Anglii. Dzięki teledyskowi utwór i jego tekst zyskują nowy wymiar zmuszającej do refleksji opowieści o przygodzie, samotności i nadziei. Adin, absolwent akademii sztuk pięknych pracujący jako twórca animacji, przemierzył Europę podczas kryzysu uchodźczego w 2015 r. Przebywał w niesławnym obozie dla uchodźców w Calais, a następnie otrzymał azyl w Wielkiej Brytanii, gdzie obecnie na nowo buduje swoją karierę jako artysta.
Teledysk: „Bennie and the Jets”
Medium: Choreografia
Zwycięzca: Jack Whiteley i Laura Brownhill
„Bennie and the Jets” zostało zinterpretowane przez reżysera Jacka Whiteleya oraz choreografkę i dyrektora artystycznego, Laurę Brownhill. Teledysk opowiada, jak tworzyła się formacja Bennie i jej Jets. Plan filmowy i struktura opowieści została zainspirowana „Metropolis”, filmem science-fiction Fritza Langa z 1927 r., zsynchronizowana choreografia nawiązuje do filmów Busby’ego Berkeleya, a czarno-biała estetyka to gest w stronę złotej ery Hollywood.
Teledysk: „Tiny Dancer”
Medium: Live action
Zwycięzca: Max Weiland
Zwycięski klip Maxa Weilanda do „Tiny Dancer” to hołd złożony Los Angeles. Praca brytyjskiego reżysera pokazuje najrozmaitszych ludzi przemierzających miasto — a każdy z nich słucha właśnie „Tiny Dancer”. Zainspirowany miłością Eltona i Berniego do Kalifornii, Weiland doskonale uchwycił wolnego ducha mieszkańców Los Angeles w swoim przepełnionym słońcem hymnie na cześć Złotego Stanu.
Jestem w Google już od 13 lat. To niesamowite, że misja założycielska firmy w zakresie uczynienia informacji powszechnie dostępnymi i użytecznymi jest dzisiaj tak samo stosowna, jak wtedy kiedy dołączyłem. Od samego początku byliśmy zainteresowani rozwiązywaniem złożonych problemów za pomocą zaawansowanej wiedzy komputerowej i rozwiązań z nią związanych.Read More
Jestem w Google już od 13 lat. To niesamowite, że misja założycielska firmy w zakresie uczynienia informacji powszechnie dostępnymi i użytecznymi jest dzisiaj tak samo stosowna, jak wtedy kiedy dołączyłem. Od samego początku byliśmy zainteresowani rozwiązywaniem złożonych problemów za pomocą zaawansowanej wiedzy komputerowej i rozwiązań z nią związanych.
Najbardziej skomplikowane problemy to zazwyczaj te, które dotyczą codziennego życia. To ekscytujące widzieć jak wiele osób uczyniło Google częścią swojego życia - właśnie osiągnęliśmy liczbę 2 miliardów użytkowników Androida, YouTube ma nie tylko miliard użytkowników, ale także jest na nim oglądane miliard godzin wideo każdego dnia, użytkownicy używają Map Google do wyznaczania 1 mld km tras dziennie. Ten wzrost byłby nie do pomyślenia bez przejścia komputeryzacji w erę urządzeń mobilnych, co zmusiło nas do ponownego przemyślenia wszystkich naszych produktów - stworzenia ich na nowo, by odzwierciedlały nowy model interakcji, takich jak ekrany dotykowe.
Jesteśmy świadkami kolejnej zmiany w komputeryzacji, przejście od świata mobile first do AI first. I tak jak poprzednio, zmusza nas to do ponownego wymyślenia naszych produktów, w świecie, który pozwala na bardziej naturalne i płynne obcowanie z technologią. Wystarczy pomyśleć o wyszukiwarce Google: została zbudowana dzięki możliwości rozumienia stron internetowych. Jednak teraz, dzięki postępom w dziedzinie sztucznej inteligencji i uczeniu maszynowemu, jesteśmy w stanie uczynić obrazy, zdjęcia, wideo i mowę przydatnymi, co nie było osiągalne wcześniej. Twój aparat może „widzieć”, możesz mówić do swojego telefonu i uzyskać odpowiedzi - mowa i widzenie stają się tak samo ważne jak klawiatury czy ekrany dotykowe.
Asystent jest najlepszym przykładem tego postępu. Dostępny jest już na 100 mln urządzeń i staje się każdego dnia coraz bardziej przydatny. Możemy teraz rozróżnić różne głosy w Google Home, dając użytkownikom bardziej spersonalizowane doświadczenie korzystania z urządzenia. Dziś, jesteśmy także w stanie uczynić aparat w telefonie, narzędziem, które pomoże wykonywać zadania. Google Lens to zestaw możliwości przetwarzania informacji wizualnych, które pozwolą zrozumieć to na co patrzysz i pomogą podjąć działanie w oparciu o te informacje. Jeśli przedzierałeś się pod biurkiem kolegi by zobaczyć długie, skomplikowane hasło do Wi-Fi naklejone z tyłu routera, to teraz Twój telefon może rozpoznać to hasło, stwierdzić, że próbujesz zalogować się do sieci i automatycznie cię zalogować. Najważniejsze, że nie musisz uczyć się czegoś nowego - interfejs i Twoje doświadczenie mogą być znacznie bardziej intuicyjne niż np. kopiowanie i wklejanie w aplikacjach na smartfonie. Na początku wprowadzimy funkcje Google Lens w Asystencie i Zdjęciach Google, możecie się spodziewać jej także niebawem w kolejnych produktach.
Dzięki Google Lens aparat smartfona nie tylko zobaczy to, co widzisz, ale także zrozumie, czego szukasz i pomoże Ci podjąć działanie.
[Uwaga, poniższy akapit jest dla geeków!]
Wszystko to wymaga odpowiedniej architektury obliczeniowej. W zeszłym roku ogłosiliśmy pierwszą generację naszych TPU, które pozwalają na szybsze i sprawniejsze działanie algorytmów uczenia maszynowego. Dzisiaj zapowiedzieliśmy następną generację TPU - Cloud TPU, które są zoptymalizowane zarówno dla interferencji jak i treningu i potrafią przetwarzać bardzo dużo informacji. Aby firmy i programiści mogli korzystać z tych rozwiązań, wprowadzamy Google Cloud TPU do Google Compute Engine.
Cloud-TPU są specjalnie skonstruowane do uczenia maszynowego; 64 z tych urządzeń może zostać połączone w pod-TPU superkomputer ML o mocy 11,5 petaflopa.
Ważne, by nasze postępy były dostępne dla każdego, a nie tylko użytkowników produktów Google. Wierzymy, że przełomowe odkrycia w rozwiązaniu złożonych problemów społecznych będą możliwe gdy naukowcy i inżynierowie otrzymają lepsze, bardziej wydajne narzędzia i wiedzę na wyciągnięcie ręki. Jednak dzisiaj jest zbyt wiele barier, by tak się stało.
Właśnie dlatego stworzyliśmy inicjatywę Google.ai, która skupia wszystkie nasze działania związane ze sztuczną inteligencją w jednym miejscu, co pozwoli znieść przynajmniej część tych barier i przyspieszyć pracę naukowców, programistów i firm w dziedzinie AI (sztucznej inteligencji).
Jednym ze sposobów, który może pomóc w dostępności AI jest uproszczenie procesu tworzenia modeli uczenia maszynowego, zwanego sieciami neuronowymi. Dzisiaj projektowanie sieci neuronowych jest niezwykle czasochłonne i wymaga fachowej wiedzy, która ogranicza jej wykorzystanie do mniejszej społeczności naukowców i inżynierów. Właśnie dlatego stworzyliśmy AutoML, rozwiązanie pokazujące, że sieci neuronowe mogą zostać zaprojektowane przez inne sieci neuronowe. Mamy nadzieję, że AutoML będzie potrafiło to, co dzisiaj potrafi zaledwie kilku doktorów nauk i w ciągu trzech do pięciu lat umożliwi setkom tysięcy deweloperów na projektowanie sieci neuronowych dla swoich potrzeb.
Ponadto, Google.ai, łączy naukowców Google z zewnętrznymi naukowcami i programistami, by rozwiązywać problemy z różnorodnych dyscyplin, co przynosi obiecujące rezultaty. Użyliśmy uczenia maszynowego do poprawy algorytmu, który wykrywa rozprzestrzenianie się raka piersi do sąsiadujących węzłów chłonnych. Zaobserwowaliśmy również, jak AI pozwoliło dokonać istotnego postępu w dokładności z jaką naukowcy mogą przewidywać właściwości molekuł i sekwencjonować DNA.
AI może również pomóc nauce, np. w procesie sekwencjonowania DNA. Nowe narzędzie od Google.ai pomaga naukowcom łatwiej zidentyfikować warianty genetyczne.
Ta zmiana nie polega tylko na budowaniu futurystycznych urządzeń czy przeprowadzaniu najnowocześniejszych badań. Uważamy również, że może pomóc dzisiaj milionom ludzi poprzez demokratyzację dostępu do informacji i udostępnianie nowych możliwości. Na przykład, prawie połowa amerykańskich pracodawców mówi, że wciąż mają problemy ze znalezieniem pracowników na otwarte stanowiska pracy. Tymczasem osoby poszukujące pracy często nie wiedzą, że tuż za rogiem jest dostępna pasująca oferta. To dlatego, że charakterystyka ogłoszeń o pracę - wysoka płynność kadr, niski ruch, niespójność w nazwach stanowisk pracy - sprawiły, że wyszukiwarkom trudno było je klasyfikować. Dzięki nowej inicjatywie, Google for Jobs (dostępnej na razie w Stanach Zjednoczonych), mamy nadzieję łączyć firmy z potencjalnymi pracownikami i pomóc osobom poszukującym pracy znaleźć nowe możliwości. Wprowadzamy nową funkcję wyszukiwania, która pomoże znaleźć pracę osobom z różnym doświadczeniem i na różnych poziomach wynagrodzeń, w tym oferty pracy, które tradycyjnie były trudniejsze do wyszukania i klasyfikowania, np. w branżach handlowej czy hotelarskiej.
Stworzyliśmy nową funkcję wyszukiwarki, która niezależnie od tego, kim jesteś i jakiego rodzaju pracy szukasz, pomoże znaleźć ogłoszenia odpowiednie dla Ciebie.
Inspirujące jest widzieć jak AI zaczyna przynosić owoce, które użytkownicy mogą smakować. Jest jeszcze wiele do zrobienia, zanim będziemy mogli mówić o świecie AI-first, jednak im więcej możemy zrobić w demokratyzacji dostępu do technologii - zarówno jeśli chodzi o narzędzia z jakich użytkownicy mogą korzystać jak i to jak my j stosujemy - tym szybciej wszyscy będą mogli z nich skorzystać.
Zachęcam też do przeczytania na temat wielu innych nowości ogłoszonych na Google I/O - włączając w to Androida, Zdjęcia i VR.
Street View to jedna z najpopularniejszych funkcji Map Google, to dzięki niej możecie wirtualnie podróżować po świecie, oglądając miejsca na zdjęciach panoramicznych z perspektywy przechodnia.
Samochody Street View w ciągu kilku najbliższych dni ponownie wyjadą na ulice polskich miast. Będziecie je mogli zobaczyć m.in. w Warszawie, Krakowie, Łodzi, Wrocławiu, Poznaniu i Gdańsku oraz okolicznych miejscowościach. Oprócz tego samochody pojawią się w innych miastach w województwach: dolnośląskim, kujawsko-pomorskim, lubelskim, lubuskim, łódzkim, małopolskim, mazowieckim, opolskim, podkarpackim, podlaskim, pomorskim, śląskim, świętokrzyskim, warmińsko-mazurskim i wielkopolskim. Pełną listę znajdziecie ...Read More
Street View to jedna z najpopularniejszych funkcji Map Google, to dzięki niej możecie wirtualnie podróżować po świecie, oglądając miejsca na zdjęciach panoramicznych z perspektywy przechodnia.
Samochody Street View w ciągu kilku najbliższych dni ponownie wyjadą na ulice polskich miast. Będziecie je mogli zobaczyć m.in. w Warszawie, Krakowie, Łodzi, Wrocławiu, Poznaniu i Gdańsku oraz okolicznych miejscowościach. Oprócz tego samochody pojawią się w innych miastach w województwach: dolnośląskim, kujawsko-pomorskim, lubelskim, lubuskim, łódzkim, małopolskim, mazowieckim, opolskim, podkarpackim, podlaskim, pomorskim, śląskim, świętokrzyskim, warmińsko-mazurskim i wielkopolskim. Pełną listę znajdziecie tutaj. Dzięki tym przejazdom na Mapach Google zostaną zamieszczone najnowsze zdjęcia, znacznie poprawi się także jakość map. To, czy samochody Street View pojawią się w danym miejscu zależy od wielu czynników, między innymi warunków pogodowych i logistycznych, postaramy się wykonać fotografie w każdym z wymienionych miejsc.
Samochody podobne do tych możecie ponownie spotkać na polskich ulicach.
Pierwsze zdjęcia Street View w Polsce zostały zostały zrobione w 2011 r., kolejne fotografie wykonywane z samochodów były robione w 2014 r.
Na zdjęciach Street View twarze przechodniów i numery rejestracyjne pojazdów są rozmyte. Jeżeli jednak zauważycie jakiś błąd, możecie łatwo wskazać zdjęcia, które z jakiegoś powodu uznajecie za nieodpowiednie, klikając link „Zgłoś problem”, znajdujący się w prawym dolnym rogu w wersji Map Google dla komputerów.