Podczas wydarzenia "Live from Paris” Google pokazała swoje najnowsze implementacje sztucznej inteligencji w swoich produktach, takich jak Mapy, Obiektyw czy Asystent. Tutaj znajdziesz wszystkie najważniejsze wiadomości, aby być na bieżąco z tym, czym Google zajmuje się dzisiaj i jak będzie wyglądać jutro.
"Search visually" (Szukaj wizualnie) to hasło prezentacji, która odbyła się w Paryżu 8 lutego 2023 r., pokazując, jak sztuczna inteligencja pomaga nam w interakcji z wizualnym środowiskiem wyszukiwarki i innych aplikacji Google.
Funkcja Immersive View, która gromadzi różne dane i tworzy wirtualne modele 3D różnych interesujących miejsc na całym świecie w Mapach Google, znacznie się rozwinęła. Teraz obejmuje nie tylko pojedyncze obiekty, ale całe miasta. Londyn, Los Angeles, Nowy Jork, San Francisco i Tokio są pierwszymi, a kolejne miasta mają zostać dodane w nadchodzących miesiącach. Przypominamy, że oprócz wirtualnych wycieczek po atrakcjach, funkcja ta dostarcza przydatnych informacji o tych miejscach, takich jak recenzje odwiedzających, zmiany w natężeniu ruchu i prognozy pogody.
Widzieliśmy również podgląd nowej funkcji Google Lens dla aplikacji aparatu na urządzenia z Androidem. Dwukrotne naciśnięcie przycisku zasilania umożliwia aktywowanie różnych poleceń, które ta technologia rozpoznawania obrazów wykonuje za pomocą sztucznej inteligencji.
Właściciele pojazdów elektrycznych również ucieszą się z niektórych nowych funkcji pojazdów elektrycznych, które pojawią się w Mapach Google, w tym najlepszych tras i przystanków ładowania.
Google zapowiedział również połączenie możliwości Google Lens i Google Assistant. Chodzi o to, że bez pozostawiania zdjęć lub filmów na stronach i aplikacjach innych firm będzie można wyszukiwać dodatkowe informacje o oglądanych treściach i wykonywać różne operacje na tych obrazach. Na przykład Google pokazało bezpośrednie wyszukiwanie filmu z Pałacu Luksemburskiego w Paryżu, przesyłanego między użytkownikami aplikacji do przesyłania wiadomości. Dokładny termin wprowadzenia tego nowego pakietu technologicznego w Google nie został ogłoszony, ograniczając się do zapowiedzi, że pojawi się w najbliższych miesiącach.
W tym roku mija 25 lat od uruchomienia wyszukiwarki Google. A teraz firma ogłosiła znaczną aktualizację funkcji multisearch. Możliwość dodawania zapytania tekstowego do wyszukiwarki Google Lens została teraz dodana we wszystkich krajach, w których Lens jest dostępna i we wszystkich językach obsługiwanych przez Google. Innymi słowy, może wywołać prawie nieskończony kontekst wizualny za pomocą zapytania tekstowego. Dzięki temu w szczególności możesz modyfikować parametry obiektów uchwyconych za pomocą Google Lens, na przykład zmieniając ich kolor lub kształt. Proces wyszukiwania staje się bardziej intuicyjny, kreatywny i zabawny.
Być może najbardziej intrygującą zapowiedzią, zwłaszcza w kontekście uruchomienia przez Microsoft przeprojektowanej wyszukiwarki Bing ze sztuczną inteligencją, była zapowiedź zintegrowanego z wyszukiwarką inteligentnego chatbota Bard. Z jego pomocą wyszukiwarka subtelniej uchwyci to, czego szuka użytkownik i poda dokładniejsze i bardziej szczegółowe rekomendacje. Wśród innych ulepszeń ogłoszono również, że projekt aplikacji Tłumacz Google wkrótce otrzyma aktualizację z funkcjami AR.
<iframe width="560" height="315" src="https://www.youtube.com/embed/yLWXJ22LUEc" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
Zdjęcia: © Google, Unsplash.