Istnieją takie daty, firmy i konferencje, o których mówi się ,,dużo” i ,,głośno” również poza ich branżą. Nowości, które się na nich pojawiają stają się najpierw wydarzeniem podchwytywanym przez wszelkiego rodzaju media, a później naszą codziennością. Mam na myśli tutaj premiery Apple, Adobe czy konferencje CES… W tym gronie nie mogło zabraknąć corocznej konferencji Google I/O 2019.

Nowa misja Google

We wtorek 7 maja podczas konferencji I / O firma zaprezentowała dziesiątki aktualizacji w każdym zakątku ekosystemu Google: od wyszukiwania i Google Assistant do następnej generacji Androida.
Na głównej scenie nie mogło zabraknąć CEO Google – Sundar Pinchai. W swojej prezentacji Pinchai podkreślił, że misja Google zmienia się z firmy , która „pomaga znaleźć odpowiedzi” na taką, która „pomaga w załatwianiu spraw”. To założenie było widoczne już w trakcie prezentacji, w której dominowały tematy pomagania ludziom, ułatwiania nam życia oraz w dużej mierze prywatności. 

Co nowego w voice?

Nowości w Google Assistant można podzielić na trzy kategorie:

  • personalizacja
  • prędkość
  • wygoda

Każda z nich pokazuje, że Google Assistant jeszcze lepiej zrozumie Twoje życie. Zacznijmy od personalizacji, która bez wątpienia stała się celem tegorocznych nowości. Jak to wygląda w praktyce?

Personalizacja: zabawa kontekstem

Korzystając z pomocy Assystenta użytkownik otrzyma spersonalizowane sugestie dotyczące wszystkiego, od podcastów po przepisy i informacje o wydarzeniach w okolicy. To wszystko dzięki zwiększonemu naciskowi na kontekst sytuacji. Mam na myśli np. porę dnia, aby uniknąć sugerowania rano przepisów kulinarnych na kolację.

Engadget

Funkcje bardziej precyzyjnych treści będą dostępne na urządzeniach typu smart display – Home Hub, które zostaną wprowadzone pod koniec tego lata.

Prędkość: Duplex on the Web

Podczas prezentacji Scott Huffman (Google VP of Engineering) podkreśla, że następna generacja Google Assistant będzie działać równie szybko jak w czasie rzeczywistym. W tym miejscu prezentuje się lista spraw, które Google Assistant zamyka i przełącza znacznie szybciej niż w obecnej wersji.

Google/Screenshot by Morgan Little/CNET

Została też zaprezentowana nowa funkcja Google Duplex rozszerzona o działania na stronach internetowych. Podczas prezentacji demo mogliśmy zobaczyć rezerwacje przez Asystenta samochodu, bez podawania danych. Kiedy użytkownik zastanawia się nad kolorem karoserii program przeszukuje nasze maile, z których dowie się do jakiego kraju jedziemy, sprawdzi daty wyjazdu w Kalendarzu, a potem zarezerwuje nam takie samo auto, jak rok wcześniej. Na sam koniec wystarczy potwierdzić prawidłowość wyszukanych danych. Gotowe, można odebrać.

Wygoda: magia mówienia STOP

Pozytywnym zaskoczeniem dla publiczności tegorocznej konferencji była nowa możliwość zamykania Akcji lub jej przerywania. Użytkownicy nie muszą teraz zapamiętywać dedykowanych komend. Wystarczy powiedzieć ,,stop” aby wyjść z danej czynności. Co więcej nie trzeba już powtarzać „Hey Google” przed każdą komendą. Powyższe udogodnienia sprawiają, że konwersacyjny styl rozmowy jest bardziej naturalny i…szybki!

Wygoda: Hey Google, let’s drive!

Telefony z Androidem otrzymają latem tryb jazdy samochodem zintegrowany z Asystentem. Po przełączeniu się na Driving Mode użytkownicy zobaczą listę działań (wraz ze skrótami) na pulpicie nawigacyjnym. Przykładowo, jeżeli mamy zapisaną w kalendarzu Google rezerwację to Asystent pokaże skrót do nawigacji. Najczęściej używane kontakty będą również umieszczone na pulpicie, dzięki czemu łatwo je uaktywnić w razie potrzeby.

Driving Mode, Engadget

Dla samochodów, które będą miały wbudowany tryb jazdy z Asystentem pojawią się także Akcje zdalnego sterowania funkcjami pojazdu. Użytkownicy będą mogli sprawdzić poziomy paliwa, upewnić się, że drzwi są zablokowane i wydawać polecenia takie jak, regulacja klimatyzacji. Powyższe funkcje będą dostępne w najbliższych miesiącach za pośrednictwem ,,Blue Link” Hyundaia i ,,Mercedes Me Connect” Mercedes-Benz.

Przyszłość, dostępna dla wszystkich!

Tegoroczna konferencja była wyjątkowa nie tylko pod względem ilości nowych funkcji. Moją uwagę zwrócił w szczególności temat dostępności dla osób z niepełnosprawnościami. Osoby niesłyszące będą mogły skorzystać z funkcji Live Caption dostępnej na Androidzie Q. To możliwość transkrypcji filmów z YouTube, podcastów czy rozmów telefonicznych.

Live Caption, Neowin: https://www.neowin.net/news/google-introduces-live-caption-and-live-relay-for-those-with-hearing-disabilities/

Kolejna funkcja to Live Relay. Głównym celem jest pomoc użytkownikom mającym trudności z mówieniem w odpowiadaniu na rozmowy telefoniczne. Takie działanie będzie możliwe, dzięki wpisywaniu wiadomości na klawiaturze lub za pomocą Smart Replay.

Ostatni z zaprezentowanych demo w kategorii accesibility to projekt Euphonia. Funkcja jest dedykowana osobom z zaburzeniami mowy lub ALS. Google chce również, aby jego sztuczna inteligencja tłumaczyła dźwięki i gesty na działania, takie jak mówienie poleceń do Google Home lub wysyłanie wiadomości tekstowych.