był google? Praca nad „nowym językiem interakcji” Od lat dziś dzieli się tym, co zostało opracowane do tej pory. Firma przedstawia zestaw ruchów, które zidentyfikowała w nowym języku interakcji w pierwszym odcinku nowej serii o nazwie W laboratorium z Google ATAP. Ten akronim oznacza zaawansowaną technologię i projekty, a najbardziej eksperymentalna sekcja Google to Firma nazywa to „Hardware Invention Studio”.„
Ideą tego „języka interakcji” jest to, że maszyny wokół nas mogą być bardziej intuicyjne i świadome naszego pragnienia interakcji z nimi poprzez lepsze zrozumienie naszych niewerbalnych wskazówek. „Urządzenia, które nas otaczają… muszą czuć się jak nasz najlepszy przyjaciel” – powiedziała Engadget, główna projektantka interakcji ATAP, Lauren Bedal. „Muszą mieć łaskę społeczną”.
W szczególności (jak na razie) ATAP analizuje nasze ruchy (w przeciwieństwie do wokalizacji lub mimiki), aby sprawdzić, czy jesteśmy gotowi do udostępnienia, więc urządzenia wiedzą, kiedy pozostać w tle, zamiast bombardować nas informacjami. Zespół korzystał z firmy Solidny czujnik radarowy Aby odkryć bliskość, kierunek i ścieżki ludzi wokół niego. Następnie przeanalizował te dane, aby ustalić, czy ktoś zerkał na czujnik, mijał go, zbliżał się do niego, czy też zmierzał w jego kierunku.
Google sformalizował ten zestaw czterech ruchów, nazywając je podejściem, spojrzeniem, obracaniem i przewijaniem. Te akcje mogą być używane jako wyzwalacze poleceń lub reakcji na takie rzeczy, jak inteligentne wyświetlacze lub inne typy otaczających komputerów. Jeśli brzmi to znajomo, to dlatego, że niektóre z tych gestów działają już na istniejących urządzeniach obsługujących Soli. ten Piksel 4Na przykład miał funkcję o nazwie Motion Sense, która opóźnia alerty, gdy nim machasz, lub budzi telefon, jeśli wykryje, że zbliża się do niego twoja ręka. Google Nest Hub Max używał własnej kamery Aby zobaczyć, kiedy podniesiesz otwartą dłoń i w odpowiedzi wstrzymać odtwarzanie multimediów.
Podejście wydaje się podobne do obecnych wdrożeń. Pozwala urządzeniom wiedzieć, kiedy się zbliżasz (lub część ciała), dzięki czemu mogą wyświetlać informacje, które możesz być wystarczająco blisko, aby je zobaczyć. Podobnie jak Pixel 4, Nest Hub stosuje podobne podejście Gdy wiesz, że jesteś w pobliżu, wyświetla nadchodzące spotkania lub przypomnienia. Będzie również wyświetlać polecenia dotykowe na ekranie odliczania, jeśli jesteś w pobliżu, i przełączy się na większą, czytelną czcionkę, gdy będziesz nieobecny.
Pedal wyjaśnił, że choć rzut oka może wydawać się przeszkodą w podejściu, może to polegać na zrozumieniu, na czym skupia się uwaga osoby korzystającej z wielu urządzeń. „Powiedzmy, że rozmawiasz z kimś przez telefon i przypadkiem patrzysz na inne urządzenie w domu” – powiedziała. „Ponieważ wiemy, że mogłeś przykuć uwagę na innym urządzeniu, możemy zasugerować, aby ewentualnie zmienić Twoją rozmowę w rozmowę wideo”. Spojrzenie może również służyć do szybkiego przeglądania fragmentu informacji.
Mniej znany jest Turn and Pass. „Opakowując go, możemy pozwolić urządzeniom na automatyzację powtarzalnych lub normalnych zadań” — powiedział Bedale. Może być używany do określenia, kiedy jesteś gotowy do następnego kroku w wieloetapowym procesie, takim jak postępowanie zgodnie z przepisem wyświetlanym na ekranie lub coś powtarzalnego, na przykład uruchamianie i zatrzymywanie wideo. Tymczasem Pass informuje urządzenie, że nie jesteś gotowy do udostępniania.
Podejście, przejście, zwrot i spojrzenie oczywiście opierają się na tym, co Google wdrożył w swoich produktach na przestrzeni lat. Ale zespół ATAP grał również, wprowadzając niektóre z tych działań, takie jak przesuwanie i przesuwanie lub zbliżanie się i przesuwanie, czego jeszcze nie widzieliśmy w prawdziwym świecie.
Aby wszystko to działało dobrze, czujniki i algorytmy Google muszą być niezwykle sprawne nie tylko w rozpoznawaniu, kiedy wykonujesz określoną akcję, ale także kiedy tego nie robisz. Niedokładne rozpoznawanie gestów może zmienić rzekomo przydatne doświadczenie w bardzo frustrujące.
„To największe wyzwanie, przed jakim stoimy w związku z tymi sygnałami”, powiedział główny projektant ATAP, Leonardo Giusti. Powiedział, że po podłączeniu urządzeń dostępna jest większa moc do obsługi bardziej złożonych algorytmów niż w przypadku urządzeń mobilnych. Częścią wysiłków, aby system był dokładniejszy, jest zbieranie większej ilości danych w celu uczenia algorytmów uczenia maszynowego, w tym poprawnych działań, a także podobnych, ale niepoprawnych działań (aby dowiedzieć się również, czego nie akceptują).
„Innym podejściem do łagodzenia tych zagrożeń jest projektowanie doświadczeń użytkownika” – powiedział Gusti. Wyjaśnił, że system może raczej zaproponować sugestię niż wywołać w pełni zautomatyzowaną odpowiedź, aby umożliwić użytkownikom potwierdzenie prawidłowego wpisu, a nie działanie na podstawie niedokładnego gestu.
Jednak nie będziemy sfrustrowani, gdy urządzenia Google błędnie zinterpretują te cztery ruchy dla naszych ruchów w najbliższej przyszłości. „To, nad czym pracujemy, to tylko badania”, zauważył Bidal. „Nie skupiamy się na integracji produktów”. I żeby było jasne, Google dzieli się tym spojrzeniem na język interakcji w ramach publikowanej przez siebie serii filmów. Późniejsze odcinki W laboratorium z ATAP Obejmie tematy inne niż ten nowy język, a Gusti powiedział, że celem jest „pokazanie ludziom od środka niektórych badań, które badamy”.
Ale łatwo jest zobaczyć, jak ten nowy język może w końcu znaleźć drogę do wielu rzeczy, które tworzy Google. Firma o tym mówiła zobacz ją o Świat „komputerów otoczenia” Od lat wizualizujemy wiele czujników i urządzeń osadzonych w wielu otaczających nas powierzchniach, gotowych do przewidywania i reagowania na każdą naszą potrzebę. Aby taki świat nie wydawał się nachalny lub naruszony, jest wiele problemów do rozwiązania (ochrona prywatności użytkowników wśród nich). Częścią tego wyzwania jest posiadanie maszyn, które wiedzą, kiedy trzymać się z daleka, a kiedy zaoferować pomoc.
„Uważamy, że te ruchy naprawdę sugerują futurystyczny sposób interakcji z pozornie niewidzialnymi komputerami, wykorzystujący naturalny sposób, w jaki się poruszamy” – powiedział Bedale, który jest również zawodowym choreografem.
„Dzięki temu możemy pracować mniej, a komputery mogą… pracować w tle, pomagając nam tylko w odpowiednich momentach” – dodała.
Wszystkie polecane przez Engadget produkty są starannie dobierane przez naszą redakcję, niezależnie od firmy macierzystej. Niektóre z naszych historii zawierają linki afiliacyjne. Jeśli kupisz coś przez jeden z tych linków, możemy otrzymać prowizję partnerską.