Google Project Soli — возможность управлять девайсами при помощи жестов
2 июня 2015 Технологии

Google Project Soli — возможность управлять девайсами при помощи жестов

+

28-29 мая в Сан-Франциско (ночи в стиле «диско») прошла ежегодная конференция Google I/O. Одна из крупнейших корпораций мира представила целый ряд новинок: Android Wear, Google Now, Internet of Things, Google Photos, конечно, Android M и многое другое. Нас не мог не заинтересовать проект под названием Project Soli, ведь тут речь идет об управлении мобильными девайсами при помощи жестов, без физического контакта.

Привет, недалекое будущее из кинофильмов Спилберга!
Новая радиолокационная технология Google позволит устройствам «воспринимать» простые жесты и переводить их в команды без прикосновений к сенсорному дисплею. Громкость звука, листание виртуальных страниц, переключение треков в плеере, установка будильника и прочие финтифлюшки в скором времени будут выполняться девайсами «по воздуху».

Как утверждают разработчики из подразделения Google ATAP, сфера применения Project Soli будет очень большой. Проект окончательно будет реализован к концу года и, прежде всего, проявится на носимых аксессуарах.

Посмотрите видео-презентацию Project Soli и представьте, в каком мире мы будем жить через лет пять:


Возникает логичный вопрос: если устройство должно иметь возможность считывать жесты (то есть быть напротив руки и «видеть» ее), то как технология облегчает управление на практике? Одно дело — не запачкать дисплей, а другое — переключать любимые треки жестом во время езды на велосипеде. Но мы все и так скоро увидим.

+