Чтобы выяснить, насколько хорошо пользователи Apple ориентируются в своих iPhone, Шон Густафсон и его коллеги из Потсдамского университета пригласили 12 добровольцев. В итоге 68% участников правильно расположили большинство приложений на участках ладони, которые соответствуют той или иной клавише на тачскрине. При работе с популярными приложениями точность достигала 80%, пишет Компьюлента.

Воодушевившись такими результатами, исследователи приспособили систему распознавания движений, состоящую из видеокамер и сенсоров для отслеживания тычков пальца в ладонь. Похожая технология используется в Microsoft Kinect.

В экспериментах применялось довольно громоздкое устройство, размещаемое на голове. Но рано или поздно, как надеются авторы, систему можно будет встроить в пуговицу на одежде или замаскировать под аксессуар, а пользователи, становясь всё искушённее в «слепом» управлении «Айфоном», смогут выполнять более сложные задачи.

Главным недостатком предложенного способа взаимодействия с гаджетом является невозможность полной автономии: для телефонного разговора нужно, чтобы iPhone был рядом с хозяином. Так что разработка германских специалистов является, по сути, разновидностью handsfree.

По материалам compulenta.ru