Microsoft разрабатывает 3D-интерфейс управления компьютерами
02.11.2009 15:15
—
Новости Hi-Tech
Корпорация Microsoft совместно с канадскими и американскими учеными разрабатывает новый интерфейс управления компьютерными системами.
В проекте g-Speak помимо сотрудников Microsoft участвуют специалисты из Университета Торонто (Канада) и Вашингтонского университета (США).
Принцип работы g-Speak основан на регистрации и анализе электрической активности в мышцах рук. Снятие сигналов осуществляется посредством шести электромиографических датчиков и двух поверхностных электродов, размещаемых на кистях рук и в верхней части предплечья. Сенсоры вшиты в специальные перчатки, что упрощает их наложение на руку пользователя.
В ходе работы g-Speak регистрирует амплитуду мышечной активности, ее интенсивность, а также фиксирует общую картину, получаемую в один и тот же момент различными датчиками. Затем полученная информация обрабатывается и преобразуется в управляющие команды для осуществления навигации в трехмерном виртуальном пространстве.
Для работы система требует предварительного обучения, в процессе которого пользователь выполняет определенные жесты, а компьютер ассоциирует показатели мышечной активности с теми или иными командами. После выполнения такой процедуры точность распознавания достигает 85%.
Демонстрируя возможности g-Speak, исследователи показали, как система может применяться для выполнения манипуляций с 3D-объектами, перемещения в пространстве и т. п. Сроки коммерциализации интерфейса не уточняются.
В проекте g-Speak помимо сотрудников Microsoft участвуют специалисты из Университета Торонто (Канада) и Вашингтонского университета (США).
Принцип работы g-Speak основан на регистрации и анализе электрической активности в мышцах рук. Снятие сигналов осуществляется посредством шести электромиографических датчиков и двух поверхностных электродов, размещаемых на кистях рук и в верхней части предплечья. Сенсоры вшиты в специальные перчатки, что упрощает их наложение на руку пользователя.
В ходе работы g-Speak регистрирует амплитуду мышечной активности, ее интенсивность, а также фиксирует общую картину, получаемую в один и тот же момент различными датчиками. Затем полученная информация обрабатывается и преобразуется в управляющие команды для осуществления навигации в трехмерном виртуальном пространстве.
Для работы система требует предварительного обучения, в процессе которого пользователь выполняет определенные жесты, а компьютер ассоциирует показатели мышечной активности с теми или иными командами. После выполнения такой процедуры точность распознавания достигает 85%.
Демонстрируя возможности g-Speak, исследователи показали, как система может применяться для выполнения манипуляций с 3D-объектами, перемещения в пространстве и т. п. Сроки коммерциализации интерфейса не уточняются.