Ученые Калифорнийского университета в Беркли создали алгоритм, который воссоздает жесты человека по его речи. 

Об этом сообщается на сайте университета.

В исследовании отмечается, что человеческая речь часто сопровождается жестами. Исследователи из Калифорнийского университета в Беркли использовали эту связь для предсказания жестикуляции человека в разговоре на основе голосовой составляющей его речи. Работу алгоритма можно разбить на два этапа: сначала алгоритм на базе сверточной нейросети UNet предсказывает жесты по аудио, а затем визуализирует последовательность поз.

teaser gan oliver 041

Исследователи обучили нейросеть на датасете из аудио- и видеозаписей телеведущих, лекторов и религиозных проповедников общей длительностью 144 часа.

jon 202946

shelly 5

На видео видно, что некоторые движения не полностью соответствуют реальным жестам человека на исходной записи. Часто алгоритм подбирает верное движение, но использует другую руку, отмечается в работе.