3 – 5 de dez. de 2025
FEEC / UNICAMP
Fuso horário America/Sao_Paulo
É com grande satisfação que convidamos toda a comunidade do DCA a participar da décima sétima edição do nosso tradicional encontro

Geração de Gestos e Áudio Guiada por Texto para Robôs Antropomórficos Socialmente Interativos

5 de dez. de 2025 16:05
1m
Hall de entrada FEEC

Hall de entrada FEEC

Trabalho consolidado ou em conclusão Sessão de Pôsteres

Palestrante

Kevin Adier Inofuente Colque (Faculdade de Engenharia Eléctrica e de Computação, UNICAMP)

Descrição

A geração de gestos co-verbais expressivos é fundamental para a Interação Humano-Robô (IHR), mas garantir a sua correspondência semântica e emocional com a fala em tempo real permanece um desafio complexo. Este trabalho apresenta um sistema modular que gera, a partir de um único texto, tanto fala expressiva como gestos humanos e coerentes. A nossa abordagem processa o texto em dois caminhos paralelos para gerar simultaneamente: (1) fala com a entoação emocional apropriada, via análise de sentimento; e (2) movimento 3D de corpo inteiro alinhado ao conteúdo, através de um modelo de IA avançado (Transformer-based diffusion). Estes movimentos são depois adaptados à morfologia do robô por um algoritmo de redirecionamento de movimento (motion retargeting). A validação do sistema, realizada através de um estudo de perceção com participantes e de métricas objetivas, confirma que os gestos gerados são percebidos como significativamente mais apropriados para a fala, validando a coerência semântica e a qualidade da transferência de movimento.

Autor

Kevin Adier Inofuente Colque (Faculdade de Engenharia Eléctrica e de Computação, UNICAMP)

Co-autores

Johsac Isbac Gomez Sanchez (Estudante) Paula Dornhofer Paro Costa (FEEC / Unicamp / H.IAAC) Sr. Pedro Rodrigues Corrêa (Faculdade de Engenharia Eléctrica e de Computação, UNICAMP)

Materiais de apresentação