XVII EADCA 2025 - Encontro de Alunos e Docentes do DCA
Sala da Congregação
FEEC / UNICAMP
O EADCA é um tradicional evento organizado pelo Departamento de Engenharia de Computação e Automação (DCA) no âmbito da Faculdade de Engenharia Elétrica e de Computação (FEEC) da UNICAMP, sendo realizado desde o ano de 2008.
O evento é uma oportunidade para alunas e alunos apresentarem suas pesquisas em diferentes estágios de desenvolvimento — seja no início, em progresso ou com resultados concluídos. Por meio do exercício de comunicação científica, o EADCA promove a confraternização e o diálogo entre diferentes gerações de pesquisadores do DCA, possibilita o conhecimento de problemas de pesquisa de diferentes áreas da computação e cria chances de “fertilização cruzada” entre áreas.
Chamada de Contribuições
Além de destacar a relevância e os benefícios de seus resultados, obtidos ou esperados, os participantes são incentivados a discutir abertamente as limitações inerentes ao seu trabalho e os possíveis impactos econômicos, sociais, éticos e ambientais que ele pode gerar. O objetivo é fomentar discussões mais completas e transparentes, fundamentais para o desenvolvimento de uma ciência mais responsável e consciente de seu papel na sociedade.
As contribuições devem ser submetidas no formato de resumo estendido com no mínimo 2 e no máximo 4 páginas e podem conter até uma página extra exclusivamente dedicada às seções de agradecimentos e referências.
Modelo Latex para a formatação: [Overleaf] [Source ZIP].
As submissões devem ser realizadas nesta plataforma, utilizando o botão Submeter novo resumo abaixo.
Datas Importantes
- Submissão de trabalhos: até 14 de novembro de 2025
- Registro: a partir de 31 de outubro de 2025
- Atividades de abertura: 3 de dezembro de 2025
- Realização do evento: 4 e 5 de dezembro de 2025
Palestrantes Principais



-
-
Workshop: II Encontro Além do RGB — Navegando pelo Universo Multispectral Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400-
09:00
Coffee Break
-
09:00
-
10:00
Coffee Break Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400 -
Workshop: II Encontro Além do RGB — Navegando pelo Universo Multispectral Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400 -
Sessão de Abertura: Inauguração Smartness Studio 5G Smartness Studio 5G
Smartness Studio 5G
-
17:00
Coffee Break Smartness Studio 5G
Smartness Studio 5G
-
-
-
08:30
Credenciamento Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400 -
Keynote: Wagner Caradori Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400 -
10:00
Coffee Break Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400 -
Sessões orais: Bloco 1 Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400-
1
YangToTestFW: Uma Ferramenta para Geração Automática de Testes para APIs RESTful a partir de Especificações YANG.
O YangToTestFW é uma ferramenta desenvolvida para a automação de testes de APIs RESTful a partir de especificações YANG. A ferramenta propõe uma solução integrada para os desafios de conversão e validação dessas especificações, combinando tecnologias como JSON Schema, Gherkin e Cypress. Seu objetivo é reduzir o esforço manual e aumentar a qualidade e a cobertura dos testes, especialmente em cenários complexos do setor de telecomunicações. Por meio de um fluxo automatizado, o YangToTestFW realiza a conversão de modelos YANG em JSON Schema, a geração de cenários de teste em Gherkin e a criação de scripts executáveis no Cypress abrangendo desde a validação de tipos de dados até a verificação de conteúdos.
Resultados preliminares demonstram ganhos na cobertura de testes e maior eficiência na detecção de inconsistências em especificações YANG.
Apesar dos avanços, ainda são necessárias melhorias, como a redução de ajustes manuais nos JSON Schemas e a dependência de modelos YANG bem definidos. Trabalhos futuros visam ampliar o suporte a novas tecnologias e aprimorar o nível de automação, consolidando o YangToTestFW como uma ferramenta essencial na validação automatizada de APIs RESTful no domínio das telecomunicações.Palestrante: Erick Escagion -
2
Explorando a relação entre Credenciais de Pessoalidade (PHC) e Identidade Autossoberana (SSI) para Validação Online da Condição Humana
Com avanços da Inteligência Artificial(IA) e sua capacidade de mimetizar comportamentos humanos em larga escala, a distinção entre usuários reais e agentes de IA torna-se um problema central nos ambientes digitais à medida que comportamentos maliciosos como fraude, desinformação e ataque de Sybil, no qual um agente malicioso visa manipular uma rede a partir do uso de múltiplas contas, tornam-se mais robustos. Diante desse cenário, uma opção para contrapor esse problema é Credencial de Pessoalidade (PHC), uma credencial que permite a atestação da condição humana do usuário sem revelar sua identidade. Para implementar esse esquema, um paradigma que esta sendo estudado é o de Identidade Auto Soberana (SSI), o qual permite que o usuário tenha pleno controle de seus dados e oferece mecanismos para emissão, atestação e revogação de credenciais. Dessa forma, esse trabalho visa avaliar quais as possíveis ligações entre esses dois sistemas e discutir a possibilidade de implementação de um sistema de PHC estruturado por SSI.
Palestrante: Joao Augusto Silva de Lima -
3
Brincando do 3G ao 6G: Uma Demonstração de Latência e Vazão com Jogos Físicos
A disseminação das vantagens da tecnologia da rede 5G, como a otimização da vazão (throughput) e a redução de latência, comumente é realizada com jargões técnicos, dificultando o entendimento do público geral. Por isso, o projeto propõe uma demonstração com jogos físicos com o objetivo de simular os impactos de redes 4G e 5G por meio da experiência multissensorial do usuário. A abordagem utiliza jogos populares como Jogo do Arame, Jenga e Operando, que exigem precisão e coordenação motora fina para envolver o jogador via streaming de vídeo e feedbacks auditivos e táteis. O feed de vídeo é processado num Raspberry Pi 5 com o software OBS Studio, simulando condições de latência e vazão com filtros de atraso e perfis de bitrate e resolução de imagem. Aplicou-se uma metodologia de experimentação qualitativa e quantitativa, promovendo resultados de tempo de jogada, taxa de sucesso e experiência do usuário (QoE). Então, o projeto validou que a alta latência inviabiliza tarefas de precisão e a baixa vazão dificulta o julgamento, dada a perda de detalhes visuais, reforçando as melhorias propostas na tecnologia 5G de forma lúdica, eficaz e pedagógica.
Palestrantes: Dr. Christian Esteve Rothenberg, Beatriz Vitória Pereira Moura, Sr. Lucas Guedes Janune -
4
Aceleração de operações NTT em processadores RISC-V para criptografia pós-quântica
Este trabalho apresenta a extensão de um núcleo RISC-
V com um conjunto de instruções dedicado à aritmética
modular para acelerar operações NTT e sua inversa
(INTT). Os resultados obtidos em uma implementa-
ção em FPGA apresentam aumento de desempenho em
2, 84, vezes para a NTT e em 3, 80 vezes para a INTT.Palestrante: Sr. Pedro Peixoto Alves (Universidade Estadual de Campinas)
-
1
-
Sessões orais: Bloco 2 Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400-
5
De Embeddings a Modelos de Linguagem: Uma Análise Comparativa de Extratores de Caraterística para Geração de Gestos com Texto-Only e Multimodal
A geração de gestos co-verbais expressivos e contextualmente apropriados é crucial para a naturalidade na interação humano-agente. Embora os Modelos de Linguagem Grandes (LLMs) tenham demonstrado grande potencial para essa tarefa, persistem questões sobre a integração ideal de características multimodais e as capacidades de modelos menores e mais acessíveis. Este estudo apresenta uma avaliação sistemática e comparativa de sete pipelines de geração de gestos, utilizando uma robusta arquitetura baseada em difusão. Investigamos o impacto de extratores de características de áudio (WavLM, Whisper) e texto (Word2Vec, Llama-3.2-3B-Instruct) para avaliar a contribuição relativa de cada modalidade. Demonstramos que é possível alcançar desempenho de ponta utilizando um LLM significativamente menor (3B parâmetros) do que benchmarks anteriores, sem sacrificar a qualidade. Nossos resultados, baseados em métricas objetivas e uma avaliação perceptual abrangente, revelam que os pipelines que incorporam o Llama-3.2-3B-Instruct não apenas superam as referências em adequação semântica e semelhança humana, mas também são percebidos como mais apropriados por avaliadores humanos.
Palestrante: Johsac Isbac Gomez Sanchez (Estudante) -
6
Provendo Segurança Pós-Quântica para Comunicação Veicular de Veículos Aéreos Não-Tripulados em Redes Celulares
Veículos Aéreos Não-Tripulados (VANTs) são utilizados em uma vasta gama de aplicações, como agricultura, logística, entretenimento, entre outros. A segurança de suas comunicações se baseia fortemente em algoritmos criptográficos assimétricos, como troca de chaves e assinaturas digitais. No entanto, os algoritmos assimétricos tradicionais estão sob risco de terem sua segurança quebrada por futuros computadores quânticos. Sendo assim, é necessário migrar estes sistemas para a denominada criptografia pós-quântica; tal migração, porém, traz impactos grandes em processamento e volume de dados na rede. Neste trabalho, exploramos as oportunidades de desenvolvimento de protocolos leves que mitiguem o aumento de custo e forneçam segurança pós-quântica no cenário de redes veiculares apoiadas em redes celulares 5G e 6G.
Palestrante: Caio Teixeira (DCA/FEEC) -
7
Redes Riemannianas Profundas com Estatísticas de Ordem Superior para Classificação em Sistemas de Interface Cérebro-Computador
Métodos baseados em Geometria Riemanniana têm se mostrado altamente eficazes para a classificação de sinais de Eletroencefalografia em sistemas de Interface Cérebro-Computador. Tradicionalmente, tais abordagens fazem uso de matrizes de covariância para representar a estrutura espacial dos sinais, aproveitando a natureza das matrizes Simétricas Positivas Definidas. No entanto, essas representações se limitam a capturar apenas relações lineares de segunda ordem entre os canais, o que restringe a modelagem da complexidade intrínseca dos sinais cerebrais. Neste trabalho, propomos o uso de estatísticas de ordem superior, especificamente a curtose, como forma de enriquecer a representação Riemanniana. Essa estratégia visa incorporar interações de ordem superior entre os canais, ampliando a capacidade discriminativa dos modelos. Além disso, investigamos a integração dessa abordagem em Redes Riemannianas Profundas, avaliando seu desempenho em dados de imagética motora.
Palestrante: Alexandre Herrero Matias
-
5
-
Sessões orais: Bloco 3 Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400-
8
Estudo sobre esquemas de autenticação sem senha baseados na tecnologia Fast Identity Online (FIDO)
Este estudo apresenta uma análise dos esquemas de autenticação sem senha baseados na tecnologia Fast Identity Online (FIDO), com foco no padrão FIDO2. O objetivo é avaliar suas vantagens, limitações e aplicabilidade em diferentes contextos de autenticação, como em servidores HTTPS e SSH. A pesquisa envolveu o estudo dos padrões UAF, U2F e FIDO2, sendo este último o mais atual e amplamente adotado, por integrar-se nativamente a navegadores e sistemas operacionais modernos. Foram realizadas implementações e testes utilizando o WebAuthn.io, o Akamai Krypton MFA e o Virtual-Fido, permitindo comparar diferentes abordagens de autenticação. Os resultados indicam que o FIDO2 oferece maior segurança e conveniência em relação aos métodos baseados em senhas, embora ainda apresente limitações, como a dependência de tokens USB em autenticações SSH e o suporte restrito em alguns navegadores e sistemas operacionais. Conclui-se que a tecnologia FIDO2 é uma alternativa promissora para a substituição de senhas, contribuindo para a redução de fraudes e aumento da confiabilidade na autenticação de usuários.
Palestrante: Henrique José Morais Filho -
9
Construção de um Sistema de Estimulação Visual para Interface Cérebro-Computador utilizando Matrizes de LEDs
O trabalho apresenta a construção de um sistema de estimulação visual para uma interface cérebro-computador. Esse tipo de tecnologia assistiva permite a ampliação dos meios de comunicação convencionais, e o seu controle, exclusivamente pelo processamento da atividade cerebral do usuário. Para essa realização, a interface é concebida sob um paradigma fisiológico que tem como característica potenciais visualmente evocados, VEP (Visually Evoked Potential) nas frequências dos estímulos cintilantes do sistema. Com o objeto de estudo e sua modelagem matemática, um sistema digital que produzisse esses estímulos para evocação foi implementado. Além do programa, a construção física de um painel de matrizes de LEDs bem como sua validação experimental permitiu a conclusão dos objetivos da pesquisa, com resultados que permitem a sua utilização em aplicações associadas ao contexto das interfaces cérebro-computador.
Palestrante: Igor Vinicius Meireles Sforzin -
10
Unificado ou Dual: Otimização de Aprendizado por Reforço Baseado em Drives para Robôs Cognitivos Autônomos
Este resumo expandido sintetiza e adapta um estudo que compara duas estratégias de aprendizado por reforço (AR) para otimização de drives motivacionais em agentes cognitivos autônomos: (i) 1-LDO (Unified Learning for Drives Optimization), que utiliza um único learner (Q-Table/DQN) para todas as motivações, e (ii) 2-LDO ( Dual Learning for Drives Optimization), que desacopla o aprendizado por tipo de drive e prioriza, a cada passo, o mais ativo. As estratégias são ancoradas na Teoria da Redução de Drives de Hull e implementadas em uma arquitetura cognitiva com módulos sensoriais, atencionais, motivacionais e de aprendizado, em um ambiente simulado com a robô humanoide Marta. Os resultados indicam que: (a) DQN tende a reduzir o estresse (soma de ativações dos drives de curiosidade e sobrevivência) com maior estabilidade, especialmente em 2-LDO; (b) Q-Learning pode ser competitivo em cenários mais grosseiros (passos maiores de bateria); (c) a granularidade do ambiente influencia significativamente o aprendizado e a homeostase.
Palestrante: Leonardo Rossi (FEEC / Unicamp / H.IAAC) -
11
Compensação Inteligente da Degradação do Pó em Impressão 3D por Laser
O Laboratório Aberto de Impressão 3D (LAPrint) do CTI Renato Archer possui longa experiência em manufatura aditiva, incluindo processos de fusão em leito de pó por laser (PBF-LB/P) com Poliamida-12. Devido ao alto custo e à limitada disponibilidade desse material, o laboratório observou que ajustes nos parâmetros críticos — especialmente temperatura do leito e potência do laser — podem mitigar a degradação do pó e estender sua vida útil. Essa evidência motivou a busca por um método mais sistemático e quantitativo, reduzindo a dependência de ajustes empíricos.
Este estudo integra dados históricos de produção e experimentos controlados para avaliar como variações de processo influenciam as propriedades mecânicas obtidas por ensaios de tração conforme a norma ASTM D638-22. A hipótese é que a degradação do material pode ser parcialmente compensada por ajustes específicos desses parâmetros. A metodologia compreende a compilação dos registros, a execução dos experimentos e análises estatísticas para identificar padrões relevantes. Os resultados preliminares indicam a viabilidade dessa abordagem e fundamentam o desenvolvimento futuro de um modelo capaz de apoiar sistemas de controle automatizado do processo.
Palestrante: Danilo Polly (Aluno)
-
8
-
Keynote: Roberto Gallo Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400 -
15:50
Coffee Break Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400 -
Sessões orais: Bloco 4 Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400-
12
Métodos Pedagógicos para a Aprendizagem de Arquiteturas Cognitivas utilizando o CST
O Cognitive Systems Toolkit (CST) é uma ferramenta para a construção de Arquiteturas Cognitivas (ACs), desenvolvida pelo nosso grupo de pesquisa na UNICAMP. Embora seu desenvolvimento tenha sido concebido para ser simples e prático, o que se constatou é que, com uma documentação fragmentada e a ausência de um material didático apropriado, seu uso acabou sendo uma barreira de entrada para pesquisadores interessados em conhecer mais sobre arquiteturas cognitivas. Este trabalho tem como objetivo principal estudar com profundidade diferentes arquiteturas cognitivas, o CST e por fim, projetar, implementar e avaliar uma metodologia pedagógica introdutória, online e assíncrona sobre Arquiteturas Cognitivas utilizando o CST. A metodologia adotada envolveu: (1) a definição de tópicos-chave em ACs, com base na literatura e em projetos prévios; (2) a implementação de diferentes técnicas de modelagem cognitiva utilizando o CST como base (e.g., Behavior Networks, SOAR) e o desenvolvimento de experimentos práticos (e.g., Seleção de Ação baseada em Braitenberg); (3) a criação de tutoriais para o uso profícuo do CST; e (4) a definição de um protocolo de avaliação da eficácia da metodologia desenvolvida, centrado na percepção emocional e no aprendizado dos participantes, utilizando o questionário AEQ-R (Achievement Emotions Questionnaire-Revised). Nossa metodologia pedagógica desenvolveu materiais didáticos que reduzem a barreira de entrada ao uso do CST e propõe um modelo de desenvolvimento escalável para o CST.
Palestrante: Karen Lima (UNICAMP) -
13
Rumo a um Modelo de Fundação para a Espectroscopia por Ressonância Magnética
O presente trabalho apresenta os passos iniciais em direção à construção do primeiro modelo de fundação especializado em dados de Espectroscopia por Ressonância Magnética (MRS) que possibilite seu amplo uso em diversas tarefas na área de MRS, como reconstrução de espectros, quantificação de metabólitos e predição de diagnósticos. O principal objetivo é expandir o uso e os estudos em MRS através da disponibilidade de um modelo base. Assim, especialmente para estudos de pequenos casos, não haverá mais a necessidade de se utilizar grandes quantidades de dados, visto que o conhecimento fundamental já estará incorporado nos pesos do modelo pré-treinado. Experimentos demonstraram que o conhecimento aprendido durante o pré-treinamento foi satisfatoriamente transferido e adaptado para uma nova tarefa, cujo propósito era identificar diferentes scanners (Philips, Siemens e GE) através dos espectros MRS. A taxa de acerto foi de 83%.
Palestrante: Wesna Araujo -
14
Blockchain na rastreabilidade de I-RECs: segurança em marketplaces digitais
A crescente demanda global por responsabilidade ambiental e iniciativas como a RE100 consolidaram o mercado de Certificados de Energia Renovável (RECs), sendo o I-REC o padrão principal para atestar a origem renovável. O modelo tradicional de validação é realizado por terceiros (off-chain). Em paralelo, a tecnologia Blockchain, com sua descentralização e imutabilidade, emerge como uma infraestrutura promissora para transformar a comercialização desses certificados, resolvendo o problema da dupla contagem. Este estudo compara o modelo tradicional com marketplaces digitais baseados em Blockchain (on-chain). Analisamos como protocolos de tokenização, como o ERC-1155, podem mitigar o risco de dupla contagem ao unificar a unicidade do certificado com a fungibilidade das unidades de energia (MWh). A pesquisa aborda os impactos da descentralização na segurança, liquidez e transparência do mercado. Os resultados preliminares indicam que a integração da Blockchain não só aprimora a segurança contra fraudes, mas também otimiza a emissão, rastreabilidade e transação dos I-RECs.
Palestrante: Jose Roberto Vieira Junior -
15
Immersive Volumetric Media Streaming - A Subjective Study
Volumetric media streaming for 6G networks requires rigorous QoE assessment beyond traditional objective metrics. This research conducts subjective evaluation of volumetric media in VR under varying network conditions. Results reveal acceptable quality thresholds at 2-3% packet loss and 2-3ms latency—stricter than 5G targets. These findings establish perceptual benchmarks to inform 6G network design and advance volumetric media standardization.
Palestrante: Alan Teixeira (UNICAMP)
-
12
-
08:30
-
-
Keynote: José Mario de Martino Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400 -
10:00
Coffee Break Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400 -
Sessões orais: Bloco 5 Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400-
16
Dados de mentira, ciência de verdade: Uso de Dados Hiperespectrais Sintéticos para melhorar a Classificação de Melanoma
Este trabalho investiga o uso de Redes Adversárias Generativas (GANs) para criar imagens hiperespectrais sintéticas de melanoma, com o objetivo de aprimorar a detecção automática de tumores. Utilizando o conjunto de dados Hyperspectral Dermoscopy, o modelo FastGAN foi treinado para gerar amostras artificiais visual e espectralmente semelhantes às reais, avaliadas por meio das métricas FID, SAM e SSIM. Dois classificadores DenseNet201 foram comparados: um treinado apenas com dados reais e outro combinando dados reais e sintéticos. O modelo combinado apresentou desempenho superior (F1-score = 0,892) e maior sensibilidade na detecção de melanomas. Os resultados indicam que o uso de dados sintéticos pode reduzir o desbalanceamento entre classes e melhorar a capacidade de generalização dos modelos, demonstrando o potencial da síntese hiperespectral baseada em GANs para aplicações diagnósticas mais precisas e não invasivas.
Palestrante: Ana Caznok Silveira (FEEC) -
17
Aprendizado Multiusuário para o Treinamento de Classificadores em Interfaces Cérebro-Computador
A alta variabilidade nos sinais de EEG entre usuários distintos é um desafio central para a robustez de Interfaces Cérebro-Computador (BCI, do inglês Brain-Computer Interfaces) baseadas em Imagética Motora (IM). Embora redes neurais profundas como a EEGNet tenham se mostrado eficazes, modelos treinados de forma convencional frequentemente falham em generalizar para novos indivíduos. Para enfrentar este problema, este trabalho propõe uma adaptação da abordagem de Multitask Learning (MTL): ao invés de utilizar múltiplos conjuntos de dados ou paradigmas, empregamos um único conjunto (BCI Competition IV - 2a) e tratamos cada usuário como uma tarefa distinta. A arquitetura proposta consiste de um encoder compartilhado, que aprende a projetar os dados de EEG em um espaço latente comum, seguido por cabeças de classificação dedicadas e especializadas para cada usuário. O objetivo é que o encoder capture características universais da IM, enquanto as cabeças individuais modelam as especificidades de cada usuário. Os resultados demonstram que esta estratégia mitiga de forma eficaz os efeitos da variabilidade entre usuários, elevando o desempenho de classificação e oferecendo um caminho promissor para o desenvolvimento de sistemas BCI mais generalizáveis.
Palestrantes: Sr. Daniel Neri de Jesus (Faculdade de Engenharia Elétrica e de Computação / Universidade Estadual de Campinas), Sr. Gabriel da Costa (Faculdade de Engenharia Elétrica e de Computação / Universidade Estadual de Campinas) -
18
Enabling TSN features in O-RAN converged XHaul networks
With new requirements emerging for the modern communication systems, new network architectures are appearing. In mobile networks, the Open Radio Access Networks (O-RAN) emerges as an alternative to the traditional approach by bringing an open, intelligent, interoperable, and virtualized architecture. However, To enable its feasibility, challenges regarding the requirements in the transport network between the O-RAN components need to be solved. This work aims to investigates Time-Sensitive Networking (TSN) as a promising solution to reach the requirements and evaluate its performance in the O-RAN transport networks. Furthermore, this work introduces the conceptual design of a deployment framework, SmarTAS, envisioned as a central unit for orchestrating TSN features across the network. The research is currently in its preliminary stages, focused on establishing the necessary evaluation infrastructure.
Palestrante: Sérgio Rossi Brito da Silva (UNICAMP) -
19
Impactos da Criptografia Pós-Quântica em Redes Blockchain: Implementação e Avaliação na Hyperledger Besu
Com a iminente ameaça dos computadores quânticos à segurança dos sistemas criptográficos atuais, torna-se essencial avaliar soluções pós-quânticas para sistemas em operação. Este trabalho apresenta a integração de algoritmos de criptografia pós-quântica (PQC) na plataforma Hyperledger Besu, com o objetivo de avaliar o impacto de assinaturas digitais resistentes a ataques quânticos em blockchains permissionadas baseadas no protocolo Ethereum. A proposta consiste na criação de uma arquitetura híbrida que mantém a compatibilidade com o ECDSA (secp256k1) enquanto incorpora esquemas PQC, como ML-DSA, SLH-DSA e MAYO. Os resultados indicam que a adição de criptografia pós-quântica aumenta o tamanho dos blocos e o custo computacional, mas oferece maior robustez criptográfica e permite o futuro uso de algoritmos PQC em redes blockchain permissionadas. Essa integração contribui para a transição gradual rumo à segurança pós-quântica em sistemas distribuídos.
Palestrante: Rodrigo de Meneses (Universidade Estadual de Campinas)
-
16
-
Sessões orais: Bloco 6 Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400-
20
Segmentação automatizada de lesões na substância branca: será que o problema está resolvido?
A segmentação automática de lesões, mais conhecidas como hiperintensidades, na substância branca (WMH) é essencial para o estudo de doenças neurodegenerativas e vasculares. Embora diversos métodos tenham sido propostos, variações em disponibilidade, reprodutibilidade, pré-processamento e desempenho dificultam a escolha do método mais adequado. Este trabalho apresenta uma análise comparativa de seis métodos automatizados de segmentação de WMH encontrados na literatura, avaliados em cinco conjuntos de dados públicos. Os métodos foram avaliados de três formas: quanto ao seu desempenho na segmentação precisa das lesões, quando comparado à segmentação manual; quanto à consistência de desempenho em sujeitos de diferentes sexos (homem e mulher); e quanto à facilidade de uso. Os resultados indicaram variação de desempenho expressiva entre métodos, além de uma queda de desempenho bastante acentuada para lesões médias (3mm3 < L < = 10mm3 ) e lesões pequenas (L < = 3mm3 ). Além disso, foi observada uma tendência de desempenho ligeiramente superior para as imagens provenientes de mulheres. O estudo destaca a importância de avaliações sistemáticas, transparentes e conscientes dos impactos sociais e científicos de algoritmos na área de imagens médicas, promovendo o desenvolvimento de métodos para segmentação de lesões de substância branca mais justos e responsáveis.
Palestrante: Joany Rodrigues (Unicamp) -
21
De affordances físicas à exploração funcional: Estudo acadêmico e ferramentas aplicadas na robótica assistiva
Este documento apresenta uma versão estendida e de-
talhada do trabalho de iniciação científica em anda-
mento no H.IAAC / LCA (UNICAMP) durante o pe-
ríodo julho/2024 — presente. O projeto concentrou-
se em: (i) revisão crítica sobre affordances e mode-
los computacionais relevantes; (ii) reprodução do pi-
peline VAPO (Visual Affordance-guided Policy Opti-
mization) para reconhecimento de affordances físicas;
(iii) isolamento e modularização do componente visual
de affordance do VAPO para permitir reuso em arqui-
teturas cognitivas e controladores do laboratório; (iv)
integração experimental desse módulo em uma aplica-
ção prática de assistência alimentar (pipeline em três
módulos: utensílio — aquisição de mordida — transfe-
rência), com avaliação em plataforma real; e (v) início
da transição conceitual e prática rumo ao estudo de af-
fordances funcionais (nível semântico/temporal). Os
artefatos gerados incluem o fork do modelo de affor-
dance isolado, documentação técnica e um mini-artigo
submetido a um dos workshops do IROS 2025 que re-
porta os experimentos de feeding.Palestrante: Vitor Rodrigues Zanata da Silva (Iniciação científica HIAAC - Graduando Ciência da Computação) -
22
Framework de IA explicável para auditoria de contratos inteligentes com aprendizado por feedback continuo humano
A segurança de contratos inteligentes continua sendo um dos principais desafios no ecossistema blockchain. Vulnerabilidades exploradas em protocolos descentralizados resultaram em perdas financeiras expressivas e expuseram limitações das ferramentas de auditoria convencionais. O avanço de modelos de Inteligência Artificial (IA) e de Linguagem de Grande Escala (LLMs) abriu novas possibilidades para abordagens mais adaptativas e interpretáveis. Este trabalho propõe a concepção inicial de um framework de IA explicável voltado à detecção e contextualização de vulnerabilidades em smart contracts. A proposta está estruturada em duas fases: (i) uso de modelos de linguagem genéricos para geração de relatórios a partir dos resultados de ferramentas de análise estática; e (ii) integração futura de modelos locais refináveis, capazes de realizar aprendizado contínuo via feedback humano. O objetivo é fomentar auditorias mais compreensíveis, transparentes e colaborativas, aproximando a segurança automatizada da realidade prática do desenvolvedor.
Palestrante: Rafael Alves (Unicamp)
-
20
-
Sessões orais: Bloco 7 Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400-
23
Representando Episódios: Experiências no Espaço-Tempo para Arquiteturas Cognitivas
A escolha de uma representação do conhecimento varia entre diferentes arquiteturas cognitivas. A experiência que o agente possui da Existência é definida pelo que a representação do conhecimento permite ou não representar. Neste trabalho, definimos uma representação de episódios que permite às arquiteturas cognitivas acumularem experiências. Descrevemos como a Existência pode ser fragmentada no espaço e no tempo para alcançar um formato base de representação do conhecimento. Esse formato é utilizado para construir Ideias de Episódios como uma forma de codificar a experiência de Existência do agente. Demonstramos por meio de experimentos o uso e a versatilidade da representação, bem como a forma como o conhecimento semântico definido pela representação do conhecimento pode afetar a forma como o agente experiencia o ambiente. O código está disponível em https://github.com/H-IAAC/cst-episode-idea.
Palestrante: Bruno Guedes da Silva (FEEC / HIAAC) -
24
Visão Computacional para Preservação Digital: Rumo à Automação da Catalogação de Tipos Móveis do Museu Paulista
A curadoria, a classificação e, por fim, a catalogação de coleções históricas, são essenciais para a preservaão do patrimônio cultural, mas ainda costumam ser feitas manualmente, de forma lenta e suscetível a erros. Este trabalho é uma das iniciativas da parceria entre o DCA/FEEC/Unicamp e o Museu Paulista/USP que visa o desenvolvimento de ferramentas de inteligência artificial para apoiar o trabalho de museólogos e historiadores. Em particular, o trabalho toma como objeto de experimentação o projeto de catalogação da coleção tipográfica de Tércio Ferdinando Gaudêncio e explora modelos de visão computacional para identificar padrões visuais e organizar os tipos móveis e florões em seis famílias tipográficas: escritural, grotesca, serifada, fantasia, monograma e toscana. Mais especificamente, o presente artigo relata a construção de um banco de dados rotulado a partir de fotografias de amostras impressas, capturadas em condições variadas. As imagens passam por pré-processamento e segmentação, e os recortes resultantes são avaliados por voluntários. Os próximos passos incluem validar a segmentação, rotular os caracteres e consolidar o banco de dados que servirá ao treinamento de modelos de classificação.
Palestrante: Matheus Hencklein Ponte (DCA/FEEC/UNICAMP) -
25
Implementação e análise do produto de polinômios baseados na Transformada de Teoria dos Números(NTT) em FPGA
A ascensão da computação quântica ameaça a infraestrutura de segurança da informação atual, tornando a migração para a Criptografia Pós-Quântica (PQC) uma necessidade urgente. Os principais algoritmos PQC padronizados até o momento são baseados em reticulados e dependem intensamente da multiplicação de polinômios de grande porte, sendo essa a operação de gargalo computacional. Nesse contexto, a implementação da Transformada de Teoria dos Números(NTT) é utilizada como ferramenta essencial para acelerar operações. Entretanto, implementações puramente em software dessa operação em CPUs de propósito geral sofrem com alta latência, limitando sua aplicação em ambiente de computação de alto-desempenho e em dispositivos computacionalmente limitados. Este trabalho apresenta o projeto, implementação e análise de um sistema hardware-software para a aceleração da NTT em FPGA. A arquitetura proposta divide-se entre uma aplicação em C, executada na CPU, e uma unidade de processamento NTT dedicada em hardware (FPGA). A comunicação entre os domínios é estabelecida via barramento PCI Express (PCIe), utilizando Acesso Direto à Memória (DMA) para a transferência de dados dos polinômios e E/S Programada (PIO) para o envio de comandos de controle (início/fim) do processamento dos dados. A comparação dos resultados experimentais com diferentes implementações em software valida a arquitetura como uma solução viável e de alto desempenho. Desta forma, o trabalho contribui para a viabilização de sistemas criptográficos seguros e eficientes para a era pós-quântica.
Palestrante: Ronald Silva -
26
Modular Educational Robotics with BitDogLab: From Introductory Mobile Robots to Advanced Rover Concepts
This paper presents a modular educational robotics platform based on the BitDogLab microcontroller and additive manufacturing (3D printing). The platform comprises a family of eight mobile robots organized in a progressive learning path from basic to advanced topics. We describe the modular design philosophy, hardware and software building blocks, representative robots (line follower, self-balancing, skid-steer remote, 4WD with independent steering, color follower, ESP-cam obstacle avoidance, rocker–bogie 6WD, and a terramechanics-oriented rover with grousers and force sensors), and a set of CoppeliaSim tutorials to support hands-on learning. The approach fosters active learning, reusability of parts, and a smooth transition from classroom exercises to engineering and research-level projects.
Palestrante: Vinicius Ares (FEEC UNICAMP)
-
23
-
Keynote: Cristiano Rodrigues Sala da Congregação
Sala da Congregação
FEEC / UNICAMP
Av. Albert Einstein, Nº 400 -
16:00
Coffee Break Hall de entrada FEEC
Hall de entrada FEEC
-
Sessão de pôsteres: mostra interativa Hall de entrada FEEC
Hall de entrada FEEC
-
27
Implementação de protocolos de autenticação pós-quânticos para VANTs em 6G
A próxima geração de redes móveis (6G) exigirá comunicações com latência extremamente baixa e alta taxa de transferência, especialmente em cenários críticos como a comunicação entre Veículos Aéreos Não Tripulados (VANTs). Contudo, a iminente computação quântica torna obsoletas as criptografias assimétricas atuais, forçando a transição para a Criptografia Pós-Quântica (PQC). O principal desafio reside no fato de que os algoritmos PQC atuais são, em geral, computacionalmente pesados, podendo introduzir latência significativa e, consequentemente, prejudicar a comunicação em tempo real essencial para as operações de VANTs em redes 6G. Dessa forma, esta pesquisa foca na avaliação de novos protocolos de autenticação pós-quânticos otimizados que sejam eficientes o suficiente para serem aplicados na comunicação entre VANTs, dentro do ambiente 6G. O objetivo é garantir a segurança criptográfica contra ataques quânticos, mantendo a baixa latência e a autenticidade para a comunicação segura e em tempo real.
Palestrante: Laura Naves (FEEC) -
28
From Distributions to Programs: A Benchmark for Algorithmic Inference
We introduce the Algorithmic Inference Benchmark (AIB), a framework designed to distinguish whether learning systems capture the generative mechanisms underlying data or merely fit statistical regularities. AIB constructs synthetic datasets using known rules, allowing independent control over algorithmic and statistical difficulty. By manipulating the generative rule and sampling process, AIB enables controlled experiments that reveal whether models rely on algorithmic abduction or statistical prediction. This conceptual work outlines the design principles of AIB and motivates its use for developing learning systems with stronger algorithmic priors.
Palestrante: Eduardo Sakabe (UNICAMP) -
29
Detecção de Potenciais Visualmente Evocados em Janelas Curtas: Análise Comparativa de Algoritmos Durante o Transitório de Evocação
As Interfaces Cérebro-Computador (BCI, do inglês Brain-Computer Interface) baseadas em Potenciais Evocados Visualmente em Regime Estacionário (SSVEP, do inglês Steady-State Visual Evoked Potential) exigem classificação rápida e precisa. Este trabalho compara dois métodos de classificação que se destacam na literatura: a Análise de Correlação Canônica Supervisionada (sCCA, do inglês Supervised Canonical Correlation Analysis), que otimiza a correlação com modelos sintéticos, e a Análise de Componentes Relacionados à Tarefa (TRCA, do inglês Task-related component analysis), uma abordagem data-driven que maximiza a relação Sinal-Ruído por meio da consistência estatística do sinal do usuário, isto é, preservando padrões que são periódicos no tempo, como é o caso do estímulo SSVEP.
A hipótese proposta é de que o TRCA possui uma capacidade superior em capturar o regime transitório da resposta SSVEP, enquanto o sCCA é otimizado para o regime de estado estacionário. Para investigar esta premissa, foi realizada uma comparação direta em um dataset público, analisando a acurácia em função da duração da janela de dados e da latência de evocação.
O TRCA demonstrou acurácia superior em resultados preliminares nas configurações de latência menores, enquanto o sCCA apresentou melhor desempenho no maior valor de latência considerado na análise. Os resultados sugerem que de fato o TRCA trata melhor o transitório do potencial evocado, o que pode explicar o seu desempenho superior em janelas de duração mais curta.
Palestrante: Caio Henrique do Amaral -
30
Estudo sobre aplicação de protocolos de criptografia híbridos (pré e pós-quânticos) em ambientes restritos
Com o avanço no desenvolvimento de computadores quânticos, surge uma grande preocupação a respeito de algoritmos quânticos que potencialmente quebrarão os esquemas criptográficos atuais.
Em virtude disso, foram urgentemente desenvolvidos algoritmos criptográficos para serem teoricamente seguros contra ataques utilizando computadores quânticos.
Contudo, esses algoritmos demandam maiores recursos computacionais e de memória, em consequência, são mais difíceis de implementar em ambientes restritos como dispositivos do tipo IoT (Internet of Things).
Esta pesquisa possui como objetivo ultrapassar as barreiras impostas pelo custo computacional e de armazenamento desses algoritmos e implementá-los em dispositivos com memória limitada.Palestrante: Fernando Penido -
31
Análise de desempenho e otimização de protocolos de comunicação no mecanismo de consenso CPoS
A tecnologia blockchain tem potencial para descentralizar a confiança digital, mas sua adoção em massa enfrenta desafios de infraestrutura. As soluções atuais frequentemente exigem um compromisso entre segurança, descentralização e eficiência energética. O mecanismo de consenso Committeeless Proof-of-Stake (CPoS) propõe uma alternativa sustentável baseada em sorteios probabilísticos locais. Este trabalho busca avaliar o CPoS em um ambiente distribuído realista, simulando as condições adversas da internet. Sabe-se que, embora seguro, o protocolo sofre com congestionamento de rede devido à redundância na propagação de dados. Como solução, propomos a adoção de uma estratégia de comunicação em duas etapas, de maneira a possibilitar uma redução no volume de tráfego gerado pelo mecanismo.
Palestrante: Inácio Defilippi -
32
Geração de Gestos e Áudio Guiada por Texto para Robôs Antropomórficos Socialmente Interativos
A geração de gestos co-verbais expressivos é fundamental para a Interação Humano-Robô (IHR), mas garantir a sua correspondência semântica e emocional com a fala em tempo real permanece um desafio complexo. Este trabalho apresenta um sistema modular que gera, a partir de um único texto, tanto fala expressiva como gestos humanos e coerentes. A nossa abordagem processa o texto em dois caminhos paralelos para gerar simultaneamente: (1) fala com a entoação emocional apropriada, via análise de sentimento; e (2) movimento 3D de corpo inteiro alinhado ao conteúdo, através de um modelo de IA avançado (Transformer-based diffusion). Estes movimentos são depois adaptados à morfologia do robô por um algoritmo de redirecionamento de movimento (motion retargeting). A validação do sistema, realizada através de um estudo de perceção com participantes e de métricas objetivas, confirma que os gestos gerados são percebidos como significativamente mais apropriados para a fala, validando a coerência semântica e a qualidade da transferência de movimento.
Palestrante: Kevin Adier Inofuente Colque (Faculdade de Engenharia Eléctrica e de Computação, UNICAMP)
-
27
-