Área de concentração: 55134 - Ciências de Computação e Matemática Computacional

Criação: 18/10/2024

Nº de créditos: 12

Carga horária:

Teórica
Por semana
Prática
Por semana
Estudos
Por semana
Duração Total
2 6 4 15 Semanas 180 Horas

Docentes responsáveis:

Danilo Hernane Spatti
Vanderlei Bonato


Objetivos:

Capacitar o estudante sobre o processo de migração de modelos de aprendizado de máquina para sistemas computacionais embarcados, visando entender principalmente a cadeia de ferramentas de software e hardware, as técnicas de otimização de redes neurais profundas e as arquiteturas customizadas especialmente por aceleradores de hardware especializados.


Justificativa:

A execução de algoritmos de inteligência artificial em sistemas embarcados tem sido explorada como uma forma de melhorar a eficiência, confiabilidade e autonomia destes dispositivos. Ao aproximar a fonte de dados do seu elemento processador, o consumo de energia, o tempo de resposta e a proteção dos dados tendem a melhorar.
Sistemas embarcados são sistemas computacionais especializados para resolverem problemas específicos com poder computacional e formas de implementação que variam amplamente. Entender como essas variações afetam o mapeamento de modelos de inteligência artificial é fundamental para preparar os alunos para os desafios do mercado de trabalho atual.


Conteúdo:

Introdução de sistemas embarcados e aprendizado profundo e as oportunidades e desafios. Fundamentos de aprendizado profundo: o básico de redes neurais, funções de ativação e algoritmos de otimização para treinamento. RNN (Recurrent Neural Network), CNN (Convolution Neural Network) e Transformers: introdução, arquitetura, treinamento e otimização. Arquitetura de sistemas embarcados: microcontroladores, microprocessadores, GPU (Graphics Processing Unit) embarcada, aceleradores de hardware customizado do tipo NPU (Neural Processing Unit), TPU (Tensor Processing Unit) e DPU (Deep Learning Processor Unit). Ferramentas e frameworks: TensorFlow Lite, PyTorch Mobile, ONNX, Vitis AI, Xilinx Vivado e Brevitas. Projeto e treinamento de modelos de DNN (Deep Neural Network). Aquisição via sensores, pré-processamento, codificação e decodificação de dados. Benchmarks e métricas de avaliação. Implantação de modelos DNNs em plataformas de microcontroladores, smartphones e FPGAs: conversão de modelos, TensorFlow Lite Micro, DPUs.


Forma de avaliação:

Média ponderada das notas de provas, seminários, relatórios técnicos e trabalhos práticos entregues durante o curso. Conceito: A>=8,5; B>=7,0; C>=5,0; D<5.


Observação:

Nenhuma.


Bibliografia:

Fundamentais:

ZHANG, ASTON; LIPTON, ZACHARY C.; LI, MU; AND SMOLA, ALEXANDER J.. Dive Into Deep Learning. Cambridge University Press, 1st Edition, 2023, 574pg (online available).

Complementares:

RUSSELL, STUART AND NORVIG, PETER. Artificial Intelligence: A Modern Approach; Prentice-Hall, 4th Edition, 2021, 1170pg.

MOONS, BERT; BANKMANAND, DANIEL; AND VERHELST MARIAN. Embedded Deep Learning: Algorithms, Architectures and Circuits for Always-on Neural Network Processing, Springer, 1st Edition, 2019, 224pg.

LIN, HSIAO-YING, Embedded Artificial Intelligence: Intelligence on Devices. Computer, vol. 56, no. 09, pp. 90-93, 2023.

Machine Learning Systems with TinyML
https://harvard-edge.github.io/cs249r_book/contents/about.html, Acessado em 05/2024.

KILTS, STEVE. Advanced FPGA Design: Architecture, Implementation, and Optimizations, Wiley-IEEE Press. 1st Edition, 2007, 336pg.

CONECTE-SE COM A GENTE
 

© 2025 Instituto de Ciências Matemáticas e de Computação