Área de concentração: 55134 - Ciências de Computação e Matemática Computacional
Criação: 18/10/2024
Nº de créditos: 12
Carga horária:
Teórica Por semana |
Prática Por semana |
Estudos Por semana |
Duração | Total |
2 | 6 | 4 | 15 Semanas | 180 Horas |
Docentes responsáveis:
Danilo Hernane Spatti
Vanderlei Bonato
Objetivos:
Capacitar o estudante sobre o processo de migração de modelos de aprendizado de máquina para sistemas computacionais embarcados, visando entender principalmente a cadeia de ferramentas de software e hardware, as técnicas de otimização de redes neurais profundas e as arquiteturas customizadas especialmente por aceleradores de hardware especializados.
Justificativa:
A execução de algoritmos de inteligência artificial em sistemas embarcados tem sido explorada como uma forma de melhorar a eficiência, confiabilidade e autonomia destes dispositivos. Ao aproximar a fonte de dados do seu elemento processador, o consumo de energia, o tempo de resposta e a proteção dos dados tendem a melhorar.
Sistemas embarcados são sistemas computacionais especializados para resolverem problemas específicos com poder computacional e formas de implementação que variam amplamente. Entender como essas variações afetam o mapeamento de modelos de inteligência artificial é fundamental para preparar os alunos para os desafios do mercado de trabalho atual.
Conteúdo:
Introdução de sistemas embarcados e aprendizado profundo e as oportunidades e desafios. Fundamentos de aprendizado profundo: o básico de redes neurais, funções de ativação e algoritmos de otimização para treinamento. RNN (Recurrent Neural Network), CNN (Convolution Neural Network) e Transformers: introdução, arquitetura, treinamento e otimização. Arquitetura de sistemas embarcados: microcontroladores, microprocessadores, GPU (Graphics Processing Unit) embarcada, aceleradores de hardware customizado do tipo NPU (Neural Processing Unit), TPU (Tensor Processing Unit) e DPU (Deep Learning Processor Unit). Ferramentas e frameworks: TensorFlow Lite, PyTorch Mobile, ONNX, Vitis AI, Xilinx Vivado e Brevitas. Projeto e treinamento de modelos de DNN (Deep Neural Network). Aquisição via sensores, pré-processamento, codificação e decodificação de dados. Benchmarks e métricas de avaliação. Implantação de modelos DNNs em plataformas de microcontroladores, smartphones e FPGAs: conversão de modelos, TensorFlow Lite Micro, DPUs.
Forma de avaliação:
Média ponderada das notas de provas, seminários, relatórios técnicos e trabalhos práticos entregues durante o curso. Conceito: A>=8,5; B>=7,0; C>=5,0; D<5.
Observação:
Nenhuma.
Bibliografia:
Fundamentais:
ZHANG, ASTON; LIPTON, ZACHARY C.; LI, MU; AND SMOLA, ALEXANDER J.. Dive Into Deep Learning. Cambridge University Press, 1st Edition, 2023, 574pg (online available).
Complementares:
RUSSELL, STUART AND NORVIG, PETER. Artificial Intelligence: A Modern Approach; Prentice-Hall, 4th Edition, 2021, 1170pg.
MOONS, BERT; BANKMANAND, DANIEL; AND VERHELST MARIAN. Embedded Deep Learning: Algorithms, Architectures and Circuits for Always-on Neural Network Processing, Springer, 1st Edition, 2019, 224pg.
LIN, HSIAO-YING, Embedded Artificial Intelligence: Intelligence on Devices. Computer, vol. 56, no. 09, pp. 90-93, 2023.
Machine Learning Systems with TinyML
https://harvard-edge.github.io/cs249r_book/contents/about.html, Acessado em 05/2024.
KILTS, STEVE. Advanced FPGA Design: Architecture, Implementation, and Optimizations, Wiley-IEEE Press. 1st Edition, 2007, 336pg.
© 2025 Instituto de Ciências Matemáticas e de Computação