Byte

Notícias

LarLar / Notícias / Byte

Sep 26, 2023

Byte

Enquanto os algoritmos de inteligência artificial (IA) executados em computadores maiores e mais poderosos

Embora os algoritmos de inteligência artificial (IA) executados em hardware maior e mais poderoso muitas vezes roubem os holofotes, a importância da IA ​​de ponta não deve ser subestimada. Edge AI refere-se à implantação de algoritmos de IA em dispositivos locais, como smartphones, câmeras, sensores e outros dispositivos da Internet das Coisas, em vez de depender apenas de soluções baseadas em nuvem. Essa abordagem descentralizada oferece inúmeros benefícios e desbloqueia uma ampla gama de aplicações possíveis.

Uma das principais vantagens da IA ​​de ponta é a latência reduzida. Ao processar dados localmente no próprio dispositivo, o edge AI elimina a necessidade de viagens de ida e volta à nuvem, resultando em tempos de resposta mais rápidos. Essa capacidade em tempo real é crucial em cenários em que a tomada de decisão imediata é vital, como veículos autônomos, automação industrial e monitoramento de infraestrutura crítica. Além disso, o edge AI aumenta a privacidade e a segurança, pois os dados confidenciais permanecem no dispositivo local, reduzindo o risco de violação de dados e garantindo a confidencialidade do usuário.

Apesar das inúmeras vantagens, a execução de algoritmos com uso intensivo de recursos, como detecção de objetos complexos ou modelos de aprendizado profundo, em dispositivos de ponta apresenta um desafio significativo. Os dispositivos de computação de borda geralmente têm recursos de poder computacional, memória e energia limitados em comparação com o hardware baseado em nuvem. Encontrar um equilíbrio entre a precisão do algoritmo e as restrições do dispositivo torna-se crucial para garantir uma operação eficiente. Otimizações como compressão de modelo, quantização e técnicas de inferência eficientes são necessárias para fazer com que esses algoritmos funcionem bem em dispositivos de ponta.

Como entender e reconhecer objetos em imagens ou vídeos é uma tarefa fundamental na percepção visual, os algoritmos de detecção de objetos são de especial importância em vários setores e aplicações. Grandes avanços foram feitos na adaptação de modelos de detecção de objetos para dispositivos de borda com recursos limitados, como o algoritmo FOMO do Edge Impulse, que é executado até 30 vezes mais rápido que o MobileNet SSD, mas requer menos de 200 KB de memória para muitos casos de uso. Mas para áreas de aplicação tão importantes e diversas, há muito espaço para novos avanços.

O mais recente participante no campo é uma equipe de pesquisadores do Centro de Aprendizagem Baseada em Projetos da ETH Zurich. Eles desenvolveram uma rede de detecção de objetos altamente flexível, eficiente em termos de memória e ultraleve, que eles chamam de TinyissimoYOLO. As otimizações aplicadas a este modelo o tornam adequado para execução em microcontroladores de baixa potência.

TinyissimoYOLO é uma rede neural convolucional (CNN) baseada na arquitetura do popular algoritmo YOLO. Foi construído de camadas convolucionais quantizadas com 3 x 3 núcleos e uma camada de saída totalmente conectada. As camadas lineares convolucionais e totalmente conectadas são fortemente otimizadas nas cadeias de ferramentas de hardware e software de dispositivos modernos, o que dá ao TinyissimoYOLO um impulso em termos de velocidade e eficiência. É uma rede de detecção de objetos generalizada que pode ser aplicada a uma ampla gama de tarefas e não requer mais do que 512 KB de memória flash para armazenar os parâmetros do modelo.

O modelo pode ser implantado em praticamente qualquer hardware que atenda a seus requisitos muito modestos, incluindo plataformas com processadores Arm Cortex-M ou aceleradores de hardware AI. Uma ampla variedade de dispositivos foi testada com o TinyissimoYOLO, incluindo Analog Devices MAX78000, Greenwaves GAP9, Sony Spresense e Syntiant TinyML.

Ao avaliar seus métodos, a equipe descobriu que poderia executar a detecção de objetos em uma placa MAX78000 a impressionantes 180 quadros por segundo. E esse excelente desempenho veio com um consumo de energia ultrabaixo de apenas 196 µJ por inferência. Claro que nada disso importa se o modelo não funcionar bem. Mas, surpreendentemente, esse pequeno modelo também teve um desempenho comparável a algoritmos de detecção de objetos muito maiores.

Naturalmente, alguns cantos precisam ser cortados para realizar tal façanha, no entanto. O tamanho de entrada da imagem, por exemplo, é limitado a 88 x 88 pixels. Isso é resolução insuficiente para muitos usos. Além disso, como o problema de detecção de objetos multiclasse fica mais difícil à medida que o número de objetos aumenta, um máximo de três objetos por imagem é suportado.