PORTALCTMC
Educação|00:00

Avanços no Treinamento de IA com Privacidade em Dispositivos do Dia a Dia

Pesquisa do MIT revoluciona o aprendizado federado com eficiência e segurança

Avanços no Treinamento de IA com Privacidade em Dispositivos do Dia a Dia

Introdução ao Aprendizado Federado

A tecnologia evolui rapidamente, e com ela, a necessidade de métodos de inteligência artificial (IA) que garantam a privacidade dos usuários também aumenta. A recente pesquisa do MIT trouxe inovações empolgantes no campo do aprendizado federado, uma técnica que promete acelerar o treinamento de modelos de IA até 81%, tornando-os viáveis em dispositivos do dia a dia, como sensores e relógios inteligentes, enquanto mantém os dados dos usuários seguros.

Desenvolvimento da Técnica

Um grupo de pesquisadores, incluindo Irene Tenison, Lalana Kagal e Anna Murphy, do Decentralized Information Group (DIG), conseguiu superar as limitações comuns encontradas em dispositivos heterogêneos. Em um sistema de aprendizado federado, um modelo de IA é enviado de um servidor central para vários dispositivos, que o treinam usando dados locais e devolvem atualizações. No entanto, não são todos os dispositivos que têm capacidade suficiente para armazenar e processar esses modelos.

A solução encontrada pelos pesquisadores é o FTTE (Federated Tiny Training Engine), um framework que reduz a sobrecarga de memória e comunicação necessária para cada dispositivo móvel. Ao invés de enviar o modelo completo, o FTTE transmite um subconjunto menor de parâmetros do modelo, diminuindo assim as exigências de memória.

Melhorias no Processo de Treinamento

Além de otimizar o uso da memória, o FTTE adota um método assíncrono para atualização do modelo. O servidor agora coleta atualizações até atingir uma capacidade fixa, prosseguindo com o treinamento sem esperar por todos os dispositivos. Essa abordagem elimina o tempo de espera que pode prejudicar o treinamento.

O método também pondera as contribuições baseadas na idade dos dados recebidos; assim, informações mais antigas têm menos peso na atualização do modelo. “Queremos que dispositivos menos potentes possam participar do processo, mas não à custa do desperdício de recursos de dispositivos mais rápidos”, explica Tenison.

Resultados e Futuro

Os testes realizados demonstraram que o FTTE não apenas acelera o processo de treinamento em 81%, mas também reduz a sobrecarga de memória em 80% e o peso das comunicações em 69%, mantendo uma precisão comparável aos métodos tradicionais. “Embora a taxa de precisão possa diminuir ligeiramente, essa perda é aceitável em aplicações onde a velocidade é criticamente importante”, observa Tenison.

Os pesquisadores visam explorar futuras possibilidades de personalização e aplicabilidade da técnica, especialmente em países em desenvolvimento, onde dispositivos mais antigos são frequentemente a norma. A pesquisa proposta será apresentada na IEEE International Joint Conference on Neural Networks, destacando um passo significativo na democratização do aprendizado de máquina em dispositivos cotidianos.

Conclusão

Com o FTTE, o futuro do aprendizado de IA em dispositivos compactos e com restrições é promissor. Os avanços em segurança, precisão e eficiência não apenas ampliam o uso da IA em áreas críticas como saúde e finanças, mas também abrem portas para uma realidade em que a inteligência artificial é acessível e prática para todos.

Escrito por Equipe Portal CTMC