- Un parcours de formation gratuit et open source permettant d’apprendre pas à pas les techniques pour exécuter directement des modèles d’IA sur des appareils en périphérie
- L’objectif est de faire tourner les modèles d’IA directement sur l’appareil plutôt que dans le cloud, afin de réduire la latence, protéger la vie privée, diminuer les coûts et limiter la dépendance au réseau
- Les apprenants peuvent réaliser des projets concrets comme le déploiement de SLM, la création de systèmes multi-agents, la mise en œuvre de pipelines RAG locaux et le routage de modèles, tout en acquérant des compétences de déploiement sur Windows, mobile, embarqué et environnements hybrides
- Explication orientée pratique des méthodes d’amélioration des performances (jusqu’à 85 % de gain de vitesse et 75 % de réduction de la taille des modèles) à l’aide d’outils majeurs d’optimisation comme Llama.cpp, Microsoft Olive, OpenVINO et Apple MLX
- Programme (durée totale estimée : 36–45 heures)
- 0. Présentation d’EdgeAI et des objectifs d’apprentissage (initiation : 1–2 heures)
- 1. Concepts fondamentaux et cas d’usage de l’IA en périphérie (débutant : 3–4 heures)
- 2. Structure et familles de modèles SLM (débutant : 4–5 heures)
- 3. Mise en pratique du déploiement local et cloud (intermédiaire : 4–5 heures)
- 4. Boîte à outils d’optimisation de modèles (Llama.cpp, etc.) (intermédiaire : 5–6 heures)
- 5. SLMOps et fine-tuning (avancé : 5–6 heures)
- 6. Agents IA et Function Calling (avancé : 4–5 heures)
- 7. Implémentation cross-platform (avancé : 3–4 heures)
- 8. Projet d’exemple Foundry Local (expert : 8–10 heures)
Aucun commentaire pour le moment.