Calendrier TechData Académie 2026
💻 En ligne (Zoom + plateforme) 👥 20 places max 💶 599.99 € HT
👥 Public : Débutants, analystes, chefs de projet, ingénieurs ou chercheurs.
🎯 Objectifs : Comprendre les fondements de la Data Science, maîtriser Python (Anaconda, Jupyter), manipuler des données avec Pandas, visualiser et appliquer les bases du Machine Learning.
📚 Programme : Jour 1 - Panorama Data Science, Environnement (Anaconda/Jupyter), Bases Python, Pandas et Analyse exploratoire. Jour 2 - Statistiques appliquées (corrélations), Introduction ML (régression, k-means), Mini-projet final.
💻 Prérequis : Bases en programmation (Python de préférence), goût pour les chiffres. Matériel : Ordinateur avec webcam/micro, Anaconda/Jupyter.
✅ Méthode : Alternance cours/exercices, mini-projet final. Supports : Notebooks Python, datasets et ressources complémentaires.
💻 En ligne (Zoom + supports partagés) 👥 15 places max 💶 999.99 € HT
Niveau : Initiation Intermédiaire → Avancé
🎯 Objectifs : Maîtriser Python et la POO, manipuler et visualiser des données avec NumPy, Pandas et Matplotlib, gérer des bases de données SQL, s'initier au Machine Learning et à la programmation asynchrone.
📚 Programme : Jour 1 - Fondamentaux Python (historique, syntaxe, types, structures, fonctions, POO, gestion fichiers). Jour 2 - NumPy, Pandas, Matplotlib, gestion exceptions. Jour 3 - SQL, serveurs web, TensorFlow/Keras. Jour 4 - Programmation asynchrone, projets pratiques.
💻 Matériel : Ordinateur avec webcam/micro, Python (Anaconda), Jupyter.
✅ Accompagnement : Formateur en direct + messagerie post-formation. Supports : Notebooks Python, datasets, tutoriels.
💻 En ligne 👥 DevOps, Cloud Engineers, Développeurs 💶 699.99 € HT
🎯 Objectifs : Comprendre l'architecture interne de Kubernetes, déterminer les services de la plateforme, déployer une application distribuée, comprendre et analyser une application déployée.
📚 Contenu : Jour 1 (7h) - Introduction orchestration (CNCF, cas d'usage), Architecture Kubernetes (Master, Worker, API Server, etcd, Scheduler), Installation Minikube et configuration kubectl, TP1 : Déploiement NGINX. Jour 2 (7h) - ConfigMaps et Secrets, Persistent Volumes et PVC, Horizontal Pod Autoscaling (HPA), Ingress Controllers, Supervision (kubectl logs, Prometheus, Grafana, troubleshooting), TP2 : Stack microservices (Frontend + Backend + DB), Évaluation finale (QCM + TP).
💻 Prérequis : Bases en virtualisation et réseaux, Docker, systèmes Linux, architectures distribuées.
🛠️ Outils : Kubernetes, Minikube, kubectl, Play with Kubernetes, Lens/K9s, Prometheus, Grafana.
✅ Évaluation : QCM final (30%) + TP complet (50%) + Participation (20%). Ressources : Support PDF, Manifests YAML, Cheat sheet kubectl et Documentation.
💻 En ligne 👥 Data Engineers, Data Scientists avancés 💶 699.99 € HT
🎯 Objectifs : Expliquer les principes de la programmation distribuée, prendre en main Apache Spark (PySpark), implémenter le traitement distribué des données, optimiser les performances des pipelines distribués.
📚 Contenu : Jour 1 (7h) - Introduction traitement distribué (MapReduce, Hadoop, Spark), Architecture Spark (Driver, Executors, RDD, DAG), Installation et prise en main PySpark (Google Colab), TP1 : Traitement distribué sur dataset réel. Jour 2 (7h) - Spark SQL et Spark Streaming, Optimisation (partitionnement, cache, broadcast), Mini-projet : Pipeline ETL complet end-to-end, Introduction Apache Airflow (orchestration), Évaluation finale (QCM + Projet).
💻 Prérequis : Python (Pandas, NumPy), SQL, bases du data processing.
🛠️ Outils : Python, Apache Spark (PySpark), Dask, Google Colab, Apache Airflow.
✅ Évaluation : QCM (20%) + Mini-projet pipeline (60%) + Participation (20%). Ressources : Support PDF complet, Jupyter Notebooks, Cheat sheet PySpark, Datasets, Code GitHub.
💻 En ligne 👥 12-15 places max 💶 1199.99 € HT
Description : Apprentissage automatique : algorithmes supervisés et non supervisés, évaluation de modèles, cas pratiques.
💻 En ligne 👥 12 places max 💶 990 € HT
Description : Concevoir un pipeline complet RAG (Retrieval Augmented Generation) avec LLM et PostgreSQL.
🎯 Objectifs : Comprendre et concevoir une architecture RAG complète, implémenter un pipeline NLP et LLM exploitable, utiliser PostgreSQL comme base centrale, stocker et interroger des embeddings via pgvector, construire un assistant IA basé sur des données métier.
📚 Programme : Jour 1 – Fondations RAG, NLP & LLM : Rappels NLP (tokenisation, embeddings, similarité), Fonctionnement des LLM, Limites des LLM sans données internes, Introduction au RAG et architecture, Vectorisation documents et recherche sémantique. Jour 2 – Base de données & intégration PostgreSQL : Rôle des BDD dans l'IA, Modélisation données pour RAG, PostgreSQL (tables, index, performances), Introduction pgvector, Stockage embeddings et métadonnées, Requêtes similarité vectorielle, Pipeline complet BDD → recherche → LLM → réponse.
💻 Atelier : Création mini assistant RAG, Ingestion documents en PostgreSQL, Recherche sémantique avec embeddings, Génération réponses contextualisées via LLM.
🛠️ Technologies : Python, PostgreSQL + pgvector, LLM, Frameworks RAG.
👥 Public : Data Analysts, Data Scientists, Développeurs Python, Ingénieurs Data.
💻 Prérequis : Notions de base en Python, Connaissances SQL (SELECT, JOIN), Aucune expertise avancée en IA requise.
💻 En ligne 👥 15 places max 💶 599.99 € HT
Description : Statistiques descriptives et inférentielles, tests d'hypothèses, régression, applications en Data Science.
💻 En ligne 👥 18 places max 💶 599.99 € HT
Description : Techniques de visualisation de données, création de dashboards interactifs, storytelling avec les données.
Profitez de l'été pour pratiquer et consolider vos acquis !
💻 En ligne 👥 10 places max 💶 1399.99 € HT
Description : Réseaux de neurones, architectures CNN et RNN, frameworks (TensorFlow, PyTorch), applications pratiques.
💻 En ligne 👥 8 places max 💶 1599.99 € HT
Description : Projet complet de A à Z : collecte de données, nettoyage, modélisation, déploiement et présentation.