Infrastructure infonuagique de production pour le traitement du signal, la classification par réseaux de neurones, les agents IA et les systèmes manufacturiers — conçue pour fonctionner sans supervision et passer à l'échelle au besoin.
L'approche
Les applications mobiles et de bureau gèrent l'expérience utilisateur. Le cloud s'occupe de tout le reste — pipelines de traitement du signal en R, classification par réseaux de neurones en Python/TensorFlow, agrégation de données, analyses statistiques et orchestration d'agents IA.
Cette séparation garde les apps rapides et réactives pendant que les calculs intensifs tournent sur une infrastructure correctement dimensionnée. GCP Compute Engine pour les charges persistantes, conteneurs Docker sur Cloud Run pour les agents IA sans état qui redescendent à zéro au repos.
La même approche passe d'une simple VM Debian faisant tourner un ERP manufacturier à une architecture multi-conteneurs traitant les données de capteurs portés par des centaines de participants.
La pile technologique
Infrastructure de production derrière les applications mobiles, les tableaux de bord web et les planchers de production.
VMs sous Debian pour backends de production, bases de données et tâches de traitement de longue durée. Dimensionnées pour la charge réelle, pas pour le battage médiatique.
Microservices et agents IA conteneurisés. Cloud Run redescend à zéro au repos — vous ne payez que ce que vous utilisez. Idéal pour les chatbots LLM et les flux événementiels.
Données d'accéléromètre, gyroscope et magnétomètre traitées côté serveur. Analyse de la marche, détection de tremblements et extraction de caractéristiques biomécaniques à grande échelle.
Classification de séries temporelles, détection d'émotions vocales, modélisation prédictive. Recherche doctorale transformée en code de production, tournant sur infrastructure cloud avec réentraînement automatisé.
Base de données temps réel Firestore, Firebase Auth, Cloud Storage et Admin SDK. Le lien entre les apps Flutter et le calcul cloud — avec pipelines d'extraction Python vers CSV.
CakePHP et MySQL sur Debian Compute Engine. Flux de travail manufacturier multi-stations avec interfaces tablettes Android à chaque poste.
Études de cas
Des systèmes réels traitant des charges réelles — certains depuis des années.
Système complet de gestion des commandes et de l'inventaire pour un fabricant de planchers de bois franc. Debian Compute Engine faisant tourner CakePHP/MySQL, avec des tablettes Android à six postes : entrée de commandes, matériaux, emballage, ligne de production, contrôle qualité et expédition. Suivi de l'inventaire en temps réel sur tout le plancher de production.
VM Debian • CakePHP/MySQL • 6 postes Android • Toujours en production
GCP Compute Engine faisant tourner le traitement du signal en R et la classification Python/TensorFlow pour les données de capteurs portés. Flux d'accéléromètre et de gyroscope des appareils Heel2Toe traités côté serveur pour l'analyse de la marche, avec résultats retournés à l'application Flutter.
GCP Compute Engine • R • TensorFlow • Intégration Firebase • Publié dans PLOS ONE
Backend cloud pour la détection d'émotions vocales dans le suivi de la récupération en dépendance. Enregistrements vocaux capturés sur mobile, téléversés dans le cloud, traités par des classifieurs neuronaux Python, avec scores d'état émotionnel retournés aux tableaux de bord cliniques en temps réel.
Python/TensorFlow • Détection d'émotions vocales • 623 clients • 7+ ans en production
Déploiement conteneurisé pour l'auto-évaluation cognitive VIH à McGill. Serveur backend Python, frontend React et reverse proxy Traefik contrôlant l'accès par URL. Suite de tests cognitifs livrée via une application web conteneurisée.
Docker • Backend Python • Frontend React • Traefik • McGill
Plateforme d'évaluation cognitive de nouvelle génération pour McGill. Frontend Flutter Web avec backend Firestore — léger, temps réel et évolutif sans la surcharge de conteneurs du déploiement BCAM original.
Flutter Web • Firestore • McGill
Agents IA conteneurisés déployés sur Cloud Run pour des sites clients. Chatbots LLM entraînés sur les données d'entreprise, tournant dans des conteneurs Docker qui redescendent à zéro au repos — infrastructure rentable pour une IA toujours disponible.
Docker • Cloud Run • Redescente à zéro • Intégration LLM
D'une simple VM à une architecture multi-conteneurs — parlons de ce que vous avez besoin de faire tourner.
ted@appliedrd.com