Teachable Machine : Le no-code ML de Google, vu par un CTO
Un guide pragmatique pour décider quand sortir l'artillerie lourde data science… et quand un outil gratuit, sans compte, ouvert dans le navigateur fait le job en quinze minutes.
2017. Google Creative Lab met en ligne un petit site expérimental où l'on entraîne un modèle de machine learning en montrant des images à sa webcam.
Huit ans plus tard, Teachable Machine est toujours là, toujours gratuit, et toujours largement sous-estimé par les équipes tech. Pour un CTO qui cherche à démystifier l'IA en interne, filtrer ses idées de PoC, ou simplement valider qu'un problème de classification est tractable, c'est une pépite discrète — à condition de savoir où s'arrêtent ses promesses.
C'est quoi, Teachable Machine ?
Une application web (teachablemachine.withgoogle.com) qui transforme n'importe quel navigateur en atelier ML. Pas d'installation, pas de carte bancaire. Trois ingrédients, trois étapes : définir des classes, fournir des exemples, cliquer sur Train.
Transfer learning natif
Sous le capot, MobileNet (vision) et modèles pré-entraînés pour l'audio et les poses. Vous n'entraînez que la dernière couche.
100% navigateur, client-side
Tout tourne via TensorFlow.js. Vos données ne quittent jamais la machine. Argument de sécurité et RGPD majeur.
Trois exports
TensorFlow.js (web), TFLite (mobile/edge) et Keras .h5 (Python). Pas un format propriétaire verrouillé.
L'angle 2026 en une phrase. À l'heure où toute idée IA devient réflexivement "on va appeler un LLM", Teachable Machine rappelle qu'un petit modèle discriminatif répond souvent mieux, plus vite et cent fois moins cher qu'un appel GPT-class.
Ne pas confondre de niveau. Ce n'est pas un concurrent de Vertex AI ou SageMaker. C'est un outil de découverte et de pédagogie — pensé pour faire toucher du doigt le ML à des non-techniciens.
Pourquoi ça existe
Le projet est né chez Google Creative Lab avec une ambition pédagogique assumée : démystifier le ML pour ceux qui ne feront jamais un pip install tensorflow. Il s'inscrit dans une lignée initiée par le MIT Media Lab, et a été adopté par Blakeley Payne (curriculum AI Ethics au MIT) pour enseigner le ML à des collégiens — y compris à des publics qui s'auto-censurent face au code.
L'angle implicite, beaucoup plus intéressant pour un CTO : quand on entraîne un modèle à la main en quelques minutes, on comprend concrètement pourquoi les données d'entraînement comptent, pourquoi les biais apparaissent, et pourquoi la précision "parfaite" en démo casse souvent en conditions réelles. C'est une leçon que personne ne retient vraiment en lisant un article Medium.
À quoi ça sert concrètement ?
Les cas d'usage les plus documentés dans la communauté :
Accessibilité
Prototyper des systèmes de communication ou de contrôle d'équipements pilotés par webcam ou posture pour les personnes en situation de handicap.
Éducation & littéracie IA
Introduire le ML à une équipe produit ou marketing en deux heures. Désamorcer les fantasmes via une démonstration des biais en direct.
Prototypage UX & PoC
Simuler une feature intelligente (détection de masque, gestes) avant d'engager un sprint. Tester des interactions contextuelles sans mobiliser la data science.
Maker & physical computing
Coupler un modèle avec un Arduino ou Raspberry Pi pour du contrôle qualité visuel sur ligne de production à faible volume.
"Garbage in, garbage out" s'applique avec une brutalité particulière quand l'interface donne l'illusion que "ça marche tout seul".
Les trois étapes, chrono en main
Trois ingrédients, trois étapes — et un timing qui force le respect.
Collecter — 5 minutes
Webcam ou upload. Règle d'or : 30 à 50 exemples minimum par classe, avec de la variété (angles, luminosité, distances).
C'est ici que se joue 90 % de la qualité du modèle final.
Entraîner — < 30 secondes
Un clic. L'entraînement tourne localement via TensorFlow.js, directement dans l'onglet du navigateur.
Pas de file d'attente, pas de facturation, pas de GPU à provisionner.
Tester & exporter — 2 minutes
Test en direct avec scores de confiance visibles en temps réel. Puis export en TF.js, TFLite ou Keras.
Pédagogiquement imbattable — les biais sautent aux yeux.
Des outils comme Flow-Like (no-code workflow) consomment directement l'export TFLite, ce qui permet de passer du prototype à l'automatisation en moins de dix minutes sans écrire une ligne de TensorFlow.
Gratuit ? Vraiment ?
Oui, totalement. Pas de quota, pas de palier premium caché. Google assume Teachable Machine comme une ressource éducative publique. Aucun compte n'est nécessaire pour entraîner, tester et exporter un modèle — l'expérience est anonyme de bout en bout.
Nuance à connaître : si vous voulez sauvegarder un projet pour le reprendre plus tard ou le partager à un collègue, un compte Google (Drive) devient nécessaire. Rien de bloquant, mais à anticiper si vos règles internes encadrent l'usage des comptes Google personnels sur les postes pro.
Les coûts n'apparaissent qu'en aval
- • Sauvegarde des projets sur Google Drive (stockage Drive standard)
- • Hébergement du modèle exporté sur un cloud (AWS, GCP, Firebase)
- • Bascule vers des outils de production (Vertex AI, SageMaker, Hugging Face)
C'est exactement ce modèle "gratuit en amont, payant en aval" qui fait de Teachable Machine un excellent cheval de Troie pour une stratégie ML pragmatique.
Benchmark : Teachable Machine vs l'artillerie lourde
| Critère | Teachable Machine | Lobe (MS) | Vertex AI AutoML | Roboflow |
|---|---|---|---|---|
| Prix | Gratuit | Gratuit (desktop) | Facturation GCP | Freemium |
| Environnement | Navigateur | App desktop | Cloud managé | Cloud / API |
| Confidentialité | 100% local | 100% local | Cloud (upload) | Cloud (upload) |
| Complexité modèle | Limitée (client) | Moyenne | Illimitée | Élevée (CV) |
| Export | TF.js, TFLite, Keras | TF, Core ML, ONNX | SavedModel, TFLite | Multi-formats |
| Usage cible | Proto / Édu | Proto desktop | Production | Production CV |
Tant que votre problème tient dans "classifier des images, des sons ou des postures", Teachable Machine est souvent suffisant pour valider l'idée — avec l'avantage décisif de ne jamais sortir vos données de la machine. Au-delà (détection d'objets, NLP, forecasting), il faut monter en gamme et accepter la revue de conformité cloud qui va avec.
Et l'API ? (celle qui n'en est pas vraiment une)
C'est la question que se pose tout développeur qui découvre l'outil. La réponse demande un léger recalibrage mental : Teachable Machine ne fournit pas d'API REST. Il n'y a pas de endpoint POST /classify hébergé par Google. À la place, trois chemins d'intégration, tous basés sur le principe "le modèle s'exécute chez vous, pas chez Google".
Export TensorFlow.js → URL gratuite teachablemachine.withgoogle.com/models/XXX/. Inférence dans le navigateur du visiteur via @teachablemachine/image.
Zéro serveur, mais dépendance à l'URL Google — si votre RSSI tique, passez au chemin 3.
Package communautaire @sashido/teachablemachine-node. Vous exposez votre propre API REST maison — contrôlée, loggée, auth-protégée.
Le pattern le plus propre pour une intégration entreprise.
Téléchargez les trois fichiers (model.json, metadata.json, weights.bin) sur votre CDN, S3 ou serveur interne.
Choix par défaut dès qu'on parle de prod ou de client banque/santé.
Exemple minimal — chemin 1 (navigateur)
const URL = "https://teachablemachine.withgoogle.com/models/XXXXXX/";
const model = await tmImage.load(URL + "model.json", URL + "metadata.json");
const prediction = await model.predict(imageElement);
// prediction = [{ className: "OK", probability: 0.92 }, ...]
Implications côté architecture CTO
model_v1/, model_v2/ et une bascule côté app.Teachable Machine ne vous vend pas un service d'inférence, il vous donne un artefact. C'est l'inverse du modèle OpenAI/Anthropic/Vertex — et pour beaucoup de cas d'usage temps réel ou embarqué, c'est exactement ce qu'il faut.
Ce que Teachable Machine ne sait pas faire
À connaître avant de promettre des résultats à votre COMEX :
Pas de texte
Aucun support NLP. Pour classifier du texte : Vertex AI, Hugging Face ou LLM fine-tuné.
Pas de détection d'objets
Classification (une image = une catégorie), pas de localisation (X ici, Y là).
Pas de tabulaire
Exit forecast de ventes, scoring client, détection de fraude sur logs.
Pas de gouvernance
Aucun audit trail, aucun RBAC, aucune conformité SOC2/HIPAA. Hors sujet pour régulé.
Précision plafonnée
Transfer learning sur MobileNet. Suffisant pour 80 % des cas simples, edge cases fragiles.
Angle CTO : 4 bons usages, 2 pièges
✓ Les 4 bons usages
Former une équipe produit, marketing ou COMEX à comprendre le ML en deux heures. Impossible avec un notebook Python.
Avant d'engager un sprint data science, validez en 30 minutes si le signal existe. Si TM ne tire rien, un modèle custom ne fera pas mieux sans plus de data.
Une démo interactive en webcam pour convaincre un prospect, un PO ou un board est dix fois plus parlante qu'un slide de roadmap.
Couplé à TFLite + Raspberry Pi, industrialisez des cas simples (tri visuel, alertes, comptage) sans cloud ni facturation continue. Sweet spot usines, labos, pilotes terrain.
✗ Les 2 pièges à éviter
L'outil n'a pas été conçu pour porter une charge client. Si le PoC est concluant, rebasculez vers un modèle propre. Les formats d'export sont là pour ça — ne vous arrêtez pas à mi-chemin.
La facilité de l'interface masque le vrai travail ML : collecter une base représentative. Un PO qui entraîne en 10 min avec 30 photos biaisées produira un modèle biaisé — mais confiant. Risque de perception organisationnelle.
Retour d'expérience : valider une idée en une après-midi
Chez un client, une équipe produit voulait ajouter une détection automatique de documents "non conformes" (photo floue, main qui cache, document mal cadré) dans un tunnel de onboarding mobile. Débat classique : sprint data science de trois semaines, ou API tierce facturée à l'appel ?
Réponse en une après-midi avec Teachable Machine. Entraînement sur 200 photos internes classées en quatre catégories (OK, floue, main, mal cadrée). Précision sur échantillon de test : 89 %. Assez pour valider que le signal existait — insuffisant pour la production.
Bonus sécurité : les 200 photos contenaient des documents d'identité réels. Impossible à uploader sur un service tiers sans revue RGPD lourde. Avec Teachable Machine, tout est resté sur le poste de la PM : zéro formulaire de conformité, zéro transfert, zéro trace cloud.
Décision en sortie de réunion : sprint data science de trois semaines avec des données propres, objectif 96 %. Mais le "go" est venu en quatre heures, pas en quatre semaines de comité — et avec une démo vivante sous les yeux du COMEX, pas un slide.
Checklist CTO : Tester Teachable Machine
Étape 1 : Cadrer
- • 2 à 5 catégories exclusives
- • Données visuelles ou sonores
- • 100-300 exemples par classe
- • Signal plausible par un humain
Étape 2 : PoC (2h)
- • Uploader et entraîner
- • Tester sur échantillon hold-out
- • Noter les cas d'échec
- • Vérifier les scores de confiance
Étape 3 : Décider
- • > 90 % : lancer modèle propre
- • 70-90 % : données insuffisantes
- • < 70 % : mauvais cas d'usage ML
- • Mesurer le gain de temps data-science
"Une après-midi sur Teachable Machine vous fait économiser trois semaines de data science mal orientée. Utilisez-le comme filtre avant engagement."
Et demain ? ML discriminatif contre réflexe GenAI
La vraie leçon stratégique pour un CTO en 2026 est ailleurs. Dans un paysage où tout projet IA glisse par défaut vers "on appelle un LLM", se souvenir qu'il existe deux familles de ML est un avantage compétitif : le ML discriminatif (classifier, prédire) et le ML génératif.
Le discriminatif est petit, rapide, local, déterministe et facturable au centime. Beaucoup de cas d'usage qu'on confie aujourd'hui à un GPT-class (détecter un email urgent, une photo conforme, un appel tendu) relèvent en réalité de cette famille.
Un modèle de classification tournera en local, respectera le RGPD sans effort — et sera souvent plus précis qu'un prompt. Teachable Machine enseigne cette distinction en une après-midi. À l'heure où 95 % des budgets partent dans le génératif, savoir ne pas appeler un LLM quand un petit modèle suffit devient une compétence rentable.
Le mot de la fin
Aucun bootcamp, aucune certification, aucune plateforme premium ne fait mieux que Teachable Machine pour démystifier le ML classique.
« Avant de dépenser six chiffres sur un projet IA génératif, passez trente minutes sur Teachable Machine avec votre équipe produit. Vous n'en reviendrez pas plus tech — mais vous saurez enfin distinguer un vrai cas LLM d'un réflexe LLM. »