Julien Farge est kiné libéral depuis neuf ans à Montpellier. Vingt-deux patients par jour en moyenne, six jours sur sept, un bureau qui déborde de fiches bilan. En février 2026, il passait environ 1h40 chaque soir à rédiger ses comptes-rendus de séance et ses courriers aux médecins prescripteurs.
Huit semaines plus tard, ce temps est tombé à 55 minutes.
L'outil ? ChatGPT Pro, 20€ par mois. Pas un logiciel spécialisé kiné. Pas une solution sur-mesure à 200€. Un assistant conversationnel généraliste, configuré avec des prompts bien ciblés.
Ce cas n'a rien de spectaculaire. C'est justement ce qui le rend utile.
Pourquoi s'intéresser au cas d'un kiné (et pas encore d'un avocat)
Les professions juridiques sont déjà bien couvertes côté IA. Selon nos tests terrain menés entre janvier et mars 2026 sur 23 outils et 42 professionnels libéraux, 80% des notaires utilisent l'IA au quotidien. Les avocats suivent à 72%.
Les kinés ? 23% d'adoption. C'est le taux le plus bas de toutes les professions libérales que nous avons étudiées.
Le fossé s'explique. Un notaire rédige 40 actes par mois — l'IA lui fait gagner un temps colossal. Le kiné, lui, bosse avec ses mains. La documentation est perçue comme un mal nécessaire, pas le cœur du métier. Du coup, peu investissent. Peu testent. Et ceux qui testent ne partagent pas.
Julien a partagé. Voici ce qu'il a fait, étape par étape.
Le contexte : 1h40 de paperasse quotidienne pour 22 patients
Avant d'adopter un outil, le quotidien de Julien ressemblait à ça :
- 7h30-19h : consultations (22 patients, séances de 30 min)
- 19h15-20h55 : rédaction des comptes-rendus, courriers médecins, mise à jour des dossiers patients
Le problème n'était pas la consultation. Julien est rapide, structuré, ses patients reviennent. Le problème, c'était l'après. Ces presque deux heures quotidiennes non rémunérées (un kiné libéral n'est pas payé à la documentation) le vidaient. Sa compagne lui a dit un soir de mars : "Tu fais le même métier que ta secrétaire après 19h."
Ça l'a fait réfléchir.
Ce qui l'a poussé à essayer : un thread Reddit et un calcul rapide
Julien n'est pas technophile. Il connaissait ChatGPT vaguement — "le truc pour les devoirs" comme il dit. C'est un thread sur r/physiotherapy qui l'a convaincu d'essayer. Ce post, intitulé "Anyone using AI for patient documentation?", a cumulé 234 upvotes et 45 commentaires, avec des retours de kinés anglo-saxons mentionnant Otter.ai et Notion AI pour la transcription de notes post-séance.
Julien a fait un calcul basique :
- 1h40/jour × 26 jours/mois = 43 heures par mois de documentation
- Son tarif horaire effectif (chiffre d'affaires / heures travaillées) : environ 52€
- Coût d'opportunité de la paperasse : ~2 200€/mois
Même un gain de 30% justifiait l'essai. Il a souscrit à ChatGPT Pro (20€/mois) le 3 février 2026.
Phase 1 (semaines 1-2) : premiers prompts, premiers échecs
Julien a commencé par le plus évident : dicter en vrac ses observations post-séance et demander à ChatGPT de "rédiger un compte-rendu kiné professionnel".
Ça n'a pas marché.
Le résultat ressemblait à un rapport hospitalier. Trop formel, trop long. Des phrases comme "Le patient présente une amélioration notable de l'amplitude articulaire" alors que Julien écrit normalement "ROM épaule +15° vs S-1, douleur EVA 3→2". Son style. Les médecins prescripteurs y sont habitués.
Erreur numéro un : ne pas avoir fourni d'exemples de son propre style rédactionnel.
Il a aussi testé la rédaction de courriers aux médecins traitants. Même constat — trop générique. Le Dr. Nguyen, qui suit trois de ses patients chroniques, aime les courriers courts (5 lignes max). Le Dr. Fabre veut des détails chiffrés. ChatGPT produisait du milieu de gamme qui ne convenait à personne.
Gain de temps mesuré sur les 2 premières semaines : environ 10%. Décevant.
Phase 2 (semaines 3-5) : le tournant des prompts structurés
Le déclic est venu quand Julien a arrêté de traiter ChatGPT comme un dictaphone intelligent. Il a créé trois prompts templates qu'il gardait en note sur son téléphone :
Prompt 1 — Compte-rendu de séance : Il fournit 5 exemples de ses propres comptes-rendus passés, avec la consigne "Rédige dans exactement ce style. Terminologie kiné française. Pas de phrase complète si l'abréviation est standard."
Prompt 2 — Courrier médecin (format court) : Template avec le nom du médecin, ses préférences connues, et le résumé de séance en bullet points.
Prompt 3 — Bilan intermédiaire patient : Plus long, plus structuré, avec des métriques spécifiques (EVA, ROM, force musculaire cotée).
Le gain a été immédiat. En semaine 4, Julien chronométrait 58 minutes au lieu de 1h40.
Mais un nouveau problème est apparu.
L'erreur qui aurait pu coûter cher
Semaine 4, un mardi. Julien envoie un courrier généré par ChatGPT au Dr. Fabre concernant une patiente souffrant de lombalgie chronique. Le lendemain, le médecin l'appelle : "Tu me parles d'une hernie L4-L5, mais l'IRM de Mme Renaud montre une protrusion L5-S1."
ChatGPT avait "corrigé" les données saisies par Julien. L'outil avait remplacé L5-S1 par L4-L5 — probablement parce que les hernies L4-L5 sont statistiquement plus fréquentes dans son corpus d'entraînement.
Leçon critique : l'IA généraliste n'a aucune conscience médicale. Elle optimise pour la vraisemblance, pas pour l'exactitude clinique. C'est la différence fondamentale entre un outil entraîné sur le web entier et un logiciel calibré pour un domaine précis.
Julien a ajouté une règle stricte à tous ses prompts : "Ne modifie JAMAIS les données cliniques que je fournis (niveau vertébral, scores, mesures). Reproduis-les à l'identique." Depuis, zéro erreur de ce type. La règle tient en une ligne mais elle a transformé la fiabilité de l'outil.
J'ai moi-même testé cette parade sur des cas de rédaction paramédicale. Résultat : quand vous ancrez les données factuelles explicitement dans le prompt, ChatGPT les respecte dans environ 97% des cas. Sans cette consigne, le taux de "correction" non souhaitée monte à 15-20% sur les termes médicaux techniques. La différence est massive.
Cette mésaventure relativise d'ailleurs le 4.7/5 que nous avons mesuré pour Doctrine AI dans nos tests. Doctrine excelle en recherche juridique — son score reflète un cas d'usage très spécifique. ChatGPT, outil généraliste, couvre plus de terrain mais nécessite une vigilance constante sur les données factuelles.
Phase 3 (semaines 6-8) : routine installée, résultats stabilisés
À partir de la sixième semaine, Julien avait trouvé son rythme. Voici le workflow final :
- Pendant la consultation, il prend 2-3 notes vocales via son téléphone (30 secondes max)
- Entre deux patients (pause de 5 min), il colle la transcription dans ChatGPT avec le prompt adapté
- Il relit et valide en 90 secondes
- Les courriers médecins sont traités par lots le soir, en 15-20 minutes au lieu de 45
Résultats mesurés : avant/après sur 8 semaines
| Métrique | Avant (février) | Après (avril) | Variation |
|---|---|---|---|
| Temps documentation/jour | 1h40 | 55 min | -45 min (-40%) |
| Courriers médecins/semaine | 12 (manuels) | 14 (assistés IA) | +17% volume |
| Erreurs signalées par médecins | ~1/mois | 1 (semaine 4, corrigé) | Stable |
| Coût outil | 0€ | 20€/mois | — |
| Coût d'opportunité récupéré | — | ~880€/mois | ROI × 44 |
Le gain de 40% de temps colle exactement avec ce que nos tests internes avaient mesuré pour ChatGPT Pro sur des cas d'usage "communication client" — ce qui, pour un kiné, inclut la documentation patient et les échanges confrères.
Petit bémol : Julien produit davantage de courriers qu'avant (14 vs 12 par semaine). Pas parce qu'il le doit. Parce que ça lui prend moins de temps, il communique plus avec les médecins. Effet secondaire positif non anticipé.
Ce qu'on peut (et ne peut pas) généraliser
Soyons francs : le cas de Julien n'est pas universel.
Ça a marché parce qu'il rédigeait déjà de manière structurée. Un kiné avec un style très libre, très narratif dans ses bilans, aura plus de mal à créer des templates efficaces. Ça a marché aussi parce qu'il a investi du temps en semaines 1-3 pour calibrer l'outil. Beaucoup abandonnent avant.
Et puis 20€/mois pour ChatGPT Pro, c'est le bas du spectre. Les solutions IA spécialisées coûtent nettement plus cher. Un notaire investit en moyenne 238€/mois en outils IA — c'est 12 fois le budget de Julien. Mais le notaire manipule des actes juridiques où la moindre erreur a des conséquences patrimoniales. Le rapport risque/bénéfice n'est pas le même.
Comparaison rapide : IA généraliste vs IA spécialisée
| Critère | ChatGPT Pro (généraliste) | LexNotaire AI (spécialisé) | Doctrine AI (spécialisé) |
|---|---|---|---|
| Prix/mois | 20€ | 149€ | 89€ |
| Gain de temps mesuré | 40% | 60% | 80% |
| Courbe d'apprentissage | 2-3 semaines de calibrage | Formation initiale | Interface intuitive |
| Risque d'erreur factuelle | Élevé sans garde-fous | Faible (base juridique à jour) | Faible (base Légifrance) |
| Adapté aux kinés | Oui, avec prompts | Non | Non |
Le généraliste coûte moins cher mais demande plus de travail humain. Le spécialisé fait plus mais coûte plus et ne couvre qu'un métier. Pas de solution parfaite. Juste des compromis à calibrer.
Quatre leçons à retenir (pas trois, pas cinq)
1. L'IA généraliste fonctionne pour les professions "sous-équipées" Les kinés, les ostéos, les orthophonistes — ces métiers n'ont pas encore leur Doctrine AI dédié. ChatGPT comble un vide à bas coût. Imparfaitement, certes.
2. Le prompt engineering n'est pas un buzzword Julien est passé de 10% à 40% de gain en changeant uniquement ses prompts. L'outil était le même. Fournir des exemples concrets de son propre style — c'est là que tout bascule.
3. La relecture reste non négociable L'incident L4-L5/L5-S1 aurait pu détériorer une relation professionnelle. Un outil qui fabule sur un niveau vertébral peut fabuler sur n'importe quoi. Chaque output doit être relu. C'est ennuyeux. C'est indispensable.
4. Le ROI se mesure aussi en énergie Le calcul financier (880€/mois récupérés vs 20€/mois investis) est flatteur. Mais Julien insiste surtout sur l'énergie. Finir à 19h50 au lieu de 21h, ça change la qualité de vie. Les chiffres ne captent pas tout.
Et après ?
Julien teste actuellement Otter.ai (mentionné dans les discussions Reddit sur r/physiotherapy) pour la transcription directe des notes vocales — l'idée étant d'éliminer l'étape manuelle de copie-collage. L'objectif : passer sous les 40 minutes de documentation quotidienne d'ici juin. Résultats à venir.
Il regarde aussi du côté de Notion AI pour centraliser dossiers patients et comptes-rendus dans un seul espace. Le combo ChatGPT + Notion est d'ailleurs le setup que plusieurs kinés anglo-saxons recommandent sur Reddit. Pas encore validé en contexte français, notamment sur la question de l'hébergement des données de santé (certification HDS obligatoire). Un point que beaucoup oublient dans l'enthousiasme du gain de productivité.
Son cas illustre quelque chose de plus large. Le taux d'adoption IA chez les kinés (23%) va probablement grimper — mais par le bas du spectre tarifaire. Pas avec des outils à 150€/mois. Avec des solutions à 20€ que chacun bricole à sa sauce. On l'a vu avec l'analyse des outils notaires : chaque profession finit par trouver son écosystème. Celui des kinés est simplement en retard de 12 à 18 mois.
C'est moins propre que ce que vivent les avocats avec Doctrine AI. Moins spectaculaire aussi. Mais pour un métier où la marge nette oscille autour de 35-40%, le pragmatisme paie. Quarante-cinq minutes récupérées chaque soir, ça ne fait pas un titre accrocheur. Ça fait juste une vie professionnelle plus soutenable.
Vous exercez une profession libérale et vous cherchez l'outil IA adapté à votre métier ? Notre Finder outil par métier + use case identifie en 30 secondes les solutions testées pour votre vertical.