Publicité
ERP IMPLEMENTATION

Cutover ERP : checklist opérationnelle de J-30 à J+3

Plan d'exécution cutover ERP de J-30 à J+3 : gouvernance, répétitions, plan de bascule, support hypercare et critères Go/No-Go.

Cutover ERP : checklist opérationnelle de J-30 à J+3

Le cutover ERP est le moment où un projet de plusieurs mois devient une opération à risque en temps réel. Ce n’est plus une question de roadmap, de backlog ou de maquette. C’est une séquence d’exécution où chaque dépendance non traitée devient un incident de production.

Beaucoup d’équipes confondent encore “go-live” et “fin de projet”. En pratique, le go-live marque le début d’une période sous tension : migration finale des données, arrêt des anciens flux, redémarrage des opérations métier, stabilisation des écarts. Une checklist claire entre J-30 et J+3 réduit fortement les angles morts.

Ce guide propose une trame opérationnelle pour piloter le cutover de façon disciplinée, avec des critères de décision explicites et une logique Go/No-Go défendable devant la direction.

Ce qu’un cutover ERP doit vraiment sécuriser

Avant d’entrer dans la chronologie, posez le cadre. Un cutover réussi garantit simultanément quatre choses :

  • La continuité opérationnelle des processus critiques
  • L’intégrité des données reprises
  • La maîtrise des droits et habilitations
  • La capacité de support dès la première journée de production

Si un de ces axes est faible, la bascule ressemble à une réussite technique mais se transforme en crise métier.

J-30 à J-21 : verrouiller la gouvernance de bascule

Nommer un commandement unique

Le cutover ne se pilote pas en mode collégial diffus. Il faut un pilote de bascule identifié, avec autorité explicite sur l’arbitrage court terme. Ce rôle centralise les décisions pendant la fenêtre de transition et évite les contradictions entre équipes.

La gouvernance minimale à confirmer :

  • Un responsable cutover côté métier
  • Un responsable cutover côté intégrateur
  • Un décideur final Go/No-Go
  • Un canal unique de communication de crise

Figer le périmètre fonctionnel de go-live

À ce stade, toute nouvelle demande fonctionnelle doit être traitée comme un risque, pas comme une amélioration. Le périmètre de go-live doit être formellement figé avec une distinction claire entre :

  • Ce qui est obligatoire au démarrage
  • Ce qui est tolérable en mode dégradé temporaire
  • Ce qui bascule après stabilisation

Un périmètre mouvant est la cause la plus fréquente d’un cutover instable.

Établir le registre des décisions critiques

Créez un registre lisible par tous pour tracer les arbitrages sensibles :

  • Processus autorisés en mode manuel temporaire
  • Interfaces pouvant être relancées en différé
  • Tolérance aux écarts de données et règles de correction
  • Conditions qui imposent un report

Ce registre réduit les débats émotionnels pendant la nuit de bascule.

J-20 à J-14 : finaliser la préparation technique et données

Préparer la migration finale des données

La reprise de données de cutover ne doit pas être improvisée à partir de scripts dispersés. Préparez une séquence industrialisée : extraction, contrôles, transformation, chargement, vérification.

Les contrôles à imposer avant chargement final :

  • Complétude des entités critiques
  • Cohérence des clés de liaison
  • Contrôles de doublons
  • Contrôles d’équilibre comptable

Chaque contrôle doit avoir un propriétaire, une règle d’acceptation et un plan de correction.

Verrouiller les interfaces externes

Listez toutes les interfaces qui touchent les processus critiques : banque, paie, WMS, CRM, BI, EDI, portails tiers. Pour chacune :

  • Date et heure de coupure attendue
  • Responsables de redémarrage
  • Méthode de contrôle post-redémarrage
  • Solution de contournement si l’interface ne repart pas

Une interface non qualifiée peut bloquer une chaîne métier complète, même si le coeur ERP fonctionne.

Préparer la stratégie d’habilitations

Le jour de bascule, les problèmes d’accès bloquent plus vite que les bugs techniques. Finalisez :

  • La matrice des rôles par population
  • Les comptes de secours pour fonctions critiques
  • Le processus d’escalade pour droits manquants

Le principe à respecter : sécurité forte, mais sans paralyser les opérations de terrain.

J-13 à J-7 : répétition générale et décision de préparation

Exécuter un dry-run complet

Le dry-run doit simuler la bascule réelle de bout en bout. Ce n’est pas une démo technique. C’est un exercice d’exploitation avec minuteur, checklists, incidents simulés et validation métier.

Objectifs du dry-run :

  • Mesurer le temps réel de chaque tâche critique
  • Identifier les goulots d’étranglement
  • Tester les plans de contournement
  • Vérifier la qualité des handovers entre équipes

À l’issue du dry-run, mettez à jour la checklist officielle. Une checklist qui n’évolue pas après répétition est rarement fiable.

Émettre un readiness report

Produisez un état de préparation consolidé pour la décision de poursuite. Le rapport doit couvrir :

  • Avancement des prérequis techniques
  • Niveau de qualité des données
  • Couverture des tests clés
  • Niveau de préparation du support et des utilisateurs

Évitez les formulations vagues. Chaque point doit être classé en prêt, prêt sous condition ou non prêt.

Traiter les écarts restants

Concentrez les efforts sur les écarts qui menacent la continuité opérationnelle. Les autres écarts doivent être planifiés en backlog post-go-live, avec date et responsable.

Le cutover devient risqué quand l’équipe tente de “tout finir” au lieu de “sécuriser l’essentiel”.

J-6 à J-1 : gel des changements et plan de communication

Activer un change freeze strict

Le gel des changements est non négociable sur les composants critiques. Pendant cette période :

  • Aucune évolution fonctionnelle
  • Aucune modification technique hors correctif critique validé
  • Aucune modification de paramétrage sans traçabilité

Chaque exception doit être approuvée formellement et documentée avec analyse de risque.

Publier le runbook de bascule

Le runbook est le document d’exécution de référence. Il doit décrire, étape par étape :

  • La séquence exacte des opérations
  • Les préconditions de démarrage
  • Les dépendances entre tâches
  • Les points de contrôle obligatoires
  • Les critères de succès ou d’échec par étape
  • Les contacts d’escalade

Un runbook utile est actionnable par l’équipe de garde, même en contexte de fatigue.

Préparer la communication utilisateurs

Annoncez clairement ce que les utilisateurs doivent attendre :

  • Fenêtres d’indisponibilité prévues
  • Processus temporairement modifiés
  • Canaux de support à utiliser
  • Délai de traitement attendu des incidents

Une communication explicite réduit le bruit et améliore la qualité des tickets pendant l’hypercare.

Jour J : piloter la bascule en mode command center

Démarrer avec un Go/No-Go formel

Avant la première opération irréversible, tenez un point Go/No-Go court et factuel. Chaque responsable confirme son périmètre sur la base des critères définis en amont.

Si un critère bloquant n’est pas respecté, la décision de report doit être assumée rapidement. Reporter proprement vaut mieux qu’un go-live fragile.

Exécuter la séquence sans improvisation

Pendant la bascule :

  • Suivez le runbook dans l’ordre
  • Journalisez toutes les actions clés
  • Horodatez les incidents et décisions
  • Escaladez immédiatement les blocages

Évitez les changements de plan non validés. L’improvisation locale crée des effets de bord difficiles à rattraper.

Contrôler les flux vitaux avant annonce

Avant d’annoncer la fin de bascule, validez les flux qui conditionnent l’activité :

  • Entrée de commande
  • Facturation
  • Encaissement ou rapprochement
  • Approvisionnement ou sortie logistique
  • Reporting minimal de pilotage

Un système disponible mais incapable de traiter ces flux n’est pas en production maîtrisée.

J+1 à J+3 : hypercare discipliné

Organiser un support renforcé

L’hypercare doit être piloté comme une cellule d’exploitation, pas comme une simple boîte mail de support. Mettez en place :

  • Un triage central des incidents
  • Une priorisation orientée impact métier
  • Un rythme de points de situation régulier
  • Une visibilité direction sur les risques restants

Distinguer incident, défaut et demande

Pour garder le contrôle, classez chaque ticket dès l’ouverture :

  • Incident bloquant production
  • Défaut non bloquant
  • Demande d’amélioration

Cette discipline évite de polluer les équipes critiques avec des demandes qui peuvent attendre la phase de stabilisation.

Stabiliser puis seulement optimiser

Durant les premiers jours, l’objectif n’est pas l’optimisation fine. L’objectif est la stabilité du service. Les ajustements de confort, d’ergonomie ou de reporting avancé doivent être planifiés après retour à un niveau de risque acceptable.

Checklist synthétique J-30 à J+3

Gouvernance

  • Responsable cutover unique nommé
  • Décideur Go/No-Go identifié
  • RACI validé et partagé
  • Registre des décisions critiques en place

Données et interfaces

  • Plan de migration finale validé
  • Contrôles qualité de données exécutables
  • Plan de redémarrage interfaces validé
  • Procédures de correction documentées

Exécution

  • Dry-run complet réalisé
  • Runbook final publié
  • Change freeze activé
  • Critères Go/No-Go validés

Support post-bascule

  • Cellule hypercare opérationnelle
  • Processus de triage défini
  • Escalade et communication direction prêtes
  • Backlog post-go-live structuré

Erreurs de cutover à éviter absolument

Confondre projet et exploitation

Une équipe projet peut livrer un paramétrage correct et pourtant échouer en production faute de logique d’exploitation. Le cutover exige une posture opérationnelle, avec commandement clair et arbitrages rapides.

Lancer la bascule avec des prérequis “presque prêts”

Le “presque” est dangereux dans une fenêtre critique. Si les contrôles de données, d’accès ou d’interface ne sont pas réellement prêts, la dette se paie immédiatement après bascule.

Sous-estimer la charge de communication

Une partie significative des tensions de go-live vient d’attentes mal alignées. Un utilisateur informé du mode dégradé temporaire tolère mieux la transition qu’un utilisateur laissé dans le flou.

Transformer le cutover en avantage de gouvernance

Un cutover bien préparé ne sert pas seulement à “passer en production”. Il professionnalise la gouvernance SI : décisions tracées, critères explicites, culture de répétition, pilotage orienté risques. Ces pratiques restent utiles bien après le go-live.

Le vrai succès n’est pas une nuit sans incident. Le vrai succès est une bascule maîtrisée, suivie d’une stabilisation rapide et d’une trajectoire d’amélioration continue.

Pour approfondir, lisez notre guide complet sur le choix d’un ERP, notre guide pratique de conduite du changement ERP et notre analyse du coût réel d’un projet ERP.