Des stratégies audacieuses et non conventionnelles de développement de logiciels permettent d’obtenir des résultats spectaculaires

La plupart des entreprises s’en tiennent à ce qui leur semble sûr : Agile, Scrum, Waterfall. Ces cadres sont bien, mais ils créent souvent un faux sentiment de progrès. Trop de confort conduit à une pensée stagnante. Si vous voulez une véritable innovation, vous devez être prêt à enfreindre les règles, de manière intelligente.

Les équipes qui obtiennent des résultats exceptionnels sont celles qui ont changé les règles du jeu en cours de partie. Elles ont pris des risques intelligents, lancé des idées non testées et créé des boucles de rétroaction suffisamment étroites pour corriger les échecs avant qu’ils ne s’étendent.

Qu’il s’agisse de simuler des défaillances en production, de déployer du code dix fois par jour ou de créer une entreprise d’un milliard de dollars sur la base de logiciels libres, ce qui semble fou aujourd’hui sera souvent la norme demain. L’innovation ne vient pas en demandant la permission. Elle vient des personnes prêtes à explorer l’espace inconfortable entre les meilleures pratiques actuelles et l’inconnu.

Si votre culture punit les écarts, vous ne verrez jamais les avantages d’une pensée audacieuse. Aujourd’hui, ceux qui apprennent le plus vite dominent le marché. Les erreurs qui vous apprennent quelque chose valent plus que les victoires qui ne font pas bouger l’aiguille.

Selon l’étude 2023 de McKinsey, les entreprises qui soutiennent activement la prise de risque calculée sont 1,7 fois plus susceptibles de surpasser la concurrence en matière d’innovation.

La vraie question est donc simple : Où, dans votre stratégie, jouez-vous la carte de la sécurité ? Car le plus grand risque pourrait être de s’en tenir à ce qui a fonctionné.

L’ingénierie du chaos pour la résilience des systèmes

La plupart des entreprises partent du principe que la stabilité du système est une attente de base. Netflix a choisi de la traiter comme une variable, quelque chose qui peut être conçu et non pas espéré. Ce qu’ils ont fait semble contre-intuitif à première vue : ils ont cassé leur système volontairement.

Leur outil interne, Chaos Monkey, met aléatoirement hors service des parties de leur infrastructure pendant les opérations normales. L’objectif est de détecter les faiblesses et d’y remédier avant qu’elles ne se transforment en véritables pannes. En introduisant des turbulences dans des conditions contrôlées, les équipes d’ingénieurs obtiennent des alertes précoces. Et elles construisent des systèmes capables d’absorber l’impact.

Kolton Andrus, lorsqu’il était chez Netflix, l’a dit directement : « Espérer la stabilité n’était pas une stratégie ». Ils n’ont pas attendu que les pannes prouvent que leur architecture était défectueuse. Ils ont simulé des pannes afin de pouvoir combler les lacunes à l’avance. Cet état d’esprit a permis à Netflix de passer de 7 millions à plus de 230 millions d’utilisateurs dans le monde, sans compromettre le temps de fonctionnement. Le taux de disponibilité est de 99,99 %, ce qui est l’un des plus élevés du secteur, surtout à cette échelle.

Ce type de résilience n’est pas accidentel. Elle est le fait d’équipes qui s’attendent à ce que les choses tournent mal et qui conçoivent en conséquence. Et c’est là que les dirigeants doivent être attentifs. Les systèmes qui fonctionnent toujours bien ne sont pas nécessairement solides. Ils n’ont tout simplement pas été testés.

L’ingénierie de la défaillance consiste à prouver que vous pouvez fonctionner à grande échelle même lorsque des composants individuels cessent de fonctionner. Pour les dirigeants, cela signifie investir dans la fiabilité

L’instabilité contrôlée crée de la connaissance, et c’est cette connaissance qui permet aux plateformes mondiales de rester en ligne lorsque la pression réelle se fait sentir. Si votre environnement ne peut pas se remettre d’une perturbation interne, il ne survivra pas à l’impact public.

Le déploiement continu minimise les risques en mettant en œuvre des mises à jour fréquentes et incrémentielles.

En 2009, Flickr a fait quelque chose qui effrayait la plupart des équipes : elle a livré un logiciel dix fois par jour. À l’époque, la plupart des entreprises procédaient encore à des déploiements mensuels, voire moins. L’industrie pensait que plus vous déployez de logiciels, plus il y a de chances qu’ils tombent en panne. Flickr a prouvé le contraire.

En effectuant des mises à jour plus petites et plus fréquentes, ils ont réduit l’étendue des problèmes possibles. Chaque déploiement comportait moins de risques parce qu’il comportait moins de changements. En cas d’échec, il était plus facile d’identifier le problème, de revenir en arrière et de passer à autre chose. La charge d’ingénierie est devenue plus prévisible et la confiance s’est accrue à chaque déploiement réussi.

Les avantages sous-jacents sont considérables. Les déploiements fréquents imposent l’automatisation. Ils renforcent la couverture des tests. Et ils favorisent la discipline des processus au sein des équipes. Cette cohérence permet de construire un pipeline de versions qui devient plus intelligent chaque semaine, et pas seulement chaque trimestre.

Les résultats sont éloquents. Selon le rapport 2023 State of DevOps, les entreprises qui utilisent le déploiement continu enregistrent 70 % d’échecs de production en moins. Et lorsque quelque chose ne va pas, elles se rétablissent 24 fois plus vite que celles qui sont coincées dans des calendriers de publication traditionnels.

L’investissement dans les tests automatisés et les mises à jour par lots plus petits crée un flux stable de valeur continue. Vous n’êtes pas bloqué dans l’attente de versions géantes. Vous n’êtes pas non plus pris au dépourvu par des erreurs accumulées.

L’adoption de ce modèle implique de modifier votre façon d’appréhender les risques. Il n’est pas dangereux de multiplier les déploiements lorsque vos systèmes sont conçus pour s’adapter. C’est ainsi que vous pouvez accélérer les livraisons de manière responsable tout en préservant la stabilité.

Modèle entièrement à distance accompagné d’une documentation complète

Avant que le monde ne passe au travail à distance par nécessité, GitLab en a fait son modèle de fonctionnement par choix. Toute l’entreprise a été structurée pour en dépendre. Ce n’est pas un ensemble d’outils de collaboration qui a permis à ce modèle de fonctionner. C’était la documentation.

Chez GitLab, chaque processus clé, chaque décision et chaque flux de travail sont documentés. Le manuel de l’entreprise est public et compte plus de 15 000 pages. Cela peut sembler extrême, mais cela résout un problème que la plupart des entreprises n’abordent jamais complètement : la perte d’informations. Lorsque les connaissances essentielles n’existent que dans la tête des gens ou dans des messages privés sur Slack, les équipes ralentissent. Le contexte disparaît. Les erreurs se répètent.

Darren Murph, responsable des services à distance chez GitLab, l’a bien expliqué : « Lorsque vous ne pouvez pas taper sur l’épaule de quelqu’un pour obtenir des informations, vous êtes obligé de tout documenter clairement. » Ce type de clarté est important. Cela signifie que les décisions ne sont pas noyées dans les réunions. Elle simplifie l’intégration. Elle crée une source de vérité partagée sur laquelle les nouveaux embauchés, les dirigeants et les équipes distribuées peuvent s’appuyer.

Pour les dirigeants, l’avantage est stratégique. Une culture axée sur la documentation permet de répartir les connaissances de manière égale entre les différents sites et fonctions. Il n’est pas nécessaire d’être dans la même pièce pour prendre des décisions éclairées. Vous ne perdez pas de vitesse lorsque quelqu’un quitte l’entreprise. Et vous ne dépendez pas de quelques voix internes pour obtenir des informations critiques.

Que votre équipe soit répartie sur plusieurs fuseaux horaires ou dans un seul bureau, la possibilité de saisir et de partager les connaissances institutionnelles en temps réel élimine les goulets d’étranglement. Elle supprime l’ambiguïté des flux de travail. Et elle donne à chacun, de l’ingénierie aux opérations, le contexte dont il a besoin pour avancer plus vite sans sacrifier l’alignement.

Le développement basé sur des troncs d’arbre rationalise l’intégration du code et améliore la qualité.

La plupart des équipes d’ingénieurs ont appris à isoler leur travail par des branches de longue durée. Cela semble plus sûr, moins d’interférences, plus de contrôle. Mais Etsy a inversé cette logique. Ils ont demandé à tout le monde d’effectuer des livraisons directes dans la branche principale, fréquemment. Le résultat a été un meilleur code, livré plus rapidement, avec moins de surprises.

Le développement basé sur des troncs d’arbre oblige les équipes à travailler de manière ouverte, à intégrer les changements tôt et souvent. Cela permet d’exposer les problèmes dès qu’ils sont petits, au lieu de les laisser se développer silencieusement dans une branche privée. Etsy s’est appuyé sur cette méthode pour passer d’une cinquantaine d’ingénieurs à plus de 2 000, tout en gérant plus de 50 déploiements par jour.

Daniel Schauenberg, un ancien ingénieur d’Etsy, l’a bien résumé : « Les branches à longue durée de vie ont créé un faux sentiment de sécurité. En réalité, elles ne font que retarder la douleur de l’intégration et créer des conflits plus importants ». Les équipes qui attendent la fin pour fusionner fusionnent souvent des hypothèses erronées et perdent du temps et de la confiance dans le processus.

Cette approche exige un pipeline propre et une discipline à tous les niveaux. Etsy a investi dans des systèmes de test automatisés qui ont permis de s’assurer que la branche principale restait stable à tout moment. Ils ne se sont pas appuyés sur une coordination minutieuse entre les équipes. Au lieu de cela, ils ont exigé que le code soit capable de se débrouiller tout seul. Cette pression a permis de développer la maturité de l’ingénierie.

Il existe également un coût des systèmes dont les dirigeants de la suite devraient être conscients. Le développement par troncs d’arbre réduit les frais généraux liés à la gestion de branches parallèles, aux retards de l’assurance qualité et aux bogues de dernière minute. Il responsabilise les développeurs et crée une meilleure appropriation du produit. Tout le monde travaille sur le système réel, et non sur une version locale qui peut ou non refléter la réalité.

Pour mettre cela en œuvre de manière efficace, les bascules de fonctionnalités sont essentielles. Vous pouvez cacher le travail incomplet aux utilisateurs sans bloquer la progression. Et en fixant des objectifs de livraison quotidiens, vous poussez les équipes à maintenir l’intégration du code en continu, évitant ainsi la lente accumulation de complexité qui ralentit l’innovation.

L’ouverture des outils de base accélère l’adoption et favorise l’innovation au sein de la communauté

HashiCorp a pris une décision que la plupart des entreprises hésitent à prendre : elle a donné ses principaux outils d’infrastructure. Terraform, Vault et Consul ont été mis en open source. Au lieu d’enfermer la technologie dans des modèles de licence, ils ont choisi la portée, la contribution et l’échelle de l’écosystème.

Cela a fonctionné. À lui seul, Terraform a accumulé plus de 100 000 étoiles GitHub. Un tel niveau d’adoption se produit lorsque des milliers de développeurs ont la possibilité d’utiliser, d’adapter et d’étendre votre produit à un rythme soutenu. L’open source a créé de la visibilité. Il a instauré la confiance. Et surtout, il a permis aux outils d’évoluer plus rapidement qu’une équipe fermée ne pourrait le faire seule.

Mitchell Hashimoto, cofondateur de HashiCorp, s’est attaqué directement au problème : « Lorsque nous avons commencé, les gens pensaient que nous étions fous de donner notre meilleur code… mais nous avons découvert que l’adoption généralisée crée plus de valeur que vous n’en perdez en termes de revenus de licence potentiels. » Et il a raison. Ce qu’ils ont abandonné en matière de licences directes, ils l’ont regagné en termes d’influence, de fidélité des développeurs et de demande de la part des entreprises.

Du point de vue de la direction, le véritable avantage est l’effet de levier. L’open source modifie le modèle économique. Vous réduisez le coût d’acquisition des clients, vous accélérez le retour d’information sur les produits et vous élargissez votre vivier de talents. Les développeurs savent déjà comment fonctionne votre plateforme. Les entreprises la demandent par son nom. Et au lieu de construire votre feuille de route de manière isolée, vous êtes connecté à un réseau mondial d’amélioration.

La monétisation existe toujours, mais elle se fait de manière stratégique. HashiCorp a tiré ses revenus des fonctions d’entreprise, des plans d’assistance et des services gérés. L’open source leur donne l’échelle. Les offres commerciales leur permettent de dégager des marges.

Si votre entreprise dispose d’outils ou d’infrastructures non essentiels qui pourraient bénéficier d’un examen externe et d’une portée plus large, il s’agit d’une voie qui a fait ses preuves. Commencez petit, ouvrez une bibliothèque interne utile, créez une documentation appropriée et facilitez la contribution. Ce que vous mettez à la disposition du monde peut souvent vous revenir de manière bien plus précieuse que si vous le gardez enfermé dans des permissions et des processus.

L’adaptation des rôles des développeurs est essentielle à l’heure où la technologie évolue vers l’innovation contextuelle.

Le développement de logiciels évolue rapidement. Les outils deviennent plus intelligents, l’IA en fait plus, et la définition de ce que fait réellement un développeur évolue. L’exécution technique reste essentielle, mais elle ne représente plus la totalité du travail. Ce qui compte désormais, c’est la capacité d’une personne à travailler sur plusieurs systèmes, à comprendre les besoins du produit et à prendre des décisions qui tiennent compte de ces deux éléments.

Alex Zajac, ingénieur en développement logiciel pour l’IA chez Amazon et créateur de la lettre d’information Hungry Minds, l’a clairement exprimé : « L’IA est vraiment douée pour accélérer 70 % du travail, mais les 30 % restants sont les plus difficiles : il faut la mettre en production, s’assurer qu’elle n’a pas d’hallucinations et mettre en place des garde-fous pour l’évaluation. » C’est là que l’expérience, le jugement et la connaissance du domaine comptent.

Cette évolution ne supprime pas le besoin de développeurs. Elle redéfinit la contribution. L’IA peut accélérer les tâches de bas niveau, l’échafaudage du code, la reconnaissance des formes, et même la rédaction de documents standard. Mais pour l’intégrer dans des systèmes à fort contenu contextuel, pour traiter les cas limites et pour s’assurer que le produit correspond aux besoins réels des utilisateurs, il faut toujours des personnes qualifiées qui ont plusieurs longueurs d’avance.

Du point de vue de la direction, cela modifie la façon dont vous envisagez le recrutement et la formation des équipes. Vous avez besoin d’ingénieurs qui pensent en termes plus larges : systèmes, produits, résultats. Des généralistes capables de passer rapidement d’un domaine à l’autre. des spécialistes capables de concevoir des fonctionnalités complexes qui s’adaptent et évoluent. L’organisation dans son ensemble doit prendre en charge ces deux catégories de manière fluide.

Une nouvelle demande se fait jour : la maîtrise technique et la connaissance des produits. Les développeurs se rapprochent des fonctions liées aux produits. Ils élaborent la stratégie, et ne se contentent pas d’exécuter des tickets. Si vous n’en tenez pas compte, les équipes prennent du retard, non pas à cause de la vitesse, mais parce que leurs contributions ne correspondent pas à la profondeur des défis qu’elles tentent de résoudre.

La technologie continuera à automatiser les parties les plus faciles. C’est inévitable. Mais les entreprises qui trouveront le moyen d’élever leurs talents techniques au rang de contributeurs à fort impact et capables de prendre des décisions s’approprieront la valeur réelle.

Réflexions finales

Si la dernière décennie nous a appris quelque chose, c’est que la prudence en matière de logiciels ne garantit pas la stabilité, mais la stagnation.

Toutes les stratégies présentées ici – ingénierie du chaos, déploiement rapide, développement basé sur le tronc, opérations entièrement à distance, open source par défaut – reposent sur les mêmes fondements : des boucles de rétroaction étroites, une culture d’ingénierie forte et un soutien clair de la part de la direction.

Pour les dirigeants, la conclusion est simple. Si vous voulez que les équipes innovent rapidement et fonctionnent avec résilience, vous devez supprimer les frictions qui les ralentissent. Cela signifie qu’il faut soutenir les risques calculés, financer l’expérimentation et récompenser la clarté plutôt que la recherche d’approbation.

L’avenir appartient à ceux qui sont prêts à réécrire les scénarios, en s’appuyant sur des données, en se concentrant et en ayant un goût prononcé pour les défis.

Alexander Procter

avril 10, 2025

15 Min