Quantifier le travail

La pandémie Covid-19 a durement impacté nos économies. Pour continuer les opérations et limiter la casse, les organisations ont été contraintes à trouver des solutions alternatives.

Les cadres dirigeants ont soudainement découvert le télétravail. Il a été déployé dans l’urgence et à une vitesse fulgurante alors que la solution technique était disponible depuis des décennies.

Toutefois, dans l’urgence, la question de la productivité n’a pas été posée et les enseignements à posteriori seront difficiles à tirer tant les points de mesure comparatifs auront manqué.

Cela pose une question de fond : comment mesure-t-on le travail ?

La pointeuse horaire

La mesure usuelle du travail est horaire, l’employeur achète du temps à l’employé et en fait le décompte afin de payer le salaire. Le temps est décompté par un automate appelé pointeuse horaire.

La mesure horaire du travail prend son sens sur une chaine de production. Le rythme de la chaine détermine la productivité et la seule variable est le temps de passé derrière la machine.
L’ouvrier apporte sa force de travail que le taylorisme a réduit en une unité interchangeable.

Cette façon de compter le travail est tellement ancrée que la législation sur le travail se base sur des heures de présence et règle les exceptions à ce mode de calcul.

Lorsque la production concerne des sous-ensembles autonomes, l’industriel peut également mesurer le travail à la pièce. Cette façon de calculer est une alternative au décompte horaire, toutefois on reste toujours dans le cadre d’une production standardisée et répétitive.

L’enjeu

Le travail du chercheur ou du créatif ne se mesure pas au temps qu’il passe derrière son bureau. Des idées géniales, donc de grande valeur, peuvent surgir en promenade ou sous la douche.
Il n’y a donc pas de lien direct entre une mesure de quantité (temps, pièce, etc) et la valeur ajoutée qui peut être apportée par le collaborateur. Tenter une mesure systématique telle que le temps n’a pas de sens.

Dans un environnement de moins en moins stable et de plus en plus imprédictible, la standardisation du travail ne répond plus aux enjeux actuels car l’entreprise doit s’adapter en permanence, voire réinventer les biens et les services qu’elle produit.

La création de valeur est multidimensionnelle et n’est absolument pas proportionnelle au temps passé.
Les entreprises qui disruptent les usages montrent un fonctionnement interne très différents que par le passé. Le cadre est assoupli et une plus grande liberté est laissée aux collaborateurs pour imaginer les solutions qui apporteront de la valeur.Dès lors, la mesure du travail, donc sa rétribution pose de réelles questions.

Si le télétravail a récemment fait une percée, il ne suffit pas de le promulguer pour se donner le verni de la modernité et de l’efficacité. Tout au plus on aura créé plus de confort pour les collaborateurs sans aucune contrepartie.

Les processus de création exigent des échanges parfois intensifs. Les outils d’une collaboration dématérialisée doivent être disponibles et leur usage compris par l’ensemble des collaborateurs. Les objectifs doivent également être clairs et partagés.
L’installation d’un babyfoot dans l’entreprise n’en fait pas une organisation agile et inventive !

Quel modèle ?

La mise en place de nouvelles pratiques, qui incluent l’automatisation et la dématérialisation, eux-mêmes rendus possibles par les nouvelles technologies, demande la capacité de s’adapter et d’innover en continu. L’objectif doit être tourné vers l’amélioration de l’expérience client et le résultat car la seule amélioration du processus de production est aujourd’hui insuffisante.

Le mantra de l’innovation demande liberté et confiance. Elle s’affranchit des carcans de la hiérarchie traditionnelle et du contrôle systématique. Le résultat est le seul juge de l’action. Il doit être mesurable et le succès équitablement partageable.

Donner de la liberté n’est pas simple car le sentiment de vide peut s’avérer anxiogène et déstabilisant pour certains. Les qualités attendues des ressources humaines pour ces nouveaux environnements ne sont alors plus les mêmes, les personnalités conservatrices perdent leur pouvoir au profit des faiseurs capables d’intégrer rapidement les opportunités.
Les processus normalisés et contrôlés disparaissent au profit du résultat net, concrétisé par l’efficience et/ou l’expérience client.

Les membres des équipes sont aujourd’hui très bien formés, ils sont capables d’apporter des plus-values dans leurs domaines respectifs. L’enjeu consiste à créer une alchimie constructive afin que l’addition de toutes ces compétences débouche sur la création d’une valeur globale élevée.
Ces nouveaux usages sont fondamentalement différents du monde des processus taylorisés dont les acteurs s’étiolent à exécuter des tâches subalternes sans valeur.

La configuration de ces nouveaux environnements de travail est totalement différente. Les mots clés qui les caractérisent sont : agilité, apprentissage continu, essais, erreurs, créativité, complexité, co-construction, intelligence collective, incertitude.
Les modalités de travail ne correspondent pas une structure organisationnelle figée. Toutes les formes de collaborations sont acceptables moyennant que les objectifs soient respectés.

Dès lors le calcul du travail sur la base d’heures de présence est naturellement inadapté, pire, elle a toutes les chances de s’avérer contreproductive.

Comment ?

Deux citations conduisent mes réflexions :

L’administration par objectif est efficace si vous connaissez les objectifs. Mais 90% du temps vous ne les connaissez pas. [Peter Drucker]

Il n’est pas de vent favorable pour celui qui ne sait pas où il va. [Sénèque]

Je constate aujourd’hui un déploiement du « home office » sans outils et sans contrepartie, cela n’est ni innovant, ni créateur d’efficience, ni disruptif. Il s’agit d’une implémentation mal comprise de ce qui se passe chez Google, parfois avec une justification crypto-bobo de bonheur au travail.

Fixer les objectifs est donc une priorité. Savoir qui on est et où on va est déterminant. Les ambitions clairement formulées permettront de conduire la bonne démarche RH.

Les composantes du travail donc leur rétribution sont un mix entre plusieurs paramètres qui vont dépendre des objectifs et du type d’organisation. Naturellement le mix salarial est variable en fonction du type de mission au sein de la structure.
Les composantes de la valeur du travail pourraient être les suivantes :

1) Loyauté : part fixe liées au contrat de travail, soit à l’exclusivité de la relation.
2) Présent : part liée à l’exécution des tâches récurrentes.
3) Qualité : part liée au résultat, personnel et collectif en regard de l’objectif.
4) Futur : part liée à la valeur ajoutée, à l’innovation.

Il n’y a rien d’innovant dans cette proposition. Elle est appliquée dans nombre d’organisations, mais souvent avec une part variable peu incitative.

Toute la difficulté de l’organisation consiste à rendre effectif les propositions qui créent de la valeur.

La proposition d’innovation, peut donner lieu à un projet. Le projet sera qualifié et traduit en objectifs. La réalisation concrète sera ensuite déployée dans la structure.
La prime sur le « futur » ainsi que la part liée au résultat doivent être un incitatif fort. Par exemple une part concrète de l’apport de valeur peut/doit être restituées aux collaborateurs impliqués. En définitive il s’agit de la restitution d’une part du dividende aux collaborateurs qui l’ont généré activement.

Ainsi la valeur du travail n’est plus mesurée au temps de présence, au pouvoir ou au grade dans la hiérarchie mais à la valeur ajoutée apportée dans l’organisation.

Ce nouvel environnement qui privilégie la création de valeur rencontrera probablement les réticences de la structure en place car elle est consciente du pouvoir qu’elle a à perdre au travers de tels changements. Toutefois, l’histoire est en marche et nul ne peut s’affranchir d’une telle réflexion car un nouvel entrant peut survenir n’importe quand et de là où on ne l’attend pas.

Conclusion

Au terme de cette réflexion, je reconnais qu’une mesure juste du travail et du revenu n’est pas chose simple. A vrai dire c’est une question que je m’étais posée avec mes collègues il y a une dizaine d’années sans trouver de solution satisfaisante.

Savoir qui on est et ce que l’on fait est capital. Déterminer le cap et fixer des objectifs reste indispensable.
Mais ce n’est pas suffisant car dans un monde de bouleversements, les nouveaux entrants surviennent à n’importe quel moment. Pensez à la photo, aux achats de billets d’avion, aux CD, à la carte routière, aux taxis et à tout ce qui a été profondément modifié ces vingt dernières années.
Êtes-vous certain-e que votre modèle d’affaire est pérenne ?

Finalement, les nouvelles pratiques du travail sont appliquées dans les entreprises technologiques à succès. En résumé, une liberté importante, des conditions cadre qui incitent à l’innovation et des récompenses en fonction de la valeur ajoutée.

De quoi réfléchir à vos propres structures.

© Pascal Rulfi, novembre 2020.

Téléchargez l’article : Quantifier_le_travail

Publié dans Concepts, Généralités, Gouverance | Marqué avec , , , , | Laisser un commentaire

L’horlogerie sur le web, une belle vitrine ?

Un constat sans concession sur la présence horlogère sur le web.

Il n’est pas un jour où l’on ne parle de transformation digitale et de disruption.
La vitrine commerciale sur le web a constitué le premier pas des entreprises sur ce média, et cela depuis près de vingt ans. Qu’en est-il de la présence de l’horlogerie helvétique sur internet ?

Vous souvenez-vous du temps où il suffisait de lever la tête pour disposer de l’heure qui était affichée un peu partout ? Avez-vous constaté que ces horloges publiques, comme les cabines téléphoniques, ont disparu du paysage ?
L’heure exacte se lit désormais sur nos smartphones, avec une précision absolue puisque l’heure est calée sur l’horloge atomique. Nous sommes arrimés à nos téléphones intelligents dans une relation de quasi dépendance, l’heure est donc toujours à portée de main.

Mais alors, pourquoi achète-t-on encore une montre ? A plus forte raison pourquoi achète-t-on une montre mécanique qui est intrinsèquement peu précise ?

Cela fait longtemps que la fonction première d’une montre n’est plus de donner l’heure. De nos jours, la belle montre est un bijou, plutôt destiné aux hommes, un marqueur social, un plaisir que l’on s’offre.

D’objet purement utilitaire, la valeur d’une montre a glissé vers l’intangible que l’on définit par la fameuse image de marque.
Au sein d’un même groupe, différentes marques sont offertes au marché alors que leurs mouvements sont souvent les mêmes. La précision et la fiabilité entre les marques sera sensiblement identique quand elles utilisent le même « calibre » (la même mécanique). Ce qui les différentie est leur positionnement sur le marché.

Cette façon de procéder est la déclinaison horlogère de la segmentation de marché mise en place dans les années 30 par General Motors. Les marques Chevrolet, Pontiac, Oldsmobile, Buick et Cadillac s’adressaient chacune à un segment de client prédéfinit, alors que les produits n’étaient différents qu’en apparence.

Vous l’aurez compris, soigner l’image de marque est primordial pour vendre à fort prix un objet dont nous n’avons pas besoin. C’est tout l’intérêt de la mercatique qui va aider à atteindre ce but.

C’est ainsi que les marques dépensent des fortunes pour associer leurs marques à des évènements ou à des ambassadeurs censés représenter la valeur de la marque. Toutes les célébrités passent : James Bond, Beckham, Agassi ou Crawford, cela fait des lustres que les marques tirent sur les mêmes ficelles du marketing. Sans que nous puissions toujours faire un le lien entre l’ambassadeur et l’univers de la marque.

Visite sur la toile

Il est alors intéressant d’observer comment les marques se présentent sur leurs sites internet respectifs. Comment elles positionnement leur image. Comment elles se légitimisent dans l’univers du luxe.

Pour cela, je vous invite à visiter les marques de deux groupes importants du secteur : Swatch Group (dont : Omega, Breguet, Longines, Tissot) et Richemont (dont : Cartier, IWC, Jaeger-LeCoultre, Panerai).

D’entrée de jeu, je peux dire que je ne suis pas bluffé par la présentation qui nous est offerte !

Quelles que soient les marques, elles semblent s’être donné le mot pour nous présenter une version à peine modernisée de la « foire aux échantillons de Bâle ».

Les montres sont présentées en vrac, à peine classée par catégorie de modèles avec une vague tentative de web marchand. Quelques caractéristiques techniques, une belle photo et quasi rien d’autre.

La présentation n’est pas beaucoup plus sophistiquée qu’un site marchand généraliste.
Sans parler des approximations de présentation : des images chevauchent le texte, des contenus sans cohérences et sans logique. Je relève des slogans et des affirmations navrantes que par pure charité je ne reproduis pas ici.

Tout cela est bien loin de l’image du luxe qui devrait n’être que volupté et exclusivité !
L’expérience client est en total décalage avec la prétention d’excellence dont se prévaut l’horlogerie helvétique.

Que manque-il ?

Le web est l’occasion de communiquer à bon compte, d’inscrire la marque dans un territoire, de créer de l’émotion, d’établir un lien avec l’univers de la marque.
Je notes quelques points qui me semblent manquer dans la communication web :

L’identité et la légitimité.
Quelle est cette marque ? Quel est son ADN ? Dans quel environnement évolue-t-elle ?
Je veux me reconnaitre dans un produit. Mon choix doit me correspondre, je n’achète pas une simple montre, j’achète un « moi ».

Tentez l’exercice de comprendre qui est IWC et qui est Jaeger-LeCoultre. Je suis bien en peine de répondre à cette question en visitant leur vitrine. Comment peuvent-ils provoquer mon envie dans ces conditions ?

La belle histoire
Les marques horlogères ont une histoire, elle a forgé leur ADN, elle les rend légitimes.
En filigrane je dois comprendre d’où vient une marque et où elle va. Je n’achète pas une montre, j’achète une belle histoire qui a le parfum de l’authenticité.
Et de grâce, la belle histoire n’est pas une succession de faits égrenés au fin fond de votre vitrine avec des termes creux et sans signification. Ce n’est pas en affirmant être « haute horlogerie » dans toute votre communication que je vais vous croire. Soyez crédibles !

Tous ne peuvent avoir été sur la lune, mais la majorité ont une histoire qui permet de lier le passé au présent. Relisez votre propre histoire et faites-moi rêver ! Votre histoire sera certainement plus légitime que les ambassadeurs dont nous savons tous qu’ils sont à vendre au plus offrant.

Le produit
Le produit doit être beau (selon les goûts de chacun) et unique, comme votre vitrine internet. Ce n’est pas une description désincarnée qui va me convaincre que je touche le ciel.
Je n’achète pas un produit fonctionnel chez un boutiquier. Je veux une expérience, je veux me projeter dans un univers unique, je veux être rassuré quant aux qualités uniques du produit.

Les clients
Ce sont vos clients, il faut les convaincre et les accompagner. Humanisez votre communication, établissez une relation, une émotion. Créez du lien entre votre client et votre produit. C’est votre client qui juge votre vitrine. Montrez-lui de l’attention, séduisez-le, choyez-le.

La couronne revient à…

Je me suis demandé comment j’architecturerais une vitrine horlogère sur le net et j’ai cherché l’horloger qui cochait toutes les bonnes cases. Il n’y a pas de hasard, faites un tour sur le site de la marque à la couronne et vous aurez une idée de la perfection en matière de vitrine digitale.

Attardez-vous sur les présentations de Sir Jackie Steward, Tiger Wood, James Cameron et vous aurez un exemple parfait du lien entre l’humain qui est placé au centre et le produit. C’est remarquablement réalisé.

Naviguez dans la gamme des montres de Rolex : chaque produit est rattaché à une histoire, la présentation raconte l’exception et légitime votre futur choix. C’est simplement parfait.

Un produit d’exception se doit d’avoir une présentation d’exception. Votre vitrine va laisser une impression à vos futurs clients, avec le risque qu’ils ne reviennent pas deux fois. Il reste un gros travail à effectuer pour être à la hauteur des attentes du consommateur devenu exigeant.

© Pascal Rulfi, novembre 2020.

Téléchargez l’article : Vitrine_horlogere

Publié dans Généralités, Stratégie | Marqué avec , , , , | Laisser un commentaire

Aborder le numérique et gagner en efficience

La pandémie Covid-19 aura au moins eu le mérite d’interroger nos pratiques et obliger les organisations à trouver des solutions rapides à un problème donné.

Il est intéressant de constater avec quelle rapidité le télétravail s’est mis en place alors que depuis une bonne vingtaine d’années, cela semblait si compliqué à installer.
Cela démontre, si besoin était, que les moments de crises favorisent les évolutions et les réformes.

Toutefois, l’introduction de nouveaux outils tels le travail à distance n’a de sens que si l’on en connait les attentes et les points de mesure sans quoi, le télétravail ne sera à terme qu’un aménagement du confort des bureaucraties sans plus-value pour l’organisation et ses clients.

L’environnement statique

Nos organisations mécanistes ont été dessinées à l’usage d’un monde simple et prédictible. Il s’agissait de mettre en place des chaines de production pour des services ou des produits déterminés. Dans le fond, la seule question consistait à dimensionner la chaine de production et à l’adapter en fonction de la demande.

La chaine elle-même n’était capable de produire qu’un type de service ou de produit sans véritable souci apporté à la satisfaction du consommateur. Ce dernier n’avait de toute façon pas trop le choix.

Ce type d’environnement a contribué à la constitution d’organisations en silos et a forgé des bureaucraties professionnelles caricaturales.

Dans cet ancien monde stable et homogène, un comportement conservateur était valorisé. Dans ces structures, les évolutions sont quasi impossibles tant l’inertie est importante. Les plus figés refusent tout progrès au risque de disparaitre lorsqu’il existe une concurrence.

L’environnement dynamique

Jusqu’il y a peu, les outils étaient tout au plus des automates destinés à une fonction unique. Au contraire, le numérique, outil plastique et adaptable, offre d’infinies possibilités, ce qui le rend pertinent dans tous les domaines d’activités. De plus, notre environnement est devenu instable et peu prédictible, ce qui implique une capacité d’adaptation élevée pour survivre aux aléas.

L’outil numérique nous force à réinventer notre façon de travailler car il est intrinsèquement disruptif.
Une évolution est une amélioration d’un processus en place, elle peut être abordée en interne par des personnes soucieuses d’optimiser leurs propres processus.
En revanche, la disruption casse potentiellement la totalité du processus en place qu’il faut réinventer. Il est donc très difficile de faire conduire le changement par des personnes internes à l’organisation.

Demander aux acteurs de l’organisation d’imaginer des solutions disruptives a toutes les chances d’échouer ou de déboucher sur un résultat peu convaincant. A titre d’exemple, nous avons tous expérimenté des services en ligne ardus, peu pratiques et qui demandent de renseigner des informations parfaitement superflues.
Les causes sont souvent imputables à la façon dont les projets ont été menés : ils ne réinterrogent jamais le sens même du processus et sont rarement pensés dans une perspective de confort de l’usager.

De façon souvent inconsciente, ces projets sont abordés pour optimiser le confort de la bureaucratie. D’où mon avertissement en introduction concernant le télétravail.

Le numérique permet de travailler plus intelligemment, il offre un avantage compétitif et il est efficient. Pour ces raisons, les organisations ne peuvent plus faire l’économie d’une démarche sérieuse d’interrogation de leurs processus de production en intégrant les possibilités des technologies actuelles dont le numérique fait partie. C’est ce qu’on appelle une démarche « 4.0 ».

En particulier, la délicate situation financière actuelle des Etats et de leurs administrations doit inciter à questionner les processus de production. En effet, ils fonctionnent souvent de manière archaïque en comparaison avec d’autres secteurs. Trouver des sources d’efficiences devient une nécessité.

Comment faire ?

Nous l’avons vu, les démarches internes ou les démarches top-down produisent de piètres résultats.
J’identifie trois causes principales :

  • La proposition reproduit l’organisation existante.
  • La proposition n’est pas imaginée comme un processus intégré.
  • La proposition n’est pas destinée à faciliter la vie de l’usager.

Je préconise une approche que j’ai baptisée « design piloté par le résultat ».
La méthode consiste à examiner le résultat final souhaité et de formaliser le processus en fonction de cet objectif. Elle permet de se recentrer sur la mission. Ainsi, l’expérience du client est l’arbitre de la pertinence de la proposition dont on s’attend qu’elle soit : utile, simple et rassurante.

Utile : la demande de l’usager doit faire du sens pour lui, elle doit être légitime donc utile.
La compréhension intime de ce qui est attendu par l’usager doit guider le but de la démarche.
Par exemple, une attestation demandée à l’administration et destinée à la même administration ne fait aucun sens, elle n’est donc pas perçue comme utile.
Il faut être attentif à ce qui peut sembler utile pour l’émetteur du service ne l’est pas pour l’usager. Par exemple, demander des coordonnées personnelles pour obtenir une simple liste de prix est perçu comme intrusif.

Simple : la simplicité guide le processus. Pour n’importe quelle démarche, seul le strict minimum est demandé et la compréhension du processus doit être évident et immédiat. Il faut bannir les explications complexes et les formulaires à rallonge. L’objectif de simplicité permet la rapidité.
Un bon exemple est le portail web de la compagnie EasyJet. Il offre une façon très ergonomique et simple de réserver un vol.

Rassurante : le processus n’engendre pas le doute chez l’utilisateur. Il sait ainsi tout au long de la démarche où il en est, où il va et quand et comment le service sera délivré. Il est accompagné de façon rassurante durant tout le processus.
Par exemple, les marchands en ligne rassurent l’usager en offrant des services d’évaluation de produit, d’évaluation du marchand, de suivi postal.

Le design piloté par le résultat (DPR ci-après) implique donc une démarche vertueuse avec plusieurs bénéfices à la clé.

  • Le DPR s’affranchit des organisations et des silos.
    L’unité, le service ou le département dans lequel le service est produit ne concerne pas le client. Cet aspect doit être totalement invisible pour ce dernier

    Par exemple, une demande de passeport, une demande d’attestation de police, un changement de véhicule ou une attestation de solvabilité sont produits par des services différents. Aujourd’hui chaque service imagine son propre processus de façon isolée et avec ses propres contraintes.

    Analyser ces demandes selon le DPR permet de déduire que toutes ces prestations disparates portent finalement sur la production de documents. La prestation doit être délivrée de façon cohérente, uniforme et dans un portail qui facilite la vie de l’usager en occultant la mécanique organisationnelle.
  • Le DPR interroge la simplicité du processus.
    L’Union Européenne s’est fixé l’objectif de ne demander qu’une seule fois une information à l’usager. Cet objectif a été repris à Genève dans le discours de Saint-Pierre en 2005 (!).
    Les informations demandées à l’usager seront limitées au strict nécessaire. Les spécificités de chaque processus trouveront le chemin le plus simple et logique possible afin de créer une expérience client la plus fluide possible.

    Pour reprendre l’exemple d’une attestation, une authentification est suffisante et le document doit immédiatement être produit sous forme numérique, sans aucun retard.
    Le contre-exemple est la e-demande de passeport qui exige de renseigner un lot d’informations superflues telles que l’adresse, le numéro de l’ancien passeport, nom du père et de la mère.
  • Le DPR interroge l’intégration du processus.
    Le traitement électronique doit impliquer une automatisation complète des processus. L’objectif est d’éviter toute intervention humaine. Pour l’usager c’est l’expérience d’une prestation délivrée de manière rapide d’autant que l’immédiateté est devenue son quotidien.
    Cette exigence implique que les informations nécessaires à produire une prestation sont consolidées, parfois de manière transversale en exploitant les bases de données de façon entièrement automatisées.
    Les banques offrent de bons exemples d’une intégration poussée : opération financières, trafic des paiements, état des comptes, informations boursières, tout passe par un portail homogène et entièrement automatisé.
  • Le DPR interroge la transparence du processus.
    A n’importe quel moment l’usager est accompagné dans son parcours, le système l’informe sur le délivrable et les conditions dans lesquels la prestation est fournie.
    L’usager peut suivre les étapes de sa demande et en connaitre le statut. Pour l’usager c’est l’expérience d’une prestation délivrée de façon rassurante.

    Par exemple, avant un voyage qui implique un changement d’avion, Air France envoie un message et indique comment se déplacer dans l’aéroport pour atteindre son prochain vol et combien de temps cela va prendre. Ainsi le voyageur est rassuré dans cette l’expérience toujours stressante qu’est le transit dans un aéroport.

Pour résumer, dessiner un processus de production selon le DPR consiste à partir du résultat et de créer le processus afin d’offrir une expérience client la plus utile, rapide, simple et rassurante.
Une fois les objectifs fixés par la démarche du DPR, le projet peut être démarré avec la quasi-certitude qu’il créera non seulement de la satisfaction client mais qu’il générera de l’efficience dans la façon de produire la prestation.

Avec qui ?

Jusqu’à présent, les acteurs d’un projet informatique étaient le donneur d’ordre (les responsables opérationnels) et l’informaticien, ce dernier tentant de traduire la demande du donneur d’ordre en une solution informatique. Le gros défaut de ce type de démarche est qu’il ne réinterroge pas la façon de travailler.
Donc, soit on implémente une solution logicielle standard qui cadre le processus mais ne correspond pas tout à fait au besoin, soit on développe une solution qui reproduit l’existant et ses incohérences organisationnelles.

Pour qu’un projet de numérisation d’un processus soit un succès, il convient, selon moi, d’ajouter deux métiers :

  • Un designer de l’organisation (dans l’industrie appelé un agent de méthode)
  • Un ergonome

Le designer de l’organisation reformule l’organisation en fonction des objectifs du DPR. Il challenge les acteurs en place pour trouver l’organisation la plus efficiente, en dehors des contingences de structure. Il trouve des solutions pour simplifier les processus et optimise les gains en productivité. Il veille à ne pas générer « d’usine à gaz » et il arbitre la pertinence d’une automatisation.

L’ergonome travaille avec le designer de l’organisation, il est le garant d’une expérience client fluide et rassurante. Il analyse les attentes du client et comprend les ressorts émotionnels d’une expérience réussie.
Il challenge les informaticiens et les techniciens pour arriver à des interfaces les plus logique et les plus simples possibles.

Les informaticiens et les techniciens sont en charge de l’implémentation de la solution technique. Ils apportent leur expertise, ouvrent le domaine des possibles et challengent le designer en apportant des solutions pertinentes.

Les responsables opérationnels, qui auparavant dirigeaient le projet, ont désormais une voix consultative. Ils formulent les spécificités du métier, produisent leur analyse de risque, détectent les « points chauds ».

Au moment de la conception, les quatre acteurs se challengent pour trouver la solution la plus satisfaisante pour le client. Sans oublier que la prestation ou le service n’ont pas pour vocation de répondre à tous les cas, automatiser des cas complexes et marginaux n’a aucun sens.

En conclusion, numériser est un métier qui demande des compétences que n’ont généralement pas les opérations. Le temps du bricolage, des livres blancs et des rapports de prospective est révolu. Notre environnement nous impose de réinterroger concrètement nos fonctionnements en fonction des possibilités actuelles. Je ne suis pas loin de penser que c’est une question de survie. En tout cas, nombre de secteurs économiques l’apprennent à leur dépens.

© Pascal Rulfi, mai 2020.

Téléchargez l’article : Efficience

Publié dans Concepts, Gouverance, Informatique, Stratégie | Marqué avec , , , | Commentaires fermés sur Aborder le numérique et gagner en efficience

Ingénieurs, une génération gaspillée

Je vais commencer cette chronique en vous relatant deux anecdotes authentiques et personnelles qui ont pour cadre le poly au milieu des années 80. L’école venait d’ouvrir la section d’informatique et attirait des étudiants plus intéressés par l’avenir que par le passé.

Première anecdote. A ses heures perdues, mon collègue d’alors avait imaginé et dessiné un ordinateur qui se manipulait directement sur l’écran. Des pictogrammes permettaient de lancer un programme et la navigation était sommairement formalisée. Son imagination fertile en avait fait un instrument portable, dessiné comme une espèce de plaque autonome.
Pour faire simple, il y avait imaginé les principaux éléments de ce que nous connaissons actuellement comme un assistant personnel ou une tablette, ceci avec 10 ans d’avance.

Seconde anecdote. Lors des repas pris à la cantine de l’école (le Parmentier pour les intimes) j’ai le souvenir de nombreuses discussions sur le fait que le pouvoir serait à l’avenir entre les mains de ceux qui maîtriseraient les machines et les données. La capacité de collecter, de traiter et de conserver l’information devait faire des informaticiens les maîtres du monde.
Si la fougue de la jeunesse expliquait cet optimiste, le pronostic n’en demeurait pas moins visionnaire. Toutefois les informaticiens n’ont été que les employés des nouveaux maîtres du monde : les GAFA.

Ces idées n’étaient ni issues d’une position de l’école, ni d’élucubrations du corps professoral, il s’agissait d’intuitions de jeunes adultes à la tête bien faite et ayant la capacité d’imaginer les évolutions futures et de comprendre la puissance et les conséquences des outils qui étaient à leur disposition. Les idées et le matériau humain étaient présents, mais ont-ils été bien utilisés ?

En action dans le monde professionnel

Leur diplôme en poche, tous ces ingénieurs ont été rapidement absorbés par le marché qui avait un grand besoin d’informaticiens. Dans un métier très peu structuré, ces ingénieurs hautement qualifiés ont accompagné la montée en charge de l’informatique dans notre environnement, cependant leur potentiel créatif a rarement été optimisé.

Durant leur carrière, ils ont été amenés à introduire et maintenir des produits tiers. Parfois à développer des programmes pour des clients uniques.
Le digital est le vecteur de profonds changements, pourtant nous n’avons pas su créer une industrie de pointe dans ce secteur. En Europe, l’industrie du logiciel occupe quelques marchés particuliers (ERP, CAO), souvent liés à l’industrie lourde. Sur le plan mondial, notre continent est très largement dépassé en matière de transformation numérique.

Ma propre expérience sur le terrain m’a confronté à nombre d’embûches dans le montage de projets dans les technologies du numérique. En voici les éléments clés :

  • La fragmentation du marché.

Au début des années 1990, la mobilité intercantonale n’était de loin pas acquise. Depuis Genève, prétendre aborder le marché fribourgeois était totalement incongru.
Pour un même secteur d’activité, chaque structure était jalouse de son indépendance. Convaincue d’être unique, elle dépensait ses ressources à réinventer la roue pour le plus grand bonheur des loueurs de ressources humaines, avec des résultats souvent modestes.

  • Le conservatisme et l’incompréhension.

Le numérique est un secteur stratégique, mais non central dans les entreprises. Rares ont été les instances dirigeantes éclairées qui ont su appréhender l’outil comme un facteur clé de leur compétitivité. L’informatique est restée au rayon des outils opérationnels sans trop savoir ce qu’on en attendait.
Ainsi le secteur informatique a dépensé beaucoup d’énergie à évangéliser le marché et le client n’a pas toujours été le moteur de sa propre évolution.

  • Un outil abordé comme un consommable.

Corollaire du point précédent, l’informatique a été abordée comme on achète une machine ou un camion. Un outil de production statique qui demande un investissement de départ et qui s’amortit sur plusieurs années moyennant un peu d’entretien.
Or le numérique est disruptif, ce n’est pas un automate programmable à la fonctionnalité unique, mais un outil protéiforme en mutation continue. Il s’intègre dans une organisation qui doit évoluer en permanence.

  • Le financement.

Cette fragmentation n’a pas permis l’émergence de leaders suffisamment forts pour se frotter à aux marchés internationaux avec les moyens financiers qui permettent de le faire.
Malgré l’excellence de nos écoles et la qualité de nos étudiants, nous n’avons pas su faire dans le numérique ce que d’autre secteurs d’excellence ont réalisé avant nous, c’est-à-dire une industrie compétitive et prospère.

Fort de ces constats, je suis convaincu que nous avons collectivement dilapidé le potentiel de nos ingénieurs et gaspillé d’importantes ressources par manque de vision et de courage. Peut-être que la situation économique était trop confortable pour sentir le danger. De même, le monde politique, plus sensible à préserver les acquis et conserver le passé que de construire le futur a contribué à cet immobilisme.

Enfin, les gains en productivité ont été facilement acquis par le déplacement de la production dans des pays à bas coûts. Cette illusion de compétitivité a des conséquences, car il n’y a aucune création de valeur en local ce qui réduit notre autonomie.

La Suisse a manqué l’occasion de créer une industrie du logiciel prospère et a laissé ce secteur stratégique à d’autres alors qu’elle avait et a encore les ressources pour générer de l’excellence.

L’industrie du numérique évolue extrêmement vite, ce qui offre des opportunités à chaque révolution technologique. Ce dynamisme impose un rythme et des usages différents que ceux qui sont en vigueur dans les industries traditionnelles.
L’objectif est de proposer des produits logiciels adaptés à la demande mais également anticiper le futur en élaborant des produits innovants car la demande est souvent ignorante et conservatrice.
Une concentration des investissements doit contribuer à rapidement atteindre une masse critique qui permet de faire évoluer les produits et attaquer un marché globalisé.

Quelles pistes ?

Quelles seraient les pistes pour créer une industrie du logiciel ? Voici quelques propositions :

  • Assurer du financement.

Le logiciel est un produit de nature industrielle qui nécessite d’importants investissements.
L’Europe n’a pas de tradition dans le capital risque et les banques n’ont pas pour vocation d’être des investisseurs. L’Europe se tourne traditionnellement vers un financement étatique, qui est rarement réputé pour sa vision avant-gardiste. Il faut donc trouver un modèle d’investissement alternatif.

Ma proposition consiste à inciter les grands donneurs d’ordre à commander leurs logiciels à des structures externes spécialisées, cas échéant, qu’elles auront créée. Il ne doit pas s’agir d’une collaboration d’opportunité mais d’un véritable partenariat qui s’inscrit dans la durée et avec des objectifs partagés. Je fixe deux conditions à ce partenariat :

  1. Un objectif de fonctionnalités qui dépasse les simples besoins du donneur d’ordre. Ainsi plutôt que produire un logiciel qui ne s’adapte qu’à un besoin unique, cela force tout le monde à prendre de la hauteur et de productiviser la future solution logicielle.
    Si les grands éditeurs de logiciels livrent des standards qui couvrent des besoins globaux (ERP, CAO, DB, etc ), il est en revanche difficile de trouver des leaders sur des marchés de niche.
    Il faut donc cesser de développer des solutions uniques et envisager des synergies chaque fois que cela est possible. Par exemple, aucune collectivité publique ne devrait développer du logiciel pour sa seule circonscription.

  2. Un engagement fort des parties prenantes par une prise de participation du donneur d’ordre chez le producteur de logiciel.
    Par exemple, les travaux correspondant à la réalisation d’un cahier de charge seraient rétribués à la tâche. En revanche, l’investissement qui permet de productiviser (généraliser et commercialiser) la solution passerait par une augmentation de capital de l’entreprise du producteur.
  • Création d’un biotope

Contraint par la vitesse de l’évolution du domaine, il faut veiller à conserver une proximité avec les lieux à la pointe telles les écoles et les universités. Une synergie entre l’industrie et l’académique est bénéfique, c’est d’ailleurs ce qu’on peut observer avec les clusters d’entreprises autour de l’École Polytechnique Fédérale de Lausanne.

Il faut encourager les fermes d’entreprises du logiciel à se développer près de la recherche académique. Cette proximité est une incitation au partage des pratiques et des ressources. Il s’agit également d’éviter la production de logiciels aux fonctionnalités proches ou identiques qui fragmentent inutilement les investissements et ne permettent pas un déploiement sur les marchés à cause d’une masse critique systématiquement insuffisante.

  • Un marché dynamique et fluide

Il existe un réflexe atavique qui consiste à penser que notre solution sera meilleure que celle du voisin. Cela mène à perpétuellement réinventer la roue avec une inefficience certaine.
Le logiciel est un facteur clé dans les gains de productivité. C’est un sujet stratégique qui doit être abordé au plus haut niveau de l’organisation, laquelle doit veiller à être bien informée sur les sujets du numérique, en particulier sur les deux points suivants :

  1. Lorsqu’on veut introduire une solution qui implique du logiciel, il faut donner la priorité à une solution existante et tenter de créer des synergies.

  2. Il faut effectuer une veille stratégique sur les innovations technologiques et examiner en permanence et de façon non dogmatique les gains de productivité que de nouveaux concepts peuvent apporter.

Ainsi le marché motive l’industrie du logiciel à produire des solutions et crée un cercle vertueux de croissance d’actifs en matière de solutions.

De leur côté, les pouvoirs publics doivent cesser de percevoir le numérique comme un service mais intégrer qu’il s’agit d’une industrie. Ce secteur doit faire l’objet d’une politique active. En effet, ce secteur est jeune, localement peu fédéré et peine à défendre une position cohérente telle que les autres secteurs matures de l’économie savent le faire.

Ainsi, le manque de coordination a disqualifié un secteur pourtant promis à une énorme croissance. Il n’est pas trop tard pour prendre place sur ce marché moyennant que les ingénieurs et scientifiques reprennent une place de choix. Rappelons que par leurs ambitieuses réalisations, ils ont été le moteur de la prospérité helvétique.
Il nous appartient de prolonger l’effort afin de créer les richesses de demain.

© Pascal Rulfi, avril 2020.

Téléchargez l’article : Ingénieurs

Publié dans Concepts, Généralités, Gouverance, Informatique, Stratégie | Marqué avec , , | Laisser un commentaire

Taylorisme, le bout du chemin ?

Cette période de pandémie peut être appréhendée comme une sorte de test de résistance pour notre société. Dans des activités proches, certains sont à l’arrêt alors que d’autres se retrouvent en surcharge. Toutes les tâches ne sont bien entendu pas échangeables du jour au lendemain, notamment pour des raisons de compétences métiers, toutefois c’est l’occasion d’évaluer la capacité d’adaptation de nos organisations face aux perturbations de notre environnement.

Une taylorisation omniprésente

La taylorisation est une méthode de rationalisation du travail qui consiste notamment à subdiviser le travail en petites tâches reproductibles propre à augmenter le rendement d’une production industrialisée. Cette organisation a été caricaturée dans le film « les temps modernes » de Charlie Chaplin qui dénonce au passage le caractère abrutissant du travail sur une chaine de production.

Cette organisation démontre toute son efficacité économique dans une production standardisée. L’industrie qui produit des biens de consommation en masse a introduit avec succès la division du travail dès le tout début du XXème siècle.

Insidieusement, la division du travail a percolé dans toutes les organisations de telle manière que nous la considérons généralement comme juste et naturelle.

Par exemple, il nous semble logique de diviser les organisations administratives en entités spécialisées étanches entres elles. Ainsi nous acceptons qu’une carte d’identité et d’un permis de conduire soient délivrés dans des lieux différents par des personnes différentes.

Plus curieux est le cas de l’école qui a divisé l’organisation du savoir en plusieurs matières, elles-mêmes subdivisées en chapitres. Il y a dans cette approche de l’enseignement une taylorisation manifeste qui considère l’élève comme un produit standardisé auquel on ajouterait du savoir par empilement de couches successives dans un processus industrialisé. Si cette méthode avait une chance de fonctionner, tout le monde parlerait allemand à l’issue de sa scolarité…

L’échange, facteur de progrès

L’histoire nous montre que les facilités d’échange ont été à l’origine de transformations importantes.

L’imprimerie, attribuée à Gutenberg au XVème siècle, a permis la diffusion du savoir avec pour conséquences de profonds bouleversements, tant religieux que scientifiques.

La mécanisation des transports à la fin du XIXème siècle a grandement accéléré les échanges physiques et épistolaires. Ainsi les grandes découvertes de la physique explosent au début du XXème siècle car la possibilité d’entretenir des échanges soutenus entre scientifiques a accéléré leurs travaux.

Congrès de Solvay 1927

À la fin du XXème siècle, le réseau internet révolutionne notre environnement et démultiplie les échanges avec une portée extraordinaire dont nous ne mesurons pas encore toutes les conséquences.

Nous observons ici que la densité des échanges favorise une forme d’intelligence collective. Cela impacte positivement notre faculté d’inventer et notre capacité d’adaptation.

À l’inverse, une structure organisationnelle mécaniste empêche une circulation rapide de l’information. Ainsi, les lignes de commandement figées et l’optimisation des chaines de production sont économiquement efficaces pour des productions standardisées mais ne créent pas d’intelligence collective. Pire, les tâches sont abêtissantes par le caractère répétitif du geste ainsi que par le manque de sens donné à l’action.

Augmentation de l’imprévisibilité

Nous avons tous constaté que notre monde globalisé et interconnecté accélérait. Les changements interviennent de plus en plus vite et constituent autant de chocs aléatoires et imprévisibles auxquels nous devons opposer une réponse rapide et pertinente.

Économie, finance, pandémie, technologie, écologie, internationalisation, sont autant de sujets qui nous éprouvent et dont notre environnement semble en peine d’y apporter des réponses efficaces.

Nous ne pouvons plus considérer que nous évoluons dans un monde stable émaillé de quelques crises passagères. En effet, nous sommes désormais face à une succession de situations changeantes qui demandent une adaptation permanente.
Par conséquent il devient impératif d’adapter nos modèles d’organisation à cette nouvelle réalité.

Intégrer l’instabilité

Notre environnement impose les contraintes ce qui nous permet de fixer des priorités. Je les détermine comme suit :

  • Sens : ce que nous faisons doit avoir du sens. Le sens garde en éveil et favorise la création de valeur.
  • Réactivité : permet d’adapter notre organisation aux changements.
  • Flexibilité : permet d’adapter les moyens et les ressources aux changements.
  • Efficience : introduit le paramètre de coût dans l’action.

Ce changement d’environnement consiste à passer d’un monde stable à un monde instable. Ce sujet est abondamment commenté dans la sociologie des organisations et en particulier par l’école de la contingence qui fournit les modèles d’organisation en fonction de l’environnement et de ses contraintes.

Illustrons ce changement par quelques exemples :

Objectif réactivité.
Échanger avec les bonnes personnes et décider rapidement est l’enjeu.

Dans l’organisation mécaniste, une communication suit la voie hiérarchique jusqu’au sommet et redescend jusqu’à la bonne personne dans une autre branche. Au passage, à chaque niveau, on implique de nouvelles personnes ce qui va engager des dizaines d’intervenants qui risquent d’interférer dans le processus sans apporter de valeur ajoutée et en lui faisant perdre beaucoup d’énergie.
Des échanges directs entre les personnes concernées accélèrera le processus. En définitive le responsable fournit un objectif clair et en attend un délivrable dans un délai et un effort convenu. Cette mission unique est un projet que l’on abordera avec les fondamentaux de la gestion de projet, ceci exécuté de façon efficiente.

Objectif flexibilité.
Une personne est capable d’assurer des missions diverses sur la base de ses compétences fondamentales.

L’ingénieur est certes spécialisé dans un domaine de la technique mais c’est surtout une personne dont l’approche scientifique et analytique permet d’assurer nombre de missions qui demandent de résoudre des problèmes.
Employer un ingénieur à la même fonction pendant vingt ans est un gaspillage de ressources. Ses capacités ne seront ni exercées, ni enrichies et cela le disqualifiera à terme. Cette remarque n’est bien entendu pas réservée aux seuls ingénieurs.
Il semble plus important d’identifier les compétences et non le métier. Ensuite on doit veiller à créer de la mixité et du mouvement dans l’emploi des ressources humaines car cela favorise l’échange, l’éveil et les compétences. Le tout met du sens au travail et facilite l’adaptation des structures à leur environnement.

Objectif efficience.
Assurer une production de qualité en optimisant les ressources est une forme d’écologie du travail.

Un document administratif délivré par des guichets segmentés par service a peu de sens. La prestation ne consiste pas à délivrer un document au terme d’une chaine de production individuelle, mais à délivrer un document, quel qu’il soit, avec efficience et avec une expérience client de qualité.
L’efficience commande de diminuer le nombre de guichets par un regroupement des services et de favoriser les canaux numériques. Une réorganisation est l’occasion de porter une attention particulière à la façon dont le service est délivré avec pour objectif de rendre l’expérience agréable au client.
Produire une prestation de façon optimale demande de s’interroger sur la totalité des processus de production et à les réaménager au besoin.

La liste n’est bien entendu pas exhaustive et les exemples peuvent être multipliés à l’infini.

Objectif sens.
Finalement les objectifs de réactivité, de flexibilité et d’efficience concourent à donner du sens à l’action du collaborateur par l’implication, la responsabilité et la visibilité qu’il a dans les processus.

Aborder la mutation

Une des façons d’aborder un tel changement est de se concentrer sur la qualité de service et l’expérientiel client en toutes circonstances. La question déterminante se pose en ces mots : ne demande pas ce que l’organisation peut faire pour toi, demande ce que l’organisation va faire pour ton client !
Par conséquent, on veille à fixer des objectifs qui aient du sens et qui soient économes en ressources.

Ces optimisations de processus ne relèvent pas d’une étude unique et limitée dans le temps mais d’un processus incrémental et évolutif, donc continu.
Cette mission ne doit pas être confiée à un consultant externe dont on attend un cahier unique de propositions. Il faut mettre en œuvre une collaboration entre différentes forces, internes et externes de manière à ce que les personnes directement concernées s’approprient les résultats de cette recherche d’optimisation.
Ce n’est pas aux responsables de département/de service de réinterroger les processus car ils reproduiront le schéma dans lequel ils ont l’habitude d’évoluer.

Cela modifie profondément la façon de s’adapter aux conditions changeantes, nous ne sommes plus dans un schéma top-down mais dans des environnements de cocréations.
Une telle révolution organisationnelle requiert des collaborateurs impliqués et intéressés à trouver des solutions. Le management doit être prêt à tester, prêt à se tromper et prêt à remettre en cause.
En résumé le plus gros enjeu concerne la gestion des ressources humaines.

Cela tombe bien car la population n’a jamais été aussi bien éduquée et bien formée. Elle est de plus en plus agile, comprend son environnement, trouve spontanément des solutions et attend du sens à son action. Le tout correspond en partie aux caractéristiques attribuées à la génération des milléniaux.
Je suis certain que cette population, qui forme les ressources humaines, est prête à relever les défis de notre temps.

Cette évolution ne doit pas être considérée comme un risque. C’est une opportunité enthousiasmante. Elle a le potentiel de redéfinir nos environnements de travail en leur donnant du sens tout en améliorant la qualité et l’efficience des prestations délivrées.


© Pascal Rulfi, avril 2020.

Téléchargez l’article : Taylorisme

Publié dans Généralités, Gouverance, Stratégie | Marqué avec , , | Commentaires fermés sur Taylorisme, le bout du chemin ?

Dynamique des mauvaises décisions

Nous connaissons tous des projets qui ont été des échecs, en particulier dans le domaine informatique. Ces projets cumulent généralement des erreurs de gestion que la littérature a abondamment commenté.

En amont, comment les décisions ont été prises ? J’ai eu l’occasion d’assister à plusieurs négociations pour des projets informatiques dont le succès me semblait d’avance compromis.

L’informatique a la caractéristique d’être stratégiques au cœur des organisations mais ne se trouve pas dans le domaine de compétence naturelle de ces dernières.
Les petites et moyennes structures ne peuvent généralement pas compter sur un service interne de haut niveau qui peut accompagner la prise de décision. C’est ainsi que la direction se trouve sur le front des négociations face à des commerciaux d’avant-vente qui promettent la lune. La décision revient à quelques personnes qui n’ont souvent pas tous les éléments en main.

Les négociations entre le client et le fournisseur ressemblent à une table de poker menteur. Le jeu est parfois inégal car le client ne maitrise pas tous les enjeux.
Parfois invité à la table des négociations, j’ai observé les personnalités des différentes parties prenantes. Œil extérieur aux discussions j’ai pu prédire avec une certaine fiabilité les projets qui poseraient des difficultés, voire qui seraient des échecs.

Mes observations m’ont amené à identifier certains traits de personnalité de décideurs qui ont foncé dans des projets aventureux. Les trois typologies décrites ci-dessous correspondent à des expériences plusieurs fois vécues pour des projets liés aux technologies de l’information.

Le bluffeur

Le bluffeur pâtit de lacunes de compétences manifestes. Il comble ses manquements par des affirmations basées sur la simplification des complexités. C’est le spécialiste du « yaka ».

Face à des subalternes mieux armées que lui, il fait preuve d’autorité. En agissant de la sorte, il fait taire les doutes et les oppositions ce qui a pour effet d’occulter les alarmes et les risques. Et comme il s’est constitué une vérité simplifiée, il considère rapidement qu’un collaborateur qui émettrait des doutes n’est qu’un frein à ses desseins.

Dans ce cas, le commercial flatte son interlocuteur et accepte toutes les demandes avec cette déclaration mortelle : « tout est possible ». Cela a pour effet de charmer le bluffeur, trop content d’être soutenu dans toutes ses demandes.
Ainsi, le bluffeur et le commercial vont faire bloc contre les autres joueurs et vont verrouiller la partie et imposer la décision finale.

Malheureusement les demandes fonctionnelles n’ayant pas été sérieusement analysées, le projet à toutes les chances de s’engager dans des voies sans issues.

L’enthousiaste

Il connait bien son sujet et a imaginé des solutions. Il formule ses besoins avec aisance et bluffe son auditoire par son talent oratoire et son leadership.

Habitués à l’autorité et la vivacité d’esprit de leur dirigeant, les subalternes capitulent devant son énergie et sa conviction de détenir la vérité.
L’enthousiaste s’enflamme de sa propre agilité et a tendance à imposer l’idée que la solution est simple.

Agile il s’en tient aux schémas de principe convaincu qu’ils suffisent à expliquer l’articulation de la solution souhaitée et que les logiciels modernes sauront s’adapter à toutes les situations.

Dans ce cas, le commercial n’a pratiquement rien à faire car l’enthousiaste a quasiment fait le travail d’avant-vente. Les grandes lignes ont été posées et les détails fâcheux ne sont jamais abordés puisque le logiciel est censé être aussi agile que le décideur.
Si le commercial n’est pas tempéré par sa propre équipe technique, son besoin naturel de clôturer l’affaire va l’inciter à pousser son client à la signature sans aucune réserve.

Finalement c’est tout seul que le dirigeant enthousiaste se sera engagé dans une aventure qui aura toutes les chances d’être chaotique, voire catastrophique tant les véritables écueils n’auront jamais été identifiés.

L’orgueilleux

Il se veut stratège, il formule le besoin sous forme de « bullet point » et maitrises les mots des consultants.
Il ne se penche pas sur des considérations opérationnelles. Son orgueil le mène facilement à choisir le « meilleur » en privilégiant une solution « best-of-breed », ce qui consiste à empiler les meilleures solutions disponibles.

Les discussions et les décisions ont lieu dans des locaux feutrés loin des collaborateurs qui n’auront pas été consultés. Si l’orgueilleux consulte, c’est auprès de béni-oui-oui qui ne challengeront pas la solution. De toute façon, comme de Gaulle, il considère que l’intendance suivra.

Dans ce cas, les commerciaux de chacune des solutions adoptent un langage de consultant de type « big four ». Ils affirment avec une réelle légitimité que leur solution est leader dans leur domaine respectif mais veillent à ne pas assumer l’intégration avec les autres produits choisis.

Sans expérience et sans avoir sérieusement évalué les difficultés de ce genre d’intégration, le projet à toutes les chances de connaitre une explosion des coûts voire de ne jamais aboutir faute de cohérence.

Que faire ?

Ces quelques cas semblent exagérés tant il parait impossible de trébucher pour des causes aussi futiles. Pourtant il s’agit de plusieurs expériences vécues de façon répétées.

Aux décideurs qui abordent un projet d’importance, en particulier dans le secteur numérique, je suggère quelques points d’attention et de bonnes pratiques qui devrait éviter les plus grandes déconvenues.

  1. Respecter les fondamentaux de la gestion de projet.
    Du cadrage, de la formalisation des objectifs, en passant par le suivi de la réalisation jusqu’au recettage du produit, toutes ces étapes doivent être suivies sans négligence ni amateurisme.

    Il faut clairement savoir où l’on va, ce qu’on attend et comment on mesure le succès. Il faut connaitre son propre fonctionnement en interrogeant ses processus et les collaborateurs qui les portent. Il faut identifier et formaliser ce que l’on peut ou veut négliger.

    Il faut suivre la réalisation du projet avec attention et veiller à designer les rôles et responsabilités de chacun. De plus, le projet doit être rigoureusement suivi et supporté par la direction.
    Bref, rien d’autre que ce que l’on trouve dans la littérature spécialisée dans la gestion de projet.

  2. Identifier et évaluer les points de dureté.
    Certains parleraient de risques, je n’aime pas ce terme car les spécialistes de la gestion du risque ont tendance à surévaluer tout ce qui peut représenter un risque jusqu’à étouffer le projet.
    Je préfère utiliser le concept de « point de dureté » qui consiste à identifier des points d’attention sur tous les sujets qui présentent une difficulté. Ainsi on trouve une solution en amont et/ou on prévoit des ressources là où elles seront nécessaires afin de prévenir au mieux les dérives.

    Cet exercice d’introspection est indispensable, il nécessite des personnes fiables et expérimentées capables de dénicher les complexités et trouver des solutions.
    De plus, tous les acteurs concernés doivent être impliqués et entendus.

  3. Disposer de compétences élevées.
    Contrairement aux batailles rangées où la quantité fait la force, le projet nécessite de la connaissance et de l’intelligence.
    Au minimum, il s’agit de réunir des compétences liées au fonctionnement interne, à la gestion de projet et aux techniques déployées. De plus il faut identifier les limites de son organisation et de reconnaitre ses propres limites.

    Les ressources expérimentées sont rares. Il faut être en capacité d’identifier et de connaitre les personnalités capables de porter le projet avec succès.
    En particulier, il faut privilégier la stabilité et les acteurs qui connaissent bien votre organisation.

  4. Chalenger la décision.
    Ne prenez pas de décision tout seul ! Il faut éviter de s’enfermer dans un tunnel de convictions.

    Il faut non seulement évaluer les compétences et l’expérience des acteurs mais également apprécier leur loyauté. Corolaire, il est sain de constituer une équipe de confiance capable d’apporter sans tabous des éléments constructifs.

    Le processus de décision doit intégrer les points de dureté évoqués ci-dessus. La décision même sera objectivée par un ensemble de critères afin d’éviter les fantasmes de réussite.

J’ai le sentiment honteux d’enfoncer des portes ouvertes tant ces conseils semblent évidents. Pourtant, à la base des projets ayant mal fini, le facteur humain a été prépondérant. Les personnalités et les mécaniques de groupe ont presque toujours été responsables de l’échec.

Comme au poker, il n’y a pas de règles gagnantes ou de procédures infaillibles. Toutefois, une bonne lecture du jeu permet d’éviter des déconvenues cuisantes et coûteuses.

Qu’en pensez-vous ? Avez-vous fait les mêmes constats ?

© Pascal Rulfi, février 2020.

Téléchargez l’article : Décisions



Publié dans Concepts, Généralités, Gouverance, Informatique, Non classé | Marqué avec , , | Laisser un commentaire

« Un avion conçu par des bouffons supervisés par des singes ».

Où il est question de la gouvernance des grandes entreprises.

« Un avion conçu par des bouffons supervisés par des singes », c’est en ses termes que des collaborateurs de Boeing ont qualifié leur entreprise et les gens qui l’animent.
Cet échange a été publié suite aux deux accidents qui ont impliqué le tout nouveau Boeing 737 MAX et qui ont provoqué la mort de 346 personnes.

Je ne vais pas revenir sur les détails techniques de l’affaire, ni sur les raisons commerciales qui ont amené Boeing à négliger la sécurité.

Je me borne à affirmer que le risque était connu et que ses conséquences ont été occultées.

  • Des risques parfaitement anticipables.
    La conception du B737 date de 1964 pour un avion mis en service en 1967. En réalité la conception est beaucoup plus ancienne car le B737 est un dérivé du B707, modèle développé au début des années 50 !

    Les avionneurs savent que la baisse de consommation des moteurs passe par une augmentation du diamètre du réacteur. Et le Boeing 737 est un avion court sur patte qui laisse peu de place entre l’aile et le sol.

    En 1974 cet avion subit sa première refonte majeure avec d’introduction de nouveaux réacteurs qui ont obligé le constructeur à une adaptation pour qu’ils « passent » sous les ailes. Par conséquent, Boeing savait depuis très longtemps que son best-seller nécessitait une refonte complète à court terme pour supporter les évolutions prévisibles des moteurs.
  • Des risques connus.
    L’instabilité intrinsèque du B737 MAX, la dernière itération de cet avion, était connue puisque l’avionneur a ajouté le système « MCAS » une béquille censée stabiliser l’avion dans des situations particulières du domaine de vol.

Pour ne pas se faire distancer par le nouvel et performant Airbus A320 NEO, Boeing a pris tous les risques pour proposer rapidement une alternative. Dans cette bataille et pour conserver des parts de marché, la direction de Boeing a franchi la ligne rouge en négligeant les contraintes physiques, au péril de la vie des passagers et au risque d’un énorme dégât de réputation.

Un avion qui promet 15% d’économie de fonctionnement et un prix d’achat très compétitif grâce à un développement amorti depuis des décennies constitue une offre alléchante qui ne peut que séduire les compagnies. Ainsi le B737 MAX a engrangé un record de commandes dès son lancement.

Qui aurait eu le courage de dire stop aux clients, d’admettre que l’avion deviendrait intrinsèquement instable et de défendre le lancement d’un programme de remplacement suffisamment tôt ? Un programme coûteux qui déplairait aux comptables et aux actionnaires alors qu’il était si facile de profiter de la vache à lait.

In fine, l’avion tombe, deux fois. Les dommages sont colossaux, les montants articulés auraient pu couvrir une grande partie du prix du développement d’un nouvel avion, sous réserve que Boeing eut pris une décision assez tôt.

Une routine récurrente.

Je trouve la similitude avec de récentes catastrophes industrielles frappante. Je pense par exemple à l’affaire du dieselgate de Volkswagen ou l’affaire des subprimes et la triple faillite de l’UBS (3 fois recapitalisée).

Dans chaque cas, on trouve un management tout-puissant, déconnecté des réalités et prêt à prendre tous les risques sans qu’un système de gouvernance oppose un contre-pouvoir efficace.
Réputés too big to fail, plus rien ne peut arriver à ces mastodontes. Cela renforce le sentiment d’invulnérabilité et constitue un authentique certificat d’impunité pour ses dirigeants.

Les trois phases de l’entreprise à succès.

J’identifie schématiquement trois phases dans la vie d’une entreprise à succès.

La première vie est celle des pionniers. C’est la phase de la start-up.
Une idée, souvent incarnée par un dirigeant inspirant et engagé qui mène son projet à l’industrialisation.
Le dirigeant s’implique pleinement dans son projet et le porte à bout de bras.

La seconde vie est celle des bâtisseurs. Le dirigeant qui prend place est expérimenté, il cumule plusieurs expertises et est capable de générer la croissance. Il est impliqué et connait les gens et les produits.

La troisième est celle des prédateurs. L’entreprise est installée, elle génère des profits importants, bénéficie d’une position dominante et manipule d’énormes quantités.

Des revenus mirobolants et un pouvoir exorbitant attire des personnalités très ambitieuses et prêtes à tout pour atteindre le sommet. Souvent orgueilleux, les prétendants font passer leur ambition avant l’intérêt commun.
Des règles d’éthique et de gouvernance lacunaires laissent le champ libre à un manque d’exemplarité des dirigeants. Cela peut impacter la culture d’entreprise et favoriser une généralisation de l’arrogance et la cupidité de l’encadrement.
Ce n’est plus une affaire de compétences pures mais un jeu subtil mêlant opportunité et politique.

Dans l’entreprise des prédateurs, le seul paramètre qui mesure le succès est le profit, souvent à court terme. Ce point de mesure a le mérite d’être simple, il endort et séduit celui qui en bénéficie.
L’éthique des affaires, le risque, l’impact global ou la pérennité font marginalement partie de l’équation.

Dans cette dérive, la complexité technique est une abstraction, les lois de la physique n’existent quasiment pas et les ingénieurs sont des consommables.
Les maitres du jeu sont les financiers et les acheteurs. Le levier de la réussite est d’acheter au meilleur prix une marchandise ou une prestation que l’on croit standardisée.

Dans ce monde de comptables, le savoir-faire et l’expérience n’ont pas de valeur puisqu’on vit dans l’illusion de la traçabilité parfaite, de la reproductibilité assurée et de la négation de la complexité.

Mais que faire ?

Il n’y a malheureusement pas de solutions simples dans un environnement complexe. Construire une voiture ou un avion est d’une complexité industrielle extrême, engage des montants colossaux et demande une vision et du courage.

En matière d’organisation, je remarque :

  • L’homme providentiel est un leurre, le surhomme une fable. Le succès est une affaire collective.
  • L’environnement et les problèmes sont complexes donc difficiles à maitriser.
  • L’expérience est précieuse et longue à constituer. L’expérience n’est pas interchangeable.
  • Le succès n’a de sens que s’il est pérenne.

Dans des marchés matures, piloter une organisation qui évolue dans un environnement très compétitif et contraignant n’est pas une mince affaire. Dès lors, comment choisir une équipe dirigeante dans ces conditions ?

En matière de gouvernance, les principes les plus simples prévalent :

  • Constituer les règles de gouvernance et d’éthique qui président au fonctionnement de l’entreprise.
  • Fixer les objets de gouvernance et les processus de décision.
  • Constituer des contre-pouvoirs robustes (service qualité, contrôle indépendants, canaux d’alarme, etc).
  • Tisser un lien direct entre les directions opérationnelles et le conseil d’administration.

Les points qui constituent la gouvernance et l’éthique de l’entreprise comprennent par exemple les aspects financiers mais également les risques admissibles, les objectifs à long terme, le comportement des affaires et tout ce qui est jugé nécessaire.
Ces points sont mesurables et mesurés par les personnes compétentes dans chacun des secteurs impliqués.

Sur la base des évaluations, le processus de décision offre un outil qui systématise les prises de décision en prenant en compte les avis des professionnels établis de façon indépendante.

Finalement, les personnes qui composent une direction devaient :

  • Avoir des qualités et une personnalité en phase avec la gouvernance d’entreprise.
  • Être évaluées sur l’ensemble des critères qui forment la gouvernance d’entreprise.
  • Ne jamais disposer d’un pouvoir discrétionnaire.

Tout risque ne peut bien entendu pas être écarté. Toutefois, l’objectif est de contenir pouvoirs dictatoriaux qui étouffent les doutes et les oppositions ainsi qu’éviter les comportements d’aveuglement collectif.
L’exercice reste un arbitrage délicat entre les forces conservatrices et les forces progressistes de l’entreprise.
Il appartient aux dirigeants de trouver les pistes au plus proche de l’intérêt de l’entreprise à long terme et de leur propre conscience. Vaste tâche !

© Pascal Rulfi, janvier 2020.

Téléchargez l’article : Boeing 737 MAX

Publié dans Généralités, Gouverance, Non classé | Marqué avec , , | Laisser un commentaire

La disruption vient rarement de l’intérieur

L’innovation disruptive est un sujet d’actualité que l’on retrouve régulièrement à la une des médias. Ces vingt dernières années ont été particulièrement riches en matière de disruption.

La disruption est aussi une affaire de survie pour les entreprises car les nouveaux entrants viennent de là où on ne les attendait pas. Par exemple qui pouvait imaginer il y a moins de 5 ans qu’Apple deviendrait la plus grande marque horlogère au monde ?

Évolution vs disruption

Mais au fait, quelle est la différence entre une évolution et la disruption ?

L’évolution est une adaptation continue qu’effectue un acteur établi en faisant évoluer ses outils et/ou méthodes alors que la disruption écarte les acteurs en place, remplacés par de nouveaux entrants qui changent les usages en s’appuyant généralement sur de nouvelles technologies.

Pour les agriculteurs, le tracteur a été un outil qui a nécessité une importante adaptation de l’activité mais qui n’a pas changé les fondamentaux de l’agriculture. Aussi importante soit-elle, il s’agit d’une évolution.

La plateforme de taxi Uber a la potentialité de faire disparaitre les compagnies de taxi si les états ne régulaient pas le marché. De même la photo numérique a tué les compagnies de photographie argentique tels Polaroid ou Kodak. Il s’agit de disruption.

Est-il possible de créer de la disruption dans une organisation ?

C’est dans les laboratoires de Kodak que le premier appareil photo numérique a été mis au point. Pourtant Kodak n’a jamais été l’acteur dominant de ce marché et a fini par disparaitre.

Ce type d’échec est abondamment analysé dans les écoles de commerce.
Pour ma part, j’observe que l’entreprise est un ring ou s’affrontent les forces en présence. Les services qui génèrent les plus gros revenus sont généralement les plus puissants, ils gèrent ce qu’on appelle la vache à lait de l’entreprise, ce qui leur confère une autorité de fait.
Les tenants d’une position confortable ne vont pas accueillir favorablement des innovations qui risquent de mettre leur situation en danger, quitte à agir contre les intérêts à long terme de l’entreprise.
C’est ainsi que l’innovation disruptive sera étouffée dans l’œuf.

Ma première conclusion : il y a très peu de chance de produire de la disruption au sein d’une organisation établie sur un marché stable. L’organisation elle-même opposera une forte résistance à tout changement.

Les tentatives d’évolution par le marché.

Les administrations publiques lancent des consultations auprès des administrés afin de connaitre quels seraient les services qu’ils souhaiteraient voir en ligne. Cette démarche est aussi peu visionnaire que stérile.

Pour illustrer le propos, faisons l’exercice de remonter en 1996 et plaçons-nous dans l’état-major de la compagnie Swissair. Suite à des annonces qui ont terni la réputation de Swissair, nous décidons de lancer une grande consultation auprès de nos usagers afin de leur demander comment améliorer nos services.

Après un dépouillement des réponses, il y a fort à parier que la majorité des contributions auront été du type : « plus de crème dans les millefeuilles », « j’aimerais que le Genève-Zurich de 7h00 parte à 7h15 » ou « j’aimerais des hôtesses plus souriantes ».
En clair les usagers formulent des évolutions sur la base d’un environnement connu.

Imaginons qu’un usager déclare : « je veux payer mon billet 5x moins cher » et « je souhaite être ma propre agence de voyage ».
En admettant qu’une telle proposition ait été formulée, il y a toutes les chances pour qu’elle ait passé aux oubliettes par son caractère excessif. D’ailleurs l’état-major eut été bien incapable d’élaborer une solution concrète, lui qui avait imaginé l’arrogante stratégie du chasseur.

C’est pourtant exactement ce qui est arrivé. 5 ans après notre sondage fictif, Swissair a disparu, remplacé par EasyJet et son modèle disruptif.

Ma seconde conclusion : les usagers peuvent imaginer des évolutions mais pas la disruption.
En revanche les usagers adoptent très rapidement les services disruptifs lorsqu’ils apportent un avantage concret.

Ma troisième conclusion est un corollaire des deux premières, une organisation établie ne sait pas se réinventer, elle est donc condamnée à disparaitre.

Il y a pourtant des exemples d’organisation établies qui ont su introduire des processus disruptifs dans leurs opérations. Par exemple, les grandes banques ont été leur propre acteur dans la mise en place de processus en ligne complets et complexes en remplacement du guichet.
Cette stratégie a été possible par leur capacité d’analyse de l’environnement d’affaire, d’importants moyens et un cynisme assumé. L’objectif ultime étant l’optimisation des revenus et du stakeholder value.

L’entreprise peut décider de ses objectifs et de clairement les énoncer. Par exemple, suppression de la moitié des guichets dans un horizon de 2 ans et la disparition complète en 5 ans.
Dans ce cas, l’entreprise utilise les outils à sa disposition pour créer un changement qui s’apparente à une disruption.

Comment introduire une évolution disruptive ?

La méthode est finalement assez basique ; il s’agit de mener une réflexion en se mettant dans la peau de l’usager. Il faut lui apporter un service simple, rapide et dont le bénéfice est immédiatement perçu.

Le prérequis est de disposer d’une bonne connaissance des outils disponibles (web, big data, objets connectés, imprimantes 3D, smartphone, 4G, 5G, etc).
Puis, sur la base de la boite à outil : élaborer des processus qui améliorent l’efficience et imaginer services qui constituent un avantage déterminant pour l’usager.

Les solutions proposées ont toutes les chances de rencontrer de fortes réticences en interne. Pour s’en affranchir l’entreprise peut créer une structure externe capable de générer de la disruption dans rencontrer d’opposition .

En conclusion il faut un incitatif fort, généralement la concurrence, une vision large des affaires et beaucoup de courage car l’attaque peut venir n’importe quand, de n’importe qui et n’importe où.

Je vous laisse le soin d’évaluer la concordance de ces qualités avec les environnements dans lesquels vous évoluez et imaginer quels pourraient être les dangers externes.

© Pascal Rulfi, décembre 2019.

Téléchargez l’article : Disruption

Publié dans Concepts, Généralités, Gouverance, Stratégie | Marqué avec , , , | Commentaires fermés sur La disruption vient rarement de l’intérieur

Le défi de l’éducation du numérique

L’instruction publique semble avoir bien des difficultés dans la mise en place d’un programme cohérent portant sur l’éducation du numérique.
Pourtant cette mutation est d’autant plus urgente que la formation, dont le contenu date d’une vingtaine d’années, était quasi obsolète à sa sortie.

En effet, un enseignement de « l’informatique » qui consiste à aborder le traitement de texte, le tableur et dans le meilleur des cas, l’écriture de quelques lignes de programmation est loin du viatique minimum pour comprendre le monde digital dans lequel nous évoluons.

Consciente du problème, l’instruction publique se penche sur le sujet et propose sa vision dans un document intitulé « l’école au service de la citoyenneté numérique ». Le contenu reste vague et n’a de visionnaire que l’intention. Et les intentions buttent contre la réalité concrète de la mise en œuvre du projet.

L’établissement d’un programme scolaire s’effectue généralement dans une démarche top-down. Des groupes de travail sont convoqués pour définir un périmètre d’action. L’approche souvent universitaire d’une problématique tend vers des résultats peu pragmatiques voire parfois abscons.

Le 21 juin 2018, la conférence suisse des directeurs cantonaux de l’instruction publique a fixé la stratégie numérique en ces mots : « utiliser les technologies numériques dans le système éducatif afin d’aider au mieux et de manière équitable tous les élèves et toutes les personnes en formation à devenir des citoyennes et citoyens autonomes et responsables ». L’intention est certainement louable mais elle ne dit pas grand-chose de concret sur les objectifs à atteindre.

Un responsable de l’instruction publique a récemment affirmé que les principes de l’informatique n’ont pas changés depuis les années 50. Les principes du calcul binaire n’ont effectivement pas changé, cependant, la posture est effarante quand on observe la vitesse avec laquelle les usages digitaux ont bouleversé le monde. Une telle affirmation montre une mécompréhension des enjeux qui justifie les critiques formulées par Avenir Suisse sur les questions liées à la formation au numérique

Un contenu dynamique

Une organisation centralisée va naturellement formaliser un programme universel et figé. S’agissant du numérique, cette approche a peu de chance d’aboutir car les lenteurs d’arbitrage et les lourdeurs de la structure ne s’accordent pas avec une matière qui connait des révolutions dont j’évalue la durée des cycles majeurs à environ 7 ans.
Le constat est simple, l’évolution rapide du monde numérique n’est pas compatible avec les contraintes de temporalités d’un processus traditionnel.

Les objectifs du programme ne peuvent se cantonner à la simple maitrise d’un outil informatique. La puissance et l’omniprésence du digital dans notre environnement oblige d’aborder le sujet dans une perspective plus vaste. Il ne s’agit plus d’informatique mais d’humanités numériques.

Le contenu du programme doit être construit de façon dynamique afin de suivre le rythme imposé par cette matière qui ne supporte pas l’obsolescence.

Les différents sujets qui forment les humanités numériques doivent être adaptés au plus près de la réalité du moment. Le périmètre est vaste et chaque sujet doit être réévalué tous les ans. Il ne faut pas hésiter à supprimer les sujets désuets et ajouter des sujets en devenir.

En matière d’organisation, la création et l’animation des contenus sera prise en charge par une communauté de volontaires éclairés organisés en réseau à l’image du fonctionnement de l’encyclopédie Wikipédia.
La forme même des supports de cours ne sera pas figée mais constituées d’outils qui permettent la modification et la diffusion immédiate. Le livre est d’emblée exclu des supports éligibles.

Une organisation agile et créative

La mise en place d’une organisation concrète pour diffuser ces nouveaux savoir est un défi complexe.
Les humanités numériques relèvent d’une culture générale, il ne s’agit pas d’apprendre les fondamentaux de la science informatique mais de placer le numérique dans une perspective vaste et transversale.

Pour organiser la structure opérationnelle, l’erreur consisterait à engager des masters en informatique pour en faire les enseignants d’une branche à part entière. Ceci pour au moins deux raisons :

  • La difficulté de maintenir les connaissances à jour (réelle problématique dans les écoles techniques)
  • Parce que les humanités numériques ne sont pas une question technique mais la combinaison de nombreuses disciplines.

Pour les plus petits degrés, une autre erreur consisterait à former la totalité du corps enseignants pour donner les bases des humanités numériques. En effet, mettre à niveau de façon homogène les connaissances minimums et suivre l’évolution d’une matière aussi complexe représente un effort aussi important que hasardeux.

En revanche, je suis prêt à parier que l’on trouve dans le corps enseignant nombre de technophiles parfaitement compétents voire passionnés de numérique.
C’est bien entendu auprès de ces personnes que l’on fédérera une communauté dynamique qui élaborerait les sujets et dispenserait en classe les humanités numériques.

Pour atteindre un tel objectif, il s’agit d’identifier les compétences cachées des collaborateurs et exploiter les talents. Du point de vue opérationnel, il est question d’organiser des échanges dans les classes afin qu’un détenteur de la bonne compétence puisse voltiger là où il apporte de la valeur.
Ce fonctionnement introduit une pratique de partage et d’échange systématisé qui peut bien entendu être étendu à d’autres matières.

L’exploitation de compétences autres repose sur un service des ressources humaines agile, capable d’identifier, gérer et augmenter un réservoir de savoirs atypiques.
C’est un véritable challenge pour les RH de faire confiance à des savoirs non normés, de transversaliser les échanges et de diffuser ces nouveaux protocoles afin d’augmenter la valeur globale de l’offre.

Conclusion

Le numérique ne nous laisse pas le choix. Cet environnement qui évolue autant qu’il impacte nos existences nous impose d’explorer et d’adapter les méthodes de diffusion du savoir et remet en cause nos fonctionnements. Le changement culturel est comparable à ce que l’encyclopédie Wikipédia représente pour l’encyclopédie de Diderot.

Il est urgent d’innover dans une Europe déjà largement dépassée sur les enjeux numériques. Cela demande de la créativité, du courage et de la vista. Saurons-nous en faire preuve ?

© Pascal Rulfi, septembre 2019.

Téléchargez l’article : Education_aux_humanités_numériques

Publié dans Généralités, Informatique, Non classé, Stratégie | Marqué avec , , , | Laisser un commentaire

A robust architecture for an electronic voting system

Electronic voting systems were initiated early 2000s at the dawn of the Internet.

In the last 20 years, software designers have mobilized huge energy to secure their solution and attempt to prove that the system was reliable, without reaching absolute certainty.
Voting is a tool of democracy, for which trust in the system is decisive and corollary, doubt is a poison that provokes a lot of damages.

An unreliable architecture design

Designers of these systems defined a technical architecture based on the principles used at the time, a client-server architecture: a workstation communicating with a central computer through the network.
The internet works on the same principle as the private network was the working hypothesis.

The solution assumes that a secure tunnel is established between the two parties. However, we can notice the following facts:

  1. The network transits into the public domain. It is therefore exposed and hackable.
  2. The IP communication protocol establishes a link that is structurally discontinuous, it is deemed as unreliable.

Therefore, a solution that assumes that the communication channel is secure will bring some disappointments.

A paradigmatic shift

We have to imagine a solution while using a potentially corrupt link. The main issue is to prove that the transmitted packet is identical on both sides of the link.

The data packet (the vote) is the unit to preserve. We have to prove to the stakeholders that the vote stored by the operator has not been changed or altered throughout the operation.

I named the architecture of the proposed solution « verifiability by hash symmetry » .

The solution is based on two cryptographic tools: encryption and hash function.

Definition: RSA encryption

Cryptography method that makes the comprehension of an encrypted document impossible for anyone who does not have the decryption key.

Algorithm of asymmetric cryptography
Uses a pair of keys composed:
– a public key to encrypt.
– a private key to decrypt confidential data.

Definition: Hash function SHA (Secure Hash Algorithm)

SHA is a cryptographic function that produces a digital hash.
– For a given hash value (the hash), it is impossible to reconstruct a block of data with this hash value.
– We can’t modify a data block without changing its hash value.
– We can’t find two different messages with the same hash value.

SHA-3 256
Function described in August 2015 by FIPS-202 publication
More robust than SHA-1 and SHA-2.

Description of a voting sequence.

a) Initialization of the voting operation

# 1
Ballot box initialization.

Encryption keys (asymmetric) creation.
The keys will encrypt the data packet (the vote, represented by the yellow tennis ball in the following diagrams) and not the database that stores all the votes.

#2 Creating an identity register as a hash list

The vote operator (usually a state) defines a set of data which he considers to be sufficient to authenticate a person. For example, in Geneva the voting card number (received by post mail), the date of birth and the municipality of origin are considered sufficient to authenticate a voter.

The voting operator build two lists:

  1. The register of names and voting card numbers
  2. The register of voting card number + date of birth + place of birth

The first list is used for printing voting cards and sending them to the voter.
The second list is intended to generate the ID (hash) of each voter. All hashes are then stored in an Identity Register (ID).

The second list used to generate the hash is destroyed after the hash operation. Thus, only the ID hash register remains. So, it’s impossible to recreate the identity of the voter based on his hash.

Thus, the system has created the identification of a person without making any connection with his identity. It is therefore not possible to reconstruct the identity of a person based on his ID hash.

b) Voting process

# 3
Download the software and the vote description

The voter downloads a package of tools that allows him to vote.

The package contains the following tools:

  • The software: the presentation layer, the hash and encryption tools.
  • The description: the subject of the vote and encryption key.

The presentation layer is used to build the interface and the voting software on the user side. The subject of the vote describes the list of objects or persons that constitute the ballot.

To ensure that the received tool package is the good one, the footprint of the downloaded package is calculated on the workstation. The resulting hash is compared with the hash ID contained in the operator’s server. They must be the same.

#4 Vote: ID calculation

The voter fills the webform with the needs data to authenticate it. Those data are hashed with the software downloaded it in the previous step. Then it generates its own identity SHA-3 (ID) hash.

#5 Vote: individual vote

The voting interface is generated based on the description of the voting objects received in the software toolkit described in sequence #3.
The vote is made by the voter.

The voting system build a voting package.

  • Voting data + a random string (padding) are encrypted with the public key of the operation.
    Then a SHA-3 (vote) hash is calculated for this element
  • The voting package includes: the encrypted voting data + the voter ID hash.

The voter store locally his voting hash and his identity hash (SHA-3 ID + SHA-3 vote).

The random string (padding) inserted into the voting string allows two even positions to not have the same hash. The hash is unique for each vote, which will be decisive for the proof (verifiability).

Thus, the voting package includes the encrypted vote as well as the hash of the voter ID.
The vote can only be decrypted using the private key of the voting operator. The hash of the voter’s ID is transmitted knowing that nobody is able to reconstruct his identity.

#6 Vote: send the vote

The voting package is sent to the server of the operator.

It is possible to set up a trusted third-party server.
In this case, vote packages will be systematically sent to both servers.
Thus, a third authority that received all votes will be able to carry out the operation for its own and to compare the result.

#7 Voting processing, ID

Upon receipt of the voting packet, the server will separate the ID hash and the encrypted vote.

The server verifies the correspondence between the received ID hash with the identical hash contained in the ID hash register.

  • If the ID is found, the ID in the registry ID is burned.
  • If the ID is invalid, the vote is rejected and a notification is sent to the user for an invalid ID.

#8 Voting process, the vote

The vote received is encrypted, reading its content is impossible.

  • The central system computes the hash (vote) of the encrypted vote.
  • The encrypted vote and his hash are stored on the central system.
  • The hash calculated by the central server is returned to the voter.

The hash calculated by the voter’s computer is compared to the hash calculated by the server.

  • If hashes are identical, the vote is accepted. The operation is complete.
  • If hashes are different, an alarm is logged in the server and the vote is dismissed.

Voting is an atomic transaction.

c) Verifiability

Before the count, the voter can at any time check that his vote exists on the server.

To do so, the voter sends the hash (vote) to the server. The server checks the existence of the hash (vote) in the database and confirms being depositary of this same hash.
Moreover, this control operation is systematically executed when sending the bulletin.

If the hash, which is unique, is strictly identical for the voter and the server, the voter has the confirmation that his vote is taken into account, which constitutes the verifiability of the vote.

This is the principle of « verifiability by hash symmetry » .

In addition, if a trusted third-party is established, the verifiability can be carried out with the independent third-party.

d) Opening the ballot box

When opening the ballot box, each individual vote is decrypted with the private key owned by the voting operation.
Votes are now available and the server can compute the result.

If a trusted third-party has been set up, the private decryption key is communicated to him by the operator during the opening of the ballot box.
The third-party has the votes and the decryption key. He can produce his own ballot count. This independent count strengthens trust in ballot counting.


Advantages of the system based on the verifiability by hash symmetry


The system has some advantages, among which:

  • Simplified ergonomics for the user, no check table and multiple codes to deal with.
  • Principles clear and understandable.
  • Technically autonomous solution.
  • Atomic transaction.
  • Does not require encrypted transmission. However, a standard HTTPS transmission is settled for acknowledgments.
  • Robust architecture.
  • Strong against « man in the middle » hacking.
  • Implicit verifiability.
  • A trusted third-party can be integrated to the process.

Conclusions

This proposal has many advantages, but it certainly deserves to be debated in order to refine the approach, challenge security and validate the concept.

My only believe is that the solutions available on the market are technically obsolete and deficient from the point of view of security. They will have to be rethought with up to date technical solutions.

© Pascal Rulfi, September 2019. Any implementation of a system based on « verifiability by hash symmetry » contravenes intellectual property rights and / or copyright.

Download the document : e-voting

Publié dans Concepts, Gouverance, Informatique | Marqué avec , , , | Laisser un commentaire