Une architecture robuste pour un système de vote électronique (et pour tout autre service du genre)

Les systèmes de vote électronique ont été initiés dans la mouvance internet du début des années 2000. Voilà donc 20 ans que ces projets ont été élaborés, autant dire l’âge de la pierre à l’échelle de l’informatique.

Durant ces 20 ans les concepteurs de ces systèmes ont mobilisé beaucoup d’énergie pour sécuriser leur solution et prouver qu’elle était absolument fiable, avec des résultats pas toujours probants.
En matière de vote, outil de la démocratie, la confiance dans le système est déterminante, à l’inverse, le doute est un poison qui fait énormément de dégâts.

Un système non fiable par nature

Les concepteurs de ces systèmes ont défini une architecture technique sur les principes en usage à l’époque, soit un poste de travail qui communique avec un ordinateur central au travers du réseau.
L’hypothèse de travail est que le réseau internet fonctionne sur le même principe que le réseau privé.

La solution part du principe qu’un tunnel sécurisé est établi entre les deux parties. Cependant, il faut noter les éléments suivants :

  1. Le réseau transite dans le domaine public. Il est exposé, donc attaquable.
  2. Le protocole de communication IP établi un lien qui est structurellement discontinu, il est réputé non fiable

Par conséquent, une solution qui fait l’hypothèse que le canal de communication est sécurisé est appelé à quelques déconvenues.

Un changement de paradigme

Nous devons imaginer une solution qui utilise un lien potentiellement corrompu. La problématique consiste à prouver aux deux parties que le paquet transmis est identique des deux côtés du lien.

Le paquet de données (le vote) est l’unité à préserver. Il s’agit de prouver aux deux parties le vote stocké par l’opérateur n’a pas été modifié ou altéré tout du long de l’opération.

L’architecture de la solution proposée est baptisée «vérifiabilité par symétrie des empreintes».

La solution repose sur deux outils cryptographiques : le chiffrement et la fonction de hachage.

Définitions : le chiffrement

Chiffrement RSA
Procédé de cryptographie qui rend la compréhension d’un document impossible à toute personne qui n’a pas la clé de déchiffrement

Algorithme de cryptographie asymétrique
Utilise une paire de clés composée :
– d’une clé publique pour chiffrer
– d’une clé privée pour déchiffrer des données confidentielles

Définition : fonction de hachage

SHA (Secure Hash Algorithm)
Fonction cryptographique qui produit une empreinte numérique.
– Pour une valeur de hachage donnée (l’empreinte), il est impossible de construire un bloc de données ayant cette valeur de hachage.
– Impossible de modifier un bloc de données sans changer sa valeur de hachage.
– Impossible de trouver deux messages différents ayant la même valeur de hachage.

SHA-3 256
Fonction de décrite en août 2015 par la publication FIPS-202
Plus robuste que SHA-1 et SHA-2

Description d’une séquence de vote.

a) Préparation de l’opération de vote

#1 L’initialisation de l’urne.

Création des clés de chiffrages (asymétriques).
Les clés permettront de chiffrer le paquet de données (le vote, représenté par la balle jaune dans les schémas suivants) et non pas la base de données qui stocke l’ensemble des votes.


#2 Création d’un registre des identités (ID) sous forme d’empreinte

L’opérateur du vote (généralement un état) définit un ensemble de données à renseigner dont il considère qu’elles sont suffisantes pour authentifier une personne. Par exemple à Genève, le numéro de carte de vote (reçue par courrier), la date de naissance et la commune d’origine sont réputés suffisant pour authentifier un votant.

L’opérateur du vote établi deux listes :

  1. Registre des noms et numéros de carte de vote
  2. Numéro de carte de vote + date de naissance + commune d’origine

La première liste est destinée à l’impression des cartes de vote et l’envoi au votant.

La seconde liste est destinée à générer l’empreinte ID (hash) de chaque votant. L’ensemble des empreintes sont ensuite stockées dans un registre des identités (ID).
La seconde liste ayant servi à générer les empreintes est détruite. Ainsi seul le registre des empreintes ID subsiste. Rappelons qu’il est impossible de recréer l’identité du votant sur la base de son empreinte.

Ainsi le système a créé l’identification d’une personne sans faire de lien avec son identité. Il n’est donc pas possible de reconstituer l’identité d’une personne sur la base de son empreinte ID.

b) Opération de vote

#3 Téléchargement du logiciel et de la description

Le votant télécharge sur le site de l’opérateur de vote un paquet d’outils qui va lui permettre de voter.

Le paquet d’outils contient :

Le paquet contient :
– Les programmes : la couche de présentation, les outils de hash et de chiffrage.
– La description : l’objet du vote et clé de chiffrage.

La couche de présentation forme l’interface et le système de vote du côté de l’utilisateur. L’objet du vote décrit la liste d’objets ou de personnes qui constituent le scrutin.

Afin de garantir que le paquet d’outils reçu est le bon, l’empreinte du paquet d’outils téléchargé est calculée sur le poste de travail. L’empreinte résultante est ensuite comparée avec celle contenue dans le serveur de l’opérateur. Elle doit être identique.

#4 Vote : calcul de l’identifiant

Le votant renseigne les données nécessaires à son authentification. Ces données sont hashées avec les logiciels qui lui sont mis à disposition à l’étape précédente. Ainsi il génère sa propre empreinte SHA-3 (ID) d’identité.

#5 Vote : prise de position

L’interface de prise de position est générée sur la base de la description des objets de vote reçus dans le paquet décrit dans la séquence #3.
La prise position est faite par le votant.

Le système du votant prépare un paquet de vote.

  • Les données de vote + une chaine aléatoire (padding) sont chiffrés avec la clé publique de l’opération.
    Ensuite une empreinte SHA-3 (vote) est calculée pour cet élément
  • Le paquet de vote comprend : les données de vote chiffées + l’empreinte de l’ID du votant.

Le votant conserve son empreinte de vote et son empreinte d’identité (SHA-3 ID + SHA-3 vote).

La chaine aléatoire (padding) insérée dans la prise de vote permet à deux même prises de position de ne pas avoir la même empreinte. L’empreinte est unique pour chaque vote, ce qui va être utile pour la preuve (vérifiabilité).

Ainsi le paquet de vote comprend la prise de position chiffrée ainsi que l’empreinte de l’ID du votant.
La prise de position ne peut être déchiffrée qu’à l’aide de la clé privée de l’opérateur de vote. L’empreinte de l’ID du votant est transmise sans qu’on ne puisse reconstituer son identité.

#6 Vote : envoi

Le paquet de vote est envoyé au serveur de l’opérateur.

Il est possible de mettre en place un serveur tiers de confiance.
Dans ce cas, le paquet sera alors systématiquement envoyé aux deux instances.
Ainsi, une autorité tierce qui dispose de la totalité des prises de position pourra dérouler l’opération pour son propre compte et comparer le résultat.

#7 Traitement du vote, ID

A la réception du paquet de vote, le serveur sépare l’empreinte ID de la prise de position chiffrée.

Le serveur recherche la correspondance entre l’empreinte ID reçue avec l’empreinte identique contenue dans le registre des empreintes ID.

  • Si l’ID est retrouvé, il brûle l’ID du registre.
  • Si l’ID est invalide, le vote est rejeté et envoi d’une notification à l’utilisateur pour un ID invalide.

#8 Traitement du vote, prise de position

La prise de position reçue est chiffrée, il n’est pas possible d’en lire le contenu.

  • Le système calcul l’empreinte SHA-3 (vote) de la prise de position.
  • La prise de position chiffrée et son empreinte (vote) sont stockées sur le serveur.
  • L’empreinte calculée par le serveur est renvoyée au votant.

L’empreinte calculée sur le poste du votant est comparée avec l’empreinte calculée par le serveur.

  • Si les empreintes sont identiques, le vote est accepté. L’opération est terminée.
  • Si les empreintes sont différentes, une alarme est inscrite dans le serveur et le vote est refusé.

Le traitement du vote est une opération atomique.

c) Vérifiabilité

Le votant peut à n’importe quel moment recontrôler que son vote est bien existant sur le serveur.
Il lui suffit d’envoyer l’empreinte (vote) locale au serveur. Le serveur contrôle l’existence de cette empreinte (vote) dans le stockage des votes et confirme être dépositaire de cette même empreinte.
Par ailleurs, cette opération de contrôle est systématiquement exécutée lors de l’envoi du bulletin.

Si les empreintes, qui sont uniques, sont strictement identiques chez le votant et sur le serveur, le votant à la confirmation que son vote est bien pris en compte, ce qui constitue la vérifiabilité du vote.
C’est le principe de la «vérifiabilité par symétrie des empreintes».

De plus, si un tiers de confiance est mis en place, la vérifiabilité peut être effectuée auprès du tiers indépendant.

d) Ouverture de l’urne

Lors de l’ouverture de l’urne, chaque prise de position individuelle est déchiffrée avec la clé privée de l’opération de vote.

Les prises de position sont maintenant disponibles en clair et le serveur peut effectuer l’opération de comptage des résultats.

Si un tiers de confiance a été mis en place, la clé de déchiffrage lui est communiquée à l’ouverture de l’urne.
Le tiers dispose ainsi des votes et de la clé de déchiffrage. Il peut produire son propre décompte des bulletins. Ce décompte indépendant renforce la confiance sur le traitement du comptage des bulletins.

Avantage du système reposant sur la vérifiabilité par symétrie des empreintes

Le système de «vérifiabilité par symétrie des empreintes» a quelques avantages parmi lesquels :

  • Ergonomie simplifiée pour l’utilisateur, pas de tableau de vérification et de codes multiples à introduire.
  • Compréhension et clarté des principes.
  • Fonctionnement technique autonome.
  • Transaction atomique.
  • Ne nécessite pas le chiffrement de la ligne. Toutefois un lien HTTPS standard est conservé pour les quittances.
  • Architecture robuste.
  • Résistant aux attaques «man in the middle».
  • Vérifiabilité implicite.
  • Permet d’intégrer un tiers de confiance.

Conclusions

La proposition comporte de nombreux avantages, elle mérite certainement d’être débattue afin d’affiner la démarche, challenger la sécurité et valider le concept.

La seule certitude que je puisse avoir est que les solutions disponibles sur le marché sont techniquement obsolètes et lacunaires du point de vue de la sécurité. Elles devront être repensées dans leur intégralité avec des solutions techniques en phase avec les connaissances techniques actuelles.

© Pascal Rulfi, septembre 2019 . Toute implémentation d’un système qui reposerait sur la «symétrie des empreintes» contrevient au droit de propriété intellectuelle et/ou au droit d’auteur.

Téléchargez l’article : Vote électronique

Publié dans Concepts, Généralités, Informatique | Marqué avec , , | Commentaires fermés sur Une architecture robuste pour un système de vote électronique (et pour tout autre service du genre)

Transformation digitale

Depuis quelques temps, j’observe que le mot digitalisation envahi l’espace de communication. Marchands du temple, politiciens, diseurs de futurs digitalisent dans les nombreux séminaires et autres articles. Digitaliser serait la clé du succès de demain sans que finalement le péquin comprenne de quoi il s’agit.

Toutefois, si le bruit ambiant digitalise, il en va tout autrement des réalisations concrètes qui peinent à se matérialiser. Ce constat m’incite à proclamer qu’il faudrait moins de blabla et plus de résultat !

Digitalisation  ≠  informatique

J’ai pu constater que nombre de dirigeants considèrent que la digitalisation est liée à l’informatique. De mon point de vu cette association est une erreur.
J’ai par exemple le souvenir d’un projet d’intranet voulu par un directeur au milieu des années 90. Ce dernier s’adressait au service informatique pour porter le projet. Le service informatique affirmait que cela ne le concernait pas puisqu’il s’agissait de publications. Et le service des publications affirmait qu’il s’agissait d’informatique. Cette ébauche d’un projet de digitalisation est passée en force et s’est soldée par un échec. Cet exemple montre qu’on ne peut pas attendre d’innovations de la part de services qui fonctionnent de façon étanche.

Je ne compte pas les démarches numériques qui ont été aiguillées vers le service informatique. Ces services qui héritaient de simples intentions s’empressaient d’enterrer toutes propositions.

Le premier enseignement à retenir est que la digitalisation, ce n’est pas l’informatique.

Le second enseignement est que les projets de digitalisation sont le produit d’une réflexion globale et transversale. L’informatique n’est qu’un outil parmi d’autres dans le processus d’élaboration de services digitalisés.

Digitalisation ?

Pourtant, la digitalisation ou numérisation est formellement bien le produit des sciences informatiques. Dans son sens formel, il s’agit bien de transformer une information analogique vers une information numérique comme le fait le Compact Disc depuis 1982.

Aujourd’hui la digitalisation de la société porte sur un périmètre beaucoup plus vaste. Il s’agit toujours de manipuler de l’information sous forme numérique mais sa généralisation permet une exploitation sans limites du jaillissement ininterrompu des ressources que sont les données.

Le trafic routier illustre bien le propos. Dans un passé récent, le trafic était évalué par quelques points de comptage sur la route. Occasionnellement une personne pouvait même être employée à compter manuellement les véhicules sur un axe particulier. Lors des grandes transhumances un hélicoptère évaluait les longueurs des files aux péages autoroutiers pour donner les indications de « bison futé ». Cette information très parcellaire n’informait que sur une appréciation du nombre de véhicules en transit.

C’est désormais notre téléphone mobile qui informe le propriétaire de la donnée, en temps réel et de façon continue de la fluidité du trafic en n’importe quel point. Vitesse, arrêts, fluidité, historiques, d’énormes bases de données récoltent nos informations et les présentent de façon lisible et utile.

Voilà un processus typique de digitalisation qui fait intervenir des smartphones, le GPS, des transmissions de données, le big data et des puissants calculs. Et le tout a échappé aux collectivités publiques qui ont la charge de réguler le trafic routier.
Notons que la société la mieux placée pour réguler le trafic est Google car elle possède les données.
Un État qui s’appuierait sur une société telle que Google pour effectuer la régulation lui octroierait un pouvoir exorbitant car elle aurait la capacité de paralyser une ville à son bon vouloir.

Le troisième enseignement à tirer est que la digitalisation est formée par l’agrégation de technologies diverses.

Le quatrième enseignement nous montre qu’un compétiteur peut surgir de n’importe où. Il faut évaluer le risque d’une accélération de la redistribution des cartes dans un marché.

Concrètement

La mauvaise nouvelle est que la transformation digitale n’est pas un produit fini qu’il suffit d’acheter.

La digitalisation relève de la démarche globale et volontaire d’une organisation. D’un coté elle dispose d’un ensemble d’outils et de l’autre des problématiques ou des avantages à conquérir. Il appartient à l’organisation d’élaborer les solutions qui lui donneront un avantage compétitif. La recherche de valeur va exiger une démarche interne, impliquante et continue des membres de l’organisation.

Cette brève note n’ambitionne pas de révolutionner le monde, mais elle propose une réflexion sur la manière d’aborder la transformation numérique en tant qu’organisation locale, privée ou publique.

Pour démarrer la réflexion, il est utile de se mettre à la place du consommateur. Que pouvons-nous lui offrir ? Comment lui faciliter la tâche ? Qu’attend-il ?

Une autre approche, plus traditionnelle, consiste à chercher des sources d’amélioration de la productivité. Si la question est triviale, la recherche de solutions l’est beaucoup moins tant le numérique est porteur de disruption dans la manière d’aborder une activité.

Ensuite, il faut alors avoir une vue globale de la boite à outil ainsi que des actifs à disposition.
Les actifs représentent les données disponibles, la capacité de traitement, la possibilité de récolte, les processus et la valeur ajoutée réelle.
Les outils prennent diverses formes telles que les objets connectés, les capteurs, les imprimantes 3D, la blockchain, l’IA, les drones, etc, soit tous les dispositifs qui participent à un système.

Ainsi, l’ensemble des outils et des actifs peuvent former les solutions innovantes, voire disruptives, qui permettent d’atteindre les objectifs que l’organisation s’est fixés.

Comment et avec qui ?

La mise en œuvre de la réflexion et de l’identification des projets de transformation numérique présente quelques complexités d’organisation. En effet, la démarche implique une remise en cause des fonctionnements et des processus de production dont les changements sont par nature anxiogènes.

La mise en commun des ressources qui possèdent les connaissances et les qualités requises sont nécessaires à faire émerger une pensée « latérale ».

Les connaissances technologiques sont évidemment indispensables pour construire et évaluer des solutions. Je recommande de ne pas se reposer sur les informaticiens internes. En effet, ils sont généralement trop absorbés par des tâches opérationnelles pour pouvoir intégrer efficacement des technologies hors de leur domaine de spécialisation. Des ressources passionnées de technologies et informées, sans pour autant être expertes, peuvent faire l’affaire.

Les connaissances opérationnelles sont indispensables et les ressources engagées doivent avoir une connaissance intime des processus et du fonctionnement réel.
Ma recommandation est de ne pas impliquer les directions et les responsables mais plutôt les personnes qui effectuent les tâches au quotidien. Les personnes opérationnelles décriront la réalité du fonctionnement et éviteront la description théorique des processus tels que les responsables l’imaginent.
Notons que c’est l’occasion de réviser les processus et cas échéant les améliorer.

Une connaissance intime du consommateur est nécessaire, deviner son comportement, imaginer sa psychologie, identifier la valeur qui vous rend unique à ses yeux.
Parmi les erreurs que j’ai fréquemment constatées, il y a un mauvais usage du sondage. En effet, les questions généralement posées sont : « être vous content de nos services ? » et « comment pourrions-nous l’améliorer ? ».
Cette démarche est stérile car un client sera par définition plutôt content des services fournis, et s’il y a une situation de monopole, il n’a simplement pas le choix.
D’autre part, demander à son client comment améliorer le service n’a aucune chance d’être disruptif car le sondé va répondre autour de ce qu’il connait.
Par exemple, en 1995 demander aux clients de Swissair comment améliorer le service avait peu de chance d’aboutir à la proposition « un processus de commande autonome pour le cinquième du prix ».
Pourtant c’est ce qu’ils ont plébiscité quand l’occasion s’est présentée.

Les contraintes légales doivent évidemment être prises en compte.
Toutefois, en interne, il faut veiller à gérer le réflexe de protection particulièrement présent chez les juristes lesquels peuvent freiner ou stopper la démarche.
L’adaptation des processus pour des raison d’efficience sont également l’occasion d’une remise en conformité qui peut s’avérer pénalisante. Les décisions à prendre nécessitent un arbitrage, voire une prise de risque qui doit être assumé par la direction.

Enfin, les ressources devront être sélectionnées parmi celles qui ont les qualités suivantes : pragmatisme, curiosité, coopératif, ouverture, créativité, agilité et courage pour des raisons évidentes.
On veillera à éviter les esprits négatifs, les conservateurs et les enjeux de pouvoir.
Autant dire que réunir une équipe qui possède toutes ces qualités n’est pas une mince affaire.

Toute la complexité de l’exercice consiste à inventer un service différent qui apporte une réelle plus-value. Par exemple, le compétiteur le plus dangereux d’une compagnie d’aviation d’affaire n’est pas nécessairement son concurrent direct mais la visioconférence.

Un accompagnement externe n’est pas à négliger. En particulier dans les organisations qui n’ont pas de tradition d’innovation.

Processus continu

La transition digitale est un processus continu qui se déploie dans la durée. L’envisager comme un projet doté d’un investissement unique est une erreur fréquente. Une balance entre les coûts engendrés et les bénéfices est naturelle, toutefois il s’agit d’une démarche par approximations successives qui n’est pas un processus déterministe comme le serait l’acquisition d’un bien de production.

Réfléchir à une organisation dynamique et créative est un challenge complexe et déterminant. L’organisation des spécialistes en innovation peut inspirer quelques bonnes pratiques.
Par exemple, le modèle Google qui alloue à ses collaborateurs 20% de temps libre pour développer des projets d’innovation. Cette démarche iconoclaste dans une entreprise mécaniste et hiérarchisée est totalement logique lorsqu’on réfléchit au contexte de Google. En effet, la diffusion d’un produit est gratuite sur le net, en revanche le succès est totalement imprédictible. L’objectif est alors de développer et publier un maximum de services donc d’idées, au meilleur coût et de laisser le marché faire le tri. Si le service rencontre le succès il sera enrichi, sans quoi il disparaitra sans que son échec soit un drame.

La complexité

La transformation digitale est une révolution en marche qui concrétise l’évolution de notre environnement. Participer à cette aventure n’est assurément pas chose facile car les enjeux sont multiples.

L’écueil que tous identifient est la maitrise technique. Malheureusement, les métiers de l’ingénieur sont mal connus, et le moindre opérateur devient un « ingénieur système ». Il s’agit de placer l’ingénieur là où il apporte de la valeur. Il faut retrouver des ambitions techniques. Soyons réaliste, l’Europe semble bien endormie et se disqualifie face aux géants nord-américains et chinois, ce qui devrait être considéré comme une situation dangereuse.

Plus proche de nos préoccupations il y a celle liée à l’organisation interne. Instaurer des coopérations transversales, transparentes et dynamiques est d’autant plus difficile que l’organisation est stable et hiérarchique.

Réinventer une activité pour laquelle on est un spécialiste reconnu est pour le moins déstabilisant. Personne ne souhaite vivre l’insécurité qu’impose la transition numérique, pourtant elle se déroule quoiqu’il arrive.

Penser latéralement est indispensable, se placer hors du cadre, sous divers angles est une nécessité qui est intellectuellement est plutôt gratifiante. Oser l’interrogation, oser la remise en question et les suggestions venant de la base (kaizen) ne sont pas des démarches nouvelles.
Toutefois il convient de veiller à ne pas déstabiliser l’organisation de façon inutile ou létale.

La démarche va rencontrer de nombreuses résistances, ouvertes ou larvées. Elle demande du courage car arbitrer entre toutes les contraintes est assurément difficile. Trouver les chemins qui conviennent à son organisation relève de la gageure.

Finalement, je repense à la force inspiratrice du discours du président Kennedy en 1961 : «  We choose to go to the Moon. We choose to go to the Moon in this decade and do the other things, not because they are easy, but because they are hard, because that goal will serve to organize and measure the best of our energies and skills… »

Que ces quelques lignes qui ont annoncé une intention pharaonique guident notre démarche dans la transition numérique.

Il s’agit d’être ambitieux, agile et courageux. Si vous ne le faites pas, d’autres s’en chargeront, peut-être avec un succès qui vous surprendra.

© Pascal Rulfi, mars 2019

Téléchargez l’article : Transformation digitale

Publié dans Généralités, Informatique, Stratégie | Marqué avec , | Commentaires fermés sur Transformation digitale

Développer du logiciel, une douce folie

« L’informatique » est une activité encore jeune mais surtout méconnue. Tout s’appelle informatique et tous sont des ingénieurs sans que chacun sache exactement à quoi cela correspond.

Je m’intéresse ici plus particulièrement au développement de logiciel, à mon sens la partie la plus noble et la plus exigeante de l’informatique.

Développement de logiciel

En deux mots, développer du logiciel consiste à écrire un programme dans une langue compréhensible par l’homme et qui sera traduite dans une langue interprétée par la machine.

Des sciences de l’ingénieur, il est admis que l’écriture de code informatique est la plus complexe. Par exemple, dans les autres disciplines, la construction d’une machine ou d’un ouvrage d’art, la complexité est proportionnelle à la taille de l’ouvrage alors qu’en informatique elle est exponentielle.

Construire un programme demande une capacité d’abstraction exceptionnelle, maitriser des systèmes extrêmement complexes, appréhender des problèmes concrets et les traduire en solutions pertinentes.

La complexité même d’un programme est telle qu’il est impossible de rendre un produit parfait. Ceci explique que les « bugs » font partie intégrante d’un programme.

Enfin, il faut suivre des évolutions techniques et méthodologiques où les vérités d’hier ne sont plus celles d’aujourd’hui et certainement plus celles de demain. A ce propos on considère que chaque saut technologique laisse 30% d’informaticiens sur le bas-côté.

Méthodes

Un ensemble de méthodes accompagnent les concepteurs de programmes.
S’agissant des méthodes de conception, le nombre et la diversité des méthodes montrent à quel point l’approche n’est pas déterministe.
Au travers du temps, les assertions qui président aux méthodes ont évoluées.
Par exemple, j’ai appris au cours de mes études qu’il ne fallait en aucun cas coder un programme avant d’avoir spécifié l’entier des fonctionnalités souhaitées. Pourtant, en trente ans de carrière, je n’ai jamais vu un seul vrai cahier des charges !
Diverses raisons expliquent ce manquement à la règle, l’une est la simple incapacité à formaliser les processus.
C’est pourquoi des méthodes dites agiles permettent une plus grande souplesse dans la conception de programme, ce qui est plus en phase avec les réalités de terrain.

S’agissant des méthodes liées au développement pur, diverses technologies accompagnent les développeurs dans le but de rendre les programmes les plus fiables possibles.
Tests de non régression, réusinage de code (refactoring), gestion des versions du code et j’en passe sont autant de produits et de méthodes qui surchargent la simple écriture du programme.
Ce sont des compétences supplémentaires qui doivent être intégrées au processus d’écriture.

Ressources humaines

Chaque évolution représente une rupture qui, additionnées à un rythme implacable, sont autant de connaissances acquises qui deviennent obsolètes et qui déstabilisent leur détenteur.

L’ensemble des complexités énoncées doivent être réalisées par des professionnels aux compétences multidimensionnelles éprouvées. Autant dire que ces professionnels talentueux sont très rares.

Une formation de haut niveau et une longue expérience sont un gage de qualité. D’ailleurs, il ne viendrait à l’idée de personne de demander au terrassier de concevoir un gratte-ciel, quand bien même l’expérience du terrassier est à intégrer dans le processus de conception.
Pourtant, en informatique, le mélange des genres est permanent, avec des résultats en rapport avec le manque de structure observée.

Coder est un métier qui demande une grande intelligence, une passion dévorante, voire des dispositions mentales spécifiques particulières. Je suis d’autant plus à l’aise de l’affirmer car je considère ne pas avoir les qualités requises.

Stallman, initiateur logiciel libre – Jobs, fondateur d’Apple – Assange, cybermilitant, wikileaks.

A l’origine du succès et des innovations de rupture, nous trouvons souvent des personnalités excessives, parfois extravagantes, toujours supérieurement intelligentes et possiblement troublées. A propos de « hackeur » (pirate informatique) j’ai pu lire que leur personnalité se définissait entre ados surdoués et informaticiens autistes… que dire de plus.

En la matière, le talent se détecte selon des critères spécifiques à la branche.
Par exemple il est intéressant d’observer l’initiative de Xavier Niel (patron de Free) en matière de formation. Son « école 42 » est un établissement d’autoformation qui s’enorgueillit de former les meilleurs informaticiens de France, cela en dehors du cadre de l’éducation nationale. Pourtant, aucun diplôme préalable n’est requis pour y être reçu. Seules des dispositions mentales naturelles à appréhender l’informatique sont nécessaires. Ces bonnes dispositions sont testées lors d’un cursus de sélection en immersion appelée « la piscine ».

On l’aura compris, l’informatique réinterroge nos façons d’appréhender les savoirs.

La réalisation et la constitution d’équipe

Dans cet environnement mouvant et complexe, il s’agit de fédérer des forces capables de produire des logiciels fiables, pertinents, performants et évolutifs. Pas exactement une mince affaire.

La taille du défi explique en partie la piètre qualité des logiciels en circulation.
Manque de fiabilité, non déterminisme des résultats, bugs bloquants sont le lot des logiciels mal conçus.

Plus pervers sont ceux qui délivrent les fonctionnalités requises mais qui sont incapables de tenir une charge ou une utilisation fortement multi-utilisateurs sans parler de performances brutes misérables.
Les lacunes de conception ont toujours pour cause des manquements dans l’ingénierie logicielle.

Constituer une équipe productive est un art qui représente un équilibre fragile fait de divers arbitrages.

Il est difficile d’établir les règles du succès tant les paramètres sont nombreux et les environnements différents.
S’agissant de gérer une équipe de développeurs, voici quelques points d’attention issus de ma propre expérience :

1)    Privilégier la stabilité

La réussite des projets est un mix entre des compétences élevées en ingénierie logicielle et les connaissances métiers. Tout naturellement des équipes rodées, qui s’entendent bien et dont les personnalités sont connues représentent un réel bénéfice.

Combler des retards par l’engagement de ressources supplémentaire est une erreur fatale connue sous le nom de « loi de Brooks ». D’où l’importance de soumettre son projet aux bonnes pratiques car en la matière, la navigation à vue est létale.

2)    Éviter les mercenaires

Cette proposition est un corollaire de la précédente, aborder un projet avec des ressources venues de divers horizons et sans cohésion est peu rentable.
En d’autres termes, engager des ressources le temps du projet est un exercice qui demande une grande expérience, de solides compétences de gestion et surtout un budget important.

Les projets devant s’effectuer dans le cadre d’enveloppes budgétaires fixes dans des environnements peu expérimentés aux développements logiciels ont toutes les chances d’échouer.

3)    Privilégier les petites équipes

Les grandes équipes sur des projets ambitieux sont à l’origine d’échecs mémorables.
Les bonnes pratiques considèrent qu’une équipe efficace ne devrait pas dépasser sept personnes.

4)    Privilégier la qualité à la quantité

Cette proposition semble évidente, cependant elle prend une dimension particulière dans le développement logiciel où la quantité de ressources dévolue à un projet ne comblera jamais la qualité.
En effet l’augmentation de coordination et la baisse de qualité de la production péjorera le projet à une vitesse d’autant plus grande que les ressources augmentent.

5)    Maintenir le mouvement

Cette affirmation va à l’encontre de la stabilité puisqu’elle propose des changements réguliers dans l’équipe.
Une équipe figée aura tendance à se reposer sur ses acquis et construire des certitudes dangereuses dans un environnement aussi mobile que celui-ci.

Si des têtes nouvelles doivent régulièrement rafraichir l’équipe, le responsable veillera au quotidien à créer une tension afin d’éviter les trop grandes zones de confort.
Cette contrainte est particulièrement délicate à mettre en œuvre car devant l’évolution permanente et déstabilisante de l’environnement informatique, les réflexes d’autoprotection vont opérer pour se protéger des changements naturellement anxiogènes.

Le mix de ces conseils est très délicat à mettre en œuvre. Et lorsqu’on atteint l’objectif, le maintien de l’équilibre est un exercice particulièrement délicat.

Enfin, je ne peux que conseiller de capitaliser sur l’expérience acquise. Que les projets soient réussis ou en échec, un exercice d’introspection et d’analyse permettra de dégager les conditions du succès.
Les conclusions seront formalisées et partagées afin d’entrer dans un processus d’amélioration constante.

© Pascal Rulfi, juin 2017

Téléchargez l’article : Développer_du_logiciel

Publié dans Généralités, Gouverance, Informatique, Stratégie | Laisser un commentaire

Quelques considérations sur la Révolution 4.0

Après le Web 2.0, voilà l’Industrie 4.0 et sa généralisation, la Révolution 4.0, les nouveaux idiomes qui sont apparus dans le radar des tendances à s’approprier.

Est-ce une révolution de fond ? Et au-delà des concepts, comment aborder la Révolution 4.0 ?

De 1.0 à 4.01_locomotive

L’industrie 1.0 est née britannique, elle a pour origine la maitrise de la force mécanique par la machine à vapeur. La force mécanique initie la révolution industrielle du milieu du 19ème siècle et va bousculer le monde.
2_usine_chaine

L’industrie 2.0 est américaine, l’énergie électrique permet une plus grande flexibilité dans l’exploitation de la force et voit émerger la division du travail qui ouvre la voie à la production de masse. L’exemple même d’un bien produit en grande série est la Ford T née en 1908.
3_usine_robotisee

L’industrie 3.0 reste américaine, elle est caractérisée par l’introduction des robots de production, pilotés par des ordinateurs qui automatisent entièrement les lignes de production. La machine remplace les hommes dès les années 70.

L’industrie 4.0 est un projet provenant du gouvernement Allemand afin d’encourager la révolution numérique des industries. Ce concept a des contours plus flous. Il s’agit d’une intégration massive des technologies digitales dans les processus industriels. Le but est d’obtenir une plus grande adaptabilité dans la production et une allocation plus efficace des ressources.
C’est ainsi que l’internet des objets, l’interconnexion continue des outils, les capteurs, les objets intelligents, la réalité augmentée, l’impression 3D, les big data et bien d’autres innovations sont à intégrer dans les moyens de production.

Comme toute révolution en marche, il est difficile de définir précisément ce qui constitue ce qu’on appelle l’Industrie 4.0, ce d’autant plus que les facteurs clés ne sont pas seulement technologiques mais également culturels et humains.

De la complexité du 4.0

La précédente révolution identifiée fut celle des ordinateurs. Beaucoup d’entreprises s’en sont dotées sans toujours anticiper ce que devait apporter cet outil. Ces entreprises trouvaient auprès des prestataires informatiques les aiguillons de leur évolution lesquels proposaient des solutions toutes faites pour le traitement de diverses tâches dans l’entreprise.
Le changement a bien eu lieu, même si les sommes investies n’ont pas toujours produit le retour sur investissement espéré, souvent faute d’objectifs clairs.

Au contraire de la vue homogène définie par les marchands de solutions, je définirais les éléments de la révolution digitale comme une immense boite à outil dans laquelle on trouve toutes sortes d’objets, de produits, de méthodes qui permettent de construire des solutions uniques.

On peut se demander quelle est la nécessité d’élaborer des solutions uniques, nécessairement coûteuses. Je considère que 80% des fonctions d’une entreprises sont plus ou moins équivalentes et peuvent se satisfaire de solutions et de méthodes généralistes. Cependant les 20% restant représentent la vraie différenciation par rapport à la concurrence, ce 20% est au cœur de l’avantage compétitif qu’il faut au minimum préserver, voire enrichir.
Les solutions généralistes ont tendance à normaliser les réponses et à lisser le différenciateur, d’où la nécessité de trouver des solutions innovantes afin de maintenir son propre avantage sur le marché.

La boite à outil géante qui constitue la révolution 4.0 n’est malheureusement pas fédérée par un acteur unique. Élaborer des solutions qui apportent de la valeur nécessite une démarche interne, profonde et permanente de l’organisation.
La construction d’une solution passe par une intégration pertinente des éléments à disposition. Ce constat a plusieurs corollaires :

  • Il n’existe pas de solutions globales livrées clé en main ;
  • Ce qui fonctionne chez le voisin n’est pas nécessairement pertinent pour moi ;
  • L’intégration d’éléments hétérogènes est fortement complexe ;
  • L’évolution est endogène.

La recherche d’un avantage compétitif va nécessiter une adaptation des pratiques et des outils.
Imaginer un futur nécessite de la vision, des connaissances, une capacité d’adaptation permanente et fédérer des expériences afin de construire des solutions.

Nous pouvons rapidement percevoir qu’il ne s’agit pas d’un projet technologique mais d’une approche globale qui va impliquer des hommes et des organisations.
La révolution 4.0 nécessite des hommes 4.0 dont les qualités seront agilité et compétences. Notons que ce sont des qualités que l’on attribue facilement à la génération des « digital natives ».
Fédérer les hommes 4.0 représentera le défi d’une organisation 4.0.

Les enjeux qui permettent d’aborder la révolution 4.0 sont multidimensionnels :

  • Disposer de compétences techniques et métiers
  • Réinterroger des processus et des pratiques intra, inter et extra entreprise
  • Avoir une curiosité et une réelle ouverture à ce qui est nouveau (dépasser les barrières des réticences) tout en restant pragmatique
  • Partager des expériences de façon démocratique et égalitaire
  • Avoir une réelle volonté d’amélioration continue (le kaizen japonais)

Le défi est de taille car il doit lutter contre tous les conservatismes et les résistances aux changements. De plus par son caractère multidimensionnel, je doute que les démarches top down puissent produire des résultats satisfaisants.

Si les organisations cloisonnées et figées ont peu de chance de créer leur révolutions 4.0, il faut néanmoins veiller à ne pas dériver dans des forums permanents, stériles et coûteux.

Quelques pistes pratiques

Comme relevé, la démarche « 4.0 » ne consiste pas à appliquer simplement de la technologie prête à l’emploi mais à élaborer des solutions en fonction de l’environnement dans lequel évolue l’organisation.

La révolution 4.0 nécessite de l’intelligence collective, ce qui me semble être une nouvelle plutôt enthousiasmante. La difficulté consiste à canaliser l’intelligence vers une « optimisation choisie ».

Première piste.
Notre société produit nombre de personnes toujours mieux formées et en quantité toujours plus grande. Je suis convaincu que nombre d’organisations traditionnelles gaspillent leurs ressources et n’encouragent pas l’épanouissement des talents.
Le marché dispose de quantité de personnes à la tête bien faite et qui ont monté une capacité certaine à maitriser de la complexité et atteindre des objectifs.
Il s’agit d’encourager l’initiative et d’éviter d’étouffer toute intelligence dans des tâches répétitives et inintéressantes.

Seconde piste.
La révolution 4.0 doit être comprise et assimilée par ceux qui dirigent l’organisation. Administrateurs et directeurs ont le devoir de donner l’impulsion, le support, l’orientation et surtout les objectifs attendus.
Une compréhension des nouveaux enjeux au plus haut niveau est indispensable. Des « stratèges technologiques » doivent accompagner les décisions stratégiques de l’organisation, non pas pour apporter des solutions toutes faites mais pour rendre attentif au champ des possibles.

Troisième piste.
Un modèle manichéen constitué d’un côté de dirigeant et de l’autre d’exécutants a vécu (l’image est certes caricaturale). L’innovation n’est ni déterministe, ni hiérarchique.
En d’autres termes, un département recherche et développement qui recherche dans son coin a peu de chance d’apporter des (r)évolutions positives. De même qu’un système imaginé dans les hautes strates a peu de chance d’apporter une plus-value.
L’organisation 4.0 demande une gestion des RH innovatrice capable de mixer les personnes de divers horizons, favoriser l’intelligence collective, interroger les pratiques, combattre les craintes, écarter les toxicités, créer du bonheur (si si), encourager et valoriser les idées tout en évitant les sources de déperditions (séances stériles, enfermement dans des voies sans issues, projets fleuves et j’en passe).

Ces trois pistes semblent relever du bon sens, cependant, la mise en œuvre est un authentique défi car complexe et sans méthode infaillible. Au demeurant l’organisation doit devenir intelligente et agile afin d’évoluer de façon fluide dans un environnement changeant.

De l’Industrie 4.0 à la Révolution 4.0

Le 4.0 est une impulsion qui vient du secteur industriel. Cependant il faut être conscient que tous les secteurs sont éligibles à la démarche 4.0, c’est ainsi que nous pouvons généraliser le concept d’industrie 4.0 vers la Révolution 4.0.

Voici deux exemples qui illustrent le phénomène :

La transformation des services de taxis par le système Uber. Cette révolution a été rendue possible par l’association de plusieurs éléments tels :
– la cartographie et les GPS qui permet de localiser et calculer des trajets;
– le big data par la capacité d’anticiper le trafic;
– une connexion permanente et mobile;
– une généralisation des terminaux intelligents.

Les initiatives smart city, notamment en matière de gestion du trafic. Un système tel que google trafic permet de connaitre en temps réel l’engorgement des routes sans passer par les systèmes de comptages. Un couplage en temps réel de la signalisation routière et des informations de trafic permettent d’ajuster automatiquement le flux de trafic. Pour se faire, nous retrouvons l’association du big data, des GPS embarqués, des connexions permanentes et d’une interconnexion avec l’ensemble de la signalisation routière.

Les exemples sont nombreux et ils sont déclinables dans tous les secteurs de l’économie et de la société civile.
S’agissant des collectivités publiques, nous devrions veiller à la réelle sensibilité de nos élus face aux mutations technologiques. C’est à eux qu’il appartient de donner les impulsions qui projetteront notre société dans une nouvelle ère et de coller au peloton de tête.

Le domaine du possible n’a que notre imagination pour limite. Ne rien entreprendre serait une faute.

© Pascal Rulfi, décembre 2016

Téléchargez l’article : Révolution 4.0

Publié dans Généralités, Gouverance, Informatique, Stratégie | Marqué avec , , , | Laisser un commentaire

Le numérique est-il porteur de révolutions ?

logo-pdf_s

A l’heure du web 2.0 et des polémiques sur les services Uber, je suis souvent interpellé par la passivité, voire la méconnaissance des décideurs face à l’évolution numérique.

Pour certains, le plus gros fait d’arme numérique consiste à remplacer leur parc de PC tous les 3 ans engouffrant ainsi des sommes importantes sans apporter aucune valeur ajoutée à leur activité.

Je vais tenter de formuler les grandes étapes qui ont fait la brève histoire de l’évolution digitale sans entrer dans les détails techniques. Seuls les changements qui impactent nos usages sont abordés.

Cet article met en perspective une évolution rapide et continue de cet environnement qui, quoiqu’en pensent certains, a profondément modifié nos usages.

L’âge des ordinateurs

L’ordinateur est utilisé pour effectuer des calculs et des opérations répétitives. Seules quelques organisations s’offrent des machines coûteuses qui sont opérées par de rares spécialistes.

Dédié à des tâches très spécialisées et répétitives, l’ordinateur entre dans le quotidien des entreprises pour le traitement des paies, de données administratives ou de comptes en banque.

Informatique dynamique #1

L’âge de l’informatique

Dans l’environnement professionnel, l’informatique est couramment utilisée pour stocker et exploiter de l’information et dont la base de données en est la cheville ouvrière.
Le croisement d’informations stockées localement et d’une importante capacité de calcul permet la réalisation d’applications qui forment une aide opérationnelle et automatise certaines tâches.

L’environnement dans lequel évolue ce type de système est une organisation où toute l’activité est concentrée et qui a peu d’interaction avec le monde extérieur.

L’informatique prospère au sein des organisations et concerne de plus en plus de collaborateurs qui interagissent avec le système d’information au travers d’un réseau local d’entreprise.
Toutes sortes de systèmes de gestion adaptés à tous les secteurs économiques se mettent en place dans les organisations afin d’automatiser de plus en plus de tâches dans l’entreprise.

Je qualifie volontiers cette informatique de statique, elle répète des séquences qui sont une évolution sophistiquée des automates programmables.

Informatique dynamique #2

L’âge du réseau

La capacité de communiquer en réseau voit l’émergence d’outils collaboratifs dont la messagerie est l’émanation la plus emblématique.

La messagerie a ceci de particulier qu’elle est un système qui sort des murs de l’entreprise. Ainsi l’entité organisationnelle n’est plus un lieu clos car l’information circule entre les personnes et entre les organisations. Cela pose par ailleurs quelques problèmes de gestion de la confidentialité.

Le partage des informations s’accentue au travers d’un réseau local mais également plus largement entre d’autres entités et d’autres organisations.

Les échanges d’informations permettent l’essor de systèmes destinés à tout ce qui touche aux flux et à la logistique. Que ce soit pour les flux financiers ou les productions industrielles, cette informatique commence à prendre le pas sur l’humain lors de traitement complexes et modifie profondément l’organisation des entreprises.

Informatique dynamique #3

Cette capacité de communiquer au-delà des frontières et sans limite de distance accélère la mondialisation.

L’âge du web

Il s’agit de l’émergence d’un réseau global avec des capacités colossales, tant en facilité d’échange que de puissance de calcul. Ce réseau multiplie les possibilités d’interaction avec pour conséquence une perte de contrôle des entités traditionnelles qui se voient débordées de toute part.

Des systèmes personnels interconnectés permettent à chacun d’interagir sans aucune limite. Les systèmes d’information ne sont plus fédérés et contrôlés par des entités centrales mais fonctionnent comme autant de nœuds indépendants et autonomes.

Du point de vue de l’entreprise, c’est l’émergence de la délégation de tâches. Ainsi, le guichet bancaire se transforme en banque électronique où le client effectue toutes ses opérations courantes, c’est aussi le voyageur qui réserve hôtels et déplacements de façon virtuelle en se substituant à l’agence de voyage.

Un aspect remarquable de cette révolution est le partage et la diffusion de la connaissance dans une perspective participative où chacun devient un acteur actif.
Ainsi, les blogs permettent à chacun de partager un avis ou une information de manière globale en s’affranchissant des médias traditionnels et d’une éventuelle censure.
De même, l’intelligence collective a permis la constitution d’une encyclopédie dont les contributions sont une œuvre collective et d’un contenu d’une étonnante fiabilité.

C’est également les réseaux sociaux et autres agrégateurs d’informations qui multiplient les interactions entre les personnes et exposent la vie de chacun. Je ne peux pas passer sous silence que cette formidable quantité de données personnelles appartient à des entités privées et dont le modèle, le fonctionnement et les implications sont inconnus du plus grand nombre.

Informatique dynamique #4

Notons sur le schéma que l’entreprise n’encadre plus l’activité numérique. Les individus agissent hors de toute organisation traditionnelle, qu’elle soit d’entreprise ou gouvernementale.

Chacun aura constaté au quotidien une séparation de moins en moins marquée entre l’activité professionnelle et la vie privée, ces deux mondes se mélangeant allégrement dans le temps et dans l’espace ce qui rend difficile la comptabilisation du travail.

Le corolaire est une interrogation du rôle de l’entreprise dans une organisation qui tend vers la collaboration avec personnes fortement indépendantes issues de la « génération Y ».
Des nouveaux usages de travail se mettent en place. Il suffit pour s’en convaincre de fréquenter les cafés qui proposent un réseau de bonne qualité pour constater que certains clients y travaillent.

L’organisation d’entreprise a pour but de rassembler et fédérer des ressources pour produire un bien ou un service. Cependant les organisations monolithiques ne répondent plus aux nécessités du temps. Cette affirmation est une invitation à réfléchir sur l’agilité des organisations dans lesquels nous vivons.

L’âge virtuel

Nous sommes devenus des individus nomades et connectés en permanence, donc affranchis des contraintes de lieu et de temps mais toujours connectés au monde environnant.

Ces nouvelles capacités donnent la possibilité de monter de nouveaux services tels que les taxis Uber, qui font actuellement couler beaucoup d’encre et placent le législateur dans une position inconfortable.
Nous pouvons dire qu’Uber est aux services ce que eBay est aux marchandises : un système qui met en relation des consommateurs et des fournisseurs.
Pour eBay l’objet de la transaction est de la marchandise, alors qu’Uber traite de services qui, de plus, sont mobiles.

De même, les connexions massives point à point permettent aux communautés d’intérêt d’émerger. Anonymous est un exemple d’organisation numérique qui a débordé l’ordre traditionnel. En effet, Anonymous n’a pas d’existence formelle, n’a pas de frontière, n’a pas de membres fixes.

Informatique dynamique #5

Le schéma montre une complète disparition du cadre d’une organisation formelle.

Les nouvelles organisations implémentent une organisation du travail automatisée par un système autonome qui s’affranchit des structures traditionnelles.
Leurs services sont plus performants que n’importe quel système antérieur.
Ce changement est suffisamment remarquable pour que l’on parle d’Uberisation de la société.

Les entreprises organisées de façon traditionnelles se trouvent ainsi concurrencées par les entités virtuelles qui s’affranchissent des lourdeurs des chaines de commandement et des dérives bureaucratiques.
Ces petits vices ne portent pas à conséquence lorsque l’environnement est plus ou moins identique pour tous. Il peut s’avérer létal quand de nouveaux acteurs ayant parfaitement intégré la révolution numérique arrivent sur le marché.

S’agissant des communautés d’intérêt, elles sont fédérées au-delà des frontières traditionnelles. Animées par une génération cultivée et polyglotte, ces communautés n’ont pas de hiérarchies, pas de responsable. C’est un processus sans leader qui se forme et se dissout au gré des causes.
Si une cause trouve une résonnance sur le réseau, elle va être capable de mobiliser rapidement des ressources. Rapidité et agilité caractérisent une nouvelle forme de démocratie qui déborde les organisations traditionnelles.

La prééminence des communautés géographiques matérialisées par le pays comme fédérateur d’une population perd de sa pertinence au profit de communautés centrées sur des intérêts de différentes natures dont les liens sont virtuels.
De la mise en cause des frontières découle celle des Etats, des pouvoirs et de leurs moyens de police. Les printemps arabes ont donné un aperçu de ces mouvements en ébranlant les pouvoirs en place.

De manière plus effrayante, on reconnait le fonctionnement de groupes tels que l’EI. Leur fonctionnement semble déborder les forces de polices, les services de renseignements et les gouvernements, lesquels semblent en peine d’opposer une riposte pertinente.

Conclusions

Partir de l’informatique pour conclure à une possible révolution peut sembler un propos excessif et la démonstration parait hasardeuse.
Cependant, on parle bien de révolution numérique. Elle ne se limite pas seulement à des moyens techniques comme beaucoup semblent le croire, car elle modifie profondément nos usages.

Il y a quelques années j’étais effaré de constater que les forces de sécurité gouvernementale n’avaient pas intégré l’électronique dans les risques systémiques.
De même, aujourd’hui les structures traditionnelles semblent avoir beaucoup de peine à évoluer. Du moins évoluent beaucoup moins vite que leur environnement.
Cela crée de nouvelles opportunités pour des acteurs agiles, toutefois, il faudrait veiller à ce que la création de valeur se réalise sous nos latitudes.

Ce constat doit nous inciter à considérer les risques des changements. De nouvelles sociétés apparaissent, elles sont plurielles, transfrontalières, mobiles et indomptables. Elles ont aussi la capacité d’ébranler fortement les organisations sociales telles que nous les connaissons.

L’actuelle défiance envers le projet européen, ainsi que les montées des extrêmes concrétisent une forme de divorce entre la population et le projet social. Les alternatives émergentes ne seront pas nécessairement bienveillantes et représentent un risque de dérapage dont nous ne percevons pas encore la portée.

Il est urgent de mettre du sens dans le vivre ensemble.
Il est également urgent de mettre du sens aux activités, surtout lorsqu’elles concernent le bien commun.
Sans quoi nous pourrions avoir un réveil douloureux. D’autant plus douloureux que nous aurons repoussé ce travail d’introspection.

© Pascal Rulfi, avril 2016

Téléchargez l’article : Révolution numérique

Publié dans Généralités, Informatique, Stratégie | Laisser un commentaire

De Aardappeleters où l’importance des spécifications d’un projet

logo-pdf_s

Les patates sont pour moi les schémas sommaires que dessinent tous les consultants lorsqu’ils illustrent les flux dans une entreprise.
Ces dessins ont pour but de décrire les processus qui serviront de modèle à la mise en place d’un logiciel « intégré ». Cet article est une réflexion sur le risque que présente ce type de démarche.

Ainsi le consultant est le roi des patates dont il abreuve ses clients. Mon estimé collègue hollandais lie malicieusement ces démarches à un tableau de Van Gogh peint en 1885, « De Aardappeleters » en français, « les mangeurs de pommes de terre ».

De Aardappeleters1

La question de la description fonctionnelle d’une organisation est complexe et nécessite un langage commun afin que le fournisseur et le client comprennent la même chose.

Chacun a appris qu’un projet informatique ne devait démarrer que sur la base d’un cahier des charges.
Pour les logiciels développés « sur mesure », les spécifications écrites sont indispensables afin de limiter les risques de dérives fonctionnelles.
Un progiciel est, à priori, moins sujet à ces risques dérives car c’est l’équivalent de la « confection » pour laquelle seules quelques retouches seront possibles.

Dans la réalité, il est rare de tomber sur un tel document. Tout le paradoxe est là, si personne ne songerait à construire une maison sans un plan et sans un descriptif de construction, la pratique est courante dans les projets informatiques.

Cependant il faut admettre que la spécification d’un logiciel est beaucoup plus complexe que le plan d’une maison. En effet, un bâtiment est un élément statique et tangible alors que le logiciel s’inscrit dans une logique de flux dynamiques et d’événements asynchrones, le tout évoluant dans une grande abstraction. Par conséquent, le cahier des charges classique est un outil peu adapté qui peine à décrire cette complexité; de plus, le client a rarement une idée précise sur ce qu’il souhaite.

La question de la méthode a été abordée dans un précédent article et j’invite ceux qui s’y intéressent à lire la note intitulée « maquette et optimisme, un risque important ».

De spécification complète et figée, nous sommes arrivés à une époque où on ne spécifie plus du tout. La règle semble être de faire quelques schémas de principe sur un tableau blanc. Cela se résume à dessiner quelques blocs (mes fameuses patates) agrémentés de flèches qui les relient. La promesse et l’espérance est que la mise en œuvre de ces quelques concepts simples se fera par paramétrage sur le progiciel « de confection ».

Le schéma fictif suivant n’est probablement pas inconnu de tous ceux qui ont à formaliser la définition de flux fonctionnels :

Patate_1

Ainsi lors de telles séances « patates » tous les participants trouveront un accord de principe sur des articulations qui semblent « logiques ».

Si cette représentation a le mérite de rendre tangible quelques grands concepts, elle ne dit rien des séquences et autres traitements des flux.

Souvenez-vous qu’il n’y a pas de solutions miraculeuses en informatique. Par exemple, si un progiciel est un raccourci dans la réalisation il ne permet en aucun cas de s’affranchir d’une spécification.
« Ce qui se conçoit bien s’énonce clairement », par conséquent, ne vous contentez pas d’un vague schéma et ayez une idée précise de ce qui est attendu et comment cela doit fonctionner.
Attendre d’un progiciel qu’il structure une activité est un oreiller de paresse qui peut s’avérer dévastateur pour l’organisation.

De plus, toute solution va nécessiter des décisions dans la façon de procéder. Ces décisions seront prises sur des arbitrages et des pesées d’intérêt.
Conservez précieusement une trace écrite de vos arbitrages. Au mieux les traces permettent de se souvenir le pourquoi du comment lorsque de nouvelles options s’appuient sur vos décisions antérieures. Au pire si le projet entre dans une phase de difficulté, vous pouvez espérer capitaliser sur l’expérience. Enfin, en cas de litige, vous vous disposerez de sources fiables.

L’informatique est la branche la plus complexe des sciences de l’ingénieur. Malheureusement c’est celle pour laquelle on attaque des réalisations avec le plus de désinvolture.
J’ai eu l’occasion d’arbitrer plusieurs projets informatiques dans l’impasse, les causes ont peu ou prou été les mêmes. Je retiens les causes suivantes :

  • Objectifs peu clairs et non partagés
  • Lacunes de spécifications
  • Optimisme
  • Laxisme dans le suivi et la coordination
  • Non implication de la direction

Tous les projets abordés de cette manière ne sont pas des échecs. En revanche j’observe que tous les projets en échecs ont été abordés ainsi. La prise de risque est donc conséquente.

En tout état de cause, doutez et chalengez les vendeurs et les consultants qui promettent la lune sur la base de quelques schémas car le procédé frise le charlatanisme.

Fort de ces constats de bon sens, il serait dommage d’échouer et que l’issue votre projet devienne aussi sombre que le tableau de Van Gogh « De Aardappeleters ».

© Pascal Rulfi, mars 2016

Téléchargez l’article : De Aardappeleters

Publié dans Généralités, Gouverance, Informatique | Laisser un commentaire

Le travail, plaisir ou malédiction ?

logo-pdf_s

Une étude de Gallup affirme qu’en France et en Allemagne, seule une dizaine de pourcent des salariés sont engagés dans leur entreprise, tous les autres subissent leur sort avec un degré de désintérêt plus ou moins marqué.

Nous ne pouvons qu’être interpellés par les conclusions : 10% de l’effectif s’engage pour faire avancer l’entreprise alors que 90% des personnes restantes sont désengagées au travail.
De ces personnes désengagées, 60% ne sont présents que pour des raisons alimentaires et 30% ont un mal-être si profond qu’ils en deviennent nuisibles pour leur environnement.

Si ces chiffres sont exacts, cela signifierait que les entreprises sont des usines à créer de la frustration. Voilà un paradoxe alors que toutes prétendent rechercher des collaborateurs créatifs et talentueux.

Structures pyramidales

Les structures organisationnelles sont abondamment étudiées dans la littérature spécialisée et offrent divers modèles, cependant, il semble que les structures hiérarchiques figées soient encore dominantes. Ces organisations sont caractérisées par des chaines de commandement à étages multiples et une grande centralisation du pouvoir.

Les structures hiérarchiques vont de pair avec la taylorisation du début du XXème siècle. L’organisation scientifique du travail préconise de diviser le travail en de multiples tâches répétitives, cadencées par une chaine de production dont Charlie Chaplin a si bien caricaturé les excès.

temps_modernes

Cette organisation du travail a l’avantage de canaliser les ressources brutes. Elle est adaptée aux industries de production de masse comme aux structures militaires traditionnelles.
Souvent qualifiée d’inhumaine, la taylorisation exige des ouvriers dociles et corvéables pour des tâches inintéressantes et abrutissantes organisées par une structure supérieure. On parle d’aliénation du travail.

Ces structures perdurent aujourd’hui sous des formes un peu plus évoluées. Des décisions et missions sont prises en haut lieu, la transmission percole dans les strates hiérarchiques avec une perte de sens au fil de la diffusion.
In fine, les collaborateurs effectuent le travail dont ils ont reçu l’ordre sans franchement en connaitre le sens ou la finalité et probablement avec la conviction que certaines tâches ne font aucun sens.
La déresponsabilisation qui en découle génère des frustrations qui au mieux débouchent sur un désengagement et au pire sur de la résistance.
Voilà ce qui pourrait en partie expliquer le faible niveau d’engagement constaté par l’étude précédemment mentionnée.

Le dysfonctionnement

La conséquence de ce type d’organisation est un rendement net très faible. D’importantes ressources sont employées pour une production peu satisfaisante. On pourrait croire que le faible rendement et un environnement peu exigeant auraient le mérite de préserver les collaborateurs mais ce n’est manifestement pas le cas !

Lorsque les moyens sont abondants, les éventuelles carences de productivité peuvent être comblées par l’ajout de ressources. Ces nombreuses ressources devant bien entendues être gérées par une cohorte de chefs à tous les niveaux.

Tout se gâte quand les moyens financiers ne suffisent plus à nourrir la machine et que le mot efficience devient une exigence.
Le propriétaire fait le constat d’inefficience et exige un meilleur rendement. Le premier réflexe est bien entendu un renforcement du contrôle pour vérifier que tout le monde travaille dur.

Et c’est ainsi que les contrôleurs de tous bords interviennent avec des missions parfois floues mais qui exigent leurs lots de changements pour justifier leur action.
Rapports, reporting, audits et séances, occupent tout ce petit monde au nom de la quête d’efficience. Ainsi tous auront des journées bien remplies pour effectuer des tâches improductives.

Cependant, la productivité globale aura toutes des chances de baisser ce qui exaspérera le propriétaire qui commandera de nouveaux contrôles et de nouvelles mesures qui ne manqueront pas d’augmenter le rapport de défiance.

Pour leur part, les collaborateurs de terrain vont subir des réformes imposées par la hiérarchie, alors que leur finalité sera floue. Il se verront ajouter dans leurs pratiques bon nombre d’opérations liées aux contrôles et aux statistiques dont ils savent pertinemment qu’elles ne seront pas exploitées.

En définitive, c’est par la contrainte que la hiérarchie espère imposer une augmentation de la productivité. Tenter d’imposer de nouveaux objectifs de performance à des employés dont l’écrasante majorité est désengagée a peu de chance de faire des étincelles.

La spirale infernale est bien engagée. La société du contrôle ne fonctionne pas et pourtant, nous répétons les mêmes comportements. Souvenons-nous de l’affirmation d’Albert Einstein « la folie, c’est de faire toujours la même chose et de s’attendre à un résultat différent ».
Alors que faire ?

Changer ?

Plusieurs raisons m’incitent à questionner nos organisations et trouver de nouvelles voies.

La première est simplement le constat d’échec du modèle actuel qui montre ses limites avec une incapacité à évoluer pour répondre aux nouveaux besoins.

La seconde raison concerne notre environnement qui se complexifie et demande de l’agilité, de l’initiative et de l’intelligence.
Or, nous savons que les organisations fortement centralisées et segmentées par fonction correspondent à des environnements stables et homogènes ce qui caractérise de moins en moins nos environnements actuels.
Par exemple, une armée traditionnelle est structurée pour livrer un combat sur un front qui oppose des forces humaines et matérielles. En revanche, elle ne peut rien contre la guérilla qui est mobile, imprévisible et agile. Ses chaines de commandement et ses forces sont impuissantes face à ce type d’attaque.

La troisième raison concerne les moyens financiers. Dans un monde globalisé où règne une forte compétition, il est demandé à tous de produire des biens et des services de qualité aux coûts les plus justes. Les rentes de situation sont de plus en plus rares et seront de moins en moins durables, quels que soient les acteurs et les secteurs.

La quatrième raison est humaine. Créer des générations de collaborateurs désengagés n’a pas de sens d’autant que ce mode de fonctionnement crée de la frustration voire de la misère.
Alors qu’il est impératif de créer de la valeur, il est irresponsable de gaspiller les ressources à disposition.

La cinquième raison est générationnelle, il sera vraisemblablement compliqué d’attirer des collaborateurs issus de la « génération Y » qui ne montreront aucune loyauté à des organisations peu motivantes.

Objectifs vs contrôles

La culture du contrôle, dans une hiérarchie figée n’a aucune chance de produire un résultat probant. Par conséquent il est intéressant d’imaginer d’autres modèles.

Une des pistes pour augmenter l’efficience du système est de diminuer la proportion de collaborateurs désengagés. Cet axe semble même prioritaire tant il est une source d’améliorations.

Pour défendre la piste des collaborateurs, retenons trois critères de la pyramide des besoins établie par Maslow :

  • Le besoin d’accomplissement de soi
  • Le besoin d’estime
  • Le besoin d’appartenance

Le besoin d’accomplissement est un moteur qui permet à chacun de réaliser et se réaliser dans une activité.

Le besoin d’estime concerne notamment le respect de soi, la reconnaissance et l’appréciation des autres. Or ces aspects ne sont pas valorisés lorsque les collaborateurs sont de simples exécutants à qui on impose des pratiques pour effectuer des tâches auxquelles ils ne trouvent pas de sens.

Enfin le besoin d’appartenance consiste à se sentir bien avec les autres dans son environnement de travail. Construire ensemble est un moteur certainement plus productif que subir individuellement.

Dès lors, l’objectif est de mettre les gens en mouvement et tendre vers le plaisir et la satisfaction dans l’accomplissement de son travail.

Pour cela nous allons faire les hypothèses suivantes :

  • Les collaborateurs connaissent leur métier,
  • Les collaborateurs sont intelligents,
  • Les collaborateurs heureux sont motivés.

Mais pour quoi faire ?
Cette question est centrale et beaucoup moins anodine qu’elle ne parait.

Demander aux collaborateurs d’organiser librement leur travail (soyez des entrepreneurs) est une fausse bonne idée car il y a toutes les chances pour qu’ils privilégient leur propre confort au détriment de la satisfaction du client.

Afin d’éviter ce travers, il s’agit de fixer des objectifs. Cette évidence n’en est pas une quand on se souvient des déclarations de Peter Drucker, le pape du management : « l’administration par objectif est efficace si vous connaissez les objectifs. Mais 90% du temps vous ne les connaissez pas. »

Voilà le véritable enjeu de l’organisation : fixer des objectifs clairs, mesurables, réalistes et qui font du sens. La définition des objectifs devrait être la seule préoccupation du management.
Charge ensuite aux collaborateurs d’organiser le travail en fonction des objectifs fixés et mesurés.

Avec des objectifs clairs, les collaborateurs devront s’engager et retrouveront une motivation dans leur travail. Ils choisiront des solutions pertinentes en fonction de leurs connaissances du métier.
A ce titre, la satisfaction des collaborateurs doit être un objectif à part entière, également mesuré.

Parmi les objectifs fixés, il en est un qui devra être priorisé par le management : la satisfaction client.
Une véritable culture de la satisfaction doit être entreprise, notamment en identifiant ce qui constitue des motifs de satisfaction.

Un objectif n’est pas une cadence (p.ex traiter 100 clients à l’heure au guichet), mais plutôt un critère lié à la satisfaction (p.ex. délai d’attente au guichet de moins de 10 minutes et expérientiel agréable). En effet, la première proposition n’interroge pas le processus, elle ne fait que pressuriser sans mettre de sens. La seconde proposition est un objectif qui ouvre la possibilité aux collaborateurs d’organiser la façon dont le service est délivré, par exemple en simplifiant des processus qui ne font pas de sens ou en automatisant certaines tâches.

Un accompagnement pour atteindre les objectifs doit rester possible. Ce sont les collaborateurs qui demandent cas échéant le support organisationnel dont ils ont besoin. Il s’agit là d’une mise en œuvre concrète du « management participatif ».

Une autorité de surveillance telle qu’une « cour des comptes » pourrait mettre ses compétences au service d’un accompagnement dans la mise en œuvre de processus. De surveillance on passe à accompagnement délibéré ce qui change notablement la perception.

Si nouveau que cela ?

Les pratiques évoluent et l’organisation mécaniste dans une structure fortement hiérarchisée a vécu.

Certaines entreprises dans les technologies de l’information ont institué des espaces de liberté qui permettent à chacun de développer des projets personnels dans l’entreprise. Non seulement ils disposent de temps mais ils peuvent également mobiliser des ressources internes d’accord de participer à un projet motivant sur leur temps officiellement libéré.
Les résultats en termes de créativité et de produit sont un des moteurs de l’innovation de sociétés telles que Google.

Des nouvelles pratiques intéressantes apparaissent et, sous la bannière du « bonheur au travail », un certain nombre d’exemple montrent des pistes intéressantes et probantes.
Ce sont celles qui ont permis à des entreprises telles que Harley-Davidson de connaitre le succès après des années de déclin. Ces démarches sont également expérimentées avec succès dans les administrations publiques, notamment en Belgique par la sécurité sociale et le ministère des transports.

Il semble que le temps est venu d’éradiquer les logiques de défiance et de lutter contre le mal-être au travail qui ne profite à personne.
Créer du plaisir et du sens dans les activités professionnelles sont des pistes qui méritent d’être sérieusement évaluées pour remettre une organisation en mouvement et au service de tous ceux qui gravitent autour.

© Pascal Rulfi, janvier 2016

Téléchargez l’article : Organisation et travail

Publié dans Généralités, Gouverance, Stratégie | Laisser un commentaire

Centralité, facteur de puissance

logo-pdf_s

Cet été, j’ai organisé mes vacances à la dernière minute sans une idée bien précise de destination et c’est le plus grand des hasards qui m’a amené en Sicile.
Comme je suis incapable de rester sur une plage plus d’une heure, j’ai arpenté l’ile du nord au sud et d’est en ouest au pas de charge.

J’avais de la Sicile l’image qu’en ont les Italiens du nord, une somme de lieux communs souvent condescendants. Dans ma grande ignorance, j’ai découvert une richesse que je ne soupçonnais pas outre mesure. Des temples grecs jusqu’aux palazzi baroques, le patrimoine témoigne d’un passé d’une richesse, tant financière qu’historique faramineuse.

Phéniciens, Grecs, Carthaginois et Romains ont occupé la Sicile dans l’antiquité, alors que les Ostrogoths, les Byzantins, les Arabes et les Normands ont occupé l’île au moyen-âge. Du XVème au XVIIIème la Sicile est rattachée à la couronne espagnole pour définitivement faire partie de l’Italie en 1861. Chacun ayant eu la volonté de laisser sa trace.

Centralité

Interpellé par tout ce que j’ai vu et profitant des périodes de sieste, je me suis mis en quête des facteurs clé qui ont fait l’intérêt sinon le succès de la Sicile. L’évidence de la conclusion fera sourire tous les géographes : outre une terre fertile, la Sicile est au centre de la Méditerranée. Méditerranée centre du monde où se sont concentrées toutes les richesses et tous les pouvoirs comme en témoignent des villes telles que Rome et Venise.
De par sa centralité, la Sicile est en bonne place dans les échanges autour de la méditerranée ce qui en a garanti une exceptionnelle prospérité pendant plus de 20 siècles.

En extrapolant la notion de centralité à notre monde contemporain, j’identifie deux types de centralité : la première est géographique et la seconde est la force.

La centralité issue de la force concerne les organisations capables de maitriser une puissance nouvelle. Cette force donne l’avantage qui permet de s’approprier des richesses, historiquement sous forme de territoires. Rome dans l’antiquité et plus proche de nous, les campagnes coloniales qui auront notamment permis aux français et surtout aux britanniques de se constituer des empires grâce à la maitrise de la puissance mécanique en sont des exemples.
A ces puissances coloniales, Paris et Londres ont été des villes dominantes de leur époque.
Après la seconde guerre mondiale, le leadership est venu aux Etats-Unis dont le porte-drapeau fut New-York.

La centralité géographique représente un carrefour naturel.
Genève fut un carrefour pour l’Europe, de comptoir qu’elle a toujours été, elle renforce sa position de centralité notamment grâce à son statut de neutralité pendant le deuxième conflit mondial.
Cette position centrale est confirmée pendant la guerre froide ce qui lui a permis de connaitre une exceptionnelle prospérité.

La montée en puissance de l’Asie et en particulier la Chine nous permet de constater un déplacement du centre géographique.

Une observation du trafic aérien mondial matérialise les nouvelles centralités géographiques. Par exemple, un instantané du trafic montre les grandes routes et les points de convergence.

C’est ainsi que Dubai et Doha apparaissent clairement comme les nouveaux centres entre l’Europe, l’Asie et l’Afrique.
Dès lors, outre des ressources pétrolières, ces villes sont devenues des centres économiques et financiers que leur centralité justifie.

Le déclin

La centralité géographique autour de la Méditerranée qui a fait la prospérité de la Sicile décline dès le milieu du 19ème siècle. Ce déclin est concomitant à la constitution des états-nations ainsi qu’à l’apparition de l’ère industrielle. Dès lors, nous pouvons considérer que nous sommes en présence d’une rupture qui a la potentialité de redessiner les centres de puissance.

L’enjeu des ressources passe de la mer et la terre agricole vers la force industrielle et son énergie (le charbon). Le périmètre n’est plus la Méditerranée mais l’Europe, plus précisément autour des bassins miniers. Une Europe dont le centre géographique correspond à la Suisse et dont la centralité a été renforcée dans le rapport est-ouest d’après-guerre.

La récente mondialisation a été provoquée notamment par des dérégulations et l’émergence des moyens électroniques. Ces changements ont naturellement déplacé les centralités mondiales.

Ainsi la Suisse ne bénéficie plus de sa situation privilégiée qui était la sienne et se trouve contrainte à normaliser ses conditions cadres par rapport aux autres nations.

Pour moi, la première alarme fut l’humiliant « grounding » de Swissair en 2001. La chute du mur en 1989 mettait fin à la guerre froide avec pour conséquence une perte progressive des avantages conférés par la neutralité et la centralité géographique de la compagnie nationale helvétique.
Ainsi, de « banque volante » et fierté nationale, Swissair est contrainte à disparition non sans provoquer la stupeur des helvètes convaincus de la suprématie de leur modèle.

Le secret bancaire qui semblait intouchable il y a seulement 10 ans subit le même sort, ce qui représente autant de marqueurs qui nécessitent notre vigilance.

La Suisse est reconnue pour sa compétitivité et son excellent niveau de formation. Une exceptionnelle densité d’universités publiques de premier plan constitue une valeur ajoutée importante.
Ces coûteuses infrastructures sont financées par la prospérité du pays créant ainsi un cercle vertueux.

La baisse des revenus consécutive à la disparition de nos conditions cadre favorables aura des impacts sur la compétitivité de la Suisse à long terme avec un risque de briser la stabilité.

Il est clair qu’il ne suffit plus de gérer les acquis. Il faudra créer une réelle valeur dans un monde ultra compétitif et global qui dispose de nombreux atouts.
Les décideurs, en particulier politiques, devront agir avec lucidité en privilégiant les secteurs créateurs de valeur et optimiser l’efficience des activités courantes.

Nous arrivons peut être à la fin d’un cycle et il nous appartient d’imaginer notre place dans ce grand brassage global sans quoi le réveil pourrait être brutal.

Centralité numérique

Le constat de la centralité comme facteur de puissance est-il transposable à d’autres domaines?
Appliqué au monde numérique, qui est par nature non lié à un espace géographique, la centralité peut être interprétée comme une concentration des moyens et des données dans un espace devenu virtuel.

Le développement du web ces dix dernières années semble indiquer que l’exemple s’applique.
La puissance acquise par les grandes compagnies de l’internet, en particulier par Google, confirme le concept sans que nous soyons bien capables d’en mesurer les conséquences.

La concentration d’une nouvelle puissance telle que nous l’observons devrait nous inciter à la réflexion.
Quels sont les conséquences ? Quelle est la place du numérique dans le débat public ? Est-ce un nouveau totalitarisme ?
Voilà bien des questions qui sont à mon sens dignes d’intérêt. La conjonction de l’apparition de forces virtuelles et d’un déplacement des puissances traditionnelles sont porteurs de profonds changements dans notre quotidien. Saurons-nous anticiper ou allons-nous subir ? Le débat est ouvert !

© Pascal Rulfi, décembre 2015

Téléchargez l’article : Centralité, facteur de puissance

Publié dans Généralités, Stratégie | Laisser un commentaire

Un beau pays où l’on va à la guerre en Mercedes

L’automobile est un domaine où le consommateur pense être rationnel dans ses décisions d’acquisition. En réalité il agit le plus souvent de façon émotionnelle sur un objet porteur de fantasmes.

J’ai souvenir d’une polémiques dans les années 90 au sujet des berlines d’une marque allemande prestigieuse mises à disposition des officiers de l’armée Suisse.
Le slogan « quel beau pays où on va à la guerre en Mercedes » avait fait mouche.

Je me propose d’aborder les aspects de positionnement de marque dans le domaine automobile et démystifier ce qui nous choque lorsqu’on associe Mercedes et biens publics.

Le bonjour d’Alfred

Dans les années 1920, Alfred Sloan, directeur chez General Motors posa les bases de la segmentation de marché dans l’automobile. Il subdivisa son groupe en cinq marques en leur accordant une autonomie et en leur attribuant un segment de marché basé sur une catégorisation sociologique.
Les segments étaient définis en fonction du revenu des acheteurs. Chevrolet pour les plus modestes, Cadillac pour les plus riches, en passant par Pontiac, Oldsmobile et Buick.
Ainsi, en fonction de l’évolution de ses revenus, la clientèle pouvait s’afficher avec des marques représentatives de sa position sociale et de son ascension.

Notons qu’il inventa aussi ce que nous appelons aujourd’hui la plate-forme. Les carrosseries changeaient d’aspects alors que tout ce qui ne se voyait pas était identique. En clair, châssis, moteur et pièces de base étaient standards pour toutes les marques tandis que la robe changeait toutes les années créant l’illusion de la nouveauté. Un marketing omniprésent et efficace entretenait savamment le mirage de l’innovation.

Marques et plate-forme

Les bases posées par l’industrie américaine entre deux guerres ont perduré jusqu’à nos jours et ont pris un essor particulier en Europe. La meilleure illustration en est le groupe allemand VAG qui, pour l’automobile comprend un vaste portefeuille de marques couvrant tous les segments (Audi, Bentley, Bugatti, Lamborghini, Porsche, Seat, Skoda, Volkswagen).

Gardons de ce portefeuille que les marques qui produisent en grande série soit: Audi, Seat, Skoda, Volkswagen et marginalement Porsche. Nous nous apercevons que la stratégie de segmentation est proche de celle fixée par General Motors il y a 90 ans.
Chaque marque a son territoire, délimité notamment par son niveau de prix. Audi représente ainsi la Cadillac d’autrefois.

Bon nombre de moteurs sont communs aux véhicules des différentes marques, de même les principaux modèles reposent sur des plates-formes identiques, cela de Skoda à Porsche.
Par exemple, la récente plate-forme « MQB » sert de socle commun qui permet de construire de la plus petite citadine à la plus grosse berline. Cette plate-forme universelle est utilisée pour toutes les marques du groupe VAG et pour tous les modèles dont le moteur est disposé transversalement.

Par conséquent, les qualités intrinsèques de tous ces modèles sont les mêmes, en particulier en terme de fiabilité et de robustesse.

Premium

Le marketing a créé un segment appelé « premium » dont les produits sont caractérisés par un prix de vente élevé. Le premium se positionne entre le produit de consommation de masse et le produit de luxe.

Audi évolue dans le segment des marques « premium ». En Europe Audi, BMW, Mercedes et Volvo occupent ce marché.

L’image valorisante de ces voitures est là pour flatter ceux qui les possèdent. En revanche, elles ne s’avèreront pas plus fiables ou plus robustes que celles de la marque plus populaire dont elles dérivent.

Les militaires hier, l’administration aujourd’hui

Dans les années 90, la population suisse s’était émue de voir l’armée suisse circuler en Mercedes. La polémique qui s’en suivit était justifiée, puisque comme on vient de le voir, ces voitures tiennent davantage du prestige que de critères objectifs.

Or, l’histoire semble se répéter puisqu’aujourd’hui nombre d’administrations acquièrent de luxueuses voitures pour leur parc.

Ainsi on peut voir circuler dans nos rues de belles voitures de prestiges comme par exemple :

Douanes Suisse : BMW X3, Volvo V70
Police des transports CFF : BMW X3
Police Genevoise : Volvo XC60, Volvo XC70
Police municipale : BMW Série3 Touring

TPG : Volvo XC60

Pour prendre l’exemple des voitures d’intervention des TPG, le choix d’acquérir de gros SUV (Sport Utility Vehicle) d’une marque de prestige ne semble trouver aucune justification.

Dans un contexte où les services publics clament leurs efforts en faveur de l’efficience et des économies, il est particulièrement maladroit d’afficher de luxueuses voitures de service. Même achetées avec d’importantes remises, ces autos ne donnent pas l’image d’une utilisation parcimonieuse des deniers publics.

Bien entendu ces seuls excès ne grèvent pas les finances de façon déterminante mais dans un domaine aussi émotionnel, c’est afficher de façon caricaturale le manque d’attention porté aux biens publics.
Par extension et considérant que ce n’est que la pointe visible de l’iceberg, les conclusions seront vite trouvées.

Dans le contexte budgétaire difficile des TPG, en particulier depuis les dernières votations sur les tarifs des transports, la maîtrise des coûts d’exploitation est essentielle. La direction clame ainsi que tous les efforts ont été entrepris. Il est dès lors surprenant que les TPG ne réalisent pas le hiatus entre la communication officielle et l’image renvoyée à la population par le simple fait de circuler dans des véhicules luxueux.

Si le risque de provoquer une affaire d’Etat est quasi nul, en revanche, c’est dans la durée que l’impact sur l’image se fait sentir.
Il appartient aux décideurs d’évaluer l’image de marque qu’ils souhaitent donner des institutions et examiner la pertinence de leurs acquisitions.

© Pascal Rulfi, décembre 2014

Téléchargez l’article : Un beau pays où l’on va à la guerre en Mercedes

Publié dans Généralités, Gouverance | Marqué avec , , , , | Laisser un commentaire

Objectifs et fiscalité en matière automobile

Mon précédent article traitait de la consommation de carburant et des émissions de CO2 des véhicules à moteur. Il mettait en doute les progrès de l’industrie en matière de maitrise des émissions des gaz à effet de serre.

Quelles seraient alors les possibilités de baisser réellement les consommations des véhicules privés ? Je vais tenter de dresser quelques pistes et par la même occasion aborder la question de la fiscalité.

1ère partie : objectifs à atteindre

Décider d’une politique fiscale présuppose de fixer les objectifs à atteindre. Je vais donc tenter de fixer ce que pourrait être une voiture idéale.

Evaluation des solutions actuelles

La voie des petits pas consiste à travailler sur une base existante et apporter des évolutions telles que l’arrêt du moteur aux feux (stop & start), de plus petits moteurs (downsizing) et la baisse du poids. C’est la principale option retenue par les constructeurs.
Cette politique minimise le risque industriel mais apporte un gain modeste.

La voie du tout électrique. Ce type d’autos est popularisé par la marque californienne Tesla Motor dont les voitures sont la coqueluche des nantis concernés par les enjeux d’écologie.Soyons réalistes, un vaisseau de plus de 2 tonnes, dont 500 kg de batteries ne va pas dans la bonne direction. S’il flatte son propriétaire, il ne fait que donner l’illusion de ne pas émettre de CO2 puisque l’énergie nécessaire à charger les batteries provient de centrales qui ont toutes les chances d’être à charbon ou nucléaires.
En revanche, je note qu’un moteur électrique bénéficie d’un excellent rendement, de l’ordre de 90%.
Un excellent point est à mettre au changement de perception du consommateur car un véhicule « écologique » devient attirant et désirable.

Enfin, la voie de l’hybridation consiste à joindre un moteur électrique à un moteur thermique. Le premier succès du genre a été la Toyota Prius.

Cette solution consiste à soulager le moteur thermique lors des relances.
Couplé à une boite automatique, il incite à une conduite apaisée qui participe à une économie de carburant.
A véhicule comparable, une hybride essence bénéficie d’une consommation mixte plus ou moins équivalente à celles d’un moteur diesel.

La voiture idéale

S’il n’y a pas de voiture idéale, on peut néanmoins tenter de fixer les caractéristiques souhaitées, un peu à l’image de ce que Pierre Boulanger avait fait pour la Citroën 2CV en établissant un cahier des charges qui, en substance, disait ceci: « faire une voiture pouvant transporter deux cultivateurs en sabots et 50 kg de pommes de terre, à la vitesse de 60 km/h, pour une consommation de 3 litres d’essence aux 100 km« .

Près de 80 ans après, cette définition reste d’une incroyable modernité. Se concentrer sur la fonction permettrait de redéfinir ce que devrait être une voiture.

Je retiens pour objectif « un véhicule embarquant 4 personnes et ne consommant pas plus de 3 litres aux cent effectifs et qui s’insère aisément dans la circulation actuelle« . Fort des règles de la physique, il faut produire une voiture légère et d’une puissance permettant d’atteindre la vitesse limite sur autoroute tout en minimisant au maximum les frottements.

L’objectif de poids consiste à atteindre la masse d’une familiale des années 60′ soit 750 kg à vide. Utilisée le plus souvent par une personne seule, je note que le transport de 75 kg de charge déplace 825 kg. Ainsi, le ratio charge utile / masse totale n’est que de 9% ce qui constitue déjà un énorme gaspillage.

L’aérodynamique doit bien entendu être soignée et surtout la surface frontale exposée au vent doit être limitée. Moins de surface portante dessine une auto plus petite, donc plus légère.

Quant au groupe propulseur, il sera hybride. Un tout petit moteur thermique de moins de 500 cm3 sera couplé à un moteur électrique dont l’objectif est d’accompagner les relances. Le tout doit suffire à mouvoir l’ensemble confortablement mais sans excès de puissance.
La boite à vitesse sera automatique afin d’exploiter le moteur dans ses plages de rendement optimums.

Et astuce, l’accélérateur asservi sera pourvu de dispositifs optimisés pour l’économie d’énergie. Notamment par un paramétrage qui permet d’accélérer dans la zone de rendement maximum du moteur et/ou en paramétrant des consommations maximums à ne pas dépasser.

Un challenge marketing

Peut-être que le challenge le plus complexe n’est pas d’ordre technique mais de la mercatique. En effet, en dépit des croyances, le marché automobile est très conservateur et supporte mal l’innovation.

Marqueur social par excellence l’automobile n’est pas rationnelle, les constructeurs font tout pour flatter l’égo de l’acheteur. Les tentatives de carrosseries « différentes » ont eu de la peine à s’imposer (p.ex. Renault Espace, Smart) ce qui rend les industriels particulièrement frileux.

Rendre désirable et valorisant un véhicule qui n’en n’impose à priori pas à son voisin va demander quelques trésors d’ingéniosité au département du marketing.

2ème partie : fiscalité

Trois types de prélèvement spécifiques sont appliqués sur les véhicules : les taxes à l’achat, l’impôt annuel et les taxes sur le carburant.

Les taxes actuelles

Aujourd’hui en suisse, il existe bien une taxe à l’achat sur le CO2 mais dont le règlement d’application alambiqué a plutôt pour but de freiner le marché des importations parallèles. Cette taxe n’a pas grand-chose d’incitatif puisqu’elle est pratiquement indolore lors qu’on acquiert un véhicule dans le réseau officiel.

Concernant les impôts, nous allons voir qu’il est relativement complexe d’établir un impôt juste et qui poursuit un but politique.

Par le passé à Genève, l’impôt sur les véhicules était fixé à la cylindrée. Le problème est qu’à cylindrée égale, des catégories de voiture très différentes se trouvaient taxées de façon équivalente.

L’exemple suivant illustre la perplexité devant laquelle le législateur était placé en 1980 :

L’une était une sage citadine, l’autre un dragster taillée pour le rallye !

Pour corriger cette aberration, le législateur a donc modifié l’impôt en tenant compte désormais de la puissance du moteur selon la norme DIN.
Aujourd’hui nous nous trouvons dans la situation suivante :

Voilà deux voitures de même puissance et qui seront donc imposées de la même manière alors que l’une est une micro-citadine et l’autre un SUV familial. Ces deux modèles n’appartiennent manifestement pas à la même catégorie.

Par ces exemples, on comprend la difficulté d’établir une fiscalité équitable et vertueuse.

Cheval fiscal

La notion de cheval fiscal ne correspond pas à la puissance d’une motorisation comme j’ai pu parfois le lire. Il s’agit d’un calcul qui prend en compte toutes sortes de paramètres dans le but d’établir un impôt qui est le reflet d’une volonté politique en matière fiscale.

En France, les formules ont évolué dans le temps avec les versions de 1956, 1978 et 1998.
La dernière mouture de la formule prend en compte la puissance maximum et la quantité de CO2 rejetée et prend la forme suivante :

Cette notion de puissance fiscale a le mérite d’offrir une flexibilité pour la mise en place d’une politique et je suis d’avis que le législateur aurait avantage à se pencher sur une telle formule.

Le futur, une tentative de proposition

Les deux types de taxes visent des objectifs différents :

  • La taxe unique à l’achat doit inciter le consommateur à privilégier une acquisition compatible avec les objectifs fixés par la collectivité,
  • L’impôt annuel vise plutôt à financer les conséquences engendrées par l’usage d’un véhicule.

Pour la taxe unique, je retiens les paramètres suivants :

  • CO2
  • Poids

L’idée est de pénaliser les voitures lourdes et voraces en énergie. Ainsi le consommateur est appelé à réfléchir sur la portée de son achat et sera amené à réévaluer ses prétentions.

Chaque composante de la taxe serait progressive, les deux composantes s’additionnent. Les taxes prennent la forme suivante :

A titre d’exemple, une proposition concrète de formule pour une taxe incitative à l’achat serait la suivante :Avec un coefficient à définir mais qui pourrait être fixé aux alentours de 80.

Quant à l’impôt, c’est une taxe annuelle assez peu incitative en matière de comportement car intégrée dans le budget du consommateur.

Je suis d’avis que le CO2 ne doit pas être compté dans l’impôt car il est strictement proportionnel à la consommation normalisée. La méthode de calcul de cette dernière est douteuse et ne tient absolument pas compte du comportement de l’automobiliste dont les consommations peuvent fortement varier.
Si on souhaite une forme d’incitation à une conduite économe, la taxe CO2 devrait être prélevée directement sur le carburant.

Il faut donc chercher un impôt qui reflète l’usage de la route et la nuisance potentielle qu’induit un véhicule particulier. C’est ainsi que je retiens les deux paramètres suivants :

  • La puissance
  • Le poids

La puissance est un paramètre historique compris de tous, quand bien même il est discutable.
Avec la généralisation du turbocompresseur, l’augmentation de puissance n’est qu’une question de paramétrage de l’électronique embarquée. Ainsi, on peut afficher des puissances relativement faibles et privilégier un couple important qui favorise les accélérations.
D’autre part, la tendance actuelle des constructeurs est de proposer des voitures toujours plus puissantes qui incitent à une conduite plus nerveuse donc moins économe. Je note l’hypocrisie qui consiste à afficher des puissances exploitables toujours plus élevées associé à des consommations flatteuses qu’on ne retrouve pas dans la réalité.

Quant au poids, je trouve que c’est une mesure intéressante. A priori une voiture lourde est plus grosse et occupe une surface au sol plus élevée. Plus lourde c’est aussi une plus grande usure de la chaussée, même si elle n’est que théorique. De sorte que le poids reflète une forme d’emprise plus grande sur l’espace commun.

Comme pour les taxes, l’impôt est progressif et pourrait prendre la forme suivante :

Avec un coefficient à définir mais qui pourrait être fixé aux alentours de 15.

Conclusions

Comme nous l’avons vu, la voiture doit être légère, aérodynamique et disposer d’un moteur d’une puissance suffisante mais pas excessive.

Forcer la fabrication de ce type de voiture passe par une fiscalité incitative. Personne ne sera empêché par plaisir ou par passion d’accéder à un fantasme automobile mais il aura son coût. Ce coût est le prix à payer pour éviter le glissement observé ces trente dernières années où les voitures sont toujours plus grosses, plus lourdes et plus puissantes. Le tout annoncé à des consommations mensongères.

La Suisse n’a pas d’industrie à protéger, elle peut montrer la voie comme elle l’avait fait avec l’introduction du catalyseur en 1987. Tout en gardant à l’esprit que pour un industriel généraliste, la fabrication destinée à la Suisse représente moins d’une semaine de production.

L’automobile n’est pas un objet rationnel et on ne peut espérer une autorégulation des acteurs. L’industrie est puissante et trouve toujours toutes les excuses pour retarder ce qui pourrait nuire à ses affaires.
Au demeurant, à défaut de mesures drastiques, les propositions en matière fiscales me semblent être une piste qui a le mérite de ne pas interdire et qui joue sur l’élasticité des prix.

© Pascal Rulfi, janvier 2015

Téléchargez l’article : Objectifs_et_fiscalité

Publié dans Généralités, Gouverance, Stratégie | Marqué avec , , , , , , , | Laisser un commentaire