Développer du logiciel, une douce folie

« L’informatique » est une activité encore jeune mais surtout méconnue. Tout s’appelle informatique et tous sont des ingénieurs sans que chacun sache exactement à quoi cela correspond.

Je m’intéresse ici plus particulièrement au développement de logiciel, à mon sens la partie la plus noble et la plus exigeante de l’informatique.

Développement de logiciel

En deux mots, développer du logiciel consiste à écrire un programme dans une langue compréhensible par l’homme et qui sera traduite dans une langue interprétée par la machine.

Des sciences de l’ingénieur, il est admis que l’écriture de code informatique est la plus complexe. Par exemple, dans les autres disciplines, la construction d’une machine ou d’un ouvrage d’art, la complexité est proportionnelle à la taille de l’ouvrage alors qu’en informatique elle est exponentielle.

Construire un programme demande une capacité d’abstraction exceptionnelle, maitriser des systèmes extrêmement complexes, appréhender des problèmes concrets et les traduire en solutions pertinentes.

La complexité même d’un programme est telle qu’il est impossible de rendre un produit parfait. Ceci explique que les « bugs » font partie intégrante d’un programme.

Enfin, il faut suivre des évolutions techniques et méthodologiques où les vérités d’hier ne sont plus celles d’aujourd’hui et certainement plus celles de demain. A ce propos on considère que chaque saut technologique laisse 30% d’informaticiens sur le bas-côté.

Méthodes

Un ensemble de méthodes accompagnent les concepteurs de programmes.
S’agissant des méthodes de conception, le nombre et la diversité des méthodes montrent à quel point l’approche n’est pas déterministe.
Au travers du temps, les assertions qui président aux méthodes ont évoluées.
Par exemple, j’ai appris au cours de mes études qu’il ne fallait en aucun cas coder un programme avant d’avoir spécifié l’entier des fonctionnalités souhaitées. Pourtant, en trente ans de carrière, je n’ai jamais vu un seul vrai cahier des charges !
Diverses raisons expliquent ce manquement à la règle, l’une est la simple incapacité à formaliser les processus.
C’est pourquoi des méthodes dites agiles permettent une plus grande souplesse dans la conception de programme, ce qui est plus en phase avec les réalités de terrain.

S’agissant des méthodes liées au développement pur, diverses technologies accompagnent les développeurs dans le but de rendre les programmes les plus fiables possibles.
Tests de non régression, réusinage de code (refactoring), gestion des versions du code et j’en passe sont autant de produits et de méthodes qui surchargent la simple écriture du programme.
Ce sont des compétences supplémentaires qui doivent être intégrées au processus d’écriture.

Ressources humaines

Chaque évolution représente une rupture qui, additionnées à un rythme implacable, sont autant de connaissances acquises qui deviennent obsolètes et qui déstabilisent leur détenteur.

L’ensemble des complexités énoncées doivent être réalisées par des professionnels aux compétences multidimensionnelles éprouvées. Autant dire que ces professionnels talentueux sont très rares.

Une formation de haut niveau et une longue expérience sont un gage de qualité. D’ailleurs, il ne viendrait à l’idée de personne de demander au terrassier de concevoir un gratte-ciel, quand bien même l’expérience du terrassier est à intégrer dans le processus de conception.
Pourtant, en informatique, le mélange des genres est permanent, avec des résultats en rapport avec le manque de structure observée.

Coder est un métier qui demande une grande intelligence, une passion dévorante, voire des dispositions mentales spécifiques particulières. Je suis d’autant plus à l’aise de l’affirmer car je considère ne pas avoir les qualités requises.

Stallman, initiateur logiciel libre – Jobs, fondateur d’Apple – Assange, cybermilitant, wikileaks.

A l’origine du succès et des innovations de rupture, nous trouvons souvent des personnalités excessives, parfois extravagantes, toujours supérieurement intelligentes et possiblement troublées. A propos de « hackeur » (pirate informatique) j’ai pu lire que leur personnalité se définissait entre ados surdoués et informaticiens autistes… que dire de plus.

En la matière, le talent se détecte selon des critères spécifiques à la branche.
Par exemple il est intéressant d’observer l’initiative de Xavier Niel (patron de Free) en matière de formation. Son « école 42 » est un établissement d’autoformation qui s’enorgueillit de former les meilleurs informaticiens de France, cela en dehors du cadre de l’éducation nationale. Pourtant, aucun diplôme préalable n’est requis pour y être reçu. Seules des dispositions mentales naturelles à appréhender l’informatique sont nécessaires. Ces bonnes dispositions sont testées lors d’un cursus de sélection en immersion appelée « la piscine ».

On l’aura compris, l’informatique réinterroge nos façons d’appréhender les savoirs.

La réalisation et la constitution d’équipe

Dans cet environnement mouvant et complexe, il s’agit de fédérer des forces capables de produire des logiciels fiables, pertinents, performants et évolutifs. Pas exactement une mince affaire.

La taille du défi explique en partie la piètre qualité des logiciels en circulation.
Manque de fiabilité, non déterminisme des résultats, bugs bloquants sont le lot des logiciels mal conçus.

Plus pervers sont ceux qui délivrent les fonctionnalités requises mais qui sont incapables de tenir une charge ou une utilisation fortement multi-utilisateurs sans parler de performances brutes misérables.
Les lacunes de conception ont toujours pour cause des manquements dans l’ingénierie logicielle.

Constituer une équipe productive est un art qui représente un équilibre fragile fait de divers arbitrages.

Il est difficile d’établir les règles du succès tant les paramètres sont nombreux et les environnements différents.
S’agissant de gérer une équipe de développeurs, voici quelques points d’attention issus de ma propre expérience :

1)    Privilégier la stabilité

La réussite des projets est un mix entre des compétences élevées en ingénierie logicielle et les connaissances métiers. Tout naturellement des équipes rodées, qui s’entendent bien et dont les personnalités sont connues représentent un réel bénéfice.

Combler des retards par l’engagement de ressources supplémentaire est une erreur fatale connue sous le nom de « loi de Brooks ». D’où l’importance de soumettre son projet aux bonnes pratiques car en la matière, la navigation à vue est létale.

2)    Éviter les mercenaires

Cette proposition est un corollaire de la précédente, aborder un projet avec des ressources venues de divers horizons et sans cohésion est peu rentable.
En d’autres termes, engager des ressources le temps du projet est un exercice qui demande une grande expérience, de solides compétences de gestion et surtout un budget important.

Les projets devant s’effectuer dans le cadre d’enveloppes budgétaires fixes dans des environnements peu expérimentés aux développements logiciels ont toutes les chances d’échouer.

3)    Privilégier les petites équipes

Les grandes équipes sur des projets ambitieux sont à l’origine d’échecs mémorables.
Les bonnes pratiques considèrent qu’une équipe efficace ne devrait pas dépasser sept personnes.

4)    Privilégier la qualité à la quantité

Cette proposition semble évidente, cependant elle prend une dimension particulière dans le développement logiciel où la quantité de ressources dévolue à un projet ne comblera jamais la qualité.
En effet l’augmentation de coordination et la baisse de qualité de la production péjorera le projet à une vitesse d’autant plus grande que les ressources augmentent.

5)    Maintenir le mouvement

Cette affirmation va à l’encontre de la stabilité puisqu’elle propose des changements réguliers dans l’équipe.
Une équipe figée aura tendance à se reposer sur ses acquis et construire des certitudes dangereuses dans un environnement aussi mobile que celui-ci.

Si des têtes nouvelles doivent régulièrement rafraichir l’équipe, le responsable veillera au quotidien à créer une tension afin d’éviter les trop grandes zones de confort.
Cette contrainte est particulièrement délicate à mettre en œuvre car devant l’évolution permanente et déstabilisante de l’environnement informatique, les réflexes d’autoprotection vont opérer pour se protéger des changements naturellement anxiogènes.

Le mix de ces conseils est très délicat à mettre en œuvre. Et lorsqu’on atteint l’objectif, le maintien de l’équilibre est un exercice particulièrement délicat.

Enfin, je ne peux que conseiller de capitaliser sur l’expérience acquise. Que les projets soient réussis ou en échec, un exercice d’introspection et d’analyse permettra de dégager les conditions du succès.
Les conclusions seront formalisées et partagées afin d’entrer dans un processus d’amélioration constante.

© Pascal Rulfi, juin 2017

Téléchargez l’article : Développer_du_logiciel

Publié dans Généralités, Gouverance, Informatique, Stratégie | Laisser un commentaire

Quelques considérations sur la Révolution 4.0

Après le Web 2.0, voilà l’Industrie 4.0 et sa généralisation, la Révolution 4.0, les nouveaux idiomes qui sont apparus dans le radar des tendances à s’approprier.

Est-ce une révolution de fond ? Et au-delà des concepts, comment aborder la Révolution 4.0 ?

De 1.0 à 4.01_locomotive

L’industrie 1.0 est née britannique, elle a pour origine la maitrise de la force mécanique par la machine à vapeur. La force mécanique initie la révolution industrielle du milieu du 19ème siècle et va bousculer le monde.
2_usine_chaine

L’industrie 2.0 est américaine, l’énergie électrique permet une plus grande flexibilité dans l’exploitation de la force et voit émerger la division du travail qui ouvre la voie à la production de masse. L’exemple même d’un bien produit en grande série est la Ford T née en 1908.
3_usine_robotisee

L’industrie 3.0 reste américaine, elle est caractérisée par l’introduction des robots de production, pilotés par des ordinateurs qui automatisent entièrement les lignes de production. La machine remplace les hommes dès les années 70.

L’industrie 4.0 est un projet provenant du gouvernement Allemand afin d’encourager la révolution numérique des industries. Ce concept a des contours plus flous. Il s’agit d’une intégration massive des technologies digitales dans les processus industriels. Le but est d’obtenir une plus grande adaptabilité dans la production et une allocation plus efficace des ressources.
C’est ainsi que l’internet des objets, l’interconnexion continue des outils, les capteurs, les objets intelligents, la réalité augmentée, l’impression 3D, les big data et bien d’autres innovations sont à intégrer dans les moyens de production.

Comme toute révolution en marche, il est difficile de définir précisément ce qui constitue ce qu’on appelle l’Industrie 4.0, ce d’autant plus que les facteurs clés ne sont pas seulement technologiques mais également culturels et humains.

De la complexité du 4.0

La précédente révolution identifiée fut celle des ordinateurs. Beaucoup d’entreprises s’en sont dotées sans toujours anticiper ce que devait apporter cet outil. Ces entreprises trouvaient auprès des prestataires informatiques les aiguillons de leur évolution lesquels proposaient des solutions toutes faites pour le traitement de diverses tâches dans l’entreprise.
Le changement a bien eu lieu, même si les sommes investies n’ont pas toujours produit le retour sur investissement espéré, souvent faute d’objectifs clairs.

Au contraire de la vue homogène définie par les marchands de solutions, je définirais les éléments de la révolution digitale comme une immense boite à outil dans laquelle on trouve toutes sortes d’objets, de produits, de méthodes qui permettent de construire des solutions uniques.

On peut se demander quelle est la nécessité d’élaborer des solutions uniques, nécessairement coûteuses. Je considère que 80% des fonctions d’une entreprises sont plus ou moins équivalentes et peuvent se satisfaire de solutions et de méthodes généralistes. Cependant les 20% restant représentent la vraie différenciation par rapport à la concurrence, ce 20% est au cœur de l’avantage compétitif qu’il faut au minimum préserver, voire enrichir.
Les solutions généralistes ont tendance à normaliser les réponses et à lisser le différenciateur, d’où la nécessité de trouver des solutions innovantes afin de maintenir son propre avantage sur le marché.

La boite à outil géante qui constitue la révolution 4.0 n’est malheureusement pas fédérée par un acteur unique. Élaborer des solutions qui apportent de la valeur nécessite une démarche interne, profonde et permanente de l’organisation.
La construction d’une solution passe par une intégration pertinente des éléments à disposition. Ce constat a plusieurs corollaires :

  • Il n’existe pas de solutions globales livrées clé en main ;
  • Ce qui fonctionne chez le voisin n’est pas nécessairement pertinent pour moi ;
  • L’intégration d’éléments hétérogènes est fortement complexe ;
  • L’évolution est endogène.

La recherche d’un avantage compétitif va nécessiter une adaptation des pratiques et des outils.
Imaginer un futur nécessite de la vision, des connaissances, une capacité d’adaptation permanente et fédérer des expériences afin de construire des solutions.

Nous pouvons rapidement percevoir qu’il ne s’agit pas d’un projet technologique mais d’une approche globale qui va impliquer des hommes et des organisations.
La révolution 4.0 nécessite des hommes 4.0 dont les qualités seront agilité et compétences. Notons que ce sont des qualités que l’on attribue facilement à la génération des « digital natives ».
Fédérer les hommes 4.0 représentera le défi d’une organisation 4.0.

Les enjeux qui permettent d’aborder la révolution 4.0 sont multidimensionnels :

  • Disposer de compétences techniques et métiers
  • Réinterroger des processus et des pratiques intra, inter et extra entreprise
  • Avoir une curiosité et une réelle ouverture à ce qui est nouveau (dépasser les barrières des réticences) tout en restant pragmatique
  • Partager des expériences de façon démocratique et égalitaire
  • Avoir une réelle volonté d’amélioration continue (le kaizen japonais)

Le défi est de taille car il doit lutter contre tous les conservatismes et les résistances aux changements. De plus par son caractère multidimensionnel, je doute que les démarches top down puissent produire des résultats satisfaisants.

Si les organisations cloisonnées et figées ont peu de chance de créer leur révolutions 4.0, il faut néanmoins veiller à ne pas dériver dans des forums permanents, stériles et coûteux.

Quelques pistes pratiques

Comme relevé, la démarche « 4.0 » ne consiste pas à appliquer simplement de la technologie prête à l’emploi mais à élaborer des solutions en fonction de l’environnement dans lequel évolue l’organisation.

La révolution 4.0 nécessite de l’intelligence collective, ce qui me semble être une nouvelle plutôt enthousiasmante. La difficulté consiste à canaliser l’intelligence vers une « optimisation choisie ».

Première piste.
Notre société produit nombre de personnes toujours mieux formées et en quantité toujours plus grande. Je suis convaincu que nombre d’organisations traditionnelles gaspillent leurs ressources et n’encouragent pas l’épanouissement des talents.
Le marché dispose de quantité de personnes à la tête bien faite et qui ont monté une capacité certaine à maitriser de la complexité et atteindre des objectifs.
Il s’agit d’encourager l’initiative et d’éviter d’étouffer toute intelligence dans des tâches répétitives et inintéressantes.

Seconde piste.
La révolution 4.0 doit être comprise et assimilée par ceux qui dirigent l’organisation. Administrateurs et directeurs ont le devoir de donner l’impulsion, le support, l’orientation et surtout les objectifs attendus.
Une compréhension des nouveaux enjeux au plus haut niveau est indispensable. Des « stratèges technologiques » doivent accompagner les décisions stratégiques de l’organisation, non pas pour apporter des solutions toutes faites mais pour rendre attentif au champ des possibles.

Troisième piste.
Un modèle manichéen constitué d’un côté de dirigeant et de l’autre d’exécutants a vécu (l’image est certes caricaturale). L’innovation n’est ni déterministe, ni hiérarchique.
En d’autres termes, un département recherche et développement qui recherche dans son coin a peu de chance d’apporter des (r)évolutions positives. De même qu’un système imaginé dans les hautes strates a peu de chance d’apporter une plus-value.
L’organisation 4.0 demande une gestion des RH innovatrice capable de mixer les personnes de divers horizons, favoriser l’intelligence collective, interroger les pratiques, combattre les craintes, écarter les toxicités, créer du bonheur (si si), encourager et valoriser les idées tout en évitant les sources de déperditions (séances stériles, enfermement dans des voies sans issues, projets fleuves et j’en passe).

Ces trois pistes semblent relever du bon sens, cependant, la mise en œuvre est un authentique défi car complexe et sans méthode infaillible. Au demeurant l’organisation doit devenir intelligente et agile afin d’évoluer de façon fluide dans un environnement changeant.

De l’Industrie 4.0 à la Révolution 4.0

Le 4.0 est une impulsion qui vient du secteur industriel. Cependant il faut être conscient que tous les secteurs sont éligibles à la démarche 4.0, c’est ainsi que nous pouvons généraliser le concept d’industrie 4.0 vers la Révolution 4.0.

Voici deux exemples qui illustrent le phénomène :

La transformation des services de taxis par le système Uber. Cette révolution a été rendue possible par l’association de plusieurs éléments tels :
– la cartographie et les GPS qui permet de localiser et calculer des trajets;
– le big data par la capacité d’anticiper le trafic;
– une connexion permanente et mobile;
– une généralisation des terminaux intelligents.

Les initiatives smart city, notamment en matière de gestion du trafic. Un système tel que google trafic permet de connaitre en temps réel l’engorgement des routes sans passer par les systèmes de comptages. Un couplage en temps réel de la signalisation routière et des informations de trafic permettent d’ajuster automatiquement le flux de trafic. Pour se faire, nous retrouvons l’association du big data, des GPS embarqués, des connexions permanentes et d’une interconnexion avec l’ensemble de la signalisation routière.

Les exemples sont nombreux et ils sont déclinables dans tous les secteurs de l’économie et de la société civile.
S’agissant des collectivités publiques, nous devrions veiller à la réelle sensibilité de nos élus face aux mutations technologiques. C’est à eux qu’il appartient de donner les impulsions qui projetteront notre société dans une nouvelle ère et de coller au peloton de tête.

Le domaine du possible n’a que notre imagination pour limite. Ne rien entreprendre serait une faute.

© Pascal Rulfi, décembre 2016

Téléchargez l’article : Révolution 4.0

Publié dans Généralités, Gouverance, Informatique, Stratégie | Marqué avec , , , | Laisser un commentaire

Le numérique est-il porteur de révolutions ?

logo-pdf_sA l’heure du web 2.0 et des polémiques sur les services Uber, je suis souvent interpellé par la passivité, voire la méconnaissance des décideurs face à l’évolution numérique.

Pour certains, le plus gros fait d’arme numérique consiste à remplacer leur parc de PC tous les 3 ans engouffrant ainsi des sommes importantes sans apporter aucune valeur ajoutée à leur activité.

Je vais tenter de formuler les grandes étapes qui ont fait la brève histoire de l’évolution digitale sans entrer dans les détails techniques. Seuls les changements qui impactent nos usages sont abordés.

Cet article met en perspective une évolution rapide et continue de cet environnement qui, quoiqu’en pensent certains, a profondément modifié nos usages.

L’âge des ordinateurs

L’ordinateur est utilisé pour effectuer des calculs et des opérations répétitives. Seules quelques organisations s’offrent des machines coûteuses qui sont opérées par de rares spécialistes.

Dédié à des tâches très spécialisées et répétitives, l’ordinateur entre dans le quotidien des entreprises pour le traitement des paies, de données administratives ou de comptes en banque.

Informatique dynamique #1L’âge de l’informatique

Dans l’environnement professionnel, l’informatique est couramment utilisée pour stocker et exploiter de l’information et dont la base de données en est la cheville ouvrière.
Le croisement d’informations stockées localement et d’une importante capacité de calcul permet la réalisation d’applications qui forment une aide opérationnelle et automatise certaines tâches.

L’environnement dans lequel évolue ce type de système est une organisation où toute l’activité est concentrée et qui a peu d’interaction avec le monde extérieur.

L’informatique prospère au sein des organisations et concerne de plus en plus de collaborateurs qui interagissent avec le système d’information au travers d’un réseau local d’entreprise.
Toutes sortes de systèmes de gestion adaptés à tous les secteurs économiques se mettent en place dans les organisations afin d’automatiser de plus en plus de tâches dans l’entreprise.

Je qualifie volontiers cette informatique de statique, elle répète des séquences qui sont une évolution sophistiquée des automates programmables.

Informatique dynamique #2L’âge du réseau

La capacité de communiquer en réseau voit l’émergence d’outils collaboratifs dont la messagerie est l’émanation la plus emblématique.

La messagerie a ceci de particulier qu’elle est un système qui sort des murs de l’entreprise. Ainsi l’entité organisationnelle n’est plus un lieu clos car l’information circule entre les personnes et entre les organisations. Cela pose par ailleurs quelques problèmes de gestion de la confidentialité.

Le partage des informations s’accentue au travers d’un réseau local mais également plus largement entre d’autres entités et d’autres organisations.

Les échanges d’informations permettent l’essor de systèmes destinés à tout ce qui touche aux flux et à la logistique. Que ce soit pour les flux financiers ou les productions industrielles, cette informatique commence à prendre le pas sur l’humain lors de traitement complexes et modifie profondément l’organisation des entreprises.

Informatique dynamique #3Cette capacité de communiquer au-delà des frontières et sans limite de distance accélère la mondialisation.

L’âge du web

Il s’agit de l’émergence d’un réseau global avec des capacités colossales, tant en facilité d’échange que de puissance de calcul. Ce réseau multiplie les possibilités d’interaction avec pour conséquence une perte de contrôle des entités traditionnelles qui se voient débordées de toute part.

Des systèmes personnels interconnectés permettent à chacun d’interagir sans aucune limite. Les systèmes d’information ne sont plus fédérés et contrôlés par des entités centrales mais fonctionnent comme autant de nœuds indépendants et autonomes.

Du point de vue de l’entreprise, c’est l’émergence de la délégation de tâches. Ainsi, le guichet bancaire se transforme en banque électronique où le client effectue toutes ses opérations courantes; c’est le voyageur qui réserve hôtels et déplacements de façon virtuelle en se substituant à l’agence de voyage.

Un aspect remarquable de cette révolution est le partage et la diffusion de la connaissance dans une perspective participative où chacun devient un acteur actif.
Ainsi, les blogs permettent à chacun de partager un avis ou une information de manière globale en s’affranchissant des médias traditionnels et d’une éventuelle censure.
De même, l’intelligence collective a permis la constitution d’une encyclopédie dont les contributions sont une œuvre collective et d’un contenu d’une étonnante fiabilité.

C’est également les réseaux sociaux et autres agrégateurs d’informations qui multiplient les interactions entre les personnes et exposent la vie de chacun. Je ne peux pas passer sous silence que cette formidable quantité de données personnelles appartient à des entités privées et dont le modèle, le fonctionnement et les implications sont inconnus du plus grand nombre.

Informatique dynamique #4Notons sur le schéma que l’entreprise n’encadre plus l’activité numérique. Les individus agissent hors de toute organisation traditionnelle, qu’elle soit d’entreprise ou gouvernementale.

Chacun aura constaté au quotidien une séparation de moins en moins marquée entre l’activité professionnelle et la vie privée, ces deux mondes se mélangeant allégrement dans le temps et dans l’espace ce qui rend difficile la comptabilisation du travail.

Le corolaire est une interrogation du rôle de l’entreprise dans une organisation qui tend vers la collaboration avec personnes fortement indépendantes issues de la « génération Y ».
Des nouveaux usages de travail se mettent en place. Il suffit pour s’en convaincre de fréquenter les cafés qui proposent un réseau de bonne qualité pour constater que certains clients y travaillent.

L’organisation d’entreprise a pour but de rassembler et fédérer des ressources pour produire un bien ou un service. Cependant les organisations monolithiques ne répondent plus aux nécessités du temps. Cette affirmation est une invitation à réfléchir sur l’agilité des organisations dans lesquels nous vivons.

L’âge virtuel

Nous sommes devenus des individus nomades et connectés en permanence, donc affranchis des contraintes de lieu et de temps mais toujours connectés au monde environnant.

Ces nouvelles capacités donnent la possibilité de monter de nouveaux services tels que les taxis Uber, qui font actuellement couler beaucoup d’encre et placent le législateur dans une position inconfortable.
Nous pouvons dire qu’Uber est aux services ce que eBay est aux marchandises : un système qui met en relation des consommateurs et des fournisseurs.
Pour eBay l’objet de la transaction est de la marchandise, alors qu’Uber traite de services qui, de plus, sont mobiles.

De même, les connexions massives point à point permettent aux communautés d’intérêt d’émerger. Anonymous est un exemple d’organisation numérique qui a déborde l’ordre traditionnel. En effet, Anonymous n’a pas d’existence formelle, n’a pas de frontière, n’a pas de membres fixes.

Informatique dynamique #5Le schéma montre une complète disparition du cadre d’une organisation formelle.

Les nouvelles organisations implémentent une organisation du travail automatisée par un système autonome qui s’affranchit des structures traditionnelles.
Leurs services sont plus performants que n’importe quel système antérieur.
Ce changement est suffisamment remarquable pour que l’on parle d’Uberisation de la société.

Les entreprises organisées de façon traditionnelles se trouvent ainsi concurrencées par les entités virtuelles qui s’affranchissent des lourdeurs des chaines de commandement et des dérives bureaucratiques.
Ces petits vices ne portent pas à conséquence lorsque l’environnement est plus ou moins identique pour tous. Il peut s’avérer létal quand de nouveaux acteurs ayant parfaitement intégré la révolution numérique arrivent sur le marché.

S’agissant des communautés d’intérêt, elles sont fédérées au-delà des frontières traditionnelles. Animées par une génération cultivée et polyglotte, ces communautés n’ont pas de hiérarchies, pas de responsable. C’est un processus sans leader qui se forme et se dissout au gré des causes.
Si une cause trouve une résonnance sur le réseau, elle va être capable de mobiliser rapidement des ressources. Rapidité et agilité caractérisent une nouvelle forme de démocratie qui déborde les organisations traditionnelles.

La prééminence des communautés géographiques matérialisées par le pays comme fédérateur d’une population perd de sa pertinence au profit de communautés centrées sur des intérêts de différentes natures dont les liens sont virtuels.
De la mise en cause des frontières découle celle des Etats, des pouvoirs et de leurs moyens de police. Les printemps arabes ont donné un aperçu de ces mouvements en ébranlant les pouvoirs en place.

De manière plus effrayante, on reconnait le fonctionnement de groupes tels que l’EI. Leur fonctionnement semble déborder les forces de polices, les services de renseignements et les gouvernements, lesquels semblent en peine d’opposer une riposte pertinente.

Conclusions

Partir de l’informatique pour conclure à une possible révolution peut sembler un propos excessif et la démonstration parait hasardeuse.
Cependant, on parle bien de révolution numérique. Elle ne se limite pas seulement à des moyens techniques comme beaucoup semblent le croire, car elle modifie profondément nos usages.

Il y a quelques années j’étais effaré de constater que les forces de sécurité gouvernementale n’avaient pas intégré l’électronique dans les risques systémiques.
De même, aujourd’hui les structures traditionnelles semblent avoir beaucoup de peine à évoluer. Du moins évoluent beaucoup moins vite que leur environnement.
Cela crée de nouvelles opportunités pour des acteurs agiles, toutefois, il faudrait veiller à ce que la création de valeur se réalise sous nos latitudes.

Ce constat doit nous inciter à considérer les risques des changements. De nouvelles sociétés apparaissent, elles sont plurielles, transfrontalières, mobiles et indomptables. Elles ont aussi la capacité d’ébranler fortement les organisations sociales telles que nous les connaissons.

L’actuelle défiance envers le projet européen, ainsi que les montées des extrêmes concrétisent une forme de divorce entre la population et le projet social. Les alternatives émergeantes ne seront pas nécessairement bienveillantes et représentent un risque de dérapage dont nous ne percevons pas encore la portée.

Il est urgent de mettre du sens dans le vivre ensemble.
Il est également urgent de mettre du sens aux activités, surtout lorsqu’elles concernent le bien commun.
Sans quoi nous pourrions avoir un réveil douloureux. D’autant plus douloureux que nous aurons repoussé ce travail d’introspection.

© Pascal Rulfi, avril 2016

Téléchargez l’article : Révolution numérique

Publié dans Généralités, Informatique, Stratégie | Laisser un commentaire

De Aardappeleters où l’importance des spécifications d’un projet

logo-pdf_sLes patates sont pour moi les schémas sommaires que dessinent tous les consultants lorsqu’ils illustrent les flux dans une entreprise.
Ces dessins ont pour but de décrire les processus qui serviront de modèle à la mise en place d’un logiciel « intégré ». Cet article est une réflexion sur le risque que présente ce type de démarche.

Ainsi le consultant est le roi des patates dont il abreuve ses clients. Mon estimé collègue hollandais lie malicieusement ces démarches à un tableau de Van Gogh peint en 1885, « De Aardappeleters » en français, « les mangeurs de pommes de terre ».

De Aardappeleters1La question de la description fonctionnelle d’une organisation est complexe et nécessite un langage commun afin que le fournisseur et le client comprennent la même chose.

Chacun a appris qu’un projet informatique ne devait démarrer que sur la base d’un cahier des charges.
Pour les logiciels développés « sur mesure », les spécifications écrites sont indispensables afin de limiter les risques de dérives fonctionnelles.
Un progiciel est, à priori, moins sujet à ces risques dérives car c’est l’équivalent de la « confection » pour laquelle seules quelques retouches seront possibles.

Dans la réalité, il est rare de tomber sur un tel document. Tout le paradoxe est là, si personne ne songerait à construire une maison sans un plan et sans un descriptif de construction, la pratique est courante dans les projets informatiques.

Cependant il faut admettre que la spécification d’un logiciel est beaucoup plus complexe que le plan d’une maison. En effet, un bâtiment est un élément statique et tangible alors que le logiciel s’inscrit dans une logique de flux dynamiques et d’événements asynchrones, le tout évoluant dans une grande abstraction. Par conséquent, le cahier des charges classique est un outil peu adapté qui peine à décrire cette complexité; de plus, le client a rarement une idée précise sur ce qu’il souhaite.

La question de la méthode a été abordée dans un précédent article et j’invite ceux qui s’y intéressent à lire la note intitulée « maquette et optimisme, un risque important ».

De spécification complète et figée, nous sommes arrivés à une époque où on ne spécifie plus du tout. La règle semble être de faire quelques schémas de principe sur un tableau blanc. Cela se résume à dessiner quelques blocs (mes fameuses patates) agrémentés de flèches qui les relient. La promesse et l’espérance est que la mise en œuvre de ces quelques concepts simples se fera par paramétrage sur le progiciel « de confection ».

Le schéma fictif suivant n’est probablement pas inconnu de tous ceux qui ont à formaliser la définition de flux fonctionnels :

Patate_1

Ainsi lors de telles séances « patates » tous les participants trouveront un accord de principe sur des articulations qui semblent « logiques ».

Si cette représentation a le mérite de rendre tangible quelques grands concepts, elle ne dit rien des séquences et autres traitements des flux.

Souvenez-vous qu’il n’y a pas de solutions miraculeuses en informatique. Par exemple, si un progiciel est un raccourci dans la réalisation il ne permet en aucun cas de s’affranchir d’une spécification.
« Ce qui se conçoit bien s’énonce clairement », par conséquent, ne vous contentez pas d’un vague schéma et ayez une idée précise de ce qui est attendu et comment cela doit fonctionner.
Attendre d’un progiciel qu’il structure une activité est un oreiller de paresse qui peut s’avérer dévastateur pour l’organisation.

De plus, toute solution va nécessiter des décisions dans la façon de procéder. Ces décisions seront prises sur des arbitrages et des pesées d’intérêt.
Conservez précieusement une trace écrite de vos arbitrages. Au mieux les traces permettent de se souvenir le pourquoi du comment lorsque de nouvelles options s’appuient sur vos décisions antérieures. Au pire si le projet entre dans une phase de difficulté, vous pouvez espérer capitaliser sur l’expérience. Enfin, en cas de litige, vous vous disposerez de sources fiables.

L’informatique est la branche la plus complexe des sciences de l’ingénieur. Malheureusement c’est celle pour laquelle on attaque des réalisations avec le plus de désinvolture.
J’ai eu l’occasion d’arbitrer plusieurs projets informatiques dans l’impasse, les causes ont peu ou prou été les mêmes. Je retiens les causes suivantes :

  • Objectifs peu clairs et non partagés
  • Lacunes de spécifications
  • Optimisme
  • Laxisme dans le suivi et la coordination
  • Non implication de la direction

Tous les projets abordés de cette manière ne sont pas des échecs. En revanche j’observe que tous les projets en échecs ont été abordés ainsi. La prise de risque est donc conséquente.

En tout état de cause, doutez et chalengez les vendeurs et les consultants qui promettent la lune sur la base de quelques schémas car le procédé frise le charlatanisme.

Fort de ces constats de bon sens, il serait dommage d’échouer et que l’issue votre projet devienne aussi sombre que le tableau de Van Gogh « De Aardappeleters ».

© Pascal Rulfi, mars 2016

Téléchargez l’article : De Aardappeleters

Publié dans Généralités, Gouverance, Informatique | Laisser un commentaire

Le travail, plaisir ou malédiction ?

logo-pdf_sUne étude de Gallup affirme qu’en France et en Allemagne, seule une dizaine de pourcent des salariés sont engagés dans leur entreprise, tous les autres subissent leur sort avec un degré de désintérêt plus ou moins marqué.

Nous ne pouvons qu’être interpellés par les conclusions : 10% de l’effectif s’engage pour faire avancer l’entreprise alors que 90% des personnes restantes sont désengagées au travail.
De ces personnes désengagées, 60% ne sont présents que pour des raisons alimentaires et 30% ont un mal-être si profond qu’ils en deviennent nuisibles pour leur environnement.

Si ces chiffres sont exacts, cela signifierait que les entreprises sont des usines à créer de la frustration. Voilà un paradoxe alors que toutes prétendent rechercher des collaborateurs créatifs et talentueux.

Structures pyramidales

Les structures organisationnelles sont abondamment étudiées dans la littérature spécialisée et offrent divers modèles, cependant, il semble que les structures hiérarchiques figées soient encore dominantes. Ces organisations sont caractérisées par des chaines de commandement à étages multiples et une grande centralisation du pouvoir.

Les structures hiérarchiques vont de pair avec la taylorisation du début du XXème siècle. L’organisation scientifique du travail préconise de diviser le travail en de multiples tâches répétitives, cadencées par une chaine de production dont Charlie Chaplin a si bien caricaturé les excès.

temps_modernes

Cette organisation du travail a l’avantage de canaliser les ressources brutes. Elle est adaptée aux industries de production de masse comme aux structures militaires traditionnelles.
Souvent qualifiée d’inhumaine, la taylorisation exige des ouvriers dociles et corvéables pour des tâches inintéressantes et abrutissantes organisées par une structure supérieure. On parle d’aliénation du travail.

Ces structures perdurent aujourd’hui sous des formes un peu plus évoluées. Des décisions et missions sont prises en haut lieu, la transmission percole dans les strates hiérarchiques avec une perte de sens au fil de la diffusion.
In fine, les collaborateurs effectuent le travail dont ils ont reçu l’ordre sans franchement en connaitre le sens ou la finalité et probablement avec la conviction que certaines tâches ne font aucun sens.
La déresponsabilisation qui en découle génère des frustrations qui au mieux débouchent sur un désengagement et au pire sur de la résistance.
Voilà ce qui pourrait en partie expliquer le faible niveau d’engagement constaté par l’étude précédemment mentionnée.

Le dysfonctionnement

La conséquence de ce type d’organisation est un rendement net très faible. D’importantes ressources sont employées pour une production peu satisfaisante. On pourrait croire que le faible rendement et un environnement peu exigeant auraient le mérite de préserver les collaborateurs mais ce n’est manifestement pas le cas !

Lorsque les moyens sont abondants, les éventuelles carences de productivité peuvent être comblées par l’ajout de ressources. Ces nombreuses ressources devant bien entendues être gérées par une cohorte de chefs à tous les niveaux.

Tout se gâte quand les moyens financiers ne suffisent plus à nourrir la machine et que le mot efficience devient une exigence.
Le propriétaire fait le constat d’inefficience et exige un meilleur rendement. Le premier réflexe est bien entendu un renforcement du contrôle pour vérifier que tout le monde travaille dur.

Et c’est ainsi que les contrôleurs de tous bords interviennent avec des missions parfois floues mais qui exigent leurs lots de changements pour justifier leur action.
Rapports, reporting, audits et séances, occupent tout ce petit monde au nom de la quête d’efficience. Ainsi tous auront des journées bien remplies pour effectuer des tâches improductives.

Cependant, la productivité globale aura toutes des chances de baisser ce qui exaspérera le propriétaire qui commandera de nouveaux contrôles et de nouvelles mesures qui ne manqueront pas d’augmenter le rapport de défiance.

Pour leur part, les collaborateurs de terrain vont subir des réformes imposées par la hiérarchie, alors que leur finalité sera floue. Il se verront ajouter dans leurs pratiques bon nombre d’opérations liées aux contrôles et aux statistiques dont ils savent pertinemment qu’elles ne seront pas exploitées.

En définitive, c’est par la contrainte que la hiérarchie espère imposer une augmentation de la productivité. Tenter d’imposer de nouveaux objectifs de performance à des employés dont l’écrasante majorité est désengagée a peu de chance de faire des étincelles.

La spirale infernale est bien engagée. La société du contrôle ne fonctionne pas et pourtant, nous répétons les mêmes comportements. Souvenons-nous de l’affirmation d’Albert Einstein « la folie, c’est de faire toujours la même chose et de s’attendre à un résultat différent ».
Alors que faire ?

Changer ?

Plusieurs raisons m’incitent à questionner nos organisations et trouver de nouvelles voies.

La première est simplement le constat d’échec du modèle actuel qui montre ses limites avec une incapacité à évoluer pour répondre aux nouveaux besoins.

La seconde raison concerne notre environnement qui se complexifie et demande de l’agilité, de l’initiative et de l’intelligence.
Or, nous savons que les organisations fortement centralisées et segmentées par fonction correspondent à des environnements stables et homogènes ce qui caractérise de moins en moins nos environnements actuels.
Par exemple, une armée traditionnelle est structurée pour livrer un combat sur un front qui oppose des forces humaines et matérielles. En revanche, elle ne peut rien contre la guérilla qui est mobile, imprévisible et agile. Ses chaines de commandement et ses forces sont impuissantes face à ce type d’attaque.

La troisième raison concerne les moyens financiers. Dans un monde globalisé où règne une forte compétition, il est demandé à tous de produire des biens et des services de qualité aux coûts les plus justes. Les rentes de situation sont de plus en plus rares et seront de moins en moins durables, quels que soient les acteurs et les secteurs.

La quatrième raison est humaine. Créer des générations de collaborateurs désengagés n’a pas de sens d’autant que ce mode de fonctionnement crée de la frustration voire de la misère.
Alors qu’il est impératif de créer de la valeur, il est irresponsable de gaspiller les ressources à disposition.

La cinquième raison est générationnelle, il sera vraisemblablement compliqué d’attirer des collaborateurs issus de la « génération Y » qui ne montreront aucune loyauté à des organisations peu motivantes.

Objectifs vs contrôles

La culture du contrôle, dans une hiérarchie figée n’a aucune chance de produire un résultat probant. Par conséquent il est intéressant d’imaginer d’autres modèles.

Une des pistes pour augmenter l’efficience du système est de diminuer la proportion de collaborateurs désengagés. Cet axe semble même prioritaire tant il est une source d’améliorations.

Pour défendre la piste des collaborateurs, retenons trois critères de la pyramide des besoins établie par Maslow :

  • Le besoin d’accomplissement de soi
  • Le besoin d’estime
  • Le besoin d’appartenance

Le besoin d’accomplissement est un moteur qui permet à chacun de réaliser et se réaliser dans une activité.

Le besoin d’estime concerne notamment le respect de soi, la reconnaissance et l’appréciation des autres. Or ces aspects ne sont pas valorisés lorsque les collaborateurs sont de simples exécutants à qui on impose des pratiques pour effectuer des tâches auxquelles ils ne trouvent pas de sens.

Enfin le besoin d’appartenance consiste à se sentir bien avec les autres dans son environnement de travail. Construire ensemble est un moteur certainement plus productif que subir individuellement.

Dès lors, l’objectif est de mettre les gens en mouvement et tendre vers le plaisir et la satisfaction dans l’accomplissement de son travail.

Pour cela nous allons faire les hypothèses suivantes :

  • Les collaborateurs connaissent leur métier,
  • Les collaborateurs sont intelligents,
  • Les collaborateurs heureux sont motivés.

Mais pour quoi faire ?
Cette question est centrale et beaucoup moins anodine qu’elle ne parait.

Demander aux collaborateurs d’organiser librement leur travail (soyez des entrepreneurs) est une fausse bonne idée car il y a toutes les chances pour qu’ils privilégient leur propre confort au détriment de la satisfaction du client.

Afin d’éviter ce travers, il s’agit de fixer des objectifs. Cette évidence n’en est pas une quand on se souvient des déclarations de Peter Drucker, le pape du management : « l’administration par objectif est efficace si vous connaissez les objectifs. Mais 90% du temps vous ne les connaissez pas. »

Voilà le véritable enjeu de l’organisation : fixer des objectifs clairs, mesurables, réalistes et qui font du sens. La définition des objectifs devrait être la seule préoccupation du management.
Charge ensuite aux collaborateurs d’organiser le travail en fonction des objectifs fixés et mesurés.

Avec des objectifs clairs, les collaborateurs devront s’engager et retrouveront une motivation dans leur travail. Ils choisiront des solutions pertinentes en fonction de leurs connaissances du métier.
A ce titre, la satisfaction des collaborateurs doit être un objectif à part entière, également mesuré.

Parmi les objectifs fixés, il en est un qui devra être priorisé par le management : la satisfaction client.
Une véritable culture de la satisfaction doit être entreprise, notamment en identifiant ce qui constitue des motifs de satisfaction.

Un objectif n’est pas une cadence (p.ex traiter 100 clients à l’heure au guichet), mais plutôt un critère lié à la satisfaction (p.ex. délai d’attente au guichet de moins de 10 minutes et expérientiel agréable). En effet, la première proposition n’interroge pas le processus, elle ne fait que pressuriser sans mettre de sens. La seconde proposition est un objectif qui ouvre la possibilité aux collaborateurs d’organiser la façon dont le service est délivré, par exemple en simplifiant des processus qui ne font pas de sens ou en automatisant certaines tâches.

Un accompagnement pour atteindre les objectifs doit rester possible. Ce sont les collaborateurs qui demandent cas échéant le support organisationnel dont ils ont besoin. Il s’agit là d’une mise en œuvre concrète du « management participatif ».

Une autorité de surveillance telle qu’une « cour des comptes » pourrait mettre ses compétences au service d’un accompagnement dans la mise en œuvre de processus. De surveillance on passe à accompagnement délibéré ce qui change notablement la perception.

Si nouveau que cela ?

Les pratiques évoluent et l’organisation mécaniste dans une structure fortement hiérarchisée a vécu.

Certaines entreprises dans les technologies de l’information ont institué des espaces de liberté qui permettent à chacun de développer des projets personnels dans l’entreprise. Non seulement ils disposent de temps mais ils peuvent également mobiliser des ressources internes d’accord de participer à un projet motivant sur leur temps officiellement libéré.
Les résultats en termes de créativité et de produit sont un des moteurs de l’innovation de sociétés telles que Google.

Des nouvelles pratiques intéressantes apparaissent et, sous la bannière du « bonheur au travail », un certain nombre d’exemple montrent des pistes intéressantes et probantes.
Ce sont celles qui ont permis à des entreprises telles que Harley-Davidson de connaitre le succès après des années de déclin. Ces démarches sont également expérimentées avec succès dans les administrations publiques, notamment en Belgique par la sécurité sociale et le ministère des transports.

Il semble que le temps est venu d’éradiquer les logiques de défiance et de lutter contre le mal-être au travail qui ne profite à personne.
Créer du plaisir et du sens dans les activités professionnelles sont des pistes qui méritent d’être sérieusement évaluées pour remettre une organisation en mouvement et au service de tous ceux qui gravitent autour.

 

© Pascal Rulfi, janvier 2016

Téléchargez l’article : Organisation et travail

Publié dans Généralités, Gouverance, Stratégie | Laisser un commentaire

Centralité, facteur de puissance

Cet été, j’ai organisé mes vacances à la dernière minute sans unlogo-pdf_se idée bien précise de destination et c’est le plus grand des hasards qui m’a amené en Sicile.
Comme je suis incapable de rester sur une plage plus d’une heure, j’ai arpenté l’ile du nord au sud et d’est en ouest au pas de charge.

J’avais de la Sicile l’image qu’en ont les Italiens du nord, une somme de lieux communs souvent condescendants. Dans ma grande ignorance, j’ai découvert une richesse que je ne soupçonnais pas outre mesure. Des temples grecs jusqu’aux palazzi baroques, le patrimoine témoigne d’un passé d’une richesse, tant financière qu’historique faramineuse.

Phéniciens, Grecs, Carthaginois et Romains ont occupé la Sicile dans l’antiquité, alors que les Ostrogoths, les Byzantins, les Arabes et les Normands ont occupé l’île au moyen-âge. Du XVème au XVIIIème la Sicile est rattachée à la couronne espagnole pour définitivement faire partie de l’Italie en 1861. Chacun ayant eu la volonté de laisser sa trace.

Centralité

Interpellé par tout ce que j’ai vu et profitant des périodes de sieste, je me suis mis en quête des facteurs clé qui ont fait l’intérêt sinon le succès de la Sicile. L’évidence de la conclusion fera sourire tous les géographes : outre une terre fertile, la Sicile est au centre de la Méditerranée. Méditerranée centre du monde où se sont concentrées toutes les richesses et tous les pouvoirs comme en témoignent des villes telles que Rome et Venise.
De par sa centralité, la Sicile est en bonne place dans les échanges autour de la méditerranée ce qui en a garanti une exceptionnelle prospérité pendant plus de 20 siècles.

Mediterranee_3_text

En extrapolant la notion de centralité à notre monde contemporain, j’identifie deux types de centralité : la première est géographique et la seconde est la force.

La centralité issue de la force concerne les organisations capables de maitriser une puissance nouvelle. Cette force donne l’avantage qui permet de s’approprier des richesses, historiquement sous forme de territoires. Rome dans l’antiquité et plus proche de nous, les campagnes coloniales qui auront notamment permis aux français et surtout aux britanniques de se constituer des empires grâce à la maitrise de la puissance mécanique en sont des exemples.
A ces puissances coloniales, Paris et Londres ont été des villes dominantes de leur époque.
Après la seconde guerre mondiale, le leadership est venu aux Etats-Unis dont le porte-drapeau fut New-York.

La centralité géographique représente un carrefour naturel.
Genève fut un carrefour pour l’Europe, de comptoir qu’elle a toujours été, elle renforce sa position de centralité notamment grâce à son statut de neutralité pendant le deuxième conflit mondial.
Cette position centrale est confirmée pendant la guerre froide ce qui lui a permis de connaitre une exceptionnelle prospérité.

Europe_3_textLa montée en puissance de l’Asie et en particulier la Chine nous permet de constater un déplacement du centre géographique.

Une observation du trafic aérien mondial matérialise les nouvelles centralités géographiques. Par exemple, un instantané du trafic montre les grandes routes et les points de convergence.

flight1c_textC’est ainsi que Dubai et Doha apparaissent clairement comme les nouveaux centres entre l’Europe, l’Asie et l’Afrique.
Dès lors, outre des ressources pétrolières, ces villes sont devenues des centres économiques et financiers que leur centralité justifie.

flight5b_textLe déclin

La centralité géographique autour de la Méditerranée qui a fait la prospérité de la Sicile décline dès le milieu du 19ème siècle. Ce déclin est concomitant à la constitution des états-nations ainsi qu’à l’apparition de l’ère industrielle. Dès lors, nous pouvons considérer que nous sommes en présence d’une rupture qui a la potentialité de redessiner les centres de puissance.

L’enjeu des ressources passe de la mer et la terre agricole vers la force industrielle et son énergie (le charbon). Le périmètre n’est plus la Méditerranée mais l’Europe, plus précisément autour des bassins miniers. Une Europe dont le centre géographique correspond à la Suisse et dont la centralité a été renforcée dans le rapport est-ouest d’après-guerre.

La récente mondialisation a été provoquée notamment par des dérégulations et l’émergence des moyens électroniques. Ces changements ont naturellement déplacé les centralités mondiales.

Ainsi la Suisse ne bénéficie plus de sa situation privilégiée qui était la sienne et se trouve contrainte à normaliser ses conditions cadres par rapport aux autres nations.

Pour moi, la première alarme fut l’humiliant « grounding » de Swissair en 2001. La chute du mur en 1989 mettait fin à la guerre froide avec pour conséquence une perte progressive des avantages conférés par la neutralité et la centralité géographique de la compagnie nationale helvétique.
Ainsi, de « banque volante » et fierté nationale, Swissair est contrainte à disparition non sans provoquer la stupeur des helvètes convaincus de la suprématie de leur modèle.

Le secret bancaire qui semblait intouchable il y a seulement 10 ans subit le même sort, ce qui représente autant de marqueurs qui nécessitent notre vigilance.

La Suisse est reconnue pour sa compétitivité et son excellent niveau de formation. Une exceptionnelle densité d’universités publiques de premier plan constitue une valeur ajoutée importante.
Ces coûteuses infrastructures sont financées par la prospérité du pays créant ainsi un cercle vertueux.

La baisse des revenus consécutive à la disparition de nos conditions cadre favorables aura des impacts sur la compétitivité de la Suisse à long terme avec un risque de briser la stabilité.

Il est clair qu’il ne suffit plus de gérer les acquis. Il faudra créer une réelle valeur dans un monde ultra compétitif et global qui dispose de nombreux atouts.
Les décideurs, en particulier politiques, devront agir avec lucidité en privilégiant les secteurs créateurs de valeur et optimiser l’efficience des activités courantes.

Nous arrivons peut être à la fin d’un cycle et il nous appartient d’imaginer notre place dans ce grand brassage global sans quoi le réveil pourrait être brutal.

Centralité numérique

Le constat de la centralité comme facteur de puissance est-il transposable à d’autres domaines?
Appliqué au monde numérique, qui est par nature non lié à un espace géographique, la centralité peut être interprétée comme une concentration des moyens et des données dans un espace devenu virtuel.

Le développement du web ces dix dernières années semble indiquer que l’exemple s’applique.
La puissance acquise par les grandes compagnies de l’internet, en particulier par Google, confirme le concept sans que nous soyons bien capables d’en mesurer les conséquences.

La concentration d’une nouvelle puissance telle que nous l’observons devrait nous inciter à la réflexion.
Quels sont les conséquences ? Quelle est la place du numérique dans le débat public ? Est-ce un nouveau totalitarisme ?
Voilà bien des questions qui sont à mon sens dignes d’intérêt. La conjonction de l’apparition de forces virtuelles et d’un déplacement des puissances traditionnelles sont porteurs de profonds changements dans notre quotidien. Saurons-nous anticiper ou allons-nous subir ? Le débat est ouvert !

© Pascal Rulfi, décembre 2015

Téléchargez l’article : Centralité, facteur de puissance

Publié dans Généralités, Stratégie | Laisser un commentaire

Un beau pays où l’on va à la guerre en Mercedes

logo-pdf_sL’automobile est un domaine où le consommateur pense être rationnel dans ses décisions d’acquisition. En réalité il agit le plus souvent de façon émotionnelle sur un objet porteur de fantasmes.

J’ai souvenir d’une polémiques dans les années 90 au sujet des berlines d’une marque allemande prestigieuse mises à disposition des officiers de l’armée Suisse.
Le slogan « quel beau pays où on va à la guerre en Mercedes » avait fait mouche.

Je me propose d’aborder les aspects de positionnement de marque dans le domaine automobile et démystifier ce qui nous choque lorsqu’on associe Mercedes et biens publics.

Le bonjour d’Alfred

Dans les années 1920, Alfred Sloan, directeur chez General Motors posa les bases de la segmentation de marché dans l’automobile. Il subdivisa son groupe en cinq marques en leur accordant une autonomie et en leur attribuant un segment de marché basé sur une catégorisation sociologique.
Les segments étaient définis en fonction du revenu des acheteurs. Chevrolet pour les plus modestes, Cadillac pour les plus riches, en passant par Pontiac, Oldsmobile et Buick.
Ainsi, en fonction de l’évolution de ses revenus, la clientèle pouvait s’afficher avec des marques représentatives de sa position sociale et de son ascension.

Ads_1950 papier et webNotons qu’il inventa aussi ce que nous appelons aujourd’hui la plate-forme. Les carrosseries changeaient d’aspects alors que tout ce qui ne se voyait pas était identique. En clair, châssis, moteur et pièces de base étaient standards pour toutes les marques tandis que la robe changeait toutes les années créant l’illusion de la nouveauté. Un marketing omniprésent et efficace entretenait savamment le mirage de l’innovation.

Marques et plate-forme

Les bases posées par l’industrie américaine entre deux guerres ont perduré jusqu’à nos jours et ont pris un essor particulier en Europe. La meilleure illustration en est le groupe allemand VAG qui, pour l’automobile comprend un vaste portefeuille de marques couvrant tous les segments (Audi, Bentley, Bugatti, Lamborghini, Porsche, Seat, Skoda, Volkswagen).

Gardons de ce portefeuille que les marques qui produisent en grande série soit: Audi, Seat, Skoda, Volkswagen et marginalement Porsche. Nous nous apercevons que la stratégie de segmentation est proche de celle fixée par General Motors il y a 90 ans.
Chaque marque a son territoire, délimité notamment par son niveau de prix. Audi représente ainsi la Cadillac d’autrefois.

Bon nombre de moteurs sont communs aux véhicules des différentes marques, de même les principaux modèles reposent sur des plates-formes identiques, cela de Skoda à Porsche.
Par exemple, la récente plate-forme « MQB » sert de socle commun qui permet de construire de la plus petite citadine à la plus grosse berline. Cette plate-forme universelle est utilisée pour toutes les marques du groupe VAG et pour tous les modèles dont le moteur est disposé transversalement.

Par conséquent, les qualités intrinsèques de tous ces modèles sont les mêmes, en particulier en terme de fiabilité et de robustesse.

Premium

Le marketing a créé un segment appelé « premium » dont les produits sont caractérisés par un prix de vente élevé. Le premium se positionne entre le produit de consommation de masse et le produit de luxe.

Audi évolue dans le segment des marques « premium ». En Europe Audi, BMW, Mercedes et Volvo occupent ce marché.

L’image valorisante de ces voitures est là pour flatter ceux qui les possèdent. En revanche, elles ne s’avèreront pas plus fiables ou plus robustes que celles de la marque plus populaire dont elles dérivent.

Les militaires hier, l’administration aujourd’hui

Dans les années 90, la population suisse s’était émue de voir l’armée suisse circuler en Mercedes. La polémique qui s’en suivit était justifiée, puisque comme on vient de le voir, ces voitures tiennent davantage du prestige que de critères objectifs.

Or, l’histoire semble se répéter puisqu’aujourd’hui nombre d’administrations acquièrent de luxueuses voitures pour leur parc.

Ainsi on peut voir circuler dans nos rues de belles voitures de prestiges comme par exemple :

Douanes Suisse : BMW X3, Volvo V70
Police des transports CFF : BMW X3
Police Genevoise : Volvo XC60, Volvo XC70
Police municipale : BMW Série3 Touring

TPG : Volvo XC60

Auto TPG web

Pour prendre l’exemple des voitures d’intervention des TPG, le choix d’acquérir de gros SUV (Sport Utility Vehicle) d’une marque de prestige ne semble trouver aucune justification.

Dans un contexte où les services publics clament leurs efforts en faveur de l’efficience et des économies, il est particulièrement maladroit d’afficher de luxueuses voitures de service. Même achetées avec d’importantes remises, ces autos ne donnent pas l’image d’une utilisation parcimonieuse des deniers publics.

Bien entendu ces seuls excès ne grèvent pas les finances de façon déterminante mais dans un domaine aussi émotionnel, c’est afficher de façon caricaturale le manque d’attention porté aux biens publics.
Par extension et considérant que ce n’est que la pointe visible de l’iceberg, les conclusions seront vite trouvées.

Dans le contexte budgétaire difficile des TPG, en particulier depuis les dernières votations sur les tarifs des transports, la maîtrise des coûts d’exploitation est essentielle. La direction clame ainsi que tous les efforts ont été entrepris. Il est dès lors surprenant que les TPG ne réalisent pas le hiatus entre la communication officielle et l’image renvoyée à la population par le simple fait de circuler dans des véhicules luxueux.

Si le risque de provoquer une affaire d’Etat est quasi nul, en revanche, c’est dans la durée que l’impact sur l’image se fait sentir.
Il appartient aux décideurs d’évaluer l’image de marque qu’ils souhaitent donner des institutions et examiner la pertinence de leurs acquisitions.

© Pascal Rulfi, décembre 2014

Téléchargez l’article : Un beau pays où l’on va à la guerre en Mercedes

Publié dans Généralités, Gouverance | Marqué avec , , , , | Laisser un commentaire

Objectifs et fiscalité en matière automobile

logo-pdf_sMon précédent article traitait de la consommation de carburant et des émissions de CO2 des véhicules à moteur. Il mettait en doute les progrès de l’industrie en matière de maitrise des émissions des gaz à effet de serre.

Quelles seraient alors les possibilités de baisser réellement les consommations des véhicules privés ? Je vais tenter de dresser quelques pistes et par la même occasion aborder la question de la fiscalité.

1ère partie : objectifs à atteindre

Décider d’une politique fiscale présuppose de fixer les objectifs à atteindre. Je vais donc tenter de fixer ce que pourrait être une voiture idéale.

Evaluation des solutions actuelles

La voie des petits pas consiste à travailler sur une base existante et apporter des évolutions telles que l’arrêt du moteur aux feux (stop & start), de plus petits moteurs (downsizing) et la baisse du poids. C’est la principale option retenue par les constructeurs.
Cette politique minimise le risque industriel mais apporte un gain modeste.

La voie du tout électrique. Ce type d’autos est popularisé par la marque californienne Tesla Motor dont les voitures sont la coqueluche des nantis concernés par les enjeux d’écologie.2013-tesla-model-s-front-three-quarter-1Soyons réalistes, un vaisseau de plus de 2 tonnes, dont 500 kg de batteries ne va pas dans la bonne direction. S’il flatte son propriétaire, il ne fait que donner l’illusion de ne pas émettre de CO2 puisque l’énergie nécessaire à charger les batteries provient de centrales qui ont toutes les chances d’être à charbon ou nucléaires.
En revanche, je note qu’un moteur électrique bénéficie d’un excellent rendement, de l’ordre de 90%.
Un excellent point est à mettre au changement de perception du consommateur car un véhicule « écologique » devient attirant et désirable.

Enfin, la voie de l’hybridation consiste à joindre un moteur électrique à un moteur thermique. Le premier succès du genre a été la Toyota Prius.

toyota-prius-2009-5Cette solution consiste à soulager le moteur thermique lors des relances.
Couplé à une boite automatique, il incite à une conduite apaisée qui participe à une économie de carburant.
A véhicule comparable, une hybride essence bénéficie d’une consommation mixte plus ou moins équivalente à celles d’un moteur diesel.

La voiture idéale

S’il n’y a pas de voiture idéale, on peut néanmoins tenter de fixer les caractéristiques souhaitées, un peu à l’image de ce que Pierre Boulanger avait fait pour la Citroën 2CV en établissant un cahier des charges qui, en substance, disait ceci: « faire une voiture pouvant transporter deux cultivateurs en sabots et 50 kg de pommes de terre, à la vitesse de 60 km/h, pour une consommation de 3 litres d’essence aux 100 km« .

2cv- affaire tournesolPrès de 80 ans après, cette définition reste d’une incroyable modernité. Se concentrer sur la fonction permettrait de redéfinir ce que devrait être une voiture.

Je retiens pour objectif « un véhicule embarquant 4 personnes et ne consommant pas plus de 3 litres aux cent effectifs et qui s’insère aisément dans la circulation actuelle« . Fort des règles de la physique, il faut produire une voiture légère et d’une puissance permettant d’atteindre la vitesse limite sur autoroute tout en minimisant au maximum les frottements.

L’objectif de poids consiste à atteindre la masse d’une familiale des années 60′ soit 750 kg à vide. Utilisée le plus souvent par une personne seule, je note que le transport de 75 kg de charge déplace 825 kg. Ainsi, le ratio charge utile / masse totale n’est que de 9% ce qui constitue déjà un énorme gaspillage.

L’aérodynamique doit bien entendu être soignée et surtout la surface frontale exposée au vent doit être limitée. Moins de surface portante dessine une auto plus petite, donc plus légère.

Quant au groupe propulseur, il sera hybride. Un tout petit moteur thermique de moins de 500 cm3 sera couplé à un moteur électrique dont l’objectif est d’accompagner les relances. Le tout doit suffire à mouvoir l’ensemble confortablement mais sans excès de puissance.
La boite à vitesse sera automatique afin d’exploiter le moteur dans ses plages de rendement optimums.

Et astuce, l’accélérateur asservi sera pourvu de dispositifs optimisés pour l’économie d’énergie. Notamment par un paramétrage qui permet d’accélérer dans la zone de rendement maximum du moteur et/ou en paramétrant des consommations maximums à ne pas dépasser.

Un challenge marketing

Peut-être que le challenge le plus complexe n’est pas d’ordre technique mais de la mercatique. En effet, en dépit des croyances, le marché automobile est très conservateur et supporte mal l’innovation.

Marqueur social par excellence l’automobile n’est pas rationnelle, les constructeurs font tout pour flatter l’égo de l’acheteur. Les tentatives de carrosseries « différentes » ont eu de la peine à s’imposer (p.ex. Renault Espace, Smart) ce qui rend les industriels particulièrement frileux.

Rendre désirable et valorisant un véhicule qui n’en n’impose à priori pas à son voisin va demander quelques trésors d’ingéniosité au département du marketing.

2ème partie : fiscalité

Trois types de prélèvement spécifiques sont appliqués sur les véhicules : les taxes à l’achat, l’impôt annuel et les taxes sur le carburant.

Les taxes actuelles

Aujourd’hui en suisse, il existe bien une taxe à l’achat sur le CO2 mais dont le règlement d’application alambiqué a plutôt pour but de freiner le marché des importations parallèles. Cette taxe n’a pas grand-chose d’incitatif puisqu’elle est pratiquement indolore lors qu’on acquiert un véhicule dans le réseau officiel.

Concernant les impôts, nous allons voir qu’il est relativement complexe d’établir un impôt juste et qui poursuit un but politique.

Par le passé à Genève, l’impôt sur les véhicules était fixé à la cylindrée. Le problème est qu’à cylindrée égale, des catégories de voiture très différentes se trouvaient taxées de façon équivalente.

L’exemple suivant illustre la perplexité devant laquelle le législateur était placé en 1980 :

egale-cylindreeL’une était une sage citadine, l’autre un dragster taillée pour le rallye !

Pour corriger cette aberration, le législateur a donc modifié l’impôt en tenant compte désormais de la puissance du moteur selon la norme DIN.
Aujourd’hui nous nous trouvons dans la situation suivante :

egale-puissanceVoilà deux voitures de même puissance et qui seront donc imposées de la même manière alors que l’une est une micro-citadine et l’autre un SUV familial. Ces deux modèles n’appartiennent manifestement pas à la même catégorie.

Par ces exemples, on comprend la difficulté d’établir une fiscalité équitable et vertueuse.

Cheval fiscal

La notion de cheval fiscal ne correspond pas à la puissance d’une motorisation comme j’ai pu parfois le lire. Il s’agit d’un calcul qui prend en compte toutes sortes de paramètres dans le but d’établir un impôt qui est le reflet d’une volonté politique en matière fiscale.

En France, les formules ont évolué dans le temps avec les versions de 1956, 1978 et 1998.
La dernière mouture de la formule prend en compte la puissance maximum et la quantité de CO2 rejetée et prend la forme suivante :

puissance_fiscaleCette notion de puissance fiscale a le mérite d’offrir une flexibilité pour la mise en place d’une politique et je suis d’avis que le législateur aurait avantage à se pencher sur une telle formule.

Le futur, une tentative de proposition

Les deux types de taxes visent des objectifs différents :

  • La taxe unique à l’achat doit inciter le consommateur à privilégier une acquisition compatible avec les objectifs fixés par la collectivité,
  • L’impôt annuel vise plutôt à financer les conséquences engendrées par l’usage d’un véhicule.

Pour la taxe unique, je retiens les paramètres suivants :

  • CO2
  • Poids

L’idée est de pénaliser les voitures lourdes et voraces en énergie. Ainsi le consommateur est appelé à réfléchir sur la portée de son achat et sera amené à réévaluer ses prétentions.

Chaque composante de la taxe serait progressive, les deux composantes s’additionnent. Les taxes prennent la forme suivante :

Graph_taxesA titre d’exemple, une proposition concrète de formule pour une taxe incitative à l’achat serait la suivante :

Formule_taxe_unique Avec un coefficient à définir mais qui pourrait être fixé aux alentours de 80.

Quant à l’impôt, c’est une taxe annuelle assez peu incitative en matière de comportement car intégrée dans le budget du consommateur.

Je suis d’avis que le CO2 ne doit pas être compté dans l’impôt car il est strictement proportionnel à la consommation normalisée. La méthode de calcul de cette dernière est douteuse et ne tient absolument pas compte du comportement de l’automobiliste dont les consommations peuvent fortement varier.
Si on souhaite une forme d’incitation à une conduite économe, la taxe CO2 devrait être prélevée directement sur le carburant.

Il faut donc chercher un impôt qui reflète l’usage de la route et la nuisance potentielle qu’induit un véhicule particulier. C’est ainsi que je retiens les deux paramètres suivants :

  • La puissance
  • Le poids

La puissance est un paramètre historique compris de tous, quand bien même il est discutable.
Avec la généralisation du turbocompresseur, l’augmentation de puissance n’est qu’une question de paramétrage de l’électronique embarquée. Ainsi, on peut afficher des puissances relativement faibles et privilégier un couple important qui favorise les accélérations.
D’autre part, la tendance actuelle des constructeurs est de proposer des voitures toujours plus puissantes qui incitent à une conduite plus nerveuse donc moins économe. Je note l’hypocrisie qui consiste à afficher des puissances exploitables toujours plus élevées associé à des consommations flatteuses qu’on ne retrouve pas dans la réalité.

Quant au poids, je trouve que c’est une mesure intéressante. A priori une voiture lourde est plus grosse et occupe une surface au sol plus élevée. Plus lourde c’est aussi une plus grande usure de la chaussée, même si elle n’est que théorique. De sorte que le poids reflète une forme d’emprise plus grande sur l’espace commun.

Comme pour les taxes, l’impôt est progressif et pourrait prendre la forme suivante :

Formule_impot_annuelAvec un coefficient à définir mais qui pourrait être fixé aux alentours de 15.

Conclusions

Comme nous l’avons vu, la voiture doit être légère, aérodynamique et disposer d’un moteur d’une puissance suffisante mais pas excessive.

Forcer la fabrication de ce type de voiture passe par une fiscalité incitative. Personne ne sera empêché par plaisir ou par passion d’accéder à un fantasme automobile mais il aura son coût. Ce coût est le prix à payer pour éviter le glissement observé ces trente dernières années où les voitures sont toujours plus grosses, plus lourdes et plus puissantes. Le tout annoncé à des consommations mensongères.

La Suisse n’a pas d’industrie à protéger, elle peut montrer la voie comme elle l’avait fait avec l’introduction du catalyseur en 1987. Tout en gardant à l’esprit que pour un industriel généraliste, la fabrication destinée à la Suisse représente moins d’une semaine de production.

L’automobile n’est pas un objet rationnel et on ne peut espérer une autorégulation des acteurs. L’industrie est puissante et trouve toujours toutes les excuses pour retarder ce qui pourrait nuire à ses affaires.
Au demeurant, à défaut de mesures drastiques, les propositions en matière fiscales me semblent être une piste qui a le mérite de ne pas interdire et qui joue sur l’élasticité des prix.

© Pascal Rulfi, janvier 2015

Téléchargez l’article : Objectifs_et_fiscalité

Publié dans Généralités, Gouverance, Stratégie | Marqué avec , , , , , , , | Laisser un commentaire

Moteurs et CO2, progrès ou esbroufe?

logo-pdf_sLa notion d’émission de CO2 est connue du grand public depuis que la lutte contre la pollution et le réchauffement climatique soit devenus des préoccupations importantes de la communauté scientifique et des gouvernements.

En Europe, environ 75% des émissions liées aux transports sont dues aux automobiles et aux camions. On comprend donc l’importance de réduire drastiquement ce type d’émission.

C’est ainsi que les gouvernements mettent en place des politiques visant à pénaliser les véhicules polluants sous la forme de taxes improprement appelées « écologiques ».

Depuis l’introduction de ces taxes, les constructeurs ont réagi et annoncent de spectaculaires baisses des émissions de CO2 à chaque génération de véhicules. Mais est-ce que les progrès sont réellement aussi importants que clamés?

Le CO2

Le dioxyde de carbone est produit lors de la transformation chimique découlant de la combustion d’un carburant. Il est proportionnel à la consommation en carburant d’un véhicule et dépend du type de carburant.

Soit :

  • 2’600 grammes de CO2 par litre de diesel,
  • 2’280 grammes de CO2 par litre d’essence,
  • 1’660 grammes de CO2 par litre de GPL.

Baisser le CO2

Par conséquent, si l’on veut baisser les émissions de CO2, il faut baisser la consommation des véhicules. Nous allons examiner ci-après les paramètres qui permettraient de limiter l’impact environnemental.

Diminuer la consommation implique de diminuer l’énergie à déployer pour déplacer une voiture. Les deux causes qui sont à prendre en compte sont :

  • les frottements
  • la masse.

Les frottements sont de diverses origines : frottements internes de la mécanique, résistance à l’air, résistance des roues sur le sol.

S’agissant de la résistance à l’air, il faut savoir qu’elle est proportionnelle au carré de la vitesse. Ainsi pour diminuer ces frottements, il faut un véhicule aérodynamique doté d’une faible surface exposée. Tout le contraire d’un « SUV » à l’aérodynamique d’armoire normande.
La vitesse implique une grande consommation d’énergie. Il est donc nécessaire de la limiter comme le montre le diagramme ci-dessous :

VoiturePuissancesVitesseQuant à la masse, elle exige de l’énergie lorsqu’on accélère le véhicule ou lorsqu’on lutte contre la gravité en escaladant une côte.

Le processus n’est pas réversible car l’énergie cinétique n’est pas récupérée lors de ralentissements. En effet, le freinage détruit l’énergie par frottement donc par dissipation thermique.

On remarque que plus les véhicules sont lourds plus ils nécessitent des pneus dotés d’une surface de contact avec le sol importante. Cela induit plus de frottement donc une dépense d’énergie plus élevée. Ceci ne constitue pas un cercle vertueux.

Comme l’affirmait Colin Chapman, le fondateur de Lotus, « light is right », le poids c’est l’ennemi.
Pourtant, les voitures n’ont cessé de prendre du gras.

Poids_voiture

Ainsi, en 40 ans, l’ampleur de la prise pondérale est de l’ordre de 60%, ce qui ne constitue pas vraiment un progrès.
Cette augmentation est en partie explicable par la sécurité passive réelle et par le confort que les voitures modernes apportent.

Les moteurs

De mon point de vue, les deux progrès notables des moteurs thermiques de ces trente dernières années sont la fiabilisation et l’injection.

Contrairement au pastis dont le mélange idéal est de 5 pour 1, le moteur à essence s’apprécie avec un mélange théorique idéal de 15 volumes d’air pour 1 volume d’essence appelé mélange stœchiométrique.
Par le passé, ce mélange était obtenu par un carburateur dont la précision du dosage laissait à désirer. Aujourd’hui, l’injection – couplée à la sonde lambda qui mesure la qualité de la combustion des gaz – permet un juste dosage du carburant injecté dans le moteur. Le résultat est une diminution du niveau de rejets polluants et de la consommation.

Au-delà de ça, un moteur à explosion fournit un travail dont le rendement maximum est fixé par les principes de la thermodynamique formulés en 1824 par Sadi Carnot. Le rendement maximal calculé par Sadi Carnot fait l’hypothèse de conditions théoriques pour un cycle réversible (pas de dissipation).

Sans rentrer dans les détails du cycle thermodynamique, on retiendra que le rendement maximal (ratio de la puissance mécanique restituée par rapport à la puissance thermique fournie par le carburant) d’un moteur est de l’ordre de 30 % à 35 % pour l’essence et de 40 % à 45 % pour le Diesel.

Il s’agit bien d’un rendement maximum obtenu dans des conditions particulières. En réalité, le domaine d’exploitation d’un moteur montre des zones ou le rendement est plus faible comme l’illustre le diagramme suivant:

graphe_rendement

Le diagramme nous montre que le rendement maximum du moteur à essence faisant l’objet de l’analyse se produit à un régime compris entre 2000 et 3000 t/min et pour une couple d’environ 140Nm. Conditions atteintes avec une pédale des gaz enfoncée aux 2/3 de sa course.

Sachant que le rendement maximum d’un moteur est fixé par les lois de la thermodynamique il est impossible d’augmenter significativement son rendement.

Le travail des motoristes va donc consister à user d’astuces pour diminuer la consommation. Les domaines de recherche sont :

  • Diminuer les pertes de charges. Par exemple en découplant des charges inutiles lorsque c’est possible (arrêt de l’alternateur ou de la climatisation, stopper le moteur à l’arrêt…),
  • Optimiser l’exploitation dans son domaine de rendement. Par exemple en augmentant le nombre de rapports d’une boite à vitesse automatique et la gérer par un calculateur,
  • Augmenter le domaine d’exploitation optimum. Par exemple avec l’injection directe et la suralimentation sur des moteurs de plus petite cylindrée.

Ces progrès s’obtiennent au prix d’une complexification technique notable dont on peut attendre une fragilisation de l’ensemble. Le tout pour une baisse réelle de consommation qui reste à prouver.

En réalité

Les émissions de CO2 découlent de la consommation d’un véhicule, consommation calculée sur la base d’un parcours normalisé fixé par la directive européenne 70/220/CEE qui date de 1973.

La procédure d’homologation est fortement sujette à caution tant elle ne reflète pas les conditions d’utilisation réelles. Accélérations, température, résistance, le protocole de test fixe des paramètres fantasques tels que des accélérations excessivement lentes (0 à 70 km/heure en 43 secondes).

S’agissant des voitures hybrides, le cycle de test leur est particulièrement favorable puisque les trois quarts du test sont effectués sur les batteries. Ainsi une berline Volvo V60 hybrid est annoncée à 1.8 litres aux cents, ce qui est parfaitement utopique.

De plus, les constructeurs préparent les voitures pour l’homologation et adoptent des astuces pour obtenir de meilleurs résultats, parfois par des moyens relevant de la fraude. On raconte que les calculateurs de bord sont capables de détecter un cycle d’homologation et adaptent les paramètres afin d’optimiser les consommations.

On l’aura compris, les consommations officielles sont très largement sous évaluées et irréalistes dans des conditions de conduite normales.

Les taxes CO2 étant directement calculées sur ces consommations normalisées, nous pouvons ainsi soupçonner les constructeurs d’élaborer des solutions dans le seul but de performer aux tests de consommation.
Par exemple, en France, il serait fortement disqualifiant d’écoper d’une pénalité de 2’000 euros sur un véhicule coûtant 12’000 euros, d’où l’importance vitale de réduire la consommation officielle.

En outre, certaines solutions censées apporter des économies de carburant péjorent les consommations dans les faits. Par exemple, un allongement excessif des rapports de boite permet d’afficher des résultats flatteurs, mais a un effet contraire au quotidien : en effet l’automobiliste aura tendance à appuyer davantage sur l’accélérateur pour relacer un véhicule devenu apathique.

Notons qu’une nouvelle procédure mondiale établie par les Nations Unies (Worldwide harmonized Light vehicles Test Procedures) devrait rentrer en vigueur et mieux refléter les consommations réelles des véhicules.

Conclusions

Les lois de la physique sont ce qu’elles sont. Déplacer une masse exige une énergie donnée fournie par un moteur dont le rendement a peu évolué dans le temps.

Par conséquent, les progrès fulgurants vantés par les constructeurs sont certainement moins importants que clamés. Fort de ce constat, la lutte contre les émissions de CO2 semble un miroir aux alouettes et les communications ont tout du « green washing ».
Les as de la mercatique ont inventé des labels fleurant bon la propreté immaculée (eco2, BlueEfficiency, BlueMotion …) qui relèvent plus de l’esbroufe que d’une réalité quelconque.

La communication sur le CO2 a le mérite de sensibiliser les consommateurs sur un paramètre qu’ils connaissaient déjà : la consommation de carburant.

En revanche, il est douteux que les pouvoirs publics se basent sur des normes vieilles de plus de 40 ans pour lutter contre les émissions de gaz à effet de serre. Doit-on soupçonner une certaine complaisance vis à vis d’un secteur pourvoyeur d’emplois ? Je laisse à chacun le soin de se forger son opinion.

Proposition pour mesurer une consommation réaliste

Normaliser une consommation est une démarche qui me semble vouée à l’échec. On peut se rapprocher d’une consommation plus réaliste mais la norme fera obligatoirement abstraction d’une masse de paramètres dont notamment le comportement des conducteurs.

En clair, l’acquéreur d’une Porsche ou d’une Ferrari n’aura certainement pas l’ambition de faire de l’éco-conduite avec son bolide quand bien même il serait probablement possible d’atteindre des consommations normalisées raisonnables.

D’ici octobre 2015, les voitures neuves devront être équipées d’un système d’alerte automatique en cas d’accident. Ce dispositif s’appuie sur des détecteurs de collision, un système de géolocalisation (GPS) et une connexion au réseau mobile. Ainsi, en cas d’accident la voiture appelle toute seule un central et signal sa position. Les voitures sont donc devenues des objets communicants.

Dans une approche « web 2.0 », il suffit d’ajouter le débitmètre d’essence dans l’arsenal électronique. Par ailleurs cet équipement est déjà largement diffusé. Ainsi, il suffirait de collecter les consommations réelles mesurées de chaque véhicule pour avoir une estimation assez précise d’un modèle de voiture.

Seraient alors communiqué aux consommateurs les traditionnelles mesures de consommation normalisées et la consommation moyenne observées qu’un organisme indépendant pourrait être chargé de collecter.

Post scriptum

Deux modèles récents ont été testés par la presse spécialisée et confirment mon propos.

L’essai du tout nouveau Nissan Qashqai 1.2 DiG-T équipé d’un moteur essence ultra moderne embarquant toutes les technologies sensées abaisser la consommation d’essence (downsizing, turbo, injection directe).
Pour cette voiture de 1’350kg, la consommation normalisée de 5.6 litres/100 est flatteuse.
Verdict des essayeurs (caradisiac.com – janvier 2015), la consommation moyenne réelle mesurée est de 8.1 litres aux cent soit 45% de plus qu’annoncé. En ville la consommation bondit entre 9 et 12 litres aux cent: un gouffre !

Le test de la nouvelle Smart Forfour, qui partage sa plateforme avec la Renault Twingo, est tout aussi édifiant. Cette citadine de moins d’une tonne est équipée d’un moderne 3 cylindres essence de 999 cm3 qui promet une consommation de 4,2 l/100 km et 97 g/km de CO2.
Malheureusement, un moteur 3 cylindres demande à être cravaché pour bien fonctionner. Lors d’une conduite qualifiée de dynamique par les essayeurs (turbo.fr – janvier 2015), cette petite citadine a englouti plus de 11 litres aux cent.

Manifestement, les miracles sont à Lourdes.

© Pascal Rulfi, janvier 2015

Téléchargez l’article : Moteurs_et_CO2

Publié dans Généralités, Gouverance | Marqué avec , , , , , | Laisser un commentaire

Maquette et optimisme, un risque important en informatique

logo-pdf_sDepuis toujours la conduite d’un projet informatique est un exercice périlleux dont le résultat n’est pas toujours à la hauteur des attentes.
Dans cet article, je propose d’aborder brièvement les méthodes traditionnelles de conception et de m’interroger sur la pratique consistant à formaliser les besoins sur la base de maquettes.

Hier

Une longue liste de couacs informatiques illustre l’issue de bon nombre de projets de développement. Par le passé il était admis que seuls 3% des projets étaient livrés dans les délais, dans le budget fixé et pour les fonctionnalités convenues.

Afin d’améliorer ces résultats, dès les années 1970, les théoriciens ont formulé un certain nombre de méthodes (notamment Merise en France et Hermès en Suisse) pour maitriser les réalisations et pour convenir d’un cadre descriptif pour le maitre d’ouvrage.

A son corps défendant, l’informatique est une science horriblement complexe dont la difficulté n’est pas proportionnelle mais exponentielle à la taille de l’ouvrage. De plus, il fallait composer avec les donneurs d’ordre sans expérience sur les mutations numériques.

Enfin, le développement d’un programme nécessitait de produire la totalité du code, généralement de manière monolithique donc peu flexible aux changements.

C’est ainsi que les méthodes de l’époque préconisaient des cahiers des charges détaillés et fermés. Chaque changement donnait lieu à un avenant au contrat qui pouvait devenir extrêmement onéreux selon l’état d’avancement du projet.
En faisant un parallèle avec la construction d’un pont à haubans, cela reviendrait à demander en fin de réalisation une modification afin qu’il devienne suspendu. Impensable.

Ponts_web

Les cahiers des charges exhaustifs étaient la réponse au besoin de formalisation d’un projet.
La complexité de décrire le besoin allié à la difficulté d’exprimer une vision claire et pérenne de l’organisation m’ont toujours fait paraitre le cahier des charge comme un vœu pieux, voire un fantasme.
A telle enseigne que je n’en ai jamais vu un rédigé dans les règles de l’art.

Aujourd’hui

Les années 1990 voient émerger de nouvelles méthodes qui permettent de répondre de manière différente au besoin de formalisation et d’évolution d’un projet informatique dans le cadre d’un développement traditionnel.

L’évolution des outils de l’ingénierie logicielle et la possibilité de définir des architectures plus flexibles a permis l’émergence de méthodes qui répondent mieux aux besoins du marché et qui sont plus performantes en terme de résultat net. Le vocabulaire des méthodes dites agiles s’enrichit de nouveaux venus : RAD, XP, SCRUM.

La mise en application des méthodes agiles donne d’excellents résultats mais impose ses propres exigences parmi lesquelles je note :

  • Une équipe de développement soudée, compétente et communicante. Petit, agile et rapide plutôt que énorme et procédurier.
  • Des objectifs partagés, réalistes et auxquels tous adhérent.
  • Un client impliqué et dont les objectifs stratégiques sont clairs. De plus, il est partie prenante et suit son projet.

L’ensemble de ces contraintes implique une bonne maturité des acteurs, ce qui n’est de loin pas une généralité.

Alternative

Une alternative consiste à mettre en place des progiciels de gestion intégré (ERP) adaptés à ses propres besoins.

Sachant qu’il vaut mieux acheter le meilleur que de tout reconstruire, envisager l’introduction d’un « intégré » est une stratégie légitime qui minimise le risque d’un projet aventureux.

Pour certains, c’est même l’occasion de restructurer l’entreprise en imposant une organisation qui devra s’adapter au produit plutôt que le contraire.
J’observe que cette vue théorique fait trop souvent l’économie d’une analyse approfondie considérant que ce qui marche ailleurs doit fonctionner ici. Dans la foulée, puisque qu’il s’agit de déployer un progiciel structurant, on néglige le suivi de projet avec, à l’arrivée, des morceaux de fonctionnalités sans cohérence. Par conséquent, qui n’apporteront pas le bénéfice attendu.

Impliqué dans des arbitrages pour des projets en souffrance, une pratique récente m’interpelle : la maquette powerpoint.
La maquette (mock-up) est généralement basée sur des « workshops » qui sont des réunions entre brainstorming et foire d’empoigne où le prestataire tente de comprendre les grandes lignes du métier du client.

Censé être un spécialiste métier, le prestataire tente de guider les débats et synthétise les échanges en vue de paramétrer une solution qui doit correspondre au mieux aux besoins du client.

Afin de transcrire la synthèse des débats dans un « ersatz » de solution logicielle, les prestataires ont pris l’habitude de dessiner des maquettes (des écrans) constituant l’adaptation de leur progiciel au besoin du client. L’intention est de donner une « idée » de à quoi va ressembler la solution.

Cette maquette est discutée avec le client et deviendra le document de spécification du projet.

Dans le cas où nous avons à faire à un progiciel vertical dont les fonctionnalités correspondent très bien au métier du client, cette démarche a le mérite de faire l’économie d’une fastidieuse analyse et une structure de projet importante.

Au demeurant, cette méthode, ou plutôt cette absence de méthode, donne une vision statique de la solution proposée et ne dit absolument rien sur les flux de données et les processus métier.
En clair, la correspondance entre les processus métier du client et les fonctionnalités du programme relèvent de la chance.

Cette tare devient criante lorsqu’on assemble plusieurs solutions de divers éditeurs. Le plus souvent, la segmentation des solutions est faite par métier où l’on choisit le meilleur programme dans chaque domaine, en minimisant la cohérence du tout sur la promesse d’une interconnexion aisée. Enfin, si le client est organisé en silo, nous avons l’assurance d’avoir maximisé les risques d’échec.

S’il y a difficulté ou échec, le constat se fera très tardivement dans le processus de réalisation du projet. Les licences auront été acquises et les prestations seront consommées à hauteur du budget sans possibilité de corriger le tir.

De plus, en cas de procédure d’arbitrage, en l’absence de documents de référence sérieux, rien ne permettra de déterminer les responsabilités des acteurs. Il ne reste alors au client qu’à remettre la main au portefeuille ou dans le pire des cas enregistrer une perte sèche.

Mt-Blanc_webJ’illustre souvent le propos par l’ascension du Mont-Blanc par beau temps. Deux méthodes s’affrontent. La première, légère, consiste à miser sur la vitesse, ce qui est possible avec un équipement minimum et en comptant sur la clémence des éléments. La seconde, lourde qui implique plus d’équipements et d’infrastructure, donc plus de lenteur et d’effort.

La méthode légère peut fonctionner en cas de situation idéale; le beau temps se maintient, la force physique est au top durant toute l’ascension.
En revanche, si le mauvais temps arrive ou qu’un imprévu surgit durant l’ascension, le risque de l’expédition devient maximal voir létal.
L’équipement lourd permet d’envisager des plans alternatifs et diminue le risque en cas d’événements imprévus.

Il en est de même avec les projets abordés avec optimisme et avec une structure légère. Pour le décideur il s’agira d’évaluer avec lucidité et attention les points de vigilance afin d’estimer avec objectivité le risque et les conséquences de la méthode choisie.

En tout état de cause, j’invite les responsables de projet à la plus forte méfiance lorsque le projet est abordé sur la base de workshops et de maquettes.

© Pascal Rulfi, décembre 2014

Téléchargez l’article : Maquette_et_optimisme

Publié dans Généralités, Informatique, Stratégie | Marqué avec , , , | Laisser un commentaire