La fiabilité des théories économiques que les technocrates nous obligent à subir est désastreuse. La réalité ne va pas tarder à venir le démontrer. (Simone Wapler pour La Chronique Agora)

Qui n’a pas été confronté, en tant qu’utilisateur basique, à un problème informatique dans sa vie ? En dehors de l’irritation, on peut profiter des temps de redémarrage pour réfléchir.

L’informatique est une technique, une science, et pourtant, parfois, les mêmes causes ne produisent pas les mêmes effets.

La matière première de l’informatique n’est pourtant que des 0 et des 1. Quelque chose de très simple : « oui » ou « non », « blanc » ou « noir ». Pas « environ 1 » ou « presque 0 », pas « peut-être », pas « gris ». Binaire.

Des millions de ces couches binaires s’entassent jusqu’à l’utilisateur final qui appuie sur son clavier et regarde son écran. Et au bout du compte, ce même utilisateur qui fait exactement la même chose obtient un résultat différent.

En tant qu’ingénieur, j’ai vécu le début de l’informatique appliqué aux commandes de vol, ce qu’on a appelé la numérisation. Un ordinateur s’intercale entre le pilote et les gouvernes, les moteurs, etc… J’ai demandé comment se calculait la fiabilité d’un logiciel.

Dans l’aéronautique, tout équipement est caractérisé par un taux de fiabilité (ou de défaillance, si vous voulez, mais fiabilité est plus vendeur). La fiabilité des anciens équipements électroniques analogiques était calculée avec des modèles statistiques. Cette fiabilité était ensuite contrôlée empiriquement avec des essais. Enfin, le cumul de l’expérience validait le tout : tel type d’équipement avait accumulé des milliards d’heures de vol sans panne, sans maintenance non-programmée. C’était le sésame qui convainquait le client. Mais un logiciel ? C’était nouveau. Qu’allions-nous annoncer au client ? L’expert de l’époque m’a répondu : « ne te prends pas le chou, tu comptes le nombre de boucles de décisions du programme ». Plus il y en a, moins c’est fiable. Une boucle de décision revient à programmer « s’il se passe ceci, alors tu fais cela ».

Quittons maintenant l’informatique et arrivons dans la « science économique ». Des banquiers centraux prétendent contrôler l’économie en s’appuyant sur des modèles théoriques.

Dans son derniers discours, Jerome Powell émettait cependant quelques doutes sur les repères dont il se servait, et faisait presque preuve d’une ombre d’humilité :

« Dans les modèles économiques conventionnels, les principales données économiques telles que l’inflation, le chômage et le taux de croissance du PIB fluctuent autour de valeurs qui sont considérées comme ‘normales’, ‘naturelles’ ou ‘souhaitables’. Le FOMC a choisi 2% d’objectif d’inflation comme une valeur souhaitable. Les autres valeurs ne peuvent pas être observées directement, ni choisies par quiconque. En fait, ces valeurs résultent d’une myriade d’interactions au travers de l’économie.

[…]

Naviguer d’après la position des étoiles peut sembler simple. Toutefois, guider la politique d’après les étoiles, en pratique, a récemment été un défi car nos meilleures estimations de la position des étoiles ont significativement changé. »

Au lieu de « 0 » et de « 1 », la matière de base de la science économique repose sur des milliards de décisions individuelles. Ces prises de décision ne sont pas binaires, elles s’appuient sur des sentiments, de l’expérience du vécu. « Peut-être », « plus tard », « c’est trop cher (pour moi) »… Une infinie palette non pas de gris, mais de couleurs… S’il se passe ceci, X fait cela, mais Y fait autre chose et Z une troisième.

Et les économistes prétendent mettre tout ça en équation, ils prétendent mesurer ces nuances avec leurs statistiques bidons.

…Lire la suite de l’article de Simone Wapler sur le site de La Chronique Agora.