Le crépuscule des données

Des difficultés nouvelles

Les entreprises rencontrent souvent des difficultés, même dans leur cœur de métier. Ici, des équipements critiques ne fonctionnent pas correctement, la sûreté est mise en cause, l'impact sur l'environnement est mal mesuré. Là, les attentes des clients ou consommateurs sont négligées : le produit phare est délaissé et la politique commerciale est à revoir. Les règles ont changé, les méthodes de conception et de calcul aussi. Mais n'accusons pas trop vite le ciel : les entreprises elles-mêmes ont leur part de responsabilité ; elles n'ont pas su prendre les devants ; elles attendent tout des Pouvoirs Publics. Au mieux, elles ont confié des analyses prospectives à des débutants. Le résultat de leur travail, proclamé "outil informatique d'aide à la décision", permet toutes les visualisations en 2d, 3d, en relief et en couleurs, mais c'est un logiciel mal conçu, sans lien avec la réalité. Un bédouin n'en voudrait pas pour sa tente en plein désert : "Produits avariés nés d'un siècle vaurien", disait déjà Baudelaire ("Les Fleurs du Mal").

Des approches anciennes

Toutes ces questions, vitales pour les entreprises, ont fait l'objet d'études approfondies à une époque où cela se pratiquait encore. Mais les approches retenues il y a 40 ou 50 ans, prolongées depuis, sont maintenant obsolètes. A l'époque, faute de données spécifiques, on adoptait des lois académiques pour qualifier la durée de vie d'un équipement ou la propagation d'une pollution ; elles résultaient d'un consensus entre experts. De même, les démonstrations de sûreté étaient réalisées de manière empirique, en prenant de confortables "marges" à toutes les étapes de la conception et de la réalisation, ce qui aujourd'hui n'est plus possible. Par principe, faute de connaissances précises et spécifiques, faute de retour d'expérience exploitable, les approches du passé, aussi bien pour la construction que pour le dimensionnement d'équipements, étaient empiriques et grossières. Le résultat était généralement satisfaisant : bon nombre de ponts romains tiennent encore. Pour s'assurer de la parfaite compétence des experts, les Romains avaient adopté les "lex de maiestate" (lois de majesté) : quiconque commettait une erreur de calcul avait "offensé la majesté du peuple romain" et était condamné à la peine capitale.

Un nouveau souci de précision

Aujourd'hui, à l'inverse, la tendance est à la précision factice dans les modèles. On prétend comprendre toutes les lois de la physique et les coder sous forme de "boîtes noires", de logiciels exploitables par tous : "l'humanité bavarde, ivre de son génie", disait encore Baudelaire.

Malheureusement, il y a plus de choses sur la terre et dans le ciel que n'en rêve cette philosophie, dont la prétention est souvent excessive : on a simplifié les contraintes à l'excès, négligé quantité de facteurs, comme par exemple le vieillissement des composants. La modélisation 3d par éléments finis a été faite de manière simplifiée, et les lois de la physique sont linéarisées pour être traitées par la machine ; tout ceci est invisible de l'extérieur. On dispose d'un très beau logiciel, à l'interface bien réglée, qui retourne 15 chiffres après la virgule, quelle que soit la question posée. Les journalistes s'extasient, les politiques applaudissent, les financements pleuvent. Maintenant qu'elle dispose d'outils informatiques, l'humanité se croit l'égale des Dieux, et mieux encore : l'arrogance des chercheurs n'a d'égale que la sottise des journalistes.

L'ordinateur est un cache-misère : il va donner une apparence de respectabilité à la pensée la plus pauvre, à la démonstration la plus étriquée, à la conception la plus fumeuse. Les négligences, les insuffisances, les simplifications, les faussetés mêmes, vont être dissimulées dans les replis des instructions informatiques, d'où plus personne ne saura les débusquer. Le résultat, rebaptisé "intelligence artificielle", sera sanctifié par toutes les communautés d'utilisateurs. Les médecins épidémiologistes sauront, en appuyant sur deux ou trois touches, démontrer que les lignes à haute tension sont nocives pour la santé, que les téléphones portables réduisent l'espérance de vie, que les fraises des bois favorisent le saut à skis.

Tous ces programmes informatiques auxquels personne ne comprend rien, que c'est beau ! Et lorsqu'une génération aura passé, personne ne saura plus qui les a conçus, ni pourquoi. Version moderne de "Oceano Nox" : "Rien ne sait plus vos noms, pas même une humble disquette".

Mais la Nature reprend vite ses droits : Satan conduit le bal. Un outil informatique ne permet pas la prise en compte des incertitudes : il retourne un résultat précis à partir de données précises. Or les incertitudes sont inhérentes aux lois de la Nature, qui comportent toujours une certaine variabilité. Mal conçus, des toits de supermarché s'effondrent sous le poids d'une neige bien mince, des appareils sophistiqués tombent en panne le premier jour d'utilisation, des tramways sortent de leurs rails, etc. Les journalistes cessent de s'extasier, les politiques d'applaudir, les financements de pleuvoir.

La démonstration de sûreté

La voici, telle que la conçoivent les apôtres de la logique artificielle, de la démonstration formelle à la Turing :

1. Le Grenelle de la Sûreté

Un groupe de jeunes gens bien mis, élevés au bio depuis l'enfance, introduit des données dans la machine. Celle-ci ronronne de satisfaction, mais sans ostentation : on sent qu'elle domine la situation. Au bout d'un moment, un message apparaît sur l'écran : "tout est correct", suivi des logos des entreprises et institutions qui ont participé à cette brillante démonstration. Un voyant vert s'allume, avec ce libellé : "merci de votre attention".

Les participants se mettent autour d'une table, présidée par un psychologue. A l'unanimité, le vote est favorable : les conditions de sûreté sont respectées et l'exploitation va pouvoir commencer.

Retentit alors l'hymne de la transition énergétique : "Les Tableaux d'une Sous-Exposition", par Nicolas-Modeste Moussorgsky-Bulot. La séance est levée et chacun s'épanouit.

2. La revanche d'Archimède

Eh bien, pour le moment, ce n'est pas cela du tout, une démonstration de sûreté. Elle doit se faire "à l'ancienne" : il faut découper le problème entier en un très grand nombre de cas spécifiques, montrer que tous ont été recensés et que, pour chacun, on dispose d'une réponse appropriée. C'est ce qu'aurait fait Archimède : une démonstration, au sens mathématique du mot. Le résultat est un énorme dossier, que chacun doit pouvoir analyser à sa guise : pas d'argument d'autorité.

Dans la plupart des domaines, les Autorités de Sûreté, derniers gardiens du Temple de la Qualité, se montrent de plus en plus exigeantes, non seulement sur les résultats attendus, mais sur la rigueur des démonstrations. Si celles-ci sont obtenues au moyen d'outils logiciels, comment ont-ils été validés ? Les ingénieurs aiment que les calculs soient les plus précis possible, mais un logiciel d'investigation fine mettra des milliards de siècle à explorer toutes les configurations. Choisir les runs au hasard est une forme de mysticisme qui ne résiste pas à l'analyse ; on a moins de chance, procédant ainsi, de détecter des situations à risque que n'en aurait un ivrogne aveugle de franchir une porte légèrement entrebâillée en lançant une fléchette au hasard. Il faut concevoir de nouvelles générations d'outils logiciels, nécessairement grossiers et adaptés aux études de sûreté ; ils traiteront d'abord les paramètres jugés prépondérants par une étude probabiliste.

Le crépuscule des données et l'aurore de l'intelligence artificielle

On a bien cru voir la dernière donnée à son dernier soupir, sous la double pression des modèles académiques et des consensus éclairés. Pour une bouchée de pain, n'importe quelle équipe académique, dotée d'une blouse blanche et d'un ordinateur, fera un modèle de propagation de la diphtérie en zone rurale au Dahomey. Le Grenelle de l'Environnement, en 2007, a consacré l'abandon de toute expérimentation au profit de consensus : plus de faits, plus de données, plus de mesures ; on met les gens autour d'une table et ils sont d'accord : le produit est nocif et il faut l'interdire.

Concevoir un système d'information, mettre des capteurs en place, récupérer les données, tout cela est cher, difficile et fastidieux ; on récolte quantité de données aberrantes et contradictoires. Sans données, on est tranquille ; l'homme a bien évolué depuis Pascal, et maintenant il sait rester au repos dans une chambre.

Bien sûr, il y a quelque inconvénient à s'en passer complètement, mais le mieux est d'en avoir le moins possible : une seule est l'idéal, pour éviter toute contradiction. Si l'on en a deux, il faut qu'elles montrent que le phénomène évolue dans le sens désiré. Au-delà de deux, c'est l'horreur, c'est l'anarchie.

Tout à coup, quelqu'un a eu une idée de génie : des données, il y en a partout ; il suffit de savoir les récupérer. C'est ce qu'on appelle le "big data". Plus besoin de se fatiguer à calibrer des instruments, à sortir le soir sous la pluie pour vérifier que les capteurs ne sont pas bouchés : on va utiliser des données "externes".

Nous aurions besoin de quantifier le nombre et l'impact des séismes, dans la région du sud de l'Italie, sur 2 000 ans, pour étoffer les dossiers de sûreté des installations à risque de la région. Les données n'existent pas, ou sont malaisées à recueillir : il faut dépouiller de vieux grimoires, voir s'ils mentionnent les dégâts au clocher de l'église, les fentes apparues dans les fortifications et convertir tout cela en magnitude de séisme. C'est long, fastidieux et imprécis : le résultat sera discutable.

Mais, ô merveille de la technologie, nous disposons des relevés des tournées des livreurs de sushis dans la région de Rennes, sur la période 2010-2015, avec quantité d'attributs très bien renseignés : heures de départ, d'arrivée, chemin suivi, type de scooter, nom du conducteur, etc. Voilà une mine d'informations de bonne qualité ! Le département d'astrophysique quantique de l'INSA de Rennes va nous montrer que la corrélation entre la livraison de sushis à Rennes et les séismes dans le sud de l'Italie est de 0.35. Rien ne résiste à une analyse de corrélations, pas même les livraisons de sushis.

Intérêt commercial : commercial : argument de vente

Les entreprises pourraient peut-être cesser de prendre les consommateurs pour des andouilles, tout juste capables de réagir à une "communication", de plus en plus dépourvue de contenu. On voit des jeunes gens autour d'une table, nourris au bio, en extase parce que leur savon de toilette contient du "tétramisophisol au glutamate de pyridium", comme disait Jean Yanne. Plus personne ne croit à la "comm" des entreprises, tant elle paraît suspecte.

Une argumentation commerciale peut parfaitement reposer sur la qualité des études qui ont été réalisées : les produits sont plus robustes ; on les a testés dans des conditions difficiles (intempéries, température très haute ou très basse, résistance au vieillissement, etc.). Ces arguments ont toujours été ceux de Volvo et de Mercedes, constructeurs automobiles, et ils trouvent un écho favorable auprès des consommateurs.

On achète peut-être un dentifrice parce que l'on voit une jolie fille avec les dents blanches, mais ce type d'argument ne vaut pas pour un produit industriel ; il faut des arguments factuels. C'est là que la R&D de l'entreprise intervient, pour fournir des arguments qui, en définitive, seront de nature commerciale. Ils reposeront sur des faits, sur des expériences, sur des tests. L'entreprise montrera aussi qu'elle a pris en compte la variabilité de ses process et ne se contente pas de la certification obligatoire.

Montrer que les process de l'entreprise sont entièrement sous contrôle est, en définitive, un excellent argument commercial.

Les livres édités par la SCM : une introduction aux Lois de la Nature

Les Ingénieurs ont une formation scientifique de base à propos des Lois de la Nature : physique, chimie, électromagnétisme, environnement, etc. Mais, dans tous les cas, ces lois leur ont été présentées de manière déterministe et simplifiée : une formule, avec des paramètres dont le sens est précis.

Mais il n'en est jamais ainsi dans la réalité. Les Lois de la Nature ont toujours un caractère probabiliste et il n'est jamais possible de répéter une expérience de manière absolument identique. La liste des paramètres susceptibles d'intervenir n'est jamais complètement connue et les données utilisées en entrée sont toujours assorties d'une incertitude. Une approche probabiliste est indispensable, et elle sera systématiquement réclamée par les Autorités de Sûreté, quel que soit le domaine.

Voici quelques exemples :

– La résistance des matériaux et leur comportement lors du vieillissement ; – Les dépenses énergétiques ; – La propagation d'une pollution, d'une épidémie ; – La solvabilité d'une banque ; – L'équilibre financier d'une compagnie d'assurances.

Dans chaque cas, les Autorités de Sûreté réclameront des "démonstrations de sûreté" tenant compte des incertitudes.

Dans le monde académique, les probabilités sont malheureusement présentées de manière axiomatique, ce qui les rend très difficile à comprendre et ne permet pas de faire le lien avec les Lois de la Nature, qui se moquent bien des cadres axiomatiques !

Les livres édités par la SCM, au contraire, prennent les probabilités à leur début et les construisent de manière progressive, au travers d'exemples tirés de notre propre expérience. Le lecteur y trouvera une présentation très pédagogique, bien adaptée à la compréhension des Lois de la Nature et aux réponses qu'attendent les Autorités de Sûreté.

Les livres édités par la SCM

Bernard Beauzamy : Méthodes probabilistes pour la gestion des risques extrêmes. SCM SA. ISBN 978-2-9521458-9-3, ISSN 1767-1175, relié, 208 pages. Juin 2015. http://www.scmsa.eu/livres/SCM_GRE_order.htm

Olga Zeydina - Bernard Beauzamy : Probabilistic Information Transfer (en anglais), SCM SA, ISBN 978-2-9521458-6-2, ISSN 1767-1175, relié, 208 pages. Avril 2013. http://scmsa.eu/livres/SCM_PIT_order.htm

Bernard Beauzamy : Archimedes' Modern Works (en anglais), SCM SA, ISBN 978-2-9521458-7-9, ISSN 1767-1175, relié, 224 pages. Août 2012. http://scmsa.eu/livres/SCM_AMW_order.htm

Bernard Beauzamy : Nouvelles Méthodes Probabilistes pour l'évaluation des risques. SCM SA, ISBN 978-2-9521458-4-8. ISSN 1767-1175, broché, 272 pages. Avril 2010. http://scmsa.eu/livres/SCM_NMP_order.htm

Bernard Beauzamy - Olga Zeydina : Méthodes probabilistes pour la reconstruction de données manquantes. SCM SA, ISBN 2-9521458-2-2, ISSN 1767-1175, broché, 265 pages. Avril 2007. http://scmsa.eu/livres/SCM_RDM_order.pdf

Bernard Beauzamy : Méthodes Probabilistes pour l'étude des phénomènes réels. SCM SA, ISBN 2-9521458-0-6. ISSN 1767-1175, broché, 369 pages. Mars 2004. Seconde Edition, juin 2016. http://scmsa.eu/livres/SCM_MPPR_order.htm

Le recueil des "Lettres de la SCM", no 1 à 50, suivi de "un théorème d'Archimède et ses conséquences". ISBN 978-2-9521458-5-5 ISSN 1767-1175, broché, 336 pages. Novembre 2010. http://scmsa.eu/livres/SCM_LLTT_order.pdf

Bernard Beauzamy : "Comment décider et gérer un programme de recherche scientifique ? Manuel pratique à l'usage des entreprises". SCM SA, ISBN 2-9521458-1-4, ISSN 1767-1175, broché, 128 pages. Mars 2005. http://scmsa.eu/livres/SCM_MGR_order.htm

Les compétences de la SCM

Elles portent sur tout ce qui peut être traité de manière quantitative. Ce peut être collectif (statistiques) ou individuel (optimisation d'un process particulier). Voir nos fiches détaillées : http://scmsa.eu/fiches/fiches.htm. Nos principaux domaines d'intervention sont :

- Qualité des données : détection de données aberrantes, reconstruction de données manquantes, régularisation des données bruitées, amélioration des systèmes d'information. Nous avons écrit deux livres sur ces questions, détaillant les méthodes que nous employons.

Principale référence : Nuclear Energy Agency (OCDE) : détection de données aberrantes dans les bases de données nucléaires, 2010-2012, 2014, 2015, 2016, 2017.

- Amélioration des process métier : contrôle de la qualité, hiérarchisation des paramètres intervenant lors d'un process (déterminer ceux qui sont critiques et doivent être surveillés en particulier), définition d'une maintenance préventive, amélioration des réglages, réduction de la variabilité du process en sortie.

Références : SNECMA Propulsion Solide : amélioration de la fiabilité des composants, ArcelorMittal : amélioration de la qualité des aciers spéciaux, Naval-Group : amélioration du soudage par faisceau d'électrons.

Analyses de sûreté, tout particulièrement dans le domaine du nucléaire ; analyse critique des rapports, analyse et quantification des risques et des incertitudes, de la fiabilité, prise en compte des phénomènes extrêmes, rédaction des démonstrations de sûreté, analyse des dysfonctionnements des capteurs, dimensionnement des réseaux de surveillance.

Références : Convention-cadre avec l'IRSN, 2010-2015 : Méthodes probabilistes pour la sûreté nucléaire. EDF/SEPTEN, 2015 : Prise en compte des incertitudes dans les Etudes Probabilistes de Sûreté. ANDRA, 2016 et 2017-2018 : Optimisation du placement de capteurs dans un site de stockage de déchets radioactifs.

Assistance scientifique aux grands projets : analyse des hypothèses faites du point de vue de leur validité, critique prospective, analyse de rentabilité, expertise scientifique d'ensemble, contre-expertise.

Références : Secrétariat Général de la Défense Nationale, 1998-2002 ; Axa Private Equity, 2010 : analyse critique de la rentabilité de filières énergétiques ; Siemens-France, 2011 : modes de transport pour le "Grand Paris" ; SNCF, 2016 : acceptabilité et rentabilité d'une ligne nouvelle.

Amélioration de la politique commerciale : analyse des comportements de la clientèle et des situations "à risque", définition de tableaux de bord, d'outils marketing et construction de panels de consommateurs.

Références : Rhodia, puis Solvay : Prévision des ventes mondiales d'automobiles, 2009-2010, 2012-2014 ; Monceau Assurances, 2014, 2017-2018 ; Carrefour/Bazar, 2016-2017.

Défense : Contre-mesures, vulnérabilités, algorithmes temps réel, algorithmes embarqués, simulations, jeux de guerre, traitement de l'image. Leurrage anti-missiles (guidage IR et visible) et anti-torpilles.

Références : US Army Research Office, DGA, Etats-Majors (EMAA, EMM). Dernier contrat : le "Bouclier Naval" : protection d'un navire de surface contre une menace terroriste à courte portée, en cotraitance avec Thales Naval France et TDA Armements, la SCM étant responsable de la faisabilité du système complet.

Transports : comparaison de divers modes de transports, organisation, rentabilité, maintenance, sécurité, amélioration de la logistique, planning de remplacement d'équipements.

Références : RATP, 2016 : Assistance à la définition du planning de remplacement pour des équipements critiques ; SNCF Réseau, 2016 : Analyse des scénarios relatifs à une ligne nouvelle ; RATP, 2016-2017-2018: Comportement des trains en freinage d'urgence ; RATP, 2017 : Outil de simulation pour les trains de travaux; SNCF/Transilien, 2017 : Analyse des déplacements près de la Défense.

Environnement : politique de l'eau, maintenance des réseaux ; caractérisation et propagation des pollutions, dans l'eau, dans l'air, dans les sols. Reconstruction à partir de données incomplètes.

Références : contrat cadre "Méthodes probabilistes pour l'environnement", avec l'Agence Européenne de l'Environnement (2006-2010, 2011-2015) ; Direction Générale Energie-Climat, MEDD : définition d'une méthode statistique robuste relative à l'évaluation de la qualité de l'air 2014-2015.

Le crépuscule des données

Il y a, depuis quarante ans, une tendance nette : abandon de l'approche scientifique, qui se caractérise par des données, des faits, des observations, au profit de consensus, souvent dominés par la crainte. C'est le principe de précaution, c'est le Grenelle de l'Environnement.

La SCM s'efforce de comprendre les lois de la Nature et de les restituer en langage approprié, de manière à permettre la prise de décision, après analyse des données disponibles. Nous sommes là pour apporter un compte-rendu aussi objectif que possible. Nous n'avons pas à nous soucier des consensus.

Le propriétaire d'un champ fait appel à un géologue pour savoir si son champ recèle du pétrole ; il paie le géologue, mais celui-ci doit fournir une réponse honnête, reflétant la réalité de ses investigations. Le géologue rapporte la réalité des lois de la Nature ; ses conclusions ne sont pas là pour faire plaisir à ses clients.

Pour nous, c'est Satan qui est à l'origine des lois de la Nature : elles ne sont en aucune manière disposées à favoriser l'espèce humaine, dont les bavardages prétentieux sont sans effet.

L'approche scientifique reconquerra un jour droit de cité ; l'humanité, avant Grenelle, a connu bien des périodes d'obscurantisme et en est finalement sortie. Entre Aristarque de Samos et Copernic, 1 800 ans se sont écoulés, pendant lesquels tous les scientifiques étaient persuadés que la Terre était immobile et que les planètes et le Soleil tournaient autour. Un jour viendra où Nuremberg succèdera à Grenelle.

Retour page d'accueil


Les mathématiques sont là pour comprendre les lois de la Nature ; c'est Satan qui les a conçues.


compteur visiteurs depuis octobre 2018