Lui, c’est un dinosaure de l’informatique. Il a connu l’initialisation de l’ordinateur par ruban perforé, le stockage en bandes magnétiques, les logiciels en bacs de cartes perforées. Son jeune esprit fut nourri des théories et recherches à propos de ce qui était calculable ou pas, de ce qui était logiquement démontrable ou pas, de ce qui pouvait être vérifié en regard de normes de qualité ou pas. Il a atteint la fin du jeu Wizardy, assis en tailleur devant son Apple II après des semaines de séances nocturnes et seulement après cet exploit, il a rejoué en trichant. Dans sa carrière professionnelle, il a vécu beaucoup de projets, comme programmeur, auteur de logiciels, responsable informatique en entreprise, consultant spécialisé… animateur de groupes d’utilisateurs pilotes.

Aujourd’hui, le dinosaure dit qu’il a peur.

Pas du tout de sa propre obsolescence.

Ce qui le terrifie, ce sont les mauvais usages des techniques informatiques en grand public, l’obligation d’inconscience subie par ses successeurs informaticiens. Le résultat : une forme d’esclavage mental de tout le monde.

Il exagère.

A côté de cela, il rigole quand il entend parler d’intelligence artificielle, de big data, d’ordinateurs quantiques, de ville cybernétique.

C’est son côté ringard, sans imagination ! Pour lui, le facteur humain est plus qu’une contrainte, c’est la loi de la nature, et plus dure sera la chute si on l’ignore - comme dans une morale de fable.

Voici donc l’un des récits destinés à l’édification des générations futures qu’il nous rabâche régulièrement. Dans cette version écrite, il enjolive les détails, et la chute s’étale comme une anecdote pourrie qui rebondit mal en digressions philosophiques, je le dis juste comme une excuse pour le découpage et les titres que j’ai ajoutés..

Récit d’une Intime sommation

Deux jours avant mon départ à la retraite, je rejoue l’intégralité des jeux d’essai d’une grande suite logicielle, une intégration de progiciels et de logiciels préexistants. Les fonctions sont des grands classiques en gestion d’entreprise : comptabilité, comptabilité analytique par affaire, gestion des stocks et approvisionnements, gestion des matériels et de leur entretien, planification des activités par affaire, gestion du personnel, etc. Les logiciels sont répartis entre plusieurs ordinateurs mais c’est invisible pour les utilisateurs, tout se fait par navigateur Internet. C’est un système complexe à l’échelle d’une entreprise répartie géographiquement en plusieurs unités exerçant dans divers domaines techniques pour diverses clientèles, toutes spécialisées dans les expertises, études, prototypages, essais.

Pour simplifier, j’appellerai ce gros bidule le système Tirex, en référence au Tyrannosaurus Rex, vous verrez pourquoi. Dans la réalité, il portait un nom fait pour évoquer l’harmonie et la liberté.

La cérémonie de test final, en prélude d’une réception formelle du Tirex, se déroule sous les regards attentifs des chefs de projet des maîtres d’œuvre industriels, ceux qui ont piloté la réalisation des logiciels principaux. Je suis l’unique testeur, en tant que représentant du client désigné pour un parcours complet des jeux d’essai sans perturbation. L’enjeu est grand, le projet ayant accumulé des mois de retard. Mais cette fois-ci, après des dizaines de séances de test par les groupes d’utilisateurs, et plusieurs tentatives de recette terminale, il paraît que tout est bon.

Pourtant, l’incroyable se produit.

Après l’introduction de plusieurs rapports d’activité sur une affaire, je découvre que la somme dans le tableau de synthèse est fausse. Je répète le test et je confirme…. L’ingénieur spécialisé des industriels est appelé en urgence… Oui, c’est bien dans la communication entre les ordinateurs que quelque chose foire, entre l’enregistrement des rapports d’activité et la production du tableau de synthèse.

Le lendemain, je ne réponds pas au téléphone ni aux emails de mon chef de projet, qui veut me convoquer pour une « explication » devant les maîtres d’œuvre. Expliquer quoi, comment, pour quoi faire ? Le puissant Tirex ne sait pas faire une addition ! Je suis tétanisé, effondré sur mon bureau, quelques heures avant la fin de ma vie professionnelle, quelques heures avant de me traîner pour rendre mes badges et disparaître – sans pot de départ.

La réaction des industriels maîtres d’œuvre s’est manifestée au plus haut niveau par un message direct de Big Boss à Big Boss. J’en ai reçu une copie par mon grand chef de projet « M. X a cru trouver un bogue qu’il a qualifié de critique bloquant, et bla bla et bla bla… ».

Nos grands industriels maîtres d’œuvre trouvaient donc qu’ils étaient victimes d’une malchance tellement improbable qu’elle était réfutable par une frappe des foudres hiérarchiques. Il est exact que la séance de test réunissait plusieurs circonstances exceptionnelles. Comme testeur, j’étais peut-être la seule personne dans un rayon de milliers de kilomètres à pouvoir détecter ce type de bogue-là - dans un état de totale abnégation quelques heures avant de partir à la retraite, en régression 40 ans en arrière, comme ingénieur système débutant mais déjà expérimenté dans la détection des bogues de communication entre plusieurs ordinateurs. Pas de chance pour nos vaillants industriels convaincus de leur infaillibilité…

Plutôt que de réagir de manière enfantine dans la perspective désagréable d’un nouveau délai avant le paiement des montants associés à la livraison du Tirex, les industriels auraient plutôt du considérer qu’ils avaient bénéficié d’un quasi miracle. Car sinon, si le bogue n’avait pas été détecté ce jour-là, le ciel leur serait tombé sur la tête quelques mois ou semaines après la mise en service ! Combien de journées d’experts et de procédures aurait-il fallu alors pour découvrir le défaut et le corriger ?

Intsys.jpg

Pourquoi ce bogue élémentaire n’avait-il pas été détecté auparavant ? Les ingénieurs et techniciens qui avaient créé l’architecture matérielle interne et paramétré les relations entre les logiciels répartis entre plusieurs machines s’étaient probablement contentés de tests du bon fonctionnement apparent, « si cela ne plante pas, c’est forcément bon ». Mais par la suite, comment avait-on pu laisser passer un tel défaut monstrueux au cours de dizaines de séances de tests par des groupes d’utilisateurs de diverses unités de l'entreprise ? En réalité, le bogue avait été certainement détecté confusément, c’est-à-dire pas dans des conditions autorisant une identification formelle. En effet, dans une séance de test en groupe, plusieurs utilisateurs suivent leurs propres jeux d’essai en parallèle, et il leur devient alors difficile de repérer une erreur dans un tableau de synthèse, d’autant plus en repartant des données créées au cours de séances précédentes, et d’autant moins que les résultats erronés demeurent vraisemblables (ce qui est le cas si la cause est par exemple un décalage entre tampons à additionner). De plus, un utilisateur pilote se concentre naturellement sur les imperfections et les difficultés en anticipation de son propre usage, pas sur la mise en cause de fonctions élémentaires, et est souvent interrompu dans ses activités de testeur par des appels urgents pour la poursuite de ses activités courantes, d’où une attention intermittente.

Il m’a fallu plusieurs semaines pour parvenir à m’expliquer tout cela, la fureur du grand maître d’œuvre d’ensemble, la sidération du grand chef de projet, la possibilité de la découverte extrèmement tardive d’un bogue des profondeurs. C’était finalement par une logique naturelle que la découverte d’un défaut permanent aussi grossier ne pouvait plus être que tardive et par accident, à partir du moment où il n’avait pas été repéré par les procédures de tests de son niveau basique.

Beaucoup plus tard (après 2010), j’ai appris par d’ex collègues que le système Tirex avait finalement été mis au point, y compris la correction de « mes » bogues, et que les applications étaient en service dans l’entreprise sans incident notable.

Fatalité du bricolage numérique

Mon histoire de bogue s’arrête là, pas les conclusions qu’on devrait en tirer ! Si pour vous, tout est bien qui finit bien comme dans les histoires banales de tous ces gens qui racontent comment ils ont sauvé le monde, vous n’avez rien compris !

Le message premier est que la mise en application accélérée de progrès technologiques nous rend vulnérables, dans des proportions inconnues, à des risques inimaginables. C’est à comprendre au niveau de notre société numérisée toute entière, comprenant chaque service public, chaque entreprise, chaque citoyen.

Les nouvelles technologies peuvent reposer sur des normes élaborées par de grands universitaires, leurs réalisations peuvent avoir été élaborées et contrôlées selon des processus rigoureux, c’est mieux que rien, mais ne croyons pas que la sécurité absolue soit atteignable ailleurs que dans un univers conceptuel idéal – et stable toutes choses par ailleurs.

A l’époque de mon histoire vers 2010, les nouvelles technologies informatiques dans les domaines applicatifs se concentraient dans les plates formes de « webisation » et ce qu’on appelait le middleware, en gros les équivalents fonctionnels de serveurs d’emails entre ordinateurs. A présent, on nous parle de technologies informatiques dont on sait à peine expliquer le fonctionnement, et on envisage de nous brancher sur les générations technologiques successives de ces merveilles potentielles… Par pitié pour nous-mêmes et nos infrastructures communes, limitons leurs usages à des applications ludiques ou à des armes de prestige !

J’insiste sur un autre point : si toutes ces prétendues innovations étaient conçues au bénéfice de l’humanité, ou simplement en support de notre humanité poétique, on pourrait en accepter quelques inconvénients. Mais ce n’est pas le cas, les innovations informatiques conçues comme telles, c’est-à-dire quasi expérimentales, sont introduites à jet continu partout dans les infrastructures numériques de nos sociétés.

En plus, ces innovations servent des objectifs de court terme, en gains financier apparents ou pour une gloire publicitaire, ce qui ne devrait logiquement jamais être le cas pour des innovations, si on les prenait au sérieux.

Par exemple, le projet de système d’entreprise Tirex s’était substitué, à la suite d’intrigues internes, à un projet précédent moins imposant, dont le coeur était un groupware interne destiné au partage de l’expérience et au développement des compétences. Ce projet abandonné correspondait pourtant bien aux cultures techniques de l’entreprise. Mais dans une logique purement gestionnaire et dans le respect absolu de l’organigramme des fonctions, on avait préféré la normalisation d’applications classiques à la capitalisation des atouts spécifiques de l’entreprise, à l’innovation dans le progrès humain.

Autrement dit, les nouvelles technologies de Tirex n’ont servi qu’à instrumenter un (faux) gain de gestion courante au lieu d’ouvrir un champ nouveau dans le développement de l’entreprise. D’aimables conférenciers avaient pourtant exposé aux cadres privilégiés les concepts à la mode de la saison. A l’époque : l’urbanisation des systèmes d’information et la gouvernance (de quoi ?). C’était évident sans ce vocabulaire savant, Tirex était le produit d’un schéma directeur de centralisation informatique à l’ancienne, pas d’une conception de système d’information ouvert sur le monde et pour les gens.

Est-ce encore le point de vue gestionnaire et la vantardise technologique qui priment dans les motivations et justifications des projets informatiques que vous connaissez ? N’est-ce pas encore pire dans l’informatique grand public, en remplaçant « gestion courante » par « exploitation des masses » ?

Pour en revenir à la vulnérabilité technique de notre société numérisée, plutôt que nous ébahir devant les exploits de pirates et les promesses de faiseurs de vent ne serait-il pas urgent d’examiner en profondeur comment notre société numérisée pourrait survivre, au minimum en prolongeant ses fonctions critiques en cas de catastrophe accidentelle ?

En réalité, la société numérisée est déjà victime d’une catastrophe permanente, par défaut de conception d’ensemble et absence de maîtrise. Les petites et grosses pannes sont les manifestations ponctuelles de ce défaut sui generis.

Induss.jpg En effet, l'analogie avec des infrastructures industrielles matérielles est trompeuse. Notre société numérisée, fondée sur des systèmes informatiques en réseaux, est le résultat de créations composites réalisées (finalisées ?) chacune selon sa logique propre, selon l’état de la technologie du moment, et au moins partiellement en superposition d’autres créations plus anciennes, sans vision globale – heureusement, quelques normes (elles-mêmes évolutives) permettent les interactivités entre systèmes et avec leur périphérie. Autrement dit, l’informatique et les réseaux de notre société numérisée n’ont pas été conçus globalement comme une création durable cohérente mais sont les produits de pulsions. Notre société numérique est assimilable à un méga bricolage, en analogie à un navire en pleine mer, avec un équipage suractif qui enchaînerait séparément et simultanément les projets de modernisation de la navigation, de la propulsion, des aménagements, des manutentions, de la sécurité incendie, de la cuisine, des transmissions, etc. en utilisant une merveilleuse boîte à outils magiques toujours renouvelée, sans s’occuper du maintien de la flottabilité ni de la résistance aux vagues géantes à venir dans la prochaine zone de navigation. La croissance folle de la complexité et des incohérences techniques de notre société numérisée va provoquer son effondrement, de multiples manières que nous ne pouvons pas imaginer, vicieuses, progressives, pas du tout comme une brutale panne d’électricité temporaire ou alors seulement tout à la fin….

La réalité présente est que ce danger technique n’est absolument pas compris. Combien de défaillances grossières faudra-t-il pour cela ?

Tout récemment vers mi 2021, une longue panne des numéros d’urgence (pompiers, police, urgences médicales) a surélevé le niveau hebdomadaire des informations déprimantes sur le fonctionnement des services publics en France. Le prestataire responsable, après enquête et consultation de ses spécialistes en communication, a déclaré que l’origine était une opération de mise à jour d’un logiciel. On peut considérer cette déclaration comme une preuve supplémentaire qu’il demeure plus convenable de faire porter le poids d’une faute sur un logiciel – comme un genre de production artistique en perpétuelle amélioration et dont il faudrait bien admettre les risques de défauts provisoires - plutôt que sur les dysfonctionnements d’un système qu’à l’évidence on ne maîtrise pas en tant qu’ensemble fonctionnel. Dans la même ambiance de clip publicitaire, on nous vante l’intelligence artificielle et les réseaux en nouvelle technologie 5G, vive le progrès !

Qui peut sérieusement faire semblant de croire que ce genre de panne est un accident isolé ?

Pour une reconstruction modulaire de la société numérisée

On n’affronte pas la menace de réalités fatales en se vautrant dans les rêves, ni par des opérations mentales de suremballage conceptuel. Les méthodes les plus raffinées d’assurance du bon fonctionnement des systèmes informatiques ne garantissent rien quand elles sont appliquées sans l’intelligence du contexte, sans la compréhension du métier des utilisateurs, sans le respect des niveaux des services dus aux citoyens. Les ressources financières, la puissance des moyens, les algorithmes… ne sont rien sans les personnes capables de reconnaître les limites de leurs compétences personnelles, capables de se réaliser dans une vaste construction collaborative.

Destruct.jpg

Au début de ma carrière dans les années 70, il était naturel qu’un « ingénieur système » soit présent à chaque étape d’un développement informatique complexe en réseau d’ordinateurs, de terminaux, de capteurs et d’automates, pas seulement jusqu’à la livraison, mais au-delà, pour la maintenance. C’était indispensable parce que les composants des systèmes souffraient d’une fiabilité réduite, et l’une des tâches courantes de l’ingénieur système était le diagnostic des pannes, en particulier le discernement entre les défaillances matérielles et les défauts des logiciels. Pour résister au moins partiellement à de telles conditions de soumission à des pannes diverses et imprévisibles, la conception des architectures des systèmes de l’époque devait être modulaire selon des principes simples, et cette modularité faisait que la logique architecturale d’ensemble était comprise par chaque contributeur spécialiste. Et alors, tout naturellement, l’intégration d’un système complexe avait un sens concret, comme ouvrage à réaliser, comme processus en cours, comme support de motivation collective. C’était l’époque des informaticiens artisans, dans la tradition modernisée des constructeurs des aqueducs (et des égouts) de l’antiquité.

Blackor.jpg En comparaison, l’informaticien du temps présent serait l’équivalent d’un ouvrier spécialisé des années les plus sombres de la révolution industrielle, et peut-être pire dans certains cas, un esclave doublement enchaîné, physiquement et mentalement. Les dentellières à domicile des temps anciens conservaient leur liberté mentale durant leurs travaux et pouvaient partager leurs astuces de fabrication avec leur voisinage, ce n’est plus le cas pour le travailleur intellectuel à distance, orphelin social d'utilité provisoire constamment remis en concurrence avec ses clones. Pour faire comprendre une autre singularité de notre époque et les risques qu’elle crée, je caricature encore plus lourdement, en référence à mon histoire de bogue d’additions fausses : nos informaticiens concepteurs savent-ils encore faire une addition autrement que sur leurs smartphones, et les conditions d’exécution des procédures de test des systèmes sont-elles adaptées aux contraintes d’un environnement mental de multiples activités parallèles de messagerie, d’écoute de musique en continu, de visualisation de vidéos, d’interruptions urgentes ?

La question de la discipline de métier et de la dignité individuelle du technicien dans la société doit être posée. On ne peut pas empiler les projets informatiques comme si on voulait confier le fonctionnement numérisé de la société à des automates toujours plus puissants et plus clinquants. Sinon, toutes nos fondations sociales vont continuer de s’écrouler dans les illusions de progrès et dans le confort apparent du temps présent, n’est-ce pas déjà évident ?

Reprendre le contrôle sur la pagaille technologique que sont devenues les infrastructures de nos sociétés, ce sera une révolution – ou plutôt une reconstruction.

Ce qui me fait peur, c’est l’ignorance de l’urgence technique et de son immense potentiel de régénération de nos sociétés, y compris au plan humain et même au plan économique. En niveau d’urgence, de gravité, de développement humain, c’est équivalent à l’écologie.

Qui est en responsabilité au niveau de la société numérisée dans sa globalité ? Qui est en charge ? Qui saurait faire ?

Menaces réelles et défauts conceptuels

La menace d’effondrement de la société numérisée est, comme la menace écologique, une menace déterministe au sens où aucune régulation naturelle ne pourra tout arranger, au contraire, la certitude est que par continuité, tout sera toujours tendanciellement pire. Les manifestations de la menace peuvent être en apparence locales et aléatoires, plus ou moins maîtrisables en ampleur et durée, la croissance de la fatalité des impacts est certaine.

La menace technique sur la société numérisée n’est pas moins fatale que la menace écologique sur la société dans son ensemble, toutes choses égales par ailleurs. Elle le sera d’autant moins si nous laissons les deux fatalités, société (mal) numérisée et écologie, se combiner !

De toute façon, la reconstruction d’une société numérisée ne peut plus s’envisager indépendamment de la menace écologique. Cette reconstruction devra contribuer à réduire les effets de la menace écologique. La révolution numérique devra reprendre son sens originel, pour le développement humain.

Je risque une critique de deux façons de penser qui me semblent dangereuses en tant que leviers de décision, pour ce que j’en comprends.

Ideff.jpg D’abord, la rétro utopie, autrement dit la projection de l’avenir au conditionnel passé. Je prends comme exemple du genre un rapport d’étude intitulé « Biorégion 2050 L’ile-de-France après l’Effondrement « (Institut Momentum 2019). Je lis ce rapport comme une extrapolation à partir de l’état de l’Ile-de-France vers 1850, où Paris contenait au total environ 2 millions d’habitants, principalement des artisans et des ouvriers d’ateliers artisanaux, avec des champs maraîchers autour de la capitale et plus loin une campagne nourricière peuplée de villages agricoles. La rétro utopie consiste à décrire l’état de la société qui aurait pu émerger si, au lieu d’une révolution industrielle massive à partir de 1850, la société avait évolué tranquillement, en limitant les avancées technologiques à celles qui n’impliquent pas la multiplication des centrales d’énergie et en plafonnant les éléments de confort individuel à ceux qui n’impliquent pas une production en usines ni l’emploi massif du pétrole et de ses dérivés. Alors jamais la concentration actuelle d'une douzaine de millions d’habitants n’aurait pu se former, du fait de l’impossiblité physique de fournir l’alimentation suffisante d’une telle population : pas de pétrole, donc pas de camions ni de routes faute de bitume… C’est un roman, car on ne voit pas comment on pourrait passer de notre état présent vers un tel état rétro utopique dès 2050 à moins que l’effondrement cité en titre ne soit le produit de la déflagration d’une bombe à neutrons. Cependant, le message politique à l’intention des dirigeants actuels est évident, concernant notamment les projets susceptibles de favoriser l’urbanisation extensive, les opérations de prestige consommatrices de ressources, les usages destructeurs de la nature, et surtout en contraste à leur absence de vision d’avenir à 20 ans. Mais en quoi le procédé de rétro utopie pourrait-il provoquer une remise en cause de décisions politiques toutes fondées sur le court terme, toutes choses égales par ailleurs ou n’évoluant qu’à la marge par de lentes dérives prévisibles par simple extrapolation ? Devant la certitude d’un effondrement, la réaction raisonnable serait celle de l’autruche, en attendant que le monde change pour nous offrir un habitat rénové et sécurisé ?

Catas.jpg Ensuite et en synergie potentielle, le Grand Pari, que je reformule en libre adaptation du Pari de Pascal : la probabilité inconnue même infime d’un événement ayant des conséquences possiblement très favorables (ou très défavorables), nous devons la traduire immédiatement dans nos vies par des actes ou changements de comportement spécifiques en prévision de ces conséquences. Cette formulation intègre un principe d’ultra précaution face à la possibilité d’un événement très défavorable, même de probabilité infime. Cette formulation intègre un principe de projection ultra optimiste dans la perspective d’une issue très favorable, même de probabilité infime. Il est malheureux que des formulations analogues forgées dans l’urgence des actualités puissent être considérées en justification de grandes décisions politiques comme de nos petites décisions individuelles. En effet, l’emploi d’un langage probabiliste est ici abusif, ce sont de véritables inconnues qui sont artificiellement mises en comparaison pour énoncer un pseudo critère en vue d’actions immédiates. Comment ne pas reconnaître un ressort favori de l’argumentation fallacieuse du manipulateur, ou de la prétendue justification d’un comportement qui s’est fermé à la réflexion ? Une démarche proprement scientifique commencerait par s’intéresser aux inconnues dans l’énoncé du principe, et le levier du principe serait un sujet de controverse. Au contraire, l’application pratique du principe du Grand Pari suppose la persistance des inconnues dans leur état d’inconnues, avec un investissement dans leur élaboration sous une forme de plus en plus confuse afin de préserver quoi qu’il en coûte la validité forcée des décisions prises et le renoncement mental des assujettis… Ce Grand Pari est une grotesque singerie intellectuelle, un simulacre de raisonnement. Malgré cela, le principe du Grand Pari a fait abondamment la preuve de sa nuisance dans l’Histoire et dans l’actualité, spécialement dans les phénomènes d’épidémies psychiques. A quoi nous servent nos médias modernes et la puissance des nouvelles technologies face à de telles armes de manipulations grossières ?

Comprev.jpg Méfions-nous des arguments des prétendus faiseurs de science qui servent des pouvoirs, des idéologies, des croyances, des ambitions, des positions acquises - encore plus quand ils prétendent se justifier par des statistiques en pourcentages. Leurs méthodes de manipulation s’appuient sur des abus de langage autour du mot « scientifique » qu’ils brandissent comme un bâton de commandement. Bien entendu, des vérités scientifiques existent à un instant donné, mais elles peuvent changer dans le temps et se contredire, et même leurs fondements logiques et mathématiques ne sont pas éternels. Dès lors, l’expression journalistique « la vérité scientifique » (implicitement immuable) ne peut être qu’un oxymore, un collage grossier en vue d’induire une obligation d’adhésion aux affirmations introduites par cette expression de référence. De manière analogue, on peut parler d’une autorité de la science en référence aux vérités, méthodes, incertitudes et inconnues de la science du moment, mais on ne devrait jamais utiliser le terme « autorités scientifiques » pour des organismes ou des personnes. Quant à l’ »innovation scientifique », elle semble occuper l’antique fonction d’évocation du miracle. D'ailleurs, pourquoi vouloir associer systématiquement le miracle au domaine scientifique, comme si la science avait un pouvoir créateur de société, en plus en admettant de fait que l'on puisse fonder un programme de société sur une espérance miraculeuse ? En quoi serions-nous plus réceptifs aux miracles que nos ancêtres dans les cas où les conséquences de ces miracles nous obligent à modifier des habitudes de vie, des façons de penser – ou alors faudra-t-il d'autres miracles d'une dimension supérieure pour que les conséquences des petits miracles "de la science" soient acceptées ? Passons...

Très simplement, je préfère considérer la démarche scientifique comme une esthétique d’apprivoisement de l’inconnu. C’est une forme de discipline mentale indifférente aux certitudes, joueuse avec les incertitudes, en interaction avec l’expérience des techniques réalisatrices.

Au niveau de la pratique, l’expérience technique sous toutes ses formes doit être valorisée, pas seulement le savoir technique enregistré, l’expérience de chacun dans son humanité. Il y a tant à faire et à comprendre. Notre époque est inédite, c’est à partir de cette réalité que nous devons exploiter les héritages de nos anciens.