La transformation des organisations et des hommes
  • +33 (0)1 85 54 20 20
  • Paris - 75 Rueil Malmaison 92
Prendre RDV
#Whatinspiresme | D’où l’importance de considérer comme un cadeau ceux qui pensent que votre idée n’ira pas au bout ! A lire en entier, à la fois drôle et inspirant…
#Whatinspiresme, Business, Transformation

#Whatinspiresme | D’où l’importance de considérer comme un cadeau ceux qui pensent que votre idée n’ira pas au bout ! A lire en entier, à la fois drôle et inspirant…

Qu’est-ce que la prospective ? À quoi sert-elle et à qui ? Si celle-ci consiste à investiguer des futurs envisageables, elle n’est pas l’art de la prédiction. Pour comprendre le futur, l’appréhender le plus justement possible, il est nécessaire de bien connaître le passé et de savoir observer tous les signaux à notre disposition dans le présent.

« Internet ? On s’en fout, ça ne marchera jamais. » – Pascal Nègre, alors président-directeur général (PDG) d’Universal Music, en 2001.

Pour les nombreux experts en expertise, chaque début d’année est l’occasion de livrer au monde ce que leur boule de cristal leur a révélé entre la bûche et le Nouvel An. Tendez l’oreille… Bienvenue en 2030, 2050, voire 2070 pour les plus chanceux d’entre nous !

Ces généreuses confidences sont d’autant plus pratiques pour leurs auteurs qu’il leur arrive rarement de devoir rendre des comptes a posteriori. Il est vrai qu’à l’heure des bilans, il est souvent plus excitant de se tourner vers… l’avenir, encore une fois.

Une fois n’est pas coutume, rembobinons la pellicule. Signaux Faibles vous invite ici à une rétrospective de certaines des plus belles prédictions formulées depuis l’ère industrielle.

Personne n’est immunisé contre un joli loupé

Ni les économistes, Prix Nobel ou pas

« La croissance d’Internet va ralentir drastiquement, car la plupart des gens n’ont rien à se dire ! D’ici 2005 environ, il deviendra clair que l’impact d’Internet sur l’économie n’est pas plus grand que celui du fax. »

Ce pronostic a été formulé par Paul Krugman en 1998, dans un article intelligemment intitulé « Pourquoi la plupart des prédictions des économistes sont fausses ». Sûr de son fait, il ajoutait ensuite : « Avec le ralentissement du taux de changement technologique, le nombre d’offres d’emploi pour spécialistes IT (Information Technology, ndlr) décélérera, puis se renversera ; dans dix ans, l’expression “économie de l’information” semblera stupide ».

Dix ans plus tard exactement, en 2008, Paul Krugman remportait le prix Nobel d’économie… pour d’autres analyses, fort heureusement.

Ni les plus prestigieux cabinets de conseil en stratégie

Un exemple est resté célèbre en la matière : le cas AT&T et McKinsey.

Au début des années 1980, l’opérateur téléphonique AT&T demanda au (très réputé) cabinet McKinsey d’estimer combien de téléphones portables seraient utilisés dans le monde au tournant du siècle. La conclusion de McKinsey fut sans appel : en raison de défauts rédhibitoires (poids trop important, batteries trop faibles, coût exorbitant, etc.), le téléphone portable ne risque pas de devenir un succès.

McKinsey estima que seules 900 000 personnes environ utiliseraient en l’an 2000 un téléphone portable ; plus encore, le cabinet pronostiqua que personne n’utiliserait ce type d’appareil si une ligne téléphonique fixe était disponible à proximité. McKinsey recommanda donc à AT&T de se retirer du marché des téléphones portables (coûtant à AT&T, des années plus tard, plusieurs milliards de dollars). Au tournant du siècle, le téléphone portable compta finalement plus de 100 millions d’utilisatrices et utilisateurs, soit plus de cent fois le pronostic initial.

Ni les PDG de grandes entreprises

  • « Le cheval est là pour rester, mais l’automobile est juste une nouveauté, une mode. » – Le président de la Michigan Savings Bank conseillant le juriste de Henry Ford de ne pas investir dans la Ford Motor Company, en 1903.
  • « Il n’y a aucune chance que l’iPhone gagne la moindre part de marché significative. » – Steve Ballmer, PDG de Microsoft, en 2007.
  • « Netflix, je n’y crois pas. La vidéo à la demande par abonnement, ça ne marchera jamais, il n’y a pas de marché en France. » – Bertrand Meheut, PDG de Canal+, en 2013.

Ni les dirigeants pourtant pionniers dans leur domaine

  • « Ce “téléphone” a trop de défauts pour être considéré sérieusement comme un moyen de communication. » – William Orton, président de Western Union (alors leader mondial de la radiocommunication), en 1876.
  • « La télévision ne tiendra sur aucun marché plus de six mois. Les gens en auront rapidement assez de regarder tous les soirs une boîte en contreplaqué. » – Darryl Zanuck, 20th Century Fox, en 1946.
  • « L’idée d’un outil de communication personnel dans la poche de chacun est une chimère, favorisée par la cupidité. » – Andy Grove, chef de la direction d’Intel, en 1992.
  • « Le modèle de souscription par abonnement pour acheter de la musique est une mauvaise piste. Les gens nous l’ont dit et répété : ils ne veulent pas louer leur musique. » – Steve Jobs, en 2003.
  • « Je n’ai pas envie de regarder tant de vidéos que cela. » – Steve Chen, cofondateur de YouTube exprimant en 2005 ses doutes sur le potentiel de sa plateforme.

Ni même les plus grands scientifiques ou inventeurs

  • « Le phonographe n’a absolument aucune valeur commerciale. » ; « L’engouement pour la radio s’éteindra avec le temps. » – Thomas Edison, inventeur de l’ampoule électrique, du phonographe qui deviendra un succès commercial à l’origine de l’industrie du disque, etc.
  • « Bien que la télévision soit possible théoriquement et techniquement, elle est pour moi impossible commercialement et financièrement. » – Lee De Forest, pionnier des radiocommunications, en 1926.
  • « Le cinéma parlant est une invention très intéressante, mais je doute qu’elle reste à la mode bien longtemps. » – Louis Lumière, inventeur du cinématographe, en 1929.
  • « Il n’y a pas la moindre indication que nous puissions un jour utiliser l’énergie nucléaire. » – Albert Einstein, en 1932.
  • « La téléphonie mobile ne remplacera jamais la téléphonie fixe. » – Martin Cooper, inventeur du premier téléphone mobile, en 1981.
  • « Je prédis qu’Internet sera LA grande nouveauté de 1995 et s’effondrera avec fracas en 1996. » – Robert Metcalfe, co-inventeur d’Ethernet, en 1995.

***

Si ces prédictions ratées abordent ici surtout l’innovation, en particulier technologique, bien d’autres exemples auraient pu être présentés (finance, politique, etc.). Pensons par exemple à toutes celles formulées juste avant 2007 qui évacuaient l’hypothèse d’une crise. Mais plutôt que de chercher à rallonger la liste, tentons d’en comprendre les raisons…

Les raisons de ces erreurs

Daniel Jeffries, blogueur américain, a mis en avant dans un article plusieurs facteurs pour expliquer pourquoi les experts se trompent ainsi dans leurs prédictions :

1. Ils consacrent trop peu de temps à un sujet avant de se forger une opinion

Parfois en raison d’excès de confiance en soi. L’effet Dunning-Kruger, dit de la surconfiance, montre ainsi que les moins qualifiés dans un domaine donné ont tendance à y surestimer leur compétence. Ce biais les empêche de reconnaître qu’ils ne maîtrisent pas le sujet en question. Le phénomène a été démontré par les chercheurs Kruger et Dunning dans un article paru en 1999.

Parfois en raison de paresse intellectuelle. C’est ce qu’explique Nadia Maïzi, directrice de recherche aux Mines ParisTech et spécialiste de prospective sur le climat et l’énergie, qui regrette chez de nombreux décideurs une «perte d’effort intellectuel dans les réflexions sur le long terme » (interview sur France Culture dans l’émission Du Grain à moudre du 3 janvier 2019, intitulée « Peut-on modéliser le futur ? »). Elle insiste sur l’importance, « quand on est dans des réflexions sur le long terme », d’éviter de « capter un chiffre ou un autre parce que c’est celui qui nous intéresse, ou parce que c’est celui qu’on avait au départ » et de bien considérer « l’ensemble des possibles ».

2. Le futur va à l’encontre de tout ce qu’ils comprennent du monde

Un exemple typique est celui des choix de la France :

  • De ne pas avoir considéré avec sérieux les travaux du chercheur français Louis Pouzin dans les années 1970, qui préfiguraient pourtant les fondations d’Internet. Poussé par les PTT (ancêtres de France Telecom et La Poste), l’État a choisi de couper le financement de ses travaux, qui ont été ensuite en partie repris par le chercheur américain Vinton Cerf pour la mise au point du protocole TCP/IP, fondement d’Internet.
  • De s’être obstinée jusque dans les années 1990 à ne pas croire en Internet. Rappelons ici les conclusions du rapport Théry, intitulé « Les autoroutes de l’information », remis en 1994 au gouvernement (qui voulait se faire un avis sur le potentiel d’Internet) : « Il n’existe aucun moyen de facturation sur Internet, si ce n’est l’abonnement à un service. Ce réseau est donc mal adapté à la fourniture de services commerciaux. Le chiffre d’affaires mondial sur les services qu’il engendre ne correspond qu’au douzième de celui du Minitel. Les limites d’Internet démontrent ainsi qu’il ne saurait, dans le long terme, constituer à lui tout seul le réseau d’autoroutes mondial ».

La même année, Jeff Bezos lançait Amazon.

Durant toutes ces années, certaines voix avaient pourtant plaidé pour considérer le potentiel d’Internet. Mais les autorités ont choisi de ne pas en tenir en compte. Pour l’économiste Pierre Sabatier, « entre le Minitel et Internet, ce n’était pas une technologie contre une autre, mais une vision du monde contre une autre. Pour des technocrates français, formés dans une culture centralisatrice et autoritaire, où tout doit venir d’en haut, il était évident que la seule solution viable était la solution centralisatrice et autoritaire du Minitel. Internet misait au contraire sur l’autonomie des individus, leur esprit d’initiative et d’innovation, hors de tout contrôle, excepté celui qu’ils s’imposent d’eux-mêmes. Un tel système, bordélique et anarchisant, où l’on progresse par essais et erreurs et non selon un plan préétabli, leur était simplement incompréhensible. Logique du contrôle et de la planification contre logique de la liberté individuelle. Dès lors, comment pouvaient-ils prévoir l’explosion de créativité d’Internet, qui est une créativité individualiste ? », questionnait-il.

Il n’est dès lors pas étonnant que le rapport remis en 1994 au Premier ministre de l’époque, Édouard Balladur, ait été commandé à trois technocrates français, dont un qui était… l’un des inventeurs du Minitel ! De l’art de choisir ses experts pour son travail de prospective.

3. Le futur remet en cause leur position de pouvoir

Un exemple phare est celui de Kodak qui a refusé de voir la puissance du numérique parce que l’entreprise avait tout bâti sur l’argentique. Contrairement à une idée répandue, Kodak n’a pas découvert en retard le numérique : comme l’explique Philippe Silberzahn, professeur d’innovation à l’Emlyon, « en réalité, Kodak est l’un des tout premiers à avoir activement travaillé à la photo numérique : l’entreprise était très active dans le domaine et est à l’origine de très nombreux brevets. Parfaitement au courant du développement du numérique, puisqu’elle en était l’instigatrice, Kodak n’a pas voulu le promouvoir de manière déterminée pour une raison simple : protéger son activité principale de l’époque, la vente de films argentiques ».

Les autres exemples ne manquent pas. Pensons ainsi de façon plus récente aux réactions de certains banquiers face aux cryptomonnaies. Jamie Dimon (président-directeur général of JPMorgan Chase, l’un des vétérans de Wall Street) considérait ainsi en 2017 les cryptomonnaies comme une « escroquerie» (avant de « regretter » début 2018 l’emploi du terme quand les cours sont montés, puis de parler de nouveau d’« arnaque » en août 2018, quand les cours sont redescendus)Comme l’écrit Daniel Jeffries, « il ne peut pas concevoir un futur avec des cryptomonnaies parce qu’il fait partie des principaux bénéficiaires du système actuel. Il ne veut pas voir et donc se ment à lui-même. Ce n’est rien d’autre qu’un mécanisme de défense mental. Interroger ces gens sur les cryptomonnaies, c’est comme demander à un chauffeur de taxi ce qu’il pense d’Uber ou d’un fabricant de calèches ce qu’il pense des voitures. »

Au fond, si l’on en revient au rapport Théry cité plus haut, son raté peut se comprendre aussi sous l’angle de la position de pouvoir menacée. Comme l’écrit Philippe Silberzahn, « ce ne serait pas l’histoire d’une erreur, mais d’une tentative désespérée d’empêcher l’avènement d’une technologie pour en défendre une autre » et pour « défendre des intérêts » plutôt que d’autres. Autrement formulé, par Franck Lefevre : « Internet versus Minitel n’est pas un dilemme technique, mais un choix politique, idéologique. La position de Théry vise à défendre l’intérêt des systèmes supervisés versus les systèmes auto-organisés, l’intérêt de l’approche interventionniste versus celle misant sur la liberté des acteurs ».

4. Ils confondent leur opinion avec la réalité

« En France, on n’a pas cru en l’informatique. On a dit que c’était une mode et que ça allait passer. Dans les années 1980, dans les grandes écoles, on se demandait si l’informatique était un sujet ou pas. En 1985, à Polytechnique, on se demandait encore s’il fallait l’enseigner. » – Gérard Berry, professeur au Collège de France, médaille d’or 2014 du CNRS.

Les biais d’opinions peuvent tordre fortement la capacité à anticiper le futur (ainsi qu’à comprendre le présent et le passé). Nadia Maïzi (Mines ParisTech) raconte ainsi qu’elle obtient parfois au cours de ses recherches « des résultats pertinents sur le long terme, mais qui sont peu audibles ». Ce qu’elle illustre par un exemple : « En 2011, la Commission Besson a été mise en place juste après Fukushima pour évaluer la politique énergétique française après 2050. Dans les premiers scénarios réalisés avec notre modèle, il était apparu clairement qu’une sortie brutale du nucléaire faisait rentrer des technologies à base de charbon, donc émissives. Mais quand on a montré ça, ça n’a pas plu ».

5. Ils font preuve d’un grand manque de patience

Dans le domaine de l’innovation, plusieurs décennies sont parfois nécessaires pour qu’une invention prenne toute sa mesure (trouve son usage, rencontre son marché, soit utilisée au mieux). Dans certains cas, ce temps est incompressible en raison de la nature même du processus d’innovation, qui implique de tâtonner dans l’usage d’une invention donnée. Deux exemples, parmi de multiples autres, l’illustrent :

  • Le microscope : comme l’explique Philippe Silberzahn, « le microscope a permis de découvrir les microbes et de changer notre vision du monde du vivant, mais il a fallu presque 200 ans entre l’invention du premier microscope et l’émergence de la théorie des microbes. 200 ans pour adapter notre modèle mental à la nouvelle technologie et ses possibles ! »
  • Le Velcro (scratch) : « L’idée est venue à son inventeur pour la première fois en 1941. Le concept n’a pleinement pris racine dans son esprit que sept ans plus tard. Il a commencé à créer les petits crochets en 1948 et il lui a fallu dix ans pour le faire fonctionner et le produire en masse. Après avoir ouvert son entreprise à la fin des années 1950, il s’attendait à une forte demande immédiate. Ce n’est pas arrivé. Il a fallu cinq autres années avant que le programme spatial dans les années 1960 ne perçoive le Velcro comme un moyen de résoudre un problème : comment faire entrer et sortir les astronautes de combinaisons spatiales encombrantes et peu maniables ? Peu de temps après, l’industrie du ski a remarqué qu’il pouvait fonctionner sur les chaussures. De l’idée initiale à la réussite commerciale, il aura fallu vingt-cinq ans », expliquait Daniel Jeffries.

***

Ces facteurs explicatifs ne sont certainement pas exhaustifs. D’autres pourraient être avancés : par exemple, il arrive fréquemment qu’un interlocuteur ait un intérêt particulier à mettre en avant un certain futur plutôt que d’autres – quitte à l’exagérer sciemment, parfois en tordant des chiffres pour en prendre les plus extrêmes. Citons par exemple le fameux chiffre de 47 % des emplois qui seraient menacés par l’automatisation. Il est issu d’une étude de deux chercheurs de l’université d’Oxford, qui a été extrêmement partagée, avec parfois peu de pincettes. Or de nombreuses autres études parviennent à des chiffres bien différents. L’OCDE (Organisation de coopération et de développement économiques, ndlr), en revoyant la méthodologie de cette même étude, est arrivée au chiffre bien moins spectaculaire – qui reste tout de même préoccupant – de 9 %. Un chiffre bien moins vendeur pour un certain nombre d’acteurs (cabinets de conseil en transformation digitale, essayiste jouant sur les peurs liées à la technologie…) qui peuvent avoir intérêt à exagérer la réalité.

Les leçons à en tirer

Les facteurs cités ci-dessus conduisent à plusieurs leçons en matière de prospective. Sans chercher à être exhaustif, citons-en quatre ici.

1. Se méfier des jugements hâtifs

Savoir faire preuve d’humilité et de patience aussi bien dans ses recherches (cf. l’excès de confiance) que dans l’observation d’un phénomène (exemple du Velcro) : cette règle, qui semble évidente en théorie, n’est pas toujours appliquée en pratique comme le montrent les multiples prédictions très assertives citées plus haut. Dans bien des cas, le problème ne tient pas tant à l’erreur d’analyse – qui peut tout à fait s’entendre – qu’à l’absence de doutes sur les prédictions exprimées.

En particulier, il convient d’être très prudent avant d’affirmer qu’une innovation donnée ne connaîtra pas la réussite, qu’un changement spécifique ne pourra pas se produire, qu’un événement potentiel ne pourra pas survenir.

Dans le New York Timesen 1939, un article explique « pourquoi la télévision ne marchera pas » : « La famille américaine moyenne n’a pas le temps pour ça ».

Au fond, il s’agit plus simplement de ne pas rejeter trop vite ce qui peut sembler anecdotique au premier regard.

Ainsi, pour l’investisseur Chris Dixon, « la prochaine “big thing”commence toujours par être vue comme un gadget. C’est l’un des principaux enseignements de la théorie de Clay Christensen sur les “technologies de rupture” (Christensen est l’auteur du Dilemme de l’innovateur, paru en 1997 et considéré comme une référence sur l’innovation). Cette théorie part d’une observation : les technologies tendent à s’améliorer à un rythme plus rapide que le développement des besoins des usagers. De ce simple enseignement suivent un ensemble de conclusions intéressantes. (…) Les technologies de ruptures sont vues comme des gadgets car quand elles sont lancées, elles ne répondent pas encore aux besoins des usagers. »

« Les grandes innovations sont toujours vues au départ comme des gadgets. » – Chris Dixon

Parmi de multiples exemples (l’ordinateur personnel, la téléphonie sur IP, etc.), il cite celui du « premier téléphone », qui « ne pouvait porter des voix que sur deux ou trois kilomètres » : « Le leader en télécommunication de l’époque, Western Union, n’a pas voulu s’y lancer parce qu’il ne voyait pas comment le téléphone pouvait être utile aux entreprises et aux chemins de fer – leurs principaux clients. Western Union n’a pas anticipé la rapidité avec laquelle la technologie du téléphone et son infrastructure se sont améliorées ».

2. Ne pas croire que les évolutions sont forcément linéaires

Ce que Western Union n’a pas saisi à l’époque, écrit Chris Dixon, tient à une caractéristique du secteur technologique : l’adoption des technologies s’effectue souvent de façon non linéaire, en raison des effets de réseau capable d’accélérer cette adoption. Or cette non-linéarité se retrouve dans bien d’autres domaines que la technologie.

Prenons par exemple le cas du climat. Contrairement à une idée (parfois) reçue, le dérèglement climatique n’est pas amené à progresser de façon linéaire (« + 1 degré toutes les x années », si la trajectoire actuelle reste la même). Deux phénomènes permettent de l’expliquer.

D’une part, le dérèglement franchit des effets de seuil à partir desquels peuvent s’activer brutalement certains phénomènes. Pablo Servigne et Raphaël Stevens citent deux exemples dans leur ouvrage évoqué précédemment sur Signaux Faibles :

  1. « Un lac peut passer rapidement d’un état translucide à totalement opaque à cause d’une pression de pêche constante. La diminution progressive du nombre de grands poissons provoque, à un moment précis, un effet de cascade sur tout le réseau alimentaire, ce qui en bout de course mène à une prolifération très soudaine et généralisée de microalgues. Ce nouvel état, très stable, est ensuite difficile à inverser. »
  2. « Dans les forêts des régions semi-arides, il suffit de dépasser un certain niveau de disparition du couvert végétal pour que les sols s’assèchent un peu trop et provoquent l’apparition brutale d’un désert, qui empêche toute végétation de repousser. C’est ce qui s’est passé pour le Sahara lorsqu’il y a 5 000 ans la forêt est soudainement devenue un désert, ou actuellement en Amazonie où une transition similaire est probablement en train de s’amorcer. »

D’autre part, le dérèglement produit des effets en cascade. « Une équipe de climatologues a recensé 14 “éléments de basculement climatique” susceptibles de passer ces points de rupture (permafrost de Sibérie, forêt amazonienne, calottes glaciaires…). Chacun d’eux est capable – à lui seul – d’accélérer le changement climatique… et en plus de déclencher les autres. (…) Un système complexe vivant est en effet constitué d’innombrables boucles de rétroaction entrelacées. À l’approche d’un point de rupture, il suffit d’une petite perturbation pour que certaines boucles changent de nature et entraînent l’ensemble du système dans un chaos imprévisible et souvent irréversible. »

Quiconque s’essaie à l’exercice périlleux de la prospective en matière climatique (notamment pour tenter d’anticiper ses impacts sociaux, migratoires, économiques, géopolitiques, etc.) ne saurait donc miser sur une progression linéaire du dérèglement en cours.

De façon générale, l’essayiste Nassim Taleb souligne bien dans son ouvrage Le Cygne noir – paru quelques mois avant l’éclatement de la crise de 2007 – l’importance des événements aléatoires, hautement improbables et à ce titre trop souvent exclus des raisonnements d’anticipation, alors qu’ils jouent un rôle considérable dans l’histoire. Il montre la quasi-impossibilité de calculer avec des méthodes scientifiques la probabilité de ces événements : « C’est le travers des économistes et des scientifiques que de vouloir soumettre leurs observations aux règles mathématiques et prétendre ainsi prévoir les événements avec la certitude des lois de la probabilité. Or le monde n’est pas prévisible. L’histoire est plutôt déterminée par des événements extraordinaires et imprévus, mais dont le caractère surprenant disparaît dès que l’événement est survenu », considère-t-il (extrait d’une note sur l’ouvrage, sur Cairn.info).

Taleb donne ainsi trois critères définissant un cygne noir : « L’événement est une surprise pour l’observateur (a), a des conséquences majeures (b), et est rationalisé a posteriori comme s’il avait pu être attendu (c). Cette rationalisation rétrospective vient du fait que les informations qui auraient permis de prévoir l’événement étaient déjà présentes, mais pas prises en compte par les programmes d’atténuation du risque ».

La notion de cygne noir n’est finalement rien d’autre que l’illustration d’un biais cognitif, celui qui rend aveugle à l’incertitude, lui-même lié à d’autres biais (surconfiance, biais de confirmation, etc.). Taleb va jusqu’à dire que « l’avenir est un pur hasard : on perd son temps à le prédire », car il y aura toujours des variables qui nous échappent. Il recommande tout de même cependant :

  • D’une part d’envisager le maximum de possibilités (par opposition à l’attachement à une seule vision des choses, quand bien même celle-ci apparaîtrait comme la plus probable),
  • D’être le plus conscient possible de notre rationalité limitée et de l’existence d’informations dont nous n’avons pas connaissance.

C’est cette méthode qui permet selon Taleb non pas de « prédire l’avenir », mais d’anticiper au mieux les risques et, en définitive, de nous aider à faire de meilleurs choix pour l’avenir – ce qui est, finalement, l’un des objectifs de la prospective.

3. Reconnaître et surmonter ses biais

L’exercice de la prospective implique d’être lucide sur ses a priori, d’avoir conscience de ses biais et d’essayer de les surmonter. Comme l’expliqueCecile Wendling, sociologue des risques et directrice de la prospective du groupe Axa : « Il faut très bien connaître l’histoire et le présent pour faire de la prospective. Il faut regarder autant d’années en arrière qu’on regarde en avant, pour éviter le biais de surévaluer l’activité récente. [De façon générale] il est essentiel d’avoir conscience de ses propres biais, par exemple le biais présentiste (surévaluer l’actualité) ou le biais culturel (sa sphère géographique, son secteur d’activité, les médias que l’on suit, etc.), et de les surmonter (s’informer sur d’autres aires géographiques, etc.) », expliquait-elle lors d’une interview sur France Culture le 3 janvier dernier.

Un biais classique de prospective – dans lequel tombent parfois les acteurs de l’innovation – est ainsi de faire de la technologie le moteur de la plupart des (r)évolutions, ce qui est loin de se vérifier. [Lire plus bas « Ce qui pêche souvent».]

Un autre biais, courant, consiste à voir le monde de façon statique. Le biais d’un monde statique, ou l’importance de reconnaître et dépasser ses croyances obsolètes :

« Quand les experts se trompent, c’est souvent parce qu’ils sont experts d’une version précédente du monde. (…) Pouvez-vous vous protéger contre des croyances obsolètes ? Dans une certaine mesure, oui. La première étape est de croire au changement. Les personnes qui sont victimes d’une confiance excessive dans leurs propres opinions concluent implicitement que le monde est statique. Si vous vous rappelez consciencieusement qu’il ne l’est pas, vous commencez à chercher le changement », expliquePaul Graham.

4. Étendre son regard

« Quand on me demande en interview de prédire le futur, j’ai toujours du mal à dire quelque chose de plausible. Mon astuce habituelle est de parler d’aspects du présent que la plupart des gens n’ont pas encore remarqués. Les croyances sur le futur sont si rarement correctes que la meilleure stratégie [pour anticiper ce futur] consiste simplement à être extrêmement ouvert d’esprit. Au lieu d’essayer de vous diriger dans la bonne direction, admettez que vous n’avez aucune idée de la bonne direction et essayez plutôt d’être extrêmement sensible au vent du changement. » – Paul Graham

Étendre son regard, notamment pour tenter de repérer des mouvements émergents, implique ainsi souvent d’observer les marges – qu’il s’agisse de personnes en marge ou de façons de vivre, de lieux ou de temporalités qui ne sont pas (encore) sous le feu des projecteurs.

L’investisseur Chris Dixon estime par exemple que « les hobbys sont ce dans quoi les gens les plus intelligents passent leur temps quand ils ne sont pas contraints par des objectifs financiers de court terme. Leurs hobbys d’aujourd’hui constituent ce qui nourrit les industries de demain. Ce que font les gens les plus intelligents pendant leurs week-ends est ce que tous les autres feront durant leurs semaines dans dix ans ».

Pensons ainsi à cette phrase écrite en 1991 par Linus Torvalds, créateur du système d’exploitation Linux, au moment d’annoncer son modeste projet personnel afin d’obtenir des premiers avis : « Je suis en train de faire un système d’exploitation (gratuit, c’est juste un hobby, ça ne va pas devenir grand et professionnel) ».

Étendre son regard peut aussi passer par des œuvres fictionnelles, notamment de science-fiction ou d’anticipation. Les exemples d’auteurs de romans ayant prédit ou anticipé des accomplissements futurs (voire contribué à leur émergence ?) sont multiples, de Jules Verne à H. G. Wells. Il est évidemment facile de revenir après coup sur des œuvres passées en y voyant la trace de prédictions avérées juste. La science-fiction ou l’anticipation ne doivent pas être vues comme des boules de cristal, mais comme des moyens d’ouvrir son regard et de concevoir, par l’imaginaire, des situations encore non pensées.

Dans la littérature contemporaine, un auteur français comme Alain Damasio est reconnu pour son travail autour de futurs possibles et dystopiques liés à l’avènement d’une société de contrôle, tandis que du côté américain, un roman comme Dans la forêt de l’autrice Jean Hegland, sorti dans les années 1990 (étonnamment traduit en français seulement en 2017), offre une vue remarquable – inatteignable par des essais, rapports, conférences – de ce que donnerait concrètement, humainement, un effondrement de civilisation, bien loin des représentations spectaculaires véhiculées par Hollywood.

Au-delà de la fiction, c’est toute la sphère de l’imaginaire qui est actionnable, ce qui peut aussi passer par des voyages, des rencontres, etc. L’imaginaire permet de se représenter des actions ou événements en apparence inconcevables en réalité – comme, par exemple, l’attaque de Pearl Harbor en 1941 :

« Dans ses travaux pionniers sur l’attaque-surprise de la base américaine de Pearl Harbor par les Japonais le 7 décembre 1941, la chercheuse américaine Roberta Wohlstetter a montré que cet échec ne pouvait pas être mis sur le compte d’un manque d’attention aux signaux faibles. En effet, la marine américaine avait déchiffré les codes de la marine japonaise. Elle disposait donc de signaux massifs sous la forme de conversations des amiraux japonais. Mais elle trouvait l’hypothèse d’une attaque de Pearl Harbor tellement absurde qu’elle a refusé de l’envisager. Un exercice sur ce thème au printemps 1941 a même été refusé. » – Extrait de l’ouvrage Bienvenue en incertitude !, de Philippe Silberzahn.

Enfin, étendre son regard peut – si ce n’est doit – passer par étudier l’histoire, en particulier les façons dont les populations ont réagi à certains événements ou périodes données.

Cependant, gare, là encore, aux jugements hâtifs…

Ce qui pêche souvent

« La futurologie se trompe presque toujours car elle prend rarement en compte les changements de comportements », selon l’historienne Judith Flanders. Nous ne regarderions pas les bonnes choses : « Le transport pour aller au travail, plutôt que la forme du travail ; la technologie, plutôt que les changements de comportement engendrés par la technologie », etc.

Dans la première moitié du XXe siècle, les États-Unis encadraient juridiquement les endroits où il était permis de cracher dans les trains, les gares et les quais. Un colloque tenu à Washington en 1917 ordonnait ainsi qu’« un nombre suffisant de crachoirs soit prévu » dans les wagons de train. Aujourd’hui, le terme américain « cuspidor » (« crachoir ») et l’objet ont pratiquement disparu. Sa disparition n’est pas due à l’obsolescence de certaines technologies, mais bien parce que les comportements ont évolué.

Dans l’histoire plus contemporaine, Terry Grim, professeur au sein du programme « Études du futur » à l’Université de Houston, se souvient d’une vidéo des années 1960 sur le « bureau du futur » : « Tout était presque juste, avec la vision de l’ordinateur et d’autres outils technologiques à venir. Mais il manquait une chose : il n’y avait pas de femmes dans le bureau ».

En France, les archives de l’INA sont une mine d’or pour se (re)plonger dans l’état d’esprit qui prévalait dans la société de la deuxième moitié du XXe siècle. On y retrouve des vidéos parfois stupéfiantes – en témoigne, par exemple, ce reportage de 1976 qui demande à plusieurs hommes leurs avis sur les viols de jeunes femmes en autostop.

Le président de la cour d’appel de Paris en 1976 : « Il faut tenir compte du fait que la victime a pris un risque en montant dans une voiture avec un garçon qu’elle ne connaissait pas. Pensons à un automobiliste qui voit passer sur la route une jeune fille dont la silhouette lui plaît, qui s’arrête et qui la viole : il est certain que la peine doit être plus forte pour celui qui n’a pas été provoqué. L’attitude de la victime doit entrer en compte. [Parfois] c’est une provocation indirecte. Les hommes sont ce qu’ils sont : il faut éviter d’allumer un garçon et de lui faire espérer une suite favorable. »

La société des années 1970 pouvait-elle s’imaginer que de tels propos, qui manifestement ne semblaient alors pas choquer particulièrement, deviennent inconcevables quarante ans plus tard, a fortiori venant d’un magistrat ?

Pour l’auteur Lawrence Samuel, le progrès social est le « talon d’Achille » de la futurologieIl estime que l’on oublie trop souvent cette remarque de l’historien britannique Arnold Toynbee : ce sont les idées, et non la technologie, qui ont entraîné les plus grands changements historiques.

Parfois, les éléments déclencheurs de changements culturels semblent d’abord insignifiants. Dans son ouvrage Le Pouvoir des habitudes, l’auteur Charles Duhigg montre que l’évolution des droits des homosexuels aux États-Unis a été accélérée par un changement en apparence anecdotique : la bibliothèque du Congrès américain (considérée comme la bibliothèque nationale américaine), qui classait jusqu’alors les livres sur le mouvement homosexuel dans la catégorie « Relations sexuelles anormales, dont crimes sexuels », a décidé de les déplacer dans une catégorie intitulée « Homosexualité, lesbianisme, libération gay ». Ce petit changement a créé un effet d’entraînement. Un an plus tard, l’American Psychiatric Association cessa par exemple de définir l’homosexualité comme une maladie mentale.

On le voit bien : envisager le futur ne peut se faire sans étude des mouvements sociaux et des évolutions de mentalités et plus globalement sans prise en compte des sciences sociales, au-delà du suivi des avancées technologiques. Un exemple est éloquent en la matière : lorsque les premiers ascenseurs automatiques sont apparus, les usagers étaient inquiets à l’idée de les utiliser. Malgré la supposée fiabilité de ces appareils, ils ne pouvaient s’empêcher de craindre de possibles accidents. À l’aune de ces réactions, on devine par exemple qu’à l’avenir l’usage massif de voitures entièrement autonomes ne démarrera pas seulement le jour où ces véhicules seront prêts et la législation adaptée, mais aussi et surtout lorsque les individus se sentiront sereins à l’idée de les utiliser.

Si l’évolution des comportements est parfois sous-estimée à l’heure d’envisager l’avenir, il arrive donc aussi qu’elle soit tenue pour acquise un peu rapidement.

À cet égard, un exercice intéressant consiste à réfléchir à ce qui reste stable dans le temps, ce qui n’est pas forcément intuitif : « Nous faisons plus attention à ce qui change qu’à ce qui joue un plus grand rôle mais ne change pas », écrit ainsi Nassim Taleb dans son ouvrage Antifragile.

Jeff Bezos, fondateur d’Amazon, a un jour expliqué qu’il déterminait la stratégie du géant du e-commerce en fonction de ce qu’il appelle les « signaux stables » : « On m’a souvent posé cette question : “Qu’est-ce qui changera dans les dix prochaines années ?” C’est une question très intéressante, mais très commune. En revanche, on ne m’a jamais demandé : “Qu’est-ce qui ne va pas changer dans les dix prochaines années”. Or pour moi, cette deuxième question est la plus importante puisqu’elle permet de construire une stratégie autour de ce qui reste stable dans le temps. Toute l’énergie et les efforts que nous mettons chez Amazon dans ces signaux stables porteront encore leurs fruits dans dix ans ».

Conclusion

La prospective, qui consiste à investiguer des futurs possibles, n’est pas l’art de la prédiction. Si les prédictions se révèlent souvent fausses, c’est simplement parce que vouloir prédire l’avenir est vain, comme le souligne Nassim Taleb (et bien d’autres).

La prospective n’est pas non plus la prévision. Prévoir, c’est « modéliser le réel pour en déduire un futur probable » (Bernard Georges), souvent à court ou moyen terme. « À la différence de la prévision, liée à des modèles de continuité, la prospective est liée à des modèles de rupture », explique Cecile Wendling, responsable de la prospective du groupe Axa. « Sur le sujet du travail, par exemple, il est possible d’effectuer des prévisions d’évolution du taux de chômage à horizon deux semaines ou deux mois ; la prospective sur le travail, elle, nécessite de réinterroger les CSP (catégories socioprofessionnelles, ndlr) que l’on utilise ».

Les deux exercices sont complémentaires et la prospective se nourrit d’ailleurs d’une part de « récits, où l’on combine tendances et signaux faibles pour comprendre comment un sujet donné peut évoluer dans le temps », d’autre part de « modèles mathématiques de prévisions sur le court et moyen terme ».

Oser penser le temps long

Aujourd’hui, la prospective, cet exercice qui demande de « détecter dans le présent des […] germes du futur, déjà  » comme le formule la spécialiste Édith Heurgon, n’a pas forcément bonne presse. Elle est pourtant vitale pour anticiper au mieux les risques (et opportunités) de moyen et long terme, les mouvements de fond parfois discrets, mais structurels, les ruptures à venir.

L’époque est à la croyance – parfois immodérée – dans le pouvoir du big data et de l’intelligence artificielle (IA). Leur puissance ne saurait être négligée, mais ces outils statistiques et technologiques relèvent de la prévision, du domaine de l’estimation probable. Ils butent sur l’incertitude, sur les fameux « cygnes noirs » dont la sous-estimation a conduit à la stupéfaction lors de l’éclatement de la crise de 2007-2008.

La prospective doit être réhabilitée et refaire place à tous les niveaux (l’échelon de l’entreprise, d’un secteur économique, de l’État…). Il en va de notre capacité à penser l’incertitude et à anticiper les enjeux qui dépassent le temps politique et les contraintes économiques de court terme.

Certaines puissances, comme la Chine, l’ont bien intégré. En France, l’organisme France Stratégie, placée sous l’autorité du Premier ministre, est censé remplir ce rôle. Il peine toutefois à s’y consacrer pleinement, ayant également d’autres missions essentielles à remplir, de plus court terme (organisation de concertation, évaluation des politiques publiques…). La France manque d’un centre de pointe entièrement dédié à la prospective. Le coût d’opportunité en est probablement considérable et se paiera sur le long terme.

Ce coût se manifeste d’ailleurs dès aujourd’hui, par exemple dans le numérique, domaine longtemps sous-estimé (et ce depuis ses débuts, puisque dans les années 1970 : « Internet était considéré en France comme un gadget de chercheur : il n’y avait pas d’argent, pas de reconnaissance», raconte le chercheur Louis Pouzin). Or le fait qu’en 2019 l’innovation de rupture soit globalement vue en France sous le seul angle de l’intelligence artificielle n’incite pas à l’optimisme pour la suite.

Diversifier

Le monde de l’entreprise, lui aussi, peine parfois à mener des réflexions prospectives. Le réflexe d’externaliser ce travail à des cabinets de conseil, de façon parfois systématique, en est un signe révélateur. S’appuyer sur des expertises extérieures peut être utile, mais il importe alors :

  • D’une part de faire appel à différentes façons de penser et d’anticiper l’avenir,
  • D’autre part de développer en parallèle et en interne une culture favorable à la diversité de points de vue – ce qui passe souvent par une diversité d’expériences, de cultures, de personnalités.

La transformation d’une entreprise ne peut se faire sans esprits capables de penser différemment. Si cette évidence relève aujourd’hui presque du lieu commun, poussé notamment par une communication corporate se voulant « disruptive », la réalité est souvent différente en pratique, comme l’exprime Philippe Silberzahn avec justesse ici :

« En filtrant les outsiders, les marginaux et ceux qui ne rentrent pas dans le cadre, l’entreprise gagne une fiabilité et une prédictibilité, gage de sa performance. (…) Et puis un jour survient une rupture. La révolution digitale, le big data, l’uberisation, les barbares sont à nos portes ! Et quand la bise fut venue, l’entreprise se trouve fort dépourvue. Car tout d’un coup Boum ! Crack ! Elle veut des innovateurs ! Des gens qui sortent du cadre ! “Innovez !” comme lançait récemment devant moi un PDG à son assemblée d’employés médusés. Mais il n’y a pas de miracle en management. Seulement des choix stratégiques. Et rien n’est plus stratégique que de décider qui on recrute, qui on garde et qui on promeut. »

Dès lors, comme il l’écrit, « le recrutement de profils fonctionnels et conformes au modèle en place est une nécessité, mais le développement d’une diversité est indispensable si l’entreprise veut pouvoir évoluer et se transformer. La création de cette diversité, et non le filtrage des marginaux, telle devrait être la mission stratégique de la RH ».

Terminons sur deux remarques pour ouvrir le débat :

  1. Au niveau de l’entreprise, quel crédit accorder aux cabinets qui conseillent les entreprises sur leur transformation digitale lorsqu’eux-mêmes ne l’ont pas réalisée ?
  2. Au niveau de l’État, quel crédit accorder, par exemple, au jury de l’ENA qui déplore publiquement le « conformisme », le « manque d’imagination» et « la pensée stéréotypée » de ses candidates et candidats alors même que tout écart de pensée et toute tentative de créativité se voient souvent sévèrement réprimés lors du concours ?

Ces incohérences, parmi d’autres, doivent nous interroger. Pour les décideurs du public comme du privé, si prédire l’avenir est vain, tenter d’anticiper des futurs possibles reste un impératif, dont la bonne exécution est en large partie une question de choix de personnes. Ces choix sont ceux qui permettent – ou non – d’éviter de dire un jour qu’« Internet, on s’en fout, ça ne marchera jamais».

Clement Jeanneau, auteur de signauxfaibles.co

Leave your thought here