Souveraineté
« La souveraineté est la qualité de l’État de n’être obligé ou déterminé que par sa propre volonté, dans les limites du principe supérieur du droit, et conformément au but collectif qu’il est appelé à réaliser »
Disclaimer : bien que je sois, au moment où j’écris ces lignes salarié d’un “Cloud provider” dit souverain, les propos qui suivent n’engagent que moi et ne représentent sous aucune forme les positions de mon employeur.
La souveraineté consiste avant tout à disposer de l’autonomie de décision, la capacité à choisir son destin sans se le faire imposer par qui que ce soit (le “qui” pouvant être : une personne, une entreprise, un consortium, une nation, une entreprise à la solde d’une nation, un regroupement de nations).
Elle impose de fait une forme d’auto-suffisance dans le domaine visé.
Une souveraineté alimentaire par exemple implique une autonomie, à l’échelle du pays, quant aux ressources et au moyens de production permettant de nourrir sa population sans aucune dépendance extérieure.
La souveraineté appliquée au domaine des infrastructures informatiques (au sein desquelles nous englobons matériel, logiciels et réseaux) implique de facto une forme d’autonomie quant à la conception, à la production, au déploiement et à l’exploitation de ces dernières.
Cette autonomie est la seule qui permette une véritable liberté de choix tant stratégique que tactique.
Sans cette autonomie, nous ne sommes qu’utilisateur “à la merci” d’un ou plusieurs producteur(s).
- Sommes nous, en France, souverain dans le domaine des infrastructures informatiques ? - Non.
- Pouvons-nous être, en France, souverain dans le domaine des infrastructures informatiques ? — Pas dans un avenir prévisible (˜50 ans).
- Devrions-nous être, en France, souverain dans le domaine des infrastructures informatiques ? - Si l’on considère que notre économie en dépend, ce devrait être un objectif national.
Le “Cloud souverain”, rappel historique
Les initiatives industrielles
Depuis le plan calcul initié en 1966 sous l’impulsion de Michel Debré, l’État a plusieurs fois été tenté de forcer le développement de l’industrie informatique française que ce soit dans le domaine logiciel ou des infrastructures.
A chaque fois, il faut bien le reconnaître, avec un résultat pour le moins mitigé.
Pour ce qui est du “Cloud”, c’est-à-dire l’ensemble des dispositifs permettant aux entreprises de louer des infrastructures informatiques programmables plutôt que de les financer et les déployer elle-même, le premier sursaut intervient en 2011 sous l’impulsion du gouvernement de Nicolas Sarkozy et François Fillon avec le projet Andromède.
Face au constat de la montée en puissance des acteurs étranger et américains en particulier, l’État prend conscience de la dépendance croissante de son économie nationale à des fournisseurs extérieurs de plus en plus critiques (nonobstant les aspects d’intelligence économique, de guerre d’influence et finalement des risques géopolitiques afférents).
Né alors l’idée d’un partenariat public-privé qui permettrait par magie de rattraper notre retard, l’Etat finance à hauteur de 150 M€ un consortium composé d’Orange Business Service, Thales et Dassault Systèmes.
Leur objectif, mal défini, consiste vaguement à développer une offre de Cloud computing à destination non seulement des services de l’État mais également des entreprises privées.
Moins d’un an plus tard, en 2012, suite à un désaccord majeur entre Orange et Dassault Systèmes le projet initial est abandonné et l’on cherche à “rattraper le coup” en lançant deux nouveaux consortiums sur les cendres du premier:
- Cloudwatt : composé d’Orange et Thales
- Numergy : composé de SFR et Bull
Chaque consortium est financé à hauteur de 75M€ au travers de la caisse des dépôts et consignations.
Deux ans plus tard, Cloudwatt n’aura généré que 2M€ et Numergy 6M€.
Malgré une communication optimiste des deux sociétés quant à leurs capacité à atteindre l’équilibre rapidement, Numergy est finalement dilué dans SFR en 2017 et Cloudwatt disparaît définitivement en 2020.
Le manque de vision, de stratégie concrète et surtout de pilotage technique aura surtout permis de construire deux formidables machines à engloutir l’argent public.
Les survivants de ce qui pourrait être qualifié de scandale d’état sont finalement les acteurs qui se sont tenu de grés ou de force éloigné de cette approche étatique.
- OVH : snobé par l’État en 2011 car trop éloigné “des milieux autorisés” comme disait Coluche, il survit non seulement au projet mais se développe en Europe et dans le monde jusqu’à devenir aujourd’hui le premier Cloud provider Européen.
- Scaleway : fondé en 1999 et filiale d’Iliad, il continue de porter la stratégie BtoB du groupe sur ce marché.
- Outscale : fondé en 2010 et porté par Dassault Système, originellement promoteur du projet Andromède, il s’en écarte en 2012 et continue à se développer jusqu’à aujourd’hui.
Bien que ces entreprises aient “survécu” aux ambitions de l’État, le problème n’est pas réglé pour autant.
Les acteurs étranger continuent de croître tout comme notre dépendance, favorisée par une numérisation de l’économie toujours croissante.
Dans le même temps, la puissance et les ambitions des lois extra-territoriales américaines ne s’amenuisent pas, bien au contraire.
Le FISA (Foreign Intelligence Surveillance Act) est amendé en 2008, il autorise, notamment au travers de sa section 702, le gouvernement américain à surveiller les communications électroniques des étranger à l’étranger (de la planète entière donc à l’exception théorique des états-unis eux même) et ce avec le concours imposé des fournisseurs de services de droit US.
En clair, n’importe quelle entreprise de droit US : Google, AWS, Microsoft, Cisco, Juniper, Meta (Facebook, Whatsapp, Snapchat), Apple, AT\&T, Verizon, Zayo, T-Mobile, Cogent Co., Comcast, Digital Realty, Interxion, Equinix, … pour ne citer qu’elles ont l’obligation de collaborer avec les agences de renseignement US pour intercepter et/ou fournir une copie des données de leurs clients (sans les informer et encore moins avec leur consentement), et ce quelque soit leurs pays d’origine (incluant la France, bien entendu) et quelque soit l’endroit de captation ou de stockage des données (territoire US ou étranger).
Nos politiques s’émeuvent tardivement d’une telle asymétrie du droit (il n’existe aucun équivalent Français ou Européen).
En réaction, l’Union Européenne invalide en 2020 le Privacy Shield, l’accord qui régissait alors (entre autres) les échanges de données entre l’Europe et les US.
Cette invalidation par la CJUE n’a toutefois que peu d’effet, nos entreprises continuent à utiliser massivement et majoritairement les services des fournisseurs US.
La volonté (compréhensible) de protection politique se heurte en effet à la réalité économique et l’absence d’alternatives crédibles en Europe n’arrange pas les choses.
Les initiatives normatives
Gaia-X
Dans la foulée de cette invalidation qui ne règle rien, l’Union Européenne lance le projet Gaia-X en juin 2020 dont l’objectif est le développement d’une offre de Cloud efficace, plus complète et compétitive que ce que propose unitairement les fournisseurs nationaux, permettant ainsi aux entreprises de se mettre à l’abri des lois extra-territoriales US.
L’idée de base était séduisante en apparence: plutôt que d’essayer de construire un acteur capable de rivaliser avec les géants américains, objectif ambitieux s’il en est, elle consistait à agréger les offres de plusieurs “petits” acteurs européens au travers d’un framework technico-juridique censé apporter transparence et garanties.
Une fois de plus, la réalité a rattrapé la fiction: après trois ans de financement public (une fois de plus), de discussions interminables en groupes de travail, en comités, de spécifications (votre serviteur peut en témoigner à son corps défendant), toujours pas d’offre Européenne concrète.
SecNumCloud
Initiative Franco-française cette fois, l’ANSSI (Agence Nationale de la
Sécurité des Systèmes d’Information) publie en 2016 la première version du référentiel SecNumCloud.
S’inspirant et étendant les principes de l’ISO 27001, il fixe des objectifs à la fois techniques et juridiques de nature à garantir aux clients des fournisseurs (opérateurs de IaaS, PaaS, SaaS) qui en obtiennent la certification une absence d’exposition aux lois extra-territoriales et un haut niveau de sécurité (théorique).
Il sera progressivement injecté au sein de la doctrine “Cloud au centre” introduite en 2021 par Amélie de Montchalin (alors ministre de la transformation et de la fonction publique) et précisée par Elisabeth Borne (alors première ministre) dans la circulaire du 25 mai 2023.
Cette doctrine oblige les services publics traitant de données sensibles (données relevant du pouvoir exécutif, du secret médical, de la défense nationale, du secret de la vie privée, du secret des affaires, du secret des procédés, de la sûreté de l’etat, du secret des délibérations,…) à recourir à des fournisseurs labellisés SecNumCloud.
A ce jour, très peu de fournisseurs sont labellisé SecNumCloud (SNC pour les intimes), seulement trois sur des offres de Cloud dont un seul et unique sur une offre de Cloud publique.
Si le principe part d’une bonne intention : trouver un moyen compatible avec les contraintes du droit Européen de la concurrence pour n’ouvrir certains marchés publics qu’aux acteurs nationaux, il est, dans les faits, loin d’être parfait.
Qu’est-ce qui cloche chez nous?
Pourquoi, malgré toutes les tentatives et initiatives cités, nous échouons à construire et faire croître des acteurs français ou européens à même de rivaliser avec AWS ou Azure ?
La taille du marché.
Concevoir et construire un Cloud compétitif et attractif est excessivement complexe et coûteux.
Il ne suffit pas d’aligner des Racks remplis de serveurs dans des Datacenters (ce qui n’est déjà pas simple si on veut en maîtriser l’ensemble de la chaîne).
Un IaaS (Infrastructure as a Service), et, à fortiori un PaaS (Platform as a Service), c’est avant tout du logiciel, beaucoup, beaucoup, beaucoup de logiciel.
Ce qu’attendent les clients de ces offres (outre une externalisation du risque et du Capex), c’est un très haut niveau de qualité, d’intégration, de performance, de sécurité, de disponibilité et bien sûr d’automatisation.
Prenons la disponibilité par exemple, AWS se fixe un objectif de disponibilité mensuelle de 99,99% pour ses instances EC2 (machines virtuelles), cela représente environ 4 minutes et demi d’indisponibilité contractuelle par mois.
En réalité, tous les clients d’AWS peuvent en attester, il est extrêmement rare de constater ne serait-ce qu’une seconde d’indisponibilité par mois.
Comment est-ce possible ?
Il y a deux stratégies éligibles pour atteindre un tel niveau de fiabilité:
- Utiliser du matériel ultra-perfectionné mais ultra-coûteux (c’est l’approche par exemple d’IBM avec ses mainframes).
- Utiliser du matériel simple, faillible et peu coûteux et automatiser la gestion de panne via du logiciel.
C’est cette deuxième voie qu’ont choisit tous les fournisseurs de Cloud car c’est la seule à même de passer à l’échelle puisque le logiciel a un coût de duplication marginal voire nul, contrairement au matériel.
Rendre la panne quasi-invisible pour le client implique énormément de choses:
- Le monitoring : Avoir un monitoring complet et exhaustif: on ne peut pas automatiser le traitement d’une panne que l’on ne détecte pas,
- Le traitement : Être capable de déplacer une machine virtuelle d’un serveur qui va ou qui est tombé en panne de façon la plus transparente possible sur un autre serveur. Ce qui a énormément d’implications au niveau des technologies de virtualisation utilisées, du stockage, de la gestion de la mémoire, du réseau,…
- Le capacity management : Avoir un niveau de redondance suffisant sur l’ensemble des infrastructures:
- Le réseau
- Local: avoir plusieurs chemins au sein du datacenter pour joindre un serveur, cela implique une redondance des cartes réseaux sur le serveur, des switchs sur lesquels sont connectés ces cartes réseaux, des concentrateurs sur lesquels sont connectés ces switchs, des firewalls sur lesquels sont connectés ces concentrateurs, des routeurs locaux sur lesquels sont connectés ces firewalls, des routeurs de bordure sur lesquels sont connectés ces routeurs locaux, …
- Global: concrètement des chemins physiques qui permettent de joindre un Datancenter. On entre ici dans le domaine du génie civil et des infrastructures nationales (ex: chemins souterrains, NROs, …) ou internationales (ex: fibres optiques trans-océaniques)
- Les serveurs : Il en faut suffisamment pour absorber la panne d’une grande partie d’entre eux (jusqu’à une AZ (Availability Zone) entière dans certain cas, en plus de pouvoir absorber l’élasticité de la demande tout en tenant compte de la disparité de leurs caractéristiques individuels (un Cloud Provider ne propose rarement qu’un seul modèle de serveur ou une seule génération de CPU).
- Le stockage : c’est clairement le problème le plus complexe à résoudre car contrairement à toutes les autres parties de l’infrastructure, un espace de stockage utilisé ne peut pas être remplacé par un espace de stockage vide (sans les données du client). Il faut donc non seulement redonder les infrastructures elle mêmes, mais aussi et surtout les données (variables, volatiles, parfois véloces) des clients.
- Et enfin, l’ensemble des logiciels qui s’appuient sur ces infrastructures et qui permettent de délivrer le service final aux clients : le service d’IAM (Identity and Access Management), l’orchestrateur de Cloud, le service de stockage objet, le service de gestion des clés cryptographiques, etc., il peut y en avoir des milliers.
Vous l’aurez compris, c’est un challenge colossal, techniquement incroyablement compliqué parfois même complexe et financièrement ultra-capitaliste (il faut non seulement acheter le matériel, les infrastructures mais aussi payer les ingénieurs qui vont devoir développer tout le logiciel permettant de l’exploiter et de l’exposer).
L’investissement nécessaire (qui peut se chiffrer en dizaines de milliards d’Euro pour un Cloud d’hyper-scaler) n’est justifiable que si le marché à adresser est suffisamment grand.
On estimait ce marché à 545,8 Milliards de Dollars en 2022 à l’échelle mondiale avec une croissance de quasiment 30% par an, et ce, avant le boom de l’IA.
A cette échelle, les acteurs possédant une part significative du marché (AWS en dispose par exemple de plus de 30%), disposent de facto d’une puissance financière quasiment irrattrapable même à l’échelle d’un état comme la France (qui peut alors faire sourir avec son ambition de Cloud souverain à 150M€, AWS a dépensé 85.622 Milliard de Dollars rien qu’en R&D en 2023).
Une puissance financière qui lui permet d’élargir son autonomie technologique dans toutes les dimensions:
- RH : ils disposent des moyens financiers pour recruter les meilleurs talents mondiaux,
- Logiciel : ils n’hésitent pas à développer leurs logiciels (système de contrôle des réseaux, orchestrateurs, systèmes de stockage, systèmes de virtualisation, OS, …) adaptés et optimisés pour leurs infrastructures et leurs usages,
- Matériel: AWS vient par exemple d’annoncer la disponibilité de la quatrième génération de ses propres CPUs (les Gravitons) et la deuxième génération de ses propres puces optimisées pour l’IA (les Trainium),
- Foncier : La plupart des hyper-scaler disposent de leurs propre Datacenter physique, un fois de plus conçus, construit et optimisés pour leur propre usage spécifique,
- Réseau : les hyper-scacler construisent et exploitent leurs propres infrastructures réseaux, qu’elles soient terrestres, transocéaniques ou désormais spatiales.
Le marché Français de Cloud représente aujourd’hui une vingtaine de milliard d’Euros, on estime qu’il pourrait atteindre 27Md€ d’ici 2025.
Le problème est qu’il est déjà majoritairement cannibalisé par les acteurs étranger, la somme des acteurs Français peine à en capter ne serait-ce qu’un “petit milliard” aujourd’hui.
Difficile dans ces conditions de justifier des investissements locaux à hauteur de plusieurs dizaines de milliards d’euros, et la situation est malheureusement quasi-identique à l’échelle de l’Europe.
Dure réalité
Ne pouvant investir suffisamment pour espérer concurrencer les acteurs établis tant en terme de profondeur de catalogue, que de qualité, de sécurité (modulo leurs exposition à l’extraterritorialité du droit) ou de performance, les acteurs Français (ou Européen) se sont concentrés sur les offres essentielles: le IaaS et les premières couches du PaaS.
Quand nos champions alignent quelques dizaines de services dans leurs catalogues, les acteurs étranger en alignent plusieurs centaines (plus de 350 chez AWS).
Du point du vue du client, cette différence se paye d’une façon très concrète: tout ce qu’il n’est pas au catalogue du Cloud provider doit être développé ou acheté par l’entreprise.
C’est uniquement pour cette raison que la France par exemple, à reconue être incapable d’héberger le Health Data Hub ailleurs que chez Microsoft.
L’état Français lui-même n’a pas les moyens de développer ou faire développer l’écart de fonctionnalités entre ce qu’il consomme chez Microsoft et ce qui est disponible chez nos acteurs nationaux.
C’est triste, c’est révoltant, c’est dangereux mais c’est la froide réalité.
De la même façon, les milliers d’entreprises Françaises, quels que soient leurs tailles qui privilégient AWS, Azure ou GCP à OVH, Outscale, Scaleway ou Clever Cloud le fond bien souvent (mais pas toujours) parce qu’elles n’ont pas les moyens de couvrir en interne l’écart technologique entre les deux types d’offres.
Aucune invalidation du Privacy Shield par la CJUE n’y changera rien, et aucune qualification SecNumCloud n’y changera rien…. à part pour les quelques acteurs publics ou semi-privés qui sont contraints par la loi de la consommer.
Plus d’espoir ?
Et bien malgré la noirceur du tableau de la situation, je pense que si.
Le marché du Cloud croît d’environ 30% par an, et celà va probablement s’accélérer avec les besoins gargantuesques de l’IA.
Il croît non seulement organiquement sur les offres existantes, mais il croit aussi au travers de nouvelles offres, de plus en plus verticales.
Les “petits” acteurs du Cloud, qu’ils soient nationaux ou internationaux peuvent s’engouffrer et se développer sur ces nouvelles verticales.
Mais il y aurait une condition préalable.
Stopper l’innovation réglementaire
J’ai introduit la qualification SecNumCloud comme un moyen pour l’état de flécher certains marchés publics vers des entreprises françaises, ou à minima protégées de l’extraterritorialité du droit US.
Utiliser l’argent public pour faire travailler des acteurs nationaux qui participent au développement économique du pays est une bonne chose.
Mais l’approche à un effet pervers quasi létal à long terme: elle freine l’innovation.
Le référentiel SecNumCloud (disponible ici dans sa version 3.2 pour les curieux) est incroyablement contraignant.
Tellement contraignant qu’il a deux impacts immédiat pour toute entreprise qui souhaiterait bénéficier des retombés économiques (les marchés public sus-cité):
- Sa mise en œuvre nécessite une petite armée d’experts en conformité et en sécurité. De facto, seules des entreprises d’une certaine taille peuvent se l’autoriser, excluant ainsi tout une catégorie de jeunes entreprises innovantes ou startup qui souhaiteraient s’insérer sur le marché au travers d’une approche disruptive.
- Les contraintes imposées sont pour la plupart dogmatiques et reposent bien souvent sur une vision un peu datée de la sécurité informatique (stratégie du château fort). Elles conduisent non seulement à la mise en œuvre de dispositifs inutilement couteaux mais à des conditions d’exploitation telles que la qualité de service et sa disponibilité s’en trouve bien souvent dégradée.
Ce dernier point est important. En imposant des contraintes souvent peu compatibles avec les principes même du Cloud Computing (ex: isolation physique des systèmes), l’application du référentiel conduit à la situation inverse du but recherché, c’est-à-dire offrir à nos institutions un écosystème de services de qualité, sécurisés, agiles et compétitifs.
Au lieu de cela, il les enferme aussi bien les institutions que leurs fournisseurs dans un carcan rigide pratiquement hors de porté de nos industriels nationaux, favorisant ainsi, et c’est tout le paradoxe, l’émergence d’offres hybrides telles que SENS (consortium Google / Thales), Bleu (consortium Microsoft, Capgemini et Orange) ou encore l’offre “Cloud Souverain” d’AWS qui contrairement aux deux premiers, ne s’embarrasse même pas de l’objectif d’une qualification SecNumCloud.
De fait, l’innovation normative qui avait pour objectif de favoriser nos fournisseurs nationaux est en train de les tuer.
Son remplacement imminent par un règlement Européen plus accommodant: l’EUCS, ne va probablement pas arranger les choses en supprimant les derniers irritants qui limitent la captation de nos marchés publics par des acteurs étranger.
Pourtant, tout cela partait d’un “bon sentiment”, flécher l’argent public vers nos industriels aidant ainsi leurs développements.
Qu’aurait-il fallu faire alors ?
C’est à la fois terriblement simple et compliqué dans notre contexte juridique actuel (marchés publics) : autoriser nos institutions à émettre des appels d’offres à destination unique d’entreprises Françaises ou Européennes sans s’encombrer d’autres formes d’exigences destinées à masquer maladroitement une préférence nationale, c’est à dire faire exactement ce que font nos amis américains.
Ce n’est pas du protectionnisme, c’est simplement du bon sens économique : utiliser l’argent public pour développer l’économie nationale.
Libérées de la lourdeur normative, administrative et technocratique actuelle, nos entreprises nationales et européennes (souvenez-vous que la taille du marché compte) pourraient tout aussi bien (sinon mieux ?) innover que nos amis américains (ou chinois).
A cette mesure “simple” et pragmatique, j’en ajouterais une plus subtile car culturelle : faire confiance aux ingénieurs.
Google, AWS, Microsoft, Meta, Palantir, Cloudflare, SpaceX, Tesla et bien d’autres sont tous dirigés par des ingénieurs, et pas seulement au poste de CEO, mais sur les 3,4,5 couches de management que comportent ces entreprises.
A quelques rares exceptions (qui se sont rarement révélées concluantes), pas de diplômés d’écoles de commerce, pas de financiers (sauf pour gérer les finances), pas de politiques même pas d’ingénieurs “généralistes”, non, des Ingénieurs ou des autodidactes en Computer Science.
C’est selon moi lié à la complexité et à la spécificité de ce qui est devenu le premier secteur d’activité économique mondial.
Pour réussir dans cette économie il faut la comprendre, l’avoir personnellement expérimenté, être capable d’y discerner les innovations qui vont la transformer de celles que tout le monde aura oublié dans 12 mois, être en mesure de comprendre presque instinctivement l’impact que va avoir sur le produit telle ou telle décision d’organisation, de priorisation, de ré-orientation.
C’est absolument hors de portée d’une personne étrangère au milieu de l’informatique, et malheureusement nombre de nos entreprises françaises et/ou initiatives politiques l’ont démontré (positivement ou négativement) ces trente dernières années.
Conclusion
Les montants d’investissements privés dans l’économie numérique française n’ont jamais été aussi élevés que ces 5 dernières années, l’excuse historique qui consistait à se cacher derrière les possibilités de financement d’outre atlantique s’érode peu à peu.
Il nous reste trois obstacles majeurs à franchir pour espérer rattraper notre retard :
- Faire évoluer nos contraintes juridiques pour flécher directement et simplement la commande publique vers nos entreprises,
- Faire évoluer notre culture et nos réflexes managériaux pour faire confiance aux ingénieurs, j’ai espoir que ce point évolue avec les changements générationnels (sauf peut être dans le monde politique),
- Considérer le marché de Cloud Européen comme un marché réellement européen.
Cette dernière phrase est beaucoup plus lourde de conséquences qu’il n’y paraît.
Pour qu’un véritable marché européen soit possible, nos référentiels doivent être communs, c’est l’objectif d’EUCS.
Mais la violence des discussions et négociations nécessaires à sa ratification mettent en évidence un aspect beaucoup plus crucial et qui dépassent de loin nos préoccupations industrielles : notre autonomie stratégique (au sens militaire du terme).
Il ne vous aura certainement pas échappé que le monde ne se dirige pas vers une plus grande stabilité géopolitique, bien au contraire.
La guerre est à nos portes, et des conflits majeurs se préparent (en asie) ou s’embrasent (au moyen orient).
Dans ce contexte, et en gardant à l’esprit que l’économie de l’informatique (au sens large, matériel, logiciel et services) représente le premier secteur d’activité et de production de richesse mondial, il devient de facto un outil d’influence géopolitique.
Pour faire très très simple : “Je continue à te protéger si tu continues à acheter mes services IT/Cloud”.
On peut comprendre qu’au vu de l’actualité, des pays comme l’Allemagne, peinent à promouvoir un règlement EUCS qui intégrerait nos contraintes SecNumCloud excluantes pour les acteurs Américains.
Nous avons en France (l’illusion d’ ?) une certaine forme d’autonomie sur ces questions du fait de notre indépendance quant à notre défense stratégique (force de dissuasion nucléaire), mais nous devons garder à l’esprit que nous sommes une exception (et la seule) en Europe.
Les conditions de la création d’un véritable marché européen sont loin d’être réunies.
Seule une impulsion politique (commune) nous permettrait d’avancer sur ce sujet, rien ne laisse penser qu’elle est imminente.
Mais que cela ne nous empêche pas de préparer le terrain à notre niveau.