Les dégâts irréversibles causés par l’incendie, début mars 2021, du data center SGB2 d’OVH, le numéro 1 français du cloud computing, n’en finissent pas de provoquer des remous. Le terme de « cataclysme » a même souvent été employé pour qualifier cet accident touchant un secteur d’activité en forte croissance et dont les conséquences sont toujours sensibles.

Quels enseignements pouvons-nous en tirer aujourd’hui ?

Premier enseignement : le nuage n’existe pas

Le vocabulaire fantasmé et infantilisant du cloud computing – « l’informatique en nuage » en français – est durablement mis à mal par cet incendie ayant frappé OVH. Car il n’existe en fait pas plus de nuage que de dématérialisation des données.

Il faudrait plutôt parler ici d’un déplacement physique de l’hypermatérialité des infrastructures qui supportent le réseau Internet d’un point A – le téléphone portable, l’ordinateur sur la table du bureau, le serveur dans l’armoire au bout du couloir, etc. – vers un point B, où elles sont rassemblées et agrégées, à savoir, le datacenter avec ses salles, ses serveurs et ses baies de stockages.

Globalement, il est faux, voire mensonger, de parler de dématérialisation quand il faudrait plus simplement parler d’une « autre matérialisation » ; celle-ci mobilise toujours du ciment, du béton, du verre, des ventilateurs, des câbles, du cuivre, de l’eau, du bitume, etc. !

Le cloud computing n’est qu’une externalisation des données, des applications et des systèmes des terminaux domestiques et/ou professionnels vers des opérateurs distants, dont c’est devenu le métier de stocker, sécuriser, traiter et diffuser les informations confiées par leurs clients.

L’Internet reste un réseau qui relie des ordinateurs entre eux en passant par un protocole commun (TCP/IP). Le ciel et les nuages n’ont rien à voir avec tout cela… si ce n’est pour accueillir les satellites, sachant que ces satellites ne représentent qu’une petite partie du trafic si l’on regarde tout ce qui circule sur terre et sous les mers au travers des câbles qui maillent le globe.

LIRE AUSSI  Protection des données à caractère personnel, quels enjeux pour les entreprises établies au Sénégal ?

La question est donc : quand arrêterons-nous de parler de « ciel » et de « nuage » comme si nous nous adressions à des enfants ?

La réponse n’est pas simple, car enfants, petits et grands, consomment et produisent des données en grande quantité et veulent continuer à rêver d’immortalité, d’immédiateté et de gratuité.

Et la crise sanitaire que nous traversons depuis mars 2020 a même accentué les usages distants – télétravail, visioconférence, coworking, etc. – en renforçant le pouvoir d’adoption des utilisateurs.

La pandémie de Covid-19 a aussi accentué les dépendances aux réseaux, qui n’ont pour la plupart pas encore amorcé le virage de la sobriété numérique. Mais réjouissons-nous qu’une partie du « nuage syntaxique » soit déjà partie en fumée !

Second enseignement : intégrer la vulnérabilité du data center

Les data centers, quelle que soit leur taille, sont devenus incontournables dans la gestion et la circulation de nos données, publiques ou privées, professionnelles ou domestiques, sensibles ou anecdotiques. Ces cyberstructures ont finalement la lourde responsabilité de piloter le cinquième fluide qu’est Internet.

Il est donc indispensable d’en repenser la sécurité et la vulnérabilité, en intégrant la possibilité de leur disparition physique. Si la plupart des risques naturels ont été intégrés et modélisés pour assurer la pérennité de ces installations coûteuses et stratégiques, reste qu’un incendie, une inondation, un tremblement de terre, un acte de malveillance, une intrusion, voire une déflagration lors d’un attentat restent possibles.

Cette prise en compte du risque majeur de disparition de l’usine à données doit être intégrée au niveau individuel – c’est déjà largement le cas lorsqu’un client professionnel signe son contrat d’infogérance avec un fournisseur et qu’il y envisage sa réversibilité – mais aussi au niveau collectif.

LIRE AUSSI  Après sa tournée économique, Macky Sall inaugure ses projets technologiques

Or c’est moins le cas si l’on pense ces installations en termes de « bien commun », comme en témoigne le désarroi de certains clients publics et parapublics d’OVH.

Pour tout utilisateur, ce qui compte, c’est finalement de savoir où sont donc stockées ses données à un instant T et ce qui se passe si elles venaient à disparaître à tout jamais…

Pour beaucoup d’utilisateurs du cloud – y compris des PME et PMI –, la réponse à cette double interrogation n’a rien d’évident ; se la poser constitue même un premier pas.

La relocalisation des données est parfois envisageable, la vente de mainframe et de serveurs hébergés est d’ailleurs en forte croissance, notamment pour des aspects sécuritaires et de souveraineté.

Troisième enseignement : produire moins de données

L’impact environnemental de telles infrastructures est énorme et il ne cessera de croître au fur et à mesure de l’explosion mécanique des données à traiter. On ne parle pas de big data par hasard !

De loin, c’est bien leur construction et la mobilisation de milliers de matériaux et ressources variés qui s’avèrent énergivores ; vient ensuite leur maintenance et fonctionnement, avec une forte consommation d’eau et d’électricité, notamment pour assurer le refroidissement en continu.

Même si les projets sont de plus en plus efficients énergétiquement et n’ont plus grand-chose à voir avec les premières usines à données californiennes des années 2000 à 2010, les gigantesques data centers demeurent des gouffres énergétiques.

L’enjeu ici n’est pas tant de repenser ces infrastructures que la production des données. Ce qui nous amène à de nouvelles questions : quand penserons-nous la mortalité des données (leur durée de vie) ? Quand envisagerons-nous de ne pas produire de données, qui demeurent dans la plupart des cas bien inutiles, insipides et inexploités.

LIRE AUSSI  Entreprenariat numérique féminin: Remise des Prix aux lauréates du Linguère Digital Challenge
Un des data centers d’Amazon à Sterling, en Virginie. Eric Hunsaker/FlickrCC BY

Vers une plus grande sobriété numérique ?

Plutôt que de renforcer la sécurité et la taille des data centers, plutôt que d’attendre l’avènement d’une lointaine informatique quantique, ne vaudrait-il pas mieux produire moins de données ?

C’est tout à fait possible pour faire un pas vers la sobriété numérique et la responsabilité digitale.

Les e-déchets sont en forte croissance : or, comme pour beaucoup d’autres choses, les moins chers à recycler sont ceux que nous n’aurons pas produits.

Dans ce contexte, c’est la question de la pertinence même de dispositifs, innovations ou systèmes – qui vont mécaniquement créer des données, fabriquer des métadonnées et impulser du trafic sur le web – qui se pose. On pense ici à la 5G, à l’Internet des objets, à l’intelligence artificielle, à la crypto économie (et plus largement l’économie du token), voire à l’industrie 4.0 dans son ensemble.

Si le data center constitue un outil essentiel, il ne fait en général que stocker et traiter des données créées ailleurs. Rappelons que ce même datacenter est souvent la propriété de géants du web –, Amazon, Facebook, Microsoft ou Google.

Le business model de ces plates-formes reposant justement sur la création, l’exploitation et la monétisation des données, on peut douter de leur intérêt à une quelconque sobriété numérique… Ce sera par défaut au citoyen, au politique et au législateur de se prononcer.

Marc Bidan

Professeur des Universités – Management des systèmes d’information – Polytech Nantes, Auteurs historiques The Conversation France

Dans Theconversation

COMMENTAIRES

Je donne mon avis sur le sujet