IA : INTERACTION, INTEROPÉRABILITÉ ET INTERDÉPENDANCE TECHNOLOGIQUE
L’IA s’ajoute aux systèmes existants comme un composant transversal qui renforce l’interaction, l’interopérabilité et l’interdépendance entre technologies. Sans être au centre, elle amplifie la capacité des logiciels à communiquer entre eux, à se coordonner et à s’inscrire dans des architectures toujours plus vastes et connectées.
Analyse de l’interconnexion exponentielle
L’interconnexion technologique
Les technologies compatibles entre elles doivent impérativement s’interconnecter afin de fournir des données pour optimiser différents processus. En ce sens, l’Internet des objets — ensemble d’objets connectés — représente cette ultime connexion.
L’interconnexion technologique est rendue possible grâce à des protocoles de communication. Ainsi, depuis la mise au point du protocole Bluetooth, qui permet un échange bidirectionnel de données à très courte distance via des ondes radio UHF sur la bande de fréquence de 2,4 GHz, toute une gamme de technologies s’est développée autour de lui. Des écouteurs, des haut-parleurs ou encore des microphones sans fil, par exemple, peuvent ainsi se connecter aux téléphones intelligents. Le protocole USB[1], norme permettant de relier des périphériques informatiques à un ordinateur ou à tout autre appareil compatible, constitue également un exemple emblématique d’interconnexion.
Tous ces protocoles permettent à une vaste gamme de technologies de s’interconnecter et d’échanger entre elles des données. Par exemple, une interface vocale connectée à une borne WiFi permet de contrôler des objets domotiques (lampes, capteurs) à travers le protocole Z-Wave. Lorsqu’une question est posée à une interface vocale, toute une gamme de protocoles Internet sont mobilisés pour transmettre la requête à un serveur et retourner une réponse au demandeur. En somme, du moment où une quelconque technologie est utilisée, c’est la mobilisation systématique d’un ensemble de protocoles d’interconnexion qui est à l’œuvre.

L’avenir sera technologique, parce qu’on vous l’a promis. Un avenir radieux, bien sûr. Une marche inexorable vers le progrès, où l’intelligence artificielle résoudra tout, des crises économiques aux affres existentielles, en passant par le climat et la démocratie. Mais derrière les promesses léchées et les slogans lénifiants, que nous vend réellement le discours technologique ? Une vision du futur, ou un programme pré-écrit, verrouillé, où l’innovation ne se discute pas, elle s’accepte.
L’interaction technologique
Étant donné qu’un logiciel ne peut agir en vase clos, il doit, par sa nature même, constamment entrer en interaction avec d’autres composants d’un système beaucoup plus vaste.
Tout logiciel constitue essentiellement un système massivement connecté qui interagit à la fois avec ses propres éléments constitutifs (les différents modules, bibliothèques ou microservices qui le composent) et avec les autres logiciels présents dans son environnement immédiat (systèmes d’exploitation, middlewares, réseaux, autres applications métier). Chaque développement subséquent ne fait qu’ajouter à cette complexité et se traduit par un empilement de nouvelles couches de programmation sur les fondations logicielles plus anciennes, lesquelles s’appuient sur, étendent, ou modifient les fonctionnalités existantes, créant de ce fait des interconnexions et des dépendances croisées qui n’étaient souvent non initialement prévues ni documentées par les concepteurs du système original. Ce phénomène d’accumulation progressive est une source majeure de ce qu’on appelle la dette technique.
Concrètement, l’interaction, cette propriété intrinsèque et omniprésente à tout logiciel moderne, augmente de manière exponentielle la complexité systémique. Cette augmentation est directement liée à l’effet d’accrétion : à mesure que de nouveaux services, fonctionnalités ou technologies sont ajoutés (souvent pour répondre à des besoins urgents), la facilité à s’interconnecter à ces nouvelles briques rend leur intégration non seulement possible, mais dans l’écosystème agile actuel, souvent inévitable. Chaque nouvelle connexion ajoute un point de défaillance potentiel, une nouvelle dépendance à gérer, et une nouvelle surface d’attaque pour la sécurité, transformant le système initialement simple en un réseau dense et difficile à cartographier ; c’est le prix à payer pour l’évolutivité et la richesse fonctionnelle.
L’interopérabilité technologique
Non seulement les systèmes déjà compatibles entre eux se connectent-ils, non seulement interagissent-ils, mais il faut aussi faire en sorte que des systèmes non compatibles puissent communiquer entre eux, c’est-à-dire arriver à un ordre de connexion et d’interaction supérieur.
L’avantage majeur de l’interopérabilité est qu’elle nous permet de gagner du temps et de l’argent en évitant de devoir créer une nouvelle pièce de A à Z simplement pour que deux systèmes puissent échanger de l’information ; il suffit d’utiliser des ponts de communication pour assurer l’harmonie entre des technologies qui n’étaient pas destinées à travailler ensemble.
Toutefois, faire parler des systèmes initialement incompatibles ajoute des couches de complexité invisibles ; c’est le phénomène de l’accumulation de la complexité. Imaginons la plomberie : pour raccorder un vieux tuyau à un robinet moderne, il faut ajouter de nombreux joints, adaptateurs et raccords, sans compter que chaque ajout est une nouvelle pièce qui peut fuir. Par extension, en connectant nos systèmes récents aux anciens, nous importons également les vieux problèmes et les défauts du passé.
En fait, plus on interconnecte, plus on augmente la fragilité de l’ensemble. Quand tout est relié, le système devient un château de cartes : la panne d’un seul petit élément peut provoquer un effondrement en cascade partout ailleurs. De plus, pour un pirate, plus il y a de connexions, plus il y a de portes d’entrée possibles, et il suffit pour ce dernir d’en trouver une seule mal verrouillée pour accéder à tout le réseau. Finalement, l’ensemble devient si complexe que même les ingénieurs ne peuvent plus le comprendre dans son entièreté, ce qui rend les réactions du système imprévisibles face à l’inconnu.
Arement dit, si l’interopérabilité offre puissance et facilité d’usage, elle crée en contrepartie une complexité cachée qui rend le réseau dense, interdépendant et, paradoxalement, plus fragile.
L’interdépendance technologique
L’interdépendance intervient du moment où des systèmes qui n’ont jamais été conçus ni pour s’interconnecter ni pour être interopérables arrivent à se connecter pour en faciliter leur gestion.
L’interdépendance émerge à l’instant précis où des systèmes, dont la conception initiale n’a jamais envisagé ni l’interconnexion intrinsèque ni l’interopérabilité fonctionnelle, parviennent néanmoins à s’intégrer afin de faciliter ou d’optimiser leur gestion. Elle se manifeste ainsi comme un phénomène a posteriori, une synergie non préméditée.
Le paradigme le plus éloquent de cette interdépendance technologique contemporaine est sans doute la nébuleuse de systèmes essentiels dorénavant amalgamés : l’Internet enlacé au réseau de distribution électrique, ce dernier couplé aux feux de signalisation, aux infrastructures d’épuration des eaux usées, ou encore aux appareils médicaux sophistiqués d’un établissement hospitalier. Il suffit, dans ce tissu systémique serré, qu’une seule maille cède pour qu’une cascade d’événements se déclenche, menaçant d’entraîner l’effondrement d’une portion significative de chacun des systèmes interdépendants.
On pourrait, par une prudence salutaire, plaider pour la nécessité d’éviter à tout prix l’interopérabilité de ces infrastructures cruciales au bon fonctionnement sociétal. Or, une telle abstinence est devenue une chimère. Pourquoi ? Simplement parce que l’interconnexion peut être réalisée à un coût marginal si infime qu’une non-réalisation relèverait de l’inconséquence économique la plus crasse. Dès lors que les ingénieurs s’ingénient à concevoir des interfaces efficaces et hautement opérables pour chaque nouveau développement en s’appuyant sur les protocoles universels de l’Internet, la jonction des systèmes devient trivialement aisée. Qui pourrait s’en priver ?
L’acte de création pour l’ingénieur est une dialectique perpétuelle, confrontant le coût potentiel lié à une défaillance (Cd) au coût intrinsèque de la conception (Cc). Il s’agit d’une recherche incessante du point d’équilibre entre la prévision des conséquences d’une panne et l’assurance du bon fonctionnement du système.
L’histoire de l’informatique nous offre des illustrations parlantes : les anciennes itérations du système d’exploitation Windows de Microsoft affichaient parfois l’infâme « écran bleu de la mort », un message cryptique intelligible des seuls initiés. L’irruption impromptue de cet écran signait la perte immédiate des données non sauvegardées. À l’échelle de l’individu rédigeant un texte sous Word, les répercussions demeuraient circonscrites. Cependant, lorsque l’on transpose ce concept à un réseau de distribution électrique, un dysfonctionnement équivalent peut paralyser la vie de dizaines de millions de citoyens, conférant ainsi à la simple défaillance une dimension civilisationnelle.
Le principe fondamental, érigé en axiome dans le credo de l’ingénierie, est le suivant : plus le risque d’un système affecte un nombre élevé d’individus, plus sa conception doit être robuste. Les ouvrages d’art, tels que les ponts ou les édifices majeurs, en sont les archétypes. Une exigence de robustesse accrue induit inévitablement un coût de développement plus élevé, car elle implique une vérification exhaustive et indépendante de chaque composant. A contrario, la pression exercée par l’explosion des coûts de conception en systèmes robustes pousse à la recherche constante de méthodes de réduction de ces mêmes coûts. C’est une équation économique et sécuritaire dont on ne peut s’affranchir.
Jusqu’à une période récente, le coût de développement d’un système robuste (Cc) excédait généralement le coût estimé d’une défaillance éventuelle (Cd). Néanmoins, l’avènement d’outils de modélisation et de conception informatique dopés à l’IA de plus en plus sophistiqués, efficaces et précis a engendré un renversement des coûts spectaculaire au cours des dernières années.
La conséquence de ce bouleversement est que, si le coût de conception a significativement diminué, le coût lié à la défaillance a, paradoxalement, littéralement explosé. L’explication réside dans la simplicité et le faible coût de l’interconnexion universelle. Il est devenu si aisé de rendre tout interopérable que la moindre défaillance, quelle que soit son origine dans le continuum systémique, se propage et engendre des répercussions d’une ampleur inédite.
Considéré sous cet angle vertigineux, il semble que l’architecture même de notre civilisation repose désormais sur une véritable bombe à retardement technologique. Lorsque le coût de conception chute drastiquement et que le coût d’un dysfonctionnement augmente de manière exponentielle, la société bascule dans un univers de complexité quasi infinie, dont les tenants et les aboutissants nous échappent encore largement.
Les marqueurs de cette complexité sont patents. Dans les années 1980 et 1990, nous parlions de mégaoctets en informatique ; dix ans plus tard, de nouveaux préfixes (giga, téra, péta, exa) ont pris le relais. Ces simples évolutions terminologiques témoignent de la densification et de la complexité croissante de nos systèmes et, par extension, de nos sociétés. La naissance d’une discipline spécifique telle que le Big Data (ou « données massives ») n’aurait pu se concevoir autrement.
Quelques constats
S’il est indubitable que l’interconnexion actuelle des technologies repose sur une architecture robuste de protocoles existants (notamment ceux inhérents à la suite TCP/IP et aux standards de communication industriels), assurant l’interaction, l’interopérabilité et, par extension, l’interdépendance des systèmes, il est éminemment plausible de supposer que l’Intelligence Artificielle (IA) est destinée à fédérer, voire à transcender, ce phénomène. En fait, l’IA n’est pas uniquement un outil de traitement de données ; elle est, fondamentalement, un moteur de complexité et d’optimisation dynamique. En voici quelques applications :
- fédérer l’hétérogénéité existante : l’IA excelle dans la reconnaissance de motifs et la gestion de la complexité dynamique. Appliquée à l’interconnexion, elle pourrait dépasser la rigidité des protocoles statiques pour créer des interfaces d’abstraction intelligentes. Ces interfaces permettraient à des systèmes fondamentalement hétérogènes, conçus sur des stacks technologiques et des logiques d’opération dissemblables (par exemple, un réseau électrique ancien et un réseau de capteurs IoT moderne), de dialoguer de manière fluide et adaptative. L’IA agirait ici comme un traducteur universel et un négociateur de protocoles en temps réel, optimisant les échanges et anticipant les points de friction ;
- émergence de nouveaux méta-protocoles : au-delà de la simple gestion, l’IA est susceptible de proposer de nouveaux protocoles d’interconnexion qui ne seraient plus dictés par des contraintes matérielles ou des choix a priori de conception humaine, mais seraient synthétisés par l’IA elle-même afin de maximiser l’efficacité globale du réseau interdépendant. Ces méta-protocoles optimiseraient non seulement la vitesse et le volume des échanges d’information, mais également des critères plus subtils tels que la résilience énergétique, la sécurité cybernétique distribuée, ou la latence critique en fonction des charges et des menaces perçues : on assisterait alors à la naissance d’une architecture cognitive du réseau ;
- interdépendance maximale gérée : la finalité de cette intégration par l’IA serait d’atteindre le plus haut degré d’interdépendance possible, mais avec une gestion intelligente et proactive du risque. Si, comme nous l’avons évoqué, l’interdépendance mène à une cascade de défaillances, l’IA pourrait être l’outil permettant de désamorcer ces chaînes causales, capable d’isoler dynamiquement les composants défaillants ou menacés, de redistribuer les charges sur des chemins alternatifs, et surtout, d’apprendre en continu des incidents passés pour rendre le réseau plus robuste sans nécessairement augmenter le coût matériel de conception. Dès lors, la complexité ne serait pas éliminée, mais elle serait maîtrisée cognitivement.
L’intégration de l’IA fait donc passer l’interdépendance d’un état subi (un accident de conception) à un état optimisé et piloté (une stratégie de résilience). Cela ouvre la voie non seulement au déploiement massif à l’Internet des Objets (IoT), mais aussi à l’Internet des Systèmes Critiques (ISC), dont la survie dépendra de l’intelligence avec laquelle ils s’interfaceront.
© Pierre Fraser (PhD), linguiste et sociologue / [2020-2025]
Balado tiré de cet article
[1] Universal Serial Bus.
