IA, EUROPE ET DROITS FONDAMENTAUX EN PÉRIL ?
L’intelligence artificielle, fascinante mais potentiellement nuisible, s’inscrit dans la longue tradition des technologies inquiétantes depuis la Révolution industrielle. Les régulations européennes peineraient à protéger les droits fondamentaux, et l’autorégulation des entreprises resterait insuffisante.
Éducation, emploi, prestations sociales… tout y passe
La Commission européenne, en retardant la supervision des systèmes d’IA « à haut risque » « sous la pression de Berlin, de Washington et des géants de la tech », nous rappelle une habitude bien ancrée : attendre patiemment que des normes parfaitement claires apparaissent, comme si le simple passage du temps pouvait résoudre par magie des problèmes éthiques et sociaux. Pendant ce temps, l’autorégulation des fournisseurs d’IA, brandie comme un argument rassurant, reste limitée. En fait, ces outils évaluent des compétences, mesurent des capacités et décident de prestations sociales, et malgré toutes leurs promesses d’objectivité, ils risquent de se prendre les circuits dans les droits fondamentaux des citoyens.
Depuis la Révolution industrielle, chaque nouvelle technologie suscite un curieux mélange de fascination et d’inquiétude. La machine à vapeur, l’électricité, le téléphone, l’informatique… toutes ont été accueillies avec un enthousiasme débordant pour leur potentiel à transformer la vie quotidienne, mais aussi avec une bonne dose de sueur froide face aux bouleversements sociaux et économiques qu’elles pouvaient engendrer. Aujourd’hui, l’intelligence artificielle s’inscrit dans cette longue tradition : prometteuse, séduisante, mais capable de chambouler l’éducation, l’emploi, l’asile, et pourquoi pas, nos droits fondamentaux avec la délicatesse d’un bulldozer numérique.
Jacques Ellul aurait sans doute froncé les sourcils devant ce spectacle. Pour lui, l’IA aurait été la quintessence de la « technique autonome » : une innovation qui évolue selon sa propre logique interne, indifférente aux considérations morales ou sociales. Elle agit, décide et peut influencer nos vies sans que nous ayons vraiment les moyens de la contrôler et, si l’on est honnête, qui aurait pensé que ça se passerait autrement ?
À ce titre, si les machines industrielles de jadis pouvaient exploiter la main-d’œuvre ou accentuer les inégalités, les systèmes d’IA seraient susceptibles d’amplifier les biais sociaux, violer la vie privée et compliquer l’accès aux services essentiels. Et c’est pourquoi l’Agence européenne des droits fondamentaux (FRA) a tiré la sonnette d’alarme : les réglementations peinent à encadrer ces technologies, et les entreprises elles-mêmes semblent parfois perdues face aux conséquences de leurs propres créations (FRA, 2025). Autrement dit, la technique avance plus vite que notre sagesse collective, et personne n’a pensé à nous fournir un manuel d’instructions pour suivre le rythme. Donc, rien de nouveau sous le soleil technologique.
Pour sa part, Umberto Eco aurait probablement souri de ce mélange d’angoisse et de fascination : l’IA, avec ses verdicts froids et apparemment rationnels, créerait une tension presque dramatique. Nous voilà à la fois admiratifs et inquiets, plongés dans un récit où la machine semble écrire notre destinée avec un petit sourire ironique, comme si elle savourait notre perplexité.
En somme, l’IA poursuit le cycle classique des innovations technologiques : fascinante, inquiétante et souvent plus rapide que notre capacité à en réguler les effets. La société doit jongler entre progrès technique et protection des droits fondamentaux, tout en essayant de conserver un regard critique face à la logique parfois implacable de la technique. Après tout, si l’histoire nous apprend quelque chose, c’est que l’optimisme technologique ne dispense jamais de vigilance…. Les deux grandes guerres sont là pour nous le rappeler.
© Pierre Fraser (PhD, linguiste et sociologue), 2020-2025
