IA : QUAND LA RATIONALITÉ DEVIENT CROYANCE
L’IA n’est plus un outil, mais une nouvelle souveraineté : elle classe, prédit, juge et gouverne au nom d’une efficacité algorithmique sacralisée. Derrière la promesse d’un futur radieux, elle reproduit les biais, transforme les institutions, redéfinit le travail et installe une infrastructure sociale opaque où l’humain devient variable d’ajustement.
Anatomie d’une absorption technique totale
English version
Artificial intelligence, that contemporary marvel one could almost describe as the “ultimate rationalization”, and some indeed do, with a blend of admiration and thinly veiled fear, no longer recognizes any boundary between the military, medical, commercial, policing, or political spheres: what matters now is not the domain, but the pure and simple algorithmic efficiency that current technologies make miraculously accessible to anyone who possesses, or believes they possess, a massive volume of data to process.
Make no mistake: when Google, Meta, OpenAI, Microsoft and other titans devote themselves to building monumental data infrastructures, it is not only to satisfy the eternal appetite of shareholders, though that undeniably helps, but because those same economic imperatives could not exist without AI capable of managing, sorting and predicting oceans of numbers and human behaviors with an ease that would make Leibniz himself blush [1]. One could almost imagine a future in which algorithmic rationalization becomes so seductive that refusing to submit to it would be seen as an act of pointless bravery or, worse, technological backwardness.
And while the shadow of this rationalization spreads over old institutions, long known for their slowness and traditions (justice, policing, the State itself), surprising mechanisms appear: at University College London, an algorithm promises to predict the outcome of human rights cases with an accuracy that would make Nostradamus look like an amateur. One could almost applaud, were it not for the fact that this type of instrument, like all its cousins in risk assessment and predictive policing, reproduces historical biases: already marginalized groups receive higher risk scores not for what they do, but for what statistical history has decided they are. The utopia of impartial justice thus becomes an ironic farce, where rationality drapes itself in authority and neutrality while resting on socially questionable foundations [2].
Some defenders of AI in the justice system argue, with an enthusiasm bordering on beatitude, that these systems could help prioritize serious cases and relieve overworked judges. A charming promise: accelerated bureaucracy and algorithmic arbitrariness meet, while transparency, once the cornerstone of democracy, becomes an optional feature.
In the world of work, since the release of ChatGPT and its cousins in 2022, generative AI has spread like a benevolent epidemic, or like a specter, depending on your philosophical inclination. It writes, synthesizes, translates, creates, automates; in short, it performs tasks humans could have done, but with unwavering zeal. In Canada, 46% of workers already use it, and in certain sectors, adoption is nearly universal [3]. Management enthusiasm is palpable: 85% of employers encourage or require its use, and the shadow of GPT becomes the invisible office where one works “in the background” [4]. Productivity increases, certainly, but human dialogue, emotional nuance, and the capacity for astonishment decrease in inverse proportion.
The same logics spread into the financial and insurance sectors. AI is no longer a mere tool but a central actor determining fraud detection, cash-flow planning, and risk assessment [5]. In insurance, it now dictates coverage levels and contract recommendations behind a veil of data and opaque models. One can almost imagine accountants and actuaries transformed into puppets orchestrated by invisible algorithmic flows, while the question of sovereignty, responsibility, and democratic control is relegated to a purely academic concern.
Technological absorption, the process by which technology ceases to be an instrument and becomes a social infrastructure, now reaches its apex with generative AI. When these systems intersect with surveillance, influence rights, opportunities, and lives, technology stops being a simple tool and becomes an “effective but dehumanized social space” [6]. We live in a world where AI does not merely facilitate: it subtly governs, shapes power relations, and restructures subjectivities with the reassuring coldness of an immortal librarian capable of reading every thought and every human decision.
The question is therefore no longer simply whether we are using AI wisely, but whether we can rethink the place of the human, of ethics, and of democracy in a world where technology is no longer external but central and indispensable, quietly, consistently orchestrating our social, professional, and moral lives.
Versión española
La inteligencia artificial, esa maravilla contemporánea que uno podría casi calificar de «racionalización última», y algunos lo afirman, con una mezcla de admiración y un temor apenas disimulado, ya no reconoce fronteras entre las esferas militar, médica, comercial, policial o política: lo importante ya no es el dominio, sino la pura y simple eficiencia algorítmica que las tecnologías actuales vuelven milagrosamente accesible para todos aquellos que poseen, o creen poseer, un enorme volumen de datos que procesar.
No hay que equivocarse: cuando Google, Meta, OpenAI, Microsoft y otros titanes se dedican a construir infraestructuras de datos monumentales, no es solo para satisfacer el apetito eterno de los accionistas, aunque eso sin duda ayuda, sino porque esos mismos imperativos económicos no podrían existir sin una IA capaz de gestionar, ordenar y predecir océanos de cifras y comportamientos humanos con una facilidad que haría sonrojar al propio Leibniz [1]. Uno podría casi imaginar un futuro en el que la racionalización algorítmica resulte tan seductora que negarse a someterse a ella sería visto como un acto de valentía inútil o, peor aún, de anticuada torpeza tecnológica.
Y mientras la sombra de esta racionalización se extiende sobre las antiguas instituciones, conocidas desde siempre por su lentitud y sus tradiciones (la justicia, la policía, el Estado mismo), surgen dispositivos sorprendentes: en el University College London, un algoritmo promete predecir el resultado de los juicios en materia de derechos humanos con una precisión que haría pasar a Nostradamus por un aficionado. Uno casi podría aplaudir, si no fuera porque este tipo de instrumento, como todos sus primos del risk assessment y del predictive policing, reproduce los sesgos históricos: los grupos ya marginados reciben puntuaciones de riesgo más elevadas, no por lo que hacen, sino por lo que la historia estadística ha decidido que son. La utopía de una justicia imparcial se convierte así en una farsa irónica, donde la racionalidad se reviste de autoridad y neutralidad mientras se apoya en bases socialmente cuestionables [2].
Algunos defensores de la IA en la justicia sostienen, con un entusiasmo que roza la beatitud, que estos sistemas podrían ayudar a priorizar los casos graves y aliviar al juez saturado. Una promesa encantadora: la burocracia acelerada y el arbitrio algorítmico se dan cita, mientras que la transparencia, antaño piedra angular de la democracia, se vuelve una opción secundaria.
En el mundo laboral, desde el lanzamiento de ChatGPT y sus primos en 2022, la IA generativa se ha propagado como una epidemia benevolente, o como un espectro, según la sensibilidad filosófica. Redacta, sintetiza, traduce, crea, automatiza; en suma, ejecuta tareas que el ser humano podría haber realizado, pero con un celo inquebrantable. En Canadá, el 46 % de los trabajadores ya la utiliza, y en algunos sectores la adopción es casi universal [3]. El entusiasmo empresarial es palpable: el 85 % de los empleadores fomentan o imponen su uso, y la sombra de GPT se convierte en esa oficina invisible donde se trabaja “entre bastidores” [4]. La productividad aumenta, claro está, pero el diálogo humano, la matización emocional y la capacidad de asombro disminuyen en proporción inversa.
Las mismas lógicas se difunden en los sectores financiero y asegurador. La IA ya no es una simple herramienta, sino un actor central que decide la detección de fraudes, la planificación de tesorería y la evaluación de riesgos [5]. En los seguros, dicta ahora los niveles de cobertura y las recomendaciones de contratos tras un velo de datos y modelos opacos. Uno casi podría imaginar a contables y actuarios convertidos en marionetas orquestadas por flujos algorítmicos invisibles, mientras que la cuestión de la soberanía, la responsabilidad y el control democrático queda relegada a una preocupación puramente académica.
La absorción tecnológica, ese proceso por el cual la técnica deja de ser instrumento para convertirse en infraestructura social, alcanza ahora su apogeo con la IA generativa. Cuando estos sistemas se cruzan con los de vigilancia, cuando influyen en derechos, oportunidades y vidas, la tecnología deja de ser una herramienta y se convierte en un «espacio social eficaz pero deshumanizado» [6]. Vivimos en un mundo donde la IA no solo facilita: gobierna sutilmente, moldea las relaciones de poder y reestructura las subjetividades con la frialdad tranquilizadora de un bibliotecario inmortal capaz de leer cada pensamiento y cada decisión humana.
Ya no se trata únicamente de saber si usamos bien la IA, sino de replantear por completo el lugar del ser humano, de la ética y de la democracia en un mundo donde la tecnología ya no es externa, sino mediana e indispensable, orquestando con ironía y constancia nuestra vida social, profesional y moral.
L’intelligence artificielle, cette merveille contemporaine que l’on pourrait presque qualifier de « rationalisation ultime », et certains l’affirment, avec un mélange d’admiration et de frayeur à peine dissimulé, ne connaît plus de frontières entre les sphères militaire, médicale, commerciale, policière ou politique : l’important n’est plus tant le domaine que la pure et simple efficacité algorithmique, que les technologies actuelles rendent miraculeusement accessible à tous ceux qui possèdent, ou croient posséder, un gigantesque volume de données à traiter.
Il ne faut pas se méprendre : lorsque Google, Meta, OpenAI, Microsoft et autres titans s’emploient à bâtir des infrastructures de données monumentales, ce n’est pas seulement pour satisfaire l’éternel appétit des actionnaires, quoique cela aide indéniablement, mais parce que ces mêmes impératifs économiques ne sauraient exister sans l’IA capable de gérer, trier et prédire des océans de chiffres et de comportements humains avec une aisance qui ferait pâlir Leibniz lui-même[1]. On pourrait presque imaginer un futur où la rationalisation algorithmique deviendrait si séduisante que refuser de s’y plier serait perçu comme un acte de bravoure inutile ou, pire, de ringardise technologique.
Et tandis que l’ombre de cette rationalisation s’étend sur les institutions anciennes, réputées pour leur lenteur et leurs traditions (la justice, la police, l’État lui-même), apparaissent des dispositifs surprenants : à l’University College London, un algorithme promet de prédire l’issue des procès en matière de droits de l’homme avec une précision qui ferait passer Nostradamus pour un amateur. On pourrait presque applaudir, si ce n’était que ce type d’instrument, comme tous ses cousins du risk-assessment et du predictive policing, reproduit les biais historiques : les groupes déjà marginalisés se voient attribuer des scores de risque plus élevés, non pas pour ce qu’ils font, mais pour ce que l’histoire statistique a décidé qu’ils étaient. L’utopie d’une justice impartiale devient alors une ironique farce, où la rationalité se drape dans l’autorité et la neutralité, tout en s’appuyant sur des fondations socialement contestables[2].

L’avenir sera technologique, parce qu’on vous l’a promis. Un avenir radieux, bien sûr. Une marche inexorable vers le progrès, où l’intelligence artificielle résoudra tout, des crises économiques aux affres existentielles, en passant par le climat et la démocratie. Mais derrière les promesses léchées et les slogans lénifiants, que nous vend réellement le discours technologique ? Une vision du futur, ou un programme pré-écrit, verrouillé, où l’innovation ne se discute pas, elle s’accepte.
Certains défenseurs de l’IA dans la justice arguent avec un enthousiasme qui frôle la béatitude que ces systèmes pourraient aider à prioriser les affaires graves et soulager le juge débordé. Charmante promesse : la bureaucratie accélérée et l’arbitraire algorithmique se donnent rendez-vous, et la transparence, jadis pierre angulaire de la démocratie, devient une option facultative.
Dans le monde du travail, depuis le lancement de ChatGPT et de ses cousins en 2022, l’IA générative s’est répandue comme une épidémie bienveillante, ou comme un spectre, selon votre sensibilité philosophique. Elle rédige, synthétise, traduit, crée, automatise ; bref, elle exécute les tâches que l’humain aurait pu faire, mais avec un zèle sans faille. Au Canada, 46 % des travailleurs l’utilisent déjà, et dans certains secteurs, l’adoption est quasi universelle[3]. L’enthousiasme patronal est palpable : 85 % des employeurs encouragent ou imposent son usage, et l’ombre de GPT devient ce bureau invisible où l’on travaille “dans l’ombre”[4]. La productivité augmente, certes, mais le dialogue humain, la nuance émotionnelle et la capacité de s’étonner diminuent en proportion inverse.
Les mêmes logiques se diffusent dans le secteur financier et assurantiel. L’IA n’est plus un simple outil, mais un acteur central qui décide de la détection des fraudes, de la planification de trésorerie et de l’évaluation des risques[5]. Dans les assurances, elle dicte désormais les niveaux de couverture et les recommandations de contrat, derrière un voile de données et de modèles opaques. On pourrait presque imaginer des comptables et des actuaires transformés en pantins orchestrés par des flux algorithmiques invisibles, tandis que la question de la souveraineté, de la responsabilité et du contrôle démocratique se retrouve reléguée au rang de préoccupation académique.
L’absorption technologique, ce processus par lequel la technique cesse d’être instrument pour devenir infrastructure sociale, atteint désormais son apogée avec l’IA générative. Lorsque ces systèmes se croisent avec ceux de la surveillance, qu’ils influencent les droits, les opportunités et les vies, la technologie cesse d’être un simple outil et devient un « espace social efficace mais déshumanisé »[6]. Nous vivons dans un monde où l’IA ne se contente pas de faciliter, elle gouverne subtilement, façonne les rapports de pouvoir et restructure les subjectivités avec la froideur rassurante d’un bibliothécaire immortel, capable de lire chaque pensée et chaque décision humaine.
Il ne s’agit donc plus seulement de savoir si l’on utilise l’IA à bon escient, mais de repenser entièrement la place de l’humain, de l’éthique et de la démocratie dans un monde où la technologie n’est plus externe, mais médiane et indispensable, orchestrant avec ironie et constance notre vie sociale, professionnelle et morale.
© Pierre Fraser (PhD), linguiste et sociologue / [2020-2025]
RÉFÉRENCES
[1] Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press.
[2] arXiv. (2023). CrimeGAT: Leveraging Graph Attention Networks for Enhanced Predictive Policing in Criminal Networks. arxiv.org.
[3] KPMG. (2025). Canadian Workforce and AI Adoption Survey. kpmg.ca
[4] Statistiques Canada (2024). Exposition à l’intelligence artificielle dans les emplois au Canada : estimations expérimentales.
[5] KPMG. (2025). Op. cit.
[6] Le Monde (2025). Stéphane Hugon, sociologue : « L’IA crée un espace social efficace, mais déshumanisé ».

