SURVIVRE À L’IA EN ÉDUCATION ET AU TRAVAIL
Visionner la vidéo
Refuser de subir les récits technologiques
La technologie ne s’impose jamais seule. Elle arrive toujours accompagnée de récits :
- promesses de salut ;
- menaces de déclassement ;
- mythes d’efficacité totale.
Nous affirmons la nécessité de déconstruire ces narratifs, d’en révéler les idéologies sous-jacentes :
- visions du travail,
- rapports à l’autorité,
- conceptions implicites de la valeur humaine.
Lire les récits, c’est reprendre du pouvoir sur l’avenir.

La question n’est plus, « Sais-tu utiliser une IA ? », mais « Sais-tu penser avec plusieurs intelligences sans perdre la tienne ? »

Il fut un temps où savoir utiliser un outil suffisait à faire la différence. Un logiciel de plus, une méthode de plus, un raccourci clavier de plus. Aujourd’hui, ce temps paraît presque attendrissant. Car l’irruption massive des intelligences artificielles n’a pas seulement ajouté de nouveaux instruments à la boîte à outils du travail intellectuel ; elle a déplacé le centre de gravité de la compétence elle-même. La question n’est plus, « Sais-tu utiliser une IA ? », mais « Sais-tu penser avec plusieurs intelligences sans perdre la tienne ? »
Dans les open spaces comme dans les salons, sur les plateformes de travail comme dans les politiques publiques, une même tension se dessine : l’automatisation progresse vite, très vite, tandis que la capacité à organiser le sens progresse, elle, beaucoup plus lentement. Et c’est précisément dans cet écart que se loge désormais la valeur humaine.
1. Orchestrer plutôt qu’utiliser : la nouvelle grammaire du travail intellectuel
L’intelligence artificielle n’est plus un outil isolé que l’on consulte ponctuellement, comme on ouvrirait un dictionnaire ou un moteur de recherche. Elle tend à devenir une infrastructure cognitive, faite de systèmes spécialisés, d’agents différenciés, de flux continus de production et de vérification. Orchestrer ces systèmes, c’est accepter que le travail intellectuel ressemble moins à un geste solitaire qu’à une direction d’orchestre sous contrainte algorithmique.
Coordonner plusieurs IA implique de comprendre ce que chacune sait faire, ce qu’elle fait mal, et surtout ce qu’elle fait sans le savoir. Génération, analyse, synthèse, vérification, visualisation : chaque fonction peut être déléguée, mais aucune ne peut être abandonnée sans supervision. L’humain ne disparaît pas ; il change de rôle. Il devient architecte de raisonnements distribués, responsable de la cohérence d’ensemble.
Cette orchestration ne vaut toutefois que si elle débouche sur une mise en forme intellectuelle. Agréger des résultats ne suffit pas. Il faut comparer, hiérarchiser, reformuler, intégrer. Autrement dit : transformer des sorties machines en savoir structuré. L’IA produit des fragments ; la pensée humaine produit des structures. Et cette différence, pour l’instant, reste décisive.
2. Automatiser sans s’absenter : l’art délicat de la délégation cognitive
La tentation est grande de tout déléguer. Après tout, les machines vont plus vite, ne se fatiguent pas, et n’ont jamais besoin de café. Mais l’automatisation aveugle produit surtout une désappropriation du jugement. Ce qui peut être automatisé doit l’être ; ce qui relève de l’interprétation, de la stratégie ou de la critique doit rester sous contrôle humain.
Dans cette configuration, l’IA n’est ni un remplaçant ni un oracle. Elle devient un prolongement de l’intelligence, à condition que l’humain conserve la capacité d’arbitrer, de douter et de corriger. L’erreur la plus coûteuse n’est pas technologique ; elle est intellectuelle : confondre vitesse de calcul et qualité de compréhension.
3. La culture générale : compétence lente dans un monde rapide
À mesure que l’automatisation progresse, ce qui résiste n’est pas la spécialisation étroite, mais la culture générale étendue. Non pas comme accumulation décorative de savoirs, mais comme capacité à relier, contextualiser et historiciser. Là où l’algorithme excelle dans le traitement local, l’humain conserve un avantage dans la vision transversale.
La culture générale permet de reconnaître des motifs, de repérer des analogies, d’identifier des continuités idéologiques sous des discours de nouveauté. Elle empêche de prendre chaque innovation pour une rupture absolue, et chaque rupture pour une promesse de salut. L’histoire, en particulier, agit comme un antidote puissant contre l’illusion du présent perpétuel.
Surtout, la culture générale permet de poser de meilleures questions. Et dans un monde où les réponses sont abondantes, parfois trop, la qualité du questionnement devient la ressource rare. Or formuler une question pertinente suppose une compréhension large des enjeux économiques, politiques, symboliques et culturels. Cette compétence reste, pour l’instant, profondément humaine.
4. Lire les grands discours contemporains pour comprendre les transformations
Les technologies ne se déploient jamais seules. Elles arrivent enveloppées de récits : promesses de productivité, peurs de déclassement, mythologies de progrès ou scénarios d’effondrement. Ces narratifs ne sont pas accessoires ; ils orientent les décisions, les investissements et les politiques publiques.
Analyser ces récits, c’est en déconstruire les présupposés idéologiques. Derrière l’enthousiasme technophile comme derrière l’angoisse technophobe se cachent des visions du travail, de l’autorité, de l’autonomie et de la valeur humaine. Comprendre ces visions permet d’anticiper les tensions sociales à venir, bien plus sûrement que l’analyse brute des performances techniques.
Les imaginaires collectifs façonnés par l’IA (performance permanente, surveillance diffuse, optimisation de soi) influencent déjà la manière dont les individus se projettent dans l’avenir. Les ignorer, c’est se condamner à subir leurs effets sans les comprendre.
5. Produire moins, comprendre mieux : la valeur rare de la synthèse
Nous vivons dans un monde qui produit trop. Trop de contenus, trop d’analyses, trop de commentaires. La rareté n’est plus informationnelle ; elle est cognitive. Savoir sélectionner, hiérarchiser et relier devient plus précieux que savoir produire.
La curation de l’information repose sur un jugement qualitatif : distinguer l’essentiel du bruit, identifier ce qui mérite attention, replacer les données dans un cadre cohérent. L’analyse critique va plus loin : elle interroge les biais, les implicites, les conséquences. Elle exige une distance réflexive que l’automatisation peine encore à reproduire de manière fiable.
Relier des domaines hétérogènes (technologie, culture, politique, économie) permet de produire du sens là où l’accumulation produit surtout de la confusion. Cette transversalité n’est pas un luxe intellectuel ; elle est devenue une nécessité opérationnelle.
6. Quand la forme devient un acte intellectuel
Dans un environnement saturé d’informations, la forme n’est plus secondaire. Elle est une réponse directe au chaos cognitif. Organiser, hiérarchiser, rendre lisible : ces gestes formels sont désormais des actes intellectuels à part entière.
La sobriété formelle réduit la charge cognitive, facilite l’appropriation et limite la manipulation par la confusion. Une idée mal formée est souvent une idée mal pensée. À l’inverse, une structure claire n’appauvrit pas la complexité ; elle la rend praticable.
La forme n’est donc pas un simple habillage : elle participe à la construction du sens. Elle conditionne ce qui peut être compris, discuté et transmis.

L’intelligence artificielle ne pose pas seulement une question technologique. Elle interroge la capacité collective à organiser la pensée dans un monde accéléré, automatisé et saturé d’informations. La valeur humaine se déplace vers l’orchestration, la culture, l’analyse critique, la synthèse et la clarté. L’avenir n’est pas écrit par les machines. Il dépend des cadres intellectuels, culturels et narratifs que les sociétés choisiront de mobiliser. La question centrale demeure ouverte et volontairement inconfortable : comment organiser une coopération entre humains et intelligences artificielles qui renforce la compréhension et la responsabilité, plutôt que de dissoudre le jugement dans l’automatisation ?
Références (indicatives)
- Arendt, H. (1972). La crise de la culture. Gallimard.
- Cardon, D. (2015). À quoi rêvent les algorithmes : Nos vies à l’heure des big data. Seuil.
- Morozov, E. (2013). To save everything, click here: The folly of technological solutionism. PublicAffairs.
- Simon, H. A. (1996). The sciences of the artificial (3e éd.). MIT Press.
- Stiegler, B. (2015). La société automatique : 1. L’avenir du travail. Fayard.
DÉFIS DE SOCIÉTÉ
© Pierre Fraser (PhD, linguiste et sociologue), 2024-2025
