Former à l’IA, c’est d’abord former à la responsabilité
Nous formons aujourd'hui une génération qui utilisera l'intelligence artificielle comme nous avons utilisé Google : sans réfléchir, par réflexe, des dizaines de fois par jour. Mais derrière la modernité séduisante de l'IA et en particulier des IA génératives se cache une tension que les écoles et les universités ne peuvent plus ignorer : comment concilier innovation et responsabilité dans un monde où chaque clic a un coût économique, social et sociétal ?
En tant qu'établissement d'enseignement supérieur, nous avons la responsabilité de former des esprits critiques, pas des utilisateurs aveugles. L’efficacité ne doit pas nous faire perdre le sens.
Pour une modernité lucide
Refuser l’IA serait absurde ; l’adopter sans recul serait irresponsable.
Entre fascination et conscience, les écoles ont un rôle clé : apprendre à utiliser l’IA sans s’y soumettre. Il faut dépasser le mirage de la “magie technologique”, et oser remettre en doute le dogme qui s’installe qui est que remettre en cause l’usage de l’IA serait refuser la marche du monde. Esprit critique n’est absolument pas incompatible avec modernité : il s’agit d’agir en conscience.
Cela suppose d’enseigner :
- Que l’IA n’est ni propre, ni neutre : le coût réel de chaque usage est énorme (énergie, eau, carbone), et qu’à force de déléguer notre pensée à la machine, nous risquons d’oublier comment raisonner, douter, vérifier (détérioration cognitive) tout en renforçant des biais statistiques.
- Que l’IA se construit et se déploie aussi aux dépens de la création humaine (spoliation des droits d’auteur, etc.) avec tous les risques juridiques et éthiques afférents à son utilisation. Dans les métiers auxquels forment Narratiiv’, le droit d’auteur est fondamental, sans quoi ils cesseraient pour beaucoup d’exister et de contribuer à faire vivre leurs créateurs.
- Que l’on doit privilégier l’utilité critique (cette tâche justifie-t-elle l’emploi d’une IA ?) car l’usage divertissant des IA n’est pas tenable à terme.
- Que l’on doit savoir choisir nos outils selon nos besoins (puissance, localisation, etc.) plutôt que d’utiliser le premier venu (rarement le plus vertueux…)
- Qu’il y a toujours un fort impact humain : qui travaille derrière (exploitation des dataworkers, des mineurs…) ? Qui subit (santé mentale) ? Quels sont les biais (de représentation, de sélection…) ?
- Qu’il faut encourager la sobriété créative, économe en ressources et riche en idées.
L’engagement Narratiiv : faire de l’IA un usage conscient et raisonné
Narratiiv est une école pionnière dans l’usage de l’IA, et ce recul nous permet aujourd'hui de mesurer comment intégrer au mieux ces questions au cœur de nos enseignements.
Nous encourageons nos étudiants à expérimenter, mais avec conscience ; à créer, mais avec mesure ; à innover, mais en tenant compte du réel. Nous intégrons dans tous nos cursus une formation obligatoire aux impacts environnementaux, sociaux et sociétaux de l'IA.
Ne formons pas une génération d'étudiants assistés, incapables de distinguer le vrai du faux, prisonniers d'une boucle de confirmation où l'IA ne fait que refléter leurs biais préexistants.
Nous développons leur esprit critique en ayant une approche collaborative avec l’outil, ou l’expertise et le doute sont les clés des échanges, où la technologie est un moyen et non une fin en soi.
Parce que nos étudiants seront les décideurs de demain, formons-les à être des utilisateurs éclairés, critiques et responsables.
Former à l’IA, c’est former à choisir.
C’est refuser la facilité du réflexe pour retrouver la force du discernement.
Signataires de la Tribune
Sabine Marechal - Directrice de l'institut Les Humains - Expert en transformation des organisations et stratégie RSE
Damien Douani - Responsable Innovations pédagigiques de Narratiiv - Co-fondateur de Topos
Jean-Luc Letouzé - Directeur de Narratiiv
Téléchargez la brochure et le dossier de candidature !