Comment l'IA influence le rapport des jeunes à l'info ?
Les algorithmes des réseaux sociaux et des IA génératives sont déterminants dans la consommation d'information des collégiens et des lycéens. Il ne faut toutefois pas les confondre : leurs mécanismes et leurs conséquences présentent des différences notables, à prendre en compte pour adapter une intervention d'Éducation aux médias et à l'information. État des lieux.
L'IA générative n'est pas arrivée en classe sur un terrain vierge. Professeurs et apprenants connaissaient déjà les algorithmes de recommandation des médias sociaux* et les agents conversationnels, avec ou sans IA. Le recours à ces technologies a un impact à la fois sur le contrôle, mais aussi la lecture et l'analyse de l'information.
Pourquoi parle-t-on "d'algorithmes" de recommandation et de "l'IA" générative ? Parce que si cette dernière n'en est pas moins composée d'algorithmes, sa qualité dépend aussi de nombreux autres facteurs, comme les données d'entraînement, les modes d'apprentissages, leur puissance de calcul ou la façon de les interroger. Une définition simple de l'IA fait bien le lien entre les IA et les algos est celle du rapport "Agents conversationnels en classe" du Conseil scientifique de l'éducation nationale (CSEN, 2021) : "L’intelligence artificielle regroupe l’ensemble des modèles et algorithmes qui simulent, par un calcul sur ordinateur, un phénomène ou un scénario de la réalité".
Comme le précise Dorie Bruyas, directrice de l'école Fréquence Ecoles, dans cette table ronde filmée et organisée par Respect "Peut-on encore s'informer à l'ère de l'IA?", "les IA ne sont pas tout à fait artificielles car elles fonctionnent avec des humains, qui qualifient la donnée à l'entrée et l'augmentent à la sortie, après le travail de l'algo. Ce ne sont pas du tout que des machines, ce sont des machines + des humains, les humains étant relégués tout de même à la catégorisation."
Médias sociaux et désinfo : un risque consenti ?
L'état des lieux
En France, les 15-30 ans s'informent de l'actualité en passant principalement par les médias sociaux* : TikTok, Instagram ou Snapchat, mais aussi YouTube ou WhattsApp. Ces derniers sont ainsi le premier canal d'information, selon le baromètre de la Direction de la jeunesse, de l’éducation populaire et de la vie associative (DJEPVA), publié en novembre 2024. Ici, les algorithmes sélectionnent les contenus auxquels les jeunes sont exposés. Or, non seulement l'exposition à la désinformation y est plus importante que dans les médias traditionnels - notamment sur Facebook, dont le quart des images politiques étaient déjà considérées comme trompeuses en 2023 - mais elle est amplifiée :
* par les bulles de filtre : plus je clique sur une fausse info, plus l'algo va me proposer ces infos, et plus je vais y croire (biais cognitif de répétition) ;
* par l'effet de la loi de Brandolini : une mauvaise info est plus longue à vérifier qu'à se propager.
Les jeunes ont bien conscience de cette exposition : plus de 75 % des 16-30 estiment avoir été exposés à de la désinformation la semaine précédent le sondage européen Eurobaromètre (octobre 2024), dont plus de la moitié "souvent, voire très souvent". Mais cette exposition a des conséquences sur leur perception et leur relation aux médias.
Les challenges à relever
- La difficulté à percevoir le vrai du faux, accrue sur les médias sociaux (notamment sur TikTok) est plus importante chez les jeunes que chez les adultes, rapporte Myriam Haddad dans le cahier de tendances Méta-Média. Cette difficulté ne signifie pas qu'ils sont moins capables, précise l'étude, mais "qu'ils évoluent dans un environnement informationnel plus complexe et rapide." Et il n'en reste pas moins que "si les adultes réussissent mieux que les adolescents à discerner les vraies des fausses informations, ce n’est pas seulement parce qu’ils ont une meilleure connaissance de la fiabilité de sources d’informations, c’est aussi par qu’ils résistent mieux aux biais cognitifs et émotionnels qui peuvent nous amener à nous laisser tromper par certaines informations". La vérité restant le moteur principal de partage des ados, ces derniers font attention à ce qu'ils relaient, mais cette tension subie crée une atmosphère de méfiance généralisée.
- Le transfert - la perte ? - de compétences liées au traitement de l'information : les médias sociaux sont perçus par les jeunes comme offrant une large diversité informationnelle, sans avoir à faire de recherche d'informations (s'interroger sur les mots-clés, l'identité des sources, leur fiabilité, créer une alerte, etc.). Cette "solution de facilité" est particulièrement prisée par le cerveau, qui privilégie les actions qui lui prennent le moins d'énergie possible. Cela n'a rien à voir avec l'intelligence, mais nuit à leur autonomie en matière de recherche et d'analyse d'information, tout en créant un risque de dépendance (le cerveau en redemande !).
- Une confiance basée sur l'adhésion plutôt que sur la véracité : les jeunes, curieux par nature, vantent souvent la "diversité des sources auxquelles ils n'auraient pas pensé" sur les médias sociaux. Mais ces recommandations algorithmiques les (nous) enfermement dans les "bulles de filtres" algorithmiques et renforcent un autre mécanisme du cerveau, le biais de confirmation. Ce dernier consiste à privilégier les informations confirmant ses idées préconçues ou ses hypothèses et à accorder moins de poids aux hypothèses et informations contradictoires. C'est ce qui ouvre la voie à une confiance dans les informations basée sur l'adhésion plutôt que sur la véracité et mène à se fier à des groupes de personnes ou à des associations qui leur (nous) plaisent plutôt qu'à des médias, par exemple.
Les algorithmes des IA génératives
L'état des lieux
De l'autre côté, les algorithmes des IA génératives, comme ceux de ChatGPT, interrogent sur la fiabilité de l'information recherchée ou créée par les élèves. Un sondage pilote en Nouvelle Aquitaine auprès de lycéens, réalisé par l’équipe Flowers de l'Inria en juin 2024, indique que plus de 90% des élèves de Seconde ont déjà utilisé un logiciel d’IA générative pour les aider à faire leurs devoirs. "Une grande proportion d’entre eux, après avoir expérimenté ChatGPT, l’utilisent directement ensuite pour faire des recherches d’information, sans passer par des moteurs de recherche classique". Une tendance bien comprise par ChatGPT qui avait lancé sa fonction Search fin octobre 2024.
Mais force est de constater que les usages restent mal adaptés aux outils. Outre cette étude, cette de l'agence Heaven, BORN AI (janvier 2025) auprès de 251 jeunes de 18 à 25 ans (50% salariés et 40% lycéens/étudiants), indique que la recherche d’informations est le premier motif d’utilisation de l’intelligence artificielle. Elle passe au troisième plan, après la rédaction et la traduction, dans le cadre scolaire.
Et ce, malgré le manque de fiabilité des informations générées et le manque de contrôle sur ladite qualité des informations : le taux d'erreur des IA génératives est actuellement évalué à 30 % (voire 50% dans d'autres études). Et il est quasiment impossible de les détecter si l'on ne connaît pas le sujet puisque ces réponses sont par nature les plus... probables.
Pour l'étape de vérification, il est également impossible de se fier aux sources générées, à notre demande ou non. Là encore, l'outil peut les inventer, voire les mésinterpréter. Il faut donc vérifier non seulement la source, les faits cités mais aussi leur interprétation. Malgré cela, une enquête Ifop/Talan (2024), nous apprend qu'en France 44% des utilisateurs (et 61% des 25-34 ans) reprennent les résultats des IA génératives tels quels sans les modifier.
Parallèlement, l'observatoire de la mésinformation, Newsguard et le média Next.Ink estiment aujourd'hui que plus de 1000 faux médias publient des centaines de fausses informations par jour (aujourd'hui, 3 mois après l'étude, on approche des 1500). Des médias qui peuvent publier jusqu'à près de 1500 articles/jour. En comparaison, on estime que Le Monde publie environ 150 articles/jour et le New York Times, 250/jour. En imitant les marques de médias et en reprenant leurs codes graphiques et éditoriaux, les faux sites d'infos rendent quasiment impossible de savoir si le contenu est authentique ou non.
Les challenges à relever
- La dépendance à un outil qui court-circuite l'effort cognitif : en fournissant des réponses instantanées à des questions, l'IA peut inciter les jeunes à abandonner leur propre réflexion et à dépendre entièrement des machines pour résoudre les problèmes. D'après le baromètre IFOP-Talan 2024, 35% des utilisateurs d'IA Gen déclaraient qu’ils auraient déjà du mal à s'en passer. Le risque de dépendance de cette "solution de facilité", est accru par le langage naturel et la génération de réponses clés en main... qui "court-circuite l’effort cognitif nécessaire à un apprentissage efficace si ces outils sont mal utilisés par les élèves, pour les devoirs à la maison par exemple" (Kasneci et al., 2023; Abdelghani et al., 2023).
Ces effets sont amplifiés par l’absence d'objectif pédagogique de ces outils, conçus pour prédire les mots et les images les plus probables, ainsi que pour répondre directement aux questions des utilisateurs. En conséquence, quand un élève leur pose un question ou leur donne un exercice, l'outil va fournir tout de suite la réponse, au lieu de donner des indices pédagogiques pour aider et permettre à l’apprenant de faire l’effort de trouver par lui-même la réponse (Macina et al, 2023; Jurenka et al., 2024). - Diminution de l'esprit critique : une mauvaise utilisation des IA Gens pour rechercher ou créer du contenu peut aussi nuire au développement de l'esprit critique. C'est ce qui ressort de cette étude de Cambridge, largement relayée par les médias, qui met en corrélation le niveau de confiance accordé aux réponses de l'outil et leur niveau d'utilisation : plus on utilise ces outils, moins on se pose de questions sur leur résultat. Et plus on doute de pouvoir le faire soi-même.
Ce phénomène est aussi alimenté par "l’image de “super-intelligence” véhiculée dans les médias, combinée au ton assuré des logiciels d’IAGen (pourtant incapables de métacognition, donc d’évaluer leurs propres incertitudes)" qui peuvent amener de nombreux élèves à surestimer à la fois les compétences des IAGens et leurs propres compétences, et ainsi limiter le développement et l’expression de leur curiosité, de leur esprit critique et de leur métacognition, essentiels à des apprentissages efficaces et motivants (Abdeghani et al., 2023; Oudeyer et la., 2016)".
• La quasi impossibilité de distinguer le vrai du faux : tant à l'oeil nu que grâce à d'autres outils IA, il est aujourd'hui quasiment impossible de vérifier si un contenu est créé par de l'IA s'il n'est pas étiqueté en tant que tel. Or, la recherche, mais aussi la génération de contenu par les élèves les expose à des textes ou à des images par nature stéréotypés, voire discriminatoires ou dégradants, puisque les générateurs de contenu reproduisent les biais présents dans leurs données d'entraînement (biais ethniques, de genre, d'âge) et chez leurs développeurs/entraîneurs. Quand ils ne sont pas tout simplement "empoisonnés" par les contenus issus de sites de désinformation.
Or, cette nouvelle forme d'accès et d'interaction avec l'information, avec des interfaces conversationnelles, réduit le besoin de cliquer sur les liens des sources, voire des médias... qui assuraient une certaine traçabilité de l'information en permettant d'accéder à une source, si ce n'est fiable, du moins facilement vérifiable.
Qu'il s'agisse d'algorithmes de recommandation des médias sociaux ou des IA génératives l'utilisateur n'a guère la main, malgré les paramètres de personnalisation. Dans un soucis pédagogique, il est donc d'autant plus important d'en expliquer les mécanismes afin de répondre à la curiosité des élèves tout en limitant leur usage aux modalités les plus fructueuses.
*Je parle ici de médias sociaux et non de réseaux sociaux car c'est le contenu diffusé qui fait l'objet de cet article, et non leur capacité relationnelle.