Les voies de l’oral

Cette rentrée bien particulière ouvre une nouvelle année scolaire marquée par le « Grand Oral » auquel se soumettront les élèves de classe Terminale préparant les cinq épreuves finales du baccalauréat 2021. Les compétences orales évaluées relèvent d’une part de la capacité pour l’élève à prendre la parole en public, d’exploiter ses connaissances et d’autre part de développer une argumentation en lien avec son projet personnel. Les professeurs documentalistes sont doublement mobilisés à la fois pour la préparation et la participation au jury. Pour autant leurs actions menées au CDI, au sein des établissements scolaires et dans des cadres pédagogiques non formels participent de longue date de cette didactique de l’oral. Les activités dans leur diversité, les projets engageant les compétences en jeu dans le Grand Oral montrent une multiplicité d’entrées qui ne peuvent être réduites à ce seul domaine de « l’oral ». En effet, les apprentissages info-documentaires convoqués, la manière dont leur progression sont conçues relèvent pleinement du champ des oralités. Ce numéro de dossier se classe résolument dans cette perspective, celle d’expliciter, analyser des situations de communication, des actes de langage, en somme des faits culturels. Car chaque prise de parole évoque un contexte particulier : celui de l’oralité première aux situations de communication ordinaire, interpersonnelle, et celui de l’oralité seconde qui fait référence à un oral médiatisé et surtout relie l’écrit à l’oral pour reprendre la terminologie de Walter J. Ong. Ce dossier distingue au sein des pratiques professionnelles deux axes d’orientation qui par ailleurs se rejoignent souvent : l’enseignement de l’oral inscrit dans une démarche d’éducation aux médias et à l’information et plus globalement du développement la culture informationnelle et la pratique de l’oral dans une approche davantage communicationnelle faisant appel aux techniques du corps, à un art de dire et de parler.
Car comme l’évoque Sylvie Plane il ne s’agit pas d’enseigner un oral mais plutôt des oraux selon des cadres et enjeux de communication pluriels et de les extraire d’une représentation influencée par l’écrit. Elle souligne ainsi dans son approche historique toute la complexité du rapport entre l’Ecole et l’enseignement de l’oral oscillant entre maîtrise de la langue et maîtrise du discours. Ces objectifs de maîtrise s’articulent de manière fondamentale, essentielle avec ceux de l’éMI : les contributions d’Isabelle Martin et Blandine Schmidt interrogent les dispositifs médiatiques et analysent la démarche communicationnelle inscrite dans le dossier du CLEMI « se préparer à l’oral par la pratique médiatique », celle d’Emily Bouillon et d’Emeline Bis montre bien comment une classe media permet de travailler des apprentissages de maîtrise de la langue, de prise de parole, de connaissance des médias grâce à l’animation d’une webtv par les élèves. Stéphanie Quattrociocchi expose l’intérêt double de l’expérimentation du LabAurascope autour de l’enseignement de l’oral, à la fois pour l’élève et pour l’enseignant grâce à la vidéoscopie. Autant de lectures qui éclairent la démarche proprement info-documentaire des pratiques pédagogiques autour de l’oralité.
Bien parler selon des contextes variés relève également du développement de compétences psychosociales, d’estime de soi, de confiance, de compréhension de codes culturels, de signes pour bien argumenter ses propos, être capable de redonner voix à un texte par une interprétation juste, personnelle et donc par le fait de comprendre et de s’approprier une voix autre. Dans l’entretien qu’il nous a accordé, Cyril Delhay, auteur du rapport éponyme explicite son dessein politique de faire de l’apprentissage de l’oral un levier d’égalité des chances. Cette réactualisation, dans les programmes scolaires, de la nécessité de développer les compétences orales des jeunes adolescents fait écho au pouvoir que la parole maîtrisée donne. En reprenant son propre parcours il nous livre les clés de son enseignement d’un art oratoire, ce qui entre en résonance avec les déambulations jansoniennes proposées par Martine Liagre, la pratique du booktube selon Djamila Aït Hammi, la participation à des concours de lecture à voix haute conduite par Cécile Combettes. Virginie Seba, professeure documentaliste, slameuse, poète, nous fait partager la part sensible de son propre enseignement dans une dernière étape de ce voyage en oralité(s).
Au printemps dernier des voix se sont tues dans les théâtres, salles de spectacle vivant… peu de temps cependant pour reprendre par d’autres voies médiatisées, du podcast jusqu’au simple téléphone permettant des consultations poétiques avec pour mot d’ordre « Tenir parole ». Gageons que la lecture de ce numéro vous accompagne dans vos expérimentations par-delà les conversations masquées, la distanciation sanitaire, pour permettre aux élèves de « tenir parole » à leur tour.

PMB, un retour d’expérience

Pourquoi passer à PMB ?

On peut légitimement se poser la question lorsque le logiciel documentaire utilisé dans son établissement est BCDI, qu’il fonctionne bien, et qu’on en est plutôt satisfait.
Il faut savoir qu’il y a d’abord un aspect de conformité à une circulaire de 2012, la circulaire Ayrault, qui a pour but de favoriser l’usage du logiciel libre dans les administrations publiques, dont l’école fait partie. Choisir PMB est alors un moyen de se conformer à cette demande, au même titre que choisir l’utilisation de la suite bureautique Libre Office plutôt que celle de Microsoft.
Ensuite, il faut avoir en tête le modèle économique de Canopé pour BCDI : c’est un opérateur de l’État qui reçoit des subventions de ce dernier ; il est par ailleurs subventionné par chaque académie où il est implanté et chaque établissement doit payer annuellement la solution documentaire BCDI pour pouvoir l’utiliser, un abonnement dont le montant n’a fait qu’augmenter ces dernières années.
On peut donc décider de continuer à utiliser le logiciel de Canopé ou d’en changer pour faire des économies, économies non négligeables quand le paiement du logiciel est pris sur les lignes budgétaires attribuées au CDI.
Enfin, PMB peut permettre une gestion partagée des documents, inscrite dans une démarche de politique documentaire, pensée à l’échelle de l’établissement. Il offre également beaucoup de petites fonctionnalités bien pratiques au quotidien : le bulletinage assisté, le prêt express ou encore la gestion des « paniers » que je détaillerai au fur et à mesure de ce retour d’expérience.
Il y a beaucoup d’étapes à suivre pour utiliser PMB quand on n’a aucun accompagnement de la part de l’académie, mais c’est un changement qui, de mon point de vue, présente beaucoup d’avantages, dont le « multitâche » proposé par le logiciel (cataloguer et prêter un livre en même temps, par exemple).

Présentation générale

PMB est un logiciel documentaire développé par PMB services, il est complètement libre et gratuit, si tant est qu’on ne fasse pas appel aux services techniques de l’entreprise (maintenance, hébergement, formations, etc.) et s’installe sur un serveur. Cet outil est doté d’une interface de gestion et d’un catalogue, le tout accessible depuis n’importe quel navigateur web.
Avant de détailler l’utilisation de PMB, précisons quelques points pratiques

Vocabulaire de PMB

Les emprunteurs : dans PMB on parle de « lecteurs » pour désigner les personnes (élèves, enseignants, personnel autre…), usagers-emprunteurs des documents catalogués ; à ne pas confondre avec « utilisateurs », terme retenu pour désigner les personnes qui ont accès à la partie gestion ;
Le catalogue : le terme couramment utilisé est « OPAC » pour Open Public Access Catalog ;
Les recherches en mode gestionnaire : c’est principalement la « recherche multi-critères » qui est utilisée, elle s’apparente aux équations de recherche de BCDI.

Spécificités de PMB

Une première spécificité est l’organisation générale des menus : on trouve un premier menu horizontal avec différents onglets qui peuvent être ouverts dans différentes fenêtres du navigateur (circulation, catalogue, administration, portail…). Puis pour chaque menu, un sous-menu vertical qui permet différentes actions (sous l’onglet circulation par exemple, on peut prêter, rendre un ouvrage, créer de nouveaux lecteurs, etc.). Et enfin un sous sous-menu précisant les actions spécifiques au sous-menu (c’est très souvent le cas pour le menu de l’administration).


Une autre spécificité de PMB est la présence de « paniers » : ils permettent d’enregistrer certains ouvrages en fonction de critères et d’appliquer des actions sur l’ensemble des ouvrages présents à l’intérieur du panier (je reviendrai sur ce point).

Outil à maîtriser en complément de PMB

Un tableur : utile pour l’import de la base élèves.

Comment passer de BCDI à PMB ?

Si vous avez la chance d’être dans une académie qui propose ce logiciel, rien de plus facile, il suffit de contacter les services de la DANE1 ou le « groupe PMB » de votre académie pour faire la demande d’ouverture de base et il ne vous restera plus qu’à faire la « bascule » seul ou avec vos services académiques.
Si, en revanche, vous n’avez pas cette chance, cela est un peu plus complexe (et je parle en connaissance de cause…) : il faut procéder à un nettoyage de la base BCDI pour préparer la bascule, faire l’installation technique de PMB sur un serveur (en ligne ou en interne), vérifier les paramètres de PMB et procéder à la bascule.

Voici les tutos que j’ai utilisés et ma réflexion sur la future base PMB de mon établissement en rapport avec chacune des étapes mentionnées ci-dessus.

Étape 1 : Nettoyage de BCDI pour préparer la bascule vers PMB

TUTO 1 : Préparer la base BCDI (Alain Soulier2)

Une base PMB se réfléchit en amont : manière dont on veut que les documents apparaissent, modalités de prêt en fonction des ouvrages (manga, périodiques, BD, roman…), utilisation de douchette ou non pour les codes exemplaires… Toute la procédure est expliquée par Alain Soulier dans un tutoriel. Libre à chacun ensuite de réaliser sa propre organisation.
Pour ma part, j’ai d’abord choisi de faire en sorte que les « étagères3 » correspondent physiquement aux documents que j’ai au CDI : fictions, documentaires et périodiques. Puis, pour chacune de ces étagères, j’ai précisé à l’aide des « rayons » les différentes catégories : dans les fictions, on trouve les romans, les BD, les mangas, les nouvelles, les poésies… ; dans les documentaires, les différentes classes Dewey ; et dans les périodiques les différents abonnements du CDI.
Cette organisation permet aux élèves qui consultent le catalogue de se « balader » dans un CDI virtuel qui correspond à l’organisation physique du lieu. Ainsi ils ne sont pas « perdus » quand ils doivent aller chercher dans les rayons le(s) livre(s) qui les intéresse(nt).
J’ai profité de ce changement de logiciel documentaire pour « remettre à plat » les numéros d’exemplaires en mettant des codes-barres, lisibles avec une douchette. Il m’a donc fallu veiller à ce que les numéros d’exemplaires de BCDI puissent se fondre avec ce nouveau système. Une fois cette manipulation réalisée, il ne reste qu’à effectuer les changements dans PMB et à équiper les livres en codes-barres pour faciliter le prêt.

Cette première étape est importante, tout comme il est important de consacrer du temps à la préparation de BCDI. Essayez d’engager cette réflexion au moins une année avant de procéder au changement : pour ma part, j’ai consacré 40 h au moins de travail « pur » à cette phase préparatoire, en plus des heures de cours, de l’accompagnement des élèves au fil des journées et de toutes nos autres tâches. Essayez également de préserver des heures sans élèves dans votre emploi du temps ou, si vous êtes deux en poste, des plages horaires dédiées pendant lesquelles vous pourrez vous isoler (prévoyez en moyenne au moins 2 h consécutives).
C’est un travail de longue haleine, mais cela en vaut la peine !

Étape 2 : Installation technique de PMB

TUTO 2 : PMB Normandie

C’est la partie la plus complexe quand on doit installer PMB « seul », sans l’aide des services de l’académie. Nous n’avons pas tous les compétences et les connaissances pour faire face aux différents problèmes techniques.
Dans mon collège, le Principal m’a fait confiance pour installer en local PMB sur le serveur de l’établissement : j’ai suivi le tutoriel de PMB Normandie qui propose un déroulé pas à pas pour ce genre d’installation. Vous pouvez suivre ce même tuto pour installer PMB sur vos postes informatiques, mais cela suppose que tous les ordinateurs (au moins ceux du CDI) soient en réseau pour que les élèves puissent accéder au catalogue.
Je tiens à préciser que les collègues qui se lancent dans l’aventure risquent d’être amenés à résoudre des questions techniques (PHP4 , SQL5 notamment) et qu’il vaut mieux s’armer de patience pour parvenir à installer une base PMB accessible et fonctionnelle.

Étape 3 : Vérifier les paramètres de PMB (phase de test)

TUTO 1 : Préparer la base BCDI (Alain Soulier)

Avant de commencer à importer les données (ouvrages et élèves), il est nécessaire de faire le point sur les paramètres de PMB et de vérifier les imports.

Première étape : nettoyer la base que vous avez installée, parfois les versions PMB et leur paramétrage comportent des notices, des emprunteurs, des auteurs, etc. Pour les supprimer, rien de plus simple, il existe une fonction nettoyage (chemin d’accès : Administration → Outils → Nettoyage de la base).
Lancer la commande en cochant ce qu’il faut retirer pour que la base soit totalement vierge.

Deuxième étape : vérifier que l’import des lecteurs se passe bien. Pour cela aller dans Administration → Lecteurs → Import lecteurs. Si votre paramétrage de PMB est bon, vous aurez une indication du fichier de bureautique qu’il faut créer (voir image). Je vous conseille de préparer un premier fichier avec une dizaine de lecteurs pour voir si l’import est réalisé correctement et sans problème (opération à répéter jusqu’à ce que votre fichier classeur soit bon en pensant à supprimer les lecteurs précédents).


Troisième étape : avant de faire la bascule de votre base BCDI vers PMB, faire un test avec une petite section de votre base (voir le tuto 1). Aller dans Administration → Imports → Exemplaires UNIMARC et importer. Puis vérifier que cela fonctionne correctement : si les emplacements et le type de prêt sont bons, il ne doit pas y avoir d’erreurs ; sinon, vous devrez peut-être revoir la concordance des champs entre BCDI et PMB (étape 1).

Quatrième étape : faire quelques tests ; prêter des livres à de faux emprunteurs, simuler des retards, essayer d’ajouter des livres et de les prêter, etc. Faire tous les tests qui vous passent par la tête pour être sûr(e) d’avoir une base opérationnelle pour la bascule. Mais avant cela, une dernière manipulation s’impose : nettoyer de nouveau votre base PMB pour éviter d’avoir vos faux emprunteurs et des doublons sur vos ouvrages.

Étape 4 : Bascule et insertion base élève

TUTO 1 : Préparer la base BCDI (Alain Soulier)

C’est la dernière partie et, bonne nouvelle, c’est la plus simple si vous avez bien pris le temps de faire tous les tests. Vous n’avez plus qu’à reprendre les procédures que vous avez déjà faites pour la phase de tests.
Il vous suffit de bien suivre le tuto 1 et de laisser la machine s’occuper de tout ! Il faudra bien sûr faire une vérification générale de ce que vous aurez importé, mais vous aurez un PMB complètement opérationnel !

PMB au quotidien : les avantages !

Même si le passage de BCDI à PMB peut sembler complexe, une fois que vous aurez pris en mains cet outil, vous pourrez en apprécier les nombreux avantages. Pour ma part, je constate que j’ai une vision plus globale de l’ensemble de mon fonds, dès la connexion, grâce au tableau de bord (voir image) qui permet de voir en un coup d’œil les retours et/ou les abonnements en retard (oui, il y a beaucoup de retards dans mon établissement…).


PMB permet de prêter des documents tout en continuant le catalogage. Pour cela il suffit d’ouvrir sur différents onglets du navigateur les différents onglets de PMB (circulation, catalogue, ou autre). Ainsi on ne perd pas le bénéfice du travail commencé quand on enregistre un retour à la récréation ou qu’on prête un ouvrage rendu à un élève qui attend pour l’emprunter.
Un autre avantage : l’utilisation des codes-barres avec une douchette (comme dans BCDI). Leur utilisation permet de gérer plus facilement les prêts et surtout les retours, voire de le faire faire à un élève sans que cela soit trop complexe pour lui. Cela représente un gain de temps non négligeable dans nos nombreuses tâches, et il faut l’avouer, certains élèves adorent nous aider !

Je vais maintenant présenter certains aspects de PMB qui facilitent la gestion du fonds au quotidien.

Les paniers

Les paniers sont très utiles lors de recherche « multi-critères », lorsqu’on souhaite réaliser des bibliographies ou des sélections sur un thème, pour préparer l’inventaire ou encore pour avoir une trace des ouvrages à mettre au pilon. Il faut alors veiller à attribuer le résultat de la recherche au panier de son choix (panier « notice », « exemplaire », « bulletin » pour les périodiques, ou « lecteurs », géré sous l’onglet circulation), en cliquant sur l’image du panier correspondant, pour un traitement immédiat ou futur.
Un sous-menu permet de gérer chaque panier : « Gestion » pour créer, modifier ou supprimer un panier, « Collecte » pour remplir le panier, « Pointage » pour distinguer les ouvrages ou ressources d’un panier, et « Actions » pour effectuer un changement sur le contenu d’un panier.
Les paniers permettent de faire un traitement par lots (comme dans BCDI) : soit pour apporter une modification (changement de statut, de section, etc.), soit pour mettre en valeur une partie du fonds sur l’OPAC, soit pour procéder au désherbage, ou au récolement. Pour cette dernière action, il est très utile d’avoir un fonds avec des codes-barres et les douchettes, le pointage devient alors très facile : il suffit de scanner les livres et on voit assez rapidement les ouvrages non « pointés », donc non présents dans le fonds au moment du récolement.

Bulletinage assisté

C’est une fonctionnalité qu’on trouve dans Circulation → Périodiques → Bulletinage. Elle permet, après avoir créé un abonnement avec un modèle prévisionnel pour chaque périodique auquel le CDI est abonné (voir la documentation de PMB pour le tutoriel), de simplement cocher tel ou tel numéro reçu pour lui attribuer un numéro d’exemplaire et le mettre en circulation. Cela permet également de voir assez rapidement les manques dans les abonnements en cours et de faire les démarches nécessaires.

Gestion partagée

PMB permet une démarche partagée de gestion des ressources de l’établissement, ce qui suppose bien évidemment une politique documentaire partagée, impliquant l’ensemble des personnels et portée par le chef d’établissement. Dans une moindre mesure, on peut aussi envisager des profils « utilisateurs » pour des élèves qui apportent leur aide pour les opérations de prêt ou de retours d’ouvrages. Pour cela il suffit d’aller dans Administration → Utilisateurs → Gestion des utilisateurs, et de créer des profils d’utilisateurs (donnant accès à l’interface de gestion) et de leur ouvrir certains droits. Par exemple, dans mon établissement, les élèves du Club Lecture sont formés pour le prêt et le retour des ouvrages : leur profil « Club lecture » leur donne accès uniquement à l’onglet « Circulation », ce qui évite qu’ils fassent des erreurs dans la base même. De la même manière, on peut cataloguer les séries de français et ouvrir le droit de prêt aux collègues de Lettres pour qu’ils gèrent seuls leurs séries.
Dans le cadre de la gestion partagée, j’ai également créé une autre base PMB qui ne contient que les manuels scolaires, de manière à ne pas surcharger la base principale du CDI, mais aussi pour bien dissocier les manuels des ressources du CDI. Avec cette base dédiée, la gestion des manuels scolaires est réalisée avec une rapidité incroyable : les collègues qui veulent les manuels dans leur salle ont un prêt à leur nom et en sont complètement responsables (même pour la gestion des dégradations) ; et le prêt aux élèves est simplifié avec la gestion des groupes classes, il suffit simplement de « biper » les manuels empruntés. En tout, la gestion des manuels en début d’année n’a demandé que 30 minutes par classe. Pour les retours, nous avons décidé avec les professeurs principaux que cela se passerait dans leur salle : j’apporterai la douchette et mon aide.
L’objectif à terme de la démarche engagée avec les collègues est de faire en sorte que les professeurs principaux soient formés et autonomes dans les prêts et retours des manuels scolaires en début et fin d’année scolaire. De mon côté, je n’aurai plus qu’à gérer les arrivées et départs en cours d’année.

Prêts express

C’est une fonctionnalité de PMB bien pratique quand des élèves attendent impatiemment que les ouvrages soient disponibles au prêt, après une commande. Elle permet de prêter un livre après avoir renseigné seulement un minimum d’informations. Le traitement/catalogage complet se fera une fois que le livre sera rendu. Pour cela, il faut, à partir de la fiche-élève, cliquer sur « Prêt Express ». Et de là, enregistrer l’ISBN, le titre et attribuer un numéro d’exemplaire, puis cliquer sur le bouton « créer la notice/exemplaire et prêter ». Un message apparaît pour signifier qu’il s’agit d’un prêt express. Ce même message apparaîtra au moment du retour pour rappeler qu’il faut alors compléter le traitement documentaire de l’ouvrage.


Au-delà de ces avantages pratiques, il est à noter qu’il existe une grande communauté autour de PMB avec des passionnés qui ont une bonne maîtrise du logiciel. Dès que l’on a un problème technique à résoudre ou une question à propos d’une manipulation, on peut solliciter la communauté PMB : la réponse arrive généralement assez rapidement, d’autant plus que certaines questions ont déjà été anticipées (on n’est pas seul à rencontrer des difficultés). Et le tout avec beaucoup de bienveillance.

« Les défis de l’éducation aux médias et à l’information » selon le CESE

À la différence du rapport Studer2 (Assemblée nationale, octobre 2018) et de la note du Cnesco3 (février 2019), tous deux centrés sur le rôle et la place de l’EMI à l’école, l’avis du CESE entend insister sur le rôle de tous les acteurs de l’EMI (État, collectivités locales, associations, familles…). Voté à l’unanimité, il est en lien avec deux avis précédents, énoncés respectivement en 2017 et en 2019, intitulés : « Réseaux sociaux numériques : comment renforcer l’engagement citoyen ? » et « L’éducation populaire, une exigence du 21ème siècle » lequel évoquait déjà l’investissement de l’éducation populaire dans le champ de l’éducation aux médias et à l’information.
Le CESE énonce ainsi 19 préconisations qui s’articulent autour de trois défis :
– faire de l’EMI une « grande cause nationale » élargie à tous les publics (étudiants, parents, personnes âgées…) ;
– renforcer la formation des acteurs intervenant dans le champ de l’EMI ;
– soutenir l’évaluation et la recherche dans ce champ, notamment autour de la thématique de la réception de l’information. La création d’un fonds financier dédié à l’EMI et abondé par les recettes de la taxe Gafa est envisagée.
Toutes ces perspectives ne peuvent en première lecture que nous enthousiasmer. Pour autant, l’analyse attentive de l’avis et de la synthèse du CESE ainsi que celle des 13 vidéos des auditionnés en entretien public (soit une heure d’audition environ) nous interrogent à plusieurs niveaux.
Notre proposition de lecture critique s’articulera ainsi autour des deux questionnements suivants : quelle est la place des enseignants du secondaire dans l’approche de l’EMI développée par le CESE ? Quelles visions de l’EMI nous sont-elles données à voir à travers le choix et les discours des auditionnés ?

1. Éduquer aux médias et à l’information : où sont les enseignants du secondaire ?

1.1. Une EMI qui échapperait à l’Éducation nationale et à ses acteurs ?

« D’ailleurs comme le souligne le baromètre 2018 sur la confiance des Français dans les médias, 71 % des personnes interrogées estiment que c’est «tout à fait» ou «plutôt» le rôle de l’Éducation nationale d’organiser un enseignement d’EMI à tous les élèves. » (Avis du CESE, p. 31.)

Quelle est l’opinion du CESE sur le rôle de l’Éducation nationale dans l’EMI ? La vidéo introductive de Marie-Pierre Gariel (rapporteure) souligne la multiplicité des actions et des acteurs intervenant dans le champ de l’EMI. La rapporteure insiste également sur le manque de coordination et d’efficacité entre les Ministères. L’analyse lexicale de ses propos relève des références aux acteurs issus de différents secteurs : l’éducation populaire (citée 4 fois), le milieu associatif (cité 4 fois), les journalistes (cités 3 fois). La vidéo introductive comporte enfin des images des membres de l’association d’éducation populaire Jets d’encre participant aux échanges et aux discussions du CESE. Sont nommés d’autres acteurs intervenant dans le champ de l’EMI comme les entreprises du numérique, la Caisse d’allocations familiales (Caf) et l’Union nationale des associations familiales (Unaf) entre autres. Le mot « enseignant » et les actions menées par les enseignants du secondaire sont étonnamment absents du discours de la rapporteure4.
Retour sur l’avis du CESE. Un certain nombre d’éléments sont développés dans la partie intitulée « L’action du ministère de l’Éducation nationale et de la jeunesse » (avis, p. 31), notamment la nécessité de former les enseignants, la place de l’EMI dans les programmes disciplinaires ainsi que celle du professeur documentaliste sur laquelle nous reviendrons dans la sous-partie suivante. Qu’en est-il alors des actions de terrain menées par les enseignants du secondaire après sept années de mise en œuvre de l’EMI ? Qu’en est-il aussi des nouvelles « tendances » d’éducation aux médias et à l’information observées sur le terrain et menées par les enseignants du secondaire telles que les classes média, la réalisation de Booktrailers, de Webradio ou de WebTv par exemple5 ? De tout cela pas un mot, alors que les actions de l’association Jets d’encre, du Bondy Blog (vidéo) et du Labo 148 (avis du CESE, p. 17) ou encore celles du CLEMI qualifié « d’acteur majeur » (avis, p. 37) font l’objet de développements et d’explicitations. Ce constat est, de surcroît, d’autant plus étonnant que l’institutionnalisation de l’EMI dans les programmes des cycles 2, 3 et 4 permet de former plusieurs classes d’âges et que l’avis mentionne d’une part qu’il appartient à l’Éducation nationale « d’organiser un enseignement d’EMI à tous les élèves » (avis, p. 31) et fait référence d’autre part au rapport de l’Unesco6 (2011) qui considère les « enseignants comme des acteurs incontournables pour la promotion de l’EMI » (avis, p. 45). Or, parmi les auditionnés, seule une maîtresse de conférences en SIC7 exprime clairement « le rôle central de l’éducation nationale ». La liste des auditionnés par le CESE (en entretiens publics et privés) atteste par ailleurs d’une sous-représentation des enseignants du secondaire, puisque sur 34 auditionnés : 10 sont issus du milieu associatif dont celui de l’éducation populaire (Jets d’encre, la Zep, le Bondy Blog, Ceméa, l’@gence, Acrimed), 8 sont issus de l’enseignement supérieur (7 enseignants chercheurs, 1 conseillère auprès de la DGESIP), 6 sont issus du secteur de l’audiovisuel et du journalisme (ESJ de Lille, CSA, AFP), 4 représentent les syndicats (SNJ-CGT, CFDT-F3C, CFDT), 2 représentent le CLEMI, 1 auditionné est issu de l’enseignement secondaire (Proviseur de lycée) et 2 auditionnés, enfin, représentent respectivement les Ministères de l’agriculture et de la culture. Mais où sont les enseignants du secondaire ?
Il s’ensuit que le rôle des enseignants du secondaire apparaît seulement en filigrane, à travers l’apport du CLEMI, les partenariats engagés avec le milieu associatif ou à travers la formation. À titre d’exemple, une action d’EMI est évoquée par la rapporteure à travers la Semaine de la presse et des médias. Événement important, certes, mais aussi ponctuel, puisqu’il est limité à une semaine chaque année. Nombre de professeurs n’attendent donc pas cet événement pour mettre en place leurs actions d’EMI sur l’année en fonction des programmes scolaires et des opportunités qui s’offriront à eux. Et lorsqu’il est question enfin de favoriser une EMI active, ce n’est pas non plus dans le champ de l’Éducation nationale que les références sont prises, puisqu’il s’agit de développer « une pédagogie de l’apprentissage par le «faire» qui utilise notamment les méthodes actives de l’éducation populaire » (avis, p. 49). Alors que le CESE développe une approche de l’EMI sous l’angle de la citoyenneté, de l’éducation critique et de la préservation de la démocratie, comment élargir l’EMI à tous les publics tout au long de la vie en occultant à ce point l’engagement et le travail mené par les enseignants du secondaire ?

1.2. Focus sur le professeur documentaliste  : le rattachement de l’EMI aux SIC

« Je pense à l’existence de professeurs documentalistes qui sont formés aux SIC […] je pense à l’existence d’enseignants disciplinaires qui se dévouent à des projets […]. Peut- être faudrait-il permettre aux enseignants documentalistes d’être plus reconnus dans ce rôle central de développement de l’EMI… » Questions à Amandine Kervella (vidéo)8.

Poursuivons nos observations lexicologiques en nous centrant maintenant sur le rôle du professeur documentaliste dans le champ de l’EMI et en partant de l’extrait suivant, issu de l’avis : « Il revient plus particulièrement aux professeurs documentalistes de mettre en œuvre cette éducation soit en propre dans leur CDI, soit dans l’accompagnement de leurs collègues dans les différents champs disciplinaires pour leur permettre de développer des projets » (avis, p. 32). L’expression « en propre » fait référence à la possibilité de mener seul une action d’EMI. Les professeurs documentalistes sont également cités par le Ministère de l’enseignement agricole avec une référence précise à l’enseignement info-documentation à travers le champ disciplinaire de « technologie de l’information et du multimédia/information-documentation » (avis, p. 34). Nous constatons ensuite qu’un certain nombre de verbes sont mobilisés pour signifier le champ d’action de cet enseignant : « maître d’œuvre », « accompagnateur », « il participe aux côtés des enseignants », « il appuie les enseignants » (avis, p. 33 et 59), « il les [les élèves] forme à un usage raisonné et critique des ressources médiatiques numériques et physiques » (avis, p. 33). De l’accompagnateur au formateur en passant par le maître d’œuvre, il s’avère que l’utilisation d’une multiplicité de verbes pour qualifier les missions du professeur documentaliste accentue le manque de visibilité sur sa fonction pédagogique. L’avis évoque, pour preuve, l’implication du professeur documentaliste également en ces termes : « Mais ils et elles [professeurs documentalistes] ont aussi d’autres missions et parfois du mal à dégager du temps notamment pour monter des projets d’EMI en partenariat avec des acteurs extérieurs » (avis, p. 60). C’est ignorer la priorité accordée à la transmission d’une culture de l’information et des médias qui se manifeste sur le terrain à travers les nombreuses actions d’EMI menées seul ou en partenariat. Cette priorité accordée à l’expertise pédagogique du professeur documentaliste dans le champ l’EMI s’inscrit dans le premier axe de la circulaire de mission professionnelle de mars 2017, pourtant citée dans l’avis du CESE.
La préconisation n° 159 suggère un renforcement de la formation initiale et continue des enseignants du secondaire, des professeurs documentalistes, des chefs d’établissements et des personnels du secteur socio-culturel public ou associatif. Dans la même logique, l’avis insiste sur « la formation initiale et continue des enseignants à l’EMI c’est-à-dire a minima aux sciences de l’information et de la communication (SIC) » (avis, p. 60). Cet intérêt des SIC pour l’EMI est également évoqué par Ollivier-Yaniv10 : « l’EMI à la confluence de plusieurs disciplines est plus particulièrement étudiée par les Sic » (avis, p. 35). Alors que les préconisations n° 211 et 612 suggèrent d’une part le renforcement de la marge de manœuvre du CLEMI en tant qu’opérateur de l’EMI (par la création d’instances régionales et nationales pilotées par le CLEMI et réunissant les principaux acteurs de l’EMI), et d’autre part l’augmentation de ses moyens financiers et humains, on ne peut que s’étonner que l’augmentation du champ d’action pour les enseignants du secondaire, et surtout pour les professeurs documentalistes qui appartiennent aux champs des SIC, ne fasse pas l’objet d’une préconisation du CESE. L’avis énonce enfin que « dans les nouveaux programmes, la place des professeurs documentalistes est réaffirmée » (avis, p. 33). Il est fait référence ici aux nouveaux programmes de lycée où ce n’est pas la place du professeur documentaliste qui est réaffirmée mais celle des notions info-documentaires. Auparavant ces notions invisibles étaient diluées dans les programmes disciplinaires. La réforme du lycée 2019 marque en effet un recentrage de ces notions info-documentaires autour d’objets d’études abordés selon les épistémologies disciplinaires. En voici trois exemples : le premier concerne le thème 4 du programme d’enseignement de spécialité d’histoire-géographie, géopolitique et de sciences politiques en classe de 1ère intitulé « s’informer : un regard critique sur les sources et modes de communication » (25 h) ; le second exemple extrait du programme de français de la classe de 2nde bac professionnel concerne l’objet d’étude nommé « la construction de l’information : s’informer » qui s’articule autour des thématiques des circuits de l’information, des médias, de la source et du système de la désinformation ; enfin les objets d’études relatifs au programme de SNT (sciences numériques et technologie) de la classe de seconde ont trait à internet, au web (histoire, fonctionnement, moteur de recherche), aux données (définition, structure et enjeux), aux réseaux sociaux (définition, enjeux, cyberviolence…) entre autres.
Et nous pourrions aller plus loin dans l’analyse de ce qui constitue in fine des parties de « programme disciplinaire » en information-documentation-média. Ce « programme » se constitue progressivement face aux nouveaux enjeux sociétaux liés à la société de l’information, sur un mode transversal, et de manière éclatée. Ces évolutions ouvrent assurément de nouvelles perspectives pour le professeur documentaliste qui voit son champ d’action s’accroître en fonction de la réalité des terrains. Peut-on dire pour autant et de manière généralisée que « la place des professeurs documentalistes est réaffirmée » ? Un professeur documentaliste qui prendrait en charge le programme de SNT en classe de 2nde par exemple serait indubitablement confronté aux mêmes logiques contradictoires : accueil des élèves au CDI/enseignement selon un emploi du temps défini, notions info-documentaires abordées sous l’angle des disciplines/ notions info-documentaires abordées sous l’angle des SIC, pour ne prendre que ces deux exemples.

2. L’EMI et le développement d’un « agir responsable » face à l’information et aux médias

2.1. Le paradoxe de l’élargissement de l’EMI à tous les publics

« L’EMI doit permettre aux enfants, aux jeunes, aux adultes et aux personnes âgées, d’acquérir, sans pour autant devenir des professionnels, des connaissances et des compétences leur permettant de s’informer, d’émettre, de diffuser, d’analyser et de partager des informations de façon responsable. » (Synthèse du CESE, p. 1.)

Face aux nouveaux modes d’accès à l’information, la nécessité d’élargir l’EMI à tous les publics tout au long de la vie fait consensus. Le statut de l’EMI dans la sphère scolaire est rappelé par le CESE : enseignement transversal (et non discipline scolaire) qui repose sur une démarche active et sur une pédagogie de projets (avis, p. 32) qui tiennent compte des pratiques réelles des acteurs. La préconisation n° 413 évoque enfin la mise en œuvre d’un plan systématisant la création d’un média par établissement scolaire et propose la mise en place d’événements liés à l’EMI.
La volonté d’élargir l’EMI à tous les publics cible essentiellement les parents, les étudiants et les personnes âgées et prévoit l’élargissement du champ d’action de divers acteurs du milieu socio-culturel. La préconisation n° 6 prévoit par exemple une Semaine de la presse et des médias renommée en « semaine des médias et de l’information pour tous » avec un volet scolaire et un volet grand public. Alors que l’EMI est institutionnalisée dans les programmes des cycles 2 (CP, CE1, CE2), 3 (CM1 et CM2) et 4 (5e, 4e, et 3e), il est étonnant qu’une préconisation visant à élargir institutionnellement l’EMI au lycée ne soit pas formulée. Comment raisonnablement construire une EMI « tout au long de la vie » élargie à tous les publics sans une institutionnalisation de l’EMI à tous les niveaux scolaires ?
La citation ci-dessus rappelle la finalité de l’EMI dans la formation du citoyen responsable. L’analyse de l’avis du CESE atteste par ailleurs d’une insistance lexicale autour de la notion de « responsabilité » : « […] accéder à une autonomie responsable » (avis, p. 10), « être libres et responsables face à l’information en contribuant à un débat démocratique et éclairé » (avis, p. 11), « exercer sa citoyenneté de façon responsable et informée » (avis, p. 48). La responsabilité constitue une charge à assumer pour l’élève et sous-tend un certain nombre de capacités pour répondre de ses actes en tant que producteur et consommateur d’information. Le développement des techniques numériques impose en effet une responsabilité constitutive de l’action : vérifier les sources, analyser la véracité de l’information, diffuser une information fiable en tant que producteur par exemple. La responsabilité est constitutive enfin de la liberté, puisqu’être libre c’est être en mesure d’assumer ses responsabilités. Cette approche responsabilisante (avis, p. 13) qui selon Yolande Maury (2011) vise « à ce que l’élève soit en capacité d’assumer les changements, de gérer aléas et incertitudes, et résoudre lui-même les défis et/ou problèmes rencontrés »14 n’est-t-elle pas un moyen pour l’institution de se désengager de ses responsabilités en matière d’EMI ? Renvoyer aux responsabilités de chacun, c’est éviter de se confronter à la sienne.
Or, développer un agir responsable à l’égard de l’information et des médias induit pour l’élève la capacité de comprendre, d’analyser, de critiquer, de proposer et de décider dans l’environnement informationnel numérique. Pour les enseignants, éduquer à la responsabilité dans l’usage de l’information et des médias sous-tend la transmission d’un minimum vital informationnel, fondé sur des connaissances et des compétences info-documentaires autorisant le développement du sens de la responsabilité chez l’élève ; « une bible informationnelle » écrivait Claude Baltz15. Le développement d’un agir responsable va toutefois bien au-delà d’un volet de connaissances et de compétences à transmettre. Il sous-tend une façon de percevoir le monde informationnel à l’ère numérique, une manière d’être et d’agir sur ce monde. Claude Baltz l’affirmait déjà en 1998 : « pas de société de l’information sans culture informationnelle »16. L’agir responsable est au cœur de la transmission d’une culture informationnelle fondée sur une éthique de l’information et des médias, sans laquelle l’élève ne peut développer ses capacités dans la société d’aujourd’hui où le numérique prend une place majeure.
Le développement de cet agir responsable est-il toutefois possible sans la reconnaissance pleine et entière des actions d’EMI menées par les enseignants du secondaire ? Est-il possible sans une reconnaissance institutionnelle ferme et sans équivoque du mandat pédagogique du professeur documentaliste qui, fort de son expertise pédagogique dans le champ des SIC, a la charge de transmettre cette culture informationnelle, de la même manière qu’il appartient à un professeur de sciences de transmettre une culture scientifique, à un professeur de lettres de transmettre une culture littéraire ou à un professeur d’histoire-géographie de transmettre une culture humaniste ?

2.2. L’EMI, à la convergence de trois éducations à… (information, média, numérique) : l’information à l’épreuve du média

« Je parlerai surtout de l’information parce que lorsque l’on entend média, il y a aussi du divertissement […] l’important c’est l’information. […] ça nécessite de l’éducation à l’information plus que de l’éducation aux médias. » Questions à Patrick Eveno (vidéo)17.

Les 19 préconisations du CESE plaident « pour une EMI élargie qui accompagne les individus tout au long de leur vie dans l’acquisition d’une solide culture médiatique et numérique » (avis, p. 48). Lexicalement, les termes relatifs au champ médiatique sont sur-représentés par rapport au champ de l’information-documentation. Ce qui ne signifie pas pour autant que ce dernier soit inexistant, mais qu’il souffre plutôt d’un manque de visibilité. Deux exemples extraits de l’analyse lexicale des travaux du CESE autorisent ce constat. Le premier est issu de l’analyse des vidéos des auditionnés qui révèle plusieurs formulations de l’EMI : l’« éducation aux médias » est l’expression la plus utilisée (31 fois) par les auditionnés. C’est deux fois plus que l’expression pourtant « officielle » d’« éducation aux médias et à l’information » ou « EMI » formulée 15 fois par les auditionnés. L’expression « éducation à l’information » est quant à elle peu employée (3 fois) tout comme « éducation ou formation au numérique » (7 fois). L’analyse lexicale des discours des auditionnés révèle pourtant clairement la présence de notions relatives aux champs de l’information-documentation : 89 récurrences de termes issus du champ lexical des médias ont été relevées (média et médiatique essentiellement) et 81 sont relatives au champ lexical de l’information (informer, information, source, désinformation, infox, fake essentiellement).
Le même constat apparaît à travers l’analyse de l’avis du CESE. L’éducation aux médias (EAM) est évoquée à travers huit approches et en termes :
– d’évolutions, d’histoire et de bouleversements (mutation du monde des médias, crise des médias, confiance et méfiance vis-à-vis des médias, histoire des médias…) ;
– de modèle et de sphère économique propre (organisations professionnelles du secteur de la presse et des médias, concentration des médias, élargissement de l’offre médiatique, modèle économique des médias, condition de travail dans les médias…) ;
– de diversité (médias traditionnels, audiovisuels, média « pure player », média alternatif, médias associatifs) ;
– d’usage et d’appropriation (pratiques médiatiques, création de média, fabrication de contenu médiatique, décrypter les médias et l’information, décrypter les messages et les représentations médiatiques) ;
– de culture (une solide culture médiatique et numérique, culture des médias et du numérique).
La perte progressive du mot « information » dans l’expression « éducation aux médias et à l’information » formulée par les auditionnés et la faiblesse des occurrences liées à l’expression « éducation à l’information » n’empêchent pas une nette représentation de l’éducation à l’information (EAI) à travers six approches et en termes :
– d’évolutions, d’histoire et de bouleversements (fausses informations durant la grande guerre, diffusion et circulation de l’information, nouveaux vecteurs d’information, flux d’information désormais continu, instantané et planétaire, de nouveaux moyens de diffusion de l’information, changement dans la façon de produire et transmettre de l’info, histoire de l’information…) ;
– d’usage et d’appropriation surtout (décryptage et réception de l’information, émetteur et récepteur de l’information, s’informer, analyser et partager des informations, traitement de l’information, le rapport à l’information, crédibilité et pertinence d’une information, sources d’information, qualité de l’information, consommation d’information, comprendre l’information, ressources documentaires et informationnelles, appropriation de l’environnement informationnel, recherche d’information, évaluation de l’information, l’évolution de la société de l’information, nouveaux usages des jeunes en matière informationnelle, maitrise de l’info, accès à l’information, manipulation de l’information, exposition à une information…) ;
– de diversité (désinformation, multiplication des supports d’information, l’information d’actualité, sites d’information, informations peu fiables, mal-information…) ;
– de modèle et de sphère économique propre (dégradation des conditions de travail et précarisation des professionnels de l’information, technologies de l’information, associations de professionnels de l’information…) ;
– d’éthique (droit à l’information, libertés de l’information, esprit critique face à l’information, crédibilité de l’info, confiance dans les informations, pluralisme de l’information…).
L’indicible « éducation à l’information » diluée dans les expressions « éducation aux médias et au numérique » constitue bien par conséquent un champ spécifique, distinct, et possède un territoire propre, mais cette éducation à l’information souffre d’un manque de visibilité renforçant sans doute son caractère indicible.


Conclusion

« […] inscrire l’EMI dans un parcours et dans un temps long plutôt que dans la multiplication de séquences (ateliers ou interventions ponctuelles) dont les effets sur les bénéficiaires sont limités. » (Avis, p. 49.)

En touchant toute une classe d’âge par leurs actions pédagogiques, les enseignants restent les acteurs principaux de la mise en œuvre de l’EMI. Leur sous-représentation dans les travaux entrepris par le CESE est-elle révélatrice d’un aveu d’impuissance de l’école dans la mise en œuvre d’une EMI pour tous ? L’inscription de l’EMI dans un temps long comme l’énonce la citation ci-dessus extraite de l’avis du CESE est-elle compatible, par exemple, avec d’une part l’absence de reconnaissance institutionnelle de l’EMI à tous les niveaux de l’enseignement secondaire et d’autre part avec la « forme scolaire » ? Cette dernière expression employée par de nombreux chercheurs dont Jean-François Cerisier (2016) désigne cet espace où « on n’y apprend ni ce que l’on veut, ni à sa façon, et l’on ne choisit ni avec qui, ni où, ni quand » (Cerisier, 2016, p. 10)18. Dans cet ordre scolaire qui a son organisation temporelle propre (découpage en temps de cours) une EMI inscrite dans un temps long pourrait-elle trouver sa place ? N’y a-t-il pas ici une incompatibilité ? Beaucoup de questions sont formulées qui restent pour un temps sans réponse. Le travail mené par le CESE, certes, encourageant pour la profession, atteste en conclusion d’un manque de visibilité, voire d’une forme de méfiance vis-à-vis des actions d’EMI menées dans la sphère de l’enseignement secondaire. L’EMI vue par le CESE n’est pas l’EMI que les professeurs documentalistes mènent au quotidien, confrontés aux problèmes et aux questions info-communicationnelles des élèves.
Or, nous sommes l’institution scolaire : élèves, enseignants, parents… Par notre implication et nos intentions, nous contribuons à bâtir l’institution scolaire. Pour mener à bien leurs actions visant à développer chez l’élève un agir responsable à l’égard de l’information et des médias numériques, les professeurs documentalistes pourraient se focaliser essentiellement sur leur mission pédagogique. Mission prioritaire qui reviendrait dans certains contextes à accepter et à autoriser que d’autres personnels (enseignants, élèves…) puissent prendre en charge les missions de gestion et d’accueil du CDI. Dans un espace-temps bouleversé par le numérique et face à une information circulante, se délocaliser, quitter le CDI pour éduquer à l’information et aux médias et transmettre les fondements d’une culture informationnelle m’apparaissent comme une nécessité. Cette délocalisation, ce hors-lieu, garantirait l’avenir pédagogique des professeurs documentalistes qui ne se situe plus à l’intérieur du CDI mais dans chaque espace de l’établissement scolaire.

 

 

Sexualité et littérature ados

L’adolescence est un âge de la vie qui correspond à peu près à la période de la puberté chez l’homme. Elle se caractérise par des transformations psychologiques et physiques qui le font passer de l’enfant à l’adulte ; l’être humain devient sexué et capable de se reproduire. D’où la place importante que prennent le sexe et la sexualité chez les ados. Même s’ils sont ressentis de manière plus forte, les sentiments tels que l’amour, l’amitié, l’injustice ont déjà été éprouvés par les enfants. En revanche, les émois physiques, aussi bien en solitaire que vis-à-vis des autres, sont nouveaux et à apprivoiser. D’autant plus que cette nouveauté, à la fois plaisante, intrigante et effrayante est également taboue. Alors que le corps change, grandit, échappe au contrôle, il est encore difficile de mettre des mots sur les formidables émotions qui le traversent1. C’est là que la littérature intervient : les ados y retrouvent leur questionnement, grâce à votre aide discrète et efficace.
Je vous propose donc un deuxième volet de notre exploration du « roman de genre » : le roman « érotique » pour ados. Nous verrons dans cet article que cet adjectif « érotique » est finalement assez impropre à la littérature ados, mais que je l’emploierai faute de mieux, me refusant d’utiliser le terme « roman sexuel » qui me paraît clinique et à vrai dire assez disgracieux.
La loi du 16 juillet 1949 sur les publications destinées à la jeunesse dit clairement que celles-ci « ne doivent comporter aucun contenu présentant un danger pour la jeunesse en raison de son caractère pornographique […] ». La pornographie, c’est littéralement la représentation de sujets obscènes. Or, la sexualité est considérée comme obscène, et pourtant elle est un des éléments qui façonnent l’adolescence : comment écrire sur un sujet tabou et pourtant fondateur ? Alors qu’aujourd’hui, on parle de sexualité dans les médias, les séries2 , les films, sur Instagram, comment en parler aux ados sans être pornographe ou au contraire, trop didactique  ? Suivez le guide à travers le roman « érotique » pour ados.

Les premières fois.
Quand on parle d’amour et de sexualité pour les adolescents, on entre dans ce monde troublant et émouvant de la première fois : premier baiser, premiers émois, premières caresses. C’est donc sans surprise dans ce paragraphe que l’on trouvera le plus de références. C’est d’ailleurs le thème du recueil 16 nuances de premières fois, où différents auteurs et autrices jeunesse racontent différentes premières fois, des plus effrayantes aux plus touchantes. Les nouvelles y sont toutefois assez explicites : réservez-le davantage au lycée. Un autre recueil, intitulé Premières fois est à mentionner : des auteurs et autrices abordent des thèmes tels que l’appréhension, les conseils douteux, l’homosexualité, mais aussi la première fois dans d’autres cultures. Un des romans les plus réussis dans cette catégorie est à mon avis L’Amour en chaussettes, de Gudule. Delphine est amoureuse de son prof d’arts plastiques qui, bien sûr, l’éconduit gentiment. Elle se rapprochera de son copain Arthur, avec qui elle fera l’amour pour la première fois. Cette description de la première intimité, avec doux baisers, maladresses et caleçon Simpson est l’une des plus justes que j’aie lue. La question de la première fois, c’est aussi la question du « bon » moment, avec le « bon  » partenaire. Faut-il « se réserver » ? Faut-il « se débarrasser » de sa virginité, comme un fardeau encombrant qui nous relie encore à l’enfance ? Deux ouvrages abordent ce sujet, l’un sur un mode léger, façon teen movie américain, et l’autre dans un registre plus ironique. Dans Celui qui sera mon homard, une bande de copines décide que c’est ce soir qu’elles perdront leur virginité ; le tout est raconté dans une ambiance de chassé-croisé léger. Dans J’ai quinze ans et je ne l’ai jamais fait, Capucine, 15 ans, est une jeune fille « intello » et réservée, toutefois obsédée par l’idée de « le faire », si possible avec un garçon plus âgé, le prof d’histoire-géo par exemple… Comme l’héroïne de Gudule, elle finira par se rendre compte que les garçons de son entourage sont plus intéressants qu’ils n’en ont l’air, et que garçons et filles peuvent aussi faire d’autres choses ensemble que simplement perdre leur virginité. Ces titres abordent donc cette question essentielle, avec son lot d’attentes et de déceptions. D’autres romans traitent en revanche des problèmes plus graves liés à la sexualité.

Une thématique couramment abordée est celle de la grossesse adolescente.
Dans Le Test, Madeleine est une jeune fille de bonne famille qui découvre à seize ans qu’elle est enceinte. Au-delà de la question de garder ou non l’enfant, l’autrice Sophie Andrians interroge la question de la communication entre les adultes et les adolescentes, et le fait que tous les milieux sociaux sont concernés. Jo Witek s’empare également de ce sujet dans Trop tôt, où l’on suit la tristement banale histoire de l’amour de vacances d’une très jeune fille : elle fait le mur, elle se sent adulte dans le regard d’un garçon plus âgé, une brève étreinte dans les dunes, et puis le retard, quelques semaines plus tard. On suit sa difficulté de communication avec son père, totalement exclu de ce qui est considéré comme une affaire de femmes, l’avortement.

Un angle plus rare, lié au développement du numérique et surtout à la facilité d’accès aux contenus pornographiques est abordé dans Point of View, de Patrick Bard. Lucas est un jeune garçon plutôt complexé qui va développer une forme de dépendance au porno, au point de se couper de son entourage, voire de se blesser. Il rejoint alors un centre de désintoxication pour adolescents où il rencontre d’autres jeunes aux diverses pathologies, notamment une jeune fille en proie à d’autres démons : ils surmonteront ensemble leurs craintes.

Des tonalités crues.
Certains auteurs jouent avec les codes du roman ado et cherchent à provoquer des réactions fortes : quoi de plus amusant alors que d’aborder de manière frontale et crue les questions qui taraudent filles et garçons ?
En 2004, l’auteur anglais Melvin Burgess tracassait les bibliothécaires et documentalistes en publiant Une Idée fixe, récit de trois ados qui veulent absolument connaître les joies du sexe, mais sans bien sûr s’y connaître, et en usant et abusant d’un langage extrêmement fleuri. Évidemment, rien ne se passera comme prévu. La description des fanfaronnades des trois garçons est très bien rendue, et rappellera sans doute certaines « grandes gueules », notamment aux profs-docs de collège. Toutefois, c’est le langage qui est cru, et non les situations, ce qui permet à l’ouvrage d’être édité dans une collection jeunesse.
Plus dérangeant était Lady : ma vie de chienne, où une gamine délurée et à la sexualité bien affirmée se retrouvait un matin transformée en chienne (le terme anglais bitch a la même connotation insultante qu’en français) et qui finalement préférait rester ainsi, passant sa journée à traîner avec les chiens du quartier et à manger. Dérangeant par le côté affirmation d’une sexualité bestiale, et surtout du fait de s’en accommoder, ce roman avait beaucoup divisé à sa sortie.
Dans le contexte actuel de libération de la parole, notamment de la sexualité féminine, ces ouvrages ont été réédités par Gallimard.
Plus récemment, Vincent Cuvellier s’amuse avec la fanfaronnade des garçons dans Ma tronche en slip. Ici, Benjamin, 15 ans, un peu vantard, un peu obsédé, assez désagréable finalement, est casté pour des publicités de sous-vêtements. Le périple en Afrique du Sud pour le tournage de la pub est émaillé de gags, de masturbation rapide dans les toilettes pour se calmer après avoir vu les filles en maillot de bain… L’ensemble est assez potache, prête à rire et peut dédramatiser les situations gênantes d’érections impromptues.

Que les expériences vécues soient joyeuses, graves, décevantes ou inexistantes, elles ne sont pas à proprement parler érotiques. Elles cherchent à créer une identification ou au contraire un repoussoir, afin que les jeunes puissent trouver des réponses à leurs questions sur ce moment si intime. Ces situations ne sont pas conçues pour être excitantes.
Toutefois, une collection des éditions Thierry Magnier, L’Ardeur, entend proposer de l’érotisme pour les adolescents. Le premier titre de cette collection s’intitule Le Goût du baiser, de l’autrice Camille Fontaine. L’héroïne, Léa, perd le goût et l’odorat à la suite d’un accident. Elle va devoir apprendre à vivre avec ce handicap, et notamment découvrir la sexualité en étant privée d’une partie de ses sens. Publié en 2019, ce roman balaye tous les sujets qui peuvent intéresser les ados : premier amour, première relation sexuelle, mais également consentement, revenge porn3 , homosexualité, grossophobie, etc. La couverture porte la mention « Public à partir de 15 ans ». En effet, les scènes de sexe sont explicites et visent clairement à émoustiller les jeunes lectrices et lecteurs.
En janvier puis en mars 2020, la collection s’étoffe de deux titres : Le Point sublime, de Manu Causse, et Tout à vous, de Maia Brami.
Cette collection entend mettre la sensualité au cœur de la lecture, et pas seulement la « première fois » comme une étape de l’adolescence.

Si l’on parle de romans érotiques pour les ados, doit-on y inclure les romances, tels les ouvrages du genre After, d’Anna Todd, ou Calendar Girl, d’Audrey Carlan ?
Nombre de jeunes filles (le lectorat de ces ouvrages est majoritairement féminin) lisent ces fictions, qui se trouvent plutôt dans le rayon young adults des librairies. Doit-on les compter parmi les livres à proposer au CDI, vu le succès qu’ils rencontrent, et la thématique qu’ils traitent ? Ici, chacun se fera juge, mais il ne semble pas que ces ouvrages soient destinés à des adolescents : leur contenu explicite4 est clairement destiné à émoustiller les lectrices, et ils ne sont pas publiés sous couvert de la loi de 1949.

Finalement, ce qui lie tous ces romans, et les rend si populaires, c’est qu’ils reprennent la trame du Bildungsroman, le roman d’apprentissage. Ils racontent une des étapes marquantes de la vie des ados, à savoir l’investissement de leurs corps et de leurs sentiments qui deviennent ceux d’adultes. Alors, on peut largement les proposer, car ils ne sont ni érotiques, ni pornographiques. Ils mettent en scène les joies et les affres des cœurs et des corps, et en deviennent par-là universels.

 

Le mouvement punk

Ressources, partenaires, projets

L’étymologie du mot punk est assez floue. Le terme désigne en Angleterre quelque chose « qui n’a pas de valeur » et aux États-Unis un bon à rien, un paumé. Il est employé dans les années soixante, pour désigner les groupes de rock répétant dans des garages aux États-Unis. En 1971, le critique musical Dave Marsh, est le premier à utiliser le terme de « punk rock » dans la revue Creem. Le mouvement va se développer principalement dans ces deux pays. Contestataire par nature, il s’inscrit dans une période de crise économique. Le punk prospère dans de nombreux squats alternatifs et autogérés, notamment dans le quartier de Hampstead à Londres. En France, le squat de Montreuil, L’Usine, naît en 1980 et prospère jusqu’en 1986. Ces groupes liés à différentes tendances anarchistes (anarcho-punk, peace punk) revendiquent l’autogestion. Le mouvement punk va promouvoir l’amateurisme musical, le do it yourself et la provocation ; dans son sillage, de multiples courants artistiques, tous plus décoiffants les uns que les autres. Une véritable postérité esthétique punk naît, sans cesse renouvelée jusqu’à nos jours. 

Don’t be told what you want
Qu’on te dise pas ce que tu veux
Don’t be told that what you need
Qu’on te dise pas ce dont tu as besoin
There’s no future there’s no future
Il n’y a pas de futur Il n’y a pas de futur*
There’s no future for you
Il n’y a pas de futur pour toi

Sex Pistols, God save the queen, 1977

*. Peut aussi se traduire par avenir

 

Expositions, Archives, musées, Événements

Sacem : Le punk français a 40 ans
Le musée de la SACEM a mis en ligne en 2019 l’exposition Le Punk français a 40 ans réalisée par Mathieu Alterman. Les prémices du mouvement, la première vague punk, le punk populaire dans les années 80, le punk rock alternatif et être punk dans les années 2000. https://musee.sacem.fr/index.php/ExhibitionCMS/ExhibitionCMS/ComplexExhibitions?id=721

Musée du mouvement punk
Site personnel tout à fait dans l’esprit punk
https://www.pinterest.fr/benjaminsueur/mus%C3%A9e-du-mouvement-punk/

Cité de la musique : Europunk
L’exposition temporaire (15/10/2013 au 19/01/2014) présente les créations visuelles de la vague punk apparue dans la seconde moitié des années 1970 au Royaume-Uni, en France et dans d’autres pays. Il est possible de la parcourir en ligne sur le site de la philharmonie de Paris. http://www.citedelamusique.fr/francais/evenements/europunk/europunk.aspx
https://pad.philharmoniedeparis.fr/exposition-europunk.aspx

Musée de la musique à Montluçon, Mupop ; exposition permanente : espace. Les années 80 : local de répétition punk.
https://www.mupop.fr/experience/les-annees-80/

Razibus : site qui annonce tous les événements punk dans l’espace francophone européen.
http://razibus.net/

PIND : acronyme de Punk is not dead est un projet de recherche qui s’inscrit dans le programme « Intelligence des patrimoines », porté par le Centre d’études supérieures de la Renaissance. Il bénéficie actuellement du soutien de l’Agence nationale de la recherche (2016-2020) et de la labellisation 80 ans du CNRS (2019).
http://pind.univ-tours.fr/

Musée des Tissus à Lyon, Vivienne Westwood, à partir du 5 juin 2020.
L’exposition de la collection Lee Price au musée des Tissus de Lyon rend hommage à Vivienne Westwood, une première en France pour la styliste britannique.
www.museedestissus.fr

Exposition Punk graphics, too fast to live, too young to die au musée du design Adam de Bruxelles (20/11/2019 au 26/04/2020). Dossier de presse téléchargeable.
http://adamuseum.be/punk-graphics/

Museum of London, The Clash : London Calling (5/11/2019 au 19/04/2020). Exposition temporaire gratuite. Découvrez la Fender cassée de Paul Simonon, le carnet de Joe Strummer entre autres.
https://www.museumoflondon.org.uk/museum-london/whats-on/exhibitions/london-calling-40-years-clash

Dans les programmes

Collèges

Musique, cycle 4
“Situer et comparer des musiques de styles proches ou éloignés dans l’espace et/ou dans le temps pour construire des repères techniques et culturels”.

Arts plastiques, cycle 4
“Porter un regard curieux et avisé sur son environnement artistique et culturel, proche et lointain”.

Lycée général et technologique, nouveau programme

Seconde et Première, BO spécial n° 1 du 22 janvier 2019
Terminale, BO spécial n° 8 du 25 juillet 2019
https://eduscol.education.fr/pid39038/programmes-et-ressources-voies-generale-et-technologique.html

Philosophie : terminale générale et technologique
Connaissances des doctrines et étude d’œuvre.
Nietzsche, Heidegger : nihilisme.
Diogène de Sinope : cynisme.

Spécialité de management, sciences de gestion et numérique de terminale STMG
“La partie commune du programme apporte des éléments pour comprendre le fonctionnement de tout type d’organisation (entreprises, associations, organisations publiques, organisations de la société civile, organismes, établissements, etc.)”.
SCOP, SCIC → autogestion

Option de management et gestion de seconde
“S’engager et entreprendre, de l’intention à la création.
Notions : Invention/innovation. Idée/production”.
→ Do it yourself

Spécialité de droit et économie, première STMG
“Thème 1 : quelles sont les grandes questions économiques et leurs enjeux actuels ? I.3. Les échanges économiques”.
→ Troc

Langues vivantes (anglais). Première et terminale générales et technologiques
“Formation culturelle et interculturelle. Axe : 3) Art et pouvoir. L’art peut-il être un contre-pouvoir ? L’art est-il une forme d’expression politique ? Mots-clés : … /musique/contre-culture/underground/art engagé …”
Essor du mouvement punk en Grande-Bretagne, lors de la grande récession économique à la fin des années 70’ et début 80’.

Langues vivantes (anglais). Seconde générale et technologique
“Formation culturelle et interculturelle. Axes  : 6) La création et le rapport aux arts, 8) Le passé dans le présent”.
Esthétique, musique, art graphique du mouvement punk.
La mode récupère régulièrement les codes esthétiques du mouvement punk.

Musique. Option arts en seconde générale et technologique
“Enjeux et objectifs. Enrichir les pratiques des élèves de références multiples liées à l’esthétique et à l’histoire de la musique, à ses techniques et à ses langages, à sa place et à son rôle dans la société contemporaine.”
“Champs de questionnement. La diversité des esthétiques, des langages et des techniques de la création musicale dans le temps et dans l’espace”.

Musique. Option arts en première et terminale des voies générale et technologique
“Champs de questionnement. La diversité des esthétiques, des langages et des techniques de la création musicale dans le temps et dans l’espace”.

Musique. Spécialité arts en première et terminale de la voie générale
“Champs de questionnement. Culture musicale et artistique dans l’histoire et la géographie”.

Lycée professionnel, nouveau programme

BO spécial n°5 du 11 avril 2019
https://www.education.gouv.fr/pid285/bulletin_officiel.html?pid_bo=38697

Bac professionnel, CAP métiers de la mode ;
Bac professionnel, CAP esthétique, cosmétique parfumerie ;
Bac professionnel, CAP métiers de la coiffure ;
Discipline professionnelle : activités pédagogiques, chefs d’œuvre en lien avec l’anglais et/ou l’histoire.

Pistes pédagogiques

Cimetière de Highgate – Londres

Voyage à Londres : se rendre sur les lieux symboliques du mouvement punk.

Séances pédagogiques en musique : histoire de la musique punk de ses origines jusqu’à aujourd’hui, instruments utilisés.

Laisser le CDI en autogestion aux élèves (lycée uniquement) pendant une journée liée au mouvement punk. Exemple : le jour de la marche des punks du 3 février 1980 à Londres.

Faire des recherches sur les origines de l’explosion du mouvement punk aux USA, en Angleterre, en France en relation avec les programmes (histoire, SES, anglais, musique…).

Recherche sur le nihilisme (philosophie).

Communication : conception d’affiches, flyers punk avec le professeur d’arts plastiques.

Réaliser un fanzine punk dans le cadre de l’éducation aux médias.

Esthétique mode en lycée professionnel, recherches sur le sujet pour un défilé ou pour le chef d’œuvre.

Exposition de documents au CDI (ouvrages, films, affiches).

Diffuser un film sur le sujet puis réaliser un débat.

Marche des punks, Londres 1980. Getty images

Mode

La provocation inhérente au punk se retrouve forcément dans cette mode. Il s’agit de choquer et de faire du mauvais goût un signe de distinction. Maquillage noir charbon, cheveux teints en jaune ou en vert, tee-shirt déchiré, parfois maculé de peinture, kilt en tartan, collants filés, lame de rasoir et croix gammée en sautoir, poignets de force, badges accrochés sur un perfecto Schott, creepers ou Doc Martens aux pieds.

Vivienne Westwood

La représentante de cette mode est sans conteste Vivienne Westwood qui, avec son mari, le sulfureux producteur des Sex Pistol Malcolm McLaren, ouvre une boutique de vêtements à Londres. Ingénument appelée Sex, cette boutique, dès 1974, reconvertit en vêtements la panoplie en latex du sado-maso jusqu’alors vendue dans les boutiques spécialisées.
Encore aujourd’hui, Vivienne Westwood, poursuit sa carrière de styliste et possède des boutiques dans les beaux quartiers du monde entier (rue Saint Honoré à Paris).

On pourra consulter ce site pour en savoir plus sur la mode punk.
http://histoire-du-costume.blogspot.com/2012/05/le-mouvement-punk.html

Enfin rions un peu, en lisant ce communiqué du Bon Marché (qui porte mal son nom !) pour annoncer son exposition de rentrée en septembre 2019 : intitulée «So Punk Rive Gauche», la grande exposition de rentrée du Bon Marché réveille les codes classiques du grand magasin parisien en mettant à l’honneur à travers ses allées cette contre-culture britannique qui a infusé plusieurs milieux créatifs dans les années 70, musique, cinéma et mode en tête. Du 31 août au 20 octobre 2019, l’adresse de la rive gauche s’attache à célébrer « joyeusement » une certaine idée du punk : « chic, moderne, twisté par une sophistication toute parisienne… sans rien perdre de sa force de subversion ».
À la lecture de ce communiqué, Johnny Rotten et Nancy Spungen ont dû sauter dans leur tombe pour un dernier pogo !
Pour ce faire une idée de l’expo en toute objectivité : Le Moment Meurice sur France Inter : https://www.youtube.com/watch?v=AfeKE7bgWeU

Enfin, le célèbre Tee shirt de Johnny Rotten : I hate Pink Floyd.

Graphisme

Jamie Reid
Artiste graphiste britannique engagé dans le mouvement punk
Réalisation des pochettes des Sex Pistols : l’album Never Mind the Bollocks, Here’s the Sex Pistols et les 45 tours de Anarchy in the UK, God Save The Queen.

Fanzines
De nombreux fanzines rejoignent le mouvement punk
Fanzines punk en France : http://www.fanzino.org/expo_rock/pages/1977.html

Le groupe Bazooka composé de Christian Chapiron (Kiki Picasso), Jean-Louis Dupré (Loulou Picasso), Olivia Clavel (Electric Clito), et Jean Rouzaud va imposer dans la presse ce qu’il appelle une dictature graphique… Le quotidien Libération en 1978 édite, durant six numéros, un mensuel d’actualité, Un Regard moderne, mis en page et illustré par le groupe.

Discographie

Pour devenir sourd

Le top 10 pour se constituer une discothèque punk anglo-saxonne.

The Stooges. – Fun House. 1970
Le groupe d’Iggy Pop est incontestablement considéré comme le précurseur du punk rock. Fun House est le deuxième album du groupe de Détroit qui après s’être séparé en 1974 renaîtra en 2003.

New York Dolls. – New York Dolls. 1973
Cheveux longs, tenues androgynes, les New York Dolls ne portent pas encore la tenue punk, mais leur musique agressive l’est déjà. Johnny Thunders, le guitariste, quitte rapidement le groupe, avec le batteur Gerry Nolan pour fonder The Heartbreakers. Ils participeront en 1976 à l’Anarchy tour avec les Clash et les Sex Pistols.

Patti Smith. – Horses. 1975
Compagne du photographe Robert Mapplethorpe, influencée par Baudelaire et Rimbaud, Patti Smith avec Horses signe un magnifique album qui, s’il n’est pas à proprement dit punk, influencera de nombreux musiciens.

Ramones. – Ramones. 1976
Adossés à un mur en briques, revêtus de perfecto noirs, les Ramones ouvrent leur album éponyme sur BlitzKrieg Bop dont la première phrase Hey Ho, Let’s go ! deviendra le cri de ralliement des jeunes voulant créer leur groupe punk. Un album fulgurant (30 minutes pour 14 titres !).

The Sex Pistols. – Never Mind the Bollocks. Here’s the Sex Pistols.1977
Unique album studio des Sex Pistols. Des musiciens qui ne savent pas jouer, un chanteur, Johnny Rotten, qui ne fait qu’éructer, une pochette moche, un producteur démiurge, Malcolm McLaren : voilà les ingrédients de cet album, climax du mouvement punk.

Richard Hell & The Voidoids. – Blank Generation. 1977
Album phare de la scène new-yorkaise.

The Damned. – Damned, Damned, Damned. 1977
Un album à se damner !

The Clash. – The Clash. 1977
Le groupe londonien est sans conteste le plus politisé de la scène punk. « Nous sommes antifascistes, nous sommes antiviolences, nous sommes anti-racistes et nous sommes procréatifs, et contre l’ignorance » proclame Joe Strummer, le leader du groupe. Un premier album violent et provocateur dans lequel Londres est en flammes.

Siouxsie & The Banshees. – The Scream. 1978
Album à la charnière entre le punk et le post-punk. Un cri !

The Clash. – London calling. 1979
Avec ce double album, le groupe, en s’ouvrant au ska, au reggae, au rock, au jazz et à la soul, marque le début du déclin du mouvement punk. Ouvertement anti-Thatcher cet album connaît un succès mondial.
Quant à la France, elle prend le mouvement en route, avec des succès divers qui dépasseront rarement les frontières de l’Hexagone. Parmi les groupes qui émergent à cette époque : Starshooter qui reprend Le poinçonneur des Lilas de Serge Gainsbourg, Les Berurier noirs, anti-fascistes radicaux proches des mouvements autonomes, Bijou qui participa au premier festival punk de Mont de Marsan de 1976, La Souris déglinguée (LSD), Les Wampas qui mirent Chirac en prison en 2006, et Daniel Darc qui se tranchait régulièrement les veines lors de ses concerts.

 

Métal Urbain. – Les hommes morts sont dangereux. 1981

La Souris déglinguée. – La Souris déglinguée. 1981

Les Béruriers noirs. – Macadam massacre. 1984

Les groupes punk jusqu’à nos jours (liste non exhaustive et à l’avenant) :
À l’étranger : Dropkick Murphys, Converge, Rancid, Bad religion, Pussy Riot, Black flag, Propagandhi, NOFX.
En France : Ludwig von 88, Burning heads, Tagada jones, Guerilla poubelle.

Les mouvements issus de la punk : post punk (Joy Division…), grunge (Nirvana…), hardcore (Dead Kennedys…).

 

Je suis le maillon faible de votre sous-culture plastique.
Je ne connais rien aux règles
Je me fous de votre esthétique.
Tu m’parles d’la nouvelle star des cons,
j’ai jamais entendu son nom…

Guerilla poubelle, Culture poubelle, 2005

 

Le professeur-documentaliste de Bernard Heizmann et Élodie Royer

Connaître les champs d’intervention

Ce premier chapitre se divise lui-même en trois parties. La première présente le système éducatif français. Du fait de la « dimension transversale du métier » qui le met en « capacité d’interagir avec tous les acteurs », le professeur-documentaliste a sa place dans les différents conseils, instances et commissions d’un établissement scolaire, du conseil d’administration au conseil de la vie collégienne ou de la vie lycéenne. Sa connaissance des nombreux acteurs du système éducatif, des différents agents d’un établissement en passant par les services rectoraux, sans oublier les collectivités territoriales, lui permet, suivant les auteurs, « d’être plus efficace sur le plan de la communication et de la circulation de l’information » et de « l’élaboration et [du] financement des projets et […] dans [la] recherche de partenariats » (p. 17). La connaissance des programmes et des différentes opérations éducatives jalonnant l’année scolaire permet au professeur-documentaliste d’accomplir ses missions, notamment celle d’enseignement. Ainsi, entre autres, le professeur-documentaliste participe à la maîtrise des compétences du socle commun de connaissances, de compétences et de culture, soit directement parce qu’il intervient auprès des élèves pour travailler l’une ou l’autre des compétences du socle, soit indirectement parce que son travail crée un terrain favorable à leur acquisition (p. 18).
Une deuxième partie traite de la maîtrise de la pédagogie et de la didactique info-documentaires. Après avoir rappelé les principaux textes en vigueur encadrant le métier d’enseignant, Bernard Heizmann et Élodie Royer présentent quelques pédagogues influents, de John Dewey à Jérôme S. Bruner. Le développement d’une « culture pédagogique » étant fondamental pour l’ensemble des missions du professeur-documentaliste, ce rapide descriptif est suivi de celui de concepts pédagogiques, de l’autonomie à la prise en compte des conceptions et représentations des élèves dans l’enseignement. Les deux auteurs présentent les différents types de textes qui encadrent l’intervention pédagogique du professeur-documentaliste : référentiels de compétences, programmes scolaires, curricula et matrices. L’actuel programme d’éducation aux médias et à l’information du cycle 4 ne donnant pas d’indication de progression, il revient « au professeur-documentaliste et aux autres enseignants de fixer celle-ci dans le cadre de la politique documentaire de l’établissement qui formalise la démarche de formation ». Mais, dès lors, plusieurs questions se posent : comment prendre en charge dans un tel cadre tous les élèves ? Quelles compétences peuvent être enseignées de manière partagée avec les collègues de discipline et quelles compétences restent l’apanage du professeur-documentaliste ? (p. 31). Enfin, les auteurs présentent l’évaluation des élèves, sous ses différentes formes (diagnostique, formative, sommative), et la participation du professeur-documentaliste à celle-ci.
La troisième partie positionne le professeur-documentaliste en expert des savoirs info-documentaires. Sont introduits dans un premier temps les deux concepts clés en sciences de l’information et de la communication que sont l’information et le document, à partir desquels le professeur-documentaliste peut expliciter d’autres notions telles que celles de source, d’auteur ou de validité de l’information. Bernard Heizmann et Élodie Royer présentent ensuite la démarche de recherche d’information. Déjà présente dans la circulaire de missions des personnels exerçant dans les centres d’information et de documentation de 1986, ses enjeux évoluent et des questions pédagogiques nouvelles apparaissent. Le professeur-documentaliste la travaille à partir des pratiques des élèves en « s’interrogeant sur la manière dont il peut les rendre plus efficaces, plus fiables, mais aussi sur les solutions qu’il peut mettre en œuvre pour les accueillir et les valoriser » (p. 39). Responsable d’un centre de ressources, il se doit également de connaître et maîtriser l’« ensemble des opérations successives menées par les professionnels, du repérage à l’analyse des besoins jusqu’à la diffusion et à la communication au public concerné », autrement dit la chaîne documentaire d’un établissement scolaire (p. 40). Si l’association des usagers, en particulier des élèves, à celle-ci relève d’une évolution des pratiques professionnelles dépassant le cadre de la documentation scolaire, cette chaîne documentaire conserve ses spécificités notamment en termes de développement des collections (niveau du public, filières, programmes, vocation pédagogique). Les espaces documentaires évoluent également. Le CDI tend en effet à s’inspirer du modèle des learning centres et de ce fait à intégrer un ensemble d’espaces de vie et de travail au niveau de l’établissement. Enfin, une quarantaine de définitions de termes récurrents dans l’exercice du métier de professeur-documentaliste clôt le chapitre : il s’agit principalement de termes liés à la bibliothéconomie.

Maîtriser les principaux gestes professionnels

Ce deuxième chapitre recense et présente les quatorze gestes professionnels principaux identifiés par Bernard Heizmann et Élodie Royer à partir de leur analyse de la circulaire de missions des professeurs documentalistes de 20171.
Le premier geste professionnel identifié est celui de « piloter ». Pilote de la politique documentaire sous la responsabilité du chef d’établissement, le professeur-documentaliste guide la politique de gestion documentaire, de diffusion et de communication de l’information, de formation à la culture de l’information des élèves et d’ouverture culturelle de l’établissement. Avec le changement d’échelle opéré par la conception de la politique documentaire – du CDI à l’établissement – la mise en œuvre de cette dernière peut s’avérer difficile. Alors que le pilotage de la politique documentaire est une affaire d’experts en bibliothèque, le professeur-documentaliste demeure le seul expert dans un établissement scolaire. Le second geste professionnel procède du premier, il s’agit de celui d’« organiser ». Le professeur-documentaliste opère une organisation des ressources documentaires tournée vers l’usager à l’échelle de l’établissement. Il s’agit pour lui « d’architecturer l’information, de créer des liens, des points de passage entre les différents pôles documentaires et informationnels de l’établissement et [de] les mettre en résonance » (p. 68). L’organisation des ressources documentaires relevant de la politique documentaire, le professeur-documentaliste n’est pas le seul agent concerné par ses enjeux dans la réussite des élèves. Il est amené à sensibiliser le personnel de l’établissement à cette question.
Dans le même esprit, tourné vers l’usager, le professeur-documentaliste maîtrise trois gestes professionnels complémentaires : « accueillir », « accompagner » et « enseigner ». Les deux premiers souffrent d’un manque de considération, relevant « de la compétence cachée, de l’informel ou de la personnalité du professeur-documentaliste » (p. 72). Gestes quotidiens, ils soulèvent pourtant des questions : quelles étapes, comment personnaliser l’accueil, quels mots choisir et employer, comment faire pour aller au-devant des usagers pour qu’ils se sentent accueillis ? Comment gérer les conflits éventuels, quelle posture, quelle mobilité pour affirmer sa présence et en même temps être accessible ?
Le sixième geste professionnel, « collaborer », fait l’objet d’une prescription institutionnelle. Il s’agit pour le professeur-documentaliste, et pour l’ensemble des personnels d’éducation, de « coopérer au sein d’une équipe » et de participer aux « travaux disciplinaires et interdisciplinaires », notamment dans le cadre de co-enseignements. Le professeur-documentaliste joue alors un rôle de liant entre les différentes disciplines, afin qu’elles assurent ensemble l’éducation aux médias et à l’information des élèves en cycle 4, par exemple, malgré parfois certains obstacles (difficultés matérielles et organisationnelles, idées reçues des agents). Pour y faire face, Bernard Heizmann et Élodie Royer préconisent d’insister sur les apports de chacun à la formation des élèves dans le cadre du socle commun de connaissances, de compétences et de culture.
« Inciter » et « ouvrir » sont deux gestes professionnels complémentaires. Le premier se manifeste, entre autres, à travers l’incitation à la lecture qui passe par une politique d’acquisition répondant aux besoins et aux attentes des usagers, élèves et personnels, de l’établissement. Le professeur-documentaliste incite également aux bonnes pratiques informationnelles par les médiations qu’il met en œuvre au CDI, incitation qui s’adresse autant aux élèves qu’aux enseignants. Ouvrir est un geste bidirectionnel : il s’agit pour le professeur-documentaliste d’amener les élèves à découvrir des lieux et des ressources extérieures à l’établissement et, inversement, de faire entrer des intervenants extérieurs dans l’établissement à la rencontre des élèves.
« Veiller » et « communiquer » sont également deux gestes professionnels qui se pratiquent à l’échelle de l’établissement scolaire dans le cadre d’une politique documentaire voire d’un projet d’établissement. Le professeur-documentaliste, personne-ressource, accompagne ou forme ses collègues dans leur démarche de veille. En effet, la compétence « exercer une veille documentaire » est une compétence attendue des professeurs stagiaires au terme de leur année de stage. Communiquer suppose de répondre à quelques questions : quels vecteurs, quels destinataires, quels contenus ? (p. 88). Pour ce faire, le professeur-documentaliste contribue à la cohérence de la politique de diffusion de l’information « dans et par l’établissement » (p. 89) en collaboration avec d’autres agents.
« Compétence[s] inconsciente[s] ou cachée[s] » (p. 91) qui « contribuent à rendre plus efficaces le fonctionnement du CDI et le travail du professeur-documentaliste » (p. 96), « lire et écrire » sont des gestes inscrits en filigrane dans les textes encadrant les missions du professeur-documentaliste et dans la pratique quotidienne du métier. Lectures professionnelles, scientifiques et de travail, le professeur-documentaliste lit beaucoup. Ce qui suppose faire preuve d’une « efficacité temporelle et organisationnelle » (p. 92). De la même façon, le professeur-documentaliste écrit beaucoup : pour communiquer, pour garder une trace de son activité ou pour didactiser ses connaissances. Bernard Heizmann et Élodie Royer insistent sur l’importance d’écrits qui ne répondent pas aux impératifs d’un quotidien professionnel, les écrits réflexifs sur sa propre pratique qui conduisent à l’expertise.
Enfin, répondant à une prescription institutionnelle, l’engagement « dans une démarche individuelle et collective de développement professionnel », le professeur-documentaliste est appelé à se former en permanence. Cependant, si l’offre de formation continue est importante (plans de formation, M@gistère, stages de l’Enssib ou du Salon du livre pour la jeunesse de Montreuil), les missions qui lui sont confiées le sont tout autant, d’où l’importance de mutualiser les apports et les supports de formation, notamment au niveau de l’établissement scolaire. « Se former » et « mutualiser » sont les deux derniers gestes professionnels, interdépendants, qui contribuent à une logique d’innovation et d’amélioration constantes (p. 100).

Réussir les concours : s’inscrire et se préparer

Dans le dernier chapitre, Bernard Heizmann et Élodie Royer détaillent dans un premier temps les conditions et les démarches d’inscription aux concours (externe, interne et troisième voie). Ils rappellent ensuite les modalités de chacune des épreuves à partir des textes officiels qu’ils explicitent. Les auteurs proposent une méthodologie des épreuves qui précise un certain nombre d’attendus informels, notamment pour l’épreuve d’étude d’un sujet de politique documentaire. Une série de questions, réellement posées à l’oral du concours interne, et classées en cinq catégories (système éducatif, sciences de l’éducation et pédagogie documentaire, sciences de l’information, pratique du métier, culture générale), servira autant aux candidats aux différents concours qu’aux professionnels en poste2. Enfin, une bibliographie indique un nombre important de références, classées par chapitre et par partie, ainsi que par geste en ce qui concerne le deuxième chapitre. Une table des sigles avec leur développement complète ceux détaillés dans le corps de l’ouvrage.

En conclusion

Le livre constitue une première entrée actualisée et documentée, sur le métier, articulant éléments de définition et de réflexion qui rappellent à certains égards les manuels de la collection « Le métier de… » des éditions du Cercle de la Librairie. Bernard Heizmann et Élodie Royer proposent un regard honnête sur notre métier en présentant chaque geste en deux temps : dans un premier temps, « on en parle », ils présentent factuellement les prescriptions et les attentes institutionnelles, à partir, entre autres, des documents de l’administration ; dans un deuxième temps, « on en discute », ils passent celles-ci au tamis de la réalité. À travers une approche originale par les gestes professionnels, Le professeur-documentaliste remet finalement en perspective notre quotidien et la richesse de notre métier.

 

HEIZMANN Bernard, ROYER, Elodie. Le professeur-documentaliste. Futuroscope : Canopé éditions, 2019. 165 p. Collection Maîtriser. 978-2-240-04542-3 : 23,90 €.

 

Culture Numérique de Dominique Cardon

Dominique Cardon compare l’apparition du numérique avec l’invention de l’imprimerie : un changement technique tel, qu’il impacte tous les pans de la société. Il s’agit là d’une rupture majeure dans la façon dont « nos sociétés produisent, partagent, et utilisent les connaissances » (p. 5). Pas de déterminisme technique ici : le sociologue rappelle à plusieurs reprises au cours de cet ouvrage que ce ne sont pas les progrès techniques qui modèlent nos comportements, mais ces derniers qui privilégient telles ou telles pratiques et un outil plutôt qu’un autre en fonction de nos besoins et de nos usages culturels. Six grands chapitres vont lui permettre de balayer tous les champs de cette nouvelle culture numérique. D’abord plutôt chronologique et historique dans les trois premières parties qui retracent l’apparition d’Internet, puis du Web et enfin du Web 2.0, le plan de l’ouvrage bascule ensuite dans trois chapitres plus thématiques : l’un sur la dimension politique et médiatique avec les nouvelles formes de démocratie participative ; un chapitre sur l’économie des plateformes ; enfin une dernière partie sur les algorithmes qui rejoint le contenu du précédent livre de l’auteur1.

Internet ou l’ambivalence de la culture numérique

Revenir sur les origines historiques d’Internet permet à Dominique Cardon de mettre l’accent sur la tension qui existe depuis sa création entre l’idéologie utopique des pionniers de l’informatique qui souhaitaient « rendre le monde meilleur » et la récupération marchande presque immédiate par quelques entreprises privées des logiciels et des outils créés. La culture numérique telle que la définit ici l’auteur est « la somme des conséquences qu’exerce sur nos sociétés la généralisation des techniques de l’informatique » (p. 18). Il rappelle donc que l’informatique, qui se trouve au cœur de la révolution numérique actuelle, a une longue histoire, qui commence sans doute avec la machine à calculer de Pascal, se poursuit avec Ada Lovelace, la première femme programmatrice, puis avec le langage inventé par Georges Boole (les opérateurs booléens que nous connaissons bien en documentation), et bien sûr la fameuse machine de Turing. La transformation d’un signal analogique, continu, en signal numérique constitué de séries de 0 et de 1, qui ne se dégradent pas après copie et sont interopérables et transférables à l’infini, constitue l’étape majeure du développement de l’informatique et des premiers ordinateurs.

Tim Berners-Lee à gauche et Vint Cerf à droite : les deux inventeurs, l’un du Web, l’autre d’Internet. Source de l’image : https://www.pinterest.fr/pin/544161567459895152/
@laurenceallard sur Twitter

 

Une distinction importante est ici soulignée, gommée depuis longtemps dans le langage courant, et dommageable pour la compréhension des mondes numériques : Internet n’est pas la même chose que le Web. Ce dernier est l’un des réseaux parmi d’autres issus d’Internet, plus récent et inventé par Tim Berners-Lee, en langage HTML. Le premier protocole d’Internet, TCP-IP (Transmission Control Protocol – Internet Protocol), a lui été inventé dans les années 60 par Vint Cerf et Robert Kahn. Lié à la fois à la contre-culture américaine libertaire des années 70, et à l’Armée qui le développe avec ses ingénieurs, Internet « est un outil collaboratif inventé de façon coopérative » (p. 37), issu d’éléments technologiques créés par des personnes différentes, et améliorés au fur et à mesure.
Arrêtons-nous un instant sur les trois formes possibles de réseaux conceptualisées par l’ingénieur Paul Baran dont Dominique Cardon nous présente trois schémas simples mais très pédagogiques (p. 31).

Le réseau centralisé fait tout passer par le centre  : il est souvent national, monétisé, le centre y est « intelligent » et la périphérie « idiote », puisque c’est le noyau central qui concentre toutes les informations puis les redistribue. C’est le modèle de réseau du téléphone fixe ou du Minitel.
Le réseau distribué utilise une communication par paquets : le message y est découpé et peut prendre plusieurs chemins différents. Il est le plus souvent gratuit, sans frontière, et ne présente pas de contrôle centralisé. À l’inverse du premier réseau, « le centre est idiot et la périphérie intelligente ».
Enfin, le réseau décentralisé est celui qui est utilisé dans le cas d’Internet : c’est un intermédiaire entre les deux autres formes, puisque certains nœuds y ont plus d’importance que d’autres et ce sont plusieurs petits centres qui distribuent l’information.

Dès l’origine, c’est l’éthique du « hacker » qui prévaut dans l’élaboration d’Internet, « hacker » étant à entendre dans le sens de « bidouilleur », « bricoleur », et non pas de « pirate » comme on le dit souvent aujourd’hui. Cette culture du hacking développe des valeurs comme la curiosité – les férus d’informatique aiment explorer le fonctionnement interne des programmes – ou la liberté – l’information doit circuler sans contrainte ni censure, elle est le « carburant de la coopération ». On verra que cette dimension est extrêmement importante dans l’idée de logiciel libre. La culture des hackers se veut par ailleurs méfiante envers l’autorité et toute forme de centralisation. La notion de mérite et de reconnaissance par les pairs y est plus forte que tout diplôme ou statut social : c’est ce qui sous-tend encore le classement du PageRank de Google. Enfin, l’informatique est considérée comme un art et elle doit rendre le monde meilleur.

La forme même d’émergence et d’amélioration du protocole d’Internet à ses débuts illustre bien ces valeurs de liberté et de coopération. En effet, c’est grâce à des textes courts et contributifs, les RFC (Request for Comments) que les éléments informatiques sont modifiés entre chercheurs et ingénieurs encore aujourd’hui, via le IETF (Internet Society), un collectif qui s’occupe des couches basses du réseau.

Trois communautés ont convergé pour créer Internet : les militaires et ingénieurs employés par l’armée, les chercheurs universitaires avec notamment le réseau ARPANET qui reliait quatre universités américaines, et enfin les hackers hippies passionnés et libertaires. C’est l’alliance somme toute improbable de ces trois sphères qui a permis l’émergence du réseau connecté et de la souris d’ordinateur, créés par Doug Engelbart en 1968 puis du protocole TCP-IP, fixé définitivement en 1983. On retrouve bien cette ambivalence dans l’idéologie diffusée en 1985 lors du premier forum Internet baptisé The Well (The Whole Earth ‘Lectronic Link). Il regroupe les membres de la culture hippie des années 70. S’y développe l’idée que le monde virtuel serait un milieu idéal, égalitaire, plus solidaire que la vie réelle, où l’on peut réinventer entièrement les relations sociales. Dominique Cardon montre bien qu’il y a en réalité un fort décalage entre cette utopie et l’homogénéité socio-culturelle des participants du forum, majoritairement des hommes blancs californiens, cultivés. Ainsi, et cette idée est fondamentale pour la compréhension du monde numérique, le virtuel reste toujours « la prolongation numérique des rapports sociaux ordinaires », un reflet du réel malgré tout ce qu’on voudrait qu’il ne soit pas.
Gardons bien en tête ces idéologies diverses et parfois contradictoires qui ont bâti Internet : les pionniers voyaient ce dernier comme un outil d’émancipation individuelle, un mode d’empowerment accessible à tous, qui permet aux individus de faire changer les choses en se passant du pouvoir politique et en impulsant les changements par la base. L’échange et l’égalité sociale y sont valorisés grâce à l’anonymat, aux avatars, aux multiples identités virtuelles. Côté ingénieurs et chercheurs, c’est plutôt l’utopie d’un pouvoir « salvateur » du numérique sur la société qui reste prégnante dans le développement actuel de l’Intelligence Artificielle. Enfin, à l’idée première de liberté et de gratuité, viendra s’ajouter ensuite la liberté économique qui conduira, nous le verrons, aux GAFAM et à l’extrême marchandisation du numérique.

Le Web : bien commun ou produit marchand ?

L’invention du Web, « toile » en anglais, en 1996, marque la fin de la période des pionniers d’Internet. Le changement fondamental qui accompagne l’apparition du Web est celui du lien hypertexte, ce « réseau de liens qui créent des routes entre les pages des différents sites » (p. 78). C’est une nouvelle manière de classer les informations qui se fait jour et qui remet en cause l’ordre documentaire tel qu’il était défini jusqu’ici. Plus de classement alphabétique comme dans un dictionnaire. Avec les liens hypertextes, c’est l’auteur du site qui décide de relier son contenu à celui d’autres sites : « ce sont les documents eux-mêmes – donc ceux qui les écrivent – qui décident de leur classement » (p. 79). Cette manière d’ordonner les connaissances en laissant totale liberté aux concepteurs des sites montre l’héritage de l’esprit libertaire d’Internet sur le Web. Tim Berners-Lee pose le principe du lien hypertexte au CERN en 1989-90, en ayant l’idée de relier les pages créées les unes avec les autres grâce à des adresses URL.
On retrouve ici l’utopie de la bibliothèque universelle qui sous-tend le projet du Mundaneum de Paul Otlet et Henri La Fontaine à Bruxelles. Pour rappel, les documents y étaient organisés par rapport à leur contenu, à l’aide de fiches dépouillées regroupées par thème dans des tiroirs, classées en CDU, classification créée pour l’occasion. Des trous dans les fiches perforées permettaient à des tiges de récolter dans un même geste les fiches des livres traitant du même sujet. Dominique Cardon voit là l’ancêtre du lien hypertexte, une manière de relier par association d’idées des contenus différents. De même, la Mondothèque était une machine connectée, qui visait à relier les savoirs, une sorte d’anticipation du Web au début du XXe siècle.

Si Internet était au départ un outil créé pour un tout petit nombre d’utilisateurs, le succès fulgurant du Web va ouvrir cette innovation au plus grand nombre avec la norme http, le langage HTML puis les premiers navigateurs. On passe ainsi de 130 sites web en 1993 à 230 000 sites en 1995 ! Jamais une technologie au cours de l’histoire ne s’est propagée à l’ensemble de la population aussi vite : en 20 ans, 85% de la population française est devenue connectée, ce qui représente une démocratisation de l’outil bien plus rapide que l’arrivée de l’électricité ou de la télévision.
À noter également, toujours dans la veine de l’esprit des pionniers, qu’en 1993, le CERN renonce à ses droits sur le langage HTML et le verse au domaine public. Le lien hypertexte fait désormais partie du bien commun, ce qui n’est pas le cas du like de Facebook par exemple.
La première phase d’expansion du Web, entre 1995 et 2000, s’achève avec l’éclatement de la bulle spéculative des premières entreprises du numérique. Après 1995, l’accès au réseau devient payant via des fournisseurs d’accès. Des entreprises comme Amazon, Yahoo!, Ebay ou Netscape se développent. On est là dans une simple transposition du modèle économique traditionnel appliqué au numérique. Après 2001, et surtout à la suite du développement du Web 2.0 à partir de 2005, de nouvelles formes économiques se mettent en place avec la multiplication des plateformes numériques (cf. chapitre 5).
Il est étonnant de constater que les idées innovantes qui se développent sur le web sont toutes ascendantes : elles viennent de la base des internautes et sont souvent créées au départ pour répondre à un besoin personnel de leur concepteur. C’est le cas par exemple pour Wikipédia, Facebook ou Google. Sans étude de marché, sans business plan, ces inventions issues de « geeks » ont connu un succès mondial. Elles ont ensuite, pour certaines d’entre elles, été largement monétisées.

Pour revenir sur la notion de Bien commun qui est au centre du Web, les premiers communs du monde numérique ont été, on l’a dit, les liens hypertextes, qui ont ensuite permis le développement de l’open source et des logiciels libres. Ceux-ci garantissent quatre libertés : les libertés d’utilisation, d’étude, de modification et de distribution, grâce à l’accès au code source du logiciel et à la création de licences spécifiques dites libres, comme le copyleft. L’idée ici au-delà du principe libertaire, est qu’un programme conçu à plusieurs et librement modifié, c’est-à-dire amélioré par le plus grand nombre, sera plus fiable et performant qu’un logiciel construit par une seule personne. On rejoint un fonctionnement du travail basé sur la méritocratie et la reconnaissance entre pairs, sans hiérarchie, comme chez les concepteurs d’Internet. La communauté des amateurs éclairés et passionnés fait naître la notion de communs numériques, à l’œuvre dans Wikipédia ou Openstreetmap par exemple, puis par la suite dans toutes les bases de données en Open Data. En prolongement, Lawrence Lessig, un juriste américain, crée les licences Creatives Commons (CC), qui permettent de fixer précisément les conditions d’utilisation des documents (libre diffusion sans modification/citation de l’auteur/interdiction de diffuser à des fins commerciales2, etc.) C’est une révolution en matière de droit d’auteur et de propriété intellectuelle.

Un autre exemple intéressant de site participatif au succès incroyable est celui de Wikipédia. Dominique Cardon nous en rappelle les prémices. Nupédia, ancêtre de Wikipédia, est créé en 2000 par Jimmy Wales. Il demande à des universitaires des contributions pour alimenter le site, mais ceux-ci ne sont pas d’accord pour publier des articles gratuitement. Il a alors l’idée d’utiliser la technologie du wiki, qui « permet à quiconque d’écrire, d’effacer, et de corriger des pages du web à partir d’une utilisation ingénieuse du lien hypertexte » (p. 123) au départ seulement pour discuter entre internautes des articles écrits par les experts. Or, le site du grand public devient vite beaucoup plus vivant et fourni que les contributions universitaires et finit par se substituer à lui. On voit là que, sur le Web, ce n’est pas la compétence ou le diplôme qui détermine la qualité et la valeur des contenus, mais la validation des pairs. Wikipédia, « encyclopédie des ignorants », devient le site le plus consulté, qui arrive en premier résultat sur les moteurs de recherche, quel que soit le mot-clé, alors que son contenu est rédigé par des amateurs certes éclairés, mais non spécialistes. Dominique Cardon nous livre ici bien à propos la mention d’une enquête de la revue scientifique Nature de 2005 qui montre que les articles de Wikipédia sont globalement fiables3 par rapport à ceux de l’encyclopédie Britannica pour les entrées scientifiques, à savoir qu’il y a un nombre quasiment équivalent d’erreurs dans les deux.
Le succès de Wikipédia repose sur le principe de l’intelligence collective et sur les modes d’auto-régulation de la communauté, qui correspondent aux huit règles d’auto-gouvernance rédigée par la prix Nobel d’économie Elinor Ostrom. On peut donner en exemple la règle 3 : « Les individus affectés par la règle collective doivent pouvoir participer à la modification de cette règle », ou encore la règle 4 : « Les individus qui surveillent la ressource commune doivent être choisis localement et être responsables devant la communauté » (p. 128). Les pages « Discussions » de Wikipédia sont l’illustration de ce contrôle local, en interne. Les conflits sont réglés de façon transparente par le débat argumenté, sauf en cas de problème plus conséquent, où intervient un médiateur extérieur. Le savoir s’affine ainsi grâce aux conversations entre pairs, basées sur l’émulation intellectuelle.

Pour finir avec ce chapitre sur le Web, Dominique Cardon explicite la tension qui existe entre marché et bien commun sur le réseau. Il rappelle à cette occasion deux notions d’économie. L’information numérique est un bien non rival, c’est-à-dire qu’elle existe toujours après avoir été « consommée » par quelqu’un, contrairement à un bien rival, qui disparaît après consommation. Deuxième notion : l’externalité. Le Web produit des externalités positives importantes, ce qui veut dire qu’il a des répercussions importantes dans différents domaines économiques. Le web non marchand des contributeurs bénévoles produit de l’attractivité, du clic, des visiteurs, pour le web marchand. Google, par exemple, est un énorme bénéficiaire des contenus créés non par lui mais par les internautes. Si on le traduit en termes économiques, cela revient à dire : « En produisant des liens hypertextes, c’est-à-dire un bien informationnel non rival, accessible par tous, les internautes produisent une externalité positive que Google transforme en intelligence collective » (p. 136) et j’ajoute, qui lui permet de gagner beaucoup d’argent. Si les revenus récoltés par les plateformes numériques à partir des contributions des internautes leur sont en partie reversés, le modèle économique est dit génératif, comme c’est le cas dans les communautés numériques, l’open source, l’innovation ascendante. Lorsque l’argent n’est pas reversé mais capturé uniquement par les plateformes, le modèle est dit extractif et nourrit les GAFAM et tous les services numériques payants. Deux modèles s’affrontent donc en permanence sur le Web et témoignent de la tension originelle entre principes libertaires et économie de marché.

Les réseaux sociaux numériques : transformation de l’espace public et typologie des identités en ligne

Le fil rouge de ce chapitre sur les réseaux sociaux que nous propose Dominique Cardon est d’adopter une grille de lecture sociologique, en réalisant à chaque étape des typologies spécifiques : l’ensemble peut se révéler complexe mais il est au final très éclairant sur les comportements en ligne, et la finesse de l’analyse de l’auteur sera sans nul doute très utile aux enseignants de SNT, professeurs documentalistes et autres.
Commençons par les quatre formes de prise de parole publique que distingue Dominique Cardon. Il y place trois éléments : le locuteur, le sujet du discours et l’espace public. Concernant le locuteur, on est passé d’un groupe restreint de locuteurs professionnels (auteurs, scientifiques, journalistes, politiques, professeurs, etc.) à une foule de locuteurs amateurs sur le Web. De même, le type de sujets abordés opère un glissement entre une focalisation sur des personnalités publiques et des sujets généraux, et une palette de sujets qui parlent de notre vie quotidienne et de personnes connues de nous seuls. D’où la formule : « N’importe qui peut prendre la parole sur n’importe quoi ».
La forme traditionnelle de l’espace public était jusqu’à la fin du XIXe siècle celle d’une sphère publique restreinte, où les locuteurs professionnels parlent seulement des personnalités publiques. Les gatekeepers, c’est-à-dire les journalistes, éditeurs, auteurs et médias « classiques », se font les intermédiaires entre l’information et le public et filtrent les connaissances. Cette forme évolue au début du XXe siècle avec l’apparition des médias de masse : les sujets s’élargissent aux faits divers, à la vie quotidienne et touchent un plus grand nombre de personnes. L’espace public y est défini à la fois comme ce qui se passe sous les yeux de tous, la rue, la place publique par opposition au foyer, à la maison qui relève de la sphère privée, mais aussi comme l’espace de diffusion des informations qui concernent tout le monde. En leur donnant de la visibilité, les journalistes donnent aussi de l’importance à cette information. La visibilité coïncide avec l’importance de l’information.
Avec le numérique et la massification des locuteurs sur le Web, l’espace public se transforme et devient participatif. Il n’y a plus aucun filtre avant publication, et ce qui est visible n’est pas forcément important. D’ailleurs, 1 % des contenus attire 90 % de l’attention. « Le Web est un cimetière de contenus » (p. 98). Le filtre se fait après la publication, par l’absence de visibilité du contenu, notamment dans la hiérarchisation des résultats sur Google. Ce sont les internautes qui deviennent les gatekeepers du Web, puisque le PageRank calcule le nombre de liens qui renvoient d’un site à l’autre. Enfin, la quatrième forme d’espace public définie par l’auteur est le Web en clair-obscur, où la majorité des internautes anonymes parle de quidams connus par eux seuls sur les réseaux sociaux.

Pour dresser une typologie des réseaux sociaux numériques, Dominique Cardon commence par nous en donner une définition : « L’internaute dispose d’une page personnelle et il s’abonne à d’autres utilisateurs avec qui il peut interagir » (p. 153). Il entend ensuite combiner deux variables : le type d’identité numérique et le degré de visibilité du profil, plus ou moins public ou privé. Étudions avec lui les quatre types d’identité numérique qu’il a déterminés.
La première est l’identité civile, constituée des informations factuelles, état civil, profession, etc. Notre « être réel » s’y dévoile progressivement, car sur les réseaux sociaux qui correspondent à ce modèle, on se cache pour mieux se voir, on découvre les personnes au fur et à mesure des conversations, pour ensuite se rencontrer en vrai. La visibilité y est de type « paravent » comme sur Meetic ou Tinder, ou d’autres sites de rencontre. L’accès à l’information s’y trouve sous la forme de l’appariement ou du matching : on cible quelqu’un en fonction de critères précis, déterminés à l’avance, il n’y pas de place pour le hasard.
Deuxième forme d’identité numérique qui coïncide avec un autre groupe de réseaux sociaux : l’identité narrative. On y raconte notre vie quotidienne, nos humeurs, nos centres d’intérêt, on partage nos photos, mais la plupart du temps, uniquement avec nos amis, les personnes que l’on connaît déjà dans la vie réelle. L’auteur nomme ce type de visibilité le « clair-obscur », car on se montre en se cachant, puisque l’on ne s’adresse qu’à ses propres amis. C’est la famille de réseaux la plus développée, avec Facebook, Whatsapp, Snapchat, Messenger. Le bonding y est le plus présent, c’est-à-dire le fait de resserrer des liens déjà existants. L’information s’y concentre en clustering, c’est-à-dire en un ensemble d’interconnexions sur un petit nombre de personnes, puisque nos amis sont souvent également amis entre eux.
L’identité agissante constitue la troisième grande famille, avec des réseaux comme Twitter, Youtube, Instagram. La visibilité de type « phare » signifie qu’on y est très exposé, tout y est public, on se montre entièrement pour se mettre en avant et faire des ponts avec des personnes qui nous sont inconnues, mais avec lesquelles on peut se trouver des centres d’intérêt communs (bridging). Plus que des discussions sur soi, on y partage du contenu, des liens, autour d’un thème particulier. La dérive de ce type de réseau est illustrée par les influenceurs qui font de leur vie une marque ou un centre d’intérêt en soi.
Enfin, le quatrième et dernier type de réseau s’apparente à l’identité virtuelle : le moi y est caché, déguisé entièrement sous la forme d’un avatar, d’une projection imaginaire et théâtralisée de la personnalité. Dans ces mondes virtuels, on se voit mais caché, comme dans les jeux vidéo tels Second Life ou World of Warcraft, les fanfictions ou les contenus auto-produits. Dans ces deux derniers types de réseaux, l’accès à l’information présente un très faible clustering, car il s’agit de réseaux comportant un grand nombre de personnes où peu d’entre elles se connaissent.
Ces quatre familles de visibilité invitent chaque individu à moduler son identité numérique aux types d’interactions et aux publics différents qui y sont rencontrés. Chaque réseau propose des paramètres qui permettent de décider en toute conscience de ce que l’on veut montrer ou non, à condition d’en comprendre les rouages et d’y faire attention. Les réseaux sociaux ne modifient pas en profondeur le lien social, contrairement à ce que l’on entend souvent. On est amis en ligne avec ses proches et sa famille, comme dans la vie réelle. En revanche, ils ont un effet sur les liens faibles, les personnes que l’on a perdues de vue ou les simples connaissances : dans ce cas, les réseaux sociaux numériques densifient le lien social.

Ces formes d’identité, si elles ne modifient pas fondamentalement le lien social, créent de nouvelles normes, comme celle de devoir absolument exister en ligne. La vie privée n’a pas disparu, tout est une question de frontière et de contexte ; « Sur le web, l’exposition de soi est une technique relationnelle  ». Ce n’est pas par pur narcissisme que l’on expose photos et récits de soi, mais davantage pour recevoir de l’amour et de la reconnaissance de la part des autres. Nos profils sont « des petits théâtres dans lesquels chacun conforte son estime de soi », à grand renfort de like et de smileys cœur. On montre de soi ce que l’on sait que les autres vont apprécier. Les études montrent que les sentiments de tristesse et de colère sont largement sous-représentés sur Facebook par exemple. On sélectionne les moments festifs, qui nous mettent à notre avantage plutôt que de mettre en avant les moments plus difficiles. De même, l’ensemble des informations, nombre d’amis, niveau de langue, voyages, contenus partagés etc. reflètent notre niveau socio-culturel. « La fabrication de la personnalité en ligne passe par une injonction paradoxale : bien que construite, elle doit paraître naturelle et authentique  » (p. 182). Le geste du selfie en est le symbole : celui qui prend la photo est aussi celui qui se regarde, qui jauge et contrôle la construction de l’image produite et du récit de soi qui en sera fait en une mise à distance de sa vie pour mieux la raconter sur les réseaux. D’un point de vue sociologique, le selfie est très intéressant à étudier comme en témoigne l’enquête Selfiecity.net4 qui montre, entre autres, que les filles sourient beaucoup plus sur les photos que les garçons.
Le boom des pratiques artistiques et créatives sur le Web valorise une petite élite de producteurs qui focalisent l’attention, comme sur Youtube avec l’émergence d’un nouveau système de notoriété. Toutefois, les youtubeurs émergents réintègrent ensuite le circuit médiatique traditionnel en allant à la radio ou à la télévision. On retrouve d’ailleurs dans ce cercle restreint les différences socio-culturelles traditionnelles, à savoir que ce sont les individus les plus cultivés, diplômés, bien intégrés socialement et disposant d’un bon réseau de contacts, qui perceront plus facilement que les autres.

Enfin, Dominique Cardon conclut ce chapitre en essayant de tordre le cou à une idée reçue : les réseaux sociaux seraient une zone de non-droit et un outil d’aliénation, en raison de la dérégulation des propos et de la violence des insultes. Il rappelle que des régulations juridiques existent déjà et régissent, certes de façon imparfaite, chaque type de réseau. Dans la sphère publique restreinte des médias traditionnels, c’est le droit de la presse qui prime. Dans l’espace public, c’est le droit au respect de la vie privée : droit à l’image et droit des individus. Sur le web participatif, ce sont les limites de la liberté d’expression qui s’appliquent. Enfin, dans le tout-venant des conversations numériques, on peut tabler sur une régulation par l’éducation.
Avec la notion de droit à l’oubli et plus globalement les cas nombreux où il est demandé aux hébergeurs de retirer des contenus, on assiste à un phénomène d’extra-judiciarisation, c’est-à-dire que l’application du droit se fait en dehors de la justice. En effet, on peut obtenir que Google déréférence certains contenus qui nuisent à une personne, mais ces derniers ne sont pas supprimés, ils disparaissent simplement des pages de résultats. Le principe de séparation entre la responsabilité juridique de celui qui publie et celle de l’hébergeur est devenu « la colonne vertébrale du droit du numérique » (p. 207). Toutefois, l’hébergeur devient coupable s’il ne retire pas un contenu « signalé ». Des algorithmes et des métiers spécifiques sont désormais créés pour contrôler et retirer des contenus, mais, là encore, ce sont les plateformes qui jugent de la pertinence de ces retraits et non la justice. Pour conclure, on peut mettre l’accent auprès des élèves sur les différents paramétrages de visibilité des informations et leur faire prendre conscience de la nécessité de réfléchir avant de publier quelque chose en ligne.

Un système médiatique à deux vitesses

L’espace public est reconfiguré par le Web qui est « descendu » dans la société et lui permet de discuter avec elle-même. Pourtant, nous n’assistons pas à la fin des médias, des partis politiques ou des institutions : il n’y a pas à l’heure actuelle de démocratie horizontale totale, mais trois espaces refondus sur lesquels le numérique a des impacts différents.
L’effet du Web est somme toute relativement limité sur les instances de la démocratie représentative. Il a un impact relatif et incertain sur les modes de démocratie participative. En revanche, sur ce que l’auteur nomme la « Démocratie Internet », l’effet est nouveau et perturbant. Dans la « société des connectés », les formes politiques présentent trois caractéristiques : d’une part, la singularité des individus et leur pluralité d’opinions personnelles sont mises en avant et prévalent sur le Nous collectif. Deuxièmement, il n’y a pas de leader, ce qui, dans le mouvement Anonymous par exemple, conduit même à l’invisibilité totale de ses membres comme garantie d’égalité. Enfin, il n’y a pas non plus de programme : les discussions portent souvent sur les procédures, sur la forme, davantage que sur le fond. Cette « démocratie Internet » génère une masse de conversations politiques qui s’insinuent dans toutes les strates du Web, à l’image des hashtags. « Le hashtag est le drapeau que l’on plante dans le brouillard du Web ». Ces phénomènes viraux inventés par le « bas » sans que l’inventeur n’en ait anticipé l’impact, représentent des agrégateurs qui polarisent l’attention sans l’avoir réellement demandée, et qui d’une certaine manière « centralisent sans commander » (p. 244). La mobilisation naît alors autour d’un contenu ou d’un slogan et constitue une « communauté imaginée » qui surgit en dehors du filtre des gatekeepers traditionnels.

Qu’en est-il des médias dans ce contexte ? Si en France le milieu médiatique perd environ 600 journalistes par an, il n’en reste pas moins une demande forte d’informations rédigées par des professionnels, comme en témoigne la fréquentation du Monde.fr qui tourne autour de 1.5 à 2 millions de lecteurs par jour. La fin du journalisme n’est pas pour aujourd’hui : Dominique Cardon prend pour exemple l’échec relatif des initiatives hybrides de citoyens journalistes comme Agoravox ou Rue89. Le « tous journalistes » n’existe pas de façon effective. L’auteur voit d’ailleurs dans les commentaires incessants des articles sur le Web des effets à la fois positifs et négatifs. D’un côté, cette vigilance citoyenne et critique conduit à une amélioration de l’exactitude factuelle des articles et à des débats argumentés plus riches. D’un autre côté, les campagnes de dénigrement, les attaques de troll ou encore les polémiques puériles se multiplient.
Mais c’est surtout en matière d’accès à l’information que le changement est le plus marquant. Les médias ont en effet « perdu la maîtrise de la manière dont l’information est reçue, organisée, et hiérarchisée par les internautes » (p. 250). Chez les 18-24 ans, ce sont bien les réseaux sociaux et les médias numériques qui constituent le principal accès à l’information. Or, dans ces derniers, la publicité en ligne génère beaucoup moins de revenus que dans les éditions papiers. Et c’est cette course à l’argent qui fait baisser la qualité de l’information produite. Les médias vont alors privilégier les informations aguichantes, drôles ou douteuses pour générer des clics (comme sur les sites Buzzfeed ou Vice).
Arrêtons-nous un instant avec Dominique Cardon sur quelques chiffres impressionnants. La moitié des événements couverts sont repris dans les médias en moins de 25 minutes. Une étude de 2013 montre que 64 % de l’information publiée dans les médias en ligne français est un simple copier-coller. On assiste donc à une multiplication des articles sans aucune plus-value, et à une folle accélération du rythme d’écriture qui se cantonne parfois à de simples transferts de dépêches. Les médias tendent même à mesurer en direct l’audience des articles et informations diffusées avec des outils comme Chartbeat qui donnent des statistiques en temps réel du nombre de consultations.
À l’inverse, la réintroduction d’offres payantes sur abonnement chez les médias numériques de qualité, tels Arrêts sur Image, Les Jours ou Médiapart, redonne de la vitalité économique à ce type de journalisme. D’autre part, l’essor du data journalisme permet de mener des enquêtes de grande ampleur en analysant les gisements de données publiques en opendata. De même, les leaks ou fuites des données cachées ont généré des scandales importants relayés massivement par les médias, voire dévoilés par eux comme pour les Paradise Papers issus d’un consortium international de journalistes.
On constate donc une nette fracture entre deux formes de journalisme assez irréconciliables : par le « haut », un renforcement du journalisme de qualité, payant, fortement éditorialisé et développant des formats variés et originaux ; par le « bas », des contenus médiatiques qui se transforment en « info-à-cliquer » parmi lesquelles sont véhiculées beaucoup d’informations peu fiables.

Dominique Cardon analyse ensuite le phénomène des fake news de façon rigoureuse, l’approche sociologique se révélant ici particulièrement intéressante. Il revient sur le fameux épisode où Orson Welles fit croire, en 1938 à la radio, à une invasion martienne. Or, c’est la panique que ce canular a suscitée qui est un mythe, ou dirait-on aujourd’hui, une fake news. Cette supposée panique a été à l’époque montée en épingle par les opposants à ce nouveau média qu’est la radio pour la discréditer et en montrer les effets hypnotiques. Cet épisode témoigne en profondeur de deux approches sociologiques différentes sur les effets des médias. Hadley Cantril théorise que la radio et plus globalement les médias, ont un « effet fort » sur les esprits, en annihilant la raison et en manipulant les comportements. Son contemporain, Paul Lazarfeld, propose quant à lui un autre modèle : celui « d’effets limités » ou faibles des médias, passant par deux niveaux de communication. Le contenu médiatique est en effet reçu par le destinataire mais il est également socialisé : il fait l’objet de conversations informelles, de critiques, de détournements qui ont tout autant d’influence sur le public.
On assiste avec les actuelles fake news au retour de cette première théorie de l’effet fort qui manipulerait les consciences. Dominique Cardon atténue nettement leur impact en montrant qu’elle constitue une hypothèse non prouvée qui relèverait d’ailleurs d’une forme de déterminisme technique. Ainsi, pour appuyer ce point de vue, il remet en perspective la proportion des fake news lors de l’élection de Trump : les 20 fake news les plus partagées sur Facebook représentent 0.006 % des vues des utilisateurs du réseau. Par ailleurs, il semble très difficile de mesurer l’impact réel de la lecture d’une information sur un comportement : ce n’est pas parce qu’on lit une fake news qu’on y adhère automatiquement. Enfin, on consulte les fausses informations qui confortent une opinion préexistante : pour une élection, en l’occurrence, cela ne fait que confirmer notre point de vue antérieur sans le modifier.
L’auteur propose comme garde-fous que les médias traditionnels ne relaient pas les fake news : ne leur accorder aucune visibilité atténuerait considérablement leur impact. Les sites de fact-checking, même s’ils touchent les personnes déjà convaincues, permettent néanmoins de réguler les médias « centraux ». Enfin, ce sont finalement dans les conversations informelles que circulent de la façon la plus diffuse les bullshit news mais cela est valable sur le Web comme dans la vie quotidienne. Nous sommes beaucoup moins exigeants dans nos conversations courantes et c’est là qu’est le vrai danger de propager des informations douteuses et non vérifiées.

Publicités numériques et digital labor

Alors qu’en 2006, seul Microsoft figure dans le top 10 des entreprises les plus cotées en Bourse, en 2016 les cinq entreprises dites des GAFAM y sont en très bonne place. Les rachats successifs, Youtube absorbé par Google, Instagram et Whatsapp par Facebook, leur procurent des bénéfices incommensurables, complètement disproportionnés par rapport au faible taux d’emploi qu’ils génèrent. L’économie numérique suit trois lois : la première est celle des rendements croissants. Plus il y a de clients, plus l’entreprise est productive. La loi des effets de réseau y joue également à plein : plus il y a d’utilisateurs, plus le service prend de la valeur et de l’utilité. Enfin, « winners take it all », c’est-à-dire que le leader gagne l’ensemble de la mise, plaçant en position quasi monopolistique les entreprises du numérique et favorisant ainsi la concentration.
Dans ce modèle économique de la plateforme numérique, il y a deux types d’effets de réseau. L’un procure des effets directs : l’utilité rejaillit sur tous les utilisateurs qui se connectent ; l’autre a des effets indirects lorsqu’il y a des acheteurs et des vendeurs multiples. Dans le cas de Google, le marché est dit « biface » car d’un côté les usagers ont accès à un service gratuit alors que de l’autre, les annonceurs paient pour avoir accès aux données personnelles et gagner de la visibilité.

La problématique de la publicité est intimement liée au traçage des données. Si Google et Facebook récupèrent à eux seuls 61 % des revenus de la publicité numérique et même 90 % de la publicité sur les smartphones, c’est qu’ils ont mis en place, outre les affichages publicitaires en bannière, un système de récolte des données très performant. Ainsi, le cookie, créé en 1994, « super espion » ne garde pas seulement en mémoire le passage sur un seul site5. S’il est « tiers », il envoie l’info de navigation à tous les sites web liés à la même régie publicitaire. L’automatisation de la publicité, gérée par des robots qui analysent nos traces pour proposer des publicités ultra ciblées, se fait donc désormais en temps réel.
Par ailleurs, les liens sponsorisés, qui apparaissent en tête des résultats sur Google, se présentent sous la forme de lien HTML qui ne les différencient en rien des autres résultats et donc de l’information. L’annonceur ne paie Google que si quelqu’un clique sur le lien : c’est le coût par clic. Pour chaque mot-clé ont lieu des enchères automatiques qui permettent aux annonceurs de remonter dans la liste des résultats.

Une autre transformation est l’ouverture des données des administrations et des collectivités au grand public. Le portail Data.gouv.fr a été créé en 2011. Les open data nécessitent de rendre les données interopérables, manipulables, au format identique, ce qui représente un travail important pour les administrations. Mais la volonté politique est forte pour impulser un « service public de la donnée ». Ainsi, plusieurs API (Application Protocol Interface) ont été créées pour donner accès sur des interfaces uniques à ces bases de données : Openfisca, Adresse Nationale, Entreprise, etc. Ceci étant, l’interprétation de ces données « brutes » est très compliquée pour le grand public. D’ailleurs, Dominique Cardon rappelle que l’idée d’une donnée « brute » est une fiction : celle-ci est toujours liée à un contexte de production particulier et nécessite curation et agrégation avec d’autres données.

Enfin, pour clore cette partie sur l’économie des plateformes, on ne peut occulter la notion de digital labor. Derrière le slogan bien connu, « si c’est gratuit, c’est toi le produit », se cache un « capitalisme de la surveillance », alimenté par la récolte des données mais également par une nouvelle main d’œuvre sous-payée qui réalise des micro-tâches6. C’est le cas chez Amazon Mechanical Turk, qui demande à des personnes souvent exploitées de faire des HITS (Human Intelligent Tasks), des actions qui ne peuvent pas être réalisées par des machines mais qui vont permettre d’alimenter les calculs de l’Intelligence Artificielle : étiqueter des photos, cliquer sur des likes, écrire des avis, créer des playlists, etc. Le besoin est donc urgent de proposer des régulations pour protéger ces travailleurs du clic invisibles.

Données personnelles et algorithmes : transparence et surveillance

Le Big Data peut-être vu comme une métaphore similaire à celle de la Bibliothèque de Babel chez Borgès. Cette bibliothèque qui contiendrait tous les livres possibles à partir de toutes les combinaisons existantes de lettres aurait la forme d’un contenu incommensurable et incohérent. De même, le Big Data représente une masse incroyable de données, mais comment en extraire du savoir ? Les outils de calcul des algorithmes informatiques lui sont intrinsèquement liés pour en tirer de la connaissance. Si les algorithmes sont vus comme une puissance occulte, c’est qu’ils sont devenus les nouveaux gatekeepers : les calculs informatiques filtrent et hiérarchisent l’information numérique. Nous naviguons en réalité sur un « nano espace informationnel » puisque 95 % de nos navigations concernent 0.03 % des contenus du web.

Dominique Cardon revient ici sur les quatre grandes familles d’algorithmes numériques7 : à côté du web, mesurant la popularité et les clics ; au-dessus du web, l’autorité et les liens ; dans le web, la réputation et les likes ; au-dessous du web, la prédiction et les traces.

Approfondissons l’algorithme de Google, le PageRank, basé sur l’autorité des sites, à savoir le nombre de liens qui renvoient vers eux. Au départ, les tout premiers moteurs de recherche classaient leurs résultats en fonction du nombre d’occurrences du mot-clé dans la page. Avec le PageRank, on passe d’une analyse du texte à une analyse du réseau : qui cite qui ? Sur la page de résultats, « les mondes ne se mélangent pas » (p. 367) : si tout est sous forme de liens HTML, les Google Ads, sponsorisés et donc payants, sont séparés des sites issus du mérite et du « référencement naturel ». Sur Google, « la visibilité s’achète ou se mérite ».

En ce qui concerne les algorithmes de réputation des réseaux sociaux, plusieurs caractéristiques méritent d’être soulignées. Tout d’abord, les informations y sont hiérarchisées en fonction d’un écosystème informationnel différent pour chacun, puisqu’il est déterminé par nos centres d’intérêt et nos amis. D’autre part, les informations qui y sont partagées participent à l’identité numérique et à ce que l’on veut montrer de soi. Enfin, la mesure de la réputation sur les réseaux sociaux est apparente et relève souvent d’une stratégie de communication. Dominique Cardon, comme dans son ouvrage précédent, relativise l’effet des bulles de filtre car nous ne sommes pas exposés seulement aux réseaux sociaux : les canaux de communication sont multiples et diminuent largement le poids de l’exposition sélective à un même type d’informations.

Les algorithmes ayant la plus grande puissance de calcul sont actuellement ceux du deep learning, reproduisant un réseau de neurones, ce qui a valu la réintroduction dans le langage courant du terme Intelligence artificielle. L’auteur analyse à juste titre l’influence de cette expression sur nos représentations imaginaires qui prennent la forme d’androïdes, du HAL de 2001, l’odyssée de l’espace, ou encore de la Samantha du film Her, qui n’ont tous pas grand-chose à voir avec le deep learning actuel. Dominique Cardon revient donc sur l’histoire du développement de cette technologie qui a connu plusieurs vagues et a également été au point mort plusieurs fois. Il explique les deux modèles régissant les expérimentations en matière d’IA : celui d’une machine que l’on chercherait à faire raisonner et le modèle actuel basé sur un volume très important de données en entrée dans la machine, avec un objectif final, qui lui permet de faire des corrélations toute seule.

Dans ce contexte, la régulation des algorithmes est absolument nécessaire : nous devons collectivement décider quels sont les domaines que nous souhaitons rendre calculables de cette manière et quels sont les enjeux de société qui doivent rester hors de ces modes de calcul. Transparence et neutralité du Web en sont les deux maîtres mots : le RGPD européen demande « l’explicabilité des décisions algorithmiques ». Il faut à ce stade garder en tête que l’algorithme est « idiot », il suit des procédures et traite des données, mais sans en comprendre le sens, ce qui peut aboutir à des erreurs et à des failles dans les calculs et les réponses.

D’autre part, les plateformes numériques optimisent leurs algorithmes pour maximiser le temps passé sur le Web : en récoltant nombre de données sur l’utilisateur, les recommandations personnalisées sur Youtube par exemple ou la hiérarchisation des informations du fil d’actualité sur Facebook visent surtout à garder captif et addict l’utilisateur en collant au plus près de ses attentes8. Il semble donc nécessaire de pouvoir reprendre la main de façon individuelle et, pourquoi pas, de configurer soi-même les objectifs des algorithmes sur les plateformes.

Dominique Cardon nous propose pour éclairer cette question un tableau de synthèse très intéressant (p. 404). Je vous le reproduis ici pour une meilleure compréhension du propos en y ajoutant les exemples complémentaires que l’auteur développe dans son raisonnement.

La première ligne du tableau correspond aux algorithmes auxquels la plateforme a fixé des objectifs, tout l’enjeu étant ici de pouvoir livrer de la façon la plus transparente possible ces objectifs aux utilisateurs pour qu’ils puissent éventuellement les contester ou les modifier. Ainsi, les trending topics sur Twitter sont régis par un algorithme qui met en avant les hashtags à forte viralité, ce qui conduit à une sur-représentation des événements très populaires et a contrario à une moins bonne visibilité des informations se déroulant sur le long terme.

La deuxième colonne du tableau présente les algorithmes dont les effets sont cachés à l’utilisateur. L’auteur cite ici les démêlés judiciaires qu’a connus Google pour avoir placé en priorité dans Google Shopping des restaurants affiliés à ses services, plutôt qu’une liste de restaurants correspondant aux critères habituels du PageRank. Dans ce cas précis, c’est la rétro-ingénierie, c’est-à-dire « l’ingénierie inversée », partir de l’analyse de l’outil technique pour remonter vers les résultats, qui a permis de se rendre compte de cette forme de manipulation de la part de Google.

La deuxième ligne de ce tableau pointe quant à elle les effets indésirables des algorithmes qui n’ont pas été anticipés par les plateformes. L’auto-complétion sur Google par exemple est basée sur le nombre d’occurrences statistiques dans l’association des différents mots clés, ce qui peut produire des expressions apparaissant automatiquement et relevant du racisme ou de l’antisémitisme (comme lorsque l’on voit un nom de personnalité affublé du mot « juif » systématiquement). L’effet produit par l’algorithme doit donc être régulé par la vigilance publique et médiatique, voire par une régulation législative si besoin.

Enfin, la dernière partie du tableau met l’accent sur les conséquences qui sont à la fois involontaires de la part des concepteurs et invisibles pour le public. C’est le cas de tous les types de discriminations liées à l’utilisation massive de données qui reproduisent elles-mêmes, hélas, les discriminations sociales et culturelles en cours dans la société. Les enjeux de régulation sont ici énormes et n’en sont encore qu’à leurs balbutiements politiques et citoyens. C’est pourquoi Dominique Cardon propose un audit des données en tant que telles grâce, notamment, à la rétro-ingénierie et à l’action des ONG.

Pour terminer cette partie sur les données et les algorithmes, l’auteur évoque rapidement la problématique de la surveillance, qu’il identifie sous trois formes : celle du marché, des autres individus et de l’État. La surveillance du marché, comme on l’a vu, cherche à tracer au maximum les personnes pour leur proposer des services qui correspondent de façon presque « magique » à leurs centres d’intérêt et à leurs besoins. Mais au-delà de cette logique, « c’est un projet de guider les comportements grâce aux données des utilisateurs » qui se dessine. La surveillance interindividuelle se fait jour quant à elle sur les réseaux sociaux et dans les systèmes de notations et d’avis généralisés. Enfin, la surveillance d’État est apparue au grand jour lors des révélations d’Edward Snowden puisqu’il a été avéré que la NSA, entre autres, écoutait massivement toutes les communications du grand public. De même, c’est cette logique d’écoute et de stockage de données qui sous-tend la loi relative au renseignement de 2015. L’auteur y voit l’entrée dans « la société de contrôle » décrite par Gilles Deleuze, puisqu’au-delà de la surveillance étatique, les trois formes de surveillance qui se mettent en place avec le numérique n’ont soulevé que peu de protestations dans l’opinion publique. Au nom du « je n’ai rien à cacher », ou du « je sais qu’on récolte mes données mais l’outil est tellement pratique », chacun accepte de faire des compromis et de rogner la notion de vie privée. Dominique Cardon propose ici, de façon tout à fait pertinente, de « cesser de penser individuellement la vie privée, de cesser de la considérer comme un arbitrage que chacun serait amener à faire […] mais plutôt d’y réfléchir comme à un droit collectif par lequel, même si nous n’avons rien à cacher, il est aussi dans l’intérêt de tous de vivre dans une société où certains – journalistes, militants, ONG – puissent avoir des choses à cacher ».

 

 

En conclusion, Dominique Cardon montre le glissement dans les esprits et les représentations d’une utopie euphorique des débuts d’Internet à une société numérique de surveillance, dominée par des algorithmes froids, le Web étant vu comme un objet d’aliénation et d’addiction. Profondément technophile et optimiste, le sociologue, à chaque étape du raisonnement, remet l’humain au centre des décisions en nous rappelant en permanence que c’est à nous de dicter les usages du numérique et d’en proposer des régulations. « Nos usages du Web restent très en-deçà des potentialités qu’il nous offre. Le Web se ferme par le haut, mais toute son histoire montre qu’il s’imagine par le bas » (p. 421). Il n’en reste pas moins critique vis-à-vis des GAFAM, appelant à plusieurs reprises à une législation rigoureuse de cadrage. Plusieurs idées reçues, souvent présentées de façon réductrice dans les médias, sont ici décortiquées avec pertinence, comme l’impact des bulles de filtre ou des fake news sur l’opinion publique. Un des impacts majeurs du numérique n’est toutefois pas du tout abordé dans cet ouvrage : il s’agit de toutes les conséquences environnementales qu’il génère.

Si l’on en revient à la dimension pédagogique, ce livre nous confortera dans l’idée que l’appropriation de la culture numérique passe par les deux injonctions parallèles et nécessaires que sont « coder et décoder » : « comprendre en faisant », en programmant mais aussi « faire en comprenant », en analysant et en développant la littératie numérique.

 

Acteurs de demain

La crise épidémique vécue depuis mars dernier est un choc social majeur, une épreuve collective terrible puisqu’elle touche l’ensemble de la planète. Confinement quasi général des populations, arrêt de l’activité économique du pays, fermeture des établissements scolaires… une situation jamais vue.
Une catastrophe de ce niveau, d’ampleur mondiale, conduit à repenser l’ensemble des valeurs qui prédominent et dirigent le monde depuis des dizaines d’années, sinon plus. Chacun d’entre nous est appelé à être acteur du relèvement. Et demain commence dès aujourd’hui. Nous sommes nombreux à attendre un changement de paradigme : l’humain, la nature, les biens communs doivent être des priorités.

Aussi ce numéro d’Inter-CDI, très riche, vous permettra d’aller plus avant dans la connaissance de notre univers professionnel et de la nécessité de changements radicaux.

L’article critique de Kaltoum Mahmoudi en est la parfaite illustration : troisième assemblée de la République après l’Assemblée nationale et le Sénat, le Conseil économique, social et environnemental (CESE) a publié en décembre 2019 un avis portant sur « Les défis de l’éducation aux médias et à l’information ». L’EMI y est proclamée « Grande cause nationale », mais on cherchera en vain les enseignants du secondaire, leurs actions dans les propos de la rapporteure de l’avis. Parmi les 34 personnalités auditionnées aucun professeur documentaliste, un seul représentant de l’enseignement secondaire : un proviseur de lycée ! Comment peut-on à ce point ignorer l’engagement et le travail mené par les enseignants ? Kaltoum Mahmoudi s’appuie sur une méticuleuse analyse lexicologique pour montrer combien l’expression « éducation à l’information » est peu formulée en regard de celle des « médias ». Claude Baltz l’affirmait : « pas de société de l’information sans culture informationnelle », d’abord ! En conclusion elle fait le constat d’un manque de visibilité, voire d’une forme de méfiance vis-à-vis des actions d’EMI et propose une orientation différente de l’exercice professionnel offrant une garantie plus assurée à notre avenir pédagogique. À chacun d’en juger.
Florie Delacroix consacre une importante note de lecture au livre « Culture numérique » de Dominique Cardon, professeur de sociologie à Sciences Po. Cette somme très complète constitue une grande partie des connaissances que doivent maîtriser les professeurs documentalistes en matière d’EMI et particulièrement pour le programme de SNT. Les origines historiques d’Internet… de l’idéologie utopique des pionniers à la récupération marchande des GAFA. Les réseaux sociaux numériques et les comportements en ligne, une typologie… qui sont les youtubeurs ?… le droit à l’oubli… les élèves et le paramétrage de visibilité des informations publiées… le système médiatique, médias et journalistes aujourd’hui… les fausses informations… les lois de l’économie numérique. Données personnelles et algorithmes, le Big Data, l’Intelligence Artificielle, quelle régulation face à une « société de contrôle » ? Florie Delacroix souligne, dans ce livre, l’absence de l’évocation des conséquences environnementales générées par Internet.
Gabriel Giacomotto et Jean-Marc David ouvrent notre curiosité sur les Punks, un mouvement culturel underground d’origine anglo-saxonne des années 1970-80. Expression de la vitalité d’une jeunesse contestataire rejetant la société mercantile, à la recherche de plus de simplicité et de modes de vie alternatifs dans une société en crise. C’est l’hiver du mécontentement, les grandes grèves au Royaume-Uni, les pénuries, l’ascension de Margaret Thatcher et celle de Ronald Reagan, l’essor du néo-libéralisme. Musique, mode, graphisme, le « faire soi-même », la contre-culture britannique a infusé les milieux créatifs des années 70. Nombre de références proposent des pistes pédagogiques d’études en langue, en philo sur le nihilisme… l’art peut-il être un contre-pouvoir ?

Veille numérique 2020 N°3

Effet confinement

Covid-19 – Détox

Les grands organismes scientifiques ainsi que la cité des sciences apportent tous leur contribution à la lutte contre les fausses informations concernant l’épidémie de coronavirus (Covid-19).
 http://www.cite-sciences.fr/lascienceestla/exposition-coronavirus/
 https://www.inserm.fr/actualites-et-evenements/actualites/coronavirus-canal-detox-coupe-court-fausses-infos
 https://www.pasteur.fr/fr/coronavirus-attention-aux-fausses-informations-covid-19-circulant-reseaux-sociaux
 http://www.cnrs.fr/fr/cnrsinfo/coronavirus-sur-le-front-scientifique

Visioconférence de “nos données”

L’installation d’applications d’appels vidéo en réunion, en raison du confinement, a connu un boom fulgurant. Néanmoins, l’utilisation de l’appli Zoom à grande échelle a fait apparaître des failles de sécurité et a révélé le partage des données avec Facebook. Quant à Houseparty, qui se réserve le droit d’utiliser les contenus des communications, sa politique de gestion des données personnelles est très critiquée par les internautes. Sans compter toutes les applis des géants du web (Skype, Teams, Meet, Rooms, WhatsApp) qui utilisent les données dans leur propre intérêt… Parmi tous ces flux de données personnelles, le logiciel libre Jitsi Meet tire son épingle du jeu car il est installable sur tous les supports et ne nécessite pas d’ouverture de compte.

Musée à portée de doigt

La plupart des musées ont mis en place des visites virtuelles gratuites des collections permanentes et temporaires pendant le confinement. Pour certains musées, ces visites, parfois payantes, existaient déjà avant la pandémie du coronavirus. Il est fort probable qu’après le déconfinement, ce type de visite prendra de l’ampleur dans tous les musées du monde.

Géolocalisation des malades

Lors de chaque crise, les droits des individus se restreignent. Après les attentats et les gilets jaunes, c’est au tour du Covid-19. Selon le gouvernement, la solution contre la pandémie sera, entre autres, de géolocaliser “anonymement” les malades ! Quid de la protection de la vie privée ? Tout comme la Chine, la Corée du Sud, Singapour et l’Allemagne, la France songe sérieusement à instaurer un tel dispositif au moyen de l’application Stopcovid. Par ailleurs, Google et Orange n’ont pas hésité à diffuser les données “anonymisées” des déplacements individuels depuis le début de la crise sanitaire du coronavirus…

éducation

Caricature et violence de l’Histoire

L’exposition virtuelle réalisée avec les collections de la BnF et de La contemporaine se concentre sur la caricature moderne dans la presse du 19e au 21e siècle. Une chronologie divise l’histoire de la satire graphique en 4 périodes allant de 1830 à nos jours. Le parcours thématique donne l’occasion aux visiteurs de choisir parmi un large panel d’entrées (parodies culturelles et artistiques, genres de la caricature, contrôle de la presse, violences légales…). L’onglet “Voir aussi” met à disposition une bibliographie riche en références avec pour certaines des liens externes (Gallica ou autres).
 http://hirim.sociodb.io/accueil

Elix : Dico de langue des signes

Le dictionnaire de langue des signes française est à destination des personnes en situation de handicap auditif et des entendants. Plus de 18 000 définitions traduites en LSF et plus de 14 500 signes accessibles sur l’application mobile Elix ou sur le navigateur d’un ordinateur avec l’extension “La bulle Elix”. Cet outil a été réalisé par l’association Signes de sens.  https://dico.elix-lsf.fr/

Un générateur de mots enluminés

L’application Pictor génère des mots enluminés grâce à la numérisation des lettrines de la Bibliothèque virtuelle des manuscrits médiévaux et de Limedia Galerie. Il suffit de saisir les mots voulus pour qu’une proposition enluminée soit générée de façon aléatoire. Options de récupération : télécharger ou envoyer par mail en vue d’un partage sur les réseaux sociaux ou pour fabriquer des marque-pages. À terme, il est prévu que l’on puisse choisir le type de lettre ou le siècle.
 http://pictor.irht.cnrs.fr/fr

Google Arts et Culture

L’application Art Transfer de Google Arts et Culture transforme les images en utilisant les codes graphiques de peintures célèbres. L’appli s’appuie sur l’IA pour convertir les photos en œuvre d’art. Pour cela, il faut choisir parmi les styles proposés puis appliquer à tout ou partie d’une image. Cette nouveauté fait suite à l’appli Art selfie de 2018, son double en peinture de maître.
 https://artsandculture.google.com/camera/art-transfer

Musée art ludique

“Hors les murs” depuis 2018, le musée s’installe durablement au sein de la gare Saint-Lazare dès 2021. Consacré aux industries créatives, ce nouveau lieu de connexion entre Paris et la province sera l’occasion de mettre en avant des expositions issues des créateurs d’univers du jeu vidéo, de la bande dessinée, du film d’animation et plus largement du design au cinéma. Le numérique utilisé par les artistes met en valeur le matériel informatique comme outil de création artistique.
 https://artludique.com/


Lecture numérique

BDnF, la fabrique à BD

À l’occasion de l’année de la bande dessinée (2020), la BnF propose une application gratuite pour réaliser un roman graphique, un album ou tout autre récit associant illustration et texte. L’atout principal est la mise à disposition de très nombreux documents graphiques issus des collections patrimoniales de la Bibliothèque. L’outil, qui vise principalement un public scolaire et amateur, est téléchargeable sur PC, tablette et smartphone.
https://bdnf.bnf.fr/index.html

Format DiViNa

Le laboratoire européen du livre numérique et l’éditeur H2T (Pika) ont développé un format standard simple, économique pour les éditeurs, facile d’utilisation par les auteurs et dynamique pour les lecteurs. L’EDRLab met au point le format DiViNa en étroite collaboration avec le W3C qui supervise les standards du web. Pour les auteurs, le logiciel de montage DiViNa Creator proposera d’autres formats exportables.

La lecture en réalité virtuelle

Le projet Los360° VR immerge le lecteur dans un univers virtuel à 360°. Avec un livre, un casque VR et une technologie innovante, les concepteurs, Roman Vital et Sandro Zollinger, ont créé une expérience inédite qui allie littérature et technologie. Tout en lisant un ouvrage, le lecteur est plongé dans des lieux et des ambiances sonores en lien avec l’histoire. Ce procédé enrichit à l’évidence le texte mais réduit la part d’imaginaire.
https://www.losvr.ch/

Droit et données personnelles

Fin des cookies sur Google !

Le géant du web a annoncé que son navigateur Chrome n’acceptera plus les cookies (traceurs pour cibler les publicités) d’ici deux ans. En réaction, les adtech (sociétés de technologies pour la publicité) cherchent à inventer de nouveaux produits, probablement plus insidieux, pour cibler la publicité. Protection de la vie privée des internautes ou meilleur contrôle de la publicité sur son navigateur ! Google a ses raisons.

Bibliothèque libre par RSF sur Minecraft

L’ONG Reporters sans frontières a dévoilé sa bibliothèque libre dans le jeu multijoueurs Minecraft, lors de la journée mondiale de lutte contre la cybercensure du 12 mars 2020.
24 joueurs du monde entier ont travaillé durant 250 heures à la construction de cette bibliothèque virtuelle en ligne. Ce projet rend accessible l’ensemble des écrits censurés de cinq pays dans lesquels la liberté d’expression est bâillonnée (Égypte, Mexique, Arabie Saoudite, Russie et Vietnam).
https://uncensoredlibrary.com/en

Biblothèque libre – Minecraft

Technologie

Jeu vidéo par la pensée

Lors du salon électronique de Las Vegas (CES 2020), La start-up française Nextmind a présenté un prototype sous la forme d’un bandeau à électrodes placé sur la tête qui donne la possibilité de jouer sans utiliser un clavier, une manette ou une souris. Uniquement par la pensée, il est possible, par exemple, de tirer sur une cible mouvante dans un jeu électronique. Cette innovation s’ajoute aux alternatives existantes dans le même domaine tels que le bracelet qui détecte les signaux de commande voyageant du cerveau à la main ainsi que les dispositifs de commande par le mouvement des yeux.

Les Chatons contre les GAFAM

Framasoft, l’association française de défense du logiciel libre change de stratégie contre les géants du web en favorisant la décentralisation des nouveaux projets selon un système de fédération. Les Chatons (Collectif des hébergeurs alternatifs, transparents, ouverts, neutres et solidaires) fonctionnent avec leurs propres règles, tout en communiquant les uns avec les autres. Après la période « Dégooglisons », Framasoft entre dans l’ère « Contributopia ».

Collectif des hébergeurs alternatifs, transparents, ouverts, neutres et solidaires

Médicament conçu par une IA

Un laboratoire pharmaceutique japonais a dévoilé fin janvier 2020 le premier médicament conçu par une intelligence artificielle.
Ce médicament a été créé en seulement 12 mois pour les personnes atteintes de troubles obsessionnels compulsifs (T.O.C.).
Ce supercalculateur (ou IA, selon les concepteurs), sera-t-il utilisé pour trouver un remède contre le Covid-19 ?

écologie

Écologie du livre

De façon tardive, la chaîne du livre se penche sur les questions écologiques. L’Association pour l’écologie du livre veut penser l’avenir du livre et de la lecture en réduisant son impact sur l’environnement. Les pistes évoquées sont liées à la surproduction, l’acheminement, le traitement de la mise au pilon, la réduction des taux de retour. L’association récapitule ces problématiques dans un ouvrage : Le Livre est-il écologique ? Wildproject, 2020.

CCC pour la préservation de la planète

Pour la première fois, lors de la 36e édition du Chaos Communication Congress à Leipzig, le thème du congrès était l’environnement. Des organismes qui militent pour le climat tels que Fridays for Future ou Extinction rebellion ont participé à ce rassemblement autogéré de militants anarcho-hackers sur la sécurité informatique. Les principaux sujets abordés ont été la sécurité des centrales électriques, l’impact énergétique d’Internet et l’alliance de la vie privée et de l’environnement.

No future…

La tyrannie du filtre

Une tendance se banalise chez les jeunes : mettre en avant, dans toutes les correspondances, un visage augmenté sur les réseaux sociaux (Snapchat, Instagram…) Pour réaliser ces retouches, de très nombreuses applications (FaceApp, FaceTune, VSCO, BeautyPlus, Perfect Me, WowFace, InstaBeauty…) ont vu le jour, afin que chacun puisse remodeler son visage, selon l’envie du moment. Conséquences possibles chez les jeunes : dysmorphophobie et irrésistible envie de ressembler à son avatar en passant par un scalpel bien réel…

 

Anarchy in the CDI

Avant nos cheveux retombaient en boucles harmonieuses sur nos épaules.
Maintenant collés à l’eau sucrée, ils se dressent au-dessus de notre crâne rasé.

Avant nous portions des colliers de fleurs, des tuniques chamarrées et des vestes qui sentaient la chèvre.
Maintenant : Tee-shirt déchiré retenu par une épingle à nourrice, perfecto usé, jupe écossaise,
jean retroussé sur des Doc Martens éculées.

Avant nous sentions le patchouli, l’encens et les herbes venues du Riff ou d’Afghanistan.
Maintenant : la bière, le vomi et l’Eau écarlate.

Avant nous écoutions mollement allongés sur des cousins de la musique planante qui durait une éternité.
Maintenant nous écoutons des chansons d’une minute les doigts enfoncés dans une prise électrique.

Avant nous dansions pieds nus, en nous tenant la main dans des rondes fraternelles.
Maintenant nous sautons en l’air, fracassant notre voisin à coups d’épaule, lui écrasant les pieds avec nos Docs.

Avant nous rêvions d’un monde meilleur en tendant aux militaires des fleurs.
Maintenant nous attendons l’Apocalypse en balançant des canettes sur la police.

Nous avons remplacé nos colombes par des rats.

Avant nous étions des hippies.
Maintenant nous sommes des PUNKS !

 

Rejoignez-nous dans les pages de l’ouverture culturelle…