L’école ne doit pas devenir un empire numérique

Connaissez-vous les TICE ? Il s’agit des « technologies de l’information et de la communication pour l’enseignement ». Depuis une vingtaine d’années, les outils numériques ont envahi l’école et bouleversé les méthodes d’enseignement. La crise du coronavirus et le confinement ont accéléré cette numérisation de l’école : pour assurer la fameuse « continuité pédagogique » promue par le ministre de l’Education nationale, les professeurs ont animé des « classes virtuelles » et utilisé massivement Internet. Le confinement fut d’ailleurs une véritable aubaine pour les éditeurs de logiciels éducatifs. Mais l’école numérique n’a pas que des vertus, loin de là.

Il convient de distinguer « l’éducation au numérique » et « l’enseignement par le numérique ». Nul ne peut nier la nécessité d’éduquer les élèves au numérique. L’école doit permettre aux élèves d’acquérir une culture numérique et des compétences informatiques de base (envoyer un e-mail, utiliser un logiciel de traitement de texte et un tableur, effectuer une recherche sur Internet) ; elle doit également les sensibiliser aux enjeux du numérique, notamment à la protection des données personnelles et au problème du cyber-harcèlement. Sans remettre en question la nécessaire éducation au numérique dans les écoles, on doit toutefois s’interroger sur les bienfaits de l’enseignement par le numérique. Les outils numériques sont-ils de bons outils pour faire classe aux élèves ? Sont-ils plus efficaces que les pédagogies pré-digitales pour apprendre à lire, à compter, à mémoriser et à rédiger ? Sont-ils plus efficaces pour développer la créativité, l’autonomie et l’esprit critique des élèves ? La réponse est non : en matière de pédagogie, les TICE n’ont clairement pas fait leurs preuves.

A rebours de l’idéologie pro-numérique dominante, les travaux de recherche les plus pointus montrent que l’impact des TICE sur les performances académiques des élèves est tout à fait dérisoire par rapport aux sommes colossales investies dans la numérisation des écoles. Les TICE peuvent certes faciliter ponctuellement l’exécution de certaines tâches ou le partage de certaines ressources, mais elles ne permettent pas en elles-mêmes d’améliorer les performances scolaires des élèves. Selon certaines recherches récentes, les TICE pourraient même avoir un impact négatif sur la réussite des élèves. C’est ce que montre une enquête menée en 2015 par l’OCDE dans le cadre du programme PISA : sur dix ans, les pays de l’OCDE qui ont le moins investi dans la distribution d’ordinateurs aux élèves ont vu leurs performances académiques progresser plus rapidement que les autres pays ; à l’inverse, les pays qui ont consenti les dépenses les plus massives pour équiper leurs élèves en ordinateurs sont ceux qui ont connu la dégradation la plus sévère de leurs performances scolaires. L’étude PISA révèle aussi que les TICE ne permettent pas de combler les écarts de compétences entre élèves favorisés et défavorisés. Au contraire, l’école numérique a plutôt tendance à accentuer les inégalités car les élèves ne bénéficient pas tous du même encadrement parental ni du même accès à Internet lorsqu’ils sont à la maison.

Pourquoi les TICE sont-elles aussi peu efficaces ? Il serait facile d’incriminer les enseignants « mal formés » ou « réfractaires aux nouvelles technologies ». Ce raisonnement stalinien qui consiste à dénoncer de prétendus « saboteurs » sans jamais remettre en cause le système lui-même séduira certainement les décideurs politiques et les promoteurs du « tout numérique ». Mais la véritable explication se trouve ailleurs. Tout d’abord, les outils numériques ont un énorme pouvoir distractif qui nuit aux apprentissages : ainsi, lorsqu’on donne des tablettes aux élèves, ces derniers sont tentés d’en faire un usage récréatif. Plusieurs études expérimentales montrent aussi que la lecture sur écran est moins efficace que la lecture sur papier, car les enfants comprennent et mémorisent moins bien les contenus lus sur écran. Par ailleurs, les applications et les logiciels éducatifs sont moins efficaces qu’un enseignement traditionnel dans lequel les élèves interagissent directement avec leur professeur sans passer par l’intermédiaire des outils numériques. Notre cerveau est en effet beaucoup moins réceptif aux stimuli vidéo qu’aux interactions humaines. Ce « déficit vidéo » est particulièrement flagrant dans le cas des compétences langagières : une heure passée à communiquer avec une personne anglophone est nettement plus efficace qu’une heure passée à utiliser une application pour apprendre l’anglais. Conclusion : il vaut mieux augmenter le nombre de professeurs que le nombre d’ordinateurs dans les écoles !

Mais alors pourquoi s’obstiner à digitaliser l’enseignement si les vertus pédagogiques des TICE ne sont pas démontrées scientifiquement ? En réalité, les enjeux de la digitalisation ne sont pas tant pédagogiques que politiques. L’école numérique est en effet devenue un véritable totem pour le ministère de l’Education nationale et pour bon nombre d’élus locaux qui distribuent généreusement tablettes et PC aux élèves et aux établissements scolaires : la distribution de matériel informatique devient alors une nouvelle forme de clientélisme et permet à quelques mandarins locaux de montrer à leurs administrés qu’ils soutiennent activement l’innovation pédagogique, sans toutefois proposer de solutions aux vrais problèmes de l’école. Mais les enjeux sont également économiques, car l’Education nationale représente un marché immense pour les éditeurs de logiciels et pour les fabricants de PC et de tablettes, avec tout ce que cela peut impliquer en termes de lobbying. La numérisation de l’école permet une intrusion massive des acteurs privés dans l’Education nationale, ce qui ne semble pas susciter la moindre inquiétude au sein du ministère ni chez les syndicats enseignants. Tout est pour le mieux dans le meilleur des mondes numériques.

Pour finir, les TICE ont un effet pervers non négligeable : elles encouragent l’addiction aux écrans. La consommation d’écrans chez les jeunes a pris des proportions alarmantes au sein des pays occidentaux : entre 8 et 12 ans, les enfants passent en moyenne 4h45 par jour devant des écrans ; entre 13 et 18 ans, c’est près de 6h45 par jour. Le temps passé devant les écrans a explosé au cours des vingt dernières années chez les jeunes, et cette augmentation s’est clairement faite au détriment du temps de sommeil et du temps consacré à d’autres activités plus structurantes. Les dangers de la surexposition aux écrans sont connus et parfaitement documentés : Michel Desmurget, docteur en neurosciences et directeur de recherches à l’Inserm, a dressé dans son livre La Fabrique du crétin digital une remarquable synthèse des publications scientifiques internationales sur le sujet. Et les données disponibles sont accablantes : les écrans altèrent les capacités intellectuelles des enfants et ont de lourds impacts sur le sommeil, la concentration, la mémorisation et le langage.

L’école ne doit pas devenir un empire numérique. Elle devrait être un espace de ressourcement pour tous nos jeunes devenus accros à leurs écrans et à leurs objets connectés. Elle devrait permettre aux enfants et aux adolescents de se libérer des écrans et de redécouvrir les bienfaits des interactions humaines et du travail sur supports papier. L’école devrait être un espace de résistance à l’idéologie du « tout numérique », pour le bien-être et pour la réussite de tous les élèves.

Pourquoi il faut s’attendre à une nouvelle offensive des « antivax »

L’efficacité des vaccins est prouvée depuis longtemps. Il n’est peut-être pas inutile de rappeler que la vaccination de masse a fait reculer de façon spectaculaire plusieurs maladies infectieuses mortelles et hautement contagieuses qui, autrefois, faisaient des ravages. Dans les années 1950, en Europe, on mourait encore de la tuberculose, de la coqueluche, de la diphtérie et de la poliomyélite. Ces maladies, nous avons fini par les oublier car elles ont quasiment disparu dans les pays développés. Nous avons oublié que la diphtérie provoquait la mort par suffocation, que la coqueluche tuait les nourrissons dans d’abominables quintes de toux et que la poliomyélite entraînait une paralysie des membres inférieurs et du système respiratoire. Nous avons oublié que les maladies infectieuses étaient la première cause de mortalité en Europe jusqu’au milieu du XXe siècle. Qu’on le veuille ou non, la vaccination de masse marque un progrès majeur dans l’histoire de l’humanité.

Pourtant, un mouvement anti-vaccination a émergé en Europe et en Amérique du Nord à partir des années 90 : les militants antivax prétendent que les vaccins sont inefficaces, voire dangereux. Ils dénoncent un « lobby du vaccin » et contestent le principe de la vaccination obligatoire. Certains vont même jusqu’à présenter la vaccination des nourrissons comme une maltraitance. La rhétorique anti-vaccin bascule souvent dans la théorie du complot : pour bon nombre de militants antivax, la vaccination ne servirait qu’à enrichir les laboratoires pharmaceutiques. Mais certains militants antivax vont beaucoup plus loin dans le délire complotiste et affirment que les vaccins sont des armes biologiques destinées à décimer la population mondiale. En fouillant dans les poubelles du web, on peut même trouver des publications ahurissantes qui pourraient faire sourire si elles ne concernaient pas un sujet aussi grave : des sites complotistes affirment par exemple que les vaccins comportent des nano-robots capables de modifier le comportement des individus.

La propagande antivax est d’autant plus sournoise qu’elle mélange parfois des contre-vérités à d’authentiques données scientifiques. Comme le disait Paul Valéry, « le mélange de vrai et de faux est plus toxique que le faux ». Il existe par exemple un débat sur les sels d’aluminium qui entrent dans la composition des vaccins. Depuis maintenant un siècle, des sels d’aluminium sont employés comme adjuvants dans les vaccins car l’aluminium permet d’augmenter l’efficacité des vaccins en stimulant la réaction immunitaire de l’organisme : la plupart des spécialistes considèrent les sels d’aluminium comme inoffensifs mais certains chercheurs pensent le contraire. Les recherches du Professeur Romain Gherardi, spécialiste des maladies neuromusculaires, ont montré que chez une très petite minorité d’individus ayant des prédispositions génétiques, l’aluminium des vaccins pouvait entraîner des lésions musculaires appelées myofasciites à macrophages. La plupart des patients chez qui cette pathologie a été diagnostiquée souffrent de troubles du sommeil et de troubles cognitifs mais, à ce jour, aucun lien n’a pu être scientifiquement établi entre ces différents troubles et l’aluminium des vaccins. Pour l’OMS, rien ne justifie une interdiction de l’aluminium vaccinal car une telle décision réduirait considérablement l’efficacité des vaccins et pourrait avoir de lourdes conséquences sanitaires à l’échelle mondiale. Mais cela n’empêche pas les antivax d’affirmer que les vaccins entraînent des troubles neurologiques graves et irréversibles.

La propagande antivax est dangereuse car elle a des effets réellement néfastes sur la population. Elle entretient en effet la confusion dans l’opinion publique et alimente la méfiance envers les vaccins. On sait depuis longtemps qu’une bonne couverture vaccinale est indispensable pour stopper la propagation des virus et empêcher l’apparition de nouveaux foyers épidémiques. Or, durant les vingt dernières années, la méfiance croissante envers les vaccins a entraîné une dégradation de la couverture vaccinale et favorisé la résurgence de plusieurs maladies qui avaient presque disparu en Europe, comme la tuberculose, la coqueluche et la rougeole ; un retour de la diphtérie a même été constaté en Russie. Les rumeurs antivax provoquent parfois de véritables paranoïas collectives : ainsi, au début des années 2000, une épidémie de rougeole a démarré au Royaume-Uni parce que les gens croyaient, à tort, que le vaccin ROR favorisait l’autisme.

Face à la crise sanitaire mondiale déclenchée par le coronavirus, les antivax lancent de nouvelles offensives qui pourraient avoir, elles aussi, de funestes conséquences. Depuis le début de l’épidémie nous assistons sur Internet à une recrudescence des rumeurs et des fake news au sujet des vaccins. Selon une rumeur abondamment relayée sur les réseaux sociaux et les sites complotistes, le milliardaire Bill Gates aurait déclaré que les vaccins servaient à « réduire la population mondiale » : cette fake news vient en fait d’une déformation assez grossière des propos tenus par le fondateur de Microsoft sur les conséquences démographiques de la vaccination dans les pays en développement. Selon une autre rumeur, totalement fausse elle aussi, la Fondation Bill Gates financerait un vaccin contre le covid-19 pour implanter dans les individus vaccinés des puces électroniques permettant un traçage de la population… Malheureusement, quand une rumeur est lancée, il est difficile de l’arrêter : le fact-checking et la parole des experts ne pèsent plus très lourd face au racolage complotiste. Le jour où un vaccin contre le covid-19 sera mis en circulation, il y a fort à parier que la communauté antivax dénoncera encore un gigantesque complot destiné à empoisonner ou à surveiller la population mondiale.

Comme l’explique le sociologue Gérald Bronner, le développement d’Internet a entraîné une « dérégulation du marché de l’information ». Aujourd’hui, les authentiques données scientifiques se retrouvent en concurrence avec les théories les plus folles : des centaines de sites web cherchent à vous convaincre, en avançant des arguments pseudo-scientifiques, que la Terre est plate, que le réchauffement climatique est un mythe, que les vaccins sont inefficaces ou que les dinosaures n’ont jamais existé. Dans ce grand bazar de l’information qu’est devenu le web, les pires théories côtoient les travaux les plus brillants, et chacun fait son petit marché en glanant, ici ou là, quelques idées qui le conforteront dans ses croyances et dans ses préjugés.

Jésus a-t-il existé ?

Jésus Christ Pancrator, icône du XIIIe s., basilique Sainte Sophie (Constantinople).

Jésus a-t-il existé ? Cette question passionnante, qui touche aux fondements mêmes de la chrétienté, a fait couler beaucoup d’encre dans les milieux savants du XIXe siècle. Mais de nos jours, il faut bien admettre que ce débat n’intéresse plus grand-monde au sein de la communauté scientifique. On peut même dire que le débat est clos car, d’après les archéologues et les historiens spécialistes du christianisme ancien, il n’y a plus aucune raison sérieuse de mettre en doute l’existence de Jésus. Pourtant, certaines publications continuent d’affirmer que Jésus n’a jamais existé. Sur Internet, de nombreux experts autoproclamés prétendent pouvoir « démontrer » que Jésus est un personnage imaginaire. Ainsi, en 2015, le journaliste Eric Leser, fondateur du site Slate.fr, a publié un article intitulé « Cinq raisons pour lesquelles Jésus n’aurait jamais existé » : dans cet article abondamment partagé sur les réseaux sociaux, Eric Leser avance des arguments d’une confondante naïveté pour contester l’historicité de Jésus. Mais la figure la plus médiatique de cette mouvance n’est autre que Michel Onfray : dans ses conférences et dans ses livres, ce philosophe connu pour son athéisme militant cherche à démontrer que Jésus est un mythe forgé de toutes pièces par la tradition chrétienne.

L’argumentation de Michel Onfray s’appuie sur une critique radicale des sources : d’après le philosophe, aucun des textes anciens mentionnant Jésus n’est fiable sur le plan historique. Michel Onfray, qui n’est pas historien de formation, ne fait que reprendre à son compte une vieille théorie qualifiée de « mythiste ». Cette théorie est apparue à la fin du XVIIIe siècle et a connu un certain succès en Europe jusqu’aux années 1930. Michel Onfray se réfère d’ailleurs à des auteurs appartenant à ce courant de pensée, tels que l’historien français Prosper Alfaric qui publia dans l’entre-deux-guerres plusieurs articles sur le problème de l’existence de Jésus. Mais les références bibliographiques de Michel Onfray sont périmées car, depuis les années 1930, la recherche sur le christianisme ancien a beaucoup progressé. La théorie « mythiste » que défend Michel Onfray ne reflète pas du tout l’état des connaissances actuelles.

Aujourd’hui, les historiens n’ont plus aucun doute sur le fait qu’un prédicateur nommé Jésus (Yeshoua en araméen) soit mort crucifié à Jérusalem au Ier siècle de notre ère. Mais ils prennent soin de distinguer le « Jésus historique » du « Jésus de la tradition ». Le « Jésus historique » est un personnage bien réel dont on ne sait pas grand-chose ; le « Jésus de la tradition » est un personnage mythique dont la vie et la personnalité ont été façonnées par la tradition chrétienne durant les trois premiers siècles de notre ère. Au bout du compte, que sait-on vraiment du « Jésus historique » ? Les historiens s’accordent sur le fait que Jésus était originaire de Galilée, qu’il a vécu dans l’entourage de Jean Baptiste sur les rives du Jourdain, qu’il a ensuite entamé une carrière de prédicateur itinérant et qu’il a recruté plusieurs disciples avant d’être condamné, torturé puis crucifié à Jérusalem vers l’an 30 sur décision du préfet Ponce Pilate. En revanche, la plupart des actes et des paroles attribués à Jésus dans les évangiles relèvent de la tradition chrétienne et sont impossibles à authentifier sur le plan historique.

Pourquoi les historiens pensent-ils que Jésus a existé ? Parce que Jésus est l’un des personnages les plus abondamment documentés de l’Antiquité : il est mentionné dans une cinquantaine de textes différents écrits entre le Ier et le IIIe siècle, ce qui est tout à fait remarquable pour un homme n’ayant exercé aucune fonction importante au sein de l’Empire romain. La plupart des textes anciens qui mentionnent Jésus sont des textes chrétiens, comme les évangiles. Mais l’existence de Jésus est aussi attestée par quelques sources non chrétiennes : Flavius Josèphe, historien juif né à Jérusalem, fait une brève allusion à Jésus Christ dans le livre XX des Antiquités Judaïques, ouvrage rédigé à la fin du Ier siècle. Plusieurs auteurs païens mentionnent également Jésus : ainsi, au début du IIe siècle, dans le livre XV des Annales, l’historien romain Tacite évoque un homme appelé « Christos » qui fut supplicié par Ponce Pilate sous le règne de l’empereur Tibère. Vers l’an 120, l’historien romain Suétone évoque, dans sa Vie de Claude, un certain « Chrestus » que la plupart des critiques identifient à Jésus Christ. Le personnage de Jésus a donc retenu l’attention de plusieurs historiographes non chrétiens au Ier et au IIe siècle, ce qui n’est pas anodin.

On imagine difficilement comment Jésus aurait pu laisser autant de traces dans les sources des trois premiers siècles sans avoir existé. D’ailleurs, aucun auteur de l’Antiquité n’a jamais contesté l’existence de Jésus, y compris parmi les auteurs les plus hostiles au christianisme : si Jésus n’était qu’un mythe, les polémistes juifs et païens n’auraient sans doute pas manqué d’utiliser cet argument dans les pamphlets qu’ils ont consacrés à la religion chrétienne et à ses adeptes. En outre, certains éléments de la vie de Jésus étaient très embarrassants pour les premières communautés chrétiennes : il est donc peu probable que ces éléments aient été inventés par les chrétiens. C’est le cas de la crucifixion : ce châtiment, réservé aux pires crapules de l’Empire romain, consiste à clouer vivant le condamné sur une croix puis à laisser son cadavre pourrir à l’air libre pendant plusieurs jours. La crucifixion était le plus infâme des châtiments romains : dans ces conditions, pourquoi les premiers chrétiens auraient-ils inventé l’épisode de la crucifixion de Jésus ?

Les partisans de la théorie « mythiste » insistent sur le fait qu’aucun document officiel ne vient confirmer l’existence de Jésus de Nazareth : en effet, on n’a retrouvé aucun décret, aucun document administratif, aucun procès verbal qui fasse mention de Jésus. Mais cela n’a rien d’étonnant car Jésus n’était ni un responsable politique, ni un fonctionnaire de l’administration impériale, ni un membre de l’armée romaine, ni un haut dignitaire religieux. L’interrogatoire et le supplice de Jésus ont probablement fait l’objet de procès verbaux, mais ces documents n’ont pas été conservés. Il faut bien comprendre que l’histoire ancienne est une science de la rareté : les sources anciennes qui sont parvenues jusqu’à nous sont de simples fragments du passé. L’immense majorité des textes produits durant l’Antiquité, qu’il s’agisse de textes littéraires ou de documents administratifs, n’a pas été conservée : ces documents sont définitivement perdus ! Mettre en doute l’existence de Jésus sous prétexte qu’il n’est mentionné dans aucun document officiel est d’assez mauvaise foi car, avec un tel raisonnement, on basculerait facilement dans une sorte de négationnisme absurde qui conduirait à nier l’existence de nombreux autres personnages de l’Antiquité.

Les partisans de la théorie « mythiste » insistent également sur le fait que Jésus n’est connu qu’à travers des sources indirectes : effectivement, tous les textes qui mentionnent Jésus ont été rédigés après sa mort. Les sources les plus anciennes datent de la seconde moitié du Ier siècle : les épîtres de Paul ont été rédigées entre l’an 40 et l’an 65 ; l’évangile de Marc, considéré comme le plus ancien des évangiles, a été rédigé entre 60 et 75. Cela suffit-il à mettre en doute l’historicité de Jésus ? Non, car de nombreux personnages de l’Antiquité ne sont connus qu’à travers des sources indirectes. C’est le cas, par exemple, de Socrate : comme Jésus, il n’a laissé aucun écrit ; tous les textes qui le mentionnent ont été rédigés après sa mort, à commencer par les fameux dialogues de son discipline Platon. Alexandre le Grand fournit aussi un exemple intéressant. Toutes les sources littéraires qui parlent de lui ont été produites longtemps après sa mort : la plus ancienne source connue est la Bibliothèque Historique de Diodore de Sicile, écrite plus de 200 ans après la mort d’Alexandre. Et pourtant, personne ne met en doute l’existence de Socrate ni celle d’Alexandre le Grand.

En résumé, il n’existe aucune preuve irréfutable de l’existence de Jésus mais, à la lumière des sources dont disposent les historiens, l’existence de Jésus apparaît aujourd’hui comme une hypothèse beaucoup plus crédible que sa non-existence. Petite précision utile : les historiens qui étudient les débuts du christianisme ne sont ni des curés ni des théologiens. Ce sont des scientifiques. Ils ne cherchent pas à faire de prosélytisme ; ils n’ont aucun intérêt particulier à « prouver » que Jésus a existé. Ils essaient simplement d’établir les faits avec le plus de rigueur et d’objectivité possible. Dans ce débat sur l’existence de Jésus, le dogmatisme n’est pas forcément du côté que l’on croit : l’acharnement avec lequel certains individus nient l’historicité de Jésus ne relève certainement pas d’une démarche scientifique et objective.

Cessons de stigmatiser les éleveurs

Elevage de volailles fermières dans le Gâtinais.

Jamais la question du bien-être animal n’a été aussi présente qu’aujourd’hui dans le débat public, et je m’en réjouis. Je pense même que cette question va devenir l’un des enjeux éthiques majeurs du XXIe siècle. Les conditions de vie imposées aux animaux par l’élevage industriel sont scandaleuses ; certaines pratiques particulièrement barbares, telles que le broyage des poussins ou la castration des porcs à vif, doivent être interdites. Mais ceux qui voient dans le véganisme la seule réponse possible au problème du bien-être animal se trompent. Le véganisme est une impasse : la promotion d’une agriculture éthique, responsable et respectueuse des animaux doit passer par le retour à l’élevage fermier, un élevage fondé sur une relation plurimillénaire de coopération entre l’homme et l’animal.

L’élevage est aujourd’hui la cible d’une véritable campagne de dénigrement largement encouragée par le mouvement vegan et par des associations comme L214. L’idéologie vegan, de plus en plus influente sur les réseaux sociaux et dans les médias, est en train de dériver dangereusement vers une sorte de puritanisme sectaire dont le discours, à la fois vindicatif et moralisateur, vise à culpabiliser les mangeurs de viande et à stigmatiser les éleveurs. L’activisme vegan rejette en bloc toute forme d’élevage et ne semble faire aucune différence entre, d’une part, l’élevage fermier traditionnel et, d’autre part, l’élevage industriel, qu’il faudrait plutôt qualifier de « production animale » comme le fait la sociologue Jocelyne Porcher. Cette confusion entre élevage traditionnel et production animale est d’ailleurs entretenue par les associations abolitionnistes comme L214 qui, en dénonçant les pires dérives de l’élevage industriel, cherchent en fait à jeter le discrédit sur l’ensemble des éleveurs : l’objectif de ces organisations est en effet de promouvoir une agriculture sans élevage, pour le plus grand bonheur des quelques multinationales qui ont déjà investi dans la production de viande artificielle.

La propagande vegan avance fréquemment des arguments fallacieux qui occultent les différences, pourtant essentielles, entre élevage industriel et élevage traditionnel. Les abolitionnistes prétendent, par exemple, que l’élevage est une activité fortement émettrice de gaz à effet de serre. Or, on omet de préciser que, dans le cas de l’élevage fermier, le méthane généré par la rumination est presque entièrement compensé par les prairies, qui absorbent de grandes quantités de dioxyde de carbone : c’est l’élevage hors-sol qu’il faut blâmer, et non l’élevage traditionnel. De même, les abolitionnistes accusent l’élevage de favoriser la déforestation en Amazonie. Là encore, c’est l’élevage industriel qu’il faut pointer du doigt, puisque le soja massivement produit sur les zones déboisées est essentiellement destiné aux élevages hors-sol ; au contraire, dans les élevages fermiers, les bêtes sont nourries grâce aux pâturages et aux fourrages produits localement.

Qu’on le veuille ou non, l’élevage fermier joue un rôle écologique essentiel : les déjections animales sont un engrais naturel ; les pâturages capturent le carbone, préservent les sols et protègent la biodiversité des écosystèmes ruraux, cette même biodiversité qui a disparu dans les zones de monoculture végétale intensive. Si l’humanité toute entière se convertissait au véganisme et si l’élevage disparaissait, les conséquences écologiques en seraient calamiteuses. Outre l’extinction programmée de nombreuses espèces animales qui ne peuvent pas vivre à l’état sauvage, on verrait s’effondrer tous les écosystèmes dont l’existence est étroitement liée à l’élevage et à l’agropastoralisme. De plus, pour maintenir les rendements nécessaires à la satisfaction des besoins alimentaires, nous n’aurions pas d’autre choix que de remplacer les engrais naturels issus de l’élevage par de grandes quantités d’engrais chimiques, un scénario tout à fait anti-écologique.

Il est nécessaire de réduire notre consommation de protéines animales : nous mangeons beaucoup trop de viande, c’est un fait. Dans les pays développés, les gens ont pris l’habitude de consommer de la viande tous les jours alors que, sur le plan nutritionnel, un adulte pourrait très bien se contenter d’en manger une à deux fois par semaine. Nous devons donc privilégier la qualité plutôt que la quantité : manger moins de viande, mais une viande meilleure, produite en France et, si possible, issue d’élevages fermiers. En France, l’élevage est déjà beaucoup plus réglementé que dans la plupart des autres pays ; tout un arsenal de normes sanitaires et de labels protège le consommateur et garantit la qualité des viandes. D’importantes avancées en faveur du bien-être animal ont été inscrites dans la loi « Agriculture et Alimentation » votée en 2018 : le délit de maltraitance animale a été étendu aux activités de transport et d’abattage et les peines ont été doublées ; dans les abattoirs, la loi reconnaît désormais le statut de « lanceur d’alerte » à tout employé qui dénoncerait des actes de maltraitance. Il reste beaucoup à faire pour améliorer les conditions d’élevage et d’abattage, mais le consommateur peut, de son côté, faire bouger les choses en boycottant les viandes issues d’élevages industriels et en optant pour une viande de qualité issue d’élevages responsables.

Je terminerai en citant quelques mots de la romancière Isabelle Sorente, dont les réflexions sur la cause animale me semblent d’une grande justesse. Expliquant pourquoi elle continue à manger de la viande, Isabelle Sorente déclare : « Je n’ai pas envie de perdre cette conscience de faire partie d’une chaîne naturelle, quand bien même cela suppose d’en accepter la dimension cruelle et tragique. Quant aux alternatives proposées à l’élevage traditionnel, elles vont parfois, comme dans le cas de la viande artificielle, dans un sens de technologisation et d’aseptisation que je trouve inquiétant. Je crois que la vraie question, c’est : qu’est-ce que notre rapport à l’animal nous dit de notre humanité ? Comment veut-on vivre notre humanité ? La disparition des espèces animales, c’est aussi la disparition de nos mythes et d’une grande partie de nos sources d’inspiration. Toutes les grandes religions, le christianisme comme les religions orientales ou l’ancienne religion égyptienne, sont peuplées d’animaux. Ce problème dépasse très largement la question de notre équilibre alimentaire. »

Les Trente Glorieuses ont-elles existé ?

Camping à Saint-Tropez en 1965.

L’expression « Trente Glorieuses », qui fait écho à la révolution des « Trois Glorieuses » de juillet 1830, est apparue en 1979 sous la plume de l’économiste Jean Fourastié : elle désigne, comme on le sait, les trois décennies qui ont suivi la Seconde Guerre mondiale et qui se caractérisent par une forte croissance économique, une situation de plein emploi et une augmentation spectaculaire du niveau de vie, aussi bien en France que dans les autres pays industrialisés. Cette période faste, qui a pris fin en 1973 avec le premier choc pétrolier, nourrit encore de nos jours une puissante nostalgie. Dans une France minée par la désindustrialisation, le chômage de masse et la montée des inégalités, les Trente Glorieuses apparaissent en effet comme une sorte d’âge d’or ; elles évoquent le temps béni d’une prospérité accessible à tous et d’un capitalisme industriel efficacement régulé par l’Etat. Les Trente Glorieuses ont-elles vraiment existé ou sont-elles une sorte d’illusion rétrospective ?

Indéniablement, les Trente Glorieuses ont été une période de progrès sur le plan social comme sur le plan matériel. Les travaux de Jean Fourastié, fondés sur un examen approfondi des données statistiques, montrent que les conditions de vie des Français ont connu une amélioration sans précédent de 1944 à 1973. Cela s’explique notamment par la hausse de la productivité et des revenus. La mortalité a fortement reculé grâce à l’amélioration de la couverture vaccinale et à la mise en place, dès 1945, d’un système universel de Sécurité Sociale. La modernisation de l’agriculture a permis d’augmenter considérablement les rendements agricoles et d’améliorer l’alimentation de la population. C’est aussi pendant les Trente Glorieuses que les Français sont pleinement entrés dans la société de consommation et de loisirs, grâce à l’augmentation du temps libre, à la naissance des supermarchés et au développement du crédit à la consommation. Les Trente Glorieuses ont été une période optimiste dans la mesure où les Français avaient confiance en l’avenir : les gens ne vivaient pas dans l’angoisse du déclassement, et les parents avaient la certitude que leurs enfants auraient de meilleures conditions de vie qu’eux.

Il convient toutefois de ne pas idéaliser les Trente Glorieuses. On aurait tort de s’imaginer qu’en ce temps-là, tout était plus simple qu’aujourd’hui. Si les conditions de vie se sont considérablement améliorées pendant les trente années d’après-guerre, c’est parce que la situation en 1945 était calamiteuse : les Trente Glorieuses ont été une période de rattrapage pendant laquelle les nations d’Europe occidentale ont parachevé leur processus de développement. La France de 1945 était un champ de ruines ; une partie non négligeable de la population vivait alors dans un grand dénuement. Les années de l’immédiat après-guerre ont été particulièrement difficiles : le manque de logements était un problème majeur, les pénuries alimentaires continuèrent bien après la fin de la guerre et les tickets de rationnement ne furent supprimés qu’en 1949. Lorsque les premiers « grands ensembles » furent construits à la fin des années 50, on y logea des dizaines de milliers de Français qui vivaient auparavant dans des taudis. Sur le plan matériel, la vie durant les Trente Glorieuses était beaucoup plus dure qu’aujourd’hui : le confort domestique n’était pas celui que nous connaissons maintenant. Les journées de travail étaient plus longues et plus pénibles, notamment pour les ouvriers : dans les années 60, en France, l’espérance de vie des hommes ne dépassait pas 65 ans (contre 79 ans aujourd’hui).

Par ailleurs, il ne faut pas oublier que la croissance économique a laissé beaucoup de gens sur le bord de la route. Les travailleurs immigrés constituaient une main d’œuvre corvéable à merci et vivaient en marge de la société de consommation. D’importants bidonvilles peuplés de familles immigrées s’étalaient en périphérie des grandes villes : au milieu des années 60, en France, les bidonvilles accueillaient une population de quelque 100.000 individus ; le plus connu, celui du Petit-Nanterre, abritait 14.000 personnes principalement venues du Maghreb. En outre, la croissance exceptionnelle des Trente Glorieuses a eu un coût écologique effroyablement lourd : la pollution et la consommation d’énergies fossiles ont littéralement explosé. La révolution agricole a entraîné l’émergence d’une agriculture productiviste fondée sur l’utilisation massive d’intrants chimiques. Il faut bien admettre que, pendant les Trente Glorieuses, les problèmes écologiques étaient largement ignorés : c’est dans les années 70 qu’émergea l’écologie politique. C’est en 1972 que le Club de Rome publia son fameux Rapport sur les limites de la croissance. Et c’est dans les années 80 qu’apparut le concept de développement durable, théorisé dans le rapport Brundtland de 1987. Cette prise de conscience planétaire était bel-et-bien la conséquence des Trente Glorieuses et de leur modèle de croissance énergivore et consumériste, modèle dont nous avons tant de mal à sortir aujourd’hui.

Les Trente Glorieuses ont eu un autre effet pervers non négligeable. Elles ont brouillé nos repères économiques : elles ont ancré dans nos esprits l’idée que la haute croissance et le plein emploi étaient une situation « normale » et que, par conséquent, le retour au plein emploi constituait un objectif réaliste pour les responsables politiques. Mais les Trente Glorieuses ne furent qu’une parenthèse, un moment tout à fait exceptionnel dans l’histoire du capitalisme. La forte croissance mesurée pendant les Trente Glorieuses était liée à des conditions très particulières : la reconstruction ; le « baby boom » ; la généralisation du modèle tayloro-fordiste fondé sur le travail à la chaîne ; un pétrole abondant et bon marché ; un Tiers monde sous-industrialisé incapable de concurrencer les pays riches. Or, tous ces facteurs ont disparu de façon irrémédiable : l’Europe est en paix depuis 70 ans, ce qui exclut toute politique de reconstruction à grande échelle ; la natalité des pays européens est structurellement faible ; l’automatisation de la production a rendu le modèle fordiste obsolète ; le pétrole coûte cher et les réserves s’épuisent. Mais surtout, la mondialisation a redistribué les cartes : les vieilles puissances industrielles sont désormais concurrencées par des pays émergents qui occupent une place de plus en plus grande sur le marché mondial.

Les Trente Glorieuses ont aussi ancré dans nos esprits l’idée que l’Etat était le moteur de la croissance. Or, la croissance économique ne se décrète pas. L’Etat peut mettre en place un cadre de régulation garantissant une plus grande stabilité économique ; il peut redistribuer la richesse de façon plus juste et orienter les investissements vers les secteurs considérés comme prioritaires. Mais l’Etat ne peut pas faire jaillir la richesse comme par enchantement. Pendant les années d’après-guerre, la croissance économique générait d’importantes recettes fiscales qui, à leur tour, permettaient à l’Etat d’investir massivement dans les infrastructures et les services publics. Or, depuis les années 1970, l’Etat français est en déficit chronique ; la dette publique n’a cessé de s’alourdir pour dépasser aujourd’hui les 2.300 milliards d’euros, soit l’équivalent d’une année de PIB. Les efforts mis en œuvre pour maîtriser les dépenses publiques ne permettent plus à l’Etat d’intervenir aussi massivement dans l’économie : la rigueur budgétaire est devenue la règle.

Il est donc temps de faire notre deuil des Trente Glorieuses. La forte croissance économique des années d’après-guerre était le fruit d’une conjoncture exceptionnelle et non reproductible : la nostalgie des Trente Glorieuses ne doit pas nous empêcher de penser l’avenir et d’imaginer d’autres modèles de croissance, plus durables et mieux adaptés aux défis du XXIe siècle.

La Terre est-elle plate ?

Connaissez-vous les « platistes », ces gens qui affirment que la Terre est plate ? Aussi improbable que cela puisse paraître, cette folle croyance compte encore aujourd’hui de nombreux adeptes à travers le monde : selon un sondage Ifop sorti en janvier 2018, un Français sur dix penserait que la Terre est plate. Comment expliquer une telle ineptie au XXIe siècle ?

En 1956, un Anglais nommé Samuel Shenton fonda la Flat Earth Society, une organisation internationale soutenant la thèse d’une Terre plate. Cette organisation rassembla jusqu’à 3.500 membres à son apogée mais déclina rapidement à partir des années 80. Puis Internet arriva, et donna aux théories platistes une visibilité inespérée. Aujourd’hui, les platistes sont très actifs sur le net : on trouve en effet des sites web, des forums, des vidéos Youtube et même des pages Facebook affirmant sérieusement que la Terre est plate. Bien que la Flat Earth Society de Shenton ait officiellement cessé d’exister en 2001, plusieurs forums et plusieurs sites continuent d’utiliser le nom de cette organisation.

Si le platisme a encore une audience de nos jours, c’est parce qu’il se trouve à la confluence du fondamentalisme religieux et du complotisme. Cette croyance continue de circuler dans certaines communautés chrétiennes intégristes : ces dernières font une interprétation littérale de divers passages de la Bible évoquant les « extrémités » de la Terre ou décrivant un monde fixe recouvert d’une voûte céleste. On retrouve également cette croyance chez certains musulmans qui font une lecture littérale du Coran : plusieurs versets coraniques décrivent effectivement la Terre comme un lit ou un tapis « étiré » par Allah. Mais le platisme est aussi une théorie du complot : les platistes sont persuadés qu’il existe un complot de la NASA destiné à faire croire que la Terre est ronde. Cette théorie stupide flatte l’égo des individus qui adhèrent aux sottises complotistes car elle leur donne l’impression d’accéder à une vérité « cachée ».

Les platistes se représentent la Terre comme un disque plat centré sur le pôle Nord et entouré d’un immense mur de glace : d’après eux, donc, le pôle Sud n’existe pas. Ils pensent aussi que la Lune et le Soleil tournent au-dessus de la Terre comme les pièces d’un mobile musical suspendu au-dessus d’un lit de bébé. Pour illustrer leur vision du monde, les platistes utilisent des planisphères à projection azimutale équidistante centrés sur le pôle Nord. Ce type de planisphère apparaît d’ailleurs dans le célèbre logo des Nations Unies, logo que les platistes considèrent naïvement comme une confirmation de leur théorie ! Ils oublient qu’un planisphère est toujours une construction, et non une représentation fidèle du monde physique. Un planisphère à projection azimutale centré sur le pôle Nord ne permet évidemment pas de représenter le pôle Sud. On pourrait tout aussi bien réaliser, avec le même système de projection cartographique, des planisphères centrés sur le pôle Sud (c’est alors le pôle Nord qui disparaîtrait comme par magie).

Logo de l’ONU.

Les platistes essaient de corroborer leurs théories par des arguments d’une affligeante naïveté qui revêtent, pourtant, l’apparence du « bon sens ». L’horizon rectiligne apporterait ainsi la preuve que la Terre est plate : on oublie alors que le globe terrestre a une circonférence de 40.000 km et que, par conséquent, sa courbure est invisible à l’œil nu. Il existe en revanche plusieurs méthodes scientifiques permettant de calculer de façon assez précise la courbure de la Terre grâce à la trigonométrie. Les platistes affirment aussi que les photographies montrant la Terre depuis l’espace sont des images truquées, car on ne voit aucune étoile sur les photos de la NASA. L’argument est certes séduisant mais ne tient pas la route scientifiquement, car les étoiles émettent un rayonnement lumineux très faible qu’il est difficile de capter lorsqu’on fait de la photographie. On peut d’ailleurs facilement vérifier ce phénomène en photographiant une personne la nuit avec un ciel étoilé en arrière-plan : si la mise au point est faite sur la personne, les étoiles n’apparaissent pas sur la photo. De même, quand des satellites photographient la Terre, la mise au point est faite sur le globe terrestre et non sur les étoiles.

Les platistes soulignent également le fait que les grandes compagnies aériennes ne proposent jamais de liaisons directes entre l’Afrique du Sud et l’Amérique du Sud, ni entre l’Afrique du Sud et l’Australie : ainsi, pour aller du Cap à Sidney, une escale à Dubaï est souvent nécessaire bien qu’un avion de ligne ait suffisamment d’autonomie pour effectuer un vol direct. Ces escales apporteraient la « preuve » que le monde est plat et que Dubaï se trouve sur la trajectoire d’un vol reliant l’Afrique du Sud à l’Australie ! Un tel raisonnement témoigne d’une connaissance très superficielle des réseaux aériens : pour des raisons de rentabilité évidentes, les grandes compagnies aériennes ne peuvent pas se permettre de proposer des liaisons directes entre toutes les grandes villes de la planète et doivent effectuer des correspondances dans des hubs aéroportuaires tels que Dubaï, Pékin ou Roissy.

Comme l’écrivait René Descartes, « le bon sens est la chose la mieux partagée car chacun pense en être si bien pourvu que même ceux qui sont les plus difficiles à contenter en toute autre chose n’ont point coutume d’en désirer plus qu’ils en ont ». Tout le monde peut mettre le bon sens de son côté pour défendre des idées fausses et des théories farfelues. Mais la science n’est pas une affaire de bon sens. Une vérité scientifique est une idée qui fait consensus dans la communauté scientifique parce qu’elle est corroborée par des preuves irréfutables ou parce qu’elle a été validée par des expériences menées de façon rigoureuse et objective.

Dès l’Antiquité, mathématiciens, astronomes et géographes comprirent que la Terre était ronde en regardant le mât des navires disparaître derrière l’horizon et en observant les éclipses de Lune. Platon et Aristote étaient persuadés que la Terre était sphérique, tout comme l’immense majorité des savants de leur époque. Au IIIe siècle avant J.C., le mathématicien grec Eratosthène fut le premier à mesurer la circonférence de la Terre en utilisant la trigonométrie, et ses calculs étaient d’une précision époustouflante. Au XVIe siècle, les premières circumnavigations vinrent confirmer les découvertes faites par les savants de l’Antiquité. Au XVIIIe siècle, le géographe français Charles Marie de La Condamine mesura la courbure terrestre lors d’une expédition géodésique en Equateur et découvrit que la Terre formait une sphère imparfaite légèrement aplatie au niveau des pôles. Les premières photographies satellites montrant le globe terrestre depuis l’espace n’ont pas révolutionné nos représentations de la Terre : elles n’ont fait qu’apporter de nouvelles preuves d’une sphéricité qui était déjà parfaitement démontrée depuis des siècles.

La résurgence du platisme est à la fois inquiétante et fascinante. Elle nous montre les profondeurs abyssales que l’ignorance et la bêtise humaines sont capables d’atteindre. Elle nous montre que les progrès de la science ne suffisent pas à éradiquer l’obscurantisme. Elle nous montre que toute vérité parfaitement établie sur le plan scientifique peut être contestée avec des arguments ayant l’apparence du bon sens : on peut ainsi « démontrer » que la Terre est plate, que les vaccins sont inefficaces, que le réchauffement climatique est un mythe ou que les dinosaures n’ont jamais existé. Le platisme nous montre aussi qu’avec Internet et les réseaux sociaux, les théories les plus grotesques trouvent toujours des canaux de diffusion et des promoteurs zélés.

Ecriture inclusive: les femmes méritent mieux qu’un affreux « point médian »

Source: Nice Matin.

La fameuse règle grammaticale selon laquelle le « masculin l’emporte sur le féminin » a été codifiée par des grammairiens du XVIIe siècle qui ont décidé, un peu arbitrairement, que le genre masculin était supérieur au genre féminin. Le but de cette règle n’était pas de graver dans le marbre la supériorité de l’homme sur la femme : il s’agissait surtout d’unifier la langue française, à une époque où les règles grammaticales n’étaient pas encore bien fixées. Et comme il n’existe pas de genre neutre dans la langue française, on a décidé que le masculin aurait aussi une valeur générique.

Cette vieille règle est aujourd’hui remise en cause par l’écriture dite « inclusive », un ensemble d’usages grammaticaux et orthographiques destinés à garantir l’égalité entre hommes et femmes dans la langue française. Il s’agit, par exemple, de féminiser tous les noms de métier ou de fonction (« chercheuse », « auteure ») ou d’utiliser la double flexion lorsqu’on parle d’un groupe de personnes composé d’hommes et de femmes (« les lecteurs et les lectrices »). A vrai dire, ces pratiques-là ne font guère débat. La féminisation des noms de fonction est déjà monnaie courante. Quant à la double flexion, elle est fréquemment employée par les responsables politiques lorsqu’ils disent, par exemple, « les Françaises et les Français ». Ce qui fait débat, en réalité, c’est un simple petit point. Certains partisans de l’écriture inclusive prônent en effet l’utilisation d’une nouvelle forme de ponctuation appelée « point médian » ou « point milieu », qui consiste à ajouter des points à l’intérieur d’un mot pour y inclure à la fois le suffixe masculin et le suffixe féminin, par exemple : « les candidat.e.s ont été désigné.e.s ». Ce point médian a déchaîné tant de passions qu’il a fini par devenir, à lui seul, un symbole de l’écriture inclusive.

On ne peut pas nier que le langage influence notre vision du monde et structure notre façon de penser. J’admets donc volontiers la nécessité de faire évoluer la langue française afin de mieux représenter les femmes. Mais pour atteindre ce but, faut-il s’autoriser à massacrer la langue ? Je ne le crois pas. La langue n’est pas un simple matériau que l’on peut remodeler en fonction des besoins du moment : c’est aussi un héritage, un patrimoine qu’il faut respecter et préserver. Or, le « point médian » me semble difficilement compatible avec le respect le plus élémentaire dû à la langue française. Tout d’abord, ce point est particulièrement inesthétique. Mais ce n’est pas cela qui me gêne le plus, car en alourdissant la graphie de termes usuels, en complexifiant inutilement la langue, le « point médian » risque de rendre l’apprentissage et la lecture du français encore plus difficiles aux écoliers et aux étrangers. Il va créer de la confusion chez tous les élèves qui ne maîtrisent pas la ponctuation et à qui l’on essaie d’apprendre que le point sert à marquer la fin d’une phrase.

J’ai beau faire des efforts, j’ai beau tester moi-même le fameux point : rien n’y fait, cette ponctuation me semble toujours aussi absurde. Prenons une phrase tout à fait banale : « Les directeurs se sont engagés à recevoir les délégués syndicaux ». Réécrivons maintenant cette phrase avec des « points médians », et l’on obtiendra quelque chose de cet ordre : « Les directeur.trice.s se sont engagé.e.s à recevoir les délégué.e.s syndicaux.ales ». Peut-on vraiment se satisfaire d’un tel charcutage ? Osera-t-on me dire que cette phrase-là n’est pas affreuse à lire et à prononcer ? Les femmes ne méritent-elles pas mieux que ce point ridicule ? Hélas, on voit actuellement fleurir dans les médias et sur les réseaux sociaux toutes sortes de publications utilisant le « point médian ». Bon nombre de journalistes ont aujourd’hui le sentiment de lutter contre le sexisme en infligeant à leurs lecteurs cette ponctuation disgracieuse : cela m’agace et m’inquiète profondément. L’écriture inclusive offre toute une palette de solutions alternatives beaucoup plus simples et, surtout, plus respectueuses de la langue française : pourquoi donc s’obstiner à utiliser cet insupportable point qui défigure les mots ? Je pourrais faire comme si le « point médian » n’existait pas, et laisser en paix les gens qui souhaitent l’utiliser. Mais la situation est un peu plus complexe, car les partisans du « point médian » ne se contentent pas de l’utiliser pour eux-mêmes, dans leur coin : ils cherchent à le banaliser, à en faire la nouvelle norme, ce qui, à terme, aura pour effet prévisible de faire passer les réfractaires pour de sales réacs antiféministes. Et cela, je ne peux l’accepter. Mon amour de la langue française étant (presque) aussi grand que mon attachement à l’égalité entre les hommes et les femmes, j’espère sincèrement que l’usage ne s’accommodera pas de ce gadget linguistique promu par une poignée de journalistes bobos et de féministes en mal d’idées.

L’écriture inclusive a provoqué de vives polémiques en 2017 après la parution d’un manuel scolaire destiné à des élèves de CE2 et utilisant le « point médian ». En octobre 2017, l’Académie Française a publié un communiqué incendiaire pour dénoncer l’écriture inclusive, qualifiée de « péril mortel » par les Académiciens. Une circulaire du Premier Ministre datée du 21 novembre 2017 préconise de ne pas utiliser l’écriture inclusive dans les textes destinés à être publiés au Journal officiel de la République Française mais, dans la même circulaire, le Premier Ministre encourage la féminisation des noms de fonction. La circulaire dit en effet que, lorsqu’un arrêté est signé par une femme, l’auteure doit être désignée comme « la ministre », « la secrétaire générale » ou « la directrice ». En outre, dans tous les actes de nomination, l’intitulé des fonctions tenues par une femme doit être féminisé ; s’il s’agit d’un acte de recrutement, il faudra utiliser une formule telle que « le candidat ou la candidate ». A travers cette circulaire, le Premier Ministre a donc cherché à bannir le « point médian » des textes officiels, mais pas à condamner l’écriture inclusive dans sa globalité. Cette circulaire a peut-être été influencée par le communiqué de l’Académie Française mais j’y vois surtout, de la part du Premier Ministre, la volonté de trouver le compromis le plus juste entre, d’une part, la conservation de la langue et, d’autre part, l’égalité des sexes. Ce compromis me semble tout à fait raisonnable. C’est d’ailleurs la position qu’avait défendue la Secrétaire d’Etat chargée de l’Egalité entre les hommes et les femmes, Marlène Schiappa, bien avant la parution de la circulaire du Premier Ministre. Marlène Schiappa s’était en effet exprimée à plusieurs reprises dans les médias contre l’usage du « point médian » mais pour la féminisation des noms de fonction.

Quoi qu’il en soit, et même s’il semble souhaitable de faire évoluer la langue vers une plus grande égalité entre les genres, nous serions naïfs de penser que l’écriture dite inclusive sera capable de bouleverser les rapports entre les hommes et les femmes dans notre société. A force de débattre sur les vices et les vertus du « point médian », on risque d’oublier que les enjeux essentiels sont ailleurs, dans la lutte contre les inégalités salariales, contre le harcèlement sexuel et contre les violences faites aux femmes. L’égalité des sexes passera par des mesures concrètes, et non par des gadgets grammaticaux.

La « PMA pour toutes les femmes » est-elle vraiment un progrès?

Marlène Schiappa.

Marlène Schiappa, la secrétaire d’Etat chargée de l’Egalité entre les femmes et les hommes, vient d’annoncer qu’en 2018 la PMA serait ouverte aux couples de femmes ainsi qu’aux femmes célibataires. Cette décision, divulguée au cours d’une interview télévisée, a même été présentée par la secrétaire d’Etat comme une mesure de « justice sociale ». 

Je suis défavorable à cette mesure car je pense que tout enfant a besoin d’un père et d’une mère. Autoriser la PMA sans père, c’est priver l’enfant à naître d’une partie de son identité, ce qui risque de nuire gravement à son épanouissement et à son équilibre psychologique. Je conçois qu’une femme célibataire ou lesbienne éprouve le désir d’enfanter, mais ce désir ne saurait primer sur l’intérêt de l’enfant. L’extension de la PMA trouve sa justification dans un principe qui me semble aussi absurde que dangereux : celui du « droit à l’enfant ». Or, ce prétendu « droit à l’enfant » n’existe pas. Il n’est que le caprice d’une société individualiste où le désir a fini par l’emporter sur l’éthique. Avoir un enfant n’est pas un « droit ». On ne peut pas revendiquer le droit d’avoir des enfants comme on revendiquerait le droit au logement, à l’éducation ou au travail.

La procréation médicalement assistée est un acte thérapeutique destiné aux couples hétérosexuels victimes d’une pathologie ou d’une malformation qui les empêche de procréer naturellement. Mais le cas des femmes célibataires et des couples de femmes est tout à fait différent car il ne s’agit pas ici d’infertilité. Le célibat et l’homosexualité ne sont pas des pathologies ni des « anomalies » empêchant la procréation. Une fois détournée de sa finalité thérapeutique, la PMA cessera d’être un acte médical pour devenir un acte technique au service de nos désirs individuels, donc un dévoiement de la médecine elle-même.

Evidemment, il sera facile de caricaturer mon propos et d’y voir les vociférations d’un sale réactionnaire homophobe et misogyne. J’ai toujours dénoncé l’homophobie comme j’ai toujours exécré la misogynie. Mais ce qui est en jeu derrière l’extension de la PMA, ce n’est pas l’égalité entre hommes et femmes ni même l’acceptation de l’homosexualité. Ce qui est en jeu, c’est l’avenir de l’humanité. Quelle humanité voulons-nous ? Une humanité respectueuse des équilibres naturels fondamentaux et soucieuse d’encadrer la science par des règles éthiques, ou au contraire une humanité qui ne tolère plus aucune limite à ses désirs et à ses caprices ?

Six tabous à briser pour refonder (vraiment) l’école.

Premier tabou : la fin du collège unique. Au nom d’un égalitarisme rigide, le système éducatif français prétend corriger les inégalités en assignant les mêmes objectifs à tous les élèves, et ce jusqu’à la fin du collège. En réalité, notre système éducatif ne corrige pas les inégalités. Les élèves arrivent à l’école avec des capacités différentes, et il est illusoire de penser que l’école a le pouvoir de gommer ces différences. Si l’école impose à tous les élèves un niveau d’exigence élevé, elle conduit fatalement les plus faibles à l’échec. A l’inverse, un nivellement par le bas pénalisera les meilleurs élèves. L’objectif de l’école doit être de faire progresser chaque élève selon ses capacités ; pour cela, elle doit proposer des enseignements plus individualisés, adaptés au profil de chacun. Cela exige de remettre en cause le dogme du collège unique, d’accorder beaucoup plus d’autonomie aux établissements scolaires dans l’organisation des enseignements, et de créer un parcours professionnalisant pour les élèves en situation de décrochage scolaire dès le début du collège. 

Deuxième tabou : les rythmes scolaires. L’une des particularités françaises est la lourdeur des journées d’école : avant la réforme Peillon, les écoliers avaient six heures de classe par jour. Or, toutes les études s’accordent à dire que les heures de classe de l’après-midi sont contre-productives, car les élèves sont moins concentrés et ont plus de difficultés pour assimiler les informations et s’impliquer dans des activités intellectuelles. La réforme des rythmes scolaires de 2013 allait dans le bon sens : le décret Peillon a étalé la semaine d’école sur 9 demi-journées (au lieu de 8 auparavant) ; en contrepartie, la journée d’école finit plus tôt : les élèves sont ensuite pris en charge par des animateurs dans le cadre d’activités périscolaires financées par les municipalités. Cependant, la réforme Peillon n’est pas satisfaisante. Tout d’abord, sa mise en œuvre a été bâclée car de nombreuses municipalités ne disposent pas de moyens suffisants pour offrir des activités périscolaires de qualité aux élèves. Deuxièmement, la journée d’école reste lourde puisqu’il y a toujours classe l’après-midi. Troisièmement, la réforme ne concerne que les écoles : il y aurait sans doute beaucoup à faire dans les collèges. Enfin, la réforme Peillon s’est attaquée uniquement aux rythmes journaliers sans toucher au calendrier scolaire. Il serait souhaitable de raccourcir les congés d’été pour pouvoir alléger les semaines de cours de l’ensemble des élèves. Mais le calendrier scolaire est un véritable totem : quiconque envisage de toucher aux sacro-saintes vacances d’été risque de s’attirer les foudres des enseignants et des parents d’élève, mais également des professionnels du tourisme.

Troisième tabou : la réforme du Bac. Pour alléger le calendrier des épreuves et réduire le coût de l’examen (environ 100 millions d’euros chaque année), il faut réduire à trois ou quatre le nombre d’épreuves terminales dans chaque filière et faire basculer en contrôle continu les autres épreuves : seules les disciplines majeures de chaque filière feraient alors l’objet d’une évaluation finale. L’allègement du calendrier permettrait aussi de reporter de quelques jours le début des épreuves et de reconquérir en partie le mois de juin, puisqu’actuellement les cours finissent autour du 10 juin dans les lycées. La réforme du Bac est aussi l’occasion de repenser les spécificités de chaque filière : revaloriser la voie professionnelle par des épreuves plus exigeantes, renforcer l’importance des langues vivantes et l’ouverture sur l’international dans la filière littéraire, et réaffirmer la vocation scientifique de la filière S (trop souvent perçue comme une filière ouvrant toutes les portes et donnant accès à tous les métiers). La réforme du Bac doit être la clé de voûte de la réforme du lycée, car c’est le Bac qui détermine l’organisation des enseignements au lycée.

Quatrième tabou : la formation des enseignants. Les enseignants débutent leur carrière sans être suffisamment armés pour faire face aux difficultés majeures du métier. La formation initiale des enseignants, dévoyée pendant plus de vingt ans par le pédagogisme angélique dispensé dans les IUFM, a été améliorée ces dernières années. Il reste cependant beaucoup à faire dans certains domaines tels que la prise en charge des handicaps, la gestion des élèves violents, la lutte contre le décrochage ou encore l’éducation au numérique. Il faut aussi que les enseignants apprennent à évaluer les « compétences sociales » des élèves (l’écoute, la patience, l’empathie, la solidarité, le travail en équipe, etc.) car ces compétences, encore peu valorisées aujourd’hui, sont indispensables à l’apprentissage de la citoyenneté ainsi qu’à l’insertion professionnelle.

Cinquième tabou : l’évaluation des enseignants. Il s’agit d’un problème majeur : dans l’enseignement secondaire, les professeurs sont inspectés en moyenne une fois tous les six ans, ce qui ne permet évidemment pas d’assurer un suivi efficace. Cette situation est liée au fait que les inspecteurs pédagogiques régionaux sont trop peu nombreux pour inspecter régulièrement tous les professeurs. De plus, le rapport d’inspection, qui va déterminer la note pédagogique de l’enseignant, se fonde sur une seule séance de cours qui n’est pas représentative du travail fourni par l’enseignant sur l’ensemble de ses classes et sur l’ensemble de l’année. Il faut donc réfléchir à d’autres modalités d’évaluation, telles que l’évaluation par les pairs (un ou plusieurs professeurs assistent à quelques cours d’un collègue pour le conseiller). Ce genre de pratiques existe déjà dans certains établissements de façon informelle : elle pourrait être généralisée et institutionnalisée.

Sixième tabou : le système d’affectation des enseignants. Il serait souhaitable de réformer l’actuel système de barème, qui privilégie trop souvent l’ancienneté au détriment du mérite. Le système est en effet conçu de telle sorte que les enseignants débutants, qui ont un barème faible, sont affectés prioritairement dans les établissements les plus difficiles alors qu’ils ont peu d’expérience. Il faut généraliser les postes à profil pour les établissements difficiles, avec des conditions plus attractives pour les enseignants (formation spécifique, indemnité conséquente, service allégé, emploi du temps aménagé de façon à favoriser le travail interdisciplinaire, etc). Par ailleurs, le système actuel encourage peu la mobilité des personnels enseignants : lorsqu’un professeur demande à changer d’établissement, il perd le bénéfice de son ancienneté sur le poste précédent. De plus, l’enseignant qui mute se retrouve exposé au risque de voir son nouveau poste supprimé en cas de réduction de la dotation horaire de l’établissement car, lorsqu’un poste est supprimé dans une discipline, on éjecte le « dernier arrivé ». Par conséquent, le système pénalise les enseignants qui mutent et favorise ceux qui restent longtemps sur le même poste. Or, des changements d’établissement plus fréquents inciteraient les enseignants à renouveler davantage leurs pratiques et permettraient, accessoirement, de fluidifier le mouvement des mutations. Il ne s’agit pas d’obliger les professeurs à muter tous les cinq ou dix ans, mais de mettre en place des conditions plus incitatives, par exemple en supprimant les points d’ancienneté sur poste et en créant une bonification spéciale pour les professeurs les plus mobiles au sein de leur académie.

Le libéralisme est un humanisme

Le libéralisme pourrait être défini comme un courant de pensée qui défend la liberté à la fois en tant que fin et en tant que moyen. Un libéral considère en effet que les libertés individuelles doivent être conquises et sauvegardées au moyen d’institutions démocratiques et d’une constitution limitant le pouvoir de l’Etat. Né du refus de l’absolutisme au XVIIe siècle, le libéralisme est un humanisme en ce sens qu’il défend la dignité de la personne humaine et veut protéger l’individu contre toute forme d’arbitraire. Il affirme l’existence de droits individuels inaliénables et universels, comme la liberté d’opinion et d’expression, la liberté de conscience et de culte, ou la présomption d’innocence. Il affirme aussi la capacité de chaque individu à se gouverner lui-même et à faire des choix rationnels et justes.

On confond souvent libéralisme politique et libéralisme économique (doctrine prônant la non-intervention de l’Etat dans la sphère économique). Certes, ces deux courants sont liés car aux yeux des premiers libéraux, il ne peut y avoir de libertés politiques sans libertés économiques (l’Etat ne doit ni opprimer les individus ni entraver les « lois du marché »). Cependant, plusieurs partis politiques s’inscrivent aujourd’hui dans la tradition politique libérale mais récusent le libéralisme économique. On confond également le libéralisme économique classique (celui d’Adam Smith et de David Ricardo) avec l’ultralibéralisme (aussi appelé néolibéralisme), qui n’est en somme qu’un intégrisme économique amputé de la composante philosophique et morale du libéralisme. Cet ultralibéralisme a émergé dans les années 1970, sous l’impulsion d’économistes comme Friedrich Hayek ou Milton Friedman, dans un contexte marqué par l’essoufflement de la croissance dans les pays industrialisés. Il ne doit pas être considéré comme le corollaire ou le prolongement de la pensée libérale classique. D’ailleurs, les théories néolibérales s’accommodent fort bien des dictatures et des régimes autoritaires, comme le Chili de Pinochet où l’on expérimenta de façon particulièrement brutale les politiques préconisées par les économistes ultralibéraux de l’Ecole de Chicago.

De nos jours, on constate que la critique des politiques économiques libérales sert de plus en plus souvent de prétexte à une remise en cause de la démocratie libérale elle-même. L’antilibéralisme revendiqué par certains populistes de gauche comme de droite s’accompagne parfois d’une véritable fascination pour des régimes autoritaires ou semi-autoritaires incarnant une alternative à la tradition libérale occidentale : la Russie de Poutine, l’Iran des ayatollahs ou encore la République Populaire de Chine. Mais c’est bien l’islamisme radical, notamment dans sa forme djihadiste, qui incarne aujourd’hui la négation la plus totale du libéralisme, parce qu’il nie la dignité humaine et qu’il combat la démocratie, les Droits de l’Homme, la diversité des opinions et des confessions, la sécularisation du politique, la primauté de l’individu sur le groupe, bref, l’idée même de liberté. L’islamisme radical nie l’individu en tant qu’être autonome, responsable de ses actes et capable de penser par lui-même. Il prône la soumission totale de l’homme à Dieu et prétend imposer, par la violence, une idéologie barbare au nom de laquelle sont perpétrés les crimes les plus inhumains et les plus lâches.

Bien sûr, la nécessaire lutte contre le terrorisme nous amène à questionner nos valeurs libérales et démocratiques. Les mesures prises par le gouvernement français après les attentats du 13 novembre (restauration des contrôles aux frontières, état d’urgence) restreignent certaines libertés comme la liberté de circulation, le droit de réunion ou le droit de manifestation. Les mesures prévues dans le cadre de l’état d’urgence tendent également à rogner des principes essentiels de notre démocratie tels que la séparation des pouvoirs ou la présomption d’innocence. Mais ces mesures ne portent pas atteinte à nos libertés si elles sont envisagées comme des mesures temporaires et comme des instruments permettant, dans des circonstances exceptionnelles, de mieux assurer la sécurité des citoyens, car il ne peut y avoir de libertés sans sécurité. L’état d’urgence doit être employé à la protection des citoyens et ne peut en aucun cas être détourné de sa finalité première. Nous devons, sur ce point, tirer les leçons de l’expérience américaine (rappelons que le « Patriot Act » avait été utilisé de façon abusive par les services de renseignement pour espionner des citoyens américains qui n’avaient aucun lien avec la menace terroriste). La guerre que nous menons contre Daesh à l’intérieur comme à l’extérieur de nos frontières ne vise pas seulement à protéger les citoyens, elle vise également à défendre notre modèle de civilisation, nos valeurs, nos libertés.

En ces temps d’incertitude idéologique et d’inquiétude face au terrorisme globalisé, il n’est peut-être pas inutile de prendre la défense du libéralisme, au sens philosophique du terme. Pour ce faire, je me contenterai de citer quelques extraits de La Révolution démocratique, un essai rédigé par l’un de mes amis, enseignant à la retraite et passionné d’histoire politique, qui a jadis milité au sein de la « deuxième gauche », celle qui dénonçait le totalitarisme soviétique et les crimes du communisme réel. Vous trouverez en fin d’article un lien vers le blog de l’auteur.

Extraits de La Révolution démocratique (par B.W.) :

Reprenant les thèses de nombreux auteurs politiques, nous ne considérons pas le libéralisme comme une doctrine placée sur le même pied que les autres. La société démocratique se caractérise en effet par le respect des Droits de l’Homme, un État désacralisé aux pouvoirs limités par une constitution et par des contre-pouvoirs, sans idéologie officielle, donc laïque ; par la distinction entre une sphère privée et une sphère publique ; par la primauté de l’individu autonome sur le groupe (…). Autrement dit, elle repose sur des valeurs libérales. Bref, pour reprendre ce qu’écrivait Karl Popper : « Le libéralisme est le cadre conceptuel de la société ouverte pluraliste dont la démocratie représentative constitue le cadre institutionnel. »

Il s’ensuit donc que les diverses familles politiques qui s’affrontent au sein de cette société (la droite libérale conservatrice, la droite bonapartiste ou gaulliste, le radicalisme, la démocratie chrétienne, le socialisme démocratique, l’écologisme, et même la tradition libertaire), tout en gardant leurs spécificités, partagent (ou en sont venues à partager), au moins partiellement, des valeurs d’origine libérale. (…) Les grandes divergences portent surtout sur le rôle de l’État dans le domaine économique et social. (…) La dichotomie entre la droite et la gauche n’est pertinente que dans une démocratie pluraliste. Ceux qui veulent la détruire se placent hors-système. Ce sont des « ultras », du latin « ultra » (« hors de »). Leur conversion récente à la démocratie est en effet plus que suspecte.

Certaines idéologies politiques ont voulu (ou veulent toujours) briser le cours de la révolution démocratique. Malgré leur grande diversité (et leurs féroces oppositions mutuelles), elles se caractérisent toutes par la volonté de détruire la société ouverte et de rétablir une société close dans laquelle une seule idéologie est légitime ; par leur volonté de rétablir le primat du groupe sur l’individu et d’assujettir celui-ci à une entité supérieure (Dieu, l’État, la « race », la classe sociale, etc.), de rétablir un État sacralisé et tout-puissant. Qu’elles soient antimodernes (c’est le cas le plus fréquent) ou pseudo-modernes (comme le léninisme, qui a détourné sans vergogne le sens des valeurs issues de la philosophie des Lumières), leur but est de remplacer la démocratie par une idéocratie, par la soumission à une seule idéologie, que nous définissons comme une construction intellectuelle qui prétend à l’intelligibilité totale du réel, qui explique le passé et l’avenir, qui assigne un but à l’histoire ; une conception du monde finaliste, qui nie pratiquement la liberté et qui s’oppose radicalement au libéralisme, pour lequel l’avenir est indéterminé (…). Les idéocraties se combattent férocement car il ne peut exister aucun pluralisme idéologique dans leur société idéale. Pour toutes, sans exception, le libéralisme constitue l’ennemi essentiel.

Il nous a semblé pertinent de distinguer entre les idéologies autoritaires et les idéologies totalitaires. Il existe de multiples interprétations du totalitarisme. On retiendra surtout que c’est d’abord un projet de domination totale de la société au moyen de la terreur institutionnalisée par un parti-État au service d’une idéologie incarnée par un chef charismatique. Il se caractérise aussi par la définition d’un « ennemi objectif » qu’il faut éliminer avant de rééduquer le reste de la population, de forger un homme nouveau entièrement au service de la Cause. Malgré leurs différences importantes, seuls le nazisme, le léninisme et sans doute l’islamisme radical méritent le qualificatif de totalitaires. Les autres idéologies anti-démocratiques (la contre-révolution traditionnelle, de type salazariste par exemple, le fascisme italien et les doctrines du même genre) seront qualifiées d’autoritaires ; le franquisme était quant à lui une dictature conservatrice. (…)

La démocratie a semblé triompher à la fin du XXème siècle. C’est en son nom que les pays sous domination soviétique, notamment, se sont soulevés. On a pu croire un moment qu’elle allait se répandre peu à peu et en particulier dans ces pays de l’est. Il a fallu déchanter, pourtant. Un bloc d’autocraties (Chine, Russie,…), qui répriment dans leurs frontières toute velléité démocratique, s’est constitué, s’est renforcé et s’est rapproché d’autres tyrannies (Corée du nord, Cuba, Syrie,…). Les nationalismes et les conflits géopolitiques reviennent en force. Quant au « Printemps arabe », il n’a pas fait long feu, et l’islamisme radical est plus fort que jamais.

Les démocraties souffrent surtout de leurs contradictions internes : disparition du lien social, insécurité économique, arrogance du pouvoir financier, pour n’en citer que quelques unes. Le populisme, le « peuple sans la démocratie » (Julliard), se développe (…). La démocratie peut disparaître. Aucune prétendue loi de l’histoire ne rend son avènement inéluctable. L’avenir est ouvert et indéterminé. Comme l’écrit Georges Burdeau, dans Le Libéralisme (éditions du Seuil) : « Les idéologies totalitaires peuvent se passer du concours des hommes, puisqu’elles les fabriquent. Le libéralisme ne le peut pas, car c’est à partir des hommes qu’il se construit. […] Que l’homme défaille, et la théorie s’effondre. » Les démocraties doivent aussi se méfier de l’ultra-démocratisme (« tout, et tout de suite ») que semble dénoncer E. Drewerman quand il parle du « caractère démoniaque de ceux qui visent à l’absolue pureté, qui la veulent sans compromis, sans délais, sans transiger, qui détruisent tout et qui ne comprendront jamais que ce monde qu’ils espèrent n’existera jamais, que seule existe cette réalité qui va du blanc au noir dans un chatoiement de nuances et de transitions. » Il n’y aura jamais de démocratie parfaite, seulement des démocraties plus ou moins abouties.

http://lepaysperdu.blogspot.fr/