Il y a 20 ans, le quinquennat

Il y a 20 ans, en septembre 2000, les Français adoptaient le quinquennat par référendum avec une large majorité. Ainsi le mandat présidentiel passa-t-il de sept à cinq ans.

Soutenu à l’époque par le Premier Ministre Lionel Jospin et le président de la République Jacques Chirac, le quinquennat avait pour objectif de démocratiser la Cinquième République en donnant aux Français la possibilité de congédier plus rapidement leur président. Il faut rappeler que le septennat était une tradition très ancienne : il fut en effet instauré en 1873, au début de la Troisième République. A l’origine, ce long mandat présidentiel était un compromis entre les royalistes (qui voulaient un « mandat de monarque » pour préparer la restauration) et les républicains (partisans d’un mandat plus court).

Mais le quinquennat avait aussi un autre objectif : limiter les risques de cohabitation. De fait, en alignant le mandat présidentiel sur le mandat législatif, on rend les cohabitations quasi impossibles. Et de ce point de vue, le quinquennat est plutôt un succès : depuis 2002 la France n’a jamais connu de cohabitation, car les Français ont pour habitude de donner une majorité au président qu’ils viennent d’élire.

De nos jours le quinquennat est pourtant critiqué, pour plusieurs raisons. Tout d’abord, le quinquennat a provoqué une accélération du temps politique : avec un mandat de cinq ans, la question de la réélection se pose plus rapidement et empêche l’exécutif de proposer une vision de long terme. La quinquennat a aussi accentué la présidentialisation de la Cinquième République : il a transformé le président de la République en chef de majorité, en « hyperprésident », loin de la conception gaullienne d’un président garant des institutions, placé au-dessus de la mêlée politicienne.

Alors que faire ? Le quinquennat a-t-il fait son temps ? En 2016, Alain Juppé proposait de le remplacer par un septennat non renouvelable. Plus récemment, Xavier Bertrand s’est prononcé en faveur d’un mandat présidentiel de six ans, une sorte de compromis entre l’actuel quinquennat et l’ancien septennat. Personnellement, je ne crois pas que modifier à nouveau la durée du mandat présidentiel soit un moyen efficace de régénérer nos institutions. Et je pense que toute augmentation du mandat présidentiel serait vécue par les Français comme un recul démocratique, dans un régime où le président de la République dispose de pouvoirs particulièrement importants.

Depuis la révision constitutionnelle de 2008, un président ne peut faire que deux quinquennats consécutifs : c’est à mes yeux une formule satisfaisante, même si elle est imparfaite. Si l’on veut repenser les institutions de la Cinquième République, il faut jouer sur d’autres leviers : redéfinir le périmètre des pouvoirs présidentiels, redéfinir la fonction du Premier Ministre, renforcer les prérogatives du Parlement, assouplir la procédure du « référendum d’initiative partagée » et, surtout, introduire une dose de proportionnelle dans les scrutins législatifs afin d’améliorer la représentativité de l’Assemblée nationale.

Faut-il détruire les vestiges de notre passé colonial?

Suite à la mort de George Floyd à Minneapolis, plusieurs statues de personnages liés à la colonisation et à l’esclavage ont été déboulonnées au Royaume-Uni, en Belgique et aux Etats-Unis. Cet iconoclasme frénétique a aussi gagné la France, où le débat sur l’héritage colonial n’est pas nouveau : deux statues de Victor Schœlcher ont été détruites en Martinique et la statue de Jean-Baptiste Colbert à l’entrée de l’Assemblée nationale a été vandalisée.

Détruire les statues de personnages impliqués dans la colonisation témoigne d’une vision superficielle, restrictive et univoque de notre passé. La statue de Colbert devant l’Assemblée nationale ne rend pas hommage à l’inspirateur du « Code Noir » mais au réformateur de génie qui a développé le grand commerce et l’industrie sous le règne de Louis XIV. Victor Schœlcher est l’auteur du texte de loi qui a définitivement aboli l’esclavage dans les colonies françaises en 1848 ; l’indemnisation des propriétaires d’esclaves, mesure attribuée à tort à Victor Schœlcher, est en fait l’œuvre de Louis-Napoléon Bonaparte en 1849. Si le général Faidherbe a droit à sa statue équestre en plein centre de Lille, et si de nombreuses rues portent son nom dans les villes du nord de la France, ce n’est pas à cause de son rôle dans la colonisation du Sénégal mais de son rôle dans la guerre contre les Prussiens en 1870-71. Vouloir détruire les statues de personnages tels que Schœlcher, Faidherbe ou Colbert témoigne donc d’une mauvaise compréhension du passé : la présence de ces statues doit être expliquée et recontextualisée.

Détruire des statues témoigne aussi d’une regrettable confusion entre mémoire et patrimoine. La mémoire désigne le souvenir – nécessairement subjectif et sélectif – qu’une communauté entretient de son propre passé. Le patrimoine désigne quant à lui l’ensemble des œuvres que nous avons reçues en héritage de nos prédécesseurs et que nous cherchons à conserver, non pour des raisons politiques ou idéologiques, mais parce que nous reconnaissons à ces œuvres une valeur intrinsèque. Les rues de nos grandes villes sont de véritables musées à ciel ouvert : elles recèlent un patrimoine artistique, monumental et architectural inestimable. Les statues de Colbert ou de Faidherbe ne sont pas une justification de la colonisation. La présence de ces statues dans l’espace public aujourd’hui ne signifie pas que l’on voue un culte à ces hommes dans la France du XXIe siècle : elle signifie simplement que ces hommes ont joué un rôle important dans l’histoire du pays.

Effacer les traces de notre passé colonialiste et esclavagiste dans l’espace public n’effacera en rien les crimes de la colonisation. Plutôt que de chercher à supprimer toutes les références au projet colonial en déboulonnant  des dizaines de statues et en renommant des milliers de rues, d’écoles et de places publiques dans tout le pays, ne faut-il pas plutôt assumer notre passé colonial, y compris dans ses aspects les plus sombres ? C’est sur le terrain du droit qu’il faut agir, et non en estropiant notre patrimoine artistique et monumental. La loi Taubira de 2001 a reconnu l’esclavage et la traite humaine comme crime contre l’humanité : il s’agit d’une avancée majeure dont peu d’anciens pays colonisateurs peuvent s’enorgueillir. Mais il faudra peut-être aller plus loin et reconnaître la colonisation elle-même comme un crime contre l’humanité : c’est l’idée qu’avait avancée Emmanuel Macron en 2017 lors d’un voyage en Algérie.

Jésus a-t-il existé ?

Jésus Christ Pancrator, icône du XIIIe s., basilique Sainte Sophie (Constantinople).

Jésus a-t-il existé ? Cette question passionnante, qui touche aux fondements mêmes de la chrétienté, a fait couler beaucoup d’encre dans les milieux savants du XIXe siècle. Mais de nos jours, il faut bien admettre que ce débat n’intéresse plus grand-monde au sein de la communauté scientifique. On peut même dire que le débat est clos car, d’après les archéologues et les historiens spécialistes du christianisme ancien, il n’y a plus aucune raison sérieuse de mettre en doute l’existence de Jésus. Pourtant, certaines publications continuent d’affirmer que Jésus n’a jamais existé. Sur Internet, de nombreux experts autoproclamés prétendent pouvoir « démontrer » que Jésus est un personnage imaginaire. Ainsi, en 2015, le journaliste Eric Leser, fondateur du site Slate.fr, a publié un article intitulé « Cinq raisons pour lesquelles Jésus n’aurait jamais existé » : dans cet article abondamment partagé sur les réseaux sociaux, Eric Leser avance des arguments d’une confondante naïveté pour contester l’historicité de Jésus. Mais la figure la plus médiatique de cette mouvance n’est autre que Michel Onfray : dans ses conférences et dans ses livres, ce philosophe connu pour son athéisme militant cherche à démontrer que Jésus est un mythe forgé de toutes pièces par la tradition chrétienne.

L’argumentation de Michel Onfray s’appuie sur une critique radicale des sources : d’après le philosophe, aucun des textes anciens mentionnant Jésus n’est fiable sur le plan historique. Michel Onfray, qui n’est pas historien de formation, ne fait que reprendre à son compte une vieille théorie qualifiée de « mythiste ». Cette théorie est apparue à la fin du XVIIIe siècle et a connu un certain succès en Europe jusqu’aux années 1930. Michel Onfray se réfère d’ailleurs à des auteurs appartenant à ce courant de pensée, tels que l’historien français Prosper Alfaric qui publia dans l’entre-deux-guerres plusieurs articles sur le problème de l’existence de Jésus. Mais les références bibliographiques de Michel Onfray sont périmées car, depuis les années 1930, la recherche sur le christianisme ancien a beaucoup progressé. La théorie « mythiste » que défend Michel Onfray ne reflète pas du tout l’état des connaissances actuelles.

Aujourd’hui, les historiens n’ont plus aucun doute sur le fait qu’un prédicateur nommé Jésus (Yeshoua en araméen) soit mort crucifié à Jérusalem au Ier siècle de notre ère. Mais ils prennent soin de distinguer le « Jésus historique » du « Jésus de la tradition ». Le « Jésus historique » est un personnage bien réel dont on ne sait pas grand-chose ; le « Jésus de la tradition » est un personnage mythique dont la vie et la personnalité ont été façonnées par la tradition chrétienne durant les trois premiers siècles de notre ère. Au bout du compte, que sait-on vraiment du « Jésus historique » ? Les historiens s’accordent sur le fait que Jésus était originaire de Galilée, qu’il a vécu dans l’entourage de Jean Baptiste sur les rives du Jourdain, qu’il a ensuite entamé une carrière de prédicateur itinérant et qu’il a recruté plusieurs disciples avant d’être condamné, torturé puis crucifié à Jérusalem vers l’an 30 sur décision du préfet Ponce Pilate. En revanche, la plupart des actes et des paroles attribués à Jésus dans les évangiles relèvent de la tradition chrétienne et sont impossibles à authentifier sur le plan historique.

Pourquoi les historiens pensent-ils que Jésus a existé ? Parce que Jésus est l’un des personnages les plus abondamment documentés de l’Antiquité : il est mentionné dans une cinquantaine de textes différents écrits entre le Ier et le IIIe siècle, ce qui est tout à fait remarquable pour un homme n’ayant exercé aucune fonction importante au sein de l’Empire romain. La plupart des textes anciens qui mentionnent Jésus sont des textes chrétiens, comme les évangiles. Mais l’existence de Jésus est aussi attestée par quelques sources non chrétiennes : Flavius Josèphe, historien juif né à Jérusalem, fait une brève allusion à Jésus Christ dans le livre XX des Antiquités Judaïques, ouvrage rédigé à la fin du Ier siècle. Plusieurs auteurs païens mentionnent également Jésus : ainsi, au début du IIe siècle, dans le livre XV des Annales, l’historien romain Tacite évoque un homme appelé « Christos » qui fut supplicié par Ponce Pilate sous le règne de l’empereur Tibère. Vers l’an 120, l’historien romain Suétone évoque, dans sa Vie de Claude, un certain « Chrestus » que la plupart des critiques identifient à Jésus Christ. Le personnage de Jésus a donc retenu l’attention de plusieurs historiographes non chrétiens au Ier et au IIe siècle, ce qui n’est pas anodin.

On imagine difficilement comment Jésus aurait pu laisser autant de traces dans les sources des trois premiers siècles sans avoir existé. D’ailleurs, aucun auteur de l’Antiquité n’a jamais contesté l’existence de Jésus, y compris parmi les auteurs les plus hostiles au christianisme : si Jésus n’était qu’un mythe, les polémistes juifs et païens n’auraient sans doute pas manqué d’utiliser cet argument dans les pamphlets qu’ils ont consacrés à la religion chrétienne et à ses adeptes. En outre, certains éléments de la vie de Jésus étaient très embarrassants pour les premières communautés chrétiennes : il est donc peu probable que ces éléments aient été inventés par les chrétiens. C’est le cas de la crucifixion : ce châtiment, réservé aux pires crapules de l’Empire romain, consiste à clouer vivant le condamné sur une croix puis à laisser son cadavre pourrir à l’air libre pendant plusieurs jours. La crucifixion était le plus infâme des châtiments romains : dans ces conditions, pourquoi les premiers chrétiens auraient-ils inventé l’épisode de la crucifixion de Jésus ?

Les partisans de la théorie « mythiste » insistent sur le fait qu’aucun document officiel ne vient confirmer l’existence de Jésus de Nazareth : en effet, on n’a retrouvé aucun décret, aucun document administratif, aucun procès verbal qui fasse mention de Jésus. Mais cela n’a rien d’étonnant car Jésus n’était ni un responsable politique, ni un fonctionnaire de l’administration impériale, ni un membre de l’armée romaine, ni un haut dignitaire religieux. L’interrogatoire et le supplice de Jésus ont probablement fait l’objet de procès verbaux, mais ces documents n’ont pas été conservés. Il faut bien comprendre que l’histoire ancienne est une science de la rareté : les sources anciennes qui sont parvenues jusqu’à nous sont de simples fragments du passé. L’immense majorité des textes produits durant l’Antiquité, qu’il s’agisse de textes littéraires ou de documents administratifs, n’a pas été conservée : ces documents sont définitivement perdus ! Mettre en doute l’existence de Jésus sous prétexte qu’il n’est mentionné dans aucun document officiel est d’assez mauvaise foi car, avec un tel raisonnement, on basculerait facilement dans une sorte de négationnisme absurde qui conduirait à nier l’existence de nombreux autres personnages de l’Antiquité.

Les partisans de la théorie « mythiste » insistent également sur le fait que Jésus n’est connu qu’à travers des sources indirectes : effectivement, tous les textes qui mentionnent Jésus ont été rédigés après sa mort. Les sources les plus anciennes datent de la seconde moitié du Ier siècle : les épîtres de Paul ont été rédigées entre l’an 40 et l’an 65 ; l’évangile de Marc, considéré comme le plus ancien des évangiles, a été rédigé entre 60 et 75. Cela suffit-il à mettre en doute l’historicité de Jésus ? Non, car de nombreux personnages de l’Antiquité ne sont connus qu’à travers des sources indirectes. C’est le cas, par exemple, de Socrate : comme Jésus, il n’a laissé aucun écrit ; tous les textes qui le mentionnent ont été rédigés après sa mort, à commencer par les fameux dialogues de son discipline Platon. Alexandre le Grand fournit aussi un exemple intéressant. Toutes les sources littéraires qui parlent de lui ont été produites longtemps après sa mort : la plus ancienne source connue est la Bibliothèque Historique de Diodore de Sicile, écrite plus de 200 ans après la mort d’Alexandre. Et pourtant, personne ne met en doute l’existence de Socrate ni celle d’Alexandre le Grand.

En résumé, il n’existe aucune preuve irréfutable de l’existence de Jésus mais, à la lumière des sources dont disposent les historiens, l’existence de Jésus apparaît aujourd’hui comme une hypothèse beaucoup plus crédible que sa non-existence. Petite précision utile : les historiens qui étudient les débuts du christianisme ne sont ni des curés ni des théologiens. Ce sont des scientifiques. Ils ne cherchent pas à faire de prosélytisme ; ils n’ont aucun intérêt particulier à « prouver » que Jésus a existé. Ils essaient simplement d’établir les faits avec le plus de rigueur et d’objectivité possible. Dans ce débat sur l’existence de Jésus, le dogmatisme n’est pas forcément du côté que l’on croit : l’acharnement avec lequel certains individus nient l’historicité de Jésus ne relève certainement pas d’une démarche scientifique et objective.

9 novembre 1989, ce jour qui a changé le visage de l’Europe

Il y a 30 ans, dans la nuit du 9 au 10 novembre 1989, les Berlinois de l’Est passaient librement à l’Ouest : le Mur de la Honte commençait à vaciller sous les pioches et les marteaux. La chute du Mur de Berlin mit un terme à la guerre froide et referma le long cycle de conflits européens ouvert en 1914. Elle permit la réunification de l’Allemagne et relança la construction européenne : en 1992, le Traité de Maastricht donna naissance à l’Union européenne et posa les bases de la monnaie unique. La chute du Mur de Berlin a aussi amorcé un processus inédit et spectaculaire d’unification politique du continent européen : en effet, après un demi-siècle de dictature communiste, les pays d’Europe centrale et orientale sont devenus des démocraties et ont, dans leur grande majorité, rejoint l’Union européenne. Commémorer la chute du Mur de Berlin est donc l’occasion de réfléchir sur l’importance des valeurs que partagent les nations européennes, au-delà des fractures infligées par les accidents de l’histoire. N’ayons pas peur de rappeler ces valeurs cardinales qui constituent le socle même du projet européen : les Droits de l’Homme, la démocratie, la liberté, la paix, la solidarité.

En Allemagne, la réunification fut un succès politique. L’ex-RDA fut absorbée par la RFA, englobée dans l’économie sociale de marché, intégrée à l’OTAN et à la Communauté européenne. Mais le plus remarquable, c’est surtout la stabilité de la démocratie allemande. Le modèle de la République Fédérale, élaboré par et pour les Allemands de l’Ouest sur les ruines du nazisme, s’est parfaitement greffé sur l’Allemagne de l’Est et n’a jamais été remis en cause depuis la réunification. D’ailleurs, de nombreuses personnalités politiques allemandes sont issues des Lander de l’Est, à commencer par la chancelière Angela Merkel. Néanmoins, la réunification reste inachevée sur le plan économique : les Lander de l’Est, qui sont passés brutalement du communisme au capitalisme au début des années 90, accusent encore aujourd’hui des retards par rapport à l’Ouest, ils sont plus pauvres et ont un taux de chômage plus élevé. Les difficultés économiques de l’Est alimentent une forme de nostalgie du communisme, une « Ostalgie », y compris chez de jeunes Allemands qui n’ont pas connu la RDA. 

A l’échelle européenne, le bilan de la réunification est assez paradoxal. Les nations d’Europe centrale et orientale qui se sont jetées dans les bras de l’Union européenne et qui ont bénéficié de subventions massives et de nombreux investissements venus de l’Ouest sont aujourd’hui les nations les plus critiques envers la construction européenne. Le projet européen est fortement fragilisé car il est aujourd’hui contesté jusque dans sa légitimité. Alors que les Britanniques s’apprêtent à quitter l’Union, alors que les nationalismes et les populismes se réveillent un peu partout, en Pologne et en Hongrie, en Autriche, en Italie, en Allemagne et même en France avec le Rassemblement National, n’oublions pas tout le chemin parcouru depuis 1989 : l’unification du continent européen, l’extension de la démocratie en Europe centrale et orientale, et le décollage économique spectaculaire des pays de l’Est qui ont rejoint l’Union européenne. A l’heure où certains rêvent de déconstruire ou d’affaiblir l’Europe, n’oublions pas la grande leçon de ces 30 dernières années : ce qui unit les nations européennes est plus important que ce qui les oppose.

Génération Chirac

Je suis né et j’ai grandi sous Mitterrand, mais je me suis éveillé à la politique sous Chirac. La présidentielle de 1995 est la première élection à laquelle je me suis intéressé. La présidentielle de 2002 est celle de mon tout premier vote : après avoir choisi Bayrou au premier tour, j’ai voté Chirac au second tour sans la moindre hésitation, pour faire barrage à Le Pen, et avec le sentiment grisant de participer à une élection historique. J’appartiens à la « génération Chirac ». Je n’ai jamais été « chiraquien » mais j’ai toujours eu beaucoup de sympathie et d’estime pour Jacques Chirac.

Le chiraquisme est un objet politique assez difficile à définir car Jacques Chirac a fait preuve, tout au long de sa carrière, d’une impressionnante plasticité idéologique ; c’est d’ailleurs pour cette raison que ses détracteurs voyaient en lui un opportuniste patenté sans réelles convictions. Je crois plutôt que Chirac était un animal politique protéiforme. En fait, il y a eu plusieurs Jacques Chirac : le Chirac pompidolien, l’agro-Chirac, le Chirac keynésien, le Chirac souverainiste, le Chirac néolibéral, le Chirac social-démocrate qui fait campagne sur le thème de la « fracture sociale », le Chirac conservateur qui prône la rigueur budgétaire, le Chirac écolo, le Chirac humaniste qui fait barrage au Front National. Bien qu’il s’imposât dès le milieu des années 70 comme le leader de la droite française avec la création du RPR, Chirac était en réalité plus proche du radical-socialisme façon Troisième République, de par son attachement à la France des terroirs, aux libertés individuelles, aux idéaux républicains et à la laïcité.

Mais si Chirac était populaire, ce n’était pas tant pour ses idées que pour son personnage, à la fois charismatique et délicieusement franchouillard. Certes, Jacques Chirac traînait des casseroles, et pas des moindres. Il y eut l’affaire des emplois fictifs de la mairie de Paris et celle des HLM de Paris. Il y eut « le bruit et l’odeur ». Il y eut la relance des essais nucléaires dans le Pacifique. Il y eut les guerres de clan et les luttes fratricides : Chirac a tué Chaban-Delmas, puis Giscard ; il aurait bien aimer tuer Sarkozy. Mais de Jacques Chirac, la postérité retiendra surtout les grandes intuitions et les décisions courageuses : Chirac a supprimé le service militaire et accéléré la nécessaire professionnalisation de nos armées, il a reconnu officiellement la responsabilité de l’Etat français dans l’extermination des juifs, il a ouvert le débat sur la question de la fin de vie, il s’est opposé à la guerre d’Irak en 2003, il a joué un rôle de médiateur dans le conflit libanais, il a perpétué une certaine tradition diplomatique gaullienne attachée à l’indépendance de la France et au dialogue entre les peuples. Chirac était apprécié et respecté sur la scène internationale ; il a fait rayonner la France dans le monde, même lorsqu’il était confronté à de grandes difficultés intérieures. Chirac était aussi un homme d’une grande sensibilité artistique, un passionné d’anthropologie, un amoureux des cultures autochtones et des arts premiers : il nous a légué le superbe musée du Quai Branly, qui porte désormais son nom.

Une certaine idée gaullienne de la France, une sensibilité radical-socialiste et un incroyable opportunisme politique : c’est peut-être cela, le chiraquisme. La grande erreur de Chirac, à mes yeux, c’est de ne pas avoir tiré tous les enseignements du séisme politique du 2002. Si Jacques Chirac a été réélu avec 82% des suffrages, c’est parce qu’un front républicain s’est constitué autour de lui pour faire barrage à l’extrême droite. Chirac aurait dû tendre la main aux électeurs de gauche qui avaient voté pour lui au second tour ; il aurait dû mettre en place un gouvernement d’union nationale, ouvert à toutes les sensibilités républicaines de la droite, du centre et de la gauche. Mais au lieu de gouverner avec ses 82% du second tour, Chirac s’est replié sur ses 20% du premier tour. Je crois qu’à ce moment-là, il a manqué de lucidité, car il n’a pas pris la mesure de ce qui était en train de se passer dans le pays.

Adieu, Jacques Chirac.

Les Trente Glorieuses ont-elles existé ?

Camping à Saint-Tropez en 1965.

L’expression « Trente Glorieuses », qui fait écho à la révolution des « Trois Glorieuses » de juillet 1830, est apparue en 1979 sous la plume de l’économiste Jean Fourastié : elle désigne, comme on le sait, les trois décennies qui ont suivi la Seconde Guerre mondiale et qui se caractérisent par une forte croissance économique, une situation de plein emploi et une augmentation spectaculaire du niveau de vie, aussi bien en France que dans les autres pays industrialisés. Cette période faste, qui a pris fin en 1973 avec le premier choc pétrolier, nourrit encore de nos jours une puissante nostalgie. Dans une France minée par la désindustrialisation, le chômage de masse et la montée des inégalités, les Trente Glorieuses apparaissent en effet comme une sorte d’âge d’or ; elles évoquent le temps béni d’une prospérité accessible à tous et d’un capitalisme industriel efficacement régulé par l’Etat. Les Trente Glorieuses ont-elles vraiment existé ou sont-elles une sorte d’illusion rétrospective ?

Indéniablement, les Trente Glorieuses ont été une période de progrès sur le plan social comme sur le plan matériel. Les travaux de Jean Fourastié, fondés sur un examen approfondi des données statistiques, montrent que les conditions de vie des Français ont connu une amélioration sans précédent de 1944 à 1973. Cela s’explique notamment par la hausse de la productivité et des revenus. La mortalité a fortement reculé grâce à l’amélioration de la couverture vaccinale et à la mise en place, dès 1945, d’un système universel de Sécurité Sociale. La modernisation de l’agriculture a permis d’augmenter considérablement les rendements agricoles et d’améliorer l’alimentation de la population. C’est aussi pendant les Trente Glorieuses que les Français sont pleinement entrés dans la société de consommation et de loisirs, grâce à l’augmentation du temps libre, à la naissance des supermarchés et au développement du crédit à la consommation. Les Trente Glorieuses ont été une période optimiste dans la mesure où les Français avaient confiance en l’avenir : les gens ne vivaient pas dans l’angoisse du déclassement, et les parents avaient la certitude que leurs enfants auraient de meilleures conditions de vie qu’eux.

Il convient toutefois de ne pas idéaliser les Trente Glorieuses. On aurait tort de s’imaginer qu’en ce temps-là, tout était plus simple qu’aujourd’hui. Si les conditions de vie se sont considérablement améliorées pendant les trente années d’après-guerre, c’est parce que la situation en 1945 était calamiteuse : les Trente Glorieuses ont été une période de rattrapage pendant laquelle les nations d’Europe occidentale ont parachevé leur processus de développement. La France de 1945 était un champ de ruines ; une partie non négligeable de la population vivait alors dans un grand dénuement. Les années de l’immédiat après-guerre ont été particulièrement difficiles : le manque de logements était un problème majeur, les pénuries alimentaires continuèrent bien après la fin de la guerre et les tickets de rationnement ne furent supprimés qu’en 1949. Lorsque les premiers « grands ensembles » furent construits à la fin des années 50, on y logea des dizaines de milliers de Français qui vivaient auparavant dans des taudis. Sur le plan matériel, la vie durant les Trente Glorieuses était beaucoup plus dure qu’aujourd’hui : le confort domestique n’était pas celui que nous connaissons maintenant. Les journées de travail étaient plus longues et plus pénibles, notamment pour les ouvriers : dans les années 60, en France, l’espérance de vie des hommes ne dépassait pas 65 ans (contre 79 ans aujourd’hui).

Par ailleurs, il ne faut pas oublier que la croissance économique a laissé beaucoup de gens sur le bord de la route. Les travailleurs immigrés constituaient une main d’œuvre corvéable à merci et vivaient en marge de la société de consommation. D’importants bidonvilles peuplés de familles immigrées s’étalaient en périphérie des grandes villes : au milieu des années 60, en France, les bidonvilles accueillaient une population de quelque 100.000 individus ; le plus connu, celui du Petit-Nanterre, abritait 14.000 personnes principalement venues du Maghreb. En outre, la croissance exceptionnelle des Trente Glorieuses a eu un coût écologique effroyablement lourd : la pollution et la consommation d’énergies fossiles ont littéralement explosé. La révolution agricole a entraîné l’émergence d’une agriculture productiviste fondée sur l’utilisation massive d’intrants chimiques. Il faut bien admettre que, pendant les Trente Glorieuses, les problèmes écologiques étaient largement ignorés : c’est dans les années 70 qu’émergea l’écologie politique. C’est en 1972 que le Club de Rome publia son fameux Rapport sur les limites de la croissance. Et c’est dans les années 80 qu’apparut le concept de développement durable, théorisé dans le rapport Brundtland de 1987. Cette prise de conscience planétaire était bel-et-bien la conséquence des Trente Glorieuses et de leur modèle de croissance énergivore et consumériste, modèle dont nous avons tant de mal à sortir aujourd’hui.

Les Trente Glorieuses ont eu un autre effet pervers non négligeable. Elles ont brouillé nos repères économiques : elles ont ancré dans nos esprits l’idée que la haute croissance et le plein emploi étaient une situation « normale » et que, par conséquent, le retour au plein emploi constituait un objectif réaliste pour les responsables politiques. Mais les Trente Glorieuses ne furent qu’une parenthèse, un moment tout à fait exceptionnel dans l’histoire du capitalisme. La forte croissance mesurée pendant les Trente Glorieuses était liée à des conditions très particulières : la reconstruction ; le « baby boom » ; la généralisation du modèle tayloro-fordiste fondé sur le travail à la chaîne ; un pétrole abondant et bon marché ; un Tiers monde sous-industrialisé incapable de concurrencer les pays riches. Or, tous ces facteurs ont disparu de façon irrémédiable : l’Europe est en paix depuis 70 ans, ce qui exclut toute politique de reconstruction à grande échelle ; la natalité des pays européens est structurellement faible ; l’automatisation de la production a rendu le modèle fordiste obsolète ; le pétrole coûte cher et les réserves s’épuisent. Mais surtout, la mondialisation a redistribué les cartes : les vieilles puissances industrielles sont désormais concurrencées par des pays émergents qui occupent une place de plus en plus grande sur le marché mondial.

Les Trente Glorieuses ont aussi ancré dans nos esprits l’idée que l’Etat était le moteur de la croissance. Or, la croissance économique ne se décrète pas. L’Etat peut mettre en place un cadre de régulation garantissant une plus grande stabilité économique ; il peut redistribuer la richesse de façon plus juste et orienter les investissements vers les secteurs considérés comme prioritaires. Mais l’Etat ne peut pas faire jaillir la richesse comme par enchantement. Pendant les années d’après-guerre, la croissance économique générait d’importantes recettes fiscales qui, à leur tour, permettaient à l’Etat d’investir massivement dans les infrastructures et les services publics. Or, depuis les années 1970, l’Etat français est en déficit chronique ; la dette publique n’a cessé de s’alourdir pour dépasser aujourd’hui les 2.300 milliards d’euros, soit l’équivalent d’une année de PIB. Les efforts mis en œuvre pour maîtriser les dépenses publiques ne permettent plus à l’Etat d’intervenir aussi massivement dans l’économie : la rigueur budgétaire est devenue la règle.

Il est donc temps de faire notre deuil des Trente Glorieuses. La forte croissance économique des années d’après-guerre était le fruit d’une conjoncture exceptionnelle et non reproductible : la nostalgie des Trente Glorieuses ne doit pas nous empêcher de penser l’avenir et d’imaginer d’autres modèles de croissance, plus durables et mieux adaptés aux défis du XXIe siècle.

1918, la mémoire et l’histoire

Ossuaire de Douaumont.

A travers le centenaire de l’armistice, que commémore-t-on ? La paix ou la victoire ? Aujourd’hui, la mémoire officielle met surtout en avant la paix. En effet, même si les combats se poursuivent après 1918 sur le front Est et au Moyen-Orient, l’armistice du 11 novembre marque la fin de quatre années de boucheries sur le front Ouest. En 1918, la fin des combats est accueillie avec un immense soulagement par l’opinion publique française : au lendemain du conflit, le pacifisme triomphe. Partout la guerre est dénoncée comme une folie : « Plus jamais ça », répète-t-on alors. La paix ouvre également la voie vers une réconciliation franco-allemande, dont le Français Aristide Briand et l’Allemand Gustav Stresemann vont devenir les précieux artisans. De ces espoirs de paix vont aussi naître les germes du projet européen, l’idée d’une justice pénale internationale pour juger les crimes de guerre et celle d’un arbitrage multilatéral des conflits, incarnée par la Société des Nations.

Mais pour les Français de 1918, l’armistice est également synonyme de victoire. Bon nombre de monuments aux morts glorifient le sacrifice des soldats, mettent en avant des messages patriotiques et sont ornés d’allégories de la Victoire. La victoire française est importante sur le plan historique, parce que c’est l’Allemagne qui a attaqué la France en 1914, et parce que la France a subi quatre longues années d’occupation dans le nord et l’est du pays. Cette victoire est importante aussi parce qu’elle vient effacer l’humiliation de 1870-71 et permet à la France de récupérer l’Alsace et la Moselle, les fameuses « provinces perdues ». Enfin, cette victoire a consolidé la légitimité du régime républicain : il ne faut pas oublier qu’avant 1914, la République était encore combattue par les ligues d’extrême droite et par une partie de l’Eglise catholique. Plus globalement, la victoire de 1918 apparaît comme une victoire des nations démocratiques (Angleterre, France, Etats-Unis) sur les Empires autoritaires (Allemagne, Empire austro-hongrois, Empire ottoman).

Dans cette perspective, il n’est pas absurde de rappeler le rôle important joué par les quelques généraux français qui ont contribué à la victoire de 1918 comme Foch, Lyautey, Maunoury et, n’ayons pas peur de le dire, Pétain. Philippe Pétain, qui n’était pas considéré comme un grand général avant la Première Guerre mondiale, est devenu un héros national en résistant à l’offensive allemande sur Verdun en 1916. Certes, il a fait fusiller quelques mutins pour mettre un terme à la vague de mutineries de 1917, mais il a aussi amélioré les conditions de vie des Poilus sur le front. Contrairement à certains généraux qui, tels Nivelle, étaient détestés en raison de leur incompétence, Pétain était admiré des soldats français de la Première Guerre mondiale et jouissait, en outre, d’une immense popularité dans la société civile à la fin du conflit. Dire cela, ce n’est pas faire œuvre militante, ce n’est pas chercher à réhabiliter Pétain, ce n’est pas faire du Zemmour ni du Le Pen. C’est simplement rappeler des faits historiques.

Quand Emmanuel Macron choisit de citer le nom de Pétain parmi les généraux français qui ont permis la victoire de 1918, il a raison d’un point de vue historique. Mais d’un point de vue moral, la déclaration du président est dérangeante, car Pétain, c’est aussi Vichy, la « révolution nationale », le Statut des juifs et la collaboration avec l’Allemagne nazie. Pétain, le héros de Verdun, fut frappé d’indignité à la Libération, privé de tous ses titres et condamné à la peine capitale pour intelligence avec l’ennemi (peine ensuite commuée en prison à perpétuité). Pétain nourrit encore aujourd’hui un sentiment de honte nationale, il incarne les heures les plus sombres de l’histoire contemporaine de la France. C’est pourquoi la mémoire officielle a toujours banni Pétain de toutes les cérémonies et de tous les hommages. Et quand François Mitterrand se rendait à l’Île d’Yeu pour se recueillir sur la tombe de Pétain, il le faisait à titre personnel, dans la plus grande discrétion.

La mémoire n’est pas l’histoire. L’histoire est la connaissance des faits passés, dans toute leur complexité ; la mémoire est le souvenir, nécessairement subjectif et sélectif, qu’une société entretient de son propre passé, en fonction des exigences morales et des attentes politiques du présent. L’allusion à Pétain dans le discours de Macron était historiquement justifiée, mais c’était une faute morale au regard de tout ce que représente le fondateur du régime de Vichy. Le plus regrettable, dans la polémique provoquée par les mots du président de la République, c’est qu’elle vient troubler l’atmosphère consensuelle et apaisée qui règne autour des commémorations du centenaire de la Grande Guerre.

Faurisson: la mort d’un faussaire

R. Faurisson.

Figure emblématique du négationnisme, Robert Faurisson est décédé à l’âge de 89 ans. Il s’était fait connaître en développant la thèse de « l’impossibilité technique » du gazage des juifs. Pendant des années, Faurisson a en effet cherché à « démontrer » que les chambres à gaz d’Auschwitz-Birkenau n’avaient pas servi à l’extermination des juifs : selon lui, elles n’auraient servi qu’à éliminer les poux…

Faurisson était un faussaire. Il n’était ni historien, ni chimiste, ni ingénieur. Ses publications n’ont aucun caractère scientifique. Son expertise en matière de gazage est nulle. Le travail qu’il a mené sur les chambres à gaz n’est pas un travail d’historien, car Faurisson n’a jamais cherché à établir les faits de façon objective : il étudiait les sources pour elles-mêmes, sans les recontextualiser ni les confronter les unes aux autres, et en proposait une interprétation fantaisiste dans le seul but de nier le gazage des juifs. Il est important de rappeler que le négationnisme n’est pas une « école historique » : les négationnistes se situent en dehors du débat historique précisément parce qu’ils se soustraient à toutes les règles qui encadrent le travail des historiens. C’est pourquoi les vrais historiens ont toujours refusé de débattre avec Faurisson : accepter de discuter d’égal à égal avec les négationnistes, c’est leur reconnaître une expertise qu’ils n’ont pas. C’est leur offrir une tribune qu’ils ne méritent pas.

Je ne me lancerai pas ici dans une déconstruction des arguments fallacieux de Faurisson : d’autres l’ont déjà fait avec brio, notamment l’historien Pierre Vidal-Naquet qui a consacré au problème négationniste plusieurs publications remarquables dans les années 80. Les procédés utilisés pour éliminer les juifs dans les camps de la mort ont été décrits avec précision par d’anciens Sonderkommandos rescapés de l’Holocauste, et tous leurs témoignages concordent parfaitement. Les archives allemandes comportent de nombreux documents évoquant explicitement les chambres à gaz et leur fonction. Aucun responsable nazi n’a jamais cherché à nier le gazage des juifs lors de son procès. Quiconque s’immerge un tant soit peu dans l’effroyable histoire de la Shoah comprendra que les arguments d’un Faurisson ne pèsent pas lourd face à la montagne de témoignages et de preuves matérielles dont disposent les historiens et qui font du génocide juif la tragédie la mieux documentée de toute l’histoire de l’humanité.

Et pourtant, malgré l’absurdité des thèses négationnistes, malgré la documentation historique monumentale dont nous disposons aujourd’hui sur la Shoah, et malgré la loi Gayssot de 1990 qui interdit toute contestation d’un crime contre l’humanité, le négationnisme n’a pas disparu. Pire : il connaît un certain retour en grâce depuis quelques années. Que l’on pense par exemple à l’humoriste Dieudonné qui, lors d’un spectacle, a fait monter Robert Faurisson sur scène pour lui remettre le « prix de l’infréquentabilité », numéro grotesque et sournois dont l’objectif était clairement de réhabiliter Faurisson, sous couvert de défendre la liberté d’expression. Que l’on songe aussi au polémiste antisémite Alain Soral qui, à plusieurs reprises, a pris la défense d’un Faurisson « injustement persécuté ». Le même Soral, d’ailleurs, n’hésite pas à promouvoir les thèses négationnistes dans ses écrits et dans ses vidéos lorsqu’il qualifie de « prodige » le gazage des juifs ou lorsqu’il compare l’Holocauste à une nouvelle « religion » dans laquelle « la chambre à gaz prend désormais la place du corps introuvable du Christ ressuscité ». Faurisson est mort mais la bêtise négationniste lui survivra.

Simone Veil au Panthéon

Simone Veil.

Dimanche 1er juillet, Simone Veil est entrée au Panthéon un an après son décès. Pour beaucoup, Simone Veil fut avant tout la « ministre de l’IVG ». En novembre 1974, alors Ministre de la Santé, elle prononça un discours historique à l’Assemblée Nationale pour défendre la loi autorisant l’interruption volontaire de grossesse. Cette loi, on le sait, a suscité des passions d’une rare violence : Simone Veil fut insultée, humiliée, menacée. Mais elle mena ce combat jusqu’au bout, sans fléchir. La loi Veil constitua une avancée majeure à une époque où l’avortement était encore considéré comme un crime en France et où, chaque année, des milliers de femmes se faisaient avorter clandestinement, au péril de leur vie.

Le destin de cette femme exceptionnelle fut aussi marqué par l’horreur de la Seconde Guerre mondiale et de la Shoah. Simone Veil fut déportée à Auschwitz-Birkenau en 1944, à l’âge de 16 ans. Elle devint d’ailleurs une figure incontournable de la mémoire du génocide juif : de 2000 à 2007, elle présida la Fondation pour la Mémoire de la Shoah, institution dont elle demeura d’ailleurs présidente d’honneur après 2007. 

Femme de lettres et académicienne, Simone Veil fut également une femme du centre et une Européenne convaincue : en 1979, elle mena la liste UDF aux élections européennes et devint la présidente du premier Parlement européen élu au suffrage universel. Durant toute sa carrière, elle défendit la construction européenne et combattit l’extrême droite, en dénonçant notamment les alliances locales entre la droite et le FN dans les années 80 et 90. Refusant toute vision sectaire de la politique, elle n’hésita pas à dépasser les clivages traditionnels et à défendre des positions qui heurtaient les majorités auxquelles elle appartenait. En 2012, bien que retirée de la vie politique, Simone Veil participa au congrès fondateur de l’UDI aux côtés de Jean-Louis Borloo, réaffirmant ainsi explicitement sa fibre centriste. 

Simone Veil fut incontestablement l’une des grandes consciences françaises du XXe siècle. Tous ses combats gardent une étonnante actualité : le droit à l’avortement est encore menacé dans certains pays de l’Union européenne ; la mémoire de la Shoah reste un enjeu permanent face à la montée de la haine et de l’intolérance, et face à la résurgence de l’antisémitisme et du négationnisme. L’Europe, enfin, est un combat d’actualité à l’heure où le Brexit, la crise des migrants et la montée des populismes déstabilisent gravement le projet européen tout en questionnant sa légitimité.

Le Centriloque se réjouit de l’entrée de Simone Veil au Panthéon et s’associe à l’hommage émouvant qui lui a été rendu.

Les 35 heures, une passion française

Martine Aubry.

Les 35 heures font partie des réformes emblématiques des années Jospin. Les lois Aubry de 1998 et 2000 ont fixé la durée légale du travail à 35 heures par semaine pour les salariés, au lieu de 39 heures précédemment. Les modalités pratiques de l’application des 35 heures ont été négociées au niveau de la branche ou de l’entreprise : certaines entreprises ont ainsi opté pour la semaine effective de 35 heures, mais d’autres ont maintenu la semaine de 39 heures en proposant aux salariés la récupération des heures supplémentaires. La gauche considère aujourd’hui les 35 heures comme un acquis social inattaquable et refuse d’en dresser un bilan objectif. La droite, au contraire, considère les lois Aubry comme une erreur historique : elle accuse les 35 heures d’avoir plombé la compétitivité des entreprises et d’avoir encouragé la paresse. Les 35 heures sont donc une véritable passion française, l’un des derniers grands marqueurs de l’affrontement droite-gauche dans notre pays.

Le premier objectif des 35 heures était de lutter contre le chômage. Or, le postulat malthusien selon lequel il serait possible de réduire le chômage en « partageant » le travail comme on partagerait un cadeau est contesté par l’immense majorité des économistes contemporains : à ce jour, aucune étude économique sérieuse n’a jamais pu démontrer que la réduction du temps de travail pouvait créer mécaniquement des emplois. Comme l’expliquent les économistes Pierre Cahuc et André Zylberberg, les différentes études consacrées à l’impact des 35 heures sur l’emploi sont assez peu fiables car les chiffres avancés ont été calculés sur la base d’extrapolations hasardeuses, et non à partir de véritables approches expérimentales : certaines études parlent en effet de 350.000 créations d’emploi directement imputables aux 35 heures entre 1998 et 2002, un chiffre considéré comme fantaisiste par bon nombre d’économistes. En réalité, l’impact des 35 heures sur l’emploi est très difficile à mesurer car le passage aux 35 heures s’est accompagné d’importants allègements de charges pour les entreprises : les créations d’emplois sont-elles imputables aux 35 heures elles-mêmes ou aux baisses de charges ? De plus, même si les 35 heures ont pu favoriser des créations d’emplois dans certaines entreprises, elles ont aussi entraîné des destructions d’emplois car le renchérissement du coût du travail a poussé de nombreuses entreprises à réduire leur masse salariale.

Les 35 heures avaient également pour objectif d’augmenter le temps libre des salariés. De fait, les lois Aubry ont eu des retombées positives incontestables sur la vie des salariés puisqu’elles ont accru le temps consacré aux loisirs et à la vie familiale. Mais cette augmentation du temps libre s’est souvent faite au détriment du pouvoir d’achat car le passage aux 35 heures a accentué le phénomène de modération salariale, c’est-à-dire la stagnation des salaires réels. Comme l’a expliqué l’économiste Thomas Piketty, les 35 heures étaient une réforme « à contretemps » car la réduction généralisée du temps de travail ne peut être efficace que dans un contexte de forte croissance économique et de hausse du pouvoir d’achat. Au contraire, dans un contexte de crise marqué par une stagnation du pouvoir d’achat, les ménages ont tendance à privilégier l’augmentation des revenus plutôt que celle du temps libre. Cela explique pourquoi la semaine de 40 heures, votée en 1936, ne s’est généralisée que dans les années 1960. Cela explique aussi pourquoi les 35 heures ont été rapidement assouplies. La loi Fillon de 2002 a augmenté le nombre d’heures supplémentaires autorisées à l’année ; en 2007, Nicolas Sarkozy s’est fait élire président avec sa fameuse formule « travailler plus pour gagner plus », illustrée par la défiscalisation des heures supplémentaires. Depuis 2013, la loi de sécurisation de l’emploi permet aux entreprises en difficulté de revenir aux 39 heures si elles s’engagent à ne pas licencier. La « loi Travail » adoptée en 2016 permet aux entreprises d’augmenter le temps de travail des salariés par le biais d’accords d’entreprise négociés avec les syndicats. Quant aux ordonnances de 2017, elles conservent les 35 heures comme durée légale du travail mais confirment la possibilité de modifier la durée du travail par un accord d’entreprise.

Beaucoup de salariés français n’ont jamais connu la semaine effective de 35 heures : le temps de travail hebdomadaire moyen des salariés à temps plein est aujourd’hui de 39,2 heures. Aucun gouvernement n’a supprimé les 35 heures mais, dans la pratique, elles ont été largement détricotées ! Pour la plupart des salariés, les 35 heures représentent simplement le seuil d’activation des heures supplémentaires. En outre, il est clair que le passage aux 35 heures a entraîné une dégradation des conditions de travail pour de nombreux fonctionnaires et de nombreux salariés, qui ont dû effectuer en 35 heures ce qu’ils effectuaient en 39 heures auparavant. Le cas de la fonction publique hospitalière est particulièrement parlant car les restrictions budgétaires ont empêché de créer des postes pour compenser la réduction du temps de travail. Les conséquences, nous les connaissons : des services débordés, et des personnels au bord de la crise de nerfs qui accumulent des jours de récupération sans pouvoir en bénéficier ou qui multiplient les heures supplémentaires non payées.

Les 35 heures étaient sans doute une erreur en termes de calendrier comme en termes de méthode : elles ont été adoptées dans un contexte économique trop terne et mises en œuvre de façon trop uniforme. Mais la philosophie qui sous-tend cette réforme est légitime. Avec les 35 heures, le gouvernement Jospin a opté pour un modèle de société qui réaffirmait le primat de l’épanouissement individuel sur la quête effrénée de profit et de compétitivité : ce choix de société peut sembler économiquement contestable, mais il n’est pas moralement condamnable. Alors, que faire des 35 heures ? Les préserver ? Les abroger ? Les assouplir davantage ? A droite, beaucoup veulent en finir une bonne fois pour toutes avec les 35 heures, soit en rétablissant les 39 heures, soit en supprimant toute référence à une durée légale du travail et en laissant aux entreprises la possibilité de négocier librement la durée hebdomadaire du travail de leurs salariés. Au lieu de faire de grands discours moralisateurs sur la « valeur travail » et de dénoncer avec emphase « l’erreur historique » des 35 heures, la droite ferait bien d’aborder cette question avec plus de pragmatisme. Pour cela, il faut d’abord prendre en considération un élément essentiel du débat : les 35 heures sont entrées dans les mœurs, elles sont devenues la norme. Des millions de travailleurs français ont intégré la semaine de 35 heures dans la gestion de leur temps. Par conséquent, toute augmentation de la durée hebdomadaire du travail serait vécue par les salariés comme une régression sociale et comme une mesure contraire au sens même de l’histoire. Les contreparties proposées aux salariés doivent donc être suffisamment fortes pour que la sortie des 35 heures devienne socialement acceptable. On peut imaginer par exemple un système qui garantirait au salarié une majoration du salaire horaire dès la trente-sixième heure de travail sans charge supplémentaire pour l’employeur.

Le débat sur la durée du travail doit aussi prendre en considération un autre élément essentiel, à savoir l’augmentation de la productivité grâce au progrès technique. De nombreuses tâches autrefois effectuées par l’homme sont aujourd’hui automatisées, et il est clair que ce processus va s’accélérer. Dans les décennies à avenir, des centaines de métiers vont disparaître ; certaines fonctions décisionnelles pourront même être assurées par des algorithmes extrêmement complexes. D’après l’économiste Jeremy Rifkin, les innovations technologiques de demain vont entraîner une raréfaction du travail. Même si de nouveaux viviers d’emplois sont en train d’émerger avec la révolution numérique et la transition énergétique, nul ne sait, à l’heure actuelle, si ces nouveaux emplois seront en mesure de compenser les destructions massives d’emplois provoquées par l’automatisation croissante de la production, car les emplois créés seront moins nombreux et plus qualifiés que les emplois menacés de disparition. Dans ces conditions, une réduction du temps de travail pourrait tôt ou tard s’imposer à l’ensemble des sociétés postindustrielles. A l’étranger, l’idée d’une réduction généralisée du temps de travail a déjà reçu des soutiens nombreux et parfois inattendus : ainsi, Larry Page, le patron de Google, a déclaré en 2014 que la réduction du temps de travail finirait par devenir inévitable compte tenu du progrès technique. Mais une telle mesure n’est envisageable qu’à l’échelle mondiale : dans un contexte de mondialisation et de concurrence exacerbée entre les territoires, il serait en effet suicidaire pour un pays de réduire unilatéralement la durée du travail si les autres pays n’en font pas autant.

Il existe cependant une alternative à la réduction généralisée du temps de travail. Une alternative que certains jugent utopique, mais qui est très concrète et simple à mettre en application. Peu à peu, l’idée d’un « revenu universel » fait son chemin. Il s’agit d’un revenu de base alloué à tous les actifs de façon inconditionnelle : chaque personne aurait alors la possibilité d’exercer un travail à temps complet ou partiel pour compléter ce revenu minimum. Le principe du « revenu universel » est révolutionnaire car il dissocie revenu et travail : dès lors, le revenu n’est plus envisagé comme la contrepartie d’un travail mais comme un droit universel. Cette mesure trouve des partisans aussi bien à gauche qu’à droite : la gauche y voit un puissant facteur d’émancipation sociale ; les libéraux y voient plutôt un moyen de flexibiliser le marché du travail et de simplifier le système des aides sociales, puisque le revenu universel est censé remplacer tous les minimas sociaux existants. Comment assurer le financement de cette mesure ? Le coût d’une telle prestation sera colossal pour la collectivité, mais sera en partie couvert par les économies budgétaires substantielles réalisées grâce à la simplification et à la rationalisation du système social. On peut aussi penser que le revenu universel, en augmentant le pouvoir d’achat des ménages les plus modestes, permettra une relance de la consommation, donc une hausse des recettes fiscales. Le gouvernement centriste finlandais de Juha Sipilä expérimente par exemple un revenu de base de 560 euros par mois versé aux demandeurs d’emploi et remplaçant toutes les allocations existantes. Confrontée à une augmentation continue du chômage et de la dette publique depuis 2012, la Finlande espère ainsi fluidifier le marché du travail tout en réduisant les dépenses de l’Etat ; si l’expérimentation s’avère concluante, le revenu universel de base pourrait être étendu à l’ensemble de la population active finlandaise.

L’instauration d’un revenu universel de base en France rendrait caduques toutes les controverses actuelles sur la durée du travail. Le débat sur l’abrogation des 35 heures est un débat franco-français qui relève d’une vision plutôt court-termiste des problèmes socio-économiques : ce genre de débats peut sembler dérisoire face aux grandes questions que les mutations du travail vont soulever dans les décennies à venir.