samedi 15 décembre 2012

Le concept "biopolitique" de Michel Foucault

Étudiant à la Sorbonne et à l’ENS-Ulm, il suit les cours de Jean Hyppolite, de Georges Canguilhem et de Louis Althusser. Agrégé de philosophie à 23 ans, il enseigne pendant quatre ans à l’université suédoise d’Uppsala, puis il termine en Allemagne sa longue étude sur l’histoire de la folie qui lui vaut son doctorat d’État. Revenu en France, il publie en 1966 Les Mots et les Choses, œuvre qui le fera étiqueter comme structuraliste. En 1970, il est élu au Collège de France.

L’aveu est devenu, en Occident, une des techniques les plus hautement valorisées pour produire le vrai. Nous sommes devenus, depuis lors, une société singulièrement avouante.
En 1976, la révolution sexuelle vient d’avoir lieu, croit-on : finie la prude société victorienne qui étouffait les sens, se méfiait des plaisirs et de l’éclatement du désir. On parle de sexe et on le fait. C’est à cette affirmation naïve que s’oppose dans La Volonté de savoir l’historien et philosophe Michel Foucault. Ce premier tome est le premier pas d’une série de trois, composant Histoire de la sexualité, dont les volumes suivants, L’Usage des plaisirs et Le Souci de soi, paraîtront en 1984, l’année de sa mort. 

Moins que les pratiques sexuelles, ce sont les discours modernes sur la sexualité que Foucault s’attache à décrire dans cet ouvrage. Pour lui, le sexe n’est absolument pas interdit de séjour, comme on l’affirme parfois, mais fait l’objet, depuis le XVIIIe siècle, d’une « explosion discursive », d’un passage systématique aux aveux. L’Église, la médecine, la psychiatrie, les institutions scolaires ont incité les individus, par le biais de confessions récurrentes, à révéler la teneur de leurs désirs et de leur sexualité dans les moindres détails. 



Pouvoir, corps et biopolitique

L’injonction de tout dire permet alors de distinguer entre ce qui relève du normal – la sexualité hétérosexuelle à des fins reproductives – et du pathologique. Tandis que l’on accorde au couple marital une certaine discrétion, les « sexualités hérétiques » sont mises à nu, évaluées et spécifiées. Émerge une série de figures perverses telles que l’homosexuel, le zoophile, l’exhibitionniste, le fétichiste, etc. Le pouvoir, montre Foucault, cesse ainsi d’être une instance purement répressive et devient une instance productive qui élabore un savoir sur la sexualité et, ce faisant, institue des formes de sexualité. 

Au xixe siècle, quatre domaines font l’objet de stratégies particulières, que Foucault nomme « dispositifs de sexualité » : le corps de la femme est hystérisé, c’est-à-dire qu’il est décrit comme saturé de sexualité ; les pratiques masturbatoires chez les enfants sont prises en chasse ; la perversion est spécifiée et renvoyée non plus à la prison, mais à la psychiatrie ; les populations, à travers les politiques natalistes et la contraception naturelle, sont régulées. Se met alors en place une biopolitique, concept cher à Foucault, qui désigne l’exercice d’un pouvoir sur la vie biologique des individus. À l’échelle microscopique, le pouvoir discipline les corps. À l’échelle macroscopique, il ambitionne de maîtriser la vie de l’espèce.

Contrairement aux idées reçues, la biopolitique que décrit Foucault n’est pas un instrument de répression des classes dominantes sur les couches populaires, puisque c’est d’abord elle-même que la bourgeoisie soumet au dispositif de sexualité. En effet, rappelle Foucault, la femme oisive ou l’enfant entouré de domestiques ont plus de chances de « sombrer » dans l’hystérie ou dans l’onanisme. Ce sont donc eux qu’il faut préserver. Mais ce n’est pas par un mépris de son sexe ou un refoulement du désir charnel que la classe dominante s’impose ce contrôle, mais plutôt par une affirmation du « haut prix politique de son corps », de l’importance cruciale de sa vitalité, de sa santé. 


L’interdit fera la différence

Peu à peu, les épidémies de maladies vénériennes et les besoins économiques du XIXe siècle – principalement le manque de main-d’œuvre – révèlent la nécessité d’une politique des pratiques sexuelles et reproductives du prolétariat et le dispositif disciplinaire est étendu à toutes les couches sociales. Pour se démarquer, il ne restera plus à la classe dominante que la solution de la répression sexuelle, explique Foucault. Si bien qu’à la fin du XIXe siècle, il n’est plus question pour la bourgeoisie d’avoir une sexualité saine mais de museler son désir. Désormais, c’est l’« interdit qui fera la différence ». Mais ce n’est pas parce que cet interdit est partiellement levé dans les années 1970 qu’il faut y voir une libération sexuelle, pour Foucault. Notre goût prononcé pour le sexe et les discours sur le sexe n’étant jamais que le produit d’un dispositif disciplinaire.

mardi 4 décembre 2012

Comment la révolution numérique bouleverse la cellule familiale

Mardi 4 Décembre 2012
Il faudrait être en pension prolongée chez les amish pour ignorer que la révolution numérique a bouleversé la cellule familiale, déjà bien secouée depuis la fin des Trente Glorieuses. Mais selon les experts, les joujoux informatiques y tissent de nouveaux liens affectifs et revisitent les rôles de façon intéressante.

(SUPERSTOCK/SUPERSTOCK/SIPA)
(SUPERSTOCK/SUPERSTOCK/SIPA)
Michael Stora est psychanaliste et psychologue clinicien pour les enfants et adolescents au centre médico-psychologique (CMP) de Pantin (Seine-Saint-Denis). Il a également cofondé l'Observatoire des mondes numériques en sciences humaines. Il dirige par ailleurs la cellule psychologique de la radio Skyrock depuis 2008.

(Michael Stora - POUZET/SIPA)
(Michael Stora - POUZET/SIPA)

Marianne : En quoi les outils numériques ont-ils changé la famille ?  

Michael Stora : Pendant longtemps, les parents ont refusé l'irruption du jeu vidéo dans le foyer. Et puis la console Wii de Nintendo est arrivée ! Plus besoin de maîtriser un outil : le joystick était éliminé au profit d'une interaction directe avec le corps. En peu de temps, elle a contribué à combler le fossé générationnel. Tous ont pu participer. Ce qui est notable, c'est qu'on retrouve toutes les interactions sociales classiques : papa est mauvais joueur, maman triche... Avec les tablettes tactiles, les grands-parents et les petits-enfants se sont définitivement emparés du numérique. Les seniors ont vu dans ces outils un accès incroyablement simple à l'informatique. Cela étant, le numérique n'a pas totalement bouleversé la dynamique familiale. Sega, pour paraphraser une publicité célèbre, n'est pas plus fort que toi...

Y a-t-il néanmoins des conséquences tangibles ?

M.S. : On observe l'émergence du phénomène des «grands-parents Skype». Au lieu de se voir pour le sempiternel déjeuner du dimanche, on communique par voie électronique, en échangeant des vidéos des petits-enfants. Le numérique permet de ne pas rompre totalement le contact grâce à un «lien virtuel». Mais il est aussi un facilitateur de l'évitement. On a tellement envie de se voir que finalement on ne se voit jamais ! Tout le monde peut en faire l'expérience avec Facebook, en retrouvant de vieux amis que l'on ne reverra finalement jamais.

Vous y voyez des effets pervers ?

M.S. : Au contraire, chacun se «soigne» avec les objets numériques. Le fils utilise la tablette de son père pour faire comme papa, phénomène classique d'identification. Par ce biais, il va s'approprier des images en les désacralisant. Les logiciels de type Photoshop permettent très bien cela. Les enfants deviennent ainsi bien plus lucides que leurs parents, qui croient que tout ce qui est dit au journal télévisé est vrai ! Les jeunes générations sont «actives», alors que leurs parents étaient dans une position «interpassive» de téléspectateurs. La fille, encore élevée à l'ancienne avec l'idée d'attendre le prince charmant, peut shooter des zombies, et exprimer ses pulsions agressives sans trop de culpabilité. Le père stressé au travail devient chef d'une guilde dans le jeu de stratégie «World Of Warcraft», révélant des capacités de leadership étonnantes. La mère utilise des espaces de liberté comme des forums de discussion thématiques pour trouver un soutien bienvenu. Ces espaces virtuels apportent une grande aide psychologique.

Internet comme psychothérapie de groupe !

M.S. : Il constitue un apport fondamental à l'appareil médical. Parfois, il aide tout simplement à oser des choses que l'on ne serait pas en mesure de tenter spontanément. C'est le cas de grand-mères qui s'inscrivent sur Meetic pour entretenir des échanges écrits empreints d'érotisme et relancent ainsi leur libido. Ça donne des idées.

Que dites-vous à ceux qui attribuent les troubles comportementaux des jeunes à une surexposition à la violence sur Internet ?

M.S. : Aucun chiffre n'autorise à l'établir. Au contraire, des études récentes montrent qu'en grande majorité les joueurs ont une vie sociale, lisent et font du sport. Les incivilités sont surtout relayées par les médias par sensationnalisme. Les jeunes qui passent à l'acte possèdent déjà en eux une violence inquiétante, voire une paranoïa schizophrénique. Ce sont des cas isolés. On observe plutôt, au travers d'initiatives auprès de jeunes délinquants, que certains jeux ont une fonction curative, cathartique, dans la capacité à se battre contre son monstre intérieur.

Le numérique est-il pour autant inoffensif ?

M.S. : Plus largement, on utilise le numérique pour combler ou mettre en scène quelque chose qui était déjà «dysfonctionnant». Une patiente ne correspondait avec sa fille que par messagerie instantanée alors qu'elles vivaient sous le même toit. Est-ce un problème de logiciel ou un problème de communication ? Quand des parents offrent un portable à leur adolescent, c'est souvent dans une volonté de surveillance. C'est comme demander à ses enfants d'être leur «ami» sur Facebook. Les parents ne sont pas des amis. A l'inverse, il est logique que les enfants demandent une amitié à leurs parents, c'est une manière d'être un petit adulte...

Les risques de violation de l'espace privé ne sont-ils pas favorisés par ces appareils qui concentrent toute notre vie virtuelle ?

M.S. : L'hyperconnexion entre les réseaux, où se rejoignent sur des terminaux numériques toutes les communications humaines, est terriblement inquiétante. On a besoin, même au sein du numérique, d'espaces privés. Face à cela, l'humain essaie spontanément de trouver un peu d'air, en créant de faux profils sur Facebook ou de faux blogs. On aura toujours besoin d'espaces privés au sein d'espaces publics.

Ne devrait-on pas instaurer un code du «savoir-vivre numérique» ?

M.S. : Pour les parents, c'est un nouvel enjeu d'autorité. Beaucoup connaissent mal la cyberculture. Par exemple, quand vous voulez mettre fin à une partie de jeu vidéo de votre fils et que vous lui arrachez la commande des mains, il crie à la révolte ! L'adulte en déduit que le jeu rend violent, alors qu'il n'a pas demandé à l'enfant s'il était possible de sauvegarder la partie avant d'y mettre un terme. La culture de la télévision était plus simple. Chacun savait que, à la fin de l'épisode, c'était l'heure d'aller prendre son bain. Les outils numériques sont par nature persistants, on ne sait pas quand couper le fil. L'éducation des parents est certainement à faire de ce côté-là. Ils pourraient s'intéresser à ces activités numériques : un enfant jouant à un jeu vidéo devient tour à tour réalisateur, acteur et metteur en scène d'un spectacle qui se donne à voir à plusieurs. C'est très riche d'enseignements sur sa progéniture.

La tablette numérique rend aussi bien des services pour occuper les enfants...

M.S. : Après la «nurse cathodique», on a dit beaucoup de mal des parents qui usent de «nounous numériques» pour avoir la paix. Que ce soit sur la route des vacances ou à la maison pour retrouver un peu d'intimité en couple, il ne faut pas culpabiliser. Même s'il peut y avoir des situations excessives : n'oublions pas que les enfants testent en permanence les limites des adultes et qu'il faut tenir le coup. Et ce n'est pas un rôle virtuel ! L'objet numérique n'est qu'un prétexte, c'est la difficulté à poser des limites qui est en jeu.

Justement, ces nouvelles technologies, où les petits excellent, n'ont-elles pas modifié le rapport de force parents-enfants ?

M.S. : Jadis, le père avait plus de compétences que son fils pour réparer une Mobylette avec lui, activité commune et enrichissante. A présent, le rapport est inversé. L'adolescent est plus au point. Si les mères acceptent facilement que leur fils leur montre comment utiliser un objet, les pères souhaitent souvent garder le leadership. Mais faut-il s'accrocher à une autorité légitime ? Le «je suis ton père» ne suffit-il plus ? Les adolescents traitent leurs parents de «vieux cons». «Con» est accepté, mais pas «vieux» ! Il y a une forme de compétition intergénérationnelle. La possession du dernier gadget à la mode fait croire à une éternelle jeunesse...

Peut-on imaginer un rôle réellement pédagogique du numérique ?

M.S. : On n'a pas encore assez de recul pour évaluer ce que ça va donner. Néanmoins, avant l'âge de 18 mois, un enfant devant une tablette ou une télé laissera tomber très rapidement, car l'interaction est moins riche qu'avec un être humain. Il n'y a pas plus interactif qu'une relation avec la mère, sauf si celle-ci est en dépression. Cet «accordage» affectif ne peut être reproduit par aucun gadget, fût-il numérique. Après 3 ans, l'enfant peut trouver plus d'intérêt à l'interaction numérique, même s'il continue de s'amuser avec de vrais jouets. L'un ne remplace pas l'autre, n'en déplaise à certains confrères catastrophistes. Mais il faut aussi développer l'«attention conjointe» : l'enfant et son parent partagent un point de vue. C'est en regardant un film ensemble, pour ensuite se dire que l'on a bien vu la même chose, que l'on prend conscience d'avoir partagé un même plaisir.

L'Association française de pédiatrie ambulatoire préconise la règle du «3-6-9-12». Pas d'écran avant 3 ans, pas de console avant 6, pas d'Internet avant 9 et accompagné d'un adulte jusqu'à l'entrée au collège. A 12 ans, la navigation sur le Web possible sous contrôle parental. Qu'en pensez-vous ?

M.S. : Que tout cela a un effet pervers. C'est infantilisant pour les parents et transforme l'objet numérique en un obscur objet du plaisir, proche du diable et donc très tentant. Pourtant, malgré les efforts des grands moteurs de recherche pour nous contraindre à ne voir sur le Web que ce qu'ils veulent, c'est encore un des rares endroits où il est possible de rencontrer l'inconnu. La «weberrance» ouvre l'esprit. Ça ne veut pas dire qu'il ne faille pas, bien au contraire, garder un œil attentif. Mais je me méfie de ces glissements où très vite on parle d'addiction. Entre le jeu vidéo comme nurse numérique et un interdit excessif, une limitation dans les horaires me semble judicieuse. Ce ne sont pas les enfants qui consultent de manière compulsive leur fil Twitter, mais bien les adultes !

Inversement, pensez-vous que refréner l'usage des technologies entraîne un retard sur l'acquisition de compétences, omniprésentes dans nos environnements professionnels ?

M.S. : Il est évident qu'un adolescent qui n'a pas Internet sera dans une forme d'exclusion par rapport à ses camarades. Comme, il y a trente ans, pour un jeune qui n'avait pas la télévision chez lui. Interdire à un enfant l'accès à Internet ou aux jeux vidéo, c'est le sanctionner dans sa vie d'adulte. Au collège, les jeunes passent le brevet informatique et Internet (B2i) pour évaluer leur capacité à utiliser un traitement de texte, surfer sur Internet... Or, plus de 90 % des jeunes surfent sur le Web et utilisent des logiciels régulièrement. Plus sérieusement, des études ont montré que la pratique des jeux vidéo développe trois types de compétences cognitives : spatialisation en 3D, intelligence déductive et le multitasking [«multitâche»]. Si elles n'ont pas d'utilité directe pour un élève, elles sont en revanche, dans sa vie d'adulte, essentielles.

92% des français utilisent un gadget high-tech avant de s'endormir. 420 millions : le chiffre d'affaires des smartphones attendu en décembre. 4,2 millions d'unités devraient être vendues.

Le Laboureur et ses enfants

Jon Elster 

“Les bonnes choses de la vie sont des effets essentiellement secondaires.”
« Si vis pacem, para bellum » (« Si tu veux la paix, prépare la guerre »), dit le proverbe. Toute l’œuvre de Jon Elster tient dans ce principe des contraires : si tu veux comprendre la raison humaine, explore ses impasses.


Et le premier pas dans ce labyrinthe remonte à 1979, avec Ulysse et les Sirènes, qui occupe la seconde partie de ce recueil. Le problème traité dans ce texte à l’écriture serrée peut se ramener à une question simple et fondamentale. La théorie de l’acteur rationnel postule que, chaque fois que nous faisons un choix, nous satisfaisons à nos préférences du moment. Nous en subissons les conséquences après. Mais l’homme est un être qui vit aussi dans le futur : il prend des résolutions pour l’avenir… et souvent ne parvient pas à s’y tenir. Combien de fois n’avons-nous pas cédé à la tentation de faire ce que nous ne voulions pas faire ? Ce problème (que l’on appelle « faiblesse de la volonté ») est celui d’une inconséquence et des mesures que nous prenons pour l’affronter. Ulysse, approchant l’île où vivent les Sirènes et voulant se prémunir contre l’attrait magique de leurs chants, exigea de ses marins qu’ils le ficellent au pied du mât, et cessent d’obéir à ses ordres. Paradoxe, il lui faut renoncer à lui-même pour accomplir sa propre résolution. Il y a d’autres solutions : Ulysse aurait pu se mettre à l’amende, appliquer la méthode Coué (non, je n’irai pas), décréter que les Sirènes chantent faux, se persuader qu’elles n’existent pas, faire changer de cap, etc. À supposer que l’homme soit, au fond et malgré tout, un être partiellement rationnel, quelles sont leurs probabilités de fonctionner ? L’argumentation d’Elster s’appuie sur différentes sortes d’exemples vécus, virtuels ou littéraires : celui du fumeur qui ne peut pas arrêter, celui d’une marquise stendhalienne, celui du pari de Blaise Pascal. Son premier souci est d’y voir clair : il classe ces stratégies selon qu’elles modifient l’éventail des choix possibles (cas d’Ulysse), le caractère de l’acteur ou l’information dont il dispose. Il ne cache pas que vu le faible taux de réussite des psychothérapies, Ulysse avait choisi la bonne voie : mobiliser autrui (ou l’environnement) pour se contenir lui-même et restreindre son choix. Mais n’est-ce pas là une impasse de la raison ? 


L’autre paraît d’abord moins grave, et pourrait s’appeler « les détournements de la volonté ». Il passe en revue ces situations où la volonté (explicite) invalide ce que la spontanéité (irréfléchie) obtiendrait, et réciproquement. Il y a ce fameux cas de l’injonction paradoxale du chef pervers qui dit à ses troupes : « Faites ce que je dis, mais pas parce que je le dis ! » Il y a le cas éponyme du laboureur mourant qui invite ses fils à chercher un trésor, et fait ainsi qu’ils labourent la terre, s’enrichissent mais n’exhument aucun trésor. Il y a ce cas plus grave des utopies sociales qui n’obtiennent rien d’autre que précisément leur contraire. Plus qu’une impasse, il y a là un piège de la raison auquel Elster, passant au crible l’œuvre de Pierre Bourdieu et de Michel Foucault, donne soudain une épaisseur critique qui le situe plus clairement dans le paysage des penseurs de notre temps.
 
L’irrationalité, Traité critique de l’homme économique, t. II, 2010.
« Les hommes font parfois des choix qui vont à l’encontre de leurs intérêts », confiait Jon Elster à Sciences Humaines en 2001. Mais ce constat élémentaire suffit-il à les qualifier d’êtres irrationnels ? Non car, pour autant, leurs agissements obéissent à des tendances dont l’observation rapprochée, voire expérimentale, montre qu’elles sont répétitives. C’est au catalogue récapitulatif de ces anomalies motivées qu’Elster consacre, dix ans plus tard, ce deuxième tome de sa critique de la théorie du choix rationnel. On y trouvera donc commentés et expliqués, d’une part, certains tourments intrinsèques à la théorie du choix rationnel (comme les cas d’indécidabilité) et, d’autre part, les biais qui, en société comme chez l’individu, font que nos décisions peuvent être contraires à nos attentes : l’excès de calcul, les croyances fausses, l’aveuglement volontaire, les émotions, la sous-estimation du futur, les heuristiques hâtives, l’aversion à la perte. Ces notions, Elster ne les a pas inventées mais empruntées à cinquante ans de recherche en théorie des jeux et en psychologie expérimentale. Son talent consiste à nous montrer que ces biais de la décision ont intrigué fabulistes, romanciers, moralistes et chroniqueurs depuis l’Antiquité. Ainsi, l’aveuglement volontaire, par exemple le fait de se persuader que l’on ne veut pas ce que l’on ne peut pas avoir, est très exactement le sujet de la fable Le Renard et les Raisins de Jean de La Fontaine.
 
Jon Elster
Né en 1940 en Norvège, Jon Elster a étudié à l’école normale supérieure de Paris, puis enseigné à Oslo, Chicago et New York (Columbia). En 2005, il a été nommé professeur au Collège de France. Il a consacré toute sa carrière à deux tâches : l’analyse critique du marxisme et les limites de la rationalité. De lui, on lira aussi Agir contre soi, Odile Jacob, 2007, et Psychologie politique, Minuit, 1990.

Un monde vulnérable

Joan Tronto 
 
“Toutes les théories féministes deviennent suspectes, hormis celles qui récusent la possibilité d’une large entreprise théorique de libération.”
Dix ans après Une voix différente, Un monde vulnérable de Joan Tronto venait à point mettre au clair les termes d’un débat qui faisait rage au sein même du mouvement féministe. Politiste avant tout, Tronto n’avait pas spécialement vocation à s’immiscer dans un débat de philosophie morale. Mais c’est justement l’un des objectifs de son livre que de bousculer quelques frontières. Elle y explique que, même si les jugements politiques et moraux ne puisent pas aux mêmes arguments, leurs interactions de fait sont nombreuses, et la frontière conceptuelle qui les sépare a un rôle néfaste, conservateur. En l’occurrence, ce rôle est clair : le domaine politique n’étant pas celui de l’impartialité ni de l’équité, il ne sert à rien d’invoquer la prétendue moralité des femmes pour leur assurer une meilleure place en politique. L’histoire du féminisme, selon elle, le montre, et le fait d’affirmer la nature féminine de l’éthique du care ne fait qu’entretenir le fossé entre l’espace privé et l’espace public, entre la sphère domestique et le monde du travail. Elle analyse le débat entre Lawrence Kohlberg et Carol Gilligan, et montre que leurs divergences n’entament nullement ces barrières, parce que Gilligan ne remet pas en cause la hiérarchie des stades moraux, même si elle les complique. Elle fait du care une disposition sentimentale. Ni l’un ni l’autre ne prend en compte le fait que les différences qu’ils observent sont, tout autant que d’âge et de sexe, des reflets de conditions sociales différentes. Au fond, des théories morales fondées sur des déclarations (et non des actes) ne font que refléter une idéologie : ceux qui la maîtrisent mieux que d’autres en tirent des privilèges sociaux. 

Ce qui ne veut pas dire qu’il faut abandonner l’idée, mais la reprendre à la base, car « le pouvoir a besoin d’un fondement moral ». L’objet de l’éthique du care doit donc, selon Tronto, être considérablement élargi : c’est «  une activité générique qui comprend tout ce que nous faisons pour maintenir, perpétuer et réparer notre monde, de sorte que nous puissions y vivre aussi bien que possible ». En conséquence de quoi, sous la plume de Tronto, le care devient un idéal politique, qui s’adresse à toutes les situations où, sous l’effet d’une vulnérabilité passagère ou durable, le souci pour autrui constitue une tâche morale et politique. « Il est temps pour nous, conclut-elle, de commencer à transformer nos institutions politiques et sociales pour qu’elles reflètent cette réalité. » Le livre de Tronto est le point de départ d’un courant de pensée qui promeut une approche politique de l’éthique de la vulnérabilité et a jeté des ponts entre féminisme, théorie de la justice et éthique de l’environnement.
 
Joan Tronto
Professeure de science politique à l’université du Minnesota, Twin Cities, après avoir exercé la même charge à l’université de New York entre 1996 et 2009.

Une voix différente

« Voici dix ans que je suis à l’écoute des gens, écrit Carol Gilligan. Il y a cinq ans, j’ai commencé à percevoir des différences entre toutes ces voix, à discerner deux façons de parler de morale et de décrire les rapports entre l’autre et soi. » Cette « voix différente », c’est celle des femmes, et cette « autre morale », c’est l’éthique du care. Livre fondateur directement impliqué dans la « seconde vague du féminisme », Une voix différenteest l’œuvre d’une scientifique confrontée à un fait troublant : les jugements moraux des hommes et des femmes ne reposent pas sur les mêmes arguments. Même si elle fait quelques détours du côté de chez Sigmund Freud, d’un drame de d’Anton Tchekhov et d’un roman de George Eliot, la première partie de son livre est consacrée à la critique des travaux du psychologue Lawrence Kohlberg, avec lequel Gilligan a collaboré durant des années. La théorie du développement moral élaborée par ce dernier jouissait dans les années 1980, d’une grande estime scientifique. Elle décrivait le passage de l’enfance à la maturité morale en trois étapes : un niveau préconventionnel (jugement par intérêt), puis conventionnel (conformité aux autres) et enfin postconventionnel (application de principes de justice). Or, selon les données, les jeunes femmes, ne parvenant pas à se stabiliser au niveau postconventionnel, opéraient souvent ce qui semblait être un retour à un stade antérieur, marqué par le souci de « faire plaisir aux autres ». Dans sa lecture, le fait apparaissait comme une incapacité à développer un jugement autonome et à appliquer des normes de justice. Or, pour Gilligan, le raisonnement est biaisé pour deux raisons au moins. D’abord, l’échelle de Kohlberg a été établie sur la base de témoignages essentiellement masculins (du petit garçon au jeune homme), puis appliquée à l’autre sexe. Ensuite, il est faux de réduire la prise en compte des besoins d’autrui au seul désir de complaire : c’est aussi « aider », « se soucier », « prendre soin de », « accompagner », « conserver des liens », etc., toutes démarches qui relèvent d’un souci proprement éthique : celui de ne pas nuire.


Tout le reste de son livre est une illustration et démonstration de cette proposition. Ainsi, considérant le cas de 29 jeunes femmes ayant eu à décider d’un avortement, elle montre à quel point leurs dilemmes ont mobilisé le souci de nuire le moins possible à leurs proches, de ne pas briser les liens amoureux existants, de se préoccuper de qui vous importe. L’effort de Gilligan consiste ensuite à montrer à quel point cette qualité est mal reconnue, bien qu’elle constitue un aspect essentiel des relations humaines sans lequel ni la famille, ni l’amitié, ni les rapports de travail ne sauraient fonctionner. 


En psychologue qu’elle est, Gilligan établit, sur la base de témoignages, qu’il s’agit là d’une disposition stable chez la femme adulte, qui ne représente pas un stade plus ou moins infantile, mais une autre façon de gouverner sa vie de manière autonome. Elle termine sur ces mots : « Alors que l’éthique de justice est fondée sur le principe de l’égalité – chacun doit être traité de la même manière –, l’éthique du care repose sur le principe de la non-violence – il ne doit être fait de tort à personne. Dans la maturité, ces perspectives convergent.(...) De même que l’inégalité affecte les deux parties dans une relation inégale, la violence est aussi destructive pour tous ceux qui y sont impliqués. » Il est temps, ajoute-t-elle, que la société tout comme les spécialistes reconnaissent l’existence et la valeur éthique de cette « voix différente ».
 
Carol Gilligan
Née en 1936, Carol Gilligan est diplômée en littérature ainsi qu’en en psychologie clinique et sociale. Elle a fait des recherches et enseigné à l’université de Harvard, puis de New York. En 1996, le magazine Time la classait parmi les « 25 personnes les plus influentes du monde ». D’elle, on pourra lire aussi The Birth of Pleasure, 2002.

Théorie de la justice

John Rawls
“La justice est la première vertu des institutions sociales comme la vérité est celle des systèmes de pensée.”
Théoriser la justice, c’est d’abord accorder un privilège au « juste » par rapport au « bien », et s’il existe en philosophie plusieurs définitions de ce dernier (le bonheur, la satisfaction de désirs rationnels, le développement de soi), le juste, lui, se soucie surtout, plus largement, de la manière dont ces divers biens vont être distribués aux hommes. John Rawls, dans ces 600 pages d’une densité exceptionnelle, traite ce point de la manière la plus large qui soit : il s’agit pour lui de définir les principes généraux et universels sur lesquels devraient s’appuyer ceux qui auraient pour charge de concevoir la société la plus juste possible. Il ne dérive pas ces principes d’un argument ontologique ou de nature, mais se place d’emblée dans le cadre d’une société démocratique et libérale. Emmanuel Kant avait tiré de la simple logique la maxime fondamentale de toute morale. Rawls lui rend hommage, mais prend une autre voie pour déduire ces principes : celle d’une procédure juste, c’est-à-dire issue de la délibération d’individus rationnels et égaux. Faute de trouver une telle situation dans une société concrète, on fait « comme si » (c’est, écrit Rawls, une « métaphore ») tous les individus étaient également informés des désirs et des motivations des autres, mais « ignoraient » leurs propres intérêts et moyens de les atteindre. C’est ce qu’il nomme la « position originelle sous voile d’ignorance ». C’est la condition d’une délibération juste, où l’équité serait le but poursuivi, dans l’ignorance des avantages donnés au départ à chacun (inégalités de nature, de talent, d’héritage). Quels seraient ensuite les grands principes d’une société juste ? Ils sont au nombre de deux. D’abord, que tous les citoyens sont protégés par la règle d’égale liberté, c’est-à-dire d’avoir des buts propres, de faire des choix parmi leurs intérêts, qu’ils ont tous également le droit de poursuivre. C’est ce que l’on appelle aussi l’égalité des chances. Or, de cette liberté, résultent, forcément, des répartitions inégales : des différences de fortune, de condition, de prestige, de culture. Deuxième principe, donc : ces inégalités ne seront légitimes que dans la mesure où leur instauration profite aussi aux plus défavorisés. Exemple : il est courant de constater que le développement d’un pays pauvre augmente les écarts constatés de revenu. L’équité, selon Rawls, peut être cependant respectée si les plus pauvres voient, dans le même temps, leurs ressources augmenter. Intérêts individuels, inégalités ? Voilà donc un vocabulaire largement partagé par une doctrine traditionnellement associée au libéralisme classique anglo-saxon : l’utilitarisme. Et pourtant, c’est précisément contre cette pensée que Rawls construit sa Théorie de la justice. Pourquoi ? Parce que, même si l’utilitarisme reconnaît des droits fondamentaux aux individus, il ne rechigne pas au principe du sacrifice : les intérêts d’une minorité peuvent être négligés si l’utilité globale de la société est augmentée. C’est donc souvent au principe d’équité améliorée que l’on attribue la valeur et l’originalité de la pensée de Rawls. Attention : on lui a aussi adressé des reproches, comme celui d’inventer l’artifice du « voile d’ignorance » et de ne pas savoir quels remèdes porter aux ressentiments qu’appellent des inégalités trop ostentatoires. Quant au fait de vouloir sauver les meubles du libéralisme, il est donné par construction.

John Rawls (1921-2002)
John Bordley Rawls est l’un des philosophes politiques américains le plus lus et commentés du XXe siècle. Étudiant à Princeton, il est tenté par la théologie, puis sert en 1943 dans l’armée américaine du Pacifique. Une fois diplômé, il enseignera à Princeton, Oxford, Cornell et Harvard. Son chef-d’œuvre, Théorie de la justice, a été reçu comme une œuvre majeure parce qu’elle conciliait les valeurs du libéralisme avec les principes de la solidarité sociale. De lui, on pourra lire aussi Justice et Démocratie, Seuil, 1993, Libéralisme politique, Puf, 1995, et Paix et Démocratie, La Découverte, 2006.

Capabilités Comment créer les conditions d’un monde plus juste ?

"Capabilités"

«  Capabilité » : ce terme, que l’on aurait pu traduire par « capacité » en français, mérite néanmoins les honneurs d’un néologisme car il contient, à lui seul, l’essentiel de la théorie de la justice sociale développée par l’économiste et philosophe Amartya Sen depuis les années 1980. Son écho auprès des instances internationales et des acteurs du développement humain en fait aujourd’hui l’une des raisons pour lesquelles le développement d’un pays ne se mesure plus seulement à l’aide du PIB par habitant. Selon Sen, comme pour Martha Nussbaum, la capabilité désigne la possibilité pour les individus de faire des choix parmi les biens qu’ils jugent estimables et de les atteindre effectivement. Les capabilités sont, pour ces auteurs, les enjeux véritables de la justice sociale et du bonheur humain. Elles se distinguent d’autres conceptions plus formelles, comme celles des « biens premiers » de John Rawls, en faisant le constat que les individus n’ont pas les mêmes besoins pour être en mesure d’accomplir le même acte : un hémiplégique n’a aucune chance de prendre le bus si celui-ci n’est pas équipé spécialement.


Après avoir rappelé ces notions partagées, Nussbaum se distingue en proposant une liste des capabilités qu’elle juge plus centrales que d’autres, parce qu’elles conditionnent lourdement la liberté de chacun de mener une vie digne : le droit à une vie suffisamment longue, à la santé du corps, à la liberté de se déplacer, à recevoir une éducation, à avoir les croyances qu’il souhaite, à ne se heurter à aucune discrimination raciale, ethnique ou sexiste, à avoir des loisirs, etc. On y retrouve ainsi, formulés plus généreusement, l’essentiel des droits humains universaux.
Ce faisant, Nussbaum introduit une hiérarchie là où Sen entendait maintenir la plus grande ouverture possible. Mais la démarche se défend, car, comme l’explique l’auteure, ces droits de la personne ne sont en rien une invention de l’Occident, mais une exigence plusieurs fois formulée en divers lieux et divers temps. Ce qu’elle montre, un peu trop rapidement peut-être pour clore un débat qui, périodiquement, agite l’Assemblée générale des Nations unies.

Martha Nussbaum
Née en 1947, est une philosophe américaine qui enseigne l’éthique à l’université de Chicago. Spécialiste de philosophie grecque ancienne, elle a développé une pensée originale où la notion de vulnérabilité occupe une grande place, faisant se rencontrer la condition féminine et le souci de justice sociale. Depuis 1980, elle collabore avec Amartya Sen et a développé avec lui la notion de « capabilités » en réponse aux insuffisances de la Théorie de la justice sociale de John Rawls. Par ailleurs, elle milite pour un enseignement faisant place aux humanités classiques. D’elle, on peut lire en français Femmes et développement humain, Éditions de femmes, 2008, Les Émotions démocratiques, Climats, 2011, et Capabilités, Climats, 2012.

Être et Temps, Martin Heidegger

Être et Temps est l’un des ouvrages fondateurs de la philosophie du XXe siècle. Étonnant succès pour un livre inachevé, difficile, terriblement abstrait, souvent obscur, qui ne propose aucune solution à l’existence, aucune explication finale du monde, aucun message de survie… L’attrait, voire la fascination, qu’a exercé cet essai tient sans doute à ceci : derrière un discours ontologique sur l’être s’y trouve une profonde méditation sur le rapport de l’homme au temps. Derrière les néologismes barbares (« Dasein » ou « l’être-là », le « Sein-in-der-Welt  » ou « être-dans-le-monde », etc.), c’est de la condition humaine, de sa finitude, du sentiment d’inachèvement, de l’angoisse face à la mort dont nous parle Martin Heidegger. C’est pourquoi ce livre, au-delà du projet strictement ontologique de l’auteur, a eu cette résonance existentielle et psychologique.


L’angoisse de la liberté

« Le sens de l’être de cet étant, que nous nommons Dasein, va se révéler être la temporalité », écrit Heidegger. Traduction : l’existence humaine – ou le Dasein – est marquée par la temporalité. Le temps n’est pas dans l’âme de l’homme ou dans le monde : c’est l’homme qui est dans le temps. Heidegger renverse la perspective classique ; il récuse les clivages sujet/objet, homme/monde. La condition humaine du Dasein est d’être « plongé dans le monde » (« Sein-in-der- Welt  »). Projeté dans le monde et dans le temps, l’être humain est d’abord un être ouvert et inachevé. Le sens de sa vie n’est pas fixé par avance. D’où une préoccupation (Besorgen), une inquiétude fondamentale, constitutive de son être. L’inachèvement, qui est notre part de la liberté, provoque aussi une profonde inquiétude. La situation du Dasein lui impose de prendre en charge son existence, de « s’engager » dans la vie. L’inquiétude, ou le « souci » comme le nomme Heidegger, est engendrée par la temporalité de l’homme. La première dimension de la temporalité, c’est l’avenir. Cet avenir n’est pas envisagé comme la simple anticipation d’événements futurs. Il faut le voir comme une « projection » de l’homme hors de soi, vers un au-delà ouvert et qu’il doit construire.

Le présent lui-même n’est pas simplement le fait de vivre l’instant, c’est le fait de se situer dans le monde et d’éprouver ses potentialités, ses capacités d’agir, de mettre en œuvre son « ouverture au monde ». La temporalité, succession du passé, du présent et de l’avenir, n’est donc pas, pour Heidegger, la succession de moments, d’instants qui défilent hors de nous. Le temps est pour l’homme un champ de possibles, le déploiement de sa condition. Il y a là une vision créative du temps. Le temps est une ouverture au monde.


Regarder la mort en face

Mais la temporalité de l’homme, c’est aussi sa tragédie : la mort est son destin. Comment vivre lorsque l’on se sait mortel et biodégradable ? Redoutable problème existentiel… Pour Heidegger, la plupart des hommes se cachent à eux-mêmes cette vérité. Ils ont inventé tout un système de défenses contre cette évidence. L’idée de l’au-delà a le grand avantage de proposer une option d’immortalité : c’est un peu notre joker métaphysique… Se laisser absorber par la quotidienneté de l’existence est une autre façon de détourner les yeux face à l’échéance suprême. Mais l’homme « authentique », selon Heidegger, est celui qui ose regarder sa propre mort en face, qui ose même l’anticiper. C’est à ce prix qu’il perd sa tranquillité d’esprit mais qu’il connaît le vrai prix de la vie et peut la vivre pleinement.

Martin Heidegger (1889-1976)
Élève d’Edmund Husserl qui le considérait comme son fils spirituel, Martin Heidegger s’est empressé de se démarquer de son maître. Avec être et Temps, il fait une entrée fracassante dans la philosophie et s’affirme comme un auteur majeur. De sa vie, on retient surtout son engagement nazi, sa relation avec son étudiante Hannah Arendt et sa vie de semi-ermite dans la cabane où il aimait se retirer.

L’Écriture et la Différence, 1967. Jacques Derrida

“Une trace ineffaçable n’est pas une trace.” 

Dans l’histoire de la philosophie, Jacques Derrida s’inscrit d’une façon bien singulière. Menant un long et minutieux travail de relecture des textes philosophiques, il ne cherche en vérité qu’à déchiffrer, dans les marges et entre les lignes des discours, un tout autre texte que celui qui se donne à lire. Ce travail porte un nom : la « déconstruction ». Notion utilisée par Martin Heidegger, la déconstruction a eu un grand succès aux États-Unis. Mais c’est à Derrida qu’il incombe d’en avoir théorisé la pratique, lui conférant une renommée internationale. Loin d’être une méthode que l’on pourrait appliquer selon des règles, la déconstruction est le principe de ruine logé au cœur de tout discours et de toute construction. Ce n’est pas une destruction. Déconstruire un texte, c’est interroger ses présupposés pour ouvrir une nouvelle lecture, une nouvelle interprétation. Ainsi, Derrida parvient à faire dire aux textes ce qu’ils ne semblaient pas dire jusque-là. Dans L’Écriture et la Différence, Derrida fait apparaître que la tradition philosophique n’a cessé de subordonner à la présence de la parole vive l’écriture, comprise comme un supplément technique et artificiel sans substance. En effet, la pensée occidentale, de Platon à Rousseau, pense atteindre le sens ultime des choses à travers le logos (la raison, la loi, le discours) qui s’exprime de façon naturelle à travers la parole. L’objectif étant alors de libérer l’écriture de sa présupposée secondarité à la parole qui occulte, selon Derrida, le rôle médiateur et structurant de l’écriture sur la pensée. C’est alors une illusion de croire que l’esprit peut accéder immédiatement au sens sans la médiation du langage. Jamais nous ne pouvons accéder immédiatement ni à ce que nous sommes ni à ce que voulons dire. Toute intention doit passer d’abord par un processus de significations qui suppose deux conditions : un déploiement dans le temps, qu’il appelle « différance » (1), et l’inscription dans des « traces », c’est-à-dire des éléments matériels qui se combinent dans un système de signes. C’est là le cœur de la théorie derridienne du langage. Prendre conscience que ce je pense implique une durée durant laquelle je me transforme. Je ne suis alors déjà plus le même au terme de mon énoncé. Il en est de même pour ce que je veux dire. Ce que j’énonce dépasse toujours ce que je croyais vouloir dire.

NOTES
1. Ce participe présent substantivé du verbe « différer » est le terme que choisit Jacques Derrida pour signifier le délai qu’implique la médiation du langage. Elle correspond aussi à l’écart de la différenciation, « différer de », « ne pas être identique », par lequel un sujet diffère de lui-même dans l’espacement de l’écriture.

Jacques Derrida (1930-2004)
Né en Algérie, il rentre, après la guerre, au lycée Louis-le-Grand, où il rencontre Pierre Bourdieu, Michel Deguy, Michel Serres. Il est ensuite invité à enseigner à l’École normale supérieure de la rue d’Ulm par Jean Hyppolite et Louis Althusser. En 1967, il publie De la grammatologie, La Voix et le Phénomène et L’Écriture et la Différence. Jacques Derrida commence alors à donner des cours et des conférences dans le monde entier.

L’Homme unidimensionnel

Herbert Marcuse, 1964.

“Le philosophe n’est pas 
un médecin ; il n’a pas pour tâche de soigner 
les individus, mais de comprendre le monde dans lequel ils vivent. ”
Bible de la pensée critique dans les années 1960, L’Homme unidimensionnel s’attaque de front à la description de ce qu’Herbert Marcuse nomme la « société industrielle avancée », présente aussi bien dans le monde capitaliste « libre » que du côté soviétique. Il dénonce la bureaucratisation des rapports sociaux et surtout le formatage de la pensée à travers les médias, la publicité ou la propagande, voire la simple morale ambiante. Aussi modernes soient-elles, les sociétés industrielles s’acheminent, selon Marcuse, vers une forme de « pensée unique » qui tue toute possibilité de divergence. Contre le marxisme orthodoxe, il ne croit plus au rôle émancipateur de la classe ouvrière, et compte plutôt sur les minorités actives que sont les intellectuels radicaux, les artistes, les minorités sexuelles pour secouer le joug des idées dominantes. Marcuse soutient une posture radicalement critique et même « négative », dans la mesure où la pensée positive s’identifie à la pensée unidimensionnelle. Paru en France en avril 1968, L’Homme unidimensionnel tombe à pic pour alimenter les forums des étudiants révoltés, et soutenir l’émergence d’une nouvelle gauche radicale antisoviétique, dont une partie alimentera, un peu plus tard, les rangs des mouvements « maoïstes ».

Herbert Marcuse (1898-1979)
Philosophe et politiste né à Berlin, il rejoint l’école de Francfort en 1932 et s’exile avec elle en 1933. Après la guerre, il enseignera aux états-Unis et adoptera la nationalité américaine. On lui doit, en 1955, Eros et civilisation, un développement libertaire de l’analyse freudienne.

Maitre Bachelard, l'homme du "feu"

“C’est en termes d’obstacles qu’il faut poser le problème de la connaissance scientifique.”

Penser rationnellement, scientifiquement, n’est pas un processus spontané de l’être humain. Cela ne peut se faire qu’après avoir surmonté un certain nombre d’obstacles épistémologiques. Telle est la thèse centrale de l’ouvrage majeur de Gaston Bachelard, La Formation de l’esprit scientifique (1938). Témoignant d’un attachement profond pour la fonction de professeur qu’il exercera jusqu’à la fin de sa vie, Bachelard puise le cœur de son épistémologie dans l’enseignement. Soucieux de comprendre le développement de l’esprit humain, il reproche aux professeurs de sciences de ne pas assez prendre conscience des connaissances empiriques déjà accumulées par l’élève lorsqu’il arrive à l’école. Le professeur n’a donc pas pour rôle de transmettre un savoir expérimental mais de le changer, « de renverser les obstacles déjà amoncelés par la vie quotidienne ». À partir de cette observation de professeur, Bachelard conçoit l’avancée scientifique comme une lutte permanente contre les « obstacles épistémologiques ». Le premier obstacle épistémologique à surmonter, selon Bachelard, est l’observation elle-même, s’opposant, dès lors à la « perception immédiate » comme instrument de connaissance et notamment au principe de l’induction, propre aux empiristes. Pour lui, la science ne provient pas du raffinement de l’intuition sensible. La vérité scientifique n’est pas à chercher dans l’expérience ; c’est l’expérience qui doit être corrigée par l’abstraction des concepts. Mais ces obstacles épistémologiques ne sont pas de simples erreurs contingentes. Ils sont constitutifs en eux-mêmes du développement scientifique. L’esprit doit alors commencer par critiquer ce qu’il croit déjà savoir, c’est-à-dire en rompant avec le sens commun qui procède généralement par images et qui nuit à l’élaboration de concepts précis. Pour illustrer son propos, Bachelard prend l’exemple de l’électricité. Au xviiie siècle, on se pressait aux amusantes expériences dans lesquelles un public mondain tressaillait sous l’effet des chocs électriques alors qu’« il faut attendre la science ennuyeuse de Coulomb pour trouver les premières lois scientifiques de l’électricité ». Dans un cas, il y a perception immédiate d’un phénomène mais sans compréhension, dans le second se développe un véritable processus d’interprétation dû à un effort d’abstraction. L’approche scientifique se constitue donc en rupture radicale avec nos modes habituels de pensée et d’expression. Bachelard réfute donc ceux qui tiennent notre perception immédiate pour un instrument de connaissance. C’est la capacité de formuler des interrogations pertinentes qui signe la marque du véritable esprit scientifique : « Toute connaissance est une réponse à une question. S’il n’y a eu de question, il ne peut y avoir de connaissance scientifique. Rien ne va de soi. Rien n’est donné. Tout est construit. » Cependant, Bachelard comprend qu’il ne suffit pas d’énoncer ces obstacles pour les voir disparaître. Il les soupçonne d’avoir une consistance psychologique, de faire partie d’une sorte d’inconscient épistémologique, une antichambre de la raison. Très inspiré par les travaux de Carl G. Jung, Bachelard va alors inventer « la psychanalyse de la connaissance objective ». Alors que la psychanalyse a pour but d’aider à se libérer d’un passé traumatique, la psychanalyse de la connaissance objective devrait, pense Bachelard, permettre à la raison de se libérer de ses croyances antérieures, des images poétiques qui la hantent. Il réalise, par ailleurs, que cet inconscient cognitif est lié, comme l’inconscient freudien, à des représentations sexualisées. En témoigne l’interprétation sexuelle d’une réaction chimique dans laquelle deux corps entrent en jeu. Il est fréquent d’analyser ces deux corps en considérant l’un comme actif tandis que l’autre serait passif selon une logique sexuelle. Cette vision va à l’encontre de l’esprit scientifique mais elle est, selon Bachelard, une étape inévitable : « Toute science objective naissante passe par la phase sexualiste. » C’est alors que le rationalisme engagé qui semble guider son projet philosophique va le mener vers une tout autre voie, celle de la poésie et de l’imagination qui aboutira, la même année, à son œuvre la plus étudiée aujourd’hui, La Psychanalyse du feu (1938). Car, en effet, si Bachelard compte encore beaucoup dans le paysage français, il s’agit davantage du Bachelard « nocturne », celui qui étudie la poésie, qui influence de manière décisive la critique littéraire. Des auteurs comme Roland Barthes et le cercle de Genève ont su tirer parti de cette œuvre et montré comment elle conformait l’unité d’une pensée.

Surrationalisme

Dans la théorie historique des sciences de Gaston Bachelard se dessine en filigrane une anticipation du futur de la science, la certitude qu’une nouvelle théorie scientifique viendra modifier radicalement le socle actuel de nos connaissances. Ce progressisme à toute épreuve, ce rejet de l’ordre établi, Bachelard l’appelle le « surrationalisme ». Par analogie avec le surréalisme, le surrationalisme se place comme l’avant-garde du rationalisme. De même que les surréalistes ont rompu avec l’esthétique traditionnelle et institutionnelle, le surrationalisme rompt avec le conservatisme de la raison. La référence au surréalisme évoque le caractère subversif de sa constitution. La raison devient une valeur, plus qu’un système normatif. Un idéal régulateur vers lequel l’esprit scientifique doit tendre, en opposition avec le sens commun. Elle n’est alors jamais acquise. Bachelard lui-même n’a cessé d’y aspirer : « Rationaliste ? Nous essayons de le devenir. »

Gaston Bachelard (1884-1962)

Né à Bar-sur-Aube en 1884, Gaston Bachelard suit un itinéraire philosophique atypique et ne se tournera que tardivement vers l’épistémologie. Né dans une famille d’artisans cordonniers, il travaille aux Postes et Télégraphes pendant de nombreuses années. Il se tourne vers les sciences et devient, au retour de la guerre, professeur de physique et de chimie au collège de Bar-sur-Aube. Il se tourne ensuite vers la philosophie, obtient en 1922 l’agrégation et enseigne à l’université de Dijon avant de devenir professeur à la Sorbonne puis directeur de l’Institut des sciences et des techniques.

Tractacus logico-philosophicus

Ludwig Wittgenstein 

Fils d’un industriel viennois, Ludwig Wittgenstein était un asocial : il a refusé l’héritage de son père et vécu toute sa vie en solitaire. Il a voyagé, vécu d’emplois éphémères avant de rejoindre l’université de Cambridge à partir de 1929, grâce à Bertrand Russell.


En 1918, paraît à Vienne une petite brochure de 80 pages rédigée par un inconnu : Ludwig Wittgenstein, jeune homme ombrageux, solitaire qui, jusque-là, a vécu à l’écart du monde. Mais son livre va faire l’effet d’une bombe philosophique. Tractatus se présente comme un ouvrage curieux, divisé en une suite de formules laconiques, chacune numérotée comme un théorème : « 1 - Le monde est tout ce qui a lieu » ou « 6373 - Le monde est indépendant de ma volonté »

Le thème central du livre porte sur la correspondance entre le monde et le langage, notamment sur la capacité de constituer une langue rigoureuse qui puisse représenter exactement la réalité. L’enjeu théorique – fort débattu à l’époque – consiste à délimiter, dans le langage, ce qui relève de la véritable connaissance de ce qui n’est que spéculation métaphysique, mots imprécis, vides de sens ou trop chargés de signification comme « âme », « amour », « Dieu », « liberté ».

Le monde est d’abord conçu comme « tout ce qui a lieu ». Tout part des faits, rien que des faits : « le chien aboie » est un fait. Et l’on peut décomposer le monde en une série de faits ou « d’état du monde » élémentaires. De son côté, le langage est formé de propositions, elles aussi décomposables en formules élémentaires : « il pleut », « Marie joue avec Claire »… Ces propositions sont considérées comme des images de la réalité. Elles ne sont vraies ou fausses qu’en tant qu’elles correspondent ou non à un état du monde donné.

Les propositions du langage sont reliées entre elles par des règles d’assemblage logiques (« si », « alors », « ou bien », « ne pas ») qui peuvent refléter une organisation du monde possible. Les propositions tirent leur validité de leur cohérence logique et de leur correspondance avec le monde. En dehors de cela, tout n’est que bavardage. « Dieu est tout-puissant », « cette fleur est belle » sont des propositions qui n’ont pas de vraies significations puisqu’elles ne portent pas sur une correspondance entre une proposition et un fait tangible (la beauté est un jugement de valeur et non un état de fait). Seules donc les sciences de la nature, qui portent sur le monde physique, ont une validité. La tâche de la philosophie, s’il en reste une, n’est pas de dire la vérité mais d’élucider les propositions du langage (« 4112 - Le but de la philosophie est la clarification des pensées »). Tous les discours qui relèvent de l’éthique ou de l’esthétique n’ont aucun sens du point de vue d’un langage vraiment rigoureux. Ils ne peuvent être tenus sans tomber dans la vacuité et la confusion. Wittgenstein écrit : « 6421 - C’est pourquoi il ne peut y avoir de propositions éthiques » car « Les propositions ne peuvent rien exprimer de supérieur ». Le résultat est donc brutal : en dehors des propositions qui portent sur les faits, il n’y a rien qui puisse être dit. Conséquence : « Sur ce dont on ne peut parler, il faut se taire. » Telle est la célèbre formule sur laquelle se conclut Tractacus. À partir de là, Wittgenstein considère qu’il a mis un point final à son travail, et qu’il a peut-être clos celui de la philosophie…


À peine publié, en anglais en 1921 puis en allemand en 1922 avec une préface de Bertrand Russell, l’ouvrage de Wittgenstein bénéficie d’un grand retentissement dans la communauté intellectuelle. Il va devenir le manifeste du cercle de Vienne, un groupe de philosophes, de mathématiciens, de physiciens, qui s’attelle à fonder une nouvelle philosophie de la connaissance : le positivisme logique. Cette doctrine affirme que seuls le recours aux faits (le positivisme) et la démonstration rigoureuse (la logique) ont place dans un discours scientifique. Pour le cercle de Vienne, Tractatus est une machine de guerre contre la métaphysique, les philosophies spéculatives, les discours idéologiques et les verbiages inutiles.


Le second Wittgenstein


Wittgenstein, lui, juge qu’il a terminé son travail. Il refuse de rejoindre le cercle de Vienne. Après plusieurs années d’errance, il reprendra tout de même contact avec l’université de Cambridge où l’accueille B. Russell. C’est là que sa légende se forge. Pendant toutes ces années, il ne publiera rien se contentant de rédiger des cahiers où il note ses idées.


Après sa mort, on découvre que l’un des cahiers contient de nouvelles bombes intellectuelles. Dans ce cahier (publié sous le titre Investigations philosophiques, 1953), Wittgenstein révise sa théorie du langage. Le but du langage n’a pas forcément pour but de décrire le réel mais de communiquer. Les mots servent d’abord à agir sur autrui. Donner un ordre, raconter une histoire vraie ou fausse, faire un mot d’esprit, se saluer, remercier, prier…, ces usages du langage ne visent pas à décrire un état du monde mais à intervenir dans le monde social.

Dès lors, le sens des mots n’est pas à chercher dans un rapport entre un signe et une chose (comme dans Tractacus), mais il est fait de conventions arbitraires entre les êtres humains. « Stop ! » ne dit rien sur le monde mais indique qu’il est temps de s’arrêter. On qualifie de « pragmatique » cette vision du langage, qui ouvre une nouvelle page de la philosophie du langage.

L’Esprit conscient

David Chalmers, 2010, L'esprit conscient.

Né en Australie en 1966, David Chalmers s’est fait remarquer dès l’âge de 30 ans avec son livre désormais classique L’Esprit conscient (Ithaque, 2010). Il enseigne à l’Australian National University et à la New York University. 
Sur son site, Chalmers a recensé aussi des milliers d’articles en philosophie de l’esprit. (http://consc.net/chalmers/)

Une vidéo circule sur Internet où l’on peut voir le philosophe David Chalmers, cheveux long et blouson de cuir, se produire sur scène en 2010 pour chanter (très mal) son Blues du zombie.
 

Le « zombie » en question est un personnage de son livre L’Esprit conscient, l’une des références principales de la philosophie de l’esprit contemporaine. Supposons, écrit Chalmers, un monde de zombies, c’est-à-dire un monde où vivent des individus en tout point comparables aux humains : même physique, même biologie, mêmes actions… sauf qu’ils n’ont pas conscience d’exister. Ils agissent donc sans conscience d’agir, comme des somnambules. Ils peuvent manger, boire, courir, mais ils ne connaissent pas les phénomènes de conscience tels que le goût de la fraise, la douceur des rayons de soleil sur la peau, la tristesse de la séparation. 

Des êtres vivants et agissants mais privés de ces phénomènes (que les philosophes appellent « qualia  ») sont-ils concevables ? Si l’on admet que oui (comme la plupart des scientifiques qui prétendent expliquer le fonctionnement du cerveau en termes de physique ou de biologie), c’est que la conscience ne leur est pas nécessaire. Le goût des choses qu’est la conscience est un « supplément d’âme » rajouté à l’univers matériel. Un supplément d’âme ? Cela rappelle la théorie dualiste de René Descartes qui postulait la coexistence de deux substances : le corps et l’esprit. C’est bien une forme de dualisme, répudié par la plupart des philosophes de l’esprit contemporains, que réhabilite Chalmers, à sa manière, car il admet que la conscience « survient sur des faits physiques »

Son livre a marqué les esprits car il n’est pas seulement celui d’un philosophe au profil atypique, il respecte tous les critères du raisonnement rigoureux : expériences de pensée, discussions critiques des thèses en présence, démonstration serrée fondée sur des arguments logiques. Voilà pourquoi il est vite devenu incontournable.

De la conscience

Daniel C.Dennet

Il est l’un des philosophes le plus reconnus aux États-Unis. Ses livres de philosophie de l’esprit sont nourris de sciences cognitives et de théorie de l’évolution. Né en 1942 à Boston, il enseigne au Center for Cognitive Studies de l’université de Tufts (Massachusetts). Son œuvre comprend plusieurs livres majeurs : La Stratégie de l’interprète, La Conscience expliquée, Darwin est-il dangereux ?, et Une théorie évolutionniste de la liberté.
  
La Conscience expliquée,
“Je suis un philosophe, 
pas un scientifique, 
et les philosophes sont davantage doués pour poser des questions que pour fournir des réponses.”

L’expérience qui consiste à conduire une automobile tout en menant une conversation avec son passager est un exemple de la capacité de la conscience à se scinder en deux « postes de commande » qui dirigent chacun parallèlement une activité. Pour Daniel C. Dennett, l’un des grands noms de la philosophie de l’esprit actuelle, auteur du volumineux La Conscience expliquée, cette simple expérience apporte un démenti à la théorie cartésienne de la conscience. Rappelons que pour René Descartes, la conscience est comme un pilote unique et universel qui gouvernerait l’ensemble des processus mentaux. Il existerait ainsi dans le cerveau un lieu central de traitement des informations (la glande pinéale) où toutes les informations venues de nos organes seraient centralisées et interprétées.
 

« L’idée qu’il existerait un centre spécial dans le cerveau est la plus mauvaise et la plus tenace de toutes les idées qui empoisonnent nos modes de pensée au sujet de la conscience. » Le livre de Dennett non seulement s’oppose à la thèse cartésienne de la conscience unique, mais propose une théorie empirique de l’esprit. Selon lui, ce que nous appelons « conscience » est une illusion. Le mot désigne tantôt un principe d’identité (être un moi unique et autonome), tantôt un sentiment d’exister (perception d’émotions, de plaisirs, de souffrance, d’« intentionnalité », disent les philosophes), tantôt encore la pensée réfléchie (métacognition, auto-observation et contrôle de soi). Pour Dennett, tous ces processus sont partiellement disjoints et chacun peut être éprouvé à des degrés divers. Dans la plupart des faits et gestes de la vie quotidienne, nous agissons de façon plus ou moins consciente, plus ou moins vigilante, plus ou moins réfléchie. Seulement dans quelques rares moments, ces processus se combinent pour former un sentiment de conscience pleine et achevée. C’est par illusion rétrospective que nous appliquons à tous nos actes mentaux l’idée qu’ils agissent de concert, gouvernés par une conscience unique.

Une conscience « pleine de trous » 

Dennett oppose à la vision cartésienne une théorie des « versions multiples » de la conscience. «  Selon le modèle des “versions multiples”, toutes les perceptions – en fait toutes les espèces de pensées et d’activité mentales – sont traitées dans le cerveau par des processus parallèles et multiples d’interprétation et d’élaboration des entrées sensorielles. »

À celle d’une conscience unique et omniprésente, Dennett préfère l’image d’un « flux » disparate d’éléments de conscience, un « chaos d’images variées, de décisions, d’intuitions, de souvenirs, etc. » qui sont traités parallèlement et se connectent parfois seulement. « La question que l’on peut poser est : où donc toutes ces choses se rejoignent-elles ? La réponse est : nulle part. »

Le moi conscient ne serait donc qu’un tissage, un regroupement momentané de fonctions reliées parfois par un récit unique. La plupart du temps, il existe des « quasi-moi », des bribes de conscience. C’est pourquoi, selon Dennett, il n’est pas choquant d’attribuer aux ordinateurs ou aux animaux des éléments de conscience. Après tout, l’ordinateur qui supervise de multiples fonctions, exécute des métaprogrammes, vérifie les données, effectue des choix… se comporte comme une personne qui effectue un calcul mental. La plupart des opérations mentales (comme marcher ou choisir ses mots du langage courant) n’exigent pas de nous un retour sur soi qui serait synonyme d’actes conscients. De la même façon, les animaux ressentent bien la distinction entre leur corps et le monde extérieur (entre le soi et le non-soi, disent les psychologues), manifestent des comportements d’autodéfense (et donc de protection de soi). Inutile donc de postuler une pensée réflexive pour lui accorder un embryon de conscience.

L’Être et l’Événement

“Le dépit philosophique provient uniquement de ce que, s’il est exact que ce sont les philosophes qui ont formulé la question de l’être, ce ne sont pas eux mais les mathématiciens qui ont effectué la réponse à cette question.”

Si Alain Badiou est en vogue dans les médias, c’est moins pour ses théories philosophiques que pour ses prises de positions politiques. C’est pourtant au sein de ses ouvrages les moins engagés qu’il marque véritablement le paysage philosophique contemporain. Aussi la théorie exposée dans son ouvrage principal, L’Être et l’Événement, rompt-elle avec la volonté que Badiou avait d’ordonner sa réflexion dans l’unique sens de l’action politique. Il y développe une réflexion « métaontologique » sur le rapport entre le savoir mathématique et l’être-en-tant-qu’être. À partir de la théorie des ensembles du mathématicien Georg Cantor, Badiou propose d’appréhender les mathématiques comme fondement de l’ontologie. Mais cette idée est vouée selon lui à ne convenir ni aux philosophes, qui se trouvent dépossédés de la question ontologique, ni aux mathématiciens, qui préfèrent se cantonner à la recherche mathématique pure. En fondant la connaissance du réel comme un savoir, les mathématiques deviennent le discours de ce savoir impliquant que le réel est en lui-même fondamentalement mathématique. En vérité, l’objectif de Badiou est de poser un savoir transhistorique qui articulerait le savoir, l’ontologie et les vérités produites historiquement par l’homme. Savoir par excellence, les mathématiques n’ont, en effet, pas accès à ce qui n’entre pas dans la catégorie de l’être-en-tant-qu’être, c’est-à-dire à l’événement. L’événement selon Badiou ne correspond pas à un savoir mais à des vérités esthétiques, politiques, ou amoureuses… Contingent par nature, l’événement ne peut pas être prédit. Tenant en échec la logique du calcul mathématique, il est de l’ordre du coup de foudre amoureux ou de l’ordre politique avec la révolution. Reprenant l’injonction pascalienne « il faut parier », Badiou propose de parier sur la politique communiste contre le savoir dogmatique, l’ordre mathématique du capital. Figure philosophique de l’engagement, le pari prend acte de l’imprévisibilité de l’événement, là où la vérité « subjectivisée » s’incarne. En tant que métaontologie, la philosophie de Badiou prétend, dès lors, combiner le savoir intemporel incarné par les mathématiques et les vérités historiques afin de dépasser le dualisme stérile entre le savoir et la vérité (1), entre l’être et l’événement.

(1) La vérité en acte 

La vérité, selon Alain Badiou, n’est pas une affaire de théorie mais « une question pratique » qui surgit au cœur de l’événement, c’est-à-dire « de ce qui arrive ». Ce n’est alors plus l’adéquation d’un discours à son objet mais un effort subjectif, une « pure conviction » qui s’apparente à une révélation, pensée cependant comme un processus subjectif.

Empire et Multitudes

Antonio Negri et Michael Hardt

Si vous pensez que « la prochaine grève sera la grève sur Internet » et que seule la multitude peut s’opposer à l’empire du capitalisme, c’est que vous êtes un négriste qui s’ignore. Figure de la pensée altermondialiste, le philosophe italien Toni Negri est célèbre pour son ouvrage Empire, coécrit avec l’universitaire américain Michael Hardt. Best-seller international de la contestation, Empire décrit l’extension du capitalisme à l’échelle de la planète comme l’instauration d’un système de domination totale, à la fois juridique, politique, militaire et culturelle. Forme suprême de domination internationalisée, l’empire aurait pris l’ascendant sur les États-nations les plus puissants et se déploierait en un vaste réseau mondial très mobile. S’enracinant dans toutes les régions du monde, toutes les activités sociales, l’empire contrôle aussi, via la biopolitique, tous les aspects de la vie. Omnivore, il ne permettrait plus l’existence d’un « extérieur » à lui-même. Sa principale caractéristique est le travail immatériel, c’est-à-dire « une forme de travail qui crée des produits immatériels, tels que du savoir, de l’information, de la communication, des relations ». Mais si aucune alternative n’est possible en dehors de l’empire, de nouvelles formes peuvent, en revanche, émerger en son sein. Cette alternative est la multitude. Considérée comme un ensemble d’individualités, la multitude exprime les désirs, les luttes et les résistances des hommes à l’intérieur de l’empire. Elle est un pouvoir émancipateur, se confrontant aux pouvoirs institués sous la forme d’une effervescence subjective et créatrice. Pour Negri et Hardt, seules la multitude et ses formes variées de résistances pourront s’opposer à la logique de l’empire. Mais la question de la diversité humaine se pose alors. Les forces de résistances étant éclatées, la stratégie de la multitude ne risque-t-elle pas de sombrer dans le piège d’une dispersion de la contestation ? Pour les deux auteurs, la multitude échappe à cet écueil car elle est faite « de singularités agissant en commun ». En effet, s’ils mettent en avant la diversité, ils gardent une vision très unifiée de la société existante parce que soumise à un ordre capitaliste homogène. Prétendant poser les bases d’un postmarxisme proche de Gilles Deleuze et Michel Foucault, les thèses de Negri sont aujourd’hui particulièrement discutées en France et notamment dans la revue inspirée de ses travaux : Multitudes.

Pour une responsabilité écologique

Hans Jonas, 1979, Le principe de responsabilité.

Spécialiste des courants gnostiques, peu connu du grand public, Hans Jonas a 76 ans et déjà une longue carrière derrière lui quand il fait paraître Le Principe Responsabilité en 1979. L’ouvrage connaît un immense succès en Allemagne et devient en quelques années le livre de chevet de nombreux écologistes. 


Pour Jonas, les éthiques traditionnelles sont caduques. Il n’entend donc rien moins que proposer « une éthique pour la civilisation technologique ». Le titre Le Principe responsabilité fait référence au principe espérance du marxiste Ernst Bloch qui réhabilitait l’utopie. Au-delà de Bloch, c’est plus généralement au marxisme que s’attaque Jonas. Et notamment son rapport « naïf » à la technique, survalorisée sans véritable conscience des dangers qu’elle recèle. 

Le constat dont part Jonas fait l’objet d’un consensus de plus en plus large : le développement des sciences et des techniques met en péril la nature et l’homme lui-même. Dans une folle fuite en avant, il semble devenu immaîtrisable. Or, l’éthique traditionnelle ne peut répondre à ce problème. Elle souffre selon lui de plusieurs insuffisances. Tout d’abord, elle est trop anthropocentrique, c’est-à-dire qu’elle est centrée sur les rapports qu’ont les hommes entre eux alors qu’il faut désormais songer aussi à nos rapports à l’environnement. Du reste, ce n’est pas seulement lui qui est menacé mais aussi la nature humaine elle-même – notamment par les manipulations génétiques – et les conditions d’une existence digne de ce nom. 


Le rapport au temps de l’éthique traditionnelle est trop étroit : elle envisage le présent ou le futur proche là où il est devenu indispensable de penser notre responsabilité par rapport à l’avenir et même à un avenir lointain. Les effets néfastes de la technique ont un impact à long voire à très long terme (les déchets nucléaires par exemple). En ce sens, c’est proprement une « éthique du futur » que propose Jonas.


Jonas n’a pas la naïveté de penser que ce problème éthique peut être simplement résolu à un niveau individuel. S’il ne propose pas à proprement parler de théorie politique, il émet sans détour des doutes sur la capacité des gouvernements libéraux représentatifs à mettre en œuvre cette éthique de la responsabilité. L’horizon temporel de ceux qui exercent un mandat politique est bien trop limité. Ils ne peuvent en outre se risquer à aller contre la volonté du peuple, même pour son bien. Le processus démocratique est à ce titre difficilement compatible avec son éthique du futur. Jonas croit davantage en « une tyrannie bienveillante, bien informée et animée par la juste compréhension des choses ». Une vision politique qui rencontrera, sans surprise, de nombreuses critiques ! Ce ne sont pas les seules. Beaucoup jugent rétrograde et pessimiste la vision de la technique qu’a Jonas, perçu comme un nouveau prophète de malheur. À quoi celui-ci par avance rétorque dans son ouvrage : « La prophétie de malheur est faite pour éviter qu’elle se réalise ; et se gausser ultérieurement d’éventuels sonneurs d’alarme en leur rappelant que le pire ne s’est pas réalisé serait le comble de l’injustice : il se peut que leur impair soit leur mérite. »
 
Catherine Halpern

Les conditions de l’homme moderne

Hannah Arendt et la question de la modernité

“Ce que nous avons devant nous, c’est la perspective d’une société de travailleurs sans travail, 
c’est-à-dire privés de la seule activité qui leur reste. On ne peut rien imaginer de pire.” 

Qu’est-ce qui caractérise la modernité ? C’est le fait d’avoir mis les hommes au travail, au détriment de toute autre forme d’activité. Voilà résumée la pensée directrice de Condition de l’homme moderne, publié en 1958. Hannah Arendt y opère la distinction fondamentale entre trois activités humaines : le travail, l’œuvre et l’action. Le travail, destiné à assurer la simple conservation de la vie, n’est pas spécifique aux hommes mais est commun à tout le règne animal. L’œuvre en revanche, parce qu’elle fournit un « monde artificiel d’objets » est une activité proprement humaine. Poètes, bâtisseurs ou artisans produisent des œuvres qui scellent leur appartenance au monde. L’action politique, ultime degré de la trilogie arendtienne de la vita activa, est la « seule activité qui mette directement en rapport les hommes », car elle implique de s’extraire du confort de la vie privée, de s’exposer et de se confronter aux autres en public. Dans la Grèce antique, la frontière était très marquée entre la sphère privée des femmes et des esclaves, et le domaine public, réservé aux hommes. Pour Arendt, l’avènement de la modernité dissout cette démarcation entre public et privé et provoque la confusion des genres : le travail y est alors élevé au rang d’activité publique et l’espace politique est envahi par des problématiques sociales, où une catégorie sociale spécifique – la bourgeoisie essentiellement – défend ses intérêts privés. 


Que les affaires sociales ne relèvent pas, pour Arendt, à proprement parler de l’action politique n’est pas sans poser problème à plusieurs de ses commentateurs. Ainsi, sa vieille amie Mary McCarthy lui demande : « Au fond, qu’est-ce que quelqu’un est supposé faire sur la scène publique, dans l’espace public, s’il ne s’occupe pas du social ? Ce qui veut dire : qu’est-ce qui reste ? (…) Il ne reste que les guerres et les discours. Mais les discours ne peuvent pas être simplement des discours. Ils doivent être des discours sur quelque chose. » Pour Arendt, la vertu première de l’action politique que ne possède pas le social, c’est la délibération, véritable expression de la pluralité des opinions. Les questions sociales répriment selon elle la diversité des points de vue, en ce qu’elles se situent bien souvent au-dessus de toute discussion. Parce qu’il est indiscutable que tous les hommes ont besoin d’un logement, cette question sociale n’appelle aucune délibération politique et n’attend qu’une solution comptable. 

Mais plus encore que le social, c’est le travail qui grignote la sphère de l’action politique pour Arendt. En déniant au travail l’expression de l’humanité des hommes, Arendt s’oppose fermement aux théories marxistes. Ces dernières placent dans le travail des qualités qu’Arendt ne concède qu’à l’œuvre : l’édification d’un monde humain. Le travail, pour Arendt, ne produit que des biens périssables et consommables. Produits en abondance, ils n’en deviennent pas moins éphémères pour autant : la cadence de consommation est alors accélérée, détruisant les objets à mesure qu’ils sont produits. La permanence et la stabilité des objets et du monde s’en trouvent menacées : pour Arendt, «  le danger est qu’une telle société, éblouie par l’abondance de sa fécondité, prise dans le fonctionnement béat d’un processus sans fin, ne soit plus capable de reconnaître sa futilité ».


Céline Bagault (Sciences Humaines)

Pourquoi le social-libéralisme est dans l'impasse

Mardi 4 Décembre 2012, Marianne 2.fr

Alors que sa base populaire s'est considérablement affaiblie, le nouveau pouvoir reste prisonnier des dogmes néolibéraux qui le conduisent à pratiquer le grand écart entre ses promesses et ses actes, analyse les sociologues Michel Pinçon et Monique Pinçon-Charlot, auteur de «L'argent sans foi ni loi. Conversation avec Régis Meyran» (Textuel, 2012).

François Hollande n'aurait pu être élu président de la République sans l'apport des voix du Front de gauche, ce qui l'a obligé à des promesses de campagne pour une meilleure répartition des richesses entre le capital et le travail. Mais les promesses, une fois de plus, ne valent que pour ceux qui veulent bien y croire. Après cinq ans d'un «président des riches» qui a comblé les plus fortunés de nombreux cadeaux fiscaux, le gouvernement de Jean-Marc Ayrault n'a augmenté le taux horaire du Smic, hors inflation, que de 18 centimes d'euros (brut) !

(Michel Pinçon et Monique Pinçon-Charlot - DR)
(Michel Pinçon et Monique Pinçon-Charlot - DR)
Le mépris pour les millions de Français dont les salaires sont au-dessous du revenu médian, qui s'établit à 1 676 € net par mois, ne va pas les inciter à participer davantage à la vie politique. L'abstention a battu des records pour les élections législatives de juin 2012 : 44,6 % des électeurs inscrits ne sont pas allés voter au second tour. C'est le taux le plus élevé pour des élections législatives depuis 1958, date à laquelle il fut de 25,2 %. De 1958 à 1978, l'abstention a régulièrement reculé. Elle n'atteignait que 15,1 % en 1978. Puis elle a augmenté de 1981 à 2012. Cette concomitance avec les élections de deux présidents socialistes démontre que la duperie de la fausse alternative déroute massivement l'électorat notamment populaire.

Au premier tour de l'élection présidentielle, le candidat François Hollande a recueilli 10 272 705 suffrages, ce qui représente 22,3 % des 46 066 307 inscrits. Le chef de l'Etat était donc minoritaire dans les souhaits des électeurs. Ce que soulignent aujourd'hui les réticences des écologistes, pourtant membres du gouvernement, et le peu d'empressement à le soutenir des élus et militants du Front de gauche. Il y a là une faiblesse de la base sociale susceptible de se mobiliser pour soutenir l'action gouvernementale.

Un soutien aussi faible du peuple français a ses raisons. On peut faire l'hypothèse du souvenir amer laissé par les années mitterrandiennes : ce fut l'époque où la dérégulation du système financier a triomphé, soutenue par un ministre de l'Economie et des Finances, Pierre Bérégovoy, qui a laissé de bons souvenirs dans les beaux quartiers. Le pacte budgétaire et sa «règle d'or», dont la remise en cause et la renégociation avaient été imprudemment mises en avant par le candidat Hollande, sont des signes avant-coureurs des renoncements à venir. Les choix budgétaires de la France sont donc désormais sous le contrôle des experts européens. Le président a, très «normalement», envoyé un message politique clair aux marchés financiers. Le nouveau pouvoir socialiste va bel et bien continuer à appliquer les directives du néolibéralisme et mettre en œuvre une politique d'austérité à perpétuité pour les peuples. Cette reprise à son compte du drapeau de la «compétitivité» va se traduire pour les travailleurs par de nouveaux sacrifices pour les seuls bénéfices du capital et de ses actionnaires.

Un régime censitaire
Les manipulations idéologiques et linguistiques ont été reprises par l'Elysée et l'Assemblée nationale, pour continuer à faire croire, dans une inversion totale des valeurs morales et économiques, que le travail coûte trop cher à ces riches et généreux investisseurs qui créent des emplois. Les politiciens du Parti socialiste poursuivent la mise en scène de la défense de l'emploi en France, alors qu'ils savent très bien qu'ils appliquent la politique néolibérale qui a instauré dans les moindres détails du droit français et européen la liberté totale du capital pour délocaliser les emplois ouvriers et de service dans les pays les plus pauvres où la main-d'œuvre est payée au tarif local, celui de la misère.

Comment croire que les socialistes pourraient mener une politique plus douce à l'égard des travailleurs, alors qu'ils sont formés dans les mêmes grandes écoles que les patrons et les politiciens de droite : ENA, Sciences-Po, HEC et, bien entendu, Harvard ? Coupés du peuple avec le cumul des mandats - sur les 297 députés du groupe socialiste de l'Assemblée nationale, on compte 207 cumulards -, les élus socialistes, dans le souci de faire progresser leur carrière en politique, ont rejoint les intérêts de la classe dominante dont ils sont devenus les alliés objectifs. Tous d'accord pour que, au nom de la «démocratie» et des «droits de l'homme», la vie politique française soit gérée dans un régime, en réalité censitaire, où les élites sociales qui composent l'essentiel des chambres vont promulguer les lois les plus favorables à leurs intérêts et à ceux qu'ils représentent. Comment se fait-il que les ouvriers et les employés, qui sont 52 % de la population active, ne soient présents ni à l'Assemblée nationale ni au Sénat, ou si peu ? Cette absence explique le désintérêt pour la politique que traduit le succès remarquable du parti des abstentionnistes.

Dans la phase néolibérale d'un système capitaliste financiarisé, hautement spéculatif à l'échelle du monde, il n'y a pas d'accommodement possible comme ce fut le cas pendant les Trente Glorieuses où la croissance et un Etat-providence fort autorisaient la redistribution. L'avenir de la présence de l'homme sur la Terre est menacé. Seule une opposition claire à cette économie destructrice rendra possible la construction et la mise en œuvre d'une société ou l'humain détrônerait à tout jamais l'argent sans foi ni loi.