L'adage nous enseigne que "la réalité dépasse souvent la fiction". Et s'il s'agissait, simplement, de la fiction qui devenait realité ?
Car au fondement des tentatives acharnées mises en place par le pouvoir pour remodeler les individus et leur comportement, il y a une idée fondamentale : le constructivisme intégral. L'une des constantes de l'ingénierie sociale est ainsi de considérer l'existence entière comme une construction. Tout ce qui est donné, tout ce qui est naturel, peut être déconstruit puis remodelé, transformé et artificialisé selon un nouveau plan.
Pour désigner ce schéma général de déconstruction-reconstruction de tous les aspects de la vie, Jean Baudrillard parlait de "crime parfait" en dénonçant la mise en place d'un simulacre technologique du monde réel.
Quand le réel s'efface, c'est le storytelling qui s'impose.
Dans cet entretien-fleuve, le philosophe Eric Sadin, auteur des ouvrages La Silicolonisation du monde (Editions L'échappée, 2016) et L'intelligence artificielle ou l'enjeu du siècle (2018) analyse les changements économiques et sociaux liés à l'intelligence artificielle, offrant une lecture volontairement provocante qui n'épargne pas les thuriféraires des dernières avancées technologiques.
Dans ce séminaire, Bernard Stiegler poursuit sont de l'exorganogenèse de l'urbanité. Il décrit ainsi la transformation des organes exosomatiques s'agrégeant pour former les exorganismes complexes : les villes, les usines et leurs relations, qui se substituent au lien entre villes et Eglises. Les territoires urbains acquièrent ainsi à l'époque industrielle des traits nouveaux - caractéristiques de l'Anthropocène.
Quelle était la fonction de l'Eglise ? Vieille question sur laquelle Bernard Stiegler revient à l'époque où nous croyons devoir projeter une finalité dans l'Anthropocène et contre l'anthropie en quoi il consiste.
Il faut ici rappeler la finalité de ce séminaire : il s'agit de projeter une sortie de l'Anthropocène, c'est à dire une perspective vers le Néguanthropocène, par la reconstitution d'une macro-économie guidée par ce que nous appelons la néguanthropie comme critère définitoire de la valeur.
L'économie de la néguanthropie, ou anthropie négative n'est pas simplement la translation de l'entropie négative telle que Schrödinger tente de la penser dans l'organique. Le passage à l'exorganique nécessite en effet une reconceptualisation qui dépasse les concepts de néguentropie dans le champ technologique, tels qu'ils sont issus de la théorie de l'information.
Ces conditions exorganiques passent par la question du droit telle qu'elle est liée aux conditions de transformation de la mémoire, et à la circulation de ce que l’on appelle depuis moins de deux siècles l' “information”. Elles donnent à considérer nouvellement la place de l'art, le rôle des archives et leur centralité, la réticulation intra-urbaine et extra-urbaine, telle que s'y produisent des relations d'échelles qui, à notre époque, sont au cœur des "plateformes" devenant biosphériques en mettant en œuvre des technologies de scalabilité.
Les mots clefs du programme du dernier Foucault sont : subjectivité et vérité. La subjectivité, le souci de soi, priment sur la vérité. Le souci de soi n’est pas la recherche d’une connaissance de soi, de l’intériorité, c’est une recherche des manières de maitriser son corps, ses désirs, de parvenir à une hygiène de vie et à la sagesse, que Foucault appelle aussi une "spiritualité".
Foucault a souvent insisté sur la séparation, à l’âge moderne, de la vie de l’esprit comme recherche de la vérité et entreprise de connaissance, et de la vie éthique, au sens d’une recherche de la sagesse. La vie de l’esprit a été opposée, dans la tradition chrétienne, à la vie du corps. A l’âge moderne, quand s’est formée l’image de la science, l’opposition s’est accrue entre la poursuite de la vérité et celle de la sagesse, entre connaissance et éthique.
Le "retour aux Grecs" de Michel Foucault est en grande partie une archéologie de cette opposition, et une tentative pour renouer les liens entre vérité et subjectivité, entre connaissance et éthique.
Dans L’usage des plaisirs et dans les autres textes de cette période de son œuvre, Foucault essaie de dépasser l’opposition vérité/subjectivité et objectif/subjectif. Mais cela passe par une conception non aléthique de la subjectivité, par une théorie sceptique ou nihiliste de la vérité, intenable à la fois en elle-même et du point de vue historique. Cela passe aussi par une conception de l’authenticité et de la subjectivité très biaisée. On le voit par exemple dans la manière dont Foucault traite de la curiosité, désir épistémique.
Pascal Engel lui oppose une autre conception de la vie de l’esprit, classique et néo-aristotélicienne, selon laquelle la vérité est le but de la connaissance, laquelle est coextensive à l’eudaimonia, et selon laquelle le vrai a une valeur intrinsèque. Une autre conception de la curiosité est requise, et une autre conception de la généalogie des valeurs et des vertus de vérité est également requise. Elle constituera les prémisses d’une conception anti-foucaldienne de la vérité, de la subjectivité et de la généalogie, et du slogan "vitam impendere vero".
Le concept de vérité a-t-il encore une validité pratique et théorique aujourd'hui ? Au croisement des sciences et de la philosophie, Etienne Klein, Francis Wolff, Pascal Engel et Marc Mézard confrontent leurs points de vue pour nous aider à mieux cerner la notion de vérité et à comprendre son domaine de validité.
Un atelier-débat s'inscrivant dans la 15e journée de conférences en histoire des sciences et épistémologie/Journée George Bram, animépar Emmanuelle Huisman-Perrin.
L'un des principaux fils directeurs de l'itinéraire philosophique de Pierre Magnard, au travers des œuvres de Heidegger, Nietzsche et Pascal, est la question du sens. Elle fut également au cœur de sa rencontre avec le trop tôt disparu Maurice Merleau-Ponty.
Retour sur une question aux enjeux fondamentaux.
Le statut ontologique des mathématiques, déjà un sujet en soi, est ici mis en relation avec le problème du beau. On sait que les mathématiciens, dans un souci d'économie, sont constamment à la recherche d'équations élégantes. Mais celles-ci sont-elles toujours physiquement vraies ? Et comment faire le lien entre ces objets conceptuels et leur efficacité bien réelle dans le domaine physique ?
Une conférence qui prend place lors des "Rencontres Science et Humanisme".
De la gouvernementalité algorithmique de fait au nouvel état de droit qu’il lui faut : c'est de ce thème dont débattent Bernard Stiegler et Antoinette Rouvroy.
Cette dernière, s'appuyant sur la notion de "régimes de vérité" chez Foucault, explore la question de savoir en quoi la "gouvernementalité algorithmique", apparue avec le numérique, constitue un nouveau mode de gouvernement des conduites, et souligne ses répercussions cruciales en termes épistémologiques, sémiotiques et juridiques. Elle met en évidence une crise de la notion de représentation, portée par l'idéologie des big data selon laquelle le traitement automatique des "données brutes" permettrait de découvrir la vérité à même le réel, en se passant de toute vérification, de toute interprétation, de toute critique. A travers le travail opéré sur ces données, qui en efface la signification, ce sont aussi trois sources d'incertitude qui tendent à être suspendues : celles de la subjectivité, de la sélectivité et de la virtualité. Tout en montrant les conséquences de cette idéologie des big data sur l'identité personnelle, qui témoigne du paradoxe d'une hyper-personnalisation mêlée à une fragmentation et un isolement de l'individu, Antoinette Rouvroy pointe également trois types de "récalcitrances" à ce mouvement, que sont l'ineffectué de l'histoire, l'ineffectué de l'avenir et la mansuétude humaine.
Bernard Stiegler, quant à lui, ajoute à ces réflexions l'idée d'un droit algorithmique qui resterait à construire. Le caractère indispensable d'une différenciation entre le fait et le droit trouve une illustration particulière à travers la réfutation du texte de Chris Andersen, The End of theory, qui postule l'inutilité de la formulation d'hypothèses et l'élaboration de théories scientifiques à l'heure des big data. Bernard Stiegler montre la nécessité d'un effort d'interprétation des données brutes, en s'appuyant sur la distinction kantienne entre l'entendement, dont les processus analytiques sont computationnels et automatisables, et la raison dont les processus synthétiques échappent au règne de l'automaticité et rendent l'individu capable de trancher et de décider. Il souligne également le lien entre l'automaticité algorithmique et les problématiques du capitalisme contemporain, en particulier ses conséquences sur l'emploi. Il est dès lors capital de mobiliser notre raison, orientée vers l'instauration de circuits de transindividuation, pour élaborer dès à présent un nouveau modèle.
Une rencontre organisée par l'Institut de recherche et d'innovation dans le cadre du séminaire Digital Studies.