Vers une société cybernétique ? Avec Maxime Ouellet et Julie Paquette pour le Cégep Saint-Jean-sur-Richelieu.


(0)
488 Vues
0 commentaire
21.04.2022

C'est dans une perspective critique que sont abordées les nouvelles questions posées par l'utilisation toujours plus intensive et extensive des algorithmes, sur la base des Big Data, dans la régulation de la vie privée et publique au sein de nos sociétés.
Cette "intelligence artificielle" se transforme en véritable gouvernance algorithmique échappant au contrôle démocratique des peuples qui lui sont soumis, nécessitant alors une véritable théorie critique pour que les mutations sociopolitiques conduisant à la mise en place de cette forme inédite de régulation de la pratique sociale ne reste pas un angle mort de la réflexion.

Culture numérique. Avec Dominique Cardon pour l'Université de Grenoble.


(0)
497 Vues
0 commentaire
27.03.2020

Professeur à Sciences Po Paris, Dominique Cardon est un spécialiste de "culture numérique" et à récemment publié une monographie sur les impacts des TIC sur notre culture au sens large.
De la production à la validation de savoir c'est toute notre manière d'appréhender le monde qui est bouleversée par l'utilisation de l'informatique, des réseaux sociaux, mais aussi de l'intelligence artificielle qui crée de la connaissance en dehors de l'humanité.
L'occasion de discuter en profondeur des aspects sociolgiques liés à ces nouvelles technologies numériques en réseau.

Émission "TIC Talk", animée par Frédéric Prost.

Les pièges de l'identité numérique. Avec Philippe Guillemant pour le Cercle Aristote.


(0)
526 Vues
0 commentaire
09.2021

Et si le but principal de la vaccination était de parvenir à une normalisation du port d'identité numérique par chaque citoyen ?
L'ingénieur et physicien Philippe Guillemant, spécialiste en intelligence artificielle, nous explique comment la crise sanitaire a accéléré certains bouleversements sociétaux et quel futur cela laisse entrevoir.

Un entretien mené par Pierre-Yves Rougeyron.

L'obsolescence de la pensée à l'époque des robots. Avec Maxime Ouellet et Eric Martin à l'Université du Québec à Montréal.


(0)
579 Vues
0 commentaire
29.11.2019

L'industrie serait-elle la liaison médiatrice qui assemble les opposés dans la nouvelle civilisation industrielle ? Ou une nouvelle orientation remplacerait-elle la dialectique, comprise comme logique formelle, par une nouvelle raison fondée sur les arts mécaniques ? Maxime Ouellet, dans un premier temps, s'appuie sur ces deux hypothèses pour analyser l'émergence de l'intelligence artificielle au XXe siècle. Cette nouvelle ère de résulte d'une triple révolution : managériale, cybernétique et néolibérale, qui est au fondement de l'actuel passage d'un capitalisme d'organisation vers un capitalisme tantôt nommé cybernétique ou de plateforme. Au plan sociologique, ces transformations donnent lieu à une nouvelle forme algorithmique de régulation de la pratique sociale reposant sur l'automatisation de la connaissance.
Au moyen de la méthode dialectique de déduction sociale des catégories de la pratique, les nouvelles théories postmodernes, comme celles des acteurs-réseaux ou du nouveau matérialisme, consistent en l'expression théorique acritique de cette nouvelle forme de régulation sociale. Les implications épistémologiques, politiques et économiques de la régulation algorithmique sont alors présentées à travers l'exemple de la stratégie québécoise de développement de l'intelligence artificielle axée sur les partenariats entres les universités et les acteurs dominants du capitalisme de plateforme.
Dans un second temps, c'est à partir, notamment, de Michel Freitag, Cornelius Castoriadis et Eric Sadin, qu'Eric Martin s'intéresse à la prolifération des discours "éthiques" et des "éthiciens" en intelligence artificielle, dans l'université et dans l'espace public, qui prétendent baliser le développement technoscientifique au moyen de principes devant prémunir contre ses dérives. Or, cette éthique apparaît plutôt comme un sous-produit de la mise en place d'un mode de reproduction opérationnel-décisionnel. Le développement technoscientifique autonomisé produit "en face" de lui (Freitag) un ensemble de droits ou principes transcendantaux ou formels, notamment à partir de théories issues de la philosophie politique libérale, avec la prétention que ces balises pourront encadrer une puissance fondée sur l'illimitation qui viendra au contraire les dissoudre, quand ce n'est pas déjà fait. Ici, l’éthique libérale et formelle apparaîtra comme la forme contemporaine de la "misère de la philosophie" (Marx).
Est plutôt proposé de lier les considérations éthiques à une démarche politique globale visant à la réinstitution des conditions pédagogiques et politiques permettant d'aller à contre-courant du mouvement de robotisation du jugement et de dissolution de l'espace public politique permettant l'auto-institution de la société plutôt que la domination systémique. Cette démarche doit elle même s'appuyer sur une conversion cognitive reconnaissant notre dépendance envers certaines conditions ontologiques qui, bien qu'étant le résultat d'un développement marqué par la contingence, sont essentielles au maintien dans l'existence du monde et appellent une forme d'autolimitation, alors que la rationalité technoscientifique systémique est précisément fondée sur l'émancipation et l'autonomisation de la production et du faire à l'égard de toute reconnaissance de cette dépendance ontologique.

Une conférence organisée par le Collectif Société.

Comment faire la morale aux robots ? Avec Martin Gibert pour les Conférences de Montréal en éthique de l'intelligence artificielle.


(0)
570 Vues
0 commentaire
05.11.2020

Qu'est-ce qu'un bon robot ? Comment devrait-il se comporter dans une situation délicate et dans quelle mesure les théories morales traditionnelles peuvent-elles se traduire en algorithmes ?
Le chercheur Martin Gibert nous introduit ici à l'éthique des algorithmes en s'interrogeant sur la meilleure manière de programmer un agent moral artificiel.
Il soutient que c'est l'éthique de la vertu qui, combinée à cette technique d'Intelligence Artificielle qu'est l'apprentissage supervisé, semble la plus apte à donner des robots fiables, neutres sur le plan métaéthique, et dignes de confiance.

La révolution numérique. Avec Olivier Ezratty pour le podcast Sismique.


(0)
834 Vues
0 commentaire
02.2019

L'accélération du progrès technologique est peut-être ce qui caractérise le mieux notre époque. Nous avons développé des outils qui nous donnent un pouvoir immense et d'une sophistication encore inimaginable il y a quelques décennies.
La révolution numérique en particulier a eu pour conséquence une accélération du rythme de l'innovation, permettant notamment à l'information de circuler tout le temps et partout, au point que nous sommes tous plus ou moins dépassés par la profondeur et vitesse de changement de notre environnement.
Olivier Ezratty est un veilleur technologique qui passe son temps à tenter de comprendre ce que le développement et la diffusion des technologies numériques impliquent pour la société, les entreprises et les individus. Il revient ici sur l'histoire récente de la tech, de l'intelligence artificielle, de l'informatique quantique et de ce qu'il faut en retenir pour mieux appréhender la complexité du monde actuel et imaginer ce qui arrive.

Un entretien mené par Julien Devaureix.

Les algorithmes et la bêtise artificielle. Avec Bernard Stiegler à la Bibliothèque nationale de France.


(0)
1229 Vues
0 commentaire
10.11.2018

Les algorithmes, suites d'instructions élémentaires, existent depuis l'Antiquité. Ces "savoir-faire" n'ont cessé depuis de se perfectionner et sont appliqués à de nombreux domaines. C'est aux ordinateurs que l'on doit leur pénétration massive dans les sciences contemporaines.
Ces algorithmes informatiques ont évolué vers de nouvelles formes, comme le Deep Learning, et sont passés du statut d'outils développés par les chercheurs au rang d'acteurs de la recherche. S'achemine-t-on vers la disparition du chercheur humain et son remplacement par des robots ?
Le philosophe Bernard Stiegler apporte un éclairage sur cette transformation algorithmique qui concerne tant la science fondamentale que la société, propose des exemples de ses applications dans plusieurs champs scientifiques et s'interroge sur les enjeux actuels pour la société.

Une conférence qui s'inscrit dans la 16e rencontre "Physique et interrogations fondamentales",

Les grandes idées du XXe siècle. Avec Normand Baillargeon sur Radio Canada.


(0)
1132 Vues
0 commentaire
19.02.2020

Le XXe siècle aura été un riche incubateur d'idées et d'approches novatrices, dont les répercussions se font encore sentir aujourd'hui.
Accompagné de plusieurs spécialistes, le philosophe Normand Baillargeon aborde les problématiques de l'école pour tous comme idéal de démocratisation de l'éducation, de l'écologie et du mouvement environnemental, discute d'intelligence artificielle ou encore d'économie de marché.
Tout au long de cette série d'émissions, il souhaite offrir des clés de compréhension afin que chaque citoyen puisse saisir les enjeux des grandes idées scientifiques, politiques et philosophiques qui façonnent le monde d'aujourd'hui et de demain.