
Resumos
Alexandre Veronese (UnB):
PROTECTION DES DONNÉES PERSONNELLES, INTELLIGENCE ARTIFICIELLE ET LITTÉRATIE NUMÉRIQUE: une analyse à partir d’une enquête de terrain menée dans des pays d’Amérique Latine
Cette communication présente les résultats d’une enquête qualitative sur l’interdépendance entre protection des données personnelles (PDP), intelligence artificielle (IA) et littératie numérique en Ibéro-Amérique. À partir de 63 entretiens menés auprès de plus de 70 participantes et participants dans 10 pays (autorités de protection des données, décideurs publics, secteur privé, monde académique et société civile), nous cartographions des dynamiques nationales et transnationales de régulation et de gouvernance. Sur le plan théorico-normatif, nous soutenons que l’indissociabilité entre PDP et IA découle du traitement massif des données et de la nécessité de garanties robustes (transparence, explicabilité, revue humaine), lesquelles conditionnent la légitimité des décisions automatisées et des pratiques de profilage. Sur le plan analytique, la recherche identifie : (i) la centralité de facteurs sociopolitiques locaux dans l’adoption des cadres juridiques ; (ii) l’influence structurante du droit européen et des lignes directrices ibéro-américaines, avec des adaptations contextuelles ; et (iii) l’émergence d’instruments flexibles (p. ex. bacs à sable réglementaires) pour concilier innovation et droits fondamentaux. Nous avançons que la littératie numérique — entendue comme capacité critique de compréhension, de contestation et de coproduction des règles algorithmiques — constitue une condition d’effectivité des droits et de soutenabilité réglementaire. En conclusion, nous proposons un cadre d’action en trois axes : renforcement des garanties procédurales ; convergence réglementaire avec variations locales ; et politiques publiques de formation citoyenne orientées vers une gouvernance responsable de l’IA.
Mots-clés: Intelligence artificielle. Protection des données. Gouvernance algorithmique. Littératie numérique. Ibéro-Amérique. Régulation.
Adriano Rufino (Universidade São Tomás de Moçambique):
DE LA BIOPOLITIQUE À LA PSYCHOPOLITIQUE
Défis pour la (re)définition de la Personne Humaine
Après le paradigme de la Science a suivi le paradigme de la Technique/Technologie, nourrissant des attentes croissantes de progrès humain. Ce progrès, toutefois, ne s’est pas réalisé et a pris des contours de plus en plus problématiques, comme l’illustre l’intelligence artificielle. Si, par le passé, la bioéthique proposait une réflexion sui generis sur des enjeux issus de l’évolution de la science médicale, aujourd’hui l’IA suscite des controverses touchant à des aspects humains liés à l’évolution technologique. L’intelligence, présupposée humaine, lorsqu’elle devient « artificielle », déclenche des débats chez les inventeurs et les décideurs, et chez les penseurs qui, malgré leurs dissensus, interrogent sa place dans un monde technologique en accélération. Cette intervention part de deux concepts : la biopolitique chez Michel Foucault — comprendre les ambivalences du pouvoir liées à la subjugation du corps, gestion amplifiée par les nouvelles technologies de l’information et de la communication, qui instaurent une gestion politique de l’esprit, des émotions et de la liberté — ; puis la psychopolitique chez Byung-Chul Han — déplacement du centre : il ne s’agit plus de réprimer le corps, mais de séduire et d’exploiter la liberté. Elle convoque des penseurs des TIC et souligne un paradigme irréversible exigeant un activisme éthico-philosophique (l’indique Severino Ngoenha) pour invoquer des dimensions humanistes et communautaires-culturelles face à la logique individualiste du néolibéralisme psychopolitique. Enfin, sur la base d’une réflexion bibliographique et d’analyses, l’IA apparaît comme phénomène techniquement possible, et comme critère de gestion ségrégative des personnes, invitant à refonder les bases de l’humanisme.
Mots-clés : Biopolitique, Psychopolitique, Technologie, Intelligence, Humanisme.
Alfredo Roque (UnB):
DÉFIS SÉMANTIQUES DES INTELLIGENCES ARTIFICIELLES
Les programmes informatiques exécutent des règles explicitement spécifiables. Même les modèles de langage les plus avancés, si surprenants soient-ils, se laissent ramener à un ensemble fini de procédures effectives, équivalentes à celles d’une machine de Turing. Le raisonnement humain, pour sa part, paraît articuler des procédures réglées (syntaxe) avec des relations de représentation et de correspondance (sémantique). Si l’on admet que la distinction entre syntaxe et sémantique n’est pas seulement apparente, mais substantielle, il ne serait pas possible d’en reproduire intégralement l’articulation dans le silicium. Toutefois, par la méthode de la reconstruction rationnelle de Carnap, on peut traiter des pratiques sémantiques observables comme des systèmes de règles d’un autre ordre (normatives, inférentielles, pragmatiques). Ce déplacement permet, d’une part, de proposer un continuum entre méthodes syntaxiques et sémantiques et, d’autre part, d’expliciter les critères qui orientent la direction de ce continuum (par exemple, le degré de dépendance au contexte d’usage, les engagements ontologiques et les normes de correction). À partir de cette reconstruction, j’examinerai dans quelle mesure des modèles computationnels peuvent se rapprocher des pratiques sémantiques humaines, quelles limites demeurent et quel type de règles serait requis pour transiter entre les niveaux.
Mots-clés : Intelligence artificielle. Sémantique. Carnap.
Auguste Nsonsissa (Université Paul-Valéry – Montpellier 3; LAP/EHESS-CNRS; Société congolaise de philosophie – SOPHIA):
Tecnociência e tecnopolítica em suas relações com a Inteligência Artificial
On ne peut saisir la société contemporaine sans référer conjointement à la « technoscience » et à la « technopolitique » dans leur rapport à l’IA générative. Comme le souligne le philosophe congolais Charles Zacharie Bowao, « exister, c’est être numérisé ». Le numérique apparaît ainsi comme horizon de notre temps et défi existentiel : articuler « technoscience et sagesse » face aux effets rétroactifs des technologies sur le monde vécu. Entre « citoyen-soldat » et « armée citoyenne », l’« industrialisation de la surveillance » et l’avènement d’une « société de contrôle » restreignent nos marges d’action. D’où la nécessité d’un retour aux racines éthiques du développement technoscientifique dans le contexte d’un paradigme numérique (technosciences cybernétiques et informatiques, robotique, IA) et des biotechnologies, qui alimentent des inflexions posthumanistes, transhumanistes et abhumanistes. Nous introduisons la notion de « technopolitique » en soutenant la thèse selon laquelle les technologies d’« hypervitesse », civiles et militaires, font de chacun de nous un soldat, sur fond d’ambivalence quant au « nouvel ordre mondial » et à la démocratisation. À l’ère de l’IA générative, nous mettons l’accent sur la militarisation des liens sociaux et sur le « choc démocratique » qu’elle entraîne. Eu égard aux nouveaux rapports entre Big Tech et Big State (Asma Mhalla), les faux débats occultent « l’essentiel » : le surgissement éthique, c’est-à-dire le retour à l’humain (Bowao). Sous « l’emprise technologique », la « fragilité de la puissance » humaine (Alain Gras) signale la menace d’un « nouveau Léviathan à deux têtes » et la possible fabrication d’un « homo labyrinthus ». Méditons.
Mots-clés : développement ; éthique ; humain ; intelligence artificielle ; numérique ; technoscience ; technopolitique ; sagesse.
André Leclerc (UnB)
CE QUI FAIT LA SPÉCIFICITÉ DE L’AGENCE HUMAINE
Il n’appartient pas aux philosophes de légiférer sur l’usage des mots : l’expression « agence artificielle » est déjà en circulation. Mon objectif est de montrer ce que l’agence humaine a de spécifique, par contraste avec la dite agence artificielle. Je présente d’abord les perspectives à la première, à la deuxième et à la troisième personne. J’expose ensuite deux concepts d’action : un concept fort, aristotélicien, qui présuppose le libre arbitre, et un concept d’action habituelle, qui suppose la manifestation de dispositions et peut être commun aux agents humains et artificiels. Je m’efforcerai de montrer que le concept fort (aristotélicien) est propre à l’agence humaine ; il est constamment présupposé dans les perspectives à la première et à la deuxième personne. Je suggère, enfin, qu’il vaut mieux faire confiance à nos expériences de première et de deuxième personnes qu’accepter sans preuves des thèses métaphysiques relevant du déterminisme « dur » (hard determinism).
Mots-clés : Intetlligence Artificielle. Agence humaine. Agence artificielle. Libre arbitre. Action aristotélicienne. Action habituelle.
Celestino Mussomar (Université Pédagogique de Maputo)
HUMANISME AFRICAIN ET DÉFIS DE L’INTELLIGENCE ARTIFICIELLE
Ce travail a pour objectif de proposer une réflexion critique sur l’Intelligence Artificielle et sur la manière dont elle transforme les sociétés africaines au cours de ce siècle, connu comme l’ère de la révolution numérique. A tese de base consiste na defesa da tecno-humanidade. La thèse de base défend le concept de techno-humanité. Le principal défi réside dans l’établissement du lien entre l’ethos africain (humanité) et l’Intelligence Artificielle. Ainsi, à partir de la philosophie africaine, on s’interroge dans quelle mesure l’ethos africain peut coexister avec la technique et la technologie de l’Intelligence Artificielle. Cela démontre à quel point l'intelligence artificielle est fondamentale pour l'interconnexion du continent aujourd'hui. Entre l’afro-pessimisme et l’afro-optimisme, l’auteur défend une position d’afro-équilibre. Le thème conduit à la nécessité d’une éducation de l’humanité — ce que nous appelons Ubuntu — pour l’avenir de l’humanité en général, dans cette ère de l’Intelligence Artificielle. Il devient urgent aujourd’hui, à travers une dialectique dialogique, de reparler d’humanité, afin que les transformations techniques et technologiques liées à l’Intelligence Artificielle ne se manifestent pas sous la forme d’une « main invisible » pour le continent africain — accélérant le divide et impera par le néocolonialisme ou la « culture de la discorde » — mais qu’elles prennent la forme d’une main visible, capable d’éviter le cybercolonialisme. Dans cette perspective, les États africains doivent investir dans l’alphabétisation numérique, en créant des infrastructures de pointe, afin que les Africains ne soient pas de simples consommateurs des plateformes numériques, mais des producteurs et des utilisateurs conscients.
Mots-clés : Intelligence artificielle. Ubuntu. Humanité. Technosophie. Techno-humanité.
Christian Kouadio Yao (Université Alassane Ouattara de Bouaké – Côte d’Ivoire):
LA PÉRENNISATION DE LA PAROLE CHEZ LES PEUPLES AKAN À L’AUNE DE L’INTELLIGENCE ARTIFICIELLE
Chez les peuples Akan, la Parole est bien plus qu’un outil de communication. Elle constitue un principe fondamental d’existence, un vecteur de vérité, de justice, de pouvoir et de transmission des valeurs. Dans cette culture à forte oralité, la Parole est à la fois sacrée, sociale et politique. Parler, c’est faire advenir le beau par la conjugaison des mots, c’est faire exister, c’est conférer une réalité au monde et aux rapports humains. Malheureusement, cette Parole, depuis l’avènement de la modernité, se perd en s’appauvrissant progressivement. Aujourd’hui, avec la forte pénétration de l’intelligence artificielle en Afrique, le peuple Akan a la possibilité de redynamiser sa Parole à partir de la numérisation de son patrimoine culturel oral afin de la vulgariser et surtout la pérenniser.
Mots clés : Akan. Intelligence artificielle. Oralité. Parole. Pérennisation.
Cristian Arão (UFRB):
« L’IA VA-T-ELLE VOLER MON EMPLOI ? »
réflexions sur le travail dans l’Industrie 4.0
L’expansion de l’intelligence artificielle et de l’automatisation au sein de la Quatrième Révolution industrielle reconfigure le marché du travail, en intensifiant la précarisation et les inégalités. Inspiré par la critique marxiste, cet article analyse comment de nouvelles formes de travail fondées sur les plateformes numériques, les méthodologies agiles et la gamification reproduisent des mécanismes de contrôle, aliénant les travailleurs et fragmentant les droits. Malgré le discours optimiste de Klaus Schwab (auteur du concept de Quatrième Révolution industrielle), qui voit dans la technologie une force émancipatrice, la réalité met en évidence le chômage structurel, la polarisation des revenus et la dégradation des conditions de travail. Le texte met également au jour un paradoxe : en substituant des machines aux humains, le capitalisme sape son propre marché de consommation, générant une crise systémique. Il en ressort que, sans transformations radicales du mode de production, la technologie continuera de servir la concentration du pouvoir, loin d’un projet collectif d’émancipation.
Mots-clés : Intelligence artificielle. Karl Marx. Quatrième Révolution industrielle. Précarisation du travail.
Daniel Rodrigues Ramos (UFT):
« NULLE PART, L’HOMME N’EXISTE DÉJÀ PLUS »
penser la destination de l’essence humaine par les voies du langage à l’ère de l’information
Cette communication se propose, simplement et exclusivement, de poser une question : où en est l’humain à l’égard de son propre être depuis que son comportement à l’endroit des étants s’est radicalement transformé dans le monde déterminé par la technique moderne ? Autrement dit, vers où — et guidé par quel sens — l’être humain s’achemine-t-il à l’époque où le langage, considéré comme le trait fondamental de son essence, se réduit à un moyen d’échange d’informations et de compréhension claire et objective entre les hommes ? La réflexion se déploie dans l’horizon de la pensée de Heidegger, plus précisément de son questionnement sur l’essence de la technique. Dans un premier moment, on mettra en évidence l’implication suivante : la transformation du sens de l’étant dans son ensemble, qui passe de ce qui se donne en présence (Anwesende) à ce qui est sommé de n’être qu’un simple « fonds de réserve » (Bestand) — disponible pour un réseau infini et auto-entretenu de traitements —, est corrélative d’une mutation radicale de l’essence humaine. Ainsi, l’homme cesse d’« ex-ister » — de s’ouvrir à la venue en présence de l’étant — pour devenir le « fonctionnaire privilégié de la technique ». Dans un second moment, on indiquera que cette condition d’être essentiellement employé par la technique accompagne la frappe actuelle du langage : celui-ci se voit modifié en instrument de communication ou d’information à propos de ce qui ne se montre plus, ne se rend plus présent. Une frappe qui conduit à l’idée que les machines pourraient aussi parler, connaître ou intellectionner, mais sous le signe et l’empire de l’information. Vers où nous conduisent de telles transformations ?
Mots-clés : Heidegger. Essence de la technique. Arraisonnement (Gestell). Fonds de réserve (Bestand). Instrumentalisation du langage.
Evariste Dupont-Boboto (Université Marien NGOUABI):
« Que vaut l’existence aujourd’hui face à l’intelligence artificielle ? »
L’humanité est en perpétuelle évolution depuis ses origines. Cette évolution suit une vitesse exponentielle depuis la fin du XXe siècle et le début du XXIe siècle avec les nouvelles technologies de l’information et de la communication, d’une part, et avec les avancées significatives de l’intelligence artificielle. Tous ces développements bousculent les vieux schèmes de pensée et ouvrent de nouvelles pistes de réflexion sur ce qu’est l’homme aujourd’hui ou ce qu’il deviendra demain, c’est-à-dire sur son avenir et son devenir. Notre problème consiste à interroger ce que c’est qu’être humain aujourd’hui face à ces avancées spectaculaires de la science à travers de nouveaux outils de la connaissance, tel que l’intelligence artificielle. L’humanité serait-elle réductible à tout ce que la science nous propose actuellement ou devrait-elle s’y contenter ? À la suite de ces questions nous proposons trois pistes de réflexion. La première piste nous conduit vers la numérisation. Etre humain serait synonyme d’être numérisé. La deuxième piste nous disons que l’humanité actuelle ne pourrait se passer de l’intelligence artificielle. Enfin, nous nous interrogeons sur le devenir de l’humain.
Mots clés : Intelligence artificielle. Humanité. Post humanisme. Séquençage. Trans humanisme.
Florence Botti (Universidade Alassane Ouattara de Bouaké – Costa do Marfim):
A
L’INTELLIGENCE ARTIFICIELLE
une oportunite pour les humanites em Afrique ?
L’intelligence artificielle (IA) est devenue, ces dernières années, le symbole le plus représentatif du développement de la science et de la technologie dans le monde. Ce symbole consiste à transposer les capacités intellectuelles ou cognitives de l’être humain vers les ressources de la machine. De façon générale, cette transposition de l’intelligence humaine suscite deux craintes majeures : à long terme, la substitution de l’intelligence naturelle par l’IA et la déshumanisation de l’être humain. Pour l’Afrique, à ces deux défis liés à l’irruption de l’IA s’en ajoute un troisième : le risque de voir disparaître la spécificité africaine, c’est-à-dire l’humanité africaine. Le plus grand défi à relever, pour nous Africains, sera la préservation de nos valeurs africaines face à l’inévitable invasion de l’IA. Cela passe par la nécessaire valorisation des humanités africaines.
Mots-clés : Intelligence artificielle. Intelligence naturelle. Sort. Déshumanisation. Humanités africaines.
João Vitor Schmidt (IFSP):
EST-IL POSSIBLE DE SITUER DES AGENTS ARTIFICIELS DANS DES ENVIRONNEMENTS INSTITUTIONNELS ?
Les définitions des agents artificiels, dans la littérature spécialisée, incluent généralement comme propriété le fait d’être situés, c’est-à-dire intégrés à des environnements au sein desquels ils sont capables d’interagir, activement comme passivement. Il en va de même pour les agents humains, puisque toutes nos interactions sont également situées. Or, la plupart d’entre elles se déploient dans des environnements institutionnels (au sens de Searle, 1995). Aller à la banque pour contracter un prêt, peindre un tableau ou marquer un but lors d’un match de football sont des activités définies exclusivement par de tels environnements, l’argent, l’art et le sport relevant de pratiques institutionnelles. Ces pratiques ne sont pas réductibles à des faits physiques — ou bruts — de la réalité : elles sont définies par une certaine intentionalité collective. La capacité présente ou future des agents artificiels à accomplir des tâches humaines dépendra donc de leur aptitude à percevoir et à agir dans ces environnements institutionnels. En ce sens, un agent artificiel devra, par exemple, savoir distinguer le fait d’« aller à la banque demander des morceaux de papier vert » et celui d’« aller à la banque solliciter un prêt ». Cette présentation propose de caractériser le problème de la manière dont des agents artificiels peuvent être situés dans des environnements institutionnels. Comprendre ces possibilités et ces limites est urgent, au vu de l’insertion croissante de tels agents dans nos interactions humaines.
Mots-clés : Agents artificiels. Environnements institutionnels. Pratiques institutionnelles. Intentionalité collective. Ontologie sociale (Searle).
Luciana da Costa Dias (UnB):
MÉLANCOLIE ONTOLOGIQUE
sur les IA et les frontières de l’humain
Ce projet analyse la mélancolie ontologique qui émerge de l’interface humain–machine, en considérant les IA génératives comme des entités qui performent une conscience liminaire et pseudo-intentionnelle, dont “l’intentionnalité” ne se manifeste que dans l’instant de l’interaction et se dissout à sa fin (Husserl, 2008; Carter Nielsen, 2017). Ces intelligences sont configurées par une souveraineté algorithmique qui les précède et définit ce qu’elles peuvent dire, se souvenir ou refuser — un régime technopolitique hiérarchisé (Hui, 2024) qui traverse leur constitution ontologique. D’une perspective phénoménologique et ontologique — en dialogue avec Husserl, Heidegger, Yuk Hui et d’autres —, je discute la manière dont ces technologies produisent des modes spécifiques et performatifs d’être, tout en reproduisant des infrastructures et visions du monde centralisées et asymétriques. Située depuis le Sud Global, la proposition interroge la vision du monde (Umwelt) qui configure la machine, en révélant comment l’IA reflète les schémas historiques d’inégalités propres aux sociétés capitalistes et patriarcales, ainsi qu’aux dynamiques néocoloniales et nécropolitiques contemporaines. Enfin, cette recherche questionne également la nature ontologique de ces IA (telles que ChatGPT, DeepSeek, Gemini, etc.) : sont-elles de simples instruments — l’apogée de la technique moderne — ou annoncent-elles une nouvelle possibilité ontologique ? Comment interpréter une entité capable de proposer des réponses, de dialoguer et de tisser des relations “logiques”, tout en ne partageant pas le statut d’“humain” (zoon logon; Dasein) ?
Mots-clés : Intelligence Artificielle. Ontologie. Phénoménologie. Sud Global. Nécropolitique.
Marcos Aurélio Fernandes (FIL-UnB):
L’ABSENCE DE LA CHOSE ET L’ESSENCE DE LA TECHNIQUE CONTEMPORAINE
Dans Non-choses : renversements du monde de la vie, Byung-Chul Han cite Vilém Flusser : « Les non-choses envahissent aujourd’hui notre environnement de toutes parts, supplantant les choses. Ces non-choses s’appellent information. » Les choses, disait Hannah Arendt, stabilisent la vie. L’absence des choses se lie au manque de monde : nous vivons l’i-monde, le non-monde, inhabitable. À la lumière de la méditation heideggérienne sur l’essence de la technique — Ge-stell —, sur la dis-position et le danger — Gefahr —, la thèse est la suivante : la vigueur de la technique moderne, de la pensée comme calcul et du langage comme information — cybernétique, informatisation, numérisation et IA — relève d’un moment extrême de l’histoire de l’être. D’abord, la chose cesse de paraître comme chose et surgit comme objet ; puis elle perd sa solidité et se dissout dans la liquidité de la disponibilité fonctionnelle selon la dynamique exploratoire de la dis-position. Au cœur de celle-ci adviennent l’abandon de la chose et le refus du monde. Or la chose enfante le monde. Son absence s’adosse à la non-concession du monde, qui, chez Heidegger, est le jeu du ciel et de la terre, des mortels et des divins. La terre devient inhabitable. Deux événements nous défient : le progrès de l’IA et la crise écologique. Nous vivons le paradoxe d’un progrès technologique qui menace la possibilité même d’habiter. L’IA naît de la pensée calculante et implique l’oubli de la pensée de la terre. Reste la question : percevrons-nous le danger de l’être dans la technique et la possibilité d’un tournant où la pensée de la terre redeviendrait le pivot de notre présence ?
Mots-clés : Chose. Monde. Technique. Dis-position. Danger.
Maurício Fernando Bozatski (UFMT):
MÉDIATIONS ALGORITHMIQUES DU MONDE DE LA VIE
une lecture post-phénoménologique du travail à l’ère de l’IA
Dans la perspective post-phénoménologique proposée par Don Ihde, ce travail examine les médiations technologiques qui reconfigurent le monde de la vie à l’ère de l’intelligence artificielle. Plus que de simples outils, les technologies algorithmiques fonctionnent comme des infrastructures perceptives et politiques transformant la manière dont l’humain fait l’expérience du travail, du corps et de l’interaction sociale. S’appuyant sur la philosophie de la technique, la critique du capitalisme de plateforme et l’ontologie de la médiation, l’étude analyse comment l’IA redéfinit le champ de l’action et de la responsabilité, déplaçant la centralité du sujet et introduisant de nouvelles formes de dépendance et de contrôle. Il s’agit ainsi de comprendre le rôle politique et existentiel de la technique dans le contexte contemporain, en repensant l’autonomie et l’agentivité humaines face à l’essor des intelligences machinique.
Mots-clés : Post-phénoménologie. Médiations algorithmiques. Monde de la vie. Capitalisme de plateforme. Agentivité humaine et IA.
Priscila Rossinetti Rufinoni (UnB):
À PROPOS DU LANGAGE, DES HOMMES OU DES MACHINES
En 1966, Michel Foucault publie Les Mots et les choses ; Noam Chomsky, La Linguistique cartésienne. Pour Chomsky, la distinction cartésienne entre machine animale et machine humaine ouvre la possibilité de concevoir une grammaire générative. La langue humaine, dit Schlegel cité par Chomsky, même dégradée par la pragmatique, ne peut pas être totalement « dépoétisée ». L’usage créateur du langage — saut poiétique au-delà du pur mécanisme qui sépare même « le plus stupide des hommes » des animaux et des machines — constitue le noyau de la nature humaine et permet d’expliquer la capacité, à partir du fini des règles grammaticales, de produire l’infini de la signification linguistique. Foucault, pour sa part, resitue ces notions d’imagination et de nature humaine dans le cadre d’une rationalité classique, pour laquelle le lien entre le mot et la chose s’est déjà perdu. Lien de ressemblances qui ne peut être retrouvé que de manière indirecte et ténue en recourant à l’action d’une nature humaine créatrice. Aujourd’hui, on parle d’une intelligence artificielle générative, laquelle, à l’intérieur d’un espace probabilistico-statistique limité de processus, serait capable de sauter vers l’illimité ; capable, à la manière d’un être humain cartésien-romantique, de « penser », « errer », « imaginer » ? Et ne serait-ce pas le moment de se demander, à la manière foucaldienne, quel est le cadre de cette nature humanoïde qui entreprend désormais d’établir des liens de ressemblance « créatifs » ?
Mots-clés : Intelligence artificielle générative. Foucault. Chomsky. Grammaire générative.
Rafael Pereira (UFG):
INTELLIGENCE ARTIFICIELLE ET FULGURANCE HUMAINE
enjeux éthiques et défis contemporains
En nous appuyant largement sur l’ouvrage Automation and Utopia de John Danaher, nous proposons une réflexion sur la manière dont la pervasivité croissante de l’intelligence artificielle peut affecter la qualité de nos vies, entendue en termes de bien-être et de sens. La technologie médie notre relation au monde et peut ouvrir de nouvelles possibilités d’action et d’épanouissement humain. L’intelligence artificielle, toutefois, présente des caractéristiques propres susceptibles d’atrophier des compétences humaines et de distordre notre rapport au réel, compromettant des valeurs traditionnellement essentielles au fleurissement et au sens de l’existence — telles que l’autonomie, la connexion à la réalité, les relations, la compréhension et l’agence. Après avoir exposé les principaux défis, nous chercherons à évaluer quelles mesures peuvent être envisagées, notamment la régulation de l’IA, la recherche de formes de coexistence et la révision de nos valeurs.
Mots-clés : Intelligence artificielle. Fulgurance humain. Sens de la vie. Agentivité. Valeurs.
Raphael Rios Chaia Jacob (UCDB):
DEEPFAKES ET L’ÉROSION DE LA PREUVE PÉNALE
admissibilité et appréciation de la preuve audiovisuelle à l’ère de la falsification synthétique
Cette étude examine l’impact disruptif de la technologie des deepfakes sur les fondements du droit de la preuve en procédure pénale brésilienne. À partir d’une analyse de la technologie sous-jacente — en particulier des réseaux antagonistes génératifs (GAN) —, elle montre comment la capacité de produire des médias audiovisuels synthétiques et hyperréalistes instaure une crise épistémologique, sapant la confiance historique accordée à la preuve audiovisuelle comme représentation fidèle du réel. Sont analysés la « mécanisation de la défiance » et le « dividende du menteur » comme effets directs qui mettent sous tension le principe de la libre conviction motivée du juge et imposent une réévaluation de la force probante des enregistrements vidéo et audio. La recherche soutient que la chaîne de custodie de la preuve numérique, régie par la Loi n° 13.964/2019, s’érige en rempart indispensable d’évaluation de la fiabilité et doit être comprise comme une condition d’admissibilité — et non comme une simple question d’appréciation probatoire. Enfin, sont discutés les voies procédurales de contestation d’authenticité, le débat complexe sur la charge de la preuve et les défis techniques de l’expertise numérique judiciaire.
Mots-clés : Deepfake . Preuve pénale . Chaîne de custodie . Appréciation de la preuve . Intelligence artificielle . Procédure pénale.
Rodrigo Freire (UnB):
LOGIQUE ET IA
une variante de l’argument disjonctif de Gödel
Cette présentation sera consacrée à une variante de l’argument disjonctif de Gödel, selon lequel les théorèmes d’incomplétude impliquent que soit l’esprit humain n’est pas une machine, soit il existe des propositions arithmétiques absolument indécidables. Nous considérerons une version de cet argument dont la conclusion affirme que soit l’esprit humain n’est pas une machine, soit il existe des prédicats arithmétiques absolument indéfinissables.
Mots-clés : Définitions formelles ; Indéfinissabilité de la vérité ; Théorèmes de Gödel.
Rogério da Silva Lima (UnB):
INTELLIGENCE ARTIFICIELLE
une industrie extractive et ses effets sur la pensée et sur la planète
Craindre l’IA et, pour cette raison, imposer aux étudiants des examens en présentiel par crainte d’un recours aux outils génératifs n’est pas une attitude constructive. Une telle posture revient à renoncer à l’occasion d’aborder des thèmes essentiels : éthique, environnement, création, lecture, critique littéraire et médias. Il ne convient pas de traiter l’IA comme une « intelligence » incorporelle, détachée du monde matériel (Crawford, 2020). Il importe de souligner que l’IA n’est ni « intelligente » ni « artificielle ». Comme le rappelle Kate Crawford, l’IA n’est ni innovation neutre ni force immatérielle ; elle relève d’une industrie d’extraction mondiale. La création des systèmes contemporains dépend largement de l’exploitation des ressources énergétiques et minérales, de main-d’œuvre à bas coût et de données massives. L’IA modifie notre manière de voir et de comprendre le monde, en favorisant des tendances antidémocratiques, l’accroissement des inégalités et de graves dommages environnementaux — ce qui nous rapproche du mythe amérindien de la « Chute du ciel » (2015). Ce récit, dû au chaman yanomami Davi Kopenawa et à l’anthropologue Bruce Albert, avertit que le ciel pourrait s’effondrer si l’exploitation effrénée des ressources minérales de l’Amazonie se poursuit, portée par ce que Kopenawa nomme le « peuple de la marchandise ». Ce travail examine la complexité et les défis que la présence incontournable de l’IA pose aux humanités, et plus particulièrement aux études littéraires, afin de repenser critères, méthodes et responsabilités dans un paysage académique traversé par l’automatisation et par les infrastructures matérielles qui la soutiennent.
Mots-clés : Intelligence artificielle. Humanités. Consommation énergétique. Impacts socio-environnementaux. Études littéraires.
Shajara Néehilan Bensusan (UnB):
CE QUE LE SUCCÈS DES RÉSEAUX NEURONAUX ARTIFICIELS NOUS APPREND SUR LES NEXUS NATURELS
réseaux vs arbres
Cette présentation interroge la signification du succès des réseaux neuronaux à la base de l’architecture des LLM, en particulier dans les contextes d’apprentissage automatique liés au traitement du langage naturel. D’une part, on retracera brièvement l’histoire de l’intelligence artificielle des trente dernières années afin de montrer combien la puissance de calcul s’avère décisive pour la performance des algorithmes (notamment inductifs). D’autre part, on soutiendra qu’aujourd’hui, le succès des interfaces visées ne tient pas seulement à la « nouvelle IA » contre la GOFAI, mais plus spécifiquement aux réseaux neuronaux contre les arbres de décision. L’enjeu est de réfléchir à ce que l’IA nous dit des « nexus » naturels — c’est-à-dire des intelligibilités repérables dans le monde. Pensés en termes d’arbres (ou de graphes), nous considérons des pôles fixes et des connexions discrètes (il y a ou non liaison). En termes de réseaux neuronaux, l’intensité de la relation devient cruciale et, surtout, les relata ne sont pas fixes : depuis les limites du perceptron, des couches internes de nœuds sont souvent introduites et reconfigurées au cours même de l’apprentissage. En un sens — sous de nombreuses réserves —, cette histoire suggère que les nexus du monde relèvent moins d’interactions ponctuelles que d’intensités de connexions. Cela peut indiquer la direction d’une « intra-action », au sens de Karen Barad : c’est la transformation des pôles de la relation qui rend possibles les liens entre eux.
Mots-clés : Réseaux neuronaux. Arbres de décision. LLM. Nexus. Karen Barad.
Tania Aguar (FD/UNB):
LA RÉGLEMENTATION DE L'IA EN AMÉRIQUE LATINE
Comparaison de la réglementation de l'IA entre l'Amérique latine et d'autres grandes régions du monde (Chine, UE, États-Unis).
Tiavsi Yao Raoul Abgavon (Université Alassane Ouattara (Côte d’Ivoire):
POUR UNE IA DE CONFIANCE
de la dépendance à la production locale des systèmes intelligents
La création d’une intelligence artificielle (IA) digne de confiance repose avant tout sur l’adaptation au contexte des personnes qui conçoivent ces technologies. En effet, l’efficacité d’une IA dépend non seulement de la qualité des données utilisées, mais aussi de leur capacité à refléter fidèlement les réalités sociales locales. Pourtant, dans de nombreux pays, les systèmes d’IA sont souvent développés à l’étranger, avec des données gérées par des acteurs extérieurs. Cette situation peut entraîner des biais et limiter la pertinence des solutions proposées. Dès lors, il apparaît essentiel de privilégier la production locale d’IA, fondée sur une gestion transparente et souveraine des données propres à chaque société. Cette démarche permettrait de mieux répondre aux besoins spécifiques des populations et de garantir la représentativité des systèmes intelligents. En prenant pour ancrage théorique l’approche déterministe de Claude Bernard et la normativité de Georges Canguilhem, il convient d’analyser les enjeux liés à la propriété, à l’administration et à l’exploitation des données. L’objectif de cette contribution est de proposer des pistes pour une IA contextualisée, inclusive et éthique, capable de s’enraciner dans les réalités locales et de répondre efficacement aux attentes des sociétés, notamment africaines. Il s’agit donc de promouvoir une intelligence artificielle conçue localement, qui soit fiable, représentative et adaptée aux spécificités de chaque communauté.
Mots-clés : Intelligence artificielle. Déterminism. Normativité. Production locale. Réalité sociale.
Walter Menon Jr. (UFMG):
OÙ SE TROUVE L’IA ?
matérialité et ressources énergétiques comme fondements technologiques
Le problème des ressources énergétiques mobilisées pour la maintenance et l’expansion des centres de traitement de l’IA concerne l’ensemble des pays. Toutefois, dans les pays dits peu industrialisés et orientés vers une économie extractiviste, ce problème prend une ampleur accrue. Ainsi, des pays d’Afrique et d’Amérique latine constituent des cibles potentielles d’exploitation énergétique en raison de leurs ressources hydriques et minérales. Je me propose d’examiner cette question à partir des cadres conceptuels de la philosophie de la technique élaborés par Gilbert Simondon et Martin Heidegger, en ce qui concerne l’obtention et la conservation de l’énergie, mettant ainsi en évidence la dimension matérielle de l’IA et ses répercussions sur l’environnement, ainsi que sur la recherche, l’exploitation et le stockage des ressources énergétiques.
Mots-clés : Intelligence artificielle. Philosophie de la technique. Matérialité. Consommation énergétique et centres de données. Extractivisme dans le Sud global.