Déterminisme cognitif et libre arbitre de la pensée à l’ère du Big Data
Après avoir traversé des millénaires où la religion dominante était la donnée transcrite (traditions de l’oralité puis scripturales), on assiste à l’heure de l’Anthropocène à un traitement tous azimuts de données immédiates et à une forme de révolution de l’intelligence. Or, les mémoires du cerveau ont peu évolué depuis les premiers pas de l’homme, tandis qu’il ne cesse de jouer à l’apprenti sorcier, évoluant à vitesse grand V de la position de chasseur-cueilleur à celle d’espèce ingénieur. Cette étape biotechnologique post-industrielle engendre cependant subrepticement, et pour la première fois dans l’histoire de l’humanité, une mutation radicale des comportements. De puissants algorithmes exploités par les GAFAs, les biopuces ou les NBICs1 sont en effet déjà omniprésents dans tous les secteurs clefs de la société (économie, santé, transport, armée, secteur tertiaire, …) surpassant (ou remplaçant) l’homme dans un nombre croissant de fonctions ou de performances, tandis qu’un devenir post-organique est évoqué par le transhumanisme2.
Est-ce à dire que nombre de métiers ou d’aspirations deviendront obsolètes car bien mieux gérés par les machines et que les intelligences artificielles (IAs) sont vouées à diriger la planète à long terme ? Ou encore que l’ADN mémoriel, les réseaux de neurones et l’Intelligence Artificielle (IA) remplaceront des mémoires encyclopédiques qui ont mis des millénaires à se développer ?3 Autrement dit que le dataisme, déjà insidieusement ou officiellement installé au travers de l’internet des objets et de maintes opérations assistées, pourrait, en cas de perte de contrôle, avoir des conséquences incalculables sur la destinée de l’homme du futur. Comment garder le contrôle ? Que rejeter et qu’intégrer dans notre rapport incontournable à l’objet technique ? L’ère digitale et la coévolution en marche ? Les humanités numériques ? Ce serait un combat vain et inutile, d’autant que le mythe de la singularité technologique est selon Ganascia4 un leurre de nos cybersociétés trop enclines à absorber les Big Data à des fins mercantiles, quitte à donner à l’IA un pouvoir qu’elle n’a pas.
Face à cette vaine opposition entre l’homme et l’objet technique simondonien5, reste le changement indéniable de notre relation au monde désormais digitalisé et l’affirmation du sens de la mémoire de la vie6, dont les singularités (invariants structuraux, conscience, intentionnalité, mémoire, créativité…) et la plasticité (capacité imaginaire et transculturelle infinie) demeurent à priori inaccessibles aux machines7…
Une logique de flux
Si il y a bien un fait incontestable, c’est que nous sommes entrés de plain-pied dans une logique de flux et de turbulences numériques touchant autant la bourse que la biosphère dans son ensemble, mais qui cerne mal la portée éthique des transformations qu’elle a engagées. Cette situation inédite met face à face des mémoires engrangées (bio-évolutionnistes) et des mémoires algorithmiques, autrement dit une logique s’inscrivant dans une dynamique et une historicité comme un traitement des données en temps réel. Cela induit des spéculations à long terme sur la finitude, la prothétisation ou la cyborgisation de notre espèce, mais surtout de nouveaux comportements liés au dataisme et aux mémoires augmentées ou réparées qui nous environnent, autrement dit à nos nouveaux génomes. Si les cyborgs ou le monde post-organique laissent rêveurs ou inquiets, mais mobilisent encore peu, le mouvement dataïste, considéré par certains, à l’image de l’atomisme pour l’infiniment petit, comme une doctrine philosophique où l’univers ne serait pourvoyeur que de flux de données dont il faut décrypter le sens, est quant à lui irréversiblement en marche.
L’historien Yuval Noah Harari8 associe de fait le dataïsme à une religion des données et à la révolution scientifique du XXIe siècle. Une révolution faite de disruptions successives, de productions d’algorithmes biochimiques de masse analysables en terme de probabilité d’action, de degré de survie ou de niveau d’information. Contrôlée par les géants du web, l’ère des Big Data a en effet d’ores et déjà des effets palpables sur les populations et les décideurs ; les premiers étant essentiellement des vecteurs passifs ou des usagers addicts, les seconds des donneurs d’ordre avertis. Or, tous deux sont dépendants, voire manipulés par les tenants du numérique et de l’IA, qui depuis l’essor de la cybernétique, développent des logiciels et des machines de plus en plus autonomes, tout en étant quasiment dans le déni des risques potentiels d’une robotique ou d’une intelligence non maitrisée. La question se pose dès lors pour tout traitement de signaux assistés par ordinateur, allant de l’utilisation courante de nos liseuses ou de nos i-phones à certains androïdes, drones ou stratégies militaires basées sur des armes létales autonomes.
Plus encore, elle interroge des cerveaux désormais connectés quant à une forme de cognition étendue dont les organes externes et distants deviendraient incontrôlables et pourraient créer des objets-mondes virtuels (l’internet en étant le premier pas, l’ordinateur quantique le futur) détournés de leur usage premier et potentiellement nocifs pour l’humanité… D’où l’inclusion de garde-fous (Deep learning, logiques non monotones ou déontiques9) basés sur les valeurs éthiques humaines dans tout processus décisionnel. Ainsi en est-il par exemple des trois lois de la robotique humanoïde d’Asimov10, aujourd’hui genrées et extrapolées à cinq par Andra Keay qui dirige la Silicon Valley Robotics11ou encore du Human Brain project12. Des cris d’alarme et des appels à la résilience sont également portés par de nombreux philosophes, éthiciens ou sociologues face à la multiplicité des objets intelligents et à cette nouvelle
logique de flux cryptomonnayable et potentiellement virale.
Un donné versus des données
L’humain semble donc encore incontournable aujourd’hui. Mais jusqu’à quand ? Pour y répondre, je vous propose ici de nous interroger sur cette apparente opposition entre un donné (mémoires historiques, biologiques, humaines et cérébrales en particulier) et des données (mémoires artificielles, algorithmiques, augmentées) ou plus généralement entre singularité technologique et singularité du vivant ; la question essentielle étant de gérer la logique expansionniste dans laquelle nous sommes irréversiblement engagés. Logique de flux signant la disruption sociétale nature versus techno- ou cyberculture; la cybernétique, signifiant à ses origines la science du gouvernement des hommes, avant de devenir la science des systèmes initiée par le physicien Wiener, puis un modèle fondamental dans l’élaboration de l’IA et des sciences cognitives.
On a donc besoin avant tout d’être lucide face à tout processus de décision ou de benchmarking. Un des exemples récents les plus marquants dans ce domaine vient de l’autorisation de diagnostic donnée à un système d’IA pur pour le dépistage de la rétinopathie diabétique par les États-Unis. C’est typiquement le genre de résultat où un système d’algorithmes élaboré13 sert d’outil diagnostic en appui de toute décision thérapeutique de l’ophtalmologiste, mais soulève d’ores et déjà la question de la valeur humaine ajoutée dans la décision finale14. Or, comme nous l’avons montré à propos du processus de l’écriture, et plus généralement de l’acte créatif15, cette valeur ajoutée est fortement liée à la plasticité cérébrale qui ne peut que s’adapter au développement des flux digitaux dans la mesure où le cerveau, que l’on pourrait métaphoriquement comparer à une éponge, s’en imprègne et en est traversé en permanence, tout en laissant des espaces libres – l’équivalent d’un mode par défaut sur le plan informatique – pour ses activités proprement innovatrices ou artistiques16. Et c’est là toute la différence entre une puissance de calcul et un cerveau humain capable d’engrammer et d’acquérir jusqu’à un certain point de nouvelles formes d’apprentissage (plasticité cognitive, intelligence fluide), mais surtout de gérer l’incertitude et d’être inventif tout en conservant son identité mémorielle.
Ce tableau se veut avant tout pragmatique dans un monde où le traitement déterministe des données n’est plus réservé aux laboratoires scientifiques, mais dérive sur tous nos comportements. Le rapport Villani17 met aujourd’hui l’accent sur le rôle essentiel de l’IA dans la transformation du monde du travail, de la communication, de la santé ou des transports avec la voiture autonome et ses dérives potentielles. Il ne s’agit donc plus de minimiser l’impact de l’IA, mais d’en saisir la valeur biosémantique, autrement dit le langage, afin d’accompagner ce mouvement en faisant confiance à notre intelligence naturelle. Certains dataïstes affirment toutefois que l’homme sera un jour dépassé par l’afflux massif de données et qu’il déléguera, sans même s’en rendre compte, de plus en plus aux machines ses prises de décision. Ce faisant, l’augmentation du volume, de la distribution et de l’utilisation généralisée des processeurs, des Big Data et de l’IA seraient les instruments d’une évolution technohumaniste incontournable, mais qu’on ne maitriserait plus, dans la mesure où tous les secteurs de la vie sociopolitique (économie, travail, climat, communication…) seraient impactés et dépendants les uns des autres.
Ces bouleversements ne remettraient cependant pour d’autres analystes pas forcément en question nos systèmes de valeur. En effet, s’il s’agit à n’en pas douter d’un changement radical de mode d’existence, l’individu n’accorde à titre personnel crédit à des données que si elles paraissent sensées pour lui, alors que les flux de données débordant des serveurs sont aveugles et délivrent des gigabits de données en flux tendu, chacun y piochant le sens qu’il y trouve et ne cessant de le déverser au travers des réseaux sociaux ou du grand manitou qu’est le web18.
Entre singularité technologique et singularité biologique
Qu’augurerait en effet un système global de données pris en charge par des sources algorithmiques intelligentes censées nous procurer LE bien-être suprême ou à qui on déléguerait sans y prêter gare de plus en plus de pouvoir19 ? On frôle là la fiction et le post-humanisme, à n’en pas douter, mais les dirigeants de ce monde ne sont pas dupes quant à cette alternative, fut-elle encore purement spéculative. Et si les cyborgs alimentent encore la part fantasmatique d’une cyberculture humanoïde mutante, ils n’en restent pas moins iconiques d’un corps augmenté, siliconé, transhumanisé, immortalisé… et le symbole d’une évolution biotechnologique inéluctable, dont certains chercheurs indiquent qu’elle serait à même de compenser nos évolutions naturelles dégénérescentes ou délétères20, voire de créer un cerveau numérique inusable (Human Brain Project 2024) ou totalement synthétique (Blue Brain Project)21.
Cet effondrement en cascade se déroule parallèlement aux scénarios climatiques ou collapsologiques contemporains, dans la mesure où la courbe asymptotique du progrès en matière de technosciences et de capitalisation s’accompagne immanquablement d’un appauvrissement des liens entre l’homme et la nature ayant de lourdes conséquences en matière de perte de la biodiversité ou de réchauffement planétaire. Toutefois, l’écrivain Alain Damasio22 lie, comme beaucoup d’autres penseurs auxquels je m’associe, ce tableau à une crise civilisationnelle (et économique) plutôt qu’à un processus strictement écosystémique que la nature saura sans doute dépasser.
À l’autre bout, un cerveau qui construit la réalité du monde de l’intérieur et ne fonctionne pas sans un corps et des sens ! Mais aussi l’impact de l’épigénétique et de l’ère post-génomique sur le développement de l’organisme, dont on pèse aujourd’hui mieux les effets sur l’évolution en train de se faire. Impact qui n’exclut pas, du fait même de la plasticité cérébrale, la prévalence de cultures imbriquées incluant nécessairement, après l’acquisition de l’hémisphère du langage et la naissance de l’écriture, la digitalisation de la pensée. Or, ces deux dimensions croisées constituent, qu’on le veuille ou non, l’avenir de l’humanité et il ne s’agirait pas de sous-estimer cette hybridité. La robotique et l’IA prédisent en effet des machines aptes à s’auto-configurer, s’auto-transformer et interagir fortement avec le milieu. Par conséquent, des êtres artificiels mimant le bios, son architecture cognitive et son épigenèse comprises ! Il faut donc idéalement garder une intelligence ancrée à un corps distant de toute aliénation par la machine mais qui ne la réfute pas.
Un corps-esprit fait de chair, de sang et d’affects, donc faillible, créatif, métamorphique, à l’inverse d’une IA compacte, prévisible et qui cherche à décoder la pensée. Un corps inscrit dans un esprit dont le déséquilibre stable est, à l’image de sa fragilité comme de sa porosité, essentiel au monde qu’il habite. Or, c’est aujourd’hui celui d’une vie hautement symbolique et computationnelle qui se coupe peu a peu de ses racines terrestres et raisonne, à l’image de l’écologie scientifique, en terme de probabilités et de tendances, en oubliant le lien qui nous lie à la nature et aux êtres qui la composent23.
Les simulations du cerveau, les réseaux artificiels de neurones et les puces synaptiques sont cependant aujourd’hui loin de rivaliser avec le cerveau humain, dans la mesure où, comme on l’a vu, il internalise en temps réel les sensations, les cultures et se sert de son intelligence dans d’autres buts que la résolution de problèmes. Et c’est plus généralement le cas du vivant, à l’image des questionnements contemporains sur notre rapport au monde sensible et à l’intelligence des plantes24. Altérité végétale nous conduisant à nous réinterroger sur des notions semblant acquises comme la sensibilité, l’intelligence, la cognition et le rapport nature-culture. Le défi du XXIe siècle s’inscrit donc dans ce face à face entre singularité technologique et singularité biologique, dont Miguel Benasayag25 nous indique la radicalité (modèle Mamotreto) et le mode d’hybridation entre la technique et les organismes qui doit passer par la production d’un nouvel imaginaire prenant en compte l’irréductibilité du biologique à l’informatique.
Pour conclure, le scénario que nous défendons ici, c’est qu’au lieu de se camper dans une posture anti-progressiste liée au mythe de Frankenstein, épousons le mouvement en nous posant ouvertement la question suivante : Où le jeu du déterminisme cognitif s’arrête-t-il et où commence le libre arbitre de la pensée ?26, transposée à l’ère des Big Data. Les réponses à donner sont en tout état de cause, comme l’a récemment déclaré Edgar Morin, qu’un homme augmenté ne signifie pas un homme amélioré28 et, par ailleurs, qu’il nous paraît vain d’opposer un donné organique à des données purement algorithmiques. Observons plutôt leurs différences objectives (mémoire du vécu versus mémoire artificielle) et leurs points de rencontre ou d’hybridité potentielle, sans déraciner la pensée unique de l’homme. Et gageons que si les cyborgs seront probablement les premières variantes génomiques ou cybernétiques humaines, ils n’effaceront ni l’animal qui est en nous, ni le sens de nos mémoires engrangées, autrement dit notre historicité.
Ce texte revu et augmenté a en première intention été publié dans le magazine en ligne Turbulences #3 (Oct-Nov 2018, Symbolon Consulting Ed.).
Chercheur en neurosciences, poète et essayiste, l’auteur développe un nouveau concept de plasticité sur le plan épistémologique. Il a fondé le groupe des plasticiens en 1994 puis l’association Plasticités sciences arts en 2000 qui s’intéresse aux rapports entre sciences, arts et humanités. Il y dirige depuis 2005 la Revue Transdisciplinaire de Plasticité humaine PLASTIR.
Chercheur en neurosciences, poète et essayiste, l’auteur développe un nouveau concept de plasticité sur le plan épistémologique. Il a fondé le groupe des plasticiens en 1994 puis l’association Plasticités sciences arts en 2000 qui s’intéresse aux rapports entre sciences, arts et humanités. Il y dirige depuis 2005 la Revue Transdisciplinaire de Plasticité humaine PLASTIR.