Lien copié

"Unfit for the future"? L'humain stupéfait face aux algorithmes.

Share On Facebook
Share On Twitter
Share On Linkedin

Unfit for the future ? Que vaut l’humain face aux intelligences artificielles qu’il a lui même créées ?  Les capacités biologiques humaines seraient-elles insuffisantes, non seulement pour faire face aux capacités des machines mais aussi pour penser les modalités d’une co-existence. L’humain semble aujourd’hui saisi de vertige en pensant à sa pensée qui serait insuffisante. L’ humain est-il capable de penser l’IA dans toutes ses dimensions, y compris les modalités des interactions avec des intelligences non humaines, d’une co-existence avec les machines parlantes, dotées de prodigieuses capacités de calcul, de mémoire et de certaines formes de créativité ? Et si rien n’empêchait l’humain, que sa propre stupéfaction devant les modes de pensée et de compréhension déployées par l’IA – ou “l’illusion” de celles-ci (1) ? A cet égard, l’indispensable adaptation pourrait être davantage celle de la société que celle de l’humain. 

Formulée comme un problème d’ordre moral il y a quelques décennies, la question de l’inadaptation de l’intelligence humaine à son environnement technologique, est aujourd’hui davantage évoquée, soit comme un problème de capacités biologiques limitées, soit de capacités cognitives qui seraient vouées à décliner à mesure d’une délégation excessive des tâches cognitives à des intelligences artificielles. Une peur/fascination paralysante, un manque de motivation et peut-être plus simplement le besoin de temps supplémentaire sont aussi à prendre en considération pour mettre en place, passée la sidération, les conditions d’une co-existence satisfaisante. 

Des capacités humaines limitées dans le domaine de l’imagination et des sentiments ?

L’idée d’une inadaptation de l’humain aux technologies puissantes qu’il crée a émergé au milieu du 20ème siècle, dans l’inquiétude de nouvelles et puissantes capacités nucléaires. Le constat de la démesure des moyens techniques contemporains comparés aux capacités de réflexion éthique des humains avait été développé après la Seconde Guerre mondiale. De nouvelles productions appellent, pour y faire face, de nouvelles capacités humaines expliquait en 1956 le philosophe allemand Gunther Anders dans L’Obsolescence de l’homme (2). G. Anders observait un “décalage prométhéen” entre les puissantes capacités de production de l’humain et ses capacités limitées dans le domaine de l’imagination et des sentiments : « Nous ne sommes pas, avec notre imagination et nos sentiments, à la hauteur de nos propres productions et de leurs effets». G. Anders se plaçait alors dans une perspective d’adaptation morale face à la perspective d’une hécatombe humaine nucléaire. Julian Savulescu, l’auteur de “Unit for the future, the need for moral enhancement“(3), quelques décennies plus tard, défendra l’idée que l’amélioration morale via des technologies serait une obligation morale pour les sociétés contemporaines. 

Un manque de motivation alimenté par une fascination paralysante

Davantage que de compréhension morale, c’est aujourd’hui de capacités cognitives dans leur ensemble dont il est question. Comment appréhender les enjeux de la banalisation du recours aux algorithmes, en particulier ses conséquences sur le développement cognitif humain. De nombreux auteurs soulignent le risque, déjà documenté https://www.media.mit.edu/publications/your-brain-on-chatgpt/, de déclin cognitif en cas de sous-utilisation du cerveau humain, et d’utilisation intense d’intelligences artificielles. Si le risque parait plausible, le sentiment d’inéluctabilité est-il fondé ? Dans le sujet de philosophie du baccalauréat 2025 : “notre avenir dépend t-il de la technique ?”, le piège était d’oublier que c’est l’humain qui crée et qui contrôle la technique. La question aujourd’hui semble davantage s’apparenter à un problème de motivation, ou plutôt de démotivation face aux performances, actuelles et à venir de la machine.  Une certaine paralysie, un défaitisme face à la machine sont alimenté par une peur envahissante : peur de perdre l’expertise humaine, peur de perdre le contrôle de l’IA.  Le problème, peut-être, s’apparente à une prédiction autoréalisatrice … D’autres,  technophiles convaincus ou proches de la mouvance transhumanistes, développent au contraire une certaine fascination dans l’idée que les machines vont prendre les décisions à notre place, et que c’est un bien puisque « largement compensé par la liberté de créer notre vie qui découle de l’abondance matérielle crée par notre utilisation des machines », estime par exemple l’industriel Marc Andressen (4). 

La fin de la “parenthèse Gutenberg” est-elle la fin du monde ?

Il reste possible d’envisager que de nouvelles pratiques numériques et algorithmiques ne soient pas le signe d’un déclin de l’intelligence humaine, mais le prélude à de nouvelles organisations. L’abandon annoncé des textes traditionnels imprimés et publiés – “la fin de la parenthèse Gutenberg” – aurait par exemple pour conséquence davantage de communication orale : “ Internet a refermé la parenthèse en nous ramenant à un mode de communication plus fluide, décentralisé et conversationnel. Au lieu de lire des livres, nous pouvons nous disputer dans les commentaires. Certains théoriciens ont même proposé que nous revenions à une sorte de culture orale …” peut-on lire dans The New Yorker https://www.newyorker.com/culture/open-questions/whats-happening-to-reading? . L’auteur de l’article examine l’hypothèse dans laquelle des intelligences artificielles apporteraient davantage de valeurs aux lectures, par l’approfondissement des nuances ou bien le rappel de souvenirs. Mais cet apport serait limité car : “l‘intelligence artificielle, en elle-même, n’est pas motivée ; elle lit, mais n’est pas un lecteur ; ses « intérêts », à un moment donné, dépendent fondamentalement des questions qu’on lui pose. Son utilité en tant qu’outil de lecture dépend donc de l’existence d’une culture de la lecture qu’elle ne peut ni incarner ni perpétuer”. Ainsi dans l’exemple de la lecture, l’intelligence artificielle même largement banalisée, ne pourrait se substituer à l’intelligence humaine. 

Adapter la société, pas l’humain

L’urgence semble résider non dans l’adaptation des humains, mais dans l’adaptation de la société, en particulier des apprentissages et de l’éducation. Le programme est considérable. Il s’agit de comprendre “la dimension émotionnelle, ontologique qui s’invite dans notre relation avec les agents IA…Dans cette dynamique, l’IA devient un miroir de nos propres attentes et projections, un interlocuteur qui répond à nos besoins émotionnels et intellectuels ” souligne avec clarté Laurence Devillers (1). Pour le problème aigu des algorithmes d’influence, crées pour vaincre les résistances cognitives humaines, mettre les enfants à l’abri le plus longtemps possible, le temps du développement cérébral, semble être une bonne solution. Peut-être, aussi, faudrait-il acter que l’accumulation de connaissances, la rapidité et la mémoire illimitée sont maintenant du coté des IA et de ChatGPT; réorganiser les apprentissages autour de ce que l’humain fait de mieux : la recherche et la compréhension de sens, le sens du monde, le sens des autres, le sens pour soi et le sentiment de l’existence incarnée. 

 

1 – Laurence Devillers. L’IA ange ou démon. Le nouveau monde de l’invisible. Paris : Les éditions du cerf, 2025. P 13 et p.15.

2 – Gunther Anders. L’obsolescence de l’homme, sur l’âme à l’époque de la deuxième révolution industrielle. Paris : Editions de l’encyclopédie des nuisances, 2002.

3 – Ingmar Persson, Julian Savulescu. Unfit for the future, the need for moral enhancement. Oxford University press https://doi.org/10.1093/acprof:oso

4 – Le Grand Continent. L’empire de l’ombre, guerre et terre au temps de l’IA (sous la direction de Giuliano da Empoli). Paris : Gallimard, 2025. 

 

 

 

 

 

 

0 commentaire

Commenter

Your email address will not be published. Required fields are marked *

Champs obligatoires*