Repenser le progrès à l'ère de l'IA

Avril

"Réussir à créer l'IA serait le plus grand événement de l'histoire de l'humanité. Malheureusement, ce pourrait aussi être le dernier, à moins que nous n'apprenions à éviter les risques".

Stephen Hawkings

Physicien théorique, cosmologiste et auteur

Alors que l'intelligence artificielle envahit de plus en plus la recherche scientifique, nous devons réfléchir à la manière dont ce grand changement technologique peut influer sur la façon dont les connaissances sont produites. Si l'exploitation de l'IA promet de nouveaux gains d'efficacité et de nouvelles découvertes, son adoption sans réflexion risque de réduire notre compréhension de manière inquiétante. En examinant les motivations et les visions qui sous-tendent l'adoption de l'IA, ainsi que les illusions cognitives qui peuvent en découler, nous pouvons nous efforcer d'en maximiser les avantages et d'en atténuer les effets néfastes. Notre objectif devrait être d'utiliser judicieusement les outils pour mieux comprendre, et non de produire un travail à l'aveuglette au détriment de la compréhension.

Les scientifiques envisagent que l'IA prenne de nombreuses formes dans le flux de travail de la recherche. En tant qu'"Oracle", elle parcourt de vastes littératures pour suggérer de nouvelles hypothèses plus rapidement que l'esprit humain ne le permet. Les "substituts" génèrent des données de substitution pour remplacer les réalités trop difficiles ou trop coûteuses à observer directement. Les "Quants" exploitent des modèles puissants que nous n'avons pas vus pour analyser des ensembles de données gigantesques. Les "arbitres" promettent un examen plus objectif des manuscrits et des subventions que ne le permettent des pairs surchargés. Chaque incarnation s'appuie sur les qualités séduisantes de l'IA : elle travaille sans relâche, dépasse les capacités humaines et promet d'éliminer les préjugés.

Pourtant, si l'efficacité et l'échelle sont enthousiasmantes, nous devons nous interroger sur ce qui pourrait être perdu. Les modes de connaissance quantitatifs encouragés par l'IA risquent de marginaliser les questions sensibles et nuancées qu'il est préférable d'aborder de manière qualitative. La standardisation sur des outils optimisés pour la prédiction risque de négliger des explications cruciales pour la théorie. Les détails locaux valables emportés par la marée des Big Data nous rendent vulnérables. Avec des outils orientés par les valeurs de la majorité, les perspectives minoritaires risquent d'être exclues, ce qui diminue la vigueur des défis et des débats scientifiques.

En outre, les vertus mêmes de l'IA qui favorisent son adoption - paraître objective et comprendre infiniment plus que nous - peuvent nous rendre aveugles à des réalités qui sapent la compréhension. En faisant confiance à des substituts comme représentations complètes de l'humanité, nous passons à côté de ce qui reste invisible. Croyant que les modèles quantiques saisissent l'essence de la nature mieux que notre esprit ne le permet, nous oublions qu'il s'agit de constructions humaines qui ne reflètent que ce qui les a formées. Ne reconnaissant pas que l'IA hérite des biais de sa formation, nous pensons qu'elle élimine tous les points de vue.

Le plus inquiétant est la façon dont l'utilisation généralisée de l'IA peut engendrer des "monocultures de connaissances et de connaisseurs". En donnant la priorité aux questions et aux méthodes que l'IA maîtrise le mieux, nous risquons de réduire notre espace exploratoire, tout comme la dépendance excessive à l'égard d'une seule culture met en péril un écosystème. Une monoculture de connaissances quantitatives, prédictives et réductrices, favorisée par l'IA, risque de nous priver d'informations nécessitant d'autres modes. De même, élever les outils qui semblent impartiaux au-dessus de la diversité des perspectives humaines risque d'appauvrir la science, tout comme l'exclusion de voix diverses l'a fait auparavant.

Ces risques épistémiques sont aggravés par les biais cognitifs qui influencent les communautés comme la nôtre. La cognition distribuée permet de comprendre bien plus que les esprits solitaires, mais elle engendre aussi des illusions qui confondent l'accès à l'information avec la compréhension. L'utilité même de l'IA l'implante profondément dans nos réseaux, ce qui favorise la substitution erronée de sa compréhension à la nôtre. Ses promesses d'objectivité surhumaine nous poussent à nous y conformer sans esprit critique, en occultant tout ce qui reste opaque, même du point de vue de ses concepteurs.

Pour renforcer plutôt qu'affaiblir les connaissances, nous devons reconnaître ces dynamiques sociales et cognitives qui façonnent l'adoption de l'IA et structurer son implication de manière réfléchie. Les équipes diversifiées et interdisciplinaires évitent au mieux les monocultures en cultivant de multiples perspectives pertinentes. Reconnaître les compromis inhérents à tous les modes de connaissance permet d'équilibrer les méthodes. Le fait d'axer l'expertise sur l'évaluation, et pas seulement sur le développement, protège les non-experts. S'attaquer aux préjugés permet de contrer directement les illusions de neutralité. Garder à l'esprit que l'explication prime sur la prédiction, et que les connaissances qualitatives vont de pair avec les connaissances quantitatives, permet de conserver des options pour l'avenir.

Globalement, comme pour toute nouvelle technique, une intégration responsable exige de comprendre non seulement les capacités techniques, mais aussi les impacts sociaux et psychologiques sur les institutions, les comportements et les modes de pensée. En réfléchissant de manière critique et en tirant les leçons du passé, la science peut orienter le changement de manière réfléchie afin d'élargir, plutôt que de réduire, le champ de vision de l'homme. Notre défi consiste à utiliser judicieusement des outils puissants et à ne pas remplacer avec complaisance la compréhension par la production. Avec prudence et vigilance, l'IA ne doit pas diminuer la compréhension, mais au contraire l'amplifier, si nous reconnaissons que le progrès n'émerge pas seulement des outils, mais aussi d'un partenariat humain réfléchi. Notre objectif reste de mieux comprendre, et pour cela la sagesse doit guider l'innovation, et non l'inverse.

Cliquez sur TAGS pour voir les articles connexes :

AI | BIG DATA | DIVERSITÉ | APPRENTISSAGE AUTOMATIQUE | RECHERCHE | SOCIÉTÉ

A propos de l'auteur

  • Dilruwan Herath

    Dilruwan Herath est un médecin britannique spécialisé dans les maladies infectieuses et un cadre médical dans l'industrie pharmaceutique, avec plus de 25 ans d'expérience. En tant que médecin, il s'est spécialisé dans les maladies infectieuses et l'immunologie, en mettant résolument l'accent sur l'impact sur la santé publique. Tout au long de sa carrière, le Dr Herath a occupé plusieurs postes de direction médicale dans de grandes entreprises pharmaceutiques mondiales, menant des changements cliniques transformateurs et garantissant l'accès à des médicaments innovants. Il est actuellement membre expert du comité des maladies infectieuses de la faculté de médecine pharmaceutique et continue de conseiller les entreprises du secteur des sciences de la vie. Lorsqu'il n'exerce pas la médecine, le Dr Herath aime peindre des paysages, les sports mécaniques, la programmation informatique et passer du temps avec sa jeune famille. Il s'intéresse de près à la science et à la technologie. Il est EIC et fondateur de DarkDrug.

L'épingler sur Pinterest

DarkDrug

GRATUIT
VIEW