AI | Halluzinationen und Illusionen von AI in der Wissenschaft

Apr, 2024

Künstliche Intelligenz verändert die Art und Weise, wie wissenschaftliche Forschung betrieben wird. Von der Unterstützung bei der Literaturrecherche bis zur Generierung synthetischer Daten werden KI-Tools in den gesamten Forschungsprozess integriert, in der Hoffnung, die Entdeckung zu beschleunigen. Ein neues, in Nature veröffentlichtes Perspektivpapier warnt jedoch davor, dass ein übermäßiger Einsatz von KI erkenntnistheoretische Risiken birgt, die die von der KI versprochenen Ziele der Produktivitätssteigerung und Objektivität untergraben könnten.

Die Autoren des Papiers, Lisa Messeri und M.J. Crockett, stützen sich auf ihr Fachwissen in den Bereichen Kognitionswissenschaft, Erkenntnistheorie, Anthropologie sowie Wissenschafts- und Technologiestudien, um zu analysieren, wie KI mit der sozialen Natur der Wissensproduktion zusammenhängt. Sie identifizieren vier Haupt-"Visionen", die Wissenschaftler derzeit für die Integration von KI haben: Oracle (zur Suche und Zusammenfassung von Literatur), Surrogate (zur Generierung von Daten), Quant (zur Analyse großer Datenmengen) und Arbiter (zur Rationalisierung von Peer Reviews).

Während diese Visionen darauf abzielen, Beschränkungen wie die begrenzte Zeit und Aufmerksamkeit von Forschern zu überwinden, argumentieren Messeri und Crockett, dass sie auch nach hinten losgehen können, indem sie "wissenschaftliche Monokulturen" begünstigen. Monokulturen entstehen, wenn ein einziger Forschungsansatz, z. B. der Einsatz von KI-Tools, die verschiedenen Alternativen dominiert. Genauso wie landwirtschaftliche Monokulturen anfällig für Schädlinge und Krankheiten sind, besteht bei wissenschaftlichen Monokulturen die Gefahr, dass sie den Untersuchungsrahmen einengen und zu Fehlern führen.

Insbesondere warnen die Autoren vor "Monokulturen des Wissens", die Fragen, die am besten mit KI beantwortet werden können, in den Vordergrund stellen und andere gültige Ansätze an den Rand drängen. "Monokulturen des Wissens" entstehen auch durch die Förderung der Idee, dass KI-Tools wahre Objektivität erreichen können, indem sie alle Perspektiven repräsentieren, während sie in Wirklichkeit die Perspektiven ihrer Entwickler einbetten.

Die größten Risiken können jedoch von "Illusionen des Verstehens" ausgehen - metakognitive Fehler, bei denen Wissenschaftler überschätzen, was sie aufgrund von KI verstehen. Die "Illusion der Erklärungstiefe" entsteht, wenn Vorhersagemodelle fälschlicherweise als vollständige Erfassung von Phänomenen angesehen werden. Die "Illusion der explorativen Breite" gaukelt den Forschern vor, dass alle Hypothesen in Betracht gezogen werden, nicht nur diejenigen, die die KI testen kann. Und die "Illusion der Objektivität" macht uns blind für den der KI innewohnenden Standpunkt.

Um sich gegen solche Risiken zu wappnen, betonen Messeri und Crockett die Pflege der Vielfalt sowohl bei den Forschungsmethoden ("kognitive Vielfalt") als auch bei den Teilnehmern ("demografische Vielfalt"). Während KI Effizienzgewinne verspricht, die die Produktivität steigern, droht ein übermäßiger Rückgriff auf einen einzigen Ansatz die Probleme, mit denen sich die Wissenschaft befasst, und die einbezogenen Standpunkte künstlich einzuschränken. Die Autoren argumentieren, dass wir mit neuen Werkzeugen verantwortungsvoll umgehen müssen, um sicherzustellen, dass der beschleunigte Output nicht das echte Verständnis untergräbt.

Mit Blick auf die Zukunft rufen sie dazu auf, spezifische KI-Visionen gesondert zu bewerten und zu prüfen, wie der Grad an Fachwissen das Vertrauen in die Ergebnisse beeinflusst. Interdisziplinäre Teams könnten die notwendige Überprüfung fördern. Die wachsende Rolle der Privatwirtschaft bei der Entwicklung akademischer KI wirft ebenfalls Fragen der Transparenz auf. Insgesamt regt diese provokative Analyse dazu an, schwierige Fragen über Anreize für qualitativ hochwertige Wissenschaft gegenüber maximiertem Output zu stellen und ein Gleichgewicht zwischen der unverzichtbaren kognitiven Vielfalt der Menschheit und der technologischen Produktivität herzustellen. In einer Ära des tiefgreifenden Wandels kann die Aufrechterhaltung eines solchen Gleichgewichts der Schlüssel sein, um die Fähigkeit der Wissenschaft zu erhalten, Licht und nicht Illusionen zu verbreiten.

Hinweis(e)

  1. Messeri, L., Crockett, M.J. Künstliche Intelligenz und die Illusion des Verstehens in der wissenschaftlichen Forschung. Nature 627, 49-58 (2024). https://doi.org/10.1038/s41586-024-07146-0

 

Klicken Sie auf TAGS, um verwandte Artikel zu sehen:

KI | FORSCHUNG | GESELLSCHAFT

Über den Autor

  • Dilruwan Herath

    Dilruwan Herath ist ein britischer Arzt für Infektionskrankheiten und eine medizinische Führungskraft in der Pharmaindustrie mit über 25 Jahren Erfahrung. Als Arzt spezialisierte er sich auf Infektionskrankheiten und Immunologie, wobei er einen entschiedenen Fokus auf die Auswirkungen auf die öffentliche Gesundheit entwickelte. Im Laufe seiner Karriere hatte Dr. Herath mehrere leitende medizinische Funktionen in großen, weltweit tätigen Pharmaunternehmen inne, wo er transformative klinische Veränderungen leitete und den Zugang zu innovativen Medikamenten sicherstellte. Derzeit ist er als Sachverständiger für die Fakultät für Pharmazeutische Medizin im Ausschuss für Infektionskrankheiten tätig und berät weiterhin Biowissenschaftsunternehmen. Wenn er nicht als Arzt praktiziert, malt Dr. Herath gerne Landschaften, treibt Motorsport, programmiert Computer und verbringt Zeit mit seiner jungen Familie. Sein Interesse an Wissenschaft und Technologie ist ungebrochen. Er ist EIC und Gründer von DarkDrug.

Pin It auf Pinterest

DarkDrug

FREE
VIEW