Warum KI mehr als nur Worte braucht
Die KI-Euphorie kühlt ab: Aktienkurse von Nvidia und Co. sinken, und die Frage nach der Zukunft der künstlichen Intelligenz wird lauter. In einem ihrer YouTube-Videos beleuchtet die Physikerin Sabine Hossenfelder die Gründe für diese Entwicklung und zeigt, wo die Grenzen der aktuellen KI-Forschung liegen.
Sabine Hossenfelder ist eine renommierte theoretische Physikerin, die sich mit den Grundlagen der Physik und den Grenzen unseres Wissens auseinandersetzt. Sie ist bekannt für ihre kritische und verständliche Art, komplexe Themen zu erklären. In ihren Videos und Artikeln wirft sie einen Blick hinter die Kulissen der Wissenschaft und hinterfragt gängige Annahmen.
Das Problem der “Halluzinationen”
Hossenfelder erklärt, dass der aktuelle Hype um Künstliche Intelligenz, insbesondere um große Sprachmodelle (LLMs) wie ChatGPT, möglicherweise übertrieben ist. Diese Modelle leiden unter dem Problem der “Halluzinationen”: Sie produzieren selbstbewusst Unsinn und erfinden Informationen, die nicht existieren. Ein Beispiel dafür ist der Anwalt, der ChatGPT zur Vorbereitung eines Rechtsstreits einsetzte und dabei auf nicht-existierende Gerichtsfälle zurückgriff.
Der Mangel an Logik
Das Problem der Halluzinationen ist nur ein Symptom eines größeren Problems: LLMs verstehen die Welt nicht wirklich. Sie sind darauf trainiert, Texte zu generieren, die dem Trainingsmaterial ähneln, aber sie besitzen kein tiefes Verständnis für die dahinterliegende Logik und Semantik.
Beispiel Kindergarten-Rätsel:
Hossenfelder veranschaulicht dies mit einem modifizierten Kindergarten-Rätsel: Ein Bauer muss einen Wolf, eine Ziege und einen Kohlkopf mit einem Boot über einen Fluss transportieren. Das Boot bietet aber nur Platz für einen Gegenstand zusätzlich zum Bauern. Der Wolf frisst die Ziege, und die Ziege frisst den Kohl.
Wenn man die Information, wer wen frisst, aus dem Rätsel streicht, liefert das LLM trotzdem die gleiche, nun unsinnige Antwort. Das LLM extrapoliert aus dem bekannten Muster und gibt eine Antwort, die zwar in der Wortwahl ähnlich ist, aber den Sachverhalt nicht mehr korrekt wiedergibt.
Die Kluft zwischen menschlicher und KI-Bewertung
Das Kernproblem ist, dass Menschen und KI unterschiedliche Maßstäbe für “gute” Ergebnisse anlegen. Wir beurteilen Antworten anhand ihres Sinns und ihrer logischen Korrektheit, während KI-Modelle lediglich nach Ähnlichkeit zum Trainingsdaten beurteilen. Das Problem kann man nicht einfach durch mehr Trainingsdaten lösen. Es fehlt den Modellen grundlegendes Wissen darüber, was ihre Ausgabe für uns Menschen sinnvoll macht.
Die Lösung: Neurosymbolik
Hossenfelder argumentiert, dass die Lösung darin besteht, KI mit logischem Denken auszustatten, indem man sie mit symbolischer Sprache, ähnlich der in Mathematik-Software, vertraut macht. Eine Kombination aus neuronalen Netzen und symbolischer Logik, die sogenannte “Neurosymbolik”, könnte viele Probleme der aktuellen LLMs lösen.
DeepMind als Beispiel:
DeepMind, eine KI-Firma, die von Google übernommen wurde, hat bereits bemerkenswerte Fortschritte bei der Anwendung von KI für mathematische Beweise erzielt. Ihre KI erreicht inzwischen das Niveau eines Silbermedaillengewinners bei den Mathematik-Olympiaden und kann nicht nur Aufgaben lösen, sondern auch verständliche Beweise liefern.
Die Grenzen der Wortbasierten KI
Hossenfelder betont, dass die aktuelle KI-Forschung zu stark auf die Verarbeitung von Worten und Texten fokussiert ist. Sie plädiert für eine stärkere Betonung der Grundlagen der Physik und Mathematik. Die Welt ist nicht aus Wörtern gemacht, sondern im tiefsten Sinne Mathematik.
Ausblick:
Die aktuelle Konzentration auf LLMs könnte sich als Sackgasse erweisen. Unternehmen, die viel Geld in diese Technologie gesteckt haben, könnten ihre Investitionen nicht wieder hereinholen. Die Zukunft gehört KI-Systemen, die auf logischem Denken und Modellen der physikalischen Realität basieren.
Fazit:
Die KI-Landschaft befindet sich im Umbruch. Die Grenzen der aktuellen LLMs werden immer deutlicher, und die Forschung muss neue Wege gehen. Hossenfelders Analyse zeigt, dass der Weg zu einer wirklich intelligenten KI über die Integration von Logik und physikalischem Verständnis führt. Eine spannende Zeit für die Forschung, die uns vielleicht bald virtuelle Katzen und Mäuse auf unseren Computerbildschirmen bescheren wird.
Hinweis: Dieser Blogpost ist inspiriert von Sabine Hossenfelders YouTube-Video zum Thema: https://youtu.be/cHcWwGijXVc?si=G-6TTMTowh7OIHgx