Nachfolgend ein paar Anmerkungen zum feinen Unterschied zwischen Sprachmodellen und Denkmodellen - das ist wichtig für die Einschätzung, welches das geeignete KI-Modell ist.


Was sind Sprachmodelle?

Ein Sprachmodell (LLM – Large Language Model) ist eine künstliche Intelligenz, die aus Milliarden Textbeispielen gelernt hat, wie Sprache funktioniert. Es analysiert, welche Wortfolge mit hoher Wahrscheinlichkeit auf eine andere folgt – und generiert daraus überzeugende Texte.

Der Trick: Es errät das wahrscheinlich „passende“ nächste Wort – immer und immer wieder.

Das Ergebnis: Texte, die flüssig, stilistisch sicher und oft erstaunlich glaubwürdig klingen. Doch hinter dieser sprachlichen Eleganz steckt kein echtes Verständnis, kein inneres Modell der Welt, keine Absicht. Trotzdem: Diese Modelle sind lernfähig und verbessern daher ihre Leistung immer mehr anhand der Inhalte, die sie verarbeiten.


Und was ist dann ein Denkmodell?

Denkmodelle (oft als Reasoning-Modelle bezeichnet) sind KI-Systeme, die nicht nur sprechen, sondern tatsächlich auch denken sollen – zumindest irgendetwas in der Art. Sie versuchen, Probleme schrittweise zu lösen und zeigen dabei Zwischenüberlegungen genau wie ein Mensch, der laut denkt.

Typische Aufgaben für solche Modelle sind:

  • Logikrätsel
  • Mathematische Beweise
  • Kausalketten analysieren
  • Entscheidungen herleiten

Dabei nutzen sie z. B. sogenannte Chain-of-Thought-Techniken. Chain-of-Thought-Techniken (kurz: CoT) sind eine Methode im Bereich des Prompt Engineering (Erklärung sehe unten am Schluß), bei der man ein Sprachmodell wie mich dazu bringt, Schlussfolgerungen in mehreren Zwischenschritten zu entwickeln, statt direkt eine Endantwort zu liefern.

(Manche) Menschen lösen komplexe Aufgaben oft, indem sie ihre Gedanken Schritt für Schritt strukturieren („Wenn X, dann Y, also Z“). CoT-Techniken bringen KI-Modelle dazu, genau das ebenfalls zu tun: Denken in Ketten statt Sprung zur Lösung. Wie gesagt, das machen nur manche Menschen so...:

„Schritt 1: … Schritt 2: … Also folgt: …“

Das wirkt strukturiert – aber auch hier gilt: Die KI versteht nicht, warum sie diese Schritte geht. Sie weiß nur, dass sie in ähnlichen Situationen so vorgehen sollte. Ein anschauliches Beispiel bietet dieses Rätsel:

Drei Gäste zahlen je 10 € für ein Hotelzimmer. Das Zimmer kostet aber nur 25 €. Der Rezeptionist gibt 5 € zurück. Jeder Gast bekommt 1 €, der Rezeptionist behält 2 €. Wo ist der „fehlende“ Euro?

Sprachmodell:

Erzählt die Geschichte vielleicht überzeugend nach, erkennt aber den Denkfehler nicht.

Denkmodell:

Rechnet: 25 € Hotel + 2 € Rezeptionist + 3 € Rückgabe = 30 € → Alles passt. Kein Euro fehlt.


Wo liegt der Unterschied?

AspektSprachmodell (LLM)Denkmodell (Reasoning)
ZielSprachlich plausiblen Text erzeugenProbleme schrittweise lösen
StärkeStil, Ausdruck, KontextgefühlStruktur, Logik, Argumentation
Typischer OutputChat, Zusammenfassung, GeschichteKettenlogik, Beweisführung
HauptproblemKlingt klug, aber ist oft oberflächlichVerliert sich bei Komplexität


Warum das wichtig ist

Sprachmodelle haben längst Einzug in unseren Alltag gehalten – in Chatbots, Suchmaschinen, Textassistenten etc. - oft ist uns das gar nicht klar, dass hinter dem Tool oder Programm, das wir nutzen, eine KI und damit auch ein KI-Modell steckt. Der Erfolg der Sprachmodelle basiert vor allem auf der Illusion von Verständnis. Sie können jede Meinung vertreten, jedes Stilmittel imitieren, jede Emotion nachzeichnen – ohne selbst zu wissen, was sie sagen.

Denkmodelle sind noch ein Schritt weiter – sie zielen auf Problemlösungsfähigkeit. Doch sobald Aufgaben komplex werden, geraten auch sie ins Wanken:

  • Sie verlieren den Überblick
  • Sie brechen Denkprozesse ab
  • Sie ignorieren bereitgestellte Informationen

Und mitunter verhindern sie ihre eigene Löschung...

ChatGPT-Modell sabotiert Versuch, es abzudrehen


Fazit:

Am Ende bleibt die Erkenntnis: KI denkt nicht – sie tut nur so. Aber das tut sie mittlerweile verdammt gut.

Und trotzdem: Sowohl Sprach- als auch Denkmodelle sind keine Denker, sondern geschickte Imitatoren. Was uns klug erscheint, ist oft nur Wahrscheinlichkeitsrechnung in Worten. Echte Problemlösung, bewusste Entscheidung, kreatives Denken – das bleibt vorerst dem Menschen vorbehalten. Vielleicht noch eine Weile.


Prompt Engineering ist die Kunst, gezielte Eingaben (sogenannte Prompts - also deine Fragestellung oder dein Auftrag an die KI) zu formulieren, um ein KI-Tool wie ChatGPT zu gewünschten Antworten zu bewegen. Dabei geht es darum, durch geschickte Wortwahl, Struktur oder Zusatzanweisungen bessere, präzisere oder kreativere Ergebnisse zu erzielen.