LLMs mit Reasoning

Visualisierung eines digitalen Gehirns als Symbol für Künstliche Intelligenz und LLMs mit Reasoning
Wie ein harmloses „Hi, bist du da?“ zum KI-Use-Case wurde

LLMs mit Reasoning

KI hat mich heute zum Lachen gebracht – und gleichzeitig auf die Idee, dem KI-neugierigen Publikum den Modus Reasoning (zu deutsch: Argumentation) in KIs näherzubringen.

Was war passiert?
Für ein Offline-KI-Vergleichsexperiment habe ich mit LMStudio ein paar lokale LLMs (LLM = Large Language Model, KI-Sprachmodelle, die Texte verstehen, generieren und komplexe Zusammenhänge verarbeiten) installiert – u. a. Varianten von Mistral, Llama und DeepSeek.

Mistral gewinnt das Download-Rennen, ist als erstes einsatzbereit, und ich begrüße mein frisch gestartetes Modell höflich mit:

„Hi, bist du da?“

Kurz darauf beginnen meine Lachmuskeln zu zucken.
Das Modell fängt an, meinen Satz linguistisch zu sezieren. Erst Französischverdacht, dann Deutsch, dann die Erkenntnis: Das könnte eine lässige Art sein zu fragen, ob jemand da ist. Und weil es im Reasoning-Modus läuft, erklärt es mir jeden gedanklichen Zwischenschritt ganz transparent: Sprache raten, Intention ableiten, passende Antwort planen – alles fein säuberlich dokumentiert.

KI Reasoning Local LLM Experiment QCT
Screenshot eines lokalen LLM-Reasoning-Dialogs in LM Studio mit der Begrüßung „Hi, bist du da?“

Am Ende kommt ein freundliches, französisches

„Salut ! Oui, je suis là…“

heraus – inklusive Übersetzung (zum Glück bei meinem dürftigen Schulfranzösisch).
Ich lache, bin aber gleichzeitig fasziniert: Hier passiert etwas, das viele noch gar nicht kennen und das in Projekten extrem hilfreich sein kann – LLM mit Reasoning.

LLM? Was ist das eigentlich?

Ein LLM ist eine spezielle Form von KI, die sich auf Sprache konzentriert: Es lernt aus gigantischen Textmengen, wie Worte zusammenhängen, und kann dadurch Texte erzeugen, erklären oder umformulieren. „KI“ ist der größere Rahmen: Dazu zählen auch Systeme für Bilder, Planung, Robotik usw. LLMs sind sozusagen die Sprachabteilung im KI-Gebäude. Prägende Anbieter sind OpenAI, Google DeepMind, Meta, Mistral und Anthropic. Anwendungsfelder reichen von Recherche-Assistenten über Lern- und Trainingstools bis zu automatisierten Berichten und FAQ-Bots in Unternehmen.

Was LLMs gut können – und was nicht

LLMs sind großartig darin, Texte zu analysieren, zu strukturieren und umzuformen. Sie nehmen uns Fleißarbeit ab: sortieren, zusammenfassen, vergleichen, Vorschläge machen. Im Umfeld der Qualitätssicherung sind sie perfekte Assistenten für Testfallableitung, Testautomatisierung, Release-Vorbereitung oder Fehleranalyse.

Und das kann ich auch zuhause installieren?

Lokale LLMs sind im Prinzip dieselbe Technologie wie ChatGPT & Co., nur eben auf deinem eigenen Rechner oder Server. Ja, das geht tatsächlich. Moderne Modelle wurden dafür optimiert, um für verschiedene Leistungsstufen kompatibel zu sein – eventuell auch stark verkleinert. Warum sollte ich das wollen? Vor allem wegen Datenschutz, Compliance und Kontrolle: Sensible Dokumente verlassen nie die eigene Umgebung. Das Positive dabei: Du behältst die volle Hoheit über deine Daten, Experimente sind eher reproduzierbar und du hast keine laufenden Kosten, wie bei einer Anbindung an die großen KI-Anbieter.

Das hat aber wie so oft auch Nachteile: begrenzte Modellgröße, vor allem limitiert durch deine Hardware. Dir obliegt außerdem der volle Administrationsaufwand und du trägst für Sicherheit, Updates und Skalierung selbst die Verantwortung. Außerdem entsprechen die frei zugänglichen Open Source Modelle leider nicht dem aktuellsten Stand der Veröffentlichung, sondern immer einer Vorstufe.

Zurück zum eigentlichen Thema:

Was passiert hier eigentlich? Reasoning in Action…

KIs suchen Muster. Immer. In jedem Satz, jedem Wort, jedem Kontext. Reasoning bedeutet: Das Modell zerlegt eine Aufgabe in Teilprobleme, geht sie Schritt für Schritt durch und macht diese „Gedankengänge“ für uns sichtbar. Es zeigt, warum es zu einer bestimmten Antwort kommt.

Gerade in der Software-Qualitätssicherung ist das spannend. Wir haben dort ständig mehrdeutige Anforderungen („Das System soll schnell reagieren“ – ja… wie schnell?), uneindeutige Fehlermeldungen (“Das System ist abgestürzt”, ‘historisch’ gewachsene Testfälle und Fehlermeldungen in Logs, die ungefähr so konkret sind wie „Da ist was kaputt“. LLMs können hier Muster erkennen, Anforderungen clustern, Widersprüche markieren, erste Testfall-Ideen generieren oder Fehlerbeschreibungen mit Log- und Diagnosedaten so kombinieren, dass sehr viel schneller klar wird: „Dieser Fehler tritt immer dann auf, wenn…“. Wofür Entwickler und Techniker früher möglicherweise Stunden für die Fehleranalyse aufwenden mussten, bis die Fehlerausprägung und der Auslöser in Zusammenhang gebracht werden konnten, braucht KI häufig nur Sekunden. Der Mehrwert liegt auf der Hand.

KI-Ergebnisse brauchen Nachvollziehbarkeit

Dank Reasoning können wir die Gedankengänge prüfen, verifizieren und bestenfalls bestätigen. Das schafft Vertrauen in einer Zeit, in der vor allem zwei Lager die Diskussionen aufrechterhalten: KI-Fans und KI-Skeptiker.

Mit der Herleitung sehen wir nämlich nicht nur das Ergebnis, sondern auch, wie die KI darauf gekommen ist. Das macht sie prüfbar, nachvollziehbar und glaubwürdig. Das ist ideal für QA, regulierte Umfelder … und KI-Skeptiker.

Denn im Umgang mit KI gilt die Grundregel: Die KI ist Assistent, nicht Entscheider. Sie darf vorschlagen, markieren, inspirieren – aber bei Qualität, Sicherheit und Compliance hat immer noch der Mensch das letzte Wort und die Verantwortung zur Prüfung der generierten Ergebnisse.

Plane realistische Ziele statt KI-Luftschlösser

Damit KI-Projekte für dich nicht zum teuren Experiment ohne Mehrwert werden, helfen dir ein paar eindeutige Leitplanken, damit dein Unternehmen nicht leichtfertig und in gutem Glauben, aber ergebnislos mit KI interagiert:

💭 Groß denken, aber klein anfangen:
Häufig heißt es: „Wir wollen KI im gesamten Entwicklungsprozess“. Der Wunsch ist nicht verkehrt, aber starte mit realistischen Zwischensteps, beispielsweise: „Wir wollen die Zeit für die Fehleranalyse reduzieren.“

💡 Finde und definiere dazu deine Use Cases:
Zum Beispiel: „Automatisierte Logfile-Analyse, die bei der Erstellung eines Fehlertickets alle Diagnosedaten auswertet, einen potenziellen Auslöser ausfindig macht und einen potenziellen Lösungsansatz vorschlagen kann.“

🔍 Ergebnisse kritisch prüfen:
Mit den Infos aus dem Reasoning können die Informationen genutzt und nachvollzogen werden. Schnellere Fehleranalyse bedeutet eine schnellere Lösung. Das schafft produktive Entwicklungszeit und bessere Softwarequalität.

🧭 Governance klären:
Da wir uns in Entwicklungsabteilungen überwiegend mit geschäftskritischen und geheimhaltungswürdigen Informationen beschäftigen, ist die Frage für jedes Unternehmen: Wenn ich KI einsetze, wer garantiert mir den vertrauensvollen Umgang mit meinen Daten? Wem gebe ich die Befähigung, KI zu nutzen und wofür genau? Wie gehen wir mit vertraulichen Daten um und wie stellen wir sicher, dass sie vor unbefugten Zugriffen geschützt bleiben?

Wie QCT dabei hilft

Genau hier setzen wir bei Quality Consulting Taeschner an. Wir unterstützen Unternehmen dabei, KI als effizienzsteigerndes Werkzeug in die Qualitätssicherung zu bringen – gerne auch mit lokal betriebenen Modellen, wenn Datenschutz und Compliance im Vordergrund stehen. Von der Ideenfindung über die Auswahl passender LLMs und Architekturen bis hin zu Pilotprojekten.

Wenn du darüber sprechen möchtest, wie KI deine Qualitätssicherung aufs nächste Level hieven kann, melde dich gern. Ich verspreche: Ich bewerte deine Begrüßung nicht linguistisch – aber deinen Use Case dafür umso gründlicher. 

Quality Consulting

Professional Quality Services

Quality Education

Achja und das Fazit meines Experiments?

Geglückt! Obwohl die KI in der Auswertung keine Sprachverwandtschaft zum Französischen erkennen kann, glaubt es an einen französischsprachigen Input und antwortet auf gewohnte Art. Aber zu seiner Verteidigung sei gesagt: als frisch installierter, eingefrorener Stand eines französischen Entwicklungsteams ist die wahrscheinlichste Erklärung, dass seine letzten Interaktionen vor der Veröffentlichung höchstwahrscheinlich auf Französisch stattfanden. 

Immerhin kamen Mistral beim Input leichte Zweifel, so dass prophylaktisch eine Übersetzung mitgeliefert wurde. Statistisch war die Chance aber wohl höher, dass vor dem Monitor noch immer ein Franzose sitzt.

Sorry mon ami:  aber jetzt bist du bei mir! 

Und wer den Screenshot aufmerksam studiert hat: meinen Konfigurationsfehler hab ich mittlerweile auch gefunden. Für diese Antwort braucht Mistral nun keine 20 Minuten mehr. 

KI ja, Plan nein? Wir ändern das

Wir helfen dir bei der Einführung von den richtigen - KI Tools - KI Guard Rails - KI Lösungen

Termin für dein KI Erstgespräch vereinbaren

QCT – Dein Experte für Testmanagement, Softwarequalität und digitale Transformation

Kästnerstr. 13a, 47559 Kranenburg
+49 (2826) 999 3201

QCT ist dein Partner für Testmanagement, Quality Assurance und digitale Transformation. Wir sichern mit Leidenschaft und Begeisterung Softwarequalität, vermitteln fundiertes Expertenwissen im Bereich Testing, Testmanagement und Testttools und geben  deinen digitalen Projekten den perfekten Schliff.

Folge uns: