Multi-Agenten-Systeme und LLMs: Zwischen Potenzial und praktischen Grenzen

Grosse Sprachmodelle werden zunehmend in sogenannten Multi-Agenten-Systemen eingesetzt. Mehrere KI-Agenten arbeiten zusammen, rufen Werkzeuge auf und verfeinern gegenseitig ihre Ergebnisse. Das Konzept klingt leistungsfähig. In der Praxis bringt es jedoch oft mehr Komplexität mit sich als erwartet.


Um was es geht

Grosse Sprachmodelle werden längst nicht mehr nur als eigenständige Chat-Systeme genutzt. Man kombiniert sie mit Werkzeugen, APIs und weiteren Modellen, um Multi-Agenten-Systeme zu schaffen. In solchen Setups plant ein Agent beispielsweise eine Aufgabe, ein anderer beschafft Informationen, ein dritter überprüft das Resultat und ein vierter fasst die Ausgabe zusammen.

Jeder Agent wird in der Regel durch Prompts gesteuert und von einem LLM betrieben. Das System kann dynamisch entscheiden, welches Werkzeug als nächstes aufgerufen wird. Der Ansatz ist vom Teamgedanken inspiriert: Ein Problem wird in Rollen aufgeteilt, und spezialisierte Akteure arbeiten zusammen.

Das Ziel ist besseres Schlussfolgern und stärker automatisierte Abläufe. Allerdings fügt jeder zusätzliche Agent dem System eine weitere probabilistische Ebene hinzu.


Warum das relevant ist

LLMs sind probabilistisch. Sie erzeugen Ergebnisse auf Basis von Wahrscheinlichkeiten, nicht nach festen Regeln. Wenn mehrere LLM-gesteuerte Agenten miteinander interagieren, können sich kleine Ungenauigkeiten summieren. Ein Planungsagent versteht die Aufgabe möglicherweise nicht vollständig. Ein Rechercheagent wählt unvollständige Daten aus. Ein Prüfagent übersieht subtile Fehler. Das Endergebnis kann überzeugend klingen und dennoch auf fragilen Annahmen beruhen.

Hinzu kommen praktische Auswirkungen. Mehr Agenten bedeuten mehr Modellaufrufe, höhere Latenz und steigende Kosten. Was im Prototyp elegant wirkt, kann im täglichen Betrieb teuer und schwer skalierbar werden.

Auch die Governance wird komplexer. Wenn Fehler auftreten, ist schwerer nachzuvollziehen, welcher Agent sie eingeführt hat. Für regulierte Branchen, Schulen oder öffentliche Institutionen sind Erklärbarkeit und Verantwortlichkeit keine Option, sondern Voraussetzung.


Die Grundlagen verstehen

Es hilft, zwischen deterministischen und probabilistischen Systemen zu unterscheiden.

Deterministische Werkzeuge folgen expliziten Regeln. Dieselbe Eingabe führt immer zur selben Ausgabe. Datenbanken, Berechnungen und regelbasierte Workflows sind berechenbar und effizient.

LLMs funktionieren anders. Sie sind darauf ausgelegt, Sprache zu interpretieren, Mehrdeutigkeit zu verarbeiten und flexible Antworten zu generieren. Ihre Stärke liegt im offenen Schlussfolgern und in der Synthese, nicht in der exakten Wiederholung.

In Multi-Agenten-Systemen interagieren mehrere probabilistische Komponenten. Wird auch die Orchestrierung durch ein LLM gesteuert, erhöht sich die Nicht-Deterministik zusätzlich. Das macht solche Systeme nicht unbrauchbar. Es bedeutet jedoch, dass sie sorgfältig konzipiert werden müssen.


Was das für Dich bedeutet

Für Führungsteams und KMU versprechen Multi-Agenten-Architekturen Automatisierung und intelligente Workflows. Ohne ein klares Designprinzip besteht jedoch das Risiko kostspieliger Experimente mit unklarem Return on Investment.

Wenn eine Aufgabe wie das Weiterleiten von Dokumenten, das Klassifizieren von Rechnungen oder das Validieren strukturierter Daten deterministisch lösbar ist, können mehrere generative Agenten unnötige Variabilität und Compliance-Risiken einführen.

Im Bildungsbereich können KI-gestützte Tutoring-Systeme auf Basis von Multi-Agenten-Setups reichhaltige Interaktionen ermöglichen. Gleichzeitig wird es schwieriger, fachliche Korrektheit und pädagogische Qualität zu überprüfen, wenn mehrere probabilistische Schritte beteiligt sind.

In allen Kontexten wächst die Komplexität meist schneller als die Zuverlässigkeit.


Nächste Schritte

Zerlege Deinen Anwendungsfall in einzelne Teilaufgaben. Frage Dich bei jedem Schritt, ob tatsächlich generatives Schlussfolgern erforderlich ist oder ob eine deterministische Lösung ausreicht.

Halte die Anzahl der LLM-Aufrufe so gering wie möglich. Jeder zusätzliche generative Schritt erhöht Kosten und Unsicherheit.

Implementiere Logging und Monitoring über den gesamten Workflow hinweg. In Multi-Agenten-Systemen ist Nachvollziehbarkeit entscheidend.

Am wichtigsten ist ein einfaches Prinzip: Nutze deterministische Werkzeuge, wenn das Problem deterministisch ist. Setze LLMs dort ein, wo Interpretation, Sprachverständnis oder Synthese wirklich benötigt werden. Verantwortungsvolle KI-Architektur bedeutet oft weniger, zusätzliche Intelligenz hinzuzufügen, sondern unnötige Komplexität zu reduzieren.

Wenn dieses Thema für Deine Organisation relevant ist, nimm gerne Kontakt auf.