Menschen diskutieren einen Prozess in einem Büro

Prozessautomatisierung ist derzeit in aller Munde. Kaum ein Workshop und kaum ein Seminarkonzept kommt ohne Begriffe wie AutomatisierungKI oder digitale Workflows aus. In vielen Unternehmen werden entsprechende Tools ausprobiert, Pilotprojekte gestartet und erste Automatisierungen umgesetzt.

Gleichzeitig zeigt sich in der Praxis immer wieder: Der Weg von einer guten Idee zur wirklich wirksamen Automatisierung ist anspruchsvoller, als es auf den ersten Blick scheint. Nicht selten liegt das weniger an den eingesetzten Tools als an der Frage, ob die zu lösenden Herausforderungen in den Prozessen im Vorfeld hinreichend verstanden wurden.

In diesem Beitrag möchte ich deshalb den Fokus nicht nur auf die Prozessautomatisierung setzen sondern insbesondere darauf, wie man von einem realen Prozessproblem zu einer funktionierenden, alltagstauglichen Prozessautomatisierung kommt. Schritt für Schritt, bewusst einfach und mit einer klaren Brücke zwischen Prozessmanagement, Automatisierung und dem sinnvollen Einsatz von Künstlicher Intelligenz.

Warum viele Initiativen zur Automatisierung von Prozessen bereits vor dem Start an Wirkung verlieren

Der Einstieg in das Thema Prozessautomatisierung beginnt häufig mit einer berechtigten Beobachtung: „Das ist ein manueller Prozess – den könnten wir doch automatisieren.“ Der nächste Schritt ist dann oft ebenso nachvollziehbar: Tools werden evaluiert, Demos angesehen und erste technische Lösungsansätze diskutiert. In vielen Fällen verlagert sich der Fokus dabei jedoch sehr schnell auf die Frage, wie sich ein Prozess technisch abbilden lässt – und weniger darauf, welche Verbesserung mit der Automatisierung eigentlich erreicht werden soll und wie die Mitarbeitenden im Prozess konkret entlastet werden können.

Gerade hier liegt eine große Lernchance. Denn erfolgreiche Automatisierungen entstehen meist dort, wo die Fachabteilung früh die inhaltliche Führung übernimmt: Sie kennt den Prozess, die tatsächlichen Engpässe und die Stellen, an denen Automatisierung wirklich Mehrwert stiften kann. Technik wird dann nicht zum Selbstzweck, sondern gezielt als Unterstützungsinstrument eingesetzt.

Ein weiterer verbreiteter Ausgangspunkt ist die Gleichsetzung von Automatisierung und Digitalisierung. Ein eingescanntes Formular oder ein digital erfasster Prozessschritt ist zwar ein wichtiger Schritt – aber noch keine Automatisierung. Ein Prozess wird auch nicht automatisch besser, nur weil er in einem neuen System abgebildet ist. Automatisierung bedeutet vielmehr, wiederkehrende Entscheidungen, Informationsflüsse oder Arbeitsschritte klar zu strukturieren und durch nachvollziehbare Regeln zu unterstützen. Dafür braucht es vor allem eines: ein gemeinsames, explizites Prozessverständnis.

Gerade in kleinen und mittleren Unternehmen sind Prozesse häufig über Jahre organisch gewachsen. Vieles funktioniert auf Basis von Erfahrung, Abstimmung im Team oder pragmatischen Hilfsmitteln wie Excel-Listen. Das ist kein Mangel, sondern Ausdruck von gelebter Praxis. Für eine erfolgreiche Automatisierung ist es jedoch wichtig, diese impliziten Abläufe gemeinsam sichtbar zu machen, zu hinterfragen und weiterzuentwickeln. In der Zusammenarbeit mit den Prozessbeteiligten lassen sich so oft überraschend einfache Lösungen für Probleme finden, die zuvor als „komplex“ galten.

Auch aus Lean-Sicht ist dieses Vorgehen konsequent. Nachhaltige Verbesserungen entstehen dort, wo Verschwendung erkannt, Ursachen verstanden und Prozesse aus Sicht der Anwender gestaltet werden. Prozessautomatisierung folgt denselben Prinzipien: Sie entfaltet ihre Wirkung dann, wenn Fachbereiche Verantwortung für ihre Prozesse übernehmen – und Automatisierung gezielt einsetzen, um gute Prozesse noch besser zu machen.

Schritt 1: Die Hebel für Effizienz und Qualität sauber verstehen – nicht größer, nicht kleiner

Bevor über Tools, Automatisierungsplattformen oder KI-Funktionen gesprochen wird, lohnt sich ein bewusster Schritt zurück: Wo genau liegen eigentlich die Hebel für mehr Effizienz oder bessere Qualität?

Diese Frage klingt zunächst trivial, ist in der Praxis aber entscheidend. Denn Automatisierung verstärkt das, was bereits im Prozess angelegt ist – sowohl Stärken als auch Schwächen. Ziel dieses ersten Schritts ist es daher nicht bereits eine Lösung zu entwerfen, sondern das Problem in der richtigen Tiefe und Abgrenzung zu verstehen: nicht größer als nötig, aber auch nicht zu oberflächlich.

Wie man zu diesem Verständnis kommt, hängt stark vom organisationalen Kontext ab. In der Praxis lassen sich dabei zwei typische Situationen unterscheiden.

Use Case 1: Größere Organisationen – Transparenz schaffen in abteilungsübergreifenden Prozessen

In größeren Organisationen sind Prozesse häufig über mehrere Abteilungen verteilt. Medienbrüche, Übergaben, Freigaben und unterschiedliche Zielsysteme sind eher die Regel als die Ausnahme. In solchen Kontexten ist es sinnvoll, zunächst Transparenz über den tatsächlich gelebten Prozess zu schaffen. Hier bieten sich klassische Werkzeuge aus dem Prozessmanagement an:

  • einfache Prozessmodelle (z. B. Swimlane-Diagramme mit BPMN),
  • End-to-End-Sichten statt Abteilungslogik,
  • explizite Betrachtung von Bearbeitungszeiten, Durchlaufzeiten, Wartezeiten und Rückfragen.

Wichtig ist dabei: Es geht nicht um Modellierungsperfektion oder Normkonformität, sondern um ein gemeinsames Verständnis. Ein gutes Prozessmodell beantwortet vor allem drei Fragen:

  1. Wo beginnt und endet der Prozess wirklich?
  2. Wer ist wann beteiligt – und mit welchen Informationen?
  3. Wo entstehen Verzögerungen, Rückfragen oder unnötige Schleifen?

Aus Lean-Sicht ist dies der Moment, in dem Verschwendung sichtbar wird: unnötige Prüfungen, doppelte Datenerfassung, Wartezeiten oder manuelle Abstimmungen. Genau hier liegt die eigentliche Grundlage für Automatisierung. Nicht selten zeigt sich bereits in dieser Phase, dass ein Teil des Problems gar keine technische Lösung braucht – sondern eine Klarstellung von Regeln oder Verantwortlichkeiten.

In anderen Beiträgen habe ich etwas dazu geschrieben, wie Prozesse zielorientiert modelliert werden können und wie Verschwendung in Prozessen identifiziert werden kann.

Use Case 2: Kleine Organisationen (KMU, Start-Ups) – Problemfokus statt Formalismus

In sehr kleinen Unternehmen oder Teams wäre eine formale Prozessmodellierung oft überdimensioniert. Die Prozesse sind bekannt, die Beteiligten sitzen nahe beieinander und viele Abläufe funktionieren über Erfahrung und direkte Kommunikation. Für eine erste Automatisierung braucht es hier kein vollständiges und formales Prozessmodell – wohl aber Klarheit über das eigentliche Problem. Bewährt hat sich in solchen Fällen ein bewusst einfacher Zugang. Das kann zum Beispiel in Form einer vereinfachten User Story oder Problemdefinition erfolgen:

  • Wer arbeitet heute im Prozess?
  • Was ist der manuelle Aufwand, der stört oder Zeit kostet?
  • Wo treten regelmäßig Fehler, Rückfragen oder Verzögerungen auf?
  • Was wäre konkret besser, wenn dieser Teil des Prozesses unterstützt oder automatisiert würde?

Ergänzend kann es helfen, die größten Pain Points stichpunktartig festzuhalten: Welche Schritte fühlen sich unnötig an? Wo werden Informationen mehrfach erfasst? Wo bleibt der Prozess regelmäßig hängen Dabei gilt auch hier: Ziel ist kein vollständiges Prozessdesign, sondern eine fokussierte Problemabgrenzung, die als stabile Grundlage für die Automatisierung dient.

Gemeinsamer Nenner beider Ansätze

Unabhängig von Unternehmensgröße oder methodischem Formalismus bleibt der Kern gleich: Automatisierung beginnt nicht mit der Frage „Was können wir automatisieren?“, sondern mit „Welches Problem wollen wir wirklich lösen?“ Erst wenn klar ist,

  • welcher Prozess oder Prozessschritt verbessert werden soll,
  • welchen Nutzen dies für die Fachabteilung bringt,
  • und wo Automatisierung konkret entlasten kann,

macht es Sinn, über Tools, Workflows oder KI-Unterstützung zu sprechen. Genau an dieser Stelle übernimmt die Fachabteilung die inhaltliche Führung und schafft damit die Voraussetzung für eine tragfähige, alltagstaugliche Automatisierung.

Schritt 2: Die fachliche Logik auf den Punkt bringen

Wenn klar ist, wo im Prozess Verbesserungspotenzial besteht, braucht es keinen weiteren Analysezyklus – sondern eine kurze, bewusste Klärung der fachlichen Logik. Ziel dieses Schritts ist es, den betrachteten Prozessschritt so zu verstehen, dass er einfach erklärbar und entscheidungsfähig wird. Dafür reichen in der Praxis meist drei Fragen:

  1. Was ist der Normalfall? Wie läuft der Prozessschritt in der Mehrzahl der Fälle ab – ohne Sonderbehandlung, Rückfragen oder Eskalationen?
  2. Welche Informationen sind dafür wirklich notwendig? Nicht alles, was heute geprüft oder erfasst wird, ist entscheidungsrelevant. Automatisierung zwingt dazu, zwischen „wichtig“ und „gewohnt“ zu unterscheiden.
  3. Wann braucht es bewusst menschliches Eingreifen? Welche Situationen sollen nicht automatisiert werden, weil sie fachliches Urteil, Abstimmung oder Verantwortung erfordern?

Diese drei Fragen schaffen Klarheit – ohne zusätzlichen Formalismus. Sie machen implizite Entscheidungslogiken sichtbar und reduzieren Komplexität, bevor Technik ins Spiel kommt. Aus Lean-Sicht ist genau das der entscheidende Punkt: Ein stabiler Standardfall wird definiert, Abweichungen werden bewusst als solche behandelt. Automatisiert wird nicht der Ausnahmefall, sondern der Normalfall. Alles andere bleibt transparent, aber bewusst manuell.

Am Ende dieses Schritts steht kein Konzept und kein Workflow, sondern eine einfache fachliche Leitplanke: So soll der Prozess im Regelfall laufen – und hier endet die Automatisierung bewusst. Erst auf dieser Basis lohnt es sich, über konkrete Automatisierungslösungen nachzudenken.

Schritt 3: Den ersten automatisierten Workflow umsetzen – mit Blick auf Leitplanken und Budget

Der Übergang von der fachlichen Logik zur ersten Automatisierung ist immer auch eine wirtschaftliche Entscheidung. Neben Prozessverständnis und Toolverfügbarkeit spielt das verfügbare Budget eine zentrale Rolle. Und das nicht nur im Sinne von Investitionshöhe, sondern auch in Bezug auf Zeit, Abstimmung und späteren Betrieb. Wie Unternehmen diesen ersten Automatisierungsschritt gestalten, unterscheidet sich daher oft deutlich zwischen größeren Unternehmen und kleinen Organisationen.

Größere Unternehmen: Budget vorhanden, Formalismus begrenzen

In größeren Unternehmen stehen für Automatisierungsinitiativen häufig auch höhere Budgets zur Verfügung. Gleichzeitig existieren etablierte IT-Strukturen, Governance-Vorgaben und Anforderungen an Revisionssicherheit. Diese Kombination eröffnet Möglichkeiten birgt aber auch das Risiko, bereits beim ersten Automatisierungsschritt eine unnötig formale Struktur aufzubauen. Ein sinnvoller Einstieg nutzt das vorhandene Budget gezielt:

  • bestehende Tools und Plattformen werden bevorzugt eingesetzt,
  • der Automatisierungsumfang wird bewusst auf den Normalfall begrenzt,
  • Dokumentation und Nachvollziehbarkeit werden sichergestellt, ohne ein vollständiges Zielbild vorwegzunehmen.

Gerade bei finanziell oder rechtlich relevanten Prozessen ist Revisionssicherheit kein Extra, sondern eine Grundanforderung. Der erste Automatisierungsablauf sollte daher so gestaltet sein, dass Entscheidungen, Datenflüsse und Übergaben nachvollziehbar bleiben. Gleichzeitig ist Zurückhaltung gefragt: Mehr Budget rechtfertigt keine komplexe Lösung, wenn ein einfacher Ablauf den gleichen Nutzen bringt. Lean-Denke bedeutet in diesem Kontext, vorhandene Ressourcen effizient einzusetzen nicht, möglichst viele Funktionen oder Sonderfälle abzudecken.

KMU: Begrenztes Budget, bewusster Gestaltungsspielraum

In kleinen und mittleren Unternehmen sind die finanziellen Mittel für Automatisierung meist begrenzter. Dafür ist der Gestaltungsspielraum oft größer: Toolentscheidungen können pragmatisch getroffen, Abläufe schnell angepasst und Ideen ohne lange Freigabeprozesse ausprobiert werden. Gerade deshalb ist ein bewusster Umgang mit Budget wichtig. Ein erster Automatisierungsablauf sollte deshalb:

  • mit überschaubarem finanziellen Einsatz realisierbar sein,
  • schnell spürbaren Nutzen im Alltag erzeugen,
  • so gestaltet sein, dass er später erweitert oder ersetzt werden kann.

Auch im KMU-Kontext spielen Sicherheits- und Zugriffsaspekte eine wichtige Rolle. Selbst einfache Automatisierungen erzeugen Abhängigkeiten – von Tools, Datenstrukturen und einzelnen Personen. Wer diese früh mitdenkt, vermeidet spätere Einschränkungen bei der Weiterentwicklung. Der Vorteil liegt aber darin, dass diese Abwägungen ohne große formale Strukturen erfolgen können – schnell, lernorientiert und nah an der Praxis.

Gemeinsamer Nenner: Budget als Gestaltungsrahmen, nicht als Treiber

Unabhängig von Unternehmensgröße gilt: Das Budget sollte den Automatisierungsansatz ermöglichen, nicht dominieren. Weder ein großes Budget noch ein kleines rechtfertigt einen überladenen ersten Schritt.

Der erste Automatisierungsversuch ist bewusst niederschwellig, stabil und überprüfbar. Er schafft eine Grundlage, auf der sich weitere Entscheidungen in fachlicher, technischer und wirtschaftlicher Hinsicht sachlich treffen lassen. Genau darin liegt der Mehrwert.

Mit geeigneten Tools und Plattformen lässt sich schnell ein erster funktionierender Workflow umsetzen.

Schritt 4: Vom Prototyp zur tragfähigen Lösung im Alltag

Ist die fachliche Logik geklärt und der Umfang der Automatisierung bewusst begrenzt, geht es an die Umsetzung. Entscheidend ist dabei weniger die technische Raffinesse als die Art, wie die Lösung entwickelt und weitergeführt wird. Erfolgreiche Automatisierungen entstehen selten als fertiges Zielbild, sondern entwickeln sich schrittweise im Betrieb.

Spätestens an dieser Stelle stellt sich die Frage nach der passenden Tool- oder Plattformauswahl. Wichtig ist dabei weniger, welches konkrete Werkzeug eingesetzt wird, sondern wie gut es den gewählten Ansatz unterstützt und in den Unternehmenskontext passt. Für einen iterativen Einstieg in die Automatisierung sollten Tools vor allem eines ermöglichen: schnelle Anpassungen, transparente Logik und einen stabilen Betrieb. Größere Organisationen geben dabei häufig vor, welche Plattformen genutzt werden dürfen oder sollen (aus Gründen der IT-Sicherheit, Integration oder Revisionssicherheit). Unabhängig von organisatorischen Leitplanken oder Gestaltungsspielräumen sollte die Toolwahl so erfolgen, dass sie nicht nur einen schnellen Einstieg ermöglicht sondern auch eine skalierbare Weiterentwicklung unterstützt.

Als Orientierungsrahmen für den Entwicklungspfad vom Prototypen zur tragfähigen Lösung hat sich eine bewusst einfache Struktur bewährt, die sich an DevOps-Gedanken anlehnt: Build – Run – Observe – Improve. Sie hilft, Automatisierung nicht als Projekt, sondern als lernenden Prozess zu verstehen, der auch eine kontinuierliche Verbesserung des Prozesses ermöglicht.

Build – Einen ersten funktionsfähigen Prototyp erstellen: In der Build-Phase geht es darum, einen bewusst einfachen, funktionierenden automatisierten Workflow umzusetzen. Der Fokus liegt auf dem zuvor definierten Normalfall. Sonderfälle, Ausnahmen oder Eskalationen werden nicht „mitgebaut“, sondern explizit ausgeklammert. Wichtig ist: Der Prototyp muss nutzbar sein. Nicht vollständig, nicht perfekt – aber stabil genug, um im Alltag eingesetzt zu werden. Genau darin liegt sein Wert.

Run – Nutzung im realen Betrieb: Der automatisierte Prozess wird anschließend im Alltag genutzt. Erst hier zeigt sich, ob die Lösung tatsächlich entlastet, sie akzeptiert wird und sie zum Arbeitskontext passt. Testszenarien oder theoretische Annahmen reichen dafür nicht aus. Der Betrieb ist kein nachgelagerter Schritt, sondern integraler Bestandteil der Entwicklung.

Observe – Lernen aus Nutzung und Abweichungen: Während der Nutzung wird dann beobachtet, ob der Ablauf tatsächlich so funktioniert wie geplant, wo Abweichungen vom Normalfall auftreten, ob und ggf. welche Informationen fehlen oder unklar sind und/oder wo Rückfragen oder manuelle Nacharbeiten entstehen. Die dabei gesammelten Erkenntnisse sind kein Zeichen für eine schlechte Lösung, sondern der eigentliche Lerngewinn dieses Vorgehens. Erst die umgesetzte Automatisierung macht weitere Schwachstellen oder Potenziale sichtbar.

Improve – Gezielt nachschärfen und weiterentwickeln: Auf Basis dieser Beobachtungen wird der Automatisierungsablauf schrittweise angepasst. Regeln können präzisiert oder vereinfacht, Übergaben klarer gestaltet oder bewusst einzelne Schritte ergänzt oder entfernt werden. Entscheidend ist, dass Verbesserungen nach dem KVP-Gedanken erfolgen. Statt großer Umbauten entstehen kleine Anpassungen, die sofort wieder in den Betrieb zurückfließen.

Die beschriebene Logik Build – Run – Observe – Improve orientiert sich zwar an Grundideen aus dem DevOps-Umfeld, wird hier jedoch bewusst vereinfacht eingesetzt. Es geht nicht um technische Toolchains, sondern um einen Orientierungsrahmen: frühe Nutzung, kurze Feedbackzyklen und kontinuierliche Verbesserung. Größere Organisationen gestalten diese Logik jedoch häufig formaler aus. Dokumentation, Nachvollziehbarkeit und Revisionssicherheit spielen eine größere Rolle, insbesondere bei finanziell oder rechtlich relevanten Prozessen. Das ändert jedoch nichts am Grundprinzip: Auch hier entsteht Qualität nicht durch perfekte Planung, sondern durch kontrolliertes Lernen im Betrieb.

Praxisbeispiel: Vom manuellen Rechnungsprozess zur stabilen Automatisierung

Um diese Logik greifbar zu machen, möchte ich einen konkreten Anwendungsfall vorstellen: die Automatisierung der Verarbeitung von Eingangsrechnungen für meine eigene Buchhaltung als Freiberufler. Ausgangspunkt war ein klassischer manueller Prozess: Aus physischen Rechnungen habe ich bisher die relevanten Informationen in eine Liste eingetragen. Über die letzten Jahre habe ich aber auch zunehmend mehr Rechnungen als PDF per E-Mail oder als Download bekommen. Die Verarbeitung der physischen und digitalen Rechnungen gleichzeitig war mit einigem Zeitaufwand, Medienbrüchen und einer am Ende nicht mehr konsistenten Datenhaltung (Ordner für physische Rechnungen und digitaler Ordner) verbunden.

Mein Projekt war daher die Digitalisierung und Automatisierung des Rechnungsbearbeitungprozesses. Die Idee war, die Rechnungen auf eine Cloud-Speicher-Plattform zu stellen und dann die relevanten Informationen automatisch auszulesen und in eine Liste einzutragen. Meine kleine Reise in der DevOps-Struktur:

  • Build: Mein erster Prototyp war sehr einfach gehalten: Eingang der Rechnung erfassen, relevante Daten mit einer KI auslesen und strukturieren und dann eine saubere Übergabe in meine Liste. Ich habe mit einfachen, digitalen Rechnungen angefangen. Alles, was nicht eindeutig war, blieb manuell.
  • Run: Mit dieser Lösung bin ich dann zu Beginn des Jahres Live gegangen. Als Backup habe ich nur noch meinen Ordner für die physischen Rechnungen behalten. Ansonsten wurde der Workflow im Alltag eingesetzt – nicht als Test, sondern als echte Unterstützung.
  • Observe: Genau hier zeigte sich schnell, wo er gut funktioniert und wo es noch hakt. Im Betrieb wurden dann schnell Abweichungen sichtbar: Rechnungen mit mehreren Mehrwertsteuersätzen, ungewöhnliche Rechnungsformate, Sonderfälle bei einzelnen Kreditoren. Diese Beobachtungen waren wertvoller als jede Vorab-Analyse.
  • Improve: Auf Basis dieser Erkenntnisse wurde der Workflow schrittweise weiterentwickelt. Im Wesentlichen ging es dabei um das Nachschärfen des Prompts zum Auslesen der relevanten Daten und die Ergänzung eines automatisierten Prüfschritts. Jede Änderung blieb überschaubar und konnte sofort umgesetzt werden.

Über mehrere Iterationen entstand so eine tragfähige Automatisierung, die zuverlässig entlastet, nachvollziehbar bleibt und bewusst mit Ausnahmen umgehen kann. Noch eine kleine Anmerkung zum Business Case: Bei etwa 300-400 Eingangsrechnungen im Jahr habe ich für die Rechnungsbearbeitung knapp 2 Stunden im Monat gebraucht, was in etwa 5 Minuten pro Rechnung entspricht. Mit dem neuen Workflow brauche ich nicht einmal eine Minute pro Rechnung und alle Rechnungen sind sauber benannt in der Cloud abrufbar und dokumentiert. Ein anderer Beitrag beschreibt, welche Elemente ein guter Business-Case enthält.

Screenshot meines Make-Szenarios zur Rechnungsbearbeitung
Screenshot meines Make-Szenarios zur Rechnungsbearbeitung

Als Tool habe mich nach einer kurzen Recherche für Make.com entschieden. Die Plattform ist eine No-Code Plattform mit intuitiver Oberfläche, die genau dieses iterative Vorgehen mit einfache Workflows (in Make Scenarios), schnellen Anpassungen und transparenter Logik unterstützt. Darüber hinaus hat make.com auch ein aus meiner Sicht nutzerfreundliches Abrechnungsmodell. Es gibt keine Testphase, dafür aber ein kostenloses aber dafür in den Transaktionen begrenztes Abo, mit dem man bereits einige Scenarios nutzen und viel ausprobieren kann. Wenn man dann skalieren und professionalisieren möchte, finde ich es fair, dass man dann auch für das Tool und den damit verbundenen Produktivitätsgewinn bezahlt.

Mein persönliches „Learning Log“ zum Einsatz von KI

Nachdem ich nun meinen eigenen Prozess verbessert habe, möchte ich noch einmal kurz die Verbesserung selbst reflektieren ebenso wie den Einsatz von KI. Denn Künstliche Intelligenz ist kein zusätzlicher „Automatisierungsschritt“, sondern ein vielseitiges Werkzeug, das an unterschiedlichen Stellen ganz unterschiedliche Rollen einnehmen kann. Wichtig ist dabei aus Anwendersicht weniger die Technologie selbst als die Art, wie sie in einem bestehenden Verbesserungsansatz eingesetzt wird.

Prozessverbesserung als Kombination mehrerer Hebel

Im Rückblick war der Nutzen meines Ansatzes eine Zusammenspiel klassischer Prozessverbesserungsprinzipien, die ich in einem separaten Blogbeitrag ausführlicher beschrieben habe. In diesem Beitrag sind auch die zugrunde liegenden Denkmodelle und Gestaltungsprinzipien übersichtlich dargestellt. Im konkreten Anwendungsfall ließen sich vier zentrale Hebel identifizieren:

  • Digitalisierung: Der Wechsel von physischen Rechnungen zu einer zentralen Cloud-Ablage war eine notwendige Voraussetzung für alles Weitere. Erst dadurch wurden Rechnungen systematisch verfügbar, durchsuchbar und unabhängig von Ort und Zeit nutzbar. Der konkrete Nutzen bestand auch im Wegfall der physische Ablage.
  • Automatisierung: Der Workflow automatisierte schrittweise wiederkehrende manuelle Tätigkeiten – insbesondere Datenerfassung, formale Prüfungen und Ablage. Der Fokus lag bewusst auf der Eliminierung von Tätigkeiten ohne direkten fachlichen Mehrwert, was auch die Fehlermöglichkeiten reduziert.
  • Eliminierung manueller Prüf- und Eingabeaufwände: Mit der Automatisierung ging auch die Eliminierung manueller Prozessschritte und damit die Reduzierung von Bearbeitungszeit einher. Die strukturierte Automatisierung wirkte hier wie ein Katalysator, um auch verbliebene manuelle Tätigkeiten noch einmal zu überprüfen.
  • Mobilisierung (bzw. Beschleunigung): Statt einer Verarbeitung von Losen (wenn ich genügend Rechnungen zusammen hatte, „lohnte“ sich das Öffnen der Datei) stelle ich nun immer wenn ich eine Rechnung habe, in die Cloud und die Bearbeitung erfolgt direkt. Die deutlich einfachere Prüfung kann ich dann auch in größeren Abständen erledigen. Durchlaufzeiten sanken, und Bearbeitung war auch nicht mehr an feste Arbeitsplätze gebunden und ich habe einen täglichen Überblick über meine Ausgaben.

Die Rolle von KI: kein Allheilmittel, sondern ein vielseitiges Werkzeug

Ich finde es immer wichtig wenn man ein gutes Verständnis davon hat, welche Methoden und Tools man wann einsetzen kann um ein bestimmtes fachliches Ergebnis zu erzielen. Das gilt auch für KI. Auf mein kleines Anwendungsbeispiel Bezug nehmend, lässt sich KI in unterschiedlichen Rollen einsetzen.

KI als Sparringspartner in der Konzeption

In der frühen Phase der Lösungsentwicklung habe ich KI vor allem als Denk- und Strukturierungspartner genutzt. Chatbots halfen dabei, Anforderungen zu präzisieren (was muss ich beachten wenn ich…), Alternativen zu durchdenken (gib mir 3 Alternativen um … zu erreichen), Annahmen zu hinterfragen (gibt es Möglichkeiten … noch zu verbessern) und Überlegungen zu strukturieren (gib mir eine Schritt-für-Schritt Vorgehensweise zur Umsetzung).

Die Qualität dieser Unterstützung hing dabei stark von der Klarheit der Anwendung ab, die man dem Chatbot als Kontext mitgeben kann. Je präziser das Ziel und die Rahmenbedingungen und bekannten Schwachstellen beschrieben waren, desto wertvoller wurden die Rückmeldungen der KI.

KI als operatives Element im Workflow

Im eigentlichen Rechnungsworkflow übernimmt KI eine klar abgegrenzte operative Aufgabe innerhalb eines zentralen Moduls in meinem Szenario: das Auslesen strukturierter Informationen aus unterschiedlich aufgebauten Rechnungen. Die KI agiert hier nicht als Entscheidungsträger, sondern als Zulieferer von Daten, die anschließend weiterverarbeitet werden. Konkret: KI liefert Vorschläge oder Extraktionen; die fachliche Bewertung und Weiterverarbeitung bleibt bewusst fachlich regel- und prozessgetrieben.

KI als Unterstützung bei der Umsetzung

Auch auf technischer Ebene kann KI inzwischen an vielen Stellen innerhalb von Tools unterstützen. In Make etwa unterstützt sie bei der Erstellung von Formeln, der Definition von Bezügen oder beim Verständnis komplexerer Ausdrücke. Diese Form der KI-Nutzung ist eigentlich unspektakulär, aber äußerst wirksam: Sie senkt die Einstiegshürde und beschleunigt die Umsetzung, ohne die fachliche Kontrolle zu übernehmen.

KI als Vision für zukünftige Entwicklung

Darüber hinaus zeigt sich, wohin die Reise geht: In Tools wie Airtable lassen sich heute bereits durch eine reine (fachlich-funktionale: ich möchte… meine Lösung soll … können) Beschreibung eines gewünschten Ergebnisses (z. B. eine KVP-App) erstaunlich gute Lösungen generieren. Das beinhaltet die Generierung von wirklich guten Vorschlägen für ein Datenmodell mit Beispieldaten, Formularen mit gutem User-Interface und einer sinnvollen Prozesslogik. Auch wenn diese Möglichkeiten (noch) nicht in allen Automatisierungsplattformen vollständig umgesetzt sind, machen sie deutlich, welches Potenzial entsteht, wenn Fachlichkeit und KI-gestützte Generierung enger zusammenrücken.

Ausblick: KI-Agenten

Mein nächstes Projekt auch steht schon fest: Ich will einen konkreten Use Case für einen KI-Agenten aufbauen. Also nicht nur Workflows, die automatisiert Schritte abarbeiten, sondern ein System, das innerhalb klarer Leitplanken selbstständig mitdenkt und Entscheidungen vorbereitet.

Persönliches Fazit: Vom Anwendungsfall her denken

Mein Fazit ist daher: Erfolgreiche Prozessautomatisierung und ein sinnvoller Einsatz von KI ist vor allem gute Prozessarbeit. Tools können unterstützen, beschleunigen und vereinfachen – sie ersetzen jedoch nicht das Denken über Abläufe, Verantwortlichkeiten und Ziele. Und auch KI entfaltet ihren Nutzen nur dann, wenn Prozessmanager oder Fachspezialisten sie konsequent vom Anwendungsfall her denken.

Wer mit KI arbeitet, sollte sich stets klar sein:

  • wo die Schwachstellen im aktuellen Prozess liegen,
  • welche Parameter bei der Verbesserung im Vordergrund stehen (Zeit, Qualität, Transparenz, Aufwand),
  • und welche Tätigkeiten und Entscheidungen bewusst beim Menschen verbleiben sollen.

KI ist dann kein Selbstzweck und kein Ersatz für sauberes Prozessdenken, sondern ein weiteres Werkzeug im Methodenkoffer der Prozessverbesserung. Genau so schließt sich für mich auch der Kreis zur Ausgangsfrage dieses Beitrags: Erfolgreiche Automatisierung beginnt nicht mit Tools oder Technologien, sondern mit einem klar verstandenen Prozess – und KI ergänzt sie sinnvoll, ersetzt sie aber nicht.

Und schließlich sollte man auch immer die Lean-Denke im Hinterkopf haben: in kleinen Schritten, durch echte Nutzung und mit konsequentem Lernen sukzessive unnötige Tätigkeiten reduzieren und Fehler vermeiden – das ist im Kern nichts anderes als gelebtes KVP, nur mit modernen Werkzeugen.

No responses yet

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Know-How

Mehr zu Prozessmanagement in Einkauf und Logistik gibt es auch in meinem Lehrbuch Prozessmanagement in Einkauf und Logistik. Bei diesem Link handelt es sich um einen Affiliate-Link. Da die Inhalte auf dieser Seite kostenlos sind, würde ich mich über einen Support an dieser Stelle freuen.

Online Kurse bei Iversity.org

Einen guten Überblick über die Basics zu Prozessmanagement gibt mein Online-Kurs „Prozessdesign – Prozesse analysieren, Verbesserungen identifizieren, Potenziale heben“ bei iversity.org

Es gibt auch eine englische Version: „Process design: analyse processes, identify improvements, raise potentials“

Mein neuer Espresso-Kurs zur digitalen Verschwendung: „Digitale Verschwendung in Prozessen identifizieren – eine Workshopmethodik“