<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=207269141220718&amp;ev=PageView&amp;noscript=1">

Der Faktor Mensch in der Ressourcenplanung des Projektmanagements: Damit beschäftigte sich Thomas Schlereth in Teil 1 unserer Reihe zum Ressourcenmanagement. In der Fortsetzung geht es, ganz konträr, um den "Kollegen Computer" und wie er das PM unterstützt. Aber auch in Sachen PM-Software spielt der menschliche Effekt eine Rolle, wie wir sehen werden …

Blogbeitrag Titelbild: Was kann PM-Software leisten?

Planung jeglicher Art ist komplex, schwer vorhersehbar, volatil und somit fast schon Glück. Es liegt also nahe, einen Computer und dessen Software für diese Aufgabe heranzuziehen, denn die Aufgabenstellung ist umfangreich, erfordert viele Daten und somit viele Berechnungen.

Im ersten Lösungsansatz geht es um die schlichte Visualisierung. Die Planung und deren Aktualisierung wird vollständig vom Menschen durchgeführt und in einem Computerprogramm visualisiert. Es werden vielleicht noch einfachste mathematische Operationen wie Summenbildung oder bedingte Formatierungen (in der Excel-Welt) eingefügt. Das ist für die Planung nicht relevant, weil der eigentliche Inhalt vollständig, abgesehen von einer simplen Summe pro Periode, durch den Menschen gemacht wird. Der einzige Vorteil dieser Planung ist ihre (für den Menschen ) Nachvollziehbarkeit durch die optische Darstellung.

Klingt simpel, ist es auch und ist zudem sehr verbreitet: Jede(r) hat schon mal in einem Unternehmen die Kapazitätsplanung mit Excel® gesehen. Jede/r Mitarbeiter/in ist in einer Zeile dargestellt, und die Spalten repräsentieren Wochen oder Monate. In die Spalten wird durch die Projektplanung dann eingetragen, wieviel Stunden oder Prozent seiner verfügbaren Zeit der Mitarbeiter ausgelastet ist. Die Qualität des Wertes in dieser Zelle hängt von den Fähigkeiten des Menschen, der sie eintippt, ab: Eine mathematische Grundlage gibt es für diese Zahl nicht. Sie ist eine Schätzung.

In einer weiteren Stufe der computergestützten Planung werden keine simplen Kreuztabellen ausAdobeStock_281269796gefüllt, sondern bekannte Daten in Datensätzen (in Datenbanken) erfasst. Aus diesen Datensätzen können dann richtige Computerprogramme verschiedene Sichten auf das Projekt in tabellarischer oder grafischer Form erzeugen. Die Daten werden also immer anders zusammengesetzt und dargestellt – aber es bleiben immer noch Daten. Es sind keine Informationen, die zum Handeln motivieren. Dies bleibt der Person überlassen, welche die Daten interpretiert und die richtigen Schlüsse zum Handeln daraus zieht. Aus der reinen Visualisierungsmaschine wird nun eine Datenspeicher- und Visualisierungsmaschine.

Dabei wird angenommen: Wenn möglichst viele Personen möglichst viele Daten in diese zentrale Datenbank eingeben, werden die möglichen Erkenntnisse und daraus resultierenden positiven Handlungen immer besser. Das stellt sich eigentlich immer als Irrtum heraus, denn: "Viele Daten bleiben viele Daten."

Algorithmen verwandeln Daten in Informationen

Einige Aspekte für die Gestaltung von helfenden Algorithmen sollen hier besonders hervorgehoben werden.

Der erste Punkt ist die schwere Vorhersehbarkeit der Dimension einer zukünftigen Arbeit. Im relativ einfachen Umfeld einer Fabrik oder der Urlaubsplanung ist dies leicht. Der Urlaub endet terminlich eben dann, wenn der Urlaub vorbei ist. Die Qualität des Urlaubs spielt nur eine untergeordnete planerische Rolle.

Ein neuartiger Konstruktionsschritt im Maschinenbau, die Entwicklung eines Computerprogramms oder die Vorhersehbarkeit, wann das Management eine Entscheidung trifft, ist hier schon eine größere Herausforderung. Wir müssen uns eingestehen, dass es Dinge gibt, die wir nicht vorhersehen können, zumindest nicht genau.

Aber wir sind nicht völlig blind oder unwissend! Wir können zwar die Arbeit, die Dauer und somit den Zeitbedarf und die Auslastung nicht exakt vorhersehen – aber eben ungefähr. Wir wissen zwar nicht exakt wie lange die Entwicklung eines Computerprogramms dauert, aber wir wissen, dass es nicht in einer Minute erfolgt. Und wir wissen andererseits auch, dass es nicht 10.000 Jahre dauern wird.

Wir können also ein Intervall und damit einen ungenauen Wert für Start, Ende, Dauer und Aufwand abschätzen. Wir sagen also in der Planung nicht „das dauert genau 46 Stunden“, sondern wir schätzen „ 30 Stunden bis 60 Stunden“. Das ist das Intervall.

Für den Computer, sprich die Software, die das verarbeiten soll, ist das gar nicht so einfach. Gibt es doch nicht nur einen zu berechnenden Wert (46 Stunden), sondern mehrere (30, 31, 32, 33 usw.).
Durch diese ungenaue Angabe werden in einer vernetzen Planung auch Termine für das Ende der Arbeit sowie für den Anfang der nachfolgenden Arbeit ungenau. Der Start ist also nicht exakt am 3.6., sondern erfolgt irgendwann zwischen dem 3.6. und 1.7.

Dadurch entsteht für den Algorithmus eine gefährliche Kombination. Das Arbeitspaket kann also am 3.6. starten und 30 Tage dauern – oder am 4.6. oder am 5.6 und es dauert eben 30 Tage, oder 31 usw.

Die Kombinationen potenzieren sich also. Sind nun mehrere Dependenzen in einem Projektplan, eben mit anderen Arbeiten in anderen Projekten vorhanden, kann es schnell zu exponentiellen kombinatorischen Steigerungen kommen, die früher oder später für die Maschine verheerend sind.

Carl Friedrich Gauß hilft einmal mehr

Das oben beschriebene Szenario geht von einer gleichwertigen Wahrscheinlichkeit des Schätzungsintervalls aus. Das heißt, bei einem simplen Arbeitspaket, das mit einer Dauer von fünf bis 10 Tagen geschätzt wurde, ist jeder Fall, also 5 oder 6 oder 7 etc. gleich wahrscheinlich.
Dies ist in der Praxis nicht der Fall. Die Wahrscheinlichkeit, dass die Entwicklung eines Computerprogramms eine Minute dauert, ist ebenso gering wie die Wahrscheinlichkeit, dass es 1.000 Jahre dauert. Genauso verhält es sich mit dem Arbeitspaket. In der Realität sind 5 Tage und 10 Tage wenig realistisch. Der Mittelwert, also 7,5 Tage, ist da schon wahrscheinlicher.

Es kann auch sein, das die reale Dauer außerhalb des Intervalls ist, also beispielsweise 3 Tage oder 12 Tage. Das könnte man quasi fast unendlich ausdehnen, bis zu dem Fall, dass das Arbeitspaket überhaupt nicht gemacht wird (Null Tage) oder in alle Ewigkeit läuft.
Diese Überlegungen führen aber nur zu noch größerer Komplexität und können ignoriert werden.

Bei sogenannten Demands, also ganzen Projekten in der Zukunft , über die nicht klar entschieden wurde, kann das Szenario des „passiert gar nicht“ jedoch schon vorkommen. Hier wird mit einer grundsätzlichen Eintrittswahrscheinlichkeit in einer Simulation gearbeitet, also etwa: "Wie wahrscheinlich ist es, dass das Projekt überhaupt realisiert wird?". Die Möglichkeiten liegen hier zwischen 0% (wird garantiert gar nicht realisiert) und 100%.

Die Gaußsche Standardnormalverteilung würde in diesem Fall jedes Intervall einer Arbeit zwischen der Planung (Schätzung) und der Realität (wie lang es wirklich gedauert hat) messen und ein Konfidenzniveau ableiten. In einem zentralen Computersystem würden also alle Arbeitspakete, die erstmalig mit 5-10 Tagen erfasst wurden, mit der eingetretenen Realität verglichen und gemessen werden.

Dabei könnte sich herausstellen, dass die meisten Pakte mit diesen Parametern tatsächlich 7,5 Tage Zeit benötigt haben. Das lässt einen Rückschluss auf alle zukünftigen Pakete mit 5-10 Tagen Dauer zu, nämlich dass sie wahrscheinlich 7,5 Tage dauern. Es kann aber eben auch vorkommen, dass der häufigste Fall nicht 7,5 Tage, sondern 9 Tage ist.

Statistisch ist das alles logisch und kann auf vergleichbare Intervalle (Intervall ist immer 50% vom Mindestwert etc.) angewandt werden. Und stimmt das dann auch?

Nein, es ist ein Näherungswert, der signifikant von den Menschen beeinflusst wird, die schätzen und arbeiten. Es gibt Menschen die optimistisch schätzen und Menschen, die eher auf Nummer sicher gehen. Sie denken zwar an 5 – 10 Tage, sagen dem Projektplaner aber 8 – 10 Tage oder 10 – 15 Tage (oder was auch immer). Das gleiche Prinzip gilt für die Planer. Eine Aufwandsschätzung eines Mitarbeiters wird gerne als „übertrieben“ dargestellt und kürzer oder geringer geplant. Der Mitarbeiter weiß das irgendwann und schätzt absichtlich einen höheren Wert, da die „Vorgabe“ sowieso gekürzt wird. So ist der Planwert weniger rein fachlich oder empirisch, sondern mehr menschlichen Gefühlen geschuldet.

MCanDo_Bildschirmoderne Simulationssoftware kann aber mit solchen Modellen durchaus umgehen. Als bester Weg hat sich die multiple, kombinatorische Simulation erwiesen. Es wird einfach jeder Fall des Intervalls durchgerechnet. Die Vorgehensweise ist dabei, vereinfacht: Einmal wird angenommen, dass das Paket 5 Tage dauert. Gibt es da ein Problem (ja oder nein)? Im Anschluss wird alles nochmal gerechnet, diesmal mit 6 Tagen. Auch hier wird wieder geprüft:    Gibt es ein Problem? – ja oder nein. Und so weiter.

Jedes gefundene Problem wird dann mit seiner Wahrscheinlichkeit gewichtet. In unserem Beispiel das Problem mit 5 Tagen etwas weniger als mit 7 oder 8 Tagen. Dadurch erhält man nicht die zu erwartende Dauer (das wäre Zufall), sondern ein prozentuales Risiko zwischen 0% (alle Fälle funktionieren) und 100% (kein Fall funktioniert). Das Ergebnis ist eine Information für den Projektleiter, die dieser bewerten kann. Bei einem Risiko von 75% lässt er auch noch die Zuverlässigkeit der Person einfließen, die Arbeit an sich und sonstige Umfeldeinflüsse, die der Computer nicht wissen kann. Oder er geht das Risiko einfach ein.

So ergibt sich eine geniale Lösung, die Mathematik mit der Erfahrung und Wahrnehmung der Menschen kombiniert. Leider gibt es da dann doch noch ein Problem: die schiere Menge.
Wir haben alle während der Corona-Pandemie den R0-Wert kennengelernt. Und wir haben auch noch mal exponentielles Wachstum aus der Schule nachgeholt (wobei das Beispiel des Reiskorns und des Schachbretts jeder kennt).

Das kann bei oben genanntem Szenario ebenfalls passieren – und zwar in der Ressourcenplanung. Sind zwei Arbeitspakete ungenau parallel mit der gleichen Ressource geplant, müssen alle denkbaren Kombinationen berechnet werden. Nehmen wir (als ziemlich schwere Denksportaufgabe) folgendes Szenario:

Ein Paket startet irgendwann in KW 23 (ja, auch der Start einer Arbeit oder eines Projektes kann ungenau sein) und dauert 5 – 10 Tage. Herr Müller ist mit 30% seiner Zeit darin verplant.
Das parallel laufende Paket startet zwischen KW 23 und KW 25 und dauert 4 bis 8 Wochen. Hierin ist Herr Müller zu 80% geplant. Schafft Herr Müller beide Pakete? Die Antwort ist ja, er kann seine Arbeit in diesen beiden Paketen so organisieren, dass er beide Arbeiten pünktlich und ohne Überlastung bewältigt. Zugegeben, ich habe mir das selbst von Can Do berechnen lassen, eine manuelle Berechnung wäre zu aufwendig.

Und das sind nur zwei Pakte mit einer Ressource. Stellen wir uns ein Portfolio mit 200 Projekten vor. Dabei sind alle ungenau und es sind ganze Abteilungen verplant (nicht die Personen). Spätestens jetzt wird es richtig viel Arbeit fürs PM, und die Ressourcenplanung wird kompliziert.

Hier hilft ein Computerprogramm, mit dem der Planer die Werte ungenau eingeben kann. Der Computer berechnet alle möglichen Kombinationen und ermittelt daraus ein „wahrscheinliches“ Risiko eines Problems, beispielsweise eine Terminverletzung, das zwischen 0% (es passiert garantiert nichts) und 100% (geht schief) liegen kann. Bei Einschätzungen zwischen 40% und 60% ist die gewonnene Information für den Planer nicht eindeutig. Hier muss der Mensch (oder die künstliche Intelligenz) weiterhin selbst entscheiden, ob es sich lohnt einzugreifen oder nicht.


Niemand kann die Zukunft exakt vorhersehen und je weiter in die Zukunft „geblickt“ wird, um so ungenauer wird diese Planung. Also ist es absolut logisch, dass die Planungssoftware ungenaue Werte zulässt und damit mathematische Wahrscheinlichkeitsberechnungen durchführt, die aus Daten Informationen für den Planer oder die Planerin ermittelt. Die ist aber nur ein „horizontaler“ Planungsansatz, denn die Vorhersehbarkeit hängt nicht nur von der der zeitlichen Perspektive, sondern auch von der Präzision der Planung ab. Wie kleinteilig will der Planer oder die Planerin also in die Zukunft blicken?

Digression: Vertiefung des menschlichen Faktors bei Schätzungen der Zukunft

Es ist offensichtlich: Der menschliche Effekt in den genannten Szenarien darf nicht unterschätzt werden. Alle Beteiligten einer solchen Planung haben Eigeninteressen, die völlig unterschiedlich gelagert sind.

Das übergeordnete Ziel, ein tolles Projekt innerhalb der Rahmenbedingungen zu realisieren, ist häufig nicht die primäre Motivation der handelnden Personen. Hier spielen die Fehlerkultur im Unternehmen, die Erfahrung und Professionalität der Projektleiter wesentliche Rollen.
Spezialisten in Projekten ist es manchmal schlicht egal, was das übergeordnete Ziel des Projekts sowie der Nutzen für das Unternehmen und dessen Aktionäre ist.

Dem Manager ist es eben häufig auch egal, welchen Druck Mitarbeiter in Projekten (oder jeder Arbeit) aushalten müssen. Er will nur keinen Ärger mit dem höheren Management haben oder dort einfach positiv punkten. Grundsätzlich gibt es zwei Pole in dieser Situation: Der vorgesetzte Projektmanager will mit möglichst wenig Aufwand, Kosten und Zeit das Projekt umsetzen. Der Mitarbeiter im Projekt will seine Aufgabe pünktlich, aber vor allem fachlich richtig erledigen, ohne unter ständigem Stress zu stehen.

Deswegen gibt es eben gute und schlechte Projektmanager, ebenso wie es gute und schlechte Projektmitarbeitende gibt. Die Beurteilung ist eine Frage der Perspektive. Das oben beschriebene Szenario und die hier aufgeführten Überlegungen können durch die Software etwas geglättet werden. Dadurch, dass die persönliche Schätzung des Mitarbeiters (er ist eben häufig auch die Person, die die Arbeit ausführt) direkt in die Planung übernommen werden kann, entsteht soe etwas wie Vertrauen. Die Unwissenheit oder die Verweigerung einer absoluten verbindlichen Zusage des Mitarbeiters (Druck) wird auch in der Planung berücksichtigt. Der Mitarbeiter / die Mitarbeiterin wird also ernst genommen.

Häufig werden ungenaue Planungen von Menschen als realitätsnäher bezeichnet. Das ist sicher richtig, aber vor allem schaffen sie ein verbessertes Fundament des Vertrauens zwischen den handelnden Akteuren. Durch die oben beschriebene Risikoermittlung und deren Wahrscheinlichkeit wird die persönliche Einschätzung von Managern und Mitarbeitern im laufenden Projekt wieder wichtig. Bei einem Risiko von 75% wird der (gute) Projektleiter eben den Mitarbeiter darauf aufmerksam machen und ihn fragen „Schaffst Du das trotzdem noch?“.

Wie diese komplexe Software das Risiko berechnet, ist für die Personen nicht wirklich wichtig. Die Maschine deutet viel mehr auf eine Situation frühzeitig hin und verursacht eine menschliche Einschätzung der Personen in diesem Spiel. Das hebt nachweislich die Qualität des Projekts und des Miteinanders der Personen.

Zu glauben, dass eine genaue Planung in einer komplexen Welt deswegen eintritt, weil irgendein wichtiger Manager in irgendeine Excel-Zelle® einen Wunschwert eingetragen hat, ist nicht mehr zeitgemäß. Dieses Fabrik-Akkord-Denken von einer allwissenden Führungskraft einerseits und den Untergebenen andererseits, die unbedingter Gehorsam und Wille, die Vorgabe zu erfüllen, antreiben, kann in einer globalen Wirtschaft, die von Fachkräftemangel geprägt ist, nicht funktionieren.

Aber auch das reine, freie entspannte Leben von hochqualifizierten Spezialisten entspricht nicht der Realität. Umsätze, Ziele und Ergebnisse müssen in einer von Wettbewerb und Geschwindigkeit geprägten globalen Wirtschaft geliefert werden, sonst endet eine Unternehmung schnell, weil der Markt „alte“ Produkte nicht kauft. Und wenn keine Produkte oder Dienstleistungen verkauft werden, kommt kein Geld in die Kasse, aus der eben die Gehälter der Spezialisten letztendlich bezahlt werden.

Die Wahrheit liegt, mit hoher Wahrscheinlichkeit, in der Mitte, wobei wir wieder bei Carl Friedrich Gauß mit seiner Standardnormalverteilung wären.

 

Ausblick

Zugegeben: Diese Folge unserer Reihe zum Ressourcenmanagement kam schon ein wenig theoretisch und mathemäßig rüber. Dafür geht's dann im nächsten Teil wieder praxisbezogener zur Sache, wenn wir die unterschiedlichen Wege der Projektplanung besprechen.

Du möchtest schon jetzt alles über Hybrides Projektmanagement, Can Do und Ressourcenmanagement unter menschlichen Aspekten wissen? Lass Dich von uns unverbindlich beraten – nimm einfach Kontakt auf!

Unsere Blogpost-Reihe in der Übersicht:

 

Masterclass Hybrides Projektmanagement

Einführung von Can Do BI: Die Zukunft Ihrer Datenanalyse

Wir freuen uns, Ihnen unser Modul zur Analyse Ihrer KI-gestützten Daten vorstellen zu dürfen: Can Do BI. Dieses innovative Business Intelligence...

Read More

Kapazitäten rollierend planen

Als Projektmanagerin habe ich gelernt, dass ein guter Projektplan der Schlüssel zum Projekterfolg ist – doch er darf nie in Stein gemeißelt sein....

Read More