HinterfragtWieso kostet denn IT immer so viel?

Wenn Sie Verantwortlicher des IT-Bereichs sind, dann kennen Sie sicherlich den häufigsten Vorwurf ihrer Kollegen: „IT kostet viel zu viel und ist nie verfügbar, wenn man sie braucht!“. Forderungen nach Outsourcing, Kosten- und Stellenabbau machen die Runde, Offshore Programmierungserfolge werden von den übrigen Fachbereichen herbei beschworen. Doch, was kostet denn die Systemunterstützung innerhalb der Wertschöpfungserbringung wirklich?

Gastbeitrag von Lukas Röhrs und Rob Kuhlig, München *

Zentrale Fragen, wenn es um die Kostenbestimmung von Informationstechnologien (IT) geht, sind: Wie hoch ist ihr Kostenanteil an bestimmten Produkten oder Kunden? Und ist er hoch oder haben die Wettbewerber ähnliche Kostenstrukturen? Zahlreiche Versuche sind im Bereich der IT-Kostenanalyse unternommen worden, doch erst der ITIL-Ansatz verspricht pragmatische Lösungen.

IT – koste es, was es wolle

Lange Jahre war die aufkommende Informationstechnologie als „Experiment“ in den Unternehmen angesehen und wurde im Finanz- oder Verwaltungsbereich angesiedelt. Im Zeitverlauf wurde es zunehmend notwendig, teure Spezialanlagen und –programme zu beschaffen und in den Bereich der Bürokommunikation zu investieren. Die Unternehmenslenker sahen die wachsenden Kosten, verstanden aber die Inhalte nicht, so dass die IT-Verantwortlichen im Wesentlichen freie Hand hatten, was Beschaffung und Betrieb und damit verbundene Kostenstrukturen anging. Es galt der Ausspruch: „IT ist einfach so teuer und man muss sie ja haben“.

Zunehmend erklärte die Wirtschaftsliteratur die Information und ihre Verarbeitung zum „Wettbewerbsfaktor“ – es ist wichtig nicht nur IT zu haben, sondern die beste IT zu haben, was zu explodierenden Kosten führte. Bei einem kritischen Wettbewerbsfaktor schaut man nicht so genau hin. Also musste die IT nur grob planen und später berichten, wie viel sie tatsächlich ausgegeben hatte. Im Zuge des Internetbooms waren für alle IT-seitigen Investitionen ausreichend Mittel vorhanden. Ohne die ausreichende Prüfung von Zweck, Ziel und Wirtschaftlichkeit wurden riesige Ausgaben getätigt. Der Erfolg war dürftig, doch das störte zunächst keinen.

Jetzt wird um den letzten Cent gefeilscht

Nach dem Börsendesaster des Jahres 2000, reagierten die Unternehmen mit der Einstellung der meisten IT-bezogenen Aktivitäten (Entwicklungsprojekte ebenso wie Ersatzinvestitionen). Die IT-Bereiche mussten übereilt IT-Controlling aufbauen, ohne über richtige Methoden zu verfügen. Heute gibt es in den meisten Unternehmen zwei mögliche Zustände des IT-Controllings: Es ist kaum vorhanden oder es herrscht ein wahrer Controlling- und Überprüfungseifer.

So verstehen manche Unternehmen heute die Notwendigkeit des Budgetierens von IT-Aufwänden und können diese nach Ablauf der budgetierten Periode mit den Planzahlen vergleichen. Eine permanente Überprüfung oder ein Gegensteuern findet jedoch nicht statt. Die überkontrollierten Bereiche wiederum haben erreicht, in eklatantester Missachtung aller modernen Managementansätze alle wertschöpfenden Aktivitäten zu hemmen und die Akteure bis zur Untätigkeit zu verunsichern. Diese Organisationen arbeiten nach dem Motto: „Wo nichts gemacht wird, kann nichts falsch gemacht werden.“ Keiner der beiden Zustände kommt dem Idealfall der Kosten- und Prozesstransparenz, vergleichbarer Strukturen und einer permanenten wirtschaftlichen Kostenkontrolle der IT nahe.

Hausaufgaben für ein angemessenes IT-Controlling

Bevor moderne Kostenrechnungsanforderungen durch die IT erfüllt werden können, gilt es einige Hausaufgaben zu erledigen, in Auseinandersetzung mit der heutigen Unternehmensrealität:

  1. Der Startpunkt ist die Kundenausrichtung: Entweder der Endkunde, d.h. der Kunde des Unternehmens oder der Fachbereich, der mit IT-Dienstleistungen beliefert wird, ist als Richtmaß für alle IT-Leistungen und Prozesse zu verstehen. Nach wie vor dominiert aber heute in der Unternehmensrealität die technische Ausrichtung der IT-Abteilungen: Das technisch Machbare bzw. das Verfügbare wird auch realisiert. Oft „probiert“ man etwas Neues aus, Systemstabilität und –verfügbarkeit als wesentliche Kundenanforderungen werden dabei missachtet. Es ist also erforderlich, dass der IT-Verantwortliche versteht, dass all sein Handeln wirtschaftlichen Zwängen unterliegt und die Kundenorientierung und Wirtschaftlichkeit sein Maßstab sind.
  2. Der zweiter Schritt ist, innerhalb der IT Bewusstsein für bestimmte Gegebenheiten zu schaffen: Die gesamte IT-Mannschaft muss verstehen, dass die Erbringung von IT-Diensten ein „industrieller“ Leistungserbringungsprozess ist, vergleichbar mit Leistungserbringung der Produktionsbereiche. Es gilt also, nicht kreativ-chaotisch zu agieren, sondern Kundenwünsche unter Qualitäts- und Kostenaspekten zu erfüllen. Auch hier dominiert in vielen IT-Bereichen ein ganz anderes Selbstverständnis: Der IT-Mitarbeiter versteht sich als Tester neuer Technologien, als geistiger Vorreiter, als kreativer Schöpfer. Dabei sind es meistens Standardsysteme die bereitgestellt werden, welche ihrerseits von dritten Dienstleistern betreut und gewartet werden. Die dazugehörenden Aktivitäten sind also immerwiederkehrende Routinearbeiten.
  3. Erster operativer Schritt ist die Abbildung von IT-internen Prozessen. Diese sollten effizient und kundengerichtet sein. Dieser Schritt bringt oft Erstaunliches zu Tage: Den Mitarbeitern wird bewusst, dass ein Großteil ihrer schöpferisch-kreativen täglichen Arbeit in Standardprozessen erfasst werden kann. Doch nur sehr selten sind heute in den IT-Abteilungen diese Prozesse beschrieben oder besprochen. Manchmal trifft das für Bereiche wie Helpdesk/ Support zu. Sobald aber „Release Management“ oder „Application Management“ adressiert werden, fehlen jegliche Beschreibungen.
  4. Prozesse sollten mit verständlichen, transparenten und standardisierten Kennzahlen belegt werden. Eine Vielzahl an IT-Kennzahlensystemen existiert heute. Ihr Ursprung sind im Wesentlichen so genannte „Best Practices“ einzelner Unternehmen oder der Wirtschaftswissenschaft. Generell sollte für jedes Kennzahlensystem gelten: Einfache und realitätsnahe Gestaltung, Nachvollziehbarkeit, Vergleichbarkeit und Orientierung an gebräuchlichen Industriestandards. Schon an diesen Voraussetzungen scheitern einige Systeme, beispielsweise der so genannte „DUB“ der früheren Bayer AG. Zusätzlich sollte aber die Möglichkeit bestehen, das System der sich permanent wandelnden Wirklichkeit anpassen zu können. Es muss also wandlungsfähig, flexibel und schließlich wirtschaftlich sein, das heißt, keine Kontrolle, wenn sie mehr kostet als sie erbringt. Dabei sollten nicht nur quantitative Betrachtungen angestellt werden. Das Maß aller Dinge sollte auch hier der Kunde sein: „Ist der Kunde bereit für das angestrebte Maß an Kontrolle zu bezahlen?“

Da oft Prozesse nicht beschrieben sind, finden wir in der IT Metakennzahlen ohne Zuordnung zu dem Tagesgeschäft. Die Kennzahlen ihrerseits werden selten gepflegt. Und die Kennzahlensysteme sind sehr starr. Die Formulierung, Abstimmung und Einführung der Kennzahlen dauert erfahrungsgemäß so lange, dass bereits an dem Tag ihrer Implementierung diese nicht mehr anwendbar sind, da sich die Geschäftsumfelder verändert hatten. Eine Anpassung ist dann wiederum sehr zeitaufwändig. Außerdem stehen meistens keine Ressourcen für die Pflege und Anpassung der Kennzahlensysteme zur Verfügung. Der durchschnittliche IT-Projektmanager, versucht täglich sein Projekt aus dem Chaos zu führen und ist vollkommen mit seinem Tagesgeschäft beschäftigt – jegliche zusätzliche Berichtsfunktionen und Kennzahlenerfassungsaktivitäten werden zurückgestellt und nachgelagert erfüllt. Natürlich liegt es auch in der Natur der Sache, dass niemand Interesse daran hat, vollkommen transparent zu sein und ständig gemessen zu werden.

Angesichts der hohen IT-Budgets und des verhältnismäßig großen IT-Kostenblocks in jedem Unternehmen sind die dargestellten Schwierigkeiten wiederholt in der Vergangenheit adressiert worden. Zahlreiche Kennzahlensysteme wurden mit mehr oder weniger Erfolg eingesetzt. Natürlich sind die wenigen erfolgreichen Kennzahlensysteme nicht einfach universell auf jede IT-Abteilung übertragbar: Branche, Funktion und Umweltfaktoren spielen eine wesentliche Rolle und haben herausragende Bedeutung für den Einsatz des Kennzahlensystems.

Control Objectives for Information and Related Technologies 2000

Ein Beispiel für ein IT-Kennzahlensystem, das in Ansätzen sehr erfolgreich scheint, ist das CObIT 2000 (Control Objectives for Information and Related Technologies 2000), ein Kennzahlensystem der amerikanischen Organisation ISACA. Dieses Modell beruht auf einem Netz von 34 genau definierten IT-Prozessen für die jeweils zwei Gruppen von Kennzahlen definiert sind, so genannten Leistungs- und Zielerreichungsindikatoren. Allerdings legt dieses aus dem Revisionsumfeld stammende Kennzahlensystem ca. 300 Indikatoren fest, die helfen sollen, auf steuerungsrelevante Sachverhalte im Sinne von festgelegten Zielvariablen aufmerksam zu machen. Auch müssen die Kennzahleninhalte vor ihrem Einsatz zunächst beschrieben und definiert werden. Das führt also zu langen Implementierungszeiten und fehlender Flexibilität. Der wesentliche Denkansatz von CObIT 2000 ist aber die Definition von Standardprozessen und ihre Verknüpfung mit Kennzahlen.

„In geradezu idealer Weise kombiniert das CObIT-Modell 36 nationale und internationale Standards aus den Bereichen Qualität, Sicherheit und Ordnungsmäßigkeit. Das Resultat ist ein durchgängiges Modell, das für sämtliches IT-Ressourcen (Daten, Anwendungen, Technologien, Anlagen und Personal) alle notwendigen Anforderungen in klaren Worten festgelegt – von der Planung, über die Beschaffung und/oder Entwicklung, den Betrieb und Unterstützung bis hin zur Überwachung. Das CObIT-Framework besteht aus gängigen, generell akzeptierten Praktiken (best practices), welche sicherstellen, dass die eingesetzte Informationstechnologie die Geschäftsziele abdeckt, dass die Ressourcen verantwortungsvoll eingesetzt und die Risiken angemessen überwacht werden – was mit dem Begriff „IT-Governance“ bezeichnet wird. Die vollständige Umsetzung des CObIT-Models dürfte den meisten Unternehmen nicht leicht fallen...“ (ISACA Switzerland Chapter, 2000)

Information Technology Infrastructural Liberary

Information Technology Infrastructural Liberary (kurz: ITIL) greift Elemente des CObIT 2000 erneut auf: Standardaktivitäten der IT werden zu Standardprozessen zusammengestellt. Diesen Prozessen werden wiederum einfache Kennzahlen zugeordnet. ITIL ist ein aus dem angelsächsischen Raum kommender Ansatz zur Gestaltung und Führung von IT-Standarprozessen. Die Bibliothek ist eine Sammlung von operativ erprobten Prozessen und besten Vorgehen aus dem wirklichen Leben, die permanent einer wachsenden Nutzergemeinde virtuell zur Diskussion und Optimierung bereitgestellt werden.

Immer wieder wird der aktuelle Status der Diskussion und ITIL-Ausgestaltung veröffentlicht, durch die Hüterin von ITIL, dem itSMF. Dieser Ansatz ist nicht neu – seit vielen Jahren gewinnt er immer mehr an Bedeutung in den USA und England. In Großbritannien wurde er bereits zur British Standard Norm (BS 15000) erhoben, die vergleichbar mit der deutschen DIN-Zertifizierung ist. Die Verabschiedung als ISO-Norm steht ebenfalls kurz bevor. Vorteil des Ansatzes ist es, dass er übersichtlich die wesentlichen Aktivitäten des IT-Bereichs zu einfachen Prozessen zusammenführt und damit einen Funktionalrahmen der IT schafft. Für die Prozesse werden Kennzahlen vorgeschlagen. Nach ITIL ausgestaltete IT-Bereiche können also Benchmarks durchführen und sich miteinender vergleichen.

Kennzahlen innerhalb von ITIL dienen keinem Selbstzweck und sind nicht restriktiv formuliert, sondern als Vorschläge und Denkansätze zu verstehen. Für jeden der beschriebenen ITIL-Prozesse finden sich entsprechend mehrere Kennzahlen wieder. Diese zeichnen sich durch ihre Verständlichkeit und Einfachheit aus. ITIL betont, dass der ITIL „Finacial Management“-Prozess, der die kostenorientierte IT-Führung abbildet, eine Kernkompetenz des IT-Managements ist und eine Querschnittsfunktion zu allen weiteren IT-Aktivitäten darstellt. Das Financial Management in ITIL beschäftigt sich dabei nicht nur mit der Budgetierung einer Tätigkeit, die mittlerweile auch in der IT bekannt ist, sondern benennt auch weitere Aktivitäten, wie Buchführung und Rechnungsstellung. ITIL geht damit also in Richtung einer IT-Abteilung, die Leistungen an übrige Organisationsteile erbringt und auch abrechnet.

Für den Standardprozess „Incident Management“ beschreibt ITIL neben den notwendigen Aktivitäten zur Aufgabenerfüllung auch ihre Steuerung sowie ihre Rollen, Verantwortlichkeiten, kritischen Erfolgsfaktoren und schlägt mögliche Leistungsindikatoren vor, wie z.B.:

  • Gesamtzahl der Störungen
  • Durchschnittliche Lösungszeit
  • Durchschnittliche Lösungszeiten pro Priorität
  • Durchschnittswerte, die innerhalb des vereinbarten Service-Level liegen
  • Prozentsatz der vom First-Level-Support behobenen Störungen (Lösung in erster Instanz, ohne Weiterleitung)
  • Durchschnittliche Supportkosten pro Störung
  • Behobene Störungen pro Workstation oder pro Service-Desk-Mitarbeiter
  • Anzahl der Störungen, die anfänglich falsch klassifiziert wurden
  • Anzahl der Störungen, die falsch weitergeleitet wurden

Die Übersicht und Zusammenschau der IT-Kennzahlen kann beispielsweise mit Hilfe einer Balanced Scorecard erfolgen. Dieses Werkzeug bietet eine schnelle Übersicht über alle wesentlichen verdichteten Indikatoren. Die Ausgestaltung erfolgt je nach Einsatzzweck ohne ein „richtig“ oder „falsch“. Ein sehr erfolgreiches deutsches Unternehmen in der kunststoffverarbeitenden Branchen hat ein solches System vor wenigen Jahren eingeführt. Die dort eingeführte Scorecard ist denkbar einfach, der Zweck ist nicht eine allumfassende Information sondern ein einfacher Gesamtüberblick für den Vorstand. Sie dient damit vor allem als Kommunikationswerkzeug des IT-Managements.

Hinweis

Mehr zum Thema Balanced Scorecard finden Sie unter:

Mit Kennzahlen managen: Entwickeln Sie effektive Steuerungsgrößen auf Basis der Balanced Scorecard

Eine IT-Balanced-Scorecard muss nicht kompliziert sein und ihre Entwicklung und Implementierung muss keine überhöhten Beratungskosten verschlingen, wie unser Beispiel in Bild 2 zeigt. Die dort gezeigte Scorecard ist allerdings als stark vereinfachtes Kommunikationsmittel an den verantwortlichen Vorstand zu verstehen, d.h. es gilt wenige Schlüsselinformationen übersichtlich und verständlich darzustellen. Natürlich ist diese Art von Kennzahlen nicht geeignet, eine umfassende Steuerung der IT darauf zu begründen.

Zusammenfassend ist zu bemerken, dass die IT heute einen ernsthaften Kostenanteil an der Kostenposition eines jeden Unternehmens hat. Es ist also wichtig, dort Kostenkontrolle und –management zu etablieren. Das setzt allerdings eine Änderung in der Mitarbeitereinstellung voraus. Weiterhin empfiehlt es sich, IT-Prozesse so weit es geht an Standards zu orientieren und diesen dann einfache, verständliche und beeinflussbare Kennzahlen zuzuordnen. Die ITIL-Methode unterstützt alle diese Schritte und lässt zusätzlich den Gestaltern die nötige Freiheit bei der Ausgestaltung.

Lukas Röhrs, Dipl. Wi.-Inf., Unternehmensberater & Partner des Munich Institute for IT Service Management, Dozent und Autor.

Robert Kuhlig, Dipl. Inf., Geschäftsführer Munich Institute for IT Service Management und Universitäts-Dozent.

Kontakt:
Lukas Röhrs
Munich Institute for IT Service Management GmbH
Kaiser-Ludwig-Platz 5
80336 München
Tel.: 0049 172 265 38 44
Fax: 0049 89 745 007 39
eMail: information@mitsm.de
www.mitsm.de

Dazu im Management-Handbuch

Ähnliche Artikel

Gesundheitstipps