Archiv

Qualität und Preis von Software wird für Unternehmen wichtig

Bei Software wird es künftig um Lösungen statt um Produkte gehen. Diese müssen qualitativ hochwertig und kostengünstig sein. Ein Blick ins Jahr 2020.
erschienen: 21.06.2011

Die Software-Industrie wurde lange Zeit als Innovationsmotor der Wirtschaft betrachtet. Es entstanden neue Arbeitsplätze, Software-Unternehmen entwickelten sich in einem rasanten Tempo zu Konzernen und neue Industrie- und Dienstleistungszentren entstanden. In einem Jahrzehnt entstand eine komplette Infrastruktur mit Industrie-Netzwerken aus Dienstleistungs-, Software- und Technologie-Unternehmen, die notwendige Arbeitskräfte lieferten. In der Software-Branche schien alles möglich. Doch wie in jeder anderen Branche gibt es auch hier Grenzen.

Kluge Vordenker wie Joseph Weizenbaum oder Edsger Wybe Dijkstra haben schon früh erste Signale dafür gesehen, dass auch die IT- und Software-Branche nicht frei von Risiken ist und dass es eines seriösen und umsichtigen Umgangs mit den Technologien bedarf. Sie haben sowohl in ethischer als auch technischer Hinsicht auf Probleme im Zusammenhang mit der Software-Entwicklung und der Nutzung komplexer Rechnersysteme sowie globaler Informationsnetzwerke hingewiesen.

Markt, Gesellschaft, Branche: Herausforderungen für die Software-Industrie

Inzwischen lassen sich diese frühen Gedanken und Einwände auch in den aktuellen betriebswirtschaftlichen Zahlen wiederfinden und deuten. In den neunziger Jahren wurden die Erfolgsmeldungen der Unternehmen zunächst moderater. Sie näherten sich denen klassischer Branchen an. Dann, an der Jahrtausendwende, platzte die Internetblase. Spätestens jetzt war klar, dass auch in der IT- und Software-Branche ein stetes, fast ungebremstes Wachstum kaum möglich ist. Auch in den Aktienkursen lässt sich diese Veränderung dokumentieren: Waren in den 1980er und 1990er Jahren noch hohe Kursgewinne im Rahmen von Vervielfachungen der Aktienbewertungen zu verzeichnen, so verlaufen die gleichen Kurse heute ähnlich den klassischen Aktienwerten. Aus „Out-Performern“ wurden „Standard-Performer“. Ist dies also das Ende der goldenen Zeiten in der Softwarebranche? Für alle Unternehmen, die an alten Vorstellungen festhalten, scheint diese Vermutung angebracht.

Der Anwender (Markt)

Das Benutzerverhalten wie auch die Ansichten über Software beim Anwender haben sich deutlich verändert. Früher waren Unternehmen und Anwender froh, überhaupt eine entsprechende Software zur Unterstützung ihrer Geschäftsprozesse zu haben. Heute stehen für jedes Geschäftsmodell und jede Aufgabenstellung unzählige Software-Produkte als Alternativen zur Verfügung – von hochpreisigen bis zu kostenlosen Lösungen. Ferner gewannen Anwender über die vergangenen 30 Jahre deutlich an Erfahrung beim Umgang mit Software. Produktqualitäten werden heute deutlich kritischer beäugt und nur die Anwendungen schafft es in die engere Wahl, die die aus der Erfahrung gewonnenen Qualitätsanforderungen berücksichtigen.

Außerdem reicht es für ein Software-Unternehmen heute nicht mehr aus, allein auf gutes Marketing und fähige Vertriebsleute zu setzen, um auch ein qualitativ durchschnittliches Produkt erfolgreich am Markt zu positionieren. Interessenten und Kunden sind heute wesentlich kompetenter und derartige Marktaktivitäten könnten gar als Schwindel bewertet werden und dem Unternehmen so einen nachhaltigen Imageschaden bescheren. Bezogen auf die Anwender beziehungsweise Verbraucher ergeben sich folgende Fragen:

  • Wie erleben Anwender die Software heute?
  • Wie sollte die Software der Zukunft zu bedienen sein?
  • Wie viel Vertrauen haben sie in die komplexen Systeme?
  • Wie groß ist der tatsächliche Nutzen?
  • Welche Bedeutung spielen hierbei Systemfehler und -ausfälle?
  • Wie sieht der Anwender die Kosten-/Nutzen-Relation?
  • Ist das klassische Lizenzmodell ein zukunftsweisendes Verfahren zur Bezahlung der mit dem Produkt gelieferten Leistungen?

Man könnte den Fragenkatalog sicherlich erweitern, doch sollten hier lediglich einige exemplarisch genannt werden. Denn möglicherweise gibt es noch eine weitere Komponente, welche den Stellenwert der Software-Industrie innerhalb der Branchen im Rahmen der gesamtwirtschaftlichen Betrachtungen reduzierte.

Die Gesellschaft

Gerade das Erfolg versprechende Internet, das der Software-Industrie den Einzug bis in die privaten Haushalte verschaffte, könnte nun wie ein Hemmschuh wirken. Denn durch die Tatsache, dass Informationsnetze und große, globale Informationssysteme heute jeden Menschen in allen Lebensbereichen beeinflussen können, tauchen gesellschaftspolitische Fragen auf, die beantwortet werden müssen:

  • Inwieweit dürfen personenbezogene Daten in großen Informationsnetzwerken vorgehalten werden?
  • Bedarf es hierzu weiterführender Regelungen?
  • Welche Internetdaten dürfen im Zugriff bleiben und wie können kriminelle Aktivitäten über dieses Medium verhindert werden?
  • Was muss reguliert werden und was ist bereits ein Eingriff in die Bürgerrechte des Einzelnen?
  • Wo verläuft die Grenze zwischen Überwachungs- und Informationsdienst?

Die Branche

Vor große Herausforderungen stellt die Software-Unternehmen schließlich ihre Branche selbst. Ihre Unternehmensstrukturen wirken unflexibel. Mit Blick auf ihre Produktionsfaktoren verhindern sie das Erschließen neuer Wachstumspotenziale. Die Globalisierung stellt Software-Unternehmen vor sehr große Herausforderungen, da der Transport der Ware im Gegensatz zu klassischen Industriezweigen keine Kosten verursacht und die Projektsteuerung wie auch die Kommunikation komplett über IT-Netze realisiert werden können. Damit steht heute jedes Software-Unternehmen in Konkurrenz zur gesamten Branche, ungeachtet des eigentlichen Standorts. Folgerichtig müssen klassische, in der Vergangenheit erfolgreiche Geschäftsmodelle, überdacht werden. Fast kein Bereich wird dabei unangetastet bleiben. Folgende Fragen stellen sich:

  • Sind gängige Lizenzmodelle zur Abwicklung des Austausches zwischen Ware beziehungsweise Leistung und Geld noch tragfähige Zukunftslösungen?
  • Welche Veränderungen im Bereich der Markt- und Produkt-Positionierungen müssen durchgeführt werden, um dem geänderten Verhalten der Benutzer und deren Erwartungen zu entsprechen?
  • Wie müssen daraufhin die Unternehmensstrukturen angepasst werden, damit diese Produkte realisieren können, die der Markt wünscht?
  • Wie und in welcher Qualität sollte die Kommunikation zwischen Kunde und Lieferant stattfinden?
  • Wie sollten Unternehmensziele ausgerichtet sein, damit auch in Zukunft das Unternehmen erfolgreich am Markt bestehen bleibt?

Vision: Eine neue Art von Software

Manifesto bedeutet eigentlich Grundsatzerklärung. Im Folgenden sollen Denkanstöße mögliche Wege zu einer neuen Art von Software eröffnen. Es geht um die Frage, welche Regeln Software-Unternehmen berücksichtigen sollten, damit sich der Erfolg auch zukünftig einstellt. Dabei geht es nicht um das bloße Aneinanderreihen einzelner Thesen, sondern vielmehr auch um die Erläuterung aktueller Entwicklungen aus der Forschung im Bereich Software-Qualität, die die Prognosen untermauern sollen. Die Software-Industrie hat die Möglichkeit, wieder zum Innovationsmotor zu werden. Doch dazu müssen erst die richtigen Zukunftsstrategien aufgestellt werden.

1. These: Qualität wird das wichtigste Strategieziel

Durch die Globalisierung steht jedes Entwicklungs- und Dienstleistungsunternehmen in der Software-Branche in Konkurrenz zu allen anderen des gleichen Segments. Es gibt keine andere Branche, in der mögliche Leistungsvergleiche besser beziehungsweise transparenter möglich wären. Damit steht oder fällt der Unternehmenserfolg mit der vom Unternehmen realisierten Qualität. Die Alternative, trotz geringerer Qualität erfolgreich am Markt oder in einigen Nischen zu agieren, wird im Gegensatz zu den Software-Gründerjahren nicht mehr funktionieren. Unternehmen, die eine nachhaltige Verbesserung der Code-Qualität und damit der Produkt- oder auch Dienstleistungsqualität garantieren können, werden die erfolgreichen Unternehmen im Jahre 2020 sein.

Hierbei ist aber zu berücksichtigen, dass eine kürzere „Time-to-Market“ erwartet wird; Unternehmen müssen also eine fehlerfreie Arbeit in kürzerer Zeit als heute üblich abliefern. Diese Anforderung kann mit dem klassischen qualitätssichernden Ansatz wie etwa Code-Entwicklung, Unit Test oder System-Test nicht erfüllt werden. Es braucht weiterer Qualitätsmethoden, die den entwickelten Code direkt berücksichtigen. Dabei geht es um Total Quality Management (TQM), das mögliche Fehler beziehungsweise Fehlerpotenziale bereits im eigentlichen produktiven Prozess erkennt und hierdurch wertvolle Zeit spart, da Schleifen zwischen Entwicklungsphasen und Teststufen eingespart werden.

Mitarbeiter des australischen Forschungsinstituts Nicta beispielsweise haben ein Verfahren entwickelt, mit dem die Sicherheit von Programmcodes nachgewiesen werden kann. Mithilfe mathematischer Berechnungen können sie ausschließen, ob ein Code verschiedene Klassen von Fehlern enthält und so für den Einsatz in missionskritischen Systemen in Flugzeugen oder Autos geeignet ist. Damit gelang ihnen der Nachweis bei einem für generelle Einsatzzwecke entwickelten Betriebssystem-Kernel. Die Wissenschaft ist der Ansicht, dieser Durchbruch habe erhebliche Auswirkungen auf Unternehmen. Der von Nicta verwendete und gefertigte Software-Assistent kann als wichtiger Schritt angesehen werden, um die Entwicklung von Software zu verbessern. Da rigorose Tests von qualitativ hochwertigem Code kostspielig sind, repräsentiert diese Entwicklung von Testverfahren und Betriebssystemen für spezialisierte Anwendungsgebiete eine Methode, die den TQM-Ansatz unterstützt.

Auch das durch das Bundesministerium für Bildung und Forschung (BMBF) geförderte Projekt Verisoft XT mit einem Budget von 12,5 Millionen Euro machte von 2007 bis 2010 in der Qualitäts-Szene auf sich aufmerksam. Unterstützt wurde dieses Projekt unter anderem durch Firmen wie Audi, Bosch, Infineon und Microsoft.

2. These: Software-Unternehmen müssen auf Basis industrieller Prozesse Lösungen oder Produkte entwickeln

Wir bereits erwähnt, gibt es hohe Anforderungen hinsichtlich kürzerer Time-to-Market-Zeiten und auch bezüglich der Qualitäten. Heute entwickeln Software-Unternehmen Lösungen auf der Basis manufakturaler Prozesse. Es scheint jedoch, als seien die Wertschöpfungspotenziale auf dieser Grundlage ausgereizt und keine weiteren Effizienz-Steigerungen mehr zu erwarten. Dieses Bild wird durch die Entwicklung an den Börsen und in den Märkten – bezogen auf die Software-Industrie – seit Jahren bestätigt.

Ähnlich wie in der Automobil-Industrie vor fast einhundert Jahren wird nur ein Wechsel von einer Manufaktur zu einem Industriebetrieb weitere Effizienz-Potenziale erschließen. Software könnte so günstiger und schneller mit leistungsfähigeren Produktdaten und -qualitäten realisiert werden.

3. These: Unternehmen müssen entweder „Integratoren“ oder „Spezialisten“ sein

Software-Unternehmen sind historisch gewachsen. Aufgrund schneller und teils explosiv anmutender Wachstumsphasen verfügen Technologiefirmen heute über wenig Struktur oder organisches Wachstum. In ein und demselben Unternehmen gibt es oft zwei Bereiche, den der Lösungsspezialisten und den der System-Integratoren. Hierdurch kommt es jedoch zu Spannungen, weil beide Bereiche verschiedene Ziele verfolgen, die sich nur schwer aufeinander abstimmen lassen. Bereichsübergreifende Synergien lassen sich kaum entwickeln. Letztlich muss jedes Spannungsfeld aufgelöst werden, um Erfolge zu sichern.

Insbesondere in Verdrängungswettbewerben, in denen sich der Software-Markt spätestens seit der Globalisierung befindet, müssen Spannungsfelder schnell gelöst werden. Andernfalls laufen die Unternehmen Gefahr, ihre Erfolge langfristig zu verlieren. Nahezu alle großen Software-Konzerne stecken in diesem Dilemma, das nur durch die Entscheidung für eine holistische Unternehmensausrichtung mit der Wahl zwischen der Integration von Lösungen oder der Spezialisierung auf einzelne Lösungen bestimmt wird. Egal wie die Entscheidung ausfällt: Letztlich bedeutet das eine umfassende Umstrukturierung der Konzerne. Hierzu gehören sowohl etwaige Ausgliederungen interner Bereiche als auch Akquisitionen von Einheiten der Mitbewerber. Damit entsteht ein Konzern, der für die nächsten Dekaden erfolgreich Marktsegmente besetzen kann. Voraussetzungen hierzu sind:

Das Unternehmen fokussiert auf eines der Themen „Integration“ oder „Spezialist“, um mehr Synergien zu bilden. Ziel: kostengünstiger, schneller und in besserer Qualität Lösungen oder Dienstleistungen anbieten. Durch die tiefere Unternehmensfokussierung verstärkt sich der Expertenlevel. Da andere Unternehmen (nicht nur in der Software-Branche) vor der gleichen Herausforderung stehen, steigen die langfristigen Erfolgschancen. Denn: Durch Kosten- und Qualitätssensibilisierung suchen Unternehmen bevorzugt Partner, die diese Anforderungen am besten unterstützen. Hierbei werden Integratoren nach geeigneten Spezialisten suchen und umgekehrt. Die Aufteilung nach Integratoren und Spezialisten unterstützt die Anforderung zur Etablierung industrieller Prozesse im Entwicklungsumfeld. Hier liegt wieder ein Vergleich zur Automobilindustrie nahe, wo Automobilhersteller (Integratoren) und Zulieferer (Spezialisten) gezeigt haben, dass dies auch im großen Geschäftsumfeld funktioniert.

4. These: Unternehmen müssen ohne Qualitätseinbußen so günstig wie möglich Lösungen oder Produkte realisieren

Das Spannungsfeld Kosten/Qualität wird an Bedeutung gewinnen. Ein Unternehmen, das seine Produktionsfaktoren geschickt einsetzt, um beide, eigentlich konträren Ziele, zu unterstützen, wird seine Wettbewerbsvorteile am Markt ausbauen können. Dies zwingt Softwareunternehmen dazu, ihre Lösungsbereiche besser zu strukturieren und über Schnittstellen weiter zu öffnen. Eigentlich ein Unternehmensrisiko, da hierdurch Mitbewerbern der Markteintritt in die Domäne des Spezialisten erleichtert wird. Für Unternehmenslenker mit alten Vorstellungen war es deshalb tabu, für deren Softwareanwendungen umfassende Schnittstellen zu realisieren. Erfolgreiche Softwareunternehmen von heute aber haben bereits umgedacht: Viele Softwareanwendungen werden global durch den Einsatz von Nearshore- oder Offshore-Entwicklungsteams realisiert, um Entwicklungskosten zu reduzieren und am Markt weiter konkurrenzfähig zu bleiben.

Doch durch die global verteilten Entwicklungsteams könnten Risiken für die Gesamtqualität der Lösungen oder Produkte entstehen. Insbesondere dann, wenn Entwicklungsprozesse, -standards und -konventionen Lücken aufweisen. Dieses Risiko lässt sich über den TQM-Ansatz beherrschen, denn die Bewertung der Qualität findet schon während der Entwicklung und nicht erst am Ende der Entwicklungsprozesse statt. Gerade das Code-Quality-Management liefert frühzeitig wertvolle Informationen darüber, wie es um die tatsächliche Softwarequalität steht.

Da die Software für Lösungen global entwickelt wird, müssen Entwicklungsteams sich in stärkerem Maße selbst organisieren. Würden Korrekturen allein von der Unternehmenszentrale vorgegeben, kämen sie aufgrund der langen Berichts- und Entscheidungswege zu spät, um noch rechtzeitig auf Marktveränderungen reagieren zu können. Agile Methoden wie zum Beispiel Scrum liefern hierzu Ansätze, wie Entwicklungseinheiten sich selbst organisieren und – durch zeitnahe Rückmeldungen auf Arbeitsergebnisse – rasch auf geänderte Situationen und Anforderungen anpassen können.

Ferner wird auch die Transparenz zwischen den Entwicklungseinheiten und Partnern zum entscheidenden Erfolgsfaktor für Softwareunternehmen. Dies heißt auch für die Partner, sich die Codeteile gegenseitig offenzulegen, um eine bessere Abstimmung zu erzielen und Fehlentwicklungen zu vermeiden. Auch dies sorgt für kürzere Entwicklungszeiten und hilft, Kosten zu reduzieren.

5. These: Lösungen sind wichtiger als Produkte

Die Ansprüche der Anwender sind in der Vergangenheit stetig gestiegen und werden es auch in Zukunft. Aus diesem Grund muss der eigentliche Bedarf des Marktes noch besser befriedigt werden. Hierbei wird der Lösungsgedanke stärker an Bedeutung gewinnen und Produkte vom Software-Markt in einigen Segmenten ver- oder zumindest zurückdrängen. Einen Anwender interessiert eigentlich die Lösung, also das Bearbeiten eines Auftrags, nicht aber das eigentliche Software-Produkt, das Aufträge verwaltet. Die erstgenannte Alternative nimmt dem Anwender viele Aufgaben ab, welche er im Rahmen eines Produktes stets lösen müsste. Zum Beispiel:

  • Bereitstellung von Rechnersystemen
  • Installation und Pflege der Produkte
  • Betrieb der Anwendungssysteme
  • Sicherung der Daten

Aus Herstellersicht erleichtert der Lösungsansatz in vielen Bereichen den Zugang zum Markt, ermöglicht er doch eine präzisere, zielgruppenspezifische Ansprache, die auf der Basis von Produkten so nicht möglich wäre. Ferner profitiert der Anwender durch einen einfacheren, unkomplizierten Zugriff. Klassische Lizenzmodelle zur Leistungsverrechnung werden dabei durch flexiblere, bedarfs- oder nutzungsorientierte Modelle ersetzt.

In diesem Zusammenhang gewinnt Cloud Computing an Bedeutung. Dabei können innerhalb der Cloud-Computing-Welt verschiedene Systeme und Teilsysteme unterschiedlicher Hersteller eine Anwendungsplattform ausbilden. Der relative neue Begriff wird aktuell aber noch unterschiedlich definiert:

  • Cloud Computing steht für einen Pool aus abstrahierter, hochskalierbarer und verwalteter IT-Infrastruktur, die Kundenanwendungen vorhält und, falls erforderlich, nach Verbrauch abgerechnet werden kann (Quelle: Forrester Research).
  • Cloud Computing umfasst On-Demand-Infrastruktur (Rechner, Speicher, Netze) und On-Demand-Software (Betriebssysteme, Anwendungen, Middleware, Management- und Entwicklungstools), die jeweils dynamisch an die Erfordernisse von Geschäftsprozessen angepasst werden. Dazu gehört auch die Fähigkeit, komplette Prozesse zu betreiben und zu managen (Quelle: Saugatuck Technology).

Durchschnittsprodukte haben keine Zukunft mehr

Einfallsreichtum und Erfindergeist reichen in der IT-Branche heute nicht mehr aus. Profunde Kenntnisse der genutzten Technologien werden zwar auch künftig wichtig sein, doch es bedarf einer umfassenden Erfahrung in klassischen betriebswirtschaftlichen Disziplinen wie Marketing, Vertrieb oder Kostenrechnung. Als dritte Erfolgskomponente sollte der Kunde nicht außer Acht gelassen werden. Seine Ansprüche und Anforderungen an ein gutes Produkt sind schon heute deutlich höher als vor zwanzig Jahren. Der Qualitätsbegriff rückt – aufgrund der gesteigerten Kundenanforderungen – auch in Zukunft in den Mittelpunkt des Unternehmensleitbildes.

Qualitätsmanagement-Systeme sind in der Lage, die notwendigen Antworten zu liefern, um Service-, Lösungs- und Produkt-Qualitäten zu bestimmen. So entwickelte sich aus dem Verisoft XT-Projekt das Gütesiegel „Verified in Germany“ als Antwort der deutschen Softwareindustrie und Wissenschaft auf die gestiegenen Kundenanforderungen. In Verbindung mit professionell und periodisch durchgeführten Marktbeobachtungen kann ein Bezug zwischen dem Marktbedarf und ermittelten Qualitäten erstellt und damit das Maß der Zielgruppen-Ansprache bestimmt werden. Unternehmen, die sich am schnellsten auf Bedarfsveränderungen einstellen können und mit Qualitätsprodukten den neuen Anforderungen entsprechen, werden den Markt beherrschen. Produkte von durchschnittlicher Qualität und unzureichender Marktausrichtung werden nicht mehr akzeptiert und vom Markt verschwinden.

Doch wie kann die Softwarebranche neue Wachstumspotenziale, vergleichbar der Zeit vor zwanzig Jahren, erschließen? Dafür sind industrielle Prozesse notwendig, die ein hohes Maß an Professionalismus voraussetzen. Bessere Produkte und Leistungen bezüglich Qualität und Preis erlauben der Software zu einem wirklichen Massenprodukt zu werden, wie das Telefon oder das Handy. Der Softwarebegriff tritt dabei in den Hintergrund. Softwareunternehmen werden also zu Informationsversorgern für Konsumenten. Sie werden – bezogen auf ihre zukünftigen Konzern- oder Firmenstrukturen – eher einem Energieversorger gleichen als einem typischen Ingenieur-Unternehmen. Google, Facebook, LinkedIn und Xing beispielsweise beschreiten diesen neuen Weg bereits. Obschon sich bei den an der Börse gelisteten Vertretern der neuen Unternehmensgeneration bereits eine Überbewertung abzeichnet, belegen die Aktienkurse dennoch eine hohe Markt-Bedeutung und das überdurchschnittliche Wachstum im Vergleich zu klassischen Softwareunternehmen.

Über den Autor
Torsten Zimmermann

Torsten Zimmermann befasst sich in internationalen Projekten mit Software-Qualität und Test-Management. Hierbei entwickelte er den risiko-basierten Testansatz, heute Basiswissen in der Software-Qualitätssicherung. Erkenntnisse aus der Qualitäts-Management-Praxis führten 2001 zum „Test Framework Technologies„ (T3 TFT), den Beginn einer neuen Generation von Testsystemen. Gemeinsam mit Hochschulen entwickelt er neue Lösungen bei regel- und modellbasierten Testsystemen und referiert auf nationalen und internationalen Kongressen.

Anschrifti3 consult
Ludwig-Erhard-Allee 10
76131 Karlsruhe
Telefon+49 721 75405340
E-Mailtorsten.zimmermann@i3consult.de
Internetwww.i3consult.de
Facebookwww.facebook.com/…

Weitere Artikel des Autors