Die Enterprise-IT in der Sackgasse


Abhandlung in 2 Versionen

A) Essay

➔ Ursachen, Erkenntnisse, Lösungsstrategie im Überblick

B) Erkenntnisse

➔ Daten-basierte Analysen und
➔ Holistische Lösungs-Empfehlungen

Gliederung

Essay: Die Enterprise-IT in der Sackgasse

Ursachen, Erkenntnisse und Lösungsstrategie im Überblick

Ursachen

Unsere These "Die Enterprise-IT in der Sackgasse" dürfte bei nicht wenigen Lesern dieser Ausführungen auf Erstaunen stoßen angesichts der regelmäßigen Erfolgs-Meldungen aus der IT-Branche: Wie z.B. vor kurzem die bewundernde Story über die "Big Five der IT", die inzwischen laut Börsenwert die wertvollsten Unternehmen der Welt sind. Sie haben den allgemeinen Eindruck erzeugt, dass es der IT-Branche blendend geht und ihr unternehmerischer und gesellschaftlicher Nutzen durch Digitalisierung somit in besten Händen sei.

Leider ist diese Darstellung erstaunlich oberflächlich und in der Substanz völlig falsch: Sie lässt nämlich unberücksichtigt, dass sich die IT-Branche schon seit etwas mehr als 10 Jahren in 2 Haupt-Segmente aufgeteilt hat: Neben dem "klassischen Enterprise-IT-Segment" hat sich inzwischen ein weiteres IT-Segment herausgebildet, bestehend v.a. aus den Firmen aus dem Silicon Valley (und Seattle), das sich durch die Bezeichnung "Private-IT" gut charakterisieren lässt. Bei genauerem Hinsehen wird nämlich sofort offenkundig, dass es nur dem "Private-IT"-Segment blendend geht. Dem "Enterprise-IT"-Segment, das nach wie vor v.a. für den Fortschritt durch Digitalisierung in den Unternehmen sorgt, geht es dagegen inzwischen ausgesprochen miserabel: Umsätze und Gewinne treten auf der Stelle und komplementär dazu ist es inzwischen auch zu einer Halbierung des in der Hochzeit der Enterprise-IT üblichen Digitalisierungs-Fortschritts gekommen! Als eine der Haupt-Ursachen lässt sich durch eine Daten-basierte Situations-Analyse die Fehllenkung der IT-Bereichs-Ressourcen hin zu den gering-produktiven Computer-Architekturen, insbesondere hin zu den x86-Servern, ermitteln. Und als einen der Haupt-Verursacher für diese Fehl-Entwicklung konnten wir die Verwendung des "TCO-Algorithmus" in Entscheidungs-Situationen identifizieren, in denen der TCO-Algorithmus falsche und unvollständige Ergebnisse liefert!

Die Haupt-Fehler-Quelle beim Einsatz des TCO-Algorithmus, der bereits 1987 wahrscheinlich für "eine singuläre Anwendung auf einem dedizierten Computer" entwickelt worden ist, liegt in seiner "Verwendung auch beim Hinzufügen einer neuen Anwendung beim Enterprise-Computing". Ob der Entwickler des TCO-Algorithmus, Herr Bill Kervin, den Einsatz des TCO-Algorithmus auch für die Berechnung der Kosten einer zusätzlichen Anwendung auf den Enterprise-Computern freigegeben hat, ist nicht bekannt. Die möglicherweise gedankenlose Verwendung des TCO-Algorithmus auch bei den Enterprise-Computern führt nämlich unausweichlich und unkorrigierbar zu fundamental falschen Ergebnissen: Denn beim Hinzufügen einer weiteren Anwendung zu einer stark Multi-Programming-geprägten Enterprise-Verarbeitungs-Situation handelt es sich mitnichten um eine triviale Addition sondern um "eine anspruchsvolle Integration" mit allen ihren Vorteilen durch "gemeinsame Nutzung von Funktionen in großen, integrierten Einheiten" und durch die "viel bessere Auslastbarkeit der Computer vertikal und horizontal". Deshalb ist qualifiziert prognostizierbar, dass der TCO-Algorithmus die Kosten für eine zusätzliche Anwendung auf den Enterprise-Computern wesentlich zu hoch berechnet und den "ganzheitlichen Unternehmens-Nutzen der Anwendung" z.B. in den Bereichen "IT-Produktivität" und "IT-Datenschutz" nur unvollständig abbilden kann: Insbesondere kann er die IT-Infrastruktur-Vorteile beim Enterprise-Computing nicht methodisch exakt abschätzen. Vorhandene Hilfs-Konstruktionen helfen da auch nicht weiter, da die Theorie beweist, dass sich das Ergebnis einer Integration keinesfalls durch Einzel-Additionen ersetzen lässt. Wer meint, diese Erkenntnisse unberücksichtigt lassen zu dürfen, macht sich somit mitschuldig an der Entwicklung des TCO-Algorithmus zu einem "Digitalisierungs-Groß-Schaden-Tool" mit dem skizzierten Digitalisierungs-Schadens-Potential (Digitalisierungs-Missverständnis).

Offensichtlich wird von der Politik und den Führungskräften der Unternehmen immer noch nicht erkannt, dass die Halbierung des Digitalisierungs-Fortschritts nicht nur "eine Herausforderung für die Hersteller der Enterprise-IT-Produkte" ist sondern noch viel mehr "eine Herausforderung für die Nutznießer der Enterprise-IT, die Unternehmen und der Öffentliche Dienst": Denn die Enterprise-IT schafft de facto "Virtuelle Fachkräfte" indem sie i.d.R. Teile von algorithmisierbaren Geschäfts-Prozessen von den Beschäftigten übernimmt und diese damit entweder "produktiver" oder "für andere Tätigkeiten verfügbar" macht. Aus Erkenntnisgründen sei angefügt, dass diese Hauptfähigkeit der E-IT in den ‘90er Jahren von deutschen Gewerkschaften mit starkem Propaganda-Einsatz als "Job-Killing" diffamiert worden ist und letztendlich zur Einrichtung der 35-Stundenwoche geführt hat. Mit unserem "Holistischen Methodischen Lösungsansatz" konnten wir schon damals diese Entwicklung als Fehlentscheidung entlarven, aber "natürlich" nicht stoppen.

Repräsentative Erkenntnisse und individuelle Situations-Analysen

Unsere "Enterprise-IT-Erkenntnisse" sind das Ergebnis einer "Holistischen Auswertung" unseres "Enterprise-IT-Datenmaterials", das wir für unseren Beratungs-Schwerpunkt "Digitalisierung der Unternehmen auf Best-Practice-Niveau" seit mehr als 30 Jahren jährlich aus qualifizierten Quellen bezogen haben und weiter beziehen. Dabei konnten und können wir auf Kontakte und Kenntnisse zurückgreifen, die wir als langjährige Führungskraft der IBM erworben haben. Daraus ist offenbar ein Erkenntnis-Vorsprung entstanden, über den weder die "IT-Wissenschaft" noch die "IT-Fachleute bei den Firmen" noch die "IT-Fachleute bei den IT-Produkte-Herstellern" verfügen.

Unseren "Holistischen Methodischen Lösungsansatz" zur "Digitalisierung der Unternehmen auf Best-Practice-Niveau" haben wir z.B. unter www.is-oc.com ausführlich beschrieben. Die hier vorgestellten Erkenntnisse sind somit von jedem IT-Fachmann nachvollziehbar. Dabei ist das durch den Einsatz des TCO-Algorithmus wahrscheinlich verursachte Schadens-Potential für jedes einzelne Unternehmen in "Business Case-Form" prognostizierbar. Damit ist die Aufgabenstellung für die IT-Verantwortlichen eindeutig vorgegeben: Sie könnten somit auch unmittelbar in die Pflicht genommen werden.

Unsere langjährige IT-Berufs-Erfahrung mit den im Laufe der Enterprise-IT-Entwicklung "de facto regelmäßig" aufgetretenen Wettbewerbs-Situationen "neue Klein-Computer von Start-up-Unternehmen gegen Groß-Computer etablierter Hersteller" hat uns eine solide IT-Erkenntnis-Souveränität vermittelt. Erkenntnisreich ist dabei die Abfolge der IT-zeitgeschichtlichen Variationen: Beginnend mit "Prozess-Rechner gegen Mainframe", gefolgt von "PC gegen MF", und "Dezentrale Verarbeitung gegen Zentrale Verarbeitung", übrigens auch innerhalb der IBM, auf den Emotions-Kern reduziert "David gegen Goliath". Deshalb sind uns auch zahlreiche weitere in die Irre führenden, scheinbar Erkenntnis-vermittelnde "IT-Kennzahlen" bekannt, die die "Entscheidung x86-Server vs Mainframe-Server" als "Hintergrund-Rauschen" mit beeinflussen. Sie stärken de facto "emotional" die fundamental falschen Ergebnisse des TCO-Algorithmus zur Bestimmung der kostengünstigsten Computer-Architektur für eine neue Anwendung. Deshalb erscheint es uns angemessen, auch in diesem Bereich des Enterprise-Computing einige wesentliche Richtigstellungen vorzunehmen.

Repräsentative Erkenntnisse

So führt z.B. beim Vergleich der verschiedenen Computer-Architekturen der immer noch verwendete "singuläre Vergleich" der "CPU-Kosten" und der "SW-Kosten" ebenfalls in die Irre, da die jeweiligen "repräsentativen Funktions-Einheiten" i.d.R. erheblich unterschiedliche Funktions-Umfänge und Leistungs-Größen und deshalb erheblich unterschiedliche Nutzen-Segmente darstellen. Und schließlich muss auch das jeweils unterschiedliche IT-Infrastruktur-Funktions-Angebot berücksichtigt werden. Wir wollen dies an 4 Beispielen aus der deutschen Versicherungs-Branche mit Status 2016 verdeutlichen:

  • CPU-Total-HW-Kosten-Vergleich MF IBM z14-Server vs x86-Server (⬈ IBM Benchmark)
    • Ein immer noch anzutreffender, unqualifizierter Vergleich sieht wie folgt aus:
      1 Core IBM z14 kostet ca. € 850 Tsd; 1 Core x86-Server kostet ca. € 1 Tsd;
      Die scheinbare Erkenntnis: "Die MF-Server sind zu teuer" ???
      • Qualifizierter Vergleich: Mit Einbeziehung der Betriebs-Kosten, die beim MF-Core 85% niedriger sind als bei den x86-Cores (Benchmark IBM 9-2008) und auf demselben Digitalisierungs-Niveau:
        (1 Core IBM z14 HW-Kosten + HW-Betriebs-Kosten) vs (~73 Cores x86-Server + HW-Betriebs-Kosten für ~73 Cores x86-Server). (⬈ Alternative 2)
    • Erkenntnis: Bei beiden Alternativen sind die CPU-Total-HW-Kosten schon im Online-Segment in etwa gleich hoch!
    • Welches Ergebnis liefert der TCO-Algorithmus zu diesem Teil-Segment?
       
  • Qualifizierter TPP-Vergleich (Total Price Performance) der MF-Architektur mit der x86-Server-Architektur
    • Bei TPP werden verglichen die Summe der Kosten aus (System-HW-Kosten + System-SW-Kosten+ IT-Personal-Kosten (RZ+AE+BS+Verwaltung) + Betriebs-Kosten) bei MF-Servern und x86-Servern auf gleichem Digitalisierungs-Niveau.
    • Erkenntnis: Die TPP der MF-Server ist in der dt. Versicherungsbranche um Faktor 1,72 besser als bei den x86-Servern! (⬈ TPP)
    • Welches Ergebnis liefert der TCO-Algorithmus zu diesem Total-Vergleich?
       
  • SW-Kosten-Vergleich der MF-Architektur mit der x86-Architektur.
    • Ausgangs-Erkenntnis: SW-Kosten und IT-Personal-Kosten sind "komplementäre Größen" und dürfen deshalb bei Vergleichen der verschiedenen Computer-Architekturen nur in der Summe verglichen werden! Daraus folgt:
    • Ein qualifizierter Vergleich auf demselben Digitalisierungs-Niveau hat deshalb folgendes Aussehen: (MF-SW-Kosten + IT-Personal-Kosten MF + Betríebs-Kosten (MF-SW+IT-Personal)) vs (x86-SW-Kosten + IT-Personal-Kosten x86 + Betríebs-Kosten (x86-SW+IT-Personal))
    • Erkenntnis: Die "Summe aus SW-Kosten + Personal-Kosten" ist bei der "MF-Architektur" nur etwa ½ so hoch wie bei der "x86-Architektur". Dabei umfasst dieses IT-Budget-Segment ca. 73% der IT-Budgets: Es ist somit "Entscheidungs-dominant"! (⬈ IT-Bereichs-Optimierung)
       
    • Welches Ergebnis liefert der TCO-Algorithmus zu diesem Teil-Segment?
       
  • Die wichtigste Entscheidungs-Größe liefert der Vergleich der Produktivität der verschiedenen Computer-Architekturen:
    • Ausgangs-Situation: Erstaunlicherweise wird diese fundamentale Größe bisher bei Computer-Architektur-Entscheidungen anscheinend nur "nebenbei" berücksichtigt?!
    • Erkenntnis: In der dt. VB ist die Produktivität der Enterprise-Server von IBM (MFs) i.d.R. 3 Mal besser als die Produktivität der x86-Server! D.h. die IT-Mitarbeiter, die die MF betreuen, "produzieren" insgesamt 3 Mal mehr Anwendungen als die Mitarbeiter, die die x86-Server betreuen. (⬈ IT-Bereichs-Optimierung) Da der Digitalisierungs-Nutzen neuer Anwendungen in den Unternehmen i.d.R. um den Faktor (4-6) höher ist als die Kosten, ergibt sich für den MF ein Digitalisierungs-Nutzen-Vorteil gegenüber den x86-Servern von ca. Faktor 15! (⬈ IT-Nutzen-Potential)
      Ein Entscheidungs-dominanter Unterschied!
       
    • Welches Ergebnis liefert der TCO-Algorithmus zu diesem wichtigsten Teil-Segment?

Unternehmens-individuelle Situations-Analysen

Diese mit unserem "Holistischen Methodischen Lösungs-Ansatz" gewonnenen Erkenntnisse über den ökonomisch besten Einsatz der gegenwärtig bis zu 4 Computer-Architekturen sprechen offensichtlich eindeutig zugunsten des Mainframe. Aus unserem umfangreichen Daten-Material der deutschen Versicherungs-Branche lässt sich die Erkenntnis herausfiltern, dass der MF in dieser Branche bei bis etwa 70% Unternehmens-Arbeitslast das beste Preis/Leistungs-Verhältnis aufweist.

Beim Vergleich der MF-Server-Architektur mit der x86-Server-Architektur liefern erfahrungs-gemäß i.d.R. die folgenden Erkenntnis-Segmente die größten Unterscheidungs-Erkenntnisse bei geringstmöglichem Aufwand:

  1. Das "Produktivitäts-Niveau, das beim MF i.d.R. um etwa Faktor 3 besser ist als bei den x86-Servern und
  2. Das Gesamt-Kosten-Niveau, das bei der "Summe aus SW-Kosten und IT-Personal-Kosten", die i.d.R. beim MF um ca. Faktor 2 niedriger ist als bei x86-Servern. (⬈ Kennzahlen)
Beide Kenngrößen können wir Unternehmens-individuell aus den vorhandenen Daten der IT-Bereiche mit überschaubarem Aufwand mittels Excel-Tabellen errechnen.

Falls diese Unternehmens-individuellen Kenngrößen mit unseren Branchen-weiten Erkenntnisse kompatibel sind, können wir zur Realisierung des damit aufgezeigten IT-Produktivitäts- und IT-Kosten-Einspar-Potentials die dazu benötigten Strategischen "Best-Practice"-Zielgrößen aus unseren Branchen-Erkenntnissen beisteuern.

Die repräsentativen Erkenntnisse lassen sich in den folgen Kennzahlen zusammenfassen:

  • "Produktivitäts-Vorsprung" der MF-Architektur: ~3 Mal besser als x86-Server ergibt ~15 Mal mehr Digitalisierungs-Nutzen ➔ BBO (Best Benefit of Ownership)
  • Summe (SW-Kosten + Personal-Kosten): MF-Kosten nur ~ 50% der x86-Server-Kosten
  • "Total Price/Performance" (TPP): MF ist 1,72 Mal besser als x86-Server
  • Summe Totale (HW-Kosten + HW-Betriebs-Kosten): MF-Kosten nur ~ 50% x86-Server-Kosten!!

Die fundamentale Beschädigung der Enterprise-IT durch den TCO-Algorithmus

Aus unseren Daten-basierten Erkenntnissen ergibt sich mit großer Eindeutigkeit, dass der TCO-Algorithmus für die Auswahl der Kosten-günstigsten Computer-Plattform einer neuen Anwendung immer dann völlig ungeeignet ist, wenn auch MF-Server als Alternative infrage kommen. Denn seine Verwendung richtet dann substantiellen Schaden an in den Bereichen "Digitalisierungs-Fortschritt der Unternehmen" und "IT-Kosten-Aufwand der Unternehmen"! Beim Digitalisierungs-Fortschritt der Unternehmen hat er die Fortschritts-Geschwindigkeit bereits in etwa halbiert. Der dadurch angerichtete "Digitalisierungs-Schaden bei den Unternehmen" geht nach unserer Überschlags-Rechnung weltweit inzwischen in die "Größenordnung von mehreren hundert Milliarden Dollar" und der "Geschäfts-Schaden für die MF-Hersteller" in die Größenordnung eines "höheren 2-stelligen Milliarden Dollar-Betrags", insbesondere im Bereich der hoch-profitablen System-SW! Und dieser Beschädigungs-Prozess ist nach wie vor im vollen Gange und scheint erst in etwa die Hälfte seines vollen Schadens-Potentials erreicht zu haben. Eine rasche Beendigung dieser Fehlentwicklung ist somit auch für die Realisierung der von Politik und Wirtschaft geforderten dynamischen Digitalisierung der Westlichen Länder unabdingbar!

Mit unserem "Holistischen Methodischen Lösungs-Ansatz (HMLA)" können wir nicht nur die Schäden beim Einsatz des TCO-Algorithmus bei den Enterprise-Anwendungen aufdecken, sondern darüber hinaus auch eine Alternativ-Lösung vorschlagen: Unseren BBO-Algorithmus und unsere BBO-Realisierungs-Architektur. Eine kurze Darstellung ist nachfolgend, eine umfassendere Darstellung in unseren weiteren Publikationen, zu finden (TCO: Der Digitalisierungs-Groß-Schaden-Algorithmus).

Unsere qualifizierte Alternativ-Lösung BBO

Wie wir mit Hilfe der theoretischen Zusammenhänge nachgewiesen haben, ist die Bestimmung der "Total Cost of Ownership für eine neue Enterprise-Anwendung aus ihren einzelnen Kosten-Elementen" grundsätzlich unmöglich. D.h., es kann für neue Enterprise-Anwendungen auch keinen wie auch immer gestalteten korrekt messenden alternativen, Additions-geprägten Algorithmus zum falsch messenden TCO-Algorithmus geben!

Der einzige Lösungsansatz, der für die Bestimmung des "Preis/Leistungs-Verhältnisses" für Integrations-geprägte Aufgabenstellungen, wie dem Hinzufügen einer neuen Enterprise-Anwendung zur vorhandenen Enterprise-Verarbeitung nach der Theorie geeignet ist, muss eine "Holistische oder Top-down-Struktur" haben. Zu den vielen "Vorteilen eines Holistischen Ansatzes" zählt, dass er sich relativ einfach und theoretisch "beliebig" differenzieren und in "Heuristischen Modellen" abbilden lässt. Diese Differenzierung kann in ihrem Detaillierungsgrad bis zu den einzelnen "Anwendungs-Gruppen" und den einzelnen "Anwendungen" erfolgen.

Voraussetzung für die Gewinnung qualitativ hochwertiger Erkenntnisse mittels eines Holistischen Lösungs-Ansatzes ist die "Bewältigung der Aufgabenstellung", ein möglichst homogenes Sample zu finden, das aus möglichst vielen Unternehmen besteht und für das qualitativ hochwertiges Datenmaterial verfügbar ist. Die deutsche Versicherungsbranche erfüllt diese Kriterien in hervorragender Weise. Wir gewinnen unser Unternehmens- und IT-Daten-Material durch jährliche Auswertungen der Geschäftsberichte und umfangreicher IT-Daten-Quellen. Sehr hilfreich ist dabei auch eine "Kollaborative Community", mit deren Aufbau wir schon vor ca. 30 Jahren begonnen haben und mit der wir kontinuierlich Daten austauschen und Erkenntnisse diskutieren. Die Haupt-Zielsetzung unseres HMLA ist die "Digitalisierung der Unternehmen auf Best-Practice-Niveau". Dazu korrelieren wir die "Unternehmens-Produktivität" mit der Leistungsfähigkeit der eingesetzten Computer-Lösungen. Dabei ist auch die "Best-Practice-Realisierung des IT-Bereiches" eine zentrale Teil-Zielsetzung. Da in einem Sample-Ansatz auch der "IT-Bereich eine Holistische Größe" darstellt, lässt auch er sich relativ einfach differenzieren und in einer Architektur strukturieren. Mit den entstehenden Erkenntnissen lassen sich nicht nur fehlerhafte Kennzahlen entlarven, sondern auch neue, methodisch richtige Alternativ-Lösungen, wie die Alternativ-Lösung BBO (Best Benefit of Ownership), entwickeln.

Wegen seiner Top-down-geprägten Struktur liegt die Stärke eines Holistischen Methodischen Lösungsansatzes v.a. in den verfügbar werdenden "Strategischen Erkenntnissen und Zielvorgaben". Da aber die Top-down-Differenzierung bis zu den "Anwendungs-Gruppen" und "Einzel-Anwendungen" fortgeführt werden kann, werden auch "Holistische Erkenntnisse über die Einzel-Anwendungen" verfügbar.
Damit lautet unsere Alternative zu dem die Digitalisierung eines Unternehmens stark beschädigenden und zusätzlich hohe IT-Kosten verursachenden TCO-Algorithmus:

➔ BBO Alternativ-Lösung
 
  die in den
  • "Strategischen Erkenntnissen absolut präzise ist", und in den
  • "einzelnen Unternehmens-Anwendungen kontinuierlich besser werdende, da lernfähige Analogie-Schlüsse anbieten kann".

Strategische Enterprise-IT-Entscheidungs-Erkenntnisse

Ein "Daten-basierter Holistischer Methodischer Lösungsansatz" ist vor allem für "Strategische Entscheidungen bestens geeignet und allen anderen Entscheidungs-Ansätzen weit überlegen. Die Antworten auf die wichtigsten Fragen für den IT-Bereich der Unternehmen, nämlich:

  • Welcher zusätzliche Digitalisierungs-Nutzen wäre erzielbar", wenn die Enterprise-IT auf "Best-Practice-Niveau" realisiert würde? Und "wie viel Geld müsste das Unternehmen X für seine IT ausgeben", um den Digitalisierungs-Nutzen auf "Best-Practice-Niveau" zu realisieren?
    sowie
  • Wie viel Geld könnte bei der real-existierenden Unternehmens-IT eingespart werden", wenn sie mit einer Realisierungs-Effektivität und -Effizienz auf "Best-Practice-Niveau" betrieben würde?
können mit vorgebbarer Präzision und mit überschaubarem Aufwand beantwortet werden.

Die Antwort auf die Frage, auf welcher Computer-Plattform eine neue Anwendung am Kosten-günstigsten "realisiert" werden kann, ist zunächst eine Teil-Frage aus dem Fragen-Komplex "Wie viel Geld könnte bei der real-existierenden IT eingespart werden?" Beim Beantwortungs-Prozess ergeben sich i.d.R. schon im ersten Schritt, bei "der Differenzierung der IT-Landschaft eines Unternehmens" in die gegenwärtig bis zu 4 möglichen Computer-Plattformen, ausreichend klare strategische Erkenntnisse! Für weniger charakteristische Einzel-Anwendungen kann der nachfolgend skizzierte Lösungsansatz verwendet werden.

Singuläre Enterprise-Anwendungs-Entscheidungen

Um auch für "weniger charakteristische Unternehmens-Einzel-Anwendungen" ausreichend genaue Aussagen über die "Totalen Kosten" und den "Totalen Unternehmens-Nutzen" machen zu können, werden die Ergebnisse der Differenzierung in die gegenwärtig bis zu 4 Computer-Plattformen weiter differenziert bis zu den "Einzelnen Anwendungs-Gruppen" und eventuell bis zu den "Einzelnen Anwendungen". Dadurch werden für "Neue Enterprise-Anwendungen" durch Analogie-Schlüsse gewinnbare Beurteilungen mit vorgebbarer Genauigkeit verfügbar. Dabei entsteht ein Beurteilungs-Instrumentarium, das sowohl Unternehmens-individuell als auch mit gleich-interessierten Unternehmen bis zu einem definierbaren Qualitäts-Niveau entwickelt und aktualisiert werden kann.

Zusammenfassend lässt sich feststellen, dass unsere "qualifizierte Alternativ-Lösung BBO"
  • den Anforderungen der Theorie uneingeschränkt entspricht,
  • mit State-of-the-Art-Algorithmen realisiert ist,
  • ausschließlich aus Daten besteht,
  • die Ergebnisse kompakt, fast auf einem "Bierdeckel", darstellen kann,
  • die Realisierung durch ihre Architektur-Struktur unterstützt,
  • beliebig erweitert und verbessert werden kann.
Schlussfolgerung:
Die Enterprise-IT wird ihr überragendes Potential zur
  • "Leistungs-Steigerung der Unternehmen" und zur
  • "Steigerung des Wohlstands der Nationen" nur erbringen können, wenn die
  • "Fehlsteuerung der IT-Ressourcen beendet" und der
  • "Einsatz der IT-Ressourcen nach ökonomischen Zielvorgaben" umgehend realisiert wird.

Essay-Version in Präsentations-Form


  • Die Enterprise-IT in der Sackgasse
  • TCO
  • MF Kennzahlen
  • Die Überlegenheit der MF-Server
  • IT-Nutzenpotential VZ Leben
  • BBO als Qualifizierte Lösungsalternative

Erkenntnisse: Die Enterprise-IT in der Sackgasse:

Daten-basierte Analysen

Das Digitalisierungs-Missverständnis

Die "sogenannte Digitalisierung" wird seit wenigen Jahren erstaunlicherweise insbesondere in Deutschland auch bei Politikern und Führungskräften als Heilmittel propagiert zur "Beseitigung des ansonsten von ihnen nicht beherrschten Fachkräftemangels". Damit unterscheidet sich die gegenwärtige Einstellung zur IT erstaunlicher Weise fundamental von der Situation in den 90’er Jahren des letzten Jahrhunderts, in der die "Computer insbesondere von sogenannten Linken Gruppierungen als Job-Killer" diffamiert worden sind und zur Lösung der angeblich unvermeidbaren Job-Verluste beim zukünftigen verstärkten Computer-Einsatz die 35 Stunden-Woche in Deutschland und vielen anderen Europäischen Ländern eingeführt worden ist. Wie unsinnig diese Prognose war zeigt z.B. die Entwicklung der Anzahl der Arbeitsplätze in Deutschland von 1990 bis heute, 2018: Die ist von etwa 38 Millionen in 1990 auf inzwischen 44,6 Millionen angestiegen! Erstaunlicherweise lautet die Hypothese dieses Mal: Die forcierte Digitalisierung in den Unternehmen könnte den weiter ansteigenden Fachkräftemangel lösen, allerdings wiederum ohne qualifizierte Darstellung eines Erfolg-versprechenden Lösungsweges. Für die IT ergäbe sich als Konsequenz aus dieser Hypothese, dass für sie die goldenen Zeiten sogar noch verstärkt weitergehen werden. Die exzeptionellen Börsen-Wertsteigerungen vieler Unternehmen der IT-Branche sowie ihre Umsatz- und Gewinn-Steigerungen scheinen dies zu bestätigen.

Bei einer qualifizierten Analyse der Situation der gegenwärtigen IT-Branche wird aber sofort erkennbar, dass diese Hypothese zur Beseitigung des Fachkräftemangels auf zwei fundamentalen Missverständnissen beruht! Denn als erstes zeigt sich, dass sich die IT-Branche seit mehr als 10 Jahren in mindestens 2 völlig unterschiedliche Branchen-Segmente aufgeteilt hat: Zur "klassischen" Enterprise-IT (E-IT) hat sich die "Private-IT" hinzugesellt, gebildet insbesondere von den IT-Unternehmen des "Silicon Valley" (+Seattle). Bei dieser Differenzierung wird sofort erkennbar, dass es nur dem Private-IT-Segment, das inzwischen das Image der IT-Branche dominiert, hervorragend geht und dass dessen Erfolge die IT-Laien, wie Politiker, Wirtschafts-Journalisten und Dax-Vorstände in die Irre führen.

Denn der "für die Digitalisierung der Unternehmen ‚zuständigen‘ Enterprise-IT" geht es seit mehr als 10 Jahren immer schlechter bis inzwischen miserabel, wie sich am Beispiel der IBM und von HPE erkennen lässt: Die IBM z.B., der immer noch größte Anbieter von E-IT-Produkten und –Lösungen, hat in 20 aufeinander folgenden Quartalen (ab 2013) Umsatz-Rückgänge und Stagnierung beim Gewinn hinnehmen müssen. Eine Erkenntnis-starke Kennzahl für die Fehlentwicklung der E-IT ist der stark abnehmende, den IT-Unternehmens-Nutzen produzierende Computer-Leistungsverbrauch, der sich von ehemals 20-25%/Jahr auf nur noch 10-12%/Jahr halbiert hat. Das hat anscheinend eher unbemerkt auch zu einem wesentlich geringeren Digitalisierungs-Fortschritt in den Unternehmen geführt! Und diese beiden, komplementären Entwicklungen transportieren dieselbe eindeutige Botschaft: Die Enterprise-IT-Entwicklung ist offensichtlich systematisch auf den Weg in eine Sackgasse geraten! Die Lösung des Fachkräfte-Mangels durch verstärktem Enterprise-Computer-Einsatz ist somit ohne fundamentale Korrektur der Enterprise-IT-Entwicklung illusorisch!

Da diese "holistischen Kennzahlen" die in der IT-Branche üblicherweise beschäftigten "Nerds" i.d.R. weder kennen noch interessieren, erkennen sie auch nicht eine der wichtigsten Ursachen für diese Entwicklung, für die sie aber de facto stark mitverantwortlich sind: Nämlich die inzwischen allgemeine, unkritische Verwendung des viel zu "trivialen Entscheidungs-Algorithmus TCO" zur Bestimmung der preiswertesten Computer-Architektur-Alternative für neue Anwendungen.

TCO: Der Digitalisierungs-"Groß-Schaden"-Algorithmus

Den größten Schaden im nach wie vor volkswirtschaftlich mit großem Abstand wichtigeren IT-Segment "Enterprise- bzw. Unternehmens-IT" hat inzwischen der offensichtlich viel zu triviale "TCO Algorithmus" angerichtet! Denn dieser von Bill Kerwin, Mitarbeiter der Gartner Group, 1987 für das Marketing der Microsoft Betriebs-SW entwickelte Algorithmus "misst" im Enterprise-Computer-Umfeld die Kosten falsch, d.h. viel zu hoch, und zusätzlich den Nutzen unvollständig, d.h. viel zu niedrig!

Wer für diese seit langem bekannte, unbefriedigende Situation eine qualifizierte Lösung finden will, der sollte natürlich als erstes die Frage nach der Ursache für diese Situation zu beantworten versuchen. Unsere Erkenntnis lässt sich wie folgt zusammenfassen: Nachdem MS nach dem Einführungs-Annoucement des PC durch die IBM, gesteuert durch Betriebs-SW von MS, im Sommer 1981 die Herrschaft über die Software des PC errungen hatte, stellte sich für MS als nächstes die strategische Frage nach zukünftigen Wachstums-Potentialen für ihr Nischen-Produkt. Eine völlig normale Situation bei Start-up-Unternehmen und auch in der IT-Branche absolut üblich. Da die Hardware der PCs immer leistungsfähiger geworden war, konnte sie auch einen immer größer werdenden Anteil der Verarbeitungs-Prozesse übernehmen, insbesondere die Anteile bei den End-Benutzern. Wegen der dazu benötigten Daten "vor Ort" mussten allerdings die PCs dafür zu Client/Server-Konzepten weiter entwickelt werden mit bereits spezialisierten, leistungsfähigen Servern. Die evolutionäre Weiterentwicklung zum "Stand-alone-x86-Server" war damit quasi automatisch vorgezeichnet: Der TCO-Algorithmus war das benötigte "Marketing-Tool" zur Umsetzung dieser MS-Marketing-Strategie! Und für diejenigen, die es noch nicht wissen sollten: Typisches US-Marketing heißt Produkte verkaufen nicht Kunden-Interessen best-möglich zu befriedigen, auch wenn das immer wieder propagandistisch herausgestellt wird! Mit dieser Konstellation nahm eine fundamentale Fehlentwicklung der Enterprise-IT ihren Lauf, basierend auf den üblichen evolutionären Entwicklungen der heutigen Zeit, für die immer noch kein qualifiziertes Controlling entwickelt worden ist, das Fehlentwicklungen baldmöglichst aufzeigt. Und sie ist erstaunlicherweise immer noch nicht korrigiert worden, obwohl es Hinweise auf diese Fehlentwicklung inzwischen zuhauf gibt!

Die falschen Ergebnisse beim Einsatz des TCO-Algorithmus bei Anwendungen auf dem Mainframe entstehen, weil die "Einzel-Elemente des TCO-Algorithmus" ganz offensichtlich nur auf die Bewertung einer singulären, sogenannten Stand-alone-Lösung und deren Realisierung auf einem dedizierten Computer ausgelegt ist, ein aus der Sicht des Computer-Einsatzes von MS 1987 durchaus verständlicher Ansatz: An dieser Stelle der Analyse muss aber fairerweise die Frage gestellt werden, wer die fundamentale Fehlentscheidung getroffen hat, diesen Ansatz auch auf den Einsatz bei MF-Servern zu übertragen? Denn beim Hinzufügen einer "Neuen Anwendung auf einem Enterprise-Computer" handelt es sich ganz offensichtlich um "eine Integration" und keines Falls um "eine triviale Addition!" Die zu erwartenden "zusätzlichen Kosten bei der Erweiterung integrierter Lösungen", wie beim MF, deren Bestimmung vergleichbar ist mit der bei anderen integrierten Lösungen, wie z.B. dem "integrierten Transport" in einem "Flugzeug", der "Bahn" oder einem "Bus", lassen sich deshalb mit einem "additiven Ansatz", wie dem TCO-Algorithmus, grundsätzlich nicht berechnen. Prognostizierbar ist dagegen, dass der TCO-Algorithmus die "angeblich Totalen Kosten der Erweiterung einer integrierten Lösung" viel zu hoch prognostiziert! Hier zeigt sich leider typisches US-Amerikanisches, angeblich pragmatisches Marketing, das in Wirklichkeit aber i.d.R. veritables "Product Excellence Marketing-Geschwafel" ist, ohne ernsthafte objektive Aufklärungs-Absicht! Der Hauptschaden durch den TCO-Algorithmus entsteht aber insbesondere durch das "Nichtvorhandensein von Einzel-Elementen zum Messen der Nutzen-Unterschiede der verschiedenen Computer-Architekturen: Insbesondere der Produktivitäts- und der Daten-Schutz-Unterschiede": Da der Produktivitäts-Unterschied zwischen den "MF der IBM" und den "x86-Servern von Intel/MS/xy" i.d.R. etwa 3:1 beträgt und sich dieser Unterschied auf die Digitalisierung in den Unternehmen auf etwa Faktor 15 vergrößert, ergibt sich daraus die Erkenntnis, dass der TCO-Algorithmus offensichtlich einer der Haupt-Verantwortlichen für die Misere der Enterprise-IT zu sein scheint. Was des Weiteren, insbesondere in der heutigen Zeit, immer schmerzlicher vermisst wird, ist eine Abschätzung der Risiken der unterschiedlich leistungsfähigen Datenschutz-Funktionen der verschiedenen Computer-Architekturen!

Der allgemein übliche, generelle Einsatz des TCO-Algorithmus in der E-IT, der vor ca. 15-20 Jahren begonnen hat, hat inzwischen zu horrenden IT-Fehlinvestitionen in den Unternehmen geführt. Er ist darüber hinaus einer der Hauptgründe für die Verhinderung einer ansonsten möglichen viel höheren Digitalisierungs-Geschwindigkeit, wodurch riesige Digitalisierungs-Gewinne verpasst worden sind und auch der Fachkräfte-Mangel mitverschuldet worden ist!

Ein weiterer Hauptgrund für die Misere bei der Digitalisierung der Unternehmen ist aus unserer Sicht die immer noch fehlende "Kennzahl für den IT-Nutzen-Beitrag der Digitalisierung" in den Unternehmen, die als Planungsgröße bei der Strategischen Unternehmensplanung eine zentrale Rolle spielen würde. Auch dafür haben wir einen Lösungsansatz entwickelt. Er ist unter (www.is-oc.com) zu finden.


Beweisführung für die These:

Der TCO-Algorithmus "berechnet" Kosten und Nutzen einer zusätzlichen Anwendung auf dem MF methodisch falsch und essentiell unvollständig:
➔ "Berechnet" die Kosten viel zu hoch
➔ "Misst" den Nutzen viel zu niedrig

Dass diese Thesen starker "IT-Tobak" sind, ist uns natürlich geläufig. Er erscheint uns aber leider notwendig, um endlich eine Wende in der Fehlentwicklung der Enterprise-IT herbeizuführen, die v.a. durch die allgemeine Verwendung des TCO-Algorithmus verursacht wird. Und aufgrund unserer etwa 40 jährigen Erfahrung auf praktisch allen für dieses Thema Lösungs-relevanten Gebieten, davon mehr als 20 Jahre in für diese Thematik verantwortlichen Führungspositionen bei IBM, dürften wir auch ausreichend qualifiziert sein.

Ein dediziertes, singuläres Lösungs-Modell, wie beim TCO-Algorithmus offensichtlich realisiert, kann die folgenden "Vorteile integrierter Lösungs-Situationen", wie sie beim Enterprise-Computing, realisiert mit Mainframes, Standard sind, grundsätzlich nicht darstellen. Die Vorteile lassen sich in 2 Ebenen untergliedern:

  • Auf der 1. Ebene lassen sich die "Vorteile durch gemeinsame Nutzung von Funktionen in großen, integrierten IT-Einheiten" zusammenfassen mit den Einzel-Bereichen:
    • Economy-of-Scale-Vorteile
    • Synergie-Effekte
    • wesentlich mehr Funktionen zur Produktivitäts-Steigerung
    • geringerer Integrations- und Evolutions-Aufwand
    • geringerer System-Overhead
    Schon die Aufgliederung der "Fähigkeiten integrierter IT-Lösungen", wie beim MF, lässt über Analogie-Erkenntnisse aus anderen integrierten Lösungen die Schlussfolgerung zu, dass bei integrierten Lösungen in der IT ebenfalls wesentliche Vorteile gegenüber "singulären IT-Lösungsansätzen, wie beim TCO-Algorithmus", vorhanden sein werden.
  • Auf einer 2. Ebene lassen sich die Vorteile integrierter Lösungen durch die "viel bessere Auslastung vertikal und horizontal" mit den folgenden Einzel-Bereichen zusammenfassen:
    • längere Betriebszeiten
    • höhere System-Auslastung
    • geringere Performance-Degradation bei Multi-Processing.
    Die Computer-Architektur-Einsatz-Unterschiede dieser 2. Ebene werden vom TCO-Algorithmus nur teilweise oder gar nicht abgebildet! Auf dieser 2. Ebene ist bemerkenswert, dass der MF praktisch bei allen Einzel-Bereichen wesentlich besser abschneidet als die x86-Server!

Der TCO-Algorithmus "berechnet" die Kosten des MF viel zu hoch

Parallel zur zunehmenden Berufserfahrung im Vertrieb und im Marketing bei IBM, hat sich bei uns die Überzeugung entwickelt, dass das "triviale US-Amerikanische Product-Excellence-Marketing" immer weniger in der Lage ist, die durch die dynamische IT-Evolution zunehmenden Fähigkeiten der Informationsverarbeitung angemessen darstellen, d.h. ihren "Nutzen für die Anwender" sowie "das Geschäfts-Potential für die IBM" in Daten-geprägter Form aufzuzeigen. Deshalb haben wir beginnend Ende der 70’er Jahre, anlässlich eines 2-jährigen Assignments bei der IBM USA, einen "Holistischen Methodischen Lösungsansatz" entwickelt mit der Zielsetzung, für Kunden- und Vertriebs-Entscheidungen den "IT-Unternehmens-Nutzen und die zur Realisierung notwendigen IT-Investitionen auf Best-Practice-Niveau in Preis/Leistungs-Datenform" als Ausgangs-Basis verfügbar zu machen. Ein derartiger Ansatz realisiert übrigens die beste aller Vorgehensweisen, nämlich "Winners-only"-Lösungen! Und er ermöglicht auch hoch produktive IT-Lösungs-Realisierungen und Marketing-Unterstützung.

Dabei gewinnen wir die Erkenntnisse durch "Benchmarking" der "Schwarmintelligenz" eines repräsentativen Samples als "Erkenntnis-Plattform". Gegenwärtig ist unser Sample die deutsche Versicherungswirtschaft, deren Daten-Material, Unternehmens- und IT-Daten wir jährlich u.a. mit Hilfe unseren "Kollaborativen Community" aktualisieren. Da ein holistischer Lösungsansatz theoretisch alle Einzel-Lösungen enthält und relativ einfach differenzierbar ist, lassen sich auch neue Fragestellungen beantwortbar machen, wie z.B. die Analyse des TCO-Algorithmus auf seine Aussage-Qualität. Dazu können wir unseren "Holistischen Lösungsansatz für den IT-Bereich der deutschen Versicherungsbranche" verwenden, der ein Teil-Bereich unseres "Holistischen Lösungsansatzes für den Unternehmens-IT-Einsatz auf Best-Practice-Niveau" für die deutsche Versicherungsbranche ist. Struktur und Datenmaterial unseres "Holistischen Lösungsansatzes für den Unternehmens-IT-Einsatz", die in einer "1-seitigen Excel-Tabelle" zusammengefasst sind, sind unter (⬈ IT-Bereichs-Optimierung) dargestellt. Diese Excel-Tabellen existieren seit etwa 30 Jahren für etwa 100 Versicherungsunternehmen. Sie werden jährlich aktualisiert und bei Bedarf erweitert. Alle Erkenntnisse sind vollständig "Big-Data-basiert" und "algorithmisierbar".

Da sich der Wettbewerb der Computer-Architekturen inzwischen insbesondere zwischen der "kommerziellen Mainframe-Architektur" und der "aus der PC-Architektur abgeleiteten x86-Server-Architektur" abspielt, wollen wir unsere Analyse des "TCO-Algorithmus" auf diese beiden Architekturen konzentrieren. Als repräsentatives Sample erscheint uns die deutsche Versicherungs-Branche (dt. VB) gut geeignet. Aus diesem Sample haben wir die folgenden Erkenntnisse gewonnen:

  1. Ausgangs-Erkenntnis jeder "strategischen Computer-Architektur -Entscheidung" ist der Vergleich der "Totalen Preis/Leistungs-Verhältnisse" und nicht nur der Kosten.
    • In der dt. VB lautet das Ergebnis des Vergleichs MF vs x86-Server: 1,72 zugunsten des MF, was sehr Viele verblüffen dürfte!
      (⬈ TPP)
      Dabei folgt die Darstellung der Bezeichnung "Preis pro Ressourcen- oder Unternehmens-Nutzen-Einheit". Und korreliert werden natürlich die "Best-Practice-Niveaus (BP): D.h. x86-Server = 5,00 mit MF-Server = 2,90. Das Ergebnis lautet somit 5,00 / 2,90 = 1,72, d.h. die Kosten pro Unternehmens-IT-Nutzen-Einheit sind bei den x86-Servern 72% höher als bei den MF-Servern.

       
    • Welches Ergebnis liefert der TCO-Algorithmus bei dieser Strategischen Zielsetzung?
  2. Die fundamentale Überlegenheit des MF bei der Enterprise-IT zeigt sich u.a. im "System-SW-Bereich", wenn man die Kosten ihn in ihrer "Gesamt-Logik" vergleicht. Von ihrer Aufgabenstellung her betrachtet ersetzt funktionsreiche System-SW die ansonsten benötigten IT-MA. Je funktionsreicher die System-SW ist, desto weniger IT-Mitarbeiter werden zur Realisierung der IT-Aufgaben im RZ, der Anwendungs-Entwicklung und dem Benutzer-Service benötigt. Da das Enterprise-Computing schon seit den 50’er Jahren den Kernbereich der Unternehmens-IT bildet, ist der Automatisierungs-Grad im MF-Bereich naturgemäß schon sehr weit fortgeschritten und allen anderen Computer-Architekturen weit überlegen. Insbesondere auch deshalb, weil die anderen Architekturen nur für Spezial-Aufgaben ausgelegt sind.
    • Der "Preis/Leistungs-Vergleich" der Kombination "System-SW-Kosten + IT-Personal-Kosten + IT-Personal-Betriebskosten" geht deshalb in der dt. VB mit einem Faktor von ca. 2:1 zugunsten des MF aus. Dabei ist dieses IT-Segment Entscheidungs-dominant, da es in etwa 73% des gesamten IT-Budgets ausmacht! (⬈ IT-Bereichs-Optimierung)
       
    • Welche Erkenntnisse liefert der TCO-Algorithmus in diesem IT-Segment?
  3. Eine heutzutage nicht mehr verständliche Verwirrung stiftet oft immer noch der viel zu simple Vergleich der CPU-HW-Kosten
    Der "simple" Vergleich der Kosten einer MF-Server-CPU mit der x86-Server-CPU sieht dabei wie folgt aus: 1 Core des IBM MF-Systems z14 (angekündigt 7/2017) kostet gegenwärtig ca. € 850 Tsd während 1 x86-Server-Core für nur ca. € 1,0 Tsd zu bekommen ist: Ein scheinbarer Kosten-Unterschied von Faktor 850:1?. Kann bei diesem "horrenden Kosten-Unterschied" nicht schon die Entscheidung zugunsten der x86-Server gefällt werden? Dann wäre sie allerdings völlig falsch:
    1. Denn zum einen ist zu berücksichtigen, dass sich die "Kommerzielle Leistungsfähigkeit" dieser beiden CPUs sehr stark unterscheidet.
    2. Und zum anderen und ebenfalls sehr bedeutend ist der Unterschied bei den "HW-Betriebs-Kosten" in den Bereichen Stromversorgung, Kühlung und Rechenzentrumsfläche: Ein IBM-Benchmark (⬈ Benchmark) hat ergeben, dass die x86-Server 6,7 Mal höhere HW-Betriebs-Kosten verursachen als ein MF-Server mit gleicher Leistungsfähigkeit: Daraus ergibt sich die wesentliche
      Erkenntnis:
    • Ein qualifizierter Vergleich der "Totalen HW-Kosten", nämlich für die "System-HW-Kosten + Betriebs-Kosten der System-HW" bei gleicher Leistungsfähigkeit fördert folgenden Erkenntnisse zutage: Der "Totale HW-Kosten-Unterschied" beträgt nicht scheinbar Faktor 850:1 zugunsten der x86-Server sondern lautet tatsächlich etwa Faktor 1:2 zugunsten des MF! Dabei ist noch nicht berücksichtigt, dass der MF auch die sehr viel bessere Datensicherheit bietet!
       
    • Eine spannende Frage an dieser Stelle der Analyse lautet: Welches Zwischen-Ergebnis kann der TCO-Algorithmus vorweisen?
       
      Dass der Vergleich der Kosten "einzelner Lösungs-Komponenten integrierter Lösungen" total in die Irre führen kann, zeigt auch der Vergleich einer allgemein bekannten Wettbewerbs-Situation aus dem Reise-Bereich bei den Alternativen "integrierte Lösung Flugzeug" oder "singuläre Lösung Taxi": Obwohl der Kaufpreis eines z.B. A320neo, ca. 2.160 Mal höher ist als der eines Mittelklasse-Wagens, z.B. der E-Klasse, beträgt der "HW-Kosten-Anteil" bei einer Reise von z.B. 600 Km von München nach Berlin im Flugzeug nur ca. 46% derjenigen für das Auto, q.e.d. Einzelheiten zu diesem Beispiel sind im Kapitel (Vertiefung des Verständnisses intergrierter Lösungs-Ansätze) zu finden.
  4. Der TCO-Algorithmus kann bei den Enterprise-Systemen die tatsächliche zusätzliche Belastung durch eine neue Anwendung vertikal und horizontal und damit die tatsächlichen Gesamt-Kosten einer neuen Anwendung nicht bestimmen.
      Da heutzutage neue Anwendungen Online-Anwendungen sind, deren Benutzer i.d.R. nur 8 Stunden mit höchsten Einsatz aktiv sind, stellt sich bei der Berechnung der Kosten einer neuen Anwendung auf dem MF auch die Frage nach "einer sinnvollen Verwendung der Verarbeitungs-Kapazität für die Online-Anwendung während der weiteren 16 Betriebsstunden" des üblichen 24-Stunden-Betriebs, also der "gesamten zusätzlichen horizontalen Kapazität". Die übliche Alternative heißt "Benutzung durch Stapel-Verarbeitung", deren Kosten-Einsparung aber verrechnet werden müssen. Oder aber Verkürzung des aktiven RZ-Betriebs mit ebenfalls zu verrechnenden Kosten-Einsparungen.
     
    • Wie wird dieser Vorteil beim Enterprise-Computing beim TCO-Algorithmus berücksichtigt?
       
      Bei der "vertikalen Kapazitäts-Auslegung" von Online-Anwendungen gibt es bekanntlich die Notwendigkeit der Vorhaltung von Kapazitäts-Reserven zur Realisierung kurzer Antwortzeiten. Dabei sollte die Leistungsfähigkeit für Transaktions-Spitzenlasten ca. 10 Mal höher sein als die Durchschnitts-Belastung. Bei Einzel-Anwendungs-Lösungen führt diese Notwendigkeit zur Realisierung einer guten End-Benutzer-Produktivität zu Konzept-immanent bedingten zusätzlichen Kosten. Bei einem tief-gestaffelten Enterprise-Multi-Programming mit einer dafür benötigten insgesamt hohen System-Leistungsfähigkeit, wie beim Einsatz von MFs üblich, wird diese Aufgabe durch Prioritäts-Steuerung relativ einfach und ohne zusätzliche Kapazitäts-Anforderungen gelöst.
     
    • Wie wird dieser Vorteil beim Enterprise-Computing beim TCO-Algorithmus berücksichtigt?
       
      Und auch die Größe der "Performance-Degradation bei Multiprocessing", die bei den MFs ab 1970 bei den damals noch existierenden, als BUNCH zusammengefassten MF-Herstellern vorsichtig, da mit vielen Herausforderungen kämpfend, vorangetrieben worden ist, ist bei den x86-Servern für kommerzielle Anwendungen weitgehend ungeklärt!
    • Welche zusätzlichen Kosten entstehen bei Anwendungen auf x86-Servern durch Performance-Degradation bei Multiprocessing?
  • Zusammenfassend kann festgestellt werden: Schon die "Ergebnisse eines qualifizierten Kosten-Vergleichs MF-Server vs x86-Server" gehen mit großer Eindeutigkeit zugunsten des MFs aus!

Der TCO-Algorithmus "misst" den Nutzen des MF viel zu niedrig

Wegen des singulären, Anwendungs-zentrierten Lösungsansatzes ist den Entwicklern des TCO-Algorithmus oder aber seinen Anwendern offensichtlich verborgen geblieben, dass es bei der "integrierten Informationsverarbeitung", wie beim Enterprise Computing auf den MFs, Nutzen-Effekte jenseits der singulären Anwendungen gibt. Allgemein bekannt sind bei großen Lösungseinheiten die Vorteile durch "Economy-of-scale-" und "Synergie-Effekte". In der Unternehmens-IT kommt noch der Vorteil durch verringerten "Integrations- und Evolutions-Aufwand" dazu.
Der mit Abstand größte Nutzen, den der TCO-Algorithmus nicht abbilden kann, ist aber in den Bereichen
- "Produktivitäts-Unterschiede der Computer-Architekturen"und
- "unterschiedlicher Datenschutz bei den Computer-Architekturen"
angesiedelt!

Diese beiden IT-Nutzen-Funktionen wollen wir deshalb etwas ausführlicher abhandeln.

Produktivitäts-Unterschiede der Computer-Architekturen

Auch in den IT-Bereichen der Unternehmen gilt die fundamentale IT-Einsatz-Erkenntnis, dass die algorithmisierbaren Geschäftsprozesse alternativ durch "Human-Ressourcen" oder "Computer-Ressourcen" realisiert werden können. Voraussetzungen für die tatsächliche Realisierung sind "vorhandene Lösungen" und die "ökonomische Rechtfertigung". In den IT-Bereichen der Unternehmen betrifft das insbesondere die Rechenzentren, die Anwendungsentwicklungen und die Benutzer-Service-Bereiche. Aus dieser Erkenntnis-Theorie folgt, dass die "Software-Kosten und Personal-Kosten immer in Summe" in einer Best-Practice-Kombination zu realisieren sind. Denn die "gesamte Software und ihre Funktionen sind die Produktivitäts-Werkzeuge" für die IT-Mitarbeiter!

An dieser Stelle der Analyse lässt sich bereits vermuten, dass es wahrscheinlich bei den gegenwärtig 4 Computer-Architekturen erhebliche Produktivitäts-Unterschiede geben dürfte, da sich auch die Zielsetzungen für die verschiedenen Computer-Architekturen fundamental unterscheiden! Deshalb sollte eigentlich Keiner überrascht sein wenn er mitgeteilt bekommt, dass z.B. in der dt. VB die Produktivität der MF-Server i.d.R. etwa 3 Mal so hoch ist wie die der x86-Server! Die Überraschung besteht aus unserer Sicht eher darin, dass es außer uns offensichtlich noch Niemand bemerkt hat. Dabei ist die Produktivität auch im IT-Bereich eine fundamentale Größe, da sie sich auf den Digitalisierungs-Fortschritt in den Unternehmen mit i.d.R. Faktor 4-6 auswirkt und der Digitalisierungs-Vorteil des MF somit sogar auf ca. Faktor 15 ansteigt! Das bedeutet: Der Produktivitäts-Vorsprung des MF ist bereits Entscheidungs-dominant! (⬈ IT-Nutzen-Potential)

Darüber hinaus beeinflusst auch die innere Struktur der verschiedenen Computer-Architekturen die Produktivität: CISC- oder RISC-Instruktions-Sätze, Ein-Adress- oder Zwei-Adress-CPUs und selbständige Ein/Ausgabe-Subsysteme oder CPU-gesteuerte Ein/Ausgabe usw. ergeben sowohl eine unterschiedliche Produktivität als auch eine unterschiedliche Leistungsfähigkeit der Computer-Architekturen!

  • Welche Daten-basierten belastbaren Erkenntnisse liefert der TCO-Algorithmus über diese fundamentale Einflussgröße?

Datenschutz-Unterschiede der Computer-Architekturen

Die Themen "Datenschutz" und "Datensicherheit" der Unternehmens-IT sind schon seit Ende der 70’er Jahre ins Bewusstsein der IT-Fachleute gelangt: Insbesondere wurde zunächst für das Thema Datensicherheit mit dem Übergang von der Stapel- zur Online-Verarbeitung eine Lösung notwendig. Aus dieser qualitativ neuen Situation ergab sich die Notwendigkeit der Aufrechterhaltung des End-User-Service auch bei Ausfall des RZ durch einen Katastrophenfall. Die wichtigsten Lösungen-Erkenntnisse, an deren Entwicklung wir übrigens wesentlich beteiligt waren, sind Duplizierungen der wichtigsten IT-Funktionen, sowohl funktional als auch räumlich: Deshalb wird seither die Zentrale Informationsverarbeitung auf i.d.R. 2 MF-Server verteilt, die auch räumlich getrennt betrieben werden können.

Interessant ist der Ansatz für die Datensicherheit deshalb, weil er nach unserem Erkenntnisstand eine konzeptionelle Ähnlichkeit mit dem Thema Datenschutz aufweist: Auch beim Durchbrechen der Datenschutz-Funktionen der Computer wird von den Angreifern versucht, eine "Katastrophe in Form eines System-Absturzes" herbeizuführen, um anschließend die dadurch geschwächte System-Abwehr zu überwinden. Diese Schwäche-Situation lässt sich beseitigen, wenn zunächst auf ein voll intaktes Back-up-System umgeschaltet werden kann. Anschließend kann das Haupt-System wieder im Originalzustand hochgefahren werden.

Die Herausforderung: Bei den üblicherweise sehr Preis-sensitiven x86-Servern verursacht ein derartiger, Funktions-duplizierender Ansatz zusätzliche Kosten, insbesondere im Kosten-Segment Betriebs-Kosten, die auch gegenwärtig schon extrem hoch sind, und auch bei den System-SW-Kosten. Da die Notwendigkeit für diese zusätzlichen Kosten schwierig begründbar und außerdem immer auch mit einem Eingeständnis der konzeptionellen Funktionsschwäche der x86-Server verbunden ist, versuchen die Verantwortlichen dieses Thema i.d.R. "zu negieren". Bei den MF-Servern sind diese Funktions-Verdoppelungen nicht notwendig, weil ein bereits 1972 eingeführtes LPAR-Konzept, d.h. "multiple virtuelle Adressräume" per Mikrocode realisiert - gegenwärtig sind bis zu 85 Adressräume möglich -, ein Eindringen in den Systembereich mit der Zielsetzung eines Systemabsturzes unmöglich macht!

Die Datenschutz-Unterschiede der MF-Architektur und der x86-Server-Architektur lassen durch die Antworten auf die folgenden Fragestellungen bewertbar machen:

  • Wie hoch sind die Kosten zur Erhöhung des Datenschutzes bei den x86-Servern auf MF-Niveau?
  • Wie hoch sind die Risiko-Kosten in den Unternehmen durch den Risiko-Abdeckungs-Unterschied?
  • Welche Kosten- und Nutzen-Kalkulation bietet der TCO-Algorithmus?
Ein "Holistischer Lösungs-Ansatz" kann "zusätzliche Kosten" und "Unternehmens-Nutzen" einfach und mit wenig Aufwand abschätzen.


Bestimmung der "Kommerziellen Leistungsfähigkeit der x86-Server" mittels 4 Methodischer Lösungsansätze

Einer der Hauptgründe für die Fehlentwicklung des Einsatzes der gegenwärtig bis zu 4 Computer-Architekturen liegt auch in der fehlerhaften Einschätzung der "Kommerziellen Leistungsfähigkeit der 4 Computer-Architekturen". Dabei zeigt sich erneut, dass die bisher verwendeten Prognose-Algorithmen de facto US-Amerikanisch-geprägte, vereinfachende "Einzel-Anwendungs-Modelle" verwenden, die das Kommerzielle Unternehmens-IT-Verarbeitungs-Umfeld nur sehr mangelhaft abbilden. Einzel-Anwendungs-Modelle sind Single-stream-Performance geprägt. Sie eignen sich einigermaßen zum Messen der Leistungsfähigkeit für Technisch/Wissenschaftliche Anwendungen. Bei Kommerziellen Anwendungen dagegen wird die Leistungsfähigkeit von Computern mit Funktions-einfachen, RISC-geprägten Architekturen, wie der Architektur der x86-Server, zum Teil grotesk überbewertet.

Wir haben deshalb auf der Basis von ca. 15 Jahren Berufserfahrung mit Mainframes, von IBM und Wettbewerbern, Prozess-Rechnern verschiedener Hersteller und x86-Servern sowie umfangreicher Computer-Architektur-Analysen und Diskussionen mit Computer-Architektur-Experten einen eigenen "einheitlichen Maßstab" zum Messen der "Kommerziellen Leistungsfähigkeit" von "Mainframes", "p-Servern", "x86-Servern und "PCs+Cllienten-Servern" entwickelt. Diese Aufgabe mussten wir leider übernehmen, da es erstaunlicherweise im Bereich der Kommerziellen IT immer noch keinen einheitlichen Maßstab für die 4 Computer-Architekturen gibt, bemerkenswerterweise nicht einmal in der IBM für ihre z-Server und p-Server! Den einzig qualifizierten Kommerziellen Maßstab gibt es bekanntlich für die MF von IBM und das seit über 50 Jahren! Nichts dergleichen gibt es dagegen von HP, DELL, Intel, Oracle und erstaunlicherweise auch nicht von der "Europäischen Informatik" und der "Amerikanische Computer Science"! Nur einige Benchmark-Institute wie insbesondere TPC boten für ein inzwischen wieder geschlossenes Zeitfenster gewisse verwendbare Erkenntnisse für die x86- und p-Server-Architekturen. Die Mess-Ergebnisse unseres Maßstabes werden selbstverständlich systematisch Plausibilitäts-geprüft. Und unser Maßstab wird natürlich auch weiterentwickelt, sobald neue Erkenntnisse verfügbar werden.

Die in dieser Unterlage dargestellten fundamentalen Erkenntnisse lassen sich auf der Basis der "Kommerziellen Leistungsfähigkeit" der "Mainframe-Server" und der "x86-Server" mit relativ wenig Aufwand gewinnen. Auch die "Kommerziellen Leistungsfähigkeit" der p-Server kann aus dem verfügbaren Daten-Material relativ zuverlässig abgeleitet werden. Erfreulicherweise lässt sich die Kommerzielle Leistungsfähigkeit sogar durch mehrere Methodischer Lösungsansätze bestimmen. Drei der einfacheren, die von IT-Fachleuten unschwer nachvollziehbar sind und auf allgemein verfügbaren IT-Daten-Material basieren, haben wir nachfolgend aufgeführt. (⬈ 4 Alternativen) Eine detaillierte Einzel-Beschreibung der 3 von uns verwendeten Ansätze findet sich in den beigefügten Charts.

  1. Eine Architektur-Analyse der MF-, p-Server- und x86-Server-Architekturen mit Plausibilitäts-Kontrolle der Ergebnisse. (⬈ Alternative 1)
  2. Eine qualifizierte Auswertung eines Benchmarks der IBM 9-2008 mit einer Leistungs-Vergleichs-Messung eines MF-Server "IBM z10EC" mit "1.500 x86-Servern". (⬈ IBM Benchmark)
  3. Eine Kosten/Nutzen-Korrelation der bis zu 4 Computer-Architekturen, die in der deutschen Versicherungs-Branche zum Einsatz kommen. (⬈ Alternative 3)

Einen vierten Ansatz wollen aus methodischen Erkenntnis-Gründen hinzufügen: Den "Benchmark" mit einem "Branchen-repräsentativen Anwendungs-Portfolio" produziert auf einer "Branchen-optimierten Computer-Kombination" bestehend aus den gegenwärtig bis zu 4 Computer-Architekturen.

  1. Benchmark eines "Repräsentativen Anwendungs-Portfolios für eine Branche" auf einer "Branchen-optimierten Computer-Kombination"

Wir verwenden alle der ersten 3 Ansätze zur Qualitätsverbesserung der Ergebnisse und zum Controlling der Methodischen Lösungsansätze. Dazu gehört insbesondere auch die Einbeziehung der verschiedenen Kennzahlen für die p-Servern der IBM. Denn die "p-Server" sind beim Vergleich "MF-Server vs x86-Server" deshalb so Erkenntnis-fördernd, weil zum einen die IBM MF-Server und die IBM p-Server quasi "Geschwister" sind und es zum anderen viele Benchmark-Vergleiche zwischen den p-Servern und den x86-Servern gibt: Dabei hat sich in den letzten Jahren ein immer größer werdender Vorsprung für die p-Server gezeigt! Schlussfolgerung: Auch die MF-Server der IBM haben ihre kommerzielle Überlegenheit gegenüber den x86-Servern ausgebaut, insbesondere im Bereich der aus technologischen Gründen notwendigen, immer ausgeprägteren Multi-Processing-CPUs.
Einzelheiten haben wir nachfolgend offengelegt.

Die Überlegenheit des Enterprise-Computing durch "integrierte Multi-Programm-Verarbeitung"

(⬈ Die Überlegenheit des EC)
Das Enterprise-Computing ist inzwischen ausgereift

Ein Blick zurück in die Evolution eines Lösungsansatzes fördert oft wesentliche Erkenntnisse über Gegenwart und Zukunft zutage: Beim Enterprise-Computing lassen sich dabei wesentliche Erkenntnisse über seine Stärken aber auch Schwächen gewinnen. In der Frühphase der Computer-Entwicklung gab es bekanntlich aus technologischen Gründen nur "große Computer": Zunächst für Technisch/Wissenschaftliche Anwendungen und offensichtlich auch fürs Prestige, zügig gefolgt vom Kommerziellen Einsatz auch in großen Unternehmen. Die prägenden Merkmale der damals verfügbaren Computer waren die sehr hohen Hardware- und Betriebs-Kosten. System-Betriebs- und Anwendungs-SW waren zunächst nur rudimentär vorhanden, wurden aber ab Mitte der 60’er Jahre mit großem Nachdruck weiterentwickelt. Dass dennoch die Betriebs-SW von den Herstellern als Service zur HW und auch als Marketing-Tool bis Ende der 70’er Jahre kostenlos mitgeliefert wurde, scheint Auswirkungen bis in die Gegenwart zu haben! Für diese großen Computer wurde die Bezeichnung "Mainframes" üblich. Die wichtigsten Hersteller wurden in der Abkürzung "IBM and the BUNCH" zusammengefasst, die aber nur die amerikanischen Computer-Hersteller umfassten, was auch schon damals eine bemerkenswerte Botschaft transportierte. Denn zu dieser Zeit gab es auch noch Hersteller von MFs in Deutschland, Frankreich, England und Japan. Durch die unvergleichlich rasante Weiterentwicklung v.a. der Computer-HW wurden auch "Kleine Computer" ab Mitte der 60’er Jahre technisch realisierbar und ökonomisch darstellbar und als Prozess-Rechner und Labor-Rechner eingesetzt. Erkenntnis-reich ist aus dieser Phase der Computer-Evolution, dass schon damals nach kurzer Zeit für ausgewählte Anwendungen und Verarbeitungs-Konstellationen zum Teil heftige Diskussionen über die Frage der "besseren Realisierungs-Alternative", MF oder Prozess-Rechner, geführt wurden. Damals konnte sich für das Enterprise-Computing die MF-Alternative wegen ihres viel besseren Gesamt-Konzeptes und insbesondere auch wegen der viel besseren System- und Anwendungs-SW noch ohne aufwendige Vergleichs-Rechnungen souverän durchsetzen.

Das Anwendungs-Portfolio der Unternehmen unterstützte zunächst die Geschäfts-Prozesse mit Massendaten-Verarbeitung, wie Fakturierung, und insgesamt v.a. der Stabs-Abteilungen der Unternehmen, da in diesen Bereichen die ökonomische Rechtfertigung von Computer-Lösungen als erstes möglich war. Eine zentrale Verarbeitung und eine zentrale Speicherung der Daten waren da zweifelsfrei die ökonomisch und organisatorisch beste Lösung. Erst die Evolution der IT, von der EDV (Elektronische Daten-Verarbeitung) über die IV (Informations-Verarbeitung) bis zur IT, Aufgaben-spezifisch ausgedrückt aus dem Stabs-Bereich der Großunternehmen in die Fach-Abteilungen und den Außendienst der Großunternehmen hat zusammen mit den verfügbar werdenden, immer leistungs-fähigeren und preiswerteren "kleinen Computern, wie den x86-Servern und ihren Vorgängern", zu einem erneuten Aufflammen der Diskussionen über "Zentralisierung oder Dezentralisierung" geführt. Einer der Hauptgründe dafür liegt nach unserer langjährigen Erfahrung auch in "dem abnehmend brauchbar werdenden, bis dato MF-zentrierten IT-Entscheidungs-Instrumentarium" und "dem Fehlen eines neuen, Best-Practice-zentrierten IT-Entscheidungs-Instrumentenkastens!" Denn der Fokus von IT-Entscheidungen verlagerte sich ab Mitte der 90’er Jahre auch durch die Einführung der sehr preiswerten CMOS-Technologie auch bei den MFs von den "System-HW-Kosten" immer stärker auf die "System-SW-Kosten und IT-Personal-Kosten". Und wegen der kontinuierlich steigenden IT-Budgets, in Deutschland 2016 im Durchschnitt schon ca. 2,4% vom Umsatz, in der deutschen Versicherungsbranche sogar 8,6% der Brutto-Beitrags-Einnahmen, stellt sich zusätzlich die Frage nach der ökonomischen Sinnhaftigkeit dieses IT-Aufwandes für die Unternehmen.

Zur Darstellung der Stärken des Enterprise-Computing bedarf es eines neuen "IT-Entscheidungs-Instrumentenkastens"

Das "Entscheidungs-Instrumentarium der EDV- und IV-Zeit" war ökonomisch, psychologisch und intellektuell relativ einfach strukturiert, typisch US-Amerikanisch: Am besten mit dem amerikanischen Sprichwort "I am O.K., Jack" zusammengefasst. Beim MF-Marktführer IBM, der Ende der 70’er Jahre die IT-Branche total dominiert hat und dabei so viel Umsatz erzielte wie die 5 nächst-größten Wettbewerber zusammen, lautete die Marketing-Botschaft kurz zusammengefasst: Die Mainframes der IBM bieten für die Enterprise-Anwendungen die beste Lösung. Außerdem ist das Weiter-Entwicklungs-Potential für die MF-HW "open-ended" und damit die Investitions-Sicherheit in das Anwendungs-Portfolio der IBM-Kunden, die wichtigste Zielsetzung der Enterprise-IT, langfristig gewährleistet. Transportiert wurden diese Botschaften v.a. mittels "Product-Excellence-Rhetorik", die sich für das Marketing der Computer-HW relativ einfach darstellen lässt, für das Marketing der Computer-System-SW aber de facto unbrauchbar ist! Völlig aus dem Entscheidungs-Blickfeld geblieben war und ist Entwickelung und das Verständnis über die Steuerbarkeit der IT-Personal-Kosten mittels Produktivitäts-Werkzeugen. Übersehen wurde dabei nicht nur, dass der IT-Personal-Kosten-Anteil an den IT-Budgets von in den 70’er Jahren ca. 20% auf inzwischen bis ca. 60% angewachsen ist, sondern insbesondere auch, dass der IT-Personal-Kosten-Aufwand bei den verschiedenen Computer-Architekturen sehr unterschiedlich ist: So ist er z.B. bei den x86-Servern in der deutschen Versicherungs-Branche 2016 ca. 3 Mal höher als bei den MF-Servern! Schlussfolgerung: Das Entscheidungs-Instrumentarium der MF-Zeit, das v.a. HW-zentriert war, ist schon seit längerem unbrauchbar geworden. Benötigt wird "neuer IT-Entscheidungs-Instrumentenkasten", der als eine Hauptaufgabe die neuen Enterprise-IT-Schwerpunkte "Personal-Kosten, ca. 62% der IT-Budgets", "System-SW, ca. 15% der IT-Budgets", "Betriebs-Kosten, ca. 14% der IT-Budgets" auf "Best-Practice-Niveau" realisieren kann. Und der als weitere Hauptaufgabe den Handlungsbedarf und die Vorgehensweise für die Realisierung der "Enterprise-Digitalisierung auf Best-Practice-Niveau" für die einzelnen Unternehmen darstellen kann. Anmerkung zur Vervollständigung der Analyse: Der "HW-Kosten-Anteil an den IT-Budgets ist mit ca. 9%" offensichtlich inzwischen vernachlässigbar. Und die noch fehlenden 4% IT-Budget werden für "Planung, Steuerung und Verwaltung" eingesetzt.

Zum Verständnis der Enterprise-IT-Evolution gehört unbedingt auch die Skizzierung von 2 Ereignissen, die einen zentralen Einfluss auf ihre Entwicklung ausgeübt haben, nämlich die Einführung des PC durch die IBM 1981 mit Betriebs-SW von Microsoft und der Umstellung der CPU-Technologie der MF von Bipolar- auf CMOS-Technologie etwa 1990. Die Einführung des PC, bei dem schon die preiswerte aber zunächst noch sehr langsame, für die PC-Anwendungen aber ausreichend schnelle, CMOS-Technologie zum Einsatz kam, befeuerte die Auseinandersetzung "zentrale oder dezentrale Informationsverarbeitung". Und die aus Kostengründen notwendige Umstellung der CPU-Technologie der MF, von der sehr schnellen aber auch sehr teuren Bipolar-Technologie auf die für die MF zunächst zu langsame aber rasch schneller werdende, sehr preiswerte CMOS-Technologie, konnte nur die IBM erfolgreich vollziehen. Die sogenannten BUNCH-MF-Hersteller und auch der kleine MF-Rest außerhalb der USA blieb dagegen auf der Strecke: Das hat die Spielregeln und Einstellung der IT-Markt-Teilnehmer ganz erheblich verändert. Und auch das PC-Konzept der IBM, das Konzept als "Open-Source" mit "Betriebs-SW von Herrn Gates" zu realisieren, hat die Enterprise-IT mittelfristig erheblich beeinflusst.

Wird der TCO-Algorithmus unwissentlich außerhalb seiner Definition verwendet?

Vor diesem IT-Hintergrund lässt sich das Konzept des 1987 entwickelten TCO-Algorithmus wahrscheinlich besser verstehen: Auftraggeber Microsoft, Auftragnehmer die Gartner Group. MS hatte mit seiner PC-SW "im Marketing-Windschatten der IBM" rasch erhebliche Erfolge eingeheimst und war auf der Suche nach neuen Geschäfts-Potentialen. Und Gartner, damals ebenfalls ein aufstrebendes Unternehmen, hatte neben der Produktion von IT-Daten-Statistiken auch einen Unternehmens-Schwerpunkt in der IT-Unternehmens-Beratung. MS wollte offensichtlich und legitim an dem damals schon ausgeprägten Kunden-Wunsch nach Dezentralisierung, d.h., Selbstbestimmung der Abteilungen, also MF-Off-Loading, partizipieren und Gartner seine Beratungs-Kompetenz unter Beweis stellen. Dabei ging es nach unserer Erinnerung damals v.a. um die Realisierung eines "größeren Anteils der Geschäfts-Prozesse-Anwendungen" bei den End-Benutzern in sogenannten "Client-Server-Konzepten", nicht aber um die Verlagerung von "vollständigen Geschäfts-Prozess-Anwendungen". x86-Server gab es 1987 nicht nur nicht, sie waren noch nicht einmal am Horizont erahnbar! Deshalb legt diese Situation den Schluss nahe, dass der TCO-Algorithmus erst nach der Einführung von immer Leistungs-stärkeren x86-Servern nach der Jahrhundertwende "von IT-Mitarbeitern, die ein einfaches Entscheidungs-Instrument für neue IT-Anwendungen suchten", zu dem den Enterprise-Groß-Schaden verursachenden IT-Entscheidungs-Instrument "befördert" worden ist.

Die fundamentalen Vorteile integrierter Lösungs-Ansätze wie beim MF

Eine der größten Herausforderungen bei der Beurteilung integrierter Lösungs-Ansätze ist die "qualifizierte Auslegung des benötigten Beurteilungs- und Mess-Instrumenten-Kastens": Er muss ganzheitlich, holistisch, top-down konzipiert sein: Nur dergestalt kann er Teil-Mengen eines integrierten Lösungs-Ansatzes korrekt darstellen und messen. Die Herausforderung in der IT-Branche ist dabei gleich 2-fach: Zum einen war "Holistisches Denken" in der bekanntlich extrem US-amerikanisch-, also Single-idea-, Bottom-up-Denkweise geprägten Branche von Anbeginn an weder notwendig noch Situations-konform. Und zum anderen hat sich auch in der IT-Branche wegen ihres rasanten Fortschritts schon bald eine Überspezialisierung herausgebildet, bei der sich die einzelnen Spezialisten nur noch auf ihrem singulären Fachgebiet auskennen und für singuläre Lösungen interessieren: Das führt dann zu so grotesken Situationen, dass eine x86-Server-CPU mit einer MF-Server-CPU wie folgt singulär verglichen wird: "Pi-mal-Daumen"-Zwischen-Ergebnis: Ein x86-Server-Core kostet ca. € 1 Tsd Kaufpreis, ein IBM z14 MF-Core ca. € 850 Tsd Kaufpreis. Bottom-up-Schlussfolgerung: Die MFs sind viel zu teuer!? Ein holistischer, korrekt messender Instrumenten-Kasten dagegen fördert zutage, dass die MF-Lösung z.B. in der dt. VB i.d.R. ein 72% besseres Preis/Leistungs-Verhältnis aufweist als eine x86-Server-Lösung!

Ein "Holistischer IT-Instrumenten-Kasten zum Ausmessen integrierter Lösungs-Ansätze wie beim MF" muss dabei sowohl "die Kosten" als auch "den Nutzen" von "Gesamt-Lösungen" und auch ihren "Teil-Bereich-Lösungen" messen können. Damit sind wir bei der zentralen Frage angelangt, was ein "Holistischer IT-Instrumenten-Kasten" zusätzlich beherrschen muss und ein "singulärer Mess-Algorithmus wie TCO" grundsätzlich nicht leisten kann? Die Antwort klingt zunächst trivial: Er muss sowohl alle Kosten-Elemente vollständig und richtig als auch alle Nutzen-Elemente integrierter Lösungs-Ansätze messen können.

Die Vorteile integrierter Lösungen existieren auf den verschiedensten Gebieten und die meisten sind auch allgemein bekannt: Von großen integrierten Staaten, wie den USA, über große integrierte Unternehmen, wie Automobil-Herstellern oder Banken, bis zu IT-Bereichen großer Unternehmen, wie die AMOS der Allianz. Die Vorteile lassen sich in 2 Bereiche untergliedern, wobei wir im ersten Bereich die "Vorteile durch gemeinsame Nutzung von Funktionen" zusammengefasst haben und im zweiten Bereich die speziellen Vorteile integrierter IT-Lösungen:

  • Die "Vorteile durch gemeinsame Nutzung von Funktionen" sind insbesondere:
    -- Economy-of-scale-Vorteile
    -- Synergie-Effekte
    -- höhere Produktivität
  • Die zusätzlichen speziellen Vorteile integrierter IT-Lösungen sind:
    -- längere Betriebszeiten
    -- höhere System-Auslastung
    -- geringerer System-Overhead
    -- geringerer Integrations- und Evolutions-Aufwand
    -- weniger Performance-Degradation bei Multi-Processing
Bevor wir die aus diesen einzelnen Einflussgrößen sich ergebenen, integrierten Erkenntnisse darstellen und diskutieren, wollen wir die einzelnen Einflussgrößen kurz skizzieren.

  • Die "Economy-of-scale-Vorteile" entfalten sich praktisch in allen großen Organisations-Einheiten durch die Möglichkeit der Realisierung optimaler Organisations-Strukturen.
     
  • "Synergie-Effekte" entstehen durch den Austausch von Erfahrungen von Mitarbeitern, die mit ähnlichen Aufgabenstellungen beschäftigt sind.
     
  • Eine "höhere Produktivität" kann in 2 Ausprägungen auftreten:
    • Die "Produktivität durch mehr Benutzer", ist insbesondere ein Phänomen der IT. So ist z.B., ökonomisch betrachtet, die "Produktivität der Anwendungs-Entwicklung" viel besser, wenn ein entwickeltes Programm 1.000 Mitarbeiter unterstützt und nicht nur 100. Denn das Kosten/Nutzen-Verhältnis ist dann fast 10 Mal besser. Und auch im Bereich von RZ und Benutzer-Service entstehen bei großen Lösungen erhebliche Produktivitäts-Vorteile. Das AE-Phänomen steckt übrigens im Wesentlichen auch hinter dem "Erfolg des Silicon Valley".
    • Das "klassische Verständnis von Mitarbeiter-Produktivität" basiert dagegen auf dem Einsatz Leistungs-fähiger Produktionsmittel. In der Unternehmens-IT ist das v.a. die Computer-SW. Beim Vergleich der Produktionsmittel, die gegenwärtig für die verschiedenen Computer-Architekturen vorhanden sind, fällt sofort der sehr große Unterschied auf: Neben der Grund-Erkenntnis, dass jedwede Software „Productivityware“ ist, fällt beim MF der IBM ein sehr großes, spezielles Angebot an SW auf, von IBM „Middleware“ genannt. Diese spezielle Productivityware gibt es sowohl für den RZ-Bereich als auch für den Bereich die Anwendungs-Entwicklung. Zielsetzung war und ist es, das umfangreiche Enterprise-Anwendungs-Portfolio, das oft aus mehreren Tausend Anwendungen bestehen kann, von denen gleichzeitig viele Dutzend auf üblicherweise 2 MF in Produktion sind, sowohl in der Produktion als auch in der Weiter-Entwicklung mit besten Produktions-Mitteln zu unterstützen. Die IBM hat dafür insbesondere im Zeitraum von ca. 2002 bis ca. 2012 sehr viel Entwicklungs-Arbeit in diesen Produkt-Bereich investiert und ihn auch durch gezielte Zukäufe weiter verstärkt. Die Schwäche dieses IBM-Ansatzes ist, nach unserem Erkenntnisstand, das Fehlen eines Marketing-Konzepts, das den Produktivitäts-Nutzen dieser Produktivitäts-Tools überzeugend darstellen kann. (⬈ MF-SW-Produktivität)
      Ein vergleichbares Angebot an Produktionsmitteln ist uns bei den x86-Servern und bemerkenswerterweise auch den p-Servern der IBM nicht bekannt. Die Begründung erscheint einfach, da auf der Hand liegend: Die x86-Server und die p-Server sind sowohl bei der HW als natürlich auch bei der SW als "Computer für Spezielle Aufgaben-Stellungen" konzipiert, die x86-Server für Anwendungen im PC-Bereich und die p-Server für Anwendungen im Technisch/Wissenschaftlichen Bereich, oder aber auch in den Fach-Abteilungen. Insbesondere die Verwendung von x86-Servern erreicht bei großen Unternehmen inzwischen mehrere hundert bis einige tausend Systeme. Produktivitäts-Tools für den RZ-Betrieb sind da offensichtlich fehl am Platze. Und in der Anwendungs-Entwicklung dürften die vielen System-Varianten, aufgrund der verschiedenen Anschaffungs-Zeit-Status und Anwendungs-Zielsetzungen den Einsatz von Produktivitäts-Tools ebenfalls ziemlich herausfordernd machen.
    • Darüber hinaus beeinflusst auch die innere Struktur der verschiedenen Computer-Architekturen die Produktivität: CISC- oder RISC-Instruktions-Sätze, Ein-Adress- oder Zwei-Adress-CPUs und selbständige Ein/Ausgabe-Subsysteme oder CPU-gesteuerte Ein/Ausgabe usw. führen auch zu einer unterschiedlichen Produktivität der Computer-Architekturen!
    • Nach dieser Analyse sollte nicht mehr überraschen, dass wir Daten-basiert festgestellt haben, dass in der dt. VB die "IT-Bereichs-Produktivität im MF-Server-Segment im Durchschnitt ca. 3 Mal besser ist als im x86-Server-Segment". Dieser Unterschied zeigt sich erwarteter maßen ähnlich auch bei einem Vergleich mit den p-Servern. Überraschend ist eigentlich nur, dass es außer uns noch niemand bemerkt hat, weder die Enterprise-IT-Kunden noch der gegenwärtig größte MF-Herstellet IBM noch die Wissenschaftler der Informatik!
      Dabei ist dieser Unterschied schon seit längerer Zeit Entscheidungs-dominant!
      Und zwar aus 2 Gründen:
      • Im IT-Bereich wirkt sich dieser Unterschied gegenwärtig bereits auf die ca. 62% IT-Personal-Kosten aus mit weiter steigenden Tendenz. Faktor 3 Produktivitäts-Unterschied bedeuten somit bis zu ca. 40% IT-Budget-Unterschied im betroffenen IT-Segment!
      • Eher noch gravierender ist der Einfluss auf den Digitalisierungs-Fortschritt der Unternehmen. Da neue IT-Anwendungen einen Unternehmens-Nutzen produzieren, der i.d.R. 4-6 Mal höher ist als die IT-Kosten, erhöht sich ein Produktivitäts-Unterschied im IT-Bereich von Faktor ca. 3 auf einen "Digitalisierungs-Fortschritts-Unterschied in den Unternehmen von Faktor ca. 15!"

  • "Die Länge der Betriebszeiten" und "die Höhe der System-Auslastung" werden durch die Arbeits-Menge, die zu realisierenden Termine und speziell in der IT durch den Nachfrage-Takt in der Online-Verarbeitung bestimmt. Die Computer-Arbeitslast in der Enterprise-IT unterteilt sich dabei nach wie vor in die Online-Verarbeitung zur aktuellen IT-Unterstützung der Mitarbeiter und Kunden und die Stapelverarbeitung zur Daten-Sicherung und –Archivierung, sowie für Zeit-unkritische Pflege und Verwaltungstätigkeiten. Während die Online-AL natürlich v.a. tagsüber anfällt, mit 2 Höhepunkten von 9-12 und von 13-16 Uhr und einem Abklingen bis die Abendstunden, werden die von der Online-Verarbeitung nicht benötigten Verarbeitungs-Kapazitäten bei den MFs durch Stapelverarbeitung bis zu einer in der Praxis üblichen Auslastung von ca. 80% aufgefüllt. Beide Verarbeitungs-Arten stellen etwa 50% der Arbeitslast. Zur Abarbeitung werden i.d.R. ca. 18 Stunden pro Tag benötigt. Die Systeme selbst sind selbstverständlich 24 Stunden im Betrieb.
    Nur diese bei der Verarbeitung der Enterprise-Anwendungen auftretende Konstellation mit tief-gestaffeltem Multiprogramming gestattet die Betriebszeiten von i.d.R. mindestens 18 Stunden und eine problemlose Auslastung von mindestens 80%. Abteilungs-Server werden dagegen nur für eine oder wenige Online-Anwendungen eingesetzt. Damit sind i.d.R. nur Betriebszeiten von 8-11 Stunden und Auslastungen von maximal 20-30% möglich. Oft beträgt die Auslastung sogar nur etwa 10% oder auch weniger, wenn nur eine Haupt-Anwendung zur Ausführung gelangt und die Antwortzeiten möglichst kurz sein müssen.
    Aus diesen unterschiedlichen Betriebs-Konstellationen ergeben sich fundamentale Kosten-Vorteile für den MF, die durch einen "singulären Anwendungs-Kosten-Vergleich wie beim TCO-Algorithmus" nicht abgebildet werden können. Sie werden beim TCO-Algorithmus unseres Wissens nicht einmal durch Hilfskonstruktionen zu korrigieren versucht.
     
  • Die klassische IT-Größe "System-Overhead" hat sich, schon vor längerer Zeit beginnend, allmählich in eine Teil-Größe der Thematik "IT-Infrastructure-Overhead" entwickelt und besteht inzwischen i.d.R. aus mehreren Einfluss-Größen, die in ihrer einzelnen Bedeutung häufig nicht qualitativ angemessen bewertet werden:
    • Da gibt es bei den MF-Servern die nach wie vor die "altbekannte" System-Belastung durch das Betriebs-System, die heutzutage kaum mehr von Bedeutung ist.
    • Grundsätzlich anders stellt sich die Teil-Größe "System-Overhead" bei anderen Computer-Architekturen dar, wie z.B. bei den x86-Servern: Denn da kommt i.d.R. "Byte-Code" zum Einsatz, der erst bei der Code-Ausführung in ausführbaren "Maschinen-Code" umgewandelt wird, was zu einem erheblichen zusätzlichen System-Overhead führt. Der Grund? Bessere Computer-Architektur-Flexibilität der Anwendungen und damit höhere Programmierer-Produktivität aber als "Kehrseite der Medaille" eben die Kosten für zusätzlichen System-Leistungs-Verbrauch. Das ist in der Praxis völlig unerheblich, da z.B. die x86-Server i.d.R. nur (10-20)% ausgelastet sind. Ein grundsätzliches Problem entsteht erst dann, wenn Architekturen mit verschiedenen Overhead-Strukturen miteinander verglichen werden: Dann führen nämlich die immer noch üblichen "Brutto-Leistungs-Vergleiche" zu grundsätzlich falschen Ergebnissen! Absolut notwendig sind dann "Netto-Arbeits-Ergebnis-Vergleiche", also Vergleiche in der Dimension "Leistung mal Zeit"! D.h. Vergleiche des jeweils erzielten "Unternehmens-Nutzens", der bekanntlich die finale Zielsetzung der Digitalisierung eines Unternehmens darstellt. Verblüffender weise ist diese Mess-Größe in der IT-Welt immer noch de facto unbekannt, wie z.B. auch der inzwischen häufig verwendete, viel zu singulär angelegte Mess-Algorithmus "Total Cost of Ownership" offenbart. Denn da muss natürlich auch der unterschiedliche System-Overhead im den Vergleichen berücksichtigt werden.
    • Des Weiteren ist auch der "System Overhead" durch die unterschiedliche Realisierung einer möglichst effizienten System-Speicher-Verwaltung durch eine "virtuelle Speicher-Verwaltung" zu berücksichtigen: Denn die kann sowohl durch HW realisiert werden, wie bei den IBM MFs seit 1972 als auch durch SW, wie z.B. bei den x86-Servern: Auch diese die System-Verwaltungs-Produktivität steigernde Funktionalität produziert, wenn sie in SW realisiert ist, natürlich nicht unerheblichen System-Overhead. Auch dieser Einfluss kann erst durch einen "Netto-Arbeits-Ergebnis-Vergleich" angemessen dargestellt werden.
    • Seit der fortschreitenden Dezentralisierung der Unternehmens-IT, die oft mittels hunderter, manchmal sogar mehrerer tausend, insbesondere x86-Server realisiert wird, muss auch ein neues Element des IT-Infrastructure-Overheads in Computer-Architektur-Vergleiche einbezogen werden, nämlich das Phänomen des "Software-Kosten-Overheads": Denn die Kosten für die Betriebs-System-SW, Datenbank-SW und Spezial-SW werden z.B. bei den x86-Servern üblicherweise pro Server bzw. Core berechnet. Trotz üblicher Rabatte entstehen bei den oft mehreren hundert x86-Servern gegenüber dem Einsatz von üblicherweise nur 2 MF-Servern für das Enterprise-Computing erhebliche Zusatz-Kosten.

     
  • Der "Integrations- und Evolutions-Aufwand" ist insbesondere in der IT keine zu vernachlässigende Größe. Deshalb haben sich in der IT-Evolution schon relativ bald 2 sehr unterschiedliche Computer-System-Philosophien herausgebildet: Die "alles-aus-einer-Hand System-Philosophie" und die Viele faszinierende System-Philosophie "Kombination der besten und/oder preiswertesten Computer-Einzel-Funktionen". Die Vor- und Nachteile sind sofort offensichtlich: Bei der alles-aus-einer-Hand-Lösung gibt es einen für die Integration und Evolution Verantwortlichen, der sich diesen Aufwand natürlich angemessen vergüten lässt. Der Vorteil ist ein in sich stimmiges, gepflegtes, gegenwärtig und auch in der überschaubaren Evolutions-Zukunft jederzeit einsatzfähiges System, das außerdem Investitions-Sicherheit garantiert. Nachteile entstehen, wenn der Anbieter den IT-Fortschritt nur mit Verzögerung an seine Kunden weitergibt. Beispiele waren und sind bemerkenswerterweise alle MF-Hersteller der Vergangenheit und nach wie vor die IBM sowie, bemerkenswerterweise, Apple. Am Beispiel Apple sind die Vor- und Nachteile recht anschaulich erkennbar.
    Die Alternative "Kombination der besten und/oder preiswertesten Computer-Einzel-Funktionen" wird auf der Computer-Hersteller-Seite v.a. von Computer-Funktions-Spezialisten und auf Computer-Kunden-Seite von selbstbewussten, "aufstrebenden" IT Führungskräften bevorzugt. Neben den sofort ins Auge fallenden Preis- und Funktions-Vorteilen beinhaltet sie aber auch erhebliche Aufwände und Risiken, die zum Zeitpunkt der Entscheidung nur zum Teil bekannt sind, da sie sich erst in der Evolutionsphase einstellen werden. Geprägt ist diese Alternative von Personen, die die Vorteile eher überbewerten und die Aufwände und Risiken eher unterschätzen. Der x86-Server ist ein Produkt dieses Umfeldes: Die CPU-HW ist von Intel, das Betriebs-System von Microsoft oder Linux, die Datenbank-SW von MS oder Oracle, usw. Die HW wird assembliert von HPE oder DELL oder…Und die Verantwortung liegt beim Kunden, wofür ein nicht unerheblicher Aufwand anfällt, der aber eher selten bilanziert wird.
     
  • Die "Performance-Degradation bei Multi-Processing" ist eine Thematik, die bei den x86-Servern und übrigens auch bei den p-Servern noch unbekannt zu sein scheint, zumindest in der "Außendarstellung der Server durch die Hersteller". Dabei ist diese Thematik in der kommerziellen IT schon seit Anfang der 70’er Jahre ein wesentliches Thema und wird insbesondere in der Zukunft der IT eine immer größeren Bedeutung bekommen. Denn das noch unausgeschöpfte Geschwindigkeits-Potential der gegenwärtig eingesetzten CMOS-Technologie scheint zu Ende zu gehen. Die Alternativen sind "Verarbeitungs-Parallelisierung" oder der Einsatz neuer Technologien wie der "Quanten-Technologie".
    Dabei sind die "Prozessor-Strukturen und die Betriebs-System-Steuerung der Alternative Verarbeitungs-Parallelisierung" die wichtigsten Komponenten dieses Lösungs-Ansatzes:
    Für "Technisch/Wissenschaftliche Anwendungen" sind sie relativ einfach zu realisieren, da die auszuführenden Programme und die Datenbestände durch Linearität geprägt sind: D.h. die Programme bestehen aus sehr langen "Programm-Fäden (Threads)", die deshalb auf viele einzelne Ausführungs-Einheiten, z.B. Cores, verteilt werden können, mit Daten-Beständen aus sequenziell abzuarbeitenden Daten-Strukturen. Diese Zuordnung verursacht eine nur geringe Multi-Processing-Performance-Degradation. Und es genügen einfache CPU- und Prozessor-Strukturen, wie bei p-Servern und x86-Servern.
    Eine völlig andere Verarbeitungs-Struktur haben dagegen die "Kommerziellen Anwendungen": Sie bestehen aus sehr kurzen Threads, sehr häufigen Programm-Verzweigungen, häufigen Zufalls-gesteuerten Hauptspeicher-Zugriffen und des öfteren auch aus Daten-Ein/Ausgaben zu den Peripherie-Geräten. Triviales Parallelisieren, wie bei T/W-Anwendungen, ergäbe da keinen Sinn: Denn bei dieser Strategie wäre die Auslastung der CPUs äußerst gering. Deshalb werden im Unterschied zur T/W-IT sehr anspruchsvolle CPU-Strukturen und System-Steuer-Algorithmen benötigt, die auch bei Multi-Processing eine sehr hohe Auslastung bei einer möglichst "geringen Performance-Degradation" ermöglichen.
    Die dafür ausgelegten CPU-Strukturen und Betriebs-Systeme wurden von der IBM schon ab 1970, zunächst als 2 CPU-Variante und erst ab 1981 als 4 CPU-Variante auf den Markt gebracht. Die BUNCH-Wettbewerber, die diese Konzeption des Branchen-Führers rasch mit wesentlich mutigeren Auslegungen meinten konterkarieren zu können, haben dafür zum Teil erhebliches Lehrgeld in Form sehr hoher Performance-Degradation bezahlen müssen. Inzwischen hat die Struktur und der Betrieb von Multi-Processing-Systemen bei den MFs der IBM offensichtlich einen hohen Reife-Grad erreicht: Bei der neuesten MF-Version System z14 werden bis zu 170 Cores verbaut, die maximal etwa 146.462 MIPS Leistungsfähigkeit entwickeln bei einer Performance-Degradation von maximal 53%. In der Praxis üblich sind z.B. in der dt. VB gegenwärtig MF-Systeme mit bis zu 10 Cores, bei denen die Performance-Degradation nur max. 19% beträgt. Diese Performance-Degradation wird aber durch die Angabe der tatsächlichen Leistungsfähigkeit der Systeme durch den Hersteller ökonomisch eliminiert.
    Vieles spricht dafür, dass diese Lernphase den Betriebs-Systemen für die x86-Server von MS und Linux noch bevorsteht. Außerdem ist ungeklärt, welche Leistungsfähigkeit die CPU-Strukturen der x86-Server für tief-gestaffeltes Kommerzielles Multi-Programming besitzen. Denn es scheint kein Zufall zu sein, dass es in der dt. VB de facto keine kommerziell eingesetzten x86-Server mit mehr als 12 Cores gibt. Da die Kommerzielle Leistungsfähigkeit der MF-Cores etwa 15 Mal besser ist als die der x86-Server-Cores gibt es bei dem Versuch des Ersatzes der üblicherweise 2 MF-Server durch x86-Server, wie immer wieder ins Gespräch gebracht, nur 2 Alternativen: Entweder "wenige x86-Systeme mit jeweils sehr vielen Cores", d.h. i.d.R. weit über 100 Cores bei gegenwärtig völlig unbekannter Performance-Degradation. Oder aber "sehr viele einzelne x86-Systemen", die mit gegenwärtig nicht bekannter Betriebs-System-SW zu einem homogenen System verbunden werden müssten und die ebenfalls eine erhebliche unbekannte Performance-Degradation kompensieren müssten. Eine sehr anspruchsvolle Aufgabe!

Viele der vorgestellten "Vorteile des integrierten Lösungs-Ansatzes MF" sind als Einzel-Elemente natürlich auch den Kunden-Fachleuten und den Fachleuten der IBM bekannt. Das reichte bisher offensichtlich jedoch nicht aus, um sich gegen die in den letzten etwa 20 Jahren immer weiter verstärkende Ideologie: "MF-Lösungen sind teuer, x86-Lösungen sind viel preiswerter" zu behaupten. Denn zur Durchsetzung dieser Erkenntnisse ist die bisherige, "Product-Excellence-geprägte Entscheidungs-Argumentation" zu schwach, da sie nur einen immer unwichtiger werdenden "Teil-Bereich einer Strategischen System- und Anwendungs-Entscheidung" abdecken kann. Die dominanten Elemente moderner Enterprise-IT-Entscheidungen sind die "Beste Produktivität der System-Alternativen" und das "Beste Totale Preis/Leistungs-Verhältnis" der System-Alternativen. Die diese Zielsetzungen definierenden wichtigsten Entscheidungs-Kennzahlen und weitere wichtige Erkenntnisse lassen sich aber nur mit einem "Holistischen Lösungs-Ansatz" gewinnen. Wir können mit einiger Genugtuung feststellen, dass es uns bisher als Einzigen gelungen zu sein scheint, einen derartigen Holistischen Lösungs-Ansatz zustande gebracht zu haben.

Vertiefung des Verständnisses "integrierter Lösungsansätze in Holistischer Darstellung"

Da das Verständnis über Holistische Lösungs-Ansätze, wie bei einem MF, n der IT bisher leider nicht zum Allgemein-Wissen gehört, bei den Entscheidungen in der Enterprise-IT aber eine Grundvoraussetzung darstellt, bietet sich zur Veranschaulichung der Struktur von Holistischen Ansätzen bekanntlich ein Vergleich mit einem ähnlich gelagerten, allgemein bekannten Lösungs-Ansatz an: Zum Beispiel die Entscheidung über die Best-Practice-Lösung einer Reise von München nach Berlin, 600 Km, mit den Alternativen "integriertes Verkehrsmittel Flugzeug" oder "singuläres Verkehrsmittel Taxi"? (Hinweis: Auch bei der Alternative privater PKW anstelle von Taxi bleibt das Ergebnis im Wesentlichen das Gleiche). Auch in dieser Situation führt ein singulärer HW-Vergleich vollkommen in die Irre: z.B. Flugzeug A320neo, Listen-Kaufpreis € 108 Mio, Auto Mercedes E-Klasse ca. 0,05 Mio Kaufpreis: Kauf-Preis-Unterschied Faktor 2.160. Zur Erinnerung: Der Kaufpreis-Unterschied MF-Core zu x86-Core war bekanntlich Faktor 850. Erst der Holistische Vergleich bringt die qualifizierte Antwort auf die Frage nach dem Besten Preis/Leistungs-Verhältnis einer Reise nach Berlin: Dabei hat der "Integrierte Lösungs-Ansatz Flugzeug" in etwa folgende Leistungs-Merkmale: Flugzeug A320neo, Listen-Kaufpreis € 108 Mio, Abschreibungs-Zeitraum ca. 25 Jahre, Kapazität 168 Sitzplätze (LH-Bestuhlung), Sitzlade-Faktor 83% (LH), aktive Betriebszeit pro Tag ca. 7 Stunden (in der Luft), Kerosin-Verbrauch ca. 4,0 qm pro Flug-Stunde, Flugzeugführer 2, Einkommen ca. 130 Tsd pro FF/J. Der "singuläre Lösungs-Ansatz Taxi" habe folgende Leistungs-Merkmale: Auto Mercedes E-Klasse ca. 0,05 Mio Kaufpreis, Abschreibungs-Zeitraum ca. 5 Jahre, max. 3 Passagiere, Sitzlade-Faktor ca. 50%, aktive Betriebszeit 6 Stunden mit Passagieren unterwegs, Benzin-Verbrauch ca. 7 Liter auf 100 Km, Einkommen des Fahrers ca. 30 Tsd/J.
Der qualifizierte "Holistische Vergleich der Gesamt-Kosten" einer "Reise München nach Berlin" bei den Alternativen "Flugzeug" oder "Auto" (in der Version "Taxi") ergibt folgendes Ergebnis:

  - Gesamt-Kosten Flugzeug: € 42,1 pro Passagier
  - Gesamt-Kosten Auto: € 156,2 pro Passagier
Dieses Ergebnis, das die Überlegenheit der "integrierten Transport-Alternative Flugzeug" überzeugend darstellt, dürfte heutzutage bei den bekannten Angeboten von Ryanair, Easyjet, Eurowings, usw. niemand mehr überraschen. Verblüffend überraschend ist dagegen, dass dieselben "technischen und ökonomischen Gesetzmäßigkeiten", die in der Enterprise-IT in den Alternativen "integrierte IT-Verarbeitungs-Alternative MF" und "singuläre IT-Verarbeitungs-Alternative x86-Server" auftreten, immer noch nicht durch qualifizierte Entscheidungs-Werkzeuge zu "Best-Practice-Lösungen" kombiniert werden können. Dabei ist die Situation in der Enterprise-IT sogar besonders schädlich, denn sie wird durch US-Amerikanische IT-Marketing-Propaganda und das eingesetzte, "viel zu triviale Messwerkzeug TCO" seit etwa 20 Jahren auch noch in eine den Schaden immer weiter vergrößernde Richtung gelenkt!
Da auch aus den Einzel-Komponenten unseres Beispiels interessante Erkenntnisse für die Enterprise-IT gewonnen werden können, wollen wir sie kurz offenlegen. Wir haben den Vergleich v.a. auf die 3 wichtigsten Kostenblöcke fokussiert, nämlich die "Anschaffungs-Kosten", den größten Betriebs-Kosten-Block "Sprit-Verbrauch" und die "Personal-Kosten". Deshalb fehlen bei der Flugzeug-Alternative die Start- und Lande-Gebühren, die Flugbegleiter-Kosten, die es im Taxi bekanntlich nicht gibt, und die Abschreibungs-, Wartungs- und Verwaltungs-Kosten, die es in ähnlicher Form auch bei der Alternative Taxi gibt.

Diese 3 Kosten-Segmente haben die folgenden Größen pro Passagier:
    1) Flugzeug: € 13,9 HW-Kosten + € 25,9 Kerosin-Kosten + € 2,3 Personal-Kosten
    2) Auto (Taxi): € 30,3 HW-Kosten + € 35,0 Sprit-Kosten + € 90,9 Personal-Kosten
Die größten Erkenntnisse liefern offensichtlich die beiden Kosten-Segmente HW-Kosten und Personal-Kosten.
  • Welche Erkenntnisse lassen sich dabei aus der Struktur der HW-Kosten gewinnen?
    1.1HW-Kosten pro Passagier: Flugzeug € 13,9
    (Berechnungs-Einzelheiten Flugzeug: 108 Mio/25/320/7/(168*0,83) = 13,9 HW-K / Passagier)
    2.1HW-Kosten pro Passagier: Auto € 30,3
    (Berechnung Auto: 0,05 Mio/5/220*6/6/(3*0,5) = 30,3 / Passagier)
    Besonders bemerkenswert erscheint uns im HW-Segment die Erkenntnis, dass sich bei einer integrierten Lösung aus einem Kaufpreis-Unterschied von 108 zu 0,05 Millionen, einem scheinbaren Nachteil von Faktor 2.160, mit einem Holistischen Ansatz "mühelos" der tatsächliche Vorteil von 13,9 zu 30,3, also Faktor 0,46, offenlegen lässt. Der Grund: Die Vorteile integrierter Lösungen ergeben sich generell durch die "viel bessere horizontale und vertikale Auslastung". Im Enterprise-IT-Bereich war die HW-Kosten-Ausgangs-Situation bekanntlich z14 MF-Core ca. € 850 Tsd und x86-Server-Core ca. 1 Tsd, d.h. "nur" Faktor 850. Ein Holistischer Ansatz offenbart die tatsächliche Relation, in der dt. VB ein 0,57 zu 0,64, also ein in etwa gleiches HW-Preis/Leistungs-Verhältnis! ! Und das sind die reinen HW-Kosten ohne Berücksichtigung der viel höheren Betriebs-Kosten der x86-Server! Daraus ergibt sich, aus unserer Sicht, die wesentliche Qualitäts-Kontroll-Frage:
    ➔ Welches HW-Zwischen-Ergebnis produziert der TCO-Algorithmus?
  • Und welche Erkenntnisse lassen sich aus diesem Vergleich für den IT-Personal-Kosten-Anteil an den IT-Budgets gewinnen? Denn noch viel wichtiger ist in der gegenwärtigen wirtschaftlichen Evolutionsphase die Entwicklung der Personal-Kosten eines Lösungs-Ansatzes: Dabei spielt die Entwicklung der Mitarbeiter-Produktivität eine entscheidende Rolle. Bei dieser Zielsetzung ist das Personal-Kosten-Segment in der Luftfahrt bekanntermaßen schon sehr weit fortgeschritten: Die Entwicklung erfolgte dabei in 2 Richtungen: Zu sehr viel größeren Flugzeugen, bis ca. 800 Passagiere beim A380 gegenüber nur ca. 50 Passagieren noch vor ca. 50 Jahren. Und zu immer weniger Personal: Nur noch 2 Piloten auch bei Interkontinental-Flügen und das auch nur v.a. aus psychologischen Gründen, gegenüber früher 4 "Mann" Cockpit-Besatzungen. Der Unterschied bei den Personal-Kosten ist auch deshalb so groß, weil in der Luftfahrt inzwischen schon fast "autonom geflogen" wird. Die Daten sind in etwa wie folgt:
    1.3PK-Kosten pro Passagier: Flugzeug € 2,3
    (Berechnungs-Einzelheiten Flugzeug: 2*130 Tsd/800/(168*0,83) = 2,3 PK / Passagier)
    2.2HW-Kosten pro Passagier: Auto € 90,9
    (Berechnung Auto: 30 Tsd/220*6/6/(3*0,5) = 90,9 / Passagier)
    Erkenntnis-Gewinn-bringend ist an dieser Konstellation die Tatsache, dass auch bei diesem Aufgaben-Bereich das Personal-Kosten-Segment schon seit längerem Entscheidungs-dominant ist. Und dass Produktivitäts-Tools bekanntlich nur dann entwickelt werden, wenn dafür eine ausreichend große Nachfrage besteht.
  • Ein ebenfalls Erkenntnis-Gewinn-bringender Unterschied sind die Einstiegs- und Ausstiegs-Lokationen bei Reisen mit Flugzeug oder Taxi und ihr Einfluss die Auswahl des best-geeigneten Transportmittels. Die optimale Reise-Lösung einer Reise nach Berlin sieht dabei offensichtlich wie folgt aus: Mit dem Taxi zum Flughafen, mit dem Flugzeug nach Berlin und dann wiederum mit einem Taxi zur finalen Destination. Dieser Lösungs-Ansatz ist aber nur ab einer Mindest-Entfernung von ca. 400 Km gültig. Da gibt es nach unserer Erfahrung durchaus Ähnlichkeiten mit der Enterprise-IT, nämlich bei der Frage der optimalen Kombination einer zentralen Lösung mit dezentralen Lösungen. (⬈ Die Überlegenheit Integrierter Lösungen)

Wer alle diese Vorteile integrierter Lösungen kennt, der schaut wahrscheinlich fassungslos auf die seit etwa 15-20 Jahren andauernde Fehl-Entwicklung der Enterprise-IT. Derart verkorkste Situationen haben aber auch den Scharm der "Chancen für die Kenner der Best-Practice-Lösungen", denn die können bei deren Überwindung mittels großer Wettbewerbs-Vorteile sehr attraktive Gewinne einstreichen.

Erkenntnisse

Holistische Lösungsempfehlungen

Unsere qualifizierte Empfehlung zur Umkehr:
"BBO-Algorithmus + BBO-Realisierungs-Architektur"

Schon das Entlarven des TCO-Algorithmus als völlig ungeeignetes Mess-Instrument für die Enterprise-IT mit Fake-Marketing-Eigenschaften ist offensichtlich alles andere als trivial, wie die leidvolle Erfahrung vieler Betroffener in den letzten ca. 15-20 Jahre gelehrt hat: Denn wie sonst ist es zu erklären, dass es selbst der Haupt-Leidenstragende, die IBM, für seine immer noch wichtigsten Produkte, die Mainframes, immer noch nicht geschafft hat?

Dass wir nicht nur den TCO-Algorithmus als Gross-Schaden-stiftendes Mess-Instrument entlarven konnten, sondern darüber hinaus auch eine qualifizierte "Winners-only-Lösung auf Best-Practice-Niveau", einen "BBO (Best Benefit of Ownership)-Algorithmus und eine BBO-Realisierungs-Architektur" anbieten können, "verdanken" wir dem von uns für die "Digitalisierung der Unternehmen auf Best-Practice-Niveau" entwickelten "Holistischen Methodischen Lösungsansatz" mit Alleinstellungsmerkmal: Er ist ganzheitlich, strategisch konzipiert und unterscheidet sich damit fundamental von den "Silicon-Valley-typischen", Garagen- oder Studenten-Buden-geprägten Lösungsansätzen, wie z.B. bei Apple, Microsoft, Google und Facebook. Denn diese Studenten-Start-ups realisieren den üblichen US-Amerikanischen, taktischen, lokalen, angeblich pragmatischen Ansatz, der sich bei genauem Hinsehen aber als „singulärer, zunächst relativ trivialer Ein-Ideen-Ansatz“ entpuppt, der seinen Viele faszinierenden, hohen ökonomischen Erfolgt fast ausschließlich dem hohen Reproduktions-Multiplikator von mehreren 10 hoch 9 Kopien verdankt! Auch der TCO-Ansatz basiert offensichtlich auf dieser US-Amerikanischen Herangehensweise an Problem-Lösungen.

Unser "Holistischer Methodischer Lösungsansatz (HMLA)" basiert dagegen auf der Realisierung von Erkenntnissen, die durch eine qualifizierte Analyse der "Schwarm-Intelligenz eines repräsentativen Samples" gewonnen werden: In einem möglichst homogenen, ausreichend großen Sample befinden sich i.d.R. sehr unterschiedlich fortschrittliche Einzel-Lösungen. Daraus lassen sich mit "qualifizierten Algorithmen" insbesondere die "Best-Practice"-Lösungen herausfiltern, wie z.B. "Beste Digitalisierung eines Unternehmens" und insbesondere auch der "Beste, d.h. effektivste und effizienteste IT-Einsatz in einem Unternehmen". Da ein Holistischer Methodischer Lösungsansatz einfach differenzierbar ist, lässt er sich in eine Erkenntnis- und Realisierungs-Architektur untergliedern. Als best-geeignetes Sample haben wir vor ca. 30 Jahren die "deutsche Versicherungs-Branche" ausgewählt, da sie aus ca. 100 Versicherungs-Unternehmen besteht, über eine überdurchschnittliche Homogenität verfügt, qualitativ hochwertiges Daten-Material in den Bereichen Unternehmens-Daten und IT-Daten publiziert und beim Digitalisierungsgrad mit an der Spitze der deutschen Branchen liegt. Sehr geholfen hat uns dabei am Anfang das damals qualitativ hochwertige IT-Daten-Material der IBM, auf das der Verfasser dieser Unterlage als Marketing-Führungskraft der IBM Zugriff hatte. Dieses Daten-Material, Unternehmens-Daten wie IT-Daten, haben wir seither auch mit Hilfe der von uns aufgebauten "Kollaborativen Community" jährlich aktualisiert und erweitert. Und selbstverständlich haben wir auch den Umfang und die Tiefe unseres "Erkenntnis-Portfolios" ständig erweitert und auf die aktuellen Digitalisierungs-Fragestellungen fokussiert: Wie z.B. auf die Frage, ob der TCO-Maßstab die Best-Practice-Zuordnung von neuen Anwendungen auf die gegenwärtig bis zu 4 Computer-Architekturen überhaupt leisten kann.

Mit unseren vom BBO-Algorithmus abgeleiteten "BBO-Maßstäben" lässt sich nicht nur voraussagen, dass der TCO-Maßstab die Kosten einer zusätzlichen Anwendung auf dem MF falsch, weil viel höher als in der Praxis auftretend, prognostiziert. Noch viel bedeutender sind die Best-Practice-Erkenntnisse über die "strategische Ausrichtung des Einsatzes neuer Anwendungen auf die gegenwärtig bis zu 4 einsetzbaren Computer-Architekturen". Dabei sind die folgenden Einzel-Erkenntnisse von zentraler Bedeutung (dt VB, Status 2016):

  • Die Produktivität der "kommerziellen MF-Architektur" ist ca. 3 Mal höher als die "aus der PC-Entwicklung abgeleitete x86-Server-Architektur" und erbringt dabei einen ca. 15 Mal höherem Digitalisierung-Nutzen in den Unternehmen!
    Schlussfolgerung:
    • In der "Strategischen Unternehmens-IT-Planung" ist der MF-Server wieder als das Rückgrat des Enterprise Computing vorzusehen!

  • Auch die "Total Price/Performance (TPP)" des MF ist in der dt. VB 72% besser als bei den x86-Servern. Aus unserem sehr umfangreichem Daten- und Erkenntnis-Material lässt sich folgende Erkenntnis herausfiltern:
    • Bei ökonomischer "Best-Practice"-Realisierung sollten in der dt. VB gegenwärtig etwa 70% der Digitalisierungs-Arbeitslast auf den MFs produziert werden und nur ca. 12% der Arbeitslast auf den x86-Servern.

  • Die "tatsächlichen CPU-HW-Kosten", nämlich (CPU-HW-Kosten + CPU-HW-Betriebs-Kosten) des MF sind auf gleichem Leistungs-Niveau, im Gegensatz zu den üblichen Marketing-Parolen der Wettbewerber, "nur etwa halb so hoch" wie die bei den x86-Servern und "bei gleichem Datenschutz-Niveau" sogar niedriger.
    • Ein Vergleich der "nackten" CPU-HW-Kosten ist deshalb vollkommen irrelevant!

  • Die (SW-Kosten + Personal-Kosten) des MF sind
    • "nur etwa halb so hoch" wie die der x86-Server!
      Da dieses IT-Budget-Segment inzwischen ca. 77% der IT-Budgets umfasst mit weiter steigender Tendenz, davon ca. 62% Personal-Kosten, mit weiter steigender Tendenz, ist dieses IT-Kosten-Segment absolut Entscheidungs-dominant!
    Die Schlussfolgerung lautet deshalb:
    • Die beim MF vorhandenen umfangreichen Produktivitäts-Werkzeuge sollten möglichst im vollen, ökonomisch gerechtfertigten Umfang eingesetzt werden.
Einige Einzelheiten zu diesen Themen sind auf der Präsentation zu finden. Eine umfangreiche Darstellung unseres "Holistischen Methodischen Lösungs-Ansatzes" befindet sich auf unserer Homepage www.is-oc.com.

Unterstützung durch IS-O Consulting

Da wir unser IS Consulting seit 2002 immer stärker über das Internet realisiert haben und viele Daten nach heutigem "Wording" in der Cloud gespeichert sind, erfolgt unser Consulting fast ausschließlich über das Internet. Dabei bieten wir 2 Consulting-Alternativen an:

  1. Eine "Kurz-Analyse-Version" mit der Zielsetzung, unseren Methodischen Ansatz zu erläutern und zunächst die Frage zu klären, ob ein Einsatz gewinnbringend wäre und die Erkenntnisse auch realisiert werden könnten. Für das dafür benötigte Datenmaterial genügt die Genauigkeit "Pi-mal-Daumen". Diese Version ist kostenlos.
  2. Wenn die Kurz-Analyse-Version ein "bedeutendes Digitalisierungs- und/oder IT-Kosten-Einspar-Potential" aufzeigt und dieses IT-Nutzen/Kosten-Potential auch tatsächlich realisiert werden soll, dann bieten wir als Basis dafür eine "Anleitung zur Realisierung" basierend auf dann von uns erarbeiteten "Qualitäts- und Plausibilitäts-geprüftem Datenmaterial". Die Vergütung kann entweder über einen Festbetrag erfolgen oder über einen Anteil am realisierten IT-Nutzen-Potential.
  3. Zur Verfügung stellen werden wir auch jeweils eine "jährliche Aktualisierung":
    1. Für die kostenlose Version ein kostenloses Update im Rahmen einer Mitgliedschaft in der von uns gecoachten "Kollaborativen Community".
    2. Für die Festpreis-Vergütungs-Version im Rahmen einer Aufwands-Vergütung. Bei der IT-Nutzen-Anteils-Vergütung ist die Aktualisierung in der Vergütung natürlich enthalten.

Einordnung des Themas "Die Enterprise-IT in der Sackgasse" in das IS-OC Know-how-Portfolio

Die "Vision von IS-O Consulting" war und ist das "Verfügbarmachen von Entscheidungs-Erkenntnissen zur Realisierung des IT-Unternehmens-Nutzens auf Best-Practice-Niveau" durch Data- und Decision-Mining mit "Winners-only-Realisierung". Das Thema: "Die Enterprise-IT in der Sackgasse: Daten-basierte Analysen und Holistische Lösungs-Empfehlungen" ist dabei nur ein "Neben-Produkt", allerdings ein nicht nur intellektuell sehr reizvolles, wie die unglaublichen Fehleinschätzungen praktisch der gesamten IT-Fachwelt, der IT-Wissenschaft wie auch der IT-Produkte-Hersteller und der IT-Kunden, in den letzten 20 Jahren aufzeigen, sondern auch ein kommerziell sehr bedeutendes: Der nicht realisierte IT-Anwender-Nutzen beträgt bereits in der deutschen Versicherungs-Branche mindestens € 207,6 Millionen pro Jahr. Auf Deutschland hochgerechnet ergeben die Erkenntnisse aus der dt. VB ein IT-Nutzen-Potential von in etwa € 8,7 Milliarden pro Jahr und weltweit ca. € 220 Milliarden pro Jahr, d.h. bei dieser Thematik geht es um mehr als nur um Peanuts. Diese Investitionen liefern dabei übrigens den hervorragenden ROI ~ 6,4:1.

Unser Hauptprodukt bleibt aber die " Realisierung des IT-Unternehmens-Nutzens auf Best-Practice-Niveau" und adressiert ein IT-strategisch und volkswirtschaftlich noch viel wichtigeres und größeres "zusätzliches Enterprise-Digitalisierungs-Potential von bis zu ca. 45% des Aufwandes für die Angestellten der Unternehmen". Das erreichbare IT-Nutzen-Niveau ist dabei abhängig ist von der "Qualität des vorhandenen Realisierungs-Know-hows und der Realisierungs-Teams". Zur Realisierung dieses Digitalisierungs-Nutzen-Potentials müssten Investitionen in die Unternehmens-IT um ca. 65% pro Jahr erhöht werden, wobei sich die hervorragende Profitabilität mit einem ROI von größer 4:1 realisieren lassen sollte.

Eine ausführliche Beschreibung des von uns entwickelten "Holistischen Methodischen Lösungsansatzes zur Realisierung des IT-Unternehmens-Nutzens auf Best-Practice-Niveau" haben wir unter www.is-oc.com veröffentlicht. Dazu gehört auch ein "IT-Unternehmens-Nutzen/Kosten-Rechner" zur Ermittlung des individuellen unausgeschöpften IT-Unternehmens-Nutzen-Potentials.

Unsere Visionen
"Simply the Best" und "Winners-only"

Zusammenfassung in Präsentations-Form


  • Übersicht
  • TCO: Der Digitalisierungs-
  • MF Kennzahlen
  • Überlegenheit
  • IT-Bereichsoptimierung
  • Total Price Performance (TPP) für die aktuell 4 Architekturen
  • IT-Nutzen-Potential VZ Leben
  • Bestimmung der Kommerziellen Leistung von x86-Servern
  • Kommerzielle Leistung der x86-Server
  • Auswertung eines IBM Benchmarks
  • Bestimmung der Kommerziellen Leistung der x86-Server: Alternative 2
  • Bestimmung der Kommerziellen Leistung der x86-Server: Alternative 2, Einzelheiten
  • Bestimmung der Kommerziellen Leistung der x86-Server: Alternative 3, Nutzen/Kosten-Verhältnis
  • Die Überlegenheit Integrierter Lösungen
  • Die Überlegenheit des Enterprise-Computing
  • Repräsentative Brutto->Netto-Situationen
  • Marketing
  • Qualifizierte Lösungs-Alternative