SAP kann nicht übernommen werden!

Kommentar/ Analyse von Rudi Kulzer

Seit Wochen geistern Gedanken um eine mögliche Übernahme von SAP durch die Wirtschaftsblätter. Doch kann das einzige namhafte deutsche Softwarehaus wirklich seine Freiheit verlieren? Das ist keine Frage der Finanzen, sondern des Managements.

Das Thema hat Mitgründer und Aufsichtsratschef Hasso Plattner selbst angestoßen: „ Auch unsere Firma muss wachsen, sonst passiert uns das, was Opel 1929 passiert ist: dass die Firma einen neuen Besitzer bekommt“, war in der Januarausgabe des Manager Magazins zu lesen. Die von Plattner bewusst geschürte Furcht vor einer möglichen Übernahme zieht sich wie ein roter Faden durch den Artikel „Tief über Walldorf“ des Hamburger Wirtschaftsmagazins. Davon angeregt, setzt sich auch die Düsseldorfer Wirtschaftswoche in ihrer Ausgabe 7 (Kampf um die Ikone) mit dem Thema auseinander.

Doch kann SAP wirklich übernommen werden und sinnvoll mit seinen Angeboten und Inhalten am Markt weiterleben? Ich behaupte – Nein! SAP muss sich schon selber helfen, die Karre wieder flott zu kriegen oder langsam untergehen. Das Thema ist keine Finanzfrage, sondern eine Auseinandersetzung um Unternehmertum, Management und Machbarkeit.

SAP Walldorf

Als mögliche Übernehmer nennt das Manager Magazin die IT-Konzerne Microsoft, Google, Hewlett-Packard und IBM. Die WiWo hat in seiner „Tabelle der Konkurrenten“ alle außer Google, aber korrekter Weise auch den direkten Konkurrenten Oracle aufgelistet. Dazu muss gleich bemerkt werden, dass nur Microsoft und Oracle wirkliche Konkurrenten sind, Google spielt in einer völlig anderen Liga, IBM und HP dagegen sind eher Hardware-Partner.

Analysieren wir also zunächst einmal die beiden Softwarehäuser als mögliche Übernehmer.

Oracle-Chef Larry Ellison hat seit einer Reihe von Übernahmen der vergangene Jahre inhaltlich alles an Bord, was er als Anbieter auf dem IT-Markt braucht, mit Sun sogar Hardware und Prozessoren. Das Motiv einer Akquisition von SAP wäre als die Vernichtung eines Konkurrenten. Das ist sowohl kartellrechtlich undenkbar wie gegenüber dem weltweiten Kundenstamm von SAP nicht verantwortbar. Oracle könnte es weder stemmen, diese Kunden auf seine Business-Produkte zu migrieren, noch die SAP-Produkte ernsthaft weiter bedienen.

Auch eine Übernahme durch Microsoft mit seinem Chef Steve Ballmer wäre ein Fall für die Kartellbehörden auf beiden Seiten des Atlantiks. Das (noch) mächtige Softwarehaus aus Redmond könnte SAP zwar theoretisch gut in seinem bereits heute etwas überfüllten Portfolio gebrauchen, kann aber mit Software für größere Unternehmen nicht wirklich etwas anfangen. Microsoft ist in der Welt der Personal Computer und PC-Server sowie in der Konsumerwelt  zu Hause, Corporate Computing gehört nicht dazu. Kleinere und mittlere Unternehmen zu bedienen, ist schon Aufgabe genug. Das Haus hat bisher die Übernahme des dänischen Softwarehauses Navision kaum nutzbringend für den Kunden verdaut.

Suchmaschinen-König Google stößt zwar aggressiv ins Online-Geschäft mit Unternehmen vor, schreibt das Manager Magazin. Eine Übernahme von SAP wäre aber ein völliger Strategiewechsel. Dennoch haben die Walldorfer  Google selbst als Interessenten ins Spiel gebracht. Zudem stellt sich die Frage, ob Google-Chef Eric Schmidt und seine Mannen in Mountain View eine solche Aufgabe stemmen könnten?

Bleiben noch die beiden großen Hardware-Anbieter IBM und HP.

HP-Chef Mark Hurd könnte strategisch SAP gut gebrauchen, hat doch der am Umsatz gemessen größte IT-Anbieter aus Palo Alto im Vergleich zu IBM noch zu wenig Software an Bord. Doch anders als Big Blue besteht HP in Wirklichkeit aus drei Firmen, einem Druckerhaus, einem PC-Laden und einem Computerhaus mit einer Reihe von Servern und Speichern. Um letzteres wettbewerbsfähiger gegenüber der IBM zu machen, hat Hurd bereits das Servicehaus EDS gekauft und versucht dieses zu integrieren. SAP wäre wohl ein zu großer Brocken, hat doch HP den Merger mit Compaq gerade so überlebt. Compaq dagegen ist an der Übernahme von Digital Equipment letztlich zu Grunde gegangen.

IBM dagegen ist das Mutterhaus, aus dem SAP 1972 als Ausgründung für Finanzsoftware hervorgegangen ist. Heute ist Big Blue für SAP ein wichtiger Partner, vor allem bei Großkunden, die ihre Anwendungen auf Mainframe System z laufen haben. SAP würde kulturell am besten zu IBM passen. Aber auch hier bleibt die Frage, ob IBM das verdauen könnte und SAP als IBM-Tochter nicht zu viele Kunden auf anderen Plattformen verprellen würde.

Ein letzter Gedanke zu SAP selbst. Hasso Plattner muss wohl seine Aussage überdenken, dass nur schiere Größe durch Wachstum das Überleben eines Weltkonzerns sichert. Wie das Beispiel Toyota derzeit zeigt, kann das sehr schnell ins Auge gehen. In diesem Zusammenhang bleibt für die Walldorfer die Frage, ob sie sich nicht von ihren Plänen, denn Mittelstand zu bedienen, verabschieden sollten. Das können Firmen wie Infor und KHK Sage besser. Diese Aussage gilt auch für Oracle.

Alter Traum von der digitalen Schiefertafel

Hintergrund / Analyse von Rudi Kulzer

Technikseiten von Tageszeitungen wie IT-Fachmedien überschlugen sich schon seit Wochen mit spekulativen Vorankündigungen um Apples heute vorgestelltes neues Wundergerät – einen Tablet PC der neuesten Generation. Doch der Traum von der digitalen Schiefertafel ist uralt und war bisher eine Geschichte voller Flops.

Microsoft-Chef Ballmer glaubte der heutigen Ankündigung von Apple-Chef Steve Jobs zuvorkommen zu müssen, als er Anfang Januar am Vorabend der diesjährigen Consumer Electronic Show (CES) in Las Vegas wieder einmal eine Lanze für Tablet PCs brach. Das hat der Mitgründer von Microsoft, Bill Gates, schon 2001 auf der damals noch existierenden PC-Messe Comdex ebenfalls in Las Vegas versucht.

Ging es bei Gates Tablet PC noch um einen besonderen PC ohne Tastatur, um einen Bildschirm-PC mit elektronischer Stifteingabe, scheint es sich bei den Tabletts der CES 2010 eher um Konkurrenten von Amazons elektronischen Buchleser (eBook) „Kindle“ zu handeln. Diese Geräte gehören zur Gruppe digitaler Lesegeräte und nicht zu elektronischen Schreibgeräten.

Mobiles, digitales Lesen scheint die Hoffnung der Stunde zu sein, auf das Gerätehersteller, Softwarehäuser und die Verlage der Medienbranche gleichermaßen setzten. Der Stift oder Finger wird hier auf einem Berührbildschirm (touch screen) anstelle der Maus als Zeigegerät, aber kaum als Schreibgeräte benutzt.

????? Sollte Apple neues Wundergerät, wie vielfach kolportiert, „iSlate“ heißen, wäre diese der falsche Ausdruck. „Slate“ heißt im Englischen die Schiefertafel und ist somit ein gängiger Begriff für ein Schreibgerät. Der Feuilleton der Süddeutschen Zeitung vom 26.1.2010 über die Geschichte der Schiefertafel schreibt zwar in einer Zwischenüberschrift: „ Die Schiefertafel funktioniert wie ein Arbeitsspeicher, dann man immer neu überschreiben kann“, doch dann ist die Tafel immer noch ein Eingabespeicher, und kein Lesegerät eines externen Inhaltsspeicher.

Zwiti: Elektrischer Stift und Handschriftenerkennung

Die Idee eines elektrischen Stiftes und der maschinellen Erkennung von Handschriften tauchte erstmals bereits 1888 (!) auf. Erste Computer mit elektronischem Eingabestift  gab es schon einige Jahre vor den Tablet PCs. Sie hießen damals Pen Computer. Der Begriff Tablet PC selbst wurde wie erwähnt 2001 von Microsoft eingeführt.

Das erste Konzept zu einem tragbaren Computer mit intuitiver Benutzeroberfläche stammte von Alan Kay aus dem Labor Xerox PARC in Palo Alto. In entsprechenden Arbeiten der 70er Jahre war hier von einem Dynabook die Rede. Einer der ersten echten Computer mit Stifteingabe war der 1993 vorgestellte Newton von Apple. Das DIN A5 große Gerät war wegen seiner Größe (als PC zu klein, für die Hemdentasche zu groß) und noch zu schwachen Prozessorleistung als Personal Computer ein Flop, aber doch ein wichtiger Vorläufer der heutigen PDAs (Personal Digital Assistent).

Zwischen 1992 und 1994 präsentierten gleich mehrere namhafte Hersteller wie etwa Fujitsu, IBM und NCR Pen Computer, die entweder unter „Windows for Pen Computers“ von Microsoft oder „PenPoint“ der GO Corporation liefen. Pioniere von Pen-PCs waren GRiD und die GO Corporation, Unternehmen, die heute nur noch IT-Historiker kennen. 1995 nahmen alle Hersteller ihre penbasierten Produkte für Endverbraucher vom Markt. Als Eingabegeräte der Industrie (BDE – Betriebs Daten Erfassung) spielen sie jedoch bis heute eine wichtige, wenn auch wenig beachtete Rolle.

Microsoft dagegen glaubte weiter an stiftbedienten Computern, wie Bill Gates auf der Comdex 2001 demonstrierte und 2002 für die Tablet PC-Erweiterung des Betriebssystems Windows XP veranlasste. Seither sind eine Vielzahl von Endgeräten, unter anderem von Dell, Fujitsu-Siemens, Hewlett-Packard, Lenovo und Toshiba erhältlich. Die Nachfrage scheint aber nicht besonders hoch zu sein. Anbieter wie Acer haben sich daher 2007 bereits wieder aus dem Geschäft mit Tablet PCs zurückgezogen.

???? Ob es Apple mit seinem neuen, multimedialen Lesegerät wieder, wie schon beim iPhone, gelingt, Zeichen zu setzen, bleibt fraglich. Das ist vielleicht eher eine Generationen- und keine reine Preisfrage.

Datenbanken – Herzstück der IT

Datenbanken – Herausforderung zwischen physikalischem Speicher und logistischem Zentrum

Datenbanken blicken in der elektronischen Datenverarbeitung auf eine lange Geschichte zurück und stehen nach wie vor im Mittelpunkt des Interesses der Unternehmens-IT. Verständlich, sind sie doch der Hort der Unternehmensdaten und damit Grundlage des geschäftlichen Alltags.

Als der Kommandant der Apollo 11 Mission, Neil Armstrong, am 19. Juli 1969 als erster Mensch seinen Fuß auf die Oberflache des Mondes setzte, hatte der Astronaut nicht nur in der Geschichte der Raumfahrt einen Meilenstein gesetzt, sondern auch in der Datenverarbeitung. Die Apollo-Mission der Amerikaner hatte als Nebenprodukt auch zur ersten Entwicklung strukturierter Datenspeicher geführt. Damit war eine Anwendung der Informationstechnik geboren, die wir seither als Datenbank kennen.

Apollo 11 Mondlandung 1969

Im Auftrag der NASA hatte in den 60er Jahren die North American Aviation (NAA, heute Rockwell International) eine Software entwickelt, die unter der Bezeichnung GUAM (Generalized Update Access Methode) in die Geschichte der Computerindustrie einging. Es galt, das Problem der NASA-Wissenschaftler zu lösen, dass es damals noch keine Form von Datenspeicherung gab, die mit der riesigen Fülle von Informationen der Apollo-Mission, vor allem mit den vielen Stücklisten von Rakete und Mondlandesystem, fertig werden konnte.

Die Software basierte auf einem Konzept, demzufolge kleinere Teile als Untermenge von größeren Komponenten galten, bis ein fertiges Produkt zusammengefügt werden konnte. Diese Systematik wurde hierarchische Struktur genannt. Als Mitte der 60er IBM mit der Raumfahrt zusammenarbeitete, entstand daraus die erste hierarchische Datenbank für IBM-Mainframes, IMS (Information Management System) und damit das erste „Daten Bank Management System“ (DBMS) als kommerzielles Softwareprodukt.

Ebenfalls Mitte der 60er Jahre gab es ein zweites bedeutendes Projekt zum Thema Datenbanken, die Entwicklung der Software IDS (Integrated Data Store) von General Electric. Unter der Leitung von Charles Bachmann entstand ein Datenbanktyp, der als „networked database“ bekannt wurde. Er sollte komplexere Beziehungen der Daten untereinander erlauben als das hierarchische Modell. Daraus entstand ein erstes Standardkonzept, CODASYL (Conference of Data Systems Languages) genannt mit einem dreiteiligen Grundschema (Aufbau des Datenmodells – Verwaltung der Datensätze und Zugriff darauf von Anwendungsprogrammen aus).

Relationale Datenbanken erobern den Markt

Die entscheidenden Arbeiten für den Aufbau der Datenbankprogramme wie wir sie heute kennen, erfolgten in den 70er Jahren. Pionier war Edgar F. Codd vom IBM Research Laboratory, dessen Arbeitspapiere die Grundlage für zahlreiche Entwicklungsschritte dieses Jahrzehnts bildeten. Vor allem aus den Ideen zum relationalen Datenmodell entstanden die Erstausgaben der großen Datenbanken aller bekannten Hersteller, wie sie bis heute in den Unternehmen eingesetzt werden.

 

IBM-Forscher E.F. Codd

Das relationale Modell

Im relationalen Modell sind alle Daten in ein logisches Beziehungsmodell eingebunden, das in Form von Tabellen dargestellt wird. Jede Beziehung hat einen Namen und besteht aus benannten Attributen. Sie werden durch die Spalten der Tabelle repräsentiert. Jede Zeile enthält pro Attribut einen Wert. Der Vorteil des relationalen Datenmodells liegt in seiner einfachen logischen Struktur sowie darin, dass innerhalb einer Datenbanktabelle keine physikalischer Plattenpointer gebraucht werden, wie sie im hierarchischen- und im Netzwerk- Modell notwendig waren.

Fachleute sind sich einig, dass das „relationale Modell“ bis heute die beste theoretische Grundlage für die Darstellung von Datenbankinhalten ist. Dieser „Touch“ fehlte bei den Hierarchischen- und Netzmodellen der Vorgängergeneration. Relationale Datenbank Management Systeme (RDBMS) sind bis heute die vorherrschende Gruppe aller Softwareprodukte in der Unternehmens-IT unserer Tage.

Doch die ersten Implementierungen von relationalen Datenbanken waren trotz ihrer unübersehbaren Vorteile nicht leistungsstark und wurden deshalb kaum kommerziell eingesetzt. Dies änderte sich 1987 als es Tandem Computers unter der Leitung von Jim Grey und unter Beobachtung von Codd gelang, einen Benchmark zu setzen, der neben der  linearen Skalierbarkeit vor allem den Nachweis erbrachte, dass relationale Datenbanken ebenso performant wie etwa hierarchische sein konnten.

Ab diesem Zeitpunkt begann für alle Hersteller relationaler Datenbanken der Wettlauf um immer noch bessere Performance-Werte, der bis heute anhält. Dabei gilt es zu bedenken, dass Datenbanken wegen des Wertes der darin gespeicherten Unternehmensdaten ein höchst konservatives Geschäft sind, das sich nur langsam verändert  – ein Thema Herz-Lungen-Maschinen.

Objektorientierte Datenbanken

Ende der 80er Jahre verstärkte sich in der IT-Industrie und den damit verbundenen Programmiersprachen eine Tendenz, die unter dem Fachbegriff „Objektorientierung“ bekannt wurde.  Ziel der Entwickler war es, mit Objekten eine bessere Wiederverwendung von Programmmodulen zu erreichen. So sollten sowohl teure Entwicklungszeit verkürzt, wie auch die Kosten für Wartung und Pflege deutlich gesenkt werden.

Während  sich bei den Programmiersprachen der Trend der Objektorientierung (OO) schon früh durchsetzten konnte (C, C++ und Java), gelang es nicht, diese Technologie wegen mangelnder Performance auch in der Datenbankwelt zu verankern. Dies bedauern Softwareentwickler bis heute, besteht doch dadurch immer noch ein Bruch zwischen den Vorteilen der Objektorientierung bei der Entwicklung von Anwendungen und der Speicherung ihrer Daten.

Gelöst wird das Problem durch ein OR-Mapper genanntes Softwarewerkzeug. Dieses bildet die im Programm gewollt genutzte Objektsicht in Relationen (Tabellen) in der Datenbank ab oder verfährt entsprechend umgekehrt. OR-Mapper werden heute in erster Linie von den Datenbankherstellern als integraler Bestandteil des jeweiligen DBMS angeboten. Es gibt aber auch sehr erfolgreiche Produkte von Drittherstellern, beispielsweise das aus der Open Source Community kommende Produkt „Hibernate“.

Businesskritische Anwendungen

War historisch der Flug zum Mond die erste Anwendung für Datenbanken, so hatten damals Firmen wie IBM rasch erkannt, dass Datenbanken auch für Kunden, die täglich mit großen Datenmengen umgehen, gewinnbringend eingesetzt werden konnten. Das waren in erster Linie Unternehmen des Finanzsektors, der in den USA sein Mekka hat. Dabei haben aus heutiger Sicht Börsen, Banken und Versicherungen teils unterschiedliche Anforderungen.

 

Deutsche Börse in Frankfurt / M. - Handelsaal

In den 60er Jahren war Papier (Belege) auch bei den Banken das Medium für Ein- und Ausgabe um Buchungsvorgänge auszulösen, während heute die Mehrzahl dieser Transaktionen praktisch papierlos und online (Bankautomat, Bankkarte und Internet) erfolgen. Im Versicherungswesen dagegen werden teilweise bis heute Verbuchungen über  Belege ausgelöst. Die Verarbeitung von solchen Papier-Belegen erfolgt seit den Anfängen der IT in der sogenannten Stapelverarbeitung (Batch). Durch die rasant  zunehmende Nutzung des Internets in allen Geschäftsebenen verschwindet die klassische Batchverarbeitung allerdings immer mehr.

Heute haben dieser Trend, der sich seit der Kommerzialisierung des Internet Mitte der 90er erheblich verstärkt hat, und die daraus abzuleitenden Aufgaben der IT praktisch in allen Branchen Einzug gehalten. Besonders sind in diesem Zusammenhang der Handel, die Telekom-Industrie, die automatisierte Fertigung sowie alle Bereiche der Verwaltung zu nennen.

Das führte zu einer erheblichen Veränderung der Werkzeuge der Laufzeitumgebung (Run Time Environment) für Anwendungen. Waren anfangs Transaktionsmonitore (OLTP – Online Transaction Processing) wie CICS und Tuxedo im Mittelpunkt des Interesses, so sind heute mächtige Applikationsserver wie BEA Weblogic (heute Teil von Oracle Fusion), IBM Websphere, Netweaver von SAP sowie JBoss aus der Open Source Gemeinde im Einsatz. Angesichts des unglaublichen Erfolges des Internets stehen heute vor allem Web Services im Zentrum der Weiterentwicklung der Datenbanken.

Transaktionen – OLTP

Die klassischen Anwendungsfälle von OLTP sind die IT Unterstützung des operationalen Tagesgeschäfts bzw. die online Abbildung der Geschäftsprozesse von Unternehmen. Diese Aufgaben werden unter anderem von so genannten ERP-Systemen (beispielsweise SAP) wahrgenommen, die wiederum ihre Daten aus  Datenbanksystemen beziehen. Diese verwalten meist sämtliche Unternehmensdaten wie Personaldaten, Lagerbestände und Geschäftsvorgänge, wie Einkauf  und Vertrieb. Moderne Unternehmen mit weitreichender IT Unterstützung sind deshalb von der Verfügbarkeit und Integrität dieser Daten extrem abhängig. Daher werden solche Anwendungen mit ihren Daten als unternehmenskritisch eingestuft.

Der Einsatz von OLTP führte dazu, dass die operativen Datenbestände immer aktuell sind. Daraus entstand in den Unternehmen der Wunsch, diese zur Unterstützung bei Entscheidungen intensiv einbinden zu können. Dies führte zu speziellen Datenbankformen für Data Warehousing und Data Mining und damit verbunden zu einem raschen Aufkommen von  sogenannten Business Intelligence (BI) Programmen.

Data Warehousing, Data Mining und Business Intelligence

Die hohe Nachfrage nach diesen neueren operationalen und analytischen Systemen resultiert aus der Tatsache, dass viele Unternehmen effektive Entscheidungen nur von einem völlig aktuellen Abbild der Unternehmensdaten und einer weit zurückreichenden Daten-Historie (Trend Analyse) ableiten können. Dies betrifft sowohl die Firmenleitung für ihre strategischen Entscheidungen, als auch die mit absolut aktuellen Informationen zu entscheidenden taktischen Aktionen für einzelne Unternehmensbereiche, wie zum Beispiel Läger, Fertigung, Distribution oder auch CallCenter und Websites des Unternehmens.

Damit steigen die Anforderungen an riesige Enterprise Data Warehouse (EDW) Systeme bezüglich der zu speichernden Daten Volumina als auch bezüglich der Arbeitslast (Komplexität der Abfragen) ins Unermessliche und dabei explodieren regelrecht die Kosten für solche Systeme, versucht man herkömmliche Technologien dafür einzusetzen. Die Hersteller von EDW Systemen zielen deshalb auf den stärkeren Einsatz von preiswerten Standardkomponenten und über das große Hardwarevolumen (viele Platten, viele Prozessoren) solcher Systeme versucht man neue, sehr viel niedrigere Preispunkte zu definieren, um derartige Projekte kommerziell umsetzbar zu machen.

Vor diesem Hintergrund der Auswertung der Inhalte von Datenbanken ist in den vergangenen 15 Jahren ein weiteres IT-Instrument verstärkt in den Blickpunkt gerückt, im Branchenjargon „Business Intelligence“ genannt. Ursprünglich verstand man darunter die Automatisierung des Berichtswesens (Reporting). Die in den Unternehmensapplikationen gesammelten Daten werden genutzt, um unter verschiedenen Blickwinkeln die Situation des Unternehmens zu analysieren und zu bewerten. Dieser Prozess der Datenanalyse wird im IT-Fach-Jargon OLAP genannt. Das Kürzel steht für „On-Line Analytical Processing“, eine Suchmethode (retrieval), um multidimensionale Informationsbestände eines Unternehmens aus Datenbanken für die Entscheidungsunterstützung sichtbar zu machen.

Bekannt wurde OLAP, als 1995 Oracle und Informix (gehört heute zu IBM)  ihre ersten Produkte unter dieser Bezeichnung auf den Markt brachten.

Die Analyse der Daten erfolgt nicht in den operativen Datenbanken, sondern in einer daraus separat erzeugten Datenbank, dem bereits erwähnten Data-Warehouse (DWH). Die Gründe für die Auslagerung (einschliesslich Transformation) der operativen Datenbestände in eigenständige Data Warehouses liegen erstens darin, dass DWHs häufig für ihre komplexen Such- und Analysevorgänge veränderte Tabellenstrukturen benötigen und zweitens durch die komplexen – und damit extrem arbeitsintensiven – Analysevorgänge nicht auszuschliessen ist, dass die Online Transaktionssysteme der operativen Unternehmensanwendungen beispiesweise durch verlängerte Antwortzeiten beeinträchtigt werden.

Die erste Aufgabe in BI-Projekten ist es, Momentaufnahmen der Daten der Unternehmensapplikationen periodisch für die Analyse in eigene DWH- Datenbanken zu übertragen. Dies erfolgt durch Extraktion der operativen Daten, ihrer Transformation und dem Laden in das Data-Warehouse (ETL Werkzeuge – Extract, Transform, Load). Diese ETL Werkzeuge sind heute so intelligent, dass ein vollständiger Ladevorgang nur beim ersten Laden durchgeführt werden muss. Nachfolgende Ladevorgänge ziehen lediglich Veränderungen des ursprünglichen Datenbestandes im Data Warehouse nach. Die zweite Aufgabe besteht darin, die für das Berichtswesen notwendigen analytischen Auswertungen einzurichten. Dies reicht von einfachen Aggregationen etwa dem Zusammenstellen von Umsatzzahlen einzelner Artikel bis hin zu komplizierten statistischen Analysen mittels Data-Mining wie etwa Trendanalysen von Kundenverhalten.

Die Bedeutung des Genres führte 2007 zu einer Übernahmeschlacht von BI-Spezialisten. Den Startschuss gab damals Oracle-Chef Larry Ellison, als er im Frühjahr 2007 Hyperion Solutions übernahm. Die bekanntesten Anbieter neben Hyperion waren Cognos aus Kanada und Business Objects aus Frankreich. Die beiden letzteren wurden dann im Sommer bzw. Herbst 2007 von zwei weiteren großen Playern übernommen, BO von SAP, Cognos von IBM. Auch Microsoft ist in diesem Zusammenhang zu nennen. Das mächtige Softwarehaus aus Redmond hatte schon 2004 den BI-Spezialisten ProClarity akquiriert, um für diesen vielversprechenden Markt gerüstet zu sein.

Oracle, IBM und Microsoft beherrschen den Markt

Nach einer Untersuchung der Marktforscher von Forrester (Studie „The Forrester Wave: Enterprise Database Management Systems, Q2 2009“) liegt das Marktvolumen für Datenbanksysteme (Lizenzen, Support, Service und Beratung) derzeit bei einem Gesamtumsatz von etwa 27 Milliarden US-Dollar. Mit einem jährlichen Wachstum von acht Prozent soll dies bis 2013 auf 32 Milliarden US-Dollar anwachsen.

Diesen Markt beherrschen, so Forrester, heute mit einem Anteil von 88 Prozent nur drei Anbieter: Oracle, IBM und Microsoft. Dazu kommen einige spezialisierte Produkte von traditionellen Anbietern wie Teradata, HP (früher Tandem) und Sybase. Wie die Auseinandersetzung der EU aktuell mit Oracle zeigt, spielen heute auch Open Source Datenbanken wie MySQL eine wichtige Rolle im Markt der Unternehmens-Datenbanken.

Rudi Kulzer und Helmut Öhlinger


Machtfaktor Mainframe

Analyse/Hintergrund von Rudi Kulzer

Nach Berichten aus der US-Presse könnte IBM eine Kartellklage drohen. Deutsche Medien haben das Thema entsprechend übernommen. Dabei geht es um IBMs Vorherrschaft bei Großrechnern vom Typ „Mainframe“, einem Bereich, der als Saurier der IT-Steinzeit immer wieder tot gesagt wurde und offensichtlich doch im Kampf um die Rechenzentren der Zukunft nach wie vor eine wichtige Rolle in der elektronischen Datenverarbeitung spielt.

Die Nachricht: Die Kartellwächter des US-amerikanischen Justizministeriums haben eine Untersuchung zur Stellung des IT-Konzerns IBM auf dem Markt für Großrechner eingeleitet, berichtet der online-Dienst Heise und beruft sich dabei auf Artikel in den US-Medien. In der Tat haben sich sowohl die New York Times wie auch das Wall Street Journal in größeren Artikeln ausführlich mit diesem Thema auseinander gesetzt.

Dort war zu lesen, dass dem US-Justizministerium eine Beschwerde des Branchenverbands Computer and Communications Industry Association (CCIA]) vorliege, laut der IBM die Konkurrenz behindert und sich geweigert habe, seine Technik an Mitbewerber und potenzielle Partnerunternehmen zu lizenzieren. Nun sucht das Justizministerium Informationen zu den Geschäftspraktiken des IT-Konzerns.

Realistisch betrachtet hat die IBM schon seit Jahren praktisch keine direkten Konkurrenten beim Einsatz seiner aus den 60er Jahren stammenden und seither systematisch weiter entwickelten  Mainframe-Architektur.

Der bekannteste Herausforderer war in den 70er Jahren der aus Norwegen stammende Gene Amdahl, der als ehemaliger IBM-Mitarbeiter maßgeblich an IBM-Großrechnern beteiligt war. Mit der Unterstützung des japanischen Konzerns Fujitsu gründete er die Amdahl Corporation in Sunnyvale in Kalifornien und stieg in den Großrechner-Markt ein. 1975 lieferte er seine erste Maschine aus. Damit konnten System/360-Applikationen ohne IBM-Hardware ausgeführt werden.

Die Amdahl-Maschinen bildeten auch die Grundlage für die Mainframe-Rechner von Fujitsu-Siemens, die unter dem Betriebssystem BS2000 laufen und beispielsweise von der Deutschen Rentenversicherung eingesetzt werden. Seit der Trennung von Siemens und Fujitsu und dem damit verbundenen Ausstieg von Siemens aus dem IT-Geschäft steht hier ein großes Fragezeichen im Raum. Hitachi hat sich 2001 aus der Mainframe-Welt verabschiedet. Systeme zur Verwaltung von IBM-Mainframes kommen auch von Drittanbietern wie BMC Software mit Sitz in Houston, Texas und Computer Associates  aus .Islandia, New York.

Als weitere Maschine der Mainframe-Klasse muss noch das ehemalige Himalaya-System von Tandem erwähnt werden, das nach der Übernahme von Compaq und später Hewlett-Packard  heute als NonStop Integrity Server (NonStop OS) unter dem Dach von HP trotz seiner starken Leistung für bestimmte Anwendungen ein eher bescheidenes Dasein fristet. Das System arbeitet ähnlich wie IBM’s Mainframe mit eigener Betriebssystem- und Datenbank Software.

In jüngster Zeit haben einige kleinere Unternehmen im Zusammenhang mit Mainframe-Anwendungen von sich Reden gemacht. So hat 2007 die EU-Wettbewerbsaufsicht das Großrechnergeschäft der IBM untersucht, nachdem die von ehemaligen Amdahl-Mitarbeitern gegründete Startup-Firma Platform Solutions (PSI) eine Beschwerde eingereicht hatte. Die Untersuchung endete allerdings ergebnislos. Im Juli 2008 übernahm IBM das Unternehmen PSI.

Ebenfalls 2007 tauchten in diesem Zusammenhang zwei weitere kleinere Unternehmen in der Fachpresse auf. So wollte IBM Lizenzen für ein in Arbuckle, Kalifornien, angesiedeltes Unternehmen Fundamental Software Inc. nicht erneuern, das Mainframe Emulation Software herstellt. Gleiches galt für die Firma QSGI, einem Spezialist für generalüberholte, gebrauchte Mainframe Rechner (refurbished) aus Bloomington, Minnesota.

Im Januar dieses Jahres reichte die Firma T3 Technologies, ein Mainframe Reseller (1992-2002) aus Tampa, Florida bei der EU-Kommission eine Beschwerde über IBM ein und klagte in den USA vor einem Zivilgericht in New York, das jedoch die Klage vorige Woche abwies.

Die Begründung: IBM habe sehr viel Geld in die moderne Großrechnertechnik investiert. Die Technik nicht zu lizenzieren, sei kein Vergehen gegen das Wettbewerbsrecht. T3 will dagegen in Berufung gehen, schreibt die New York Times. Das Unternehmen habe nun eine Aufforderung des Justizministeriums erhalten, Informationen zu IBMs Marktverhalten herauszugeben.

Auf Anfrage von ZDnet erläuterte IBM-Manager Roland Trauner technisch und wettbewerbsrechtlich die Situation: Technisch arbeiten die genannten Anbieter mit einer Emulation des von der IBM entwickelten Mainframe-Betriebssystems zOS auf Intelprozessoren. Dazu brauchen sie eine Lizenz der IBM. Diese hatte T3 zwar für Maschinen, die von Entwicklern eingesetzt wurden, erhalten, nicht aber für den Einsatz von Anwendungen bei Endkunden, etwa bei Banken. Umgekehrt kann IBM weder Solaris noch Windows auf der Mainframe-Architektur laufen lassen. Zusätzliche Anwendungen auf IBM Big Irons laufen unter Linux.

Angesichts dieser anscheinend wieder entflammten Wettbewerbsfront am  totgesagten Mainframe-Markt muss man sich fragen, warum dieser immer noch attraktiv zu sein scheint? Nach Angaben der Marktforscher von IDC ist der Umsatz mit Mainframes immer noch für einen Marktanteil von 9,9 % des 2008 doch 53 Milliarden Dollar großen Server Marktes gut, schreibt das Wall Street Journal. Und das ist nur die Hardware, die „Big Irons“ (große Eisen) wie sie in der Branche spöttisch bewundernd genannt werden. Ein weiteres erhebliches Umsatzpotential steckt in Software und Services.

Viel wichtiger scheint die Tatsache zu sein, dass unzählige Anwendungen unseres Alltags auf die  Mainframe-Architektur zurückgreifen. Vor allem im Banken- und Versicherungswesen sind die auf Transaktionen und Stapelverarbeitung spezialisierten Big Irons nicht weg zu denken. Scheckeinreichungen oder Überweisungen (Stapel), Abhebungen am Bankautomaten oder Kartenbezahlungen (Echtzeit Transaktionen)  laufen über Mainframe-Systeme.

Leider wird Mainframe häufig als Synonym für Großrechner im Allgemeinen genutzt, wie auch im deutschen Wikipedia-Artikel zu lesen ist. Das ist falsch. Es gibt mehrere Großrechnertypen. So sind im Gegensatz zu sogenannten Supercomputern – früher Number Cruncher, heute HPC (High Performance Computer) genannt, die auf hohe Rechenleistungen (computing) hin entwickelt werden, Mainframes als General Purpose Maschinen (Generelle Anwendungen) auf Zuverlässigkeit und hohen Datendurchsatz ausgelegt. Die typischen Anwendungen eines Mainframes sind wie erwähnt in Banken, Versicherungen, großen Unternehmen und in der öffentlichen Verwaltung zu finden. Dazu kommen noch große Unix Rechner von Herstellern wie beispielsweise Sun Microsystems und HP.

Dieser Server-Markt ist als Basis der Unternehmens-IT schon seit Jahren heftig umkämpft. Dabei konnten für viele Anwendungen Server nach dem sogenannten Industriestandard (Prozessoren von Intel oder AMD, Software von Microsoft oder OpenSource Linux) als preiswerte Lösungen punkten. Dies gilt vor allem für die sogenannten Blade-Server, die auch mit ihren guten „grünen“ Werten der Energieeinsparung im Vergleich zu Serverfarmen in getrennten Gehäusen von sich Reden machten. Doch der „grüne“ Vorteil gilt auch für Mainframes.

Die Herausforderung scheint zu sein, in wie weit die Server des Industriestandards sich auch für die genannten mission-critical Anwendungen der bisherigen Mainframe-Welt einsetzen lassen. Intel und Microsoft sind davon jedenfalls überzeugt und unterstützen daher Firmen wie T3, die für eine Migration unter der Flagge Open Mainframe werben.

Der bekannteste Anbieter für Mainframe-Migration ist das britische Unternehmen Micro Focus. Deren Enterprise Application Modernization Software erlaubt es, „Mainframe- Applikationen mit modernen Technologien und Architekturen wie Java, Linux, .NET oder SOA zu verbinden“. Enterprise-Anwendungen ließen sich so mit weniger Risiko und geringeren Kosten betreiben, so die Werbung. Der Hauptsitz des Unternehmens ist in Newbury, Großbritannien; Niederlassungen bestehen unter anderem in Dortmund und Ismaning bei München.