Interaktion und Transaktion – eine Herausforderung

NoSQL Datenbanken in der Cloud – Datenbanken für Web-Services müssen neben die Geschäfte abschließenden Transaktionen vor allem die suchenden Interaktionen beherrschen – ein wichtige Herausforderung der Zukunft in diesem Genre.

Datenbanken sind seit Jahrzehnten eine Säule der Informationstechnik für die Verwaltung von Daten in Geschäftsprozessen. Das gilt besonders für das Finanzwesen (Banken und Versicherungen), aber auch für den Handel oder das Abwickeln von Dienstleistungsangeboten, etwa die Buchungen von Reiseveranstaltern.

Aufgabe war und ist das gesicherte Abwickeln und Dokumentieren von Geschäftsvorgängen. Diese reichen meist über die gesamte Wertschöpfungskette eines Händlers, von der Bestellung über die Lieferung bis zur Bezahlung oder Mahnung. Die dazu nötigen Vorgänge werden in der IT seit Jahrzenten von Transaktionen bestimmt.

In der Volkswirtschaftslehre bezeichnet man als Transaktion (von lat. trans „über“, actio zu agere „(durch)führen“) eine gegenseitige Übertragung von Verfügungsrechten an Gütern (Waren oder Dienstleistungen). Im Gegensatz zu Transaktionen sind Interaktionen Zugriffe auf eine Datenbasis ohne dabei Veränderungen zu bewirken. In der Informatik dagegen ist der Begriff der Interaktion mit dem Begriff der Kommunikation verwandt.

Anders als das Interaktionskonzept der Soziologie steht Interaktion in der Informatik für Handlungen zwischen Mensch und Computer. Dabei soll das vor über  30 Jahren erfundene Prinzip der „relationalen Datenbanken“, Transaktionen des Geschäfts- und Wirtschaftsleben informationstechnisch  garantieren.

Daher werden in der Informatik Transaktionen als eine Folge von Operationen betrachtet, die als eine logische Einheit gesehen werden. Insbesondere wird für eine Transaktion gefordert, dass sie entweder vollständig ausgeführt sein muss oder keine Veränderung bewirken darf.

Bei der Ausführung von Transaktionen muss das Transaktionssystem daher die sogenannten ACID-Eigenschaften garantieren:

Atomarität (Atomicity): Eine Transaktion wird entweder ganz oder gar nicht ausgeführt. Transaktionen sind also „unteilbar“. Wenn eine atomare Transaktion abgebrochen wird, werden die veränderten Daten zurückgesetzt und die Datenbasis bleibt unverändert, das heißt konsistent.

Konsistenz (Consistency): Nach Abschluss einer Transaktion muss der Datenbestand von einem konsistenten Zustand in einen neuen konsistenten Zustand überführt worden sein. In fast allen Transaktionen werden mehrere Veränderungen in Tabellen vorgenommen, die alle positiv abgeschlossen sein müssen, damit ein neuer konsistenter Zustand der Datenbasis erreicht ist.

Isolation (Isolation): Bei gleichzeitiger Ausführung mehrerer Transaktionen dürfen sich diese nicht gegenseitig beeinflussen.

Dauerhaftigkeit (Durability): Die Auswirkungen einer Transaktion müssen im Datenbestand dauerhaft bestehen bleiben. Die Effekte von Transaktionen dürfen also nicht „mit der Zeit verblassen“ oder „aus Versehen verloren gehen“.

Neue Herausforderungen durch das Internet

Doch diese Welt hat sich mit dem Siegeszug des Internet und der damit verbundenen Dynamik stark verändert. Dort steht eher eine Reihe von Interaktionen im Vordergrund des Handelns. Will man beispielsweise „online“ etwas kaufen, dann sucht der Kunde  erst einmal auf bestimmten Plattformen im Internet, blättert in virtuellen Katalogen und informiert sich bei entsprechenden Preisvergleichsportalen über die Preise.

Findet man  etwa bei otto.de, H&M oder bei Amazon das Gesuchte, legt man  es in den virtuellen Warenkorb, geht im Internet zur Kasse und schließt dann den Bestellvorgang mit bestimmten Vereinbarungen ab. Die Auswahl war bestimmt von einer Vielzahl von Interaktionen, der kaufmännische Bestellvorgang selbst von einigen wenigen Transaktionen.  Das gilt sowohl fürs Internet wie auch  im realen Geschäft an der Kasse („Point of Sale“, POS), an der nur der Geschäftsabschluss per Transaktionen abgewickelt wird.

Diesem einseitigen Mix aus Interaktion und Transaktion sind die klassischen relationalen Datenbanken (RDBMS – Relational Data Base Management Systems) bei Applikationen im web häufig nicht gewachsen. Sie sind streng an der Arbeit mit Transaktionen ausgerichtet.

Das Verhältnis von Interaktionen zu Transaktionen bei typischen web Applikationen kann schon mal  1000 : 1 erreichen. Überlagert wird dieses Lastprofil durch ggf. tausende von Recherchen gleichzeitig. Das funktioniert nur über horizontale Skalierung (Scale out). Vertikale Skalierung (Scale up) kommt sehr schnell an seine Grenzen. Dies zeigt, wo bei dieser Art von Applikationen der Schwerpunkt liegen muss: effiziente – simple – Datenverwaltung die extrem gut horizontal skaliert.

Diese Problemstellungen beispielsweise mit  Oracle RAC oder  IBM Sysplex Cluster mit DB2 angehen zu wollen, führt meist zu einer gewissen Schwerfälligkeit (da die volle Funktionalität der Relationalen DB wird eigentlich nur teilweise genutzt wird) und ist  vor allem für viele Nutzer viel zu teuer. Hier zeigt  sich auch ein Paradigmenwechsel in Bezug auf die vom Markt akzeptierten Kosten für Recherche-Applikationen (extrem hohe Last, viele Interaktionen), aber in vielen Fällen – damit verbunden – wenig Umsatz.

NoSQL Datenbanken gewinnen an Bedeutung

Um diese Situation zu verbessern, gewinnen sogenannte NoSQL Datenbanken zunehmend an Bedeutung. Bei NoSQL Datenbanken , das Kürzel steht für Englisch Not only SQL, handelt es sich um Datenbank Management Systeme , die einen nicht-relationalen Ansatz verfolgen und so mit der langen Geschichte von relationalen Datenbanken brechen. Sie werden häufig in der Wolke des Internets, in der „Cloud“ angeboten.

 

Diese Datenspeicher benötigen keine festgelegten Tabellenschemata.  Sie verzichten auf eine Vielzahl von Funktionen, die man bei ausgereiften RDBs als selbstverständlich erwartet. Allein schon deshalb lässt sich trefflich darüber streiten, ob diese neuen NoSQL Ansätze als „vollwertige“ Datenbanken bezeichnet werden dürfen. Dieser freiwillig geübte Verzichtist in erster Linie dadurch getrieben, eine erheblich bessere horizontale Skalierbarkeit (Scale Out) zu erreichen als dies die etablierten RDB Mitbewerber vermutlich je könnten. Dabei verfolgen die Vertreter der NoSQL Bewegung unterschiedliche technische Ansätze, um sich optimal an Applikationsanforderungen anzupassen, immer verbunden mit dem allgemeinen Ziel Scale Out. Die im akademischen Umfeld meist verwendete Bezeichnung dieser NoSQL Entwicklungen ist „strukturierte Datenspeicher“ (englisch: structured storage).

Bekannte Implementierungen sind Amazon Dynamo und Google BigTable  Darüber hinaus gibt es eine Reihe von Open-Source-Implementierungen, von denen vor allem Apache Cassandra zu nennen ist (Tabelle 1).

Der Begriff  wurde erstmals für eine 1998 erschienene leichtgewichtige Open-Source-Datenbank von Carlo Strozzi verwendet, welche keine SQL-Zugriffsmöglichkeit bereitstellte. Anfang 2009 wurde der Ausdruck NoSQL von Johan Oskarsson in einer Konferenz über verteilte strukturierte Datenspeicher neu eingeführt und etabliert sich seither langsam.

Es ging darum, einen gemeinsamen Begriffs  für die wachsende Zahl an nicht relationalen, verteilten Datenspeichersystemen zu finden, welche meist auch auf ACID-Eigenschaften verzichteten.

Dabei war das Thema nicht brandneu. Daten ohne die Einschränkungen des starren relationalen Modells zu speichern wurde  bereits früher unter dem Motto „Dokumentenorientierte Datenbank“  versucht. Wie Tabelle 2 zeigt, spielen diese Versuche auch heute noch eine gewisse, wenn auch geringe Rolle.

Flexibilität in verteilten Systemen

Viele NoSQL-Implementierungen unterstützen verteilte Datenbanken mit redundanter Datenhaltung auf vielen Servern. Damit können solche Systeme einfach horizontal skalieren und Ausfälle einzelner Server überstehen.

NoSQL-Architekturen bieten meist nur schwächer Garantien hinsichtlich Konsistenz wie beispielsweise „eventually consistent“ (siehe auch unten). Einige dieser Systeme unterstützen auch ACID, beispielsweise durch Hinzufügung spezieller Middleware wie CloudTPS.

Dieses Aufweichen des strengen Konsistenzgarantie („eventually consistent“) bedeutet nicht, dass man generell bereit ist, mit inkonsistenten Daten zu arbeiten. Man nimmt lediglich in Kauf, dass das Überführen der Datenbasis von einem konsistenten Zustand in einen anderen (das findet beim ACID Prinzip in einem nicht unterbrechbaren Vorgang statt ) beim BASE Prinzip asynchron stattfinden darf. BASE steht für Basic Availability, Soft state, Eventual Consistency…

Das heißt, es laufen Hintergrundprozesse, die die erforderlichen Updates erst dann durchführen, wenn Zeit und Ressourcen (CPU, Disc Access Capacity) dafür zur Verfügung stehen. Praktisch bedeutet das, dass eine Änderung der Daten (z.B.  bei Facebook wird ein neuer „Freund“ in mein Netzwerk eingefügt und dieser wird als solcher erst nach einer halben Stunde von anderen Nutzern in der Datenbasis gefunden) meist verzögert auf einen konsistenten Stand gebracht wird und das ist bei vielen dieser web Applikationen tatsächlich akzeptabel.An sich kennt man solche Verfahren schon seit Jahrzehnten von den Buchhaltungssystemen mit ihren „Tagesabschlüssen“.

Noch keine Standards

Da sich die gesamte Situation bei NoSQL noch in einer Entwicklungsphase befindet, gibt es noch keine Standards, auf die Entwickler und Anbieter gesichert zugreifen können. Dies hat dazu geführt, dass mächtige Internet-Player wie Amazon oder Google eigene, proprietäre Lösungen entwickelt haben und nutzen (Tabelle 1). Sie kommen sowohl in den Web Services dieser Anbieter wie auch auf ihren eigenen Vertriebslösungen zum Einsatz.

Namhafte Social Services wie Facebook, Twitter oder Digg arbeiten mit dem quelloffenen  Apache Cassandra, an dessen Entwicklung sie teilweise mitgewirkt haben. Diese Plattformen sind zwar keine „Händler“ wie beispielsweise Amazon, sondern sie bieten vorwiegend ein Kommunikations-Angebot für ihre Mitglieder. In diesem meist ständig wachsenden Daten-Pool eines solchen „Social Networks“ stecken für die Betreiber  gewaltige Geschäftspotentiale, wie fast täglich in den Wirtschaftsgazetten zu lesen ist.

Amazon Dynamo

Amazon Dynamo ist ein verteiltes Dateisystem, das in jüngster Zeit häufig im Zusammenhang  von „Infrastructure as a Service“ (IaaS)  genannt wird. Wie das Google File System ist auch Dynamo für einen konkreten Anwendungsfall optimiert. Es ist  auf die Anforderungen einiger Amazon Web Services (AWS) zugeschnitten, die eine hohe Ausfallsicherheit benötigen.

Für Amazon-Anwendungen muss das dazugehörende  Speichersystem hoch verfügbar und extrem ausfallsicher sein.

Funktionen wie der Shopping Cart Service (der Warenkorb der Amazon-Plattform) erwarten, dass auf das Speichersystem immer schreibend zugegriffen werden kann, das System hoch verfügbar ist und nur geringe Verzögerungen (Latenzzeiten) aufweist. Komplexe Datenbankabfragen werden dabei nicht unterstützt.

Dynamo ist konzipiert,um jederzeit beliebig inkrementell skalieren zu  können und um Belastungsspitzen, beispielsweise im Weihnachtsgeschäft, problemlos abdecken zu können. Komplizierte Datenbankzugriffe werden vermieden, der Zugriff erfolgt direkt über einen Schlüssel.

Dynamo baut auf einem Netz von vollständig gleichberechtigten Rechnern auf, d.h. es gibt keine zentrale Steuerung oder Verwaltung, jeder Knoten kann jede Aufgabe wahrnehmen. Diese Architektur wurde gewählt, um die Skalierbarkeit des Systems optimal gewährleisten zu können.

BigTable

Google arbeitet für seine Dienste mit dem proprietären Hochleistungs-Datenbanksystem Big Table. Es baut unter anderem auf dem Google File System (GFS) auf. Es wird zurzeit vor allem  beim Platform-as-a-Service-Dienst (PaaS) Google App Engine genutzt.

Die Entwicklung von BigTable begann 2004. Es wird mittlerweile von vielen Google-Produkten, wie etwa Google Reader, Google Maps, Google Books, YouTube oder Google Earth, genutzt.

Da BigTable-Datenbanken sehr groß werden können, wurde besonderer Wert auf Skalierbarkeit (durch Unterstützung sehr großer Computercluster) und Geschwindigkeit (durch eine nichtrelationale Struktur) gelegt. Charakteristisch für in BigTable gespeicherte Daten ist, dass sehr häufig Datensätze hinzugefügt werden, vorhandene Datensätze aber sehr selten geändert werden.

Im Gegensatz zu relationalen Datenbanken können die einzelnen  Spalten einer Datei unterschiedliche Größen annehmen. Lediglich die sogenannten „Family Columns“, die einen bestimmten Datentyp ( beispielsweise einen Link, der auf eine web Seite verweist) repräsentieren, müssen bei der Implementierung der Datenbank bekannt sein, können aber beliebig viele Instanzen pro Zeile enthalten.

Technisch spielt bei Google „MapReduce „ eine große Rolle. Das vom Internet-Primus aus Mountain View eingeführte Framework für nebenläufige Berechnungen über große (mehrere Petabyte) Datenmengen auf Computerclustern ist das strukturelle Rückgrat. 2010 wurde für MapReduce ein US-Patent erteilt.

Apache Cassandra

Unter den quelloffenen Lösungen ist Apache Cassandra der Star unter den  einfachen, verteilten NoSQL Datenbankverwaltungssystemen. Es ist auf hohe Skalierbarkeit und zur Gewährleistung von Ausfallsicherheit in großen, verteilten Systemen ausgelegt. Die Daten werden in Schlüssel-Wert-Tabellen abgelegt. Es ist offen dokumentiert und als Freie Software in Java implementiert.

Es wurde ursprünglich bei Facebook von Avinash Lakshman (einem der Autoren von Amazons Dynamo) und Prashant Malik entwickelt und im Juli 2008 freigegeben. Danach haben auch andere große Unternehmen wie IBM oder  Twitter zum Code beigetragen. Das Projekt wurde im März 2009 bei der Apache Software Foundation als Unterprojekt in den Apache Inkubator aufgenommen.

Seit dem 17. Februar 2010  Cassandra zu den „Top-Level“ Projekte der Apache Software Foundation  und ist somit kein Unterprojekt von Apache Inkubator mehr. Es bedient bei Facebook hunderte Millionen von Mitgliedern und wird außerdem bei Twitter und  Digg  genutzt.

Salesforce Database.com

Im Reigen dieser „namhaften“ Angebote sollte auch „Database.com“ von Salesforce genannt werden. Das im Dezember vergangenen Jahres vorgestellte webbasierte Datenbanksystem ist nach eigener Einschätzung das weltweit erste Cloud-Datenbanksystem für Geschäftsanwendungen. Es  ist derzeit noch stark auf die Entwicklung von mobilen Applikationen und Datenmodellen für soziale Funktionalitäten sowie für Push-Dienste ausgerichtet. Da aber Salesforce wie Amazon auch Web Services in eigenen Rechenzentren anbieten kann, sollte es an dieser Stelle genannt werden.

Neben diesen Eigenentwicklungen großer Cloud-Anbieter und Eigennutzer findet sich, wie immer in einer solchen Situation der IT-Geschichte, eine Reihe von Start-ups, die sich dem Thema NoSQL widmen. Viele von ihnen können in den Tabellen von databasepro, Heft 1-2011(Artikel  „Für jeden Topf einen Deckel“ Seite 20) nachgeschlagen werden.

So bleibt abschließend zu analysieren, wie zu diesem Thema die großen Datenbank-Anbieter wie Oracle, IBM oder Microsoft, aber auch Konzerne wie HP oder SAP stehen. Sie haben bisher zu diesem Thema explizit noch keine Statements abgeben. Doch damit ist im Rahmen der „Cloud-Politik“ der Giganten durchaus zu rechnen. Mit geeigneten Übernahmen aus dem Lager der Star-ups könnten auch sie sich die nötige Technik ins Haus holen und damit die Nachfrage ihres Kundenstammes bedienen.

von Rudi Kulzer und Helmut Öhlinger

Veröffentlicht in dem leider später eingestellten Magazin databasepro

 

HP-Chef Apotheker muss den Konzern neu ausrichten

Der umsatzstärkste IT-Konzern der Welt, Hewlett-Packard, muss neu ausrichtet werden. Diese Aufgabe hatte eigentlich schon Mark Hurd vor sich. Nach dessen Wechsel zu Oracle ist nun der neue HP-Chef Leo Apotheker in der Pflicht.

Den längst überfälligen Strategieplan will HP wohl im März beim jährlichen Aktionärstreffen vorstellen. Doch offensichtlich waren erste Details der Diskussion, die Leo Apotheker derzeit mit den Mitgliedern des Verwaltungsrats (board of directors) führt, durchgesickert. Nach einem Artikel des Wall Street Journals vom 15. Januar, der sich auf interne HP-Quellen beruft, erschienen dann entsprechende Meldungen in den Gazetten der Welt.

 

HP-Chef Leo Apotheker

Dem Vernehmen nach will Apotheker HP künftig wesentlich stärker auf die Geschäftsbereiche Software, Networking und Speichersysteme konzentrieren. Diese seien derzeit profitabler als das Geschäft mit Persönlichen Systemen und Firmen Servern. Dieser Ausrichtung soll durch entsprechende Investitionen untermauert werden.

Damit verbunden scheinen Personalveränderungen in der oberen Managementriege verbunden zu sein. Das betrifft sowohl die verdiente Managerin Ann Livermore wie auch die mit ihr arbeiteten David Donatelli und Tom Hogan. Zusätzlich wird erwartet, dass einige „Executives“, unter ihnen der Technologie-Chef Randy Mott, das Unternehmen verlassen werden.

Eine Veränderung im Geschäftsbereich HP Enterprise Business (vormals TSG – Technology Solutions Group) war von Branchenbeobachtern schon seit langem erwartet worden. Der von der verdienten Veteranin Ann Livermore geleitete Bereich mit den Untergruppen Services, Enterprise Storage and Servers sowie HP Software stand beim Jahresabschluss des Geschäftsjahres 2010 mit einem Umsatz von 57,6 Mrd. $ als wichtigster Gesamtbereich in den Bücher. Der Gesamtumsatz von HP als umsatzstärkster IT-Konzern lag bei 126,033 Mrd. $.

Dem Artikel des Wall Street Journals zufolge Ann Livermore künftig als Vice Chairman weggelobt werden und in den Verwaltungsrat aufsteigen. Die große Abteilung soll dann aufgespalten von Donatelli (Hardware) und Hogan (Services) geleitet werden. Beide würden direkt an Leo Apotheker berichten.

Mit dieser Veränderung geht bei HP eine Ära zu Ende, in der die 53-jährige Ann Livermore wichtige Funktionen bekleidet hat, aber nie zu der von ihr gewünschten Chefposten aufgestiegen war. Die aus North Carolina stammende Livermore ist bereits seit 1982 bei HP. Ein MBA-Studium an der Stanford University hatte sie damals nach Palo Alto geführt.

Ann Livermore

Schon seit dem Wechsel von Lewis Platt im Jahre 1999 hat Frau Livermore gehofft, zur Firmenchefin berufen zu werde. Doch dreimal wurde sie enttäuscht. Erst kam die umtriebige Carly Fiorina (kam von AT&T – Lucent), dann Mark Hurd (NCR – Teradata) und nun Leo Apotheker (SAP) – alle drei von außen in das Pionierunternehmen geholt. Für die langjährige Insiderin war kein Platz an der Sonne der HP-Spitze.

Technisch wird bei der Neuausrichtung von HP wohl, wie derzeit bei allen bedeutenden IT-Unternehmen, das Thema „Cloud Computing“ eine Rolle spielen. Dafür sieht sich HP mit seinem Kombinationsnangebot aus Servern nach Industriestandard (ProLiant), Speichern und eigener Netzausrüstung (ProCurve und 3Com) als breiter Anbieter auch für Kunden des Mittelstands gut gerüstet.

In diesem Umfeld ist auch damit zu rechnen, das HP und Microsoft stärker als bisher als Konkurrenten von Oracle / Sun zusammenarbeiten werden. (siehe auch Meldung vom 19.1.2011). In wie weit es auch zu einer verstärkten Kooperation mit SAP kommen wird, wird sich zeige. Dies sollte angesichts der Tatsache, dass Leo Apotheker bis vor kurzem Chef von SAP war, sicher möglich sein. Apotheker wird nach seinem nicht gerade ehrvollen Abgang aus Walldorf zeigen müssen, wozu er als Chef des umsatzstärksten IT-Unternehmen weltweit wirklich in der Lage. Darüber herrschen in der Branche sehr unterschiedliche Meinungen.

Erschienen bei ZDnet IT-Business

Kampf um das Rechenzentrum der Zukunft wird schärfer

Ex-HP-Chef Mark Hurd geht zu Oracle. Bis zu Beginn der Woche war das Thema Hurd noch eine Personalstory nach einer Affäre. Doch mit dem Anheuern bei Kumpel Larry Ellison und der Klage von HP gegen seinen früheren Chef beginnt eine neue Silicon-Valley-Saga. Dabei steht der Kampf um  die Vorherrschaft als Lieferant großer Rechenzentren im Mittelpunkt..

Es ist noch nicht lange her, da haben Hewlett-Packard und Oracle als Partner gut zusammengearbeitet. Von HP kam die Hardware, von Oracle die Datenbank für die Rechenzentren der Kunden. Doch nach der Übernahme von Sun Microsystems für 7,4 Mrd. $ im vergangenen Jahr hat sich die Beziehung stark abgekühlt.

Larry Ellison´s Oracle ist nun nicht nur ein Softwarehaus und Erzrivale von SAP, sondern auch ein potentieller Hardware-Anbieter und damit vor allem Konkurrent zu HP und IBM. Dazu kommen noch Dell und der ebenfalls im Silicon Valley ansässige Netzausrüster Cisco, der schon seit geraumer Zeit ebenfalls als Server-Anbieter auftritt.

Der Wettbewerb im Kampf um die Rechenzentren der Zukunft ist in vollem Gang. Alle wollen ihre potentiellen Kunden mit einem möglichst großen „Stack of Technology“, einem technischen Komplettpaket, überzeugen. Möglichst „alles aus einer Hand“ lautet die uralte Devise der Marketingstrategen in der Computerindustrie, wie sie Big Blue schon seit Jahren verfolgt.

Zwiti 1: Die Klage

In dieser Wettbewerbsschlacht hat HP am Dienstag vor dem Superior Court in Santa Clara gegen den früheren Chef Mark Hurd eine Klage eingereicht. Der Umsatzmarktführer der Computerindustrie wirft seinem Ex-Chef vor, Absprachen eines umfangreichen Abfindungspaketes verletzt zu haben, in dem er den Job als Nummer zwei bei Oracle angenommen habe. In dieser Position komme er nicht umhin, HP Betriebsgeheimnisse an einen wichtigen Konkurrenten zu verraten.

Doch nach Ansicht der Rechtsexperten im Silicon Valley dürfte es schwer werden, diese Position vor einem Gericht in Kalifornien durchzusetzen. Die dortige Gesetzeslage erlaubt keinen „Konkurrenzausschluss-Paragraphen“, wie sie in anderen Bundesstaaten der USA, aber auch in Deutschland üblich sind. Daher haben sich kalifornische Gerichte in einer Reihe von Fällen auch der jüngeren Vergangenheit derartigen Argumenten, wie sie nun HP in diesem Fall vorbringt, nicht angeschlossen. Solche Regelungen würden zu sehr in den weiteren Lebensablauf der Betroffenen eingreifen, so die Begründung.

Zwiti 2: Der richtige Mann

Mit dem befreundeten Mark Hurd hat Ellison genau den Management-Partner an Bord bekommen, den er für seine Pläne braucht. Der hard- und softwareerfahrene Hurd wird als „Co-President“ weitgehend für die IT-technischen Inhalten vor allem beim Kunden verantwortlich sein. Die Finanzchefin Safra A. Catz bleibt Ellison´s rechte Hand nach innen. Der bisherige zweite Leutnant Carles E. Philipps hat sofort nach dem Auftauchen von Hurd seinen Hut genommen und den Platz als „President“ für den Ex-HP-Chef geräumt.

Nach 25 Jahren bei NCR, davon drei Jahre als Chef der Datenbankabteilung Teradata sowie fünf erfolgreichen Jahren an der Spitze von HP ist Mark Hurd mit allen „IT-Wassern“ gewaschen, die ein führender Computer-Manager braucht. Er gilt derzeit als erfolgreichster Executive der Branche. Mit Larry Ellison ist er seit Jahren befreundet.

Der 57-Jährige hat das Potential, die Nachfolge Frage im Hause Oracle zu lösen, das bisher ausschließlich von dem umtriebigen Gründer Larry Ellison (Jahrgang 1944) geführt wird. Doch der will sich stärker zurückziehen, was ihm bisher angesichts seiner fachlichen Führungskräfte nicht gelang. Mit dem wie er in New York geborenen Hurd sollte das möglich sein.

Zwiti 3: Datenbank-Maschinen für die Cloud

Informationstechnisch stehen zunehmend „Datenmaschinen“ für den Einsatz in der Service-Wolke (cloud) im Mittelpunkt der Wettbewerbsbemühungen. Dafür gibt es mehrere Beispiele:

So hat sich HP im Bieterwettstreit um den Speicherspezialisten 3 Par gegen Dell durchgesetzt. Zusammen mit der geplanten Übernahme eines Softwarehauses für Datenbankautomatisierung gibt es deutliche Hinweise dafür, wohin eine strategische Richtung der Rechenzentren gehen wird, in Richtung „Service aus der Wolke“.

Dahin dürften auch die Pläne von Larry Ellison mit seiner Software / Hardware-Kombination gehen. Seit der Übernahme von Sun Microsystems setzt Oracle zunehmend auf optimierte Hard/Software-Lösungen wie etwa der im September  2009 vorgestellten Exadata Version 2 als eine voll integrierte Database Maschine. Die Vorgängerversion kam noch aus der Zusammenarbeit mit HP. Sie soll mit einem Server von Sun und Software von Oracle nach eigenen Angaben das weltweit schnellste System für Data Warehousing und Online Transaction Processing (OLTP) sein.

Auch IBM´s im Juli vorgestellte Mainframe-Kombination zEnterprise kommt als Super-System für große Cloud-Anbieter in Frage, obwohl diese Kombination nicht explizit für diesen Einsatz entwickelt wurde. Sichere Kombinationen von Datenbanken mit Applikationen unter einem Dach sind vielversprechend für die Zukunft der Rechenzentren.

Erschienen bei ZDnet IT-Business

Mark Hurd: HP braucht einen neuen Chef

Mark Hurd war bis Freitag einer der erfolgreichsten Konzernchefs der USA. Er brachte den am Umsatz gemessen größten Computerkonzern der Welt an die Spitze der Branche. Doch dann ist er über eine Liaison gestolpert. Nun sucht Hewlett-Packard (HP) einen Nachfolger.

Eigentlich war Mark Hurd mit dem IT-Riesen aus Palo Alto mitten in Verhandlungen um einen neuen Drei-Jahres-Vertrag. Doch am Freitagabend musste der wirtschaftlich erfolgreiche Nachfolger von Carly Fiorina überraschend seinen Hut nehmen. Eine allzu enge Beziehung zu einer externen Mitarbeiterin hat ihm den Job gekostet.

Mark Hurd

Der HP-Chef soll die Frau, die für HP Veranstaltungen organisierte, mit Geldern aus der Firmenkasse ausgehalten haben. Der Verwaltungsrat drängte ihn daraufhin zum Rückzug – Hurd trat mit sofortiger Wirkung von allen seinen Ämtern zurück. Der Vorwurf sexueller Belästigung habe sich allerdings nicht bestätigt, teilte HP ausdrücklich mit.

Nach Informationen der „New York Times“ hatte Hurd die Frau mehrfach zu Veranstaltungen im In- und Ausland mitgenommen. Sie sei dafür nicht nur gut bezahlt worden, er  hätte mit ihr auch häufiger auf Firmenkosten zu Abend gegessen ohne dies später anzugeben. Eine sexuelle Beziehung, schreibt die Zeitung, habe Hurd aber abgestritten. Die gesamte Affäre kam allerdings durch eine Klage wegen sexueller Belästigung erst ins Rollen.

Der als kühler Rechner und harter Sanierer bekannte Manager habe es in diesem Fall „deutlich an Urteilsvermögen mangeln lassen“, sagte Chefjustiziar Holston bedauernd, waren doch die wirtschaftliche Zeichen bisher ausgesprochen positiv. Hurd wurde im Februar 2005 HP-Chef als Nachfolger von Carly Fiorina. Zuvor war er 25 Jahre für das IT-Konzern NCR tätig. Bei HP hatten es viele begrüßt, dass nach der auf Außenwirkung bedachten Fiorina nun wieder ein nüchterner Zahlenmensch an der Spitze stand.

Doch die Stimmung am Firmensitz im kalifornischen Palo Alto war angesichts des überraschenden Rücktritts nicht sonderlich getrübt, wie mir ein Anruf bei meinen ehemaligen Nachbarn in Addison Avenue (dort steht die legendäre HP-Garage) bestätigte. Zu viele hatten im Rahmen der harten Sanierungsmaßnahmen den „rosa Brief“ erhalten, verloren in Zeiten der Wirtschaftkrise ihren Job. „Gute Zahlen, schlechte Stimmung“ ist die nüchterne Bilanz.

Auch die Beziehung zu vielen der verblieben Mitarbeiter stimmte schon länger nicht mehr. Seit Hurd nach anfänglich positiv aufgenommenen Sanierungsschritten die Schrauben besonders heftig anzog, kam es zu Stimmungsbruch. Viele empfanden das „Sparen, koste es, was es wolle“ als die falsche Strategie. HP verliere auch „gute Leute, die man niemals ziehen lassen darf“, so die Kritiker.

Als nach Fiorina-Desaster die  Zahlen wieder stimmten,  ging Hurd auf Einkaufstour. 2008 wurde der IT-Dienstleister EDS übernommen, um nach dem Vorbild IBM die Service-Sparta zu stärken, 2009 der Netzwerkausrüster 3Com, 2010 der Handheld-Pionier Palm. In dem bis Oktober laufenden Geschäftsjahr wird ein Umsatz von 125 Milliarden Dollar erwartet. Vor fünf Jahren zu Beginn der Ära Hurd waren es knapp 80 Milliarden Dollar. Seit 2006 war Hurd auch Chairman als die wegen einer Spitzelaffäre zurückgetretenen Verwaltungsratschefin Patricia Dunn gehen musste.

Doch nun ist die Ära Hurd schneller beendet als erwartet. Finanzchefin Cathie Lesjak übernimmt für eine Übergangszeit die Unternehmensführung. Sie wolle den Posten aber nicht dauerhaft ausfüllen, sagte sie. Dennoch zählt die HP-Veteranin zu den heißesten Anwärtern. Die Börsianer reagierten verunsichert auf die überraschende Nachricht von Hurds Rücktritt. Die Aktie verlor im nachbörslichen Handel bis zu 10 Prozent an Wert.

Auf den neuen HP-Chef oder Chefin warten große Aufgaben. Hurd hatte den IT-Riesen ohne größeren Schaden durch die Wirtschaftskrise gesteuert, das Unternehmen in seiner Amtszeit breiter aufgestellt. Das hochprofitable Servicegeschäft baute er nach dem Vorbild von IBM aus und verringerte damit die Abhängigkeit Einnahmen durch Hardware, die heute nur wenig Rendite bringt.

Doch HP ist ein Riese, der eigentlich aus drei Firmen besteht, Drucker und Bildverarbeitung, Persönliche Systeme und Serverrechner. Da ist eine langfristige Strategie gefragt, um einen guten Börsenwert zu halten. Die guten vorläufigen Zahlen für das gerade abgelaufene dritte Geschäftsquartal und eine Erhöhung der Prognose gingen in der Verunsicherung um die Affäre unter.

Erschienen bei ZDnet IT-Business

Big Blue stellt großes Mainframe Kombi System vor

IBM hat am 22. Juli 2010 in New York einen neuen Mainframe-Server und eine neue System-Architektur vorgestellt. Das  neue zEnterprise genannte Großrechner System gibt Kunden die Möglichkeit, in Zusammenarbeit mit weiteren Hardware-und Architekturkomponenten, verschiedene Anwendungs-Workloads ohne Bruch auf den Hardware-Plattformen Mainframe, IBM Power 7 und x86 System durchgängig zu bearbeiten.

Als Betriebssystem können dabei z/OS (Mainframe), IBM AIX (Unix) sowie Linux genutzt werden.  Als wichtigste Komponenten sind neben der neuen zEnterprise Mainframe Einheit die  IBM zEnterprise BladeCenter Extension (zBX) als Sitz der Anwendungen sowie der IBM zEnterprise Unified Resource Manager (zManager) als Chefdirigent an der Konsole zu nennen

Die IBM sieht den Entwurf des neuen kompakten Enterprise Systems als Antwort auf eines der drängendsten Probleme wie sie in den Rechenzentren an der Tagesordnung sind: Während die klassischen Mainframe-Struktur und die dazugehörende Datenbank in einem „Silo“ sitzen, laufen die Programme der Applikationen in einem anderen, obwohl diese doch zusammenarbeiten müssen. Das führte bisher zu starken zeitlichen Verzögerungen, unerwünschten Medienbrüchen und damit verbunden erhöhten Kosten.

Das soll sich ändern: Nun können IBM-Kunden auf der neuen zBX Blade Plattform Anwendungen, die auf IBM Power7- und System x BladeCenter-Systemen laufen in den zEnterprise-Mainframe-Server zu integrieren und sie über den Großrechner zu managen. Dazu kommen neue Blades, die für Workloads optimiert sind, wie zum Beispiel Analytics oder Verwaltung von Web-Infrastrukturen.

Zwiti: Applikationen auf dem Blade Center

In den Blade-Teil des System können sich die dedizierte Blade-Server, da sie als  Mainframe-Ressourcen verwaltet werden, mit ihren Daten und Workloads mit der Mainframe  System z verbinden. Dabei können zehntausende von Off-the-Shelf-Anwendungen genutzt werden.

Dazu wird IBM zunächst General-Purpose-Blades auf Basis von IBM Power7-Technologie und AIX einsetzten. Darüber hinaus stellt IBM ein workload-optimiertes Blade – den IBM Smart Analytics Optimizer – vor, um die Leistung komplexer Analytik-Workloads zu beschleunigen und dabei die Transaktionskosten deutlich zu senken.

Zusätzlich ist die Ankündigung von General-Purpose-Blades für die zBX auf der Basis von System x- mit Linux geplant. Von Windows-Blades ist derzeit noch nicht die Rede. Weitere workload-optimierte Blades sollen u.a. IBM DataPower für bessere Webseiten- und Netzwerkleistung umfassen.

IBM zEnterprise mit z196

Als Steuermann des neuen Kombi-Systems dient der IBM zEnterprise Unified Resource Manager (kurz zManager). Die  erste Firmware ihrer Art sitzt auf der Konsolen-Hardware und integriert die Ressourcen verschiedener Plattformen als ein einziges virtualisiertes System und bietet einen einheitlichen Managementansatz für zEnterprise. Über 100.000 (!) virtualisierte Server können als ein einziges gemeinsames System verwaltet werden auf einem komplett konfigurierten Cluster von zEnterprise-Systemen.

Der z Manager ist damit auch der Schlüssel dafür, die Qualitätsattribute des Mainframes wie Sicherheit und Zuverlässigkeit auch für Workloads auf Power und x86-BladeCenter-Systemen zu nutzen.

Zwiti: Neuer Mainframe z196

Auf der Mainframe-Seite ist das zEnterprise-System nach Angaben von Big Blue das stärkste IBM System, das es jemals gab. Das  Kernsystem – zEnterprise 196 genannt – hat 96 der derzeit weltweit schnellsten und leistungsstärksten Mikroprozessoren an Bord, die mit einer Geschwindigkeit von 5.2 GHz in der Lage sind, mehr als 50 Milliarden Anweisungen pro Sekunde auszuführen.

Ein wichtiger Bestandteil dieser neuen IBM Mikroprozessor-Technologie ist die neue Software zur Leistungsoptimierung von hohem Datenaufkommen. Diese erzielt eine bis zu 60-prozentige Verbesserung von datenlastigen und Java-Workloads. Trotz gleichen Energieverbrauchs bietet die zEnterprise 196 bis zu 60 Prozent mehr Kapazität als das System z10.

Die neue z196 baut auf den traditionellen Sicherheitsfeatures des IBM System z auf. Sie sind die einzigen kommerziellen Systeme, die die Sicherheitsstufe EAL 5 (Evaluation Assurance Level 5 Security Classification) erreichen.

Für die Workload Optimierung kann die z196 bis zu 80 Spezialprozessoren enthalten, um somit eine weitere Kostenreduzierung und eine höhere Leistungsfähigkeit zu ermöglichen. Beispiele sind wie schon bei den Vorgängermodellen z) und z10 der System z Application Assist Processor (zAAP) zur Integration von Java-Workloads mit Kerngeschäftsanwendungen, der System z Integrated Information Processor (zIIP), der entwickelt wurde, um Kapazität im Kernsystem freizusetzen und damit IT-Kosten zu senken und die Integrated Facility for Linux (IFL) um Linux-Workloads auf dem Mainframe zu optimieren.

Als weitere Hardware Ergänzung stellte IBM ein neues z/OS Distributed Data Backup Feature für das Speichersystem DS8000 an. Es soll dabei helfen, die Kosten für Datenschutz und Disaster Recovery zu senken, indem Umgebungen für Disaster Recovery über Plattformen hinweg auf der z196 konsolidiert werden. Kunden können nun wichtige Daten von Workloads auf mehreren Plattformen über leistungsstarke Verbindungen mit der unübertroffenen Sicherheit und Verlässlichkeit des Mainframe kombinieren.

Zwiti: Verbesserte Speicher und Software

Eine weitere Neuheit ist der IBM Smart Analytics Optimizer, ein Beschleuniger für analytisches Datenaufkommen, der in der BladeCenter-Erweiterung des neuen Systems integriert wurde. Die hybriden Eigenschaften des neuen zEnterprise Systems und des Smart Analytics Optimizers ermöglichen dem Kunden die Analyse von Daten in Hinblick auf zukünftige Marktentwicklungen und helfen ihm dabei neue Möglichkeiten aufzudecken und Risiken besser zu vermeiden – bei einem bis zu zehnfachen Beschleunigungsfaktor.

Für den Mehrwert von zEnterprise beim  Kunden sollen die Synergieeffekte des breiten Hard- und Software-Portfolios sorgen. So kündigte  IBM neue Tivoli Systems Management Software, Websphere Middleware, Rational Entwicklungs-Tools und Lotus Collaboration Software für zEnterprise an. Jedes Angebot wurde für zEnterprise optimiert und darauf abgestimmt, in Verbindung mit der neuen Blade Center Extension plattformübergreifend zu arbeiten.

Erschienen bei ZDnet IT Business

Datenbanken – Schatzhäuser der Firmendaten

Sie kreuzen schon seit Jahrzehnten die Klingen des Wettbewerbs bei den Unternehmensdatenbanken: Oracle IBM und Microsoft. Jüngst sind neben einigen Spezialisten im Hintergrund auch noch quelloffene Programme als Konkurrenten hinzugekommen.

Datenbanken sind – wie in ihren Ursprungszeiten bei der Mondlandung im Rahmen des Apollo-Programmes – heute nicht nur gigantische Stücklisten-Programme, die mit ihrer Tabellenstruktur systematischen Aufgaben in Unternehmen dienen.

In Zeiten eines scharfen globalen Wettbewerbs schreien die Firmenlenker und ihre Strategen förmlich danach, die gigantischen Datenmengen in den Schatzhäusern ihrer Unternehmensdatenbanken möglichst sofort auf Tastendruck – also in Echtzeit auswerten zu können.

Dieser Trend dürfte sich  in nächster Zeit angesichts einer Reihe von Hardware-Ankündigungen noch verstärken, spielen doch die auf den „großen Eisen“ residierenden Firmendatenbanken in den Rechenzentren der Unternehmen die entscheidende Rolle.

Dies ist eine große Herausforderung für die dominanten Player des Datenbankmarktes die sich alle in den vergangenen Jahren durch Übernahmen für diese Aufgaben gerüstet haben. Um für OLAP Aufgaben (On-Line Analytical Processing) besser gerüstet zu sein kaufte Oracle-Chef Larry Ellison kaufte im Frühjahr 2007 Hyperion Solutions. Im Sommer bzw. Herbst ging Cognos aus Kanada an IBM und Business Objects aus Frankreich an SAP. Microsoft hatte schon 2004 den BI-Spezialisten ProClarity akquiriert.

Die großen Drei – Oracle, IBM und Microsoft

Nach einer Untersuchung der Marktforscher von Forrester (Studie „The Forrester Wave: Enterprise Database Management Systems, Q2 2009“) liegt das Marktvolumen für Datenbanksysteme (Lizenzen, Support, Service und Beratung) derzeit bei einem Gesamtumsatz von etwa 27 Milliarden US-Dollar. Mit einem jährlichen Wachstum von acht Prozent soll dies bis 2013 auf 32 Milliarden US-Dollar anwachsen.

Diesen Markt beherrschen, so Forrester, heute mit einem Anteil von 88 Prozent nur drei Anbieter: Oracle, IBM und Microsoft. Dazu kommen einige spezialisierte Produkte von traditionellen Anbietern wie Teradata, HP (früher Tandem) und Sybase (von SAP übernommen). Zunehmend spielen heute auch Open Source Datenbanken wie MySQL eine wichtige Rolle im Markt der Unternehmens-Datenbanken.

IBMs Datenbank DB2

IBMs Almaden Research Laboratory im Silicon Valley war – wie im „database pro“ Heft 1/2010 ausführlich beschrieben – in den 70er Jahren das Mekka für Speichertechnik und Datenbanken. Es ist auch heute noch das Big Blue Forschungszentrum für diese Themen.

Dort wurde als wichtiger Meilenstein auf dem Weg zu den heutigen relationalen Datenbanken das legendäre Datenbankprojekt „System R“ von Edgar F. Codd entwickelt. Daraus entstand bei IBM die kommerzielle Datenbank DB2 als Relationales Datenbank Management System (RDBMS), bei Oracle die mächtige Unix-Datenbank.

DB2 wurde zuerst für die damals dominierenden Mainframe-Rechner, und später für verschiedene andere Plattformen entwickelt und vertrieben. Die Entwicklung für IBM Mainframes erfolgte zunächst auf dem Betriebssystem VSE ((Virtual Storage Extended), später auf MVS (Multiple Virtual Storage) und auf OS/390 weiterentwickelt.

Heute gibt es DB2 für alle wichtigen Plattformen, für die  Betriebssysteme Linux, Unix (AIX) und Windows. Sogar für IBMs noch immer existierenden Mittelstandslösungen System i (früher AS/400) ist eine Version von DB2  verfügbar.

Für Großkunden steht natürlich DB2 für z/OS, dem Betriebssystem der IBM Mainframe-Familie zSerie im Mittelpunkt des Interesses. Noch heißt die  aktuelle Version für Mainframes heißt DB2 for z/OS, Version 9 und ist seit März 2007 verfügbar. Wie bereits von IBM angekündigt, soll im Herbst 2010 die Version 10 auf den Markt kommen. Als Beta Version steht sie ausgewählten Kunden bereits zur Verfügung.

Größere Mainframe-Umgebungen mit extrem hohen Verfügbarkeitsanforderungen verwenden DB2 Data Sharing, wobei die Cluster-Funktionalität des IBM Parallel Sysplex der zSerie-Rechner voll genutzt wird. Für den Einsatz von SAP-Applikationen gibt es eine optimierte Version von zDB2 für alle Plattformen.

Neben DB2 hat IBM mit dem Informix Dynamic Server und der hierarchischen Datenbank IMS zwei weitere Angebote im Portfolio. IMS wird überwiegend in bereits mehrere Dekaden existierenden „Legacy“ transaktionsverarbeitenden Applikationen bei speziellen Großkunden (z.B. China Telecom) eingesetzt, denen die strenge Hierarchie von IMS nutzt.

Vielfach sehen diese Kunden auch eine Migration auf die modernere DB2 Plattform als Kostenblock ohne zusätzlichen Mehrwert. IBM Informix Produkte finden ihren Einsatz vor allem bei Data-Warehousing-Analysen, der Darstellung von Webinhalten oder der Speicherung von riesigen Datenobjekten (CLOBS, BLOBS), wie von Filmen, Sound, Fotos oder Texten aus digitalen Medienarchiven.

Oracle Datenbank

Auch die Anfänge der Oracle Datenbank gehen auf die Forschungsarbeit von E. F. Codd zurück. Seine Studie inspirierte den Oracle Firmengründer Larry Ellison zur Weiterentwicklung der Ergebnisse und zur Entwicklung einer eigenen Datenbank mit dem Namen Oracle, die im Gegensatz zu IBMs Mainframe-Strategie vor allem auf großen Unix-Rechnern ihren Einsatz finden sollte.

Im Großrechner-Bereich sind Sun-Fire-Maschinen mit dem Unix-Betriebssystem Solaris oder IBM-Maschinen aber auch HPs Integrity Superdome Server häufig verwendete Plattformen. Im Midrange-Bereich werden nahezu alle Unix-Systeme unterstützt und mit Oracle Datenbanken eingesetzt. Linux wurde neben Solaris als Betriebssystem als strategische Hauptplattform längere Zeit favorisiert und fand sehr starke Verbreitung. Windows wird aufgrund seiner hohen Verbreitung ebenfalls strategisch unterstützt.

Aktuelle Version der Oracle Datenbank (auch Oracle Database Server oder Oracle RDBMS genannt) ist seit September 2009 Oracle 11g, Release 2. Sie ist für die Plattformen Linux, Windows sowie für die UNIX-Varianten Solaris (Sun Microsystems), HP-UX und AIX (IBM) verfügbar.

Mit dem Release 10g wurde die Vision eines Oracle-Grid (große Cluster) in Szene gesetzt. Darauf verweist das kleine „g“ im Release-Namen. Kernstück des Oracle-Grid Konzepts ist eine Cluster Software, die von Oracle unter dem Namen Real Application Cluster (RAC) vertrieben wird und im Markt heute überwiegend aus Skalierungsgründen weit verbreitet ist. Die Oracle-Datenbank wird auch sehr stark im Umfeld von SAP-Applikationen eingesetzt.

Seit der erlaubten Übernahme des Hardwareherstellers Sun Microsystems setzt Larry Ellison zunehmend auf optimierte Hard/Software-Lösungen. So stellte Oracle Mitte September  2009 mit der Exadata Version 2 eine voll integrierte Database Maschine vor.

Die Exadata Database Maschine 2 mit einem Server von Sun und Software von Oracle soll nach eigenen Angaben das weltweit schnellste System für Data Warehousing und Online Transaction Processing (OLTP) sein. Bei der Version 1 einer Exadata Maschine arbeitete Oracle noch mit dem Nachbarn HP aus Palo Alto zusammen.

Mit der Exadata Version 2 betritt Oracle die Bühne für Anbieter des gesamten Stacks beginnend mit der Hardware, über das Betriebssystem (Solaris), darüber Middleware wie Datenbank und Laufzeitumgebung für Applikationen wie BEA Weblogic oder Oracle Fusion und an der Spitze des Stacks die Applikationen selbst.

Ein solches Angebot – das sich dadurch auszeichnet, das sämtliche Stack-Komponenten von einem Hersteller integriert und getestet werden – kann sonst in dieser Leistungsklasse nur von IBM (zSerie) oder von HP (Integrity NonStop Server) geboten werden.

Microsoft SQL Server

Der Microsoft SQL Server  ist das relationale Datenbankmanagementsystem von Microsoft. Vor allem im englischsprachigen Raum spricht man auch vom Sequel-Server. Der Name SEQUEL stammt noch von E. F. Codd und bezeichnet die erste Ausprägung einer Zugriffssprache für eine relationale Datenbank („Structured English Query Language“). Die aus Sequel abgeleitete ANSI Norm wird heute als SQL bezeichnet.

Das Produkt MS SQL Server entstand aus einer Zusammenarbeit der Firmen Microsoft und Sybase Ende der 80er Jahre. 1989 wurde die erste Version für das von Microsoft und IBM entwickelte Betriebssystem OS/2 veröffentlicht. Seit 1993 wird der MS SQL Server auf Windows NT und den Nachfolge-Betriebssystemen eingesetzt.

In dieser Zeit lockerte sich die Kooperation zwischen Microsoft und Sybase. Im Jahr 1995 erschien mit Microsoft SQL Server 6.0 eine eigenständige Weiterentwicklung von MS. Mit der Version 7.0, die im Jahr 1999 erschien, verabschiedete sich Microsoft von der mit Sybase entwickelten Codebasis und brachte eine vollkommen neue Datenbank-Engine auf den Markt. Diese ist auch bis heute Basis für die jüngsten Versionen des SQL Server 2008. Das Programm arbeitet, so Microsoft, mit vorhandenen IT-Systemen ebenso wie mit Oracle, DB2, SAP und NetWeaver zusammen.

Der Update-Launch des SQL Server 2008 R2 erfolgte am 21. April 2010 in Kooperation mit der Europäischen PASS Konferenz, der größten SQL Konferenz in Deutschland. Mit dem neuen Release  ergeben sich Neuerungen in den Bereichen Skalierung, Performance und IT/Developer Produktivität. Vor allem aber hat sich nach Angaben des Unternehmens die Komponente „Microsoft Business Intelligence“ mit dem neuen Self-Service Ansatz in R2 maßgeblich verändert.

Spezialisten großer Businessdatenbanken

Neben Oracle, IBM/Informix und Microsoft spielen noch drei weitere Anbieter im Geschäft mit businesskritischen Datenbanken eine Rolle: Teradata, HP mit seiner von Tandem Computers geerbten NonStop SQL/MX Datenbank sowie Sybase.

–       Tandem Systeme (heute HP Integrity NonStop Systeme) haben vor allem einen guten Ruf wegen ihrer extrem hohen Verfügbarkeit. Sie werden daher beispielsweise bei den Kern-Applikationen von Börsen und Finanzinstituten, im Telekommunikationsbereich, im Handel und in der Fertigungsindustrie eingesetzt.

–       NCR kam von den Registrierkassen und hat sich stark im Handel aber auch in anderen Marktsegmenten etabliert.

–       Das von SAP übernommene Softwarehaus Sybase ist ein Datenbankpionier, der bei Investmentbanker noch eine gewisse Rolle spielt.

Teradata

Das Datenbank-Management-System von Teradata wurde 1979 von der damaligen gleichnamigen eigenständigen Firma entwickelt. Das Programm war von Anfang an auf die Informationsgewinnung aus großen Datenbeständen fokussiert, ein Ansatzbereich, der, wie erwähnt, heute unter den Schlagworten Data Warehousing und Data Mining vermarket wird. 1991 hatte NCR Corporation Teradata im Zuge der damaligen Expansion übernommen, wobei  NCR zu diesem Zeitpunkt fest unter der Haube von AT&T war.

Ursprünglich für den Einsatz auf NCR-Mainframes gedacht wurde Teradata im Rahmen der damals stärkeren Nachfrage nach „offenen“ Client/Server-Lösungen auf NCR-Unix portiert. Heute läuft die Teradata-Datenbank auf den verschiedenen Modellen von Unix Systemen. Als erster Player im High-end-Data Warehousing gelangen Teradata Mitte der 80er Jahre beachtlich Erfolge bei Großkunden in den Branchen Telekommunikation, Banken, Fluglinien und Handelsketten. Teradata wurde im Oktober 2007 von der NCR Corporation abgespalten und ist seither wieder ein eigenständiges, börsennotiertes Unternehmen.

HP NonStop SQL/MX und Neoview

Die heute in HP integrierte Firma Tandem Computers war ein früher Pionier von Datenbankprodukten. Dabei hat  sich Tandem in den 80er Jahren vor allem mit „Non Stop SQL“ 1983 als erster relationaler Cluster-Datenbank einen Namen gemacht. .

Heute vertreibt HP zwei eigene relationale Datenbankprodukte, die beide aus der ursprünglich von Tandem entwickelten NonStop SQL Technologie abgeleitet wurden. „NonStop SQL/MX“ stellt die klassische Weiterentwicklung der Cluster-Datenbank dar, die 1987 dem relationalen DB-Ansatz zum Durchbruch verhalf und die bis heute ausschließlich auf den massiv parallelen „HP Integrity NonStop“ Systemen eingesetzt werden kann.

„NonStop SQL/MX“ ist bis heute die Datenbank, die mit ihrem darunter liegenden Cluster System die oberste Liga der Hochverfügbarkeitssysteme anführt. Lediglich IBMs DB2 in der Clusterversion Parallel Sysplex und einige wenige Spezialsysteme sind nach Angaben von IDC noch in dieser Liga vertreten.

Als nach einem Führungswechsel der von Teradata kommende Mark Hurd das Ruder  bei HP übernahm und die weiteren Entwicklungen vorgab, erkannte Hurd, das im Datenbank-Markt neben Teradata kein vergleichbares Produkt für große, sogenannte Enterprise Data Warehouse Projekte existierte.

Er entschloss sich daher, bei HP ein solches Produkt, ((abgeleitet aus der HP Integrity NonStop Technologie und vor allem aus der NonStop SQL/MX Datenbank))  zu entwickeln. Seit Ende 2007 wird Neoview im Markt der supergroßen Enterprise Data Warehouse Systeme (EDW) erfolgreich vertrieben. Aktuell haben SAP und HP angekündigt, dass die Walldorfer künftig große SAP Data Warehouse Projekte zusammen mit HP Neoview lösen wollen.

Sybase

Das Softwarehaus Sybase ist zwar einer der Pioniere des Geschäftes mit Datenbanken und hatte zum Zeitpunkt der Übernahme durch SAP im Mai 210 ein solches Produkt nach wie vor im Portfolio. Doch mit einem geschätzten Marktanteil von etwa 3 % spielen die Kalifornier mit Sitz in Dublin auf der Ostseite der Bucht von San Francisco keine Rolle. Dem Vernehmen nach hat Sybase noch einen guten Kundenstamm bei Investmentbankern.

Technisch war bei der freundlichen Übernahme vielmehr das zweite Standbein von Sybase interessant, nämlich Systeme für die Datenverbindung zu Mobilfunkgeräten, vor allem zu Businesskunden. Das 1984 in Berkeley gegründete Softwarehaus hat schon seit langen einen Namen als Anbieter von Produkten im Bereich mobile Geschäftslösungen.

Mit Datenbank und damit verbunden mit einem Angriff auf SAPs Erzrivalen Oracle hatte die Übernahme also wenig zu tun. Dennoch bekommt SAP mit Sybase sehr wohl Datenbanktechnik an Bord, ging doch Microsofts Datenbank SQL aus einer Partnerschaft und Lizenz mit Sybase hervor. SAP wird Sybase bei der Weiterentwicklung seiner In-Memory Datenbanken (schnelle Datenbanken auf nicht flüchtigen Speichermedien, etwa Flash) gut gebrauchen können. Diese Technik ist eines der Lieblingsprojekte von Mitgründer Hasso Plattner. Insgesamt scheint SAP aber auch seine eigene bisher schwache Datenbankschiene (MaxDB) mit Sybase verstärken zu wollen.

Open Source Datenbanken

Die bekannteste der quelloffenen relationalen Datenbanksysteme ist MySQL. Der Code ist sowohl als Open-Source-Software sowie als kommerzielle Enterprise Version für verschiedene Betriebssysteme verfügbar. Als Grundlage für viele Webauftritte ist die Software in ihrer Bedeutung ohne Zweifel ein Schwergewicht. Mit mehr als 6 Millionen Installationen und über 35.000 Downloads pro Tag ist MySQL das populärste Open-Source-Datenbankverwaltungssystem der Welt. In diesem Umfeld sollten auch Ingres von der Universität of California, Berkeley, GNU SQL,  Apache Xindice (für XML-Daten) und PostgreSQL als quelloffene DB-Produkte genannt werden. Letztere will die NASA nach jüngsten Meldungen in der internationalen Raumfahrtstation ISS einsetzten.

Ursprünglich wurde MySQL Server vom schwedischen Unternehmen MySQL AB entwickelt, das im Februar 2008 von Sun Microsystems übernommen wurde. Im Januar 2010 durfte Oracle dann Sun Microsystems akquirieren, wodurch MySQL Eigentum des größten Anbieter von kommerziellen Datenbanken wurde, der nun für die Weiterentwicklung des Codes verantwortlich ist. Rechtlich ist MySQL Server  eine freie Software unter GPL (General Public License). Da MySQL AB das volle Copyright an den Quellcodes besaß, kann Oracle die Software heute alternativ auch unter einer kommerziellen Lizenz anbieten.

Seit der Version 3.23.xx steht ein Replikationssystem zur Verfügung, das für den Einsatz in einem Computer-Cluster ausgelegt ist. Ein bevorzugtes Einsatzgebiet von MySQL ist die Datenspeicherung für Webservices, häufig in Verbindung mit dem Webserver Apache und PHP (cross-Platform Hypertext ScriPting language) eingesetzt. Viele Webdienste bedienen sich dieser Architektur. Zusätzlich wird die freie Software in vielen Produkten als eingebettetes Datenbanksystem eingesetzt.

Neue Aufgaben für Datenbanken

Die heutigen Datenbankprodukte kann man als ausgereift betrachten. Dies gilt in jedem Fall für ihren ursprünglich geplanten Einsatzbereich. Die Hersteller haben deshalb seit einigen Jahren begonnen, neue Technologien in ihre Datenbankprodukte zu integrieren, wie zum Beispiel Webservices oder XML Unterstützung.

Daneben unterscheiden sich die Datenbankprodukte in Eigenschaften wie Skalierbarkeit, Verfügbarkeit und „High End“ Performance. Darunter versteht man höchste Transaktionsraten (bis zu mehreren zehntausend Transaktionen pro Sekunde) wie auch Datenbank-Speichergrößen im hohen Terabyte Bereich bis hin zu Petabytes zu unterstützen.

Laut Forrester Research setzen heute ca. 90% der Großunternehmen weltweit mehrere Datenbankprodukte innerhalb ihrer IT ein. Die Gründe dafür können in „alten“ Legacy-Applikationen liegen, aber auch darin, dass das am besten geeignete Datenbankprodukt genutzt wird und keine Kompromisse zum Beispiel in Richtung Standardisierung eingegangen werden.

Für ihr Einsatzziel lassen sich Datenbanken in 3 Kategorien einteilen:

OLTP Datenbanken

Dabei handelt es sich meistens um die ursprünglich entwickelten relationalen Datenbankprodukte, optimiert um möglichst viele gleichzeitige Benutzer zu unterstützen. Im technischen Fokus stehen Eigenschaften wie hohe Parallelität von Transaktionen, Leistung, Sicherheit und Skalierbarkeit.

Datawarehouse (DWH) Datenbanken

Hier haben einige Hersteller wie zum Beispiel Teradata und HP (Neoview) spezielle Produkte für diesen Einsatzschwerpunkt entwickelt, andere Hersteller sind den Weg gegangen, durch Zusätze zum ursprünglichen OLTP Datenbankprodukt die DWH Eigenschaften auf den Markt zu bringen.

Bislang wird aber von allen DWH Datenbank Herstellern empfohlen, nicht auf den Produktiv-Datenbeständen des Unternehmens DWH Funktionen auszuführen. Gegenseitige – möglicherweise schwere – Beeinträchtigungen von OLTP und DWH sind nicht auszuschliessen.

Da  Datenbank-Anwender dies heute fordern um Auswertungen von sog. Produktiv-Daten noch zeitnäher zu bekommen, öffnet sich hier ein weites Feld für Forschung an und Weiterentwicklung von Datenbanken (Stichwort „Mixed Workload“).

Spezial Datenbanken

Diese Produkte wurden vielfach für bestimmte Einsatzfälle entwickelt und sie finden sich häufig eng verbunden mit spezialisierten Anwendungen ( „Appliances“) wie etwa in mobilen Geräten.

Als Katalog für eine Bewertung von Datenbanken erscheinen folgende Einzelkriterien als wichtig:

Reifegrad, Leistung, Skalierbarkeit, Verfügbarkeit (geplante – ungeplante Stillstände), Sicherheit, Flexibilität, DB Management (Aufwand), „on line updates und upgrades“ möglich, unterstützte Datenbankgrößen, Master Data Management, welche Standard Applikationen (z.B. SAP), OLTP, DWH, sonstige Erweiterungen.

Diese Kriterien könnten gewichtet werden, um für das jeweilige Unternehmen die interessanten Datenbankprodukte herauszufiltern, oder überflüssige zu identifizieren.

Einen Teil dieser Kriterien hat Forrester Research in seiner schon eingangs erwähnten Studie „The Forrester Wave: Enterprise Database Management Systems, Q2 2009“ bereits in Bezug auf einige wichtige Datenbank Hersteller bewertet:

Rudi Kulzer und Helmut Öhlinger


„Was hat der Mainframe in der Cloud verloren?“

Was hat der vermeintliche Saurier aus der Computersteinzeit in der IT-Zukunft wie „der Cloud“, der Service-Wolke des Internets zu tun. Dieser Frage bei ich im Auftrag von silicon.de auf der Veranstaltung „BS2000/OSD Mainframe Summit 2010 in Frankfurt /Main nachgegangen, zu der die deutsche Niederlassung des japanischen IT-Konzerns Fujitsu (vormals Fujitsu Siemens) seine Großkunden eingeladen hatte.

Die rasche Antwort: Weit mehr als man in der Zeit des Siegeszuges von Apples iPhone und iPad glauben mag! Der begründete Gedanke, der wie ein roter Faden während der Veranstaltung immer wieder zu erkennen war: Die Cloud ist ein Rechenzentrum und in Rechenzentren haben moderne Mainframes trotz aller Unkenrufe aus dem Lager der Anbieter, die über diese Architektur nicht verfügen, sehr wohl eine Berechtigung.

Schon seit geraumer Zeit zeichnet sich ein wieder erstarkter Wettbewerb um Unternehmenskunden ab, bei denen Rechenzentren im Mittelpunkt ihrer IT-Strategie stehen, und das sind viele. Es gibt aus Kostengründen im Verborgenen wieder einen Trend zur Zentralisierung. Dabei geht es um Software und Services auf einer äußerst sicheren Hardware, denn in der Cloud ist Verfügbarkeit ein hohes Gebot – und der Mainframe steht nun mal für Sicherheit und Beständigkeit.

Fujitsu Technologies Solutions (FTS) ist stolz darauf, dass man beim wichtigen Thema Services stark zulegen konnte und nun hinter IBM und HP in der Rangliste Accenture vom dritten Platz verdrängen konnte. „Wir sind neben IBM der einzige Hersteller, der ein seinem Portfolio auch die Sicherheit der Mainframe Architektur anbieten“, betont Deutschlandchef Bernd Wagner in einem Gespräch mit silicon.de. Für Wagner besteht kein Zweifel, dass Mainframes ein wichtiger Bestandteil eines zukunftsorientierten Angebots sein werden.

Der für Services zuständige FTS-Manager Andre Kiehne zeigte in seinem Vortag zum Angebot Cloud Computing vier verschiedene Angebote, mit denen FTS seine bedienen will:

Infrastructure-as-a-Service (Dabei werden Rechenleistung, Speicher und Netzwerke über Subskriptionsmodelle geboten)

Application-as-a-Service (Steht für Anwendungen per Subskription zur Reduzierung des Technologieaufwands)

Activity-as-a-Service (Hier abonnieren Kunden Business Services im Sinne von Geschäfts- und nicht als Technologieanforderungen)

Content-as-a-Service (Dabei abonnieren Kunden vermittelte Business Services, die zu vom Geschäftswert bestimmten Preis und Qualität von Service-Anbietern integriert werden)

Diese Angebote zeigen, worauf es bei der IT-Dienstleistung aus der Wolke in der Zukunft wohl ankommt: Auf eine gute Kombination aus Beständigkeit (Mainframe) und flexiblen Anwendungen (x86 Industriestandard). Hier scheint FTS mit seiner Modellpolitik gut aufgestellt zu sein. Auch IBM arbeitet mit Nachdruck an diesem Thema und wird sich wohl in den nächsten Monaten dieser Frage verstärkt stellen. Optimiert gemischte „Workloads“ scheinen eine der großen Herausforderungen zu sein, denen sich die Anbieter von Großrechnern stellen müssen. Dazu kommt das Thema Nachhaltigkeit, sind doch Rechenzentren ungeheuere Energiefresser.

Artikel erschienen bei silicon.de

SAP kauft Sybase – Kommentar

Kommentar im Newletter „databasePro“ Verlag Neue Medien Ulm vom 14.5.2010

SAP will mit Sybase seine mobile Plattform stärken

von Rudi Kulzer

Die Übernahme des ehemaligen Datenbankpionier Sybase durch SAP war zumindest für Branchenkenner keine Überraschung – eher schon Zeitpunkt der hastigen Aktion an Christi Himmelfahrt. Dabei geht es kaum um das Thema Datenbanken, wie der Deal ohne genaues Hinsehen vermuten lässt und wie es sich in einer Reihe von Überschriften in der Presse niederschlägt.

Sybase kommt zwar ursprünglich aus dem Geschäft mit Datenbanken und hat auch ein solches Produkt nach wie vor im Portfolio. Doch mit einem geschätzten Marktanteil von etwa 3 % spielt das kalifornische Softwarehaus mit Sitz in Dublin auf der Ostseite der Bucht von San Francisco keine Rolle. Dem Vernehmen nach hat Sybase noch einen guten Kundenstamm bei Investmentbankern.

Technisch ist bei der freundlichen Übernahme vielmehr das zweite Standbein von Sybase interessant, nämlich Systeme für die Datenverbindung zu Mobilfunkgeräten, vor allem zu Businesskunden. Das 1984 in Berkeley gegründete Softwarehaus hat schon seit langen einen Namen als Anbieter von Produkten in den Bereichen Informationsmanagement, Entwicklung & Integration und mobile Geschäftslösungen.

Die Managementtools stammen in erster Linie aus der schon 1994 erfolgten Übernahme von Powersoft. Im November 2006 kaufte Sybase den Dienstleister Mobile 365, einen Spezialisten für internationalen SMS- und MMS-Austausch für Netzwerkprovider und machte daraus Sybase 265. Anfang 2009 akquirierte Sybase die Paybox Solution AG aus Raunheim (mobile Zahlungen) und integrierte sie in Sybase 365.

Mit Datenbank und damit verbunden mit einem Angriff auf den Erzrivalen Oracle hat das also wenig zu tun. Dennoch bekommt SAP mit Sybase sehr wohl Datenbanktechnik an Bord, ging doch Microsofts Datenbank SQL aus einer Partnerschaft und Lizenz mit Sybase hervor. SAP wird Sybase bei der Weiterentwicklung seiner In-Memory Datenbanken (schnelle Datenbanken auf dem Speichermedium Flash) gut gebrauchen können. Diese Technik ist eines der Lieblingsprojekte von Mitgründer Hasso Plattner.

HP bemüht sich „Converged Infrastruktur“ um Unternehmenskunden

Hewlett-Packard ist nach eigener Überzeugung mit seiner neuen Plattform gut für den Wettbewerb um Firmenkunden gerüstet. Mit der Markteinführung seiner High-end Server Superdome 2 sind die Kalifornier wieder zurück im IT-Wettbewerb um geschäftskritische Aufgaben. Sie setzten dabei durchgängig auf eine einheitliche Blade-Infrastruktur.

HP-Manager Guido Klenner stellte im Rahmen der IT-Entscheider Roadshow „Storage & Archivierung“ von Vogel Media Hewlett Packards neuen „Converged Infrastructure“ als systemübergreifende Plattform vor. Damit biete Hewlett Packard, so der Senior Business Manager bei der HP StorageWorks Division, als einziger Anbieter eine lT-Infrastruktur als Komplettlösung aus einer Hand.

Das aus dem früheren Adaptive lnfrastructure (zu Zeiten von Carly Fiorina) weiterentwickelte Architekturkonzept soll Schluss machen mit dem Arbeiten in komplexen Silostrukturen. Nun lassen sich auch bisher isolierte lT-Domänen für x86-Rechner, Storage­Applikationen, Netzwerke, Gebäuderessourcen und HP Hochverfügbarkeitsserver mit Intel ltanium Prozessoren in ein gemeinsames Managementsystem integrieren, das jederzeit eine automatisierte Bereitstellung aller benötigten lT-Services ermögliche, so Klenner.

Die neue Plattform arbeitet dabei auf vier Ebenen:

–  Dem Infrastructure Operating Environment (JOE) – einer einheitlichen Managementplattform, die eine systemübergreifende Steuerung aller Ressourcen ermöglicht.

– Mit HP Flex Fabric lassen sich bei Bedarf Tausende von Servern und Speicherlösungen in einem virtualisierten, hochperformanten Netzwerk zusammenschließen. Diese „Network as a Service“-Bereitstellung erlaubt das das flexible Verschieben von Anwendungen innerhalb oder zwischen zwei Rechenzentren.

Virtuelle Ressourcen Pools – Hierbei handelt es sich um ein Shared-Services-Modell mit virtualisierten Bündeln unternehmensweit gemeinsam nutzbarer Ressourcen (Server-, Speicher- und Netzwerkkapazitäten). Diese basieren auf Standards und sind für sämtliche Typen von Unternehmens-, Cloud- und HPC-Anwendungen optimierbar.

HP Data Center Smart Grid – Spezielle Hardware, Software und Dienstleistungen für ein intelligentes, gesamtheitliches Energiemanagement von lT- und Gebäudeinfrastruktur. Der Energieverbrauch und die Auswirkungen auf die Umwelt lassen sich präzise und in Echtzeit für das gesamte Rechenzentrum visualisieren und steuern.

Superdome 2 für Converged Infrastructure

Wenige Tage nach der Road Show stellte HP-Manager Martin Fink in Frankfurt / Main den neue Superdome 2 Server vor. Es ist das jüngste Baby und der ganze Stolz des für geschäftskritische Systeme zuständige Senior Vice President und General Manger for Business Critical Systems. Die mächtige und flexible Maschine soll im nach der Krise wieder einsetzenden Wettbewerb um Großkunden gegen IBM Mainframes (mit DB2) und Oracle-Chef Larry Ellison mit seinen neuen Sun Datenbank Servern punkten.

Die neuen HP Integrity-Systeme sollen vor allem die Verarbeitung geschäftskritischer Aufgaben erleichtern. Basierend auf einer neuartigen „Blade Scale“ genannten Architektur wurde die neue Plattform „HP Converged Infrastructure“ erstmals auf geschäftskritische Prozesse erweitert.

Dabei setzt HP aus Kosten- und Umweltgründen durchgehend auf Blade-Technik. Nach eigenen Angaben ist der Konzern aus Palo Alto jetzt der einzige Anbieter mit einer einheitlichen Blade-Infrastruktur vom x86-System bis zum Superdome 2 und der Integrity-Nonstop-Systeme (früher Tandem Himalaya) für die geschäftskritischsten Prozesse.

Zur Unterstützung der Kunden gründet HP mit AllianceONE ein  Partnerprogramm, das die Bereiche Server, Speicher und Netzwerke umfasst.

Im neuen Integrity-Portfolio folgende Server, Software und Dienstleistungen angeboten:

– Der neue HP Integrity Superdome 2 verbessert nach Angaben von HP die Verfügbarkeit der Infrastruktur im Vergleich zu Vorgängerversionen um 450 Prozent. Die so genannte Crossbar Fabric verbessert die Ausfallsicherheit, da der Datenaustausch zwischen Blades, CPUs, Speicher und I/O-Ports vollständig redundant geschieht.

– Die neuen HP Integrity Server Blades erhöhen, so HP, die Leistungsfähigkeit und reduzieren die Gesamtbetriebskosten. Das Modell BL890c i2 sei das erste Bladesystem der gesamten Branche, das eine Skalierung auf 8 CPU-Sockel bietet. Zudem könnten Kunden Integrity, ProLiant und StorageWorks Blades in der gleichen Infrastruktur beliebig kombinieren.

– Der neue Rack-basierte HP-Integrity-rx2800-i2-Server soll die Investitionssicherheit erhöhen, da die vorhandenen Rack-Umgebungen (19“ Industriestandard) weiterhin genutzt werden können. Die Lösung eigne sich besonders für den Einsatz in Außenstellen und Niederlassungen, die an die Zentrale angebunden sind.

– Als Betriebssystem wird die neue Version 11i v3 von HP-UX (Unix) eingesetzt. Das BladeSystem Matrix ist jetzt auch mit HP-UX verfügbar. HPs konvergente Infrastruktur umfasst die Betriebssystem-Plattformen HP-UX, Microsoft Windows, Linux, OpenVMS und HP Non Stop (früher Tandem Himalya).

Erschienen bei SearchStorage, Vogel IT-Medien

HP setzt mit Superdome 2 auch im High-end auf Blade


Hewlett-Packard ist mit der Markteinführung seiner High-end Server Superdome 2 wieder zurück im IT-Wettbewerb um Großkunden und geschäftskritische Aufgaben. Die Kalifornier setzten dabei durchgängig auf eine einheitliche Blade-Infrastruktur.

Von Rudi Kulzer

HP-Manager Martin Fink hatte seinen großen Tag. Schließlich ist der neue Superdome 2 Server das jüngste Baby, das der für geschäftskritische Systeme zuständige Senior Vice President und General Manger for Business Critical Systems am 27. April vorstellte, ein mächtige und flexible Maschine für den wieder einsetzenden Wettbewerb um Großkunden. Damit will HP gegen IBM und Oracle-Chef Larry Ellison mit seinen neuen Sun Datenbank Servern punkten.

Die neuen HP Integrity-Systeme sollen, so die Mission, die Verarbeitung geschäftskritischer Aufgaben erleichtern, die Leistung deutlich erhöhen und für eine Anwendungs-Verfügbarkeit von bis zu 100 Prozent (High Avalability) sorgen. Basierend auf einer neuartigen „Blade Scale“ genannten Architektur wurde nach den strategischen Plänen von HP die „HP Converged Infrastructure“ (früher hieß das Adaptive)  erstmals auf geschäftskritische Prozesse erweitert.

Dabei setzt HP aus Kosten- und Umweltgründen durchgehend auf Blade-Technik. Nach eigenen Angaben ist der Konzern aus Palo Alto jetzt der einzige Anbieter mit einer einheitlichen Blade-Infrastruktur vom x86-System bis zum Superdome 2 und der Integrity-Nonstop-Systeme (früher Tandem Himalaya) für die geschäftskritischsten Prozesse. Kunden sollen damit erstmals alle Anwendungen zusammen in einer Infrastruktur-Umgebung (Server, Speicher und Netzwerke) betreiben, von einer Managementkonsole aus steuern und dabei dieselben Komponenten, Werkzeuge und Prozesse nutzen können.

Zur Unterstützung der Kunden gründet HP mit AllianceONE ein  Partnerprogramm, das die Bereiche Server, Speicher und Netzwerke umfasst.  Im nun Converged-Infrastructure-genannten Konzept umfasst das neue Integrity-Portfolio folgende Server, Software und Dienstleistungen:

– D er neue HP Integrity Superdome 2 verbessert nach Angaben von HP die Verfügbarkeit der Infrastruktur im Vergleich zu Vorgängerversionen um 450 Prozent. Zusätzlich erhöht die so genannte Crossbar Fabric die Ausfallsicherheit, da der Datenaustausch zwischen Blades, CPUs, Speicher und I/O-Ports vollständig redundant geschieht.

– Die neuen HP Integrity Server Blades erhöhen, so HP, die Leistungsfähigkeit und reduzieren die Gesamtbetriebskosten. Das BL890c i2 ist das erste Bladesystem der gesamten Branche, das eine Skalierung auf 8 CPU-Sockel bietet. Die Blade-Link-Technologie erlaubt Kunden, Systeme einfach zu skalieren und zu rekonfigurieren, indem sie mehrere Blades zu zwei, vier oder acht Socket-Systemen verbinden. Zudem könnten Kunden Integrity, ProLiant und StorageWorks Blades in der gleichen Infrastruktur beliebig kombinieren.

– Der neue Rack-basierte HP-Integrity-rx2800-i2-Server soll die Investitionssicherheit erhöhen, da die vorhandenen Rack-Umgebungen weiterhin genutzt werden können. Die Lösung eigne sich besonders für den Einsatz in Außenstellen und Niederlassungen, die an die Zentrale angebunden sind.

– Als Betriebssystem wird die neue Version 11i v3 von HP-UX (Unix) eingesetzt. Im Rahmen eines verbrauchsabhängigen Bezahlungsmodels bietet HP-UX On-Demand- sowie On-Premise-Software, um Management und Sicherheitsaspekte zu verbessern. Das BladeSystem Matrix ist jetzt auch mit HP-UX verfügbar.

HPs konvergente Infrastruktur umfasst die Betriebssystem-Plattformen HP-UX, Microsoft Windows, Linux, OpenVMS und HP Non Stop.