Big Blue stellte auf der CeBIT 2011 eine Initiative vor, die es Unternehmen erlauben soll, ihre IT-Infrastruktur effizienter und innovativer inzusetzen.
Der Kampf um Unternehmenskunden mit Rechenzentren hat
sich nach der wirtschaftlichen Erholung deutlich verstärkt. Vor diesem
Hintergrund werben die großen Player wie IBM, HP, Oracle, Cisco oder Dell mit neuen Kampagnen um diese Kundenklientel. Es geht um lukrative Aufträge, denn die Nachfrage nach Rechenkapazität steige unaufhörlich, erklärte die IBM auf der CeBIT.
In den letzten drei Jahren sei die Menge digitaler Daten jährlich um über 60 Prozent gewachsen. Auch das Volumen der zu verwaltenden virtuellen Bilder nahm pro Jahr um mehr als 40 Prozent und die Verbreitung von
Cloud Computing um über 30 Prozent zu. Doch gleichzeitig werden IT-Budgets noch immer als Mittel zur Kostensenkung betrachtet. So schrumpften die weltweiten IT-Budgets im selben Zeitraum durchschnittlich um 1,3 Prozent.
Um diesen „IT-Widerspruch“ aufzulösen, verfolgen Anbieter wie IBM einen neuen Ansatz, den Big Blue nun offiziell als „Smarter Computing“
bezeichnet. Vorläufer war ein Dynamic Infrastructure genanntes Programm. Konkurrent Hewlett-Packard nannte seinen Ansatz früher „Adaptive Computing“, heute „Converged“.
Dabei geht es um eine effizientere und innovative Geschäftsprozesse
in der IT. Sie sollen es ermöglichen, dass mehr Daten, mehr Workloads und mehr Leistung pro investiertem Geldbetrag verarbeitet werden können – und das in Bezug auf die Parameter Arbeitsaufwand, Stellfläche, Energiebedarf und Technologie.
Eine innovative IT, so IBM Manager Marc Fischer in Hannover, verwandelt Informationen mit Hilfe neuer Technologien in intelligente Services, welche für die Erschließung neuer Umsatzmöglichkeiten und Geschäftsmodelle sorgen sollen.
Rechenzentren sind heute virtuell
Vor dem Aufkommen geografisch verteilter Systeme (Distributed Systems) wurde die gesamte IT, damals noch EDV genannt, durch eine Handvoll hochspezialisierter technischer Experten zentral (Mainframes) gemanagt. Doch in den letzten dreißig Jahren hat sich die IT demokratisiert: Einzelne Nutzer konnten immer freier über IT-Technologien verfügen, die immer einfacher anzuwenden waren. Das wiederum führte dazu, dass heute vielerorts jeder Anwender oder jede Abteilung über eigene IT-Ressourcen verfügen, um Anwendungen zu entwickeln, zu nutzen sowie Daten und Services zu verwalten.
Ein unkontrollierter Wildwuchs war die Folge. Das Ergebnis: Die IT wurde zu kostspielig – in der Anschaffung, Implementierung und Verwaltung. Nach vorne blickende IT-Entscheider setzen daher auf eine Strategie, bei der das Rechenzentrum der Zukunft kein realer, sondern ein virtueller Ort sein wird.
Rechenzentren werden so zu Systemen auf der Basis intelligenter Architekturen, mit denen sich die digitalen Ressourcen und Geschäftsprozesse eines Unternehmens integrieren und automatisieren lassen – von der Überwachung der Server, Speicher und PCs bis zur Verwaltung mobiler Endgeräte, Fahrzeugflotten und Sicherheitssysteme in Gebäuden. Alle großen Anbieter bemühen sich, diesen Trend zu bedienen.
IBM nannte als Beispiel für einen Kunden, der schon heute das Programm „Smarter Computing“ nutzt das „University of Pittsburgh Medical Center“ (UPMC). In den letzten fünf Jahren verdoppelte das Universitätsklinikum seine IT-Kapazitäten und hielt gleichzeitig die Kosten gering. Frei gewordene Flächen wurden für neue Krankenhausräume genutzt. Dank des neuen Ansatzes konnte das Center jetzt in die Entwicklung des „papierarmen Krankenhauses“ sowie in modernste Technik für „smarte Krankenzimmer“ investieren. Der Dokumentationsaufwand für die Krankenpflege wurde mehr als halbiert, die Qualität der Patientenpflege erhöht.
Der technologische Standpunkt von IBM
Heterogenität und Komplexität lassen sich nicht vermeiden. Die unterschiedlichen Datenquellen, Datenbanken und Laufzeitumgebungen sowie die Vielzahl von Servern, Betriebssystemen und Altanwendungen werden nicht einfach „über Nacht“ verschwinden.
Doch mit Hilfe eines Ansatzes wie „Smarter Computing“ könnten dieses Unternehmen ihre Daten und Systeme durch standardisierte Einsatzverfahren für jede Art von Workloads integrieren. Gleichzeitig verbinden und vereinheitlichen sie verteilte Systeme und sorgen für Konsistenz bei der Implementierung. Durch den Einsatz von Software, Algorithmen und Entscheidungskriterien lassen sich kritische Prozesse und Services automatisieren, um so manuelle Eingriffe zu minimieren.
Erschienen in ZDnet IT-Business
Leave a Reply
Using Gravatars in the comments - get your own and be recognized!
XHTML: These are some of the tags you can use:
<a href=""> <b> <blockquote> <code> <em> <i> <strike> <strong>