HP-Chefin Meg Whiteman versucht schwierigen Konzernumbau (Teil 1)

ein Blog von Rudi Kulzer, Hintergrund und Analyse

Auch unter der Führung von Meg Whitman kommt Hewlett-Packard schwer zur Ruhe. Der von Personalquerelen und Fehlentscheidungen im Verwaltungsrat gebeutelte Konzern konnte im ersten Geschäftsquartal (31.1.2012) deutlich weniger Desktop-PC, Notebooks, Drucker, Server und Speichersysteme verkaufen als noch vor einem Jahr.

Der Quartalsumsatz schmolz insgesamt um 7 % auf 30,0 Mrd. $. Vor allem die Privatkunden hielten sich auffallend zurück. Sie stürzten sich stattdessen auf Tablet-Computer wie Apples iPad oder auf Smartphones verschiedener Anbieter. Der Gewinn brach im Vergleich zum Vorjahreszeitraum um beinahe die Hälfte auf 1,5 Milliarden Dollar ein.

HP-Chefin Meg Whitmann Werkfoto

Am Mittwoch den 21.3.2012 startete daher Konzernchefin Meg Whiteman den Konzernumbau. Das war keine Überraschung, ist doch die Neuausrichtung des Computerpioniers aus dem kalifornischen Palo Alto überfällig. Drei Vorgänger waren in den vergangenen Jahren an dieser Aufgabe gescheitert, obwohl HP bis vor kurzem noch der umsatzstärkste IT-Konzern der Welt war Und auch heute noch ein Schwergewicht der Branche.

Doch die IT-Branche ist seit gut zwei Jahren in einem starken Umbruch, für den HP spirituell bisher offensichtlich schlecht gerüstet scheint. Das muss sich ändern, darin sind sich alle Branchenbeobachter einige. Diese Aufgabe liegt nun in den Händen von Meg Whiteman, die von EBay kam und das Ruder bei HP im Herbst vergangenen Jahres übernahm, nachdem der Verwaltungsrat den unglücklich agierenden Leo Apotheker nach nur elf Monaten im Amt gefeuert hatte.

Am frühen Mittwochmorgen traf sich nach Berichten aus den USA die HP-Chefin mit den Mitarbeitern in der Firmenzentrale an der Hanover Street in Palo Alto mit der Botschaft, dass die notwendige Umstrukturierung begonnen hat. HP unternehme die notwendigen Schritte, um wieder erstklassig zu werden, versprach Whitman.

HP Firmenzentrale in Palo Alto Werkfoto

 

Nun liege „alles auf dem Tisch“, doch die angekündigten Maßnahmen seien nur ein „erster Schritt.“ Doch man sei sich derzeit noch nicht einmal ansatzweise klar darüber, wie groß die Zahl derer sein wird, die als Folge der Neuorganisation entlassen werden müssen, sagte sie in einem Interview.

HP bestätigte bei diesem Treffen, dass die Geschäftsbereiche Drucker und Personal-Computer wieder einmal zusammengelegt werden sollen, wodurch eine neue Einheit mit etwa 65 Milliarden US-Dollar Jahresumsatz entsteht.

Dies ist nicht das erste Mal ein HP-Chef Drucker und PC zusammenlegt. Carly Fiorina taten dies im Jahr 2005 in einer ihrer letzten Amtshandlungen als CEO zu ersten Mal. Nachfolger Mark Hurd machte den Schritt ein halbes Jahr später wieder.

Whitmans Vorgänger, Leo Apotheker, schlug im vergangenen August sogar die Ausgliederung des PC-Geschäft als eigenständiges Unternehmen vor, um es später wie IBM (an Lenovo) diese Sparte anzustoßen.

Es war einer der ersten Schritte von Meg Whitman bei der Übernahme der CEO-Stelle im September, diese Entscheidung, die sie als Mitglied des Verwaltungsrates selbst getragen hatte, noch einmal zu überdenken. Einen Monat später sagte sie, HP soll die PCs behalten

PC- und Drucker-Chef Todd Bradley Werkfoto

Die neue Struktur ist nach Ansicht von Beobachtern ein Vertrauensbeweis für derzeitigen PC-Chef Todd Bradley, der nun den neuen Bereich führen soll. Bradley kam zu HP nach einer Tätigkeit als CEO von Palm, dem Pionier für Smartphones, den HP Ende April 2010 übernahm. Ich persönlich habe meine Zweifel, ob Bradley der richtige Executive für diese Aufgabe ist. Er ist für meinen Geschmack immer mitgestolpert und hat nicht die nötige Ausstrahlung für dieses Feld. Gut, es kann nicht jeder ein Steve Jobs sein, Gott hab ihn selig, aber ein wenig mehr Pep ist in dieser Verbraucherbranche schon notwendig!

Zusätzlich erklärte HP, man wolle die Marketing-und Public-Relations-Bemühungen zentralisieren und einen Teil des Vertriebs neue organisieren.

Mit der Entwicklung der HP Enterprise Group mit den Themen Server, Speicher, Software. Services werde ich mich in den nächsten Tagen in einem getrennten Blog auseinandersetzen.

 

Große Analytics Offensive der IBM

ein Nachrichten Blog von Rudi Kulzer

Neue Beratungsleistungen und Lösungen für Kundenorientierung, Betrugserkennung und Finanzmanagement

IBM ist überzeugt, Unternehmen wollen ihre Kundenbeziehungen verbessern, mögliche Betrugsansätze leichter erkennen oder ihre Finanztransaktionen vorausschauender gestalten. Dies zu unterstützen bietet Big Blue neue Beratungs-Services sowie drei neue dezidierte Predictive Analytics-Lösungen unter dem IBM-Logo.

Die neuen Beratungsleistungen und Lösungen sollen nach der Vorstellungen der IBM-Verantwortlichen helfen, große Datenmengen gewinnbringend zu nutzen und die Einsatzbereiche sogenannter „Big Data“-Werkzeuge weiterauszubauen. Als Zielgruppe spricht IBM damit nicht IT-Manager, sondern das Top-Management in Unternehmen an, das mit der Bandbreite solcher Analyse-Instrumente in der Unternehmenssteuerung und im Tagesgeschäft profitieren kann. Gleichzeitig will IBM damit ihre führende Position im strategisch wichtigen Markt für Business Analytics weiter ausbauen.

Nach eigenen Angaben konzentriert IBM sich mit den neuen Angeboten auf drei elementare Problemfelder in vielen Unternehmen und Organisationen:

Betrugserkennung,

Finanzmanagement und

Kundenservices.

„Durch die Integration von leistungsfähigen Analyse-Instrumenten in die Geschäftsprozesse des Kunden und den daraus entstehenden Einsichten und abgeleiteten Handlungsoptionen werden aus den vorhandenen unspezifischen Datenmengen wertvolle Erkenntnisse für die Unternehmenssteuerung“, sagt Dirk Heitmann, Director of Business Analytics bei IBM Deutschland.

Das neue Lösungspaket basiert auf Erfahrungen aus über 20 000 Business Analytics-Projekten und kombiniert Innovationen aus der IBM Forschung mit den Vorhersage-Technologien Dutzender von Unternehmen, die IBM in den letzten Jahren übernommen hat.

Die neuen Analyse-Instrumente können von IBM Beratern in den Unternehmen eingeführt und um passende Application-Management-und Cloud-Services ergänzt werden. Der Zugang erfolgt über die IBM Big Data Technologie-Plattform, die unter anderen Hadoop, Stream-Computing, Data Warehouse, Datenvisualisierung, Anwendungsentwicklung und Systemmanagementumfasst. Bisher haben mehr als 100 IBM Business Partner die IBM Big Data-Plattform in ihre Lösungen integriert.

Der entsprechende Markt wird von IDC bis zum Jahr 2015 auf ein Investitionsvolumen in Hardware, Software und Beratungsleistungen von auf 120 Milliarden US-Dollar geschätzt.

 

Betrugserkennung und Missbrauch

Nach Zahlen des FBI verursachen Betrugsfälle im US-Gesundheitssystem jährlich Kosten von über 250 Milliarden US-Dollar. Der weltweite Steuerbetrug kommt die betroffenen Staaten noch wesentlich teurer. Die neue Smarter Analytics-Lösung von IBM richtet sich an staatliche Institutionen und Versicherungen, die solche Fälle frühzeitig erkennen wollen. Dabei lernt das System aus den jeweils aktuellsten Daten und arbeitet mit komplexen Algorithmen, die direkt in die Geschäftsprozesse eingebettet werden. So lassen sich potenzielle Betrugsfälle in Echtzeit erkennen, noch bevor Zahlungen geleistet werden. Mittels intelligenter Analysemethoden empfiehlt die IBM Analytics-Lösung auch jeweils passende Gegenmaßnahmen: Etwa den Versand eines einfachen Mahnbriefs oder gleich die Eröffnung eines Ermittlungsverfahrens.

Der nächste beste Schritt im Kundenservice

Kundendaten sind für alle Unternehmen eine wertvolle Ressource. Doch häufig schaffen sie es nicht, aus diesen Daten tatsächlich nutzbringende Erkenntnisse zu gewinnen und damit ihre Kundenbeziehungen zu verbessern. Die neuen Analytics-Lösungen von IBM sollen Unternehmen nun dabei helfen, ein ganzheitliches Bild ihrer Kunden zu bekommen. In dieses Bild fließen klassische Unternehmensdaten genauso ein wie Meinungsäußerungen des Kunden in sozialen Netzwerken, Informationen über Interaktionen mit der Serviceabteilung und Click-Stream-Daten. Mittels Echtzeitanalysen kann damit zukünftiges Kundenverhalten prognostiziert werden.

Finanzanalysen für Chief Financal Officers

Nach Erkenntnissen von IBM wachsen die Finanzdaten in den Unternehmen um jährlich sagenhafte 70 Prozent: Denn zu den Daten aus den Unternehmen selbst kommen noch Analystenreports, Zahlen zur Markt-und Wirtschaftsentwicklung und weitere Informationen. Die Smarter Analytics-Lösungen von IBM helfen, diese Datenfülle besser zu überblicken, echte Erkenntnisse daraus zu gewinnen und die finanzielle Leistungsfähigkeit eines Unternehmensbesser unter Kontrolle zu halten.

Auch hier spielen Prognosen eine wichtige Rolle: Sie werden aus Daten über die bisherige Performance erstellt und liefern Finanzvorständen profunde Analysen über ihre eigene Finanzkraft und ihr Wettbewerbsumfeld. CFOs erschließen sich dadurch Zusammenhängezwischen verschiedenen Kennzahlen, aufkommende Probleme werden antizipiert und mithilfe von Szenarien alternative Handlungsmöglichkeiten bewertet.

 

 

 

Neue HP-Werkzeuge für Qualität und Mobilität

ein Nachrichten Blog von Rudi Kulzer

Hewlett-Packard bringt neue Lösungen für die Anwendungs-Modernisierung auf den Markt. Die am 20 März 2012 vorgestellten Werkzeuge und Dienstleistungen sollen die Bereitstellung von Unternehmens-Anwendungen auf mobilen und traditionellen Plattformen beschleunigen und verbessern. Ziel der neuen Version 2.5 von HP Application Lifecycle Intelligence (ALI) ist es, die Zusammenarbeit in Entwicklerteams zu fördern und die Einrichtung von Entwicklungsumgebungen wie Visual Studio, Eclipse oder Open-Source-Plattformen zu automatisiert. Entwicklerteams könnten damit Aufgaben und Risiken besser priorisieren und damit den Verwaltungsaufwand.

Die neuen Kollaborations-Werkzeuge von HP ALI 2.5 bieten nach Angaben von HP eine durchgängige Projektübersicht und Nachverfolgbarkeit der Aktivitäten über den gesamten Lebenszyklus einer Anwendung. Echtzeit-Dashboards zeigen Entwicklungs- und Qualitätsmanagern unter anderem den Zustand, die Stabilität und die Risiken von Entwicklungsvorhaben über Projektteams und heterogene Umgebungen hinweg.

Außerdem hat HP gemeinsam mit dem Unternehmen Perfecto Mobile (www.perfectomobile.com) die Lösung HP Unified Functional Testing erweitert. Sie erlaubt es Entwicklern jetzt, die Anwender-Erfahrung mit mobilen Anwendungen auf unterschiedlichen Gerätetypen automatisiert zu testen. Neue HP-Dienstleistungen gibt es auch für Unternehmen, die ihren Anwendern geschäftskritische SAP-Anwendungen auf mobilen Endgeräten zur Verfügung stellen wollen. Die „HP Enterprise Mobility Services for SAP“ konzentrieren sich dabei auf die Plattformen SAP NetWeaver und SAP Sybase Unwired Platform. Die Dienstleistungen umfassen Roadmap-Planung, Anwendungs-Entwicklung, Integration, Tests und Management.

Neue Entwicklerwerkzeuge von HP, Werkfoto

Mobilität und Social Media

Zusätzlich kündigt HP zwei neue Werkzeuge an, die mobile Plattformen und Social Media für das Management von IT-Prozessen nutzen:

– Die Lösung HP Anywhere erlaubt es, IT-Systeme von unterwegs aus zu steuern. Das steigert die Produktivität und erleichtert schnelle Entscheidungen. Die neuen mobilen Anwendungen unterstützen Prozesse wie die Verwaltung von Portfolioanfragen, die Fehler-Rückverfolgung, die Zustandskontrolle von Services sowie das Erstellen von ‚Executive Scorecards‘. HP Anywhere läuft sowohl auf Smartphones und Tablets mit iOS als auch mit Android und ist für eine Reihe von IT-Management-Werkzeugen von HP verfügbar. Dazu gehören die HP IT Executive Scorecard, HP Application Lifecycle Management, HP Business Service Management und HP Project and Portfolio Management.

– HP Enterprise Collaboration integriert Social-Media-Werkzeuge in die IT-Management-Software von HP. Das verbessert den Wissensaustausch, beschleunigt Anwendungsentwicklung und Fehlerbehebung. HP Enterprise Collaboration ermöglicht eine kontextbezogene Echtzeit-Kommunikation, die mit konkreten Maßnahmen und Aufgaben verknüpft ist. IT-Mitarbeiter können direkt aus einem IT-Management-Werkzeug von HP heraus einen Dialog starten, nach relevanten Experten suchen, die Dialog-Ergebnisse verwalten und zugänglich machen. Integriert ist die neue Lösung mit einer ganzen Reihe von HPs IT-Management-Lösungen. Dazu gehören HP Service Manager, HP Application Lifecycle Management, HP Business Service Management, Universal Configuration Management, Database Configuration Manager und HP Closed Loop Incident Process.

Verfügbarkeit

HP ALI 2.5 ist weltweit ohne Zusatzkosten für bestehende ALM-Kunden erhältlich. HP Anywhere und HP Enterprise Collaboration sind ebenfalls weltweit erhältlich, die Preise hängen dabei, so HP, von der Art der Implementierung ab.

Auch das erweiterte Dienstleistungsportfolio HP Mobile Application Services ist sofortverfügbar und über die HP Industrialized Delivery Centers weltweit erhältlich. Dies gilt auch für die HP Enterprise Mobility Services for SAP.

 

Dortmund auf dem Weg zur Smarten City

ein Nachrichten Blog von Rudi Kulzer

Dortmund ist die erste Stadt in Deutschland, die sich im Rahmen eines weltweiten Wettbewerbes um die Teilnahme an der IBM Smarter Cities Challenge Programm durchgesetzt hat.

Ziel des Projektes ist, die „Initiative Dortmunder Talente“ der Stadt Dortmund zu unterstützen. Dazu werden gemeinsam mit allen relevanten Organisationen über alle Bereiche der Stadt Status und Möglichkeiten analysiert, um Wege aufzuzeigen, Dortmund als Stadt noch attraktiver, wettbewerbsfähiger und lebenswerter für die Bürger zu machen.

Dortmund - alter Markt Foto: Stadt Dortmund

Im Jahr 2011 gestartet, stellt die IBM SmarterCities Challenge als Corporate Citizenship Förderprogramm über den Zeitraum von drei Jahren Dienstleistungen und Technologien für 100 Gemeinden weltweit im Gegenwert von 50 Millionen US-Dollar zur Verfügung.

Je nach Einsatzschwerpunkt– bestimmt durch die Bewerbung der Stadt – werden Teams aus speziell ausgewählten IBM Experten die Stadtverantwortlichen bei Analysen unterstützen. Gemeinsam entwickeln sie Empfehlungen für mehr Wachstum, bessere Bereitstellungkommunaler Dienstleistungen, mehr Partizipation der Bürger, Einbezug und Nutzung bürgerschaftlichen Engagements sowie eine verbesserte Effizienz der Abläufe.

Kommunale Entscheidungsprozesse fördern

Ausgewählt werden Städte, die in Problemstellung, Bedeutung für die Stadtentwicklung und Umsetzungswahrscheinlichkeit überzeugt haben. Die Herausforderungen, die adressiert werden, kommen aus so unterschiedlichen Bereichen wie Gesundheit, Bildung, Sicherheit, soziale Dienste, Transport, Umweltschutz, Energie und Finanzverwaltung.

„Mit der IBM Smarter Cities Challenge schaffen wir gemeinsam mit den ausgewählten Städten die notwendigen Grundlagen, um kommunale Entscheidungsprozesse und Steuerungsaufgaben für die Stadt und die Erfordernisses ihrer Bürger besser in Einklang zu bringen“, sagt Martina Koederitz, Vorsitzende der Geschäftsführung der IBM Deutschland. „Dortmund kann, als erste deutsche Gewinnerstadt und mit dem, was sie bisher schon auf den Weg gebracht hat, eine echte Vorreiterfunktion für kluge Stadtentwicklung einnehmen.“

Martina Koederitz, Chefin der IBM in Deutschland, Werkfoto

Die IBM Initiative trägt bereits erste Früchte. Die 24 Gewinner aus 2011 und die ersten sieben Pilotstädte aus dem Jahr 2010 haben eine ganze Reihe von Maßnahmen auf den Weg gebracht: Unter anderem intelligente, konsolidierte Budgetplanungsprozesse, die systematische Koordination öffentlicher Sicherheitseinrichtungen, Verkehrsanalyse- und -steuerungsprojekte sowie neue Aus- und Weiterbildungskonzepte.

 

IBM-Optochipset überträgt 1 Terabit Daten pro Sekunde

ein Nachrichten Blog von Rudi Kulzer

Auf der diesjährigen Optical Fiber Communication Conference stellen IBM Forscher den Prototyp eines parallel verarbeitenden optischen Transceiver-Chipsets vor, das in der Lage ist, ein Terabit – eine Billion Bits pro Sekunde– zu übertragen. Dies entspricht in etwa der Datenmenge von 500 High-Definition-Filmen, die in einer Sekunde übertragen werden.

Das als „Holey Optochip“ bezeichnete Modul misst gerade einmal 5,2 mm x 5,8 mm und ist rund achtmal schneller als heute verfügbare parallele optische Komponenten.

IBM Optochipset Werkfoto

Dieser Durchbruch eröffnet eine neue Dimension in der Leistungsfähigkeit der Datenübertragung, die den Zugriff und die Verteilung von Informationen im Business- und Hochleistungs-Computing, in der Unterhaltungselektronik und der Kommunikationsbranche weiter verändern wird.

Die Übertragungsgeschwindigkeit von einem Holey-Optochip-Transceiver entspricht der aggregierten Bandbreite von 100.000 Benutzern mit einem heute typischen 10 Mbit/s High-Speed-Internetzugang. Mit dieser Leistungsfähigkeit könnte das gesamte Webarchiv der amerikanischen Nationalbibliothek Library of Congress, das 285 Terabytes umfasst (Stand Januar 2012), in nur etwa einer Stunde heruntergeladen werden.

Rückseite des Chipset Werkfoto

„Das Erreichen der ‚Terabit-pro-Sekunde-Schwelle ‘stellt einen Meilenstein in der Entwicklung von optischen Chipsets dar und ist wegweisend für die Datenverarbeitung in der Ära von Big Data“, sagt IBM-Forscher Clint Schow, Mitglied des Teams am IBM T.J. Watson Research Center in den U.S.A., die den Transceiver-Prototypen entwickelt haben. „Durch Innovationen im Packaging und beim Design von Schaltkreisen konnten wir auf ein neues Level an Integration, Energieeffizienz und Leistungsfähigkeit der optischen Komponenten hinarbeiten.“

Auch in punkto Energieverbrauch setzt der Optochip neue Maßstäbe: Das Modul verbraucht gerade einmal fünf Watt, sprich die Energieaufnahme von 20 Chips entspricht gerade einmal der einer 100-Watt-Glühbirne.

 

Neue Lösungen für Smarter Computing durch IBM System x-Server

ein Nachrichten Blog von Rudi Kulzer

Kunden suchen nach Lösungen, sagt IBM auf der CeBIT 2012, die ihnen helfen, mit spezifischen geschäftlichen Herausforderungen umgehen und die vorhandene IT-Infrastruktur besser nutzen zu können. Dabei richten immer mehr ihr Augenmerk verstärkt auf Cloud Computing, Analytics und anderen Smarter Computing-Lösungen, die Bestand und Ausbau ihres Geschäfts sichern sollen.

Die Implementierung von Cloud-Computing soll laut IDC mehr als 19% pro Jahr wachsen. Eine aktuelle IBM CIO Studie zeigt, dass Cloud-Implementierungen in den letzten zwei Jahren fast eine Verdoppelung von 33% auf 60% erfahren haben.

Diesen Markt zu bedienen hat IBM neue x86-basierte System x-Server Lösungen in Hannover vorgestellt. Damit verfügt das System x-Portfolio nun über erweiterte Cloud- und Analytikfunktionen, die Smarter Computing für x86-Kunden Realität werden lassen.

Die neuen Angebote umfassen High-Performance-Server, Netzwerk-und Software-Produkte, die Kunden dabei unterstützen können, Prozesse innerhalb des Rechenzentrums mithilfe von flexiblen, einfach zu implementierenden Lösungen zu optimieren. Ziel ist eine Verringerung der Komplexität und Kosten sowie schnelleres Return on Investment.

Neue Server-Modelle für Services und Wissenschaft

Unter den neu vorgestellten Lösungen befindet sich eine neue Version der IBM BladeCenter-Foundation for Cloud (BCFC):eine integrierte Virtualisierungs-Plattform mit eingebautem System Management, die mit Servern, Speicher und Netzwerken bereits vorkonfiguriert ist. BCFC basiert auf der neuen Generation der IBM Blade Center HS23 Systeme, die bis zu 62% mehr Rechenleistung als die vorherige Generation liefert.

Das in Kalifornien ansässige Unternehmen Byte Mobile und das deutsche Leibniz-Rechenzentrum in München gehören zu den ersten Kunden, die sich für IBM x86-Systeme der nächsten Generation entschieden haben. Byte Mobile, ein weltweit führender Anbieter von mobilen Internet-Lösungen für globale Wireless-Netzbetreiber, nutzt IBM HS23 BladeCenter-Server als Grundlage für die Implementierung seiner Blade Center Foundation for Cloud.

Das Leibniz-Rechenzentrum bietet Serviceleistungen im Bereich Supercomputing für Wissenschaftler in Deutschland und Europa. Es befindet sich im Aufbaueines neuen High-End-Supercomputers auf IBM System x iDataPlex-Technologie. Dieser kann Wissenschaftlern helfen, ein breites Spektrum an anspruchsvollen wissenschaftlichen Fragestellungen zu lösen.

IBMs neue x-Server für die Cloud Werkfoto

Der IBM System x iDataPlex dx360 M4 bietet erhebliche Flexibilität bei der Unterstützung einer breiten Palette von HPC-Workloads. Das System ist für Rechenzentren gestaltet worden, die hohe Leistung bei limitierter Stellfläche, Stromversorgung und Kühlungsmöglichkeit benötigen. Die speziell entwickelte und exklusive IBM Warmwasser- Kühlungstechnologie macht das iDataPlex-System bis zu 40% energieeffizienter als luftgekühlte Systeme; wobei bis zu 90% der Wärme pro Rechenknoten zurückgewonnen werden können.

 

IBM Smart Cloud Lösungen für Business

Für mittelständische Geschäftskunden hat IBM in Hannover neue und erschwingliche Smart Cloud-Lösungen vorgestellt. Sie basieren auf dem neuen IBM System x Server 3650 M4, ein sehr stark erweiterbares Rack-System. Es verfügt über vier 1 GbE Standard-Ports und eine 10GbE Virtual Fabric-Erweiterung, die ein ganzes Spektrum von Networking-Technologien unterstützt und Flexibilität sowie Leistung maximiert.

Das Modell vereint IBM eXFlash Solid-State-Storage- (SSD-)Technologie und Enterprise-Speichertechnologie in einen Zwei-Sockel Rack-Server. Die SSD-Technologie ermöglicht bis zu 30-mal mehr Rechenleistung und bis zu 90% mehr Leistung pro Watt für die Konsolidierung von Collaboration- und Datenbank-Workloads.

Darüber hinaus unterstützen die neuen x3650 M4-Systeme das IBM Smarter Analytics-Portfolio mit einer Reihe von kompakten, integrierten Analytik-Angeboten. Diese umfassen Zwei-Sockel-Systeme mit IBM InfoSphere Data Warehouse, Cognos Business Intelligence und Performance Management-Software.

Business Partner : neue Vorteile für kombinierte Kundenlösungen

Der IBM Solution Accelerator erlaubt es Business Partner, die IBM System x und Blade Center-Systeme zusammen mit IBM-Software wie WebSphere, DB2, Tivoli und Cognos anbieten, um die geschäftlichen Probleme der Kunden zu adressieren, mit attraktiven Anreizen. Die neuen Lösungen sind voraussichtlich weltweit ab März 2012 verfügbar.

 

Intel Prozessoren sollen Motor für die Cloud sein

ein Nachrichten Blog von der CeBIT von Rudi Kulzer

Um das rasante Wachstum im Datenverkehr in der Cloud zu bewältigen, hat Intel auf der CeBIT die neue Prozessorfamilie Xeon E5-2600 vorgestellt. Deren neue Prozessoren sollen die IT skalierbar machen, indem sie neben höchster Leistung und bester Performancewerte pro Watt im Rechenzentrum auch neue Input/Output (I/O)-Innovation und in die Hardware integrierte Sicherheitsfunktionen bieten. Sie sind nicht nur für Server und Workstations, sondern auch für Speicher- und Kommunikationssysteme der nächsten Generation gedacht.

Dazu folgende Hintergrundzahlen: Marktforscher rechnen damit, dass bis 2015 rund 15 Milliarden Geräte und mehr als drei Milliarden Nutzer über das Internet vernetzt sein werden. Das Datenvolumen in den globalen Rechenzentren wird demnach bis 2015 um jährlich 33 Prozent wachsen, was für 2015 eine Datenmenge von über 4,8 Zettabytes pro Jahr (eine Zahl mit 21 Nullen) bedeutet. Das ist mehr als dreimal so viel wie im Jahr 2011.

Die zu speichernde Datenmenge erhöht sich damit um fast 50 Prozent pro Jahr, wobei jeder vernetzte Nutzer 2015 jeden Tag durchschnittlich über 4 GByte Daten übertragen wird – Das entspricht einem einstündigen HD-Film. Um diesem enormen Wachstum gerecht zu werden, wird die Zahl der Cloud-Server bis 2015 um mehr als das Dreifache steigen, so Intel.

Stark verbesserte Rechenzentren sind nötig

Um diese Herausforderung zu bestehen müssen moderne Rechenzentren ihre Rechen- und Speicherleistung erheblich erhöhen, gleichzeitig aber auch effizient sein, um den Energieverbrauch und die Betriebskosten zu senken. Nach Angaben des Prozessorprimus reduziert die Intel Xeon E5-2600 Prozessorfamilie die Gesamtbetriebskosten (TCO), indem sie die energieeffiziente Leistung (Performance pro Watt) im Vergleich zur vorherigen Generation der Intel Xeon Prozessor 5600 Serie um mehr als 50 Prozent verbessert. Innovationen bei I/O und Netzwerk

Intel Xeon E5 Struktur (Sandy Bridge) Werkfoto

Das rasante Wachstum des Datenverkehrs fordert aber nicht nur eine höhere Rechenleistung, sondern auch eine höhere Geschwindigkeit beim Datentransfer. Somit lassen sich datenintensive Anwendungen unterstützen und die Bandbreite im Rechenzentrum erhöhen.

Die wichtigsten Anforderungen an eine skalierbare IT seien Leistung, Energieeffizienz, I/O Bandbreite und Sicherheit, so Intel. Mit der besten Kombination aus Leistung, integrierten Funktionen und Kosteneffizienz erfülle die neue Intel Xeon Prozessor E5-2600 Produktfamilie genau diese Voraussetzungen.

Breite Unterstützung in der ITK-Industrie

Ab heute werden Hersteller aus aller Welt Hunderte von Plattformen auf Basis der Intel Xeon E5 Prozessorfamilie auf den Markt bringen. Dazu gehören Acer, Appro, Asus, Bull, Cisco, Dell, Fujitsu, HP, Hitachi, Huawei, IBM, Inspur, Lenovo, NEC, Oracle, Quanta, SGI, Sugon, Supermicro und Unisys.

Die die neuen Prozessoren werden in 17 Varianten zu Preisen zwischen 198 und 2.050 US-Dollar bei einer Abnahme in Einheiten von 1.000 Stück geben. Zusätzlich bietet Intel drei Modelle der Intel Xeon E5-1600 Prozessoren mit einem Sockel für Workstations, die zwischen 284 und 1.080 US-Dollar kosten.

 

Microsoft stellt SQL Server 2012 auf der CeBIT vor

ein Nachrichten Blog von Rudi Kulzer

Auf der CeBIT hat Microsoft die Verfügbarkeit seiner Datenbank-Software – SQL Server 2012 – zum 1. April 2012 bekanntgegeben. Diese soll zusammen mit System Center und dem Betriebssystem Windows Server „8“ eine durchgängige IT-Infrastruktur – für Private, Public und Hybrid Clouds garantieren.

Datenbanksystem Microsoft SQL Server 2012 Werkfoto

Das ebenfalls vorgestellte System Center 2012 soll das Management physischer und virtueller Systeme optimieren und die kommende Version des Server Betriebssystems Windows Server „8“ einbinden. Zusammen mit dem SQL Server erhalten Unternehmen leistungsstarke Technologien für eine durchgängige IT-Infrastruktur, die konsequent auf die Cloud ausgerichtet ist, sagt Microsoft in Hannover.

Big Data – unstrukturierte Informationen analysieren

Mit der neuen Generation des Datenbanksystems sollen Kunden vor allem in der Option Cloud sehr umfangreiche Datenvolumina innerhalb kürzester Zeit analysieren können.

Gartner schätzt, dass das Datenvolumen weltweit jährlich um 59 Prozent zunimmt. Der Großteil dieser Daten (ca. 70 bis 85 Prozent) sind sogenannten unstrukturierte Informationen. Sie sind zwar auch strukriuriert, aber nicht nach den herkömmlichen Regeln relationaler Datenbanken.

Um diese „unstrukturierten“ Daten effizient auswerten und analysieren zu können, verfügt der SQL Server in der neuen Version über einen sogenannten Apache Hadoop Connector. Dieser ergänzt damit die Tools, die für die Analyse strukturierter Datenmengen zur Verfügung stehen, wie beispielsweise Microsoft Excel, PowerPivot for Excel 2010 und Power View.

SQL Server 2012 ist nach eigenen Angaben zentraler Bestandteil der Microsoft-Gesamtstrategie, mit der das Unternehmen seine Infrastruktur-Technologien konsequent für Cloud Computing optimiert.

 

 

SAP bringt Business One in die Cloud

ein Nachrichten Blog von der CeBIT von Rudi Kulzer

SAP bietet Business One ab sofort auch als On-Demand-Lösung an. Dies haben CO-CEO Jim Hageman Snabe und Deutschlandchef Michael Kleinemeyer auf der CeBIT bekannt gegeben. Anwender können zwischen einem reinen Cloud-Betriebsmodell und der Kombination mit einer On-Premise-Nutzung (im Unternehmen) wählen.

SAP Co-Chef Jim Hagemann Snabe Werkfoto

Business One im SaaS-Modell soll über Partner aus der Cloud vermarktet werden. Als erste Kunden für den Service wurden Hungarian Telecom, Itelligence, Seidor, Singtel, Versino und Virtustream genannt.

Business One aus der Cloud richtet sich an mittelständische Firmen. Mit der Lizenzvariante konnte SAP nach eigenen Angaben bislang 35.000 Kunden gewinnen. Für die SaaS-Lösung Business by Design, die sich an kleine mittelständische Firmen oder Filialen richtet, sind es derzeit nach Angaben des Konzerns rund 1000.

In Hannover hat SAP zudem weitere Cloud-Computing-Angebote vorgestellt. Mit SAP Travel OnDemand können Unternehmen Geschäftsreisen planen und Reisekosten verwalten. Die Lösung ist ab sofort in Deutschland und den USA verfügbar. Hageman Snabe erklärte auf der CeBIT, in Zukunft etwa alle 18 Monate sich einer neuen Produktkategorie widmen zu wollen. Dies müsse jedoch nicht auf Grund von Übernahmen wie bei SuccessFactors geschehen, sondern auch aus eigener Kraft.

 

0 Comments

Citi Bank prüft Einsatz von IBM Watson

ein Nachrichten Blog von Rudi Kulzer

Citigroup hat mit IBM vereinbart, eine mögliche Nutzung der Watson-Technologie zu erkunden. Im Rahmen der Vereinbarung wird Citi die Nutzung der Deep-Content-Analytics sowie die faktenbasierten Lernfähigkeiten erproben, wie sie in IBM Watson zu finden sind. Citi wird Möglichkeiten evaluieren, wie IBM Watson Technologien helfen können, Kundenbedürfnisse zu analysieren und große Mengen an Minuten aktuellen Finanz-, Wirtschafts-, Produkt- und Kundendaten zu verarbeiten.

Citi Bank in New York Werkfoto

„IBM treibt weiterhin den Einsatz von Watson in Informations-intensiven Industrien voran, so dass Unternehmen schnellwertvolle Erkenntnisse aus großen Datenmengen gewinnen können. Damit können sie die Entscheidungsfindung beschleunigen und die Art und Weise verbessern, wie sie ihre Kunden bedienen können“, so Mike Rhodin, Senior Vice President, IBM Software Solutions. „Die Zusammenarbeit zwischen IBM und Citi wird untersuchen, wie die Anwendung von Watson im Endkunden-Finanzmarkt helfen könnte, Finanz-Profis zu besseren Geschäftsentscheidungen zu verhelfen und stellt einen bedeutenden Schritt bei der Einlösung des Versprechen seines personalisierten Bankwesens im 21. Jahrhundert dar.“

IBM Manager Mike Rhodin Werkfoto

Citi wird Möglichkeiten prüfen, um eine in ihrer Art bislang einzigartige Lösung für die Kundeninteraktion einzusetzen, die Watsons Deep-Content-Analytics, seine Fähigkeit zur Verarbeitung natürlicher Sprache, Technologien zur Entscheidungs-Unterstützung sowie faktenbasiertes Lernen kombiniert, um das digitale Banking weiter voranzutreiben.

Watson Fähigkeit, die Bedeutung und den Kontext der menschlichen Sprache zu analysieren und große Mengen an Informationenschnell zu verarbeiten, um Optionen bezüglich der individuellen Umstände eines Kunden vorzuschlagen,sollhelfen, die Entscheidungsfindung zu beschleunigen und den Entscheidungsträger dabei zu unterstützen, Möglichkeiten zu identifizieren, Risiken zu evaluieren und alternative Aktionen zu erkunden, die am besten für ihre Kunden passen. Bisher wurde Watson in erster Linie im Bereich Medizin eingesetzt. Finanzdienste ist sicher ein weiteres interessantes Feld.