IBM zeigt neue Analyse-Software für Big Data

ein Blog von Rudi Kulzer

Jeden Tag produzieren Sensoren, Mobilgeräte, Online-Transaktionen oder Social Networks rund 2,5 Trillionen Bytes an neuen Daten (1 Trillion entspricht 1015). Das ist mehr als je zuvor. 90 Prozent der gesamten Welt-Daten in den letzten zwei Jahren entstanden. Nach Angaben der Unternehmen „zwitschern“ Twitter-User jeden Monat eine MilliardeTweets, Facebook-Fans posten in diesem Zeitraum 30 Milliarden neue Meldungen.

Unternehmen aller Größe versuchen mit diesem rasenden Wachstum Schritt zu halten, um die Daten in geschäftsrelevante Informationen zu verwandeln, doch 71 Prozent stehen dieser Datenexplosion unvorbereitet gegenüber, zeigt eine Studie der IBM.

Auf der aktuellen Kundenkonferenz „Information-on-Demand – IOD 2011“ in Las Vegas zeigt Big Blue daher als Lösungsangebot neue Analyse-und Information-Management-Software, die Unternehmen jeder Größe bei der produktiven Nutzung ihrer riesigen Datenmengen unterstützen soll. Das Programm IBM InfoSphere BigInsight auf IBM SmartCloud Enterprise soll Big Data-Analysen für jeden Nutzer im Unternehmen verfügbar.

Wie bei der gleichnamigen lokalen In-House-Version analysiert BigInsights sowohl SQL-strukturierte, als auch NoSQL-strukturierte Daten in Texten, Videos, Bildern, Social Media, Click-Streams, Log-Files, Wetterdaten etc. Mit der Cloud-Version braucht der Nutzer, anders als bisher, keine Hadoop-Kenntnisse mehr und muss auch keine Software oder Hardware mehr installieren und pflegen.

Big Data Analytics in der Cloud

Apache Hadoop ist ein Open-Source-Software-Framework, das eingesetzt wird, um zuverlässig die Verwaltung großer Mengen verschieden strukturierter Daten zu sichern. IBM BigInsights erweitert diese Technologie um Workflow-, Bereitstellungs-und Sicherheits-Features im Verbund neuen analytischen Fähigkeiten von IBM Research.

BigInsights in der Cloud ist sowohl als Basis- als auch als Enterprise-Edition verfügbar und kann als Public-, Private- oder Hybrid-Cloud installiert werden.

Die Basis-Version ist ein kostenloses Einsteiger-Angebot, mit der Unternehmen lernen können, wie sie mit Big Data-Analysen umgehen sollten, einschließlich „Was-wäre-wenn“-Szenarios mit BigSheets-Komponenten.

Von dieser Version können Kunden nahtlos auf die gebührenpflichtige Enterprise-Version wechseln und in weniger als 30 Minuten Hadoop-Cluster aufsetzen, um Datenanalysen zu starten verspricht IBM. Die Kosten beginnen ab 0,60US-Dollar pro Cluster und Stunde Nutzung.

Beide Versionen umfassen eine Entwickler-Sandbox, die es erlaubt, kundeneigene Business-Analytics-Anwendungen komplett mit Tools sowie Test- und Entwicklungsumgebung zu erstellen.

Vor allem Banken, Versicherungen, Handelsunternehmen sowie Kommunikations- und Unterhaltungsanbieter sind an BigInsights in der Cloud interessiert, um große Mengen an verschieden strukturierter Daten zu analysieren, sagt IBM. Mit deren Hilfe versuchen sie unter anderem ihre Kunden besser zu verstehen, ihre Netzwerke sicherer zu machen und die Kundenerfahrungen zu verbessern.

 

Virginia Rometty wird neue IBM-Chefin

Ein Nachrichten Blog von Rudi Kulzer

IBM hat am Dienstag den 25. 10. 2011 nach US-Börsenschluss bekanntgegeben, dass der bisherige Chief Executive Officer (CEO) Sam Palmisano zum 1.Januar 2012 aus Altersgründen planungsgemäß aus dem Amt scheiden wird.

Als Nachfolgerin wurde Virginia Rometty, die Verantwortliche für Vertrieb, Marketing und Strategie, benannt. Rometty soll zum 1.Januar auch den Titel des President führen und in das Board of Directors (Verwaltungsrat) aufrücken. Palmisano bleibt IBM als Chairman erhalten, ein Amt das er bisher schon ausübte.

IBM: Sam Palmisano und Ginni Rometty Quelle: Werkfoto

Die Berufung von Frau Rometty, in der Kurzform ihres Vornamens „Ginni“ genannt, ist für Beobachter der IT-Industrie keine Überraschung. Gerüchte flüsterten schon seit langem, das aus der Troika der möglichen Nachfolger nur sie neue Chefin von Big Blue werden könnte. Die beiden männlichen Kandidaten, Service-Chef Michael E. Daniels und Software-Chef Steve Mills, sind schon zu alt, um nach der Altersregeln der IBM das Amt übernehmen zu können.

Nach den offizielle IBM Lebenslauf war Frau „Ginni“ als Vertriebschefin für Umsatz, Gewinn und Kundenzufriedenheit weltweit verantwortlich und zusätzlich für die wichtigen Themen Strategie, Marketing und Kommunikation zuständig gewesen. So lag es nahe, dass sie den Helm übernehmen wird, wie man das in der Businesssprache in den USA ausdrückt.

Davor leitete sie die IBM Geschäftsbereich Global Business Services und begleitete in diesem Amt die schwierige Integration der Wirtschaftsprüfer und – berater Price Waterhouse Coopers. Die bedeutende Akquisition aus dem Jahr 2002 gilt als wichtigster Deal der Branche in diesem Jahr. Eigentlich wollte die damalige HP-Chefin das bekannte Haus PWC übernehmen, was ihr jedoch nicht gelang.

Romettys Ernennung erfolgt zu einem interessanten Zeitpunkt in der IT-Geschichte. Mit Meg Whitman an der Spitze von HP führen jetzt zwei Frauen die beiden größten IT-Unternehmen der Welt. Neben den beiden Damen sind noch Ursula Burns von Xerox, Indra Nooyi von Pepsico und Ellen Kuhlmann von Dupont als wichtige Industrieführerinnen der Vereinigten Staaten zu nennen.

„Ginni Rometty hat in den letzten zehn Jahren erfolgreich mehrere der wichtigsten Geschäftsbereiche der IBM geführt – von der Bildung von IBM Global Business Services“, so das Statement von Sam Palmisano. „Aber sie ist mehr als eine hervorragende operative Führungskraft. In jeder Führungsrolle hat sie die Fähigkeit, die IBM-Angebote für unsere Kunden zu integrieren verstärkt. Sie hat uns angespornt, stärker auf die Bedürfnisse und Erwartungen unserer Kunden einzugehen, mit Expertise und Branchenkenntnis. Ginni langfristiges strategisches Denken und Kundenorientierung zeigte sich vor allem in unseren Wachstumsinitiativen, von Cloud-Computing und Analysen bis zur Kommerzialisierung von Watson. Sie bringt für die Rolle des CEO eine einzigartige Kombination aus Vision, Kundenorientierung, unerbittlichen Antrieb und Leidenschaft für die IBM-Mitarbeiter und die Zukunft des Unternehmens mit. Ich weiß, dass das Board ist mit mir einverstanden, dass Ginni als ideale CEO IBM in sein zweites Jahrhundert führen wird.“

Herr Palmisano, 60, wurde IBM Chief Executive Officer im Jahr 2002 und Vorsitzender des Vorstandes im Jahr 2003. Während seiner Amtszeit beendet IBM zunehmend standardisierten Unternehmen, einschließlich PCs, Drucker und Festplatten, und stark erhöhten Investitionen in hochwertige Unternehmen und Technologien.

Er hat die deutliche Ausweitung der IBM in den aufstrebenden Märkten China, Indien, Brasilien, Russland und Dutzende von anderen Entwicklungsländern, die Umwandlung IBM von einem multinationalen zu einem global integrierten Unternehmen betreut.

Im Jahr 2008 startete er IBM Smarter Planet-Strategie, die das Unternehmen nach Ansicht der nächsten Ära der Informationstechnologie und deren Auswirkungen auf Wirtschaft und Gesellschaft beschreibt.

 

IBM stellt neue Systeme für intelligentere IT-Infrastruktur vor

ein Nachrichten Blog von Rudi Kulzer

In der bisher größten Ankündigung dieses Jahres im Rahmen des Portfolios Server- und Speicherlösungen hat IBM am 19. Oktober in Deutschland, in den USA bereits am 12. Oktober, mehr als fünfzig neue und verbesserte Server- und Speichersysteme vorgestellt.

Diese sollen die Kunden dabei unterstützen, aus der meist großen Fülle ihrer Daten Geschäftsentscheidungen schneller abzuleiten, vorhandene IT-Kapazitäten sinnvoll zu erweitern und rasch neue IT-Services bereitzustellen, wenn sich entsprechende Geschäftschancen bieten.

Die neuen Lösungen umfassen kostengünstige Analytik-Systeme, automatisierte Werkzeuge für die Implementierung von Sicherheits- und Compliance-Standards sowie Starter-Lösungen für den Aufbau von Private Clouds.

Ziel der umfangreichen Ankündigung ist nach Angaben von Big Blue das Problem der weiter stark wachsende Datenmenge aus der Nachfrage nach IT-Services sowie der Gegebenheit beschränkter IT-Ressourcen in den Griff zu bekommen.

Nach Beobachtungen von Big Blue geraten Organisationen leicht in Situationen, in der aufgrund starrer IT-Infrastrukturen und dem Fehlen verlässlicher Daten nur reaktiv oder anhand risikobehafteter Informationen Entscheidungen getroffen werden. Versuche, diese Situation durch zusätzliche IT-Investitionen zu bewältigen, würden dabei aber oft in einer noch stärker ausfransenden und teuren Infrastruktur münden.

Vor diesem Hintergrund will die IBM mit ihren neuen Lösungen mit intelligenten Computing-Technologien für Business Analytik, integrierten Speicherkonzepten, optimierten Systemen und stärker virtualisierten Rechenzentren im Rahmen des Smarter-Computing-Ansatzes adressieren.

Daten-Analyse annähernd in Echtzeit

Organisationen, die sehr große Datenmengen nützen, müssen diese auch in Echtzeit auswerten können, um Geschäftsentscheidungen sinnvoll zu treffen. IBM stellt deswegen neue Einstiegs-Business-Analytik-Systeme, Akzeleratoren für Business Analytik und erweiterte Speicherlösungen vor:

• Der IBM DB2 Analytics Accelerator integriert die Netezza Data-Warehouse-Appliance in das IBM zEnterprise Mainframe-System für schnellere Analytik-Antworten. Die Kombination aus Netezza- und System z -Technologien ermöglicht die Verschmelzung von Online-Transaktionsverarbeitungssystemen (OLTP) mit der Analytik in einer einzigen Plattform für schnell durchführbare Business Intelligence-Aufgaben.

• Die IBM zEnterprise-Großrechner-basierten Appliances IBM Smart Analytics System 9700 und IBM Smart Analytics System 9710 bieten eine End-to-end Data-Warehouse- und BI-Lösung auf dem IBM zEnterprise Mainframe-System. Die neuen Systeme können ein Datenverteil-Hub, Transaktions-Analytik-Plattformen und modernisierte Reportingsysteme unterstützen oder als Rahmen für umfassende Predictive Analytik-Aufgaben dienen.

• Das IBM POWER7 Prozessor-basierte IBM Smart Analytics System 7710 und das x86-Prozessor-basierte IBM Smart Analytics System 5710 sind Single-Server-All-in-one-Systeme, die Analytik- und Reportingservices schnell und zum annähernd hälftigen Preis vorheriger vergleichbarer integrierter Lösungen bieten.

Bei den Speichersystemen gab es folgende Ankündigungen:

• Das IBM Storwize V7000 Unified Midrange-Plattenspeichersystem soll den Speicherbetrieb mit File- und Block-basierter Speicherung auf dem gleichen System mit einem leicht verständlichen GUI vereinfachen. Es beherrscht die automatische, policy-basierte Verschiebung von Dateien auf den gewünschten Laufwerkstyp für eine vereinfachte und preiswerte Administration.

• Der IBM System Storage DS8000 Release 6.2 Enterprise-Plattenspeicher bietet jetzt noch höhere Leistung und gesteigerte Gesamtkapazität sowie Optimierungsmöglichkeiten. Damit können unterschiedliche Workloads effizient und automatisch ohne Administratoreinbindung verwaltet werden.

• Der IBM XIV Storage System Gen3 Enterprise-Plattenspeicher wurde im Juli mit erweiterten Hardware-Upgrades für extrem anspruchsvolle Workloads vorgestellt. Jetzt ergänzt IBM den Support für 3-TB-Laufwerke, die die Gesamtkapazität um bis zu 50 Prozent im gleichen Footprint erhöhen und die nutzbare Kapazität auf 243 TB pro Rack heraufschrauben.

 

Cloud-Werkzeuge für alle Plattformen

Für den Aufbau von Internet-Clous beim Kunden hat IBM eine Reihe von Cloud-Infrastruktur-Lösungen angekündigt:

• IBM Starter Kit for Cloud, Teil der IBM SmartCloud Entry Lösung, ist ein Baustein zur Schaffung von Private Clouds auf virtualisierter IBM System x und Power Systems Hardware.

• Die zEnterprise Starter Edition for Cloud bietet Kunden eine Entry-Level Infrastruktur als Service (IaaS) Cloud-Bereitstellungsmodell für Linux auf System z mit dem Tivoli Provisioning Manager. Diese einfach ausrollbare, hochsichere, schlüsselfertige “Cloud in a box” erweitert das Thema Enterprise Cloud mit zentralisiertem Management des gesamten zEnterprise-Systems.

• Die IBM BladeCenter Foundation for Cloud ist eine umfassende Cloud-Computing-Plattform, die Server, Speicher, Netzwerk und Managementlösung kombiniert. Sie erlaubt Kunden die schnelle Schaffung einer x86-basierten Cloud-Umgebung bei hoher Skalierung.

• Die IBM Active Cloud Engine skaliert Cloud-Filesysteme effizient durch die Ablage von Files dahin, wo sie benötigt werden. Sie verbessert das Management und die Effizienz von Cloud Storage dramatisch. Die Hardware-Grundlagen für globale Clouds sind mit dem IBM Scale-Out Network Attach Storage (SONAS) und für mittelgroße Clouds über das Storwize V7000 Unified System gegeben.

Weitere Informationen: www.ibm.com/smartercomputing

 

 

IBM Rational: Neue Entwickler-Werkzeuge für Analytics, SAP-Projekte und Qualitätsmanagement

ein Nachrichten Blog von Rudi Kulzer

Im Rahmen seiner Herbstoffensive neuer Produkte hat der für Entwickler zuständige Arm der IBM neue Software vorgestellt, die Unternehmen dabei unterstützen soll, in Zeiten scharfen Wettbewerbs Veränderungen erfolgreicher zu meistern sowie Innovation und Wachstum voranzutreiben.

Innovate Konferenz von IBM Rational in München Quelle: Rational

Auf der deutschen IBM Rational Software Konferenz Innovate in München zeigte IBM Rational vor allem Produkte, die Unternehmen im Verbund mit Analytics-Technologie in der Entscheidungsfindung von Geschäftsprozessen unterstützen. Dazu sollen smarte Prozessansätze sowie Anwendungen, Dienste, Informationen im IT-technischen Kontext mit SOA, Cloud und mobile Applikationen bereitgestellt werden. Eine intensive Zusammenarbeit mit SAP spielte dabei eine zentrale Rolle.

IBM und SAP arbeiten kontinuierlich an einem Portfolio von Unternehmens- und Infrastrukturlösungen, das Angebote beider Unternehmen integriert, so der zuständige IBM-Manager Bernd Eichhardt auf der Konferenz. Die neue Integration von IBM Rational Software für SAP Solution Manager biete nicht nur integrierte Prozesse, Methoden und Tools für Anforderungs- und Qualitätsmanagement, sondern verbinde auch in einem einheitlichen, konformen Ansatz geschäftliche, technische und IT-Artefakte über SAP- und nicht-SAP-Lösungen hinweg für eine umfassende End-to-End-Traceability und Governance (Nachverfolgbarkeit und Rechtskonformität).

Werkzeuge von SAP und IBM Rational ergänzen sich

Ergänzend liefert der SAP Solution Manager Connector End-to-End-Testmanagement für SAP-basierte Lösungen als Bestandteil einer integrierten Application Lifecycle Management (ALM)-Lösung. Diese gemeinsame Qualitätsmanagement-Plattform soll die Planung, Ausführung und das Reporting von Tests zusammenführen. Gleichzeitig ist die Testarchitektur verknüpft mit den SAP Geschäftsanforderungen und mit Business Blueprints. Dank der Integration könnten Kunden auf BestPractises des SAP Solution Managers und der IBM Rational Lösungen zugreifen, betont IBM.

Wichtige Neuerungen auf der Innovate betreffen auch IBM System Architect und IBM Rational AppScan: Dabei bietet Rational System Architect jetzt auch die Möglichkeit, Abhängigkeiten zwischen Prozessen im SAP Solution Manager und den unterstützenden SAP Daten und Anwendungen abzubilden.

Zum maximalen Geschäftsnutzen des SAP Investments können SAP Projekte außerdem in Rational System Architect visualisiert, analysiert, geplant und verbreitet werden. Für detaillierte Ablaufmodelle mit standardisierten BPMN-Notationen kann der System Architect als Definitionsdatenbankgenutzt werden.

Mehr Anwendungssicherheit bei der Anwendung multipler Testmethoden verspricht IBM Rational AppScan mit erweiterten Sicherheitsanalysen. Web-basierte SAP Anwendungen können so dynamisch analysiert und der Java-Code auf kundenseitige Schwachstellen überprüft werden. Die Integration mit dem IBM Partner Virtual Forge aus Heidelberg erlaubt sogar eine Überprüfung von SAP ABAP Anwendungen.

 

Neue IBM Analytic Software soll für bessere Geschäftsentscheidungen sorgen

ein Nachrichten Blog von Rudi Kulzer

Nach der intensiven Frühjahr-Kampagne im Umfeld der CeBIT schießt Big Blue auch im Herbst aus allen Ankündigungsrohren. Eines der Lieblingsthemen sind dabei wieder Datenanalyse und Infrastruktur.

Der Grund: IT-Analytik verändert die Art und Weise, wie operative und IT-Entscheidungen getroffen werden, grundlegend. Durch vorausschauende Analysen auf Basis der im Unternehmen erzeugten Datenmengen können Unternehmen schneller und genauer auf Kundenbedürfnisse antworten. Außerdem lassen sich so Lieferengpässe antizipieren und verhindern. Zudem erhalten die Entscheider faktenbasierte Kennzahlen, mit deren Hilfe sie ihre Geschäftsergebnisse verbessern können.

Das neue Software-Portfolio der IBM soll Unternehmen zu schnelleren und besser fundierten Geschäftsentscheidungen verhelfen, mehr mehr Integration zwischen IT-Infrastruktur-Anwendungen und den wichtigsten Geschäftsprozessen sowie ein vorausschauendes Servicemanagement erlauben.

IBM Logo auf der Pulse in den USA Quelle: Werkfoto

Zu den neuen Lösungen aus den Bereichen Middleware und Systemmanagement zählen unter anderem IBM WebSphere Operational Decision Management für automatisierte Entscheidungsprozesse, IBM Tivoli Analytics for Service Performance, eine neue Version von IBM Tivoli Business Service Management sowie erweiterte Versionen von IBM WebSphere Message Broker und IBM WebSphere MQ, die es Unternehmen ermöglichen, Informationen effektiver in die Geschäftsprozesse einfließen zu lassen.

Außerdem kündigt IBM neue Produkte für Entwickler an. Hierzu zählen zum Beispiel das IBM Rational Automation Framework für eine schnellere Inbetriebnahme von Software, die IBM Rational Developer Family für effizientere Entwicklung von Multiplattform-Anwendungen und der verbesserte IBM Workload Deployer, der Unternehmen hilft, Zeit und Ressourcen in einer privaten Cloud-Umgebung zu sparen.

IBM Middleware-Chef Robert LeBlanc Quelle: Werkfoto

 

„Mit prädiktiver Analytik lassen sich nicht nur Big Data, sondern auch die IT-Infrastruktur in den Griff bekommen“, so Robert LeBlanc, IBM Senior Vice President, Middleware Software. „Unsere neue Software bringt Intelligenz in die IT und die Geschäftsprozesse: Sie erstellt eine Art Lageplan, der die kürzeste Verbindung zwischen einem Geschäftsbereich und der Infrastruktur aufzeigt. Vor allem im Hinblick auf das anhaltende Interesse für das Cloud Computing ist dies von besonderer Bedeutung.“

Mehr Einblick in IT-Betrieb und Infrastruktur

Diese Entwicklung betrifft auch die Rechenzentren: Wenn die enormen Mengen an Leistungsdaten analysiert werden können, die hier generiert werden, lässt sich die Entscheidungskompetenzdrastisch verbessern. In einer Studie des IBM Institute for Business Value unter 225 Führungskräften weltweit bestätigten drei von vier Teilnehmern, dass prädiktive Informationen die Entscheidungsfindung stark verbessern können.

Ivo Koerner, Software-Chef der IBM Deutschland Quelle: Werkfoto

„Viele IT-Abteilungen sind bezüglich des Betriebs ihrer Server, Software und Netzwerke von der Intuition ihrer erfahrenen Experten abhängig. Die Mitarbeiter haben dabei keine Möglichkeit, die Beziehungen und Leistungszusammenhänge zwischen den tausenden von Services und Infrastrukturmesszahlen einzusehen. An dieser Stelle setzt die IBM Analytik-Software an, indem sie hilft, Infrastrukturen ‚smart‘ zu machen“, so Ivo Koerner, Vice President Software Group, IBM Deutschland. „Da sich immer mehr Unternehmen für Cloud Computing entscheiden, ist eine smarte Infrastruktur essentiell, um die Geschäftsanforderungen der Zeit zu erfüllen, wie Bestellungen schnell und akkurat auszuführen, die Kunden und Partnerbeziehungen zu managen, die Ressourcen zu planen und vieles mehr.“

 

IBM meldet Erfolg bei der PCM-Speichertechnik

Forscher bei IBM Research–Rüschlikon haben einen Durchbruch geschafft. Sie konnten erstmals zeigen, dass Phase-Change-Memory genannte Speicher (PCM, deutsch: Phasenwechsel-Speicher) nicht nur einzelne Bits, sondern gleich mehrere Bits pro Speicherzelle sehr zuverlässig über lange Zeiträume speichern können.

Der Forschungserfolg ist nach Angaben von IBM ein bedeutender Schritt hin zur Entwicklung von kosteneffizienten, schnellen und langlebigen Memory-Anwendungen für elektronische Geräte wie zum Beispiel Smartphones, aber auch für Hochleistungs-IT-Systeme für Unternehmen sowie für Cloud-Speicherlösungen.

Das rasante Wachstum der digitalen Daten, die steigende Vernetzung und Kommunikation zwischen Geräten und IT-Systemen, der Übergang zu Cloud-Computing-Modellen und die Zunahme von Hochleistungsanalytik im Rahmen des Informationsmanagements – alle diese Entwicklungen erfordern immer leistungsfähigere, effizientere und dennoch erschwingliche Speichertechnologien.

Nicht flüchtige Speichertechnik

PCM ist eine neuartige nichtflüchtige Speichertechnik, die aufgrund der erzielbaren Schreib- und Lesegeschwindigkeit in Kombination mit sehr guter Langlebigkeit und hoher Speicherdichte das Potenzial aufweist, innerhalb der nächsten fünf Jahre die Speicherlandschaft zu verändern.Phase-Change-Memory stellt eine der vielversprechendsten neuartigen Speichertechnologien dar, die einen weiteren Leistungssprung bei Speicher- und IT-Systemen eröffnen könnte. Die PCM-Speichertechnologie ermöglicht die nichtflüchtige Datenspeicherung bei hohen Speicherdichten und ist gleichzeitig 100-fach schneller und signifikant langlebiger als die bekannte Flash-Speichertechnologie.

Mit PCM-Speichern könnten Computer und Server in Sekundenschnelle hochfahren und die Gesamtleistungsfähigkeit von IT-Systemen erheblich gesteigert werden. Im Gegensatz zu den besten sogenannten Enterprise-Flash-Speichern, die etwa 30 000 Schreibzyklen erreichen, erzielt ein PCM-Speicher eine viel bessere Haltbarkeit von 10 Millionen Schreibzyklen, was im Gegensatz zu Flash-Speichern selbst anspruchsvollen Unternehmensanwendungen genügt.

PCM Speicher aus dem IBM Lab Rüschlikon Quelle: Werkfoto

Erstmals haben IBM Forscher nun zeigen können, dass PCM-Speicher tatsächlich zuverlässig und über lange Zeit mehrere Bits pro Zelle speichern und auslesen können. Die Möglichkeit, mehrere Bits pro Zelle zu speichern, stellt dabei einen der wichtigsten Schritte auf dem Weg zu kostengünstigen PCM-Speichern dar. Um die demonstrierte Zuverlässigkeit zu erreichen, waren entscheidende technische Fortschritte im Schreib- und Leseprozess notwendig.

Konkret haben die IBM Forscher iterative Schreibverfahren zur Kompensation der Variabilität der einzelnen Speicherzellen sowie ausgeklügelte Modulationscodierungs-Techniken entwickelt, die resistent gegenüber dem so genannten Widerstands-Drift in PCM-Speichern sind und somit ein korrektes Lesen der Bits trotz Drift ermöglichen. Drift ist ein Phänomen, bei dem die zeitliche Veränderung der Eigenschaften des PCM-Materials eine Verschiebung der elektrischen Widerstandswerte der Phasenzustände zur Folge hat, in welchen die Bitinformationen gespeichert sind. Es stellt bis heute eine der Hautptschwierigkeiten bei der Umsetzung von Multi-Bit-PCM-Technologien dar.

Mit ihrer Drift-resistenten Technik erzielen die Forscher beim Auslesen erstmals die extrem geringe Fehlerraten, wie sie für Unternehmensanwendungen gefordert werden. Darüber hinaus haben sie einen 100-fach schnelleren Schreibprozess als bei Flash-Speichern zeigen können.

 

HP will Memristor ab 2013 als Flash-Ersatz vermarkten

ein Blog von Rudi Kulzer

Anfang 2013 will HP erste Computer-Arbeitsspeicher auf Basis seiner Memristor-Technik auf den Markt bringen und damit Flash-Speicher ablösen. Später sollen Speicherchips auf Memristors-Basis auch DRAM und SRAM ersetzen, kündigte HPs Memristor-Forscher Stan Williams vom Labor in Palo Alto auf dem International Electronics Forum 2011 an, berichtet die US-Fachzeitschrift Electronics Weekly.

HP-Fellow Stan Williams (Quelle: HP Werkfoto)

Zum besseren Verständnis zu dem in der breiten Öffentlichkeit noch wenig bekannten Thema (Quelle Wikipedia):

Ein Memristor – der Name ist ein Kofferwort aus memory (Speicher) und resistor (elektr. Widerstand) – ist ein passives elektrisches Bauelement, dessen elektrischer Widerstand nicht konstant ist, sondern von seiner Vergangenheit abhängt. Der aktuelle Widerstand dieses Bauelements ist davon abhängig, wie viele Ladungen in welcher Richtung geflossen sind. Memristoren werden manchmal neben dem Widerstand, dem Kondensator und der Spule als viertes fundamentales passives Bauelement beschrieben.

Leon Chua von der Universität Berkeley Quelle: Werkfoto Uni

Leon Chua, von der University of California, Berkeley, beschrieb bereits im Jahr 1971 den zu dem Zeitpunkt noch nicht als passives Bauelement existierenden Memristor und seine Eigenschaften. Die erste physikalische Realisierung eines Dünnschichtverbundes mit solchen Eigenschaften wurde jedoch erst im Jahr 2007 mitgeteilt. Im April 2008 hat HP-Fellow Stan Williams einen relativ einfach aufgebauten Schichtverbund aus Titandioxid mit Platinelektroden als Memristor vorgestellt. Ende August 2010 wurde in Arbeiten von Jun Yao von der Rice University gezeigt, dass auch einfaches Siliciumdioxid als Schichtmaterial funktioniert. Chua und Williams besuchten im 2010 auch das Deutsche Museum in München, wo bereits ein systematischer Aufbau des Forschungsgedanken zu sehen ist.

Nach Plänen von Williams sollen eventuell schon 2014, ganz sicher aber 2015 Memristor-Chips folgen, die DRAM ersetzen können. Williams hofft, mit den Memristor-Chips den Energiebedarf fürs Schalten im Vergleich zu DRAM um zwei Größenordnungen senken zu können. Als nächster Zukunftsschritt will sich Williams SRAM in einer Memristor-Alternative auf den Markt bringen.

Seit Oktober 2010 arbeitet das HP bereits mit dem koreanischen Speicherhersteller Hynix zusammen, der die ersten Memristor-Chips für HP in Serie fertigen soll. Sie sollen unter dem Namen ReRAM (Resistive Random-Access Memory) vermarktet werden. Nach Angaben von Williams aber will HP die Technik an jeden lizenzieren, der sich dafür interessiert.

 

IBM will sein Angebot zur Computersicherheit stärken

Nachrichten Blog  und Kommentar

IBM will mit der Übernahme des Sicherheitsspezialisten Q1 Labs sein Portfolio für Computersicherheit verstärken. Mit dem Unternehmen aus Waltham im US-Bundesstaat Massachusetts sei ein Kaufvertrag geschlossen worden, teilte Big Blue mit. Das Genehmigung durch die zuständigen Kartellbehörden steht noch aus. Finanzielle Einzelheiten der angestrebten Akquisition wurden nicht genannt.

 

Q1 Labs ist ein Spezialist dafür, Daten in den Kommunikationsnetzen seiner Firmenkunden auf verdächtige Aktivität hin zu beobachten und, falls notwendig, Datenkriminalität oder Missbrauch zu verhindern. Das Unternehmen wurde vor zehn Jahren gegründet und gehört bislang Finanzinvestoren. Es bringt einen Kundenstamm von mehr als 1800 Kunden weltweit unter das Portfolio-Dach von IBM. Dazu gehören Energie- und Wasserversorger (Utilities), Regierungen sowie die wichtige Gesundheitsbranche. Dies ist ganz im Sinne der Smarter Planet Strategien von Sam Palmisano.

Brendan Hannigan soll Sicherheitschef bei IBM werden Quelle: Werkfoto

Nach den Plänen der IBM soll der Chef von Q1 Labs, Brendan Hannigan, künftig die gesamte verstärkte Sparte für Sicherheitssysteme leiten. Dies ist nach Erkenntnissen des von IBM gefertigten jüngsten Sicherheitsreport neben dem Thema Datenbanken und Analytics im Zeitalter von Cloud Computing ein äußerst wichtiger Schwerpunkt, den es zu bedienen gilt. Das geschätzte Marktvolumen soll bei 94 Milliarden US-Dollar liegen..

 

 

Steve Jobs ist tot – ein persönlicher Nachruf an einen Nachbarn in Palo Alto

ein Blog von Rudi Kulzer

Apple-Mitbegründer Steve Jobs ist im Alter von 56 Jahren gestorben. Er hat die moderne Technikwelt revolutioniert wie kaum ein anderer Manager. Wie das Unternehmen mitteilte, starb der langjährige Chef und Vermarktungszauberer am Mittwoch. Unter seiner Regie war Apple zu einem der wertvollsten börsennotierten Unternehmen der Welt gewachsen.

Ich habe Steve Jobs in meinen Jahren als Korrespondent des Handelsblatts im Silicon Valley sowohl als Geschäftsmann wie auch als wenige Block entfernt wohnenden Nachbarn intensiv erlebt. Privat ratschten wir manchmal vor der Türe das Safeway Supermarktes in Midtown Palo Alto. Dort ging ich gerne wegen der mittleren Größe des Laden zum Einkaufen, Jobs liess dort seine Kinder im Winter auf einer kleinen Eisbahn Schlittschuh laufen. Wir unterhielten uns dabei nie über NeXT oder Apple, eher ein netter Nachbarn-Ratsch.

Steve Jobs in seiner Lieblingsrolle Quelle: wikipedia

Die geschäftlichen Gespräche, die Interviews liefen immer streng über den offiziellen Weg. Ich habe ihn dabei in seinen  kritischen Jahre und seiner glorreichen Wiederkehr zu Apple erlebt:

Die Dekade von Mitte der 8oer Jahre bis Mitte der 90er waren schon wilde Jahre bei Apple. Nach dem Erfolg des Macintosh 1984 holte Jobs den erfahrenen Pepsi Cola Manager John Sculley aus New York nach Kalifornien, um ihn beim Aufstieg von Apple zu begleiten. Doch der feuerte ein Jahr später Jobs. Wegen einer zu wirrer Produktvielfalt wurde Sculley 1993 von Michael Spindler abgelöst, der wiederum den Stab den Halbleiter-Spezialisten Gilbert Amelio weitergeben musste.

Doch die Rolle von Amelio war noch weit unglücklicher als die des eigentlich talentierten John Sculley. Apple war in einer tiefen Krise, die Amelio nicht lösen konnte. Das Unternehmen stand kurz vor dem Ruin oder einer feindlichen Übernahme. 1997 musste Apple eine Milliarde US-Dollar abschreiben.

Das dringendste technische Problem dabei war, dass Apples Betriebssystem in der Branche als veraltet betrachtet galt, eine Suche nach Alternativen unumgänglich war. Das brachte 1996 Steve Jobs zurück, der sich inzwischen vor allem mit dem Zeichentrickstudio Pixar Ruhm und Vermögen erworben hatte. Er kehrte nicht mit einem Paukenschlag zurück, wie wir das heute von ihm gewohnt sind, eher in bescheidenen Schritten mit einem Betriebssystem im Gepäck – erst als Berater, dann als Interimschef.

Geschäftsführer Gilbert Amelio hatte damals versprochen, bis zur MacWorld im Januar 1997 eine Strategie zum Thema Betriebssystem vorzustellen. Um das Dilemma zu lösen übernahm Apple völlig überraschend noch im Dezember 1996 das Unternehmen NeXT von Steve Jobs und damit das Betriebssystem NeXTStep/Openstep für 400 Mio. US-Dollar. Dieses sollte die Grundlage für die nachfolgende Generation des Apple-Betriebssystems werden. NeXT war zwar als Unternehmen wenig erfolgreichen, hatte jedoch wichtige technische Komponenten entwickelt, die Apple dringend brauchen konnte.

Als Interimschef feuerte Steve Jobs das unglückliche Führungsduo Gil Amelio und Ellen Hancock (früher bei IBM für Netzausrüstung zuständig) und in einigen schwierigen Jahren die Pionierfirma wieder auf Vordermann. Am 7. Januar 2000 endlich wieder auf dem Chefsessel, mehr oder minder typisch für ihn als Randbemerkung nach einem zweistündigen Vortrag auf der MacWorld in San Francisco bekanntgegeben. Dort erklärte Jobs, dass er überzeugt sei, Apple werde eine der profitabelsten Internetfirmen.

Jobs arbeitete bei Apple über mehrere Jahre hinweg für ein Jahresgehalt von einem Dollar und wurde damit in das Guinness-Buch der Rekorde als schlechtest bezahlter Geschäftsführer aufgenommen. Nachdem Apple wieder zu einem gewinnträchtigen Unternehmen geworden war, entfernte das Unternehmen im Januar 2001 das „vorübergehend“ aus Jobs‘ Titel des Geschäftsführers.

Unter Jobs‘ Führung wurde 1998 der iMac eingeführt, der half, den angeschlagenen Konzern zurück in die Gewinnzone zu führen. Mit den tragbaren Musik-Abspielgeräten iPod, der Jukebox-Software iTunes, dem iTunes Store (bis 2006 iTunes Music Store) und dem iPhone schuf das Unternehmen einen neuen Markt für „Digital Lifestyle“-Produkte.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Der Mitbegründer des US-Computerherstellers Apple, Steve Jobs, ist tot. „In tiefer Trauer teilen wir mit, dass Steve Jobs heute gestorben ist“, erklärte der Konzern am Mittwoch in San Francisco. „Steves Brillanz, Leidenschaft und Energie waren die Quelle zahlloser Innovationen, die unsere Leben bereichert und verbessert haben. Die Welt ist wegen Steve ein besserer Ort.“

 

Der seit langem gesundheitlich schwer angeschlagene Jobs hatte erst Ende August den Chefposten nach fast 15 Jahren an Tim Cook abgegeben und sich von der Unternehmensspitze zurückgezogen. Er war danach in den Vorsitz des Verwaltungsrates des Hightech-Konzerns gewechselt.

 

Jobs war schon mehrmals von Cook vertreten worden, als er aus gesundheitlichen Gründen Auszeiten nehmen musste. Der Visionär, unter dessen Regie iPhone, iPod und iPad entwickelt wurden, hatte sich vor zwei Jahren einer Lebertransplantation unterzogen. Im Jahr 2004 hatte er eine Bauchspeicheldrüsenkrebserkrankung überstanden.

 

Oracle stellt sich der Herausforderung „Big Data“

Ein Nachrichten Blog von Rudi Kulzer

Auf der derzeit im Moscone Center von San Francisco stattfindenden Kundenmesse „Oracle Open World“ hat Larry Ellison eine neues „Datenbank-System“ namens  Exalytics Machine vorgestellt. Aufgabe der neuen „Data Base Machine“ ist es, sehr große Datenmengen direkt im Arbeitsspeicher verarbeiten und analysieren können soll. Damit will der mächtige Datenbankspezialist auf des wachsende Thema „Big-Data“ regagieren, das von manchen als Hype abgetan, von anderen wiederum sehr ernst genommen wird.

Bei „Big Data“ geht es darum,  sehr große Datenmengen IT-technisch zu bewältigen, wie sie etwa in  der Telekommunikation, vor allem aber im Zusammenhang mit „Social Media“ anfallen. Sie lassen sich in der bisherigen Technik  wie etwa Data Warehouses (DW) wegen ihrer enormen Menge kaum auswerten.

Oracle Exalytics (Quelle: Werkfoto)

Technisch geht es also im eine Verbesserung echtzeit-orientierter Arbeitsplatzspeicher von Data Warehouses, die sowohl zeitlich wie auch mengenmässig mit dieser rasch wachsenden Herausforderung umgehen könne müssen. Oracles konkurriert hier mit seiner neuen Datenmaschine direkte mit Erzfeind SAP, der sich mit seiner Hana-Technik dem Thema stellt. Auch IBM ist beim Thema „Big Data“ mit von der Partie.