HP führt UNIX, Windows und Linux zusammen

ein Nachrichten Blog mit kleinem Kommentar von Rudi Kulzer

HP will die Serverarchitekturen von UNIX und x86 für geschäftskritische Datenverarbeitung zusammenbringen. Das „Odyssey“ genannte Entwicklerprojekt soll die Verfügbarkeit und Ausfallsicherheit von leistungsfähigen UNIX-Plattformen mit der Vertrautheit und Kosteneffizienz der Standard-Plattform HP BladeSystem (x86) verbinden.

Nach Aussagen des verantwortlichen Managers Martin Fink, Senior Vice President und General Manager, Business Critical Systems bei HP, wünschen sich die Kunden die Qualität, die sie von geschäftskritischen HP-UX-Umgebungen auf Integrity-Servern kennen, auch für x86-Infrastrukturen.

Martin Fink von HP Deutschland Quelle: Werkfoto

Das Projekt, das unter dem Dach der geschäftskritischen HP Converged Infrastructure läuft, umfasst nach Angaben von HP Entwicklungspläne für die Hardware-Systeme HP Integrity und HP NonStop (vormals Tandem Himalaya) sowie für die Betriebssysteme HP-UX und OpenVMS.

HP Non Stop Blade System Quelle: Werkfoto

Darüber hinaus sei geplant, in den nächsten zwei Jahren Blades mit Intel-Xeon-Prozessoren für HP Superdome 2 (Codename „DragonHawk“) und für skalierbare c-Class-Gehäuse (Codename „HydraLynx“) auszuliefern. Im gleichen Zeitrahmen sollen Windows- und Linux-Umgebungen mit HP-UX-Innovationen verstärkt werden.

Sobald DragonHawk verfügbar ist, könnten Kunden in einem Superdome-2-Gehäuse sowohl Blades mit Intel-Itanium-Prozessoren als auch Blades auf Grundlage von Intel-Xeon-Prozessoren verwenden. Somit können Prozesse auf HP-UX, Windows und Red Hat Enterprise Linux gleichzeitig in einem Superdome-2-System laufen.

Die Bemühungen von Hewlett-Packard für den Enterprise Markt erinnern an die von IBM mit dem Systemteil zBX im Rahmen der zEnterprise Architektur, die im Sommer vergangenen Jahres auf dem Markt kam. Es ist offensichtlich, dass alle Enterprise-Kunden eine sichere und skalierbare Umgebung für ihre Applikationen brauchen. Oracle/Sun ist hier noch eine genauere Antwort schuldig.

 

IBM kündigt die nächste Generation von Supercomputern an

ein Nachrichten Blog von Rudi Kulzer

IBM hat die nächste Generation seiner Supercomputer Familie Blue Gene angekündigt. Das neue System Blue Gene/Q künftig bis zu 100 Petaflop/s an Höchstleistung liefern und ist für extrem große Herausforderungen ausgelegt.

So soll der Supercomputer etwa in der Lage sein, mit höherer Genauigkeit als bisher den Weg eines Hurrikans vorherzusagen, Seismologen dabei zu unterstützen, den Meeresboden nach Öl abzusuchen oder Gensequenzen zu dekodieren.

Der neuen Blue Gene/Q repräsentiert die dritte Generation der IBM Blue Gene-Supercomputer-Familie und arbeitet ungefähr bis zu zehnmal schneller als vorherige Systeme.

IBM Blue Gene/Q Quelle: Werkfoto

In dem neuen Superrechner kommt eine 16-Multi-Processing-Kern-Technologie zum Einsatz. Sie soll für eine skalierbare Spitzenleistung von voraussichtlich bis zu 100 Petaflop/s (1 Petaflop ist 10 hoch 15 Fließkommaoperationen) sorgen. Darüber hinaus belegt Blue Gene/Q aufgrund des geringen Platzverbrauchs und des niedrigen Strombedarfs einer der Spitzenplätze der energieeffizientesten Supercomputer der Welt auf der Green 500-Liste.

Prozessortechnisch basiert der neue Superrechner auf der IBM PowerPC A2-Processing-Architektur. Jeder Prozessor enthält 16 operative Rechenkerne, plus einen Kern, welcher dem Betriebssystem für administrative Funktionen zugeordnet ist sowie einen redundanten Ersatzkern.

Anwendungsbeispiel des Supercomputers

Als erster Einsatz ist ein System namens „Sequoia“ am US-Lawrence Livermore National Laboratory (LLNL) geplant. Es wird dann ein Spitzenleistungsniveau von voraussichtlich bis zu 20 Petaflop/s erreichen werden. Der Computer wird dazu beitragen, die verlorengegangene Führungsrolle der Vereinigten Staaten in High Performance Computing (HPC) wieder sicherzustellen.

Auch das US-Argonne National Laboratory (ANL) hat angekündigt, ebenfalls Blue Gene/Q mit 10 Petaflops einzuführen, um unter anderem das Wirtschaftswachstum und die Wettbewerbsfähigkeit der USA voranzutreiben. Beispiele dafür sind die Entwicklung künftiger elektrischer Autobatterien sowie Projekte zum Verständnis des Klimawandels.

 

Bundeswirtschaftsministerium engagiert Beraterkonsortium für Trusted Cloud

ein Nachrichten Blog von Rudi Kulzer

Cloud Computing steht nicht nur bei IT-Anbietern hoch im Kurs, sondern auch auf der politischen Agenda des Bundesministeriums für Wirtschaft und Technologie (BMWi). Um deutsche Unternehmen dabei zu unterstützen, die wirtschaftlichen Potenziale von Cloud Computing zu erschließen, hat das BMWi das Technologieprogramm „Sichere Internet-Dienste – Sicheres Cloud Computing für Mittelstand und öffentlichen Sektor (Trusted Cloud)“ gestartet.

Loge des Konsortiums Quelle: BMWi

Begleitend zum Technologieprogramm hat das BMWi nun ein erfahrenes Expertenteam mit dem Aufbau des Kompetenzzentrums Trusted Cloud beauftragt. Unter Leitung der Management- und Technologieberatung BearingPoint werden Pierre Audoin Consultants (PAC), Public One Governance Consulting und das Hasso-Plattner-Institut das Projekt vorantreiben.

Das Ziel des BMWi Technologieprogramms ist es, die Innovations- und Marktpotenziale von Cloud Computing für mittelständische Unternehmen zu erschließen. Insgesamt 14 Forschungs- und Entwicklungsprojekte arbeiten dazu in den nächsten drei Jahren an innovativen, sicheren und rechtskonformen Cloud Computing-Lösungen. Dafür sollen Basistechnologien und anwendungsspezifische Lösungen entwickelt werden.

Zugleich werden projektübergreifende Aspekte wie IT-Sicherheit, Interoperabilität, Geschäftsmodelle sowie rechtliche Fragestellungen bearbeitet. Die Leistung des Kompetenzzentrums Trusted Cloud umfasst neben der Evaluation der Forschungsprojekte, die Begleitung des Technologietransfers, den Aufbau eines Kommunikations- und Kooperationsnetzwerks sowie die Sicherstellung der Nachhaltigkeit des Vorhabens.

Die Ergebnisse aus dem Technologieprogramm sollen dazu beitragen, wesentliche Fragen rund um den dynamischen Themenkomplex Cloud Computing zu klären, die technologische Leistungsfähigkeit von Unternehmen zu stärken und damit die Attraktivität des Wirtschaftsstandortes Deutschland zu fördern.

Für weitere Informationen: www.trusted-cloud.de

 

MIT-IBM Studie: Unternehmenskultur verhindert Einsatz von Analyse-Tools

ein Nachrichten Blog von Rudi Kulzer

Nicht die Technik, sondern organisatorische Hürden im Unternehmen stehen der Nutzung von Analyse-Techniken, im IBM-Jargon kurz Analytics genannt, im Weg. Dies zeigt eine neue Studie, die der MIT Sloan Management Review und IBM gemeinsam erstellt haben.

Die Erkenntnis: Es sind eher organisatorische Herausforderungen denn technische Hürden, die Unternehmen von einer umfassenden Analytics-Nutzung abhalten. Vor allem die mangelnde Fähigkeit, neue Ideen und Konzepte im Unternehmen zu verankern, steht der Einführung im Weg. Dieser Meinung sind 44 Prozent der an der Studien teilnehmenden Unternehmen. Nur 24 Prozent machen die Technologie selbst für eine verzögerte Integration verantwortlich.

Unter Analytics-Technologien versteht man allgemein neue intelligente Möglichkeiten, wie Organisationen Informationensammeln, analysieren und nutzen können. Die MIT Sloan Management Review und das IBM Institute of Business Value haben untersucht, wie Unternehmen diese Technologien in ihre Prozesse und Betriebsabläufe einbetten. Befragt wurden weltweit mehr als 4.500 Führungskräfte, Manager und Analysten aus mehr als 120 Ländern und 30 Branchen.

Logo der Zeitschrift der Business School des MIT Quelle: MIT

Der neue Bericht baut auf den Erkenntnissen aus der ursprünglichen Studie von 2010 auf. Diese unterteilt die Analytics-Nutzerin drei Gruppen: „Basisnutzer“, „erfahrene Nutzer“ und „transformierte „Nutzer. Mit Letzteren sind Unternehmen gemeint, die sich bereits in echte „analytische“ Unternehmen verwandelt haben.

Wettbewerbsvorteile durch Analytics

Im Vergleich zum Vorjahr konnten heuer 23 Prozent mehr „transformierte“ und 66 Prozent mehr „erfahrene“ Organisationen Wettbewerbsvorteile mit Analytics-Technologien erzielen. Die Wahrscheinlichkeit, dass sich diese Unternehmen vor ihren Wettbewerbern positionieren, hat sich verdoppelt. Im Gegensatz dazu büßten die Basisnutzer fünf Prozent ihrer Wettbewerbsfähigkeit ein.

Die Mehrheit der Unternehmen nutzen Analytics-Technologien, um ihre finanziellen und operativen Tätigkeiten besser zu managen. Für Entscheidungen in anderen wichtigen Bereichen vertrauen sie seltener auf Analytics-basierte Erkenntnisse. Weniger als 25 Prozent der Basisnutzer gaben an, Daten und Analysen bei Entscheidungen bezüglich Kunden, Geschäftsstrategien und Personalfragen heranzuziehen. Bei den transformierten Organisationen nutzt hingegen etwa die Hälfte Analytics-Technologien für Aufgaben dieser Art.

Breitere Nutzung bei transformierten Organisationen

Laut der Studie unterscheiden sich transformierte Unternehmen von anderen Organisationen durch die breitere Nutzung von Analytics-Technologien. Sie verwenden diese unter anderem, um Entscheidungsprozesse zu beschleunigen und Geschäftsrisiken zu antizipieren. Außerdem machen transformierte Unternehmende Analyse-Ergebnisse leichter für ihre Mitarbeiter nutzbar, beispielsweise im Kundenverkehr.

Auch unterscheiden sich transformierte Unternehmen durch eine offenere Unternehmenskultur von den anderen Gruppen. Sie haben Analytics-Technologien zu einem zentralen Bestandteil ihrer Geschäftsstrategiegemacht und betten auch Vorhersage-Technologien („Predictive-Analytics“)in ihre Prozesse ein.

 

Adobe stoppt Flash für Mobil-Geräte

ein Nachrichten Blog und Kommentar von Rudi Kulzer

Adobe Systems will nach eigenen Angaben weitere Pläne zur Entwicklung seiner Flash Player-Software für Browser von Mobilgeräten aufgeben. Für diese Plattform wollen die Kalifornier ihre Bemühungen auf HTML5 als medialen Standard für Präsentation ausrichten.

HTML5 logo Quelle:w3.org

Die Nachricht markiert eine Kehrtwende der Strategie von Adobe, hatte man doch lange Zeit vehement die Vorteile von Flash gegenüber HTML5 propagiert. Noch in seiner jüngsten Entwickler-Konferenz MAX 2011 Anfang Oktober sprach Adobe davon, dass seine Flash-Media-Streaming-Technologie von entscheidender Bedeutung für mobile Kommunikation sei. Damals stellte Adobe den Flash Player 11 vor.

Nun hat Adobe nach Meinung der Branche endlich klein beigegeben. Der Schritt folgt auf heftige Kritik aus der IT-Gemeinde, allen voran des verstorbenen Apple-Mitgründers Steve Jobs. Alle bemängelten, dass die Flash Media Streaming-Technologie nicht für den Einsatz auf mobilen Geräten mit niedrigem Stromverbrauch geeignet sei.

Adobe erklärte jedoch am 9. November, weiterhin Flash für andere Bereiche wie Gaming-und Premium-Video für PCs zu entwickeln. Dazu sollten die Entwickler auch weiterhin Bug Fixes und Sicherheits-Updates erhalten.

Nach Angaben von Adobe ist Flash nicht gegen HTML5 positioniert, ein Open-Source-Standards für die Bereitstellung von Web-Inhalten, der von Apple und anderen angenommen wurde. Vielmehr könne Flash in besonderen Fällen, speziell bei Spielen, Inhalte erstellen, die mit HTML5 nicht möglich seien.

Flash Logo Quelle: Adobe

Adobe betonte, dass der Flash-Media-Player in allen kreativen Werkzeugen von Adobe für Web-Profis fest integriert sei. Die Software sei ein zentraler Bestandteil der Adobe Creative Suite-Software.

Zusammen mit den technischen Statements erklärte Adobe, dass man die Geschäftsstrategie neu aufstellen wolle. Man wolle sich künftig stärker auf Software für digitale Medien und Marketing konzentrieren. In diesem Zusammenhang wurde die Streichung von 750 Stellen und geringere Umsatzerwartungen für das nächste Jahr bekanntgegeben.

 

IBM bringt Mainframes und Windows zusammen

Ein Nachrichten Blog von Rudi Kulzer

Zum ersten Mal wird es möglich sein, Windows-Anwendungen auf IBM Mainframe-Rechnern der Serie zEnterprise zu verarbeiten. Dazu hat IBM am 7.November bekannt gegeben, dass es IBM zEnterprise Mainframe-Kunden Anwendern ab dem 16. Dezember 2011 möglich sein wird, Windows-Anwendungen auf ihren Großrechnern zu integrieren. Das soll Kunden helfen, Insellösungen zu reduzieren, um so Komplexität und Kosten zu verringern. Diese gilt sowohl für die Mainframe-Einheiten z 196 (Großunternehmen) wie auch für z 114 (Mittelstand).

 

IBM zEnterprise 196 und zBX Quelle: Werkfoto

 

Technisch wird dabei in einem Hybrid-Computing-Ansatz, für den IBM mit der Einführung von zEnterprise-Systemen bereits im Juli 2010 den Weg bereitet hat, eine zEnterprise-Blade-Center-Extension (zBX) mit einem Großrechner verbunden. Zum Ablauf der Anwendung sind keine Veränderungen nötig. Die Integration und das Management der x86-Blades werden durch den zEnterprise-Unified-Ressource-Manager gehandhabt.

Der Unified-Ressource-Manager sowie weitere Komponenten zur Integration von Power- und x86-Blades mit dem Mainframewerden maßgeblich unter der Federführung des deutschen IBM Forschungs-und Entwicklungszentrums in Böblingen entwickelt, das seit Jahren maßgeblich an der Entwicklung von Mainframes beteiligt ist.

Thomas Wolf, Director Firmware System z Development und weltweit verantwortlich für die Entwicklung dieser Technologien: „Ein zentrales Thema vieler unternehmensweiten IT-Infrastrukturen heute ist die zentrale Administration und Steuerung von Datenzentren mit unterschiedlichen Plattformen und Betriebssystemen. Der zEnterprise-Unified-Ressource-Manager sorgt mit seinem zentralen, virtualisierten und heterogenem Verwaltungssystem dafür, dass erstmals ein Workload-Kontext zur Verfügung steht, in dem physische und virtuelle Systemressourcen für eine Anwendung über unterschiedliche Plattformen gemeinsam verwaltet und optimiert werden können“.

 

Ehemaliger IBM-Chef John R. Opel gestorben

ein Nachrichten Blog von Rudi Kulzer

John R. Opel, IBM fünfte CEO, starb am 3. November 2011. Er war 86 Jahre alt.

 

John R. Opel Quelle: IBM

 

Geboren in Kansas City, Missouri, aufgewachsen in Jefferson City, absolvierte Opel aus Westminster College in Fulton, Missouri, und der University of Chicago, wo er einen Master-Abschluss in Business Administration erhalten.

Seine Karriere bei IBM startete er eher zufällig, als er beim einem Bootausflug mit seinem Vater einen regionalen IBM-Mitarbeiter kennenlernte Die Begegnung führte zum Beginn einer Karriere bei Big Blue, die sich über 36 Jahre erstreckte und auf dem Chefsessel des damals erfolgreichsten Unternehmen der Welt gipfelte.

Opel kam zu IBM im Jahr 1949 als Vertriebsmitarbeiter in Jefferson City und bekleidete verschiedene Führungspositionen. 1968 wurde er Vice President der Unternehmensfinanzierung und-planung, 1972 General Manager der Data Processing Product Group. In diesem Jahr wurde auch in das IBM Board of Directors (Verwaltungsrat) gewählt, 1974 wurde er zum Präsidenten ernannt.

John R Opel war IBM Chief Executive Officer (CEO) von Januar 1981 bis Januar 1985 und Vorsitzender der Geschäftsführung (Chairman) von Februar 1983 bis Mai 1986. Im Januar 1985 übergab er seinen Job als Präsident an John F. Akers. Er blieb Chairman und Mitglied der IBM Board of Directors bis 1993.

Nach Meinung von US-Analysten war es der heute weitgehend unbekannte John R. Opel, der IBM zu dem IT-Giganten Big Blue machte, als der der Konzern in der Branche bekannt ist. In seiner Zeit gelang es, den Umsatz von IBM annährend zu verdoppeln. Die schwierige Phase für IBM begann erst unter Akers, der 2003 von Lou Gerstner abgelöst wurde.

In Opels Amtszeit fiel auch die Entwicklung des ersten Personalcomputers der IBM, ein Projekt, das Vorgänger Frank T. Cary begonnen hatte. Ebenfalls in seiner Zeit hatte das US-Justizministerium eine 13 Jahre dauernde Kartellklage gegen IBM aufgegeben. Damit konnte IBM eine weitaus aggressivere Vermarktungsstrategie beginnen als bis dahin. Dies geschah vor allem durch einen stark ausgebauten Beratungsservice, der 13 Jahre untersagt war.

 

HP: Handy-Chips soll Strom in Servern sparen

Ein Nachrichten Blog von Rudi Kulzer

Hewlett-Packard hat am 1. November 2011 für einige der weltweit größten Rechenzentren ein neues Server-Design angekündigt. Damit soll der Stromverbrauch in einigen Fällen um 90 Prozent reduziert werden.

HPs neues Entwicklungsprogramm mit dem Namen „Project Moonshot“ hat das Ziel, die Komplexität, den Energieverbrauch und die Kosten der IT-Infrastruktur deutlich zu reduzieren. Es umfasst eine Server-Entwicklungsplattform, ein Testlabor für Kunden und ein Partner-Programm.

 

Project Moonshot richtet sich an Unternehmen, die tausende von Servern betreiben und darüber beispielsweise Web-Dienstleistungen oder Social-Media-Anwendungen bereitstellen. HP will mit der Initiative die Zusammenarbeit innerhalb der Branche fördern, um neue Wege bei „hyperskalierbaren“ Rechenumgebungen wie Cloud-Services und On-Demand-Computing zu beschreiten.

HP erwartet, mit Project Moonshot die Effizienz von ausgewählten Arbeitslasten und Anwendungen deutlich zu verbessern: Im Vergleich zu konventionellen Server-Systemen sollen der Energieverbrauch um bis zu 89 Prozent, der Platzbedarf um bis zu 94 Prozent und die Gesamtkosten im Rechenzentrum um bis zu 63 Prozent sinken.

Das „Project Moonshot“ genannte Design arbeitet mit einem Konzept, bei dem die herkömmliche Mikroprozessoren in Servern durch Handy- oder Notebooks-Chips ersetzt werden. Da der Stromverbrauch in mobilen Geräten, die auf kleinen Batterien laufen, per se niedrig gehalten werden muss, sind diese Prozessoren von Grund auf so konzipiert, dass sie möglichste wenig Strom verbrauchen. So schalten sie etwa automatisch bei bestimmten Aufgaben ab oder verlangsamen den Verbrauch bei Anrufen oder Web-Aktionen.

„Unternehmen mit Hyperscale-Umgebungen stehen vor ernsthaften Kapazitätproblemen, die einen grundlegenden Umbau der IT-Architektur erfordern“, sagt Paul Santeler, Vizepräsident und General Manager der Hyperscale Business Unit, HP Industry Standard Servers and Software. Im Moment sei das Projekt ein Service für etwa 50 der weltweit größten Online-Unternehmen, so  Santeler weiter.  Nach seiner Ansicht macht das für diese Provider, deren Web -Architektur unzählig viele User bedient, sehr viel Sinn. Täglich kämen derzeit weltweit etwa 7.000 Computer-Servern zum großen Portfolio, die meisten für Web-Aktivitäten wie Social Networking und Videowiedergabe.

Künftig könnten derartig ausgerüstete Server-Rechner auch Finanzunternehmen, wissenschaftliche Forscher und Sicherheitskräfte von Regierungen und Organisationen interessant sein, die in ihrem Aufgabengebiet größere Datenmengen verarbeiten müssen, so Santeler. Die Entwicklung zu solchen Chips ist zwar schon mehrfache vorausgesagt worden. HP ist aber das erste große Computer-Unternehmen, das nun ein kommerzielles Produkt anbietet.

Energiesparender ARM Chip Quelle: Werkfoto

Das neue Design verwenden Chips von Calxeda aus Austin,Texas. einem Spezialist für low-power ARM-Chips für Server. HP will den Verkauf von „Moonshot-Computern“ ab etwa Mitte-2012 startet. Derzeit überlegt man noch in welchem Preissegment derartige Rechner angeboten werden sollen.

Nach dem aktuellen Stand ist „Project Moonshot“ ein mehrjähriges Programm, das aus mehreren Phasen besteht. Es baut auf zehn Jahren Forschung der HP Labs im Bereich Niedrigenergie-Computing auf.

Projekt Moonshot unterstützt die Entwicklung der Branche in Richtung Hyperscale Computing mit drei wesentlichen Elementen:

– Die HP Redstone Server Development Platform ist die erste einer Reihe von HP-Server-Entwicklungsplattformen mit Niedrigenergie-Prozessoren. HP Redstone nutzt zunächst die Prozessoren Calxeda EnergyCore ARM Cortex und ist für Test- und Machbarkeitsnachweise entworfen. Künftige Redstone-Versionen werden unter anderem mit Intel-Atom-Prozessoren arbeiten. Die Redstone-Plattform umfasst mehr als 2.800 Server in einem einzigen Rack. Das reduziert den Verkabelungsaufwand, die Anzahl der Switches und Peripheriegeräte und verringert die Komplexität um 97 Prozent. Die erste HP-Redstone-Plattform ist für ausgewählte Kunden voraussichtlich ab Mitte nächsten Jahres in begrenztem Umfang erhältlich.

HP Entwicklungsplattform Redstone Quelle: Werkfoto

– Das Testcenter HP Discovery Lab ermöglicht es Kunden, Anwendungen auf der HP-Redstone-Plattform, anderen Niedrigenergie-Plattformen oder auf herkömmlichen Servern zu testen und zu vergleichen. Das erste HP Discovery Lab soll im Januar 2012 in Houston eröffnet werden, weitere Standorte in Europa und Asien sollen folgen. Per Fernzugriff oder Zugriff vor Ort können Kunden in den Laboren direkt mit HP-Ingenieuren und Branchenkollegen zusammenarbeiten und so über die Vorteile der Niedrigenergie-Server sprechen.

– Das HP Pathfinder Program ist Teil des HP-AllianceONE-Partnerprogramms. Es umfasst Softwarehersteller sowie Server-, Speicher- und Netzwerk-Partner, die Hardware-, Software- und technische Expertise einbringen. Zu den ersten Teilnehmern sollen AMD, ARM Holdings, Calxeda, Canonical und Red Hat zählen. Das HP Pathfinder Program soll unter anderem dafür sorgen, dass die Elemente des Programms Project Moonshot im Rahmen von offenen Industriestandards weiterentwickelt werden.

Darüberhinaus beruhe das Projekt auf HPs Erfahrungen mit Rechenzentrum HP EcoPod und HP Data Center Smart Grid. Die Project-Moonshot-Infrastruktur ist einer Erweiterung der bestehenden ProLiant-Serverserie, die x86-Prozessoren von Intel und AMD nutzt.

 

China schafft Supercomputer mit eigenen Mikroprozessoren

ein Nachrichten Blog von Rudi Kulzer

China hat es geschafft, seinen ersten Supercomputer auf der Basis eigener chinesischer Mikroprozessor-Chips zu entwickeln. Dies berichtet John Markoff von der New York Times. Das ist ein Fortschritt, der High-Performance-Computing-Spezialisten in den Vereinigten Staaten überrascht.

Bisher musste das ehrgeizige Land der Mitte bei seinen Supercomputer Projekten auf Prozessoren aus den USA setzten. So entstand im Herbst vergangenen Jahres ein chinesischer Supercomputer, der Tianhe-1A. Er war sogar kurz auf Platz eins der Weltrangliste bevor er im Frühjahr von einer rivalisierenden japanischen Maschine, dem  von Fujitsu entwickelt K-Computer verdrängt wurde.

Der Tianhe ist mit Prozessoren von Intel und Nvidia bestückt, sein internes Schaltsystem wurde jedoch bereits von chinesischen Ingenieuren entwickelt. Auch der K-Computer der Japaner arbeite mit US-Technologie, nämlich der Sparc-Chips von Sun Microsystems aus dem Silicon Valley entwickelt, die heute zu Oracle gehören.

Die Ankündigung fand diese Woche auf einer von Industrie und staatlichen Organisationen organisierten Fachtagung in Jinan, China, statt. Die neue Maschine, die Sunway BlueLight MPP, wurde bereits im September im National Supercomputer Center in Jinan, der Hauptstadt der Provinz Shandong im Osten Chinas installiert.

Der neue chinesische Chip für den Sunway Supercomputer Quelle: Werkfoto NSC Jinan

Die Sunway System, das ein Petaflop (rund 1.000 Billionen) Rechenoperationen pro Sekunde ausführen kann, gehört  wahrscheinlich zu den 20 schnellsten Computern der Welt gehören. Entscheidend ist dabei, dass er mit 8.700 Shenwei SW1600 Mikroprozessoren bestückt ist, die in einem chinesischen Computer-Institut  in Shanghai entwickelt und hergestellt werden.

Das ist eine große Überrschung für die Fachwelt, sind doch die Chinesen nach deren Meinung etwa drei Generationen hinter dem state-of-art-Chips der weltweit führenden Anbietern aus den Vereinigten Staaten, Südkorea, Japan und Taiwan. Die Meinung muss wohl revidiert werden, sollte der neue Superrechner seine Aufgaben erfüllen.

„Das ist ein bisschen überraschend“, sagte Jack Dongarra, Informatiker an der University of Tennessee und ein führender  Kopf des Top500-Projekts, einer Liste der weltweit schnellsten Rechner. Nach seiner Meinung liegt der Sunway mit seiner theoretische Spitzenleistung bei etwa 74 Prozent von der des schnellsten US-Computers – des Jaguar-Supercomputer in der Department of Energy Anlage in Oak Ridge National Laboratory, gefertigt von Cray. Diese Maschine ist derzeit die drittschnellste auf der Liste.

Das Energy Department plant drei weitere Supercomputern, die mit 10 bis 20 Petaflops laufen sollen. Zusätzlich arbeiten die USA an einem Projekt, das  ein Exaflop oder eine Million Billionen Rechenoperationen in einer Sekunde erreichen soll. Dies soll noch vor Ende dieses Jahrzehnts geschehen, obwohl nach Ansicht der meisten Informatiker die notwendigen Technologien noch nicht existieren.

Das kritischste Problem ist dabei die Energiefrage. Würde man eine solche Leistung mit heute verfügbaren Komponenten bauen, würde diese soviel Strom verbrauche, wie es heute ein mittelgroßes Atomkraftwerk produziert. Im Gegensatz dazu, so Dr. Dongarra sei es faszinierend, dass der Strombedarf des neuen chinesischen Supercomputer relativ bescheiden waren – etwa ein Megawatt, nach den Berichten von der technischen Konferenz. Der Tianhe Supercomputer verbraucht etwa vier Megawatt und der Jaguar etwa sieben.

Das neue National Supercomputer Center in Jinan, China Quelle: Werkfoto

Fotos von der neuen Sunway Supercomputer offenbaren eine aufwendige Wasser-Kühlsystem, das einen bedeutenden Fortschritt in der Gestaltung der sehr schnellsten Maschinen werden kann. „Diese Kühltechnik ist sehr, sehr schwierig“, sagt Steven Wallach, Chief Scientist bei Convey Computer, ein Supercomputer mit Sitz in Richardson, Texas. Diese Kühltechnik könnte bei der Jagd nach den Exaflops gewinnen. “

 

HP will PC behalten

ein Nachrichten Blog von Rudi Kulzer

Die neue HP-Chefin Meg Whitman will weiter PCs verkaufen. Nach einer dramatische Kehrtwende einer erst jüngst verkündeten Firmenpolitik soll nun alles beim Alten bleiben an der Hanover Street in Palo Alto. Das umsatzstärkste IT-Unternehmen Hewlett-Packard will seinen Geschäftsbereich Personal-Computer behalten.

Nur 69 Tage nach der Ankündigung eines Plans, die PC-Sparte in einem Spin-Off in die Selbständigkeit eines eigenständigen Unternehmens zu entlassen, wurde dieser von Meg Whitman beerdigt. Dabei saß die neue HP-Chefin mit im Verwaltungsrat, als der inzwischen gefeuerte Leo Apotheker die geplante Abspaltung des umsatzstarken, aber ertragsschwachen Geschäftsbereichs der erstaunten Weltöffentlichkeit bekannt gab. Mit einem Jahresumsatz von 40,7 Mrd. $ steht die PC-Sparte für etwa ein Drittel des HP Umsatzes.

 

HP Notebook Quelle: Werkfoto

 

Doch nun habe eine Neubewertung stattgefunden, die Veränderung sei einfach zu teuer, hieß es. Das PC-Geschäft zu behalten sei richtig, für Kunden und Partner, für die Aktionäre und für die Mitarbeiter“, begründete Whitman ihre Entscheidung.

Die Wende markiert so etwas wie einen Neuanfang für das Unternehmen, aber auch Meg Whitman persönlich. Die Silicon Valley Milliardärin will wohl nach dem fehlgeschlagenen Versuch, Gouverneurin von Kalifornien zu werden, im Rampenlicht wieder punkten, wie sie das als CEO von eBay weitgehend getan hat.

Meg Whitman Quelle: HP

In einem erstem Schritt muss sie wohl versuchen, ihre wenig glückliche Startphase bei HP vergessen zu machen. Als Whitman im September zum CEO ernannt wurde, verkündete sie noch, dass sie sowohl den geplanten Spin-off wie die 10,3 Mrd. $ teure Übernahme des britischen Softwarehauses Autonomy – vorbehaltlich einer eigenen Analyse -.unterstützen wolle. Apotheker Entscheidung und das erste Festhaltendes Verwaltungsrats an der Strategien lösten damals eine 20% Rückgang der HP-Aktie und führte zu heftigen Protesten einiger Firmenkunden.

„Die Entscheidung war eigentlich sehr einfach“, sagte Whitman sagte auf einer Telefonkonferenz am Donnerstag. Es sei einfach eine Frage der Kosten. Die Trennung der PC-Sparte wären einmalige Aufwendungen in Höhe von etwa $ 1,5 Mrd. $ erforderlich gewesen, präzisierte Finanzchefin Cathie Lesjak die Entscheidung. Im Gegensatz dazu war bei dem früheren Plan vom August diese Jahres nur von Gesamtkosten in der Größenordnung von etwa 300 Mill. $ bis 400. Mill. $ die Rede. Frau Lesjak lehnte es ab, diese Zahlen zu kommentieren, war im Wall Street Journal zu lesen