CeBIT Partnerland Brasilien: A Smarter Country at Work

ein CeBIT Nachrichten Blog von Rudi Kulzer

Das Partnerland der CeBIT 2012, Brasilien, ist mit 195 Millionen Einwohnern eine der am schnellsten wachsenden Volkswirtschaften weltweit. Das Wachstum wird die Lebensqualität der Menschen verbessern. Gleichzeitig müssen die Megacities des Landes smarter gemanagt und wertvolle Ressourcen sowie ökologische Systeme bessergeschützt werden.

Brasilien ist das Partnerland der CeBIT 2012 Werkfoto

IBM präsentiert auf der CeBIT 2012 aktuelle Projekte, die das leisten sollen: So kann das „City Operations Center für Rio de Janeiro“ Naturereignisse wie Stürme oder Regenfluten genau vorhersagen. Daneben arbeitet IBM mit dem Ölkonzern Petrobras an einem Projekt zum nachhaltigen Wirtschaften im Unternehmen, und hat gemeinsam mit dem brasilianischen Ministerium für Wissenschaft und Technologie (MCT) das Portal „CiênciaCidadã“ entwickelt.

Schneller und präziser reagieren: Das Rio Operations Center

Das Rio Operations Center, am 31. Dezember 2010 an den Start gegangen, integriert und verknüpft Informationen aus den Systemen verschiedener städtischer Verwaltungsbezirke und öffentlichen Dienstleister wie Polizei und Feuerwehr. Ziel ist es, bei besonderen Ereignissen, Notfällen oder Umweltkatastrophen schneller und präziser zu reagieren. Ursprünglich konzipiert für reine Notfallsituationen, unterstützt es jetzt auch das Management von Großveranstaltungen wie die Neujahrsfeiern an der Copacabana, große Fußballevents und dem wachsenden Verkehr in der Stadt. Das Rio Operations Center konsolidiert die Daten aus den verschiedenen Systemen, liefert Echtzeit-Visualisierung, überwacht und analysiert die Datenströme. Damit können Entscheidungen auf der Grundlage von aktuellsten Informationen getroffen werden.

Genaue Prognosen für Sturm und Regen

Stürme und Regenfluten richten im fünftgrößten Staat der Erde immer wieder erhebliche Schäden an. Zuletzt verursachte ein Unwetter im April 2010 Millionenschäden. Um für solche Naturereignisse besser gewappnet zu sein, entwickelten IBM Forscher im Rahmen des Rio Operations Center ein Wettervorhersage- und Hydrologisches Simulationssystem (PMAR) für die Stadt, das Sturmböen und starke Regenfälle 48 Stunden im Voraus präzise anzeigen kann. Zurückgegriffen wird dabei auch auf „DeepThunder“, ein Hochleistungsrechner der IBM, der mit einem speziell entwickelten Modell für die Analyse von Wetterdaten arbeitet.

Nachhaltigkeitsmanagement bei Petrobras

Der staatliche Ölkonzern Petrobras sieht sich zunehmender Kritik bezüglich seines Geschäftes mit der Erdölförderung ausgesetzt. Um die dadurch entstehenden Umweltrisiken zu minimieren und Kritikern zu begegnen, arbeiten IBM und Petrobras gemeinsam an einem Projekt, um das Bewusstsein für nachhaltiges Wirtschaften im Unternehmen zu fördern und nach außen hin zu dokumentieren – zum Beispiel für den Dow Jones Sustainability Index. So wurde nun ein Informationssystem entwickelt, über das 35 verschiedene KPIs (Key Performance Indicators) zu Umwelt-, Gesundheits- und Sicherheitsbelangen innerhalb von nur 24 Stunden abrufbar sind. Vorher dauerte eine solche Auskunft bis zu 45 Tagen.

Verbesserung der öffentlichen Dienste

Die Stadt Porto Alegre investiert im Rahmendes Projektes Procempa in Technologie zur Überwachung und Verbesserung der öffentlichen Dienste. Entwickelt von IBM und zunächst in den drei Bereichen Arbeit und Straße, Wasser- und Abwasserentsorgung sowie städtische Reinigung eingesetzt, sichert das Projekt ein fundiertes Wissen auch über Abteilungen hinweg. So kann die Verwaltung die Bedürfnisse der Bevölkerung schneller erkennen, analysieren und darauf reagieren. Basierend auf der Maximo Asset Management-Lösung, verwaltet die Stadt nun ihre Arbeiten und Reparaturen mit dem smarten IBM System, ebenso wie die öffentlichen Dienstleistungen für ihre Bürger. Hierunter fallen Dienste wie die Wasserversorgung, sanitäre Einrichtungen, öffentliche Beleuchtung oder die Müllabfuhr. Damit gewährleistet Porto Alegre eine bessere Dienstleistungsqualität für die mehr als 1,4 Millionen Einwohner

Ciência Cidadã – ein Portal für die Artenvielfalt

Gemeinsam mit dem brasilianischen Ministerium für Wissenschaft und Technologie (MCT) hat IBM ein Portal entwickelt, über das Informationen und Studien zur nationalen Artenvielfalt ausgetauscht werden können. „Ciência Cidadã “ stellt Collaboration-Werkzeuge, Social Media und Geodaten zur Verfügung, die von Studenten, Wissenschaftlern, Lehrern und Kommunen geteilt und gemeinsam bearbeitet werden.

Smarter Banking für Brasiliens Kreditinstitute

Datenintegration, Cloud Computing und ein modernes Management-Analyse-System: Die Kreditinstitute Banco Santander und Banco Volkswagen arbeiten gemeinsam mit IBM daran, ihre IT-Systeme effizienter, flexibler und intelligenter zu machen. Die auf der CeBIT präsentierten Beispiele zeigen auch, dass die Anforderungen der Banken an ihre IT international durchaus vergleichbar sind.

 

 

IBM eröffnet Wiederaufbereitungszentrum für Server in Südchina

eun Nachrichten Blog von Rudi Kulzer

IBM hat die Eröffnung des ersten Server-Wiederaufbereitungszentrums in China bekannt gegeben. Die neue Einrichtung mit Sitz in Shenzhen soll dazu beitragen, die negativen Auswirkungen von Elektronikabfall auf die Umwelt zu reduzieren. Die Lebensdauer älterer IT-Geräte, die sonst auf der Mülldeponie landen würden, soll durch Wiederaufbereitung verlängert werden.

IBM Shenzhen Werkfoto

Die neue Einrichtung ist die erste ihrer Art in China und erweitert die bisherigen Wiederaufarbeitungsstätten von IBM in Australien, Singapur, Japan, Brasilien, Kanada, Frankreich, Deutschland und den Vereinigten Staaten.

Die Shenzhen-Anlage soll zunächst Midrange-Server (IBM Power Systems) aufbereiten. Sie werden generalüberholt, geprüft und unter Einsatz rigoroser Qualitätsprozesse und originaler Herstellungsstandards zertifiziert und Instand gesetzt, um Kundennachfragen erfüllen zu können.

Die Anlage soll rasch erweitert werden und soll voraussichtlich bis 2014 jährlich bis zu 100.000 Geräte (Low-End- sowie Mid-Range-IBM-und Nicht-IBM-Server sowie PCs) wiederaufbereiten.

Nach eigenen Angaben unterstützt IBM Global Asset Recovery Services seit fast 30 Jahren Kunden mit einem umweltfreundlichen Konzept zum Umgang mit alten IT-Geräten. IBM nimmt eigene und Nicht-IBM-Geräte am Ende eines Leasing-Vertrags oder im Falle eines Upgrades zurück. Zusätzlich zur Wiederaufarbeitung und Zertifizierung von IT-Ausrüstung für einen erneuten Gebrauch übernimmt derv Services auch die Rücknahme und Demontage von veralteten IT-Geräten. So werden bis zu 97 Prozent an Müll in Gewichtsanteilen, der für eine Lagerung in Deponien anfallen würde, vermieden.

China stellt nach Angaben von Big Blue einen vielversprechenden Markt für zertifizierte IBM Gebrauchtmaschinen dar, insbesondere für die Zielgruppe kleinerer und mittelständischer Unternehmen, die ihre IT-Kosten senken oder gering halten wollen. Aber auch für Kunden, die kurzfristige IT-Projekt-Anforderungen erfüllen müssen oder einen Notfall-Ersatz oder eine Erweiterung der bestehenden IBM-Infrastruktur benötigen, wenn ein bestimmtes Modell nicht mehr produziert wird, bietet sich eine solche Lösung an.

 

IBM baut neuen Supercomputer der Max- Planck-Gesellschaft

ein Nachrichten Blog von Rudi Kulzer

Die Max-Planck-Gesellschafthat IBM damit beauftragt, ein neues Supercomputersystem im Petaflop/s-Bereich zu bauen. Es soll nach seiner geplanten Fertigungstellung 2013 für “Grand Challenge”-Aufgaben in der Wissenschaft eingesetzt werden und dann voraussichtlich zu den schnellsten Supercomputern in Europa gehören.

Die Max-Planck-Gesellschaft zur Förderungder Wissenschaften e.V. vergab den Auftrag im Volumen von mehreren MillionenEuro an IBM nach einem sorgfältigen Auswahlprozess zwischen verschiedenen Anbietern.

„Der neue IBM Supercomputer ermöglicht es Max-Planck-Wissenschaftlern, topaktuelle Forschung im Bereich numerischer Simulation durchzuführen“, sagt Stefan Heinzel, Direktor Rechenzentrum Garching (RZG) der Max-Planck-Gesellschaft und des Max-Planck-Instituts für Plasmaphysik, wo der Supercomputer betrieben werden wird.

Logo Rechenzentrum Garching

Der neue Rechner wird die zehnfache Anwendungsleistung der derzeit betriebenen Supercomputer-Systems erreichen. Er wird speziell für Max-Planck-Forscher und deren Kooperationspartner eingesetzt werden. Das System wird in zwei Phasen in 2012 und 2013 aufgebaut; die Hauptinstallation liegt dabei im Jahr 2013.

Dieser Next-Generation-Rechner kann Forschern dabei helfen, in verschiedenen Fachdisziplinen eine Reihe der großen derzeitigen wissenschaftlichen Herausforderungen anzugehen.

Im Bereich der Materialwissenschaften wird ein Schwerpunkt darauf liegen, ein besseres Verständnis der Eigenschaften von Nano-, polymerischen und kolloidalen Systemen auf Atom- und Mesoskalaebene zu erlangen.

In den Biowissenschaften wird die Simulation von Lebensprozessen auf molekularer Ebene und die Vorhersage von Strukturen eine wichtige Rolle spielen.

Wissenschaftler im Bereich Plasmaphysik werden das neue System für noch realistischere Simulationen von Turbulenzen in Fusionsreaktoren einsetzen, als Beitrag zur Energieforschung. Im Bereich der Astronomie sollen kosmologische und sternbezogene Simulationen stattfinden.

Leibniz Rechenzenhtrum in Garching bei München Werkfoto

Das neue System wird voraussichtlich nicht mehr Energie verbrauchen als der derzeit installierte POWER6- und BlueGene/P-Rechenkomplex. Dazu wird im RZG auch weiterhin ein wassergespeistes Kühlsystem eingesetzt werden.

Grundlagenforschen: Neue Einblicke in das Verhalten von Molekülen möglich.

ein Nachrichten Blog von Rudi Kulzer

IBM Forscher konnten erstmals mithilfe der Rastersondenmikroskopie zeigen, wie sich Ladung innerhalb eines einzelnen Moleküls verteilt. Mit dieser neuen Fähigkeit können weitere fundamentale Erkenntnisse etwa über das Schalten einzelner Moleküle sowie deren Bindungsverhalten gewonnen werden. Darüber hinaus eröffnet sich die Möglichkeit, die Ladungsverteilung in ganzen Molekülkomplexen direkt abzubilden.

Dies ist von großer Bedeutung für die Erforschung von neuartigen Schaltelementen auf der Nanoskala und funktionalen molekularen Strukturen, zum Beispiel für Anwendungen in der Computertechnologie, der Solartechnik oder der Energiespeicherung.

In der Fachzeitschrift Nature Nanotechnology berichten Fabian Mohn, Leo Gross, Nikolaj Moll und Gerhard Meyer von IBM Research – Zürich, wie sie mithilfe der so genannten Kelvin-Rasterkraftmikroskopie bei tiefen Temperaturen und Ultrahochvakuum erstmals die Ladungsverteilung innerhalb eines einzelnen Moleküls – im vorliegenden Fall Naphthalocyanin – direkt abbilden konnten.

Ladungsverteilung in einem Molekül - hier Naphtalocyanin IBM Werkfoto

Die IBM Forscher um Gerhard Meyer haben in den letzten Jahren bereits bahnbrechende Fortschritte auf dem Gebiet der Oberflächenmikroskopie erzielt. So konnten sie erstmals die Elektronenorbitale einzelner Moleküle mit dem Rastertunnelmikroskop(STM) abbilden und sogar die chemische Struktur einzelner Moleküle mit dem Rasterkraftmikroskop (AFM) auflösen. Im aktuell veröffentlichten Artikelwird nun erstmals gezeigt, dass direkte Einblicke auch in die Ladungsverteilung einzelner Moleküle möglich sind.

Neben den bisherigen STM- und AFM-Messungen liefert die neue Technik komplementäre Informationen über die physikalischen und elektronischen Eigenschaften von Molekülen. Das ist vergleichbar mit Bildgebungsverfahren in der Medizin. Dort liefern Röntgen-, Magnetresonanztomographie-oder etwa Ultraschallaufnahmen unterschiedliche, sich ergänzende Informationenüber den Zustand eines Patienten.

Mit Rastersondenmikroskopen tief in den Nanokosmos vordringen

„Mit der Entwicklung der Rastersondenmikroskopie und verwandten Techniken in den 1980er Jahren wurde die Tür zum Nanokosmos weit aufgestoßen“, heißt es im Einführungsartikel der ersten Ausgabe von Nature Nanotechnology im Jahr 2006. Das STM und das AFM bilden zweiherausragende Instrumente für die Forschung auf atomarer und molekularer Skala. Das STM wurde 1981 von Gerd Binnig und Heinrich Rohrer am IBM Forschungslabor Zürich erfunden und ermöglichte es erstmals, einzelne Atome auf einer Oberfläche sichtbar zu machen. Für diese bahnbrechende Entwicklung erhielten die beiden Wissenschaftler 1986 den Nobelpreis in Physik.

Das STM ist jedoch kein traditionelles Mikroskop. Optische Mikroskope erreichen ihre Grenze bei einer Auflösung von etwa 250 Nanometern, das entspricht ungefähr der halben Wellenlänge von sichtbarem Licht. Das STM „sieht“ die Atome nicht, sondern „fühlt „sie mit einer äußerst feinen Spitze. Wird diese sehr nahe über die Probenoberfläche herangeführt und eine Spannung angelegt, kann ein Strom zwischen der Spitze und der Probe aufgrund des quantenmechanischen Tunnelns von Elektronengemessen werden. Hält man diesen Tunnelstrom konstant, so lässt sich durch Aufzeichnen der vertikalen Bewegung der Spitze beim Abrastern eine Struktur der Oberfläche mit atomarer Auflösung abbilden. Siehe Video: http://bit.ly/ibmstm

Einzelne Atome und Moleküle können mit dem STM auch gezielt verschoben und platziert werden. Dies wurde von Don Eigler bei IBM Research – Almaden 1989 erstmals demonstriert, indem er 35 Xenon-Atome gezielt zu den Buchstaben „I-B-M“ anordnete. Das AFM, das 1985 von Gerd Binnig erfunden wurde, basiert auf einer kleinen Spitze, die an einem beweglichen Federbalken angebracht ist. Dadurch lassen sich die winzigen Kräfte zwischen der Spitze und der Probe bestimmen, um so ein hochaufgelöstes Bild der Probe zu generieren.

Das STM und das AFM eröffnen die Möglichkeit, in Bereichen von einem millionstel Millimeter und darunter Strukturen abzubilden und darüber hinaus neuartige Nanobauelemente zu konstruieren und zu erforschen. Die Rastersondenmikroskopie ist damit nicht nur für die Wissenschaft von grundlegender Bedeutung, sondern auch ein wichtiger Wegbereiter für zukünftige Innovationen in der Informationstechnologie, Energietechnik, Medizin, Umwelttechnik und vielen anderen Bereichen.

 

Startschuss für schnellsten zivilen Supercomputer Europas – Hermit

ein Nachrichtenblog von Rudi Kulzer

Am 24. Februar 2012 wurde am Höchstleistungsrechenzentrum Stuttgart (HLRS) der schnellste Supercomputer Deutschlands und zugleich schnellste zivil genutzte Rechner Europas offiziell für die Nutzer freigegeben. Mit einer Leistung von mehr als 1 Petaflop/s (1 Billiarde Rechenoperationen pro Sekunde) zählt das Rechnersystem Hermit es zu den leistungsfähigsten Supercomputern der Welt.

HLRS Stuttgart Werkfoto

Es wird am HLRS zum einen helfen, Lösungen für die großen Fragestellungen der heutigen Zeit – Gesundheit, Energie, Umwelt, Mobilität – zu erforschen. Zudem ist das System als einziges im Feld der internationalen Rechner-Konkurrenz auch für die Nutzung in industriellen Produktionsprozessen ausgelegt. Hermit nimmt als derzeit schnellster Rechner Deutschlands in der renommierten TOP500 Liste der weltschnellsten Supercomputer Rang 12 ein. Im Ranking der industriell genutzten Supercomputer liegt der neue Stuttgarter Supercomputer derzeit weltweit sogar auf Platz Nummer Eins.

Nicht nur schnell, sondern auch ökologisch

Im ersten Installationsschritt basiert der Höchstleistungsrechner am HLRS auf der Cray XE6 Supercomputer-Technologie und auf dem AMD Interlagos-Prozessor. Damit ist Hermit das erste und größte System mit dieser Technologie in Europa. In einem weiteren Ausbauschritt, der für das Jahr 2013 angedacht ist, soll die Leistung um weitere vier bis fünf Petaflop/s anwachsen.

„Bei der Konfiguration von Hermit hatten wir stets im Fokus, dass die enorme Rechenleistung auch tatsächlich für die Wissenschaft und Wirtschaft nutzbar gemacht werden kann“, erklärt Professor Michael Resch, Direktor des HLRS. „Besonderer Wert wurde daher auf die real erzielbare Leistung für Anwendungen gelegt. Darüber hinaus war es uns sehr wichtig, dass durch einen niedrigen Energieverbrauch und ein effizientes Kühlkonzept der CO2-Ausstoß des Systems minimal gehalten werden kann. Wir freuen uns, dass wir in der Firma Cray einen Technologiepartner gefunden haben, der mit uns diese Konzepte weiterentwickeln wird.“

Prof. Michael Resch HLRS Werkfoto

„Die heutige Einweihung des Cray XE6 Supercomputers Hermit am HLRS ist ein großes Ereignis für Cray, da es einen weiteren wichtigen Meilenstein in unserer langjährigen Partnerschaft mit der Universität Stuttgart, dem HLRS und seinen wissenschaftlichen Benutzern darstellt“, so Peter Ungaro, Präsident und CEO von Cray. „Hermit ist einer der leistungsfähigsten Supercomputer weltweit und der schnellste Cray Supercomputer in Europa. In der Tat ist Hermit der erste Cray Supercomputer außerhalb der USA, der mehr als ein Petaflop/s Leistung bereitstellt. Der Tag heute ist ein ganz besonderer Tag für uns, und es ist mir eine außerordentlich große Ehre, Cray zu vertreten und gemeinsam mit dem HLRS diese Feier zu begehen.“

Die Kosten von 22,5 Millionen Euro für die Hardware des ersten Installationsschrittes und Betriebskosten von etwa zwei Millionen Euro pro Jahr werden durch umfangreiche Investitionen für eine energieeffiziente Infrastruktur ergänzt. Diese neue Infrastruktur bietet bis zu Außentemperaturen von 18 Grad Celsius die Möglichkeit, die Wärme zumindest teilweise durch Abgabe an die Außenluft kostengünstig zu kühlen und setzt auf Wasserkühlung der Rechnerkomponenten.

Finanziert wird Hermit im Rahmen des Projekt „PetaGCS“ mit Unterstützung des Bundesministeriums für Bildung und Forschung und des Ministeriums für Wissenschaft und Kunst Baden-Württemberg. Im Zuge des Projekts sollen die drei Standorte des Gauss Centre für Supercomputing (GCS) – das HLRS in Stuttgart, das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften (LRZ) in Garching bei München und das Forschungszentrum Jülich (JSC) – in einem Zeitraum von sechs Jahren mit Petascale-Systemen ausgestattet werden. Gemeinsam stellen diese Zentren die mit Abstand größte und leistungsfähigste Plattform für computergestützte Wissenschaften und Industrieforschung in Europa.

 

HP-Chefin Meg Whitman: „Wir stehen am Beginn einer mehrjährigen Transformation!“

Analyse und Kommentar von Rudi Kulzer

Einen Tag nach der Verkündung eines heftigen Einbruchs der Geschäftszahlen, der sich vor allem in einem scharfen Rückgang der Gewinne zeigte, musste HP Chefin Meg Whitman einräumen, dass der Noch-Marktführer nach Umsatz der IT-Branche am Beginn einer mehrjährigen Transformationsphase stehe. Das Gespräch fand im Büro des Wall Street Journals in Menlo Park statt, wo das bekannte Finanzblatt sein Westküsten-Office hat.

HP-Chefin Meg Whitman muss den IT-Pionier sanieren

Am Mittwoch den 22. Februar hatte HP bekannt geben, dass der Gewinn im seinem ersten Geschäftsquartal (31. Januar) um 44% gegenüber dem Vorjahr eingebrochen war und der Umsatz um 7% zurück ging. Der Wert der HP-Aktie sank darauf um 4,8% auf 27,54 $ im Mittags-Handel an der New York Börse.

Hewlett-Packard habe eine große Zukunft, es werde aber einige Zeit dauern bis sich das Unternehmen in vollem Umfang nach mehr als einem Jahr voll von Schwierigkeiten und Fehlentscheidungen erholen würde, sagte Meg Whitman.

Bemerkenswert war dabei die Aussage, dass Hewlett-Packard in seinem Kern ein Hardware-und Infrastruktur-Unternehmen sei. In zwei bis drei Jahren soll der Computerpionier aus Palo Alto bestens bekannt sein für „Cloud Computing“, IT-Sicherheit und Werkzeuge, die Unternehmen bei einer besseren Verwaltung ihrer Daten helfen.

Klare Positionierung

Das ist eine klare Aussage nach schwierigen Quartalen des Schlingerns, in denen man nicht richtig wusste, wo HP wirklich steht und stehen will. Damit positioniert sich HP als direkter Wettbewerber zu IBM in allen Server- und Speicherfragen sowie der IT-Beratung von Unternehmen. Daran wird die neue HP-Chefin spätestens 2013 gemessen werden.

HP habe viele der nötigen Bausteine für die gewünschte Transformation an Bord, einschließlich großer Business-Server-Systeme für Rechenzentren, wichtige Sicherheits-Programme, die man in den vergangenen Jahren gekauft hat, und einer Daten-Management-Software der britischen Autonomy Corp., die Vorgänger Leo Apotheker im vergangenen Jahr für mehr als 10 Milliarden Dollar erworben hatte.

Im Rahmen der Transformation werde HP mehr in Forschung und Entwicklung investieren, so Whitman. Größere Zukäufe schloss sie vorläufig aus. Es gelte derzeit vielmehr das Vorhandene zu optimieren.

Meg Whitman wurde im September zum CEO von HP berufen, nachdem der Verwaltungsrat zuvor Leo Apotheker nach elf Monaten im Amt gefeuert hatte, zum Teil wegen seiner Entscheidung, HPs PC-Geschäft abzutrennen oder zu verkaufen. Damals stand Whitman, die bereits Mitglied im HP-Verwaltungsrat war, zu diesen Plänen. Heute versucht sie sich davon zu distanzieren.

HP hatte 2011 mehrere Quartale die Erwartungen der Wall Street verfehlt. Seither hat Whitman versucht, die etwas wirre Hinterlassenschaft von Leo Apotheker zu ordnen, das Personal-Computer-Geschäft zu erhalten

PC-Geschäft bleibt schwierigste Baustelle

Doch die einst mächtige Personal Systems Group (PSG) bleibt wie die jüngsten Zahlen beweisen ein Sorgenkind. Aktuell glaubt man zwar, der Mangel an Festplatten sei schuld an der Misere. HP-Finanzchefin Cathie Lesjak sagte in einem Interview, dass die Knappheit bei Festplattendurch Überschwemmungen in Thailand im vergangenen Jahr das PC-Geschäft geschadet hätte und dies auch im in der ersten Hälfte des laufenden Jahres tun würde. Doch das Problem sitzt tiefer und struktureller Natur. Es stellt sich die Frage, wie viel PCs brauchen Verbraucher und Firmen noch angesichts des Erfolges von Apples iPad und Googles Android Tablets.

HP plant daher so Whitman die Markteinführung eines neuen Tablet-Computers, der auf Microsofts kommendes Windows 8 Betriebssystem laufen wird. HPs eigenes webOS-Betriebssystem, das HP von Palm übernommen hat, ist damit endgültig beerdigt. Es wurde 2011 kurz nach dem es auf dem Markt kam mangels Erfolges abgesagt,

In der Telefonkonferenz, sagte Frau Whitman der erste Schritt sei es, den Umsatzrückgang zu stoppen und Marktanteile in allen Geschäftsbereichen zurückzugewinnen. Der zu erwartende Umsatz werde auch 2012 flach bleiben und erst im Jahr 2013 wieder wachsen. Dabei könnte Wachstum von der neuen Serverlinie ProLiant Gen8 kommen, die HP vor kurzem weltweit vorgestellt hat.

Abschließend betonte Meg Whitman, dass sie von HP für mehrere Jahre verpflichtet sei und für Stabilität nach der Unruhe in der Chefetage sorgen wolle. Sollte der republikanische Präsidentschaftskandidat Mitt Romney gewinnen, wolle sie keine Position in seiner Regierung übernehmen.

 

IBM: Stick soll für sicheren Zugriff auf die Desktop Cloud sorgen

ein Nachrichten Blog zur CeBIT von Rudi Kulzer

IBM Research-Zürich wird auf der CeBIT einen neuartigen Sicherheits-Stick für den geräteunabhängigen Zugriff auf den eigenen Desktop in einer Unternehmens-Cloud zeigen.

Mithilfe eines handlichen USB-Sticks kann ein Benutzer ein virtuelles Abbild seines Rechners aus der Cloud über eine Internetverbindung sicher und einfach in wenigen Minuten auf einen PC oder Laptop laden und damit online und offline arbeiten, ohne dass vorab Software installiert werden muss.

IBM Sicherheitsstick aus Zürich

Die steigende Mobilität von Arbeitskräften, der Trend, private Hardware auch für berufliche Zwecke zu verwenden („Bring your own device“) sowie wachsende Sicherheitsanforderungen für Unternehmensnetzwerkeverlangen neue Konzepte für einen einfachen und vor allem sicheren Zugriff von Mitarbeitern auf Daten innerhalb ihres Unternehmensnetzwerks.

Mit IBM Secure Enterprise Desktop stellen Forscher von IBM Research – Zürich, jetzt eine einfach nutzbare Lösung vor. Sie soll eine effiziente und sichere Variante bieten, um Mitarbeiter Zugriff auf ihren in der Cloud betriebenen Arbeitsplatzmit allen Inhalten und Programmen zu gewähren.

Mithilfe eines Sicherheits-Sticks, der über die USB-Schnittstelle beispielsweise ihres privaten Rechners angeschlossen werden kann, wird eine sichere Verbindung zwischen der Cloud-Umgebung des Unternehmens (bzw. dem Backend Server) und dem Rechner des Mitarbeiters hergestellt.

Der Stick übernimmt dabei alle sicherheitsrelevanten Aufgabenwie Authentisierung und Verschlüsselung. Das Gerät basiert auf dem ZoneTrusted Information Channel (ZTIC) für Online-Banking, der 2009 vorgestellt wurde und mittlerweile von mehreren Banken, darunter die UBS, eingesetzt wird.

Bei dem IBM Secure Enterprise Desktop keine Anwendungsdaten auf dem Stick selbst gespeichert. Ein Verlust des Sticks alleine exponiert somit keine Firmendaten und stellt kein Sicherheitsrisiko dar. Zudem sind alle heruntergeladenen Inhalte auf dem Rechner des Mitarbeiters verschlüsselt, so dass auch hier kein Sicherheitsrisiko bei Verlust oder Diebstahl entsteht.

Funktionsweise

Sobald ein Mitarbeiter seinen eigenen oder einen beliebigen anderen Rechner für den Zugriff auf Daten und Programmen im Firmennetz nutzen will, muss er seinen personalisierten Sicherheitsstick an den USB-Port des Rechners anschließen und ihn hochfahren. Ein spezialisierter und insbesondere für den Einsatz mit der IBM Lösung optimierter Hypervisor, der in der Lage ist, verschiedene Betriebssysteme zeitgleich auf einem Rechner auszuführen, übernimmt die Kontrolle.

Er stellt eine sichere Verbindung zu einem Server des Unternehmens her, validiert die Zugangsberechtigungen des Mitarbeiters und lädt dann ein „Kontrollbetriebssystem“ herunter. Sobald dieses auf dem Rechner installiert ist, kann das Betriebssystemaus der Unternehmens-Cloud aktiviert werden. Die IBM Lösung unterstützt momentan Windows und Linux. Das Betriebssystem wird aus der Cloud-Umgebung der Firma geliefert und ist mit allen erforderlichen Sicherheitsmechanismen für das Firmennetz ausgestattet.

 

 

IBM zeigt neues Nano-Druckverfahren

Nano-kleine Ampelmännchen aus dem IBM-Lab Zürich

ein Nachrichten-Blog von Rudi Kulzer

Mikroskopisch kleine Nachbildungen des populären Berliner Ampelmännchen-Signals stellen Leistungsfähigkeit von neuer Nanodrucktechnik unter Beweis.

Wissenschaftlern des IBM Forschungszentrums Zürich ist es in Zusammenarbeit mit der Eidgenössischen Technischen Hochschule Zürich erstmals gelungen, mit einer neuartigen Nanodrucktechnik so genannte Nanostäbchen mit einer Größe von jeweils 25×80 Nanometern in gezielter Längs- und Querausrichtung auf einer Oberfläche anzuordnen.

Dabei konstruierten sie aus entsprechend ausgerichteten Gold-Nanostäbchen ein stehendes und ein gehendes Ampelmännchen, die beide rund 2500-Mal kleiner sind als das Original der Verkehrsanlagen. Das Verfahren kann in Zukunft beispielsweise beim Fälschungsschutz für wertvolle Produkte wie Uhren, Schmuck oder Kunstwerke eingesetzt werden.

Das Wissenschaftsjournal „Advanced Functional Materials“ berichtet darüber in seiner Ausgabe vom 22. Februar 2012. Die Forscher haben einen Nano-Anordnungs- und Druckprozess entwickelt, der das Drucken beliebiger Muster mit Einzelpartikelauflösung möglich macht.

In der vorgestellten Arbeit können sie erstmals zeigen, dass längliche Nanostäbchen mit gezielter gleichförmiger Ausrichtung – längs oder quer – mit dem Verfahren angeordnet werden können. Ihre oft einzigartigen Eigenschaften bleiben dabei erhalten.

Dr. Heiko Wolf, Leiter des Projektes bei IBM Research – Zürich erklärt hierzu: „Wir nutzen in einem ersten Schritt die Oberflächenspannung von Wasser und eine nano-strukturierte Schablone, um die Stäbchen anzuordnen. Anschließend können sie dann durch ein Druckverfahren auf eine beliebige Fläche übertragen werden.“

Mit der in diesem vorgestellten Projekt ausgefeilten Drucktechnik steht nach Überzeugung der Forscher von IBM eine vielseitige und leistungsfähige Herstellungsmethode zur Verfügung, die in zahlreichen Gebieten wie dem erwähnten Fälschungsschutz oder der Elektronik, Energietechnologie oder IT neue Wege eröffnet, diese kommerziell nutzbar zu machen.

Dr. Heiko Wolf

 

HP bringt neues Cloud Modell für deutschen Markt

ein Nachrichten Blog von Rudi Kulzer

HP bringt zur CeBIT ein neues Cloud-Angebot auf den deutschen Markt. Bei dem „HP cCell Services“ genannten Dienstangebot können die Kunden wählen, von welchem Betriebsort sie die Cloud-Dienste beziehen wollen: aus dem eigenen Rechenzentrum, von einem regionalen IT-Partner oder von HP selbst. Zielgruppe des neuen Angebots sind nach Angaben von HP sowohl Unternehmen und Verwaltungen als auch HP-Partner.

Die jeweiligen Nutzer können mit HP cCell Services den Standort und den Modus des Cloud-Betriebs an ihre technischen, geschäftlichen und regulatorischen Anforderungen anpassen. So können etwa HP-Partner schnell und ohne größere Investitionen ein eigenes Cloud-Angebot aufbauen und in verschiedenen Vermarktungsformen anbieten.

Mit diesem Modell will HP neue Spielregeln für das Cloud Computing in Deutschland definieren und neue Maßstäbe in Sachen Flexibilität setzten“, sagte Michael Eberhardt, General Manager und Geschäftsführer für das Service-Geschäft der Hewlett-Packard GmbH bei einer Vorstellung im Münchner Presse Club.. Das neue Angebot soll auf der CeBIT 2012 m Rahmen der Cloud Computing World des BITKOM (Halle 4 Stand A58) erstmals der deutschen Öffentlichkeit gezeigt werden.

HPs Cloud-Modell für Deutschland

Zum besseren Verständnis: HP cCell Services sind gebrauchsfertige IT-Dienste, die über standardisierte Cloud-Zellen (cCells) bereitgestellt werden. Die dezentral betriebenen cCell-Dienste lassen sich über eine zentrale Makler-Plattform zusammenschalten, sodass sie über mehrere Cloud-Zellen hinweg genutzt oder über gemeinsame Marktplätze bereitgestellt werden können. Kunden bezahlen für die Nutzung der HP cCell Services verbrauchsabhängige monatliche Gebühren. Abgesehen von einer einmaligen Installationspauschale fallen keine Investitionen und keine Fixkosten an, verspricht HP.

HPs Cloud-Modell für regionale Kunden und Partner

Cloud Computing biete große Chancen für Unternehmen und Verwaltungen, weil es Fixkosten reduziert, die Flexibilität erhöht und neue kollaborative Formen der Wertschöpfung ermögliche, so HP. Doch der deutsche Markt stelle besondere Bedingungen. So kaufen beispielsweise Mittelständler ihre IT-Leistungen meist bei regional ansässigen System- und Softwarehäusern ein. Die IT-Versorgung der öffentlichen Hand erfolgt durch hunderte von öffentlichen, halböffentlichen und privaten IT-Dienstleistern auf kommunaler, Landes- und Bundesebene. Zudem ist die Outsourcing-Quote in Deutschland mit 13 Prozent im internationalen Vergleich niedrig ( Quelle: PAC Market Figures, Western Europe, North America) . Nur 5 Prozent der deutschen Mittelständler nutzen externe Cloud-Angebote ( Quelle: techconsult, HP Cloud Index, www.it-cloud-index.de ).

„Cloud-Modelle werden sich hierzulande nur über den Mittelstand und die regionalen IT-Anbieter in der Fläche durchsetzen“, sagt Volker Smid, Vorsitzender der Geschäftsführung der Hewlett-Packard GmbH. „Die dezentrale deutsche IT-Landschaft braucht ein dezentrales Cloud-Modell. Mit HP cCell Services bieten wir mittelständischen Unternehmen und der öffentlichen Hand in Deutschland eine Lösung, die perfekt auf deren Anforderungen zugeschnitten ist.“

 

HP will mit dem Programm „Voyager“ auf dem Servermarkt punkten

ein Nachrichten Blog von Rudi Kulzer aus Las Vegas

Hewlett-Packard hat am 13. Februar am Rand seiner Global Partner Conference in Las Vegas neue Server vorgestellt. Die HP ProLiant Generation 8 (Gen8) genannte Linie soll mit neuer Technik die Automatisierung von Rechenzentren erheblich erleichtern

ProLiant ist HPs Server-Familie, die ursprünglich von Compaq kam und seither die Brot-und-Butter Produkte des Serverangebote des Computerhersteller aus Palo Alto bilden. Im Rahmen eines „Voyager“ genannten Projektes hat HP nun die 8 Generation seiner Server nach dem sogenannten Industriestandard (x86) entwickelt, die mit einer Reihe technischer Verbesserungen Partnern und Kunden das Arbeiten in Rechenzentren erheblich erleichtern und deren Kosten verbessern soll.

Das 300 Millionen teuere Projekt mit einer Laufzeit von zwei Jahren hat nach Angaben von HP etwa 900 Patente hervorgebracht, die als Grundlage fuer eine neue HP ProAktive Insight genannte Systemarchitektur dienen. Diese soll vor allem die Alltagsarbeit in herkömmlichen Rechenzentren erheblich erleichtern und den nötigen Zeitaufwand stark verkürzen.

HP ProLiant Gen8

Nach Untersuchungen von HP geben Unternehmen im Schnitt in einem Zeitraum von drei Jahren etwa 24 Millionen für händische Operationen bei der Unterstuetzung ihrer Serverstrukturen aus. Diese Aufwand soll mit der integrierten Automatisierungstechnik auf ein Drittel gesenkt werden. Darüber sollen mit dem intensiven Einsatz von Sensoren ( Sea of Sensors) vor allem die Energie- und Gebäudekosten der Rechenzentren gesenkt werden. Dabei ist von einer Verbesserung in der Größenordnung von 70 Prozent die Rede.

Vor allem sollen aber mit Hilfe der neuen Gen8 hohe Ausfallzeiten vermieden werden, die auf Grund häufig menschlicher Fehler mit hohen Kosten zu Buche schlagen. Dabei war von Kosten in einer Größenordnung von 10 Millionen DFollar in der Stunde (!) die Rede. Die neue Struktur sei in Lage, bis zu 1600 Datenpunkte automatisiert zu beobachten, um dann im Rahmen einer Eigendiagnose automatisiert korrigierend eingreifen zu koennen. Dabei soll ein Verbesserungsfaktor von bis zu 66 Prozent möglich sein.

Mit dem Projekt Voyager seit Ende des vergangenen Jahren ein drittes Megathema in Angriff genommen. Mit den im November 2011 vorgestellten Projekten „Moonshot“ (Energieeinsparungen durch den Einsatz von Handychips in Serverfarmen) und „Odyssey“ (geschäftskritische Anwendungen auf x86 Servern) soll nun „Voyager“ die notwendige Automatisierung der Rechenzentren in Angriff nehmen.

In Zeiten des zunehmenden Einsatzes von Cloud Computing dem stark wachsenden Service für mobile Geräte stehen hier alle namhaften Serverhersteller wie HP, IBM, Dell und Oracle-Sun und großem Druck. In diesem Umfeld will HP mit Gen8 punkten. Dazu dürfte auch auf der CeBIT einiges zu sehen sein.

Die Server HP ProLiant Gen8 sind nach Angaben von HP für Early Adopter ab sofort erhältlich Dabei waren etwa 100 Testpartner als frühe Nutzer beteiligt. Ab März 2012 sind die ProLiant-Server der achten Generation allgemein über HP-Partner und HP verfügbar. Dies umfasst die Tower-Server der ML-Reihe, die Rack-Mount-Server der DL-Reihe, die Blade-Reihe BL und die hochskalierbaren Server der Reihe HP ProLiant SL.