IBM z114 – Mainframe für den Mittelstand

Mit dem Modell zEnterprise 114 kündigt IBM einen neuen Server an, der für den Mittelstand und Unternehmen mit kleinen Mainframe-Anforderungen optimiert ist. Er soll neben einer Reduzierung der Kosten die Möglichkeit bieten, gemischte Workloads nun auch von Windows-Applikationen auf System-x-Blades zu verarbeiten.

Vor einem Jahr brachte Big Blue mit dem zEnterprise System einen neuen Typ von Mainframe auf den Markt, der mit einer neuen Hybrid-Architektur weltweit vor allem bei großen Banken, Versicherungen und Behörden eingesetzt wird. Genau ein Jahr später folgt im Rahmen des „Smarter Computing“ Programms die Markteinführung eines kleineren Servers dieser überarbeiteten Mainframe-Architektur, das Einstiegsmodell IBM zEnterprise 114. Es soll nun auch mittelständischen Unternehmen und Organisationen mit kleineren Mainframe-Anforderungen die Vorteile eines Großrechners als Grundgerüst ihrer Datenzentren bieten.

Der z114 ist nach Angaben von IBM bei einer etwa 25 Prozent höheren Rechnerleistung als das Vorgängermodell System z10 BC (Business Class) preiswerter als dieses. Damit will IBM im Wettbewerb der Rechenzentrumsausrüster wie HP, Oracle/Sun und Dell bei Unternehmen punkten, bei denen besonders das Servicegeschäft in den Bereichen Banking, Handel und mobile Anwendungen (Infrastruktur für Apps) stark wächst.

zEnterprise 114 - Mainframe für den Mittelstand

Als besonderes Merkmal der neuen Hybrid-Architektur der zEnterprise Systeme gilt neben der eigentlichen Mainframe-Architektur die Integration und das Management von wechselnden Workloads auf zusätzlichen Plattformen. Mainframe steht traditionell für eine extrem hohe Lastenbewältigung bei der Ein-und Ausgabe von Daten (I/O), wie sie bei transaktionsorientierten Datenbanken üblich ist sowie für hohes Maß an Systemverfügbarkeit und Datensicherheit. Die Verarbeitung der fachlichen Anwendungen dagegen findet weitgehend auf Servern mit den Plattformen Unix, Linux und Windows statt.

IBMs zEnterprise Systeme können nun beide Welten gleichzeitig bedienen. Die hybride Verarbeitungswelt wurde den Kunden erstmals von dem im vergangenen Jahr eingeführten großen System (z196) und nun auch von dem neuen kleineren Modell (z114) bereitgestellt. Bei beiden sorgen eine zEnterprise Unified Resource Manager genannte Software und der zweite „Server-Schrank“ zEnterprise BladeCenter Extension (zBX) für die Lösung der Aufgaben. Dazu kommen optimierte Speichersysteme im Hochleistungsbereich (IBM XIV Storage System Gen3).

Unterstützt auch Windows-Anwendungen

Neu gegenüber dem Vorjahr ist die Unterstützung von System-x-Blades in der zBX. Auf diesen können neben Linux- jetzt auch Windows-Anwendungen betrieben werden. Dabei lassen sich gemischte Workloads auf Mainframe, Power7- und IBM-System-x-Servern zentral wie in einem einzigen System bearbeiten. So ist es möglich, Workloads, die aus tausenden von Standardanwendungen stammen können, zu bearbeiten. Bis zu 112 Blades lassen sich als Teil der zBX integrieren und managen. Dabei können im selben Blade-Center-Gehäuse unterschiedliche Blade-Typen und -Optimizer kombiniert werden.

Auf der Softwareseite werden die in diesem Umfeld typischen großen relationalen Datenbanken durch den Smart Analytics Optimizer (SAO) ergänzt. Er soll für eine schnelle Analyse der Daten bei geringen Kosten pro Transaktion sorgen. Für die Integration webbasierter Workloads steht IBM WebSphere DataPower XI50z bereit.

Halbleitertechnisch stehen in der z114, wie der Modellname sagt, bis zu 14 IBM-eigene Mikroprozessoren zur Verfügung, zehn für die Anwendungen der Kunden, vier für die Systemarbeit oder Erweiterungen. Zu den zehn möglichen IBM-Spezialprozessoren gehören wie schon bei der z196 der „System z Application Assist Processor“ (zAAP), der „System z Integrated Information Processor“ (zIIP) und die „Integrated Facility for Linux“. Sie wurden entworfen, um neue Java-, XML- oder Linux-Applikationen mit bereits bestehenden Workloads zu integrieren, aber auch, um die Systemressourcen zu optimieren und Kosten zu reduzieren. Zum Beispiel können Kunden eine Vielzahl virtueller Server zu sehr geringen Betriebskosten anlegen und betreiben.

Als Einstiegspreis wurden in den USA 75.000 US-Dollar genannt. In Deutschland soll der Preis unter 100.000 € liegen, sagte die IBM auf Nachfrage. In den USA soll die Auslieferung noch in diesem Quartal erfolgen, in Deutschland vermutlich etwas später, aber noch vor dem fiskalisch wichtigen Jahresabschluss. Mit dem Angebot denkt Big Blue auch an Einsatzgebiete wie eGovernment, auch in Schwellenländern. Die Regierungen von Kamerun, Senegal und Namibia hätten erst jüngst ein derartiges neues Mainframe-System gekauft, hieß es. Als weiterer US-Kunde wurde mit „Payment Solutions Providers Inc.“ Ein Service für Kreditkartenzahlungen genannt. Bei der Vorstellung in Deutschland saß der Rechenzentrumschef der Datev, Lothar Lux, als Kundenvertreter auf dem Podium. Die gemischten Workloads eines Serviceanbieters für Steuerthemen sind typisch für Mainframe und verteilte Server.

Rudi Kulzer, München

Datev bietet ERP-Software

Die Datev eG hat Juli ihre neue Software „Mittelstand pro“ für Selbständige und mittelständische Unternehmen für den Markt freigegeben. Damit bietet der Nürnberger IT-Dienstleister erstmals eine kompakte, ERP-ähnliche Lösung für betriebswirtschaftliche Abläufe an. Sie kann vor Ort installiert oder in verschiedenen Kombinationen  aus der Cloud bezogen werden.

Nach Angaben von Datev verbindet das Programmpaket „Mittelstand pro“ die Funktionen des Auftragswesens, der Finanzbuchführung, des  Zahlungsverkehrs sowie der digitalen Dokumentenablage zu einer durchgängigen Lösung. Die ERP-ähnliche Software soll einen medienbruchfreien Datenfluss zwischen Unternehmen und Steuerberater gewährleisten.

Das Paket wurde erstmals auf der CeBIT 2011 vorgestellt und stieß nach Angaben des IT-Dienstleisters für Steuerfragen bereits in der Pilotphase auf reges Interesse. Prof. Dieter Kempf, Vorstandsvorsitzender der Datev, wundert das nicht. „Selbständige und Unternehmer erhalten mit „Mittelstand pro“ die Möglichkeit, eine technisch moderne Lösung zu wählen, die auch ihr Steuerberater kennt“, sagte er auf der Jahrespressekonferenz des IT-Dienstleisters. Zudem unterstütze die neue Software die Anpassung der Betriebe an die Herausforderungen von eGovernement und Compliance, ohne dass in dieser Nutzergruppe dafür vertiefende IT-Kenntnisse vorhanden sein müssten.

Prof. Dieter Kempf

Interessant sei die neue Software auch für Selbstbucher, die mit einem Steuerberater zusammenarbeiten. Setzten sie ein Rechnungswesen-Programm der Datev ein, könnten sie zusätzlich „Mittelstand pro“ ohne Aufpreis nutzen. Sie verfügen damit über eine Lösung, in der alle Teilprozesse der kaufmännischen Abwicklung und Verwaltung integriert sind. Es sei kein Wechsel zwischen Programmen, Kopieren oder Neuerfassen von Daten in anderen Anwendungen und kein Zusammensuchen von Daten für betriebswirtschaftliche Statistiken und Auswertungen notwendig, sagte der für dieses Thema verantwortliche Vorstand Eckhardt Schwarzer.

Datev will Cloud mit Tradition und Sicherheit verbinden

Zentrale Dienstleistungen aus dem Rechenzentrum standen bei der Datev schon immer hoch im Kurs. Seit bereits  vier Jahrzehnten bietet der IT-Dienstleister Services an, die heute unter dem Begriff Cloud breite Aufmerksamkeit finden. Unter diesem Vorzeichen will die Genossenschaft ihren Kunden noch mehr Flexibilität und Mobilität bei der Nutzung von Software, Hardware und Infrastruktur bieten.

Der Branchenverband Bitkom, dessen Präsident derzeit Datev-Chef Kempf ist, geht für den deutschen Markt für Outsourcing im laufenden Jahr von einem Zuwachs um 4,3 Prozent auf knapp 20 Milliarden Euro aus. Der Untersuchung zufolge wird insbesondere der Trend zum Cloud Computing dem Outsourcing-Markt zusätzlich Auftrieb verschaffen. In diesem Marktsegment soll der Umsatz in diesem Jahr sogar um rund 55 Prozent auf 3,5 Milliarden Euro steigen.

Diesen Wachstumstrend bestätigte auch die Datev für ihre Lösungen aus dem Cloud- und Outsourcing-Umfeld. Nach Aussagen der Nürnberger nutzen mehr als 46.000 kleine und mittelständische Unternehmen gemeinsam mit ihren steuerlichen Beratern die Möglichkeit, ihre Buchführungsbelege über das Datev-Rechenzentrum in digitaler Form zentral zu verwalten und zu bearbeiten.

Nahezu 25.000 Betriebe haben die Online-Anwendungen bereits im Einsatz, um ihre täglichen Geschäftsvorgänge zu organisieren – von den Kassen- und Rechnungsbüchern über Lohndaten und Zahlungsverkehr bis hin zu Buchführungs- und Gehaltsauswertungen. Zusätzlich steige auch die Nutzung von Cloud-Services durch lokal (on premise) installierte Software. Bei dieser Form von hybriden Lösungen greifen die lokalen Programme auf aktuelle Informationen von der zentralen Plattform im Rechenzentrum zu.

Steuerspezialist Datev in Nürnberg

Zehn Jahre Datev ASP

Eine weitere Form des Outsourcings betreibt Datev mit einem ASP-Angebot (Application Service Providing), das in Kürze sein zehnjähriges Bestehen feiert. Seit Oktober 2001 haben Kanzleien und Unternehmen die Möglichkeit, ihre Server und Datev-Anwendungen im Rechenzentrum der Genossenschaft betreiben zu lassen. Rund 900 Kunden setzen derzeit auf diese Outsourcing-Lösung, die als Private Cloud bezeichnet werden kann.

Zentrales Element für das Erbringen dieser Leistungen ist für die Nürnberger der Themenkomplex Datenschutz und Datensicherheit. Dabei unterwirft sich Datev den berufsständischen Anforderungen der Steuerberater, Wirtschaftsprüfer und Rechtsanwälte. Das bewährte Sicherheitssystem bleibe auch in Zeiten der Cloud bestehen. Deshalb arbeite man ausschließlich in geschlossenen Cloud-Systemen mit einer Mehrfaktor-Authentifizierung. Die Verbindung mit dem Rechenzentrum wird zudem über eine VPN Verbindung (Virtual Private Network) geschützt.

Neue IBM Speicherlösungen für große Datenmengen

Im Rahmen seiner „Smart Computing“ genannten Strategie hat IBM neben einem kleineren Mainframe-Server (z114) mit IBM XIV Storage 3Gen sowie Verbesserungen bei den Tapes eine Reihe wichtiger Neuerungen für die Speicherung großer Datenmengen vorgestellt.

Können Computerspeicher mit der raschen Zunahme der Datenbestände der Unternehmen Schritt halten? Diese im Fachjargon mit „Big Data“ apostrophierte Frage beschäftigt alle Verantwortlichen der IT-Branche. Moderne Datenspeicher müssen in der Lage sein, die enormen, und weiter wachsenden Datenmengen, effizient zu verarbeiten, zu analysieren und zu speichern, führen doch ineffiziente Speicherlösungen zu erheblichen Problemen bei der Anwendungsleistung. Das wiederum resultiert in zu geringerer Produktivität, sinkender Kundenzufriedenheit und Umsatzverlusten.

Auf das exorbitante Datenwachstum versucht IBM schon seit 2008 mit seinem aus einer Übernahme stammenden XIV Storage System eine überzeugende Antwort zu geben. Das High-End-Plattenspeichersystem mit einer virtualisierten Grid-Architektur ist darauf ausgelegt, Höchstleistung, Zuverlässigkeit, Skalierbarkeit und Funktionalität mit einfacher Handhabung und geringen Gesamtkosten zu verbinden.

Moshe Yanais XIV Speicher System

XIV stammt von dem israelischen IT-Pionier Moshe Yanai, der sich mit der Erfindung des System mit seiner speziellen Grid-Architektur einen Namen gemacht. Er beschäftigte sich schon seit den 1970er Jahren mit IBM-kompatiblen Mainframes Speichern. 1987 kam er zu EMC und leitete bis kurz vor dem Verlassen des Unternehmens im Jahr 2001 die Entwicklung des in der Branche bekannten Speichersystem Symmetrix.

Später gründete er das israelische Storage Startup-Unternehmen XIV. Die römische Ziffer steht eigentlich für 14, nach der Kompanie in der Yanai in der israelischen Armee diente, ausgesprochen wird es jedoch „XEIWIE“. Der Startup wurde im Januar von der IBM 2008 übernommen. Davon stammt das IBM XIV Storage System. 2010 verließ Yanai Big Blue, dem Vernehmen nach in Auseinandersetzung über die künftigen Möglichkeiten der XIV Produkte.

Technisch basierte Yanais Plattenspeicher-System XIV auf einer hoch skalierbaren, leistungsstarken Grid-Idee (Grid = Raster) und damit auf neuen Wegen. Es arbeitet mit einem parallelen Konzept für Controller, Switches und Laufwerke. Ähnlich wie beim Grid Computing werden die Daten stets über alle verfügbaren Controller, Verbindungen und Laufwerke gleichmäßig verteilt, Hotspots  durch diese Architektur vermieden und alle Controller, Verbindungen, Platten gleichmäßig ausgelastet. Auch bei Konfigurationsänderungen, Erweiterungen und Ausfall einzelner Komponenten wird selbständig, ohne Eingriffe eines Administrators, nach dem Grid-Prinzip der optimale (gleichmäßig verteilte) Zustand wiederhergestellt.

Die Sicherungsfunktionen Thin Provisioning, Snapshots & Metro Mirror sind nach Angaben von IBM bereits in der Standardausstattung des Lieferumfangs enthalten. Thin-Provisioning kann einzelnen Rechnern mehr Speicherplatz zuordnen als tatsächlich zur Verfügung steht. Damit lassen sich deutliche Einsparungen erzielen. Experten rechnen mit durchschnittlich 20 bis 50% Einsparungspotential. Sicherheits-Snapshots seien in quasi beliebiger Anzahl und ohne Verzögerung möglich. Eine Metro Mirror Funktionmit der man Daten zwischen zwei Standorten spiegeln kann, ist nach Angaben von IBM selbstverständlich.

Ankündigung neuer Platten- und Tape-Systeme

Bei den Speichersystemen wurden am 12. Juli folgende neuen Produkte angekündigt:

–       IBM XIV Storage System Gen3 – mit einer bis zu vierfachen Leistung gegenüber den Systemen der Vorgängergeneration

–       IBM System Storage Tape Controller für System z mit TS1140-Laufwerken

–       IBM Linear Tape File System LE

–       sowie das Monitoring System Crossroads ReadVerify Appliance (RVA) zur laufenden Überwachung und Prüfung von physischen Bandarchivumgebungen.

IBM XIV Storage System Gen3

wurde für noch höhere Performance und zukünftiges Wachstum mit neuen, modernen Komponenten weiterentwickelt. Das sind im Einzelnen:

– InfiniBand interconnect (20x schneller)

– einen 50% größerer Cache pro Module und neue 8Gbps FC Ports (bisher 4Gbps),

– sowie die Möglichkeit auf die SSD Caching Option zu erweitern.

 

Das neue XIV Storage System soll nach den Plänen von IBM bei niedrigen Gesamtbetriebskosten (die über 60 Prozent unter dem Vorgängermodell liegen) mit Gen3 nun noch schneller und einfacher sein. Das Ziel ist eine bis zu viermal höhere Leistung bei der Verringerung der Sicherungsspeicherdauer und eine Steigerung der Leistung für Anwendungen wie Business-Intelligence (BI), Archivierung und andere sequenzielle Jobs sowie eine bis zu dreimal höhere Leistung für eine schnellere Reaktion bei cachefreundlichen Workloads. Eine verbesserte Produktivität für den Administrator soll durch Management mehrerer IBM XIV Storage Systems von einer Konsole aus möglich sein. Das System eignet sich gut in der Kombination mit den zEnterprise Systemen.

Tape Systeme

Bei den Systemen für Bandspeicherung gab es folgende Ankündigungen:

–       Der Library Manager wird in die Kontrolleinheiten integriert.

–       Die von IBM entwickelte Glasfaserübertragung FICON unterstützt die Enterprise Bandlaufwerke TS1120, TS1130 und TS1140.

–       Der neue Tape Controller  3592 C07 ersetzt das Vorgängermodell 3592 C06. Das verdoppelt die Performance auf  1400 MBps.

–       System z Support für TS3500 Tape Library, TS1120, TS1130 und TS1140 Tape Laufwerke. Dies bringt bis zu 180 PB Speicher Kapazität in einem einzigen TS3500 Library String für Mainframe Nutzer.

–       Weniger Platzbedarf des Kassettenarchivs und niedrigere Gesamtbetriebskosten (TCO) durch integrierte Funktionen für die Archivverwaltung im neuen IBM System Storage Tape Controller für System z mit TS1140-Laufwerken.

–        Reduzierung der Kosten von Videobandkassetten um bis zu 98 Prozent.

–        Umfangreiche Library-Unterstützung für Linear Tape File System (LTFS).

Neu beim Monitoring ist das System Crossroads ReadVerify Appliance (RVA). Es ermöglicht eine proaktive Methode für Monitoring, Validierung und Reporting bei Performance, Ausnutzungsgrad und Gesundheit der Tape Libraries TS3500 und TS3100. Dies gestattet proaktives Management und Korrekturmaßnahmen bevor ein Fehler auftritt und reduziert das Risiko von Data Recovery Fehlern.

erschienen am 19.7.2011 in SearchStorage – Vogel IT-Medien

Computerpionier IBM feiert 100-jähriges Jubiläum

IBM feiert heute einen runden Geburtstag. Der IT-Pionier kann stolz auf hundert Jahre Firmengeschichte zurückblicken. Das US-Unternehmen mit namhaften Managern und Erfindern hat Branchengeschichte geschrieben.

IBM feiert 100 Jahre

Der US-Computerkonzern IBM wurde am 16. Juni 1911 unter dem Namen Computing Tabulating and Recording Company (C-T-R) Incorporated in New York gegründet. Lochkarten, kommerzielle Waagen und vernetzte Uhren für Schulen und Bürogebäude waren die Produkte der Gründerzeit.

Es war vor allem das von Herman Hollerith erfundene Lochkartenverfahren, das IBM zum Computerpionier machte und lange die Technik der Datenverarbeitung prägte. Hollerith wurde als Kind deutscher Einwanderer aus der Pfalz (Maikammern) in Buffalo im US-Bundesstaat New York geboren. Sein System, auch Hollerithmaschine genannt, wurde 1890 bei der amerikanischen Volkszählung verwendet.

1896 gründete er die Tabulating Machine Company, um seine Erfindung kommerziell zu verwerten.1911 verkaufte Hollerith seine Gesellschaft, die mit der Computing Scale Corporation und der International Time Recording Company zur Computing Tabulating Recording Corporation (CTR) fusionierte. 1924 wurde CTR in International Business Machines Corporation (IBM) umbenannt.

Aus Holleriths Erfindung wurde 1928 die IBM Karte – ein rechteckiger 80-spaltige Karton mitrechteckigen Löchern, die Datenbits repräsentieren. Sie blieb jahrzehntelang der Branchenstandard für das Speichern und Aufzeichnen von Daten und verhalf IBM zu einer Spitzenposition in der Datenverarbeitung. Von ihr stammt die noch immer gültige Standardbreite von 80 Zeichen in der EDV.

1914 trat Thomas J. Watson Sr. in das Unternehmen ein und wurde 1915 dessen Präsident. Er baute einen professionellen Vertrieb auf und setzte mit einer strenger Kleiderordnung den Maßstab für Service und Unternehmenskultur. IBMer waren in der IT-Branche lange daran zu erkennen, dass sie wie Banker gekleidet waren und ihre Notizen auf Lochkarten machten, die sie immer in ihren Sakkotaschen vorrätig hatten.

Schon damals waren nach Ansicht von Branchenbeobachtern 90 Prozent der IBM Produkte ein Ergebnis der aggressiven Investitionen Watsons in Forschung und Entwicklung. Dieser Trend hält bis heute an: IBM investiert nach eigenen Angaben jährlich 6 Mrd. US-Dollar in diesen Bereich und beschäftigt 3.000 Forscher in acht Forschungslabors in sechs Ländern.

Computertechnik für die Raumfahrt

Schon in den 50er Jahren punktete Big Blue, wie IBM in der Branche genannt wird, als Computerhersteller. So wurde 1951 ein kartenprogrammierter Rechner als erster digitaler Computer im US-Raumfahrtprogramm eingesetzt. Ein Jahr später wurde Thomas Watson Jr. Präsident der IBM, sein Vater blieb Chairman bis 1956.

Zu den technischen Pioniertaten dieser Zeit zählte die Magnetbandspeichereinheit IBM 726 als Konzept des elektronischen Speichers  – eine einzelne Bandspule konnte so viele Daten speichern wie 35.000 Lochkarten. 1956 begründet IBM mit der Methode RAMAC (Random Access Method of Accounting and Control) und dem damit verbundenen ersten Magnetfestplattenlaufwerk die Datenspeicherbranche.

Magnetbandspeicher der IBM

Die Laufwerke, damals so groß wie zwei nebeneinanderaufgestellte Kühlschränke, fassten eine Kapazität von 10 Megabit und wogen 10 Tonnen. Zum Vergleich: Ein durchschnittlicher Laptop von heute würde etwa 250.000 Tonnen wiegen, wenn er mit dieser Technologie ausgestattet wäre.

1957 wurde FORTRAN, eine Erfindung von John Backus aus dem IBM Labor, zur weltweit meistgenutzten Computersprache und zum ersten Standard bei Programmiersprachen. 1958 setzte IBM SAGE (Semi-Automatic Ground Environment) als erstes großes Computernetzwerk ein, das die Kommunikation zwischen Mensch und Maschine in Echtzeit ermöglicht.

IBM war auch lange Zeit ein bedeutender Player bei Schreibmaschinen. Die IBM Selectric galt mit ihrem Design 1961 als Sensation. Mit ihrem silberfarbenen Schreibkopf in Form eines Golfballs (Kugelkopf) revolutioniert sie die Schreibgeschwindigkeit und beherrscht 25 Jahre lang den Markt der Büroschreibmaschinen. Das Modell Elite war die Schreibmaschine für die Schreibdamen in den Vorzimmern der Vorstände.

1962 führten IBM und American Airlines das weltweit erste computerbasierte Flugbuchungssystem namens SABRE ein, das den Weg für den Onlinehandel in Echtzeit und für Bankautomaten bereitet.

Meilenstein Mainframe

1964 traf Watson Jr. die wohl wichtigste Entscheidung in der Geschichte der IBM als er auf die Produktfamilie System/360 setzte. Sie läutete das Zeitalter der Computerkompatibilität ein und begründete die Familie der Mainframe-Maschinen. Der auf Halbleiterchips basierende Computertyp blieb 20 Jahre lang marktbeherrschend.

Für den Einsatz in kleineren Rechnern gelang IBM-Mitarbeiter Bob Dennard 1966 die Erfindung des Arbeitsspeichers DRAM (Dynamic Random Access Memory), dessen Einfachheit und geringer Stromverbrauch Computerspeicher schneller, dichter und preisgünstiger machte und später zur Entwicklung von PCs, Laptops, Videospielen und Smartphones führen sollte.

Für die Großrechner führte IBM 1968 das Customer Information Control System, (CICS), ein, das zu einem der wichtigsten IBM Softwareprodukte wird. Es steuert auch heute noch die meisten Transaktionen an Bankschaltern- und Geldautomaten. 1969 förderte die vom IBM Entwickler Forrest Parry erfundene Magnetstreifentechnologie für Kreditkarten die Entstehung der globalen Kreditkartenbranche.

In dieser Zeit wurde IBM Technologie auch bei der Apollo-Mission, dem ersten bemannten Mondflug, eingesetzt. Die Anfrage der NASA nach geordneten Stücklisten führte letztlich in den Labors von Santa Teresa / Almaden (in der Nähe von San Jose, CA) zur Entwicklung der Relationalen Datenbanken durch Edgar Codd. Sie revolutionierten die Art und Weise, wie Daten für die Finanzbuchhaltung und Fertigung gespeichert und verarbeitet werden.

1971 trug die Erfindung der Diskette als  weltweit erster flexibler Magnetdatenträger dazu bei, dass Datenspeicher leistungsstark und kostengünstig wurden und setzte später als Komponente die PC-Revolution in Gang.

Lou Gerstner rettet den Computergiganten

1993 wurde nach einer schweren Krise Lou Gerstner CEO und Chairman von IBM. Er stellt sich gegen die damalige Meinung, dass IBM aufgeteilt werden sollte, und hielt das Unternehmen zusammen. Gerstner ordnete den Computergiganten völlig neu. Anstelle der Betonung des Verkaufs von Hardware kamen eine starke Konzentration auf Software und Services.

In diesem Trend übernahm 1995 IBM die Lotus Development Corporation. Seitdem hat IBM 40 Mrd. US-Dollar in die Übernahme von mehr als 160 Unternehmen investiert, um sein hochwertiges Portfolio an Hardware, Software und Services auszubauen. Die wichtigsten weiteren Übernahmen waren Tivoli (Systemmanagement, Rational (Softwarteentwicklung) und Cognos (Analyse). 1999 begann IBM damit, Linux zu unterstützen, und trieb damit Open-Source-Innovationen bei der Software voran.

Als besondere Glanztaten der IBM-Forscher sind vor allen zwei Ereignisse zu nennen: 1997 schlägt der IBM Supercomputer Deep Blue den Schachweltmeister in sechs Partien. Jüngst gelang es dem IBM-System Watson, in der US-Fernsehquizshow „Jeopardy“ die menschlichen Mitbewerber durch kluge Antworten zu schlagen. Dabei ging es nicht um den Einsatz von künstlicher Intelligenz, sondern um den gezielten Umgang mit „Big Data“. Das wird, so IBM, künftig auch in Geschäftsprozessen eine Rolle spielen.

2000 wurde Sam Palmisano President und COO. Seit 2002 ist er sowohl CEO wie auch Chairman der IBM. Er leitet die Transformation des Computerpioniers in ein global integriertes Unternehmen ein, die bis heute anhält. Weltweite Beachtung findet seine Lösungskampagne „Smarter Planet“. Da Palmisano bald 60 wird, hat IBM damit begonnen, einen möglichen Nachfolger aufzubauen, für den oder die es nicht leicht wird, die Schuhe der namhaften Vorgänger zu füllen.

Erschienen bei ZDnet IT-Business

IBM setzt auf „Social Business“

Der Informationsfluss wächst immer schneller. Die Halbwertszeit von Daten wird immer kürzer. Was heute für den Entscheider relevant und zeitgerecht ist, kann morgen schon veraltet und uninteressant sein. Gleichzeitig nimmt die Datenmenge dramatisch zu.

Angesichts dieser Herausforderungen hat sich IBM auf der diesjährigen ECM Anwendertagung in Frankfurt am Main vertieft mit der Zukunft von Enterprise Content Management (ECM) in Unternehmen auseinandergesetzt. Ziel ist es, Unternehmen zu helfen, diesen Ansprüchen gerecht zu werden und zu jeder Zeit direkten Zugriff auf die entscheidenden Daten zu gewährleisten. Dabei geht der Trend nach Ansicht von Big Blue stark in Richtung Social Software Komponenten als Werkzeuge der Kommunikation und des Zusammenarbeitens.

„Die Mauern des traditionellen Unternehmens werden fallen!“ Verbunden mit dem Bild eines Mauerspechts beim Fall der Berliner Mauer vor über 20 Jahren setzte Stefan Pfeiffer, Market Segment Manager Social Business & Collaboration Solutions der IBM Deutschland GmbH (mögliches Bild), in seiner Keynote der Anwendertagung ein interessantes Statement.

Dabei sieht der für das Thema Social Business zuständige Evangelist vier Grundpfeiler eines sich anbahnenden Wandels:

–              Neue Arbeitsplatz- und Arbeitszeitmodelle in Verbindung mit Globalisierung verändern die Arbeitswelt grundlegend.

–              Smartphones und Tablet PCs werden immer mehr nicht nur privat, sondern auch beruflich genutzt.

–              Der Einsatz von Social Media setzt sich in der Politik, privat und auch im Business immer stärker durch.

–              Nicht zuletzt verändert die Wolke des Internets, die Cloud, die IT-Landschaften dramatisch. Die Cloud ist – im privaten Umfeld bereits da – und kommt nun in die berufliche Welt.

Diese Trends, so Pfeiffer, verstärken sich gegenseitig so stark, dass man von einer neuen IT-Situation in den Unternehmen sprechen kann. Dabei werden nach Angaben der Marktforscher von IDC die Bereiche Cloud Services, Mobile Computing und Social Networking bereits im laufenden Jahr 2011 eine gewisse Marktreife erreichen und dann zu einer neuen Mainstream-Plattform zusammenlaufen.

Home Office – Mobile Office

Beim Thema Arbeitsplatz der Zukunft wird bei den „Weiße-Kragen-Berufen“ das Home Office, oder besser gesagt das Mobile Office, immer wichtiger. Und das, obwohl sich noch viele verantwortliche Manager in den Unternehmen gegen diesen Trend aus Gründen eines möglichen Machtverlustes durch unmittelbare Kontrolle wehren.

So gaben in einer Untersuchung das Fachmagazins CIO 22,8 Prozent der Befragten zu Protokoll, dass in ihrem Unternehmen mobiles oder „remote-basiertes Arbeiten“ gar nicht erlaubt sei.

Weitere 16,8 Prozent erklärten, das sei nur „in Ausnahmefällen“ möglich, 28 Prozent wissen nicht, um was es geht. Nur eine kleine Minderheit von gerade einmal 9,4 Prozent ermutigt alle Mitarbeiter darin, von unterwegs, zu Hause oder remote zu arbeiten.

Siegeszug der mobilen Geräte

Gerätetechnisch spielen dabei iPhone und iPad von Apple sowie die verwandten Android-Geräte von Google eine große Rolle. Was Bill Gates 2001 auf einer Computershow in Las Vegas noch vergeblich versuchte, ist Marketingguru Steve Jobs 2010 mit seinen persönlichen „Touchscreen-Maschinen“ gelungen.

Der Erfolg der Apple Tablets läutet nach Ansicht des IBM-Managers eine neue Generation von Geräten ein. Immer mehr werden auch professionelle B2B-Lösungen in App Stores verfügbar. Das ist auch eine starke Veränderung in der Art und Weise, wie Software in Unternehmen verteilt wird (Distribution).

Bei dem Mensch-Maschine-Kontakt ist das Zeitalter der Maus vorbei, wir streicheln nun unsere Mobilegeräte, sagte Pfeiffer in einem Gespräch mit DOK auf der Veranstaltung in Frankfurt. Der Zugang zu vielen Ebenen des „Social Networking“ erfolgt immer häufiger über mobile Geräte.

Zusammenarbeiten über den „Aktivitäten-Wall“

In einer Unternehmenswelt, in der Komponenten des „Social Workplace“ verstärkt eine Rolle spielen, geht der Trend vom E-Mail und dokumenten-orientiertem Arbeiten mehr zu Komponenten wie Zusammenarbeit in Echtzeit, zu Instant Messaging, Unified Telephony und Videokonferenzen.

Besonders wichtig scheinen für Pfeiffer „Activity Streams“ à la Facebook-Walls an den Social Workplaces mit mehr offenen Teilen von Informationen zu sein. Der Trend geht weg vom Zeitalter des Herrschaftswissens hin zum Zeitalter des Teilens (Sharings). Arbeit in Netzwerken und Gemeinden sowie das Bereitstellen von Informationen im Kontext durch Analysen stehen im Vordergrund.

In einem Artikel von „Zeit Online“ war zu lesen, dass das „Facebook-Prinzip“ ins Büro einziehe. Wissen, was die Kollegen tun, sei in der heutigen Bürowelt das A und O. Anbieter wie IBM, Salesforce und Xing übernehmen Facebook-Komponenten unter dem Motto „Enterprise 2.0“ in ihre Software. Stefan Pfeiffer findet dafür den Ausdruck „Social Business“ treffender.

Es gilt zu beachten, dass vor diesem Trend die Fluten der Daten schon sehr groß war. Doch nun wird die Menge an Content noch mehr. E-Mail, Dateien, Papier, Tweets, Foreneinträge, Blogs, Wikis, Videos, Chats sorgen für weiteres Wachstum und neue Vielfalt. Zusätzlich verlangen die Regeln für Governance, Risk Management & Compliance, dass auch die neuen Inhalte archiviert werden und somit weiteren Speicherraum benötigen.

Dabei rückt durch das Social Web der Kunde stärker in den Mittelpunkt der Geschäftsprozesse. Marketing und Werbung wandeln sich vom Schaufenster zur Kommunikationsplattform. Geschäftsvorgänge starten im Social Web und müssen per Case Management bearbeitet werden. Content und Case Management werden somit „sozial“.

Als Folge werden die Integration von Real Time Collaboration und Social Software Funktionen in das ECM Portfolio zur Pflicht. Den richtigen Inhalt zum richtigen Zeitpunkt im richtigen Zusammenhang zur Verfügung zu haben, heißt die Devise. Content Analytics bedeutet somit auch Social Analytics, so Pfeiffer.

Veränderungen im ECM-Portfolio der IBM

Auf diese Herausforderungen reagiert IBM mit konkreten Veränderungen in seinem ECM-Portfolio, das weitgehend auf Komponenten von FileNet P8 und auf Collaboration-Technologien der IBM basiert:

– Integration von Social Komponenten in Case Manager.

– Quickr als Frontend und Team Collaboration-Plattform zu Content Manager und FileNet.

– Quickr-Konnektoren zur Integration auf dem Desktop und in Office-Pakete.

– Zugriff auf ECM Content aus IT-Programmen wie Lotus Notes, Sametime, Symphony, Windows Explorer und Microsoft Office.

– Integration von ECM in das IBM Portal WebSphere.

Dazu einige Hintergrundinformationen zu den genannten Komponenten:

FileNet

Das Flaggschiff der IBM ECM-Strategie ist FileNet. Das 1982 im kalifornischen Costa Mesa gegründete Unternehmen war ursprünglich Hard- und Softwarehersteller im Umfeld optischer Speichertechnologien. Mit seiner jüngsten Produktlinie FileNet P8 spielt es eine wichtige Rolle im Bereich Enterprise Content Management.

Das Unternehmen erweiterte im Laufe der Zeit mehrmals seine strategische Ausrichtung, so beispielsweise Anfang der 1990er Jahr von der Hardware zur Software im Bereich des Dokumentenmanagements (DMS). Im August 2006 wurde FileNet von IBM zur Verstärkung  seiner Information on Demand (IoD) Initiative übernommen.

IBMs aktuelles ECM-Portfolio ruht auf den drei wesentlichen Funktionspfeilern Content, Process und Compliance. Diese Funktionalitäten sollen Unternehmen eine einfache Bereitstellung von Inhalten, eine schnellere Entscheidungsfindung und die Einhaltung rechtlicher Rahmenbedingungen ermöglichen.

Case Management

Bei der Case Management-Strategie von IBM werden Informationen, Prozesse und Menschen vernetzt, um eine umfassende Übersicht über einen Fall zu erstellen. Neben der Verwaltung von Content und Prozessen beruht das Konzept auf erweiterten Analysefunktionen, Geschäftsregeln, Teamarbeit und Social Software, wodurch bessere, optimierte Fallergebnisse erzielt werden sollen.

Mit dem verbesserten Paket Advanced Case Management wird der Bereich Fallmanagement weiter ausgedehnt, indem Funktionalitäten zur effizienten Abwicklung integriert und durch intelligentere Prozesse bessere Ergebnisse erreicht werden. Spezielle Bereiche wie Kundenanfragen, Darlehensanträge, komplizierte branchenspezifische Zusammenhänge oder regulatorische Verfahren können so besser genutzt werden. Durch die Automatisierung der richtigen Prozesse, Anwendung der passenden Analyse und Einbeziehung der erforderlichen Fachleute sollen die besten Fallergebnisse ermöglicht werden. Dabei gibt es verschiedene Konzepte für unterschiedliche Branchen.

Lotus Notes, Connections und Quickr

Nicht zuletzt muss noch IBMs Lotus Notes Plattform im Rahmen der geschilderten Veränderungen erwähnt werden. Die Software Familie wurde ursprüngliche 1984 von der Iris Associates als dokumenten-orientiertes Datenbanksystem (daher der Name „Notizen“) mit späterer starker E-Mail Anbindung entwickelt. Zunächst unter dem Dach der Lotus Development Corp. kam Lotus Notes 1996 in das Software-Portfolio der IBM. Es wird seither von Big Blue mit dem Serverteil Lotus Domino und dem Client Lotus Notes als Groupware und Kommunikations-Plattform gegen Outlook und Exchange von Microsoft positioniert.

Lotus Notes bleibt ein Flaggschiffprodukt der IBM. Ergänzend, aber auch komplett unabhängig von Notes können Komponenten wie IBM Connections, ein „Facebook für das Unternehmen“ und Quickr, eine dokumentenorientierte Team Collaboration-Plattform, eingesetzt werden. Die auf Web 2.0 Funktionen basierende Software wurde gezielt entwickelt, um die gemeinsame Nutzung von Geschäftsinhalten und die Online-Zusammenarbeit zwischen Teams zu vereinfachen.

Die Komponente Sametime ist in diesem Zusammenhang das entsprechende Angebot für „Instant Messaging“, Telefonie und Konferenzschaltungen. Diese Lösungen laufen auch im Zusammenspiel mit Microsoft Office, Outlook oder auch Sharepoint.

Lotus Symphony, ein frei verfügbares Produkt, entspricht mit den Elementen Textverarbeitung, Tabellenkalkulation und Präsentation der Bürosoftware Office von Microsoft.

Das gesamte Collaboration Portfolio wird in erster Linie von IBM selbst und seinen Partnern genutzt und im Rahmen von Lösungspaketen auch den Kunden angeboten.

 

IBM Service-Software soll für bessere Infrastrukturen sorgen

Mit Sam Palmisano an der Konzernspitze setzt IBM seit gut zwei Jahren verstärkt auf die Unterstützung „intelligenter Infrastrukturen“ durch die Informationstechnik. Das Programm „Smarter Planet“ ist zum Markenzeichen der Ära Palmisano geworden. Auf Fachkonferenz „Pulse“ in Las Vegas und in weiteren Gesprächen in Deutschland versuchte Big Blue, die notwendigen Einzelheiten zu vertiefen.

(( Fließtext))

Auf der Pulse 2011 in Las Vegas präsentierte IBM unter dem Sammelbegriff „Integriertes Service Management“ (ISM) neue Software für intelligentere Infrastrukturen und aktuelle Projekte aus der Praxis. Das Ziel war es, zu zeigen, wie neue Wege der Datenanalyse deutlich verbesserte Möglichkeiten für intelligentere Städte, Gebäude, Krankenhäuser, öffentliche Einrichtungen und den Schienenverkehr eröffnen.

Der technische Hintergrund: Die wachsende Verbreitung von Sensoren, Smart Grids, RFID-Tags, 4G-Wireless-Netzen, Smartphones und Tablet-PCs verwandelt unsere Alltagswelt. Gegenstände werden intelligent und geben jederzeit Auskunft über ihren Betrieb, ihren Standort und ihren Zustand. Dadurch entsteht ein riesiger Datenfluss, den Unternehmen für fundierte Entscheidungen nutzen können, um den Wandel ihrer Geschäftsmodelle voranzutreiben.

Durch seine Forschungsarbeiten und damit verbundene Expertise in den Bereichen Analytics, System-Management und Sensoren will IBM verstärkt eine  Brücke zwischen der gegenständlichen und der digitalen Welt schlagen. Auf ihrer Grundlage sollen intelligente Infrastrukturen unterstützt werden, die für die Leistungsfähigkeit von Unternehmen heute unabdingbar sind.

Zu den in Las Vegas vorgestellten neuen Softwarelösungen zählen:

Neue Analytics-Software für die Netzwerküberwachung:

Neue Netcool/OMNIbus Softwarelösungen bieten prädiktive Überwachung, Visualisierung und Ursachenanalyse. Mit der Software lassen sich nicht nur Telekommunikations- und Transportnetze überwachen, sondern auch alle anderen Netze, die Daten übermitteln. Zum Beispiel liefern sie einen Überblick über den laufenden Betrieb von Bankautomaten oder Kühlhäusern von Supermarktketten. Sogar die Daten der Rolltreppen einer europäischen U-Bahn werden von der Software erfasst und analysiert. Netzwerkprobleme können so frühzeitig erkannt und behoben werden.

IBM Intelligent Metering Network Management:

Diese Software verbessert die Sichtbarkeit, Kontrolle und Automatisierung von Smart-Metering-Infrastrukturen der Strom-, Wasser- und Gasversorgung. Die Software speichert die von den Zählern gesammelten Daten, übermittelt sie entsprechend der gesetzlichen Vorschriften und analysiert sie. Mit den Ergebnissen lassen sich Abläufe optimieren. Zum Beispiel kann die Software bei Auffälligkeiten automatisch einen Auftrag an den Kundenservice erteilen.

IBM Real-Time Asset Locator for Healthcare:

Der IBM Real-Time Asset Locator hilft Krankenhäusern, ihre medizinische Ausrüstung in Echtzeit zu lokalisieren und zu überwachen. So weiß das Personal immer, wo es benötigte Geräte findet. Die Echtzeit-Lokalisierung kann bei Bedarf auch auf Patienten und Mitarbeiter ausgeweitet werden, etwa in der Notaufnahme, in der Intensivpflege oder in Operationssälen.

Standort-basierte Analyse für Städte und Infrastrukturen

IBM arbeitet mit weltweit Städten zusammen, um mit Hilfe der Echtzeit-Visualisierung und -Analyse von baulichen und digitalen Anlagen Möglichkeiten zur Effizienzsteigerung aufzudecken. Dazu stellte Big Blue Kooperationen mit Cape Fear und Washington D.C. in den USA sowie Waterloo / Ontario in Kanada vor. Diese Städte setzen spezielle IBM Software ein, um einen Überblick über ihre Infrastruktur wie Straßen, Gebäude und Wasserwege zu gewinnen sowie um Einblick in die Abläufe über und unter der Erde zu erhalten.

Dazu gehören zum Beispiel Kanäle, Kabel, Straßenbeleuchtung, Stromzähler oder Regenwasserabläufe. Manche Städte nutzen eingebaute Sensoren, um beispielsweise schadhafte Rohrleitungen oder eine defekte Straßenbeleuchtung zu erkennen und einen automatischen Arbeitsauftrag an das Wartungsteam zu senden.

Beim Thema Eisenbahnen arbeiten IBM und Alcatel-Lucent  gemeinsam daran, das Schienennetz der Schweizer Bundesbahn intelligenter zu gestalten: Die neue Lösung verfügt über Analyse- und Diagnosefunktionen, durch die sich die Pünktlichkeit von Zügen und der Kundenservice verbessern lassen. 900.000 Reisende und mehr als 220.000 Tonnen Fracht können damit sicherer und effizienter transportiert werden.

IBM Smarter Buildings Software

Für das Gebäudemanagement stellte IBM seine Smarter Building Software in einer Beta-Version zur Verfügung. Damit können Gebäudeverwalter über eine dynamische Benutzeroberfläche den Betrieb ihrer Anlagen in Echtzeit überwachen und analysieren. Das hilft,  Betriebs- und Energiekosten zu senken, erleichtert die Verwaltung und verbessert die Zuverlässigkeit der Gebäude und Anlagen.

Dank einer neuen Lösung von Business Partner Esri (Geodaten) können Verwalter ihre Gebäude sogar aus der Luftperspektive überblicken und sich einzelne Bereiche auf den verschiedenen Stockwerken ganz nah auf den Bildschirm holen. Wenn zum Beispiel ein Boiler oder ein Teil der Klimaanlage defekt ist, können sie deren Position genau bestimmen und die Wartung besser koordinieren. Es wird erwartet, dass die neue Lösung den Energieverbrauch um 35 bis 40 Prozent reduziert.

Als jüngstes Beispiel für ISM für „Smarte Gebäude“ nannte IBM die Universität Potsdam. Sie ist die größte Hochschule des Landes Brandenburg. Sie ist mit drei Standorten über die Landeshauptstadt Potsdam verteilt und umfasst 80 Einzelgebäude mit einer Gesamtfläche von insgesamt rund 190.000 Quadratmeter. 85 Mitarbeiter sind für Verwaltung, Pflege und Wartung der Gebäude und ihrer Einrichtungen verantwortlich.

Die Uni Potsdam  verwaltet ihre Gebäudekomplexe mit Hilfe des IBM-Programms Maximo. Die Plattform unterstützt sämtliche Geschäftsprozesse rund um das Gebäudemanagement – von der Fundstelle über die Handwerksdienste bis hin zum Stromverbrauch. Die Verwalter erhalten dadurch einen detaillierten Überblick über Zustand und Status aller Universitätseinrichtungen. Zudem können sie Wartungsarbeiten und Projekte besser koordinieren und planen.

Lösungen für den Mittelstand

Mit speziell für den Mittelstand zugeschnittenen Lösungen aus der Smart Business Suite will IBM bezahlbare, leicht zu implementierende Anwendungen für IT-Service-Management bieten. Das modulare Angebot richtet sich vor allem an Unternehmen, die kleine IT-Teams haben. Die Produkte bieten schnelle Einsatzfähigkeit durch vorgefertigte Anwendungspakete und vorinstallierte Komponenten.

Das Angebot umfasst aktuell drei Smart Business Lösungsmodule: einsatzbereite IT-Systeme für die Desktop-Virtualisierung, IT-Asset und Application-Management sowie die User Help Desk Unterstützung. Flexibilität bietet auch das aufwandsbasierte Abrechnungsmodell.

„Kleine und mittelständische Unternehmen haben durch IT Ausfälle und Performanceprobleme noch häufig einen wirtschaftlichen Schäden. Dabei müssen sie sich genauso wie große Konzerne im globalen Markt positionieren“, sagte Marco Braun, Business Unit Executive bei Tivoli Software, IBM Deutschland.. „Mit den neuen Smart Business Lösungen geben wir dem Mittelstand speziell für ihn entwickelte Werkzeuge an die Hand, mit denen sie die Funktionalität und Verfügbarkeit der Systeme sowie die Servicequalität verbessern können.“

Bereitgestellt werden die Smart Business Lösungen durch IBM Geschäftspartner. Dadurch bieten sich dem Kunden flexible Integrationsmöglichkeiten von hauseigenen Anwendungen bis hin zu Software-as-a-Service, je nachdem, welche Anforderungen der Kunde benötigt, um sich langfristig weiterzuentwickeln.

Dokumentenerstellung – die verkannte Chance


Document Composite – DMS – ECM – Workflow – Output Management

In Akten abgelegte Dokumente sind in unserem Alltag so allgegenwärtig, dass wir uns in der Regel ihrer nicht bewusst sind. Sie sind uns eher lästig. Erst wenn im Geschäftsleben ein wichtiger Vorgang, ein Lieferschein oder eine Rechnung fehlt, denken wir für einen Moment über Dokumente nach. Ähnliches im Privatleben, etwa wenn es  wichtige Unterlagen der Krankenkasse oder einen Rentenbescheid suchen.

Dabei geht es hier in der Regel um Papierdokumente, deren Form wir durch Jahrhunderte alte Tradition instinktiv noch begreifen. Viel schwieriger dagegen ist es, die Vielzahl von elektronischen Dokumenten zu begreifen, die uns umgeben, seit dem der Personal Computer Anfang der 80er Jahre seinen Siegeszug angetreten und unseren Alltag erobert hat.

Geschichte des Schreibens von Dokumenten

Die „Geschichte der Dokumente“ ist so spannend wie die Entwicklung der Zivilisation und des Handels. Allerdings ist sie als solche kaum explizit schriftlich überliefert. Doch die Suche nach der Schriftentstehung führt zu guten Quellen, deren Erkenntnisse eng mit dem Thema Dokumente verzahnt sind. Dazu gehören die Arbeiten von Jan Assmann. In seinem Buch „Das kulturelle Gedächtnis“ setzt er sich intensiv mit der Kulturtechnik des Schreibens und damit der Geschichte des Schreibens von Dokumenten auseinander.

Die Schrift, da sind sich alle Forscher einig, entwickelte sich aus frühen Formen von Alltagstexten. Die frühesten auf Tontafeln fixierten Texte halten in Keilschrift Eintragungen aus dem Steuer- und Rechnungswesen fest. Erst später kamen diplomatische Korrespondenz, religiöse und kulturelle Texte sowie Dichtung hinzu. So wuchs im Laufe der Zeit aus anfänglichen Gebrauchstexten des Alltags ein Vorrat von Texten mit normativem und formativem Anspruch.

Das Schreiben begann also mit dem Fixieren von Besitz oder Geschäften auf Tontafeln. Sie gehören zu den ältesten Schreibmaterialien der Menschheit und  fanden vor allem im Gebiet des fruchtbaren Halbmonds zwischen den Flüssen Euphrat und Tigris in vorwiegend trocken-heißem Klima schon vor mehr als fünf Jahrtausenden Anwendung.

Dabei wurden zunächst Symbole in eine Tafel aus weichem Ton oder Lehm mit Hilfe eines Griffels eingeritzt oder eingedrückt und schließlich in der Sonne getrocknet und gehärtet. Mit Hilfe der Keilschrift wurden erste Ackerverzeichnisse und Steuerlisten festgehalten  Am Nil in Ägypten wurde zusätzlich das Schreiben in Hieroglyphen auf Papyri erfunden.

Seither wird das Wissen über unsere Welt in enger Bindung an die Kulturtechnik „Schrift“ gesehen, wie Harald Haarmann in seiner „Geschichte der Schrift“ belegt. Selbst wenn heute der größte Teil aller Informationen, die in Datenbanken gespeichert werden, digitalisiert ist, werden diese Daten bei Abruf in Schrift umgewandelt. Erst dann ist der Nutzer in der Lage, sie zu verwenden.

Schrift wird in unserem digitalen Zeitalter in erster Linie nicht mehr dafür verwendet, Informationen zu speichern, sondern dient als Ein- und Ausgabemedium. Um also digital gespeicherte Daten verfügbar zu machen, ist Schrift auch heute noch ein unverzichtbares Medium der Kommunikation und des Umgangs mit Wissen.

Schreibmaschine und Personal Computer

Der Buchdruck dagegen spielte für die Geschichte der Dokumente nur eine indirekte Rolle. Er diente in erster Linie der raschen Vervielfältigung des Wissens und nicht dem Schreiben von Dokumenten. Es darf jedoch nicht vergessen werden, dass letztendlich die beweglichen Typen der Schreibmaschine von den Schriftsetzern stammen. Bis zur Erfindung der Schreibmaschine wurde mühsam mit Federn – lange Gänsekiele, später aus Stahl, auf Pergament und Papier geschrieben.

Erst mit der Erfindung der Schreibmaschine wurde die Menschheit langsam von dieser Mühe erlöst. Die mechanisch und später elektrisch angetriebenen Geräte konnten Lettern über eine Tastatur auf Papier übertragen. In der Textverarbeitung sind sie aus heutiger Sicht als ein Vorläufer des Schreibcomputers anzusehen. Die Tastaturbelegung des Personal Computers entspricht dabei weitgehend der des Fernschreibers. Viele vom Maschinenschreiben bekannte Funktionen wurden in die moderne Textverarbeitung übernommen.

In den 80er Jahren begann der Siegeszug des Personal Computers, kurz PC, der als Mikrocomputer Einsatz an allen Arbeitsplätzen fand. Am Schreibtisch des Sachbearbeiters in den Unternehmen ist der PC nicht mehr wegzudenken und die wesentliche Schnittstelle zur Dokumentenerstellung.

Dokumente in der Finanzwirtschaft

Heute sind die wichtigsten systematischen Nutzer von Dokumentenverarbeitung neben den Ämtern der öffentlichen Verwaltung vor allem Finanzdienstleister, zu denen Versicherer, Versorgungsverbände und Banken gehören. Sie befinden sich seit der Öffnung der Märkte in einem scharfen Wettbewerb. Um ihre Geschäftsprozesse kosteneffizient und kundenorientiert auszurichten, müssen sie ihre IT-Systeme und deren Datenflüsse an diese neue Situation anpassen. Dabei kommt der automatisierten und personalisierten Erstellung von Dokumenten und dem entsprechenden Output-Management als Schnittstelle zum Kunden eine besondere Bedeutung zu.

Doch die dringend notwendigen Veränderungen lassen sich in der noch immer heterogenen Systemlandschaft nur schwer realisieren. Das liegt vor allem daran, dass in diesem IT-Umfeld noch viele Anwendungen von der „Legacy“, also dem „Erbe“ einer gewachsenen Infrastruktur geprägt sind. So arbeiten Finanzdienstleister häufig mit selbstentwickelten IT-Systemen, die teilweise schon seit Jahrzehnten auf Großrechnern mit Mainframe-Struktur (Host) betrieben werden.

Die wichtigsten Merkmale dieser ursprünglich ausschließlich transaktionsorientierten Architektur sind hohe Verfügbarkeit und Sicherheit. Dabei geschah die Verarbeitung von Transaktionen früher ausschließlich in der Technik der Stapelverarbeitung (Batch). Seit der Nutzung starker Vernetzung stehen aber die Finanzdienstleister vor der Herausforderung, ihre Daten je nach Situation, entweder im Stapel oder aber sofort in Echtzeit verarbeiten zu müssen.

Als griffiges Beispiel des Alltags mag das Abheben von Bargeld an einem Bankautomaten oder eine Überweisung im Internet gelten. Dabei muss das System in Echtzeit entscheiden, ob der Kunde berechtigt ist, einen Transfer zu tätigen oder eine Auszahlung zu erhalten. Es kann in einer solchen Situation nicht auf einen Batchvorgang zur Kontenabgleichung über Nacht gewartet werden.

Fast alle Finanzdienstleister versuchen daher in umfangreichen Projekten ihre IT den Erfordernissen unserer Zeit anzupassen. Weil aber existierende Altsysteme vor allem wegen der dort abgelegten Stammdaten weiterhin nutzbar bleiben sollen, versuchen die IT-Verantwortlichen ihre Systeme in serviceorientierte Architekturen zu kapseln, um sie in die nötigen Prozesse zu integrieren.

Kosten senken – Kunden binden

Leider sind zahlreiche  Anwendungen in Finanzunternehmen häufig noch so ausgelegt, dass einzelne Prozesse, Workflows und Arbeitsgruppen relativ unkoordiniert parallel laufen. Dieser Umstand ist in der Regel auf Fusionen oder Übernahmen zurückzuführen. Vielfach haben einzelne Abteilungen auch eigene Programme entwickelt und wollen diese nur ungern aufgeben. Doch die unzureichende Integration bremst die Reaktionszeiten und verärgert Kunden. Zudem ist die wiederholte Eingabe von Daten hoch fehleranfällig.

Doch Geschäftsprozesse, die noch auf Papier basieren, sind in besonderem Maße ineffizient, arbeitsintensiv und treiben die Kosten in die Höhe. Banken und Versicherer müssen daher bei der Konsolidierung ihrer Geschäfts- und IT-Prozesse auf Dokumentenersteller zugreifen können, deren Lösungen die Geschäftsprozesse automatisieren und somit den Vertriebszyklus verkürzen. Fachleute berichten je nach Fall von Kostenersparnissen bis zu 90% durch den systematischen Einsatz entsprechender Werkzeuge für das Automatisieren und Personalisieren von Dokumenten.

Neben der Frage der Kostenreduzierung stehen auch die Kundenbindung und der Ausbau der Geschäftsbeziehungen im Mittelpunkt des Interesses. Das Gewinnen von Neukunden ist teuer. Gerade im stark wettbewerbsorientierten Privat- und Geschäftskundenbereich der Versicherungswirtschaft müssen sich daher alle Anbieter bemühen, Neukunden zu akquirieren und Bestandskunden zu halten. Kunden, die nur sehr kurz bei einer Gesellschaft bleiben, sind in der Regel ein Verlustgeschäft.

Last but not least müssen gerade Finanzdienstleister beim Thema moderne Dokumentenarbeit die gesetzlichen Auflagen zu Datenschutz, Datensicherheit, Unternehmensführung und Risiko-Management berücksichtigen. Die Verantwortlichen in den Unternehmen sind per Gesetz gezwungen, diese Regelungen strikt einzuhalten, da sie sonst persönlich haften.

In den USA regelt diese Fragen in erster Linie der Sarbanes Oxley Act von 2002. In Europa wurden die entsprechenden Verordnungen im Rahmen von Basel II und III festgelegt. Die damit verbundenen Vorgänge sind nicht nur kostspielig, sondern auch arbeits- und ressourcenintensiv. Werden die gesetzlichen Vorgaben nicht erfüllt, drohen rechtliche Konsequenzen, die zu Geldbußen und einem Imageverlust führen können.

Unterschiedliche Anbieter von DMS / ECM – Lösungen

Anbieter von Lösungspaketen für Dokumentenverarbeitung gibt es schon lange – praktisch schon seit es einen systematischen EDV-Einsatz in Unternehmen gibt (siehe Tabelle). Anfangs war das ein Thema der Automatisierung des Postversandes in großen Unternehmen (Mail Room Automation) in Kombination mit Großrechnern. Der bekannteste Vertreter ist der Marktführer der Frankiermaschinen, Pitnew Bowes. Neben der eigentlichen Hardware bietet das vor den Toren New Yorks ansässige Unternehmen schon seit Jahren entsprechende Systemsoftware und Dienstleistungen an.

Ebenfalls von der Hardware kommt Hewlett-Packard (HP) aus Palo Alto, der Marktführer der Druckeranbieter, der Speicherkönig EMC aus Massachusetts oder IBM als wichtiger Anbieter von IT-Infrastruktur. Alle haben sich, wie die Tabelle zeigt durch Zukäufe thematisch für Lösungen des Dokumenten Managements verstärkt: HP durch Exstream, EMC durch Document Sciences und IBM durch FileNet. Sie gelten heute als wichtige Player.

Neben diesen von der Hardware her kommenden Konzernen sind mit Adobe und OpenText zwei Spezialisten zu nennen, die von der Softwareseite kommen. Adobe aus San Jose hat sich neben seinen Kreativwerkzeugen vor allem durch das Format PDF im Bereich Dokumente einen Namen gemacht. Die Kanadier von OpenText aus Waterloo in der Provinz Ontario haben sich in den vergangenen zehn Jahren durch systematische Zukäufe als ECM Spezialist positioniert.

Mit der Firma QualySoft aus Wien ist noch ein kleiner Pionier aus Europa zu nennen, der sich mit seinem Geschäftsbereich Infinica stark gerade um das Thema Dokumentenerstellung bemüht. „Document Composition“ heißt das Software-Genre, das dafür maßgeschneidert ist. Damit lassen sich jegliche Art von Dokumenten oder interaktiven Formularen erstellen und verarbeiten. Derartige Lösungen, erlauben es, alle Dokumente mit minimalem Aufwand zu gestalten, zu produzieren und personalisierte, relevante Informationen schnell über verschiedene Kommunikationswege bereitzustellen, so das Angebot.

Doch abschließend muss festgestellt werde, dass gerade dieser Bereich des gesamten Paketes DMS / ECM sich noch schwer tut, bei potentiellen Kunden verstanden zu werden. Im Gegensatz zu den Bereichen Ablage und Archivierung sowie Workflow und Output-Management ist für die eigentliche Erstellung von Dokumenten noch nicht das Bewusstsein vorhanden, die das Thema verdient. Noch ist es eine verkannte Chance.

IBMs smarte Computer-Initiative

Big Blue stellte auf der CeBIT 2011 eine Initiative vor, die es Unternehmen erlauben soll, ihre IT-Infrastruktur effizienter und innovativer inzusetzen.

Der Kampf um Unternehmenskunden mit Rechenzentren hat
sich nach der wirtschaftlichen Erholung deutlich verstärkt. Vor diesem
Hintergrund werben die großen Player wie IBM, HP, Oracle, Cisco oder Dell mit neuen Kampagnen um diese Kundenklientel. Es geht um lukrative Aufträge, denn die Nachfrage nach Rechenkapazität steige unaufhörlich, erklärte die IBM auf der CeBIT.

In den letzten drei Jahren sei die Menge digitaler Daten jährlich um über 60 Prozent gewachsen. Auch das Volumen der zu verwaltenden virtuellen Bilder nahm pro Jahr um mehr als 40 Prozent und die Verbreitung von
Cloud Computing um über 30 Prozent zu. Doch gleichzeitig werden IT-Budgets noch immer als Mittel zur Kostensenkung betrachtet. So schrumpften die weltweiten IT-Budgets im selben Zeitraum durchschnittlich um 1,3 Prozent.

Um diesen „IT-Widerspruch“ aufzulösen, verfolgen Anbieter wie IBM einen neuen Ansatz, den Big Blue nun offiziell als „Smarter Computing“
bezeichnet. Vorläufer war ein Dynamic Infrastructure genanntes Programm. Konkurrent Hewlett-Packard nannte seinen Ansatz früher „Adaptive Computing“, heute „Converged“.

Dabei geht es um eine effizientere und innovative Geschäftsprozesse
in der IT. Sie sollen es ermöglichen, dass mehr Daten, mehr Workloads und mehr Leistung pro investiertem Geldbetrag verarbeitet werden können – und das in Bezug auf die Parameter Arbeitsaufwand, Stellfläche, Energiebedarf und Technologie.

Eine innovative IT, so IBM Manager Marc Fischer in Hannover, verwandelt Informationen mit Hilfe neuer Technologien in intelligente Services, welche für die Erschließung neuer Umsatzmöglichkeiten und Geschäftsmodelle sorgen sollen.

Rechenzentren sind heute virtuell

Vor dem Aufkommen geografisch verteilter Systeme (Distributed Systems) wurde die gesamte IT, damals noch EDV genannt, durch eine Handvoll hochspezialisierter technischer Experten zentral (Mainframes) gemanagt. Doch in den letzten dreißig Jahren hat sich die IT demokratisiert: Einzelne Nutzer konnten immer freier über IT-Technologien verfügen, die immer einfacher anzuwenden waren. Das wiederum führte dazu, dass heute vielerorts jeder Anwender oder jede Abteilung über eigene IT-Ressourcen verfügen, um Anwendungen zu entwickeln, zu nutzen sowie Daten und Services zu verwalten.

Ein unkontrollierter Wildwuchs war die Folge. Das Ergebnis: Die IT wurde zu kostspielig – in der Anschaffung, Implementierung und Verwaltung. Nach vorne blickende IT-Entscheider setzen daher auf eine Strategie, bei der das Rechenzentrum der Zukunft kein realer, sondern ein virtueller Ort sein wird.

Rechenzentren werden so zu Systemen auf der Basis intelligenter Architekturen, mit denen sich die digitalen Ressourcen und Geschäftsprozesse eines Unternehmens integrieren und automatisieren lassen – von der Überwachung der Server, Speicher und PCs bis zur Verwaltung mobiler Endgeräte, Fahrzeugflotten und Sicherheitssysteme in Gebäuden. Alle großen Anbieter bemühen sich, diesen Trend zu bedienen.

IBM nannte als Beispiel für einen Kunden, der schon heute das Programm „Smarter Computing“ nutzt das „University of Pittsburgh Medical Center“ (UPMC). In den letzten fünf Jahren verdoppelte das Universitätsklinikum seine IT-Kapazitäten und hielt gleichzeitig die Kosten gering. Frei gewordene Flächen wurden für neue Krankenhausräume genutzt. Dank des neuen Ansatzes konnte das Center jetzt in die Entwicklung des „papierarmen Krankenhauses“ sowie in modernste Technik für „smarte Krankenzimmer“ investieren. Der Dokumentationsaufwand für die Krankenpflege wurde mehr als halbiert, die Qualität der Patientenpflege erhöht.

Der technologische Standpunkt von IBM

Heterogenität und Komplexität lassen sich nicht vermeiden. Die unterschiedlichen Datenquellen, Datenbanken und Laufzeitumgebungen sowie die Vielzahl von Servern, Betriebssystemen und Altanwendungen werden nicht einfach „über Nacht“ verschwinden.

Doch mit Hilfe eines Ansatzes wie „Smarter Computing“ könnten dieses Unternehmen ihre Daten und Systeme durch standardisierte Einsatzverfahren für jede Art von Workloads integrieren. Gleichzeitig verbinden und vereinheitlichen sie verteilte Systeme und sorgen für Konsistenz bei der Implementierung. Durch den Einsatz von Software, Algorithmen und Entscheidungskriterien lassen sich kritische Prozesse und Services automatisieren, um so manuelle Eingriffe zu minimieren.

Erschienen in ZDnet IT-Business

Scharfer Wettbewerb um Handys und Smartphones

Die Fachmesse Mobile World in Barcelona ist die Bühne, auf der in der zweiten Februarwoche die Anbieter von Handys und Smartphones ihre Klingen kreuzen. Es geht um einen vielversprechenden, lukrativen Markt, der sich in den vergangenen Jahren stark verändert hat.

Schon seit Tagen steht die neue Kooperation von Nokia und Microsoft, in Kommentaren auch „Nokiasoft“ genannt, im Rampenlicht der Mobilfunkszene. Nach Wochen von Gerüchten ist klar: Der finnische  Handyhersteller will seine Smartphones mit dem neuen Betriebssystem von Microsoft ausstatten. Das ist das letzte Aufgebot das angeschlagene Unternehmen aus Skandinavien, der vor seiner Handy-Dominanz als Hersteller von Papier, Reifen und Traktoren sowie als und
TV-Produzenten bekannt war.

Der „Noch Marktführer“ am Handymarkt hatte zu lange auf sein veraltetes eigenes Betriebssystem Symbian vertraut, das jedoch stark an Boden verloren hat. Hielt Nokia nach Angaben von Gartner 2009 noch einen Marktanteil von 36,4 Prozent, waren es 2010 nur noch 28,4 Prozent. Dabei kommt ein Großteil des Umsatzes macht aus dem einfachen, billigen Preissegment. Auf der Smartphone-Welle dagegen, die langsam auch die Schwellenländer erreicht surfen Apple und Google-Android mit Erfolg.

So kam das „Bündnis der verletzten Riesen“, wie in der Wirtschaftspresse zu lesen war, nicht überraschend. Beide Giganten haben beim Thema „Zukunft des Mobilfunkmarktes“ hohen Handlungsbedarf. Zusätzlich spielt auch die Personenfrage eine gewisse Rolle: Der neue aus Kanada kommende Nokia-Chef Stephen Elop arbeitete vorher bei Microsoft.

Doch unabhängig davon braucht Microsoft mit Nokia einen Partner der strategisch hohe Auflagen verspricht. Erst vor wenigen Monaten kippte das Redmonder Softwarehaus sein wenig erfolgreiches Handy-Betriebssystem Windows Mobile. Nun will Microsoft mit Windows Phone 7 punkten.

Elop muss Nokia völlig umbauen

Eines ist sicher: Elop muss und wird Nokia komplett umzukrempeln: „Mir ist klargeworden, dass wir auf einer brennenden Plattform stehen“, schrieb er in einem Brandbrief an die Mitarbeiter, „es hat mehr als eine Explosion gegeben“. Investoren und Branchenbeobachter zweifeln allerdings, ob der Kanadier dieses Feuer löschen
kann.

Dies sei ein klares Eingeständnis, dass Nokias eigene Plattform-Strategie gescheitert ist, war beim Wirtschaftsnachrichtendienst  Bloomberg zu Protokoll zu lesen. Nach deren Ansicht ist Microsoft ist der Gewinner in diesem Geschäft. Es gebe aber gegen die Stärke von Apples iPhone und Googles Android keine Patentlösung, mit der man sicher punkten könne.

Ein Google-Manager lästerte „Zwei Truthähne machen gemeinsam noch keinen Adler“. Ballmer und Elop konterten bei den jüngsten Ankündigungen angriffslustig. „Heute wird aus einem Kampf mobiler Geräte ein Kampf zwischen mobilen Ökosystemen. Unsere Stärken in diesem Bereich ergänzen sich“, hieß es in einem gemeinsamen Brief „Wir werden sie zerstören“!

Nokia setzte bei seinen Massen-Handys bisher vor allem auf das eigene Betriebssystem Symbian. Das  soll auch  weiter unterstützt werden. Auch die Arbeit an der neuen offenen Plattform MeeGo werde fortgesetzt.

Vor allem wollen die beiden Konzerne aber Windows Phone gemeinsam weiterentwickeln. So werde Nokia die Erfahrungen aus der Handy-Gestaltung und Unterstützung verschiedener Sprachen einbringen. Außerdem will Nokia Microsofts Suchmaschine Bing übernehmen. Im Gegenzug bringt Nokia seinen übernommenen  Karten-Dienst Navteq mit in  Microsoft-Boot.

HP will webOS gegen Apple und Google punkten

Doch auch HP will in diesem Wettbewerbsgerangel kräftig mitmischen. Der Computergigant aus Palo Alto  hat vergangene Woche  in San Francisco nicht nur einen großen Tablet-PC und ein kleines winziges Smartphone, sondern auch eine neue Strategie vorgestellt, die den PC-Markt verändern könnte. Die Ankündigung von Todd Bradley, Executive Vice President bei HP, das Betriebssystem webOS auch auf die Personal Computer Plattform zu portieren, sorgte für Erstaunen.

HP hat webOS mit der Übernahme von Palm vor einem Jahr für 1,2 Milliarden Dollar eingekauft. Eigentlich war die Software nur für Smartphones und nicht als Windows-Alternative gedacht. Doch das scheint sich nun geändert zu haben. Bisher gab es kaum Entwickler, die Apps für das neue System programmierten. Genau an diesem Manko könnten auch die neuen in San Francisco vorgestellten Geräte  scheitern fürchten viele Beobachter. Doch mit dem Schritt, das Palm-Betriebssystem auf PC zu übertragen, hat  HP eine Chance, das zu verhindern. Schließlich ist HP der größte
Computerhersteller der Welt. 63 Millionen Desktop-PC und Notebooks hat das
Unternehmen 2010 unter die Leute gebracht. Apple konnte im selben Zeitraum 13,7 Millionen Mac-Computer absetzen. Wenn HP sich nun anschickt, diese gewaltige Marktmacht auf webOS umzurüsten, bildete der Konzern damit auf einen Schlag einen riesigen Absatzmarkt für webOS-Entwickler.

Spekulationen über neues  Mini-iPhone

Bislang existiert das iPhone nur in einer Größe: Nun scheint  Apple  an einem
kleineren Formfaktor zu arbeiten.  Wie die Wirtschaftsnachrichtenagentur
Bloomberg meldete, soll es sich dabei um ein „kleineres und billigeres“ Gerät handeln. Sinn der Sache sei es, mit den kostengünstigen Android-Geräten konkurrieren und so den Marktanteil verbessern zu können.

Dabei war von einer Einführung eventuell Mitte des Jahres die Rede. Es  sei aber auch möglich, dass die Pläne verworfen würden. Tatsächlich geistert eine Art „iPhone nano“ schon seit mehreren Jahren durch die Gerüchteküche.

Erschienen in ZDnet IT-Business

Computerpionier Ken Olson gestorben

Am Sonntag den 6. Februar 2011 ist Ken Olson im Alter
von 84 Jahren gestorben. Der Sohn skandinavischer Einwanderer war in den frühen Jahren der Computerindustrie als Mitgründer von DEC eine der bedeutendsten Persönlichkeiten der Branche.

Der 1926 in Stratford, Connecticut, geborene Kenneth Harry „Ken“ Olsen war in der Gründerphase der US-amerikanischen Computerindustrie eine der bedeutesten Ingenieure seiner Zeit. Die von Olson 1957 zusammen mit  seinem Studienkollegen Harlan Anderson gegründete Firma Digital Equipment  Corporation (DEC), deren Präsident er bis zu seinem Ausstieg aus dem Konzern im  Jahre 1992 war, galt  in dieser Pionierphase neben der IBM als der wichtigste Anbieter von Computern, obwohl Olson diesen Ausdruck zu dieser Zeit vermied.

Computerpionier Ken Olsen - Gründer von DEC

Ken Olsen kam von der US-Marine und begann 1946 ein Studium am Massachusetts Institute of Technology (MIT) im Fach der Elektrotechnik, das  er  an dieser berühmten technischen Universität in Boston auch abschloss. Das Zentrum der Computerentwicklung lag damals an der Ostküste. Das kalifornische Silicon Valley gab es noch nicht.

DEC entwickelte in den ersten Jahren Module mit elektronischen Logik-Schaltkreisen, aus denen komplexe digitale Steuerungen aufgebaut werden konnten. Aus diesen Bauteilen entstanden ab 1961 anwendungsorientierte Minicomputer, zu denen im Jahr 1970 auch die legendäre PDP-11 gehörte, der erfolgreichste Minicomputer überhaupt.

Der erste eigene Rechner, die PDP-1,  war der Beginn der Entwicklung
einer großen Zahl sehr unterschiedlicher Computerfamilien, von denen vor allem
die PDP-11 und später die VAX (Virtual Address eXtension) unter dem Betriebssystem VMS (Virtual Memory System) im Markt sehr erfolgreich waren. Die
Erweiterung des adressierbaren Speichers war damals ein großes technisches
Thema.

Die Abkürzung PDP steht für „Programmed Data Processor“, was eigentlich nichts anderes als „Computer“ bedeutet. DEC vermied jedoch das Wort Computer, um sich von der großen Konkurrenz IBM zu unterscheiden. IBM baute Computer und DEC PDP Maschinen.

Den Durchbruch schaffte DEC  1964 mit der Produktion der  PDP-8, die für ca. 16.000 US-Dollar angeboten werden konnte. Wegen leichter Portabilität und eines verhältnismäßig einfachen  Aufbaus konnte dieser Rechner auch in kleineren Industriebetrieben eingesetzt werden. Er füllte so Marktlücken, die mit Großrechnern bis dahin  nicht erreichen konnten.

Historisch gesehen war die PDP-8 der erste Rechner, der auch von Privatpersonen gekauft und für spezielle Zwecke eingesetzt werden konnte. Mainframe-Rechner dagegen waren so groß und teuer waren, dass sie nur für mehrere Zwecke genutzt wurden. Die PDP-8 gilt heute als der  weltweit erste Kleinrechner überhaupt.

Diese Entwicklung führte dazu, dass DEC in den achtziger Jahren nach Umsatz hinter IBM weltweit der zweitgrößte Computerhersteller wurde. Die Computerserien von DEC waren zwar im Vergleich zu den Großrechnern der IBM weniger leistungsfähig, dafür aber auch wesentlich günstiger als Big Blues Mainframe-Computer.

Für diese Entwicklung wurde Olsen 1986 vom Fortune-Magazin zum erfolgreichsten Geschäftsmann der amerikanischen Geschichte gewählt. Leider wurde die Digital Equipment Corporation 1998 von Compaq übernommen und gehört seit 2002, einschließlich  Compaq, zu Hewlett-Packard.

Historisch in Erinnerung bleibt Olsens Aussage aus dem Jahre  1977: „Es gibt
keinen Grund dafür, dass jemand einen Computer zu Hause haben will“. Dieser
frühe Gedanke  wird immer wieder als Paradebeispiel dafür genannt, wie schwer man sich noch in der zweiten  Hälfte des 20. Jahrhunderts die Entwicklung der  Computertechnik vorstellen konnte. Tatsächlich nutzte der Pionier Olsen zu Hause selber einen Computer. Bei seiner Aussagen dachte er bei „Computer“  eher an eine Zentralrechner, der den Haushalt führen sollte. .

Es ist allerdings nicht zu bestreiten, das Ken Olsen wie auch in Deutschland Heinz Nixdorf sich die Entwicklung des Personal Computers nicht vorstellen konnten. Sie waren die Meister der sogenannten Mittleren Datentechnik. Dabei hatte DEC Anfang der 80er Jahre mit dem „Rainbow“ unter CP/M durchaus einen potentiellen PC im Portfolio.

Erschienen bei ZDnet IT-Business – in die Zitatliste von Wikipedia aufgenommen