19.1 IBM

19.1.2 Parallel Sysplex und Parallel Transaction Server

Parallel Sysplex ist eine nah gekoppelte Shared-Disk-Architektur, die 1994 von IBM für S/390-Umgebungen (MVS-Betriebssystem) eingeführt wurden. Sie verwendet als Knoten traditionelle IBM-S/390-Großrechner und stellt eine Erweiterung der bereits 1990 eingeführten Sysplex-Architektur (System Complex) dar. Die nahe Kopplung erfolgt über eine spezielle Coupling Facility, auf die alle Rechner mit eigenen Maschinenbefehlen synchron zugreifen und welche u.a. zur globalen Sperrverwaltung verwendet wird (s.u.). Parallel Transaction Server basiert auf der Parallel-Sysplex-Architektur, verwendet jedoch neuere S/390-CMOS-Mikroprozessoren, welche voll kompatibel zu den Großrechnern sind, jedoch eine weit bessere Kosteneffektivität ermöglichen[87].

Abb. 19-1: Aufbau des IBM Parallel Sysplex

Parallel Sysplex

Der Grobaufbau der Parallel-Sysplex-Architektur [Sy94] ist in Abb. 19-1 gezeigt. Sie umfaßt bis zu 32 S/390-Großrechner mit dem MVS-Betriebssystem, welche über Kanalverbindungen (channel to channel) gekoppelt sind. Dabei kann jeder Rechner ein Multiprozessor sein von derzeit mit bis zu 10 Prozessoren. Die Kommunikation erfolgt über Nachrichtenaustausch, wobei zur Reduzierung des Kommunikationsaufwandes spezielle MVS-Dienste (Cross-system Extended Services, XES) genutzt werden. Die Anbindung der Platten an die Verarbeitungsrechner geschieht über Glasfaserverbindungen im Rahmen der ESCON-E/A-Architektur [Gr92]. Der Sysplex ist durch zwei spezielle Hardware-Einheiten gekennzeichnet, den Sysplex Timer sowie die Coupling Facility, die mit allen Rechnern über Glasfaserleitungen verbunden sind. Der Sysplex Timer stellt allen Rechnern die aktuelle Uhrzeit zur Verfügung, womit u.a. die Log-Daten der Rechner gekennzeichnet werden, um ihr korrektes Mischen zu einem globalen Log zu ermöglichen (Kap. 13.3.4). Die Coupling Facility dient zur schnellen Realisierung Shared-Disk-spezifischer Kontrollaufgaben. Aus Fehlertoleranzgründen können von beiden Komponenten mehrere Exemplare konfiguriert werden. Mehrere Coupling Facilities dienen auch zur Umgehung von Engpässen, da sie im Normalbetrieb gleichberechtigt nutzbar sind.

Die Coupling Facility (CF) entspricht einem gemeinsamen Halbleiterspeicher, der nicht-flüchtig ausgelegt sein kann und der von speziellen Mikroprozessoren verwaltet wird. Die Glasfaserverbindungen zwischen CF und Verarbeitungsrechner (coupling links) sind weit leistungsfähiger als ESCON-Verbindungen, um einen synchronen Speicherzugriff zu gestatten. Dabei werden Distanzen von bis zu 3 km zugelassen. Intern besteht die CF aus drei Bereichen, welche für unterschiedliche Aufgaben genutzt werden:

Die CF-Zugriffe erfolgen durch MVS, das seinerseits eine Reihe höherer Dienste Subsystemen wie dem DBS oder TP-Monitoren zur Verfügung stellt. Dies macht diese Hardware-Einheit für zahlreiche Zwecke nutzbar und erleichtert die CF-Nutzung, wenngleich auf Kosten erhöhter Zugriffszeiten. Von den Datenbanksystemen wird der Parallel-Sysplex zunächst von IMS Data Sharing genutzt; DB2 Data Sharing soll ab 1995 folgen. In beiden Fällen erfolgen Sperrbehandlung und Kohärenzkontrolle über die CF. IMS basiert auf einem Force-Ansatz zur Propagierung von Änderungen, wobei geänderte Seiten zur Beschleunigung des Schreibvorganges in die CF geschrieben werden können. DB2 wird dagegen einen Noforce-basierten Ansatz verfolgen. Nähere Informationen zur Realisierung der Kohärenzkontrolle mit Hilfe der CF liegen zur Zeit nicht vor.

Zur dynamischen Lastbalancierung wird von den TP-Monitoren CICS und IMS TM künftig ein entsprechendes Transaktions-Routing unter Nutzung der CF unterstützt. Dabei erfolgt eine Zusammenarbeit mit einer neuen MVS-Komponente, dem Workload Manager (WLM), um aktuelle Auslastungsinformationen sowie globale Leistungsvorgaben bei der Lastverteilung zu berücksichtigen. Ein affinitätsbasiertes Routing wird nicht verfolgt, da mit der CF der Synchronisationsaufwand unabhängig vom Ausmaß rechnerspezifischer Lokalität gehalten werden kann (jedoch nicht der E/A-Aufwand). Die dynamische Lastbalancierung wird zunächst von CICS durch das neue Produkt CICSPlex/SM unterstützt; IMS TM soll ab 1996 folgen.

Parallel Transaction Server

Im Rahmen des S/390 Parallel Transaction Server können bis zu acht Rechnerknoten mit jeweils zwei bis sechs Mikroprozessoren eingesetzt werden. Die Shared-Disk-Unterstützung erfolgt wie für Parallel Sysplex über eine im Server-System integrierte Coupling Facility sowie einen (externen) Sysplex Timer. Das System kann als eigenständiger Server genutzt werden sowie als Knoten in einer Parallel-Sysplex-Konfiguration. In letzterem Fall wird somit der gemeinsame Einsatz von Großrechnern und Mikroprozessoren zur Transaktions- und DB-Verarbeitung möglich. Die DB-seitige Nutzung des Parallel Transaction Server erfolgt zunächst wiederum für IMS Data Sharing. Bei Verfügbarkeit von DB2 Data Sharing für den Parallel Sysplex ist es auch auf dem Parallel Transaction Server einsetzbar.


[87] Nach [IBM94] erfordern die in derzeitigen Großrechnern verwendeten ECL-Chips etwa 10-fach höhere Entwicklungskosten als für CMOS-Prozessoren, sind jedoch nur noch rund 2,5-mal schneller. Der Leistungsvorsprung nimmt zudem ständig ab, da für CMOS-Prozessoren höhere Leistungssteigerungen erzielt werden. Diese Prozessoren benötigen zudem keine Wasserkühlung bzw. Klimatisierung sowie erheblich weniger Stellfläche und Strom. Die Massenproduktion von CMOS-Chips verschafft zusätzliche Kostenvorteile. Aus diesen Gründen ist absehbar, daß künftig auch Großrechner komplett auf CMOS-Basis gefertigt werden.