Bankovní institut vysoká škola Praha

Katedra informačních technologií a elektronického obchodování

Moderní servery a technologie

Servery a superservery, moderní technologie a využití v praxi

Bakalářská práce

Autor: Jan Suchý

Informační technologie a management

Vedoucí práce: Ing. Vladimír Beneš

Praha Duben, 2007 Prohlášení:

Prohlašuji, ţe jsem bakalářskou práci zpracoval samostatně a s pouţitím uvedené literatury.

podpis autora

V Praze dne 14.4.2007 Jan Suchý

2 Anotace práce:

Obsahem této práce je popis moderní technologie v oblasti procesorového vývoje a jeho nasazení do provozu v oblasti superpočítačových systémů. Vědeckotechnický pokrok je dnes významně urychlován právě specializovanými prototypy superpočítačů určenými pro nejnáročnější úkoly v oblastech jako jsou genetika, jaderná fyzika, termodynamika, farmacie, geologie, meteorologie a mnoho dalších. Tato bakalářská práce se v krátkosti zmiňuje o prvopočátku vzniku mikroprocesoru, víceprocesorové architektury aţ po zajímavé projekty, jako jsou IBM DeepBlue, Deep Thunder nebo fenomenální IBM BlueGene/L, který je v současné době nejvýkonnějším superpočítačem na světě. Trend zvyšování výkonu a důraz na náklady související s provozováním IT, vedl zároveň k poţadavku na efektivnější vyuţívání IT systémů. Technologie virtualizaci a Autonomic Computingu se tak staly fenoménem dnešní doby.

3 Obsah

1 ÚVOD 6

2 PROCESORY 7

2.1 HISTORIE A VÝVOJ 7 2.2 NOVÉ TECHNOLOGIE 8 2.2.1 Silicon Germanium - SiGe (1989) 8 2.2.2 První měděný procesor (1997) 8 2.2.3 Silicon on Insulator - SOI (1998) 9 2.2.4 Low-K dielektrikum (2000) 9 2.2.5 Strained silicon (2001) 9 2.2.6 DualCore procesor – POWER4 (2001) 10 2.2.7 IBM 10 2.2.8 IBM POWER6 – blízká budoucnost 11 2.2.9 Použití v praxi 12 2.3 TRENDY VE VÝVOJI 14 2.3.1 Více jader 14 2.3.2 Více vláken (multi threads) 15 2.3.3 Vyšší frekvence 15 2.3.4 Technologie výroby 15 2.3.5 Extrémní testy a vize 16

3 ARCHITEKTURA SERVERŮ 17

3.1 VÝVOJ ARCHITEKTURY 17 3.1.1 Uniprocesor - architektura s jedním procesorem 17 3.1.2 Víceprocesorové systémy SMP 18 3.1.3 Architektura SMP pro RISC procesory 20 3.1.4 Masivně paralelní architektura 21 3.2 POUŽITÉ KONCEPTY A MODERNÍ SMP ARCHITEKTURA 22 3.2.1 IBM MCM architektura 22 3.2.2 HP/SUN „Building block“ architektura se sběrnicí 24

4 KOMERČNÍ SERVERY 26

4.1 PROCESOROVÝ DESIGN 26 4.2 ARCHITEKTURA SERVERU 27 4.3 LOGICKÉ – FYZICKÉ/LOGICKÉ DĚLENÍ - VIRTUALIZACE 27 4.4 DOSTUPNOST 28 4.5 SPOLEHLIVOST 29

5 SVĚT SUPERSERVERŮ 30

4 5.1 VÍCE SERVEROVÉ SYSTÉMY 30 5.1.1 Serverové clustery 30 5.1.2 GRID systémy 31 5.2 NEJZNÁMĚJŠÍ HPC A GRID PROJEKTY 31 5.2.1 DeepBlue – šachový velmistr 31 5.2.2 ASCI Purple – rychlý jako lidský mozek 32 5.2.3 Deep Thunder – systém pro předpověď počasí 35 5.2.4 BlueGene/L – nejvýkonnější na světě 38 5.2.5 WCG - 40 5.2.6 Trendy v HPC 42

6 VIRTUALIZACE VÝKONU 43

6.1 MOŽNOSTI HARDWARE 43 6.2 MOŽNOSTI SOFTWARE 44

7 AUTONOMIC COMPUTING 46

7.1 ÚVODNÍ PRINCIPY 46 7.1.1 Self-configuring 47 7.1.2 Self-healing 47 7.1.3 Self-optimizing 47 7.1.4 Self-protecting 47 7.1.5 Ambiciózní model – lidské tělo 48 7.2 BLOKOVÁ ARCHITEKTURA – PROCESNÍ KRUH 48 7.2.1 Používané procesy v praxi 48 7.2.2 Celková funkce 49

8 ZÁVĚR 51

9 SEZNAM POUŽITÉ LITERATURY 53

9.1 KNIHY 53 9.2 INTERNETOVÉ ODKAZY 53

10 SEZNAM OBRÁZKŮ A TABULEK 55

5 1 Úvod

Dnešní generace obyvatel vyspělých zemí akceptuje pokrok v mnoha odvětvích a se zájmem sleduje novinky v oblastech které je zajímají. Díky novým technologiím a objevům se lidstvo posouvá ve vývoji stále rychleji kupředu, pokořuje nové cíle a dosahuje na místa o kterých dříve snilo jen v nejodváţnějších představách. Jiţ jsme si pomalu zvykli na nové fantastické zprávy o tom, co kde který počítač nebo spojení více počítačů dokáţí vypočítat nebo navrhnout, ale málokdo má představu o tom, co je potřeba za úsilí pro dosaţení takového výsledku. Ve světě běţných počítačů je primární výzkum především orientován na výrobu základních stavebních částí. Nejde tedy pouze jen o procesory, které jsou srdcem všech počítačů, ale také o další podpůrné obvody jako jsou rychlé paměti, které musí drţet krok s výkonností procesoru a sběrnice, jeţ musí přesunout stále více dat pro zpracování poţadovaných operací. Při konstrukci superserverů nebo podobných zařízení vyznačujícími se výjimečností svého technického řešení se konstruktéři často potýkají s limity standardně dostupných technologií. Proto opouštějí tyto standardně pouţívané technologie a spolupracují s vývojovými týmy, které dokáţí vyvinout unikátní supertechnologie. Ty pak slouţí pouze pro jednotlivé konkrétní účely nebo speciální úlohy, zejména pak při sloţitých výpočtech a náročném 3D modelování nebo přímo při vizualizaci. Přední světové týmy v oblasti výzkumu by dnes stěţí mohly produkovat tolik objevů v nejrůznějších oblastech pokud by neměly velmi rychlou odezvu od systémů poskytujících zpracovávání jejich úloh. Čas, který je tím nejdůleţitějším parametrem například pro úspěch ve vývoji očkovací vakcíny proti zhoubné chorobě suţující dnešní generaci lidstva je zároveň akcelerátorem, který pohání vývoj nových informačních technologií a jejich efektivnější vyuţívaní. Lidstvo takto samo produkuje další technologie pro zvýšení kvality vlastního ţivota. Moderní superservery jsou nedílnou součástí našeho ţivota a díky výsledkům jejich práce si dokáţeme výrazně usnadnit ţivot. Jedná se o velmi sofistikované systémy, které jiţ dnes oplývají schopnostmi samostatné změny konfigurace a moţnostmi, jak překlenout stav vyvolaný neočekávanou chybou bez zásahu obsluhy. Dokáţí efektivně vyuţívat svoji výkonnost pro přidělené úlohy, nebo virtuálně sdílet přidělené hardware zdroje jako jsou procesory, paměť a komunikační zařízení mezi více úlohami najednou.

6 2 Procesory

V současné době jsme svědky neustálého boje mezi výrobci procesorů o prvenství na trhu. Hlavními konkurenty vyrábějící procesory pro serverové systémy jsou Intel, AMD, IBM, Motorola a SUN Microsystems. Široké veřejnosti jsou známé především firmy Intel a AMD, které produkují procesory pro osobní počítače coţ by mohlo na první pohled znamenat, ţe jsou to nejdůleţitější firmy na trhu s procesory. Co do počtu prodaných procesorů je to zcela jistě pravda, ale nás zajímá vyspělost technologie a její uvádění na trh. Kdo určuje trend a určuje cestu dalšího vývoje. Zda je frekvence tím nejdůleţitějším parametrem pro výkonnost a jaké můţeme čekat další vylepšení při vývoji příštích generací chipů.

2.1 Historie a vývoj

V krátkosti se podívejme do historie procesorů. V podstatě moderní věk počítačů můţeme datovat do doby maximálně 10 – 12 let zpět ačkoliv první Intel 4004 byl uveden na trh v roce 1971 a první RISC1 procesor byt vyroben v roce 1980. Co tedy bylo aktuální v roce 1993 - 1994 a co budilo zájem veřejnosti? V krátkosti se podíváme na hlavní hráče počítačového průmyslu jako jsou firmy IBM, HP, Digital, Silicon Graphics - SGI, Tandem a SUN Microsystems. Frekvence procesorů se pohybuje na taktu okolo 100 MHz. IBM uvádí na trh první server s procesory POWER2 a první paralelní systém, který odstartoval hvězdnou dráhu procesorů POWER. V této době ale patřil spíše k outsiderům v poli procesorů. Dominantu tvořil tandem SGI a Digital. Byly to dvě hlavní firmy, které se utkávaly na poli serverů a superserverů. Procesory MIPS dominovaly všem aplikacím, kde se vyţadoval vysoký výpočetní výkon a SGI se stala firmou číslo jedna pro vědecko-technické aplikace a náročné výpočty v oblasti renderování video streamů2. Oproti tomu procesor Alpha od firmy Digital lámal rekordy v transakčním zpracování. Pro databázové prostředí byl tento procesor nepřekonatelný. Firmy, které hledaly silný stroj pro své rostoucí databáze pořizovaly Alpha servery. Jejich výkon přesahoval hranici 10 000 tpmC (transakcí za minutu). Ironií osudu je to, ţe obě tyto firmy jsou dnes jiţ minulostí. Společnost Digital

1 Reduced Instruction Set Computer – Počítač s redukovanou instrukční sadou 2 Vytváření video sekvence pro filmové zpracování. Více informací na adrese nejznámější společnosti spolupracující s filmovým průmyslem - Industrial Light and Magic - http://www.ilm.com/

7 byla koupena společností Compaq, která později fúzovala s HP a pro Alphu najednou nebylo místo. SGI se dnes potýká s finančními problémy a v USA před nedávnem ţádala o ochranu před věřiteli. Kdo tedy bude dále investovat do dalšího vývoje? Vlivem konkurenčního boje na trhu zůstali pouze tři výrobci o kterých má smysl dále hovořit. Jsou to Intel, AMD a IBM.

2.2 Nové technologie

Jednoznačně technologicky nejzajímavější se jeví produkty společnosti IBM. Je to dáno mnoţstvím vývojových laboratoří po celém světě a počtu uveřejněných patentů. Společnost IBM ročně patentuje okolo 3 500 patentů a to nejen ze sféry výpočetní techniky. Pojďme se podívat jaké významné objevy posunuly lidstvo dopředu.

2.2.1 Silicon Germanium - SiGe (1989)

Ve výrobní technologii SiGe jsou elektrické vlastnosti křemíku, který je základem prakticky všech moderních mikro chipů, doplněny germaniem, aby chipy fungovaly efektivněji. Technologie SiGe zvyšuje výkon a sniţuje spotřebu energie chipů, které se pouţívají v mobilních telefonech a dalších špičkových komunikačních zařízeních. Obrázek 1: Chip IBM svou technologii SiGe poprvé uvedlo v roce 1989 a v pouţívající SiGe říjnu 1998 uvedlo první standardní, masově vyráběné chipy technologii SiGe. Od té doby se vyrobily stovky miliónů chipů s technologií SiGe. Velice rychlé SiGe obvody se mohou uplatnit v komerčních komunikačních systémech, vojenské elektronice, ve výzkumu vesmíru a ve vzdáleně nasazených senzorech. Předpokládané limity této technologie jsou aţ ve stovkách GHz, coţ je se znalostí frekvencí dnešních procesorů téměř neuvěřitelné. Dosaţením takto extrémních rychlostí s technologií SiGe, kterou lze vyrábět pomocí konvenčních levných metod, jsou vytvořeny výborné podmínky pro masově nasazované aplikace.

2.2.2 První měděný procesor (1997)

Poprvé v historii se roku 1997 podařilo téměř po 30 letech výzkumu vyrobit procesor, který pouţíval měděné spoje Obrázek 2: Chip s měděnými spoji

8 namísto standardních hliníkových spojů. IBM uvedla na trh procesor POWER3 vyrobený touto technologií. Díky elektrickým a tepelným vlastnostem mědi se procesory začaly radikálně zmenšovat. Zredukovalo se ztrátové teplo ačkoliv se rapidně zvyšovala frekvence. Výhodnost měděné technologie byla zřejmá a proto další výrobci procesorů projevili zájem o výrobu svých procesorů touto technologií. Byly to firmy HP s procesorem PA-RISC 8800 a Compaq (Digital) s procesorem Alpha.

2.2.3 Silicon on Insulator - SOI (1998)

Poprvé v roce 1998 se objevily první studie v laboratořích IBM s komentářem o právě probíhající studii SOI, jako nové potenciální technologie pro polovodičové prvky. Uvedený obrázek číslo 3 znázorňuje aktivní elektrony 0,18 µm SOI SiO SOI nMOSFET prvku. Oproti konvenční CMOS technologii je 2 výkonnost o cca 25 – 30 % vyšší. Obrázek 3: Příklad pouţití SOI technologie O rok později v roce 1999 se na trhu objevil zcela nový procesor s technologií SOI. Byl to procesor IBM RS64-IV, který přinesl průlom v procesovém designu moderních procesorů a nebývale vysoký výkon serverů IBM RS/6000, později IBM pSeries, které byly tímto procesorem osazeny.

2.2.4 Low-K dielektrikum (2000)

Zdokonalení výroby chipů, které navýšilo o 30 % výpočetní rychlost a výkon. Technologie „Low-K dielektrikum“ se pouţívá k zaštítění miliónů měděných obvodů na chipu, redukuje elektrické přeslechy a rušení mezi vodiči coţ umoţňuje vyšší miniaturizaci a úsporu Obrázek 4: Schéma pouţití napájení. nového dielektrika Low-K 2.2.5 Strained silicon (2001)

Technologie Strained silicon umoţňovala další navýšení frekvence chipů aţ o 35 %. Materiál, který se pouţívá v srdci procesorů dokáţe zrychlit tok Obrázek 5: Pouţití technologie Stained elektronů tranzistorem, zvýšit výkon a redukovat Silicon při návrhu chipu spotřebu energie polovodičů.

9 2.2.6 DualCore procesor – POWER4 (2001)

Další mezník v historii vývoje procesorů představovala technologie dvou jader na jednom chipu. IBM uvedla na trh první procesor, který měl více neţ jedno jádro. Procesor POWER4 obsahoval na jednom chipu dvě jádra a sdílenou vyrovnávací paměť L2 cache a řadič L3 cache. Další zajímavostí Obrázek 6: Dvoujádrových procesor IBM byla přítomnost „Distributed switch“ přímo na POWER4 chipu. Jedná se o mezi chipovou komunikační vrstvu, která umoţňuje kaţdému jádru komunikovat přímo s L2 cache pamětí okolních chipů bez nutnosti pouţívat podpůrně obvody – chipset, jako je tomu u jiných IBM procesorů a ostatních konkurenčních. IBM uvedla ve stejný okamţik i Multi Chip Modul - MCM modul, kterým byl osazen server pSeries 690 s kódovým označením Regatta. MCM modul byl vyroben jako čtveřice dualcore procesorů. Jeden MCM modul obsahoval 8 jader procesorů POWER4. Procesor byl vyroben 0,18 mikronovou technologií. Po roce byl uveden novější procesor POWER4+ s litografií 0,13 mikronů a vyšším taktem.

2.2.7 IBM CELL

Procesor Cell Broadband Engine, který je mimo jiné součástí nejnovější verze herní konzole Sony Playstation 3, byl vyvinut společnostmi IBM, Toshiba a Sony. Procesor je zaloţen na průlomové architektuře s osmi paralelně pracujícími procesorovými jádry a jádrem PowerPC. Tato architektura pro mnoho výpočetně náročných aplikacích poskytuje mimořádnou úroveň výkonu s taktovací frekvencí aţ 4 GHz. Pro představu o výkonu procesoru Cell uvádím výkonové porovnání. Procesor Cell dokáţe ze sebe vydat při 3,2 GHz výpočetní výkon aţ 218 Gflops3, po přetaktování na 4 GHz aţ 256 Gflops! Naproti tomu dnešní komerčně pouţívané procesory Intel Itanium 2 na 1,6 GHz s 9 MB L2 cache mají špičkový výkon 24,2 Gflops, Pentium 4 na 3 GHz pouze 12 Gflops, první modely AMD Opteron měly 11,264 Gflops.

3 Floating point Operations Per Sekond – počet operací s plovoucí čárkou za sekundu

10 V současné době se procesory Cell jiţ osazují do standardních Blade4 serverů od IBM a tak je moţné vyuţívat tento fantastický procesor v praxi.

2.2.8 IBM POWER6 – blízká budoucnost

POWER6 procesor je navrţen tak, aby pracoval s frekvencí 4 - 5 GHz. Jeho interní architektura je vyrobena technologií 65 nm SOI celkem v 10ti kovových vrstvách. Při porovnání s architekturou 90 nm získá 30 % navýšení výkonu s niţší spotřebou. Výroba polovodiče bude pouţívat dual stress5 technologii. Stejně jako předchozí dvě generace procesorů, POWER6 se soustředí na velké systémy, kde architektura systému má zásadní vliv na výkon. Kaţdý chip je implementován jako dvoujádrový tedy integrující dvě SMT6 jádra s vlastní L2 cache vyrovnávací pamětí. Toto je rozdílné oproti návrhu předchozích procesorů, kde obě jádra sdílely L2 cache paměť viz obrázek 7. Z obrázku je dále patrné fantastické navýšení průchodnosti k maximálnímu vytíţení procesoru. Při taktu jader okolo 5 GHz dosahuje kaţdý dvoujádrový chip průchodnost 300 GB/s. Zhruba 80 GB/s z L3 cache vyrovnávací paměti, dále 75 GB/s přímo z RAM paměti, 80 GB/s z interní MCM sběrnice, dalších 50 GB/s ze vzdálených procesorů na vedlejších MCM modulech a nakonec 20 GB/s z lokálního vstupně/výstupního subsystému. Obecně řešeno POWER6 zdvojuje průchodnost POWER5+ systémů vlivem frekvence a dalších přidaných rozhraní.

Obrázek 7: Porovnání architektury procesoru POWER5+ a nového procesoru POWER6

Ostatní mim jádrové operace v POWER6 designu běţí na poloviční frekvenci oproti jádrům, tedy 2 – 2,5 GHz oproti 0,8 – 1,15 GHz u procesorů POWER5+. POWER6 procesor také hostuje další paměťový řadič a rozhraní pro mezi chipovou komunikaci a dále zvyšuje frekvenci pro vstupně/výstupní zařízení z ⅓ na ½ frekvenci jádra!

4 Blade – ţiletka – konstrukce serveru s minimálními fyzickými rozměry a velkou hustotou osazení 5 jedná se o vylepšenou formu polovodiče IBM Strained Silicon s litografií 65 nm 6 Simultanous Multi Threading – schopnost zpracovávat více vláken jedním procesorovým jádrem

11 Kaţdý řadič paměti je připojen do paměti prostřednictvím třetí generace IBM synchronního paměťového rozhraní. Systémová architektura POWER6 je zcela přestavěna do nového designu a je více vzdálená elegantnímu návrhu svých předchůdců. Pro velké systémy pouţíval procesor POWER5 pár jednosměrných okruhů pro interní MCM komunikaci zatímco externí MCM komunikace je směrována kolem 2D sítě. Jak ukazuje následující obrázek 8, POWER6 pouţívá dvouvrstvou architekturu a nový protokol k propojení. Kaţdý MCM modul tvoří jednu „buňku“ a aţ 8 buněk je organizováno do plně propojené sítě. Tato Obrázek 8: Porovnání POWER5+ a POWER6 nová síťová architektura má niţší systémové architektury a konsistentnější zpoţdění.

2.2.9 Použití v praxi

Mnoho technologií, které spatřily světlo světa jsou dnes jiţ běţně pouţívané ve všech zařízeních, které pouţíváme. Například díky technologii SiGe je dnešní mobilní telefon opravdu mobilní, na rozdíl od doby, kdy mobilní telefon byl ve velikosti menšího kufříku a váţil i několik kg. Následující obrázek 9 ukazuje technologické úrovně vyráběných polovodičů.

12 Klíčové specifikace SA-27E Cu-11 Cu-08 Cu-65LP Cu-65HP

výrobní generace (nm): 180 130 90 65 65

CMOS technologie : 7SF 8SF 9SF 10LP 10SF

VDD (V): 1.5 1.2/1.5 1.0/1.2 1.2 1.0

Spoždění hradla (ps) 23 15.2-19.1 6.9-15.6 8.0-16.2 6.05-9.95

Výkonová ztráta (µW/MHz/hradlo) 0.02 0.009 0.006 0.005 0.0045

Tranzistorová propustnost Isoff (nA/µm) 0.08 0.0-4.5 0.3-60 0.01-7 0.5-50

Hrubá hustota (Khradel/mm2) 88 175 310 615 615

Celkový počet úrpvní kovu 5-6 6 6-7 6-7 8-9

Tenkostěné dialektrikum SiO2 FSG/USG Low-k Low-k Low-k

Obrázek 9: Klíčové specifikace dnes pouţívaných technologií pro výrobu nejmodernějších chipů Pro představu o nasazení jednotlivých technologií, uvádím nejčastěji pouţívané odvětví nebo konkrétní produktové řady:

SA-27E & Cu-11 o Mobilní výpočetní technika, komunikace DSLAM7 – umoţňuje telefonním linkám rychlejší přístup do internetu o Adaptery pro přístup k diskovým subsystémům, kontroléry pro disková pole s RAID8 funkcionalitou a síťové diskové zařízení NAS9 o Digitální TV

Cu-11 o Domácí sítě, mobilní telefony o Disková pole SAN10 – střední a vyšší třída diskových polí pouţívaných pro komerční účely o Servery střední třídy – servery, které disponují do 16ti procesorů o Sítě LAN11 – standardní Ethernet sítě pro komunikaci počítačů v organizacích

7 Digital Subscriber Line Access Multiplexer – digitální zařízení pro přístup k lince (telefonní) 8 Redundant array of inexpensive drives (disks) – redundantní pole levných disků 9 Network attached storage – diskové pole přístupné v síti LAN 10 Storage Area Network – sítová architektury pro disková a pásková zařízení

13 o Chipset12 pro tiskárny, telefony s vestavěnou kamerou/fotoaparátem, digitální video kamery formátu DV

Cu-08 o Servery nejvyšší kategorie (HighEnd) – hovoříme o serverech s více jak 16 procesory rozšířitelné do 64, 128, nebo i více procesorů, podle výrobce. Výkonné pracovní a komunikační stanice o Aktivní prvky pro WAN13 sítě a komunikace o Chipset pro tiskárny, DVD recordery, Digitální TV

Cu-65LP o digitální video kamery formátu DV, mobilní telefony s vestavěnou kamerou/fotoaparátem o Mobilní infrastruktura pro komunikaci

Cu-65HP o Digitální TV, digitální video recordery, digitální video DVD přehrávače o Tiskárny, herní konsoli o Síťové infrastrukturní prvky routry, switche, mobilní infrastruktura o Optické sítové komponenty a vybavení

2.3 Trendy ve vývoji

2.3.1 Více jader

Po vzoru IBM v podstatě všichni významní výrobci začali uvádět na trh procesory s více jádry. Trendem se tedy stalo jednoznačně zvyšování počtu fyzických procesorových jader na jednom socketu14. Dále existují procesory od firem Intel, AMD a SUN Microsystems, které mají dvě nebo více jader, která spolu komunikují. Rozdíl tvoří propustnost mezi vlastními více jádrovými procesory navzájem. Většina firem si dokázala navrhnout a vyrobit více jádrový procesor, nicméně stále se drţí starého zaběhnutého systému propojení

11 Local Area Network – lokální síť pro komunikaci prostřednictvím infrastruktury 12 Chipset je skupina obvodů navrţených tak, aby pracovaly společně jako jeden celek 13 Wide Area Network – komunikační síť propojující centra po celém světě na větší vzdálenosti 14 Patice do které se instaluje procesor na procesorové kartě

14 procesorů pomocí procesorových karet. Není zde efektivní komunikace mezi procesory navzájem coţ se projevuje neefektivním zvyšování výkonu u více procesorových serverů. Veškeré servery s více jak 8mi jádry přestávají lineárně navyšovat celkovou výkonnost.

2.3.2 Více vláken (multi threads)

V roce 2005 uvedla IBM zcela nový procesor s označením POWER5. Tento procesor se od předchozí POWER4 generace lišil přidaným řadičem RAM pamětí, ale zejména schopností SMT (Simultanous Multi Threading) coţ umoţňuje zpracovávat dvě nezávislá vlákna s jakýmkoliv instrukčním obsahem. Přínos této technologie umoţňuje získat v průměru dalších 30 % výkonnosti navíc na stejném systému. Existuje i technologie Hyper Threading vyvinutá společností Intel, která je schopna rovněţ navyšovat výkonnost systému za předpokladu, ţe nebude zpracovávat stejné instrukce. Zatímco u IBM technologie SMT tento fakt nehraje roli a vypořádá se stejně s jakýmkoliv typem instrukce.

2.3.3 Vyšší frekvence

Frekvence je jednoznačným fenoménem. Dnešní procesory dosahují frekvence jednotek GHz a trend je nadále zvyšovat frekvenci nejen jádra ale i ostatních obvodů. Ačkoliv je frekvence procesorového jádra několik GHz, operační paměť RAM pracuje s taktem ve stovkách MHz. Další navyšování frekvence je závislé na technologii výroby a nových materiálech, které budou schopny pracovat na vysoké frekvenci s minimálním tepelnou ztrátou a spotřebou energie. V současné době tedy v roce 2007 se spekuluje o magické hranici vyšší neţ 4 GHz. IBM uvede procesor POWER6, který bude opět výkladní skříní posledních technologií a mnozí odborníci mu dávají velké ambice na pokoření hranice 6 GHz. První procesory v polovině toho roku budou mít podle IBM frekvenci 3,8 GHz pro nejmenší servery. U střední a vyšší třídy můţeme očekávat frekvenci lehce přesahující 4 GHz.

2.3.4 Technologie výroby

Nejnovější technologie výroby tranzistoru, který je aţ 10x menší neţ nejvyspělejší běţně pouţívané tranzistory, umoţní další miniaturizaci chipů a mikroprocesorů.

15 Technologie o kterých se dnes hovoří v laboratorních podmínkách a které se jiţ v brzké době budou pouţívat v komerčním prostředí mají mnohdy litografii pod 45 nm, tedy poloviční neţ dnešní procesory.

2.3.5 Extrémní testy a vize

Společnosti IBM a Georgia Institute of Technology15 oznámily, ţe jejich vědci demonstrovali první křemíkový chip, který je schopen pracovat s frekvencemi vyššími neţ 500 GHz, tedy 500 miliard cyklů za sekundu. Dosáhli toho kryogenickým „zmraţením“ chipu na teplotu -268,33 °C. Takové extrémně nízké teploty se v přírodě vyskytují pouze ve vesmíru, a na Zemi je lze uměle vytvořit pomocí nesmírně účinných chladicích materiálů, jako je tekuté hélium. (Absolutní nula, nejniţší teplota moţná v přírodě, nastává při -273,15 °C.) Pro srovnání, frekvence 500 GHz je 250 krát vyšší neţ rychlost současných mobilních telefonů, jejichţ procesory obvykle pracují rychlostí zhruba 2 GHz. Z počítačových simulací vyplývá, ţe technologie SiGe pouţitá v tomto chipu by mohla zvládnout ještě vyšší provozní frekvence (blíţící se jednomu THz, tj. 1000 GHz) i při pokojových teplotách! Experimenty, uskutečňované společně vědci IBM a institutu Georgia Tech, jsou součástí projektu, jehoţ cílem je prozkoumat extrémní rychlostní meze zařízení SiGe. Tato zařízení pak při velmi nízkých teplotách pracují rychleji. Chipy pouţité při výzkumu jsou prototypy technologie SiGe čtvrté generace vyráběné společností IBM na 200 milimetrových plátech a při pokojové teplotě pracují rychlostí přibliţně 350 GHz.

15 http://www.gatech.edu

16 3 Architektura serverů

Vývoj architektury serverů je svázán se samotným vývojem procesorů a jejich architektury. Následující kapitola zobrazuje vývoj, kterým se ubíral návrh architektury k dosaţení nejvyšší moţné výkonnosti a zároveň dostupnosti systému.

3.1 Vývoj architektury

3.1.1 Uniprocesor - architektura s jedním procesorem

Dnes nejrozšířenější architektura počítačů je obsaţena v kaţdém osobním počítači nebo notebooku, který pouţíváme na denní bázi. Zde není tolik potřeba řešit vzájemnou spolupráci více procesorů a tudíţ je důraz kladen na rozdělení úloh a jejich zpracování na jiné části hardware jako je tomu u grafických akcelerovaných karet s vlastním procesorem pro grafické operace.

Obrázek 10: Architektura uniprocesorového systému Jedno procesorové servery mají rovněţ stejnou architekturu, jak je zobrazeno na následujícím obrázku 10. Obrázek znázorňuje klasický jednoprocesorový sběrnicový systém, kde nejdůleţitější částí přímo ovlivňující celkový výkon je procesor vyrovnávací pamětí cache a přímou vazbou na operační paměť RAM prostřednictvím řadiče paměti.

17 Hlavním komponentami jsou:

Procesor – jehoţ frekvence a schopnost paralelního zpracování přímo ovlivňuje výkonnost celého systému.

Řadič paměti – kontroluje přístup do paměti ze všech zařízení, které mají schopnost přímého přístupu (procesor a vstupně/výstupní zařízení – adaptery s DMA16 schopností)

Paměť RAM – operační frekvence a velikost rovněţ technologie pouţitá pro výrobu ovlivňují výrazně výkon

Rozhraní pro komunikaci – RIO17 přenosová kapacita – šířka přenosového pásma a frekvence na které pracuje se výrazně podílí na průchodnosti dat v systému.

3.1.2 Víceprocesorové systémy SMP

Vzhledem k vyšším poţadavkům na výkon především u serverů, bylo nutné vyvinout systémy, které by dosahovaly daleko vyšší výkon neţ poskytoval jeden procesor a s ní spojená uniprocesorová architektura. Začínala se vytvářet první víceprocesorová architektura, která pouţívala více neţ jeden procesor. Hovoříme o multiprocesingu. Z počátku existovaly dvě architektury multiprocesingu. Symetrická a asymetrická, která pouţívala první procesor pro jádro operačního systému a ostatní procesory pro aplikace a další procesy jádra, které bylo moţné přesunout na jiné procesory sytému. Toto omezení bylo dáno především návrhem operačního systému. Následný vývoj tedy vyţadoval i zásah do návrhu operačního systému. Asymetrický multiprocesing byl rychle nahrazen systémy se zcela symetrickým multiprocesingem. První architektury vycházely ryze z předchozí uniprocesorvé architektury. Rozdíl byl pouze v tom, ţe procesorovou kartu s jedním procesorem nahradila jiná s více procesory. Typicky se začaly objevovat servery se dvěmi nebo čtyřmi procesory. Komunikace všech procesorů byla zajištěna pomocí chipsetu. Tato sada podpůrných obvodů zajišťovala co nejoptimálnější fungování. Podobně jako vlastní procesory se vyvíjel zcela v závislosti na nich i chipset. Bez něho nebylo moţné ideálně vyuţívat

16 Direct Memory Access – přímý přístup do pamětí – výrazně zvyšuje výkonnost architektury, protoţe šetří čas procesoru pro své fungování a pracují samostatně 17 Remote input/output - vstupně/výstupní zařízení pro externí komunikaci

18 všech nových vlastností nové generace procesorů. Dalším důvodem proč vyvíjet nové a nové chipsety byl fakt, ţe od počátku byl právě chipset problémový bod všech architektur. Na jeho funkci záleţela celková výkonnost serverů. Pokud se podíváme na výkonnostní přírůstky vlivem přidaných procesorů zjistíme ţe dvakrát tolik procesorů nepřinášelo dvakrát tolik výkonu. K lineární křivce se přibliţují jen některé servery i dnes, a to pokrok ve vývoji udělal obrovský krok kupředu. Stejně jako u jiných komunikačních (LAN a SAN) architektur došlo postupem času k vývoji, tak i procesorová komunikační architektura začala jednotlivé poţadavky vyměňovaly prostřednictvím vysokorychlostního switche18, jak je vidět na obrázku 11. Poţadovaná komunikace je propojena napřímo mezi jednotlivými funkčními celky, které spolu potřebují komunikovat. Na rozdíl od klasické sběrnicové architektury kde komunikují jen dva subjekty v jeden čas, zavedením přepínané architektury se dosáhlo poměrně velkého skoku ve výkonu vlivem současné komunikace více zařízení najednou. Server dokázal paralelně zpracovávat daleko více úloh.

Obrázek 11: Architektura systému symetrického multiprocesingu s přepínanou architekturou Vývojem víceprocesorové architektury se nezávisle na sobě podílela většina IT firem. Postupem času se eliminoval počet moţných architektur a výrobci počítačů začaly pouţívat standardní desky navrţené výrobcem procesorů. Tak zanikly vlastní návrhy architektur společnosti HP i Compaq (Triplex PCI), které opustily vlastní vývoj a postupem času začaly instalovat desky vytvořené společností Intel s nepatrnou

18 Switch – přepínač nejprůchodnější dosud známá architektura v komunikaci

19 obměnou nebo doplněním některých specifických častí jako je vzdálený management. V současné době je jediný výrobce, který pouţívá pro Intel x86 procesory jinou architekturu neţ Intel a tím je IBM s architekturou EXA19 nebo-li „X-Architecture“. EXA architektury z dílny IBM IA32e IA32e IA32e IA32e vychází od návrhářů pro nejvyšší Proc Proc Proc Proc systémy IBM – pSeries a zSeries. PCI-X 2.0 Náhrada klasického chipsetu I/O Exp chipsetem EXA posunula IBM Scalability Calgary Ports Scalability, servery s procesory Intel Xeon do Up to 32-way I/O, Mem jiného segmentu. Propustnost EXA I/O Exp chipsetu je prověřena generacemi Calgary super výkonných serverů s RISC SMI SMI SMI SMI PCI-X 2.0 II II II II procesory. Výsledkem je poměrně výrazné navýšení výkonu Up to 16DIMMS DDR2 u víceprocesorových systémů, kde je Programmable Virtual L4 cache problém s lineárním navyšováním Obrázek 12: EXA architektura IBM pro xSeries servery výkonu. Dalším přínosem je s procesory Intel moţnost zkonstruovat server s velkým počtem levných procesorů a získat tak celkem zajímavý server konkurenceschopný k serverům s RISC procesory. Společnost IBM je schopna uvádět na trh levnější výkonné servery oproti jiným výrobcům, kteří buďto nemají v produktovém portfoliu srovnatelné víceprocesorové systémy nebo je jejich zaměření je spojené s Intel Itanium procesory.

3.1.3 Architektura SMP pro RISC procesory

Architekturu pro RISC procesory si vţdy vyvíjel výrobce vlastního procesoru a vytvářel tak zcela proprietární (nekompatibilní) systém s okolním světem. Důvodem bylo dosaţení něčeho výjimečného. Ať uţ šlo o extrémní výkon nebo o maximální dostupnost bez výpadku provozu. Vývoj těchto systémů je poměrně nákladný a proto jiţ existuje pouze omezený počet firem, které si drţí vlastní vývoj a patři k technologické špičce na trhu. Mezi tyto firmy jednoznačně patří IBM, HP a SUN Microsystems. Tyto firmy mají některé společné atributy:

19 IBM Extended Architecture – architektura chipsetu pro servery s Intel procesory

20 mají vlastní vývoj procesoru

disponují systémy s vlastní architekturou

mají vizi dalšího vývoje vlastních systémů

určují směr pro další technologie

3.1.4 Masivně paralelní architektura

Následující obrázek 13 znázorňuje architekturu paralelní, kde výsledný systém je prezentovaný svazkem uzlů propojených vysokorychlostním prvkem. Jednotlivé uzly jsou v podstatě SMP servery s několika procesory (maximálně bylo pouţito 16 CPU POWER3-II na jeden uzel v případě IBM SP konceptu), vlastní pamětí RAM, disky a spojující kartou na páteřní síť. Výhodou takového uceleného systému byl jednotný management prostřednictvím jedné pracovní stanice s obsluţným softwarem. Kaţdý uzel má vlastní instanci operačního systému s podpůrnými programy a knihovnami pro podporu paralelního chodu aplikací, které musejí takový reţim provozu podporovat. Další nedílnou součástí je distribuovaný souborový systém GPFS20 nebo jeho obdoba, který ukládá data do všech uzlů na jejich lokální disky tak, aby aplikace nemusela čekat na data ze sdíleného diskového pole. Tato technika ukládání dat se pouţívá dodnes například u Oracle RAC21 clusterů. Masivně paralelní architektury jsou dnes vlivem dostupné výkonné LAN infrastruktury nahrazovány levnými servery s procesory AMD, Intel, RISC vzájemně propojenými do sítí s pouţitím Ethernet22 protokolu.

Obrázek 13: Masivně paralelní architektura zaloţená na vysoce propustné přepínané architektuře

20 General Paralel File System – souborový systém pro paralelní zápis 21 Real Application Cluster – technologie společnosti Oracle pro paralelní běh databáze 9i a 10g 22 Nejrozšířenější protokol pro lokální počítačové sítě

21 3.2 Použité koncepty a moderní SMP architektura

Následující kapitola nahlédne do nejmodernějších systémů a jejich architektur, které jsou na špičce dnešního technologického vývoje. Obecně se pouţívají dvě různé architektury pro propojení velkého mnoţství procesorů v rámci jednoho serveru. První je architektura „building block“, kterou prezentují společnosti HP a SUN. V této architektuře je důraz kladen na propustnou přepínanou sběrnici serveru „Crossbar switch“ nebo „Fire plane“ ke které jsou připojené jednotlivé funkční celky. Druhou architekturou je „Distribuovaný switch“ jedná se o architekturu, kde komunikace – switch je umístěn přímo do procesorů POWER. Na obrázku 14 je znázorněná komunikace přímo mezi jednotlivými dvoujádrovými procesory v rámci serveru. Pro dosaţení maximálního výkonu jsou procesory umístěny do takzvaných 23 MCM modulů. Tato architektura maximalizuje Obrázek 14: Distribuovaný switch + GX Bus, propustnost procesorů a pamětí. sběrnice propojující všechny procesory Pojďme se tedy podrobněji podívat na výhody a nevýhody obou architektur z pohledu výkonnosti, škálovatelnosti24, rozšíření a spolehlivosti.

3.2.1 IBM MCM architektura

Základem je vlastní vývoj procesorů a mikroelektroniky samotnou společností IBM. Dlouholeté zkušenosti daly vzniknout nejvýkonnější počítačové architektuře, kterou můţeme dnes pouţít. Historie MCM modulů sahá mnoho let nazpět do světa sálových počítačů - Mainframe serveru IBM, kde byly procesorové moduly ještě chlazeny vodou. (Mimochodem některé superservery mají dodnes chlazení inertními plyny pro dosaţení supravodivého efektu na jedné straně a získání vyšší dostupnosti na straně druhé.) Dnešní moderní architektura vznikla s procesory POWER4 v roce 2001. Tímto rokem se výkonnost serverů IBM dvojnásobně vzdálila od druhého výrobce v pořadí, společnosti HP a to při pouţití polovičního počtu procesorů POWER4.

23 Multi Chip Module – integrace většího počtu procesorů na jednom procesorovém modulu 24 Počeštěný výraz z anglického slova „scalable“ – pouţívá se zařízení schopná navyšovat svojí výkonnost se změnou konfigurace. Typicky platí pro víceprocesorové servery. Ideální stav je lineární tendence nárůstu výkonu s počtem přidaných procesorů.

22 Na následujícím obrázku 15 je zjednodušeně zobrazena architektura procesorové části High-End serverů IBM p5 595. Jednotlivé dvoujádrové procesory jsou organizované do chipů s vlastním distribuovaným switchem pro „chip - chip“ komunikaci, kterou zajišťuje GX Bus, dále pak řadičem L3 cache a paměti RAM. Celkem 4 stejné chipy jsou integrované do jednoho MCM modulu (4x 2 jádra = 8 jader celkem). MCM moduly jsou dále propojeny tak, aby mezi procesorová komunikace byla maximálně propustná (MCM - MCM komunikace). Vysoký stupeň integrace dovoluje zkrátit vzdálenosti mezi procesory a tím podstatně navýšit frekvenci a maximální výkon. V této architektuře roste výkon téměř lineárně s počtem procesorů jako na jediné architektuře na světě.

MCM to MCM GX Bus GX Bus MCM to MCM Book to Book Book to Book

Mem Mem Ctrl Ctrl M L3 Shared Shared L3 M E L3 Dir L2 L2 Dir L3 E M Chip-chip communication Chip-chip communication M

O Chip-chip communication Chip-chip communication O L3 Shared Shared L3 R L3 Dir L2 L2 Dir L3 R

Y Mem Mem Y Ctrl Ctrl

MCM to MCM MCM to MCM Book to Book Book to Book GX Bus GX Bus

Obrázek 15: IBM POWER5 Multi-chip Module (MCM) - 64 procesorový server IBM eServer p5 595 (8x MCM) Výhody MCM architektury:

Maximální výkonnost architektury jakou lze dosáhnout

Lineární zvyšování výkonu s počtem procesorů

Výrazná úspora na licencích za software, který se licencuje na počet pouţitých procesorů

Vysoká flexibilita při dělení serveru do logických serverů

Moţnost dynamické rekonfigurace (přesunu) procesorů mezi jednotlivými logickými servery Nevýhody MCM arcitektury:

Vysoká integrace nedovoluje vyjmutí procesorů za provozu a řeší se náhradou ze spících zdrojů „IBM CPU sparing“. Ve vývojových laboratořích IBM

23 se zvaţuje moţnost integrace technologie, která by dokázala vypnout jednotlivé MCM moduly a ty pak vyměnit za chodu. Nicméně toto bude poměrně riskantní operace a bude vyţadovat přesný postup práce servisního týmu.

3.2.2 HP/SUN „Building block“ architektura se sběrnicí

Tato architektura je oběma výrobci na trhu prezentovaná jiţ řadu let. Hlavním technologickým hráčem byla společnost SUN Microsystems, která dlouhá léta kralovala na trhu s unixovými25 servery. Architektura serveru Enterprise 10000 je srovnatelná s dnešními servery SUN a obdobná i pro společnost HP. Pro ilustraci na následujícím obrázku číslo 16 je znázorněná architektura HP serveru. Jednotlivé procesory jsou umístěny na procesorových kartách - celách „Cell Board“ včetně paměti a kontroléru celé karty. Připojením do „crossbar“ switche jsou jednotlivé cely a další funkční celky propojeny do kompletní serverové infrastruktury. Tento způsob řešení serveru umoţňuje propojování velkého mnoţství procesorů. Ovšem celkový dosaţitelný výkon serveru se jiţ nezvyšuje dramaticky jako u IBM MCM architektury. Pro dosaţení vyššího výkonu je vhodnější rozdělit server na menší servery s cca 16ti procesory a vlastním operačním systémem a hostovat různé aplikace.

Obrázek 16: Architektura serveru HP rx8620 v blokovém schématu Výhody „Building block“ architectury:

Moţnost integrace většího počtu bloků do mutliprocesorového systému

25 UNIX – operační systém pro servery s RISC procesory jakou jsou IBM (AIX), HP (HP-UX) nebo SUN (Solaris)

24 Moţnosti dealokace a výměny procesorové karty za běhu systému (dnes nabízí pouze společnost SUN Microsystems) Nevýhody „Building block“ architectury:

Nízký celkový výkon serveru, velká degradace způsobená centrálním komunikačním prvkem – switch je schopen přenést omezené mnoţství dat. Další zvyšování výkonu je moţné realizovat nejen prostřednictvím výkonnějších procesorů ale i zvýšením průchodnosti swiche

Nízká škálovatelnost

Značné náklady za licence software u víceprocesorových systémů vlivem neefektivní architektury

Nízká flexibilita při dělení serveru do logických serverů

25 4 Komerční servery

Všichni světový velikáni IT v oboru hardware uvádějí na trh nové SMP superservery. IBM na konci roku 2006 uvedla další z řady p5 serverů s označením p5 590 a p5 595 dnes jiţ s procesory POWER5+ a očekávanou aktualizací produktu novým procesorem POWER6. Společnost HP pokračuje v koncepci serverů Superdome s procesory Intel Itanium, kde osazuje nové procesorové karty novými procesory a podpůrným chipsetem. Společnost SUN oznámila novou řadu Enterprise 25000 serverů s procesory SPARC IV a průběţně provádí aktualizaci tohoto serveru vzhledem k novým verzím procesoru SPARC. Pojďme se tedy podívat co nám jednotlivé servery umoţňují, jaké jsou jejich klíčové vlastnosti a parametry které by měly zhodnotit jejich celkovou hodnotu a technickou vyspělost.

4.1 Procesorový design

IBM POWER5+ je třetí generací dualcore RISC procesorů. Celkem je takto integrováno 64 jader procesoru POWER5+. Nová technologie SMT výrazně zvyšuje výkonnost procesoru aţ o 30 % oproti předchozím procesorům POWER4. Taktovací frekvence se vyšplhala aţ na 2,3 GHz.

HP Intel Itanium s kódovým označením „Montecito“ je druhou generací dualcore procesoru po procesoru „mx2“. Na rozdíl od konkurenčních procesorů je architektura procesoru EPIC26. Celkový počet jader procesoru Itanium je 128. Existuje obdoba IBM SMT technologie, ale ne „simultanous“ tedy současně probíhající. U procesorů Itanium se předpokládá optimalizace kódu pro procesor přímo v kompilátoru tak, aby efektivně zpracovával aplikační kód. Efekt se projevuje především ve výpočetních operacích, kde je procesor schopen vyuţívat aţ 6ti registrů pro práci s plovoucí čárkou a lze předpokládat posloupnost instrukcí. U náhodného zpracování je účinnost jiţ mnohem menší a nevykazuje signifikantní nárůst výkonu jako v matematických operacích, navíc většina aplikací se musí přepsat a rekompilovat pro paralelní zpracování.

26 Explicitly Parallel Instruction Computing - explicitně paralelní zpracování instrukcí

26 SUN SPAR IV je první generací dualcore RISC procesorů. Jde o dva zrcadlově zapojené SPARC III procesory v jednom jádru. Ačkoliv společnost SUN hovoří o „více vláknové“ architektuře a firemní strategii v masivním nasazení takové technologie, jedná se pouze o záměrně matoucí termín shodný s termínem, který pouţívají ostatní výrobci více vláknových procesorů. Neexistuje ţádná obdoba SMT technologie nebo Hyper threadingu. Kaţdé jádro zpracovává pouze jedno vlákno a pojem „více vláken“ spočívá podle společnosti SUN v tom, ţe dvoujádrový procesor zpracovává dvě vlákna. Coţ není nic převratného ba naopak. Tento trik jak porovnávat poněkud zaostalou technologii s ostatními technologiemi vede k četným omylům a matoucím informacím pro potenciální zákazníky.

4.2 Architektura serveru

IBM procesory jsou v systému integrované do MCM modulů a vzájemně propojené distribuovaným switchem. Celkem je takto integrovaných aţ 8 MCM modulů

HP pouţívá koncept stavebních bloků - procesory jsou osazeny aţ na 16 procesorových kartách „cell board“, kde jsou umístěny společně s pamětí, dalšími podpůrnými obvody a dále pak propojené „crossbar“ sběrnicí.

SUN pouţívá stejný koncept jako HP. Vyuţívá aţ 18 procesorových karet „uniboard“, kde jsou procesory a paměť umístěny na procesorových kartách a dále propojené „Fireplane“ sběrnicí.

4.3 Logické – fyzické/logické dělení - virtualizace

IBM server je moţné dělit na logické partice27 „LPAR“. Nejmodernější virtualizační technologie dovoluje dělit server aţ na 254 LPARů s vlastním operačním systémem. Vše probíhá na úrovni hardware prostřednictvím konsole operátora. Logické dělení je umoţněno architekturou serveru, kde nejsou fyzické hranice v návrhu, které by bránily flexibilitě. Rovněţ rekonfiguraci je moţné provádět zcela dynamicky a za běhu systému. U IBM serverů hovoříme o virtuálních zařízeních jako jsou LAN a SAN adaptery, Micro-partitioning a sdílený procesorový výkon.

27 Partice – oddíl, samostatně fungující část serveru s vlastním operačním systémem

27 HP Server je moţné rozdělit pomocí dvou technologií. První moţnost je rozdělení serveru fyzicky aţ na 16 fyzických „nPar“, s vlastním operačním systémem. Toto je dané konstrukcí serveru, který se maximálně skládá z 16ti procesorových karet – jedná se tedy o fyzický partitioning28 „PPAR“. Druhou moţností je s pouţitím virtualizačního software, který je nainstalován do serveru. Takto je pak moţné provádět flexibilnější dělení serveru a rekonfigurace.

SUN Server je moţné dělit opět obdobně jako HP server. Maximálně na 18 domén – nezávislých systémů s vlastním operačním systémem neboli fyzických particí „PPAR“. Solaris 10 umoţňuje instalovat operační systém na server a následně pak pouţívat oddělené prostory „Containers“ s vlastní omezenou správou. Server pouţívá jednu instanci operačního systému pro doménu jako nejmenší moţnou výpočetní jednotku. Pro další dělení je nutné poţít kontejnery, které jsou nadstavbou operačního systému a přebírají jeho vlastnosti.

4.4 Dostupnost

Dostupnost je pojem, který vyjadřuje míru dostupnosti sluţby kterou nám server poskytuje. Uvedené technologie mají za úkol překonat moţné chyby tak, aby server byl nadále schopen poskytovat sluţbu, kterou pouţíváme.

IBM měděné procesory s pouţitím nejmodernějších technologií SOI, paměti Chipkill29 ECC bit-steering memory30 – paměťové moduly odolné proti chybě. Vlastní moduly zajišťují redundanci. ECC L2 cache, L3 cache vyrovnávací paměti, on-line dealokace části hardware jako je procesor, paměťový modul, řádka v cache paměti, Hot-swap31 disky, Hot-plug32 PCI-X sloty, Hot-plug redundantní zdroje a ventilátory.

HP servery disponují technologiemi ECC na paměti cache, automatická dealokace “vadného” procesoru (DPR), procesor Hot-spares pouţitím HP iCOD,

28 Partitioning je schopnost systému rozdělovat svoje hardware zdroje do menších nezávislých celků 29 Chipkill je technologie výroby paměťového modulu s vlastní inteligencí a odolnosti proti chybě jednoho z chipů na daném modulu 30 ECC bit-steering memory je Error Checking and Correcting paměťová technologie schopná odolávat jedno a dvou bitové chybě 31 Hot-swap znamená vyměnitelné za běhu bez nutnosti odstávky systému 32 Hot-plug znamená moţnost přidání nového zařízení do systému bez odstávky

28 redundance na paměťové chipy obdoba IBM Chipkill, Hot-plug PCI-X sloty, separátní PCI-X pro vstupně/výstupní adaptery PCI

SUN servery mají integrované technologie jako jsou Hot-swap CPU, paměti a cache vyrovnávací paměti s ochranou ECC, Hot-plug PCI-X sloty, Hot-plug redundantní zdroje a ventilátory, on-line upgrade serveru

4.5 Spolehlivost

Spolehlivostí nejčastěji vyjadřujeme schopnost serveru automaticky předcházet chybám a provádět opravné kroky k zabánění jeho pádu vlivem neočekávané chyby. Jedná se o opravné technologie a principy.

IBM FFDC – on-line detekce a oprava chyby, dynamická CPU a paměťová dealokace, dynamická dealokace LPARů, Hot-swap CPU pomocí „processor sparing“

HP dynamická CPU a paměťová dealokace Hot-swap CPU pomocí iCOD

SUN dynamická rekonfigurace a dealokace domény Hot-swap CPU výměnou

29 5 Svět superserverů

Zmínky o světě superserverů a řešení, které se co chvíli objeví na stránkách vědecko- technických časopisů je pravidelně aktualizovány novějšími a modernějšími systémy s vyšším výkonem. Zpravidla tyto systémy postupně nahrazují úlohy, které lidstvo muselo provádět sériemi pokusů, aby se ověřila teorie v praxi. Zdá se tedy, ţe doba jaderných pokusů, demolic aut při bezpečnostních testech je jiţ definitivně za námi. Dnešní superservery dokáţí zpracovávat obrovská mnoţství dat a převádět je obrazové podoby pro snadnější práci nebo představu výsledného díla či pokusu.

5.1 Více serverové systémy

Více serverové systémy – clustery, jsou doménou především distribuovaných úloh, kde jsou s oblibou pouţívány levné Intel servery s operačním systémem Linux. Jsou známy systémy obsahující několik stovek aţ tisíců uzlů spojených rychlou sítí menšinou Myrinetem nebo Gigabit Ethernetem. Princip fungování je v podstatě stejný jako u masivně paralelních systémů. Technologicky nejzajímavější se zdá být projekt SGI Altix a dále pak Blade server řešení od všech firem v oblasti Intel/AMD serverů. Rozdíl je pouze u IBM, která implementovala do Blade serverů vlastní chipy PowerPC970 a v poslední době i procesory IBM CELL s naprosto výjimečným výkonem na jeden procesor.

5.1.1 Serverové clustery

Clustery postavené na velkém počtu stejných serverů se stejnou verzí operačního systému zpracovávající úlohy pro které je takový celek navrţený Všechny servery a data jsou na jednom místě propojeny velni rychlou komunikační sítí LAN, SAN nebo ideálnější proprietární sítí s vyšším výkonem neţ poskytují standardní sítě. Takové projekty se nazývají HPC33. Zajímavosti o světě HPC lze najít na odkazech uvedených v pouţitých zdrojích.

33 High Performance Computing – systémy sdruţující velké mnoţství identických počítačů zpracovávající jednu úlohu rozdělenou do paralelních úkolů

30 5.1.2 GRID systémy

Další moţností jak pouţít obrovský výpočetní výkon, který poskytuje paralelní výkon dodávaný velkým mnoţstvím počítačů je GRID34. Rozdíl GRID řešení oproti HPC je především naprostá nezávislost na výpočetní jednotce, kde se předpokládá rozsáhlé pouţití osobních počítačů s různými operačními systémy spojených Internetem. Účast na takovém projektu je na dobrovolném zváţení kaţdého majitele osobního počítače. Existují projekty, které jsou dotované velkými korporacemi (IBM, HP a další) podporujícími programy, které pomáhají hledat účinné leky na léčbu selhání imunitního systému člověka, modelování proteinů, simulace počasí a další.

5.2 Nejznámější HPC a GRID projekty

Jiţ nejednou jsme se na stránkách odborných časopisů setkali s fascinujícími články věnovanými superpočítačům. V krátkosti bych připomněl soupeře Garry Kasparova šachový počítač IBM DeepBlue, projekt ASCI určený k modelování procesů probíhajících při nukleárních reakcích nebo Deep Thunder, který předpovídá počasí. V poslední době se hovoří o fantastických projektech jakou jsou IBM BlueGene/L nebo World Community Grid. Podívejme se tedy na konkrétní projekty a jaké je jejich vyuţití v praxi.

5.2.1 DeepBlue – šachový velmistr

DeepBlue je asi nejznámější a mediálně nejsledovanější projekt v historii lidstva. Počítač, který byl schopen hrát královskou hru šachy na úrovni velmistra. Celý svět tenkrát sledoval, jak si DeepBlue povede v šachové partii proti velmistru všech dob Garrymu Kasparovu. Jak vlastně vypadal vítěz duelu po stránce architektury? V roce 1997 IBM uvedla projekt pod označením DeepBlue, který byl postaven na masivně paralelní architektuře SP2 a měl za úkoly především předpověď počasí, zpracování úloh pro naftařský průzkum a výpočty pro design a konstrukci v průmyslu. Pro prezentaci tehdejší technologické vyspělosti a výpočetní síly byl celý systém rozšířen o prostředí web komunikace a poskytnut pro nebývalou výzvu.

34 GRID – síť nezávislých počítačů

31 Celý systém DeepBlue obsahoval 53 RS/6000 SP uzlů mezi které byla rozkládána zátěţ výpočetní úlohy pomocí Network Dispatcher software. Architektura SP vyţaduje pro paralelní výpočty adekvátní souborový systém pro ukládání a distribuci dat - Andrews File System/Distributed File System předchůdce dnešního GPFS (General Paralel File Systém). Zajímavostí zůstává dodnes, ţe jednotlivé uzly SP systému byly distribuovány na vzdálenost WAN sítě mezi jednotlivými lokalitami v USA a Velkou Británií.

Obrázek 17: Blokové schéma IBM DeepBlue propojení

Pro běţného uţivatele internetu, byla celá záleţitost prezentovaná na WWW stránkách. Stránky zaznamenaly během 9ti denní akce více neţ 74 miliony přístupů uskutečněných více neţ 4mi miliony uţivateli ze 106ti zemí světa. IBM tomuto projektu věnovala na svých web35 stránkách celý portál.

5.2.2 ASCI Purple – rychlý jako lidský mozek

V květnu roku 2003 tiskem a médii proběhla zpráva o podepsání kontraktu mezi IBM a U.S Department of Energy. IBM vyhrála tender na dodávku dvou superpočítačů, které se svým výkonem jako první na světě vyrovnají výkonu lidského mozku. Kombinovaný výkon těchto počítačů bude půl kvadrilionu (500 trilionu) operací za sekundu, coţ je 1,5 x více neţ kombinovaný výkon všech strojů publikovaných v listu TOP 500 superpočítačů.

35 http://www.research.ibm.com/deepblue/

32 Projekt „ASCI Purple“ odstartoval na začátku roku 2003 a očekával se výkon 100 Tflops tohoto nového nejvýkonnějšího superpočítače coţ bylo přibliţně trojnásobek tehdejšího nejvýkonnějšího stroje. Pro srovnání lidský mozek je pravděpodobně také schopen procesovat 100 Tflops za sekundu podle Dr. Hanse Morvece36. Tento údaj je odhadován za předpokladu, ţe mozek obsahuje 100 bilionu neuronů, kaţdý s tisíci napojeními na ostatní neurony se schopností provést 200 operací za sekundu. Druhý superpočítač, „BlueGene/L“ bude dokonce výkonnější neţ ASCI Purple. Po dokončení v roce 2004 se předpokládalo, ţe bude BlueGene/L špičkově dosahovat výkon aţ 360 Tflops, tedy více neţ trojnásobek ASCI Purple. ASCI Purple je v mnoha ohledech srovnatelný s lidským mozkem… ASCI Purple má 50 Tbytů paměti, Dr. Morvec odhaduje, ţe mozek bude mít dvojnásobnou kapacitu, tedy 100 Tbytů. Navíc lidský mozek je „přenosný“. ASCI Purple bude na rozloze 828 m2 a váţit téměř 200 tun! Lidský mozek je ve srovnání s ASCI Purple zanedbatelný. „Mozek vyniká především schopností Obrázek 18: Struktura nového materiálu zpracovávaný systémem ASCI Purple převedený do vizuální podoby myslet a vytvářet navíc rychle procesovat jednoduché informace“, řekl Wise Young, ředitel The Keck Neuroscience lab v Rutgers University v New Jersey. Naproti tomu ASCI Purple a BlueGene/L budou dělat takové věci, které mozek neumí. BlueGene/L je pouţitý pro vědecký výzkum jako jsou předpověď globálních klimatických změn a studium super výbušných látek. Tento superpočítač bude pouţíván třemi laboratořemi v Los Alamos, Sandia a Lawrence Livermore - a samozřejmě univerzitní aliancí, spolupracující na projektu Advanced Simulation and Computing Initiative.

36 Hlavní vědecký pracovník v Robotickém institutu na Mellonské univerzitě

33 Primární úloha ASCI Purple je simulace stárnutí a provozuschopnosti U.S nukleárních zbraní, zajištující bezpečnost a dostupnost národních rezerv bez nutnosti podzemního testování. ASCI Purple je poháněn sílou 12 544 procesorů obsaţených ve 196 samostatných serverech. Vzájemné propojení je realizováno přes super rychlou datovou „dálnici“ schopnou přenést aţ 100 GB dat. Toto odpovídá přenosu 14-ti DVD filmům kaţdou sekundu. ASCI Purple provozuje operační systém IBM AIX verze 5. ASCI Purple byl dokončen v roce 2003 a umístěn ve zvláštních prostorách známých jako „Terascale Simulation Facility“ vybudovaných v laboratořích v Livermore. Technická fakta o ASCI Purple viz následující tabulka číslo 1. Zde je uvedeno, jak je moţné ASCI Purple srovnávat s lidským mozkem o výkonu 100 Tflops37

Tabulka 1: Porovnání hodnot ASCI Purple a lidského mozku ASCI Purple počítač navrţený firmou IBM byl technologicky nejmodernější superpočítač na světě. Někteří z vědců dokonce věří, ţe se jako první v historii lidstva vyrovná teoretickému procesnímu výkonu lidského mozku.

37 Vědci se liší v odhadování teoretického procesního výkonu a dalších schopnostech lidského mozku.

34 5.2.3 Deep Thunder – systém pro předpověď počasí

Záplavy, hurikány a jiné nástrahy přírody odstartovaly nespočet projektů, které se rozhodly modelovat a předpovídat počasí a jeho vývoj, aby se bylo moţné připravit na případnou blíţící se katastrofu. Projekt Deep Thunder si neklade za cíl ovlivňovat počasí podle potřeb člověka, jeho cíl je mnohem skromnější. „Pouze“ počasí detailně a s vysokou spolehlivostí s pomocí superpočítačů předpovědět. Jiţ víme o schopnostech superpočítačů při kalkulacích tahů na šachovnici jako tomu bylo v případě DeepBlue, který se dva roky po sobě utkal s šachovým velmistrem Garrym Kasparovem, nebo známý projekt ASCI, který je primárně určen pro modelování jaderných explozí, nicméně jeho výpočetní sílá bývá poskytnuta i pro jiné úlohy. ASCI se na stránkách odborných publikací objevuje opakovaně, tak jak se v průběhu let vyvíjí - od původního ASCI

Blue, přes ASCI Obrázek 1 White aţ po ASCI Obrázek 19: Blokový model IBM Deep Thunder Purple popsaném v předchozí kapitole. Následující řádky jsou věnovány projektu, který je moţno na internetu nalézt pod názvem Deep Thunder. V podstatě se jedná o proof of concept38 řešení modelování počasí pro relativně malou oblast s vysokou koncentrací lidských aktivit. Cílem projektu je poskytnout co nejpřesnější údaje o vývoji počasí na následující 1-2 dny, tak aby se řada běţných situací dala řešit s předstihem (intenzivní sněhové sráţky, a z toho plynoucí potřeby na údrţbu komunikací nebo krátkodobá vedra a z toho plynoucí energetické nároky na provoz klimatizace, chlazení a zavlaţování, případně lokální bouřky ovlivňující provoz letišť) a aby bylo moţné s předstihem jednat i v případě

38 Studie proveditelnosti - funkční prototyp

35 katastrof. Informace, které díky Deep Thunder získáváme, tak doplňují sluţby jako je například National Weather Service nebo European Center for , které poskytují předpověď počasí pro celé státy a kontinenty. Deep Thunder konkrétně zpracovává informace, které ovlivňují počasí v New Yorku a jeho okolí. Tento projekt byl zahájen v roce 2001, ale nutno říci, ţe nezačínal od nuly. Jiţ dříve, při olympijských hrách v Atlantě v roce 1996, bylo pro oblast Atlanty prováděno modelování počasí a pouţité koncepty jsou známy a vyuţívány uţ od 70. let. Nyní bych chtěl věnovat několik řádků vlastnímu modelu počasí a hardwarové architektuře systému. Základem modelu jsou data naměřená několika způsoby (radarové a pozemní pozorovací a měřící stanice, satelitní informace apod.), která jsou získávána od National Weather Service. Jedná se tedy o stejné zdroje dat jako v případě jiných předpovědí počasí. Vlastní model je vytvářen ve třech úrovních. Jde o tři sítě se vzdáleností bodů 16, 4 a 1 km. Detailnější síť je vţdy uprostřed méně detailní sítě. Nejméně detailní model je rozloţen od Toronta po Richmond a Boston a obsahuje poměrně velkou plochu 976 x 976 km. Model zaloţený na síti s krokem 1 km obsahuje plochu pouze 61 x 61 km, ve které je New York City. Všechny tři sítě mají 31 vertikálních úrovní a jsou aktualizovány v intervalech 48, 12 nebo 3 sekundy. Pro nejmenší ze sítí jsou tak kaţdou hodiny zpracovávány údaje o počasí (teplota, vlhkost, směr a rychlost větru apod.) pro 138 milionů časoprostorových bodů. Jedná se tedy o poměrně rozsáhlé modely s nemalými nároky na výkon a propustnost hardware. Vlastní hardwarovou architekturu lze poněkud zjednodušeně znázornit ve čtyřech vrstvách viz obrázek 20. První vrstvou jsou zdroje dat pozorování a měření. Druhou vrstvou je pre-processing, kde linuxové servery převádějí data z různých primárních zdrojů do jednotného formátu tak, aby byla k pouţití ve třetí vrstvě - vlastní výpočetní jednotce. Tou je RS6000 SP server s 44 procesory POWER3 a 60 GB RAM. Čtvrtou vrstvu tvoří vizualizační pracovní stanice (s operačními systémy Linux, Windows NT a AIX a aplikaci Data Explorer). Zde uvedený popis je značně zjednodušen, více podrobností naleznete na internetových39 stránkách pojednávajících o projektu IBM Deep Thunder.

39 http://www.research.ibm.com/weather/DT.html.

36

Obrázek 20: Síť pro modelování předpovědi počasí Jak vypadá konkrétní výstup z Deep Thunder? Na internetových40 stranách lze shlédnout příklady, které jsou vytvářeny automaticky. Jeden z nich je uveden i na obrázku viz obrázková příloha. Jedná se o 3D vizualizaci zobrazující některé parametry předpovídaného počasí. Jsou to sráţky (hodnoty jsou definovány barvou na povrchu země, stupnice je zcela vpravo v horní polovině), směr a intenzita větru (definovány směrem a barvou šipek, barevná stupnice je vpravo v dolní polovině) a oblačnost (průhlednost zobrazených mračen znázorňuje vodní hustotu mračen). Obdobné 3D modely lze na internetu nalézt téţ jako animace, kde je přidán čtvrtý rozměr – čas. Tím se vypovídající hodnota vizualizace dále zvýší. Při podrobném prohlédnutí obrázků a animací zjistíme, ţe poskytují opravdu detailní a snadno srozumitelné informace k zobrazované lokalitě. Toto umí Deep Thunder dnes, ale jaké jsou jeho další vyhlídky? Do budoucna se má tento projekt dále rozvíjet především ve dvou směrech. Na jedné straně je snaha zvýšit výkonnost a propustnost výpočetního systému tak, aby bylo moţné ještě zpřesňovat model (hovoří se o sníţení vzdálenosti bodů sítě z řádu kilometrů na stovky metrů). Druhým směrem rozvoje je zpřístupnit a upravit výstupy z Deep Thunder tak, aby byly efektivně vyuţitelné subjekty ekonomiky, které jsou na počasí citlivé, jako je doprava, distribuce elektřiny, zemědělství (vliv nedostatku sráţek na pouţití pesticidů, hnojiv a zavlaţování), letectví apod. Na obrázcích v internetovém zdroji je uveden příklad z energetiky. Výška a barva sloupců znázorňuje předpokládanou poptávku po energii

40 http://www.research.ibm.com/weather/NY/NY.html

37 pro jednotlivé elektrárny v zobrazovaném regionu. Barva povrchu země ukazuje předpokládanou teplotní mapu. Funkce, která vytváří vztah mezi teplotou a očekávanou spotřebou, vychází z historických dat spotřeby energie, počasí a času. Zájemcům o tuto problematiku doporučuji shlédnout animaci zachycující časový interval 24 hodin. Animace je dostupná na internetové stránce IBM Research41.

5.2.4 BlueGene/L – nejvýkonnější na světě

Dynamický vývoj v oblasti superpočítačů asi není překvapivý, stejně jako v jiných oblastech ICT. Je dán na jedné straně poptávkou, jelikoţ stále existuje řada úloh, kde běţné PC ani server nedokáţe poskytnout výsledky v přijatelném čase. Na druhé straně je dán i zájmem dodavatelů, kteří tak naráţejí na limity stávajících technologií a jsou nuceni hledat nové postupy a řešení a tím posouvají své moţnosti dále. Nově nalezené postupy se v mnoha případech s odstupem několika let objeví i v běţných produktech. A v neposlední řadě se jedná do jisté míry o prestiţní záleţitost jak pro dodavatele hardware a aplikací tak i pro uţivatele.

Abych v krátkosti IBM BlueGeneSystem System 64 Racks, 64x32x32 mohl dokumentovat, Cabled 8x8x16 jak se tyto Rack technologie vyvíjejí, 32 Node Cards podíval jsme se na 180/360 TF/s Node Card 32 TB situaci před deseti (32 chips 4x4x2) 16 compute, 0-2 IO cards lety. V roce 1995 byl 2.8/5.6 TF/s Compute Card 512 GB obrázek 4 nejvýkonnějším 2 chips, 1x2x1 Chip 90/180 GF/s počítačem na této 2 processors 16 GB 5.6/11.2 GF/s planetě stroj Fujitsu, 1.0 GB pouţitý v Japonsku Obrázek 21: Blokové schéma modulární architektury IBM BlueGene/L pro modelování proudění ve větrných tunelech. Jeho výkon 236 Gflops byl v té době naprosto mimořádný. Dnes je nejvýkonnějším systémem BlueGene/L s výkonem 183 000 Gflops. Abyste si mohli udělat určitou představu, tak současné PC s procesory na frekvencích 1-4 GHz mají výkon zhruba 5-20 Gflops. Herní konzola SONY

41 http://www.research.ibm.com/people/l/lloydt/demo/load.mpg

38 PlayStation 3 plánovaná na rok 2007, má dosahovat výkonu 218 Gflops. Asi málokoho z budoucích uţivatelů PlayStation 3 napadne, ţe má ve své domácnosti výkon, který si před 11 lety mohla dovolit jen jediná instituce na světě. Asi vás napadne, k čemu se takové servery dají vůbec pouţít. Např. v Nizozemí je BlueGene/L vyuţíván k výzkumu prvních okamţiků vesmíru. Analyzuje v reálném čase signály zachycené 10 000 anténami v Nizozemí a Německu. Ve švýcarském Lausanne bude v následujících dvou letech BlueGene/L vyuţit na modelování struktury mozku na molekulární úrovni. BlueGene/L v LLNL je vyuţíván pro různé úlohy, především výzkum dynamiky molekul a kvantové chemie. BlueGene/L v Japonsku je vyuţit na 3D modelování struktur bílkovin a měl by pomoci k pochopení interakcekce léků a nemocí. V čem je architektura BlueGene/L odlišná? Pokud si přečtete základní parametry BlueGene/L, budete překvapeni pouţitou nízkou taktovací frekvencí procesorů. Návrháři serveru hledali maximální poměr výkon/obsazený prostor z čehoţ vyplynulo nalézt nejvyšší poměr výkonu/spotřebovaná energie. Optimální poměr poskytují PowerPC 440 na 700 MHz. Niţší frekvence umoţňují integraci co největšího počtu komponent na co nejmenší plochu. Server, resp. jeho stavební kameny jsou navrţeny jako tzv. SoC (System on the Chip). SoC v této implementaci znamená integraci dvou procesorových jader, jejich FP42 jednotek, všech tří úrovní cache, paměťového řadiče i všech pěti. komunikačních rozhraní na jednom chipu. Tím odpadá potřeba propojovat jednotlivé komponenty, sniţuje se moţnost výskytu poruch, sniţují se energetické nároky i výrobní náklady. chipů je v BlueGene/L 65 536, v jiných serverech můţe být počet chipů niţší, ale nejméně 1024. Uvedený návrh je aţ 10x energeticky úspornější neţ „klasický“ přístup vyuţívaný u většiny superpočítačů dosud. BlueGene/L má v cílovém stavu dosáhnout výkonu 360 Tflops, tedy dvojnásobek dnešního výkonu. Pokud by byl stavěn „klasickým“ způsobem, odběr energie by se blíţil 20 Megawattům (asi tolik spotřebovává 20 000 domácností), pouţitím výše uvedeného se cílový odběr sníţí na 1,8 Megawattů. Další klíčovou charakteristikou je otázka komunikace. Jak jsem jiţ uvedl, kaţdý chip má integrováno pět komunikačních rozhraní. Tři jsou určeny pro mezi procesorovou komunikaci, další pro diagnostiku, poslední pro připojení souborových systémů. Další informace je moţné získat na uvedených internetových adresách v pouţitých zdrojích.

42 Floating point – registry pro práci s numerickými operacemi

39 5.2.5 WCG - World Community Grid

Mnoho podobných projektů jako je World Community Grid je po celém světě. Cílem tohoto projektu je zvýšení kvality lidského ţivota. Pokud se podíváte na internetovou stránku WCG43, moţná i Vy se stanete registrovaným uţivatelem, který bude chtít přispět výkonem svého počítače v některém ze zajímavých projektů. Celý projekt funguje jako distribuce klienta pro výpočet určité úlohy, kterou dostane váš počítač. V době, kdy aktivně nepracujete je vhodná doba pro vyuţití výkonu vašeho počítače. Takto můţete bojovat proti AIDS z vašeho domova. Detailní popis jak celý projekt funguje je moţné prostudovat na internetové44 stránce společnosti IBM, kde je umístěna multimediální prezentace a animace s výkladem k celému projektu.

Grid se skládá s z následujících součástí, které jsou na obrázku 23 znázorněny jako Obrázek 22: Ukázka desktop aplikace Volunteer PC – je to standardní uţivatelské pro klientské PC v rámci WCG projektu PC, které máte doma nebo v kanceláři. Klientský software, který je potřeba pro zpracování dat je něco jako spořič obrazovky. Najdete ho po instalaci jako malou ikonu s logem WCG v pravém rohu vaší pracovní plochy na počítači. Klient je nyní připraven poţadovat data od centra WCG umístěného v prostorách IBM.

Obrázek 23: Modelové schéma propojení komponent v systému WCG IBM WCG servers – jsou to servery, které tvoří centrum WCG. Zde se přijímají úlohy od výzkumných organizací. Centrum provede bezpečnostní kontrolu

43 http://www.worldcommunitygrid.org 44 http://www.ibm.com/podcasts/howitworks/021307/index.html

40 zadaných úloh, které se pak rozdělí na datové jednotky a jsou ve třech zašifrovaných kopiích distribuované mezi „armádu“ klientských PC. Výsledky, které se vrátí jsou pak zkontrolovány a porovnány. Celkový výsledek je umístěn do souborů a vrácen zpět výzkumným organizacím.

World Community Grid - Na rozdíl od HPC projektu zde není ţádná přesná topologie nebo znalost prostředí, které poskytuje výkon pro projekty. Víme jen ţe je registrováno 267 000 uţivatelů z 200 zemí, kteří do projektů zapojili celkem 549 000 počítačů nebo zařízení, které dodávají celkový výkon jako 80 000 let provozu. Takový výkon řadí WCG mezi TOP 5 superpočítačů na světě. Následující tabulka nejlépe vystihuje počet členů a jejich celkový výsledek dosaţených od počátku startu projektu. Global Statistics Statistics Last Updated: 03/18/2007 12:06:03 (UTC) [2 hour(s) ago] Totals: Members 269 624 Devices 549 887 Total Run Time 80 902 years Points Generated 21 011 279 465 Results Returned 79 016 844 Averages: Run Time Per Calendar Day (y:d:h:m:s) 88:330:01:12:30 Run Time Per Result (y:d:h:m:s) 0:000:08:58:09 Points Per Hour of Run Time 29,65 Points Per Calendar Day 23 089 318,09 Points Per Result 265,91 Results Per Calendar Day 86 831,70

Tabulka 2: Aktuální snímek zpracovaných dat ve všech projektech WCG ke dni 18.3.2007

Research Organizations – výzkumné organizace s vlastními projekty napojené na WCG. Projekty je moţné poslat k posouzení nezávislému boardu vědců, filantropům a vedení projektu k posouzení. Vhodnost pro akceptování mají především projekty s největším potenciálem a přínosem pro lidstvo. V současné době se zpracovávají tyto projekty: o Help Cure Muscular Dystrophy o Genome Comparison o Help Defeat Cancer

41 o Human Proteome Folding - Phase 2 o FightAIDS@Home

5.2.6 Trendy v HPC

Trendy ve vývoji superserverů jsou celkem snadno odvoditelné. Nárůst potřeby získat informace mnohem rychleji neţ doposud je kladen na vývojové teamy předních IT firem. Na druhou stranu jde o prestiţ být číslo jedna a technologickým leaderem. Následující obrázek 24 znázorňuje časovou osu a technologickou úroveň kam lidstvo dospělo a kam směřuje. IBM má dnes v rukou celou řadu technologií se kterými v krátké době bude opět šokovat svět. Dnes umí vyrobit super server na úrovni 360 Tflops a má výhledové plány na 3x výkonnější systém který bude schopen pokořit Obrázek 24: Vývoj super počítačů v následujících letech hranici 1000 Tflops. IBM jiţ dnes podepsala kontrakt na dodávku supersystému do projektu DARPA45 v roce 2010. Systém bude pracovat s procesory IBM POWER7 a operačním systémem AIX5.4.

45 The Defense Advanced Research Projects Agency

42 6 Virtualizace výkonu

Pokud se podíváme na slovo „virtual“, tak v překladu znamená něco jako abstraktní přesněji řečeno v počítačové mluvě se hovoří o abstrakci počítačových zdrojů. Smyslem virtualizace je především maximální moţné vyuţití toho co nám počítače poskytují. Původ virtualizace se datuje přibliţně od roky 1960 kdy IBM vyrobila server s operačním systémem podporujícím VM46. V dnešní době se pojem Virtualizace skloňuje ve všech pádech a je nejčastějším tématem technologických debat na téma sdílení a vyuţívání výkonu a investic vloţených do pořízení nového výkonného serveru nebo výpočetního clusteru. Přední počítačové firmy nabízejí různé moţnosti virtualizace zdrojů na serverech, které vyrábějí.

6.1 Možnosti hardware

Virtualizace kterou disponuje hardware nalezneme u společnosti IBM. Ta se tímto odlišuje od ostatních výrobců. Je to dáno především historicky nejdelším vývojem a mnoţstvím investic do nového vývoje. Serverové řady obsahující procesory POWER4, POWER5 a POWER6 disponují speciální části serveru, která se nazývá Hypervisor viz obrázek 25. Je to nedílná část hardware, která zasahuje a komunikuje aţ do vlastních procesorů Workload management and provisioning POWER. Hypervisor je LPAR1 LPAR2 LPAR3 LPAR4 LPAR5 přístupný pomocí osobního AIX 5L V5.3 AIX 5L Linux i5/OS®** Virtual Unassigned partitions V5.2 partitions I/O on demand Server resources počítače s obsluţným VEnet AIX 5L Linux VSCSI kernels kernels SLIC IVM*** Hardware programem pro bezpečnou Management CPU DynamicMovement Console* Virtual Networks komunikaci – HMC47. (HMC) Hypervisor Virtual Processors Virtual Storage Processors Administrátor takto nahlíţí Service Memory processor Expansion slots do konfigurace serveru a Local devices and storage definuje moţnosti vyuţití. Networks and network storage Rozdělení zdrojů do Obrázek 25: Moţnosti virtualizace, kterou disponují IBM servery s procesory POWER5+ logických separátních

46 Virtual Machine – je server, který pouţívá přidělenou část hardware serveru. Je moţné spustit více VM na jednom fyzickém serveru. 47 HMC – Hardware Management Console

43 oddílů, kterým se říká LPAR48. Hypervisor umoţňuje administrátorovi přidělit libovolné zdroje jako jsou procesory, paměť, expanzní PCI sloty a lokální zařízení jednotlivým LPARům. Další důleţitou vlastností je moţnost dynamického přesunu těchto zdrojů mezi jednotlivými LPARy a to buď zcela automaticky podle priority nebo manuálně na zváţení administrátora systému. Nejzajímavější je ale moţnost virtualizace procesorů. Administrátor můţe konfigurovat server tak, aby se všechny procesory staly součástí všech LPARů. Toto se nazývá „Processor Pool“. Takto kaţdý LPAR vidí maximální počet procesorů, kterými server disponuje. Na základě pravidel při vytváření LPARů se určuje priorita se kterou kaţdý LPAR bude přistupovat k přiděleným zdrojům. Pokud nastane situace, kdy LPAR s vysokou prioritou bude vytěţován aplikací, kterou hostuje více neţ má právě přiděleno. Bude poţadovat po Hypervisoru více zdrojů a ten mu je na základě pravidel a nastavených priorit uvolní na úkor LPARů s niţší prioritou. Po odeznění vytíţení tento LPAR opět vrátí zdroje pro pouţití ostatním LPARům. Efekt takového dělení o zdroje je především v celkově niţším poţadavku na hardware zdroje. Pokud takové řešení srovnáme s oddělenými servery, jak je tomu na obrázku 26, pak nikdy není moţné přesunout procesory nebo část jejich výkonu do jiného serveru. Kaţdý server pracuje pouze s tím co má k dispozici. Vytížení procesorů na separátních serverch

Ţádné sdílení není moţné bez fyzické 100% demontáţe a restartu serverů, kterých se 50% 10% taková změna týká nehledě na flexibilitu a produktivitu práce. Obrázek 26: "Rozdělování" hardware zdrojů mezi servery

6.2 Možnosti software

Je to alternativa jak dosáhnout podobné funkcionality pokud váš hardware neumoţňuje stejnou technologickou vyspělost jakou disponuje IBM.

48 LPAR – Logica Partition – logický oddíl s přiřazenými zdroji hardware s vlastním operačním systémem

44 Ostatní výrobci hardware se kloní k alternativnímu řešení na bázi software viz příklad na obrázku 27. Práci, kterou zastane IBM Hypervisor je potřeba nahradit jiným inteligentním stupněm, který poskytne poţadovanou funkcionalitu. Společnosti HP a SUN mají vlastní koncepty virtualizace pro servery pracující s operačními systémy UNIX.

Společnost HP dnes nabízí pro servery Integrity s procesory Intel Itanium moţnost virtualizace zdrojů prostřednictvím produktu VSE49, který se instaluje na host server. Takto vybavený server dále umoţňuje hostování nezávislých oddílů s vlastním operačním systémem a aplikacemi. Prostředí VSE pak plní obdobnou funkci jako Hypervisor u IBM serverů.

Koncept společnosti SUN je trochu odlišný neţ u HP. Virtualizační nástroj je součástí operačního systému Solaris 10, který se instaluje na host server. Jednotlivé oddíly jsou pak instalovány do Solaris kontejnerů. Ty jsou jakoby nadstavbou operačního systému a všechny kontejnery sdílí jednu verzi operačního systému. Opět je zde management hardware zdrojů, který rozděluje hardware zdroje mezi jednotlivé kontejnery.

Nejznámější moţností je nástroj pro virtualizaci na serverech s procesory Intel/AMD a to produkt od firmy VMware - ESX Server. Jedná se podobně jako v případě HP o virtualizační nástroj, který se instaluje přímo na host server. Po instalaci je server schopen hostovat zdroje pro oddělené aplikace v separátních oddílech a sdílet výkon a hardware zdroje. Obrázek 27: Klasický příklad virtualizace jako software řešení

49 Virtual Server Environment – technologie která umoţňuje virtualizaci hardware zdrojů serveru.

45 7 Autonomic computing

Autonomic computing je schopnost infrastruktury IT přijmout změny v souladu s obchodní politikou a obchodními cíly. Zcela zjednodušeně je to uvolnění IT profesionálů z tradiční práce a jejich zaměření na hodnotnější úkoly díky technologiím pracujícím chytřeji s obchodními procesy. Technologie se stává samo-konfigurovatelná, samo-hojivá, samo-optimalizovatelná a samo-ochranná. Termín „autonomic“ pochází analogicky z termínu autonomický centrální nervový systém v lidském těle, který se automaticky přizpůsobuje mnoha situacím bez jakékoliv externí pomoci. Chodím, běháme po schodech a naše srdeční aktivita se zvyšuje úměrně naší potřebě. Pokud je horko tak se potíme, pokud je zima tak se třeseme. Nikomu ani sobě neříkáme, ţe děláme tyto věci. Prostě se stanou. Podobně se můţeme vypořádat s problémem řízení komplexní infrastruktury. Vytvoříme počítačový systém a software, který dokáţe reagovat na změny v IT (a konec konců byznys) prostředí tak, ţe bude adaptibilní, dostane se z poruchy a dokáţe se ochránit.

7.1 Úvodní principy

Náklady na pořízení technologie se neustále sniţují kromě nákladů na IT. Mnoho společností dnes stojí před nákladnými rozhodnutími a IT manaţeři hledají způsob jak zlepšit návratnost investic vloţených do IT způsoby jako jsou:

Redukování celkových nákladů na vlastnictví IT - TCO50

Zlepšování kvality sluţeb

Zrychlení nasazování projektů

Řízení sloţitého IT prostředí IBM autonomic computing je vize pro inteligentní otevřené systémy, které umoţňují:

Řízení a sounáleţitost s ostatními systémy

„Znalost“ sama sebe

Průběţné vlastní ladění

50 TCO – Total Cost of Ownership – náklady na vlastnictví

46 Přizpůsobení se k nepředvídatelným podmínkám

Prevence a obnova po chybě

Schopnost poskytnout bezpečné prostředí Autonomic computing systémy se skládají ze čtyř atributů jak je znázorněno na následujícím kvadrantovém grafu obsahující tyto části:

Self-configuring (schopnost přizpůsobit se změnám v systému)

Self-healing (schopnost opravy z detekovaných chyb)

Self-optimizing (schopnost zlepšit uţití zdrojů)

Self-protecting (schopnost předvídat a řešet instrukce)

7.1.1 Self-configuring Obrázek 28: Základní části autonomic computingu S takovou schopností jakou je dynamická rekonfigurace sama sebe je IT prostředí schopno okamţitě, s minimálními nároky na zásah, nasazovat nové komponenty nebo změny v IT prostředí.

7.1.2 Self-healing

Samo ozdravné IT prostředí umoţňuje detekci problematických operací (buď proaktivně pomocí predikce nebo jinak) a inicializuje opravné akce bez poruchy systémových aplikací. Opravné akce mohou znamenat to, ţe produkt změní svůj vlastní stav a nebo ovlivní změnu jiné části prostředí. IT prostředí jako celek se stává více rezistentní a stabilní. Odolává vlivu výpadku způsobeného chybou některé komponenty.

7.1.3 Self-optimizing

Vlastní optimalizace hovoří a schopnosti IT prostředí účinně maximalizovat alokované zdroje a uţívat je k zajištění uţivatelských potřeb s minimálním zásahem. V pojmu „self-optimizing“ se z krátkodobého hlediska primárně pojmenovává komplexnost řízení systémového výkonu. Z dlouhodobého hlediska pak hovoříme o schopnosti jak vyuţívat nasbírané zkušenosti z běhu a jejich následného uţití pro vyladění sama sebe pro optimální dosaţení stanovených cílů.

7.1.4 Self-protecting

Prostředí s vlastní schopností ochrany umoţňuje autorizovaným uţivatelům přistupovat k datům v pravý čas a umoţňuje podniknout automaticky přiměřené akce k ošetření

47 sama sebe proti útokům na běţící infrastrukturu a data. Samo ochraňující se prostředí dokáţe detekovat nepřátelské nebo dotěrné chování pokud se objeví a podnikne autonomní akce potřebné pro vlastní ochranu, sníţení zranitelnosti proti neautorizovanému přístupu od počítačových virů, útokům vedoucím k omezovaní poskytovaných sluţeb nebo běţným chybám.

7.1.5 Ambiciózní model – lidské tělo

Lidské tělo představuje nejlepší příklad autonomního systému. Je sestaveno z několika stovek orgánům s vlastní regulačním systémem koordinovaným vyšším stupněm pomocí autonomního nervového systému, který prochází páteří od mozku. Komponenty IT systémů jsou také něco jako í orgány lidského těla viz n á Byznys politika Mozek d á obrázek 29. Sítě jsou nervový ž y v

systém a řízení prostřednictvím a

n Podstata autonomních

í Páteř a nervy

51 d schopností

middleware se stávají e ř t s o

mozkem celého systému. Toto r p

í

n Produkt poskytující srovnání také demonstruje l i Orgány b

i Autonomic vlastnosti x

problematiku řešení problémů e l F k dosaţení plné autonomity. Otevřený Integrovaný Virtualizovaný Nutno dodat ţe lidský autonomní mechanismus není Obrázek 29: Blokový model autonomic computingu v návaznosti na lidské tělo zcela pochopen.

7.2 Bloková architektura – procesní kruh

Autonomní architektura IBM je zaloţena na stavebních blocích a procesním kruhu. Všechna zařízení vykazující stupeň autonomity jsou takovým kruhem řízena. V tradičních zařízeních je procesní kruh implementován do vodičů a microkódu52.

7.2.1 Používané procesy v praxi

Následující příklady uvádějí jiţ běţně pouţívané metody reakce na případné chyby v systému a reakce jednotlivých komponent na vzniklou chybu nebo preventivní opatření k eliminaci moţného výpadku dané části.

51 Middleware – je část software, která propojuje jednotlivé funkční celky, které spolu komunikují 52 Microkód – část software který pouţívá hardware jako svůj obsluţný a kontrolní program

48 Ve vysoko dostupných clusterech53odolných proti výpadku serveru, jako IBM HACMP54 je procesní kruh tvořen sadou přiřazených skriptů a daemon programů monitorujících „ţivotní“ funkce clusteru a rozhodují o případné změně fungování na základě nastavených pravidel.

V paměťových obvodech je procesní kruh pevně integrovaný do obvodů paměťového modulu s tím, ţe monitoruje paměťové buňky a nahrazuje vadné buňky z redundantních buněk pokud je to potřeba.

IBM diskové jednotky obsahují PFA55schémata vyuţívající kombinaci microkódu a sluţeb operačního systému k monitorování ţivotních funkcí diskových stop a podnikají opravné akce dříve neţ dojde k chybě disku.

Procesory POWER v architektuře IBM serverů p5 nebo i5 jsou rovněţ monitorovány a kontrolovány servisním procesorem. Firmware serveru spolupracuje s operačním systémem a pokud vyhodnotí nevhodnost pouţívání procesoru z důvodu překročení limitů pro bezpečný provoz je takový procesor okamţitě odpojen. Tento krok vyţaduje spolupráci s operačním systémem a fyzické přítomnosti jiného procesoru jako náhrada původního.

7.2.2 Celková funkce

Celková funkce je znázorněna na obrázku 30. Posláním autonomického kontrolního kruhu je regulovat zdroje komponent nebo skupiny zdrojů. Přijímá informace od komponent prostřednictvím senzorů a také z okolního prostředí. Provede analýzu všech dat, určí trendy nebo akce. Předpovídá co se stane, eventuálně příjme rozhodnutí a provede Obrázek 30: Blokové schéma procesního kruhu modifikaci spuštěním příkazu prostřednictvím patřičného efektoru56. Kontrolní kruhový proces běţí neustále dokola jako nekonečná smyčka. Znalosti z běhu jsou předávány do znalostní báze, kde se systém sám učí z vlastních zkušeností.

53 Cluster – spojení několika serverů pro dosaţení vyšší dostupnosti sluţby a odolnosti proti chybě 54 HACMP - cluster řešení IBM – High Available Cluster Multi Processor 55 PFA – preventive failure analysis – preventivní chybová analýza 56 Efektor – jednotka/agent mající efekt na funkci systému. Pouţívá se pro řízení systému

49 V reálném nasazení jsou takové smyčky distribuovány přes celou infrastruktury jako různé orgány v lidském těle, kde kaţdý reguluje vlastní fungování ale také participuje na celkovém schématu. Kaţdý nese s sebou standardní protokoly a datové toky.

50 8 Závěr

V závěru této bakalářské práce provedu shrnutí informací zde obsažených a také jejich zhodnocení včetně vyvození závěru.

Cílem práce je přiblíţit čtenáři s běţným přehledem v oblasti IT rozsáhlou problematiku moderních technologií a jejich praktické vyuţití. Při výběru vhodných materiálů pro získání potřebných informací jsem čerpal především z internetových zdrojů a také z vlastních zkušeností v oblasti superserverů.

V úvodu této práce jsem v krátkosti popsat historický vývoj v oblasti špičkových počítačů. Následně jsem demonstrovat na přehledu nejmodernějších technologií, které jsou aktuálně vyuţívané předními světovými společnostmi IT, pokrok v této oblasti. Jako pohled do budoucnosti jsem popsal vývojové trendy, které jsou současnými top firmami IT preferovány.

Pro srovnání dostupných komerčních serverů jsem se zaměřil na jejich hlavní výrobce. Popsal jejich jednotlivé architektury a koncepty včetně výhod a nevýhod, které mají jejich produkty při provozování aplikací.

V návaznosti na popsané technologie vyuţívané v praxi jsem popsal několik zajímavostí ze světa superserverů tak, aby čtenář měl přehled čeho lze dosáhnout s pouţitím všech dostupných technologií a jaké budou další kroky v této oblasti. Z popsaných projektů bych rád připomněl projekt WCG, který sjednocuje statisíce počítačů z celého světa do jednoho výpočetního celku pro řešení náročných vědeckých úloh. Pro kaţdého z nás je jistě důleţité si uvědomit, ţe je moţné být také součástí některého z projektů, které mohou výrazně posunout lidstvo kupředu.

Mezi nejčastěji skloňované termíny IT jsou bezesporu témata jako virtualizace a Autonomic computing. V posledních kapitolách jsem detailně popsal principy a moţnosti dnešních serverů v oblasti virtuálního, logického a fyzického dělení zdrojů, které je dáno vlastnostmi hardware nebo software. Vzhledem ke stále sloţitějším systémům bude nesmírným přínosem pro budoucí systémy IT zcela autonomní systém se schopnostmi vlastní regulace a optimalizace zdrojů. Například administrátoři zejména ocení schopnost sebeopravy takovýchto systémů bez jejich zásahu.

51 Závěrem bych chtěl zhodnotit přínos superserverů pro lidstvo. Je samozřejmě pozitivním posunem kupředu fakt, ţe většina těchto systémů je konstruována pro prevenci před přírodními katastrofami, jakoţto i k řešení nastalých problémů v nejrůznějších oblastech ţivota, a ţe čím dál méně se vyuţívá jejich schopností pro vojenské účely. Ze vzrůstající tendence nároků na výkon serverů je zřejmé, ţe superservery budoucnosti budou dnešní časově náročné úlohy zvládat za zlomek času a v podstatě se tak neustále přibliţujeme fikci o počítačově řízeném světě.

52 9 Seznam použité literatury

9.1 Knihy

Jakob, Bart; Lanyon-Hogg, Richard; K Nadir, Devaprasad; Yassin, F Amr. A Practical Guide to the IBM Autonomic Computing Toolkit. Duben 2004. SG24-6635-00 Dostupná na: http://www.redbooks.ibm.com

Kahle, J. A.; Day, M. N.; Hofstee, H. P.; Johns, C. R.; Maeurer, T. R.; Shuply, D.. Introduction to the Cell multiprocessor. IBM J. RES. & DEV. VOL. 49 NO. 4/5 červenec - říjen 2005 Dostupná na: http://www.research.ibm.com/journal/rd/494/kahle.pdf

Shahidi, G. G. SOI technology for the GHz era. IBM J. RES. & DEV. VOL. 46 NO. 2/3 březen - květen 2002 Dostupná na: http://www.research.ibm.com/journal/rd/462/shahidi.pdf

Vågmo, Morten; Wüstefeld, Peter. Advanced POWER Virtualization on IBM System p5: Introduction and Configuration. IBM Redbooks. Únor 2007 Dostupná na: http://www.redbooks.ibm.com/redbooks/pdfs/sg247940.pdf

9.2 Internetové odkazy http://www.research.ibm.com (IBM Research – domovská stránka všech IBM laboratoří) http://www.research.ibm.com/journal/rd/494/tocpdf.html (IBM Research Journal) http://www-03.ibm.com/chips/asics/foundry/technologies/bicmos.html (SiGe) http://www-03.ibm.com/servers/eserver/pseries/hardware/whitepapers/power3wp.html (IBM POWER3) http://www.research.ibm.com/resources/press/strainedsilicon/ (Strained Silicon) http://www-03.ibm.com/servers/eserver/pseries/hardware/whitepapers/power4.html (IBM POWER4)

53 http://en.wikipedia.org/wiki/Low-k (Low-k dielektrikum) http://www.realworldtech.com (IBM POWER6) http://en.wikipedia.org/wiki/High-performance_computing (HPC) http://www.top500.org/ (Top 500 superpočítačů) http://en.wikipedia.org/wiki/Grid_computing (GRID) http://www.ogf.org/UnderstandingGrids/ggf_grid_understand.php (GRID) http://h20341.www2.hp.com/integrity/cache/342254-0-0-0-121.html (HP Enterprise servery) http://www.sun.com/servers/index.jsp?gr0=cat&fl0=cat3&gr1=cpu&fl1=cpu4 (SUN Microsystems Enterprise servery) http://www-03.ibm.com/systems/p/ (IBM servery System p) http://www.research.ibm.com/deepblue/ (DeepBlue) http://www.llnl.gov/ (ASCI - Lawrence Livermore National Laboratory) http://www.llnl.gov/asc/computing_resources/purple/purple_index.html (ASCI Purple) http://www.research.ibm.com/weather/DT.html (Deep Thunder) http://www.research.ibm.com/bluegene/ (BlueGene/L) http://www-1.ibm.com/servers/deepcomputing/bluegene.html (BlueGene/L) http://www-fp.mcs.anl.gov/bgconsortium/ (BlueGene/L) http://www.llnl.gov/asci/platforms/bluegenel/ (BlueGene/L) http://www.worldcommunitygrid.org (WCG) http://www.ibm.com/podcasts/howitworks/021307/index.html (WCG) http://www.gridcomputing.com (GRID Infoware) http://www.redbooks.ibm.com (IBM technologie) http://www.vmware.com/vmtn/resources/ (VMware) http://h71028.www7.hp.com/enterprise/cache/258348-0-0-0- 121.html?jumpid=reg_R1002_USEN (HP VM) http://www.sun.com/software/solaris/howto_guides.jsp (Sun Solaris container) http://www.microsoft.com/windowsserversystem/virtualserver/default.mspx (MS Virtual Server)

54 10 Seznam obrázků a tabulek

Obrázky Obrázek 1: Chip pouţívající SiGe technologii 8 Obrázek 2: Chip s měděnými spoji 8 Obrázek 3: Příklad pouţití SOI technologie 9 Obrázek 4: Schéma pouţití nového dielektrika Low-K 9 Obrázek 5: Pouţití technologie Stained Silicon při návrhu chipu 9 Obrázek 6: Dvoujádrových procesor IBM POWER4 10 Obrázek 7: Porovnání architektury procesoru POWER5+ a nového procesoru POWER6 11 Obrázek 8: Porovnání POWER5+ a POWER6 systémové architektury 12 Obrázek 9: Klíčové specifikace dnes pouţívaných technologií pro výrobu nejmodernějších chipů 13 Obrázek 10: Architektura uniprocesorového systému 17 Obrázek 11: Architektura systému symetrického multiprocesingu s přepínanou architekturou 19 Obrázek 12: EXA architektura IBM pro xSeries servery s procesory Intel 20 Obrázek 13: Masivně paralelní architektura zaloţená na vysoce propustné přepínané architektuře 22 Obrázek 14: Distribuovaný switch + GX Bus, sběrnice propojující všechny procesory22 Obrázek 15: IBM POWER5 Multi-chip Module (MCM) - 64 procesorový server IBM System p 595 (8x MCM) 23 Obrázek 16: Architektura serveru HP rx8620 v blokovém schématu 25 Obrázek 17: Blokové schéma IBM DeepBlue propojení 32 Obrázek 18: Struktura nového materiálu zpracovávaný systémem ASCI Purple převedený do vizuální podoby 33 Obrázek 19: Blokový model IBM Deep Thunder 35 Obrázek 20: Síť pro modelování předpovědi počasí 37

55 Obrázek 21: Blokové schéma modulární architektury IBM BlueGene/L 38 Obrázek 22: Ukázka desktop aplikace pro klientské PC v rámci WCG projektu 40 Obrázek 23: Modelové schéma propojení komponent v systému WCG 41 Obrázek 24: Vývoj super počítačů v následujících letech 42 Obrázek 25: Moţnosti virtualizace, kterou disponují IBM servery s procesory POWER5+ 43 Obrázek 26: "Rozdělování" hardware zdrojů mezi servery 44 Obrázek 27: Klasický příklad virtualizace jako software řešení 45 Obrázek 28: Základní části autonomic computingu 47 Obrázek 29: Blokový model autonomic computingu v návaznosti na lidské tělo 48 Obrázek 30: Blokové schéma procesního kruhu 49 Tabulky Tabulka 1: Porovnání hodnot ASCI Purple a lidského mozku 34 Tabulka 2: Aktuální snímek zpracovaných dat ve všech projektech WCG ke dni 18.3.2007 41

56