Softverski definisani data centri – hir velikih ili realnost

U softverski definisanim data centrima sve je otvoreno – hardver, softver, aplikacije. Da li su jeftin hardver i otvoreni softver dovoljno pouzdani za vaš data centar? Ako Google i Amazon tako misle, zašto biste vi sumnjali.

Deljenje resursa i virtuelizacija su već duže vreme ustanovljeni koncepti pri konfiguraciji servera i storidža. Softverski definisane mreže (SDN) i overlay koncept su i smišljeni sa ciljem da se mreža prilagodi opštoj virtuelizaciji
Deljenje resursa i virtuelizacija su već duže vreme ustanovljeni koncepti pri konfiguraciji servera i storidža. Softverski definisane mreže (SDN) i overlay koncept su i smišljeni sa ciljem da se mreža prilagodi opštoj virtuelizaciji

U vremenu turbulentnih tehnoloških promena izgradnja modernog data centra predstavlja ozbiljan poduhvat i bilo koje izabrano rešenje može se pokazati pogrešnim već posle godinu ili dve. Arhitektura data centara danas je uglavnom uslovljena rapidnom ekspanzijom internet saobraćaja i različitim cloud konceptima, međutim, teško da iko može predvideti da će takva arhitektura biti zadovoljavajuća u narednih 10 do 15 godina, koliki je uobičajeni životni vek jednog data centra.

Data centar menadžeri nalaze se između čekića i nakovnja zbog mnoštva kontradiktornih zahteva koji se pred njih postavljaju. S jedne strane, infrastruktura (kablovi, klime, napajanja) mora biti sposobna da se prilagodi rastućim potrebama za kapacitetima, a s druge, budžeti su ograničeni i smanjenje troškova je uvek glavni cilj. Najveći izazov je kako sa ograničenim budžetom izgraditi data centar koji će biti modularan i fleksibilan da zadovolji postojeće tehnološke zahteve, koji će biti energetski efikasan i obezbediti kontinuitet poslovanja u svim mogućim i nemogućim uslovima, ali i biti spreman za nove tehnologije o kojima danas znamo tek poneki akronim.

Postojeći data centri odlikuju se kompleksnom i heterogenom arhitekturom, počevši od arhitekture servera (blade sistemi, integrisani sistemi), mrežne opreme (switch‑evi, ruteri), pa do kablova (bakarni, optički) i rack‑ova (serverski, open frame, telco). U centru svega su hardver i fizička infrastruktura, pa je veličina data centra praktično ograničena veličinom prostora u kome je infrastruktura smeštena. Standardi koji se danas primenjuju za greenfield data centre propisuju minimalne uslove koji se odnose na infrastrukturne komponente (TIA‑942 standard koji je propisao ANSI), dok za tehnologije u data centrima ne postoje takvi standardi, već to diktiraju tehnološki trendovi.

Deljenje resursa i virtuelizacija su već duže vreme ustanovljeni koncepti pri konfiguraciji servera i storidža pošto su se pokazali uspešnim kako sa stanovišta uštede novca, tako i sa stanovišta povećanja agilnosti i raspoloživosti sistema. Virtuelizacija omogućava da data centri izađu iz okvira fizičkog prostora serverskih sala, ali da bi jedan virtuelni server zaista mogao koristiti hardverske resurse koji se nalaze na različitim lokacijama mora postojati podrška mreže. Pored toga, količina podataka koja se danas razmenjuje između servera u data centru često je veća od one koja se razmenjuje između servera i klijenata izvan data centa, pri čemu se podaci prenose iz virtuelnog u fizičko okruženje i obrnuto. Softverski definisane mreže (SDN) i overlay koncept su i smišljeni sa ciljem da se mreža prilagodi sveopštoj virtuelizaciji, ali to nije sve što ćemo uskoro videti od naprednih tehnologija u data centrima.

Pročitajte i:  Najskuplja softverska akvicizija ikada: IBM kupio Red Hat za 34 milijarde dolara!

Megadata centri

Sudeći po onome što rade Google i Amazon, na pomolu su krupne promene u infrastrukturi data centara. Naime, ovi giganti su započeli proces migracije svojih megadata centara na softverski vođenu infrastrukturu (SLI), koja podrazumeva kompletnu virtuelizaciju i automatsku raspodelu resursa unutar i između data centara. U pozadini svega je nova infrastruktura koja će biti bazirana na otvorenom hardveru, otvorenom softveru i platformi koja će sve resurse orkestrirati i optimizovati prema trenutnim potrebama. Otvorenost hardvera i softvera, na prvom mestu, znatno smanjuje troškove IT infrastrukture (i do 50%), zbog činjenice da je nabavka hardvera generalne namene jeftinija, a i oprema u data centrima je homogenija, što smanjuje troškove održavanja. Umesto skupih brendiranih  switch‑eva, megadata centri se oslanjaju na tzv. white box switch‑eve, koji imaju isti hardver kao i switch‑evi poznatih svetskih proizvođača, ali nemaju nikakav softver. Dakle, Google i Amazon kupuju opremu i sami prave svoje switch‑eve bazirane na otvorenom softverskom steku.

Otvoreni softverski stek omogućio je Google‑u i Amazon‑u da virtuelizuju mrežne funkcije kao što su firewall, rutiranje ili rate limiting bez kupovine dodatnog hardvera. Primera radi, Google je implementirao neke od ovih funkcija kao pipelining procese u softveru, tako da paketi koje šalje virtuelni server prolaze kroz ove softverske procese pre nego što stignu do mrežnog adaptera na fizičkom serveru. Bitno je reći da se konfiguracija i upravljanje virtuelnim mašinama, softverskim svičevima, pa čak i hardverom, radi s jednog centralnog mesta, kontrolera, koji može da programira sve te komponente.

Od visokotehnoloških data centara očekuje se mogućnost automatskog dodavanja ili oslobađanja resursa (scale‑out  i scale‑in) kao što su CPU, memorija ili diskovi, a prema trenutnim potrebama i opterećenjima mašina. Da bi ovo u praksi bilo moguće, sve komponente koje učestvuju u tom procesu (virtuelni serveri, storidži, mreža, aplikacije) moraju se na neki način identifikovati među sobom. Zbog toga svaka SLI komponenta u megadata centrima mora posedovati određeni skup metapodataka koje će razmenjivati s drugim komponentama preko poznatih API‑ja. Kada je, na primer, za novouspostavljeni virtuelni server ili novu aplikaciju na serveru potrebno rezervisati određene kapacitete u mreži, metapodaci će se koristiti za identifikaciju servera ili aplikacija koji rezervišu kapacitete. Za ovako kompleksne interakcije otvoreni softverski stek je idealan poligon za rad.

Pročitajte i:  Kako najbolje fizički zaštititi mrežnu infrastrukturu?

Treba učiti od velikih

Recept za dobro cloud rešenje treba potražiti u adaptaciji postojećih ili izgradnji novih data centara, koji će koristiti što uniformniji hardver, s visokim stepenom virtuelizacije koja će pokriti raznorodne potrebe.
Recept za dobro cloud rešenje treba potražiti u adaptaciji postojećih ili izgradnji novih data centara, koji će koristiti što uniformniji hardver, s visokim stepenom virtuelizacije koja će pokriti raznorodne potrebe.

Iako imaju veliki potencijal, tehnologije SLI, SDN (Software Defined Networking) i NFV (Network Functions Virtualization) još uvek su u povoju, i danas nemaju širu primenu u data centrima. Onoga trenutka kada iz faze „uradi sam“ postanu afirmisane tehnologije, očekuje se da drastično poboljšaju iskorišćenje resursa i smanje fizički prostor potreban za smeštaj opreme. Po nekim procenama, resursi u tradicionalnim (kompletno hardverski baziranim) data centrima iskorišćeni su oko 30%, dok se virtuelizacijom taj procenat danas povećao na 50. Sa SLI, SDN i NFV‑om iskorišćenje resursa u data centrima trebalo bi da dostigne 70%.

Skeptici su skloni da kažu da neki servisi nikada neće moći da se izmeste na softverski baziranu infrastrukturu zbog toga što performanse koje se postižu u softveru ne mogu da se mere sa onima koje postiže specijalizovani hardver. Međutim, performanse servera generalne namene stalno se unapređuju. Nije daleko dan kada će virtuelne servere pokretati procesori sa 32 jezgra, svako brzine 2 GHz, a pristup terabajtima flash memorije biće moguć brzinama od stotinu hiljada ulazno/izlaznih (I/O) operacija po sekundi. Pored toga, tehnike ubrzanog prosleđivanja paketa na običnim mrežnim adapterima, uz minimalno angažovanje procesorskog takta (koje je Intel već danas implementirao na svojoj arhitekturi kroz biblioteku pod nazivom Data Plane Development Kit), doprinele su tome da se za velike protoke podataka ne mora nužno koristiti specijalizovani hardver kao što su ASIC čipovi ili FPGA kola.

Pročitajte i:  BIZIT 2018: Data Centri – Infrastruktura za budućnost

Ipak, i pored jeftinog hardvera i otvorenog softvera, nije svako u mogućnosti da napravi tako superiorne data centre kao što su to uradili Google i Amazon. Da li će njihova superiornost, s jedne, i visoki troškovi izgradnje sopstvenog data centra, s druge strane, uticati na druge, manje kompanije da povere megadata centrima svoje podatke i aplikacije?

Ako sami ne prilagode arhitekturu svojih data centara najnovijim tehnologijama, kompanije bi mogle da zapadnu u ozbiljne probleme dugoročno se oslanjajući na tradicionalni model. Za manje kompanije cloud je najisplativije rešenje. Međutim, za banke, osiguravajuća društva, telko operatore i druge veće firme koje čuvaju poverljive podatke o korisnicima i imaju svoje tzv. legacy aplikacije, potpuni prelazak na cloud nije moguć, što zbog zakonskih ograničenja, što zbog prevelikog rizika prebacivanja legacy sistema u cloud. Recept za opstanak treba potražiti u adaptaciji postojećih ili izgradnji novih data centara, koji će koristiti što uniformniji hardver, s visokim stepenom virtuelizacije. Što se softvera i aplikacija tiče, ne treba bežati od open source rešenja, pogotovu za nove sisteme. Na kraju krajeva, i proizvođači komercijalne opreme sve više koriste open source softver za svoje proizvode. Međutim, kada se radi o nasleđenim sistemima koji opslužuju veći broj korisnika treba ipak biti oprezan, pošto su takvi sistemi obično zatvoreni i optimizovani za određenu namenu, pa njihova migracija na open source može prouzrokovati mnoge probleme.

Hteli to da priznaju ili ne, proizvođači IT opreme nisu više ti koji diktiraju tehnološka rešenja u data centrima. Tu su ulogu danas preuzeli Google, Amazon, Facebook i drugi web giganti. Uvidom u to šta oni rade i pokušaj da nešto od toga prekopiraju u dugoročne IT planove svakom data centar menadžeru može pomoći u svom poslu. Jer, iako raspolažu ogromnim budžetima, web kompanije ne rasipaju novac na infrastrukturu, već se trude da pronađu rešenja koja će najbolje iskoristiti resurse u data centru, što ih je, između ostalog, i dovelo na liderske pozicije u kriznim vremenima.

Aleksandar Cvjetić

 Objavljeno u časopisu connect broj 42

Facebook komentari: