Hvorfor velge et software-definert datasenter?

Norske bedrifters datasenter er i konstant utvikling, og det er et stadig økende behov for fleksibilitet, smidighet og kontroll. Selv om mange tjenester flyttes til, eller konsumeres i, skyen, er det fortsatt slik at det i de aller fleste tilfeller fremdeles er behov for lokale resurser. Enten det er fordi en benytter eldre applikasjoner som ikke kan eller bør flyttes, eller at man ikke ønsker å flytte bedriftsinterne data “ut av huset”. Dette betyr at en i stadig økende grad benytter seg av en såkalt hybridmodell, hvor enkelte tjenester kjøpes som skybaserte løsninger, og andre driftes av en intern IT-avdeling.

Den tradisjonelle IT-avdelingen er utsatt for et stadig større press, både når det gjelder kvaliteten på tjenestene de leverer, men også tiden det tar å implementere nye systemer. Det er ikke lett for en relativt liten IT-avdeling å konkurrere med giganter som AWS og Azure når det gjelder fleksibilitet og smidighet.

Heldigvis finnes det måter å administrere lokale resurser på, som langt på vei muliggjør den samme typen leveranser.  Nå har jeg ikke tall på hvor stor andel av norske servere som er virtualisert, men om jeg skulle tippe vil jeg tro at andelen ligger på 80-90%. Dette betyr at de absolutt fleste har på plass den første byggesteinen for å benytte seg av det vi kaller et Programvaredefinert Datasenter, eller Software Defined Data Center (SDDC), som det så fint heter på originalspråket. 

Et SDDC er enkelt fortalt en modell hvor alle lag av IT-infrastrukturen er software-definert.  Dette betyr at en i så stor grad som mulig forsøker å løsrive seg fra spesialisert hardware. På samme måte som en allerede virtualiserer CPU og minne gjennom VM’er, kan en nå virtualisere både lagring og nettverkstjenester. Dette gir en helt ny fleksibilitet, og redusert hardware avhengighet. Det er jo selvsagt slik at en fremdeles trenger fysisk hardware å kjøre tjenestene på, men det er ikke lenger like viktig *hvilken* hardware man benytter seg av.  

Målet med SDDC er å abstrahere så mye som mulig av den underliggende funksjonaliteten bort fra hardware, og inn i software som kan styres, og ikke minst; automatiseres.

Hvis vi tar utgangspunkt i VMware’s SDDC produktportefølje vil det se slik ut:

  • CPU / Minne (Compute): vSphere og ESXi hypervisor
  • Lagring: SDS (Software Defined Storage) vSAN og VVols
  • Nettverk og Sikkerhet: NSX
  • Overvåking, Administrasjon og Automatisering: vRealize Suite 

Å kunne styre hele sitt datasenter, gjennom software, gir en del åpenbare fordeler. Det gir større fleksibilitet, på samme måte som vi kjenner det gjennom tradisjonell server-virtualisering. Der man tidligere måtte vente på leveranse av ny server-hardware for å kunne sette opp en ny tjeneste, kan en nå gjøre dette gjennom noen få tastetrykk—eller enda bedre, helt automatisert basert på behov som er definert på forhånd.

Virtualisering av lagring gir andre muligheter, som spesifikke lagringsegenskaper per tjeneste, kontra et sett med egenskaper som er definert av lagringssystemet. Det betyr for eksempel at en kan velge å replikere enkelt-tjenester mellom datarom, og ikke hele lagringsvolum, eller gi enkelte tjenester prioritet og høyere ytelse en andre uten å gjøre endringer på lagringssystemet. Alt styres via policy, noe som gir forutsigbarhet og fleksibilitet. Endres behovet, så kan policy også endres uten migrering av data eller nedetid. Dette kan kjøres både med lokal lagring i hypervisoren (vSAN), eller gjennom VVols som gir SDS funksjonalitet fra mer tradisjonelle, eksterne lagringssystemer.

Når det gjelder nettverk og sikkerhet, så er fordelene kanskje mer åpenbare. Muligheten til å kunne lage egne, lukkede nettverk mellom applikasjoner og tjenester, uten at trafikken må ut i en sentral router gir en veldig stor grad av fleksibilitet, og det helt uten at en må rekonfigurere routere i kjernenettverket. Det samme gjelder sikkerhet, brannmursregler som følger applikasjoner og/eller tjenester, uten at en må vedlikeholde ett stort sett med sentrale regler som manuelt må oppdateres. Dette er en stor fordel, samtidig som en da drar brannmuren helt inn på applikasjonsnivå, og ikke bare bruker den som perimetersikkerhet. En trenger selvsagt fremdeles nettverks-hardware, men den må nødvendigvis ikke være like “intelligent” som tidligere når en flytter funksjonaliteten inn i software som ikke er knyttet mot spesifikk hardware.

Når alle disse komponentene er virtualisert og software definert, åpner det seg helt andre muligheter for automatisering. Plutselig er ikke tanken om å kunne automatisere oppsett av nye tjenester, med underliggende lagring, nettverk og sikkerhet så fjern allikevel—samtidig som en automatisk får opp overvåking og administrasjon av ressursene.

Men, som med alle teknologier, så finnes det også noen utfordringer forbundet med å innføre et SDDC. Tradisjonelt er det ofte slik at det er forskjellige personer og avdelinger som administrerer servere, lagring og nettverk. Når en innfører et SDDC, vil dette utfordres. Hvem er det som har ansvaret for lagring, når lagringen er en integrert del av hypervisoren? Tiden der vi hadde siloer mellom de forskjellige datasenter-disiplinene er i ferd med å renne ut, og SDDC tankegangen visker i stor grad ut denne tankegangen. Betyr det at vi ikke lenger har behov for spesialister, og at alle må kunne litt om alt, og ikke mye om noe?

Nei, det betyr det definitivt ikke. At en kan administrere et datasenter som én enhet, er en styrke, ikke en svakhet

Vi har fremdeles behov for virtualiseringseksperter, nettverksguruer og lagringsninjaer—de må bare jobbe sammen på en annen måte en tidligere, for å kunne levere det tjenestetilbudet, i det tempoet, som bedriften krever.