Kan du få et mål for den mærkelige, virtuelle verden af ​​datacentre skalering og opskalering?

At skalere op eller skalere ressourcer fra datacentre? Det var spørgsmålet. Men nu kan der komme et større skift på den måde, hvorpå serverudbydere tackle problemet, siger Clive Longbottom.

I begyndelsen var computeren, og computeren var en mainframe. Det repræsenterede en opskaleringstilgang, hvor arbejdsmængder blev kørt på et sæt af meget definerede ressourcer. Så kom den standard højvolumen-server.

Oprindeligt kørte en enkelt applikation på hver fysisk højvolumen-server, men først klynge og derefter virtualisering skabte en skaleringsmetode, hvor behovet for flere ressourcer håndteres blot ved at kaste flere servere, lager og netværk til problemet.

Denne tilgang antog, at arbejdsmængder havde brug for et standard sæt ressourcer - og udskalings mangler blev tydelige, når det gjaldt visse arbejdsmængder, der krævede mere indstilling af de tilgængelige ressourcer, såsom CPU, netværk, opbevaring og input / output (I / O ).

Alderen for ren opskalering gik for lidt tid siden, og hasten med ren udskalning ser ud til at være ved at afslutte, så hvad skal man derefter næste? Foto: Shutterstock

Der er et sted i en IT-arkitektur til begge tilgange, men en større ændring kan være på foden i den måde serverleverandører tackle problemet.

Lad os starte med Cisco. I 2009 lancerede Cisco sin Unified Computing System (UCS) -arkitektur - en modulariseret tilgang til Intel-baseret computing.

Ved at kombinere rackmonterede klinger med top-of-rack netværkskomponenter og opbevaring sammen med VMware virtualisering, BMC-systemadministration og et Microsoft Windows-operativsystem er UCS rettet mod meget specifikke Windows-baserede arbejdsbelastninger.

Med andre ord var UCS i det væsentlige en opskaleringsarkitektur - en slags mainframe bygget fra lavere pris, ikke-helt-råvare hardware byggesten.

Dell, HP, IBM, Oracle og SGI har alle gjort noget lignende baseret på enten modulære datacentrekomponenter eller containerbaserede systemer. I begge tilfælde kan deres systemer indstilles til at tilvejebringe bestemte egenskaber, der beskæftiger sig med forskellige arbejdsbelastninger på forskellige måder - igen, mere et kendetegn ved et opskalingssystem end en storskala-server-tilgang til servere.

Servere, lager og netværksudstyr er konstrueret af rack, række eller container for at give et større udvalg af arbejdsmængde, end der kan tilbydes ved blot at sammensætte en samling af individuelle ressourcer. Aktivering af virtualisering og privat skybaseret elasticitet øger udnyttelsesgraden og reducerer energiomkostningerne.

Der er imidlertid en synergi mellem opskalering og udskalering. Slutbrugerorganisationer er nødt til at vide, at brug af en modulariseret tilgang til at købe i præ-befolkede stativer ikke betyder, at hvis eller når de løber tør for en bestemt ressource - CPU, opbevaring, netværk eller I / O - de ikke behøver at købe et andet komplet system til at give trinvise ressourcer.

Igen er her, hvor virtualisering kommer ind. Yderligere ressourcer kan anvendes som selvstændige komponenter, der kan udnyttes af det eksisterende hovedsystem gennem dets styringssoftware og bruges efter behov.

Denne tilgang er en nødvendighed, hvis den nye opskalering skal fungere. Løftet om højvolumen-servere og virtualisering har været den væsentligste commoditisation af datacentre, idet forskellige komponenter udgør it-platformen til individuelt lave omkostninger. Hvis en komponent mislykkes, er udskiftningen billig og let.

Denne tilgang fungerer godt i en ren skala-out arkitektur, men ...

© Copyright 2020 | mobilegn.com