View
656
Download
0
Category
Preview:
Citation preview
TECNICO DI RETI INFORMATICHE SPECIALIZZATO IN SICUREZZA DELLE RETI
RIF. P.A. 2010 - 948/RER
Abbiamo visto che la nostra struttura fisica deve possedere, nella sua visione ottimale, i seguenti requisiti:
Relazioni on-demand fra i componenti
Agilit strutturale
Azzeramento degli sprechi delle risorse
Conformit agli SLA definiti
Allineamento ai BP
I fattori da considerare, nella valutazione di un componente fisico della rete (in particolare, un server) dovranno quindi necessariamente essere:
Scalabilit (orizzontale e verticale)
Ottimizzazione del consumo delle risorse
Affidabilit
Integrit
Obiezione 1) E il problema dell'interoperabilit dei sistemi?
L'aumento del livello di astrazione ha portato alla definizione di protocolli e standard di livello pi alto possibile, rendendo di fatto la struttura hardware-indipendent. Il mercato dominato da middleware cross-platform, gli standard sono aperti, le alternative infinite. Anche con riferimento ai sistemi legacy
Obiezione 2) E la potenza di elaborazione?
Il concetto di raw power stato sorpassato da scalabilit e ottimizzazione delle risorse (anche dal punto di vista energetico). La capacit di elaborazione deve essere on-demand come la struttura. Lo sviluppo tecnologico segue gli stessi driver: le architetture cpu diventano multi-core e distribuite, frequenza e n. di core diventano dinamici.
.
Conclusione
Siamo in grado di scegliere il sistema che ha il minor numero di vincoli ambientali ammissibile (ovvero solo quelli posti dalla nostra unit di business)
Il mio dominio di scelta deve ammettere il numero massimo di architetture sia come cardinalit (tecnologie) che di ordinalit (dimensioni)
Il limite all'evoluzione del sistema fissato dalla capacit di scalare verso l'alto, dato un workload; ma un limite anche l'incapacit di preservare le risorse in condizioni non di picco, dato lo stesso workload
E' fondamentale aumentare la parcellizzazione dei sistemi per ottenere la massima percentuale di utilizzo delle componenti fisiche
E' FONDAMENTALE L'INTRODUZIONE DI UN LAYER CHE PERMETTA DI SCORPORARE IL SERVER FISICO DA QUELLO LOGICO
.
.
HYPERVISOR (aka VMM, Virtual Machine Manager)
Hypervisor
Classificazione tradizionale (Robert P. Goldberg)
Tipo 1 (bare metal) L'hypervisor viene eseguito direttamente sull'hardware per regolarne l'accesso e monitorare i sistemi guest. I sistemi guest sono presenti al secondo livello.
Type 2 (or hosted) L'hypervisor viene eseguito all'interno di un sistema operativo convenzionale. L'hypervisor quindi al secondo livello di astrazione, i guest al terzo.
. gl
Hypervisor di tipo 1
Bare metal, ospitato direttamente dall'hardware
Necessita di modifiche ai S.O. Guest (syscall) o di un layer di binary translation
Unico mediatore per le risorse
Pu necessitare di predisposizioni hardware (CPU)
Massimo livello di isolamento dell'hardware (non possibile accedervi direttamente)
Hypervisor di tipo 2
Ospitato all'interno di un S.O.
E' mediatore dei livelli superiori, ma non esclusivo
Non necessita di modifiche ai S.O. Guest (syscall)
E' mantenuta la possibilit di accedere direttamente all'hw della macchina, tramite il S.O. host
Overhead maggiore rispetto al tipo 1, dovuto a un layer aggiuntivo
Hardware e S.O. guest, possono avere differente metodologie di comunicazione, in base alle caratteristiche dell'hypervisor e dell'hardware
Ho quindi a disposizione diverse modalit per l'esecuzione del codice, che originano le diverse tecnologie di virtualizzazione:
Virtualizzazione
Paravirtualizzazione
Partizionamento
. l
Virtualizzazione completa
Virtualizzazione completa Guest e hardware usano identiche interfacce (istruzioni macchina). Siamo in presenza di un binary translator o di istruzioni cpu specifiche per la virtualizzazione
Paravirtualizzazione
Paravirtualizzazione Guest e hardware usano istruzioni funzionalmente simili ma non identiche, i sistemi guest usano hypercall
Partizionamento
Virtualizzazione completa Guest e hardware usano identiche interfacce (istruzioni macchina).
Comparazione hypervisor
TipoVirt.Paravirt.Partiz.Arch.VMware vSphere hv (ESX)1**x86XEN1**x86 / POWER / Z MS Hyper-V1*x86 IBM PowerVM / IVM / ZVM1*POWER / ZOracle VM Server SPARC 1*SPARCHPIntegrity VM 1*Itanium Oracle VirtualBox2*x86VMware Server2*x86User Mode Linux2x86KVM (RHEV) 2 **x86MS Virtual Server2*x86
Ora che abbiamo una panoramica delle tecnologie con cui possibile implementare il concetto di server logico (sia fisico che virtuale) per ridurre lo spreco di risorse
Passiamo a vedere le tecnologie con le quali possibile legarli, per il raggiungimento dei requisiti di:
ScalabilitAffidabilit
. l
Cluster distribuiti (load balancing, failover active-active)
Distribuzione dell'elaborazione su un gruppo di server (nodi) connessi tramite rete
Necessita di componenti di mediazione a livello di rete (VIP e bilanciatori)
Necessita di componenti di replica/condivisione a livello di risorse
Permette un aumento di affidabilit in base all'ordinalit dell'insieme
Permette lo scaling (quasi) lineare della potenza elaborativa all'aumentare del numero dei nodi
Aumenta la complessit di gestione
Cluster distribuiti (load balancing, failover active-active)
Cluster HA (failover active-passive)
Distribuzione di funzioni diverse su piu nodi. Tramite monitoraggio, i nodi sono in grado di rilevare i failover dei reciproci e assumerne le funzioni
Necessita di componenti di replica a livello rete
Necessita di componenti di condivisione delle risorse
Lo scopo la riduzione dei downtime
Introduzione di un livello verticale di affidabilit
Cluster HA (failover active-passive)
Tecniche di fault-tolerance per le componenti hw
L'unico metodo disponibile per l'aumento dell'affidabilit delle macchine (oltre all'evoluzione dei processi produttivi) la RIDONDANZA DEI COMPONENTI
Ci implica un aumento di complessit della macchina, e soprattutto l'aumento dei COSTI
Per questo motivi, il grado di affidabilit di un elaboratore (quasi) direttamente proporzionale alla ridondanza dei suoi componenti, e quindi al costo.
. l
.
Sistemi Intel/AMD x86-64
Intel Xeon o AMD Opteron fino a 2,6 Ghz
Max 12 core/socket
Max 8 socket
Max 1 TB RAM
S.O Windows/Linux/Solaris
Sistemi POWER
IBM POWER6 o POWER7 fino a 6.1 Ghz
Max 8 core/socket
Max 128 socket
Max 4 TB RAM
Sistemi SPARC
Sun Sparc64 VII o Txxx fino a 3 Ghz
Max 16 core/socket
Max 64 socket
Max 1 TB RAM
Una breve panoramica sulle architetture hw...
Posizionamento teniche fault-tolerance
l
Entry level
Power supply
Network
Midrange
Power supply
Network (spare)
Memory (spare)
CPU (spare)
Enterprise
Power supply
Cooling
Network - LEHA - Spare
Memory
- Oscillatori - Spare chip - Memory RAID - Spare
Bus interconnect
CPU- Registri- Lock-stepping- Memory controller- Chipset- Spare
Storage e dischi
Differenziazione in base al posizionamento:
Locale (tightly-coupled)
vs
Distribuito (loosely-coupled)
. l
Lo storage locale: il raid
. l
Lo storage locale: le tecnologie dei dischi
. l
Lo storage distribuito: i filesystem di rete e le reti di storage
Lo storage distribuito necessario per superare le limitazioni di flessibilit imposte dall'interazione fisica fra dischi/server, con particolare riferimento a:
Condivisione di volumi
Rilocazione dei volumi
Replica dei volumi
Deduplica dei dati
Semplificazione della gestione
. l
Lo storage distribuito: SAN
Storage Area Network una retecostituita esclusivamente da dispositivi di memorizzazione di massa, utilizzabili dai client tramite incapsulamento dei comandi di controllo (es: SCSI) dentro protocolli di rete
Il 99% delle tecnologie SAN utilizza i seguenti protocolli:
Fibre Channel Protocol utilizza il protocollo FC per l'incapsulamento dei comandi SCSI.
ISCSI utilizza il protocollo TCP per l'incapsulamento dei comandi SCSI
. l
Lo storage distribuito: SAN
Storage Area Network una retecostituita esclusivamente da dispositivi di memorizzazione di massa, utilizzabili dai client tramite incapsulamento dei comandi di controllo (es: SCSI) dentro protocolli di rete
Il 99% delle tecnologie SAN utilizza i seguenti protocolli:
Fibre Channel Protocol utilizza il protocollo FC per l'incapsulamento dei comandi SCSI.
ISCSI utilizza il protocollo TCP per l'incapsulamento dei comandi SCSI
. l
Lo storage distribuito: SAN FCP
Rete dedicata su protocollo FC
Rame o Fibra
Maggiori prestazioni
Topologia switched-fabric
. l
Lo storage distribuito: SAN iSCSI
Rete LAN esistente (TCP/IP)
Rame
Minori prestazioni e costi
Topologia di rete esistente
. l
Comparazione fra i modelli
Lo storage distribuito: NAS
Network Attached storage consente la condivisione delle aree di storage con gli host, tramite protocolli e filesystem di rete. Non c' incapsulamento: il fs esposto direttamente al S.O sulla rete ethernet. E' un semplice device di rete.
I filesystem pi utilizzati sono:
NFS, SMB e CIFS per utilizzi general-purpose
GPFS, AFS e FUSE per applicazioni ad alto throughput
. l
Modello concettuale utilizzo fs condivisi
Recommended