51
Андрей Вишняков 25.11.2014 © 2014 Cisco and/or its affiliates. All rights reserved. Виртуализация сетевой транспортной инфраструктуры

Виртуализация сетевой транспортной инфраструктуры

Embed Size (px)

DESCRIPTION

Виртуализация сетевой транспортной инфраструктуры

Citation preview

Page 1: Виртуализация сетевой транспортной инфраструктуры

Андрей Вишняков

25.11.2014 © 2014 Cisco and/or its affiliates. All rights reserved.

Виртуализация сетевой транспортной инфраструктуры

Page 2: Виртуализация сетевой транспортной инфраструктуры

Network Function Virtualization (NFV)

NATVM

FirewallVM

SBCVM

dDOSVM

Virus ScanVM

IPSVM

DPIVM

CGNVM

PortalVM

PCRFVM

DNSVM

DHCPVM

BRASVM

SDN Ctrl.VM

RaaSVM

WLCVM

WAASVM

CDNVM

CachingVM

NMSVM

Переход от каблирования к Service Chaining

Упрощение логистики и формирования ЗИП

Динамическая масштабируемость

Уменьшение времени развертывания сервисов с

дней до минут

Интеграция с существующими сетями

Page 3: Виртуализация сетевой транспортной инфраструктуры

Содержание

25.11.2014 © 2014 Cisco and/or its affiliates. All rights reserved. 3

Cloud Services Router 1000V Виртуальный IOS XR маршрутизатор Сетевые приложения ASAv и vSCE Cisco Modeling Labs

Page 4: Виртуализация сетевой транспортной инфраструктуры

Cloud Services Router 1000V

Page 5: Виртуализация сетевой транспортной инфраструктуры

Cisco Cloud Services Router (CSR) 1000VCisco IOS XE в виртуальном форм-факторе

IOS XE Cloud Edition Поддержка IOS XE функций на запросу заказчиков

Независимость от инфраструктуры Нет привязки к аппаратным характеристиками серверов,

поддержка ESXi, KVM, Xen и Hyper-V гипервизоровГибкая производительность

Производительность от 10Mbps до 20 Gbps при задействовании от 1 до 8 vCPU

Гибкая лицензионная политика Ограниченные по времени действия и постоянные

лицензииПрограммируемость Поддержка RESTful API (набор OnePK), Netconf/YangСервер

ГипервизорВиртуальный коммутатор

OS

App

OS

App

CSR 1000V

Page 6: Виртуализация сетевой транспортной инфраструктуры

Функционал и лицензии CSR 1000V

Лицензия IOS-XE функционал Виртуализация

IPBase

Basic Networking: BGP, OSPF, EIGRP, RIP, ISIS, IPv6, GRE, VRF-LITE, NTP, QoS

Multicast: IGMP, PIM High Availability: HSRP, VRRP, GLBP Addressing: 802.1Q VLAN, EVC, NAT, DHCP, DNS Basic Security: ACL, AAA, RADIUS, TACACS+ Management: IOS-XE CLI, SSH, Flexible NetFlow, SNMP, EEM, NETCONF

ESXi 5.5

XenServer 6.1

KVM (Ubuntu12.04 LTS, RHEV 3.1, RHEL 6.3)

Hyper-V 2012 R2

SECIPBase включая … Advanced Security: Zone Based Firewall, IPSec VPN, EZVPN, DMVPN,

FlexVPN, SSLVPN, GETVPN

AppX

IPBase включая … Advanced Networking: L2TPv3, BFD, MPLS, VRF, VXLAN Application Experience: WCCPv2, AppXNAV, NBAR2, AVC, IP SLA Hybrid Cloud Connectivity: LISP, OTV, VPLS, EoMPLS Subscriber Management: PTA, LNS, ISG

AX Весь доступный функционал

Page 7: Виртуализация сетевой транспортной инфраструктуры

Позиционирование в сети CSR 1000V

Дата Центр

ASR 1000

Корпорация B

Корпорация A

Филиал/ CPE

IaaS Cloud

Абонент A

Абонент B

PoP

ASR 9000

PE PE

ASR 9000

ASR 9000

CSR 1000V

CSR 1000V

Фаза 1 - Cloud• Cloud инфраструктура - vCE/ vPE• Сетевые сервисы - VPN шлюз• Гибридные облака – L2/ L3 VPN

связность

Фаза 2 – SP граница• Сетевые сервисы – VPN шлюз,

BRAS (NFV)• Функционал плоскости управления

- Route Reflector, IP SLA

CSR 1000V

CSR 1000V

Фаза 3 – CPE• vCPE / Все сервисы на одной x86• Оркестрация сервисов

CSR 1000V

Page 8: Виртуализация сетевой транспортной инфраструктуры

Архитектура CSR 1000v

Виртуальный IOS XE Control Plane и Data Plane работают на отдельных

vCPU Bootflash: NVRAM: соответствуют областям в

оперативной памяти, копируются с HDD Нет аппаратного криптографического ускорителя –

используется Intel AES-NI набор инструкций Bootloader функционал реализован за счет GRUB

Путь пакета через CSR 1000v1. Ethernet driver (вход)2. Rx поток3. PPE поток (обработка пакета)4. HQF поток (исходящий QoS)5. Ethernet driver (выход)

Control PlaneForwarding Plane

vNICvCPU vMemory vDisk

Physical Hardware

CPU Memory Disk NIC

Гипервизор (VMware / Citrix / KVM)

Chassis Mgr.Forwarding Mgr.

IOS

Chassis Mgr.Forwarding Mgr.

FFP Client / Driver

FFP code Linux Container

8

Page 9: Виртуализация сетевой транспортной инфраструктуры

Взаимодействие виртуальной машины и гипервизора

UCS

Blade

Blade

Phy i/f Phy i/f

CPUCore Core

HypervisorVM CSR 1000V

vCPU

CPUCore Core

vCPUvCPUvCPU

Планировщик

Vswitchport port

Memory

vMemTables

VNIC

VM CSR 1000V

VNIC

vMemTables

Гипервизор абстрагирует и распределяет аппаратные ресурсы среди множества VM

Алгоритм соответствия vCPUфизическим процессорам влияет на производительность

Диспетчеризация vNIC по физическим интерфейсам может привести к потере пакетов/ джитеру

Набор VMWare установок влияет на распределение ресурсов: Кол-во vCPU на VM Минимум циклов на vCPU/ привязка

vCPU к физическому ядру Балансировка трафика в vSwitch

Page 10: Виртуализация сетевой транспортной инфраструктуры

IOS XE процессорные потоки в гостевой ОС привязаны к vCPU

vCPU потоки в свою очередь привязываются к физическим CPU ядрам с помощью настроек гипервизора

CSR 1000v IOS XE потоки и vCPU ассоциации

CSRfootprint

Control Plane

Data Plane PPE

Data Plane HQF

Data Plane Rx processing

1 vCPU 02 vCPU 0 vCPU 14 vCPU 0 vCPU 1 & 2 vCPU 38 vCPU 0 vCPU 1-5 vCPU 6 vCPU 7

Page 11: Виртуализация сетевой транспортной инфраструктуры

Модели I/O и производительность

NIC Driver

Virtual NIC(VMXNET3)

Аппаратная NIC

RX Ring TX Ring

Virtual NIC(VMXNET3)

Аппаратная NIC

RX Ring TX Ring

Аппаратная NIC

RX Ring TX Ring

NIC driver NIC driver

NIC Driver

Virtual NIC(VMXNET3)

Аппаратная NIC

RX Ring TX Ring

Virtual NIC(VMXNET3)

Sereno ASIC

HW Queues

Paravirtualized Direct I/O UCS VM-FEX9 Gbps 11.2 Gbps 13.2 Gbps

Результаты тестирования CEF 1500 байт коммутации на сервере 4 vCPU, ESXi 5.5

Hypervisor Virtual Switch

Page 12: Виртуализация сетевой транспортной инфраструктуры

Single Root IO Virtualization - SR-IOV

Одно физическое PCIe устройство эмулирует несколько отдельных PCIe адаптеров

Позволяет виртуальной машине общаться напрямую с аппаратной составляющей минуя гипервизор

Физические и виртуальные функции/элементы(PF/VF) PF: полнофункциональное PCIe устройство

VF: PCIe без конфигурируемых ресурсов

Каждый PF/VF получает отдельный PCIeидентификатор, таким образом разделяется IO работа с памятью для VF

Требуется поддержка в BIOS/Гипервизоре Поддерживается для IOS XE с релиза 3.13 для

ESXi и HyperV

Page 13: Виртуализация сетевой транспортной инфраструктуры

vMotion для VM-FEX с включенным DirectPath I/O

Временный переход от DirectPath к

стандартному I/O

• VM передает TCP поток (1500MTU)• UCS B200 M2 шасси с UCS VIC картой

0

2500

5000

7500

10000

19:0

6:19

19:0

6:23

19:0

6:27

19:0

6:31

19:0

6:35

19:0

6:39

19:0

6:43

19:0

6:47

19:0

6:52

Mbp

s

Time (secs)

vMotion на второй хост

1 сек перерыв трафика

13

Page 14: Виртуализация сетевой транспортной инфраструктуры

Интерпретация Loss Rate, потерь пакетов при измерении производительности виртуальных машин

Результаты измерений производительности сильно разнятся в зависимости от выбора приемлемого уровня потерь пакетов. Например, можем выбрать Без потерь -> Non-Drop Rate (NDR) Не более 5-ти пакетов 0.1% от PPS, частоты передачи пакетов

Небольшое ослабление LR критерия приводит к значительному росту производительности

Обычно тесты на производительность подразумевают потерю 5 пакетов(«прогрев» системы), а также интерполяцию результатов по нескольким 2-ух минутным тестам Если не указано иное

2vCPU: производительность

670 Mbps при 1% потерь

2vCPU: производительность

384 Mbps при 0% потерь

Page 15: Виртуализация сетевой транспортной инфраструктуры

Как определить производительность при заданном Loss Rate В ходе теста измеряем % потерь данных для

различной нагрузки Нагружаем устройство -> наблюдаем потери ->

уменьшаем нагрузку до тех пор пока потери не станут допустимыми

НО! Сложно получить сходные результаты на множестве тестов

Необходимо заранее договориться как интерпретировать результаты!

Например: Наибольшая нагрузка при которой видим LR = 0.01% ->

475 Mbps Нагрузка при которой LR всегда меньше 0.01% -> 374

Mbps Потери пакетов превышают допустимый уровень 0.01%

при {445, 435, 414, 384} Mbps

Page 16: Виртуализация сетевой транспортной инфраструктуры

Пиковая производительность CSR 1000v

Одна виртуальная машина CSR 1000v способна обрабатывать 20 Gbps IPv4 CEF Конфигурация с 8 vCPU Также доступны конфигурации с 1, 2, 4 vCPU

IOS XE 3.13 содержит улучшения по производительности До 8 vCPU на VM Поддержка VM-Fex/Direct Path/VIC1280 c Vmware

ESXi Оптимизация HQF (исходящий QoS) Уменьшение процессов в виртуальной машине

* Предварительная информация на основе тестирования инженерного релиза IOS XE 3.13; Использовался UCS-B200-M3, E7-2690 с VM-Fex.

Page 17: Виртуализация сетевой транспортной инфраструктуры

Постоянное улучшение производительности Внутренние доработки кода СSR1000V Поддержка большего количества vCPU Оптимизация настроек гипервизора Поддержка VM Fex с Direct Path Поддержка Netmap Оптимизация компилятора

VM Fex с DirectPath I/O и привязкой VM к определенным CPU дает скачок в производительности В дополнении к постоянным характеристикам

по потерям и задержкам пакетов

Улучшение производительности CSR 1000v с каждым релизом ПО

Up to IOS XE 3.12: B230-Base-M2, 128 GB RAM, CPU: Intel Xeon E7-2870 @ 2.40 GHz IOS XE 3.13: B200M3, 256GB RAM, CPU: Intel Xeon E7-2690 @ 3.0 GHzTraffic Generator : Spirent ( RFC-2544)Hypervisor : Vmware: ESXi 5.5.0,Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}

Page 18: Виртуализация сетевой транспортной инфраструктуры

Тестируется IOS XE 3.13

Одновременно задействовано несколько функций, типовые конфигурации

IMIX смесь пакетов

Наблюдается минимальная потеря производительности для ACL+QoSпрофиля

Ожидаемо NAT + IPSec приводит к максимальной деградации

Производительность CSR 1000v для различных профилей на базе ESXi гипервизора

Hardware: UCS C200 M2 : 2x Intel Xeon 2690 Sandy Bridge 2.90 Ghz 8 cores, 16 threadsTraffic Generator : Spirent ( RFC-2544)Hypervisor : Vmware: ESXi 5.5.0,Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}

Page 19: Виртуализация сетевой транспортной инфраструктуры

X86 сервер

Host-OS /KVM

Qemu / v-Host

tap

vSwitch (OVS) / Linux bridge

NIC driver

Guest-OS

Virtio-net

Guest-OS

Virtio-net

Qemu / v-Host

tap

AppAppAppAppAppApp

KVM+Ubuntu Обзор архитектуры

KVM+Ubuntu набирают популярность

Open source -> “дешевле чем VMWare”

Гипервизор виртуализирует NIC сетевую карту для нескольких VM

Гипервизор планирует выполнение I/O процессов на сервере

Физически всего лишь один набор аппаратного обеспечения, т.е. порт, очереди на нем и т.д.

1-N отношение между VM’ vNIC и одним NIC портом

Один vHost/VirtIO процесс на виртуальный интерфейс(vNIC) –> «узкое горлышко» для высоких скоростей передачи

NIC port

Page 20: Виртуализация сетевой транспортной инфраструктуры

Тестируется KVM+Ubuntu и IOS XE 3.13

Результаты аналогичны ESXi:

ACL+QoS деградирует незначительно

IPSec и NAT наиболее требовательная конфигурация

Производительность незначительно отличается для 1/2/4 vCPU конфигураций

Причина в размере Tx buffer

Необходима ручная настройка параметров KVM для достижения максимальной производительности

Производительность CSR 1000v для различных профилей на базе KVM гипервизора

Hardware: UCS C220 M2 : 2x Intel Xeon E2690 Sandy Bridge 2.90Ghz 8 cores, 16 threadsTraffic Generator : Spirent ( RFC-2544)Hypervisor : KVM Ubuntu 14.04 w/ netmap,Traffic Profile : IMIX {64 byes (58.33%), 594 bytes (33.33%), 1518 bytes (8.33%)}

Page 21: Виртуализация сетевой транспортной инфраструктуры

Влияние тюнинга параметров KVM на производительность

Page 22: Виртуализация сетевой транспортной инфраструктуры

VM

SP Aggregation

CSR 1000v в роли vPTA / vLNS агрегатора

Первая в отрасли реализация виртуального BNG (PTA/LNS)

CSR 1000v переиспользует IOS XE код от ASR 1000 PTA / LNS функционал портирован на виртуальную платформу

Внедрения с числом сессий менее 4K на виртульную машину 1Gbps пропускная способность (фаза 1) Частота установления сессий 50-100CPS

Поддержка PTA (PPPoE) и LNS профилей

Абонент

SP Ядро

Дата ЦентрvPTA

vLNS

Поддержка начиная: IOS XE 3.13.1S (Окт. 2014)

Page 23: Виртуализация сетевой транспортной инфраструктуры

Виртуальные машины

CSR 1000v в роли vISG Virtual Intelligent Services Gateway (vISG) устанавливается как шлюз доступа,

предоставляя абонентам IPoE функционал аналогичный таковому на ASR1000

Целевой группой являются внедрения с числом сессий менее 4K на виртуальную машину Для фазы 1 рекомендуемая производительность 1Gbps Частота установления абонентских сессий 50-100CPS

vISG инициаторы сессий – DHCP, unclassified MAC

Поддержка начиная: IOS XE 3.13.1S (Окт. 2014)

Дата Центр

vISG

Indoor Hotspot

Residential / Community Wi-Fi

Metro Wi-Fi

Wi-Fi Доступ

Page 24: Виртуализация сетевой транспортной инфраструктуры

CSR1000v vBNG поддерживаемые профили

Профиль vPTA vLNS vISG

Тип сессии PPPoEoVLAN PPPoVLANoL2TP IPoEoVLAN

Функционал Input/output ACL, ingress QoS(policing) / egress QoS(shaping), vrf-awareness, IPv4/IPv6 dual-stack, AAA, ANCP

IPv4/IPv6, HQoS, Input/outputACL, dual-stack service and TC accounting, CoA Service Push

DHCP, Unclassified MAC, HQoS, Input/output ACL, ISG TC, L4R, PBHK, Unauthenticated timeout, etc.

vCPU 2 vCPU

Память 8GB

Кол-во сессий 4K 4K 4K

Рекомендуемаялицензия по

производительности1Gbps 1Gbps 1Gbps

Page 25: Виртуализация сетевой транспортной инфраструктуры

4000 сессий протестировано для каждого профиля

0

500

1000

1500

2000

2500

3000

3500

4000

4500

5000

CEF vIPoEIPoEoVLAN

vBRASPPPoEoVLAN

vLACPPPoEoVLAN

vLNSPPPoEoVLAN

Throughput in Mbits

CEF профиль берется за точку отсчета

IPoE сессии требуют меньше памяти по сравнению с PPPoE(аналогично ASR1000), отсюда и разница в производительности

Производительность указана для 1450-байтных пакетов

Каждый профиль был протестирован с 4000 активных сессий, трафик равномерно распределен по ним

CEF vs vBNG производительность CSR1000v

Page 26: Виртуализация сетевой транспортной инфраструктуры

CSR1000v как BGP Route Reflector

ASR1001 & ASR1002-X (8GB)

ASR1001 & ASR1002-X (16GB)

CSR1000v (8GB) CSR1000v (16GB)

RP2 (8GB) RP2 (16GB)

ipv4 маршрутов 7M 13M 8.5M 24.8M 8M 24M

vpnv4 маршрутов 6M 12M 8.1M 23.9M 7M 18M

ipv6 маршрутов 6M 11M 7.4M 21.9M 6M 17M

vpnv6 маршрутов 6M 11M 7.3M 21.3M 6M 15M

BGP сессий 4000 4000 4000 4000 8000 8000

CSR 1000v переиспользует IOS XE код в части ASR 1000 Route Reflector функционала

Виртуальныемашины

SP Агрегация

Абонентский сайт

SP Ядро

Дата Центр

vRR

IOS XE 3.13.0SИюль 2014

Page 27: Виртуализация сетевой транспортной инфраструктуры

Облачный дата центр

Шлюз

Internet

L2 домен

Сервисы в дата центре

Wireless AP

Управление

FW

Упрощение домашней пользовательской инфраструктуры

Расширение L2 домена до операторского дата центра

Сервисы на базе инфраструктуры дата центра: NAT, FW, NAS, Автоматизация домашней сети, …

Управление виртуальными машинами

Управление сервисами

Виртуальная абонентская инфраструктура vCPE

Page 28: Виртуализация сетевой транспортной инфраструктуры

Виртуальный IOS XR маршрутизаторили Cisco IOS XRv

Page 29: Виртуализация сетевой транспортной инфраструктуры

IOS XR поддерживается в x86 виртуальной среде

Тоже самое программное обеспечение IOS XR, что работает на CRS и ASR9K маршрутизаторах, характеризующееся масштабируемой плоскостью управления и поддержкой: Микроядерной ОС Модульного ПО Возможностью рестарта процессов Активации PIE и SMU патчей без перезагрузки VM

Аналогичный «железным» реализациям IOS XR набор функционала в области сигнальных протоколов, например, протоколов маршрутизации

Виртуализация IOS XR = IOS XRv

Гипервизор

Full StandardIOS XR

PI Binaries

Виртуальная машина

IOS XR 5.1.1

Page 30: Виртуализация сетевой транспортной инфраструктуры

Стратегия виртуализации SP маршрутизатора

Три категории приложений для виртуализации• Виртуализация Control Plane (виртуальный BGP Route Reflector)• Полностью виртуализированный маршрутизатор (virtual Control + Data plane)• Разделение Control Plane и Data Plane

Виртуальный Route Reflector

IOS XRv

IOS XRv

Server / HypervisorrServer Blade (Hypervisor)

Virtual DP

Полностью виртуальный

маршрутизатор

Доступно к заказу

Стратегия Cisco: Разработать универсальную архитектуру физического, виртуального или гибридного маршрутизатора. IOS-XRv взят за основу в роли плоскости управления для всех приложений

CP:DP разделение

Аппаратная передача данных и виртуальная плоскость управленияФокус этой презентации

IOS XRv IOS XRv IOS XRv IOS XRv

Virtual DP

Virtual DP

Virtual DP Виртуальн

ый XR Dataplane

Физический Dataplane

Dataplane Control (DPC)

IOS XRv

Virtual XR DP

Физический оптимизированный по стоимости Dataplane

DPADPADPA

Page 31: Виртуализация сетевой транспортной инфраструктуры

Разделение Control и Data PlaneПодход к линейному масштабированию

• Линейное масштабирование Data Plane за счет NPU• Масштабирование Control Plane за счет x86 CPU

ComputeRouters/ComputeRouter/LC Router/LC

Текущий режим работы Целевая архитектура

Control-Plane

RP

LCData-PlaneLCData-PlaneLC

Data-Plane

Control-Plane

RP

LCData-PlaneLCData-PlaneLC

Data-Plane

LCData-PlaneLCData-PlaneLCData-PlaneLCData-PlaneLCData-PlaneData-Plane

x86 serversx86

serversx86 serversx86

serversx86 serversControl-Plane

1 x CPU : N x LCs M x CPU : N x NPU

Page 32: Виртуализация сетевой транспортной инфраструктуры

Дальнейшее развитие Cisco IOS XR (кодовое имя “Spirit”)

Распределенная архитектура Масштабируемость, изоляция отказов, расширение

за счет подключаемы модулейСовременная OS инфраструктура Поддержка многоядерных 64-ех битных CPU,

включая SMP, а также Open Source приложенийВиртуализация ISSU, разделение Control и Admin плоскостей,

упрощение SDR архитектурыISSU и архитектура высокой доступности Поддержка Zero Packet Loss (ZPL) и Zero Topology

Loss (ZTL)Управление отказами Локализация и устранение отказов с минимальными

потерями работоспособностиДоступно с IOS XR 5.0 на NCS6K Планируется к внедрению – NCS4K, ASR9K

Hos

ted

Apps

Kernel (Linux, 64bit)

Distributed Infra

BGP

OSP

FPI

MAC

LQ

oSLP

TSSN

MP

XML

Net

Flow

XR Образ v1

Kernel (Linux, 64bit)

Kernel (Linux, 64bit)

Distributed Infra

BGP

OSP

FPI

MAC

LQ

oSLP

TSSN

MP

XML

Net

Flow

XR Образ v2

Уровень виртуализации

System Admin

Kernel (Linux, 64bit)

Page 33: Виртуализация сетевой транспортной инфраструктуры

Стандартный интерфейс между плоскостями управления и передачи данных

• Новая архитектура IOS XR раздельных Control и Data Plane • Эволюция Spirit/XR 64-bit Linux операционной системы, то

что мы называем виртуальным XR следующего поколения• XRv разделяет CP-DP путем создания DPC-DPA уровней

DPC = Data Plane Controller, расположен на RP DPA = Data Plane Agent, расположен на линейной карте

XRv

DPC

Dataplane

DPA

Page 34: Виртуализация сетевой транспортной инфраструктуры

Многообразие систем при переходе к раздельным плоскостям передачи данных и управления

Автоматизация и управление сервисамиSDN API – NetConf / YANG, и т.д.

Виртуальный XR Dataplane

Физический Dataplane

Dataplane Control (DPC)

IOS XRv

Virtual XR DP

Аппаратный оптимизированный по стоимости Dataplane

CP - DP API

DPADPADPA

Page 35: Виртуализация сетевой транспортной инфраструктуры

Data PlaneVirtual

Forwarder

Data PlaneVirtual

Forwarder

Data PlaneVirtual

Forwarder

Data PlaneVirtual

Forwarder

Data PlaneVirtual

Forwarder

Логические маршрутизаторы на базе x86 инфраструктуры

Router 1L3 VPN

Router 2L2 VPN

Router 3Internet

Массив х86 вычислительных ресурсов

IOS XRv

Virtual Forwarder

DPA

DPC

Currently not scheduled for delivery.

IOS XRvControl Plane

IOS XRvControl Plane

IOS XRvControl Plane

IOS XRvControl Plane

IOS XRvControl Plane

IOS XRvControl Plane

Page 36: Виртуализация сетевой транспортной инфраструктуры

Логические маршрутизаторы и физические шасси линейных карт

Physical Dataplane

Slice

Линейная карта | LC

Линейная карта | LC

Линейная карта | LC

Линейная карта | LC

Линейная карта | LC

Физические шасси

Router 1L3 VPN

Линейная карта | LC

Линейная карта | LC

Линейная карта | LC

Массив x86 ресурсов (RP)

Router 2Internet

Router 3L2 VPN

DPA

DPC

Currently not scheduled for delivery.

IOS XRvControl Plane

IOS XRvControl Plane

IOS XRvControl Plane

IOS XRvControl Plane

IOS XRvControl Plane

IOS XRvControl Plane IOS XRv

ВыделеннаяLC

DPA

DPC

Page 37: Виртуализация сетевой транспортной инфраструктуры

Позиционирование виртуального IOS XR маршрутизатора

2

8

32

128

512

2048

8192

32768

Gbps

Virtual XR DP

IOS XR VR ASR 9001ASR 9006

ASR 9904

ASR 9010

ASR 9912ASR 9922

Page 38: Виртуализация сетевой транспортной инфраструктуры

HV

LXC

UVF DP

LXCXR CP

LXCAdmin

LINUX

TenGigE

0/0/0

GigE 0/0/1

GigE 0/0/2

Mgm

tEth0/0/1

vswitch

Основывается на Virtualized IOS-XR (Spirit)

Маршрутизатор внутри виртуальной машины

CP, DP & Admin модули внутри Linux Containers (LXC)

LXC = Shared Kernel, отдельные kernel namespace (process/network)Плоскость передачи данных

Virtual Forwarder (VF)

XR комбинированная RP+LC функциональность

DPA

Архитектура XR виртуального маршрутизатораВиртуальная машина

Data Plane Controller

Page 39: Виртуализация сетевой транспортной инфраструктуры

Виртуальный XRvмаршрутизатор

Universal Virtual Forwarder

Набор сервисов• ACLs• uRPF• Marking, Policing• IPv4, IPv6, MPLS• Segment routing• BFD

Что ожидают от IOS XRv маршрутизатора?

IOS XRv

Сформулированные требования: 20Gbps производительность для

IMIX трафика с включенными сервисами (на одном сокете) т.е. 2x10GE порта PCIe pass-through Гибкая балансировка нагрузки по

нескольким ядрам CPU Высокопроизводительный QOS

планировщик (TM) 3-ех уровневый H-QOS

Поддержка Fast Re-Route (LFA, FRR)

Портируемый 64 битный C-код, поддержка в будущем ARM платформ

Общая кодовая база с Cisco nPower X чипами

Interfaceclassification & FIB lookup

TrafficManager

Forwarding & Features

Иерархический QOS планировщик• 20Gbps+ на одном ядре• 64k абонентов• ½ миллиона очередей• 5000 policy-map

Масштабируемый IPv4 и IPv6 FIB

64 бит операционная

система

Page 40: Виртуализация сетевой транспортной инфраструктуры

Коммутация данных на виртуальном IOS XR

DPA Обрабатывает управляющие сообщения

от/к DPC Обрабатывает punt / inject пакеты сетевых

протоколов Выполняет сбор статистики и ее агрегацию

UVF микрокод L2 классификация, Коммутация, QoS

VPP Высокопроизводительная классификация и

группировка сетевых пакетов в один пакет для обработки; балансировка

DPDK Высокопроизводительные драйверы для

передачи информации между виртуальной машиной и аппаратным обеспечением

DPC SPP

DPAControl

Messages

Stats Punt/Inject

DataplaneUVF ucode

Platform/ NPU Layer

VPP

DPDK Device Drivers

Memory Management

Сетевые интерфейсы

VPP Nodes

VPP nodes

Page 41: Виртуализация сетевой транспортной инфраструктуры

Виртуализация сетевых приложенийASAv и vSCE

Page 42: Виртуализация сетевой транспортной инфраструктуры

10G*5G

Виртуальный DPI (vSCE)

# Производительность при использовании Intel сетевой карты с DPDK и CPU скоростью 2.9 Ghz

* Предположительно будет доступно Q2 2015

Интерфейсы 8x1G 2x10G

Максимально абонентов 225,000 450,000

Число ядер CPU # 10 16

TPS (Login/ Logout) 300 500

VLinks 2048 2048

Рейт L4 потоков 195,000 flows/sec

390,000 flows/sec

Доступно начиная: 5.0.0 (Июль 2014)

Page 43: Виртуализация сетевой транспортной инфраструктуры

vSCE – пример HW конфигурации для 5G

• Количество ядер: 10 @ 2.9 Ghz• Оперативная память: 32 GB• Сетевая карта: 8x1G

Пример UCS конфигурации (UCS C220)UCSC-C220-M3L= UCS C220 M3 LFF w/o CPU, mem, HDD, PCIe, PSU, rail kit 1 Unit

UCS-CPU-E5-2667= 2.90 GHz E5-2667/130W 6C/15MB Cache/DDR3 1600MHz/NoHeatSink 2 Units

UCSC-PCIE-IRJ45= Intel Quad GbE adapter 2 Units

UCS-MR-1X162RY-A= 16GB DDR3-1866-MHz RDIMM/PC3-14900/dual rank/x4/1.5v 2 Units

UCSC-PSU-450W= 450W power supply for C-series rack servers 1 Unit

Page 44: Виртуализация сетевой транспортной инфраструктуры

Полноценный ASA межсетевой экран в виртуальной форме Поддержка нескольких vCPUs (до 4-ех) и vNICs (до 10-ти) с VLAN тэгами (до

200-т) Виртуализация делает ненужным поддержку Multiple-context режима Только Active/Standby failover резервирование; в будущем кластеризация Etherchannel интерфейс должен быть сконфигурирован на NIC карте сервера

Расширение использование ASA экранов ASA 1000v на границе виртуального дата центра Защита физических и VM коммуникаций на любых типах интерфейсов Routed и Transparent режимы работы Планируется поддержка VxLAN коммутации

Рекомендация по использованию с ESXi vSwitch и Nexus 1000v, в тоже время поддерживается работа и с KVM гипервизором (ASA 9.3.1)

Обзор ASAvПоддержка с

ASA 9.2(1)GA 9.3.2

Page 45: Виртуализация сетевой транспортной инфраструктуры

ASAv Производительность и масштабируемостьМетрика ASAv10 ASAv30

Stateful Inspection Throughput (Maximum) 1 Gbps 2 Gbps

Stateful Inspection Throughput (Multi-Protocol) 500 Mbps 1 Gbps

Concurrent Sessions 100,000 500,000

Connections Per Second 20,000 60,000

VLANS 50 200

Cisco® Cloud Web Security Users 150 500

3DES / AES VPN Throughput 125 Mbps 300 Mbps

S2S IPSec IKEv1 Client VPN User Sessions 250 750Cisco AnyConnect® or Clientless User Sessions 250 750

UC Phone Proxy 250 1000

Протестировано UCS C260 M2 UCS B200 M3 Processor E5-2640

Необходимо GHz: 5GHz для ASAv10 @1Gbps 13GHz для ASAv30 @2Gbps(включая ESX нагрузку)

Лимиты по ресурсам: 5 GHz on ASAv10 20 GHz on ASAv30 (ASAv перезагружается при нарушении)

Page 46: Виртуализация сетевой транспортной инфраструктуры

«Виртуальная песочница»Cisco Modeling Labs

Page 47: Виртуализация сетевой транспортной инфраструктуры

Cisco Modeling Labs – виртуальная лаборатория

Многоцелевая расширяемая тестовая зона: Точная модель существующих сетей Использование реальных компонент

(сетевых операционных систем) для прототипирования конфигураций

Поддержка до сотен устройств в сети Возможность интеграции виртуальных

и физических устройств в одну тестовую сеть

Август 2014

Page 48: Виртуализация сетевой транспортной инфраструктуры

Виртуальные операционные системы для Cisco Modeling Labs

Идет в комплекте с Cisco Modeling Labs

IOS

В виртуальном формате IOSv

IOS XR

В виртуальном форматеIOS XRv

IOS XE

В виртуальном формате

CSR1000v

Отдельные лицензии для Cisco Modeling Labs

48

Page 49: Виртуализация сетевой транспортной инфраструктуры

Cisco Modeling Labs Комплект поставки

Поддержка дополнительных сетевых операционных

систем в формате OVA/VMDK файлов

49

Page 50: Виртуализация сетевой транспортной инфраструктуры

Cisco Modeling Lab Принцип работы

CML Интерфейс

Транслятор команд

«Срезы» топологии

Конфигурацияустройства

Схема топологии

Пакет данных – топология и конфигурации

Виртуальные машины/ Коммутаторы2

3

4

5 6 7

8

9A1-Console: 17000A1-Aux: 17001…

1

Page 51: Виртуализация сетевой транспортной инфраструктуры

CiscoRu Cisco CiscoRussia

Ждем ваших сообщений с хештегом#CiscoConnectRu

Пожалуйста, используйте код для оценки доклада

1557

Ваше мнение очень важно для нас

Спасибо за внимание!

25.11.2014 © 2014 Cisco and/or its affiliates. All rights reserved.