Size: a a a

2019 May 21
AbloudRealtime
UDC можно строить совершенно по-разному. В России обычно ставят одну систему на регион. Это несколько фронтэндов, которые обычно задублированы. Плюс систему ставят на 2-3 сайта ради географического резервирования. База также зарезервирована в 2-3 репликах.

База общая, а доступ к ней идет с разных фронтэндов.

Одна полка может хранить профайлы до 5-10 млн абонентов, в зависимости от их комбинации. При необходимости система масштабируется до сотен миллионов абонентских профилей, например, если строится одна система на всю страну с высокой численностью населения.
источник
AbloudRealtime
Последнее из нативного оборудования  - это решение пакетного ядра сети. То, что сейчас наиболее популярное на существующих сетях. В стойке можно видеть SGSN MME (на фото)
источник
AbloudRealtime
и пакетный гейтвей EPG (Ericsson Packet Gateway).
источник
AbloudRealtime
Эта стойка, если говорить упрощенно, позволяет дать абонентам доступ в интернет примерно 1 млн абонентов.

В лаборатории стоит сравнительно небольшое решение, операторам мы поставляем как правило с двумя такими полками стойки, на обслуживание нескольких миллионов абонентов стойка рассчитана.  Это решение, как и UDC, позволяет выполнить дублирование. Можно объединять решения в единый логический пул. Ну а в лабораторном варианте стоит единичный блок.  Оптические порты здесь 10 Гбит/c и 1 Гбит/c.

Если заказчику требуется, мы можем поставить платы с портами 40 Гбит/c и 100 Гбит/c. Можно, например, подключить две платы с портами 100 Гбит/c, сделать резервирование этих плат и еще порты останутся. Можно будет вывести с одного узла 200 Гбит/c.  У заказчика может в одном регионе стоять нексколько таких узлов. Уже в некоторых регионах стоит 6, 8 или 10 узлов у одного из наших заказчиков. То есть речь о трафике, измеряемом терабитами в секунду.  Через несколько лет он вырастет до десятков терабит, особенно подстегнет этот процесс появление 5G, резко вырастет трафик от каждой базовой станции, значительно прирастет нагрузка на ядро. Соответствующее оборудование у нас есть.

Заказчикам стоит уже сейчас готовить к этому свои магистрали. МТС активно строился, Tele2 строит и арендует емкости, другие операторы тоже активно этой темой занимаются.
источник
AbloudRealtime
Это радиорелейное оборудование Ericsson MiniLink, хорошо знакомое на российском рынке. В лаборатории организован "фидерный пролет", эквивалентный 10 км пролету, что позволяет не выходя непосредственно в эфир, работать с оборудованием, вести его настройку. Используем эту инсталляцию для обучения работе с решением MiniLink.
источник
AbloudRealtime
Оборудование Ericsson третьего поколения.
источник
AbloudRealtime
Это пятое поколение GEPB (Generic Ericsson Purpose Board или Generic Ericsson Processor Board). Внешне отличаются не слишком заметно, но начинка значительно мощнее, более современные процессоры, больше оперативной памяти. Каждая плата здесь это, по-сути, сервер. По краям внешние платы для агрегации трафика. Справа - заглушки, резервирующие свободное место.

Самое последнее поколение на сегодня - 7-е, в Москве появится в июне. Производительность каждой платы еще в 2-2.5 раз выше, чем у 5-го поколения.
источник
AbloudRealtime
Тренд на виртуализацию уже несколько лет, как не новость. Решения Ericsson виртуализованы примерно на 90%. Остаются решения нативные, которые много где стоят, и дублирующие их решения виртуализации. Они также уже стоят кое-где в России. Компания Ericsson активно занимается этой темой.

На сегодня возможны разнообразные варианты. Можно купить full stack решений Ericsson - когда и платформа и среда виртуализации - от одного поставщика. Можно взять нашу платформу, а приложения - от других вендоров. Или промежуточный вариант, когда аппликации от Ericsson, а платформа от вендора, с которым шведский вендор сотрудничает, например, компаний HP, Dell. Тогда поверх ставится среда виртуализации Ericsson и можно поставить IMS-решение, например, для VoLTE, виртуальную UDC и виртуальную Packet Core.
источник
AbloudRealtime
На фото платформа виртуализации Ericsson Hyper scale DataCenter System 8000 (HDS). Со SLED серверами половинной ширины (SLED - Single Large Expensive Disk).
источник
AbloudRealtime
Если открыть крышку, то с фронтальной части ничего особо интересного нет. USB-порты, порт для техобслуживания.
источник
AbloudRealtime
Интереснее зайти с тыльной стороны.
Такую систему можно наращивать по мере надобности. Она управляется полностью программно.  С помощью ПО можно объединять "железо" в единый data center. Можно разбить его "виртуально" на различные части. Например, в одной части реализовать open stack, в другой организовать VMWare, а третью часть оставить нативной, без виртуализации.

Понятно, что такие вещи неинтересно организовывать на шести серверах, это касается инсталляций с большим числом серверов. Софт компании позволяет управлять большим дата-центром на таком железе.
источник
AbloudRealtime
Каждая из "коробочек" содержит в себе подключения 8 портов до 100 Гбит/c оптики. Подключения делаются специальным "толстым" оптическим кабелем, который затем раздваивается (светло-голубого цвета кабель). Это позволяет затем поделить 100 Гбит/c на 10 * 10 Гбит/c.

CMU - это контроллер SLEDа. Этот контроллер, во-первых, позволяет организовать работу ПО виртуализации о котором выше говорилось, вторая особенность этой платформы - реализация архитектуры Intel. Так называемая Rack Scale архитектура.  В чем ее суть в двух словах. У вас есть память, процессоры, жесткие диски в каждом стандартном сервере. Но вы, например, хотите менять память раз в 2 года, а процессоры - раз в десять лет, а жесткие диски, например, каждые полгода. Сейчас или надо разбирать сервера, что неудобно, если у вас их много, либо заменяете сервер целиком, но тогда не получается долго использовать элементы, которые можно использовать долго, экономя на более длительном использовании ряда компонентов.
источник
AbloudRealtime
Архитектура Intel позволяет организовать построение data center так, что в одной стойке будет только память, в других - жесткие диски, в третьих - процессоры. Или в одной жесткие диски, в другой процессоры и память. Это позволяет отдельно управлять жизненным циклом отдельных компонентов. Хотите заменить память, заменяете стойку с памятью, а процессоры у вас еще 3 года поработают. Это дает большую экономию на железе. Все это управляется софтово, единым командным центром.

В московской лаборатории Ericsson эти возможности не используются, поскольку здесь не data center. Здесь стоят приложения BSS (управления бизнесом) на этих серверах.
источник
AbloudRealtime
Ericsson также работает с аппаратными платформами других производителей. На фото показана так называемая "корзина" от HP (Hewlett-Packard).
источник
AbloudRealtime
Каждая такая "корзина" содержит 16 blade-серверов. Каждый сервер под отдельную задачу.
источник
AbloudRealtime
С помощью виртуализации их можно объединить в единый пул, разбить на виртуальные машины и использовать по-сути в отрыве от железа.  

Это позволяет Ericsson выполнять пожелания клиентов, которые, например, говорят, что у них есть своя платформа, но им нужны наши приложения. В Ericsson готовы такие решения тестировать. Есть платформы, с которыми решение Ericsson работает "из коробки" и есть те, которые в компании готовы валидировать, т.е. проводить тестирование, а затем обеспечивать работу по заданным показателям. И, разумеется, есть end-to-end решение платформа+приложения от Ericsson.
источник
AbloudRealtime
Особенность лаборатории - четкая маркировка каждого элемента и соответствующая документация. Инвентаризационная ведомость позволяет в любой момент времени знать, где что стоит. Данные ведомости через файерволл доступны удаленно.
источник
AbloudRealtime
Это позволяет подключать к решению задач в лаборатории "мозги" из любой страны, где есть эксперты Ericsson. Таблица дает возможность удаленно находить нужный сервер, например, и настраивать на нем то или иное приложение. В частности, есть таблица связности всех портов IP-backbone.
источник
AbloudRealtime
IP backbone объединяет лабораторию в единый живой организм с возможностью удаленного доступа. Это массив свитчей (роутеров) в которые приходят подключения от всех элементов инфраструктуры, установленных в лаборатории, базовых станций, минилинков, MSS, опорной сети, BSS и так далее. Соответственно стойка обеспечивает непрерывную связность всех элементов. Также обеспечивается связность между оборудованием лаборатории и 6-м этажом, где расположен демо-центр. Это позволяет собрать в демо-центре любую схему. Часть работает по оптике. часть работает на витую пару.
источник
AbloudRealtime
Есть также оконечные свитчи (Leaf Spine) в каждой стойке, обеспечивающие подключение того, что есть в данной стойке. Свитч, в свою очередь, подключен к основному backbone. Здесь также смонтирован файерволл, обеспечивающий контроль внешнего доступа в лабораторию и из лаборатории. Также это позволяет для тестирования вывозить к заказчику только часть оборудования, оставляя другое необходимое оборудование в лаборатории. Например, можно привезти к заказчику базовую станцию и подключить его к нашему оборудованию в лаборатории через IPSec (или любой другой защищенный) туннель. Это в разы сокращает время развертывания. В общем, речь идет о большой гибкости к тестированию в интересах заказчика.
источник