Size: a a a

Storage Discussions

2020 August 13

A1

Andrey 1 in Storage Discussions
P P
Ого. Что ж тако с ними делали?!
Там главная болячка, имхо, деградация батареек, которые "новые" могли не завестись
Плюс переход в ридонли после ребута, если обе батарейки померли.
А статус батарейки Ева иногда тоже только после ребута обновляла
источник

A1

Andrey 1 in Storage Discussions
Ну и в целом, шкаф FC - дисков емкостью 30тб сейчас смотрится смешно
Хотя как массив, Ева сильно лучше мса, хоть и медленнее))
источник

Z

Zek in Storage Discussions
Andrey 1
Там главная болячка, имхо, деградация батареек, которые "новые" могли не завестись
Плюс переход в ридонли после ребута, если обе батарейки померли.
А статус батарейки Ева иногда тоже только после ребута обновляла
эм, не было там ридонли, вроде. А проблемы с батарейками были, да
источник

PP

P P in Storage Discussions
Andrey 1
Там главная болячка, имхо, деградация батареек, которые "новые" могли не завестись
Плюс переход в ридонли после ребута, если обе батарейки померли.
А статус батарейки Ева иногда тоже только после ребута обновляла
Если новые - «новые», с чего они должны завестись? :) ну и да, ребут контроллера - вполне норм операция.
источник

A1

Andrey 1 in Storage Discussions
P P
Если новые - «новые», с чего они должны завестись? :) ну и да, ребут контроллера - вполне норм операция.
Я к тому, что где вы найдете в 2018/2019 году батарейки для EVA 6000, выпущенные "недавно" 😉
источник

PP

P P in Storage Discussions
Andrey 1
Я к тому, что где вы найдете в 2018/2019 году батарейки для EVA 6000, выпущенные "недавно" 😉
Эмм... Я как-то даже и предположить не мог, что речь об этом временном промежутке.
источник

A1

Andrey 1 in Storage Discussions
P P
Эмм... Я как-то даже и предположить не мог, что речь об этом временном промежутке.
В нашем холдинге стояло порядка 10 подобных массивов от 4000 и до 8400.
Из основных проблем с эксплуатацией разве что батарейки можно отметить.
Пару раз были непонятные странности:
- при подключении полки массив отвалился. Возможно, нагрешил инженер HPE;
- один раз 6400 ушла в отрыв и сносила всей серверной мозг, пока ей контроллеры не перезапустили (правда, до этого перезапустили, в том числе по питанию вообще все остальное) 😊
Смущало, что часть сервисов все же работали...
источник

PP

P P in Storage Discussions
Andrey 1
В нашем холдинге стояло порядка 10 подобных массивов от 4000 и до 8400.
Из основных проблем с эксплуатацией разве что батарейки можно отметить.
Пару раз были непонятные странности:
- при подключении полки массив отвалился. Возможно, нагрешил инженер HPE;
- один раз 6400 ушла в отрыв и сносила всей серверной мозг, пока ей контроллеры не перезапустили (правда, до этого перезапустили, в том числе по питанию вообще все остальное) 😊
Смущало, что часть сервисов все же работали...
Интересные у вас кейсы, особенно первый. Я так понимаю, диски в той полке не входили во вторую дисковую группу?
источник

A1

Andrey 1 in Storage Discussions
P P
Интересные у вас кейсы, особенно первый. Я так понимаю, диски в той полке не входили во вторую дисковую группу?
Неправильно рассказал первый кейс.
1) На массиве умер контроллер. Заказали новый и позвали инженера. Попутно оформили работы и остановили нагрузку (НЕ ЗРЯ) 😉
2) Прошивка на новом контроллере оказалась более новой, чем на работающем в массиве.
3) Ева не смогла сделать даунгрейд нового контроллера на старую прошивку.
4) Инженер с помощью кубика Галина Бланка сделал даунгрейд, но при этом со всех хостов слетели презентации VLUN.
источник

A1

Andrey 1 in Storage Discussions
Еще было штатное распиздяйство:
1) Сдохли по очереди два диска.
2) Потом умерло что-то еще и закончилось место на массиве. Как следствие, схлопнулись некоторые VLUN.
3) Ожидаемо не все восстановилось из бэкапов.
источник

PP

P P in Storage Discussions
источник

NK

ID:0 in Storage Discussions
​​Вышел NetApp StorageGRID 11.4.

Список изменений:
Traffic Classifications for Network QoS.
Support for traffic classification policies. Within each policy, you can create rules for identifying different types of network traffic, including traffic related to specific buckets, tenants, client subnets, and load balancer endpoints. These policies can assist with traffic limiting and monitoring.

Alerts. More predefined alerts have been added in 11.4. Alerts provide a single clear notification for every actionable problem in the grid, including recommended troubleshooting and remediation steps.

Enhancements to the software update procedure.
− You can now control the order in which StorageGRID hotfixes are applied to grid nodes.
− You can use the Grid Manager to upload and upgrade the SANtricity® storage management software on storage appliances.

ILM enhancements.
− A 7+5 erasure coding scheme is now supported. With three sites, this scheme can protect against the loss of one site and a single storage node at a second site.
− Ingest Time or Last Access Time as an advanced filter has been improved. You can now select the exact date and time from a calendar view instead of entering the time and date in microseconds.

StorageGRID now supports TLS 1.3 for the following type of connections:
− Administrative connections to the Grid Manager and the Tenant Manager, as well as their associated APIs.
− S3 or Swift Client Connections.
− Connections to external systems used for cloud storage pools and identity federation

S3 REST API enhancements:
− PUT, GET, and DELETE bucket tagging operations are now supported.
− AWS size limits for multipart are now enforced. Each part in a multipart upload must be between 5MiB and 5GiB, excluding the final part. Otherwise a new “S3 multipart too small alert” is triggered.

Support for SG6060 field expansions. You can now install one or two expansion shelves to double or triple the capacity of an existing SG6060. The disks in the expansion shelves do not have to be the same size as the disks in the original shelf or shelves.

New MTU setting on the appliances. For appliance-based nodes, you can use the StorageGRID Appliance Installer to set the maximum transmission unit (MTU) for the Grid, Admin, and Client Network. Jumbo frames are now supported for the Grid and Client networks.

Более подробно в release notes.
источник

Ɐα

Ɐrtem αrtem in Storage Discussions
Коллеги, а с трипара, чем можно посмотреть онлайн статистику по перфомансу? С высокой гранулярностью.
источник

Δ

ΔΩ in Storage Discussions
Ɐrtem αrtem
Коллеги, а с трипара, чем можно посмотреть онлайн статистику по перфомансу? С высокой гранулярностью.
Какой трипар то
источник

Ɐα

Ɐrtem αrtem in Storage Discussions
8440
источник

Δ

ΔΩ in Storage Discussions
В старых нужна была лицензия, в новых в ssmc же есть статистика.


В IMC есть тоже
источник

Ɐα

Ɐrtem αrtem in Storage Discussions
ΔΩ
В старых нужна была лицензия, в новых в ssmc же есть статистика.


В IMC есть тоже
там 5мин гранулярность
источник

Δ

ΔΩ in Storage Discussions
В IMC больше опций
источник

СК

Стас Кутепов... in Storage Discussions
Ɐrtem αrtem
Коллеги, а с трипара, чем можно посмотреть онлайн статистику по перфомансу? С высокой гранулярностью.
В cli набор команд начинающихся со stat* (раз в секунду) и hist* ( распределение  внутри секунды)
источник

СК

Стас Кутепов... in Storage Discussions
ΔΩ
В старых нужна была лицензия, в новых в ssmc же есть статистика.


В IMC есть тоже
Статистика в реальном времени входила в базовую. Только system reporter отдельно лицензировался.
источник