В ТРЕНДЕ

Когда сеть молчит: как предотвратить невидимые сбои в ЦОД

В центре обработки данных (ЦОД) современной эпохи сетевая связность — это не просто «интернет для серверов». Это нервная система, по которой течёт доверие клиентов, стабильность бизнеса и, в случае ИИ-инфраструктур, — сама логика машинного разума. Уронить её на три минуты — всё равно что разрешить автомобилю с автопилотом потерять GPS-сигнал на скоростной трассе: никто не врезался, но паника в салоне неизбежна.

Статистика безжалостна: 54 % серьёзных сетевых инцидентов обходятся организациям дороже 100 000 долларов США, а каждый пятый — свыше 1 млн [1, 2]. И это не просто «простой»: это упущенная выгода, испорченные модели ИИ и подмоченная репутация. Причём 85 % времени на восстановление после сбоя уходит на диагностику, а не на починку [3].

Традиционные подходы — резервирование, дублирование, «просто перезагрузи» — всё чаще оказываются бесполезны. Почему? Потому что современные отказы — не «всё или ничего», а невидимые, частичные, хитрые. Их называют серыми отказами. И именно они чаще всего убивают производительность AI/ML-кластеров, не подавая виду.

Серые отказы: когда сеть «работает», но информация не передаётся

Представьте сервер, который получает 99,9 % пакетов. Звучит надёжно? На самом деле — нет. Для распределённого обучения нейросетей даже 0,1 % потерь могут привести к расхождению градиентов, зависанию алгоритмов синхронизации и, в итоге — к полному сбою тренировочного цикла.

Серый отказ — это когда:
  • линк зелёный,
  • пинг проходит,
  • логи молчат,
  • а данные теряются.

Исследования Microsoft показывают, что такие сбои могут оставаться незамеченными часами или даже днями, пока не вызовут каскадный коллапс [5, 6].

Спасение — в In-band Network Telemetry (INT): технологии, встраивающей диагностические метки прямо в пользовательский трафик. Система FANcY, разработанная в ETH Zurich, способна обнаружить потери даже на уровне десятых долей процента — и сделать это за секунды, а не дни [5].

Для практического применения важно интегрировать такую телеметрию не только с сетевым стеком, но и с системой управления инфраструктурой ЦОД, такой как Smart DCIM — отечественная платформа, поддерживающая корреляцию событий по оборудованию, энергоснабжению и сетевой загрузке.

Юмор по делу:
"Раньше сетевой инженер знал, что сеть упала, потому что зазвонил телефон. Сегодня он узнаёт об этом из тикета от ML-специалиста, который пытается понять, почему его модель начала классифицировать кошек как законодательные акты"

Оптика: пыль страшнее вируса

Самая грубая, но упорно игнорируемая причина сбоев — загрязнение торцевых поверхностей оптических коннекторов. Согласно данным INEMI, с этим сталкивались 96 % инсталляторов и 80 % операторов [7].

Микроскопическая пылинка или отпечаток пальца:
  • почти не влияет на потери на вставку (insertion loss),
  • но может ухудшить возвратные потери (return loss) на 10–12 дБ [7].

На скоростях 10 Гбит/с и выше это ведёт к резкому росту битовых ошибок (BER), особенно в AI-кластерах, где между GPU-нодами течёт поток данных в десятки гигабайт в секунду.

Практическое решение:
  • Обязательная визуальная инспекция каждого коннектора через волоконный микроскоп перед подключением.
  • Использование автоматизированной сертификации по стандарту IEC 61300-3-35.
  • Внедрение регламента превентивной очистки в зонах с частой перекоммутацией — а в ИИ-ЦОД они постоянны.

Совет без иронии:
«Пыль — это не мелочь. Это главный враг оптики. И если вы не проверяете коннекторы — вы не управляете ЦОД, вы играете в русскую рулетку с оптическими волокнами».

Человеческий фактор: одна строчка — миллион убытков

45 % крупных сетевых сбоев происходят из-за ошибок управления конфигурациями [9]. В феврале 2024 года один американский телеком-оператор потерял связь на 12 часов для миллионов пользователей — из-за одной некорректной настройки, внесённой в ходе рутинного обслуживания [8, 9].

Человеческие ошибки — это не «глупость», а системный риск, особенно при ручном управлении:
  • «толстопальцевый» ввод команд,
  • отсутствие предварительного тестирования,
  • непроверенные изменения политик.

Выход — автоматизация с контролем:
  • Все изменения должны проходить валидацию в изолированной среде (например, GitOps-подход).
  • Система должна поддерживать автоматическое резервное копирование конфигураций, сравнение версий и откат при сбое.
  • Здесь российские решения, включая Smart DCIM, предлагают полную интеграцию с системами управления изменениями и поддержку отечественных стандартов безопасности.

Интеллигентно и по делу:
«Автоматизация — не про скорость. Это про то, чтобы в пятницу вечером никто не мог случайно отключить BGP, пытаясь найти выключатель в серверной»

Резервирование — не панацея

Многие до сих пор считают: «две линии — значит надёжно». На деле сетевое резервирование снижает медианное воздействие отказов лишь на 40 % [4]. Почему?

Потому что современные сбои — кратковременные, локальные, и резервные пути не успевают активироваться. Особенно уязвимы балансировщики нагрузки, которые, по данным Microsoft, лидируют по частоте сбоев [4].

Эффективное резервирование требует:
  • Использования BGP с механизмами health-checking, например IP SLA tracking [12].
  • Многооператорных схем подключения (особенно для межкластерной связности ИИ).
  • Динамической маршрутизации, учитывающей не только доступность, но и RTT, джиттер, потери пакетов.

Без этого резервный канал — просто дорогой декор.

SDN и автоматизация: мощь и опасность

Software-Defined Networking (SDN) даёт невиданную гибкость: мгновенное выделение виртуальных сетей, динамическое управление пропускной способностью, полная программируемость.

Но централизованный контроллер становится единой точкой отказа [14]. Одна ошибка в политике — и весь AI-кластер теряет связность.

Тем не менее, организации, автоматизировавшие 70 % операций, снижают количество сбоев на 50 % и ускоряют развёртывание сервисов вдвое [16].
Ключевые условия успеха:
  • Полная видимость всех устройств до запуска автоматизации (требуется CMDB или аналог).
  • Тестирование в песочнице.
  • Интеграция с системой мониторинга ЦОД — например, с Smart DCIM, которая коррелирует сетевые события с физическими параметрами (температура, питание, вибрация)

От реакции — к предсказанию: корреляционный анализ как новый стандарт

Традиционные инструменты (ping, traceroute, логи) бессильны перед многокомпонентными сбоями. Современный подход — сетевая наблюдаемость (network observability): сбор телеметрии со всех слоёв стека и корреляционный анализ [18].

Пример: если одновременно:
  • растёт задержка на GPU-ноде,
  • увеличивается потребление энергии (в киловаттах),
  • появляются ошибки CRC на оптическом порту,

— система может предсказать деградацию оптического соединения, даже если линк формально «вверх».
Рекомендации:
  • Внедрить платформу корреляционного анализа, интегрированную с DCIM.
  • Использовать открытые протоколы (gNMI, OpenConfig) для снижения зависимости от вендоров.
  • Ввести SLA на время диагностики (MTTD) — не менее важный показатель, чем MTTR [3].

Заключение: надёжность — это культура, а не функция

Отказы сетевой связности — это не просто сбои оборудования. Это тест на зрелость всей ИТ-культуры организации. Особенно в ЦОД, ориентированных на ИИ, где даже микросекундная задержка может испортить результат.

Надёжность достигается не за счёт «ещё одного резервного канала», а за счёт:
  • дисциплины в управлении конфигурациями,
  • гигиены оптических соединений,
  • видимости всех слоёв стека,
  • интеграции сетевых и инженерных систем,
  • проактивного подхода — от реакции к предсказанию.

Российские ЦОД уже делают шаги в этом направлении: внедряют отечественные платформы, такие как Smart DCIM, развивают экспертизу по сетевой аналитике, переходят от «авось пронесёт» к инженерному расчёту отказоустойчивости.

Ведь в эпоху ИИ нельзя позволить себе сеть, которая «почти работает». Она должна работать всегда — и доказывать это не надеждами, а цифрами.
Список использованных источников
  1. EXFO. How to effectively manage network failures in data centers [Электронный ресурс] // EXFO Blog. – Режим доступа: https://www.exfo.com/en/resources/blog/effectively-manage-network-failures-data-centers/, свободный. – Загл. с экрана. – Яз. англ.
  2. Uptime Institute. Annual Outage Analysis 2025: Executive Summary [Электронный ресурс]. – Режим доступа: https://uptimeinstitute.com/uptime_assets/d7c049ef5b02a6e0a15540a3e5cb8fbf742c7fa54a1af6caeaaab32b7c15d443-GA-2025-05-annual-outage-analysis.pdf, свободный. – Загл. с экрана. – Яз. англ.
  3. LiveAction. What is MTTR for Network Troubleshooting? [Электронный ресурс]. – Режим доступа: https://www.liveaction.com/glossary/mttr-for-network-troubleshooting/, свободный. – Загл. с экрана. – Яз. англ.
  4. Gill P., Jain N., Nagappan N. Understanding Network Failures in Data Centers: Measurement, Analysis, and Implications [Электронный ресурс] // Microsoft Research. – 2011. – Режим доступа: https://www.microsoft.com/en-us/research/wp-content/uploads/2017/01/sigcomm11netwiser.pdf, свободный. – Загл. с экрана. – Яз. англ.
  5. Jia C. [et al.]. Rapid Detection and Localization of Gray Failures in Data Centers via In-band Network Telemetry [Электронный ресурс] // NOMS 2020. – Режим доступа: https://ng-95.github.io/files/INT-detect_NOMS20.pdf, свободный. – Загл. с экрана. – Яз. англ.
  6. Huang P. [et al.]. Gray Failure: The Achilles’ Heel of Cloud-Scale Systems [Электронный ресурс] // Microsoft Research. – 2017. – Режим доступа: https://www.microsoft.com/en-us/research/wp-content/uploads/2017/06/paper-1.pdf, свободный. – Загл. с экрана. – Яз. англ.
  7. EXFO. Sources of Fiber-Optic Network Issues in the Data Center [Электронный ресурс] // Application Note. – Режим доступа: https://www.exfo.com/contentassets/51b96698dca946a392283b01ac461ee1/exfo_anote327_touching_on_failure_en.pdf, свободный. – Загл. с экрана. – Яз. англ.
  8. Volico. Data Center Uptime: Challenges and Strategies [Электронный ресурс]. – Режим доступа: https://www.volico.com/data-center-uptime-challenges-and-strategies/, свободный. – Загл. с экрана. – Яз. англ.
  9. Innovile. Mobile Network Operation: Avoid Costly Configuration Mistakes [Электронный ресурс]. – Режим доступа: https://www.innovile.com/resources/insights/mobile-network-operation-avoid-costly-configuration-mistakes/, свободный. – Загл. с экрана. – Яз. англ.
  10. Nokia. Why is data center networking so broken? [Электронный ресурс] // Nokia Blog. – Режим доступа: https://www.nokia.com/blog/why-is-data-center-networking-so-broken/, свободный. – Загл. с экрана. – Яз. англ.
  11. And Cable. Data Center Outage: Common Causes and Proven Prevention Methods [Электронный ресурс]. – Режим доступа: https://andcable.com/cable-management/data-center-outage-causes-prevention/, свободный. – Загл. с экрана. – Яз. англ.
  12. DeShon M. Implementing BGP for Automated Failover in a Multi-Data Center Design [Электронный ресурс] // MattDeShon Blog. – Режим доступа: https://www.mattdeshon.com/blog/bgp, свободный. – Загл. с экрана. – Яз. англ.
  13. Reddit /r/FiberOptics. DWDM main transmission fail over to protection link causes client ports down? [Электронный ресурс]. – 2025. – Режим доступа: https://www.reddit.com/r/FiberOptics/comments/1ilgwan/dwdm_main_transmission_fail_over_to_protection/, свободный. – Загл. с экрана. – Яз. англ.
  14. SCIRP. Strengths, Weaknesses, and Resilience to Failures in Software-Defined Networks [Электронный ресурс]. – Режим доступа: https://www.scirp.org/journal/paperinformation?paperid=139979, свободный. – Загл. с экрана. – Яз. англ.
  15. Microsoft Learn. Troubleshoot Windows Server Software-Defined Networking Stack [Электронный ресурс]. – Режим доступа: https://learn.microsoft.com/en-us/troubleshoot/windows-server/software-defined-networking/troubleshoot-windows-server-software-defined-networking-stack, свободный. – Загл. с экрана. – Яз. англ.
  16. Network Computing. The Five Things You Need to Do to Avoid Network Automation Failures [Электронный ресурс]. – Режим доступа: https://www.networkcomputing.com/network-automation/the-five-things-you-need-to-do-to-avoid-network-automation-failures, свободный. – Загл. с экрана. – Яз. англ.
  17. Sunbird DCIM. What is Data Center Monitoring? [Электронный ресурс]. – Режим доступа: https://www.sunbirddcim.com/what-data-center-monitoring, свободный. – Загл. с экрана. – Яз. англ.
  18. Auvik. What is Root Cause Analysis: Definition & Examples [Электронный ресурс]. – Режим доступа: https://www.auvik.com/franklyit/blog/what-is-root-cause-analysis/, свободный. – Загл. с экрана. – Яз. англ.
  19. BackBox. Transforming Network Configuration Management: Challenges and Solutions [Электронный ресурс]. – 2024. – Режим доступа: https://backbox.com/wp-content/uploads/TransformingNCM_ChallengesAndSolutions_Whitepaper_2024.pdf, свободный. – Загл. с экрана. – Яз. англ.
  20. Fluke Networks. Fiber Contamination, Cleaning, and Inspection: An Introduction [Электронный ресурс]. – Режим доступа: https://www.flukenetworks.com/edocs/wp-fiber-cleaning-and-inspection-white-paper, свободный. – Загл. с экрана. – Яз. англ.
  21. DataBank. The Crucial Role Of Network Redundancy In Data Centers [Электронный ресурс]. – Режим доступа: https://www.databank.com/resources/blogs/ensuring-uninterrupted-connectivity-the-crucial-role-of-network-redundancy-in-data-centers/, свободный. – Загл. с экрана. – Яз. англ.
2026-01-07 12:22 Улучшаем ЦОД Развитие индустрии