Как стартап Niv-AI решает проблему энергопотребления ИИ-центров

Электроэнергия стала критически важным ресурсом для развития искусственного интеллекта, однако современные методы обработки данных опережают возможности дата-центров по управлению нагрузкой на энергосистему. В результате операторы вынуждены снижать производительность графических процессоров на 30%, чтобы избежать перегрузок.

Проблема энергоэффективности стала одной из ключевых в индустрии ИИ. Как отметил глава Nvidia, каждый неиспользованный ватт — это упущенная выгода. Особенно остро вопрос стоит для крупных вычислительных комплексов, где тысячи GPU одновременно выполняют сложные задачи.

Израильский стартап Niv-AI, недавно вышедший из «стелс-режима», привлёк $12 млн инвестиций для решения этой проблемы. Компания разрабатывает инновационные сенсоры и инструменты для точного мониторинга энергопотребления GPU с миллисекундной точностью. Основатели — генеральный директор Томер Тимор и технический директор Эдвард Кизис — собрали поддержку от ведущих венчурных фондов, включая Glilot Capital и Grove Ventures.

Сложности синхронизации возникают из-за резких скачков потребления энергии, когда процессоры переключаются между вычислениями и обменом данными. Такие всплески создают риски для стабильности энергосети, вынуждая дата-центры либо закупать дополнительные мощности для хранения энергии, либо искусственно ограничивать нагрузку на GPU. Оба подхода снижают рентабельность дорогостоящего оборудования.

«Строить дата-центры по старым принципам больше нельзя», — подчёркивает Лиор Хендлесман, партнёр Grove Ventures и член совета директоров Niv-AI. Решение видится в создании «интеллектуального слоя» между вычислительными мощностями и энергосетью.

На первом этапе Niv-AI внедряет сенсоры на уровне стоек, чтобы анализировать энергопотребление GPU в реальном времени. Собранные данные позволят выявить уникальные профили нагрузки для разных задач глубокого обучения и разработать методы их оптимизации. В перспективе компания планирует обучить ИИ-модель прогнозировать и синхронизировать энергопотребление по всему дата-центру, создав своеобразного «копилота» для инженеров.

Первые пилотные проекты запланированы в американских дата-центрах уже через 6–8 месяцев. Основатели видят свою миссию в том, чтобы сделать взаимодействие между вычислительными мощностями и энергосетью более предсказуемым и эффективным. «Энергосистема опасается, что дата-центры создадут пиковую нагрузку в неподходящий момент, — поясняет Тимор. — Мы работаем над решением, которое позволит использовать уже оплаченные мощности максимально эффективно, одновременно снижая нагрузку на сеть».

*Признаны экстремистскими организациями и запрещены на территории РФ.

Комментарии

Комментариев пока нет.