Глава OpenAI Сэм Альтман (Sam Altman) сообщил, что к концу 2025 года компания задействует более 1 миллиона ускорителей вычислений на базе GPU, а в перспективе рассматривает увеличение этого числа в 100 раз. Для сравнения, текущая инфраструктура xAI Илона Маска (Elon Musk), обеспечивающая работу модели Grok 4, использует около 200 тысяч чипов Nvidia H100 — в пять раз меньше, чем планирует развернуть OpenAI до конца года.

Сэм Альтман: к концу года ChatGPT будет работать на миллионе GPU, а в будущем — на ста миллионах

Альтман отметил в своём посте в X, что гордится своей командой, но теперь стоит новая задача — найти способ увеличить вычислительные мощности в 100 раз. Хотя его комментарий сопровождался шутливым «лол», в OpenAI явно настроены серьёзно. Как пишет Tom’s Hardware, ещё в феврале компания была вынуждена замедлить выпуск GPT-4.5 из-за нехватки GPU, и с тех пор масштабирование инфраструктуры стало одним из главных приоритетов. Достижение отметки в 1 миллион GPU сделает OpenAI крупнейшим потребителем вычислительных ресурсов для ИИ в мире.

Сэм Альтман: к концу года ChatGPT будет работать на миллионе GPU, а в будущем — на ста миллионах

Стоимость реализации 100-кратного увеличения мощностей (при средней цене одного GPU в $30 000) оценивается примерно в 3 триллиона долларов — почти как ВВП Великобритании. И это без учёта затрат на электроэнергию и строительство дата-центров. Кроме того, Nvidia в ближайшие годы не сможет произвести такое количество GPU, не говоря уже о необходимости обеспечить их электропитанием. Однако, судя по всему, для Альтмана это не просто цифры, а часть стратегии по созданию искусственного общего интеллекта (AGI), который потребует принципиально новых решений — включая разработку собственных чипов и новых архитектур.

Ярким примером масштабного мышления OpenAI может служить их дата-центр в Техасе, уже ставший крупнейшим в мире. Сейчас он потребляет около 300 МВт, а к середине 2026 года этот показатель достигнет 1 ГВт. Однако такие «аппетиты» вызывают обеспокоенность у местных энергетиков: поддержание стабильного напряжения для объекта такого масштаба требует дорогостоящей модернизации сетей, с которой не всегда справляются даже государственные компании.

Чтобы диверсифицировать вычислительные мощности, OpenAI, помимо использования облачной платформы Microsoft Azure, строит собственные дата-центры совместно с Oracle и, по слухам, тестирует TPU от Google. Всё это, как отмечает Tom’s Hardware, является частью технологической гонки, в которой также участвуют Meta✴, Amazon и другие крупные игроки.

По мнению экспертов, идея о 100 миллионах GPU на сегодняшний день выглядит нереалистичной, поскольку требует прорывов в области производства и энергоэффективности. Однако Альтман ориентируется не на текущие возможности, а на то, что может стать реальностью завтра.

От admin

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *