GPT-4 потребляет до 1,5 литров воды для генерации ста слов
Исследователи из Калифорнийского университета в Риверсайде (США) рассказали об огромном расходе воды современными генеративными ИИ-моделями для охлаждения серверов даже тогда, когда они просто генерируют текст. И это вдобавок к высокой нагрузке на электросеть, пишет Tom’s Hardware.
Объёмы потребления воды варьируются в зависимости от штатов и близости потребителей к дата-центрам, при этом чем меньше потребление воды, тем дешевле в этом регионе электричество и выше потребление электроэнергии. Например, в Техасе только для генерации емейла в 100 слов необходимо 235 мл воды, а в Вашингтоне — 1408 мл. На первый взгляд, это не так много, но показатели растут очень быстро, когда пользователи работают с GPT-4 несколько раз в неделю или в день.
Дата-центры являются крупными потребителями воды и электричества, следовательно, цены на эти ресурсы растут в городах, где возводятся такие объекты. Например, для обучения модели LLaMA-3 от Meta понадобилось 22 млн литров воды. Столько же нужно, чтобы вырастить 2014 кг риса, и столько же за год потребляют 164 американца.
Дорого стоит и потребляемая GPT-4 электроэнергия. Если каждый десятый работающий американец будет пользоваться моделью раз в неделю в течение года (52 запроса на 17 млн человек), потребуется 121 517 МВт·ч электроэнергии — этого хватит для всех домохозяйств в столице США на 20 дней. И это очень облегчённый сценарий использования GPT-4.
Большинство разработчиков ИИ-моделей, таких как OpenAI, Meta, Google и Microsoft, заявляют о стремлении сокращать потребление ресурсов. Однако конкретных планов действий они пока не предоставили.
Читать на dev.by