Nvidia, Microsoft, Meta и другие техногиганты предупредили инвесторов, что вкладываться в ИИ рискованно
Количество упоминаний искусственного интеллекта в финансовых отчётах технологических компаний в последнее время зашкаливает. Наряду с заявлениями о выгодах ИИ эти же компании пытаются тихо всех предупредить, что не всё может пойти по плану, а ИИ может подорвать их бизнес. Так они хотят снять с себя ответственность и предотвратить возможные иски в будущем — мол, мы же говорили, пишет Bloomberg.
Meta напомнила, что ИИ может использоваться для создания фейков во время выборов, Microsoft понимает вероятность исков о нарушении копирайта за использование защищённых авторским правом материалов для тренировки нейросетей, а Oracle просто признала, что её ИИ-продукты могут работать хуже, чем у конкурентов. Google считает, что злоупотребление её ИИ-инструментами «может негативно повлиять на права человека, приватность, занятость и другие социальные проблемы», а это может привести к искам или финансовому ущербу.
Всего в этом году более десятка крупных ИТ-компаний выпустили или обновили предупреждения об ИИ в отчётной документации для регуляторов. Они размещены в разделе о рисках, где компании прогнозируют, что может пойти не так. К рискам относят, например, непредвиденные события вроде климатических изменений, войн или банковских крахов.
Как отмечает Bloomberg, эти предупреждения звучат весьма трезво на фоне всеобщего помешательства на ИИ, хотя в некоторых случаях противоречат официальной линии компаний. Adobe всегда утверждала, что программы вроде Photoshop будут незаменимы для художников, а в начале года заявила, что распространение ИИ может уничтожить рабочие места и потребность в существующем софте.
Иногда прогнозы сбываются. Nvidia с начала 2023 года предупреждала, что опасения по поводу злоупотребления ИИ могут привести к ограничениям на её продукты. Позже США ввели и постепенно ужесточают ограничения на экспорт передовых чипов.
Помимо этого, о связанных с ИИ рисках в этом году говорили Palo Alto Networks, Dell и Uber.
Читать на dev.by