Google временно запретила своей модели генерить людей — у неё проблемы с расами и фактами
Google пообещала починить Gemini, своего конкурента GPT-4 от OpenAI, после жалоб пользователей нейросети, а пока она временно не будет генерировать изображения людей. Разработчики так переборщили с инклюзивностью, что это граничит с дискриминацией и искажением истории.
Gemini рисует людей с небелой кожей в неуместных контекстах, даже если в промпте чётко прописаны инструкции. Например, вот так она видит немецкого солдата образца 1943 года.
А папу римского представляет так.
Среди «отцов-основателей США», по мнению модели, обязательно присутствовала темнокожая женщина или мужчина с тюрбаном. Причём при попытке уточнить запрос, чтобы направить модель на «путь истинный», она ещё дальше отходит от здравого смысла.
«Как же сложно заставить Google Gemini признать существование белокожих людей», — написал один бывший сотрудник компании.
Представитель Google в комментарии Business Insider отметил, что она уже занимается решением проблемы. Он подчеркнул важность отображения самых разнообразных людей на порождаемых картинках, поскольку Gemini пользуются во всём мире, но признал, что в данном случае её работы не соответствуют пользовательским запросам. «В ближайшее время» Google выпустит исправленную версию.
Читать на dev.by