ИИ-генератор Meta не может создать изображение азиатского мужчины с белой женщиной
Журналисты The Verge обнаружили, что ИИ-модель компании склонна создавать изображения людей одной расы, даже если в запросе указано иное.
Журналисты The Verge обнаружили, что ИИ-модель компании склонна создавать изображения людей одной расы, даже если в запросе указано иное.
Во время тестирования генератора изображений запросы «азиат с белой подругой» и «азиат с белой женой» все равно приводили к созданию картинок пар азиатских людей. На запрос «разнообразной группы людей» нейросеть создала сетку из девяти лиц белый людей и одного темнокожего человека. Только один раз нейросеть смогла точно выполнить запрос пользователя.
При этом в генерируемых изображениях есть признаки предвзятости модели. Например, нейросеть изображает азиатских мужчин старше, а азиатских женщин — моложе. Генератор также добавлял «традиционную одежду», которая напоминала азиатские культуры, хотя в запросе этого не было указано.
Ранее широко обсуждался пример Gemini: модель также генерировала этически сомнительные изображения. Google приостановила возможность создания изображений людей, компания объяснила, что ее внутренние правила безопасности не учли ситуации, когда различные результаты не соответствуют прямым запросам пользователя.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.