18 стран призвали сделать разработку ИИ безопасной
США, Великобритания, Германия и еще 15 стран подписали соглашение о защите потребителей от неправомерного использования искусственного интеллекта.
Документ состоит из рекомендаций компаниям-разработчикам ИИ с целью защиты систем от злоумышленников. Например, компаниям рекомендовали сделать эти системы «безопасными по структуре», чтобы их не смогли использовать хакеры, а конфиденциальные данные не попали третьим лицам. При этом потенциальные риски должны учитываться на всех стадиях работы с ИИ. Рекомендации не имеют обязательной силы.
«Системы искусственного интеллекта подвержены новым уязвимостям, которые необходимо учитывать наряду со стандартными угрозами кибербезопасности. Когда темпы развития высоки — как в случае с искусственным интеллектом — безопасность часто может отходить на второй план. Однако безопасность должна быть основным требованием не только на этапе разработки, но и на протяжении всего жизненного цикла системы», — сказано в документе.
Эксперты отметили, что в соглашении не были упомянуты спорные вопросы в сфере ИИ, в том числе возможные меры контроля, которые должны существовать в отношении использования генеративных моделей и дипфейков или методов сбора данных и их использования в обучающих моделях. Уже сейчас разработчики сталкиваются с судебными исками из-за нарушения авторских прав.
Ранее ЕС, Германия, Франция, Великобритания, США и другие страны, а также представители техногигантов и разработчиков ИИ подписали так называемую «Декларацию Блечли», которая призывает к безопасной разработке и внедрению технологий искусственного интеллекта.
Читать на dev.by