Реклама в Telegram-каналах DzikPic и dev.by теперь дешевле. Узнать подробности 👨🏻‍💻
Support us

Слишком много слов: почему регулирование ИИ такое непонятное?

В октябре сразу несколько стран и международных организаций приняли документы о регулировании искусственного интеллекта. Их авторы предлагают ужесточить контроль за разработкой и безопасностью ИИ-систем. Критики указывают на отсутствие понятных и четких правил для компаний. Почему в индустрии много громких слов, но мало конкретных предложений?

4 комментария
Слишком много слов: почему регулирование ИИ такое непонятное?

В октябре сразу несколько стран и международных организаций приняли документы о регулировании искусственного интеллекта. Их авторы предлагают ужесточить контроль за разработкой и безопасностью ИИ-систем. Критики указывают на отсутствие понятных и четких правил для компаний. Почему в индустрии много громких слов, но мало конкретных предложений?

США: попытка охватить всё и сразу

30 октября президент США Джо Байден подписал указ об искусственном интеллекте. Этот документ стал первым в своем роде нормативный актом, который регулирует новую технологическую сферу. В указ вошли положения о безопасности, равенстве, гражданских правах и исследовании влияния технологии на рынок труда.

Что вошло в указ Байдена?
  • Новые стандарты безопасности. Компании обязаны делиться результатами тестов безопасности своих разработок с правительством. Министерство торговли должно разработать руководящие принципы по применению водяных знаков для ИИ-контента и создать программы по кибербезопасности с ИИ-инструментами для поиска уязвимостей в критически важном ПО.
  • Единые принципы. Необходимо разработать руководящие принципы для федеральных ведомств по использованию и закупкам ИИ, а также ускорить наем работников с опытом в сфере ИИ в федеральное правительство.
  • Защита пользователей. В руководящих принципах должны быть прописаны правила, которые позволят регулирующим ведомствам оценивать используемые разработчиками ИИ методы защиты приватности.
  • Соблюдение гражданских прав. В новых правилах для федеральных подрядчиков необходимо избежать усугубления дискриминации ИИ-алгоритмами. Необходимо обратить внимание на применение ИИ в судебной системе, в том числе при вынесении приговоров, управлении рисками и прогнозировании преступности.
  • Защита потребителей. Министерство здравоохранения и Министерство социального обеспечения должны создать программы для оценки потенциально вредных практик в сфере охраны здоровья, связанных с ИИ, а также ресурсы на тему ответственного использования ИИ-инструментов для преподавателей.
  • Поддержка работников. Правительство должно подготовить доклад о потенциальных последствиях для рынка труда от ИИ и изучить способы, как можно поддержать работников, которых коснулись перемены на рынке труда.
  • Стимулирование инноваций и конкуренции. Правительство будет выдавать гранты на ИИ-исследования в таких областях, как изменение климата и т. п. Необходимо усовершенствовать критерии для нахождения в США высококвалифицированных иностранных специалистов с ключевыми знаниями для отрасли.
  • Международные стандарты. Необходимо усилить сотрудничество с зарубежными партнерами для внедрения ИИ-стандартов во всем мире.

Национальный институт стандартов и технологий США (NIST) будет отвечать за разработку стандартов для «красной команды» ИИ-моделей перед их публичным релизом. Министерство энергетики и Министерство внутренней безопасности займутся потенциальной угрозой ИИ для инфраструктуры, а также рисками химической, биологической, радиологической, ядерной и кибербезопасности.

Amazon против всех: американские регуляторы требуют передела рынка
Amazon против всех: американские регуляторы требуют передела рынка
По теме
Amazon против всех: американские регуляторы требуют передела рынка

Ранее 15 крупных американских технологических компаний, в том числе  Alphabet, Microsoft, OpenAI, Amazon, Anthropic, Inflection и Meta, согласились выполнять добровольные обязательства по безопасности ИИ, однако принятое соглашение содержит расплывчатые формулировки. Белый дом решил конкретизировать положения и пойти по пути государственного регулирования отрасли.

Однако президентский указ не является постоянным законом США и обычно действует только на протяжении срока правления Байдена. Американские законодатели все еще обсуждают, как регулировать ИИ, хотя некоторые политики заявили, что хотят принять законы об ИИ до конца года. Сенатор Ричард Блюменталь предложил сформулировать правила лицензирования, которые обяжут разработчиков ИИ-моделей регистрироваться в независимом надзорном агентстве.

«Большая семерка»: добровольное участие

На международном уровне идею о масштабном регулировании ИИ продвигает «Большая семерка». В неформальный клуб входят Канада, Франция, Германия, Италия, Япония, Великобритания и США, а также Европейский Союз. В мае этого года «семерка» запустила так называемый «Хиросимский процесс ИИ» — форум, посвященный перспективам развития искусственного интеллекта.

В октябре лидеры G7 подписали «Соглашение о международных руководящих принципах ИИ» и «Добровольный кодекс поведения разработчиков ИИ». В документах перечислены одиннадцать принципов, которыми должны руководствоваться разработчики при создании ИИ-систем. Кодекс касается касается передовых систем, включая базовые модели и генеративные системы. Соблюдение этих правил добровольное.

Принявшие кодекс компании должны принимать меры для выявления, оценки и уменьшения рисков при использовании ИИ; бороться с инцидентами неправомерного использования технологии после появления на рынке; размещать в открытом доступе отчеты о возможностях, ограничениях и использовании ИИ; инвестировать в меры безопасности, в том числе маркировать контент, который пользователи могут идентифицировать как созданный ИИ.

В совместном заявлении указано, что оба документа будут пересматриваться и обновляться по мере необходимости. К концу года лидеры G7 ожидают принятие Комплексной политики Хиросимского процесса ИИ. В процессе помимо «Большой семерки» участвуют Глобальное партнерство по ИИ (GPAI) и Организация экономического сотрудничества и развития (ОЭСР). «Мы также с нетерпением ждём британского саммита по безопасности искусственного интеллекта, который пройдёт 1 и 2 ноября», — сообщила «семерка».

Великобритания: попытка собрать всех

Британский саммит по безопасности ИИ, о котором говорится в заявлении лидеров G7, — форум, организованный премьер-министром страны Риши Сунаком. Мероприятие прошло в историческом Блетчли-Парке в Лондоне, где в годы Второй мировой войны располагалось главное шифровальное подразделение Великобритании. Здесь взламывались шифры и коды стран Оси и была дешифрована знаменитая «Энигма».

Форум собрал около ста политиков, ученых и представителей крупнейших ИИ-компаний для того, чтобы определить путь развития отрасли. Впервые в истории западных инициатив к мероприятию присоединился китайский вице-премьер, чтобы участвовать в дискуссиях о будущем ИИ. Одним из главных вопросов, которые обсуждались на форуме, стало создание независимого органа для обеспечения надзора за технологией.

На саммите Сунак представил «Декларацию Блетчли» — документ, который рассматривает вопросы безопасности ИИ. Его поддержали 28 стран, в том числе ведущие разработчики ИИ — США и Китай, а также Европейский Союз. В тексте декларации прописаны шаги по обнаружению и научному изучению общих рисков, связанных с ИИ. Также авторы документа предлагают стратегию для создания международной политики, направленной на снижение этих рисков.

На мероприятии выступил Йошуа Бенжио — канадский математик и кибернетик, которого называют одним из «крестных отцов» искусственного интеллекта. Ученый заявил, что поможет британскому правительству подготовить отчет «Состояние науки», которое представит общее понимание будущих возможностей и рисков технологии.

Почему так мало конкретики

Несмотря на общую поддержку идеи регулирования, которую высказывают разработчики правительствам, на британском форуме звучали и скептические заявления. Не обошлось без высказываний Илона Маска — одного из спикеров саммита. Основатель разработчика x.AI заявил, что правительствам не следует торопиться с введением законодательства в области ИИ. Вместо этого он предположил, что у компаний больше возможностей для выявления рисков, и своими выводами они могут поделиться с законодателями.

Критики указывают на несколько слабых мест у подобных инициатив:

  • Частным компаниям указывать труднее, чем ведомствам. Например, президент США обладает широкими полномочиями по использованию ИИ федеральным правительством, но у него намного меньше возможностей влиять на частные компании. При подписании указа Байден признался, что «нам все еще нужно, чтобы Конгресс действовал [вместе с Белым домом]». Каким образом поступят законодатели — это вопрос, так как не секрет, что в американском Конгрессе есть сильное лобби техногигантов.
  • Чрезмерный контроль может всех задушить. Компании испытывают сильное давление со стороны американского правительства, которое инициировало целый ворох антимонопольных разбирательств с приходом в Федеральную торговую комиссию США Лины Хан. Разработчики ИИ опасаются, что за красивыми фразами о защите пользователей и потребителей последуют жесткие требования лицензирования и отчетности, которые затормозят развитие высокотехнологичной отрасли.
  • Все заботятся о собственных интересах. Другое препятствие — это конкуренция самих стран на технологическом рынке. Соглашаясь с необходимостью контролировать риски технологии, ни США, ни Китай не собираются ограничивать развитие отрасли и параллельно занимаются санкционной войной, которая должна замедлить продвижение конкурента. За две недели до подписания указа Байден ограничил продажу передовых полупроводников американскими компаниями, чтобы помешать Китаю развивать собственные большие языковые модели — основу технологий ИИ.
  • У правительств нет столько специалистов. Наконец, у правительств пока нет достаточного количества экспертов по искусственному интеллекту, которые могли бы квалифицированно оценивать работу разработчиков ИИ и выпущенных на рынок продуктов. Все крупные специалисты задействованы в частном секторе и вряд ли перейдут на должности чиновников, потеряв в зарплате и карьерных возможностях.
  • Правила слишком неясные. Критики жесткого подхода к регулированию ИИ указывают, что принятые документы дают слабое представление, как этот механизм будет выглядеть. Зачастую вместо конкретных требований документы пестрят обтекаемыми формулировками и красивыми заявлениями. Показателен опыт Европейского Союза, который начал разрабатывать собственный закон об ИИ перед волной генеративных ИИ-инструментов. В результате большая часть законопроекта устарела и документ пришлось срочно переписывать.

«Каждый раз, когда я читаю подобные декларации, у меня возникает стойкое ощущение, что именно эти декларации генерировал ChatGPT. Вот он потоком начинает выдавать тезисы и принципы, но очень поверхностные и пустые, как и вот эти декларации. Ну, да, есть определенные риски, и эти риски надо выявлять, классифицировать, прорабатывать. Но самому по себе ИИ уже 70 лет с лишним, лично я не считаю эту технологию такой, которая несет в себе экзистенциальную угрозу», — заявил гендиректор компании — разработчика искусственного интеллекта «А-Я эксперт» Роман Душкин.

Следующий саммит по безопасности ИИ состоится весной будущего года в Южной Корее, затем через полгода — во Франции. Стремительное развитие сферы ИИ каждый день добавляет новые проблемы регуляторам, и есть вероятность, что за следующие полгода подходы снова поменяются. «Мы живем в самое интересное время. Я думаю, что с вероятностью 80% это [развитие ИИ] будет хорошо, а 20% — плохо. Если мы будем осознавать и проявлять осторожность в отношении плохой части, в целом это будет то будущее, которого мы хотим»», — написал Маск в соцсетях после британского саммита.

ЕС никак не может принять закон об искусственном интеллекте. В чем загвоздка?
ЕС никак не может принять закон об искусственном интеллекте. В чем загвоздка?
По теме
ЕС никак не может принять закон об искусственном интеллекте. В чем загвоздка?
В ЕС вступили в силу DSA и DMA. Как Европа закручивает гайки IT-гигантам и что это значит
В ЕС вступили в силу DSA и DMA. Как Европа закручивает гайки IT-гигантам и что это значит
По теме
В ЕС вступили в силу DSA и DMA. Как Европа закручивает гайки IT-гигантам и что это значит
Байден подписал указ об ограничении монополий. Что это означает для бигтеха
Байден подписал указ об ограничении монополий. Что это означает для бигтеха
По теме
Байден подписал указ об ограничении монополий. Что это означает для бигтеха
Новый рекламный формат в наших телеграм-каналах.

Купить 500 символов за $150

Читайте также
Число софтверных вакансий в США падает 23 недели подряд. Эксперты: это только начало
Число софтверных вакансий в США падает 23 недели подряд. Эксперты: это только начало
Число софтверных вакансий в США падает 23 недели подряд. Эксперты: это только начало
5 комментариев
США запретили IT-компаниям с господдержкой строить заводы в Китае в течение 10 лет
США запретили IT-компаниям с господдержкой строить заводы в Китае в течение 10 лет
США запретили IT-компаниям с господдержкой строить заводы в Китае в течение 10 лет
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Нейросеть «оживляет» классические пиксельные игры
Китай потребовал от технокомпаний лучше трекать пользователей и бороться с фейками
Китай потребовал от технокомпаний лучше трекать пользователей и бороться с фейками
Китай потребовал от технокомпаний лучше трекать пользователей и бороться с фейками

Хотите сообщить важную новость? Пишите в Telegram-бот

Главные события и полезные ссылки в нашем Telegram-канале

Обсуждение
Комментируйте без ограничений

Релоцировались? Теперь вы можете комментировать без верификации аккаунта.

Anonymous
Anonymous
0

Потому что AI это хайп и химера. С тем же успехом можно регулировать научную фантастику.

Zhan Chubukou
Zhan Chubukou B2B Contractor (AI Solution Manager) в Worldwide Market
0

Где-то в Азии раздаются хлопки пробок шампанского...

Дмитрий Иванов
Дмитрий Иванов ФРилансер в Global Freelance
0

А в Академии Управления при Перезиденте что тогда раздается?

0

Да потому что у политиканов как обычно понимание собственно самого предмета отстутсвует, но есть острое желание зарегулировать новую область.