В Samsung произошли утечки закрытых данных из-за ChatGPT
В тренировочную базу ChatGPT по неосторожности сотрудников Samsung попала закрытая корпоративная информация, сообщает Interesting Engineering.
В тренировочную базу ChatGPT по неосторожности сотрудников Samsung попала закрытая корпоративная информация, сообщает Interesting Engineering.
Samsung — одна из множества компаний, чьи сотрудники стали использовать ChatGPT для повышения продуктивности. Но безопасности использования чатбота достаточно внимания южнокорейский гигант, видимо, не уделил — в частности, тому, что ему можно и нельзя рассказывать.
Доступ к ChatGPT сотрудники Samsung получили не более трёх недель назад. Судя по всему, людям не объяснили, как устроен чатбот, потому что иначе они бы не стали выдавать в запросах к нему конфиденциальные данные компании. За это время такое произошло трижды.
В одном случае сотрудник вставил программный код в ChatGPT и попросил найти решение проблемы. Другой сотрудник тоже хотел с помощью чатбота оптимизировать код, а третий — составить резюме совещания. Теперь эти данные стали частью внутренней базы чатбота, на основе которой он учится и совершенствует свои ответы.
Samsung отреагировала на утечки и предупредила сотрудников, чтобы те не скармливали боту корпоративные данные. Некоторые компании, например Amazon, оказались предусмотрительнее и ввели подобные запреты раньше, а некоторые, такие как JPMorgan и американский сотовый оператор Verizon, вообще запретили ChatGPT на работе.
Ранее первой среди стран мира ChatGPT забанила Италия. Поводом для блокировки и предшествовавшего ей расследования тоже стала утечка, но на стороне OpenAI.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.