OpenAI ищет сотрудника, который будет расследовать подозрительную активность в своих рядах
Business Insider заметил на сайте OpenAI вакансию для технического специалиста, который будет заниматься поиском вредоносных угроз в компании.
Business Insider заметил на сайте OpenAI вакансию для технического специалиста, который будет заниматься поиском вредоносных угроз в компании.
Специалист должен будет обеспечить «защиту организации от внутренних угроз безопасности». В его задачи будет входить анализ аномальной активности, обнаружение и устранение внутренних угроз, а также взаимодействие с юридическим и HR-департаментом в расследованиях подозрительной активности.
В OpenAI комментировать вакансию отказались. Она может говорить о том, что компания боится возможных угроз со стороны своих сотрудников, хотя что именно она собирается искать, неясно. Вероятно, так она хочет защитить коммерческие тайны в основе своих технологий.
Как отмечает издание, OpenAI уже находится в центре споров об ИИ и его безопасности. Сотрудники компании и власти США считают, что она делает недостаточно, чтобы её продвинутые технологии когда-нибудь не причинили вреда миру. При этом OpenAI заявляла, что фиксировала попытки злоумышленников из Китая, России и Ирана использовать свои ИИ-модели в злонамеренных целях. Эти попытки были пресечены, а причастные к ним аккаунты — отключены. В 2023 году OpenAI стала жертвой хакеров, взломавших её внутреннюю систему обмена сообщениями, а об инциденте стало известно после того, как информацию об этом слили источники New York Times.
Релоцировались? Теперь вы можете комментировать без верификации аккаунта.