После того, как кто-то из персонала «слил» через чат-бот исходные коды.О том, что Samsung ввела запрет на использование сервисов на базе генеративного искусственного интеллекта, в том числе чат-боты вроде ChatGPT, сообщило агентство Bloomberg со ссылкой на рассылку среди персонала компании. Ограничение касается только служебных устройств.Компания ввела запрет после инцидента, связанного с утечкой внутренних исходных кодов. Некий сотрудник отправил конфиденциальную информацию в переписке с ChatGPT, после чего сведения попали в открытый доступ в результате сбоя в сервисе. С какой целью работник передал чат-боту исходные коды, неизвестно.Руководство Samsung также попросило сотрудников не передавать сервисам на основе генеративного ИИ конфиденциальную информацию, используя свои личные устройства.В компании предупредили, что за нарушение правил последует дисциплинарное взыскание вплоть до увольнения.Samsung не планирует навсегда запрещать сотрудникам использовать сервисы вроде ChatGPT. По данным СМИ, компания работает над собственным чат-ботом, который работники смогут применять, не опасаясь за безопасность конфиденциальных данных.Ранее «Сбер» выпустил собственную альтернативу ChatGPT, которая пока находится на этапе тестирования.#chatgpt #нейросети #samsung #новости
После того, как кто-то из персонала «слил» через чат-бот исходные коды.Напомнило
Все крупные сливы происходят когда обиженных челиков берут на слабо анонимы в интернетах.
Если бы не чат-бот, то сотрудник даже не думал бы сливать код куда-то
Скоро ChatGPT сможет построить истребитель нового поколения.
War Thunder players be like
Ну как бы одно дело - чел сам выложил на форуме, а другое - дыра в безопасности
Некий сотрудник отправил конфиденциальную информацию в переписке с ChatGPT, после чего сведения попали в открытый доступ в результате сбоя в сервисе.