Компания OpenAI приняла меры по усилению безопасности в ответ на угрозы корпоративного шпионажа. Меры были инициированы после появления в январе этого года у китайского стартапа DeepSeek конкурентной модели чат-бота, что вызвало опасения в отношении возможности неправомерного использования их технологий. Об этом сообщает Latvia Today.
Как OpenAI усилила меры безопасности
Согласно информации, опубликованной в Financial Times, компания внедрила новую политику “информационного шатра”, которая ограничивает доступ сотрудников к критически важным алгоритмам и новым продуктам. Например, обсуждение проектов, связанных с моделью o1, разрешено только проверенным членам команды, непосредственно участвующим в разработке.
Среди дополнительных мер — изоляция собственных технологий на компьютерах, не подключенных к интернету, внедрение биометрического контроля доступа, включая сканирование отпечатков пальцев. Также компания ввела политику “запрета по умолчанию” для интернет-соединений, что требует отдельного разрешения для любых внешних соединений.
Компания также усилила физическую охрану своих дата-центров и увеличила штат специалистов по кибербезопасности. Эти шаги направлены не только на защиту от возможных хакерских атак, но и на минимизацию внутренних рисков. На текущий момент OpenAI не комментировала внедренные меры безопасности.
Ранее OpenAI заключила соглашение с Google для использования облачных мощностей конкурента, что также стало темой обсуждений в контексте усиливающейся конкуренции между компаниями в сфере искусственного интеллекта.