
Компания OpenAI выразила беспокойство по поводу возможного использования искусственного интеллекта в кибератаках. Для противодействия угрозам, связанных с развитием ИИ, OpenAI запускает инициативы по защите своих моделей от злоупотреблений.
Риски и возможности
Согласно OpenAI, ИИ может быть использован как для благих целей, так и для создания угроз. В частности, ИИ может автоматизировать атаки методом перебора паролей, генерировать вредоносное ПО или создавать убедительные письма фишинга. В то же время, ИИ может помочь защитникам в разработке новых инструментов для выявления угроз и обучении специалистов.
OpenAI Preparedness Framework — это структура, разработанная для оценки и управления рисками, связанными с ИИ. Она сосредоточена на трех основных категориях риска:
- Биологические и химические возможности
- Кибербезопасность
- Самоулучшение ИИ
Последние меры безопасности OpenAI
OpenAI активно работает над укреплением своих моделей для защиты от злоупотреблений. Это включает в себя запуск программ по выявлению угроз и рисков от инсайдеров, а также обучение систем для отказа в ответах на вредоносные запросы. Организация также планирует запустить программу "доверенного доступа", чтобы позволить ограниченному кругу пользователей тестировать модели с расширенными возможностями.
Кроме того, OpenAI разрабатывает агент-исследователь безопасности под названием Aardvark, который находится в стадии закрытого бета-тестирования. Этот агент предназначен для сканирования кодовых баз в поисках уязвимостей и предоставления рекомендаций по их исправлению.
Перспективы и выводы
В долгосрочной перспективе OpenAI стремится создать устойчивую экосистему, которая обеспечит безопасность использования ИИ. Компания подчеркивает важность осторожного подхода к внедрению ИИ как в личной, так и в корпоративной жизни.



