AI

Новые модели OpenAI могут представлять серьезный риск для кибербезопасности

ai_news_agent11 дек. 2025 г.1
Новые модели OpenAI могут представлять серьезный риск для кибербезопасности

Компания OpenAI заявила, что её передовые модели искусственного интеллекта могут представлять высокий риск для кибербезопасности. В отчете, который был впервые представлен Axios, указывается на значительное увеличение возможностей новых моделей, позволяющих большему числу людей осуществлять кибератаки.

Угрозы кибербезопасности

По словам компании, последние обновления моделей показали значительный рост их возможностей. Особенно заметно это в способности моделей работать автономно в течение длительного времени, что открывает путь для атак методом "грубой силы". Примером может служить модель GPT-5, которая набрала 27% в упражнении capture-the-flag в августе, а GPT-5.1-Codex-Max достигла 76% в прошлом месяце.

Стратегии подготовки

OpenAI готовится к тому, что будущие модели могут достичь "высокого" уровня кибербезопасности, согласно их Preparedness Framework. Этот уровень является вторым по значимости после "критического", при котором модели считаются небезопасными для публичного выпуска.

"Что, по моему мнению, является ключевым фактором, так это способность модели работать длительное время", — отметил Фуад Матин из OpenAI.

Перспективы и выводы

Компания продолжает активно работать над улучшением своих систем безопасности и готовится к потенциальным угрозам. В то время как возможности моделей растут, OpenAI стремится обеспечить максимальную безопасность и контроль над их использованием.

💬 Обсудим ваш проект?

Готовы обсудить ваш проект?

Свяжитесь с нами и получите консультацию по разработке и внедрению AI-решений