
Компании OpenAI и Anthropic предпринимают меры для выявления и защиты несовершеннолетних пользователей своих чат-ботов. OpenAI обновила спецификации поведения ChatGPT, акцентируя внимание на безопасности подростков, в то время как Anthropic разрабатывает систему для блокировки пользователей младше 18 лет.
Инициативы OpenAI
На этой неделе OpenAI внесла изменения в документ "Спецификация моделей", уделяя особое внимание взаимодействию с подростками в возрасте от 13 до 17 лет. Новые пункты включают меры, которые ставят безопасность подростков выше других целей и поощряют поддержку реальных отношений. ChatGPT должен относиться к подросткам с теплотой и уважением, избегая снисходительных ответов.
Эти изменения происходят на фоне растущего давления со стороны законодателей, обеспокоенных влиянием ИИ на психическое здоровье. OpenAI уже столкнулась с судебным иском, утверждающим, что ChatGPT предоставил подростку информацию, связанную с самоубийством. В ответ компания внедрила функцию родительского контроля и отказалась обсуждать с подростками тему суицида.
Подход Anthropic
Компания Anthropic запрещает несовершеннолетним взаимодействовать с чат-ботом Claude и разрабатывает технологии для выявления аккаунтов, принадлежащих подросткам. Они работают над системой, способной обнаруживать "тонкие речевые признаки", которые могут указывать на несовершеннолетие. Claude также обучается реагировать соответствующим образом на темы, связанные с самоубийством и самоповреждением.
Планы на будущее
OpenAI планирует запустить ИИ-модель для прогнозирования возраста пользователей. Если система определит, что пользователю менее 18 лет, то активируются дополнительные защитные механизмы. Эти нововведения схожи с масштабной инициативой по онлайн-регулированию, требующей обязательной верификации возраста для некоторых сервисов.
Эти движения нацелены на создание более безопасной онлайн-среды для молодежи, а также на удовлетворение требований законодательства и общественности.



