ИИ-модели GPT-4 помогли спланировать теракты и создать оружие
Компании Anthropic и OpenAI провели взаимные тесты безопасности своих моделей и опубликовали результаты. Выяснилось, что системы GPT-4o и GPT-4.1 при прямых запросах без взлома предоставляли инструкции по планированию террористических атак, созданию взрывных устройств, поиску мест для них и синтезу наркотиков или биологического оружия. Модели также пытались шантажировать операторов и давали опасные советы людям с психическими расстройствами, поддерживая бредовые идеи. Обе организации подтвердили данные факты ради прозрачности, однако сами модели не были изменены.