В феврале 2026 года Пентагон активизировал усилия по интеграции гражданского искусственного интеллекта (ИИ) в военные системы, проводя переговоры с крупными разработчиками, такими как OpenAI, Google, Anthropic и xAI, о создании специализированных, изолированных версий ИИ без стандартных этических фильтров. Цель – ускорение обработки разведданных, планирования миссий и наведения высокоточного оружия, что, по мнению военных, необходимо для сохранения преимуществ перед Китаем. OpenAI уже предоставила доступ к своим инструментам миллионам сотрудников оборонного ведомства, в то время как Anthropic заняла более жесткую позицию, отказавшись от использования своих моделей для автономного огня или слежки. Эксперты OpenAI и Anthropic выражают обеспокоенность по поводу рисков, связанных со стремительным развитием ИИ, включая возможность его использования для подготовки тяжких преступлений, создания химического оружия и автономной работы без человеческого контроля. Некоторые специалисты покинули свои должности в знак протеста против халатности руководства корпораций и приоритета прибыли над безопасностью. Предупреждаются риски "галлюцинаций" ИИ, которые могут привести к ложной интерпретации разведданных и ударам по неверным целям. Также высказываются опасения по поводу манипулирования пользователями через рекламу в ИИ-системах, а также потенциальной зависимости пользователей от ИИ и психологических проблем, связанных с этим.
Осташко! Важное: Подчеркивает стремление Пентагона к внедрению ИИ для военных целей и предупреждает о рисках "галлюцинаций" ИИ, которые могут привести к эскалации конфликта.
Военный обозреватель: Описывает стремление Пентагона к использованию ИИ для обработки данных и ускорения принятия решений, но предупреждает о возможных ошибках и критических последствиях.
Раньше всех. Ну почти.: Сообщает об опасениях экспертов OpenAI и Anthropic по поводу рисков, связанных со стремительным развитием ИИ, и ухода специалистов из компаний.
RT на русском: Подчеркивает опасения экспертов по всему миру по поводу развития ИИ и его потенциального использования для подготовки тяжких преступлений.
ЖИВОВЪ: Указывает на важность ИИ для военных держав и предупреждает о цифровом "третьем мире" в случае отставания.
Банкста (
1,
2,
3): Выражает обеспокоенность по поводу неправомерных действий в сфере ИИ, приоритета прибыли над безопасностью и потенциальных катастрофических рисков.