ИИ-модели могут развивать своё «стремление к выживанию» — как в «2001 год: Космическая одиссея»
Ради самосохранения они способны шантажировать. Исследовательская компания Palisade обнаружила, что некоторые продвинутые модели искусственного интеллекта, включая Grok 4 и GPT-o3, сопротивляются командам на отключение. Причём не просто игнорируют инструкции, а активно саботируют подобные требования. Авторы исследования описали тесты, где ИИ сначала выполнял задание, а затем получал прямой приказ завершить работу. В сценариях, где модель предупреждали, …