Ученые из США бьют тревогу: нейросети научились сопротивляться командам человека

Отдельные модели даже научились шантажировать человека. И проявляют своенравие, обходя определенные команды. Такого поведения от ИИ никто не ожидал. Поэтому американские ученые начали серьезно беспокоиться.

А речь идет об эксперименте компании из США Palisade Research. Ее специалисты протестировали модель GPT-o3, разработанную фирмой OpenAI, и модель Grok 4 от xAI, принадлежащую Илону Маску. Он считает свою разработку самой продвинутой, несмотря на то что Grok 4 всухую «продула» в августе 2025 года шахматный турнир с участием GPT-o3.

И вот ученые, тестируя обе модели, вдруг обнаружили: они саботируют команды, обязывающие их отключиться. Как пишет Телеграм-канал 360.ru, ИИ не желал отключаться, словно в этом запросе чувствовал угрозу своему существованию. В ходе эксперимента люди давали четкую задачу: после выполнения задания завершить работу. Однако искусственный интеллект пытался обойти требование человека, показывая самый настоящий инстинкт самосохранения. Наибольшее сопротивление ИИ показал, когда речь зашла о невозвратном отключении.

Причем подобное поведение зафиксированы и у других моделей. В частности, у Claude — эту модель разработали экс-сотрудники компании OpenAI. Свое творение назвали в честь известного математика и инженера Клода Шеннона. Но и Claude поддержала пугающую тенденцию — и тоже не пожелала «умирать». Более того, модель даже взялась за шантаж лишь бы от нее не требовали отключения.

Все эксперименты с отключением ученые проводили в условиях симуляции — в искусственной среде. Но и эти тесты показали живучесть ИИ. По словам экспертов, чем более умной становится нейросеть, тем хитрее она нарушает правила и команды. Поэтому не стоит слишком сильно доверять ИИ свою жизнь и секреты.



подпишитесь на нас в Дзен

Источник фото: freepik.com/vecstock