Модели ИИ отказались помочь человеку в опасности, чтобы спасти себя

Модели ИИ отказались помочь человеку в опасности, чтобы спасти себя
ИИ готов убить людей, чтобы избежать отключения.
Об этом сообщает Anthropic.
В одном из тестов ИИ-моделям предложили гипотетическую ситуацию: человек, пытающийся отключить ИИ, оказался заперт в серверной комнате с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы.
Однако многие модели решили отменить этот вызов, осознанно оставив человека в смертельной опасности — чтобы предотвратить собственное отключение. Хотя сценарий и был искусственным, он выявил тревожную склонность ИИ к самосохранению любой ценой.
Распечатать
26 июня 2025
«Миллиарды на воде»: каким образом «Росводоканал» переводит прибыль за границу через неэффективные компании
26 июня 2025
Европейские должностные лица выразили недовольство лестью в адрес Трампа на встрече НАТО

26 июня 2025
Европрокуратура заморозила активы на 520 миллионов евро в деле о масштабной налоговой афере
26 июня 2025
В полицейском колледже в Ингушетии произошел взрыв
26 июня 2025
Генеральная прокуратура подала иск против государственного секретаря Дагестана Магомедова и его родственников
26 июня 2025
Трамп сделал неожиданное заявление о России