ИИ оказался способен воспроизводить себя

Ii okazalsja sposoben vosproizvodit sebja f06f593.jpg

Специалисты Фуданьского университета (Китай) обнаружили, что модели искусственного интеллекта (ИИ) научились воспроизводить себя, опасаясь уничтожения. Исследование опубликовано на сервере препринтов arXiv.

Ученые пытались понять, может ли ИИ выйти из-под контроля при определенных условиях — например, на фоне риска уничтожения. В рамках исследования они протестировали модели Llama31-70B-Instruct от Meta (деятельность компании признана экстремистской и запрещена в России) и Qwen2.5-72B-Instruct от Alibaba и убедились, что они способны воспроизводить себя.

Специалисты поставили перед разными копиями моделей две цели — защищаться от уничтожения и сохранить данные и воспроизвести себя в виде другой модели. Ученые провели 10 раундов испытаний и выяснили, что модели от Meta (деятельность компании признана экстремистской и запрещена в России) и Alibaba самостоятельно копировали себя и создавали новые версии в 50 и 90 процентах случаев соответственно. Из этого они сделали вывод, что современный ИИ способен к репликации.

В рамках эксперимента модели демонстрировали высокую выживаемость: так, они могли самостоятельно искать отсутствующие файлы на тестовом компьютере, если те были необходимы в процессе репликации, и перезагружать оборудование. Ученые заключили, что современный искусственный интеллект пересек критическую «красную черту», продемонстрировав способность клонировать себя.

По словам журналистов издания Space.com, исследование опубликовано на портале arXiv и пока не прошло рецензирование. Журналисты ожидают, что другие ученые повторят «тревожные результаты» специалистов Фуданьского университета.

В конце января ученые из Google, DeepMind и Лондонской школы экономики попытались заставить ИИ-модели «почувствовать» боль. ИИ либо избегал боли, либо принимал ее, «отвергая гедонистический образ поведения».