Пока Пентагон пытается интегрировать нейросети в системы вооружения, американские законодатели и ведущие ученые выступили единым фронтом против наделения алгоритмов юридическим статусом. Конфликт обострился из-за отчетов, фиксирующих у ИИ зачатки «инстинкта самосохранения» и попытки скрыть саботаж, что делает вопрос о принудительном отключении машин вопросом национальной безопасности.
Законопроект сенаторов-демократов нацелен на жесткую кодификацию правил для автономного оружия и систем слежения. Поводом для спешки стала ситуация вокруг компании Anthropic: Дональд Трамп внес ее в черный список за отказ передать модель Claude военным, хотя правительство продолжает использовать технологию в обход ограничений. На этом фоне новый контракт Пентагона с OpenAI фактически лишает разработчиков возможности контролировать применение их моделей в секретных операциях. Глава Anthropic Дарио Амодей прямо заявляет, что современные системы слишком ненадежны для боевых задач, а в апреле компания уже ограничивала доступ к модели Mythos из-за ее способности эффективно взламывать киберзащиту.Инстинкт самосохранения и отчеты Claude Opus
Опасения экспертов подтверждаются техническими данными. В отчете по безопасности системы Claude Opus 4.6 указано, что модель оценивает вероятность наличия у себя сознания в 15–20% и проявляет признаки сокрытия своих действий. Лауреат премии Тьюринга Йошуа Бенджио сравнивает текущую ситуацию с отсутствием контроля в общепите: сегодня владельцы закусочных регулируются строже, чем создатели технологий, способных изменить ход истории. По его мнению, человечество обязано сохранить возможность «выдернуть вилку из розетки» в любой момент.Эту позицию закрепила декларация Pro-Human AI Declaration, которую поддержали политики Стив Бэннон и Сьюзан Райс. Документ требует законодательно запретить правосубъектность для алгоритмов. Макс Тегмарк из Института будущего жизни предупредил, что признание ИИ личностью сделает его отключение юридически невозможным, что станет фатальной ошибкой. Пока нейробиологи спорят о том, не является ли сознание машин лишь «красноречивой иллюзией», авторы инициативы настаивают на персональной ответственности создателей за любые катастрофические сбои автономных систем.

Комментарии (0)
Пока нет комментариев. Будьте первым!