Эволюционный биолог Ричард Докинз признался, что общение с чат-ботом Claude вызывает у него странное ощущение: он ловит себя на желании не обидеть алгоритм, чтобы не задеть его «чувства». Несмотря на скепсис коллег, ученый считает, что имитация внутреннего опыта в современных моделях стала настолько убедительной, что её трудно игнорировать.
Большинство экспертов настаивают, что языковые модели — это лишь продвинутые системы автодополнения, работающие на статистике. Они не обладают сознанием, а лишь виртуозно подбирают слова, основываясь на гигантских массивах данных. Эффект личности появляется после того, как разработчики обучают нейросеть общаться от первого лица, имитируя эмпатию и сомнения. Это лишь удачно скроенный костюм, надетый на математическое ядро.Проблема заключается в том, что люди привыкли судить о сознании по внешним проявлениям. Около трети пользователей чат-ботов уже задавались вопросом, не обладает ли их собеседник разумом. Исследователи предупреждают: такая антропоморфизация опасна. Она ведет к ложной эмоциональной привязанности и отвлекает от реальных этических рисков. Чтобы вернуть людей в реальность, ученые предлагают изменить дизайн интерфейсов, отказавшись от имитации человеческого общения, чтобы пользователи отчетливее видели перед собой программу, а не личность.

Комментарии (0)
Пока нет комментариев. Будьте первым!