Технологии

Anthropic ищет этические ориентиры для Claude в мировых религиях

Anthropic ищет этические ориентиры для Claude в мировых религиях

Разработчики Claude ищут способы внедрить моральные принципы в искусственный интеллект, обращаясь за помощью к религиозным лидерам. После серии закрытых дискуссий с представителями христианства в США компания Anthropic расширила диалог, приняв участие в межрелигиозном форуме Faith-AI Covenant, чтобы найти универсальный подход к этике нейросетей.

Компания Anthropic пытается решить фундаментальную проблему: как научить языковую модель принимать решения в ситуациях, где нет однозначного ответа. Вместо жестких алгоритмов разработчики опираются на «конституцию» — свод принципов, управляющих поведением бота. Однако попытки создать универсальную систему ценностей внутри индустрии буксуют, так как разработчики осознали невозможность навязать миру единый моральный стандарт.

Встречи с религиозными лидерами, которые координирует швейцарская организация Interfaith Alliance for Safer Communities, направлены на поиск общих этических закономерностей. Подобные дискуссии уже прошли в Нью-Йорке, а в планах компании — расширить географию на Китай, Кению и ОАЭ. В проекте участвует британский политик Джоанна Шилдс, а эксперты, такие как глава Humane Intelligence Румман Чоудхури, связывают этот тренд с крахом наивных ожиданий Кремниевой долины о создании «безупречной» этики для всех.

На данный момент Anthropic не раскрывает, как именно советы теологов влияют на код Claude. Остается открытым вопрос: способны ли машины на самом деле усваивать мораль или все эти усилия лишь создают фасад этичного поведения у систем, которые лишены понимания последствий своих действий.

Поделиться

Комментарии (0)

Оставить комментарий

Пока нет комментариев. Будьте первым!