Десятилетнее исследование UCLA SETI завершилось созданием алгоритма, распознающего искусственные радиосигналы с точностью 94%. Изучив 70 тысяч звездных систем, ученые столкнулись с проблемой космического «шума» и нехваткой финансирования, что вынудило их привлечь к анализу данных 40 тысяч добровольцев и нейронные сети для фильтрации 100 миллионов помех.
Профессор Жан-Люк Марго отмечает острый дефицит ресурсов: поиск техномаркеров получает лишь 0,0007% бюджета NASA, несмотря на охват пространства в миллион раз больший, чем при поиске биомаркеров. Бюрократические барьеры грантовых программ США практически исключают поддержку таких исследований, вынуждая команду использовать альтернативные методы работы. Основным инструментом очистки данных от антропогенных помех — спутников и наземных радаров — стала нейросеть ResNet, обученная на разметке тысяч волонтеров с платформы Zooniverse.Научная ценность проекта заключается во внедрении Модифицированного критерия Дрейка. Метод учитывает эффект Доплера, возникающий при движении экзопланет, что позволяет алгоритмам фиксировать слабые «плавающие» сигналы. Благодаря прямому анализу данных без усреднения спектров, исследователи перестали терять до 95% потенциально значимых данных. Итогом работы стало установление строгих статистических ограничений: в радиусе 20 000 световых лет от Земли менее одной из 16 000 звезд обладает мощным радиопередатчиком. Эти расчеты переводят SETI из области теоретических догадок в сферу точных цифровых дисциплин.

Комментарии (0)
Пока нет комментариев. Будьте первым!