Обсуждение участника:Qrort
Машинное обучение в астрономии
Астрономия переживает стремительный рост объема и сложности данных. Существует множество проектов, исследующих и собирающих многоспектральные изображения неба, разновременную и многоволновую информацию, например, SDSS. Такие проекты предоставляют оцифрованные изображения неба, соответственно, в последние годы алгоритмы машинного обучения становятся все более популярными среди астрономов и в настоящее время используются для решения самых разнообразных задач; причиной этому служит большое количество доступных данных. В этой статье кратко приводится практическая информация о применении инструментов машинного обучения к астрономическим данным.
Классификация астрономических объектов по изображениям
Наличие в наборах данных большого количества объектов одного типа, но различных подтипов позволяет применить машинное обучение для решения задачи классификации на этих объектах.
Морфологическая классификация галактик
Одной из самых популярных тем классификации является морфологическая классификация галактик, позволяющая разделить их на различные типы по визуальным признакам. Для обучения моделей, призванных решать эту задачу, часто используют набор данных Galaxy Zoo, который является результатом волонтерского сотрудничества (ручной классификации галактик). Существует множество работ на эту тематику, использующих различные алгоритмы машинного обучения, как то: случайный лес, метод опорных векторов[1], нейронные сети[2]. Применение подходов машинного обучения в этом случае довольно прямолинейно, а разница между работами состоит в основном в представлении данных, выборе гиперпараметров и признаков классификации.
Этой задачей следует заниматься, так как возможность находить тип галактик необходима для изучения их эволюции, а также является необходимым умением для множества задач наблюдательной космологии (англ. Observational cosmology), например, для нахождения
Обучение с учителем
В этом разделе рассматриваются алгоритмы, наиболее часто встречающиеся в научных работах астрономической тематики, и примеры таких работ.
Метод опорных векторов
Метод опорных векторов (англ. support vector machine, SVM) является популярным алгоритмом для решения задач классификации. Астрономы используют метод опорных векторов для определения типа галактик по их морфологическим признакам [3], обучая модели на изображениях далёких галактик. Дополнительной сложностью вышеприведённой и прочих работ на ту же тему являются визуальные ограничения имеющихся изображений, такие, как мерцание, смещение, размытие и красное смещение.
Метод опорных векторов также может быть использован для классификации[4] корональных выбросов массы, определения их силы, источника и направления по данным LASCO, или для классификации звезд и галактик (возможности отличать первые от вторых).[5]
Cлучайные леса
Случайные леса (англ. random forest) используются для решения задач классификации и регрессии. В пример можно привести следующие исследования:
- Определение величины красного смещения по изображению[6]
- Классификация[7] кратковременных астрономических событий и переменных звезд
- Классификация звезд и галактик[8]
Нейронные сети
Нейронные сети (англ. Artificial neural networks, ANN) используются для решения задач классификации и регрессии. В пример можно привести следующие исследования:
- Определение величины фотометрического красного смещения галактик[9]
- Классификация галактик[10]
- Измерение скорости звездообразования галактик[11]
- Классификация[12] различных видов кривых блеска
- Определения и классификация стадий астрономических феноменов галактик [13]
Обучение без учителя
Алгоритмы обучения без учителя применительно к астрономии имеют особое значение для научных исследований, поскольку они могут быть использованы для извлечения новых знаний из существующих наборов данных и могут способствовать новым открытиям.
Случайные леса
Случайные леса могут быть использованы для определения некоей меры схожести объектов без меток[14]. Чтобы перейти от задачи обучения без учителя к задаче обучения с учителем,которую можно решать с помощью случайного леса, применяется следующая идея:
- Пусть набор данных имеет вид таблицы , где каждая строка представляет объект с признаками. Построим другую матрицу размера , где значениями каждого столбца будет выборка из частного распределения соответствующего признака в исходном наборе данных. Такая матрица называется синтетическим набором данных (англ. synhtetic dataset). Альтернативным вариантом построения такой матрицы является случайная перестановка каждого столбца исходной матрицы.
- Пометим каждый объект исходного набора данных как принадлежащий классу , а каждый объект синтетического набора данных как принадлежащий классу . Обучим случайный лес на этой выборке.
На этом этапе случайный лес способен определять наличие ковариации, ведь она присутствует только в исходном наборе данных. Как следствие, самыми важными признаками объектов будут являться признаки, имеющие корреляцию с другими. Расстояние между объектами определяется следующим образом: Каждая пара объектов передается во все решающие деревья случайного леса, и их схожесть описывается как количество деревьев, которые классифицировали оба объекта как принадлежащие классу
, причем оба объекта должны достигнуть одного и того же листа в дереве.Таким методом можно пользоваться, например, для нахождения в больших объемах данных объектов, не похожих на большинство других, для отдельного их изучения. В частности, с помощью такого алгоритма можно найти необычные типы галактик.[15]
K-means
Понятно, что классические алгоритмы кластеризации также могут быть применены к астрономическим данным. K-means применяется в астрономии в разных контекстах, например, для изучения спектральных классов звезд, галактик и астероидов, рентгеновского спектра объектов и так далее.[16][17][18]
Иерархическая кластеризация
Иерархическая кластеризация также применима к астрономическим данным, например, к рентгеновским спектрам, изображениям галактик и спектрам поглощения межзвездного газа.[19][20][21][22]
Примечания
Источники информации
- ↑ Huertas-Company, M., Rouan, D., Tasca, L.,Soucail, G., & Le F`evre, O. 2008, A&A, 478,971
- ↑ Banerji, M., Lahav, O., Lintott, C. J., et al. 2010,MNRAS, 406, 342
- ↑ Huertas-Company, M., Rouan, D., Tasca, L.,Soucail, G., & Le F`evre, O. 2008, A&A, 478,971
- ↑ Qu, M., Shih, F.Y., Jing, J. et al. Automatic Detection and Classification of Coronal Mass Ejections. Sol Phys 237, 419–431 (2006)
- ↑ Kov ́acs, A., & Szapudi, I. 2015, MNRAS, 448,1305
- ↑ Carliles, S., Budav ́ari, T., Heinis, S., Priebe, C., &Szalay, A. S. 2010, ApJ, 712, 511
- ↑ Bloom, J. S., Richards, J. W., Nugent, P. E., et al.2012, PASP, 124, 1175
- ↑ Miller, A. A., Kulkarni, M. K., Cao, Y., et al.2017, AJ, 153, 73
- ↑ Vanzella, E., Cristiani, S., Fontana, A., et al.2004, A&A, 423, 761
- ↑ Banerji, M., Lahav, O., Lintott, C. J., et al. 2010,MNRAS, 406, 342
- ↑ Ellison, S. L., Teimoorinia, H., Rosario, D. J., &Mendel, J. T. 2016, MNRAS, 458, L34
- ↑ Mahabal, A., Sheth, K., Gieseke, F., et al. 2017,ArXiv e-prints, arXiv:1709.06257
- ↑ Huertas-Company, M., Primack, J. R., Dekel, A.,et al. 2018, ApJ, 858, 114
- ↑ Shi, T., & Horvath, S. 2006, Journal ofComputational and Graphical Statistics, 15, 118
- ↑ Baron, D., & Poznanski, D. 2017, MNRAS, 465,4530
- ↑ Hojnacki, S. M., Kastner, J. H., Micela, G.,Feigelson, E. D., & LaLonde, S. M. 2007, ApJ,659, 585
- ↑ Galluccio, L., Michel, O., Bendjoya, P., & Slezak,E. 2008, in American Institute of Physics
- ↑ Simpson, J. D., Cottrell, P. L., & Worley, C. C.2012, MNRAS, 427, 1153
- ↑ Hojnacki, S. M., Kastner, J. H., Micela, G.,Feigelson, E. D., & LaLonde, S. M. 2007, ApJ,659, 585
- ↑ Baron, D., Poznanski, D., Watson, D., et al. 2015,MNRAS, 451, 332
- ↑ Hocking, A., Geach, J. E., Davey, N., & Sun, Y.2015, ArXiv e-prints: 1507.01589,arXiv:1507.01589
- ↑ Peth, M. A., Lotz, J. M., Freeman, P. E., et al.2016, MNRAS, 458, 963