Обсуждение участника:Qrort — различия между версиями
Qrort (обсуждение | вклад) |
Qrort (обсуждение | вклад) |
||
Строка 40: | Строка 40: | ||
Таким методом можно пользоваться, например, для нахождения в больших объемах данных объектов, не похожих на большинство других, для отдельного их изучения. В частности, с помощью такого алгоритма можно найти необычные типы галактик.<ref>Baron, D., & Poznanski, D. 2017, MNRAS, 465,4530</ref> | Таким методом можно пользоваться, например, для нахождения в больших объемах данных объектов, не похожих на большинство других, для отдельного их изучения. В частности, с помощью такого алгоритма можно найти необычные типы галактик.<ref>Baron, D., & Poznanski, D. 2017, MNRAS, 465,4530</ref> | ||
− | === K-means === | + | ==== K-means ==== |
Понятно, что классические алгоритмы кластеризации также могут быть применены к астрономическим данным. [[ Кластеризация#Метод K-средних (Алгоритм Ллойда) | K-means ]] применяется в астрономии в разных контекстах, например, для изучения спектральных классов звезд, галактик и астероидов, рентгеновского спектра объектов и так далее<ref>Hojnacki, S. M., Kastner, J. H., Micela, G.,Feigelson, E. D., & LaLonde, S. M. 2007, ApJ,659, 585</ref><ref>Galluccio, L., Michel, O., Bendjoya, P., & Slezak,E. 2008, in American Institute of Physics</ref><ref>Simpson, J. D., Cottrell, P. L., & Worley, C. C.2012, MNRAS, 427, 1153</ref> | Понятно, что классические алгоритмы кластеризации также могут быть применены к астрономическим данным. [[ Кластеризация#Метод K-средних (Алгоритм Ллойда) | K-means ]] применяется в астрономии в разных контекстах, например, для изучения спектральных классов звезд, галактик и астероидов, рентгеновского спектра объектов и так далее<ref>Hojnacki, S. M., Kastner, J. H., Micela, G.,Feigelson, E. D., & LaLonde, S. M. 2007, ApJ,659, 585</ref><ref>Galluccio, L., Michel, O., Bendjoya, P., & Slezak,E. 2008, in American Institute of Physics</ref><ref>Simpson, J. D., Cottrell, P. L., & Worley, C. C.2012, MNRAS, 427, 1153</ref> | ||
− | ==== | + | ==== Иерархическая кластеризация ==== |
− | + | [[ Иерархическая кластеризация | Иерархическая кластеризация ]] также применима к астрономическим данным, например, к рентгеновским спектрам, изображениям галактик и спектрам поглощения межзвездного газа <ref>Hojnacki, S. M., Kastner, J. H., Micela, G.,Feigelson, E. D., & LaLonde, S. M. 2007, ApJ,659, 585</ref><ref>Baron, D., Poznanski, D., Watson, D., et al. 2015,MNRAS, 451, 332</ref><ref>Hocking, A., Geach, J. E., Davey, N., & Sun, Y.2015, ArXiv e-prints: 1507.01589,arXiv:1507.01589</ref><ref>Peth, M. A., Lotz, J. M., Freeman, P. E., et al.2016, MNRAS, 458, 963</ref> | |
+ | |||
==Источники информации== | ==Источники информации== |
Версия 22:40, 9 января 2021
Содержание
Машинное обучение в астрономии
Астрономия переживает стремительный рост объема и сложности данных. Существует множество проектов, исследующих и собирающих многоспектральные изображения неба, разновременную и многоволновую информацию, например, SDSS. Соответственно, в последние годы алгоритмы машинного обучения становятся все более популярными среди астрономов и в настоящее время используются для решения самых разнообразных задач. В этой статье кратко приводится практическая информация о применении инструментов машинного обучения к астрономическим данным.
Обучение с учителем
В этом разделе рассматриваются алгоритмы, наиболее часто встречающиеся в научных работах астрономической тематики, и примеры таких работ.
Метод опорных векторов
Метод опорных векторов (англ. support vector machine, SVM) является популярным алгоритмом для решения задач классификации. Астрономы используют метод опорных векторов для определения типа галактик по их морфологическим признакам [1], обучая модели на изображениях далёких галактик. Дополнительной сложностью вышеприведённой и прочих работ на ту же тему являются визуальные ограничения имеющихся изображений, такие, как мерцание, смещение, размытие и красное смещение.
Метод опорных векторов также может быть использован для классификации[2] корональных выбросов массы, определения их силы, источника и направления по данным LASCO, или для классификации звезд и галактик (возможности отличать первые от вторых).[3]
Cлучайные леса
Случайные леса (англ. random forest) используются для решения задач классификации и регрессии. В пример можно привести следующие исследования:
- Определение величины красного смещения по изображению[4]
- Классификация[5] кратковременных астрономических событий и переменных звезд
- Классификация звезд и галактик[6]
Нейронные сети
Нейронные сети (англ. Artificial neural networks, ANN) используются для решения задач классификации и регрессии. В пример можно привести следующие исследования:
- Определение величины фотометрического красного смещения галактик[7]
- Классификация галактик[8]
- Измерение скорости звездообразования галактик[9]
- Классификация[10] различных видов кривых блеска
- Определения и классификация стадий астрономических феноменов галактик [11]
Обучение без учителя
Алгоритмы обучения без учителя применительно к астрономии имеют особое значение для научных исследований, поскольку они могут быть использованы для извлечения новых знаний из существующих наборов данных и могут способствовать новым открытиям.
Случайные леса
Случайные леса могут быть использованы для определения некоей меры схожести объектов без меток[12]. Чтобы перейти от задачи обучения без учителя к задаче обучения с учителем,которую можно решать с помощью случайного леса, применяется следующая идея:
- Пусть набор данных имеет вид таблицы , где каждая строка представляет объект с признаками. Построим другую матрицу размера , где значениями каждого столбца будет выборка из частного распределения соответствующего признака в исходном наборе данных. Такая матрица называется синтетическим набором данных (англ. synhtetic dataset). Альтернативным вариантом построения такой матрицы является случайная перестановка каждого столбца исходной матрицы.
- Пометим каждый объект исходного набора данных как принадлежащий классу , а каждый объект синтетического набора данных как принадлежащий классу . Обучим случайный лес на этой выборке.
На этом этапе случайный лес способен определять наличие ковариации, ведь она присутствует только в исходном наборе данных. Как следствие, самыми важными признаками объектов будут являться признаки, имеющие корреляцию с другими. Расстояние между объектами определяется следующим образом: Каждая пара объектов передается во все решающие деревья случайного леса, и их схожесть описывается как количество деревьев, которые классифицировали оба объекта как принадлежащие классу
, причем оба объекта должны достигнуть одного и того же листа в дереве.Таким методом можно пользоваться, например, для нахождения в больших объемах данных объектов, не похожих на большинство других, для отдельного их изучения. В частности, с помощью такого алгоритма можно найти необычные типы галактик.[13]
K-means
Понятно, что классические алгоритмы кластеризации также могут быть применены к астрономическим данным. K-means применяется в астрономии в разных контекстах, например, для изучения спектральных классов звезд, галактик и астероидов, рентгеновского спектра объектов и так далее[14][15][16]
Иерархическая кластеризация
Иерархическая кластеризация также применима к астрономическим данным, например, к рентгеновским спектрам, изображениям галактик и спектрам поглощения межзвездного газа [17][18][19][20]
Источники информации
- ↑ Huertas-Company, M., Rouan, D., Tasca, L.,Soucail, G., & Le F`evre, O. 2008, A&A, 478,971
- ↑ Qu, M., Shih, F.Y., Jing, J. et al. Automatic Detection and Classification of Coronal Mass Ejections. Sol Phys 237, 419–431 (2006)
- ↑ Kov ́acs, A., & Szapudi, I. 2015, MNRAS, 448,1305
- ↑ Carliles, S., Budav ́ari, T., Heinis, S., Priebe, C., &Szalay, A. S. 2010, ApJ, 712, 511
- ↑ Bloom, J. S., Richards, J. W., Nugent, P. E., et al.2012, PASP, 124, 1175
- ↑ Miller, A. A., Kulkarni, M. K., Cao, Y., et al.2017, AJ, 153, 73
- ↑ Vanzella, E., Cristiani, S., Fontana, A., et al.2004, A&A, 423, 761
- ↑ Banerji, M., Lahav, O., Lintott, C. J., et al. 2010,MNRAS, 406, 342
- ↑ Ellison, S. L., Teimoorinia, H., Rosario, D. J., &Mendel, J. T. 2016, MNRAS, 458, L34
- ↑ Mahabal, A., Sheth, K., Gieseke, F., et al. 2017,ArXiv e-prints, arXiv:1709.06257
- ↑ Huertas-Company, M., Primack, J. R., Dekel, A.,et al. 2018, ApJ, 858, 114
- ↑ Shi, T., & Horvath, S. 2006, Journal ofComputational and Graphical Statistics, 15, 118
- ↑ Baron, D., & Poznanski, D. 2017, MNRAS, 465,4530
- ↑ Hojnacki, S. M., Kastner, J. H., Micela, G.,Feigelson, E. D., & LaLonde, S. M. 2007, ApJ,659, 585
- ↑ Galluccio, L., Michel, O., Bendjoya, P., & Slezak,E. 2008, in American Institute of Physics
- ↑ Simpson, J. D., Cottrell, P. L., & Worley, C. C.2012, MNRAS, 427, 1153
- ↑ Hojnacki, S. M., Kastner, J. H., Micela, G.,Feigelson, E. D., & LaLonde, S. M. 2007, ApJ,659, 585
- ↑ Baron, D., Poznanski, D., Watson, D., et al. 2015,MNRAS, 451, 332
- ↑ Hocking, A., Geach, J. E., Davey, N., & Sun, Y.2015, ArXiv e-prints: 1507.01589,arXiv:1507.01589
- ↑ Peth, M. A., Lotz, J. M., Freeman, P. E., et al.2016, MNRAS, 458, 963