|
Карандашев Яков Михайлович
|
|
Кандидат физико-математических наук, ведущий научный сотрудник, заместитель руководителя центра оптико-нейронных технологий НИИСИ РАН.
Биография
Публикации
Контакты:
117218, г. Москва, ул. Нахимовский проспект, д. 36, корпус 1.
E-mail: karandashev@niisi.ras.ru
Телефон: +7 (499) 124-97-44.
|
Биография
Карандашев Я.М. родился в 1987 году. В 2010 году окончил факультет Радиотехники и кибернетики Московского физико-технического института (ФРТК МФТИ) по специальности прикладные физика и математика. В 2013 году окончил аспирантуру в НИИСИ РАН. Защитил кандидатскую диссертацию на тему Исследование методов трансформации энергетической поверхности в задачах бинарной минимизации квадратичного функционала в 2013 г. С 2007 года работает в Институте оптико-нейронных технологий (в дальнешем ставший ЦОНТ НИИСИ РАН).
Работает в области нейронных сетей уже более 10 лет, имеет порядка 40 публикаций.
Читает курсы лекций по программированию на python, по машинному обучению и нейронным сетям в Математическом институте им. С.М. Никольского Российского университета дружбы народов на факультете ФМиЕН. Руководит дипломными работами у студентов РУДН, а также аспирантами в аспирантуре НИИСИ РАН.
Являлся инициатором и руководителем гранта РФФИ 16-31-00047 «Точное вычисление статистической суммы двумерных моделей методом подсчёта пфаффиана матрицы развёрнутого дуального графа».
Член международного нейросетевого сообщества (INNS) в 2019 г. https://www.inns.org/
Профиль ИСТИНА МГУ - https://istina.msu.ru/profile/Ya_rad_wsem@mail.ru/
Член редколлегии журналов:
1. Optical Memory and Neural Networks (Information Optics), https://www.springer.com/journal/12005/editors
2. Mathematical Modelling of Natural Phenomena (MMNP), https://www.mmnp-journal.org/about-the-journal/editorial-board#Editors
Награды:
- "Мой первый грант" от РФФИ для молодых учёных, 2016.
- Медаль РАН для студентов высших учебных заведений России за лучшие научные работы по направлению «Информатика, вычислительная техника и автоматизация» в 2010 году.
- Трэвел грант от Европейского нейросетевого сообщества за лучшую студенческую работу на конференции International Conference on Artificial Neural Networks (ICANN), 2010.
- Первое место в олимпиаде по физике по республике Удмуртия среди 11-х классов, 2004.
Основные научные результаты за последние 5 лет:
- Моделирование горения является ключевым аспектом полномасштабного 3D-моделирования современных и перспективных двигателей для авиационно-космических силовых установок. В данной работе изучается возможность решения задач химической кинетики с использованием искусственных нейронных сетей. С помощью классических численных методов были построены наборы обучающих данных. Выбирая среди различных архитектур многослойных нейронных сетей и настраивая их параметры, была разработана модель, способная решить эту проблему. Полученная нейронная сеть работает в рекурсивном режиме и может предсказывать поведение химической многовидовой динамической системы на много шагов.
- Проведена аппроксимация алгоритма обратного распространения ошибки для обучения глубоких нейронных сетей, который предназначен для работы с синапсами, реализованными на мемристорах. Основная идея состоит в том, чтобы представлять значения как входного сигнала, так и значения дельты с помощью серии импульсов, которые запускают множественные положительные или отрицательные обновления синаптического веса, и использовать операцию min вместо произведения двух сигналов. В вычислительном моделировании мы показано, что предложенное приближение обратного распространения ошибки хорошо сходится и может быть подходящим для мемристорных реализаций многослойных нейронных сетей.
- Предложен и реализован (код доступен по ссылке https://github.com/Thrawn1985/2D-Partition-Function) алгоритм точного вычисления статистической суммы для двумерных графических моделей с бинарными переменными при помощи вычисления Пфаффиана матрицы смежности дуального графа решётки. Сложность алгоритма составляет O(N^2). Тестовые эксперименты показали хорошее согласие с аналитическим решением Онсагера для двумерной модели Изинга.
- Исследовано изменение термодинамических свойств спиновой системы при переходе от классической двумерной модели Изинга к модели изинговского спинового стекла, в которой парные спин-спиновые взаимодействия представляют собой случайные по величине и по знаку величины. Формализм перехода сводится к изменению амплитуды мультипликативного шума (равномерно-распределенного с единичным средним), наложенного на исходную изинговскую матрицу спин-спинового взаимодействия. Приведены аналитические выражения, справедливые для конечных размеров решетки и учитывающие наличие шума. Результаты сравниваются с данными численного эксперимента, проведенного для случая квадратной решетки с линейными размерами. Экспериментально установлена зависимость критических величин (температуры, внутренней энергии, теплоемкости) от амплитуды шума; аналогичные зависимости установлены для энергии основного состояния и его намагниченности. Показано, что когда дисперсия шума достигает единицы наблюдается скачкообразное изменение основного состояния из полностью коррелированного в некоррелированное: намагниченность основного состояния скачком изменяется от 1 до 0, а наблюдавшийся при меньших шумах фазовый переход исчезает.
- Рассмотрена задача дискретизации весов обученной глубокой нейронной сети предназначенная для уменьшения требований к оперативной памяти и ускорения алгоритма распознавания. Показано, что экспоненциальная дискретизация предпочтительнее линейной, поскольку позволяет достичь тех же значений точности при меньшем (на 1 или 2) количестве бит. СетьVGG-16 даёт удовлетворительное качество (top5 accuracy 69%) уже при 3-х битовой экспоненциальной дискретизации. ResNet50 при 4-х битах даёт top5 accuracy 84%. Остальные сети неплохо работают при 5 битах (на сетях Xception, Inception-v3 и MobileNet-v2 top5 accuracy составила 87%, 90% и 77% соответственно). При меньшем числе бит точность резко падает.
Публикации
-
V.B. Betelin, B.V. Kryzhanovsky, N.N. Smirnov, V.F. Nikitin, I.M. Karandashev, M.Yu. Malsagov, E.V. Mikhalchenko. Neural network approach to solve gas dynamics problems with chemical transformations. // Acta Astronautica. Volume 180. 2021. Pages 58-65. https://doi.org/10.1016/j.actaastro.2020.11.058. (WoS, Q1, 2.83 JCR 2019).
-
Malsagov M.Yu., Khayrov E.M., Pushkareva M.M., Karandashev I.M. Exponential discretization of weights of neural network connections in pre-trained neural networks. // Optical Memory and Neural Networks (Information Optics). Vol. 28. No. 4. pp. 262–270. 2019. https://doi.org/10.3103/S1060992X19040106. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).
-
I.M. Karandashev, B.V. Kryzhanovsky. Change in density of states of 2D Ising model when next-neighbour interaction is introduced. // Optical Memory and Neural Networks. Vol. 28. No. 3. pp. 165–174. 2019. https://doi.org/10.3103/S1060992X19030032. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).
-
Malsagov M.Y., Karandashev I.M., Kryzhanovsky B.V. Approximation of Edwards-Anderson spin-glass model density of states. // Lu H., Tang H., Wang Z. (eds) Advances in Neural Networks – ISNN 2019. ISNN 2019. Lecture Notes in Computer Science. Vol. 11555. Springer, Cham. pp. 173-179. 2019. https://doi.org/10.1007/978-3-030-22808-8_18. (Scopus, Q3, импакт фактор - 0.25 SJR 2019).
-
Iakov Karandashev, Boris Kryzhanovsly. Global Minimum Depth in Edwards-Anderson Model. // MacIntyre, J., Iliadis, L., Maglogiannis, I., Jayne, C. (Eds.) Engineering Applications of Neural Networks – EANN 2019. Xersonisos, Crete, Greece. May 24-26. 2019. pp. 391-398. https://doi.org/10.1007/978-3-030-20257-6_33.
-
B.V. Kryzhanovsky and I.M. Karandashev. Next Neighbors Addition-Induced Change of 2D Ising Model Critical Parameters. // Optical Memory and Neural Networks, Vol. 28. No. 2. pp. 89–94. 2019. https://doi.org/10.3103/S1060992X19020073. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).
-
I.M. Karandashev. Planar Ising-Spin Models in Probabilistic Machine Learning. // Advances in Neural Computation, Machine Learning, and Cognitive Research II. pp.14-38. 2018. https://doi.org/10.1007/978-3-030-01328-8_2.
-
B. Kryzhanovsky. M. Malsagov, I. Karandashev. Investigation of finite-size 2D Ising model with a noisy matrix of spin-spin interactions. // Special issue: Entropy and Complexity of Data. Entropy 2018. 20. No. 8. p. 585. https://doi.org/10.3390/e20080585. (WoS, Q2, импакт фактор - 2.494 JCR 2019).
-
I.M. Karandashev, B.V. Kryzhanovsky, M.Yu. Malsagov. Spectral Characteristics of a finite 2D Ising model. // Optical Memory & Neural Networks (Information Optics), 2018, Vol. 27. No. 3. pp. 147–151. https://doi.org/10.3103/S1060992X18030025 (Scopus, Q2, импакт фактор - 0.34 SJR 2019).
-
B.V. Kryzhanovsky, M.Yu. Malsagov, I.M. Karandashev. Dependence of Critical Parameters of 2D Ising Model on Lattice Size. // Optical Memory and Neural Networks (Information Optics), 2018, Vol. 27. No. 1. pp. 10–22. https://doi.org/10.3103/S1060992X18010046. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).
-
I.M. Karandashev, B.V. Kryzhanovsky, and M.Yu. Malsagov. The Analytical Expressions for a Finite-Size 2D Ising Model. // Optical Memory and Neural Networks (Information Optics). 2017, Vol. 26. No. 3. pp. 165–171. https://doi.org/10.3103/S1060992X17030031. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).
-
Yakov M. Karandashev, Magomed Yu. Malsagov. Polynomial algorithm for exact calculation of partition function for binary spin model on planar graphs. // Optical Memory and Neural Networks (Information Optics). 2017. Vol. 26. No. 2. pp. 87–95. https://doi.org/10.3103/S1060992X17020035. (Scopus, Q2, импакт фактор - 0.34 SJR 2019).
-
D.V. Negrov, I.M. Karandashev, V.V. Shakirov, Yu.A. Matveyev, W.L. Dunin-Barkowski, A.V. Zenkevich. A Plausible Memristor Implementation of Deep Learning Neural Networks. // Neurocomputing. Volume 237. 2017. Pages 193–199. https://doi.org/10.1016/j.neucom.2016.10.061. (WoS, Q1, импакт фактор - 4.438 JCR 2019). http://www.sciencedirect.com/science/article/pii/S0925231216313042.
-
D.V. Negrov, I.M. Karandashev, V.V. Shakirov, Yu.A. Matveyev, W.L. Dunin-Barkowski, A.V. Zenkevich. A Plausible Memristor Implementation of Deep Learning Neural Networks. // Front. Syst. Neurosci. 9178, 10.3389/fnsys.2015.00178. 2015, http://arxiv.org/abs/1511.07076.
-
Yakov M. Karandashev, Magomed Yu. Malsagov. Polynomial algorithm for exact calculation of partition function for binary spin model on planar graphs. // https://arxiv.org/abs/1611.00922.
-
I.M. Karandashev and B.V. Kryzhanovsky. Matrix Transformation Method in Quadratic Binary Optimization. // Optical Memory and Neural Networks (Information Optics) 04/2015; 24(2). pp. 67-81.
http://www.researchgate.net/publication/282492662_Matrix_transformation_method_in_quadratic_binary_optimization.
-
I.M. Karandashev, B.V. Kryzhanovsky. Attraction Area of Minima in Quadratic Binary Optimization. // Optical Memory and Neural Networks (Information Optics), vol.23, No.2, pp.84-88, 2014.
-
I. Karandashev and B. Kryzhanovsky. Increasing the attraction area of the global minimum in the binary optimization problem. // J. Glob. Optim., V. 56, 3 (2013), pp. 1167-1185, DOI: 10.1007/s10898-012-9947-7.
-
I. Karandashev, B. Kryzhanovsky and L. Litinskii. Weighted Patterns as a Tool to Improve the Hopfield Model. // Physical Review E 85, 041925 (2012).
-
Я.М. Карандашев Исследование методов трансформации энергетической поверхности в задачах бинарной минимизации квадратичного функционала. // Автореферат. 2013.
|