<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2024.47.4.023</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">1731</article-id>
      <title-group>
        <article-title xml:lang="ru">Разработка алгоритма многоклассового классификатора системы федеративного обучения, функционирующей в условиях неполноты классов локальных классификаторов</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Development of a multi-class classifier algorithm for a federated learning system operating in case of incomplete classes of local classifiers</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Михалев</surname>
              <given-names>Павел Андреевич</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Mikhalev</surname>
              <given-names>Pavel Andreevich</given-names>
            </name>
          </name-alternatives>
          <email>pavel_057@list.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
        <contrib contrib-type="author">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Куцакин</surname>
              <given-names>Максим Алексеевич</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Kutsakin</surname>
              <given-names>Maksim Alekseevich</given-names>
            </name>
          </name-alternatives>
          <email>max_kooks@mail.ru</email>
          <xref ref-type="aff">aff-2</xref>
        </contrib>
        <contrib contrib-type="author">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Карамыхова</surname>
              <given-names>Оксана Викторовна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Karamyhova</surname>
              <given-names>Oksana Viktorovna</given-names>
            </name>
          </name-alternatives>
          <email>karamihova82@mail.ru</email>
          <xref ref-type="aff">aff-3</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Академия Федеральной Службы Охраны Российской Федерации</aff>
        <aff xml:lang="en">Russian Federation Security Guard Service Federal Academy</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-2">
        <aff xml:lang="ru">Академия Федеральной Службы Охраны Российской Федерации</aff>
        <aff xml:lang="en">Russian Federation Security Guard Service Federal Academy</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-3">
        <aff xml:lang="ru">Академия Федеральной Службы Охраны Российской Федерации</aff>
        <aff xml:lang="en">Russian Federation Security Guard Service Federal Academy</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2024.47.4.023</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=1731"/>
      <abstract xml:lang="ru">
        <p>Актуальность исследования обусловлена необходимостью решения задачи обучения моделей многоклассовых классификаторов, используемых в структуре системы федеративного машинного обучения, оперирующей обучающей выборкой данных, которая содержит как общедоступные данные, так и конфиденциальные данные, формирующие скрытые классы. Подобная проблема возникает в условиях обучения классификатора с использованием выборки данных, часть из которых состоит из персональной информации или данных различной степени конфиденциальности. В связи с этим данная статья направлена на исследование особенностей модели гауссовой смеси распределений как способа представления скрытых классов, представляющих конфиденциальные данные, а также обоснование выбора алгоритмического метода нахождения оценок максимального правдоподобия ее параметров. Ведущим методом решения проблемы идентификации параметров скрытых классов является обоснованно выбранная двухэтапная итерационная процедура «ожидание-максимизация» (EM-алгоритм), обеспечивающая усиление связи между пропущенными (конфиденциальными) данными и неизвестными параметрами модели данных, представленной гауссовой смесью распределений. В статье представлена схема разработанного алгоритма многоклассового классификатора системы федеративного машинного обучения, представленная параллельно выполняющимися циклами формирования локальных моделей обучения и их последующего ансамблирования в глобальную модель обучения.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>The relevance of research is due the need to solve the problem of training multi-class classifier models used in federated machine learning system structure operating with a training data set that contains both publicly available data and confidential data that forming hidden classes. A similar problem arises in the context of training a classifier using a training data set, some of which consists of personal information or data of varying degrees of confidentiality. In this regard, this article is aimed at researching the features of the Gaussian mixture model of distributions as a way of representing hidden classes representing confidential data, as well as justifying the choice of an algorithmic method for finding maximum likelihood estimates of its parameters. The main method for solving the problem of identifying the parameters of hidden classes is a reasonably chosen two-stage iterative expectation-maximization procedure (EM-algorithm), which ensures strengthening the relationship between missing (confidential) data and unknown parameters of the data model represented by a Gaussian mixture of distributions. The article presents a diagram of the developed algorithm of a multi-class classifier for federated machine learning system, represented by parallel cycles of forming local learning models and their ensemble into a global learning model.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>федеративное машинное обучение</kwd>
        <kwd>многоклассовая классификация</kwd>
        <kwd>конфиденциальные обучающие данные</kwd>
        <kwd>модель гауссовой смеси распределений</kwd>
        <kwd>EM-алгоритм</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>federated machine learning</kwd>
        <kwd>multi-class classification</kwd>
        <kwd>confidential training data</kwd>
        <kwd>Gaussian mixture model of distributions</kwd>
        <kwd>EM-algorithm</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Wahab O.A., Mourad A., Otrok H., Taleb T. Federated Machine Learning: Survey, Multi-Level Classification, Desirable Criteria and Future Directions in Communication and Networking Systems. IEEE Communications Surveys &amp; Tutorials. 2021;23(2):1342–1397. https://doi.org/10.1109/COMST.2021.3058573</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Lo S.K., Lu Q., Zhu L., Paik H.-Y., Xu X., Wang C. Architectural Patterns for the Design of Federated Learning Systems. Journal of Systems and Software. 2022;191. https://doi.org/10.1016/j.jss.2022.111357</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Mikhalev P.A., Kutsakin M.A., Mironov O.Yu. On the need for parametric optimization of systems with federated machine learning. In: Modern Informatization Problems in Simulation and Social Technologies (MIP-2023'SCT): Proceedings of the XXVIII-th International Open Science Conference, 15 November 2022 – 15 January 2023, Yelm, WA, USA. Yelm: Science Book Publishing House LLC; 2023. pp. 37–41. (In Russ.).</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Allwein E.L., Schapire R.E., Singer Y. Reducing multiclass to binary: a unifying approach for margin classifiers. Journal of Machine Learning Research. 2001;1:113–141.</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Goodman R., Miller J.W., Smyth P. Objective Functions For Neural Network Classifier Design. In: 1991 IEEE International Symposium on Information Theory, 24–28 June 1991, Budapest, Hungary. IEEE; 1991. pp. 87. https://doi.org/10.1109/ISIT.1991.695143</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Galar M., Fernández A., Barrenechea E., Bustince H., Herrera F. An overview of ensemble methods for binary classifiers in multi-class problems: Experimental study on one-vs-one and one-vs-all schemes. Pattern Recognition. 2011;44(8):1761–1776. https://doi.org/10.1016/j.patcog.2011.01.017</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Arı Ç., Aksoy S., Arıkan O. Maximum likelihood estimation of Gaussian mixture models using stochastic search. Pattern Recognition. 2012;45(7):2804–2816. https://doi.org/10.1016/j.patcog.2011.12.023</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Tohka J., Krestyannikov E., Dinov I.D., Graham A.M., Shattuck D.W., Ruotsalainen U. Genetic Algorithms for Finite Mixture Model Based Voxel Classification in Neuroimaging. IEEE Transactions on Medical Imaging. 2007;26(5):696–711. https://doi.org/10.1109/TMI.2007.895453</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Martı́nez A.M., Vitrià J. Learning mixture models using a genetic version of the EM algorithm. Pattern Recognition Letters. 2000;21(8):759–769. https://doi.org/10.1016/S0167-8655(00)00031-3</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Pernkopf F., Bouchaffra D. Genetic-based EM algorithm for learning Gaussian mixture models. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2005;27(8):1344–1348. https://doi.org/10.1109/TPAMI.2005.162</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>