<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2025.51.4.039</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">2094</article-id>
      <title-group>
        <article-title xml:lang="ru">Анализ методов улучшения сходимости триплетной функции потерь в многометочной классификации</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Analysis of methods for improving the convergence of triplet loss in multi-label classification</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0009-0005-4377-7981</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Петрова</surname>
              <given-names>Яна Сергеевна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Petrova</surname>
              <given-names>Iana Sergeevna</given-names>
            </name>
          </name-alternatives>
          <email>ypetrova@bmstu.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Московский государственный технический университет им. Н.Э. Баумана</aff>
        <aff xml:lang="en">BMSTU</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2025.51.4.039</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=2094"/>
      <abstract xml:lang="ru">
        <p>Статья посвящена улучшению результатов многометочной классификации изображений за счет улучшения сходимости триплетной функции с гибкой границей. Для этого проанализированы модификации самой функции потерь и процесса обучения, которые помогают стабилизировать градиентный спуск и достичь минимума функции потерь. Из них были выявлены перспективные гипотезы для экспериментальной проверки: заимствование способа расчета расстояния из фокальной функций потерь, замена линейного роста параметра границы между классами на логарифмический, балансировка классов в батче и корректировка его размера. Предлагаемые методы улучшения сходимости были проверены на открытом датасете CIFAR с иерархическими метками. Эффективность выбранных методов была подтверждена: каждое из изменений увеличивает точность итоговой модели на 2–4 %, при внедрении всех изменений точность классификации возросла на 10 % для классов нижнего уровня и 12 % для классов верхнего уровня. Предлагаемые методы были также проверены на устойчивость к ошибкам в датасете. Было показано, что метод улучшения сходимости за счет балансировки классов в батче чувствителен к ошибкам, поэтому не рекомендован к использованию для зашумленных датасетов.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>The paper focuses on improving the performance of multi-label image classification by enhancing the convergence of the triplet loss function with a flexible margin. To achieve this, several modifications to the loss function itself and the training process were analyzed, aiming to stabilize gradient descent and reach the loss function minimum more efficiently. Based on the analysis, several promising hypotheses were identified for experimental evaluation: adopting the distance computation approach from the focal loss, replacing the linear increase of the margin parameter with a logarithmic one, balancing classes within a batch, and adjusting batch size. The proposed convergence improvement methods were tested on the open-source CIFAR dataset with hierarchical labels. The effectiveness of the selected methods was confirmed: each modification increased the final model accuracy by 2–4%, while applying all of them together improved classification accuracy by 10% for lower-level labels and 12% for higher-level labels. The proposed methods were also evaluated for robustness to dataset noise. It was shown that the convergence improvement method based on batch class balancing is sensitive to data errors and is therefore not recommended for use with noisy datasets.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>многометочная классификация</kwd>
        <kwd>компьютерное зрение</kwd>
        <kwd>функция потерь</kwd>
        <kwd>триплеты</kwd>
        <kwd>метрическое обучение</kwd>
        <kwd>оптимизация</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>multi-label classification</kwd>
        <kwd>computer vision</kwd>
        <kwd>loss function</kwd>
        <kwd>triplets</kwd>
        <kwd>metric learning</kwd>
        <kwd>optimization</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Петрова Я.С. Методика обучения классификаторов изображений с использованием дополнительных меток. Моделирование, оптимизация и информационные технологии. 2025;13(2). https://doi.org/10.26102/2310-6018/2025.49.2.041</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Deng W., Zhang J., Zhang P., Yao Y., Gao H., Zhang Y. Hyper-Label-Graph: Modeling Branch-Level Dependencies of Labels for Hierarchical Multi-Label Text Classification. In: ACML 2023: Asian Conference on Machine Learning, 11–14 November 2023, Istanbul, Turkey. PMLR; 2023. P. 279–294.</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Сулоев К.К., Шешкус А.В., Арлазаров В.Л. Сферические ограничения в триплетной функции потерь. Труды Института системного анализа Российской академии наук. 2023;73(2):50–58. https://doi.org/10.14357/20790279230205</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Zhang Sh., Zhang Q., Wei X., Zhang Y., Xia Y. Person Re-Identification with Triplet Focal Loss. IEEE Access. 2018;6:78092–78099. https://doi.org/10.1109/ACCESS.2018.2884743</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Xuan H., Stylianou A., Pless R. Improved Embeddings with Easy Positive Triplet Mining. In: 2020 IEEE Winter Conference on Applications of Computer Vision (WACV), 01–05 March 2020, Snowmass, CO, USA. IEEE; 2020. P. 2463–2471. https://doi.org/10.1109/WACV45572.2020.9093432</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Suyal H., Shivhare Sh.N., Shrivastava G., Singh R., Singhal A. IA-KNNR: A Novel Imbalance-Aware Approach for Handling Multi-Label Class Imbalance Problem. IEEE Access. 2025;13:119999–120017. https://doi.org/10.1109/ACCESS.2025.3586146</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Liu W., Wang H., Shen X., Tsang I.W. The Emerging Trends of Multi-Label Learning. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2021;44(11):7955–7974. https://doi.org/10.1109/TPAMI.2021.3119334</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Sumbul G., Ravanbakhsh M., Demir B. Informative and Representative Triplet Selection for Multilabel Remote Sensing Image Retrieval. IEEE Transactions on Geoscience and Remote Sensing. 2021;60. https://doi.org/10.1109/TGRS.2021.3124326</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Wang Ch., Liu F., Chen Y., Frazer H., Carneiro G. Cross- and Intra-Image Prototypical Learning for Multi-Label Disease Diagnosis and Interpretation. IEEE Transactions on Medical Imaging. 2025;44(6):2568–2580. https://doi.org/10.1109/TMI.2025.3541830</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Wang X., Han X., Huang W., Dong D., Scott M.R. Multi-Similarity Loss with General Pair Weighting for Deep Metric Learning. In: 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 15–20 June 2019, Long Beach, CA, USA. IEEE; 2019. P. 5017–5025. https://doi.org/10.1109/CVPR.2019.00516</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru">Shao R., Xu N., Geng X. Multi-Label Learning with Label Enhancement. In: 2018 IEEE International Conference on Data Mining (ICDM), 17–20 November 2018, Singapore. IEEE; 2018. P. 437–446. https://doi.org/10.1109/ICDM.2018.00059</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">Kharbanda S., Gupta D., K G., et al. UniDEC: Unified Dual Encoder and Classifier Training for Extreme Multi-Label Classification. In: WWW '25: Proceedings of the ACM on Web Conference 2025, 28 April – 02 May 2025, Sydney, Australia. New York: Association for Computing Machinery; 2025. P. 4124–4133. https://doi.org/10.1145/3696410.37147</mixed-citation>
      </ref>
      <ref id="cit13">
        <label>13</label>
        <mixed-citation xml:lang="ru">Csányi G.M., Vági R., Megyeri A., et al. Can Triplet Loss Be Used for Multi-Label Few-Shot Classification? A Case Study. Information. 2023;14(10). https://doi.org/10.3390/info14100520</mixed-citation>
      </ref>
      <ref id="cit14">
        <label>14</label>
        <mixed-citation xml:lang="ru">Kalra D.S., Barkeshli M. Why Warmup the Learning Rate? Underlying Mechanisms and Improvements. In: NeurIPS 2024: Advances in Neural Information Processing Systems 38: Annual Conference on Neural Information Processing Systems 2024, 10–15 December 2024, Vancouver, BC, Canada. 2024. P. 111760–111801. https://doi.org/10.52202/079017-3549</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>