<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2026.54.3.020</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">2247</article-id>
      <title-group>
        <article-title xml:lang="ru">Исследование нейронных сетей как способа сжатия и архивации изображений</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Research into neural networks as a method for image compression and archiving</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0009-0001-6192-5029</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Подберёзкин</surname>
              <given-names>Александр Александрович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Podberezkin</surname>
              <given-names>Aleksandr Aleksandrovich</given-names>
            </name>
          </name-alternatives>
          <email>a.podberezkin@gmail.com</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0009-0006-9963-3271</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Лоскутов</surname>
              <given-names>Ярослав Дмитриевич</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Loskutov</surname>
              <given-names>Yaroslav Dmitrievich</given-names>
            </name>
          </name-alternatives>
          <email>loskutoviaroslav@yandex.ru</email>
          <xref ref-type="aff">aff-2</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0009-0002-0519-8397</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Грецкий</surname>
              <given-names>Дмитрий Александрович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Gretskii</surname>
              <given-names>Dmitrii Aleksandrovich</given-names>
            </name>
          </name-alternatives>
          <email>gr.mitya@gmail.com</email>
          <xref ref-type="aff">aff-3</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0002-9994-1032</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Пронин</surname>
              <given-names>Цезарь Борисович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Pronin</surname>
              <given-names>Cesar Borisovich</given-names>
            </name>
          </name-alternatives>
          <email>caesarpr12@gmail.com</email>
          <xref ref-type="aff">aff-4</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0002-8887-6132</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Остроух</surname>
              <given-names>Андрей Владимирович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Ostroukh</surname>
              <given-names>Andrey Vladimirovich</given-names>
            </name>
          </name-alternatives>
          <email>ostroukh@mail.ru</email>
          <xref ref-type="aff">aff-5</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Московский автомобильно-дорожный государственный технический университет</aff>
        <aff xml:lang="en">Moscow Automobile and Road Construction State Technical University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-2">
        <aff xml:lang="ru">Московский автомобильно-дорожный государственный технический университет</aff>
        <aff xml:lang="en">Moscow Automobile and Road Construction State Technical University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-3">
        <aff xml:lang="ru">Московский автомобильно-дорожный государственный технический университет</aff>
        <aff xml:lang="en">Moscow Automobile and Road Construction State Technical University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-4">
        <aff xml:lang="ru">Московский автомобильно-дорожный государственный технический университет</aff>
        <aff xml:lang="en">Moscow Automobile and Road Construction State Technical University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-5">
        <aff xml:lang="ru">Московский автомобильно-дорожный государственный технический университет</aff>
        <aff xml:lang="en">Moscow Automobile and Road Construction State Technical University</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2026.54.3.020</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=2247"/>
      <abstract xml:lang="ru">
        <p>В статье исследован метод хранения изображений путем обучения нейронной сети на одном изображении и сохранения ее весов как компактного представления. Данный подход позволяет значительно уменьшить объем хранимых данных при сохранении приемлемого визуального качества. Проанализированы параметры модели и настройки обучения с целью оптимизации качества восстановления. Основная идея подхода заключается в том, что обученная модель сохраняет аппроксимированное отображение изображения в свои веса, которые выступают в качестве компактного представления исходного изображения. При необходимости реконструкции веса загружаются обратно в сеть для восстановления визуального содержания. Экспериментальные результаты показывают, что оптимизация архитектуры сети (выбор числа слоев и нейронов) и цветового пространства (YCbCr) позволяет достичь высоких коэффициентов сжатия до 29,4 при сохранении визуального качества, близкого к оригиналу (MSE ≈ 10-5). Однако авторы отмечают существенный недостаток метода: длительное время обучения и значительные вычислительные затраты, что делает его менее эффективным по сравнению с традиционными алгоритмами сжатия для практического применения в реальном времени. Тем не менее, подход демонстрирует потенциал для задач, где критически важно сохранение тонких деталей изображений, например, архивации данных или сжатия видеопотоков.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>This article explores a method for storing images by training a neural network on a single image and storing its weights as a compact representation. This approach significantly reduces the amount of data stored while maintaining acceptable visual quality. Model parameters and training settings are analyzed to optimize recovery quality. The basic idea of the approach is that a trained model stores its weights, which act as a compact representation of the original image. When reconstruction is required, the weights are reloaded into the network to restore the visual content. Experimental results show that optimizing the network architecture and color space (YCbCr) enables high compression ratios – up to 29.4 while maintaining visual quality close to the original (MSE ≈ 10-5). However, the authors note a significant drawback of the method: long training time and significant computational costs, making it less effective than traditional compression algorithms for practical real-time applications. Nevertheless, the approach demonstrates potential for tasks where preserving fine image details is critical, such as data archiving or video stream compression.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>сжатие изображений</kwd>
        <kwd>нейронная сеть</kwd>
        <kwd>архивация изображений</kwd>
        <kwd>обучение на одном изображении</kwd>
        <kwd>восстановление изображения</kwd>
        <kwd>многослойный персептрон</kwd>
        <kwd>машинное обучение</kwd>
        <kwd>позиционное кодирование</kwd>
        <kwd>координатное кодирование</kwd>
        <kwd>искусственный интеллект</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>image compression</kwd>
        <kwd>neural network</kwd>
        <kwd>image archiving</kwd>
        <kwd>single-image training</kwd>
        <kwd>image restoration</kwd>
        <kwd>multilayer perceptron</kwd>
        <kwd>machine learning</kwd>
        <kwd>positional coding</kwd>
        <kwd>coordinate coding</kwd>
        <kwd>artificial intelligence</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Подберезкин А.А., Остроух А.В., Борзенков А.М., Шмонин А.М., Пронин Ц.Б. Исследование комплексных подходов к цифровизации транспортных систем с применением методов искусственного интеллекта. Транспорт и информационные технологии. 2025;15(3):141–166. https://doi.org/10.12731/3033-5965-2025-15-3-396</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Archana R., Jeevaraj P.S.E. Deep learning models for digital image processing: a review. Artificial Intelligence Review. 2024;57(1). https://doi.org/10.1007/s10462-023-10631-z</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Jiang F., Tao W., Liu Sh., et al. An End-to-End Compression Framework Based on Convolutional Neural Networks. IEEE Transactions on Circuits and Systems for Video Technology. 2018;28(10):3007–3018. https://doi.org/10.1109/TCSVT.2017.2734838</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Sun H., Yu L., Katto J. End-to-end learned image compression with quantized weights and activations. arXiv. URL: https://doi.org/10.48550/arXiv.2111.09348 [Accessed 22nd February 2026].</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Лёзин И.А., Соловьёв А.В. Сжатие изображений с использованием многослойного персептрона. Известия Самарского научного центра Российской академии наук. 2016;18(4-4):770–773.</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Подберёзкин А.А., Борзенков А.М., Волков А.М., Пронин Ц.Б., Остроух А.В. Применение генетического алгоритма для оптимизации светофорного регулирования с учётом нормативных требований и приоритета общественного транспорта. Современные наукоемкие технологии. 2025;(9):181–185. https://doi.org/10.17513/snt.40504</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Deng H., Liu H., Wang F., Wang Zh., Wang Y. Image Compression Based on Genetic Algorithm and Deep Neural Network. In: Bio-inspired Computing – Theories and Applications: 11th International Conference, BIC-TA 2016: Part I, 28–30 October 2016, Xi'an, China. Singapore: Springer; 2016. P. 417–424. https://doi.org/10.1007/978-981-10-3611-8_36</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Liu J., Sun H., Katto J. Learned image compression with mixed transformer-CNN architectures. In: 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 17–24 June 2023, Vancouver, BC, Canada. IEEE; 2023. P. 14388–14397. https://doi.org/10.1109/CVPR52729.2023.01383</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Shindo T., Yamada K., Watanabe T., Watanabe H. Image coding for machines with edge information learning using segment anything. In: 2024 IEEE International Conference on Image Processing (ICIP), 27–30 October 2024, Abu Dhabi, United Arab Emirates. IEEE; 2024. P. 3702–3708. https://doi.org/10.1109/ICIP51287.2024.10647785</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Li X., Ren Y., Jin X., et al. Diffusion models for image restoration and enhancement: A comprehensive survey. International Journal of Computer Vision. 2025;133(11):8078–8108. https://doi.org/10.1007/s11263-025-02570-9</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru">Zafari A., Chen X., Jalali Sh. DeCompress: Denoising via Neural Compression. In: 2025 IEEE International Symposium on Information Theory (ISIT), 22–27 June 2025, Ann Arbor, MI, USA. IEEE; 2025. P. 1–6. https://doi.org/10.1109/ISIT63088.2025.11195310</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">Nguyen N., Nguyen Th., Bose B. Perception-based Image Denoising via Generative Compression. arXiv. URL: https://doi.org/10.48550/arXiv.2602.11553 [Accessed 22nd February 2026].</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>