<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2024.47.4.040</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">1754</article-id>
      <title-group>
        <article-title xml:lang="ru">Влияние версии библиотеки TensorFlow на качество генерации кода по изображению</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Influence of the TensorFlow library’s version on the quality of code generation from an image</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Никитин</surname>
              <given-names>Илья Владимирович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Nikitin</surname>
              <given-names>Ilya Vladimirovich</given-names>
            </name>
          </name-alternatives>
          <email>vic096@yandex.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Российский экономический университет имени Г.В. Плеханова</aff>
        <aff xml:lang="en">Plekhanov Russian University of Economics</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2024.47.4.040</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=1754"/>
      <abstract xml:lang="ru">
        <p>Данное исследование представляет собой сравнение эффективности обучения моделей, реализующих два разных подхода: усложнение исходной архитектуры нейронной сети либо же сохранение архитектуры при улучшении инструментов, которые используются в основе обучения. Попытки усложнения архитектуры решения по генерации исходного кода на основе изображения приводят к сложно поддерживаемым в будущем решениям. При этом подобные улучшения никак не используют более современные инструменты и библиотеки, на основе которых такие системы построены. Актуальность исследования обусловлена отсутствием попыток использования более современных и актуальных библиотек. В связи с этим, в ходе эксперимента по сравнению показателей моделей трех вариантов систем по генерации исходного кода на основе изображения: оригинальной системы pix2code, ее усложненного варианта и варианта с актуальной версией библиотеки TensorFlow – в процессе их обучения было выявлено, что подходы с усложненной архитектурой и актуальной TensorFlow обладают одинаковыми показателями, более качественными, чем оригинальная pix2code. На основе проведенного эксперимента можно сделать вывод о том, что актуализация библиотеки TensorFlow может дать дополнительный прирост в качестве результатов, которые может предсказывать система по генерации исходного кода на основе изображения.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>This study compares the efficiency of training models that implement two different approaches: complicating the original neural network architecture, or maintaining the architecture while improving the tools used in the training framework. Attempts to complicate the architecture of the solution for generating source code based on an image lead to solutions that might be difficult to support in the future. At the same time, such improvements do not use more modern tools and libraries that such systems are built upon. The relevance of the study is due to the lack of attempts to use more modern and relevant libraries. In this regard, during the experiment to compare the indicators of models of three versions of image-based source code generation systems: the original pix2code system, its complex version, and the version with a modern version of the TensorFlow library - in the process of their training, it was revealed that approaches with a complex architecture and the current TensorFlow have the same indicators, higher quality than the original pix2code. Based on the experiment, we can conclude that updating the TensorFlow library can provide an additional increase in the quality of results that the image-based source code generation system can predict.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>кодогенерация</kwd>
        <kwd>изображение</kwd>
        <kwd>машинное обучение</kwd>
        <kwd>Tensorflow</kwd>
        <kwd>Keras</kwd>
        <kwd>предметно-ориентированный язык</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>code generation</kwd>
        <kwd>image</kwd>
        <kwd>machine learning</kwd>
        <kwd>TensorFlow</kwd>
        <kwd>Keras</kwd>
        <kwd>domain-specific language</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Beltramelli T. pix2code: Generating Code from a Graphical User Interface Screenshot. In: EICS '18: Proceedings of the ACM SIGCHI Symposium on Engineering Interactive Computing Systems, 19–22 June 2018, Paris, France. New York: Association for Computing Machinery; 2018. https://doi.org/10.1145/3220134.3220135</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Zou D., Wu G. Automatic Code Generation for Android Applications Based on Improved Pix2code. Journal of Artificial Intelligence and Technology. 2024;4(4):325–331. https://doi.org/10.37965/jait.2024.0515</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Balog M., Gaunt A.L., Brockschmidt M., Nowozin S., Tarlow D. DeepCoder: Learning to Write Programs. In: 5th International Conference on Learning Representations, ICLR 2017: Proceedings, 24–26 April 2017, Toulon, France. 2017. https://doi.org/10.48550/arXiv.1611.01989</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Liu Y., Hu Q., Shu K. Improving pix2code based BI-directional LSTM. In: 2018 IEEE International Conference on Automation, Electronics and Electrical Engineering (AUTEEE), 16–18 November 2018, Shenyang, China. IEEE; 2019. pp. 220–223. https://doi.org/10.1109/AUTEEE.2018.8720784</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Chen W.-Y., Podstreleny P., Cheng W.-H., Chen Y.-Y., Hua K.-L. Code generation from a graphical user interface via attention-based encoder-decoder model. Multimedia Systems. 2022;28(1):121–130. https://doi.org/10.1007/s00530-021-00804-7</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Zhu Z., Xue Z., Yuan Z. Automatic Graphics Program Generation Using Attention-Based Hierarchical Decoder. In: Computer Vision – ACCV 2018: 14th Asian Conference on Computer Vision: Revised Selected Papers: Part VI, 02–06 December 2018, Perth, Australia. Cham: Springer; 2019. pp. 181–196. https://doi.org/10.1007/978-3-030-20876-9_12</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Yao X., Yap M.H., Zhang Y. Towards a Deep Learning Approach for Automatic GUI Layout Generation. In: Proceedings of International Conference on Computing and Communication Networks, ICCCN 2021, 19–20 November 2021, Manchester, United Kingdom. Singapore: Springer; 2022. pp. 19–27. https://doi.org/10.1007/978-981-19-0604-6_2</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Nguyen T.A., Csallne C. Reverse Engineering Mobile Application User Interfaces with REMAUI (T). In: 2015 30th IEEE/ACM International Conference on Automated Software Engineering (ASE), 09–13 November 2015, Lincoln, USA. IEEE; 2016. pp. 248–259. https://doi.org/10.1109/ASE.2015.32</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Lin T.-Y., Goyal P., Girshick R., He K., Dollár P. Focal Loss for Dense Object Detection. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2020;42(2):318–327. https://doi.org/10.1109/TPAMI.2018.2858826</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Vaswani A., Shazeer N., Parmar N., Uszkoreit J., Jones L., Gomez A.N., Kaiser Ł., Polosukhin I. Attention Is All You Need. In: NIPS'17: Proceedings of the 31st International Conference on Neural Information Processing Systems, 04–09 December 2017, Long Beach, USA. New York: Curran Associates Inc.; 2017. pp. 6000–6010.</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>