<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2025.48.1.026</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">1807</article-id>
      <title-group>
        <article-title xml:lang="ru">Нейронная сеть для оптимизации адаптивного экспоненциального алгоритма декодирования минимальной суммы</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Neural network to optimize the adaptive exponential min sum decoding algorithm</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <contrib-id contrib-id-type="orcid">0000-0003-2252-2750</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Чжан</surname>
              <given-names>Вэйцзя</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Zhang</surname>
              <given-names>Weijia</given-names>
            </name>
          </name-alternatives>
          <email>victoryzh@tpu.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0003-1569-5493</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Мухамад</surname>
              <given-names>Ибрагим</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Mouhamad</surname>
              <given-names>Ibrahem</given-names>
            </name>
          </name-alternatives>
          <email>ibragim1@tpu.ru</email>
          <xref ref-type="aff">aff-2</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0003-1716-4581</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Саклаков</surname>
              <given-names>Василий Михайлович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Saklakov</surname>
              <given-names>Vasiliy Mikhailovich</given-names>
            </name>
          </name-alternatives>
          <email>saklavas@tpu.ru</email>
          <xref ref-type="aff">aff-3</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0002-7004-2930</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Джаякоди</surname>
              <given-names>Душанта Налин Кумара</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Jayakody</surname>
              <given-names>Dushantha Nalin Kumara</given-names>
            </name>
          </name-alternatives>
          <email>nalin@tpu.ru</email>
          <xref ref-type="aff">aff-4</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Национальный исследовательский Томский политехнический университет</aff>
        <aff xml:lang="en">National Research Tomsk Polytechnic University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-2">
        <aff xml:lang="ru">Национальный исследовательский Томский политехнический университет</aff>
        <aff xml:lang="en">National Research Tomsk Polytechnic University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-3">
        <aff xml:lang="ru">Национальный исследовательский Томский политехнический университет</aff>
        <aff xml:lang="en">National Research Tomsk Polytechnic University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-4">
        <aff xml:lang="ru">Национальный исследовательский Томский политехнический университет</aff>
        <aff xml:lang="en">National Research Tomsk Polytechnic University</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2025.48.1.026</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=1807"/>
      <abstract xml:lang="ru">
        <p>В настоящее время глубокое обучение как актуальное направление исследований дало плодотворные результаты в области обработки естественного языка, распознавания и генерации графов, например, ChatGPT и Sora. Объединение глубокого обучения с алгоритмами декодирования для канального кодирования также постепенно становится актуальным направлением исследований в области связи. В этой статье мы используем глубокое обучение для улучшения адаптивного алгоритма экспоненциальной минимальной суммы (AEMS) для LDPC-кодов. Во-первых, мы расширяем итеративную процедуру декодирования между контрольными узлами (CNs) и переменными узлами (VNs) в алгоритме декодирования AEMS в сеть распространения с прямой передачей, основанную на графе Таннера, полученном из H-матрицы LDPC-кодов. Во-вторых, для повышения эффективности обучения модели и снижения вычислительной сложности мы присваиваем одинаковый весовой коэффициент всей краевой информации в каждой итерации сети декодирования AEMS, что снижает вычислительную сложность и гарантирует эффективность декодирования, и мы называем ее общей нейронной сетью декодирования AEMS (SNAEMS). Результаты моделирования показывают, что производительность декодирования предложенной сети декодирования SNAEMS превосходит производительность обычного декодера AEMS, а коэффициент усиления кодирования постепенно увеличивается по мере увеличения длины кода.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>Currently, deep learning, as a hot research direction, has yielded fruitful research results in natural language processing and graph recognition and generation, such as ChatGPT and Sora. Combining deep learning with decoding algorithms for channel coding has also gradually become a research hotspot in the field of communication. In this paper, we use deep learning to improve the adaptive exponential min sum (AEMS) algorithm for LDPC codes. Initially, we extend the iterative decoding procedure between check nodes (CNs) and variable nodes (VNs) in the AEMS decoding algorithm into a feedforward propagation network based on the Tanner graph derived from the H matrix of LDPC codes. Second, in order to improve the model training efficiency and reduce the computational complexity, we assign the same weight factor to all the edge information in each iteration of the AEMS decoding network, which reduces the computational complexity while guaranteeing the decoding performance, and we call it the shared neural AEMS (SNAEMS) decoding network. The simulation results show that the decoding performance of the proposed SNAEMS decoding network outperforms that of the conventional AEMS decoder, and its coding gain is gradually enhanced as the code length increases.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>LDPC</kwd>
        <kwd>глубокое обучение</kwd>
        <kwd>нейронная сеть</kwd>
        <kwd>экспоненциальный алгоритм</kwd>
        <kwd>минимальная сумма</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>LDPC</kwd>
        <kwd>deep learning</kwd>
        <kwd>neural network</kwd>
        <kwd>exponential algorithm</kwd>
        <kwd>min sum</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Mathew A., Amudha P., Sivakumari S. Deep Learning Techniques: An Overview. In: Advanced Machine Learning Technologies and Applications: Proceedings of AMLTA 2020, 13–15 February 2020, Jaipur, India. Singapore Springer; 2021. pp. 599–608. https://doi.org/10.1007/978-981-15-3383-9_54</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Li L., Mu X., Li S., Peng H. A Review of Face Recognition Technology. IEEE Access. 2020;8:139110–139120. https://doi.org/10.1109/ACCESS.2020.3011028</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Gallager R. Low-density parity-check codes. IRE Transactions on Information Theory. 1962;8(1):21–28. https://doi.org/10.1109/TIT.1962.1057683</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Wang Qi., Wang S., Fang H., Chen L., Chen L., Guo Yu. A Model-Driven Deep Learning Method for Normalized Min-Sum LDPC Decoding. In: 2020 IEEE International Conference on Communications Workshops (ICC Workshops), 07–11 June 2020, Dublin, Ireland. IEEE; 2020. pp. 1–6. https://doi.org/10.1109/ICCWorkshops49005.2020.9145237</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Nachmani E., Marciano E., Lugosch L., Gross W.J., Burshtein D., Be’ery Ya. Deep Learning Methods for Improved Decoding of Linear Codes. IEEE Journal of Selected Topics in Signal Processing. 2018;12(1):119–131. https://doi.org/10.1109/JSTSP.2017.2788405</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Lugosch L., Gross W.J. Neural offset min-sum decoding. In: 2017 IEEE International Symposium on Information Theory (ISIT), 25–30 June 2017, Aachen, Germany. IEEE; 2017. pp. 1361–1365. https://doi.org/10.1109/ISIT.2017.8006751</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Fossorier M.P.C., Mihaljevic M., Imai H. Reduced complexity iterative decoding of low-density parity check codes based on belief propagation. IEEE Transactions on Communications. 1999;47(5):673–680. https://doi.org/10.1109/26.768759</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Чжан В., Мухамад И., Саклаков В.М. Разработка адаптивного экспоненциального алгоритма декодирования минимальной суммы. Моделирование, оптимизация и информационные технологии. 2024;12(4). (На англ.). https://doi.org/10.26102/2310-6018/2024.47.4.019</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Tanner R. A recursive approach to low complexity codes. IEEE Transactions on Information Theory. 1981;27(5):533–547. https://doi.org/10.1109/TIT.1981.1056404</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Lyu W., Zhang Z., Jiao Ch., Qin K., Zhang H. Performance Evaluation of Channel Decoding with Deep Neural Networks. In: 2018 IEEE International Conference on Communications (ICC), 20–24 May 2018, Kansas City, USA. IEEE; 2018. pp. 1–6. https://doi.org/10.1109/ICC.2018.8422289</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru">Goodfellow Ia., Bengio Yo., Courville A. Deep Learning. Cambridge: MIT Press; 2016. 800 p.</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">Nachmani E., Be’ery Ya., Burshtein D. Learning to decode linear codes using deep learning. In: 2016 54th Annual Allerton Conference on Communication, Control, and Computing (Allerton), 27–30 September 2016, Monticello, USA. IEEE; 2017. pp. 341–346. https://doi.org/10.1109/ALLERTON.2016.7852251</mixed-citation>
      </ref>
      <ref id="cit13">
        <label>13</label>
        <mixed-citation xml:lang="ru">Wu X., Jiang M., Zhao Ch. Decoding Optimization for 5G LDPC Codes by Machine Learning. IEEE Access. 2018;6:50179–50186. https://doi.org/10.1109/ACCESS.2018.2869374</mixed-citation>
      </ref>
      <ref id="cit14">
        <label>14</label>
        <mixed-citation xml:lang="ru">CCSDS Historical Document "Short Block Length LDPC Codes for TC Synchronization and Channel Coding" CCSDS 231.1-O-1 (2015). URL: https://public.ccsds.org/Pubs/231x1o1s.pdf [Accessed 12th December 2024].</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>