<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2026.54.3.012</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">2211</article-id>
      <title-group>
        <article-title xml:lang="ru">Архитектуры глубокого обучения для сегментации мультифазных КТ-изображений</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Deep learning architectures for multiphase CT image segmentation</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Самсоненко</surname>
              <given-names>Станислав Владимирович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Samsonenko</surname>
              <given-names>Stanislav Vladimirovich</given-names>
            </name>
          </name-alternatives>
          <email>olessyarogok81@gmail.com</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0002-8664-9817</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Каширина</surname>
              <given-names>Ирина Леонидовна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Kashirina</surname>
              <given-names>Irina Leonidovna</given-names>
            </name>
          </name-alternatives>
          <email>kash.irina@mail.ru</email>
          <xref ref-type="aff">aff-2</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">МИРЭА - Российский технологический университет</aff>
        <aff xml:lang="en">MIREA – Russian Technological University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-2">
        <aff xml:lang="ru">МИРЭА - Российский технологический университет Воронежский государственный университет</aff>
        <aff xml:lang="en">MIREA – Russian Technological University Voronezh State University</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2026.54.3.012</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=2211"/>
      <abstract xml:lang="ru">
        <p>В статье проводится комплексный систематический анализ современных архитектур глубокого обучения для автоматической сегментации мультифазных КТ-изображений. Подробно рассматриваются специфические особенности мультифазных данных, главными из которых являются пространственные несовпадения (смещения) между фазами, вызванные движениями пациента, и различный характер накопления контрастного вещества в патологических тканях на разных фазах. Эти особенности делают прямую адаптацию классических методов сегментации неэффективной и требуют разработки специализированных архитектур. В статье прослеживается эволюция подходов: от базовых сверточных сетей (U-Net, 3D U-Net, nnU-Net) и гибридных моделей (TransUNet, UNETR), комбинирующих свертки и трансформеры, до специализированных решений. Особое внимание уделяется моделям с механизмами перекрестного внимания между фазами, таким как PA-ResSeg, M3Net и MULLET, которые позволяют осуществлять неявное выравнивание признаков и адаптивное слияние информации из разных фаз без явной регистрации (совмещения) изображений. В работе также анализируются сравнительные преимущества различных стратегий слияния данных c разных фаз (раннее, позднее, перекрестное взаимодействие), рассматриваются вопросы вычислительной эффективности и доступности открытых датасетов. Определены ключевые тенденции и перспективные направления развития области, включая применение фундаментальных моделей (MedSAM, VoxTell) и модально-агностичное обучение. Делается вывод о том, что дальнейший прогресс в области мультифазной сегментации КТ-изображений связан с созданием вычислительно эффективных архитектур, способных к интеграции в реальный клинический процесс для поддержки диагностических решений.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>The article provides a comprehensive systematic analysis of modern deep learning architectures for automatic segmentation of multiphase CT images. The specific features of multiphase data are considered in detail, the main of which are spatial mismatches (offsets) between phases caused by patient movements and the different nature of the accumulation of contrast agent in pathological tissues at different phases. These features make direct adaptation of classical segmentation methods ineffective and require the development of specialized architectures. The article traces the evolution of approaches: from basic convolutional networks (U-Net, 3D U-Net, nnU-Net) and hybrid models (TransUNet, UNETR) combining convolutions and transformers to specialized solutions. Special attention is paid to models with mechanisms of cross-attention between phases, such as PA-ResSeg, M3Net and MULLET, which allow for implicit alignment of features and adaptive merging of information from different phases without explicit registration (alignment) of images. The paper also analyzes the comparative advantages of various data fusion strategies from different phases (early, late, cross-interaction), discusses issues of computational efficiency and availability of open datasets. Key trends and promising areas of development of the field have been identified, including the use of fundamental models (MedSAM, VoxTell) and modal-agnostic learning. It is concluded that further progress in the field of multiphase segmentation of CT images is associated with the creation of computationally efficient architectures capable of integration into the real clinical process to support diagnostic solutions.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>гибридные архитектуры</kwd>
        <kwd>сегментация изображений</kwd>
        <kwd>механизмы внимания</kwd>
        <kwd>мультифазная КТ</kwd>
        <kwd>слияние признаков</kwd>
        <kwd>медицинская визуализация</kwd>
        <kwd>глубокое обучение</kwd>
        <kwd>компьютерное зрение</kwd>
        <kwd>PA-ResSeg</kwd>
        <kwd>M3Net</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>hybrid architectures</kwd>
        <kwd>image segmentation</kwd>
        <kwd>attention mechanisms</kwd>
        <kwd>multiphase CT</kwd>
        <kwd>feature fusion</kwd>
        <kwd>medical imaging</kwd>
        <kwd>deep learning</kwd>
        <kwd>computer vision</kwd>
        <kwd>PA-ResSeg</kwd>
        <kwd>M3Net</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Wu L., Wang H., Chen Y., et al. Beyond radiologist-level liver lesion detection on multi-phase contrast-enhanced CT images by deep learning. iScience. 2023;26(11). https://doi.org/10.1016/j.isci.2023.108183</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Руденко А.В., Руденко М.А., Каширина И.Л. Применение искусственных нейронных сетей для поиска объектов на медицинских изображениях. Моделирование, оптимизация и информационные технологии. 2024;12(3). https://doi.org/10.26102/2310-6018/2024.46.3.013</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Xu Y., Cai M., Lin L., et al. PA-ResSeg: A phase attention residual network for liver tumor segmentation from multiphase CT images. Medical Physics. 2021;48(7):3752–3766. https://doi.org/10.1002/mp.14922</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Ronneberger O., Fischer Ph., Brox Th. U-Net: Convolutional networks for biomedical image segmentation. In: Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015: 18th International Conference: Proceedings: Part III, 05–09 October 2015, Munich, Germany. Cham: Springer; 2015. P. 234–241. https://doi.org/10.1007/978-3-319-24574-4_28</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Çiçek Ö., Abdulkadir A., Lienkamp S.S., Brox Th., Ronneberger O. 3D U-Net: Learning dense volumetric segmentation from sparse annotation. In: Medical Image Computing and Computer-Assisted Intervention – MICCAI 2016: 19th International Conference: Proceedings: Part II, 17–21 October 2016, Athens, Greece. Cham: Springer; 2016. P. 424–432. https://doi.org/10.1007/978-3-319-46723-8_49</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Milletari F., Navab N., Ahmadi S.-A. V-Net: Fully convolutional neural networks for volumetric medical image segmentation. In: 2016 Fourth International Conference on 3D Vision (3DV), 25–28 October 2016, Stanford, CA, USA. IEEE; 2016. P. 565–571. https://doi.org/10.1109/3DV.2016.79</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Isensee F., Jaeger P.F., Kohl S.A.A., Petersen J., Maier-Hein K.H. nnU-Net: A self-configuring method for deep learning-based biomedical image segmentation. Nature Methods. 2021;18:203–211. https://doi.org/10.1038/s41592-020-01008-z</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Куликов А.А., Каширина И.Л., Савкина Е.Ф. Сегментация объемных образований печени на мультифазных КТ-изображениях с использованием фреймворка nnU-Net. Моделирование, оптимизация и информационные технологии. 2025;13(1). https://doi.org/10.26102/2310-6018/2025.48.1.040</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Dosovitskiy A., Beyer L., Kolesnikov A., et al. An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale. In: 9th International Conference on Learning Representations, ICLR 2021, 03–07 May 2021, Virtual Event, Austria. 2021. https://doi.org/10.48550/arXiv.2010.11929</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Zheng S., Lu J., Zhao H., et al. Rethinking semantic segmentation from a sequence-to-sequence perspective with transformers. In: Proceedings of the 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 20–25 June 2021, Nashville, TN, USA. IEEE; 2021. P. 6877–6886. https://doi.org/10.1109/CVPR46437.2021.00681</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru">Chen J., Lu Y., Yu Q., et al. TransUNet: Transformers make strong encoders for medical image segmentation. arXiv. URL: https://doi.org/10.48550/arXiv.2102.04306 [Accessed 15th January 2026].</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">Hatamizadeh A., Tan Y., Nath V., et al. UNETR: Transformers for 3D medical image segmentation. In: Proceedings of the 2022 IEEE/CVF Winter Conference on Applications of Computer Vision (WACV), 03–08 January 2022, Waikoloa, HI, USA. IEEE; 2022. P. 1748–1758. https://doi.org/10.1109/WACV51458.2022.00181</mixed-citation>
      </ref>
      <ref id="cit13">
        <label>13</label>
        <mixed-citation xml:lang="ru">Hatamizadeh A., Nath V., Tang Y., et al. Swin UNETR: Swin transformers for semantic segmentation of brain tumors in MRI images. In: Brainlesion: Glioma, Multiple Sclerosis, Stroke and Traumatic Brain Injuries: 7th International Workshop, BrainLes 2021, Held in Conjunction with MICCAI 2021: Revised Selected Papers: Part I, 27 September 2021, Virtual Event. Cham: Springer; 2022. P. 272–284. https://doi.org/10.1007/978-3-031-08999-2_22</mixed-citation>
      </ref>
      <ref id="cit14">
        <label>14</label>
        <mixed-citation xml:lang="ru">Oktay O., Schlemper J., Folgoc L.L., et al. Attention U-Net: Learning where to look for the pancreas. arXiv. URL: https://doi.org/10.48550/arXiv.1804.03999 [Accessed 15th January 2026].</mixed-citation>
      </ref>
      <ref id="cit15">
        <label>15</label>
        <mixed-citation xml:lang="ru">Alirr O.I. Dual attention U-Net for liver tumor segmentation in CT images. International Journal of Computers, Communications &amp; Control. 2024;19(2).</mixed-citation>
      </ref>
      <ref id="cit16">
        <label>16</label>
        <mixed-citation xml:lang="ru">Достовалова А.М., Горшенин А.К., Старичкова Ю.В., Арзамасов К.М. Сравнительный анализ модификаций нейросетевых архитектур U-Net в задаче сегментации медицинских изображений. Digital Diagnostics. 2024;5(4):833–853. https://doi.org/10.17816/DD629866</mixed-citation>
      </ref>
      <ref id="cit17">
        <label>17</label>
        <mixed-citation xml:lang="ru">Ma J., He Y., Li F., et al. Segment anything in medical images. Nature Communications. 2024;15. https://doi.org/10.1038/s41467-024-44824-z</mixed-citation>
      </ref>
      <ref id="cit18">
        <label>18</label>
        <mixed-citation xml:lang="ru">Rokuss M., Langenberg M., Kirchhoff Y., et al. VoxTell: Free-text promptable universal 3D medical image segmentation. arXiv. URL: https://doi.org/10.48550/arXiv.2511.11450 [Accessed 15th January 2026].</mixed-citation>
      </ref>
      <ref id="cit19">
        <label>19</label>
        <mixed-citation xml:lang="ru">Старичкова Ю.В., Питинов А.В., Газанова Н.Ш. Разработка метода регистрации мультифазных КТ-изображений с использованием афинных преобразований. В сборнике: Медэлектроника–2024. Средства медицинской электроники и новые медицинские технологии: сборник научных статей XIV Международной научно-технической конференции, 05–06 декабря 2024 года, Минск, Беларусь. Минск; 2024. С. 237–240.</mixed-citation>
      </ref>
      <ref id="cit20">
        <label>20</label>
        <mixed-citation xml:lang="ru">Liu F., Cai J., Huo Y., et al. JSSR: A joint synthesis, segmentation, and registration system for 3D multi-modal image alignment of large-scale pathological CT scans. In: Computer Vision – ECCV 2020: 16th European Conference: Proceedings: Part XIII, 23–28 August 2020, Glasgow, UK. Cham: Springer; 2020. P. 257–274. https://doi.org/10.1007/978-3-030-58601-0_16</mixed-citation>
      </ref>
      <ref id="cit21">
        <label>21</label>
        <mixed-citation xml:lang="ru">Zhou Y., Li Y., Zhang Zh., et al. Hyper-Pairing Network for Multi-Phase Pancreatic Ductal Adenocarcinoma Segmentation. arXiv. URL: https://doi.org/10.48550/arXiv.1905.00367 [Accessed 20th January 2026].</mixed-citation>
      </ref>
      <ref id="cit22">
        <label>22</label>
        <mixed-citation xml:lang="ru">Qu T., Wang X., Fang Ch., et al. M3Net: A multi-scale multi-view framework for multi-phase pancreas segmentation based on cross-phase non-local attention. Medical Image Analysis. 2022;75. https://doi.org/10.1016/j.media.2021.102232</mixed-citation>
      </ref>
      <ref id="cit23">
        <label>23</label>
        <mixed-citation xml:lang="ru">Lteif D., Appapogu D., Bargal S.A., Plummer B.A., Kolachalama V.B. Anatomy-guided, modality-agnostic segmentation of neuroimaging abnormalities. Human Brain Mapping. 2025;46(14). https://doi.org/10.1002/hbm.70329</mixed-citation>
      </ref>
      <ref id="cit24">
        <label>24</label>
        <mixed-citation xml:lang="ru">Antonelli M., Reinke A., Bakas S., et al. The Medical Segmentation Decathlon. Nature Communications. 2022;13. https://doi.org/10.1038/s41467-022-30695-9</mixed-citation>
      </ref>
      <ref id="cit25">
        <label>25</label>
        <mixed-citation xml:lang="ru">Wu X., Su H., Hua Y., et al. A multi-phase CT dataset for automated differential diagnosis of liver tumors. Scientific Data. 2026;13. https://doi.org/10.1038/s41597-025-06343-4</mixed-citation>
      </ref>
      <ref id="cit26">
        <label>26</label>
        <mixed-citation xml:lang="ru">Bartnik K., Bartczak T., Krzyziński M., et al. WAW-TACE: A hepatocellular carcinoma multiphase CT dataset with segmentations, radiomics features, and clinical data. Radiology: Artificial Intelligence. 2024;6(6).</mixed-citation>
      </ref>
      <ref id="cit27">
        <label>27</label>
        <mixed-citation xml:lang="ru">Elbatel M., Yi Q., Huang X., et al. Triphasic-aided Liver Lesion Segmentation in Non-contrast CT (TriALS) Challenge. In: Medical Image Computing and Computer Assisted Intervention 2025 (MICCAI). https://doi.org/10.5281/zenodo.15087646</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>