<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2022.39.4.016</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">1200</article-id>
      <title-group>
        <article-title xml:lang="ru">Разработка метода определения доминирующего типа дыхания человека на базе технологий компьютерного зрения, системы захвата движения и машинного обучения</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Development of a method for determining the dominant type of human breathing pattern based on computer vision technologies, motion capture systems and machine learning</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Зубков</surname>
              <given-names>Александр Владимирович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Zubkov</surname>
              <given-names>Alexander Vladimirovich</given-names>
            </name>
          </name-alternatives>
          <email>zubkov.alexander.v@gmail.com</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
        <contrib contrib-type="author" corresp="yes">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Донская</surname>
              <given-names>Анастасия Романовна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Donskaya</surname>
              <given-names>Anastasia Romanovna</given-names>
            </name>
          </name-alternatives>
          <email>donsckaia.anastasiya@yandex.ru</email>
          <xref ref-type="aff">aff-2</xref>
        </contrib>
        <contrib contrib-type="author" corresp="yes">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Бушенева</surname>
              <given-names>Светлана Николаевна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Busheneva</surname>
              <given-names>Svetlana Nikolaevna</given-names>
            </name>
          </name-alternatives>
          <email>s.busheneva@vlg.sovamed.ru</email>
          <xref ref-type="aff">aff-3</xref>
        </contrib>
        <contrib contrib-type="author" corresp="yes">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Орлова</surname>
              <given-names>Юлия Александровна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Orlova</surname>
              <given-names>Yulia Aleksandrovna</given-names>
            </name>
          </name-alternatives>
          <email>poas@vstu.ru</email>
          <xref ref-type="aff">aff-4</xref>
        </contrib>
        <contrib contrib-type="author" corresp="yes">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Рыбчиц</surname>
              <given-names>Григорий Михайлович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Rybchits</surname>
              <given-names>Grigory Mikhailovich</given-names>
            </name>
          </name-alternatives>
          <email>grinya110@gmail.com</email>
          <xref ref-type="aff">aff-5</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Волгоградский государственный технический университет</aff>
        <aff xml:lang="en">Volgograd State Technical University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-2">
        <aff xml:lang="ru">Волгоградский государственный технический университет</aff>
        <aff xml:lang="en">Volgograd State Technical University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-3">
        <aff xml:lang="ru">Волгоградский государственный медицинский университет</aff>
        <aff xml:lang="en">Volgograd State Medical University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-4">
        <aff xml:lang="ru">Волгоградский государственный технический университет</aff>
        <aff xml:lang="en">Volgograd State Technical University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-5">
        <aff xml:lang="ru">Волгоградский государственный технический университет</aff>
        <aff xml:lang="en">Volgograd State Technical University</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2022.39.4.016</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=1200"/>
      <abstract xml:lang="ru">
        <p>В исследовании поднимается проблема отсутствия методов для определения доминирующего типа дыхания, которые можно использовать при реализации программных продуктов, способствующих сопровождению пациентов с дыхательной недостаточностью и их реабилитации на этапе стационарного и амбулаторного лечения. Уже существующие методы либо слишком трудозатраты в реализации из-за слишком большого числа маркеров, используемых систем захвата движения, либо экономически невыгодны из-за стоимости самого оборудования, либо разработаны только в исследовательских целях и не применимы в клинической практике. В связи с этим данная статья направлена на разработку метода определения типа дыхания, который впоследствии можно было бы применить для автоматизированной реабилитации пациентов с дыхательной недостаточностью. В рамках исследования были применены методы компьютерного зрения и машинного обучения, а также методы, базирующиеся на технологиях захвата движения. В статье представлены методы, позволяющие определять положение маркеров в пространстве, и впоследствии анализировать тип дыхания человека (грудной, брюшной, смешанный) в режиме реального времени по полученным данным на базе маркеров системы захвата движения. Материалы статьи представляют практическую ценность для области медицинской реабилитации пациентов с дыхательной недостаточностью и возможность оптимизации трудовых процессов, т. е. сокращение трудовых и временных затрат врачей-реабилитологов.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>The study raises the problem of the absence of methods for determining the dominant type of breathing pattern that can be used in the implementation of software products that contribute to the support of patients with respiratory insufficiency and their rehabilitation at the stage of inpatient and outpatient treatment. Existing methods are either too labor-intensive to implement due to the excessive amount of markers utilized by motion capture systems or economically unprofitable due to the cost of the equipment itself or developed only for research purposes and are not applicable in clinical practice. In this regard, this article is aimed at developing a method for determining the type of breathing, which could later be employed for automated rehabilitation of patients with respiratory insufficiency. As part of the study, computer vision and machine learning methods were applied as well as methods based on motion capture technologies. The article presents methods for determining the position of markers in space and analyzing the type of human breathing (thoracic, abdominal, mixed) in real time based on the data obtained by means of motion capture system markers. The materials of the article are of practical value in the field of medical rehabilitation of patients with respiratory insufficiency; they make it possible to optimize labor processes within the field of medical rehabilitation, i.e. reducing labor and time costs of rehabilitologists.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>компьютерное зрение</kwd>
        <kwd>нейронные сети</kwd>
        <kwd>системы захвата движения</kwd>
        <kwd>системы реабилитации пациентов</kwd>
        <kwd>детектирование типов дыхания</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>computer vision</kwd>
        <kwd>neural networks</kwd>
        <kwd>motion capture systems</kwd>
        <kwd>patient rehabilitation systems</kwd>
        <kwd>detection of breathing patterns</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено при финансовой поддержке РФФИ в рамках научного проекта № 20-07-00502, при финансовой поддержке ВолгГТУ в рамках научного проекта №60/478-22, №60/473-22 в рамках программы приоритета 2030 ВолгГТУ.</funding-statement>
        <funding-statement xml:lang="en">The research was carried out with the financial support of the RFBR as part of scientific project No. 20-07-00502, with the financial support of VSTU as part of scientific project No. 60/478-22, No. 60/473-22 as part of the 2030 priority program of VSTU.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">1.	Di Tocco J., Lo Presti D., Zaltieri M., Bravi M., Morrone M., Sterzi S., Schena E., Massaroni C. Investigating stroke effects on respiratory parameters using a wearable device: a pilot study on hemiplegic patients. Sensors (Basel). 2022;22(17):6708. DOI: 10.3390/s22176708.</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">2.	Massaroni C., Cassetta E., Silvestri S. A novel method to compute breathing volumes via motion capture systems: design and experimental trials. Journal of Applied Biomechanics. 2017;33(5):361–365. DOI: 10.1123/jab.2016-0271.</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">3.	Romano Ch., Schena E., Formica D., Massaroni C. Comparison between chest-worn accelerometer and gyroscope performance for heart rate and respiratory rate monitoring. Biosensors. 2022;12(10):834. DOI: 10.3390/bios12100834.</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">4.	Васильев В.И. Влияние диафрагмальнорелаксационного типа дыхания на здоровье учащихся средней общеобразовательной школы. Известия Пензенского государственного педагогического университета им. В.Г. Белинского. 2006;5:121–123.</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">5.	Subin S., Pravin A. Breathing techniques-A review – 25 different types. International Journal of Physical Education, Sports and Health. 2015;2(2):237–241.</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">6.	Cuña-Carrera I., Alonso Calvete A., González Yo., Soto-González M. Changes in abdominal muscles architecture induced by different types of breathing. Isokinetics and Exercise Science. 2022;30(1):15–21. DOI: 10.3233/IES-210159.</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">7.	Arai R., Murakami K. Hierarchical human motion recognition by using motion capture system. 2018 International Workshop on Advanced Image Technology (IWAIT). 2018;1–4.</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">8.	Nagymáté G., M. Kiss R. Application of OptiTrack motion capture systems in human movement analysis: A systematic literature review. Recent Innovations in Mechatronics. 2018;5(1):1–9. DOI: 10.17667/riim.2018.1/13.</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">9.	Lu C., Lin J., Chang C., Liu C., Wang L., Tseng K. Recognition of film type using HSV features on deep-learning neural networks. Journal of Electronic Science and Technology. 2020;18(1):31–41. DOI: 10.11989/JEST.1674-862X.90904223.</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">10.	Wang Y., Hua C., Ding W., Wu R. Real-time detection of flame and smoke using an improved YOLOv4 network. Signal Image Video Process. 2022;16(5):1109–1116. DOI: 10.1007/s11760-021-02060-8.</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru">11.	Abassi S., Abdi H., Ahmadi A. A face-mask detection approach based on YOLO applied for a new collected dataset. 26th International Computer Conference, Computer Society of Iran, CSICC 2021. 2021;1–6. DOI:10.1109/CSICC52343.2021.9420599</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">12.	Redmon J., Divvala S., Girshick R., Farhadi A. You only look once: unified, real-time object detection. 2016 IEEE Conference on Computer Vision and Pattern Recognition, CVPR. 2016;779–788.</mixed-citation>
      </ref>
      <ref id="cit13">
        <label>13</label>
        <mixed-citation xml:lang="ru">13.	Рыбчиц Г.М., Зубков А.В., Самоходкина И.А., Орлова Ю.А. Разработка моделей предиктивной аналитики для предсказывания тенденции заболеваемости COVID-19 на основании открытых данных Волгоградской области. Программная инженерия: современные тенденции развития и применения (ПИ-2021): сб. матер. V-й Всерос. науч.-практ. конф. 2021;124–127.</mixed-citation>
      </ref>
      <ref id="cit14">
        <label>14</label>
        <mixed-citation xml:lang="ru">14.	Рыбчиц Г.М., Зубков А.В., Гомазкова Ю.С., Коршунов А.А. Разработка модели для распознавания маркеров на базе сети YOLO для детектирования циклов дыхания. Инновационные технологии в обучении и производстве: материалы XVI Всерос. заочн. науч.-практ. конф. 2021;1(3):139–142.</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>