<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2025.50.3.032</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">1982</article-id>
      <title-group>
        <article-title xml:lang="ru">Анализ эмоций на видеоданных с использованием локальных и облачных решений искусственного интеллекта</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Emotion analysis on video data using on-premise and cloud-based artificial intelligence solutions</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0009-0009-6909-9399</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Агамиров</surname>
              <given-names>Левон Владимирович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Agamirov</surname>
              <given-names>Levon Vladimirovich</given-names>
            </name>
          </name-alternatives>
          <email>itno_agamirov@mail.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0001-9181-7726</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Агамиров</surname>
              <given-names>Владимир Левонович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Agamirov</surname>
              <given-names>Vladimir Levonovich</given-names>
            </name>
          </name-alternatives>
          <email>avhere@yandex.ru</email>
          <xref ref-type="aff">aff-2</xref>
        </contrib>
        <contrib contrib-type="author">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Вестяк</surname>
              <given-names>Владимир Анатольевич</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Vestyak</surname>
              <given-names>Vladimir</given-names>
            </name>
          </name-alternatives>
          <email>kaf311@yandex.ru</email>
          <xref ref-type="aff">aff-3</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0002-2851-8472</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Тутова</surname>
              <given-names>Наталья Владимировна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Toutova</surname>
              <given-names>Natalia Vladimirovna</given-names>
            </name>
          </name-alternatives>
          <email>e-natasha@mail.ru</email>
          <xref ref-type="aff">aff-4</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0009-0007-8392-5402</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Базунов</surname>
              <given-names>Сергей Александрович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Bazunov</surname>
              <given-names>Sergei</given-names>
            </name>
          </name-alternatives>
          <email>bazunovsergei01@gmail.com</email>
          <xref ref-type="aff">aff-5</xref>
        </contrib>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0009-0008-7002-6704</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Зеляник</surname>
              <given-names>Юлия Николаевна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Zelyanik</surname>
              <given-names>Yulia</given-names>
            </name>
          </name-alternatives>
          <email>yuzelyanik@yandex.ru</email>
          <xref ref-type="aff">aff-6</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Национальный исследовательский университет «МЭИ» Московский технический университет связи и информатики, Московский авиационный институт</aff>
        <aff xml:lang="en">National Research University "MPEI" Moscow Technical University of Communications and Informatics, Moscow Aviation Institute</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-2">
        <aff xml:lang="ru">Московский технический университет связи и информатики Московский авиационный институт</aff>
        <aff xml:lang="en">Moscow Technical University of Communications and Informatics Moscow Aviation Institute</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-3">
        <aff xml:lang="ru">Московский авиационный институт</aff>
        <aff xml:lang="en">Moscow Aviation Institute</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-4">
        <aff xml:lang="ru">Московский технический университет связи и информатики</aff>
        <aff xml:lang="en">Moscow Technical University of Communications and Informatics</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-5">
        <aff xml:lang="ru">Университет БРИКС</aff>
        <aff xml:lang="en">BRICS University</aff>
      </aff-alternatives>
      <aff-alternatives id="aff-6">
        <aff xml:lang="ru">Московский авиационный институт</aff>
        <aff xml:lang="en">Moscow Aviation Institute</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2025.50.3.032</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=1982"/>
      <abstract xml:lang="ru">
        <p>Актуальность исследования обусловлена растущей потребностью в высокоточной и интерпретируемой системе распознавания эмоций на основе видеоданных, что имеет решающее значение для развития человеко-ориентированных технологий в образовании, медицине и системах взаимодействия человек–компьютер. В связи с этим статья направлена на выявление различий и перспектив применения локального решения DeepFace и облачной модели GPT-4o (OpenAI) для анализа коротких видеосюжетов с эмоциональными выражениями. Методологически исследование базируется на эмпирическом сравнительном анализе: использован метод скользящего среднего для сглаживания временных рядов эмоциональных оценок и оценки устойчивости и когнитивной интерпретируемости. Результаты показали, что DeepFace обеспечивает стабильную локальную обработку и высокую устойчивость к артефактам, в то время как GPT-4o демонстрирует способность к сложной семантической интерпретации и высокой чувствительности к контексту. Обоснована эффективность гибридного подхода, сочетающего вычислительную автономность и гибкость интерпретации. Таким образом, синергия локальных и облачных решений открывает перспективы для создания более точных, адаптивных и масштабируемых систем аффективного анализа. Материалы статьи имеют практическую ценность для специалистов в области аффективных вычислений, интерфейсного дизайна и когнитивных технологий.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>The relevance of the study is due to the growing need for a highly accurate and interpretable emotion recognition system based on video data, which is crucial for the development of human-centered technologies in education, medicine, and human–computer interaction systems. In this regard, the article aims to identify the differences and application prospects of the local DeepFace solution and the cloud-based GPT-4o (OpenAI) model for analyzing short video clips with emotional expressions. Methodologically, the study is based on empirical comparative analysis: a moving average method was used to smooth the time series of emotional assessments and to evaluate stability and cognitive interpretability. The results showed that DeepFace provides stable local processing and high resistance to artifacts, while GPT-4o demonstrates the ability for complex semantic interpretation and high sensitivity to context. The effectiveness of a hybrid approach combining computational autonomy and interpretative flexibility is substantiated. Thus, the synergy of local and cloud solutions opens up prospects for creating more accurate, adaptive, and scalable affective analysis systems. The materials of the article are of practical value to specialists in the fields of affective computing, interface design, and cognitive technologies.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>аффективные вычисления</kwd>
        <kwd>распознавание эмоций</kwd>
        <kwd>анализ видеоданных</kwd>
        <kwd>DeepFace</kwd>
        <kwd>языковая модель GPT-4o</kwd>
        <kwd>гибридная система анализа</kwd>
        <kwd>семантический анализ текста</kwd>
        <kwd>мультимодальное взаимодействие</kwd>
        <kwd>интерпретируемость нейросетей</kwd>
        <kwd>когнитивные технологии</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>affective computing</kwd>
        <kwd>emotion recognition</kwd>
        <kwd>video data analysis</kwd>
        <kwd>DeepFace</kwd>
        <kwd>GPT-4o language model</kwd>
        <kwd>hybrid analysis system</kwd>
        <kwd>semantic text analysis</kwd>
        <kwd>multimodal interaction</kwd>
        <kwd>neural network interpretability</kwd>
        <kwd>cognitive technologies</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Serengil S.I., Ozpinar A. LightFace: A Hybrid Deep Face Recognition Framework. In: 2020 Innovations in Intelligent Systems and Applications Conference (ASYU), 15–17 October 2020, Istanbul, Turkey. IEEE; 2020. P. 1–5. https://doi.org/10.1109/ASYU50717.2020.9259802</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Razzaq M.A., Hussain J., Bang J., et al. A Hybrid Multimodal Emotion Recognition Framework for UX Evaluation Using Generalized Mixture Functions. Sensors. 2023;23(9). https://doi.org/10.3390/s23094373</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Горячкин Б.С., Китов М.А. Компьютерное зрение. E-Scio. 2020;(9):317–345.</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Zhao X., Wang L., Zhang Yu., Han X., Deveci M., Parmar M. A Review of Convolutional Neural Networks in Computer Vision. Artificial Intelligence Review. 2024;57(4). https://doi.org/10.1007/s10462-024-10721-6</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Kalateh S., Estrada-Jimenez L.A., Nikghadam-Hojjati S., Barata J. A Systematic Review on Multimodal Emotion Recognition: Building Blocks, Current State, Applications, and Challenges. IEEE Access. 2024;12:103976–104019. https://doi.org/10.1109/ACCESS.2024.3430850</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Poria S., Majumder N., Hazarika D., Cambria E., Gelbukh A., Hussain A. Multimodal Sentiment Analysis: Addressing Key Issues and Setting Up the Baselines. IEEE Intelligent Systems. 2018;33(6):17–25. https://doi.org/10.1109/MIS.2018.2882362</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Mujiyanto M., Setyanto A., Utami E., Kusrini K. Facial Expression Recognition with Deep Learning and Attention Mechanisms: A Systematic Review. In: 2024 7th International Conference on Informatics and Computational Sciences (ICICoS), 17–18 July 2024, Semarang, Indonesia. IEEE; 2024. P. 12–17. https://doi.org/10.1109/ICICoS62600.2024.10636857</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Тимофеева О.П., Неимущев С.А., Неимущева Л.И., Тихонов И.А. Распознавание эмоций по изображению лица на основе глубоких нейронных сетей. Труды НГТУ им. Р.Е. Алексеева. 2020;(1):16–24. https://doi.org/10.46960/1816-210X_2020_1_16</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Pascual A.M., Valverde E.C., Kim J.-I., et al. Light-FER: A Lightweight Facial Emotion Recognition System on Edge Devices. Sensors. 2022;22(23). https://doi.org/10.3390/s22239524</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Барабанщиков В.А., Суворова Е.В. Оценка эмоционального состояния человека по его видеоизображению. Экспериментальная психология. 2020;13(4):4–24. https://doi.org/10.17759/exppsy.2020130401</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>