<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2026.53.2.005</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">2169</article-id>
      <title-group>
        <article-title xml:lang="ru">Практические аспекты построения приватных мультимодальных генеративных моделей: методы, ограничения и инструменты</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Practical aspects of building private multimodal generative models: methods, constraints, and tools</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author">
          <contrib-id contrib-id-type="orcid">0000-0002-6318-2476</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Ледовская</surname>
              <given-names>Екатерина Валерьевна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Ledovskaya</surname>
              <given-names>Ekaterina</given-names>
            </name>
          </name-alternatives>
          <email>ekvaled@mail.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">МИРЭА - Российский технологический университет</aff>
        <aff xml:lang="en">MIREA – Russian Technological University</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2026.53.2.005</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=2169"/>
      <abstract xml:lang="ru">
        <p>В статье рассматривается актуальная проблема разработки генеративных систем искусственного интеллекта, способных работать с разнородными данными (текст, изображение, аудио) без нарушения конфиденциальности исходных обучающих наборов. Цель работы – систематизировать и представить с практической точки зрения современные методы обеспечения приватности, применимые к мультимодальным архитектурам. Основное внимание уделяется технологиям дифференциальной приватности и федеративного обучения, их адаптации и композиции для работы со сложными данными. В статье анализируются фундаментальные компромиссы между качеством генерации, вычислительной сложностью и уровнем гарантий конфиденциальности, с которыми сталкивается разработчик на практике. Приводятся примеры существующих программных фреймворков и даются рекомендации по выбору стратегии защиты в зависимости от типа решаемой задачи и характера мультимодальных данных. Дополнительно обсуждаются практические аспекты интеграции приватных механизмов в тренировочные циклы, оценка накопленного бюджета конфиденциальности, а также потенциальные направления развития инструментов для повышения эффективности и надежности AI-систем. Отдельное внимание уделяется вопросам согласования модальностей и оптимизации компромисса между уровнем приватности и качеством генерации. Представленные рекомендации и примеры реализации могут служить руководством для инженеров и исследователей при разработке реальных мультимодальных систем, соответствующих современным требованиям безопасности и этики. Материал статьи ориентирован на исследователей и инженеров в области машинного обучения, занимающихся созданием отвечающих этическим и регуляторным требованиям AI-систем.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>The article addresses the pressing issue of developing generative artificial intelligence systems capable of working with heterogeneous data (text, images, audio) without compromising the privacy of the underlying training datasets. The aim of the study is to systematize and present, from a practical perspective, current methods for ensuring privacy applicable to multimodal architectures. Particular attention is paid to differential privacy and federated learning technologies, their adaptation, and their combination for working with complex data. The article analyzes fundamental trade-offs between generation quality, computational complexity, and the level of privacy guarantees faced by developers in practice. Examples of existing software frameworks are provided, along with recommendations for selecting protection strategies depending on the type of task and the nature of the multimodal data. Practical aspects of integrating privacy mechanisms into training cycles, assessing the accumulated privacy budget, and potential directions for developing tools to enhance the efficiency and reliability of AI systems are additionally discussed. Special attention is given to issues of modality alignment and optimizing the trade-off between privacy level and generation quality. The presented recommendations and implementation examples can serve as a guide for engineers and researchers in developing real-world multimodal systems that meet contemporary security and ethical requirements. The material of the article is intended for researchers and engineers in the field of machine learning who are engaged in creating AI systems that comply with ethical and regulatory standards.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>генеративные модели</kwd>
        <kwd>мультимодальное машинное обучение</kwd>
        <kwd>конфиденциальность данных</kwd>
        <kwd>дифференциальная приватность (DP)</kwd>
        <kwd>федеративное обучение (FL)</kwd>
        <kwd>компромисс приватность-качество</kwd>
        <kwd>фреймворки машинного обучения</kwd>
        <kwd>устойчивые AI-системы</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>generative models</kwd>
        <kwd>multimodal machine learning</kwd>
        <kwd>data privacy</kwd>
        <kwd>differential privacy (DP)</kwd>
        <kwd>federated learning (FL)</kwd>
        <kwd>privacy-utility trade-off</kwd>
        <kwd>machine learning frameworks</kwd>
        <kwd>trustworthy AI systems</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Feretzakis G., Papaspyridis K., Gkoulalas-Divanis A., Verykios V.S. Privacy-Preserving Techniques in Generative AI and Large Language Models: A Narrative Review. Information. 2024;15(11). https://doi.org/10.3390/info15110697</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Naseri M., Hayes J., De Cristofaro E. Local and Central Differential Privacy for Robustness and Privacy in Federated Learning. arXiv. URL: https://arxiv.org/abs/2009.03561 [Accessed 25th November 2025].</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Sun L., Qian J., Chen X. LDP-FL: Practical Private Aggregation in Federated Learning with Local Differential Privacy. arXiv. URL: https://arxiv.org/abs/2007.15789 [Accessed 25th November 2025].</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Rafi T.H., Noor F.A., Hussain T., Chae D.-K. Fairness and Privacy-Preserving in Federated Learning: A Survey. arXiv. URL: https://arxiv.org/abs/2306.08402 [Accessed 25th November 2025].</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Zhu L., Chen X. Privacy protection in federated learning: a study on the combined strategy of local and global differential privacy. The Journal of Supercomputing. 2025;81(1). https://doi.org/10.1007/s11227-024-06845-9</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Катаев А.В., Власова Ю.М., Гусынин Д.А., Ким В.А. Обзор метрик с целью оценки качества работы генеративных моделей для создания изображений. Инженерный вестник Дона. 2025;(6). URL: http://www.ivdon.ru/ru/magazine/archive/n6y2025/10119</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Рабчевский А.Н. Обзор методов и систем генерации синтетических обучающих данных. Прикладная математика и вопросы управления. 2023;(4):6–45.</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Xu H., Shrestha Sh., Chen W., Li Zh., Cai Zh. DP-FedLoRA: Privacy-Enhanced Federated Fine-Tuning for On-Device Large Language Models. arXiv. URL: https://arxiv.org/abs/2509.09097 [Accessed 19th December 2025].</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Ghalebikesabi S., Berrada L., Gowal S., et al. Differentially Private Diffusion Models Generate Useful Synthetic Images. arXiv. URL: https://arxiv.org/abs/2302.13861 [Accessed 19th December 2025].</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">McMahan B., Moore E., Ramage D., Hampson S., Agüera-Arcas B. Communication-Efficient Learning of Deep Networks from Decentralized Data. In: Proceedings of the 20th International Conference on Artificial Intelligence and Statistics (AISTATS 2017), 20–22 April 2017, Fort Lauderdale, FL, USA. PMLR; 2017. P. 1273–1282.</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>