<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2021.33.2.024</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">1005</article-id>
      <title-group>
        <article-title xml:lang="ru">Объяснимый искусственный интеллект и  методы интерпретации результатов</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Explainable artificial intelligence and  methods for interpreting results</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <contrib-id contrib-id-type="orcid">0000-0001-8936-8167</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Шевская</surname>
              <given-names>Наталья Владимировна</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Shevskaya</surname>
              <given-names>Natalya Vladimirovna</given-names>
            </name>
          </name-alternatives>
          <email>razmnn@mail.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И.Ульянова (Ленина) СПбГЭТУ «ЛЭТИ»</aff>
        <aff xml:lang="en">Saint Petersburg Electrotechnical University "LETI"</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2021.33.2.024</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=1005"/>
      <abstract xml:lang="ru">
        <p>Системы искусственного интеллекта используются во многих сферах обеспечения жизни человека, будь то, например, финансы или медицина. С каждым годом интеллектуальные системы обрабатывают все больше и больше данных и принимают все больше и больше решений. Эти решения оказывают все большее влияние на судьбы людей. Краеугольным камнем становится недоверие к полностью нечеловеческим, автономным системам искусственного интеллекта. Ключ недоверия кроется в непонимании того, почему интеллектуальные системы принимают то или иное решение, исходя из каких убеждений такие системы действуют (и есть ли у них свои собственные убеждения или только те, что им передали разработчики). Для решения проблемы «недоверия» к таким системам стали применять методы объяснимого искусственного интеллекта. В этой статье представлен краткий обзор методов, получивших наибольшую популярность в академической среде (методы PDP, SHAP, LIME, DeepLIFT, permutation importance, ICE plots). На примере практических упражнений продемонстрирована легкость применения методов PDP и SHAP, а также удобство «чтения» графических результатов работы этих методов, которые объясняют построенные дерево решений и случайный лес на примере небольшого набора данных о продажах</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>Artificial intelligence systems are used in many areas of human life support for example finance or medicine. Every year intelligent systems process more and more data and make more and more decisions. All these decisions have an increasing impact on the fate of people. The corner-stone is a distrust of completely non-human, autonomous artificial intelligence systems. The key to distrust lies in the misunderstanding of why intelligent systems make this or that decision, based on what beliefs such systems operate (and whether they have their own beliefs or only those that were given to them by the developers). To solve the problem of “distrust” in such sys-tems, the methods of explainable artificial intelligence have been used. This article provides a brief overview of the most popular methods in the academic environment such methods as PDP, SHAP, LIME, DeepLIFT, permutation importance, ICE plots. Practical exercises demonstrate the ease of application of PDP and SHAP methods, as well as the convenience of "reading" the graphical results of these methods, which explain the constructed decision tree model and ran-dom forest model on the example of a small set of sales data</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>искусственный интеллект</kwd>
        <kwd>объяснимый искусственный интеллект</kwd>
        <kwd>интерпретируемый искусственный интеллект</kwd>
        <kwd>объяснимость</kwd>
        <kwd>интерпретируемость</kwd>
        <kwd>XAI</kwd>
        <kwd>PDP</kwd>
        <kwd>SHAP</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>artificial intelligence</kwd>
        <kwd>explainable artificial intelligence</kwd>
        <kwd>interpretable artificial intelligence</kwd>
        <kwd>explainability</kwd>
        <kwd>interpretability</kwd>
        <kwd>XAI</kwd>
        <kwd>PDP</kwd>
        <kwd>SHAP</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Transparency and Responsibility in Artificial Intelligence. Deloitte. Доступно по: https://www2.deloitte.com/content/dam/Deloitte/nl/Documents/innovatie/deloitte-nl-innovation-bringing-transparency-and-ethics-into-ai.pdf (дата обращения: 10.06.2021)</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Linardatos P., Papastefanopoulos V., Kotsiantis S. Explainable AI: A Review of Ma-chine Learning Interpretability Methods. Entropy. 2021:23(18). Доступно по: https://www.mdpi.com/1099-4300/23/1/18/pdf DOI: 10.3390/e23010018 (дата обращения: 10.06.2021) </mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Rosenfeld A., Richardson A. Explainability in human–agent systems. Autonomous Agents and Multi-Agent Systems. 2019;33(6):673-705. Доступно по:  https://www.researchgate.net/publication/333084339_Explainability_in_human-agent_systems DOI: 10.1007/s10458-019-09408-y (дата обращения: 10.06.2021) </mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Lundberg S. M., Lee S. I. Consistent feature attribution for tree ensembles. Proceedings of the ICML Workshop on Human Interpretability in Machine Learning (WHI’2017). 2017. Доступно по: https://arxiv.org/abs/1706.06060 (дата обращения: 10.06.2021)</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Lundberg S. M., Lee S. I. A Unified Approach to Interpreting Model Predictions. Pro-ceedings of the Neural Information Processing Systems (NIPS). 2017. Доступно по: https://arxiv.org/abs/1705.07874 (дата обращения: 10.06.2021)</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Friedman J. H. Greedy function approximation: a gradient boosting machine. Annals of statistics. 2001;29(5):1189-1232. Доступно по: https://statweb.stanford.edu/~jhf/ftp/trebst.pdf (дата обращения: 10.06.2021)</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Ribeiro M. T., Singh S., Guestrin C. “Why should i trust you?" Explaining the predic-tions of any classifier. Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining. 2016;1135-1144. DOI: 10.1145/2939672.2939778</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Shrikumar A., Greenside P., Kundaje A. Learning important features through propagat-ing activation differences. Proceedings of the 34th International Conference on Machine Learn-ing (PMLR). 2017;70:3145-3153.</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Goldstein A. et al. Peeking inside the black box: Visualizing statistical learning with plots of individual conditional expectation. Journal of Computational and Graphical Statistics. 2015;24(1):44-65. DOI: 10.1080/10618600.2014.907095</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Machine Learning Explainability. Permutation Importance. Доступно по: https://www.kaggle.com/dansbecker/permutation-importance (дата обращения: 10.06.2021)</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru"> Machine Learning Explainability Course. Partial Dependence Plots. Доступно по: https://www.kaggle.com/dansbecker/partial-plots (дата обращения: 10.06.2021)</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">Machine Learning Explainability. SHAP Values, Доступно по: https://www.kaggle.com/dansbecker/shap-values (дата обращения: 10.06.2021)</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>