<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi">10.26102/2310-6018/2024.44.1.016</article-id>
      <article-id pub-id-type="custom" custom-type="elpub">1514</article-id>
      <title-group>
        <article-title xml:lang="ru">Адаптивная квантильная регрессия</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>Adaptive quantile regression</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <contrib-id contrib-id-type="orcid">0009-0000-1313-5826</contrib-id>
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Тюрин</surname>
              <given-names>Алексей Сергеевич</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Tyurin</surname>
              <given-names>Aleksey Sergeevich</given-names>
            </name>
          </name-alternatives>
          <email>leha2148@gmail.com</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Липецкий государственный технический университет</aff>
        <aff xml:lang="en">Lipetsk State Technical University</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>10.26102/2310-6018/2024.44.1.016</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=1514"/>
      <abstract xml:lang="ru">
        <p>Актуальность темы исследования обусловлена растущей потребностью в быстрых и точных инструментах построения математических моделей. В данной работе рассматриваются подходы к построению адаптивной квантильной регрессии, так как выбор оптимального квантиля в процессе обучения может сэкономить большое количество времени исследователя. Правильный выбор квантиля может существенно улучшить показатели модели на тестовых наборах данных и, как следствие, позволит получать более надежные прогнозы при реальном использовании такой математической модели. Разработанный подход представляет собой комбинацию модифицированной квантильной регрессии и градиентного спуска, что улучшает адаптацию модели к различным данным. В работе приведено подробное описание разрабатываемого алгоритма, сравнение точности работы предложенной модели с традиционной квантильной регрессией и градиентным спуском, и их комбинациями, а также анализируется время обучения моделей, включая количество эпох обучения. Эксперименты показывают, что адаптивная квантильная регрессия демонстрирует повышенную точность при сокращении времени обучения. Результаты подчеркивают эффективность этого метода в области анализа данных и прогнозирования, открывая новые перспективы для более эффективных и быстрых моделей машинного обучения.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>The relevance of the research is due to the growing need for fast and accurate tools for building mathematical models. This paper discusses approaches to building adaptive quantile regression because selecting the optimal quantile during the training process can save a large amount of researcher's time. The correct choice of quantile can significantly improve the performance of the model on test datasets and, as a consequence, obtain more reliable predictions when such a mathematical model is actually used. The developed approach is a combination of modified quantile regression and gradient descent, which improves the adaptation of the model to different data. A detailed description of the developed algorithm is given. The paper also presents a comparison of the performance accuracy of the proposed model with traditional quantile regression and gradient descent along with their combinations. It also analyzes the training time of the models, including the number of training epochs. Experiments show that adaptive quantile regression exhibits improved accuracy with reduced training time. The results emphasize the effectiveness of this method in data analysis and prediction, opening new perspectives for more efficient and faster machine learning models.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>квантильная регрессия</kwd>
        <kwd>адаптивный алгоритм</kwd>
        <kwd>градиентный спуск</kwd>
        <kwd>математическое моделирование</kwd>
        <kwd>численные методы</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>quantile regression</kwd>
        <kwd>adaptive algorithm</kwd>
        <kwd>gradient descent</kwd>
        <kwd>mathematical modeling</kwd>
        <kwd>numerical methods</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Zheng Qi, Limin Peng, Xuming He. Globally adaptive quantile regression with ultra-high dimensional data. The Annals of Statistics. 2015;43(5):2225–2258. DOI: 10.1214/15-AOS1340.</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Barrodale I., Roberts F.D.K. An improved algorithm for discrete L1 linear approximation. SIAM Journal on Numerical Analysis. 1973;10(5):839–848. DOI: 10.1137/0710069.</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Chen C. An Adaptive Algorithm for Quantile Regression. In: Theory and Applications of Recent Robust Methods by ICORS2003: International Conference on Robust Statistics – 2003, 13–18 July 2003, Antwerp, Belgium. Basel: Springer Basel AG; 2004. p. 39–48.</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Chen C. A finite smoothing algorithm for quantile regression. Journal of Computational and Graphical Statistics. 2007;16(1):136–164. DOI: 10.1198/106186007X180336.</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Behl P., Claeskens G., Dette H. Focussed model selection in quantile regression. Statistica Sinica. 2014;24(2):601–624. DOI: 10.5705/ss.2012.097.</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Wang K., Wang H.J. Optimally combined estimation for tail quantile regression. Statistica Sinica. 2016;26(1):295–311. DOI: 10.5705/ss.2014.051.</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Zheng S. Gradient descent algorithms for quantile regression with smooth approximation. International Journal of Machine Learning and Cybernetics. 2011;2:191–207. DOI: 10.1007/s13042-011-0031-2.</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Li Y., Zhu J. L1-norm quantile regression. Journal of Computational and Graphical Statistics. 2008;17(1):1–23. DOI: 10.1198/106186008X289155.</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Wang B., Hu T., Yin H. Quantile regression with Gaussian Kernels. Contemporary Experimental Design, Multivariate Analysis and Data Mining. 2020;373–386.</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Тюрин А.С., Сараев П.В. Построение квантильной регрессии с использованием натурального градиентного спуска. Прикладная математика и вопросы управления. 2023;(2):43–52.</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>