<?xml version="1.0" encoding="UTF-8"?>
<article article-type="research-article" dtd-version="1.3" xml:lang="ru" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:noNamespaceSchemaLocation="https://metafora.rcsi.science/xsd_files/journal3.xsd">
  <front>
    <journal-meta>
      <journal-id journal-id-type="publisher-id">moitvivt</journal-id>
      <journal-title-group>
        <journal-title xml:lang="ru">Моделирование, оптимизация и информационные технологии</journal-title>
        <trans-title-group xml:lang="en">
          <trans-title>Modeling, Optimization and Information Technology</trans-title>
        </trans-title-group>
      </journal-title-group>
      <issn pub-type="epub">2310-6018</issn>
      <publisher>
        <publisher-name>Издательство</publisher-name>
      </publisher>
    </journal-meta>
    <article-meta>
      <article-id pub-id-type="doi"/>
      <article-id pub-id-type="custom" custom-type="elpub">468</article-id>
      <title-group>
        <article-title xml:lang="ru">ОТБОР ИНФОРМАТИВНЫХ РЕГРЕССОРОВ С УЧЕТОМ МУЛЬТИКОЛЛИНЕАРНОСТИ МЕЖДУ НИМИ В РЕГРЕССИОННЫХ МОДЕЛЯХ КАК ЗАДАЧА ЧАСТИЧНО-БУЛЕВОГО ЛИНЕЙНОГО ПРОГРАММИРОВАНИЯ</article-title>
        <trans-title-group xml:lang="en">
          <trans-title>SUBSET SELECTION IN REGRESSION MODELS WITH CONSIDERING MULTICOLLINEARITY AS A TASK OF MIXED 0-1 INTEGER LINEAR PROGRAMMING</trans-title>
        </trans-title-group>
      </title-group>
      <contrib-group>
        <contrib contrib-type="author" corresp="yes">
          <name-alternatives>
            <name name-style="eastern" xml:lang="ru">
              <surname>Базилевский</surname>
              <given-names>Михаил Павлович</given-names>
            </name>
            <name name-style="western" xml:lang="en">
              <surname>Bazilevsky</surname>
              <given-names>Mikhail Pavlovich</given-names>
            </name>
          </name-alternatives>
          <email>mik2178@yandex.ru</email>
          <xref ref-type="aff">aff-1</xref>
        </contrib>
      </contrib-group>
      <aff-alternatives id="aff-1">
        <aff xml:lang="ru">Иркутский государственный университет путей сообщения</aff>
        <aff xml:lang="en">Irkutsk State Transport University</aff>
      </aff-alternatives>
      <pub-date pub-type="epub">
        <day>01</day>
        <month>01</month>
        <year>2026</year>
      </pub-date>
      <volume>1</volume>
      <issue>1</issue>
      <elocation-id>e468</elocation-id>
      <permissions>
        <copyright-statement>Copyright © Авторы, 2026</copyright-statement>
        <copyright-year>2026</copyright-year>
        <license license-type="creative-commons-attribution" xlink:href="https://creativecommons.org/licenses/by/4.0/">
          <license-p>This work is licensed under a Creative Commons Attribution 4.0 International License</license-p>
        </license>
      </permissions>
      <self-uri xlink:href="https://moitvivt.ru/ru/journal/article?id=468"/>
      <abstract xml:lang="ru">
        <p>Статья посвящена проблеме отбора информативных регрессоров в линейной регрессионной модели, точное решение которой может быть гарантировано либо полным перебором всех возможных вариантов регрессий, либо решением специальным образом сформулированной задачи математического программирования с булевыми переменными. Часто задача отбора информативных регрессоров решается с использованием лишь одного критерия адекватности, например, минимизируются только ошибки модели. Но в случае оценивания регрессии с помощью метода наименьших квадратов необходимо стремиться не только к увеличению качества аппроксимации, но и к соблюдению условий теоремы Гаусса – Маркова, одним из которых является отсутствие линейной зависимости между объясняющими переменными. Если это условие не выполняется, то говорят, что имеет место мультиколлинеарность. Таким образом, при отборе информативных регрессоров целесообразно решать двухкритериальную задачу – стремиться максимизировать качество аппроксимации и одновременно минимизировать мультиколлинеарность между объясняющими переменными. Поскольку точных количественных критериев для определения наличия / отсутствия мультиколлинеарности не существует, в данной работе на основе известной рекомендации сформулирован критерий верхней границы мультиколлинеарности. С использованием этого критерия предложены четыре возможные постановки задачи отбора информативных регрессоров, каждая из которых сведена к задаче частично-булевого линейного программирования. Для демонстрации предложенного математического аппарата разработана пробная версия специализированного программного комплекса, с помощью которого решена задача моделирования грузооборота Красноярской железной дороги.</p>
      </abstract>
      <trans-abstract xml:lang="en">
        <p>The article is devoted to the problem of subset selection in linear regression model, the&#13;
exact solution of which guarantees either a full search of all possible regressions or a&#13;
solution of a specially formulated mathematical programming problem with Boolean&#13;
variables. Often the problem of subset selection is solved using only one criterion of&#13;
adequacy, for example, only model errors are minimized. But in the case of estimating&#13;
regression using ordinary least squares, it is necessary to strive not only to increase the&#13;
quality of the approximation, but also to observe the conditions of the Gauss-Markov&#13;
theorem, one of which is the absence of a linear dependence between the explanatory&#13;
variables. If this condition is not satisfied, then it is said that multicollinearity takes place.&#13;
Thus, when selecting informative regressors, it is expedient to solve the two-criteria problem -&#13;
to strive to maximize the quality of approximation and at the same time minimize the&#13;
multicollinearity between explanatory variables. Since there are no exact quantitative criteria&#13;
for determining the presence / absence of multicollinearity, in this paper, based on the wellknown recommendation, a criterion for the upper bound of multicollinearity is formulated.&#13;
Using this criterion, four possible statements of the two-criteria problem of subset selection&#13;
are proposed, each of which is reduced to task of mixed 0-1 integer linear programming. To&#13;
demonstrate the proposed mathematical apparatus, a trial version of a specialized software&#13;
package was developed, with the help of which the task of modeling the freight turnover of the&#13;
Krasnoyarsk railroad was solved.</p>
      </trans-abstract>
      <kwd-group xml:lang="ru">
        <kwd>регрессионная модель</kwd>
        <kwd>метод наименьших квадратов</kwd>
        <kwd>мультиколлинеарность</kwd>
        <kwd>отбор информативных регрессоров</kwd>
        <kwd>задача частично-булевого линейного программирования</kwd>
      </kwd-group>
      <kwd-group xml:lang="en">
        <kwd>regression model</kwd>
        <kwd>ordinary least squares</kwd>
        <kwd>multicollinearity</kwd>
        <kwd>subset selection in regression</kwd>
        <kwd>task of mixed 0-1 integer linear programming</kwd>
      </kwd-group>
      <funding-group>
        <funding-statement xml:lang="ru">Исследование выполнено без спонсорской поддержки.</funding-statement>
        <funding-statement xml:lang="en">The study was performed without external funding.</funding-statement>
      </funding-group>
    </article-meta>
  </front>
  <back>
    <ref-list>
      <title>References</title>
      <ref id="cit1">
        <label>1</label>
        <mixed-citation xml:lang="ru">Эконометрика / И.И. Елисеева, С.В. Курышева, Т.В. Костеева и др. –&#13;
М.: Финансы и статистика, 2007. – 576 с.</mixed-citation>
      </ref>
      <ref id="cit2">
        <label>2</label>
        <mixed-citation xml:lang="ru">Miller A.J. Subset selection in regression / A.J. Miller. – Chapman &amp;&#13;
Hall/CRC, 2002. – p. 247.</mixed-citation>
      </ref>
      <ref id="cit3">
        <label>3</label>
        <mixed-citation xml:lang="ru">Носков С.И. Технология моделирования объектов с нестабильным&#13;
функционированием и неопределенностью в данных / С.И. Носков. –&#13;
Иркутск: РИЦ ГП «Облинформпечать», 1996. – 321 с.</mixed-citation>
      </ref>
      <ref id="cit4">
        <label>4</label>
        <mixed-citation xml:lang="ru">Айвазян С.А. Методы эконометрики / С.А. Айвазян. – М. : Магистр :&#13;
ИНФРА-М, 2010. – 512 с.</mixed-citation>
      </ref>
      <ref id="cit5">
        <label>5</label>
        <mixed-citation xml:lang="ru">Кремер Н.Ш. Эконометрика / Н.Ш. Кремер, Б.А. Путко. – М.: ЮНИТИДАНА, 2002. – 311 с.</mixed-citation>
      </ref>
      <ref id="cit6">
        <label>6</label>
        <mixed-citation xml:lang="ru">Konno H. Choosing the best set of variables in regression analysis using&#13;
integer programming / H. Konno, R. Yamamoto // Journal of Global&#13;
Optimization, 2009. Vol. 44, no. 2, pp. 272-282.</mixed-citation>
      </ref>
      <ref id="cit7">
        <label>7</label>
        <mixed-citation xml:lang="ru">Park Y.W. Subset selection for multiple linear regression via optimization /&#13;
Y.W. Park, D. Klabjan // Technical report, 2013. Available from&#13;
http://www.klabjan.dynresmanagement.com</mixed-citation>
      </ref>
      <ref id="cit8">
        <label>8</label>
        <mixed-citation xml:lang="ru">Chung, S. A mathematical programming approach for integrated multiple&#13;
linear regression subset selection and validation / S. Chung, Y.W. Park, T.&#13;
Cheong. arXiv.org, 2017. Available from https://arxiv.org/abs/1712.04543.&#13;
</mixed-citation>
      </ref>
      <ref id="cit9">
        <label>9</label>
        <mixed-citation xml:lang="ru">Best subset selection for eliminating multicollinearity / R. Tamura, K.&#13;
Kobayashi, Y. Takano, R. Miyashiro, K. Nakata, T. Matsui // Journal of the&#13;
Operations Research Society of Japan. Vol. 60, No. 3, 2017, pp. 321-336.&#13;
</mixed-citation>
      </ref>
      <ref id="cit10">
        <label>10</label>
        <mixed-citation xml:lang="ru">Mixed integer quadratic optimization formulations for eliminating&#13;
multicollinearity based on variance inflation factor / R. Tamura, K.&#13;
Kobayashi, Y. Takano, R. Miyashiro, K. Nakata, T. Matsui // Optimization&#13;
online, 2016. Available from http://www.optimizationonline.org/DB_HTML/2016/09/5655.html.</mixed-citation>
      </ref>
      <ref id="cit11">
        <label>11</label>
        <mixed-citation xml:lang="ru">Базилевский М.П. Сведение задачи отбора информативных регрессоров&#13;
при оценивании линейной регрессионной модели по методу&#13;
наименьших квадратов к задаче частично-булевого линейного&#13;
программирования // Моделирование, оптимизация и информационные&#13;
технологии. – Воронеж, 2018. – Т. 6. – № 1 – URL:&#13;
https://moit.vivt.ru/wp-content/uploads/2018/01/Bazilevskiy_1_1_18.pdf&#13;
(дата обращения 10.05.2018).&#13;
</mixed-citation>
      </ref>
      <ref id="cit12">
        <label>12</label>
        <mixed-citation xml:lang="ru">Профессиональный информационно-аналитический ресурс,&#13;
посвященный машинному обучению, распознаванию образов и&#13;
интеллектуальному анализу данных. – URL:&#13;
http://www.machinelearning.ru/wiki/index.php?title=Фактор_инфляции_ре&#13;
грессии (дата обращения 10.05.2018).&#13;
</mixed-citation>
      </ref>
      <ref id="cit13">
        <label>13</label>
        <mixed-citation xml:lang="ru">Среднесрочное прогнозирование эксплуатационных показателей&#13;
функционирования Красноярской железной дороги / М.П. Базилевский,&#13;
И.П. Врублевский, С.И. Носков, И.С. Яковчук // Фундаментальные&#13;
исследования. – 2016. – №10(3). – С.471-476.</mixed-citation>
      </ref>
    </ref-list>
    <fn-group>
      <fn fn-type="conflict">
        <p>The authors declare that there are no conflicts of interest present.</p>
      </fn>
    </fn-group>
  </back>
</article>