Векторы, размерности и пространства признаков
Почему данные – это точки в пространстве.
Если убрать из машинного обучения все сложные слова и модные термины, то в сухом остатке почти всегда останется одна и та же идея: мы представляем реальные объекты числами и работаем с этими числами математически. Именно здесь на сцену выходят векторы, размерности и пространства признаков. Для PHP-разработчика особенно важно понять это интуитивно, а не формально, потому что в коде вы постоянно будете иметь дело не с абстрактной линейной алгеброй, а с массивами чисел, матрицами и операциями над ними.
Вектор как способ описать объект
Вектор в контексте машинного обучения – это просто упорядоченный набор чисел. Каждое число описывает какой-то аспект объекта. Если объект простой, вектор короткий. Если объект сложный, вектор может быть очень длинным.
Представим пользователя интернет-магазина. Мы можем описать его так: возраст, количество покупок за год, средний чек. Тогда один пользователь – это вектор из трех чисел:
(возраст, покупки, средний чек)
В PHP это будет выглядеть максимально приземленно:
$userVector = [35, 12, 78.5];Важно понять: вектор – это не просто массив. Порядок элементов имеет смысл. Если вы перепутаете местами возраст и средний чек, модель не "догадается", что вы имели в виду. Для нее это будут другие данные.
Размерность вектора
Размерность вектора – это количество чисел в нем. В примере выше размерность равна 3. Если вы добавите еще один признак, например, “дней с последней покупки”, размерность станет 4.
Размерность напрямую связана с тем, насколько подробно вы описываете объект. Низкая размерность означает грубое описание, высокая – более детальное. Но высокая размерность не всегда лучше. Каждый дополнительный признак – это новая степень свободы для модели и новый источник шума.
Для PHP-разработчика полезно думать о размерности как о фиксированном контракте. Если модель ожидает вектор длины 10, вы обязаны всегда передавать ровно 10 чисел, в одном и том же порядке.
Формально пространство признаков обычно обозначают как . Это означает, что каждый объект описывается вектором из вещественных чисел, а все такие векторы образуют единое абстрактное пространство. В нём определены операции сложения векторов и умножения на число, что позволяет применять инструменты линейной алгебры. В практическом машинном обучении нам не так важны формальные аксиомы, но важно понимать, что модель всегда работает внутри фиксированного -мерного пространства, заданного структурой признаков.
function predict(array $features): float {
if (count($features) !== 10) {
throw new InvalidArgumentException("Ожидается вектор размерности 10");
}
// дальнейшие вычисления
}Пример:
Пространство признаков
Когда мы говорим не об одном векторе, а о всех возможных векторах данной размерности, мы попадаем в пространство признаков. Формально, если у нас есть вектор признаков , то он является элементом -мерного вещественного пространства . Именно в таком пространстве и "живут" данные, с которыми работают большинство моделей машинного обучения.
Если размерность равна 2, пространство признаков – это обычная плоскость. Если 3 – привычное трехмерное пространство. Если больше, то визуализировать его уже невозможно, но математически это то же самое пространство .
Каждая точка в этом пространстве – это один объект из реального мира, переведенный на язык чисел. Пользователь, товар, документ, изображение – все они после подготовки данных становятся точками в пространстве признаков.
Хорошей визуализацией для PHP-разработчика может быть такое: пространство признаков – это то, где живут ваши данные после этапа feature engineering. До этого у вас были строки, даты, категории и JSON. После – только числа.
Признаки как оси координат
Каждый признак – это отдельная ось координат в пространстве. Математически это означает, что значение признака – это координата точки вдоль -й оси.
Например, вектор (35, 12, 78.5) – это точка в трехмерном пространстве, где первая ось – возраст, вторая – количество покупок, третья – средний чек.
Это сразу объясняет несколько важных вещей.
Во-первых, признаки должны быть сопоставимы по масштабу (ещё одна причина, почему мы используем преобразование признаков в числа). Если одна ось измеряется в десятках, а другая – в сотнях тысяч, то расстояния и углы, вычисляемые выбранной метрикой, перестают отражать реальное сходство объектов.
Во-вторых, добавление нового признака – это добавление новой оси. Пространство становится более размерным (плюс ещё один размер), а каждая точка получает еще одну координату. Модель вынуждена учитывать еще одно направление при принятии решений.
Нормализация и масштабирование
На практике почти всегда приходится приводить признаки к одному масштабу. Это можно сделать разными способами: нормализацией (приведение значений к фиксированному диапазону, например от 0 до 1) или стандартизацией (приведение распределения к нулевому среднему и единичному стандартному отклонению). Оба подхода решают одну и ту же инженерную задачу – сделать признаки сопоставимыми для алгоритма. Это не прихоть математиков, а чисто инженерная необходимость, так как большинство алгоритмов машинного обучения чувствительны к масштабу входных данных: признаки с большими числовыми значениями начинают доминировать над остальными, искажая вклад действительно информативных признаков. Тем самым ухудшается качество и стабильность обучения модели.
Нормализация
Простейший пример – нормализация в диапазон от 0 до 1:
Пример:
После такой обработки возраст, количество покупок и средний чек начинают "весить" примерно одинаково в пространстве признаков.
Стандартизация
Другой широко используемый подход – стандартизация признаков. В отличие от нормализации, она не ограничивает значения фиксированным диапазоном, а приводит распределение признака к виду с нулевым средним и единичным стандартным отклонением. Это особенно важно для моделей, чувствительных к масштабу признаков (линейная и логистическая регрессия, SVM, нейронные сети), а также для методов оптимизации, использующих градиентный спуск. Стандартизация делает признаки сопоставимыми по масштабу, но при этом сохраняет информацию о выбросах и относительных отклонениях значений.
Простейшая формула стандартизации выглядит так:
Пример:
После стандартизации возраст, количество покупок и средний чек имеют среднее значение около нуля и сопоставимую дисперсию, благодаря чему модель обучается стабильнее, а процесс оптимизации становится быстрее и предсказуемее.
Категориальные признаки и размерность
Не все признаки изначально числовые. Цвет, страна, тип устройства – все это категории. Чтобы поместить их в пространство признаков, их нужно превратить в числа. Чаще всего это делается через one-hot encoding.
Если у нас есть три возможных цвета: red, green, blue, то один признак превращается в три координаты:
Здесь важно заметить, что размерность резко растет. Один логический признак превратился в три числовых. В реальных задачах с сотнями категорий это становится серьезной проблемой и напрямую влияет на сложность моделей.
В реальных системах также приходится учитывать неизвестные или даже новые категории. Обычно для этого добавляют отдельный признак (например, "unknown"), который активируется, если значение не входит в обучающий словарь.
Почему данные – это точки в пространстве
Причина, по которой данные в машинном обучении рассматриваются как точки в пространстве, проста и фундаментальна. Большинство алгоритмов опираются на геометрию: расстояния, углы, проекции и поверхности.
Если у вас есть набор объектов, каждый из которых описан одним и тем же набором числовых признаков, то строгий математический способ работать с ними – рассматривать их как точки в одном и том же пространстве .
Формально: пусть каждый объект описывается вектором . Тогда вся выборка – это конечное множество точек .
Расстояние между двумя точками отражает степень их сходства. Направление вектора показывает, в каких признаках объекты отличаются сильнее всего. Плоскость или гиперплоскость – это множество точек, удовлетворяющих линейному уравнению.
Именно поэтому даже самые разные модели в итоге сводятся к геометрическим операциям над векторами.

Геометрический смысл расстояний и углов
В пространстве признаков важны не только расстояния, но и углы между векторами. Угол между векторами показывает, насколько два направления изменений похожи.
Интуитивно можно сказать так: нас интересует не столько абсолютная величина изменений, сколько то, в каких признаках они происходят одновременно. Даже если значения сильно различаются по масштабу, малый угол между векторами означает, что признаки изменяются согласованно.
Именно поэтому косинусное сходство часто используется при работе с текстовыми эмбеддингами и другими высокоразмерными данными, где направление вектора важнее его длины.
На практике такие векторы обычно предварительно нормализуют по длине (приводят к единичной норме), чтобы косинусное сходство отражало только направление векторов, а не их масштаб.
С формальной точки зрения всё это выражается через скалярное произведение. Скалярное произведение двух векторов и определяется как:
Через него выражается косинус угла между векторами:
Это напрямую используется, например, при сравнении текстовых эмбеддингов или пользовательских профилей.

Для PHP-разработчика это означает простую вещь: модель может считать два объекта похожими не потому, что они близки по всем координатам, а потому, что они “смотрят” в одном направлении в пространстве признаков.
Связь с конкретными алгоритмами
Алгоритм k ближайших соседей (kNN - k-Nearest Neighbors) буквально живет в пространстве признаков. Он ничего не обучает в классическом смысле, а просто для новой точки ищет k ближайших точек по выбранной метрике расстояния.
Другими словами, всё поведение этого алгоритма полностью определяется тем, как именно мы измеряем расстояния между точками.
Именно поэтому для алгоритма kNN масштабирование признаков критично. Если признаки находятся в разных числовых диапазонах, расстояние между точками будет определяться в основном признаками с наибольшим масштабом, независимо от их реальной информативности.
Математически это выглядит так: для нового вектора x мы ищем такие векторы из обучающей выборки, для которых расстояние минимально.

Функция указанная ниже реализует классическую формулу евклидова расстояния между двумя точками:
Евклидово расстояние – самый интуитивный и часто используемый способ измерять расстояние между точками в пространстве признаков, но оно не является универсальным. В зависимости от задачи и природы данных могут применяться другие метрики: например, манхэттенское расстояние или косинусная мера сходства. Разные метрики по-разному определяют понятие "близости" между объектами, и выбор метрики напрямую влияет на поведение алгоритма и результаты модели.
В следующей главе мы рассмотрим функцию вычисления евклидова расстояния подробней.
Однако не все модели опираются на расстояния между точками. Линейные модели смотрят на пространство иначе. Они ищут гиперплоскость, которая лучше всего разделяет точки или аппроксимирует их значения.
Формально линейная модель записывается так:
Геометрически это означает, что все точки, для которых
лежат на одной гиперплоскости. Знак определяет, по какую сторону границы находится точка.
Если подобрать более "инженерную" формулировку, то можно написать так:
Линейная модель разбивает пространство признаков гиперплоскостью, а знак линейной функции определяет класс объекта.

Функция ниже вычисляет:
Геометрический смысл
Значение функции пропорционально расстоянию точки до разделяющей гиперплоскости.
Если – точка лежит на гиперплоскости.
Если или – по разные стороны границы.
Пример:
Нейронные сети – это следующий шаг усложнения. Каждый слой выполняет аффинное преобразование:
А затем применяет нелинейную функцию активации. Геометрически это означает, что пространство сначала линейно поворачивается и растягивается, а затем нелинейно "ломается". После нескольких таких преобразований данные, которые были неразделимы линейно, становятся разделимыми.

Несмотря на сложность архитектур, вход у нейросети всегда один и тот же – вектор фиксированной размерности.
Высокая размерность и ее последствия
Когда размерность пространства признаков становится большой, возникают эффекты, которые на интуитивном уровне кажутся странными. Объем пространства растет экспоненциально, точки становятся разреженными, а расстояния между ними выравниваются. Это часто называют “проклятием размерности”.
Для PHP-разработчика практический вывод простой: не добавляйте признаки “на всякий случай”. Каждый признак должен иметь понятный смысл и пользу для задачи.
Связь с реальными моделями
Линейная регрессия, логистическая регрессия, нейронные сети – все они работают в пространстве признаков. Разница лишь в том, какие поверхности они могут в нем строить. Линейная модель проводит плоскость или гиперплоскость. Нейросеть – сложную нелинейную форму.
Но вход у них у всех один и тот же – вектор фиксированной размерности.
Если вы четко понимаете, что означает каждый элемент этого массива и в каком пространстве он находится, половина проблем машинного обучения для вас уже решена.
Ключевая мысль
Векторы – это язык, на котором данные разговаривают с моделями. Размерность – это сложность этого языка. Пространство признаков – это сцена, на которой разворачивается все машинное обучение. Для PHP-разработчика важно перестать видеть в этом абстрактную математику и начать видеть хорошо структурированные массивы чисел, за которыми стоят реальные свойства реальных объектов.
Вся дальнейшая математика машинного обучения строится вокруг этой геометрической интерпретации: данные – это точки, модель – это поверхность, а обучение – процесс поиска формы, которая лучше всего разделяет или аппроксимирует эти точки.
Last updated