Ошибка, loss-функции и зачем они нужны
MSE, log loss – без формального ада.
Ошибка, loss-функции и зачем они нужны
Любая модель машинного обучения сводится к простой идее: она пытается приблизить реальность функцией. А значит, между тем, что есть на самом деле, и тем, что говорит модель, всегда будет расхождение. Это расхождение мы и называем ошибкой.
Важно сразу понять одну вещь: модель не знает, что такое "хорошо" и "плохо". Она не понимает смысл задачи. Всё, что она умеет – уменьшать число, которое мы ей дали. Это число и есть loss. Формально ошибка – это отклонение между и , а loss – функция, которая превращает это отклонение в число, удобное для оптимизации.
Ошибка как расстояние
Пусть у нас есть реальное значение y и предсказание модели . Самое естественное, что приходит в голову – посмотреть на разницу:
Но такая ошибка неудобна. Она может быть отрицательной и положительной. Если у нас много объектов, ошибки начнут компенсировать друг друга.
Геометрически это выглядит так: мы смотрим, насколько далеко предсказание отстоит от реального значения на числовой прямой.

По сути, мы хотим превратить отклонение в расстояние.
В регрессии ошибку удобно интерпретировать как расстояние, но не каждая loss-функция является расстоянием в строгом смысле.
В MSE – да, это квадрат евклидова расстояния (средний квадрат евклидовой нормы ошибки).
В log loss (logarithmic loss) – это уже не метрическое расстояние, а дивергенция
А значит, мы сразу приходим к идее: ошибка должна быть неотрицательной.
Квадрат ошибки как наказание за промах
Самый простой способ убрать знак – взять модуль. Но в ML чаще всего берут квадрат:
Почему?
Во-первых, возведение в квадрат делает функцию гладкой и везде дифференцируемой, что критически важно для применения градиентной оптимизации и обеспечивает удобство при обучении модели.
Во-вторых, квадрат усиливает большие ошибки.
Если ошибка выросла в 2 раза, штраф вырастает в 4 раза:
Это важный философский момент: мы заранее говорим модели, что редкие, но большие промахи хуже, чем много маленьких.
Mean Squared Error (MSE)
Если объектов много, мы усредняем квадраты ошибок:
С точки зрения геометрии, MSE – это средний квадрат расстояния между точками и предсказаниями.
Если представить данные как точки на плоскости, а модель как линию или поверхность, MSE измеряет, насколько далеко точки находятся от этой поверхности.

Немного полезной математики
Почему MSE так часто используют? Потому что минимум MSE ведёт себя очень предсказуемо.
Если модель линейная:
то MSE как функция параметров w и b является выпуклой функцией (по параметрам модели).
Это означает:
у неё один глобальный минимум
антиградиент (обратное направление градиента) указывает путь к уменьшению функции ошибки
обучение стабильно

Это одна из причин, почему линейная регрессия – базовый и надёжный инструмент.
Связь MSE и нормального распределения
Есть ещё один важный, но часто неявный факт. Минимизация MSE эквивалентна максимизации правдоподобия в том случае, если мы предполагаем, что ошибки распределены нормально:
В этом случае минимизация MSE эквивалентна максимизации правдоподобия.
Иначе говоря, MSE – это не просто удобная формула. Это зафиксированная гипотеза о природе шума в данных.
Почему MSE не подходит для классификации
Теперь представим задачу "да/нет". Например, спам или не спам.
Реальное значение:
Предсказание модели:
Если использовать MSE, то ошибка для 0.99 и 0.51 не отражает принципиальной разницы в уверенности, если правильный ответ – 1. Но интуитивно мы чувствуем, что это не одно и то же качество предсказания.
MSE слабо различает степень уверенности и не соответствует вероятностной природе задачи.
Нам важно не просто угадать, а насколько модель уверена в ответе.
Log loss как цена уверенности
Log loss решает именно эту проблему. Для одного объекта:
Если y = 1, остаётся только:
График этой функции очень показателен.

– при ошибка стремится к нулю
– при ошибка стремится к бесконечности
Это математическое выражение идеи:
Быть уверенно неправым – почти преступление.
Геометрический смысл log loss
Log loss можно интерпретировать как меру расхождения между реальным распределением и предсказанным распределением вероятностей.
Формально это частный случай кросс-энтропии:
Где:
– – истинное распределение
– – распределение модели

Это делает log loss естественным выбором для вероятностных моделей.
Сравнение MSE и log loss интуитивно
MSE спрашивает:
Насколько далеко мы промахнулись по значению?
Log loss спрашивает:
Насколько мы ошиблись в своей уверенности?
Именно поэтому можно использовать практическое правило выбора в большинстве практических случаев:
– регрессия → MSE
– классификация → log loss
Итоговая мысль
Loss-функция – это единственный способ общения с моделью. Через неё мы объясняем, что считаем ошибкой, что считаем катастрофой, а что допустимым компромиссом.
Модель не знает ничего ни о деньгах, ни о спаме, ни о смысле текста. Она знает только одно: куда двигаться, чтобы уменьшить loss.
В следующей главе мы увидим, как минимизация loss превращается в конкретный алгоритм обучения – через градиенты и обновление параметров.
Last updated