Практические кейсы

От теории вероятности к инженерной ответственности

В предыдущей главе мы разобрали, почему LLM ошибаются математически.

Галлюцинации, сдвиг распределения, игнорирование base rate, bias, temperature – всё это не баги, а прямое следствие базовой формулы:

\hat{x}_t = \arg\max_x P(x_t \mid x_{<t})

Модель максимизирует вероятность следующего токена.

Не истину.

Не доказуемость.

Не корректность вычислений.

И именно здесь начинается зона ответственности инженера.

Понимание формул важно, но архитектурные решения важнее. В реальной системе мы не можем позволить себе “примерно правильно”. Если вы строите:

– финансовый сервис

– security-платформу

– phishing-симулятор

– AI-ассистента для бизнеса

– образовательный продукт

то математические ошибки модели становятся уже не теоретической особенностью, а операционным риском.

В следующих кейсах мы перейдём от формул к коду. Мы посмотрим, как:

– детектировать галлюцинации

– проверять вычисления

– учитывать базовые вероятности

– снижать bias

– управлять температурой генерации

– разделять вероятностный и детерминированный слой

Все примеры будут на pure PHP и с использованием RubixML – без магии, только инженерные решения.

Эта глава не про то, “как сделать модель умнее”.

Она про то, как сделать систему над моделью надёжнее.

Именно так и строятся зрелые AI-продукты – не на доверии к LLM, а на правильной архитектуре вокруг неё.

Last updated