AI для PHP-разработчиков: интуитивно и на практике
search
⌘Ctrlk
AI для PHP-разработчиков: интуитивно и на практике
  • house-windowВведение
    • Титульный лист
    • Оглавление
    • Дисклеймер
    • Введение
    • Экосистема ML в PHP
    • О книге
    • Глоссарий
    • Ресурсы и литература
  • Часть I. Математический язык AI
    • Что такое модель в математическом смысле
    • Векторы, размерности и пространства признаков
    • Расстояния и сходство
  • Часть II. Обучение как оптимизация
    • Ошибка, loss-функции и зачем они нужны
    • Линейная регрессия как базовая модель
    • Градиентный спуск на пальцах
  • Часть III. Классификация и вероятности
    • Вероятность как степень уверенности
    • Логистическая регрессия
    • Почему наивный Байес работает
  • Часть IV. Близость и структура данных
    • Алгоритм k-ближайших соседей и локальные решения
    • Decision Trees и разбиение пространства
  • ЧАСТЬ V. ТЕКСТ КАК МАТЕМАТИКА
    • Почему слова превращаются в числа
    • Bag of Words и TF–IDF
    • Embeddings как непрерывные пространства смысла
    • Трансформеры и контекст: от статических векторов к пониманию смысла
    • Named Entity Recognition (NER) – извлечение сущностей из текста
    • Практика: эмбеддинги на PHP с помощью трансформеров
    • RAG: Retrieval-Augmented Generation как инженерная система
  • Часть VI. Attention и нейросети
    • Перцептрон и полносвязная сеть
    • Backpropagation – почему он работает
    • Attention как взвешенное суммирование
      • Практические кейсы
        • Кейс 1. Attention для анализа фишингового письма (чистый PHP)
        • Кейс 2. Attention как агрегатор признаков (anti-fraud)
        • Кейс 3. Attention поверх embedding-поиска (LLM + PHP backend)
        • Кейс 4. Attention вместо среднего в RubixML
        • Кейс 5. Attention для агрегации истории пользователя
        • Кейс 6. Визуализация внимания для awareness-обучения
        • Кейс 7. Мини-Transformer на PHP (toy)
  • Часть VII. LLM и современный AI
    • Почему LLM – это модели next-token prediction
    • Где LLM ошибаются математически
  • Часть VIII. Агентные системы и оркестрация
    • Агентные системы и multi-step reasoning в PHP
  • Часть IX. Продакшен и здравый смысл
    • Как использовать AI в PHP-проектах
    • Когда AI не нужен и почему это важно
  • Заключение
    • Куда двигаться дальше
gitbookPowered by GitBook
block-quoteOn this pagechevron-down
  1. Часть VI. Attention и нейросетиchevron-right
  2. Attention как взвешенное суммирование

Практические кейсы

Кейс 1. Attention для анализа фишингового письма (чистый PHP)chevron-rightКейс 2. Attention как агрегатор признаков (anti-fraud)chevron-rightКейс 3. Attention поверх embedding-поиска (LLM + PHP backend)chevron-rightКейс 4. Attention вместо среднего в RubixMLchevron-rightКейс 5. Attention для агрегации истории пользователяchevron-rightКейс 6. Визуализация внимания для awareness-обученияchevron-rightКейс 7. Мини-Transformer на PHP (toy)chevron-right
PreviousAttention как взвешенное суммированиеchevron-leftNextКейс 1. Attention для анализа фишингового письма (чистый PHP)chevron-right