Идея Связать теорию расстояний из предыдущих глав с embeddings.
Сценарий Берем те же векторы, что и в Кейсe 1.
Что делаем – считаем: – евклидово расстояние – косинусную близость – сравниваем результаты ранжирования
Вывод – показываем, что длина вектора и масштаб ломают евклидову метрику – объясняем, почему embeddings почти всегда нормализуют
Это редкий, но очень ценный кейс – он учит думать, а не просто повторять рецепты.
Last updated 2 months ago