Кейс 3. Кластеризация смыслов без ML-библиотек

Идея Показать, что embeddings автоматически создают структуру.

Сценарий Есть 10–15 векторов, представляющих тексты разных тем.

Что делаем – считаем попарные расстояния – простейшая кластеризация: – либо k-means вручную (упрощенно) – либо порог по cosine similarity

Результат – группы документов формируются без «классов» и «правил»

Это отличный мост к пониманию unsupervised learning.

Last updated