Семантический поиск vs полнотекстовый: сравниваем три embedding-модели на 10 000 категорий Ozon
Сравнил полнотекстовый поиск PostgreSQL ( tsvector / tsquery + GIN-индекс) с семантическим поиском через pgvector ( cosine distance ) на датасете из 10 019 товарных категорий Ozon. Три embedding-модели: GigaChat EmbeddingsGigaR (Сбер, 2560-мерные векторы, API) Qwen3-Embedding-0.6B (Alibaba, 1024-мерные, локальный инференс через HF Text Embeddings Inference на GPU) text-embedding-3-small (OpenAI, 1536-мерные, API) Прогнал 18 запросов в пяти категориях: синонимы и сленг, intent-запросы в свободной форме, подарочная тематика, cross-lingual (EN-запросы к RU-данным), абстрактные формулировки. Замерил латентность и top-5 с cosine similarity score. Разбор каждого запроса, таблицы и код — под катом.
https://habr.com/ru/articles/1010200/
#искусственный_интеллект #gigachat #openai #qwen #embeddings

