2.8Kпросмотров
18 ноября 2025 г.
stats📷 ФотоScore: 3.0K
4️⃣5️⃣6️⃣ Главный bottleneck в рекомендациях — embedding-таблицы Давно хотел рассказать про такую интересную штуку как unified embeddings, и кажется, что этот подход реально БАЗОЙ в генеративных рекомендациях. Если по-человечески, то раньше каждая фича жила в своей отдельной табличке с эмбеддингами, и, мягко говоря, при миллионах товаров или пользователей это была катастрофа. В отличие от LLM где вокабуляр составляет 40-50 тысяч токенов, мы оперируем миллионами товаров и пользователей. Поэтому мы ограничены как в расчете full CE, так и в том что-бы хранить все пространство. И вы знаете, мы неплохо научись бороться с этим бутылочным горлышком. Если нам тяжело и дорого считать всё напрямую — давайте считать приближенно. Один из таких подходов предложили исследователи Google под названием Feature Multiplexing: вместо независимых таблиц для каждого признака модель использует единое пространство эмбеддингов. Причем размеры этой таблицы мы можем задавать сами — а лукапы реализовать через агрегацию по хешам. Таким образом, один унифицированный эмбеддинг товара несёт семантику сразу из разных источников. По сути вы заставляете модель, в каком-то линейном слое, научить правильно декодировать эмбеддинг. Безусловно за все хорошее надо платить — теперь у вас открывается пассивный навык в виде 1-5% коллизий. Кроме Google unified матрицы используют Pinterest, Netflix, Yandex, WB, определенно стоит присмотреться! ➡️ Unified Embedding ❗В предыдущем посте кстати угадали альтернативную версию — semantic id. Одну из проблем мы решили, но вот вам следующий кейс: FullCE вы считать не можете у вас слишком много классов, а что тогда? MADE IN @researchoshnaya