452просмотров
20.5%от подписчиков
2 марта 2026 г.
📷 ФотоScore: 497
Отличная база от Бритни Мюллер:
«LLM отдают предпочтение контенту, сделанному по схеме X» — это миф! У LLM нет предпочтений. Это не системы поиска информации; это предсказатели следующего токена. Они подбирают наиболее статистически вероятный ответ на основе закономерностей в обучающих данных. Надстройка в виде поисковой системы сверху, реализованная с помощью RAG? Это и есть информационный поиск (IR - Information Retrieval)! Базовая LLM? Даже близко не стояла. Во время обучения LLM поглощают тексты со всего интернета, но они не регистрируют URL'ы, не хранят источники и не помнят, откуда что-либо взялось. Остается лишь замороженный статистический слепок (Gao et al., 2023). Не индекс. Не база данных. Поисковые системы выполняют сканирование, индексирование и поиск (извлечение данных). LLM-модели сильно полагаются на них для отображения информации в реальном времени (потому что сами по себе они этого сделать не могут). Прекратите «оптимизировать для ИИ». Оптимизируйте для поисковых систем (чтобы ИИ-поиск мог ссылаться на вас).
+ обеспечьте упоминания в сторонних источниках (чтобы модель уже знала вас до того, как будет введен промпт).