И
Интересное что-то
@youknowds565 подп.
106просмотров
18.8%от подписчиков
18 марта 2026 г.
Score: 117
Claude врёт. И жрёт токены. Я нашёл способ это пофиксить. Уже прошло несколько недель, как я начал экспериментировать с ним. От фронтенда до написания архитектуры, но сейчас расскажу про одну киллер-фичу, которая вам точно понравится. Я уже не раз упоминал про NotebookLM и его шикарным дип-ресерчем и поиском, по которому можно учиться, но пост не о том, как пользоваться функционалом внутри и заполнять конспекты. У Claude, как и у любой модели есть проблемы: 1. Наличие галлюцинаций. Claude этому подвержен, но в меньшей степени, как мне показалось. 2. Додумывание того, что не знает. Любая LLM сейчас это по сути вероятностные модели, которые определяют следующие слова (если можно упростить), есть вероятность того, что занесет не в то русло. В очередной раз для составления конспектов мне пихали нерелевантную инфу, например, для сравнения средний с помощью Mann-Whitney, что является уже неправильным и нужно опираться на более надежные источники или понимать предметную область. 3. Большое количество токенов на поиск информации. После того, как я слез с Codex, понял, что токены нужно тратить с умом, особенно, в контексте Claude, а еще лучше, когда он у тебя за 20 баксов. Поэтому сейчас отдаю 100 🚘 А что если попытаться убить двух зайцев сразу? Меньше додумывать и тратить меньше токенов? Как будто сложно, не правда ли? 💸 Есть решение связать по MCP Claude с NotebookLM. Один человек написал (кстати, с помощью Claude) самописный MCP, лежит в открытом доступе. Можете ради интереса развернуть такой же, либо сделать все по инструкции, предварительно принимая все риски и вуаля, MCP готов. Ставится очень просто. Если вы в РФ, нужно прокинуть прокси на использование в настройки, чтобы Claude обращался напрямую. А дальше остается дело за малым: прописать инструкцию в агента или вынести отдельный скилл, чтобы Claude общался по источникам и забирал нужную инфу, если этого не нашел, то переключался в формат ресерча. С Pro версией можно вообще создать несколько ноутбуков и загрузить до 300 источников, каждый из которых может содержать до 500к слов. Более подробно сравнение контекстных окон с другими модельками можно посмотреть тут. Что получаем? 1. Ресерч становится быстрее и качественнее 2. Claude ест меньше токенов 3. Меньше ошибок 4. Можно быстрее построить базу знаний (например, для того же Obsidian) И все, пользуемся. За наводку спасибо @strangethemrgrench. Уверен, что еще можно найти полезных тулзов, которые упрощают жизнь при использовании агентов. Если тема зашла, ставьте 🐳, продолжу и дальше искать интересные темы, которые упростят разработку. Кстати, на сайте будут скоро большие изменения, не переключайтесь! @zasql_python
106
просмотров
2677
символов
Да
эмодзи
Нет
медиа

Другие посты @youknowds

Все посты канала →
Claude врёт. И жрёт токены. Я нашёл способ это пофиксить. Уж — @youknowds | PostSniper