1.4Kпросмотров
31.4%от подписчиков
26 марта 2026 г.
📷 ФотоScore: 1.6K
👤👤👤👤
👩💻 ИИ без иллюзий: почему языковые модели ошибаются, даже когда знают ответ Мы привыкли, что искусственный интеллект может почти всё: от написания кода до анализа данных. Но между «знать информацию» и «уметь рассуждать» лежит огромная пропасть. Разобрали, почему даже самые продвинутые модели иногда ведут себя нелогично. 🔖 В новой статье на Хабре Валерий Шабаев, Python-разработчик в ТехВилле, объясняет, почему наличие качественных данных не гарантирует правильный вывод. Внутри рассказали про три ключевых барьера:
👍Разрыв между доступом и логикой: почему RAG (подключение внешней базы знаний) помогает модели не галлюцинировать, но не учит её правильно интерпретировать сложные инструкции.
👍 Ловушки в медицине: как на примере датасета ROND видно, что модели могут давать верный ответ при абсолютно неверном обосновании — критическая ошибка для серьезных областей.
👍 Концептуальный дрейф: почему любая модель со временем «глупеет» из-за изменения данных и почему методы адаптации вроде LoRA работают лучше обычного промпт-тюнинга. #экспертыВВ 👤💬