📋 Три модели ответственности за ошибки AI-агента Модель 1: «Инструмент» Агент = калькулятор. Вся ответственность на операторе. + Просто юридически − Люди боятся использовать Модель 2: «Supervised Autonomy» Агент автономен в рамках. За пределами — эскалация. + Баланс скорости и контроля − Сложная настройка границ Модель 3: «Full Autonomy + Insurance» Агент полностью автономен. Риски застрахованы. + Максимальная скорость − Дорогая страховка Для большинства — модель 2. Определяем границы: типы зад...
Futex 🤖 Внедрение ИИ
Канал компании Futex: - новости индустрии ИИ - возможности ИИ в бизнесе - аналитика —————— Консультация по внедрению ИИ https://t.me/anatoly_lapkov
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
20 из 20⚠️ Агент согласовал договор. В договоре ошибка. Компания потеряла деньги. Кто виноват? Разработчик? Оператор? Руководитель? Завтра на VC.ru — статья про три модели ответственности. Как распределить риски до того, как что-то пойдёт не так.
📝 Что должно быть в документах перед запуском AI-агента 1. Регламент использования Кто может запускать. Какие задачи можно делегировать. Процедура при ошибке. 2. RACI-матрица Для каждого типа операций: кто исполняет, кто отвечает, кого консультируют, кого информируют. 3. SLA Допустимый % ошибок. Время реакции на инцидент. Процедура компенсации. 4. Границы автономии Суммы, типы задач, уровень уверенности — где агент сам, где спрашивает. Без этого первый провал превратится в хаос с взаимными обви...
❓ Вопросы подрядчику перед внедрением AI-агента 1. Что произойдёт, если API провайдера станет недоступен? 2. Есть ли резервный LLM? Протестирован ли он? 3. Где хранятся задачи, которые не удалось обработать? 4. Как я узнаю, что система деградировала? 5. Какой SLA вы гарантируете? Если на эти вопросы нет чётких ответов — вы получите систему, которая упадёт в самый неподходящий момент.
📄 Новая статья на VC.ru «Что делать, когда AI-агент «упал»: архитектура отказоустойчивости» За год работы с AI-агентами собрал коллекцию сбоев: — OpenAI лёг (2-3 раза в год крупные) — Лимиты кончились — Интернет пропал — База знаний недоступна — Бесконечный цикл в коде Каждый из них может парализовать работу. В статье: — 5 принципов отказоустойчивости — Как настроить circuit breaker и fallback — Пример SLA для AI-системы — Чеклист из 8 вопросов подрядчику Ссылка: https://futex.online/blog/ru/04...
💥 Понедельник, 9 утра. API OpenAI лёг. Что делает ваш AI-агент? Правильно — ничего. А процессы, которые от него зависят? Встали. Завтра на VC.ru — архитектура отказоустойчивости. Graceful degradation, circuit breaker, fallback. И чеклист вопросов подрядчику.
🧠 «К Петрову лучше не ходить в пятницу после обеда». Это знает каждый в офисе. Но нигде не записано. Как передать такие знания AI-агенту? Завтра на VC.ru — про tacit knowledge и методы его извлечения: shadowing, плейбуки, RAG.
⚡️ API OpenAI лёг. Что происходит? Плохой сценарий: Агент падает с ошибкой. Задачи теряются. Никто не знает, что произошло. Процессы стоят. Хороший сценарий: 1. Circuit breaker срабатывает после 5 ошибок 2. Переключение на резервный LLM (Claude/GigaChat) 3. Если и резервный недоступен — задачи в очередь 4. Уведомление оператору 5. Через час — автоматическая проверка, восстановление Разница — в архитектуре. Первый вариант — «сделаем потом». Второй — заложено с начала.
🔄 Почему нельзя зависеть от одного LLM-провайдера OpenAI может: — Лечь на несколько часов — Поменять цены (уже было) — Изменить API (ломает интеграции) — Ограничить доступ из России (теоретически) Поэтому: — Primary: OpenAI GPT-4 — Fallback 1: Anthropic Claude — Fallback 2: GigaChat (локальный, без зависимости от зарубежных сервисов) Важно: fallback должен быть протестирован заранее. Нельзя в момент сбоя узнать, что резервная модель не понимает ваши промпты.
📄 Новая статья на VC.ru «Кто виноват, если AI-агент ошибся: три модели ответственности» AI-агенты ошибаются. GPT-4 галлюцинирует в 3-5% случаев. В реальных бизнес-процессах — чаще. Вопрос не в том, ошибётся ли агент. Вопрос — что будет, когда он ошибётся. В статье разобрал три модели: — «Инструмент» — вся ответственность на операторе — «Supervised Autonomy» — агент автономен в рамках — «Full Autonomy + Insurance» — риски застрахованы Плюс: как это оформить юридически. RACI-матрица, регламенты, ...