743просмотров
39.7%от подписчиков
27 февраля 2026 г.
Score: 817
Человек ответственный По моим наблюдением одним из фундаментальных блокеров для массового внедрения ИИ остается роль человека, как субъекта ответственности. Привычный оргдизайн подразумевает, что есть человек с полномочиями и ответственностью и если что-то идет не так, всегда есть виноватый. У проблемы всегда есть фамилия, говорил один усатый диктатор. На первый взгляд в чем тут проблема? Люди работают с Co-pilot и должны перепроверять их выводы, логично что они используют ии как инструмент, но несут ответственность за результат. Но чтобы раскрыть настоящий потенциал ИИ, нужно выстраивать сложные логики из автономных агентов и по-честному, человек уже слабо может перепроверить настолько большой кусок работ. А чаще, ему будет просто лень это делать. Это проблема о которой Лем писал в Сумме технологий, рано или поздно мы окажемся перед дилеммой верить ли выводам машины, которые мы принципиально не способны перепроверить. Мы строим модели управления, где вину за ошибку должен принять на себя кто-то из белковых, потому что судов и тюрем для ИИ мы не придумали. Разработчики ИИ честно говорят, что у них лапки, потому что модели имеют стохастичекую природу и тут не получится предъявить как классиеческому вендору. Отсюда вытекает мысль, что оргдизайн компаний, где работают люди и агенты должен быть более толерантен к риску. Чтобы высвободить потенциал ИИ нужно будет пересмотреть логику распределения вины и ответственности внутри структур. Компании эпохи GenAI - это в первую очередь новый тип организационных структур.