568просмотров
18.8%от подписчиков
7 марта 2026 г.
questionScore: 625
Что если лучший способ бороться с тем, что ИИ отнимает у нас работу… — дать ИИ другую работу? Гостевой пост от Александра Дорфа, читателя канала. +++ Все сейчас переживают, что AI-агенты отнимут у людей работу. Они уже пишут посты, отвечают на письма, генерируют отчёты, комментируют, ставят лайки, планируют задачи и оптимизируют процессы. И во многих случаях они обучаются на той самой активности, которую люди создавали, выполняя эту работу. Получается такой цикл: Люди создают активность → активность становится тренировочными данными → ИИ обучается → #ИИ заменяет эту активность. Недавно я наткнулся на новость о патенте от Meta Platforms, описывающем системы ИИ, которые могут продолжать присутствие человека в социальных сетях после его смерти — публиковать посты, комментировать и взаимодействовать на основе его прошлой активности. И это навело меня на странную мысль. Если AI-агенты обучаются на наших цифровых следах… значит эти следы — ещё и их будущая работа. Поэтому я решил провести небольшой эксперимент с обратным ходом. Я создаю агента, единственная задача которого — постепенно удалять мои лайки, комментарии и другие взаимодействия в #соцсети Не ради приватности. Ради трудовой политики. Люди обучили машины. Машины заменяют людей. Теперь люди используют агентов, чтобы стирать тренировочные данные. ИИ помогает людям лишить будущий ИИ работы. Странная симметрия. Конечно, я понимаю, что удаление контента не означает его мгновенное исчезновение отовсюду. Платформы могут хранить данные на серверах какое-то время, а исторические датасеты могут продолжать существовать. Но после удаления возникает другой вопрос: легитимность их дальнейшего использования. Некоторые платформы удаляют контент из интерфейса, но сохраняют агрегированные сигналы для улучшения своих систем — например Snapchat. Но насколько это пригодно для воссоздания конкретного человека? Модель, обученная на анонимных сигналах, улучшает систему. Модель, обученная на личной истории, воспроизводит человека. Удалите достаточную часть этой истории — и у будущего «цифрового двойника» может просто не остаться данных для обучения. Люди создают данные. ИИ их потребляет. Люди используют ИИ, чтобы их стирать. Цикл постепенно замыкается. И в какой-то момент система начинает напоминать Ouroboros — змею, спокойно поедающую собственный хвост. P.S. Существует также новое направление — machine unlearning (машинное «разучивание»): технологии, позволяющие моделям ИИ целенаправленно «забывать» конкретные данные, на которых они обучались. В теории это может стать техническим аналогом «права на забвение» для моделей ИИ. Так что даже если корпорации не смогут юридически или технически использовать мои данные для создания моего цифрового двойника в будущем… остаётся ещё одна мысль. История показывает: когда что-то становится ценным, рано или поздно появляются копии где-то ещё. И тогда возникает финальный философский вопрос: если официальный цифровой двойник так и не появится… не появится ли где-нибудь на глобальном AI-сером рынке его слегка неофициальная версия? #ArtificialIntelligence #FutureOfWork #DigitalIdentity #MachineLearning #DataEthics #DigitalLegacy #AI
568
просмотров
3183
символов
Нет
эмодзи
Нет
медиа

Другие посты @futurin

Все посты канала →
Что если лучший способ бороться с тем, что ИИ отнимает у нас — @futurin | PostSniper