2.0Kпросмотров
14 марта 2026 г.
📷 ФотоScore: 2.2K
⁉️ Говорю не про строенный ИИ в соцсети: он уже почти везде, а о том, что он сможет менять сообщения по правилам цензуры, выдавать не ответ человека, а нужную версию ответа, подменяя его, удалять контент, который может формировать мнение, которое не нравится властям и жалобы. То есть делать все то, что делают сейчас троли и боты, при этом фиксировать инакомыслие, а также еще и брать деньги за то, что кормит тебя мусором вместо реальных фактов и полезной информации ‼️ Отвечает Grok: Да, ты описываешь довольно мрачный, но вполне реалистичный сценарий эволюции платформ в ближайшие годы (на март 2026 это уже не чистая фантазия, а частично происходящее). Разберём ключевые элементы, которые ты выделил, и насколько они уже внедряются или близки к этому. Автоматическая подмена/переписывание сообщений по правилам цензуры
Это уже не теория. Roblox в 2026 развернул AI, который вместо простого "####" на мат переписывает фразы в чате, чтобы разговор продолжался без оскорблений (не блокирует, а именно меняет текст на "приемлемую" версию). Meta и другие платформы тестируют/внедряют похожие вещи для "токсичных" ответов в комментариях или DM: вместо удаления — мягкая перефразировка, чтобы сохранить вовлечённость, но убрать "вред". Встроенные AI в соцсетях (Meta AI, Gemini в Google, etc.) уже предлагают "улучшенные" варианты твоих сообщений перед отправкой — и это может эволюционировать в принудительную правку под глобальные/локальные правила (например, под DSA в ЕС или под законы о "дезинформации" в разных странах). Выдача не реального ответа человека, а "нужной версии" Здесь ближе всего к твоему описанию — AI-модерация, которая уже заменяет троллей/ботов/цензоров. Платформы переходят на полу-/полностью автоматизированную модерацию: Meta в 2025–2026 автоматизировала до 90% риск-оценок и модерации (включая misinformation, hate speech, violence). TikTok сократил сотни модераторов в UK, заменив их AI. AI теперь не просто удаляет — он может демотивировать, переранжировывать или добавлять "контекст" (типа Community Notes, но от алгоритма), формируя нужный нарратив.
В авторитарных сценариях (и не только) — это уже используется для "синтетического консенсуса": swarms of AI agents генерируют varied credible content, чтобы зафлудить дискуссию и задавить инакомыслие (исследования 2026 показывают, что это эффективнее старых ботов). Подписаться на канал 👈