3.7Kпросмотров
46.4%от подписчиков
12 февраля 2026 г.
📷 ФотоScore: 4.0K
Наконец-то это случилось! Спикер клиента нашего PR-агентства предъявил нам за длинные тире — что это явный признак генерации моделью. Получается, мы эксперты по использованию нейросетей с 1762 года, ещё с Карамзина и Фонвизина. А если серьёзно, то почти все генераторы текстов уже давно знают про этот прикол и генерируют с дефисами вместо тире и другой грязью. Вот скриншот, например. Смотреть надо за другим. Я для себя сделал LLM-детектор по таким признакам:
— Избыточная симметрия: примеры по одной схеме (три персонажа, три числа, три исхода)
— Списки слишком параллельны: одинаковая структура, одинаковая длина пунктов. Человек бы где-то сбился, добавил деталь, один пример сделал длиннее.
— Нет опечаток, оговорок, самокоррекции, нет эмоциональных вставок, нет отступлений от темы, побочных наблюдений, нет незавершённых мыслей.
— Стабильная перплексия по всему тексту.
— Языковой регистр почти без колебаний от начала до конца
— Нет "плавания" формальных параметров текста между блоками
— Каждый абзац — ровно один тезис
— Нет смешения мыслей
— Структура "проблема → примеры → закон → вывод" без единого отклонения
— Долбанутые суммации в начале пунктов списков.
— Шаблонные повороты и другие риторические приёмы, которые следуют из системных промптов конкретных моделей. Всё это не гарантия детекции, это веса. Задача-то в целом не сдетектировать LLM-текст, а сдетектировать достаточно тупой текст )