42.0Kпросмотров
10 ноября 2025 г.
📷 ФотоScore: 46.2K
Когда нейросеть ошибается, она становится собой Есть, пожалуй, единственный более-менее надёжный способ понять, с какой нейросетью ты работаешь — если это не указано прямо.
Надо просто посмотреть, где и как она ошибается. Правильные ответы у всех примерно одинаковы.
А вот ошибки — как отпечатки пальцев: свои, неповторимые, иногда гениальные, иногда пугающие. Вот пример.
Есть старая, добротная модель для транскрипции — Whisper от OpenAI.
Открытая, простая, и почти все транскрибаторы работают на ней. (даже встроенная в телеграм расшифровка голосовых)
Если загрузить в неё тишину и попросить “распознать русский текст” — она начнёт выдавать нечто странное. Сначала «Продолжение следует».
Потом — «Субтитры предоставил Дима Торжок». Такой вот призрак из обучающего датасета.
Где-то в архивах интернета, вероятно, действительно жил этот Дима Торжок, добросовестно делавший субтитры.
И теперь его имя навечно вписано в машинную память, как цифровая подпись эпохи фанатских озвучек. Происходит это из-за того, что модель не знает, что ответить.
Она хватается за случайные шаблоны из плохо размеченных данных — и выстреливает куском прошлого. Недавно, кстати, у GPT-5 нашли похожие “фантомы”: при определённых триггерах она начинает цитировать китайские порносайты и казино 🤣 Намедни я перевёл свой транскрибатор на новую систему — на мультимодальный Gemini.
Теперь это не классическая модель распознавания речи, а полноценная языковая модель, которая просто понимает звук и описывает его словами.
И, конечно, я не удержался и проверил: что она скажет на тишину. И она сказала.
Каждый раз — одно и то же: «В 1998 году, когда я был в Москве, я встретил одного человека, который сказал мне:
„Знаешь, я думаю, что в России есть два типа людей: те, кто верит в Бога, и те, кто верит в меня.“» Я искал источник — не нашёл.
Ни цитаты, ни автора.
Просто голос, который говорит из пустоты.