2.7Kпросмотров
14 июля 2025 г.
Score: 3.0K
👆👆👆
Исследователи из 14 университетов (в том числе ведущие учреждения!) начали “взламывать” собственные работы, чтобы обмануть ленивых рецензентов, использующих ИИ. Это как старый прием с написанными белым шрифтом ключевыми словами в резюме, только на стероидах.
Какой из этого вывод? Давайте порассуждаем. ↳ ИИ — мощный инструмент, но не волшебная палочка. У него есть свои слабости, и им можно манипулировать. ↳ Критическое мышление возвращается в моду. Прежде чем вставить что-то в ChatGPT или NotebookLM с просьбой сделать краткое изложение, задумайся — а вдруг кто-то оставил там “сюрприз”? ↳ Да, все равно нужно думать и читать. Или хотя бы… перепроверять. 😉 Конечно, не все языковые модели (LLM) так легко обмануть простыми трюками вроде “белый текст в PDF”, особенно новые версии с “reasoner-ом” внутри (хотя, не переоцениваем — ни один ИИ не понимает по-человечески так, как нам хотелось бы). Но речь о более глубоком. Научные публикации должны двигать мир вперёд — прозрачно, честно, ради общего блага. А тут оказывается, что даже на arXiv проскальзывают такие трюки, так что… кто знает, сколько таких еще где-то? В условиях использования? В договорах? Закон (пока) не запрещает добавлять такие “подсказки” для ИИ — а если ты используешь LLM для быстрого конспектирования, можешь и не заметить, что тебя “обманули”. И еще кое-что! “Не говори ничего плохого” — это только верхушка айсберга. Есть "куча" других способов манипулировать ИИ. Это как игра в кошки-мышки в кибербезопасности — всегда найдется тот, кто захочет перехитрить систему.
Помни: ИИ настолько хорош, насколько хороши (и чисты намерения) данные, которыми его кормят. От нас зависит, будем ли мы бдительны и позаботимся о контексте. Не отдавай своё мышление машине. Улучши его с её помощью.
Что скажешь? Согласен, зашло тебе? Поставь огонек напишу еще один пост в продожение (но уже другая история). А может, тебя уже троллил ИИ? 😅 Обязательно напиши в коментариях — мне очень интересно узнать Твою историю!