2.5Kпросмотров
1 марта 2026 г.
Score: 2.8K
LLM-модели довольно отвратительно делают аналитику по коду, если нет возможности его запустить. Допустим, функция A имеет баг, из-за этого искажается вывод функции B, из-за этого неправильно работает функция С. Современная LLM-модель в большинстве случаев, если ей вдруг не повезет, максимум проверит функцию В и сообщит что всё это не работает "по неизвестным причинам". Если разрешить код запускать - дело уже меняется. LLM может читать и писать код, запускать команды, обкладывать узкие места принтами самостоятельно и постепенно добираться до места проблемы, если хорошо попросить это сделать. Тем не менее, не следует забывать что LLM - малая часть AI и делать на ней все задачи - это всё равно что пытаться играть с ней в шахматы, вместо AlphaZero. Задача LLM - проанализировать данные и предметную область и посоветовать, подключить или даже создать другую модель, которая подходит под конкретную задачу, если ее нельзя решить алгоритмическими методами, наслопав код. Чем, кстати и занимается тот же GPT - он не рисует сам и не анализирует ваши картинки, например, это - оркестратор-аналитик модельного пула, находящегося у него за спиной.