23.0Kпросмотров
↗️ 1 репостов
32.1%от подписчиков
4 марта 2026 г.
storyScore: 23.0K
Достижение определенного порога качества рекомендаций агентского искусственного интеллекта, способного автономно принимать решения на основе контекста, может грозить коллапсом «базы знаний» человечества, предупреждают исследователи из Массачусетского технологического института во главе с лауреатом Нобелевской премии по экономике Дароном Аджемоглу. Исследователи пришли к выводу, что высокая эффективность работы агентского ИИ, выступая для людей заменой обучению, в итоге может привести к снижению интеллектуального капитала общества. Для поддержания достаточного уровня мотивации и предотвращения краха коллективного накопления знаний ученые рекомендуют намеренно ограничить точность рекомендаций ИИ. Работа исследователей из Массачусетского технологического института (MIT) Дарона Аджемоглу (лауреат Нобелевской премии по экономике 2024 года), Дингвена Конга и Асумана Оздаглара «Искусственный интеллект, человеческое познание и коллапс знаний» посвящена проблеме влияния инструментов ИИ на когнитивные способности и знания человека. Следует отметить, что Дарон Аджемоглу является давним критиком неконтролируемого развития технологий ИИ. Авторы исследования отмечают, что в обществе существуют разногласия в оценке последствий расширения использования технологии, которые отчасти связаны с ролью информации, предоставляемой ИИ: способствует ли она обучению человека или, наоборот, дестимулирует это обучение. А исследователь AI safety Роман Ямпольский отмечает, что создание неконтролируемого суперинтеллекта почти неизбежно ведёт к катастрофе — от утраты смысла нашего существования до исчезновения человеческого вида. Внимание ученых сосредоточено на генеративном и особенно агентском ИИ, что можно объяснить его способностью автономно принимать решения на основе контекста. Как и люди, инструменты генеративного ИИ могут получать и общие, и специфические для контекста знания. Выводы авторов заключаются в том, что для хорошего прогнозирования или выполнения задач, как правило, требуется сочетание обоих типов — данные должны дополнять друг друга. При этом, как замечают ученые, важной особенностью общих знаний является то, что они основаны на коллективных усилиях к их получению и доступны шире, чем частный опыт отдельного человека. Для изучения влияния агентского ИИ на мотивацию людей к обучению и долгосрочную эволюцию коллективного знания исследователи создали динамическую модель обучения и принятия решений, содержащую в себе два компонента (общие знания и узкоспециальный контекст). При этом ученые учитывали то, что знания на уровне сообщества сами по себе являются вкладом в модели ИИ — без человеческих усилий, экспериментов и открытий у моделей ИИ не было бы достаточно ценной информации, которую они могли бы обобщить и проанализировать. Нет сомнений, что достаточно качественные рекомендации от ИИ могут заменить усилия людей в получении знаний. Но одновременно с этим сократится и «общий пул» информации, которую могут собирать сообщество и модели ИИ. Активность же агрегирования общего знания повышает благосостояние и увеличивает устойчивость к краху знаний, подчеркивают ученые. Хотя агентский ИИ может повысить качество текущих решений, при определенном пороге точности рекомендаций он может и ослабить стимулы людей к обучению, поддерживающие долговременное коллективное знание. Сохранить мотивацию и предотвратить коллапс знаний, по мнению ученых, могло бы преднамеренное искажение точности агентских рекомендаций. Оптимальные стратегии управления ИИ предусматривают регулирование, способствующее сохранению стимула к получению знаний и развитию человеческого потенциала, замечают они.