1.1Kпросмотров
16 июня 2025 г.
Score: 1.2K
А мы продолжаем философствовать 📖 В прошлый раз вспоминали тест Тьюринга, а сегодня — эксперимент, который расколол философов ИИ на два лагеря. Знакомьтесь: «Китайская комната» Джона Сёрла. 🙂 В чём суть Представьте: вы сидите в комнате. Вам передают листок с китайскими иероглифами. При этом китайский вы не знаете, но у вас есть подробная инструкция на знакомом вам языке: «Если видишь этот символ, пиши вот это». Вы следуете правилам, не понимая смысла, но ваши ответы выглядят осмысленными. Причем ваш перевод настолько убедителен, что человек снаружи решит: «Ого вы знаете китайский!» ❔ Что это доказывает Сёрл таким образом подвергает сомнению идею «сильного ИИ» — теорию, согласно которой правильно запрограммированная машина обретает разум. Сёрл показал: обработка символов по правилам ≠ понимание. Даже если ответы модели логичны и звучат «по-человечески» — это ещё не значит, что она осознаёт сказанное. 😑 А при чём тут NLP? Да при всём. Современные языковые модели вроде GPT делают то же самое, что и человек в китайской комнате:
🔴 получают текст
🔴 применяют правила (вероятности слов)
🔴 выдают ответ Они не понимают суть текста, а просто угадывают (точнее, статистически рассчитывают), что звучит правдоподобно. Это не мышление, а его имитация. Сёрл говорил: «Компьютер не может иметь понимания просто потому, что исполняет программу». ❓ Так что вопрос, как всегда, к вам:
Если ИИ говорит разумно, но не осознаёт своих слов — можно ли считать его разумным? Или это лишь виртуозная иллюзия?