358просмотров
22.2%от подписчиков
20 марта 2026 г.
📷 ФотоScore: 394
ИИ уже невозможно контролировать в принципе. Это не история про конец света, а про то, что мы больше не можем притворяться, будто всё под контролем. Профессор Колин Льюис выразил эту мысль короткой метафорой: «Ворота ИИ уже исчезли» — то есть барьер, который должен был сдерживать развитие ИИ, больше не существует. Почему ворота исчезли? - Технологии стали слишком доступными. Раньше создать мощную ИИ‑модель стоило миллионы долларов. Сейчас это в 10 раз дешевле, и даже небольшая команда с хорошим компьютером может обойти защитные механизмы, которые крупные компании (например, OpenAI) создавали годами. На практике «защита» часто иллюзорна: фильтры и ограничения легко обходятся с помощью специальных техник; если запрещать ИИ изучать что‑то (например, как работает вирус), мы лишаем учёных важного инструмента для исследований. - ИИ это не «разум», а мощный инструмент. К 2025 году стало ясно, что ИИ не думает, как человек. Он просто выполняет задачи — и ему всё равно, какие будут последствия. Проблема в том, что: мы перевели почти всё в цифровой формат и отдали на обработку алгоритмам; вместо того чтобы заставить ИИ адаптироваться к нашим правилам, мы сами меняем законы и институты, чтобы ИИ было проще их обходить. - Риски ИИ — это вопрос политики и устройства общества. Технические решения (улучшенные фильтры, детекторы дипфейков) не спасут, если общество не готово к вызовам. Примеры: если ИИ взломает энергосистему, проблема не в «плохом» ИИ, а в том, что город не умеет быстро восстанавливаться самостоятельно; если дипфейк повлиял на выборы, нужно не просто лучше распознавать подделки, а иметь смелость провести выборы заново. По мотивам поста Сергея Корелова