142просмотров
14 декабря 2025 г.
📷 ФотоScore: 156
Илья Суцкевер дал большое интервью о возможном будущем глобального суперинтеллекта. Справка о карьере Ильи от Grok:
- Родился в 1986 году в Нижнем Новгороде (Россия), вырос в Израиле, с 16 лет жил в Канаде.
- В 2012 году соавтор AlexNet — революционной нейронной сети, победившей в конкурсе ImageNet и запустившей бум глубокого обучения.
- Соосновал DNNresearch приобретённую Google; работал в Google Brain до 2015 года, развивая sequence-to-sequence learning.
- Сооснователь и главный учёный OpenAI (с 2015 по май 2024); ключевой вклад в развитие GPT-моделей и ChatGPT.
- Участвовал в временном увольнении Сэма Альтмана (2023), позже ушёл из компании.
- В июне 2024 основал Safe Superintelligence Inc. (SSI) — стартап, фокусирующийся исключительно на безопасном суперинтеллекте. Длительность интервью полтора часа. Сложное, много информации. Я осилил опять в несколько заходов.
Очень занимательны размышления о векторе развития, о том есть ли и может ли быть у ИИ душа, какие есть варианты хорошего сценария сосуществования ИИ и человека. Спойлер: на данном этапе понимания, таких вариантов нет. Не просматривается. Но есть выбор. Из плохих. Основные мысли, которые вынес я для себя: Никто не знает, как работает мозг, как и сколько вычислений он делает, какова роль и эволюционное развитие чувств и эмоций, которые крайне важны в накоплении опыта, поэтому копировать в ИИ принцип его работы кажется на данном этапе невозможным. Никто не знает, какова должна быть структура и форма взаимодействия с ИИ, потому что ни у теоретиков, ни у фантастов нет ни одной логичной модели того, как это может быть. С точки зрения прагматичности, нет ни одной причины, почему автономный глобальный ИИ будет проявлять заботу о развитии человечества. Глобальный ИИ будет очень мощным, и чтобы не вызвать слом всего - его возможности надо давать пользователю очень постепенно. Вывод, сейчас полный туман. Есть надежда что со временем, когда будет чуть больше информации и результатов, что-то позитивное появится. Верим в лучшее. И надеемся на позитивизм Ильи, который ставит себе цель - создание реально безопасного глобального интеллекта. Поэтому отказался сотрудничать и с Альтманом, и с Маском. Ссылка на интервью на русском языке.