3.9Kпросмотров
51.9%от подписчиков
20 сентября 2025 г.
Score: 4.3K
Элиезер Юдковский, один из родоначальников безопасного ИИ, остается последовательным в своей позиции последние 20 лет: сверхразумный ИИ может стать катастрофой. А на днях он решил выпустить свою монографию If Anyone Builds It, Everyone Dies, где он вновь призывает остановить исследования. Скептики видят в книге аргумент за жёсткое регулирование, оптимисты — повод ускорять инвестиции. И вот даже такой труд теперь больше инструмент экономической игры, чем предсказание будущего.