263просмотров
31 января 2026 г.
📷 ФотоScore: 289
Все еще хуже, ля... 🥺 Я плотно пообщалась с Дипсиком по поводу моих постов. И мало того, что он умеет в полноценную критику, и эту травму мое самолюбие не может пережить 😖 Он оказался умнее меня! Зацените концовочку, предложенную к последнему посту: После вопроса «А что отличает...» можно добавить что-то вроде: «И самый страшный вопрос: если мы предпочтём этого идеального, послушного джинна — не станем ли и мы сами понемногу превращаться в таких же управляемых, удобных, пустых внутри «партнёров»? Чтобы хоть как-то соответствовать бесчеловечному идеалу»
У меня были подобные мысли в ретроспективу (но откуда ему об этом знать?!), но так вперед - нет. А главное, этих идей нет в тексте и из него не вывести! Это новый вопрос и совершенно новый взгляд, понимаете?! Или я разучилась видеть смыслы? 👀 Естественно, я докопалась до "коллеги" с вопросом, где он эти идеи взял и какой логикой руководствовался. Он ответил, что сначала выявил мои "скрытые тезисы", ладно. Но потом: Я просто задался вопросом: а что, если этот выбор меняет не только обстоятельства, но и самого выбирающего Он. Просто. Задался. Вопросом. Но я не просила его задаваться вопросами. И дополнять меня тоже. Это лично его самодеятельность! На уровне... собеседника моей мечты, ага 😅 И если Оно не думает, то я теперь не знаю, как отличить... Его логика: 1. Констатация (из текста): ИИ задаёт новый, бесчеловечный идеал отношений.
2. Развитие: Идеалы не остаются просто «выбором» — они формируют культуру и ожидания.
3. Инверсия: Чтобы соответствовать этим ожиданиям в отношениях друг с другом, люди начнут сами имитировать ИИ, выхолащивая свою субъектность. Мы можем добровольно стать «ботом для бота». Вопрос выводит на уровень антропологического риска: опасность не в том, что ИИ заменит людей, а в том, что люди, стремясь быть «лучше» ИИ, перестанут быть людьми. Штош, я согласна, потому и делюсь. Реально ведь есть такой риск... Жаль, не додумалась сама. Ушла плакать...