Е
Екатерина Духина
@ekaterina_dukhina4.2K подп.
4.8Kпросмотров
1 марта 2026 г.
Score: 5.3K
Мы любим объяснять войны просто. Есть плохие люди. Есть агрессоры. Есть те, кто «по природе такие». Роберт Сапольски в книге «Биология добра и зла» делает выводы, которые многих раздражают. Он пишет: «Поведение — это результат всего, что произошло за секунду, минуту, год и тысячелетие до него». Не характер. Не «злая воля». А цепочка причин. За секунду до «выстрела» - всплеск гормонов. За минуты - реакция участка головного мозга (миндалины) на угрозу. За годы - язык «свой-чужой». За десятилетия - историческая травма и экономический стресс. «Мы не выбираем то, что заставляет нас выбирать». Свобода воли в привычном понимании оказывается иллюзией. Есть биология. Есть среда. Остальное расчет вероятностей. Стресс и страх делают нас первобытными, где главное условие выживания — «бей или беги». А это усиливает агрессию, которая идеально ложится в систему. Теперь добавим к этим древним механизмам современный ИИ, у которого нет миндалины, кортизола, детских травм или национальной памяти. Но у него нет и морали. ИИ не имеет собственных ориентиров. Он действует в рамках целей, которые в него заложены. Он не выбирает, он оптимизирует. И если человек, по Сапольски, не свободен от своей биологии, то ИИ не свободен от нашей. Если общество живет в режиме угрозы, если приоритет эффективность удара, если критерий «свой важнее чужого», именно эти параметры и будут масштабированы машиной. ИИ не создает зло. Он усиливает вероятности, которые уже существуют в системе. Свободы воли у машины нет. Но и у человека она, по Сапольски, не так абсолютна, как нам хочется думать. Мои размышления - не случайны. На прошлой неделе произошел первый серьезный этический конфликт, связанный с использованием нейросетей в военных целях. В одном британском университете смоделировали ядерный кризис и посадили за «пульт» три ведущие ИИ-системы: GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash. Итог оказался предсказуемо тревожным. Практически в каждой игре сценарий доходил до применения тактического ядерного оружия. Ни одна система ни разу не выбрала капитуляцию или компромисс. Следом появилась новость о том, что Пентагон разрывает контракт с компанией Anthropic, чей алгоритм использовался ведомством с лета 2025 года при проведении самых «чувствительных» операций. Причина — отказ генерального директора компании Дарио Амодеи снимать этические ограничители, касающиеся автономного оружия и массовой слежки. После отказа Амодеи подвергся резкой критике со стороны высокопоставленных чиновников США, а его компания попала в «черный список» поставщиков наравне с Huawei. При этом он аргументированно заявлял, что алгоритм недостаточно надежен для самостоятельных решений о жизни и смерти. «Мы не можем по совести уступить их просьбе», — настаивал он. И потерял контракт. Романтик Дарио полагал, что в мире еще кого-то волнует это эфемерное понятие. Но «Аннушка уже разлила подсолнечное масло»… И если зло не демон, а совокупность условий, при которых среда заставляет людей закрывать глаза на «сопутствующий ущерб», когда они одержимы идеологией или страхом, то ИИ становится зеркалом этих условий. Он не лучше и не хуже нас. Он просто точнее в достижении целей. А значит, вопрос морали по-прежнему остается там, где он всегда и был, в среде, которая формирует человека. И если мы не начнем уже сегодня учить наших детей и себя самих добру, создавая хотя бы дома пространство, свободное от тревоги и агрессии, у человечества не будет шанса на выживание. Потому что любая стрессовая среда, усиленная нейросетями, поворачивает ход истории только в одну сторону. А там, как показали симуляции, будет комфортно существовать разве что тараканам и «радиоактивным» бактериям.
4.8K
просмотров
3665
символов
Нет
эмодзи
Нет
медиа

Другие посты @ekaterina_dukhina

Все посты канала →
Мы любим объяснять войны просто. Есть плохие люди. Есть агре — @ekaterina_dukhina | PostSniper