4.8Kпросмотров
1 марта 2026 г.
Score: 5.3K
Мы любим объяснять войны просто.
Есть плохие люди. Есть агрессоры. Есть те, кто «по природе такие». Роберт Сапольски в книге «Биология добра и зла» делает выводы, которые многих раздражают. Он пишет:
«Поведение — это результат всего, что произошло за секунду, минуту, год и тысячелетие до него».
Не характер. Не «злая воля». А цепочка причин. За секунду до «выстрела» - всплеск гормонов. За минуты - реакция участка головного мозга (миндалины) на угрозу. За годы - язык «свой-чужой». За десятилетия - историческая травма и экономический стресс.
«Мы не выбираем то, что заставляет нас выбирать». Свобода воли в привычном понимании оказывается иллюзией. Есть биология. Есть среда. Остальное расчет вероятностей. Стресс и страх делают нас первобытными, где главное условие выживания — «бей или беги». А это усиливает агрессию, которая идеально ложится в систему. Теперь добавим к этим древним механизмам современный ИИ, у которого нет миндалины, кортизола, детских травм или национальной памяти.
Но у него нет и морали. ИИ не имеет собственных ориентиров. Он действует в рамках целей, которые в него заложены. Он не выбирает, он оптимизирует. И если человек, по Сапольски, не свободен от своей биологии, то ИИ не свободен от нашей.
Если общество живет в режиме угрозы, если приоритет эффективность удара, если критерий «свой важнее чужого», именно эти параметры и будут масштабированы машиной.
ИИ не создает зло. Он усиливает вероятности, которые уже существуют в системе. Свободы воли у машины нет. Но и у человека она, по Сапольски, не так абсолютна, как нам хочется думать. Мои размышления - не случайны. На прошлой неделе произошел первый серьезный этический конфликт, связанный с использованием нейросетей в военных целях.
В одном британском университете смоделировали ядерный кризис и посадили за «пульт» три ведущие ИИ-системы: GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash.
Итог оказался предсказуемо тревожным.
Практически в каждой игре сценарий доходил до применения тактического ядерного оружия. Ни одна система ни разу не выбрала капитуляцию или компромисс. Следом появилась новость о том, что Пентагон разрывает контракт с компанией Anthropic, чей алгоритм использовался ведомством с лета 2025 года при проведении самых «чувствительных» операций. Причина — отказ генерального директора компании Дарио Амодеи снимать этические ограничители, касающиеся автономного оружия и массовой слежки.
После отказа Амодеи подвергся резкой критике со стороны высокопоставленных чиновников США, а его компания попала в «черный список» поставщиков наравне с Huawei. При этом он аргументированно заявлял, что алгоритм недостаточно надежен для самостоятельных решений о жизни и смерти.
«Мы не можем по совести уступить их просьбе», — настаивал он. И потерял контракт.
Романтик Дарио полагал, что в мире еще кого-то волнует это эфемерное понятие.
Но «Аннушка уже разлила подсолнечное масло»… И если зло не демон, а совокупность условий, при которых среда заставляет людей закрывать глаза на «сопутствующий ущерб», когда они одержимы идеологией или страхом, то ИИ становится зеркалом этих условий. Он не лучше и не хуже нас. Он просто точнее в достижении целей. А значит, вопрос морали по-прежнему остается там, где он всегда и был, в среде, которая формирует человека.
И если мы не начнем уже сегодня учить наших детей и себя самих добру, создавая хотя бы дома пространство, свободное от тревоги и агрессии, у человечества не будет шанса на выживание. Потому что любая стрессовая среда, усиленная нейросетями, поворачивает ход истории только в одну сторону.
А там, как показали симуляции, будет комфортно существовать разве что тараканам и «радиоактивным» бактериям.