949просмотров
8 октября 2023 г.
questionScore: 1.0K
Как манипулировать страхом и почему фантастика не про будущее? На фоне недавнего хайпа нейросетей вроде ChatGPT в медиапространстве появилась новая страшилка. Народ пугают вопросом: а что же будет, когда возникнет настоящий искусственный интеллект, что же ждет человечество. Прогноз, конечно, дается неутешительный. Под 'настоящим' или 'сильным' ИИ обычно имеют в виду искусственный интеллект, который на порядки превосходил бы человеческий мозг в способности к абстрактному мышлению. Почему нас должна пугать перспектива появления такого механизма? Если упрощать - ИИ работает по принципу 'черного ящика': загрузил вопрос -получил ответ. Внутренняя логика построения ответа остается за кадром. Теряется связь между причиной и следствием. Такой интеллект почти наверное будет иметь искаженные представления о морали. Это значит, что если государства и крупные корпорации будут принимать решения в соответствии с рекомендациями этого ИИ, это рано или поздно приведет их к политике геноцида, разложения общества или чего-то не менее устрашающего. Звучит это все довольно пессимистично и страшно. Наталкивает на мысли о том, что нужно срочно останавливать разработки в этой области, пока этот сценарий не претворился в жизнь. Никто не захочет жить в такой антиутопии. Но тут есть подвох. Если рассказами о страшном будущем вас пугают с голубых экранов - то это либо откровенная дезинформация, либо рассказ о том, что уже произошло. Хрестоматийный пример дезы, обернутой в футурологию - все рассказы про изменение климата. Необходимость 'экологичности' и прочая, прочая, прочая. Пример рассказа о реальности - сериал Черное Зеркало. Посмотрите первые его сезоны - и вы поймете, что все эти сюжеты безбожно устарели и никак не тянут на фантастику. Они описывали реальность начала 10х годов, а никак не будущее. Вернемся к теме страшного ИИ, который ввергнет мир в хаос. Понятно, что на совсем уж откровенную дезинформацию эти прогоны не тянут. Некоторые версии ИИ уже есть в открытом доступе, а о масштабах использовании оного в мегакорпорациях можно только догадываться. Например, я уже писал, что уверен, что последний сезон все того же чз написала нейросеть(раз и два) Но ведь не видно никаких доказательств тому, что ИИ прямо сейчас разрушает общество и убивает людей миллионами. Ну да, где-то применяется с переменным успехом, генерит тексты и картинки, но разве его разрушительное влияние настолько велико? Действительно, разрушает современное общество вовсе не ИИ. Это просто слишком новая технология, которая еще не успела пробраться во все сферы общества и коренным образом повлиять на структурные процессы. Это всего лишь фиговый листок, чучело для отвлечения внимания. Но от чего? Вернемся к интерпретации ИИ как некоего черного ящика, который умеет решать поставленные задачи, но не объясняет, как и почему он принял конкретное решение. А только ли ИИ можно так интерпретировать? Ну конечно же, нет. По точно такому же принципу работают консалтинговые компании. Теперь вспомним то, чем собственно нас пугают, почему ИИ 'может стать опасным'? Чем нас пугают? Тем, что если ИИ привлекать к решению сложных государственных вопросов - то это приведет к ужасным последствиям. А кто на протяжении последних 80 лет активно привлекал консалтинговые агентства к решению социальных вопросов? В первую очередь, это конечно США с их бесконечными think tank'ами. Осталось только сложить два и два. Долгое время американцы пользовались черным ящиком в виде финк тенков для решения политических вопросов. Дорешались до того, что разложили свое общество и устроили буквальный геноцид населения с помощью сжв-идей. А теперь они пытаются сделать хорошую мину при плохой игре, скинув свою вину на злую непонятную штуку в виде нейросетей, параллельно доказывая, что настоящая катастрофа произойдет только в будущем, а пока так, цветочки. Их излюбленный прием. Бояться будущего так же бессмысленно, как и бояться прошлого. Фатальные ошибки происходя