674просмотров
8.5%от подписчиков
25 марта 2026 г.
Score: 741
«Обитель использовала ИИ, смотреть тошно» • Администраторские письма Нам тут напихали в панамку за то, что мы сделали два мультика по 15 секунд. Ссылки внизу поста положим. И что у нас был «прогрев к ИИ-мультикам». И что за таким же стоит этическая позиция, а мы... Ок, обсудим. Начнём тут, продолжим в комментариях. Причина драки в виде двух мультиков — грузится! (Завидуем тем, у кого в Телеге нет проблем с видео-контентом)) 1. «Прогрев в ИИ-контенту» Рискуем расстроить упоминанием процесса, который для некоторых плох в любом случае, но. Это был не прогрев. Мы реально для создания мультика взяли визуал, который выбрали подписчики. Мультики такие с нужной подготовкой делаются довольно быстро, их финальный монтаж занимает минуты. Так что при всём уважении: это совместное творчество с теми, кому понравился стиль. А прислать посмотреть итоговый результат собственным подписчикам, маме, бабушке и мужу — не прогрев, а просто поделиться тем, что получилось. Ну, вы чего. Какой прогрев. 2. Этическая позиция при использовании ИИ. Строго говоря, этическая позиция относится не к инструменту (а ИИ — это вещь, сродни компьютеру, фотошопу и т.д.), а к поведению человека. Этика исследует, как человек должен поступать, регулируя взаимоотношения между людьми. Именно действия человека являются предметом этики. Этическая позиция, в свою очередь — это совокупность моральных принципов, ценностей и убеждений. Основные проблемы с этической позицией относительно использования ИИ человеком таковы. → Проблема авторского права (Интеллектуальная собственность). ИИ обучается на работах реальных художников. ИИ позволяет скопировать стиль любого художника и присвоить его. → Экологический след и «призрачный труд» Обучение одной крупной языковой модели потребляет столько же электроэнергии, сколько несколько сотен домохозяйств за год, и требует огромного количества воды для охлаждения серверов. Плюс на первых этапах для того, чтобы ИИ понимал, где на фото «котик», а где «запрещенный контент», тысячи людей в странах с развивающейся экономикой (Кения, Филиппины) вручную размечают данные за мизерную оплату, часто сталкиваясь с психологически тяжелым контентом. Так же есть ещё: → алгоритмическая предвзятость (bias): если обучающая выборка содержит человеческие предрассудки (расовые, гендерные, социальные), нейросеть их усвоит и усилит; → проблема «Черного ящика» и ответственности: если беспилотный автомобиль совершит аварию или ИИ-диагност ошибется в назначении препарата, кто несет ответственность? Если мы какую-то не упомянули, добавьте, пожалуйста. На поверхности кажется, что этичным будет решение всё запретить и отменить. Но этика не должна быть оторвана от реальной жизни, в том числе потому, что этика служит человеку для навигации выборов и действий в реальной жизни. В реальной жизни с чем мы сталкиваемся — в комментариях продолжим
674
просмотров
2869
символов
Нет
эмодзи
Нет
медиа

Другие посты @obitel_herbs

Все посты канала →
«Обитель использовала ИИ, смотреть тошно» • Администраторски — @obitel_herbs | PostSniper