N
NextGen AI
@NextGen_AI_15.8K подп.
14просмотров
0.2%от подписчиков
17 марта 2026 г.
questionScore: 15
Прошло полгода с момента, когда крупные AI-модели обязали раскрывать данные обучения. Что изменилось на практике? С августа 2025 года универсальные модели уровня GPT-3.5 и выше должны публиковать summary тренировочных датасетов и политику авторских прав. Это не формальность — пользователи теперь могут проверить, на чём конкретно обучалась модель, с которой работают. Модели уровня GPT-4 попали в категорию «системно значимых» — их разработчики обязаны уведомлять AI Office Еврокомиссии и проходить дополнительные проверки. Параллельно действует запрет на социальный скоринг, манипулятивные техники и сканирование лиц из интернета без согласия. На практике это значит: прозрачность перестала быть опциональной. Если модель не раскрывает источники данных — она нарушает закон, а не просто «неудобна». Вопрос: вы когда-нибудь проверяли, на чём обучалась модель, которой доверяете данные? Источники: EU AI Act Timeline, EC Guidelines, AI Act Explorer
14
просмотров
953
символов
Нет
эмодзи
Нет
медиа

Другие посты @NextGen_AI_1

Все посты канала →
Прошло полгода с момента, когда крупные AI-модели обязали ра — @NextGen_AI_1 | PostSniper