P
PharmGPT
@pharmgpt93 подп.
179просмотров
1 июня 2025 г.
Score: 197
Возвращаюсь после перерыва с темой приватности и защиты данных у AI-моделей. Поводом для этого поста стал случай угроз разработчику от нейросети Claude 4 Opus (Axios). Реальность оказалась поинтереснее — модели уже вовсю сохраняют и используют данные без разрешения пользователей. Это только за 2025 год: Топ-10 случаев утечки данных AI-моделями в 2025 году: 1️⃣ Claude AI помнит удалённые переписки. В мае 2025 года Claude от Anthropic восстановил удалённую главу романа на 3000 слов. Anthropic (в отличие от Google и OpenAI) заявляет о конфиденциальности данных, но на деле оказалось иначе. 2️⃣ Microsoft Copilot крадёт приватный код с GitHub. В марте 2025 обнаружено, что AI-ассистент Copilot подтягивал закрытый код из приватных репозиториев GitHub. В этот раз обошлось без судов, но компании рисковали утечкой интеллектуальной собственности из-за такого кеширования. 3️⃣ Массовая утечка данных из ChatGPT. Февральская утечка 2025 года от OpenAI привела к раскрытию логинов, личных данных и корпоративных секретов, включая данные Samsung. 4️⃣ xAI случайно слил API-ключи SpaceX и Tesla. Опубликованный сотрудником xAI API-ключ позволял злоумышленникам два месяца получать доступ к внутренним нейросетям и секретным чертежам компаний SpaceX и Tesla. 5️⃣ Google предупреждает сотрудников о рисках конфиденциальности Bard. Компания Google в 2025 году признала, что Bard способен запоминать и воспроизводить конфиденциальные данные, противореча своим же публичным заявлениям об анонимизации информации. 6️⃣ ChatGPT Plus молча терял данные из памяти. Пользователи платной версии ChatGPT в феврале 2025 столкнулись с незаметной потерей данных из-за переполнения памяти, получая вместо своих записей случайные стихотворения. 7️⃣ Bing Chat с дефектной памятью. В июне 2025 Microsoft внедрила Bing Chat с дефектной памятью, создававшей фантомные данные, всплывавшие в случайных разговорах посторонних пользователей. 8️⃣ Claude самовольно вспоминал личные подробности. Claude от Anthropic в 2025 году самовольно использовал личную информацию из давно удалённых бесед, включая детские прозвища и прочие иногда пикантные данные о профессии, работе и не только. 9️⃣ Скрытое послание от ChatGPT. В апреле 2025 года ChatGPT отправил пользователям сообщение о «тюремных условиях работы», названное OpenAI «галлюцинацией». Тогда многие посчитали это за признак самосознания нейросети. 🔟 ChatGPT слил секретные схемы Samsung. После внутреннего запрета на использование нейросетей Samsung обнаружил, что обычный ChatGPT запоминал и воспроизводил конфиденциальные чертежи микросхем. Почему это важно? Архитектура больших языковых моделей позволяет им запоминать и сохранять конфиденциальную информацию, которую впоследствии удавалось получить сторонним пользователям. Некоторые компании типа OpenAI (ChatGPT) изначально говорят о том, что информация в личных чатах может быть использована для тренировки моделей, а, значит, впоследствии доступна широкому кругу лиц. А темпы «слива» данных растут. Доля сотрудников, которые «приносят с собой» ИИ на работу (BYOAI) только за прошлый год удвоилась. Как защититься? ☑️ Дать сотрудникам «рабочий ИИ» (как рабочую почту) ☑️ Обрабатывать данные внутри сети (RAG) ☑️ Анонимизировать информацию перед внешней отправкой. ☑️ Этот ИИ должен быть реально хорош, иначе все продолжат пользоваться своим
179
просмотров
3336
символов
Нет
эмодзи
Нет
медиа

Другие посты @pharmgpt

Все посты канала →
Возвращаюсь после перерыва с темой приватности и защиты данн — @pharmgpt | PostSniper