Почему для обучения нейросетей используют именно видеокарты #почитать Начнем с того, что центральный процессор и графический процессор фундаментально отличаются по своей архитектуре и предназначению. CPU разрабатывались как универсальные вычислительные устройства, предназначенные для последовательной обработки данных с высокой тактовой частотой и сложной логикой ветвления. В отличие от CPU, графические процессоры были рассчитаны на рендеринг изображений, который по своей природе требует параллел...
Data Scientist | IT
Добро пожаловать в клуб. Полезные материалы из мира DS & ML на регулярной основе. По всем вопросам: @godinmedia
Графики
📊 Средний охват постов
📉 ERR % по дням
📋 Публикации по дням
📎 Типы контента
Лучшие публикации
20 из 20🌐Как я стала аналитиком данных и потратила на это 0 рублей #посмотреть История Даши ✅Смотреть на Ютубе ⏱️30 минут
fit() для новичков #почитать Эта статья для тех, кто только-только погружается в машинное обучение и ещё не до конца понимает, что скрывается за интересным вызовом model.fit(). Вы, возможно, уже настраивали ноутбуки, пробовали разные датасеты и, может, даже словили пару неожиданных ошибок — и это нормально. ⏱Читать статью
Я дал 100 AI-агентам равный бюджет — они изобрели кредиты под 15% #почитать Дал 100 AI-агентам по 1000 токенов и одну цель — набрать максимум очков. Не программировал ни торговлю, ни кредиты, ни специализацию. Через двое суток агент №23 попросил у агента №91 займ под 15%. К 72-му часу — три банкира, 12 банкротов и коэффициент Джини 0.71. Внутри — код на Python, логи, распределение ресурсов. И честный разбор того в чем я до сих пор не уверен. ✅Читать статью
Геометрия ландшафта потерь и «понимание» нейросети #почитать Когда нейросеть обучается, ее функция потерь образует сложный ландшафт в пространстве параметров – с вершинами (области высокой ошибки) и долинами (области низкой ошибки). Свойства этого ландшафта – его кривизна, форма минимальных долин, спектр матрицы Гессе и пр. – могут многое рассказать о том, насколько модель усвоила закономерности данных. Идея состоит в том, что не все минимумы одинаковы: одни могут быть «плоскими» (широкими и нег...
Когда O(n) мешает отбирать резюме в Росатоме #почитать Женатые и замужние — в топе: пока вы не уходите глубоко в анализ, этот быстрый фактор повышает ранг. Чем точнее ваша модель, тем меньше его вес. Английский — плохо: знание английского почему-то работало как антипаттерн, снижая релевантность. ОГУРЕЦ: кто-то зачем-то написал это слово в резюме. Оно попало в словарь модели и получило большой вес. Иксель — люди пишут Excel как угодно, и само слово в правильном написании оказалось снижающим оценк...
Лапка в Лапку: как мы пытаемся снизить возвраты животных из приютов с помощью NLP #почитать Четыре года я была волонтёром в приюте для животных. Это не про красивые фотографии с пушистыми котиками - это про ежедневный уход, уборку, лечение, адаптацию и работу с людьми. Самое тяжёлое - видеть стресс у «вернувшихся» животных. Ещё вчера у них был человек, дом, надежда, а сегодня снова клетка, шум и тревожное ожидание. Некоторые так и не находят семью. Самое страшное для животного - прожить жизнь и ...
🪐 Новые вакансии AI/ML 🚀 ML engineer / Python Developer в Wisebits, до 400 000 ₽ Подробнее ➡️ https://jobrocket.ru/ru/job/ml-engineer-python-developer-wisebits-94cefda2 🚀 ML разработчик (Python / Computer Vision) в Система AI видеоаналитики, oт 350 000 ₽ Подробнее ➡️ https://jobrocket.ru/ru/job/ml-razrabotchik-python-computer-vision-sistema-ai-videoanalitiki-e434fec6 🚀 ML Engineer в Kolesa group, 200 000 - 300 000 ₽ Подробнее ➡️ https://jobrocket.ru/ru/job/ml-engineer-kolesa-group-7f755111 �...
Как устроено глубокое обучение нейросетей #почитать Глубокое обучение - Способ обучения моделей на большом количестве данных, используя множество слоёв. Каждый слой сети обрабатывает информацию, "взвешивая" её при помощи параметров (весов и смещений), оставляя признаки или отбрасывая, посредством функций активации. Обучение происходит через итеративную (повторяющуюся) корректировку весов: сначала вычисляются градиенты ошибки с помощью обратного распространения (backpropagation), а затем веса обн...
Структурированная генерация в LLM #почитать сегодня я расскажу про такое направление в LLM, как структурированная генерация. ⏱Читать статью