C
Computer Science Abroad
@computerscienceabroad4.9K подп.
2.3Kпросмотров
46.4%от подписчиков
13 февраля 2026 г.
📷 ФотоScore: 2.5K
🐉 Открыт набор на Technical AI Safety курс по оценке LLM: подходы, бенчмарки и методология Evals for AI Safety — это область, посвященная измерению качества, надежности и безопасности ИИ-систем. В условиях повсеместного внедрения языковых моделей в продакшн умение корректно оценивать их возможности и риски становится приоритетным навыком. Как устроен курс: 🔘Анализ методологии evals на основе современных и классических статей в области 🔘Менторы из Apollo research, AI Lab SKOLKOVO, AIRI Institute, Яндекс и др 🔘Обучение в мини-группах, по 4-6 человек 🔘Формат: оффлайн в Москве или онлайн 🔘Ожидаемая нагрузка: 10-15 часов в неделю 🔘Стоимость: бесплатно, отбор на конкурсной основе Цель курса: Дать базу для начала карьеры в области оценки ИИ и понимание того, какую роль evals играет в AI Safety. Программа знакомит с основными концепциями evals, учит анализировать существующие бенчмарки, проектировать собственные оценки и разрабатывать дизайн экспериментов в области evals. Участники курса освоят Inspect AI (один из самых популярных фреймворков для оценки LLM). Кого мы ждем: 🔘Студентов STEM-направлений, планирующих карьеру в области ИИ 🔘IT-специалистов, желающих освоить навык тестирования языковых моделей 🔘Продвинутых и начинающих специалистов в области ML, которые хотят углубиться в методологию оценки моделей Подробнее: тут Подать заявку на участие в курсе, а также на фасилитацию можно до 22 февраля: тут Если вам интересно менторство, преподавание, сотрудничество с курсом или вы хотите задать вопрос, то напишите Юле
2.3K
просмотров
1540
символов
Нет
эмодзи
Да
медиа

Другие посты @computerscienceabroad

Все посты канала →