291просмотров
25 декабря 2025 г.
📷 ФотоScore: 320
Написал и обучил на c++ MLP(многослойный перцептрон) Перцептрон одна из первых на практике примененная нейросеть, состоит из слоев с нейронами и каждый нейрон на следующем слое имеет связь с каждым нейроном предыдущего, такую архитектуру предложили ещё в 1950х годах и используется по сей день Ну и почему бы по приколу не заколхозить собственную нейронку. Обучал ее распознавать рукописные цифры, используя бесплатный датасет MNIST в котором 60000 обучающих изображений и 10000 тестовых Я потратив немного времени и анализа результатов в зависимости от разных параметров сети, пришел к архитектуре 784-512-256-10 нейронов в слоях, 784 это количество пикселей на входном изображении, а 10 выходной слой, который и является ответом нейросети Получилось добиться результатов на независимой выборке:
Точность ответов 98.3%
Кросс энтропия 0.085 Нат P.S картинка нарисована скриптом, тоже мною написанным, это графическое представление моей обученной сети, где каждая связь имеет цвет в зависимости от веса этой связи