Оптимизируйте модели машинного обучения с помощью проверочных данных, чтобы предотвратить перебор, настроить гиперпараметры и обеспечить надежную работу в реальных условиях.
Валидационные данные - важнейший компонент в цикле разработки системы машинного обучения (МЛО). Это отдельное подмножество исходного набора данных, отличное от обучающих данных, используемых для подгонки модели, и тестовых данных, используемых для окончательной оценки. Основная цель валидационных данных - обеспечить беспристрастную оценку соответствия модели на обучающем наборе данных при настройке гиперпараметров модели и принятии решений об архитектуре модели. Этот процесс помогает выбрать наилучшую конфигурацию модели перед тем, как оценить ее окончательную производительность на невидимых данных.
В процессе обучения модели ML-модель изучает закономерности на основе обучающих данных. Однако оценка модели только по этим данным может ввести в заблуждение, так как модель может просто запомнить обучающие примеры, что называется чрезмерной подгонкой. Валидационные данные служат контрольной точкой. Периодически оценивая работу модели на этом отдельном наборе в процессе обучения, разработчики могут:
Понимание различий между обучающими, валидационными и тестовыми наборами данных имеет фундаментальное значение для разработки надежных моделей:
Правильное разделение, часто осуществляемое с помощью таких инструментов, как Ultralytics HUB для версионирования и управления наборами данных, гарантирует, что информация из тестового набора не "просочится" в процесс обучения или выбора модели, что приведет к чрезмерно оптимистичным оценкам производительности.
Валидационные данные незаменимы для настройки гиперпараметров. Гиперпараметры - это параметры конфигурации, внешние по отношению к самой модели, задаваемые до начала процесса обучения. В качестве примера можно привести скорость обучения, количество слоев в нейронной сети или тип используемого алгоритма оптимизации. Разработчики обучают несколько версий модели с различными комбинациями гиперпараметров, оценивают каждую из них на валидационном множестве и выбирают комбинацию, дающую наилучшую производительность. Этот систематический поиск может быть автоматизирован с помощью таких методов, как поиск по сетке или байесовская оптимизация, что часто облегчается платформами, интегрированными с инструментами MLOps.
Когда количество доступных данных ограничено, часто используется техника, называемая кросс-валидацией (в частности, K-Fold Cross-Validation). В этом случае обучающие данные разбиваются на "K" подмножеств (складок). Модель обучается K раз, каждый раз используя K-1 складку для обучения и оставшуюся складку в качестве валидационного набора. Затем производительность усредняется по всем K прогонам. Это позволяет получить более надежную оценку эффективности модели и лучше использовать ограниченные данные, как объясняется в руководстве Ultralytics по перекрестной валидации K-Fold.
В целом, валидационные данные - это краеугольный камень построения надежных и высокоэффективных моделей искусственного интеллекта (ИИ). Они позволяют эффективно настраивать гиперпараметры, выбирать модели и предотвращать перебор, обеспечивая обобщение моделей за пределами данных, на которых они были обучены.