Inteligencia Artificial
Courses
Conceptos
Evaluación del entrenamiento
Esto depende de cómo haya evolucionado la pérdida durante el entrenamiento: si las curvas de aprendizaje se han estabilizado, normalmente no habrá ninguna ventaja en entrenar durante épocas adicionales. Por el contrario, si la pérdida parece seguir disminuyendo, entonces entrenar durante más tiempo podría ser ventajoso.
Tasa de Aprendizaje learning rate) y Tamaño de Lote (batch size)
Los lotes más pequeños generan actualizaciones de peso y curvas de pérdida más ruidosas. Esto se debe a que cada lote es una pequeña muestra de datos, y las muestras pequeñas tienden a generar estimaciones más ruidosas. Sin embargo, los lotes más pequeños pueden tener un efecto de “promedio” que puede ser beneficioso.
Las tasas de aprendizaje más bajas hacen que las actualizaciones sean más pequeñas y el entrenamiento tarda más en converger. Las tasas de aprendizaje altas pueden acelerar el entrenamiento, pero no deben “estabilizarse” en un mínimo. Cuando la tasa de aprendizaje es demasiado alta, el entrenamiento puede fallar por completo. (Intenta establecer la tasa de aprendizaje en un valor alto, como 0.99, para comprobarlo).
APIs
gradio
https://gradio.app/quickstart/
One of the best ways to share your machine learning model, API, or data science workflow with others is to create an interactive app that allows your users or colleagues to try out the demo in their browsers.
Hugging Face
https://huggingface.co/
Test and evaluate, for free, over 80,000 publicly accessible machine learning models, or your own private models, via simple HTTP requests, with fast inference hosted on Hugging Face shared infrastructure.
