Inteligencia Artificial

Courses

Conceptos

Evaluación del entrenamiento

Esto depende de cómo haya evolucionado la pérdida durante el entrenamiento: si las curvas de aprendizaje se han estabilizado, normalmente no habrá ninguna ventaja en entrenar durante épocas adicionales. Por el contrario, si la pérdida parece seguir disminuyendo, entonces entrenar durante más tiempo podría ser ventajoso.

Tasa de Aprendizaje learning rate) y Tamaño de Lote (batch size)

Los lotes más pequeños generan actualizaciones de peso y curvas de pérdida más ruidosas. Esto se debe a que cada lote es una pequeña muestra de datos, y las muestras pequeñas tienden a generar estimaciones más ruidosas. Sin embargo, los lotes más pequeños pueden tener un efecto de “promedio” que puede ser beneficioso.

Las tasas de aprendizaje más bajas hacen que las actualizaciones sean más pequeñas y el entrenamiento tarda más en converger. Las tasas de aprendizaje altas pueden acelerar el entrenamiento, pero no deben “estabilizarse” en un mínimo. Cuando la tasa de aprendizaje es demasiado alta, el entrenamiento puede fallar por completo. (Intenta establecer la tasa de aprendizaje en un valor alto, como 0.99, para comprobarlo).

APIs

gradio

https://gradio.app/quickstart/

One of the best ways to share your machine learning model, API, or data science workflow with others is to create an interactive app that allows your users or colleagues to try out the demo in their browsers.

Hugging Face

https://huggingface.co/

Hosted Inference API

Test and evaluate, for free, over 80,000 publicly accessible machine learning models, or your own private models, via simple HTTP requests, with fast inference hosted on Hugging Face shared infrastructure.

References