Qué factores son importantes tener en cuenta al construir un buen modelo de machine learning
Los buenos atributos son la columna vertebral de cualquier modelo de Machine Learning. Y de manera frecuente la parte donde pasas mucho más tiempo. Esta es la parte que se puede cambiar para explotar al límite el modelo.
La creación de buenas especificaciones de forma frecuente necesita conocimiento del dominio, imaginación y un buen tiempo.
Paso 1: Entendiendo el Inconveniente
Es primordial comprender el inconveniente que debemos solucionar. Es posible que no me creas si te digo que he visto casos en los que se encontró una solución impecable a un inconveniente diferente al tuyo. En la mayoría de los casos, transporta un buen tiempo entender el inconveniente, en especial si el inconveniente procede de una industria de la que no sabe bastante. Le he dado un esfuerzo bastante medio a este paso por el hecho de que la iniciativa es ayudar con gente que sabe bastante del inconveniente.
Mi consejo para entender mejor el inconveniente es preguntarse ¿por qué razón? … y en el momento en que te respondan, regresa a preguntar ¿por qué razón? … y de este modo consecutivamente hasta el momento en que esté satisfecho. Habitualmente, puede entender velozmente la manera de meditar en esa industria y entender por qué razón. Además de esto, te resultará mucho más simple imaginar las respuestas a otras cuestiones que seguro te brotarán mientras que trabajas en el inconveniente.
Paso 5: Evaluación
Deberemos equiparar la máquina construída con nuestro grupo de datos de evaluación que tiene dentro entradas ignotas para el modelo y contrastar la precisión de nuestro modelo ahora entrenado. Si la precisión es menor o igual al 50%, ese modelo no va a ser útil puesto que sería como publicar una moneda al aire para tomar resoluciones. Si llegamos al 90% o mucho más, tenemos la posibilidad de tener buena seguridad en los desenlaces que nos ofrece el modelo.
Si a lo largo de la evaluación no conseguimos una aceptable predicción y nuestra precisión no es la mínima deseada, posiblemente tengamos inconvenientes de overfitting (o underfitting) y debamos regresar a la etapa de entrenamiento (4) antes de hacer un nuevo factor. configuración de nuestro modelo. Tenemos la posibilidad de acrecentar el número de ocasiones que repetimos nuestros apuntes de entrenamiento (EPOCHs). Otro factor esencial llamado «tasa de estudio» acostumbra nombrarse un valor que multiplica el gradiente para aproximarlo paulativamente al mínimo global (o local) con el objetivo de reducir el valor de la función. No es exactamente lo mismo acrecentar nuestros valores en 0.1 entidades que en 0.001, esto puede perjudicar relevantemente el tiempo de ejecución del modelo. Asimismo puede detallar el fallo máximo tolerado en nuestro modelo. Tenemos la posibilidad de pasar de unos minutos a horas (y días) para entrenar nuestra máquina. Estos factores de forma frecuente se nombran hiperparámetros. Esta «sintonización» es aún mucho más arte que ciencia y va a mejorar conforme experimentemos. En la mayoría de los casos, existen muchos factores para cambiar y todas y cada una nuestras opciones se tienen la posibilidad de encender combinándolos. Cada algoritmo tiene sus factores para cambiar. Por nombrar ciertos otros, en Redes Neuronales Artificiales debemos determinar en su arquitectura el número de capas escondes que va a tener y probarlo con aproximadamente y con cuántas neuronas hay en todos y cada cubierta. Esto requerirá bastante esfuerzo y paciencia para generar excelente resultados.
El tamaño de los datos
Ha de ser cuando menos un orden de intensidad mayor (diez ocasiones) que la proporción de factores que adiestrará. Por servirnos de un ejemplo, si deseas adivinar el valor de una vivienda y solo tienes 3 cambiantes importantes: número de cuartos, m2 construidos y zona o comuna. Considere (por lo menos) 30 viviendas en su banco de información. No obstante, esta regla tiene un límite inferior de cuánto precisa, por el hecho de que si hay múltiples comunidades, precisa tener considerablemente más datos. La iniciativa es que poseas la noción de que si trabajas con varios factores o cambiantes, debe existir por lo menos diez ocasiones mucho más datos o registros en tu banco de información. En el momento en que una variable es una comuna, el modelo debe estudiar de ella. Por ende, debe tener múltiples viviendas distintas de exactamente la misma comuna en su base. Lo que esto esencialmente afirma es: «el modelo no es mágico, si deseas que aprenda la relación entre una variable y otra, debe existir suficientes datos para llevar a cabo tu modelo».
No es suficiente con tener una aceptable proporción de datos, sino además de esto los datos han de ser:
– Análisis de conglomerados
Para comenzar, el Análisis de conglomerados es un análisis descriptivo multivariante que deja entender qué clientes son afines/homogéneos con poca información.
Esta herramienta marcha para medir la distancia/diferencia entre datos o cambiantes, donde asocia todas y cada una de las distancias aproximadas y distingue las cambiantes con mayor distancia entre ellas.