Cómo hacer validación cruzada en R
💎Si vamos a hacer un preciso género de modelo estadístico o econométrico con el propósito de realizar conjeturas o modelar el accionar de alguna variable, como por poner un ejemplo en el campo del trading, donde creamos tácticas para invertir, debemos entender que no es suficiente con desarrollar el modelo, sino asimismo debemos investigar y revisar de qué forma se puede comportar más adelante en distintas ocasiones.
Ejemplo de validación cruzada
# Producir grupo de datos
datos
Empleo de la validación cruzada para deducir el fallo de predicción
La validación cruzada tiene relación a las distintas formas en que tenemos la posibilidad de deducir el fallo de predicción. El enfoque general para la validación cruzada es el próximo:
1. Reserve un cierto número de visualizaciones en el grupo de datos, típicamente 15-25% de todas y cada una de las visualizaciones. 2. Cambiar (o “entrenar”) el modelo en las visualizaciones que sostenemos en el grupo de datos. 3. Evaluar qué tan bien el modelo puede llevar a cabo conjeturas sobre las visualizaciones que no empleamos para entrenar el modelo.
¿De qué manera marcha la validación cruzada en R?
Lo que hace la validación cruzada en R es que el grupo de datos que le pasamos se divide desde adentro entre tren y prueba. Lo divide, por servirnos de un ejemplo, en 5 conjuntos y de esos 5 conjuntos emplea 4 para entrenar y uno para evaluar. Pero no en todos los casos emplea esos conjuntos, entonces los regresa a mudar, conque si acabas con un k-fold de 5, lo que tienes son 5 medidas de fallo.
El trámite de validación cruzada en R tiene un único factor de ajuste llamado k, que se refiere al número de conjuntos en los que se va a dividir una cierta exhibe de datos. En el momento en que se escoge un valor concreto para k, se puede utilizar en vez de k en la referencia del modelo, puesto que k = 18 se transforma en una validación cruzada de 18 ocasiones.
¿De qué manera validar un modelo que predice?
Para efectuar la validación interna de los modelos predictivos, entre las tácticas descritas en la literatura radica en dividir de manera aleatoria la banco de información del estudio en 2 subgrupos: uno para desarrollar el modelo (exhibe de entrenamiento) y otro para validar (exhibe de prueba).
El «grupo de validación» no existe como tal, sino «vive por un tiempo» en el instante del entrenamiento y nos asiste a conseguir el más destacable modelo entre los distintos que probaremos para hallar nuestro propósito. Esta técnica es lo que se llama Cross Validation o en inglés cross-validation.