INFORME 2023 MERITOCRACIA Y EDUCACIÓN
alumnado en la muestra B. En segundo lugar, realizamos el proceso inverso: entrenamos los algoritmos en la muestra B siguiendo el mismo procedimiento para hacer predicciones en la muestra A. Dicha decisión viene motivada por (1) la necesidad de realizar una división de la muestra para evitar problemas de “underfitting” u “overfitting” y (2) nuestra preferencia por ex - plotar todos los datos tanto para la estimación como para el análisis posterior. La evaluación del rendimiento de los distin- tos algoritmos se realiza de manera conjunta utilizando las predicciones “out of sample” de las muestras A y B. Esto garantiza que se selecciona el algoritmo que mejor predice los resultados y no aquel que se ajusta mejor a la muestra de entrenamiento. La selección del mejor modelo se realiza de manera indepen- diente para cada país utilizando el coeficiente de determinación (R 2 ).
suma de los cuadrados entre los valores reales y los valores predichos por el mode- lo lineal. En términos globales, este es el método más comúnmente empleado para la estimación de DOp. En nuestro estudio, empleamos OLS como punto de referencia para evaluar el desempeño de los algorit- mos que describimos a continuación. Las variables explicativas incorporadas en el modelo son las descritas en el CUADRO 1. · Regularización: Lasso, Ridge y Elastic Net. Las técnicas de regularización son similares a la regresión lineal, salvo que “castigan” la complejidad del modelo a través de un término de penalización adicional. La distinción entre Lasso, Ridge y Elastic Net se encuentra precisamente en este término de penalización. Por un lado, Lasso (“Least Absolute Shrinkage and Selection Operator”) introduce una penalización L1 que descarta la influencia de algunas variables al per- mitir que algunos coeficientes se vuelvan exactamente cero. Por otro lado, el método Ridge introduce una penalización L2 que no anula completamente los coeficientes, sino que los reduce. Por su parte, Elastic Net combina linealmente las penalizaciones de Lasso y Ridge, tratando así de compensar las limitaciones de cada método con las ventajas del otro. Al igual que ocurre con la regresión, los métodos de regularización re- quieren especificar la forma funcional y las interacciones de las variables explicativas. Por ello, en nuestro análisis construimos un modelo relativamente complejo que incor- pora todas las circunstancias, todas sus posibles interacciones dobles y términos cuadrados y cúbicos de todas las variables continuas. La selección final del modelo depende de la propia regularización que evita el “overfitting”. Este proceso de regula - rización se realiza a través de CV quíntuple (“5-fold cross validation”) para optimizar los términos de penalización.
Algoritmos de predicción
Para realizar las predicciones, consideramos tanto algoritmos de regularización como métodos basados en árboles (“tree-based methods”). También consideramos la regresión lineal OLS para contrastar los resultados y eva- luar las mejoras que ofrece el ML. A continua- ción, describimos la intuición técnica tras cada algoritmo. Para más detalles metodológicos sobre los distintos algoritmos, recomendamos al lector Tibshirani et al. (2017). · Mínimos Cuadrados Ordinarios (o regre- sión lineal): La técnica de Mínimos Cua- drados Ordinarios (OLS, por su acrónimo en inglés “Ordinary Least Squares”) es un método de análisis estadístico utilizado para modelar la relación entre una variable dependiente y una o más variables explicati- vas. La idea básica tras la regresión lineal es encontrar la línea recta que mejor se ajuste a los datos, de modo que podamos predecir el valor de dicha variable dependiente en función de las variables explicativas. Esta línea recta se determina minimizando la
76
Made with FlippingBook - Online Brochure Maker