Empezando al inicio de los 90, el ANN fue desarrollado para resolver una serie de problemas analíticos. Tanto el atractivo como el problema del ANN es que no requiere ninguna formulación o una estructura de datos, como es el caso de la regresión, el logit o el análisis de factores.
Las ANNs pueden tratar muchos de los problemas que tratan las técnicas multivariantes. Tienen una base estadística subyacente como sería el impacto de las distribuciones de inputs sobre la estimación de las ponderaciones. La principal diferencia de las técnicas multivariantes es la ausencia de contrastes de inferéncia estadística para las ponderaciones del ajuste global del modelo.
En general, las ANNs estudian una serie de variables y de resultados conocidos, y dicho algoritmo debe buscar la mejor relación entre inputs y outputs. Esto lo hace mediante una relación de prueba-error con la información que va elaborando mediante un aprendizaje.
Luego el algoritmo retrocede a fin de maximizar su contribución para de una manera acurada de predecir el resultado. Los resultados son comprobados en un test de validación.
Hay algunas herramientas de ANN especialmente diseñadas al estudio de clusters. Estos integran la clase de las neural networks no supervisadas, ya que no hay forma de conocer las soluciones efectivas del conglomerado.
Uno de los más conocidos ANNs de clustering es el "Kohonen Self-Organizing Map". Todas las ANNs de este tipo requieren un gran tamaño de datos ya que necesitan una muestra para el aprendizaje y de test y otra muestra para la validación.
Otro tema a tratar al hablar de ANNs es que pueden llegar a sobreaprender, así la solución óptima no la podríamos extender a todo el universo ya que sería específicamente la mejor solución de la muestra. Determinar cuando se debe dejar de enseñar a una ANN es un problema que todavía no ha sido totalmente solucionado.
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario