Conceptos esenciales de Machine Learning: k-NN, SVM, redes neuronales y clustering

Enviado por Chuletator online y clasificado en Informática y Telecomunicaciones

Escrito el en español con un tamaño de 4,85 KB

Conceptos fundamentales de aprendizaje automático

Definiciones y términos clave

  • Validación: El conjunto de validación sirve para ajustar hiperparámetros y seleccionar el modelo durante el entrenamiento.
  • Matriz de confusión: Es una tabla que permite ver los aciertos y errores del modelo.
  • k-NN: (k-Nearest Neighbors) es un algoritmo de aprendizaje supervisado que, para predecir un dato, mira los k datos más cercanos.
  • Estandarización: Es una técnica que centra los valores con media cero y desviación estándar uno para que los valores grandes no dominen el modelo.
  • Importancia de escalar variables: Para modelos como k-NN o SVM es importante que la distancia entre cada dato tenga el mismo peso; de lo contrario, los valores grandes dominarán el modelo.
  • Hiperparámetro: Es un valor que elige el programador antes de entrenar, como la k en el modelo k-NN.
  • Modelo baseline: Es un modelo que se usa para comprobar si modelos más complejos aportan una mejora real.
  • Groupby: Agrupar datos para aplicar funciones de agregación como mean, sum, count, etc.
  • Scikit-learn: Ofrece herramientas para clasificación, regresión y clustering.
  • Multiply: Duplicar un conjunto de datos para aplicar múltiples operaciones en paralelo.
  • RapidMiner Studio: Un entorno visual para minería y análisis de datos con componentes conectables.
  • NumPy: Está especializada en álgebra lineal y arrays multidimensionales.
  • SVM: Modelo supervisado que se usa para clasificación y regresión; el objetivo es buscar un hiperplano que separe las clases con el mayor margen posible.
  • Margen: Es la distancia desde el hiperplano hasta el dato más cercano de cada clase (vectores soporte). Maximizar el margen suele reducir el overfitting.
  • Kernel: Se encarga de elevar la dimensión del espacio de características para separar mejor los datos cuando no son linealmente separables en el espacio original.
  • ANOVA: Compara la media de dos o más grupos con el fin de saber si hay diferencias significativas entre ellos.
  • MSE (Error cuadrático medio): Es la diferencia entre el valor real y el valor predicho al cuadrado; penaliza los errores más grandes.
  • Función de activación: Decide si una neurona se activa o no; introduce no linealidad para aprender relaciones complejas. Tipos comunes:
    • Sigmoide: devuelve un valor entre 0 y 1.
    • ReLU (Rectified Linear Unit): si el número es negativo la neurona se apaga (salida 0) y si es positivo pasa la entrada.
    • Softmax: devuelve una distribución de probabilidad entre varias opciones (normaliza salidas para clasificación multiclase).
  • Ventajas de las redes neuronales: alta precisión, robustez al ruido, permiten salidas numéricas y categóricas, entre otras. Desventajas: entrenamiento costoso, difícil interpretación y alto coste computacional.
  • Backpropagation: Algoritmo usado para entrenar redes neuronales; consiste en calcular el error cometido por el modelo y propagarlo hacia atrás ajustando los pesos para minimizar el error.
  • Gradiente descendente: Método de optimización que ajusta los pesos iterativamente para minimizar la función de pérdida (error).
  • Clustering: Técnica que divide los datos en varios clusters o grupos parecidos entre sí; busca que la distancia entre clusters sea grande y, dentro de cada cluster, pequeña.
  • K-means: Divide el dataset en k clusters especificados por el usuario.
  • DBSCAN: Algoritmo de clustering basado en densidad. No requiere especificar k; detecta clusters según densidad y puede identificar outliers (puntos ruidosos) que quedan fuera de los clusters densos.

Notas prácticas

Escalado: Antes de usar modelos sensibles a la distancia (por ejemplo, k-NN o SVM) se recomienda aplicar estandarización o normalización para que todas las características contribuyan de forma equilibrada.

Selección de hiperparámetros: Use el conjunto de validación o métodos como validación cruzada (cross-validation) para seleccionar hiperparámetros de forma robusta.

Evaluación: Además de la matriz de confusión, utilice métricas adecuadas (precisión, recall, F1, AUC, MSE, etc.) según el problema.

Entradas relacionadas: