Aprendizaje automático y profundo en Python

Una mirada hacia la inteligencia artificial

Esta obra pretende ser una herramienta de apoyo y de consulta para estudiantes y profesionales interesados en dominar los fundamentos del aprendizaje automático y profundo, y así poder desarrollar sus propios modelos de aprendizaje aptos para realizar predicciones con base en los datos, para ello el autor combina explicaciones teóricas con ejemplos prácticos.

El libro se inicia con explicaciones sobre el lenguaje Python, para luego abarcar los algoritmos más destacados dentro del aprendizaje de máquina.

El contenido se encuentra dividido en dos partes: la primera enfocada en el machine learning y sus diferentes algoritmos de regresión y clasificación,
clustering, entre otros. La segunda parte comprende varias técnicas de deep learning donde estudiaremos diferentes arquitecturas de redes neuronales como: redes densamente conectadas, redes convolucionales y redes recurrentes.

Desde la web del libro podrá descargar los ejemplos y ejercicios que se desarrollan en el libro lo que facilitara al lector a asimilar lo aprendido.

DESCARGA DEL MATERIAL ADICIONAL

Escritor
Colección
Big data, Data Science e Inteligencia Artificial
Materia
Inteligencia artificial
Idioma
  • Castellano
EAN
9788418971853
ISBN
978-84-18971-85-3
Depósito legal
M-9068-2022
Páginas
346
Ancho
17 cm
Alto
24 cm
Peso
572 g
Edición
1
Fecha publicación
19-04-2022
Edición en papel
28,40 €
Descuento 5%29,90 €

581,00 MX$28,44 US$
También disponible en

Reseñas

Índice de contenido

Prólogo
Introducción

CAPÍTULO 1. Conceptos básicos de programación en Python 3.9

1.1 Entorno de desarrollo y primeros pasos
1.2 Variables, Tipos de datos y operadores
1.3 Estructuras de datos: Tuplas, listas y diccionarios
1.4 Estructuras selectivas
1.5 Estructuras repetitivas1.6 Funciones
1.7 Clases y objetos

CAPÍTULO 2. Introducción al Aprendizaje Automático

2.1 ¿Qué es aprendizaje automático?
2.2 Conceptos de aprendizaje automático
2.3 Tipos de aprendizaje automático40
2.4 Problemas tipicos en aprendizaje automático
2.5 Metodología CRISP-DM

CAPÍTULO 3. Herramientas para el aprendizaje automático

3.1 Manejo básico de datos con PANDAS
3.2 Manejo de arreglos con Numpy
3.2.1. Creación de arreglos
3.2.2. Acceso a elementos
3.2.3. Redimensionamiento
3.2.4. Operaciones matemáticas
3.3 Creando gráficos con Matplotlib
3.3.1 Gráficos de líneas
3.3.2 Gráficos de barras
3.3.3 Diagramas de dispersión
3.3.4. Histogramas
3.3.5. Diagrama de caja y bigotes
3.4 Breve Introducción a Scikit-Learn
CAPÍTULO 4. Preprocesado de datos

4.1 ¿Que es el preprocesado de datos?
4.2 Creación de conjunto de entrenamiento y pruebas
4.3 Manejo de datos ausentes
4.4 Manejo de datos categóricos
4.5 Escalamiento de características

CAPÍTULO 5. Modelos de regresión

5.1 Visualización de la relación entre características del conjunto de datos
5.2 Solución mediante el enfoque de mínimos cuadrados
5.3 Descenso del gradiente
5.4 Regresión lineal mediante scikit-learn
5.4.1. Regresión Simple
5.4.2 Regresión múltiple
5.5 Regresión con random sample consensus (RAMSAC)
5.6 Regresión lineal polinómica
5.7 Regresión lineal múltiple en notación matricial
5.8 Modelos no lineales
5.8.1 Funciones no lineales
5.8.2 Ejemplo suscripciones de telefonía

CAPÍTULO 6. Regularización, métricas de evaluación y ajuste de
hiperparámetros

6.1. Regularización
6.1.1 Regresión Rígida
6.1.2 Regresión Lasso
6.1.3 Red elástica
6.2. Métricas y técnicas de validación de modelos de regresión
6.2.1 Error absoluto medio (MAE)
6.2.2 Error cuadrático medio (MSE)
6.2.3 Coeficiente de determinación (R2)
6.2.4 Validación cruzada por k iteraciones
6.3. Curvas de aprendizaje y validación
6.4. Técnica de busqueda de cuadrículas par el ajuste de hiperparámetros

CAPÍTULO 7. Modelos de Clasificación I

7.1 Perceptrón simple
7.2 Neurona lineal adaptativa (ADALINE)
7.3 Regresión logística
7.3.1 Regresión logística con scikit-learn
7.3.2 Regresión logística con el descenso del gradiente estocástico
7.3.3 Regresión logística con regularización
7.4. Métricas de evaluación
7.4.1. Matriz de confusión
7.4.2. Exactitud (Accuracy)
7.4.3. Precisión (Precision)
7.4.4. Recall, Sensibilidad o TPR (Tasa de verdadero positivo)
7.4.5. F1
7.4.6. Tasa de falsos positivos
7.4.7. Curvas ROC (receiver operating characteristics)
7.5 Máquinas de vectores de soporte (SVM)
7.5.1. Clasificación Multiclase con SVM lineal
7.5.2. Kernels para separar datos no lineales

CAPÍTULO 8. Modelos de Clasificación II

8.1 Árboles de decisión
8.1.1. Métricas para medir la separación
8.1.2. Crear y visualizar árboles de decisión
8.1.3. Identificación de características importantes
8.2 Bosques aleatorios (Random Forest)
8.3 Adaboost (Adaptative boosting)
8.4 Gradient boosting
8.5 Naive bayes
8.6 K Vecinos mas cercanos (KNN)
8.7 Sistemas de recomendación
8.7.1. Sistemas de recomendación basados en contenido
8.7.2. Sistema de recomendación basado en filtro colaborativo?220
8.8 Entrenamiento mediante aprendizaje en línea

CAPÍTULO 9. Clustering

9.1 K Medias
9.2 Clustering jerárquico
9.3 Dbscan (Density Based Spatial Clustering of Applications with Noise)

CAPÍTULO 10. Reducción de la dimensionalidad

10.1 Análisis de componentes principales (PCA)
10.2 Análisis discriminante lineal (ADL)

CAPÍTULO 11. Introducción a las redes neuronales
11.1 Conceptos básicos sobre redes neuronales
11.1.1. Neurona artificial
11.1.2. Red neuronal
11.1.3. Pesos
11.1.4. Sesgos (Bias)
11.1.5. Funciones de activación determina la salida de la neurona.
11.2 Entrenamiento de una red neuronal
11.3 Red neuronal para clasificación binaria
11.4 neuronal para clasificación múltiple

CAPÍTULO 12. Redes neuronales convolucionales

12.1 Introducción a las redes neuronales convolucionales
12.1.1. Convolución
12.1.2. Agrupación
12.2 CNNs en Keras
12.3 Regularización y dropout

CAPÍTULO 13. Aumento de datos y transferencia de aprendizaje

13.1 Generador de datos de imágenes
13.2 Aumento de datos (data augmentation)
13.3 Transferencia de aprendizaje (transfer learning)
13.3.1. Extracción de características
13.3.2. Ajuste fino (Fine tuning)

CAPÍTULO 14. Introducción al Procesamiento del Lenguaje Natural (PNL)

14.1 Palabras embebidas (Word embedding)
14.2 Introducción a Word2Vec
14.3 Word2vec con librería Gensim

CAPÍTULO 15. Redes neuronales recurrentes (RNN)

15.1 Introducción a las redes neuronales recurrentes
15.2 Propagación a través del tiempo (BPTTT)
15.3 LSTM (Memoria larga a corto plazo)
15.3.1. Ejemplo sobre análisis de sentimiento
15.3.2. Ejemplo sobre generación de texto

Índice analítico

Referencias bibliográficas

Libros relacionados