Aprendizaje automático y profundo en Python
Una mirada hacia la inteligencia artificial
Carlos M. Pineda Pertuz
Esta obra pretende ser una herramienta de apoyo y de consulta para estudiantes y profesionales interesados en dominar los fundamentos del aprendizaje automático y profundo, y así poder desarrollar sus propios modelos de aprendizaje aptos para realizar predicciones con base en los datos, para ello el autor combina explicaciones teóricas con ejemplos prácticos.
El libro se inicia con explicaciones sobre el lenguaje Python, para luego abarcar los algoritmos más destacados dentro del aprendizaje de máquina.
El contenido se encuentra dividido en dos partes: la primera enfocada en el machine learning y sus diferentes algoritmos de regresión y clasificación,
clustering, entre otros. La segunda parte comprende varias técnicas de deep learning donde estudiaremos diferentes arquitecturas de redes neuronales como: redes densamente conectadas, redes convolucionales y redes recurrentes.
Desde la web del libro podrá descargar los ejemplos y ejercicios que se desarrollan en el libro lo que facilitara al lector a asimilar lo aprendido.
- Escritor
- Carlos M. Pineda Pertuz
- Colección
- Big data, Data Science e Inteligencia Artificial
- Materia
- Inteligencia artificial
- Idioma
- Castellano
- EAN
- 9788418971853
- ISBN
- 978-84-18971-85-3
- Depósito legal
- M-9068-2022
- Páginas
- 346
- Ancho
- 17 cm
- Alto
- 24 cm
- Peso
- 572 g
- Edición
- 1
- Fecha publicación
- 19-04-2022
Reseñas
Índice de contenido
Prólogo
Introducción
CAPÍTULO 1. Conceptos básicos de programación en Python 3.9
1.1 Entorno de desarrollo y primeros pasos
1.2 Variables, Tipos de datos y operadores
1.3 Estructuras de datos: Tuplas, listas y diccionarios
1.4 Estructuras selectivas
1.5 Estructuras repetitivas1.6 Funciones
1.7 Clases y objetos
CAPÍTULO 2. Introducción al Aprendizaje Automático
2.1 ¿Qué es aprendizaje automático?
2.2 Conceptos de aprendizaje automático
2.3 Tipos de aprendizaje automático40
2.4 Problemas tipicos en aprendizaje automático
2.5 Metodología CRISP-DM
CAPÍTULO 3. Herramientas para el aprendizaje automático
3.1 Manejo básico de datos con PANDAS
3.2 Manejo de arreglos con Numpy
3.2.1. Creación de arreglos
3.2.2. Acceso a elementos
3.2.3. Redimensionamiento
3.2.4. Operaciones matemáticas
3.3 Creando gráficos con Matplotlib
3.3.1 Gráficos de líneas
3.3.2 Gráficos de barras
3.3.3 Diagramas de dispersión
3.3.4. Histogramas
3.3.5. Diagrama de caja y bigotes
3.4 Breve Introducción a Scikit-Learn
CAPÍTULO 4. Preprocesado de datos
4.1 ¿Que es el preprocesado de datos?
4.2 Creación de conjunto de entrenamiento y pruebas
4.3 Manejo de datos ausentes
4.4 Manejo de datos categóricos
4.5 Escalamiento de características
CAPÍTULO 5. Modelos de regresión
5.1 Visualización de la relación entre características del conjunto de datos
5.2 Solución mediante el enfoque de mínimos cuadrados
5.3 Descenso del gradiente
5.4 Regresión lineal mediante scikit-learn
5.4.1. Regresión Simple
5.4.2 Regresión múltiple
5.5 Regresión con random sample consensus (RAMSAC)
5.6 Regresión lineal polinómica
5.7 Regresión lineal múltiple en notación matricial
5.8 Modelos no lineales
5.8.1 Funciones no lineales
5.8.2 Ejemplo suscripciones de telefonía
CAPÍTULO 6. Regularización, métricas de evaluación y ajuste de
hiperparámetros
6.1. Regularización
6.1.1 Regresión Rígida
6.1.2 Regresión Lasso
6.1.3 Red elástica
6.2. Métricas y técnicas de validación de modelos de regresión
6.2.1 Error absoluto medio (MAE)
6.2.2 Error cuadrático medio (MSE)
6.2.3 Coeficiente de determinación (R2)
6.2.4 Validación cruzada por k iteraciones
6.3. Curvas de aprendizaje y validación
6.4. Técnica de busqueda de cuadrículas par el ajuste de hiperparámetros
CAPÍTULO 7. Modelos de Clasificación I
7.1 Perceptrón simple
7.2 Neurona lineal adaptativa (ADALINE)
7.3 Regresión logística
7.3.1 Regresión logística con scikit-learn
7.3.2 Regresión logística con el descenso del gradiente estocástico
7.3.3 Regresión logística con regularización
7.4. Métricas de evaluación
7.4.1. Matriz de confusión
7.4.2. Exactitud (Accuracy)
7.4.3. Precisión (Precision)
7.4.4. Recall, Sensibilidad o TPR (Tasa de verdadero positivo)
7.4.5. F1
7.4.6. Tasa de falsos positivos
7.4.7. Curvas ROC (receiver operating characteristics)
7.5 Máquinas de vectores de soporte (SVM)
7.5.1. Clasificación Multiclase con SVM lineal
7.5.2. Kernels para separar datos no lineales
CAPÍTULO 8. Modelos de Clasificación II
8.1 Árboles de decisión
8.1.1. Métricas para medir la separación
8.1.2. Crear y visualizar árboles de decisión
8.1.3. Identificación de características importantes
8.2 Bosques aleatorios (Random Forest)
8.3 Adaboost (Adaptative boosting)
8.4 Gradient boosting
8.5 Naive bayes
8.6 K Vecinos mas cercanos (KNN)
8.7 Sistemas de recomendación
8.7.1. Sistemas de recomendación basados en contenido
8.7.2. Sistema de recomendación basado en filtro colaborativo?220
8.8 Entrenamiento mediante aprendizaje en línea
CAPÍTULO 9. Clustering
9.1 K Medias
9.2 Clustering jerárquico
9.3 Dbscan (Density Based Spatial Clustering of Applications with Noise)
CAPÍTULO 10. Reducción de la dimensionalidad
10.1 Análisis de componentes principales (PCA)
10.2 Análisis discriminante lineal (ADL)
CAPÍTULO 11. Introducción a las redes neuronales
11.1 Conceptos básicos sobre redes neuronales
11.1.1. Neurona artificial
11.1.2. Red neuronal
11.1.3. Pesos
11.1.4. Sesgos (Bias)
11.1.5. Funciones de activación determina la salida de la neurona.
11.2 Entrenamiento de una red neuronal
11.3 Red neuronal para clasificación binaria
11.4 neuronal para clasificación múltiple
CAPÍTULO 12. Redes neuronales convolucionales
12.1 Introducción a las redes neuronales convolucionales
12.1.1. Convolución
12.1.2. Agrupación
12.2 CNNs en Keras
12.3 Regularización y dropout
CAPÍTULO 13. Aumento de datos y transferencia de aprendizaje
13.1 Generador de datos de imágenes
13.2 Aumento de datos (data augmentation)
13.3 Transferencia de aprendizaje (transfer learning)
13.3.1. Extracción de características
13.3.2. Ajuste fino (Fine tuning)
CAPÍTULO 14. Introducción al Procesamiento del Lenguaje Natural (PNL)
14.1 Palabras embebidas (Word embedding)
14.2 Introducción a Word2Vec
14.3 Word2vec con librería Gensim
CAPÍTULO 15. Redes neuronales recurrentes (RNN)
15.1 Introducción a las redes neuronales recurrentes
15.2 Propagación a través del tiempo (BPTTT)
15.3 LSTM (Memoria larga a corto plazo)
15.3.1. Ejemplo sobre análisis de sentimiento
15.3.2. Ejemplo sobre generación de texto
Índice analítico
Referencias bibliográficas
Libros relacionados
(IFCD0099) Inteligencia artificial generativa y mejora de la productividad
(CTRD0035) Revolución Artificial: Aplicaciones basadas en inteligencia artificial
Herramientas IA para impulsar tu productividad
(IFCT0073) Mejora tu productividad con inteligencia artificial
Inteligencia artificial para pintores y artistas
ChatGPT para redes sociales
(COMM0032) Revolución artificial: Uso y aplicaciones de ChatGPT en el entorno digital
ChatGPT. Obtén el máximo rendimiento a la Inteligencía Artificial Generativa
(IFCD0094) Inteligencía Artificial Aplicada a la Ingeniería: Del Machine Learning al ChatGPT
(IFCT0049) ChatGPT e Inteligencía Artificial