Aprendizaje automático
con Python
Aprendizaje automático y aprendizaje profundo
con Python, scikit-learn y TensorFlow
Segunda edición
Aprendizaje automático
con Python
Aprendizaje automático y aprendizaje profundo
con Python, scikit-learn y TensorFlow
Sebastian Raschka
Vahid Mirjalili
Segunda edición original publicada en inglés por Packt Publishing Ltd. con el título: Python Machine Learning, © 2017 Sebastian Raschka y Vahid Mirjalili
Título de la edición en español: Aprendizaje automático con Python
Segunda edición en español, año 2019
© 2019 MARCOMBO, S.A.
www.marcombo.com
Traducción: Sònia Llena
Revisor técnico: Ferran Fàbregas
Correctora: Anna Alberola
Directora de producción: M.a Rosa Castillo
«Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra solo puede ser realizada con la autorización de sus titulares, salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español de Derechos Reprográficos, www.cedro.org) si necesita fotocopiar o escanear algún fragmento de esta obra».
ISBN: 978-84-267-2720-6
D.L.: B-27539-2018
Impreso en Servicepoint
Printed in Spain
Sobre los autores
Sebastian Raschka, autor del libro líder de ventas Python Machine Learning [Aprendizaje automático con Python], cuenta con años de experiencia en codificación en Python, y ha impartido muchos seminarios sobre aplicaciones prácticas de ciencia de datos, aprendizaje automático y aprendizaje profundo. También es autor de un tutorial de aprendizaje automático en SciPy (el congreso líder en computación científica en Python).
Si bien los proyectos académicos de investigación de Sebastian se centran principalmente en la resolución de problemas en biología computacional, lo que a él le gusta es escribir y hablar sobre ciencia de datos, aprendizaje automático y Python en general; le motiva ayudar a la gente a que desarrolle soluciones basadas en datos sin tener necesariamente una base en aprendizaje automático.
Su trabajo y sus contribuciones han sido recientemente reconocidos con el premio Departmental outstanding graduate student 2016-2017, así como con el ACM Computing Reviews' Best of 2016. En su tiempo libre, a Sebastian le gusta colaborar en proyectos de código abierto, y los métodos que ha implementado se utilizan actualmente con éxito en concursos sobre aprendizaje automatico, como Kaggle.
Me gustaría aprovechar esta oportunidad para dar las gracias a la excelente comunidad de Python y a los desarrolladores de paquetes de código abierto que me han ayudado a crear el entorno perfecto para la investigación científica y la ciencia de datos. También quiero dar las gracias a mis padres, quienes siempre me han animado y me han apoyado para seguir el camino y la carrera que tanto me apasionaba.
Quiero dar las gracias especialmente a los principales desarrolladores de scikit-learn. Como colaborador en su proyecto, he tenido el placer de trabajar con personas excelentes que no solo tienen grandes conocimientos sobre el aprendizaje automático sino que también son grandes programadores. Por último, me gustaría dar las gracias a Elie Kawerk, quien ha revisado de forma voluntaria este libro y me ha proporcionado un valioso feedback par los nuevos capítulos.
Vahid Mirjalili obtuvo su doctorado en ingeniería mecánica trabajando en métodos innovadores para simulaciones computacionales a gran escala de estructuras moleculares. Actualmente, centra su trabajo de investigación en aplicaciones de aprendizaje automático en distintos proyectos de visión por ordenador en el departamento de ciencia computacional e ingeniería de la Michigan State University.
Vahid eligió Python como su lenguaje de programación número uno, y durante su carrera de investigación y académica ha adquirido una gran experiencia en la codificación en Python. Aprendió a programar con Python en las clases de ingeniería en la Michigan State University, que le dieron la oportunidad de ayudar a otros estudiantes a entender distintas estructuras de datos y a desarrollar eficazmente código en Python.
Si bien gran parte de los intereses de investigación de Vahid se centran en las aplicaciones de aprendizaje profundo y de visión por ordenador, siente interés especialmente por equilibrar técnicas de aprendizaje profundo para ampliar la privacidad en datos biométricos, como las imágenes del rostro para que la información no se revele más de lo que los usuarios intentan revelar. Además, también colabora con un equipo de ingenieros que trabajan en coches autónomos, donde él diseña modelos de redes neuronales para la fusión de imágenes multiespectrales para la detección de peatones.
Me gustaría dar las gracias a mi mentor de doctorado, Dr. Arun Ross, por darme la oportunidad de trabajar en nuevos problemas en su laboratorio de investigación. También quiero dar las gracias al Dr. Vishnu Boddeti por despertar mi interés en el aprendizaje profundo y desmitificar sus conceptos básicos.
Introducción
Debido a su aparición en noticias y redes sociales, probablemente eres consciente de que el machine learning o aprendizaje automático se ha convertido en una de las tecnologías más apasionantes de nuestros tiempos. Grandes compañías, como Google, Facebook, Apple, Amazon e IBM, han invertido fuertemente en aplicaciones e investigación de aprendizaje automático por buenas razones. Si bien puede parecer que el aprendizaje automático se ha convertido en la palabra de moda de nuestros tiempos, la verdad es que no se trata de una moda pasajera. Este apasionante campo abre la puerta a nuevas posibilidades y se ha convertido en indispensable en nuestra vida diaria. Y esto se evidencia cuando hablamos con el asistente de voz en nuestros teléfonos inteligentes, recomendamos el producto adecuado a nuestros clientes, evitamos fraudes con las tarjetas de crédito, filtramos el correo no deseado para que no entre en nuestra bandeja de entrada o detectamos y diagnosticamos enfermedades. Y la lista no acaba aquí.
Si te quieres dedicar al aprendizaje automático, si quieres mejorar la resolución de problemas, o si quizás estás considerando hacer una carrera en investigación sobre aprendizaje automático, este libro es para ti. Sin embargo, para un principiante, los conceptos teóricos que se esconden detrás del aprendizaje automático pueden ser bastante abrumadores. En los últimos años, se han publicado muchos libros prácticos que pueden ayudarte a empezar con el aprendizaje automático mediante la implementación de potentes algoritmos de aprendizaje.
El planteamiento de ejemplos de código prácticos y el trabajo con aplicaciones de ejemplo de aprendizaje automático son una excelente forma de profundizar en este campo. Los ejemplos concretos ayudan a ilustrar los amplios conceptos poniendo en práctica directamente el material aprendido. ¡Pero recuerda que un gran poder conlleva una gran responsabilidad! Además de proporcionar una experiencia práctica con el aprendizaje automático mediante los lenguajes de programación de Python y las librerías de aprendizaje automático basadas en Python, este libro presenta los conceptos matemáticos que se esconden detrás de los algoritmos del aprendizaje automático, aspecto esencial para que el uso del aprendizaje automático sea un éxito. Por lo tanto, este libro no es estrictamente un libro práctico; es un libro que trata los detalles necesarios relacionados con los conceptos del aprendizaje automático y ofrece explicaciones intuitivas y, al mismo tiempo, informativas acerca de cómo trabajan los algoritmos del aprendizaje automático, cómo utilizarlos y, lo más importante, cómo evitar los errores más comunes.
Actualmente, si escribes «aprendizaje automático» en Google Académico obtienes un abrumador número de resultados: más de 90 000. Evidentemente, no podemos discutir la esencia de todos los diferentes algoritmos y aplicaciones que han surgido en los últimos 60 años. Sin embargo, en este libro emprenderemos un apasionante viaje que recorre todos los conceptos y temas esenciales para que tengas un buen comienzo en este campo. Si crees que tu sed de conocimientos no queda satisfecha, este libro contiene referencias a múltiples recursos útiles que pueden servir para seguir adelante con los avances esenciales en este campo.
Si ya has estudiado antes la teoría del aprendizaje automático en detalle, este libro te mostrará cómo poner en práctica todo cuanto sabes. Si has utilizado antes técnicas de aprendizaje automático y deseas obtener más información acerca de cómo funciona realmente el aprendizaje automático, este libro es para ti. Y no te preocupes si eres completamente nuevo en este campo; todavía tienes más razones para estar emocionado. Te prometemos que el aprendizaje automático cambiará la manera que tienes de pensar en los problemas que quieres resolver y te mostrará cómo abordarlos desbloqueando el poder de los datos.
Antes de ir más lejos en el campo del aprendizaje automático, vamos a dar respuesta a tu pregunta más importante: «¿Por qué Python?». La respuesta es simple: porque es potente y, a la vez, muy accesible. Python se ha convertido en el lenguaje de programación más popular para la ciencia de datos porque permite que nos olvidemos de la parte tediosa de la programación y nos ofrece un entorno donde podemos anotar rápidamente nuestras ideas y poner los conceptos directamente en acción.
Nosotros, los autores, podemos decir de verdad que el estudio del aprendizaje automático nos ha hecho mejores científicos, mejores pensadores y mejores solucionadores de problemas. En este libro, queremos compartir contigo estos conocimientos. El conocimiento se obtiene aprendiendo. La clave se encuentra en nuestro entusiasmo y el verdadero dominio de las habilidades solo se puede lograr con la práctica. El camino a recorrer puede estar, en ocasiones, lleno de baches y algunos temas pueden ser más desafiantes que otros, pero esperamos que aceptes esta oportunidad y te centres en la recompensa. Recuerda que estamos juntos en este viaje y que, con este libro, vamos a añadir poderosas técnicas a tu arsenal que nos ayudarán a resolver incluso los problemas más difíciles planteados por datos.
Qué contiene este libro
El Capítulo 1, Dar a los ordenadores el poder de aprender de los datos presenta las principales subáreas del aprendizaje automático para resolver distintas tareas problemáticas. Además, trata sobre los pasos esenciales para crear un modelo típico de aprendizaje automático mediante la construcción de un entramado que nos guiará a través de los siguientes capítulos.
El Capítulo 2, Entrenar algoritmos simples de aprendizaje automático para clasificación vuelve a los orígenes del aprendizaje automático y presenta clasificadores binarios basados en perceptrones y neuronas lineales adaptativas. Este capítulo es una breve introducción a los fundamentos de la clasificación de patrones y se centra en la interacción de algoritmos de optimización y aprendizaje automático.
El Capítulo 3, Un recorrido por los clasificadores de aprendizaje automático con scikit-learn describe los algoritmos básicos del aprendizaje automático para clasificar y proporciona ejemplos prácticos con una de las librerías de aprendizaje automático de código abierto más exhaustiva y conocida: scikit-learn.
El Capítulo 4, Generar buenos modelos de entrenamiento: preprocesamiento de datos trata sobre cómo enfrentarnos a los problemas más comunes de conjuntos de datos no procesados, como los datos incompletos. También trata varios enfoques para identificar las características más informativas en los conjuntos de datos y muestra cómo preparar variables de diferentes tipos, como entradas correctas para algoritmos de aprendizaje automático.
El Capítulo 5, Comprimir datos mediante la reducción de dimensionalidad describe las técnicas esenciales para reducir el número de características en un conjunto de datos a conjuntos más pequeños manteniendo la mayor parte de su información útil y discriminatoria. Trata del enfoque estándar de la reducción de dimensionalidad mediante el análisis del componente principal y lo compara con técnicas de transformación no lineales y supervisadas.
El Capítulo 6, Aprender las mejores prácticas para la evaluación de modelos y el ajuste de hiperparámetros habla de lo que se debe y no se debe hacer para estimar los resultados de los modelos predictivos. Además, analiza distintos parámetros para medir los resultados de nuestros modelos y técnicas para ajustar con precisión los algoritmos del aprendizaje automático.
El Capítulo 7, Combinar diferentes modelos para el aprendizaje conjunto presenta los diferentes conceptos para combinar de manera efectiva múltiples algoritmos de aprendizaje. Muestra cómo crear sistemas expertos para superar las debilidades de aprendizajes individuales, que den como resultado unas predicciones más precisas y fiables.
El Capítulo 8, Aplicar el aprendizaje automático para el análisis de sentimiento trata los pasos esenciales para transformar datos textuales en representaciones con significado para los algoritmos del aprendizaje automático, para así predecir las opiniones de la gente en base a su escritura.
El Capítulo 9, Incrustar un modelo de aprendizaje automático en una aplicación web retoma el modelo predictivo del capítulo anterior y continúa con los pasos esenciales del desarrollo de aplicaciones web con modelos de aprendizaje automático incrustados.
El Capítulo 10, Predicción de variables de destino continuas con análisis de regresión habla de las técnicas esenciales para relaciones lineales de modelado entre destino y variables de respuesta para hacer predicciones en una escala continua. Después de introducir diferentes modelos lineales, también trata de la regresión polinomial y los enfoques basados en árboles.
El Capítulo 11, Trabajar con datos sin etiquetar: análisis de grupos cambia el enfoque a una subárea distinta del aprendizaje automático: el aprendizaje no supervisado. Aplicamos algoritmos de tres familias básicas de algoritmos agrupados para encontrar grupos de objetos que compartan un cierto grado de semejanza.
El Capítulo 12, Implementar una red neuronal artificial multicapa desde cero amplía el concepto de optimización basada en gradiente, que introducimos por primera vez en el Capítulo 2, Entrenando algoritmos simples del aprendizaje automático para la clasificación, para construir potentes redes neuronales multicapas basadas en el popular algoritmo backpropagation de Python.
El Capítulo 13, Paralelización de entrenamiento de redes neuronales con TensorFlow se basa en cuanto se ha aprendido en el capítulo anterior para proporcionar una guía práctica para el entrenamiento más eficaz de redes neuronales. Este capítulo se centra en TensorFlow, una librería de Python de código abierto que nos permite utilizar múltiples núcleos de GPU modernas.
El Capítulo 14, Ir más lejos: la mecánica de TensorFlow cubre TensorFlow de un modo mucho más detallado, explicando sus conceptos básicos de sesiones y gráficos computacionales. Además, este capítulo trata temas como guardar y visualizar gráficos de redes neuronales, que serán muy útiles para el resto de capítulos del libro.
El Capítulo 15, Clasificar imágenes con redes neuronales convolucionales profundas habla de la arquitectura de las redes neuronales profundas, que se ha convertido en el nuevo estándar en campos de visión artificial y reconocimiento de imágenes (redes neuronales convolucionales). Este capítulo tratará los principales conceptos entre capas convolucionales, como extractor de características, y la aplicación de arquitecturas de redes neuronales convolucionales a una tarea de clasificación de imágenes para conseguir una precisión casi perfecta en la clasificación.
El Capítulo 16, Modelado de datos secuenciales mediante redes neuronales recurrentes presenta otra arquitectura de red neuronal popular para el aprendizaje profundo que es muy aconsejable, especialmente para trabajar con datos secuenciales y datos de series de tiempo. En este capítulo, aplicaremos diferentes arquitecturas de redes neuronales recurrentes a datos textuales. Empezaremos con una tarea de análisis de sentimientos como ejercicio de calentamiento y aprenderemos a generar por completo un nuevo texto.
Qué necesitas para este libro
La ejecución de los ejemplos de código proporcionados en este libro requiere una instalación de Python 3.6.0 o posterior en macOS, Linux o Microsoft Windows. Con frecuencia utilizaremos librerías básicas de Python para computación científica, como SciPy, NumPy, scikit-learn, Matplotlib y pandas.
En el primer capítulo encontrarás instrucciones y consejos útiles para configurar tu entorno de Python y estas librerías básicas. Añadiremos librerías adicionales a nuestro repertorio. Además, en los correspondientes capítulos también se proporcionan instrucciones de instalación: la librería NLTK para procesamiento de lenguaje natural (Capítulo 8, Aplicar el aprendizaje automático para el análisis de sentimientos), el framework de desarrollo web Flask (Capítulo 9, Incrustar un modelo de aprendizaje automático en una aplicación web), la librería Seaborn para la visualización de datos estadísticos (Capítulo 10, Predicción de variables de destino continuas con análisis de regresión) y TensorFlow para el entrenamiento eficaz de redes neuronales en unidades de procesamiento gráfico (Capítulos 13 a 16).
A quién va dirigido este libro
Si te interesa saber cómo utilizar Python para empezar a dar respuesta a cuestiones importantes sobre tus datos, elige Aprendizaje automático con Python - Segunda edición. Tanto si deseas empezar desde cero como si deseas ampliar tus conocimientos científicos sobre datos, este es un recurso esencial e ineludible.
Convenciones
En este libro, encontrarás múltiples estilos de texto que distinguen entre diferentes tipos de información. A continuación, verás algunos ejemplos de estos estilos y una explicación de su significado.
Código en texto, nombres de tablas de bases de datos, nombres de directorios, nombres de archivos, extensiones de archivo, nombres de ruta, URL ficticias, entradas de usuario y controles de Twitter se muestran del siguiente modo: «Con la configuración out_file=None, asignamos directamente el dato de punto a una variable dot_data, en lugar de escribir un fichero tree.dot intermedio al disco».
Un bloque de código se indica de este modo:
>>> from sklearn.neighbors import KNeighborsClassifier
>>> knn = KNeighborsClassifier(n_neighbors=5, p=2,
... metric='minkowski')
>>> knn.fit(X_train_std, y_train)
>>> plot_decision_regions(X_combined_std, y_combined,
... classifier=knn, test_idx=range(105,150))
>>> plt.xlabel('petal length [standardized]')
>>> plt.ylabel('petal width [standardized]')
>>> plt.show()
Todas las líneas de comando de entrada y salida se escriben así:
pip3 install graphviz
Los nuevos términos y las palabras importantes se muestran en negrita. Las palabras que ves en pantalla, por ejemplo en menús o cuadros de diálogo, aparecen en el texto de este modo: «Después de hacer clic en el botón Dashboard de la esquina superior derecha, accedemos al panel de control que se muestra en la parte superior de la página».
|
Advertencias o notas importantes se muestran en un cuadro como este. |
|
|
Trucos y consejos se muestran así. |
|
Descargar el código de ejemplo
y las imágenes en color de este libro
En la parte inferior de la primera página del libro encontrarás el código de acceso que te permitirá descargar de forma gratuita los contenidos adicionales del libro.
Índice
Sobre los autores
Introducción
Qué contiene este libro
Qué necesitas para este libro
A quién va dirigido este libro
Convenciones
Descargar el código de ejemplo y las imágenes en color de este libro
Capítulo 1: Dar a los ordenadores el poder de aprender de los datos
Crear máquinas inteligentes para transformar datos en conocimiento
Los tres tipos de aprendizaje automático
Hacer predicciones sobre el futuro con el aprendizaje supervisado
Clasificación para predecir etiquetas de clase
Regresión para predecir resultados continuos
Resolver problemas interactivos con aprendizaje reforzado
Descubrir estructuras ocultas con el aprendizaje sin supervisión
Encontrar subgrupos con el agrupamiento
Reducción de dimensionalidad para comprimir datos
Introducción a la terminología básica y las notaciones
Una hoja de ruta para crear sistemas de aprendizaje automático
Preprocesamiento: Dar forma a los datos
Entrenar y seleccionar un modelo predictivo
Evaluar modelos y predecir instancias de datos no vistos
Utilizar Python para el aprendizaje automático
Utilizar la distribución y el gestor de paquetes Anaconda de Python
Paquetes para cálculo científico, ciencia de datos y aprendizaje automático
Resumen
Capítulo 2: Entrenar algoritmos simples de aprendizaje automático para clasificación
Neuronas artificiales: un vistazo a los inicios del aprendizaje automático
La regla de aprendizaje del perceptrón
Implementar un algoritmo de aprendizaje de perceptrón en Python
Una API perceptrón orientada a objetos
Entrenar un modelo de perceptrón en el conjunto de datos Iris
Neuronas lineales adaptativas y la convergencia del aprendizaje
Minimizar funciones de coste con el descenso de gradiente
Implementar Adaline en Python
Mejorar el descenso de gradiente mediante el escalado de características
Aprendizaje automático a gran escala y descenso de gradiente estocástico
Resumen
Capítulo 3: Un recorrido por los clasificadores de aprendizaje automático con scikit-learn
Elegir un algoritmo de clasificación
Primeros pasos con scikit-learn:entrenar un perceptrón
Modelar probabilidades de clase mediante regresión logística
Intuición en regresión logística y probabilidades condicionales
Aprender los pesos de la función de coste logística
Convertir una implementación Adaline en un algoritmo para regresión logística
Entrenar un modelo de regresión logística con scikit-learn
Abordar el sobreajuste con la regularización
Margen de clasificación máximo con máquinas de vectores de soporte
Margen máximo de intuición
Tratar un caso separable no lineal con variables flexibles
Implementaciones alternativas en scikit-learn
Resolver problemas no lineales con una SVM kernelizada
Métodos kernel para datos inseparables lineales
El truco de kernel para encontrar hiperplanos separados en un espacio de mayor dimensionalidad
Aprendizaje basado en árboles de decisión
Maximizar la ganancia de información: sacar el mayor partido de tu inversión
Crear un árbol de decisión
Combinar árboles de decisión múltiples mediante bosques aleatorios
K-vecinos más cercanos: un algoritmo de aprendizaje vago
Resumen
Capítulo 4: Generar buenos modelos de entrenamiento: preprocesamiento de datos
Tratar con datos ausentes
Eliminar muestras o características con valores ausentes
Imputar valores ausentes
Entender la API de estimador de scikit-learn
Trabajar con datos categóricos
Características nominales y ordinales
Crear un conjunto de datos de ejemplo
Mapear características ordinales
Codificar etiquetas de clase
Realizar una codificación en caliente sobre características nominales
Dividir un conjunto de datos en conjuntos de prueba y de entrenamiento individuales
Ajustar las características a la misma escala
Seleccionar características significativas
Una interpretación geométrica de la regularización L2
Soluciones dispersas con la regularización L1
Algoritmos de selección de características secuenciales
Evaluar la importancia de las características con bosques aleatorios
Resumen
Capítulo 5: Comprimir datos mediante la reducción de dimensionalidad
Reducción de dimensionalidad sin supervisión mediante el análisis de componentes principales
Los pasos esenciales que se esconden detrás del análisis de componentes principales
Extraer los componentes principales paso a paso
Varianza total y explicada
Transformación de características
Análisis de componentes principales en scikit-learn
Compresión de datos supervisada mediante análisis discriminante lineal
Análisis de componentes principales frente a análisis discriminante lineal
Cómo funciona interiormente el análisis discriminante lineal
Calcular las matrices de dispersión
Seleccionar discriminantes lineales para el nuevo subespacio de características
Proyectar muestras en el nuevo espacio de características
ADL con scikit-learn
Utilizar el análisis de componentes principales con kernels para mapeos no lineales
Funciones kernel y el truco del kernel
Implementar un análisis de componentes principales con kernels en Python
Ejemplo 1: separar formas de media luna
Ejemplo 2: separar círculos concéntricos
Proyectar nuevos puntos de datos
Análisis de componentes principales con kernel en scikit-learn
Resumen
Capítulo 6: Aprender las buenas prácticas para la evaluación de modelos y el ajuste de hiperparámetros
Simplificar flujos de trabajo con pipelines
Combinar transformadores y estimadores en un pipeline
Utilizar la validación cruzada de K iteraciones para evaluar el rendimiento de un modelo
El método de retención
Validación cruzada de k iteraciones
Depurar algoritmos con curvas de validación y aprendizaje
Diagnosticar problemas de sesgo y varianza con curvas de aprendizaje
Resolver el sobreajuste y el subajuste con curvas de validación
Ajustar los modelos de aprendizaje automático con la búsqueda de cuadrículas
Ajustar hiperparámetros con la búsqueda de cuadrículas
Selección de algoritmos con validación cruzada anidada
Observar diferentes métricas de evaluación de rendimiento
Leer una matriz de confusión
Optimizar la exactitud y la exhaustividad de un modelo de clasificación
Representar una característica operativa del receptor
Métricas de calificación para clasificaciones multiclase
Tratar con el desequilibrio de clases
Resumen
Capítulo 7: Combinar diferentes modelos para el aprendizaje conjunto
Aprender con conjuntos
Combinar clasificadores mediante el voto mayoritario
Implementar un sencillo clasificador de voto mayoritario
Utilizar el principio de voto mayoritario para hacer predicciones
Evaluar y ajustar el clasificador conjunto
Bagging: construir un conjunto de clasificadores a partir de muestras bootstrap
El bagging resumido
Aplicar el bagging para clasificar muestras en el conjunto de datos Wine
Potenciar los clasificadores débiles con el boosting adaptado
Cómo trabaja el boosting
Aplicar AdaBoost con scikit-learn
Resumen
Capítulo 8: Aplicar el aprendizaje automático para el análisis de sentimiento
Preparar los datos de críticas de cine de IMDb para el procesamiento de texto
Obtener el conjunto de datos de críticas de cine
Preprocesar el conjunto de datos de películas en un formato adecuado
Introducir el modelo «bolsa de palabras»
Transformar palabras en vectores de características
Relevancia de las palabras mediante frecuencia de término–frecuencia inversa de documento
Limpiar datos textuales
Procesar documentos en componentes léxicos
Entrenar un modelo de regresión logística para clasificación de documentos
Trabajar con datos más grandes: algoritmos online y aprendizaje out-of-core
Modelado de temas con Latent Dirichlet Allocation
Descomponer documentos de textos con LDA
LDA con scikit-learn
Resumen
Capítulo 9: Incrustar un modelo de aprendizaje automático en una aplicación web
Serializar estimadores de scikit-learn ajustados
Configurar una base de datos SQLite para el almacenamiento de datos
Desarrollar una aplicación web con Flask
Nuestra primera aplicación web con Flask
Validación y renderizado de formularios
Configurar la estructura del directorio
Implementar una macro mediante el motor de plantillas Jinja2
Añadir estilos con CSS
Crear la página resultante
Convertir el clasificador de críticas de cine en una aplicación web
Archivos y carpetas: observar el árbol de directorios
Implementar la aplicación principal como app.py
Preparar el formulario de críticas
Crear una plantilla de página de resultados
Desplegar la aplicación web en un servidor público
Crear una cuenta de PythonAnywhere
Cargar la aplicación del clasificador de películas
Actualizar el clasificador de películas
Resumen
Capítulo 10: Predicción de variables de destino continuas con análisis de regresión
Introducción a la regresión lineal
Regresión lineal simple
Regresión lineal múltiple
Explorar el conjunto de datos Housing
Cargar el conjunto Housing en un marco de datos
Visualizar las características importantes de un conjunto de datos
Observar las relaciones mediante una matriz de correlación
Implementar un modelo de regresión lineal de mínimos cuadrados ordinarios
Resolver la regresión para parámetros de regresión con el descenso del gradiente
Estimar el coeficiente de un modelo de regresión con scikit-learn
Ajustar un modelo de regresión robusto con RANSAC
Evaluar el rendimiento de los modelos de regresión lineal
Utilizar métodos regularizados para regresión
Convertir un modelo de regresión lineal en una curva: la regresión polinomial
Añadir términos polinomiales con scikit-learn
Modelar relaciones no lineales en el conjunto de datos Housing
Tratar con relaciones no lineales mediante bosques aleatorios
Regresión de árbol de decisión
Regresión con bosques aleatorios
Resumen
Capítulo 11: Trabajar con datos sin etiquetar: análisis de grupos
Agrupar objetos por semejanza con k-means
Agrupamiento k-means con scikit-learn
Una manera más inteligente de colocar los centroides de los grupos iniciales con k-means++
Agrupamiento pesado frente a no pesado
Utilizar el método elbow para encontrar el número óptimo de grupos
Cuantificar la calidad del agrupamiento mediante gráficos de silueta
Organizar agrupamientos como un árbol jerárquico
Agrupar los grupos de manera ascendente
Realizar agrupamientos jerárquicos en una matriz de distancias
Adjuntar dendrogramas a un mapa de calor
Aplicar un agrupamiento aglomerativo con scikit-learn
Ubicar regiones de alta densidad con DBSCAN
Resumen
Capítulo 12: Implementar una red neuronal artificial multicapa desde cero
Modelar funciones complejas con redes neuronales artificiales
Resumen de una red neuronal de una capa
Activar una red neuronal mediante la propagación hacia delante
Clasificar dígitos manuscritos
Obtener el conjunto de datos MNIST
Implementar un perceptrón multicapa
Entrenar una red neuronal artificial
Calcular la función de coste logística
Desarrollar tu intuición para la propagación hacia atrás
Entrenar redes neuronales mediante la propagación hacia atrás
Sobre la convergencia en redes neuronales
Unas últimas palabras sobre la implementación de redes neuronales
Resumen
Capítulo 13: Paralelización de entrenamiento de redes neuronales con TensorFlow
TensorFlow y rendimiento de entrenamiento
¿Qué es TensorFlow?
Cómo aprenderemos TensorFlow
Primeros pasos con TensorFlow
Trabajar con estructuras de matriz
Desarrollar un modelo simple con la API de bajo nivel de TensorFlow
Entrenar redes neuronales eficazmente con las API de alto nivel de TensorFlow
Crear redes neuronales multicapa mediante la API Layers de TensorFlow
Desarrollar una red neuronal multicapa con Keras
Elegir funciones de activación para redes multicapa
Resumen de la función logística
Estimar probabilidades de clase en clasificaciones multiclase con softmax
Ampliar el espectro de salida con una tangente hiperbólica
Activación de la unidad lineal rectificada
Resumen
Capítulo 14: Ir más lejos: la mecánica de TensorFlow
Características clave de TensorFlow
Rango y tensores de TensorFlow
Cómo obtener la dimensión y la forma de un tensor
Entender los grafos computacionales de TensorFlow
Marcadores de posición en TensorFlow
Definir marcadores de posición
Alimentar marcadores de posición con datos
Definir marcadores de posición para matrices de datos con diferentes tamaños de lote
Variables en TensorFlow
Definir variables
Inicializar variable
Alcance de la variable
Reutilizar variables
Crear un modelo de regresión
Ejecutar objetos en un grafo de TensorFlow mediante sus nombres
Almacenar y restablecer un modelo en TensorFlow
Transformar tensores como matrices de datos multidimensionales
Utilizar la mecánica de control de flujopara crear grafos
Visualizar el grafo con TensorBoard
Ampliar tu experiencia en TensorBoard
Resumen
Capítulo 15: Clasificar imágenes con redes neuronales convolucionales profundas
Bloques de construcción de redes neuronales convolucionales
Entender las CNN y conocer las jerarquías de características
Realizar convoluciones discretas
Realizar una convolución discreta en una dimensión
El efecto del relleno de ceros en una convolución
Determinar el tamaño de la salida de convolución
Realizar un convolución discreta en 2D
Submuestreo
Juntarlo todo para crear una CNN
Trabajar con entradas múltiples o canales de color
Regularizar una red neuronal con la eliminación
Implementar una red neuronal convolucional profunda con TensorFlow
La arquitectura de una CNN multicapa
Cargar y preprocesar los datos
Implementar una CNN en la API de TensorFlow de bajo nivel
Implementar una CNN en la API Layers de TensorFlow
Resumen
Capítulo 16: Modelado de datos secuenciales mediante redes neuronales recurrentes
Introducir datos secuenciales
Modelar datos secuenciales: el orden sí importa
Representar secuencias
Las diferentes categorías del modelado de secuencias
RNN para modelar secuencias
Entender la estructura y el flujo de una RNN
Calcular activaciones en una RNN
Los retos del aprendizaje de interacciones de largo alcance
Unidades de LSTM
Implementar una RNN multicapa para modelar secuencias en TensorFlow
Proyecto uno: crear un análisis de sentimiento de las críticas de películas IMDb con RNN multicapa
Preparar los datos
Embedding
Construir un modelo de RNN
El constructor de la clase SentimentRNN
El método build
Paso 1: definir celdas RNN multicapa
Paso 2: definir los estados iniciales para las celdas RNN
Paso 3: crear la RNN utilizando las celdas RNN y sus estados
El método train
El método predict
Instanciar la clase SentimentRNN
Entrenar y optimizar el análisis de sentimiento de un modelo RNN
Proyecto dos: implementar una RNN para el modelado de lenguaje a nivel de carácter en TensorFlow
Preparar los datos
Construir un modelo RNN a nivel de carácter
El constructor
El método build
El método train
El método sample
Crear y entrenar el modelo CharRNN
El modelo CharRNN en el modo de muestreo
Resumen del capítulo y del libro
ÍNDICE ANALÍTICO