MARC details
| 000 -CABECERA |
| campo de control de longitud fija |
23171 a2200253 4500 |
| 003 - IDENTIFICADOR DE NÚMERO DE CONTROL |
| campo de control |
OSt |
| 008 - DATOS DE LONGITUD FIJA--INFORMACIÓN GENERAL |
| campo de control de longitud fija |
250329s########|||||||||||||||||||||||#d |
| 020 ## - ISBN |
| Número Internacional Estándar del Libro |
9786075386133 |
| 040 ## - FUENTE DE CATALOGACIÓN |
| Centro catalogador/agencia de origen |
GAMADERO |
| Lengua de catalogación |
Español |
| Centro/agencia transcriptor |
GAMADERO |
| 041 ## - CÓDIGO DE IDIOMA |
| Código de idioma del texto |
Español |
| 050 00 - SIGNATURA TOPOGRÁFICA DE LA BIBLIOTECA DEL CONGRESO |
| Número de clasificación |
QA76.73P98T67 |
| 100 ## - ENTRADA PRINCIPAL--NOMBRE DE PERSONA |
| Nombre de persona |
JORDI TORRES |
| 245 ## - MENCIÓN DEL TÍTULO |
| Título |
PYTHON DEEP LEARNING INTRODUCCION PRACTICA CON KER / |
| 250 ## - MENCION DE EDICION |
| Mención de edición |
PRIMERA |
| 260 ## - PUBLICACIÓN, DISTRIBUCIÓN, ETC. |
| Nombre del editor |
ALFAOMEGA |
| Lugar de publicación |
MEXICO |
| 300 ## - DESCRIPCIÓN FÍSICA |
| Extensión |
384PG. |
| Otras características físicas |
ILUSTRACIONES |
| Dimensiones |
17 X 23 CM |
| 504 ## - NOTA DE BIBLIOGRAFÍA |
| Nota de bibliografía |
Autor:<br/>TORRES I VIÑALS, Jordi<br/>Precio: $688.00 MXN ($38.87 USD)<br/>SKU: 7096_base<br/>Páginas: 384<br/>ISBN: 978-607-538-613-3<br/>Coedición: Alfaomega, Marcombo |
| 505 ## - TABLA DE CONTENIDO |
| Tabla de contenido |
Prefacio .......................................................................................................................... 17<br/>Acerca de este libro ...................................................................................................... 19<br/>PARTE 1: INTRODUCCIÓN ........................................................................................... 23<br/>CAPÍTULO 1. ¿Qué es el Deep Learning? .................................................................. 25<br/>1.1. Inteligencia artificial ............................................................................................ 26<br/>1.1.1. La inteligencia artificial está cambiando nuestras vidas ............................. 26<br/>1.1.2. Clases de inteligencia artificial .................................................................... 28<br/>1.2. Machine Learning ............................................................................................... 29<br/>1.3. Redes neuronales y Deep Learning ................................................................... 31<br/>1.3.1. Redes neuronales artificiales ...................................................................... 31<br/>1.3.2. Las Deep Networks básicas ........................................................................ 33<br/>1.4. ¿Por qué ahora? ................................................................................................ 34<br/>1.4.1. La supercomputación corazón del Deep Learning ..................................... 34<br/>1.4.2. Los datos, el combustible para la inteligencia artificial ............................... 42<br/>1.4.3. Democratización de la computación ........................................................... 43<br/>1.4.4. Una comunidad de investigación muy colaborativa .................................... 44<br/>CAPÍTULO 2. Entorno de trabajo ................................................................................. 47<br/>2.1. Entorno de trabajo .............................................................................................. 47<br/>2.2. TensorFlow y Keras ........................................................................................... 52<br/>2.2.1. TensorFlow .................................................................................................. 52<br/>2.2.2. Keras ........................................................................................................... 54<br/>CAPÍTULO 3. Python y sus librerías ........................................................................... 57<br/>3.1. Conceptos básicos de Python ............................................................................ 57<br/>3.1.1. Primeros pasos ........................................................................................... 57<br/>3.1.2. Sangrado en Python ................................................................................... 59<br/>3.1.3. Variables, operadores y tipos de datos ....................................................... 60<br/>3.1.4. Tipos de estructuras de datos ..................................................................... 62<br/>3.1.5. Sentencias de control de flujo ..................................................................... 65<br/>3.1.6. Funciones .................................................................................................... 67<br/>3.1.7. Clases ......................................................................................................... 68<br/>3.1.8. Decoradores ................................................................................................ 70<br/>3.2. Librería NumPy ................................................................................................... 72<br/>3.2.1. Tensor ......................................................................................................... 72<br/>3.2.2. Manipulación de los tensores ...................................................................... 75<br/>3.2.3. Valor máximo en un tensor ......................................................................... 77<br/>11<br/>PARTE 2: FUNDAMENTOS DEL DEEP LEARNING .................................................... 79<br/>CAPÍTULO 4. Redes neuronales densamente conectadas ....................................... 81<br/>4.1. Caso de estudio: reconocimiento de dígitos ...................................................... 81<br/>4.2. Una neurona artificial ......................................................................................... 84<br/>4.2.1. Introducción a la terminología y notación básica ........................................ 84<br/>4.2.2. Algoritmos de regresión .............................................................................. 85<br/>4.2.3. Una neurona artificial simple ....................................................................... 86<br/>4.3. Redes neuronales .............................................................................................. 89<br/>4.3.1. Perceptrón ................................................................................................... 89<br/>4.3.2. Perceptrón multicapa .................................................................................. 90<br/>4.3.3. Perceptrón multicapa para clasificación ..................................................... 93<br/>4.4. Función de activación softmax ........................................................................... 94<br/>CAPÍTULO 5. Redes neuronales en Keras ................................................................. 99<br/>5.1. Precarga de los datos en Keras ......................................................................... 99<br/>5.2. Preprocesado de datos de entrada en una red neuronal ................................ 102<br/>5.3. Definición del modelo ....................................................................................... 105<br/>5.4. Configuración del proceso de aprendizaje ....................................................... 108<br/>5.5. Entrenamiento del modelo ............................................................................... 108<br/>5.6. Evaluación del modelo ..................................................................................... 110<br/>5.7. Generación de predicciones ............................................................................. 112<br/>5.8. Todos los pasos de una tirada ......................................................................... 114<br/>CAPÍTULO 6. Cómo se entrena una red neuronal ................................................... 125<br/>6.1. Proceso de aprendizaje de una red neuronal .................................................. 125<br/>6.1.1. Visión global .............................................................................................. 125<br/>6.1.2. Proceso iterativo de aprendizaje de una red neuronal ............................. 128<br/>6.1.3. Piezas clave del proceso de backpropagation.......................................... 130<br/>6.2. Descenso del gradiente .................................................................................... 130<br/>6.2.1. Algoritmo básico de descenso del gradiente ............................................ 131<br/>6.2.2. Tipos de descenso del gradiente .............................................................. 133<br/>6.3. Función de pérdida ........................................................................................... 135<br/>6.4. Optimizadores .................................................................................................. 136<br/>CAPÍTULO 7. Parámetros e hiperparámetros en redes neuronales ...................... 139<br/>7.1. Parametrización de los modelos ...................................................................... 139<br/>7.1.1. Motivación por los hiperparámetros .......................................................... 139<br/>7.1.2. Parámetros e hiperparámetros ................................................................. 140<br/>7.1.3. Grupos de hiperparámetros ...................................................................... 141<br/>12<br/>7.2. Hiperparámetros relacionados con el algoritmo de aprendizaje ...................... 141<br/>7.2.1. Número de epochs .................................................................................... 141<br/>7.2.2. Batch size .................................................................................................. 142<br/>7.2.3. Learning rate y learning rate decay .......................................................... 142<br/>7.2.4. Momentum ................................................................................................ 143<br/>7.2.5. Inicialización de los pesos de los parámetros ........................................... 145<br/>7.3. Funciones de activación ................................................................................... 145<br/>7.4. Practicando con una clasificación binaria ........................................................ 148<br/>7.4.1. TensorFlow Playground ............................................................................ 148<br/>7.4.2. Clasificación con una sola neurona .......................................................... 151<br/>7.4.3. Clasificación con más de una neurona ..................................................... 152<br/>7.4.4. Clasificación con varias capas .................................................................. 154<br/>CAPÍTULO 8. Redes neuronales convolucionales................................................... 157<br/>8.1. Introducción a las redes neuronales convolucionales...................................... 157<br/>8.2. Componentes básicos de una red neuronal convolucional ............................. 159<br/>8.2.1. Operación de convolución ......................................................................... 159<br/>8.2.2. Operación de pooling ................................................................................ 162<br/>8.3. Implementación de un modelo básico en Keras .............................................. 165<br/>8.3.1. Arquitectura básica de una red neuronal convolucional ........................... 165<br/>8.3.2. Un modelo simple ..................................................................................... 166<br/>8.3.3. Configuración, entrenamiento y evaluación del modelo ........................... 169<br/>8.4. Hiperparámetros de la capa convolucional ...................................................... 170<br/>8.4.1. Tamaño y número de filtros ...................................................................... 170<br/>8.4.2. Padding ..................................................................................................... 170<br/>8.4.3. Stride ......................................................................................................... 172<br/>8.5. Conjunto de datos Fashion-MNIST .................................................................. 173<br/>8.5.1. Modelo básico ........................................................................................... 173<br/>8.5.2. Capas y optimizadores .............................................................................. 174<br/>8.5.3. Capas de Dropout y BatchNormalization .................................................. 177<br/>8.5.4. Decaimiento del ratio de aprendizaje ........................................................ 179<br/>PARTE 3: TÉCNICAS DEL DEEP LEARNING ........................................................... 183<br/>CAPÍTULO 9. Etapas de un proyecto Deep Learning .............................................. 185<br/>9.1. Definición del problema .................................................................................... 186<br/>9.2. Preparar los datos ............................................................................................ 187<br/>9.2.1. Obtener los datos ...................................................................................... 187<br/>9.2.2. Separar los datos para entrenar y evaluar el modelo ............................... 190<br/>13<br/>9.3. Desarrollar el modelo ....................................................................................... 194<br/>9.3.1. Definir el modelo ....................................................................................... 194<br/>9.3.2. Configuración del modelo ......................................................................... 195<br/>9.3.3. Entrenamiento del modelo ........................................................................ 197<br/>9.4. Evaluación del modelo ..................................................................................... 199<br/>9.4.1. Visualización del proceso de entrenamiento ............................................ 199<br/>9.4.2. Overfitting .................................................................................................. 200<br/>9.4.3. Early stopping............................................................................................ 201<br/>9.4.4. Evaluación del modelo con los datos de prueba ...................................... 203<br/>9.4.5. Entrenamiento con MAE ........................................................................... 203<br/>CAPÍTULO 10. Datos para entrenar redes neuronales ............................................ 205<br/>10.1. ¿Dónde encontrar datos para entrenar redes neuronales? ........................... 205<br/>10.1.1. Conjuntos de datos públicos .................................................................... 206<br/>10.1.2. Conjuntos de datos precargados ............................................................. 207<br/>10.1.3. Conjuntos de datos de Kaggle ................................................................. 207<br/>10.2. ¿Cómo descargar y usar datos reales? .......................................................... 208<br/>10.2.1. Caso de estudio: «Dogs vs. Cats» ........................................................... 208<br/>10.2.2. Datos para entrenar, validar y probar ...................................................... 210<br/>10.2.3. Modelo de reconocimiento de imágenes reales ...................................... 216<br/>10.2.4. Preprocesado de datos reales con ImageDataGenerator ....................... 219<br/>10.3. Solucionar problemas de sobreentrenamiento ............................................... 220<br/>10.3.1. Modelos a partir de conjuntos de datos pequeños .................................. 220<br/>10.3.2. Visualización del comportamiento del entrenamiento .............................. 223<br/>10.3.3. Técnicas de prevención del sobreentrenamiento .................................... 227<br/>CAPÍTULO 11. Data Augmentation y Transfer Learning ......................................... 231<br/>11.1. Data Augmentation ......................................................................................... 231<br/>11.1.1. Transformaciones de imágenes ............................................................... 231<br/>11.1.2. Configuración de ImageGenerator ........................................................... 232<br/>11.1.3. Código del caso de estudio ...................................................................... 234<br/>11.2. Transfer Learning ............................................................................................ 238<br/>11.2.1. Concepto de Transfer Learning ............................................................... 238<br/>11.2.2. Feature Extraction .................................................................................... 239<br/>11.2.3. Fine-Tuning .............................................................................................. 246<br/>CAPÍTULO 12. Arquitecturas avanzadas de redes neuronales .............................. 255<br/>12.1. API funcional de Keras ................................................................................... 255<br/>12.1.1. Modelo secuencial .................................................................................... 255<br/>14<br/>12.1.2. Modelos complejos ................................................................................... 258<br/>12.2. Redes neuronales preentreenadas ................................................................. 262<br/>12.2.1. Redes neuronales con nombre propio ..................................................... 262<br/>12.2.2. Acceso a redes preentrenadas con la API Keras .................................... 263<br/>12.3. Uso de redes preentrenadas con Keras ......................................................... 268<br/>12.3.1. Conjunto de datos CIFAR-10 ................................................................... 268<br/>12.3.2. Red neuronal ResNet50 ........................................................................... 270<br/>12.3.3. Red neuronal VGG19 ............................................................................... 272<br/>PARTE 4: DEEP LEARNING GENERATIVO .............................................................. 275<br/>CAPÍTULO 13. Redes neuronales recurrentes ......................................................... 277<br/>13.1. Conceptos básicos de las redes neuronales recurrentes ............................... 278<br/>13.1.1. Neurona recurrente .................................................................................. 278<br/>13.1.2. Memory cell .............................................................................................. 279<br/>13.1.3. Backpropagation a través del tiempo ....................................................... 280<br/>13.1.4. Exploding Gradients y Vanishing Gradients............................................. 281<br/>13.1.5. Long-Short Term Memory ........................................................................ 282<br/>13.2. Vectorización de texto ..................................................................................... 282<br/>13.2.1. One-hot encoding ..................................................................................... 283<br/>13.2.2. Word embedding ...................................................................................... 284<br/>13.2.3. Embedding layer de Keras ....................................................................... 286<br/>13.2.4. Usando embedding preentrenados .......................................................... 286<br/>13.3. Programando una RNN: generación de texto ................................................. 287<br/>13.3.1. Character-Level Language Models .......................................................... 288<br/>13.3.2. Descarga y preprocesado de los datos .................................................... 289<br/>13.3.3. Preparación de los datos para ser usados por la RNN ............................ 291<br/>13.3.4. Construcción del modelo RNN ................................................................. 294<br/>13.3.5. Entrenamiento del modelo RNN .............................................................. 297<br/>13.3.6. Generación de texto usando el modelo RNN........................................... 299<br/>13.3.7. Generando texto falso de Shakespeare ................................................... 303<br/>CAPÍTULO 14. Generative Adversarial Networks .................................................... 307<br/>14.1. Generative Adversarial Networks ................................................................... 307<br/>14.1.1. Motivación por las GAN ............................................................................ 308<br/>14.1.2. Arquitectura de las GAN ........................................................................... 309<br/>14.1.3. Proceso de entrenamiento ....................................................................... 310<br/>14.2. Programando una GAN .................................................................................. 311<br/>14.2.1. Preparación del entorno y descarga de datos ......................................... 314<br/>15<br/>14.2.2. Creación de los modelos .......................................................................... 315<br/>14.2.3. Funciones de pérdida y optimizadores .................................................... 321<br/>14.3. Entrenamiento con la API de bajo nivel de TensorFlow ................................ 323<br/>14.3.1. API de bajo nivel de TensorFlow .............................................................. 323<br/>14.3.2. Algoritmo de aprendizaje a bajo nivel ...................................................... 324<br/>14.3.3. Entrenamiento de las redes GAN ............................................................ 325<br/>14.3.4. Mejora del rendimiento computacional con decoradores de funciones ... 329<br/>14.3.5. Evaluación de los resultados ................................................................... 330<br/>Clausura ....................................................................................................................... 337<br/>Apéndices .................................................................................................................... 339<br/>Apéndice A: Traducción de los principales términos ............................................. 341<br/>Apéndice B: Tutorial de Google Colaboratory ......................................................... 345<br/>Apéndice C: Breve tutorial de TensorFlow Playground ......................................... 359<br/>Apéndice D: Arquitectura de ResNet50 .................................................................... 369<br/>Agradecimientos ......................................................................................................... 377<br/>Índice alfabético .......................................................................................................... 379 |
| 520 ## - RESUMEN |
| Resumen |
El presente libro está enfocado en mostrar al lector, de una manera práctica y concreta, el interesante mundo que surge al usar Deep Learning; se trata de una guía para adquirir los conocimientos que permitan trabajar con Deep Learning mediante la librería TensorFlow, la cual es preciso utilizar si se quiere desarrollar y evaluar modelos Deep Learning. La librería TensorFlow permite prescindir en gran medida de las matemáticas al iniciarse o crear proyectos generadores de valor para una empresa. El contenido de esta obra muestra ejemplos de código práctico introducidos de forma lineal para explicar los conceptos fundamentales en lugar de enfocarse en conceptos teóricos que pueden resultar abrumadores para un lector que no cuenta con los conocimientos previos mínimos en Machine Learning. Empero, es imperativo tener en cuenta que aquí sólo se puede analizar una pequeña parte, ya que es imposible exponer en un único libro el alcance total de Deep Learning. |
| 526 ## - PROGRAMA DE ESTUDIO |
| Nombre del programa |
Ingeniería en Tecnologías de la Información y Comunicaciones |
| 650 #0 - PUNTO DE ACCESO ADICIONAL DE MATERIA--TÉRMINO DE MATERIA |
| Término de materia |
Programación |
| 9 (RLIN) |
729 |
| 942 ## - ELEMENTOS DE ENTRADA SECUNDARIOS (KOHA) |
| Tipo de ítem Koha |
Libro |
| Fuente del sistema de clasificación o colocación |
Clasificación Decimal Dewey |
| Edición |
1A |
| Parte de la signatura que corresponde a la clasificación (Parte de la clasificación) |
QA76.73P98T67 |
| 945 ## - CATALOGADORES |
| Número del Creador del Registro |
1 |
| Nombre del Creador del Registro |
admin |
| Nombre del último modificador del registro |
CRON CRON |
| Número de último modificador del registro |
|