Referencias del libro

A Continuación se listan las referencias del libro Python Deep Learning para facilitar al lector el acceso al material referenciado en el libro (en papel).

[1] Deep Learning – Introducción práctica con Keras (parte 1 y parte 2), WATCH THIS SPACE Book Series. Acceso abierto: https://torres.ai/deeplearning

[2] Enlace a mi blog personal: https://torres.ai/blog

[3] Better Language Modellis and Their Implications. Open AI, febrero 2019. https://openai.com/blog/better-language-models/ [Consultado: 18/11/2019].

[4] GPT-2: 1.5B Release. [online] Disponible en: https://openai.com/blog/gpt-2-1-5b-release/  [Consultado: 26/11/2019].

[5] El CEO de Google defiende que la inteligencia artificial tendrá más impacto que la electricidad o el fuego. El país 23/01/2018. [online]. Disponible en: https://elpais.com/tecnologia/2018/01/21/actualidad/1516570888_812262.html[Consultado: 23/11/2019].

[6] Stuart J. Russell. Wikipedia. [online]. Disponible en: https://en.wikipedia.org/wiki/Stuart_J._Russell [Consultado: 16/04/2018].

[7] Peter Norvig Wikipedia. [online]. Disponible en: https://en.wikipedia.org/wiki/Peter_Norvig [Consultado: 16/04/2018].

[8] Artificial Intelligence: A Modern Approach (AIMA) ·3rd edition, Stuart J Russell and Peter Norvig, Prentice hall, 2009. ISBN 0-13-604259-7. http://aima.cs.berkeley.edu

[9] AI winter. Wikipedia. [online]. Disponible en: https://en.wikipedia.org/wiki/AI_winter [Consultado: 16/04/2018].

[10] Reinforcement Learning: 10 Breakthrough Technoogies 2017. MIT Technology Review. [online]. Disponible en: https://www.technologyreview.com/s/603501/10-breakthrough-technologies-2017-reinforcement-learning/ [Consultado: 16/11/2019].

[11] A Style-Based Generator Architecture for Generative Adversarial Networks. NVIDIA. [online]. Disponible en: https://arxiv.org/pdf/1812.04948.pdf [Consultado: 16/11/2019].

[12] Sebastian Raschka y Vahid Mirjalili (2019). Python Machine Learning. Editorial Marcombo. https://www.marcombo.com/python-machine-learning-9788426727206/

[13] Deep Learning. I Goodfellow, Y. Bengio and A Corville. MIT Press 2016. Disponible también en acceso libre en http://www.deeplearningbook.org [Consulta: 20/01/2018].

[14] Quoc Le and Marc’Aurelio Ranzato and Rajat Monga and Matthieu Devin and Kai Chen and Greg Corrado and Jeff Dean and Andrew Ng, Building High-level Features Using Large Scale Unsupervised Learning .International Conference in Machine Learning, ICML 2012 [online]. Disponible en: https://arxiv.org/abs/1112.6209 [Consultado: 12/02/2018].

[15] Ley de Moore. Wikipedia. [online]. Disponible en: https://es.wikipedia.org/wiki/Ley_de_Moore [Consultado: 12/03/2018].

[16] Página web del Barcelona Supercomputing Center. http://www.bsc.es [Consultado: 12/12/2019].

[17] Operaciones de coma flotante por segundo. Wikipedia. [online]. Disponible en: https://es.wikipedia.org/wiki/Operaciones_de_coma_flotante_por_segundo [Consultado: 12/03/2018].

[18] Top 500 List – November 2012. [online] Disponible en: https://www.top500.org/list/2012/11/?_ga=2.211333845.1311987907.1527961584-375587796.1527961584 [Consultado: 12/12/2019]

[19] MareNostrum 3. Barcelona Supercomputing Center. [online]. Disponible en: https://www.bsc.es/marenostrum/marenostrum/mn3  [Consultado: 12/03/2018].

[20] Krizhevsky, A., Sutskever, I. and Hinton, G. E. ImageNet Classification with Deep Convolutional Neural Networks NIPS 2012: Neural Information Processing Systems, Lake Tahoe, Nevada [online]. Disponible en: http://www.cs.toronto.edu/~kriz/imagenet_classification_with_deep_convolutional.pdf . [Consultado: 12/12/2019].

[21] Russakovsky, O., Deng, J., Su, H. et al. Int J Comput Vis (2015) 115: 211. Disponible en: https://arxiv.org/abs/1409.0575  [Consultado: 12/12/2019].

[22] Wikipedia. Unidad de procesamiento gráfico o GPU. [online] Disponible en: https://es.wikipedia.org/wiki/Unidad_de_procesamiento_gráfico [Consultado: 12/02/2018].

[23] TeraFlops es una medida de rendimiento en informática, especialmente en cálculos científicos. Se refiere a 1 000 000 000 000 operaciones en coma flotante por segundo.

[24] Véase https://www.top500.org/green500/  [Consultado: 12/12/2019].

[25] Wikipedia. CUDA. [online]. Disponible en: https://es.wikipedia.org/wiki/CUDA . [Consultado: 12/12/2019].

[26] Tensor Processing Unit. Wikipedia. [online]. Disponible en:  https://en.wikipedia.org/wiki/Tensor_processing_unit  [Consultado: 21/11/2019].

[27] Véase https://openai.com  [Consultado: 21/11/2019].

[28] Véase https://blog.openai.com/ai-and-compute  [Consultado: 21/11/2019].

[29] Google supercharges machine learning tasks with TPU custom chip. Blog de Google Cloud. Mayo 2016. [online]. Disponible en: https://cloud.google.com/blog/products/gcp/google-supercharges-machine-learning-tasks-with-custom-chip  [Consultado: 12/01/2020].

[30] Big Bets on A.I. Open a New Frontier for Chip Start-Ups, Too. The New York Times. January 14, 2018 [online]. Disponible en: https://www.nytimes.com/2018/01/14/technology/artificial-intelligence-chip-start-ups.html  [Consultado: 20/01/2020].

[31] Supercomputador MareNostrum. Barcelona Supercomputing Center [online] Disponible en: https://www.bsc.es/marenostrum/marenostrum [Consultado: 20/05/2018].

[32] IBM Power System AC922 Introduction and Technocal Overview- IBM RedBooks by Andexandre Bicas Caldeira. March 2018. [online]. Disponible en http://www.redbooks.ibm.com/redpapers/pdfs/redp5472.pdf  [Consultado: 30/12/2019].

[33] Tesla V100 NVIDIA web. [online]. Disponible en http://www.nvidia.com/v100  [Consultado: 30/12/2019].

[34] CTE-POWER User’s Guide. Barcelona Supercomputing Center 2018 [online]. Disponible en https://www.bsc.es/user support/power.php [Consultado: 12/12/2019].

[35] How Much Data Do We Create Every Day? https://www.forbes.com/sites/bernardmarr/2018/05/21/how-much-data-do-we-create-every-day-the mind-blowing-stats-everyone-should-read/  [Consultado: 19/11/2019].

[36] Wikipedia, NoSQL. [online]. Disponible en: https://es.wikipedia.org/wiki/NoSQL  [Consultado: 15/04/2018].

[37] The ImageNet Large Scale Visual Recognition Challenge (ILSVRC). [online]. Disponible en: http://www.image-net.org/challenges/LSVRC . [Consultado: 12/03/2018].

[38] MNIST [online]. Disponible en: http://yann.lecun.com/exdb/mnist/  [Consultado: 12/03/2018].

[39] CIFAR [online]. Disponible en: http://www.cs.toronto.edu/~kriz/cifar.html  [Consultado:12/03/2018].

[40] SVHN [online]. Disponible en: http://ufldl.stanford.edu/housenumbers/  [Consultado: 12/03/2018].

[41] STL [online]. Disponible en: http://ai.stanford.edu/~acoates/stl10/  [Consultado: 12/03/2018].

[42] IMDB [online]. Disponible en: https://www.kaggle.com/pankrzysiu/keras-imdb-reviews  [Consultado: 12/03/2018].

[43] Kaggle [online]. Disponible en: http://www.kaggle.com   [Consultado: 12/03/2018].

[44] Empresas en la nube: ventajas y retos del Cloud Computing. Jordi Torres. Editorial Libros de Cabecera. 2011. https://www.librosdecabecera.com/empresas-en-la-nube

[45] Wikipedia. REST. [online]. Disponible en: https://en.wikipedia.org/wiki/Representational_state_transfer  [Consultado: 12/03/2018].

[46] Véase https://www.kdnuggets.com/2018/02/top-20-python-ai-machine-learning-open-source-projects.html  [Consultado: 12/12/2019].

[47] Véase http://tensorflow.org  [Consultado: 12/12/2019].

[48] Véase https://keras.io  [Consultado: 12/12/2019].

[49] Véase http://pytorch.org  [Consultado: 12/12/2019].

[50] Véase http://www.openmp.org  [Consultado: 12/12/2019].

[51] Véase http://scikit-learn.org  [Consultado: 12/12/2019].

[52] Véase http://scikit-learn.org/stable/modules/preprocessing.html  [Consultado: 12/12/2019].

[53] Véase http://deeplearning.net/software/theano  [Consultado: 12/12/2019].

[54] Véase http://caffe.berkeleyvision.org  [Consultado: 12/12/2019].

[55] Véase https://caffe2.ai  [Consultado: 12/12/2019].

[56] Véase https://github.com/Microsoft/CNTK  [Consultado: 12/12/2019].

[57] Véase https://mxnet.apache.org  [Consultado: 12/12/2019].

[58] Véase https://deeplearning4j.org  [Consultado: 12/12/2019].

[59] Véase https://chainer.org  [Consultado: 12/12/2019].

[60] Véase https://developer.nvidia.com/digits  [Consultado: 12/12/2019].

[61] Véase http://kaldi-asr.org/doc/dnn.html  [Consultado: 12/12/2019].

[62] Véase https://arxiv.org  [Consultado: 12/12/2019].

[63] Véase https://jupyter.org  [Consultado: 12/12/2019].

[64] Véase https://colab.research.google.com  [Consultado: 28/12/2019].

[65] Véase https://jupyter.org/install  [Consultado: 28/12/2019].

[66] Véase https://research.google.com/colaboratory/faq.html  [Consultado: 12/08/2019].

[67] Véase https://pytorch.org  [Consultado: 12/08/2019].

[68] Véase https://www.tensorflow.org/tfx/guide/serving  [Consultado: 12/08/2019].

[69] Véase https://www.tensorflow.org/lite  [Consultado: 12/08/2019].

[70] Véase https://es.wikipedia.org/wiki/Swift_(lenguaje_de_programación)  [Consultado: 12/08/2019].

[71] Véase https://www.tensorflow.org/guide  [Consultado: 2/12/2019].

[72] Véase https://developer.nvidia.com/deep-learning-software  [Consultado: 2/12/2019].

[73] Véase https://github.com/horovod/horovod  [Consultado: 2/12/2019].

[74] Véase más en las páginas de documentación de Keras disponibles en:  https://keras.io

[75] Véase https://github.com/keras-team/keras  [Consultado: 2/12/2020].

[76] Remito a la cuenta de Twitter del creador: https://twitter.com/fchollet , que verán que es una persona muy activa en Twitter.

[77] Marco Buttu (2016). El gran libro de Python. Editorial Marcombo.

[78] Véase https://en.wikipedia.org/wiki/Guido_van_Rossum  [Consultado: 2/12/2019].

[79] Véase https://docs.python.org/  [Consultado: 2/12/2019].

[80] Véase https://github.com/tensorflow/docs/blob/master/site/en/r2/guide/effective_tf2.md  [Consultado: 18/08/2019].

[81] Véase https://docs.scipy.org/doc/numpy/user/  [Consultado: 18/12/2019].

[82] Véase https://pandas.pydata.org/pandas-docs/stable/  [Consultado: 18/12/2019].

[83] Véase https://matplotlib.org/contents.html  [Consultado: 18/12/2019].

[84] Véase https://scikit-learn.org/stable/index.html  [Consultado: 18/12/2019].

[85] The MNIST database of handwritten digits. [online]. Disponible en: http://yann.lecun.com/exdb/mnist  [Consulta: 30/12/2019].

[86] Sin duda, este paso de «limpiar» y «preparar» los datos es la fase más costosa en tiempo y la más desagradecida con datos reales.

[87] Wikipedia, (2016). Anti-aliasing [online]. Disponible en: https://es.wikipedia.org/wiki/Antialiasing  [Consulta: 10/12/2019].

[88] Imagen obtenida de Wikipedia: https://en.wikipedia.org/wiki/MNIST_database

[89] Wikipedia, (2018). Sigmoid function [online]. Disponible en: https://en.wikipedia.org/wiki/Sigmoid_function  [Consulta: 29/12/2019].

[90] Wikipedia (2018). Perceptrón [online]. Disponible en https://en.wikipedia.org/wiki/Perceptron  [Consulta 22/12/2019].

[91] A logical calculus of the ideas immanent in nervous activity. McCulloch, W.S. & Pitts, W. Bulletin of Mathematical Biophysics (1943) 5: 115. https://doi.org/10.1007/BF02478259

[92] Wikipedia, (2018). Softmax function [online]. Disponible en: https://en.wikipedia.org/wiki/Softmax_function  [Consulta: 22/02/2018].

[93] Véase https://keras.io/models/sequential/  [Consulta: 16/12/2019].

[94] Véase https://keras.io/getting-started/functional-api-guide/  [Consulta: 16/12/2019].

[95] Véase https://keras.io/layers/core/#dense  [Consulta: 16/12/2019].

[96] Véase https://keras.io/initializers/#usage-of-initializers  [Consulta: 16/12/2019].

[97] Confusion Matrix. Wikipedia. [online]. Disponible en: https://en.wikipedia.org/wiki/Confusion_matrix  [Consultado: 30/04/2018].

[98] Véase http://scikit-learn.org/stable/  [Consulta 12/12/2019].

[99] Véase http://scikit-learn.org/stable/modules/generated/sklearn.metrics. confusion_matrix.html  [Consulta 12/12/2019].

[100] Véase https://github.com/zalandoresearch/fashion-mnist  [Consulta: 16/12/2019].

[101] Véase https://www.tensorflow.org/tutorials/keras/classification  [Consulta: 16/12/2019].

[102] Véase https://keras.io/models/model/#compile  [Consultado: 12/12/2019].

[103] Véase https://es.wikipedia.org/wiki/Regla_de_la_cadena . [Consultado: 19/12/2019].

[104] Véase https://keras.io/losses/  [Consultado: 12/12/2019].

[105] Véase https://www.tensorflow.org/api_docs/python/tf/keras/losses  [Consultado: 12/12/2019].

[106] Véase https://keras.io/optimizers/  [Consultado: 12/12/2019].

[107] Véase https://arxiv.org/abs/1412.6980  [Consultado: 12/12/2019].

[108] Véase https://github.com/maxpumperla/hyperas  [Consultado: 12/12/2019].

[109] Véase https://github.com/Avsecz/kopt  [Consultado: 12/12/2019].

[110] Véase https://github.com/autonomio/talos  [Consultado: 12/12/2019].

[111] Véase https://github.com/GPflow/GPflowOpt  [Consultado: 12/12/2019].

[112] Véase https://cloud.google.com/ml-engine/docs/using-hyperparameter-tuning  [Consultado: 12/12/2019].

[113] https://es.wikipedia.org/wiki/Cantidad_de_movimiento  [Consultado: 12/12/2019].

[114] CS231n Convolutional Neural Networks for Visual Recognition. [online] Disponible en http://cs231n.github.io/neural-networks-2/#init [Consultado 30/12/2019].

[115] Véase https://www.tensorflow.org/api_docs/python/tf/keras/activations  [Consultado: 12/12/2019].

[116] Véase http://playground.tensorflow.org  [Consultado: 12/12/2019].

[117] Unsupervised learning of hierarchical representations with convolutional deep belief networks. H Lee, R. Grosse, R Ranganath and A. Y Ng. Communications ACM, Vol 54 Issue 10, October 2011. http://www.cs.utoronto.ca/~rgrosse/cacm2011-cdbn.pdf

[118] GIMPS – Programa de manipulación de imágenes de GNU Apartado 8.2. Matriz de convolución [online]. Disponible en: https://docs.gimp.org/2.6/es/plug-in-convmatrix.html  [Consultado: 27/12/2019].

[119] Véase https://keras.io/layers/normalization/#batchnormalization  [Consultado: 18/08/2019].

[120] Ioffe, Sergey; Szegedy, Christian (2015). Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift. https://arxiv.org/pdf/1502.03167.pdf  [Consultado: 18/12/2019].

[121] Véase https://keras.io/layers/core/#dropout  [Consultado: 18/08/2019].

[122] Véase https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/LearningRateScheduler  [Consultado: 18/12/2019].

[123] Véase https://keras.io/callbacks/  [Consultado: 27/12/2019].

[124] Véase https://archive.ics.uci.edu/ml/datasets/auto+mpg  [Consultado: 27/12/2019].

[125] Para obtener un resultado aproximado en kilómetros por litro, hay que dividir el valor de millas por galón por el factor de 2.352.

[126] Véase https://archive.ics.uci.edu/ml/machine-learning-databases/auto-mpg/auto-mpg.data  [Consultado: 27/12/2019].

[127] Véase https://en.wikipedia.org/wiki/Pandas_(software)  [Consultado: 27/12/2019].

[128] Véase https://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.DataFrame.html  [Consultado: 27/12/2019].

[129] Véase https://es.wikipedia.org/wiki/Validación_cruzada  [Consultado: 27/12/2019].

[130] Véase https://es.wikipedia.org/wiki/Ra%C3%ADz_del_error_cuadrático_medio  [Consultado: 27/12/2019].

[131] Véase https://es.wikipedia.org/wiki/Error_absoluto_medio  [Consultado: 27/12/2019].

[132] Véase https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/EarlyStopping  [Consultado: 27/12/2019].

[133] Véase http://ccodataset.org  [Consultado: 18/08/2019].

[134] Véase http://www.image-net.org  [Consultado: 18/08/2019].

[135] Véase http://github.com/openimages/dataset  [Consultado: 18/08/2019].

[136] Véase http://www.visualqa.org  [Consultado: 18/08/2019].

[137] Véase http://ufldl.stanford.edu/housenumbers  [Consultado: 18/08/2019].

[138] Véase http://www.cs.toronto.edu/~kriz/cifar.htmt  [Consultado: 18/08/2019].

[139] Véase https://github.com/zalandoresearch/fashion-mnist  [Consultado: 18/08/2019].

[140] Véase http://ai.stanford.edu/~amaas/data/sentiment  [Consultado: 18/08/2019].

[141] Véase https://archive.ics.uci.edu/ml/datasets/Twenty+Newsgroups  [Consultado: 18/08/2019].

[142] Véase https://archive.ics.uci.edu/ml/datasets/reuters-21578+text+categorization+collection  [Consultado: 9/01/2020]

[143] Véase https://wordnet.princeton.edu  [Consultado: 18/08/2019].

[144] Véase https://www.yelp.com/dataset  [Consultado: 18/08/2019].

[145] Véase https://corpus.byu.edu/wiki  [Consultado: 18/08/2019].

[146] Véase http://u.cs.biu.ac.il/~koppel/BlogCorpus.htm  [Consultado: 18/08/2019].

[147] Véase http://statmt.org/wmt11/translation-task.html  [Consultado: 18/08/2019].

[148] Véase https://github.com/Jakobovski/free-spoken-digit-dataset  [Consultado: 18/08/2019].

[149] Véase https://github.com/mdeff/fma  [Consultado: 18/08/2019].

[150] Véase http://mtg.upf.edu/ismir2004/contest/tempoContest/node5.html  [Consultado: 18/08/2019].

[151] Véase https://labrosa.ee.columbia.edu/millionsong  [Consultado: 18/08/2019].

[152] Véase http://www.openslr.org/12  [Consultado: 18/08/2019].

[153] Véase http://www.robots.ox.ac.uk/~vgg/data/voxceleb  [Consultado: 18/08/2019].

[154] Véase https://archive.ics.uci.edu/ml/machine-learning-databases/housing/housing.names  [Consultado: 9/01/2020]

[155] Véase http://host.robots.ox.ac.uk/pascal/VOC/  [Consultado: 18/08/2019].

[156] Véase https://www.plant-phenotyping.org/CVPPP2017  [Consultado: 18/08/2019].

[157] Véase https://www.cityscapes-dataset.com  [Consultado: 18/08/2019].

[158] Véase https://github.com/tensorflow/datasets  [Consultado: 18/08/2019].

[159] Véase https://www.kaggle.com  [Consultado: 18/08/2019].

[160] Véase https://es.wikipedia.org/wiki/RGB  [Consultado: 18/08/2019].

[161] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/preprocessing/image/ImageDataGenerator [Consultado: 18/08/2019].

[162] Véase https://www.tensorflow.org/guide/datasets  [Consultado: 18/08/2019].

[163] Véase https://www.kaggle.com  [Consultado: 18/08/2019].

[164] Véase https://www.kaggle.com/c/dogs-vs-cats/data  [Consultado: 18/08/2019].

[165] Véase https://es.wikipedia.org/wiki/Joint_Photographic_Experts_Group  [Consultado: 18/08/2019].

[166] Véase https://wiki.python.org/moin/Generators  [Consultado: 18/08/2019].

[167] Véase https://keras.io/callbacks  [Consultado: 18/08/2019].

[168] Véase https://www.tensorflow.org/api_docs/python/tf/keras/regularizers/L1L2  [Consultado: 9/01/2020].

[169] Véase https://keras.io/preprocessing/image/  [Consultado: 18/08/2019].

[170] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/preprocessing/image  [Consultado: 18/08/2019].

[171] Cada epoch puede tardar cerca de 1 minuto. En realidad, esto depende de los recursos que Colab asigne a nuestro programa y puede variar dependiendo de la ejecución.

[172] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/applications  [Consultado: 18/08/2019].

[173] Karen Simonyan and Andrew Zisserman, «Very Deep Convolutional Networks for Large-Scale Image Recognition» arXiv (2014). Published as a conference paper at ICLR 2015 https://arxiv.org/abs/1409.1556 .

[174] Es importante recordar que en el GitHub del libro se encuentra todo el código detallado para ser ejecutado.

[175] Recordemos que las capas de pooling no tienen parámetros entrenables. En todo caso hiperparámetros que determinan su dimensión.

[176] Véase https://www.tensorflow.org/beta/guide/keras/functional  [Consultado: 18/08/2019].

[177] Véase https://www.tensorflow.org/beta/guide/keras/functional#manipulating_complex_graph_topologies [Consultado: 18/08/2019].

[178] Véase https://www.tensorflow.org/beta/guide/keras/functional#manipulating_complex_graph_topologies [Consultado: 18/12/2019].

[179] Véase https://www.tensorflow.org/beta/guide/keras/functional#extending_the_api_by_writing_custom_layers [Consultado: 18/12/2019].

[180] Véase https://www.tensorflow.org/beta/guide/keras/functional#here_are_the_weaknesses_of_the_functional_api [Consultado: 18/12/2019].

[181] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner. Gradient-based learning applied to document recognition. Proceedings of the IEEE 86 no. 11 (2278-2324), november 1998. [online] http://yann.lecun.com/exdb/publis/pdf/lecun-98.pdf  [Consultado: 15/12/2019].

[182] IMAGENET: Large Scale Visual Recognition Challenge (ILSVRC). http://www.image-net.org/challenges/LSVRC/ [Consultado: 18/12/2019].

[183] A. Krizhevsky, I. Sutskever and G.E. Hinton. ImageNet Classification with Deep Convolutional Neural Networks. Neural Information Processing Systems, Lake Tahoe, Nevada. NIPS 2012. [online] http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf  [Consultado: 15/05/2018].

[184] Véase https://arxiv.org/abs/1409.4842  [Consultado: 15/05/2018].

[185] Véase https://arxiv.org/abs/1602.07261  [Consultado: 15/05/2018].

[186] Véase http://www.robots.ox.ac.uk/~vgg/research/very_deep/  [Consultado: 15/05/2018].

[187] Véase https://arxiv.org/abs/1512.03385  [Consultado: 12/12/2019].

[188] J Gu, Z. Wang, J. Kuen, L. Ma, A. Shahroudy, B. Shuai, T. Liu, X. Wang and G. Wang. Recent Advances in Convolutional Neural Networks. Journal Pattern Recognition Volumen 77, Issue C, May 2018. Pages 354-377. Elsevier Science  [online] preprint versión https://arxiv.org/pdf/1512.07108v5.pdf  [Consultado: 15/12/2019].

[189] Véase https://keras.io/applications/  [Consultado: 2/01/2020].

[190] Véase https://www.cs.toronto.edu/~kriz/cifar.html  [Consultado: 2/01/2020].

[191] Véase https://arxiv.org/abs/1603.05027  [Consultado: 30/12/2019].

[192] Véase https://es.wikipedia.org/wiki/Procesamiento_de_lenguajes_naturales  [Consultado: 18/08/2019].

[193] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In ICLR, 2015.  https://arxiv.org/pdf/1409.0473.pdf  [Consultado: 20/09/2019].

[194] Wojciech Zaremba, Ilya Sutskever, and Oriol Vinyals. Recurrent neural network regularization. In ICLR, 2015. https://arxiv.org/pdf/1409.2329.pdf  [Consultado: 20/09/2019].

[195] Alex Graves, Abdel-rahman Mohamed, and Geoffrey Hinton. Speech recognition with deep recurrent neural networks. In ICASSP, 2013. https://arxiv.org/pdf/1303.5778.pdf  [Consultado: 20/09/2019].

[196] Véase https://arxiv.org/pdf/1412.3555v1.pdf  [Consultado: 18/08/2019].

[197] Véase https://es.wikipedia.org/wiki/One-hot  [Consultado: 18/08/2019].

[198] Véase https://es.wikipedia.org/wiki/Word_embedding  [Consultado: 18/08/2019].

[199] Véase https://scikit-learn.org/stable/modules/preprocessing_targets.html  [Consultado: 03/01/2020].

[200] Véase https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.OneHotEncoder.html  [Consultado: 03/01/2020].

[201] Véase https://developers.google.com/machine-learning/crash-course/embeddings/translating-to-a-lower-dimensional-space  [Consultado: 18/08/2019].

[202] Véase https://arxiv.org/abs/1310.4546  [Consultado: 18/08/2019].

[203] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/layers/Embedding  [Consultado: 08/09/2019].

[204] Véase https://en.wikipedia.org/wiki/Word2vec  [Consultado: 18/08/2019].

[205] Véase Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL). 4171–4186.  https://arxiv.org/pdf/1810.04805.pdf [Consultado: 08/09/2019].

[206] Véase Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. 2019. Language Models are Unsupervised Multitask Learners  https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf  [Consultado: 08/09/2019].

[207] Véase Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. 2018. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL). 2227–2237 https://arxiv.org/pdf/1802.05365.pdf  [Consultado: 08/09/2019].

[208] Véase Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, and Quoc V. Le. 2019. XLNet: Generalized Autoregressive Pretraining for Language Understanding. https://arxiv.org/pdf/1906.08237.pdf [Consultado: 08/09/2019].

[209] Véase https://en.wikipedia.org/wiki/Andrej_Karpathy  [Consultado: 18/08/2019].

[210] Véase http://karpathy.github.io/2015/05/21/rnn-effectiveness/  [Consultado: 18/08/2019].

[211] Véase https://www.tensorflow.org/beta/tutorials/text/text_generation  [Consultado: 18/08/2019].

[212] Véase https://github.com/karpathy/char-rnn  [Consultado: 18/08/2019].

[213] Deep Learning – Introducción práctica con Keras. Jordi Torres. WATCH THIS SPACE Boos Collection. Barcelona. Mayo 2018. Acceso abierto en https://torres.ai/deep-learning-inteligencia-artificial-keras/ .

[214] El argumento del método shuffle indica el tamaño del búfer para barajar. Recordemos que tf.data puede generar secuencias infinitas, por lo que no intenta barajar toda la secuencia de datos de entrada en la memoria, solo el número de datos que se le indica en el argumento.

[215] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/layers/Embedding  [Consultado: 18/08/2019].

[216] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/layers/LSTM  [Consultado: 18/08/2019].

[217] Véase https://en.wikipedia.org/wiki/Application_checkpointing  [Consultado: 18/08/2019].

[218] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/callbacks/ModelCheckpoint  [Consultado: 18/08/2019].

[219] Véase https://github.com/karpathy/char-rnn  [Consultado: 18/08/2019].

[220] Véase http://karpathy.github.io/2015/05/21/rnn-effectiveness / [Consultado: 18/08/2019].

[221] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In ICLR, 2015. https://arxiv.org/pdf/1409.0473.pdf  [Consultado: 18/08/2019].

[222] Wojciech Zaremba, Ilya Sutskever, and Oriol Vinyals. Recurrent neural network regularization. In ICLR, 2015.https://arxiv.org/pdf/1409.2329.pdf  [Consultado: 18/08/2019].

[223] Alex Graves, Abdel-rahman Mohamed, and Geoffrey Hinton. Speech recognition with deep recurrent neural networks. In ICASSP, 2013. https://arxiv.org/pdf/1303.5778.pdf  [Consultado: 18/08/2019].

[224] SKIP RNN: Learning to skip state updates in Recurrent Neural Networks. Víctor Campos, Brendan Jouz, Xavier Giró-i-Nieto, Jordi Torres, Shih-Fu Chang. in ICLR 2018. https://arxiv.org/pdf/1708.06834.pdf  [Consultado: 18/08/2019].

[225] Véase https://arxiv.org/pdf/1908.09203.pdf  [Consultado: 18/08/2019].

[226] Véase https://es.wikipedia.org/wiki/Deepfake  [Consultado: 25/08/2019].

[227] Véase http://grail.cs.washington.edu/projects/AudioToObama/siggraph17_obama.pdf   [Consultado: 18/08/2019].

[228] Véase https://www.youtube.com/watch?time_continue=130&v=9Yq67CjDqvw   [Consultado: 18/08/2019].

[229] Véase https://nirkin.com/fsgan/  [Consultado: 26/08/2019].

[230] Véase http://openaccess.thecvf.com/content_CVPR_2019/papers/Karras_A_Style-based_Generator_Architecture_for_Generative_Adversarial_Networks_CVPR_2019_paper.pdf  [Consultado: 18/08/2019].

[231]  Véase https://github.com/NVlabs/stylegan  [Consultado: 18/08/2019].

[232] Véase https://blog.witness.org/2018/07/deepfakes-and-solutions/  [Consultado: 18/08/2019].

[233] Véase https://arxiv.org/pdf/1803.09179.pdf  [Consultado: 18/08/2019].

[234] Véase https://www.blog.google/outreach-initiatives/google-news-initiative/advancing-research-fake-audio-detection [Consultado: 18/08/2019].

[235] Véase https://arxiv.org/pdf/1406.2661.pdf  [Consultado: 18/08/2019].

[236] Véase https://arxiv.org/pdf/1511.06434.pdf  [Consultado: 18/08/2019].

[237] Véase https://www.tensorflow.org/beta/tutorials/generative/dcgan  [Consultado: 18/08/2019].

[238] Véase https://www.nvidia.com/es-la/data-center/tesla-p100/  [Consultado: 18/12/2019].

[239] La estructura de las dos redes neuronales está inspirada en las propuestas del libro GANs in Action de J Langr y Vladimir Bok. Manning Publications. September 2019. https://github.com/GANs-in-Action/gans-in-action  [Consultado: 18/08/2019].

[240] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/layers/Conv2DTranspose  [Consultado: 18/08/2019].

[241] Véase https://arxiv.org/pdf/1603.07285.pdf  [Consultado: 07/01/2020].

[242] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/layers/LeakyReLU [Consultado: 18/08/2019].

[243] Véase https://stats.stackexchange.com/questions/330559/why-is-tanh-almost-always-better-than-sigmoid-as-an-activation-function [Consultado: 18/08/2019].

[244] Véase https://towardsdatascience.com/first-contact-with-tensorflow-estimator-69a5e072998d  [Consultado: 4/01/2020].

[245] Véase https://en.wikipedia.org/wiki/Automatic_differentiation  [Consultado: 4/01/2020].

[246] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/GradientTape  [Consultado: 18/08/2019].

[247] Véase https://www.tensorflow.org/versions/r2.0/api_docs/python/tf/keras/Model  [Consultado: 18/08/2019].

[248] Véase https://github.com/tensorflow/docs/blob/master/site/en/r2/guide/effective_tf2.md  [Consultado: 18/08/2019].

[249] The Future of Jobs. Global Challenge Insight Report. Workd Economic Forum January 2016 http://www3.weforum.org/docs/WEF_Future_of_Jobs.pdf  [Consultado: 12/03/2018].

[250] Véase https://amturing.acm.org  [Consultado:07/01/2020].

[251] Raymond Perrault, Yoav Shoham, Erik Brynjolfsson, Jack Clark, John Etchemendy, Barbara Grosz, Terah Lyons, James Manyika, Saurabh Mishra, and Juan Carlos Niebles, The AI Index 2019 Annual Report, AI Index Steering Committee, Human-Centered AI Institute, Stanford University, Stanford, CA, December 2019. https://hai.stanford.edu/ai-index/2019  [Consultado: 18/08/2019].

[252] Véase https://gsuitedevs.github.io/PyDrive/docs/build/html/index.html  [Consultado: 18/08/2019]