Referencias - AWS Guía prescriptiva

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Referencias

Breiman, L. 2001. «Bosques aleatorios». Machine Learning. https://doi.org/10.1023/A:1010933404324.

Estlund, D. M. 1994. «Los líderes de opinión, la independencia y el teorema del jurado de Condorcet». Theory and Decision. https://doi.org/10.1007/BF01079210.

Fort, S., H. Hu, y B. Lakshminarayanan. 2019. «Conjuntos profundos: una perspectiva de paisaje perdido». 2, 1–14. https://arxiv.org/abs/1912.02757.

Freund, Y. y R.E. Schapire. 1996. «Experimentos con un nuevo algoritmo de impulso». Actas de la 13a Conferencia Internacional sobre Machine Learning. https://dl.acm.org/doi/10.5555/3091696.3091715.

Gal, Y. 2016. «Incertidumbre en el aprendizaje profundo». Departamento de Ingeniería. Universidad de Cambridge.

Gal, Y. y Z. Ghahramani. 2016. «La deserción escolar como aproximación bayesiana: representación de la incertidumbre del modelo en el aprendizaje profundo». 33a Conferencia Internacional sobre Machine Learning (ICML 2016). https://arxiv.org/abs/1506.02142.

Guo, C., G. Pleiss, Y. Sun y K.Q. Weinberger. 2017. «Sobre la calibración de las redes neuronales modernas». 34a Conferencia Internacional sobre Machine Learning (ICML 2017). https://arxiv.org/abs/1706.04599.

Hein, M., M. Andriushchenko y J. Bitterwolf. 2019. «Por qué las redes ReLU producen predicciones de alta confianza muy alejadas de los datos de entrenamiento e instrucciones sobre cómo mitigar el problema». 2019. Actas de la conferencia de la IEEE Computer Society sobre visión artificial y reconocimiento de patrones (junio de 2019): 41—50. https://doi.org/10.1109/CVPR.2019.00013

Kendall, A. e Y. Gal. 2017. «¿Qué incertidumbres necesitamos en el aprendizaje profundo bayesiano para la visión artificial?» Avances en los sistemas de procesamiento de información neuronal.https://papers.nips.cc/paper/7141-what-uncertainties-do-we-need-in-bayesian-deep-learning-for-computer-vision.

Lakshminarayanan, B., A. Pritzel y C. Blundell. 2017. «Estimación predictiva de la incertidumbre simple y escalable mediante conjuntos profundos». Avances en los sistemas de procesamiento de información neural. https://arxiv.org/abs/1612.01474.

Liu, Y., M. Ott, N. Goyal, J. Du, M. Joshi, D. Chen, O. Levy, M. Lewis, L. Zettlemoyer y V. Stoyanov. 2019. «RoBERTa: un enfoque de pre-entrenamiento del BERT sólidamente optimizado». https://arxiv.org/abs/1907.11692

Nado, Z., S. Padhy, D. Sculley, A. D’Amour, B. Lakshminarayanan y J. Snoek. 2020. «Evaluación de la normalización por lotes en tiempo de predicción para determinar la solidez en condiciones de cambio de covariables». https://arxiv.org/abs/2006.10963

Nalisnick, E., A. Matsukawa, Y.W. Teh, D. Gorur y B. Lakshminarayanan. 2019. «¿Saben los modelos generativos profundos lo que no saben?» 7ª Conferencia Internacional sobre Representaciones del Aprendizaje (ICLR 2019). https://arxiv.org/abs/1810.09136.

Ovadia, Y., E. Fertig, J. Ren, Z. Nado, D. Sculley, S. Nowozin, J.V. Dillon, B. Lakshminarayanan y J. Snoek. 2019. «¿Puede confiar en la incertidumbre de su modelo? Evaluación de la incertidumbre predictiva en el contexto del cambio de conjunto de datos». 33a Conferencia sobre sistemas de procesamiento de información neural (NeurIPS 2019). https://arxiv.org/abs/1906.02530.

Platt, J. y otros. 1999. «Salidas probabilísticas para máquinas de vectores de soporte y comparaciones con métodos de verosimilitud normalizados». Avances en los clasificadores de grandes márgenes. http://citeseer.ist.psu.edu/viewdoc/summary?doi=10.1.1.41.1639.

Srivastava, N., G. Hinton, A. Krizhevsky, I. Sutskever y R. Salakhutdinov. 2014. «Abandono: una forma simple de prevenir el sobreajuste de las redes neuronales». Diario de Investigación sobre Machine Learning Research. https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf.

van Amersfoort, J., L. Smith, Y.W. Teh y Y. Gal. 2020. «Estimación de la incertidumbre mediante una única red neuronal determinista profunda». Conferencia Internacional sobre Machine Learning. https://arxiv.org/abs/2003.02037.

Warstadt, A., A. Singh y S.R. Bowman. 2019. «Juicios de aceptabilidad de redes neuronales». Transacciones de la Asociación de Lingüística Informática. https://doi.org/10.1162/tacl_a_00290.

Wilson, A. G. y P. Izmailov. 2020. «El aprendizaje profundo bayesiano y una perspectiva probabilística de la generalización». https://arxiv.org/abs/2002.08791.