Universidad Nacional de Educación a Distancia

Logotipo UNED 50 aniversario

Universidad Nacional de Educación a Distancia - UNED

fondo titulo

TOMAS PRIETO RUMEAU

CATEDRÁTICO DE UNIVERSIDAD

ESTADÍSTICA, INVESTIGACIÓN OPERATIVA Y CÁLCULO NUMÉRICO

FACULTAD DE CIENCIAS

tprieto@ccia.uned.es

(+34) 91398-7812

Formación

  • Licenciado en Ciencias Matemáticas, Universidad Complutense de Madrid (1993-1998)
  • Doctor en Ciencias Matemáticas, Universidad Complutense de Madrid (2001)

Puestos académicos

Universidad Complutense de Madrid

  • 1998-2001, Profesor Ayudante (Departamento de Estadística e Investigación Operativa I)
  • 2002-2004, Profesor Asociado (Departamento de Estadística e Investigación Operativa I)

Universidad Nacional de Educación a Distancia

  • 2004-2005, Profesor Ayudante (Departamento de Economía Aplicada Cuantitativa II)
  • 2005-2007, Profesor Ayudante Doctor (Departamento de Estadística, Investigación Operativa y Cálculo Numérico)
  • 2007-2019, Profesor Titular de Universidad (Departamento de Estadística, Investigación Operativa y Cálculo Numérico)
  • desde 2019, Catedrático de Universidad (Departamento de Estadística, Investigación Operativa y Cálculo Numérico)
Docencia

N.º de tramos reconocidos de evaluación docente

4

Investigación

N.º de tramos reconocidos de actividad investigadora

3
  • Publicaciones en revistas del JCR [1] Prieto-Rumeau, T. (2003). Statistical inference for a finite optimal stopping problem with unknown transition probabilities. Test 12, No. 1, pp. 215-239.

    [2] Lasserre, J.B., Prieto-Rumeau, T. (2004). SDP vs LP relaxations in some performance evaluation problems. Stoch. Models 20, No. 4, pp. 439-456.

    [3] Prieto-Rumeau, T. (2004). Estimation of an optimal solution of a linear programming problem with unknown objective function. Math. Program. 101, No. 3, pp. 463-478.

    [4] Prieto-Rumeau, T., Hernández-Lerma, O. (2005). The Laurent series, sensitive discount and Blackwell optimality for continuous-time controlled Markov chains. Math. Methods Oper. Res. 61, No. 1, pp. 123-145.

    [5] Prieto-Rumeau, T., Hernández-Lerma, O. (2005). Bias and overtaking equilibria for continuous-time zero-sum Markov games. Math. Methods Oper. Res. 61, No. 3, pp. 437-454.

    [6] Prieto-Rumeau, T. (2005). Central limit theorem for the estimator of the value of an optimal stopping problem. Test 14, No. 1, pp. 215-237.

    [7] Prieto-Rumeau, T., Hernández-Lerma, O. (2006). Bias optimality for continuous-time controlled Markov chains. SIAM J. Control Optim. 45, No. 1, pp. 51-73.

    [8] Lasserre, J.B., Prieto-Rumeau, T., Zervos, M. (2006). Pricing a class of exotic options via moments and SDP relaxations. Math. Finance 16, No. 3, pp. 469-494.

    [9] Prieto-Rumeau, T. (2006). Blackwell optimality in the class of Markov policies for continuous-time controlled Markov chains. Acta Appl. Math. 92, No. 1, pp. 77-96.

    [10] Guo, X.P., Hernández-Lerma, O., Prieto-Rumeau, T. (2006). A survey of recent results on continuous-time Markov decision processes. Top 14, No. 2, pp. 177-261.

    [11] Prieto-Rumeau, T., Hernández-Lerma, O. (2008). Ergodic control of continuous-time Markov chains with pathwise constraints. SIAM J. Control Optim. 47, No. 4, pp. 1888-1908.

    [12] Zhu, Q.X., Prieto-Rumeau, T. (2008). Bias and overtaking optimality for continuous-time jump Markov decision processes in Polish spaces. J. Appl. Probab. 45, No. 2, pp. 417-429.

    [13] Prieto-Rumeau, T. (2008). Stochastic algorithms for the estimation of an optimal solution of a LP problem. Convergence and central limit theorem. Comm. Statist. Theory Methods 37, No. 20, pp. 3308-3318.

    [14] Vélez Ibarrola, R., Prieto-Rumeau, T. (2008). A De Finetti-type theorem for nonexchangeable finite-valued random variables. J. Math. Anal. Appl. 347, No. 2, pp. 407-415.

    [15] Prieto-Rumeau, T., Hernández-Lerma, O. (2009). Variance minimization and the overtaking optimality approach to continuous-time controlled Markov chains. Math. Methods Oper. Res. 70, No. 3, pp. 527-540.

    [16] Vélez Ibarrola, R., Prieto-Rumeau, T. (2009). De Finetti's-type results for some families of non identically distributed random variables. Electron. J. Probab. 14, pp. 72-86.

    [17] Vélez Ibarrola, R., Prieto-Rumeau, T. (2010). De Finetti-type theorems for random selection processes. Necessary and sufficient conditions. J. Math. Anal. Appl. 365, No. 1, pp. 198-209.

    [18] Prieto-Rumeau, T., Lorenzo, J.M. (2010). Approximating ergodic average reward continuous-time controlled Markov chains. IEEE Trans. Automat. Control 55, No. 1, pp. 201-207.

    [19] Prieto-Rumeau, T., Hernández-Lerma, O. (2010). The vanishing discount approach to constrained continuous time controlled Markov chains. Systems Control Lett. 59, No. 8, pp. 504-509.

    [20] Vélez Ibarrola, R., Prieto-Rumeau, T. (2011). De Finetti-type theorems for nonexchangeable 0-1 random variables. Test 20, No. 2, pp. 293-310.

    [21] Vélez Ibarrola, R., Prieto-Rumeau, T. (2011). Conditionally independent increments point processes. J. Appl. Probab. 48, No. 2, pp. 490-513.

    [22] Dufour, F., Prieto-Rumeau, T. (2012). Approximation of Markov decision processes with general state space. J. Math. Anal. Appl. 388, No. 2, pp. 1254-1267.

    [23] Prieto-Rumeau, T., Hernández-Lerma, O. (2012). Discounted continuous-time controlled Markov chains: convergence of control models. J. Appl. Probab. 49, No. 4.

    [24] Dufour, F., Prieto-Rumeau, T. (2013). Finite linear programming approximations of constrained discounted Markov decision processes. SIAM J. Control Optim. 51, pp. 1298-1324.

    [25] Dufour, F., Prieto-Rumeau, T. (2014). Stochastic approximations of constrained discounted Markov decision processes. J. Math. Anal. Appl. 413, pp. 856-879.

    [26] Dufour, F., Prieto-Rumeau, T. (2015). Approximation of average cost Markov decision processes using empirical distributions and concentration inequalities. Stochastics 87, pp. 273-307.

    [27] Vélez Ibarrola, R., Prieto-Rumeau, T. (2015). Random assignment processes: strong law of large numbers and De Finetti theorem. Test 24, pp. 136-165.

    [28] Prieto-Rumeau, T., Lorenzo, J.M. (2015). Approximation of zero-sum continuous-time Markov games under the discounted payo criterion. Top 23, pp. 799-836.

    [29] Lorenzo, J.M., Hernandez-Noriega, I., Prieto-Rumeau, T. (2015). Approximation of two-person zero-sum continuous-time Markov games with average payo criterion. Oper. Res. Lett. 43, pp. 110-116.

    [30] Dufour, F., Prieto-Rumeau, T. (2016). Conditions for the solvability of the linear programming formulation for constrained discounted Markov decision processes. Appl. Math. Opt. 74, pp. 27-51.

    [31] Prieto-Rumeau, T., Hernández-Lerma, O. (2016). Uniform ergodicity of continuous-time controlled Markov chains: a survey and new results. Ann. Oper. Res. 241, pp. 249-293.

    [32] Anselmi, J., Dufour, F., Prieto-Rumeau, T. (2016). Computable approximations for continuous-time Markov decision processes on Borel spaces based on empirical measures. J. Math. Anal. Appl. 443, pp. 1312-1361.

    [33] Jasso-Fuentes, H., Menaldi, J.L., Prieto-Rumeau, T., Robin, M. (2018). Discrete-time hybrid control in Borel spaces: average cost optimality criterion. J. Math. Anal. Appl. 462, pp. 1695-1713.

    [34] Anselmi, J., Dufour, F., Prieto-Rumeau, T. (2018). Computable approximations for average Markov decision processes in continuous time. J. Appl. Probab. 55, pp. 571-592.

    [35] Dufour, F., Prieto-Rumeau, T. (2019). Approximation of discounted minimax Markov control problems and zero-sum Markov games using Hausdorff and Wasserstein distances. Dyn. Games Appl. 9, pp. 68-102.

    [36] Jasso-Fuentes, H., Menaldi, J.L., Prieto-Rumeau, T. (2020). Discrete time hybrid control in Borel spaces. Appl. Math. Opt. 81, pp. 409-441.

    [37] Jasso-Fuentes, H., Menaldi, J.L., Prieto-Rumeau, T. (2020). Discrete-time control with non-constant discount factor. Math. Methods Oper. Res. 92, pp. 377-399.

    [38] Dufour, F., Prieto-Rumeau, T. (2022). Maximizing the probability of visiting a set infinitely often for a countable state space Markov decision process. J. Math. Anal. Appl. 505, paper 125639, 21 pp.

    [39] Dufour, F., Prieto-Rumeau, T. (2022). Stationary Markov Nash equilibria for nonzero-sum constrained ARAT Markov games. SIAM J. Control Optim. 60, pp. 945-967.

    [40] Dufour, F., Prieto-Rumeau, T. (2024). Absorbing Markov decision processes. ESAIM - Control Optim. Calc. Var. 30, 5.

    [41] Dufour, F., Prieto-Rumeau, T. (2024). Nash equilibria for total expected reward absorbing Markov games: the constrained and unconstrained cases. Appl. Math. Opt. 89, 34.

    [42] Dufour, F., Prieto-Rumeau, T. (2024). Maximizing the probability of visiting a set infinitely often for a Markov decision process with Borel state and actions spaces. J. Appl. Probab. 61, en prensa.

     

     

     

  • Capítulos de libros [1] Prieto-Rumeau, T. (2003). Stochastic simplex algorithm for a linear programming problem with unknown objective function. Proceedings of the Conference EYSM'03, eds: Fournier, B., Fürrer, R., Gsponer, T., Restle, E.M., ISBN 3-908152-17-8, pp. 113-122.

    [2] Prieto-Rumeau, T., Hernández-Lerma, O. (2010). Policy iteration and finite approximations to discounted continuous-time controlled Markov chains. Modern Trends in Controlled Stochastic Processes: Theory and Applications, ed.: Piunovskiy, A.B., ISBN 1-905-986-30-0, Luniver Press, pp. 84-101.

    [3] Dufour, F., Prieto-Rumeau, T. (2012). Approximation of infinite horizon discounted cost Markov decision processes. Optimization, Control, and Applications of Stochastic Systems. In Honor of Onésimo Hernández-Lerma, eds.: Hernández-Hernández, D., Minjárez-Sosa, J.A., ISBN 978-0-8176-8336-8, Birkhäuser, pp. 59-76.

    [4] Dufour, F., Prieto-Rumeau, T. (2015). Solving the average cost optimality equation for unichain Markov decision processes: a linear programming approach. Modern Trends in Controlled Stochastic Processes: Theory and Applications, Volume II, ed.: Piunovskiy, A.B., ISBN 1-905-986-45-9, Luniver Press, pp. 32-46.

    [5] Dufour, F., Prieto-Rumeau, T. (2019). Numerical approximations for discounted continuous time Markov decision processes. Modeling, Stochastic Control, Optimization, and Applications, eds.: Yin, G., Zhang, Q., ISBN 978-3-030-25497-1, Springer, pp. 147-171.

  • Libros
     

    [1] Prieto-Rumeau, T., Hernández-Lerma, O. (2012). Selected Topics on Continuous-Time Controlled Markov Chains and Markov Games. Advanced Texts in Mathematics. Imperial College Press, London.

    [2] Vélez Ibarrola, R., Prieto-Rumeau, T. (2013). Procesos Estocásticos. Editorial UNED. 

  • Conferencias Invitadas
    1. Universidad Rey Juan Carlos de Madrid, enero de 2001, Estimación del tamaño de una población finita. Contrastes de hipótesis.
    2. Institut National de Recherche Informatique et Automatique, Sophia-Antipolis, Francia, abril de 2003, The moment approach in options pricing models.
    3. Instituto Mexicano del Petróleo, México DF, México, diciembre de 2003, Valoración de opciones mediante programación semi-definida y el método de los momentos.
    4. Universidad Carlos III de Madrid, mayo de 2004, Métodos numéricos para procesos estocásticos. Aplicaciones en finanzas.
    5. Universidad Nacional Autónoma de México, México DF, México, septiembre de 2006, Valoración de opciones mediante programación semi-definida y el método de los momentos.
    6. Universidad Complutense de Madrid, abril de 2014, Métodos numéricos para problemas de control estocástico.
    7. Instituto de Ciencias Matemáticas ICMAT, Madrid, diciembre de 2015, Numerical approximations for average cost Markov decision processes.
  • Ponencias en Congresos
     
    1. Conference of the International Federation of Operations Research Societies, Edimburgo, Reino Unido, julio de 2002, Statistical Inference for a Finite Optimal Stopping Problem with Unknown Transition Probabilities.
    2. Conference of the International Federation of Operations Research Societies, Edimburgo, Reino Unido, julio de 2002, Estimation of an Optimal Solution of a Linear Programming Problem with Unknown Objective Function.
    3. Conference of the Royal Statistical Society, Plymouth, Reino Unido, septiembre de 2002, Estimation of an Optimal Policy and the Value of an Optimal Stopping Problem. Almost Sure Convergence and Central Limit Theorem.
    4. Congreso Nacional de Estadística e Investigación Operativa, Lleida, abril de 2003, Perturbación de Problemas de Parada Óptima. Aplicación a la Obtención de Distribuciones Asintóticas.
    5. Conférence Internationale de l'Association Française de Finance, Lyon, Francia, junio de 2003, SDP vs LP Relaxations in Some Performance Evaluation Problems. Application to Options Pricing Models.
    6. 13th European Young Statisticians Meeting, Ovronnaz, Suiza, septiembre de 2003, Stochastic Simplex Algorithm for a Linear Programming Problem with Unknown Objective Function.
    7. Seminario de Control y Juegos Estocásticos 2003, México DF, México, Instituto Politécnico Nacional, octubre de 2003, Estimación del Valor de un Problema de Parada Óptima con Probabilidades de Transición Desconocidas.
    8. Second International Workshop in Applied Probability, Universidad del Pireo, Grecia, marzo de 2004, Bias Optimality for Continuous-Time Controlled Markov Chains. (presentado por Onésimo Hernández Lerma)
    9. First Conference on Continuous Optimization, Troy, Nueva York, Estados Unidos, Rensselaer Polytechnic Institute, agosto de 2004, Pricing a Class of Exotic Options via Moments and SDP Relaxations.
    10. Workshop on Optimization in Finance, Universidad de Coimbra, Portugal, julio de 2005, Pricing Exotic Options with Semidefinite Programming.
    11. Congreso Nacional de Estadística e Investigación Operativa, La Laguna, mayo de 2006, Procesos Puntuales de Incrementos Condicionalmente Independientes.
    12. Coloquio de Control Estocástico - Cinvestav'07, México DF, México, Instituto Politécnico Nacional, julio de 2007, Control de Cadenas de Markov en Tiempo Continuo.
    13. Iª Reunión Conjunta Sociedad Matemática Mexicana (SMM) y Real Sociedad Matemática Española (RSME), Oaxaca, México, julio de 2009, Control óptimo con restricciones de cadenas de Markov ergódicas en tiempo continuo
    14. 48th IEEE Conference on Decision and Control, Shanghai, China, diciembre de 2009, Ergodic control of continuous-time Markov chains with pathwise constraints.
    15. 5th International Workshop in Applied Probability, Madrid, julio de 2010, Constrained control of continuous-time Markov chains.
    16. Modern Trends in Controlled Stochastic Processes, Liverpool, Reino Unido, julio de 2010, Approximating continuous-time controlled Markov chains.
    17. Symposium in honor of Prof. Hernández-Lerma, San Luis Potosí, México, marzo de 2011, Uniform exponential ergodicity of continuous-time controlled Markov chains.
    18. SIAM Conference on Control and Its Applications, Baltimore, Maryland, Estados Unidos, julio de 2011, The vanishing discount approach to average-reward continuous-time controlled Markov chains: constrained and unconstrained cases.
    19. SIAM Conference on Control and Its Applications, Baltimore, Maryland, Estados Unidos, julio de 2011, Numerical methods for continuous-time controlled Markov chains: discounted and average criteria.
    20. Coloquio de Control Estocástico - Cinvestav'11, México DF, México, Instituto Politécnico Nacional, octubre de 2011, Linear Programming Approximations of Constrained Markov Decision Processes.
    21. SIAM Conference on Control and Its Applications, San Diego, California, Estados Unidos, julio de 2013, Conditions for the existence of constrained optimal policies for discounted Markov control processes.
    22. GeoLMI Conference, Marsella, Francia, noviembre de 2013, Numerical approximations for average cost Markov decision processes.
    23. 3rd International Conference on Dynamics, Games and Science, Oporto, Portugal, febrero de 2014, A model of optimal taxation under uncertainty.
    24. Modern Trends in Controlled Stochastic Processes: Theory and Applications, Liverpool, Reino Unido, junio de 2015, Numerical approximations for discounted and average zero-sum continuous-time Markov games.
    25. SIAM Conference on Control and Its Applications, París, Francia, julio de 2015, Approximation of denumerable state continuous-time Markov games: discounted and average payoff criteria.
    26. 4th International Conference on Dynamics, Games and Science: Decision Models in a Complex Economy, Madrid, junio de 2016, Approximation of denumerable state Markov games: discounted and average payoff criteria.
    27. Congreso Nacional de Estadística e Investigación Operativa, Toledo, septiembre de 2016, Numerical approximations for discounted and average continuous-time zero-sum Markov games.
    28. 4º Encuentro Conjunto Sociedad Matemática Mexicana (SMM) y Real Sociedad Matemática Española (RSME), Valladolid, julio de 2017, Approximation results for zero-sum Markov games.
    29. Stochastic Control, Computational Methods, and Applications, Institute of Mathematics and its Applications, Minneapolis, Minnesota, Estados Unidos, mayo de 2018, Numerical approximations for minimax Markov control problems.
    30. Congreso Nacional de Estadística e Investigación Operativa, Oviedo, mayo-junio de 2018, Métodos numéricos para procesos de decisión markovianos robustos.
    31. Latin American Congress of Probability and Statistics, Mérida, México, diciembre de 2019, Numerical methods for continuous-time average Markov decision processes. 
  • Organización de Congresos
    Seminario de Control y Juegos Estocásticos 2003, Instituto Politécnico Nacional, México DF, México, octubre de 2003, miembro del Comité Organizador.
  • Proyectos de investigación
    1. Investigador Principal (junto con D. Franco Leis) del proyecto de investigación PID2021-122442NB-I00: "Análisis y control de sistemas dinámicos deterministas, estocásticos y de teoría de juegos", Ministerio de Ciencia e Innovación.
    2. Investigador Principal del proyecto de investigación MTM2016-75497-P: "Aproximaciones Numéricas para Problemas de Control y Juegos Markovianos". Ministerio de Economía, Industria y Competitividad.
    3. Investigador Principal del proyecto de investigación MTM2012-31393: "Métodos Numéricos para Procesos de Decisión Markovianos". Ministerio de Economía y Competitividad.
    4. Investigador del contrato de investigación 5510003284 (OTRI-UNED): "Algoritmo de optimización de cancelaciones de deudas" con la empresa Deudae S.L.
    5. Investigador del proyecto de investigación 104001: "Control y juegos estocásticos"Consejo Nacional de Ciencia y Tecnología, México.
    6. Investigador del proyecto de investigación 45693F: "Control óptimo y juegos markovianos"Consejo Nacional de Ciencia y Tecnología, México.
    7. Investigador del proyecto de investigación SEC99-0402: "Estimación dinámica en poblaciones abiertas a partir de elasticidades: su incidencia sobre las predicciones de recaudación por retenciones y sobre los modelos de simulación fiscal"Dirección General de Enseñanza Superior e Investigación Científica.
  • Estancias de investigación
    • INRIA, Burdeos, Francia. Años 2010, 2011, 2012, 2013, 2014, 2015, 2016, 2017, 2019, 2020, 2021 y 2022.
    • Instituto Politécnico Nacional, Centro de Investigación y Estudios Avanzados, México DF, México. Años 2003, 2004, 2006, 2007, 2008, 2009, 2010 y 2022.
    • Centre National de la Recherche Scientifique, Laboratoire d'Analyse et d'Architecture des Systèmes, Toulouse, Francia. Años 2003 y 2007.
    • Universidad Nacional de Educación a Distancia, Facultad de Ciencias, Madrid. Años 2001 y 2002.
  • Dirección de trabajos Tesis Doctorales

    1. Cálculo estocástico y optimalidad de impuestos, por Ramón Miralles Rafart, codirector A. Álvarez-López, Doctorado en Economía, UNED, 2011. Premio a la mejor tesis doctoral en Economía Pública, Instituto de Estudios Fiscales, BOE 11-8-2012.
    2. Aproximaciones de modelos de cadenas de Markov controladas y juegos markovianos en tiempo continuo, por José María Lorenzo Magán, Doctorado en Ciencias, UNED, 2016. Premio extraordinario de doctorado.
    3. Distribución del producto de distribuciones normales, por José Antonio Seijas Macías, codirector A. Oliveira, Doctorado en Ciencias, UNED, 2020.
    4. Forecasting realized densities; a comparison of historical, risk-neutral, risk-adjusted, and sentiment-based transformations, por Ricardo Crisóstomo Ayala, Doctorado en Ciencias, UNED, 2022.

     

    Trabajos Fin de Máster

    • Diretor de 7 Trabajos Fin de Máster y Diplomas de Estudios Avanzados (Máster en Matemáticas Avanzadas, DEA en Matemáticas, DEA en Economía, UNED).

     

    Trabajos Fin de Grado

    • Diretor de 17 Trabajos Fin de Grado (grados en Matemáticas y en Ciencias Ambientales, UNED).
Otros

Otras Actividades

Licenciatura y Doctorado

Primer Premio Nacional Fin de Carrera de Matemáticas (BOE 13-8-1999), Ministerio de Educación y Ciencia

Premio Extraordinario Fin de Carrera, Facultad de Ciencias Matemáticas, Universidad Complutense de Madrid, 1998

Premio Complutense de Licenciatura, Universidad Complutense de Madrid, 1998

Premio Extraordinario de Doctorado, Facultad de Ciencias Matemáticas, Universidad Complutense de Madrid, 2001

Becas

Beca Post-Doctoral en el Extranjero (BOE 21-12-2002). Ministerio de Educación y Ciencia.

Beca de Formación de Personal Investigador (BOE 22-02-1999). Ministerio de Educación y Ciencia.