Resultados de la búsqueda

Para más opciones de búsqueda, vea Ayuda:Búsqueda.

Quizás quisiste decir: marcos procesos
Ver (20 previas · ) (20 · 50 · 100 · 250 · 500).
  • Miniatura para Cadena de Márkov
    En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad…
    25 kB (4160 palabras) - 18:15 4 feb 2024
  • En matemáticas, un proceso de decisión de Márkov (en inglés: Márkov decision process, MDP) es un proceso de control estocástico en tiempo discreto. Proporciona…
    33 kB (4935 palabras) - 04:28 12 dic 2023
  • la probabilidad y en estadística, un proceso de Márkov, llamado así por el matemático ruso Andréi Márkov, es un fenómeno aleatorio dependiente del tiempo…
    5 kB (623 palabras) - 16:19 23 oct 2023
  • procesos estocásticos de Gauss-Markov o cadenas de Gauss-markov (llamados así en honor a Carl Friedrich Gauss y Andréi Márkov) son procesos estocásticos que…
    3 kB (445 palabras) - 00:37 11 ene 2023
  • Miniatura para Eugene Dynkin
    Springer Verlag. 1961.  Markov Processes. Grundlehren der mathematischen Wissenschaften. Springer Verlag. 1965.  Controlled Markov Processes. Grundlehren der…
    11 kB (1192 palabras) - 15:12 5 ene 2024
  • Markov Control Processes, en 1989. Discrete-Time Markov Control Processes: Basic Optimality Criteria, en 1996. Futher Topics on Discrete-Time Markov Control…
    6 kB (649 palabras) - 17:19 8 ene 2024
  • Miniatura para Tiempo de parada
    detener en algún momento de tiempo. Chung, Kai Lai (1982). Lectures from Markov processes to Brownian motion. Grundlehren der Mathematischen Wissenschaften No…
    4 kB (608 palabras) - 08:40 10 nov 2023
  • Miniatura para Tratado de paz
    «Algorithmic Game Theory and Applications Lecture 15: a brief taster of Markov Decision Processes and Stochastic Games». http://www.inf.ed.ac.uk (en inglés). Consultado…
    6 kB (752 palabras) - 20:36 3 mar 2024
  • Miniatura para Proceso estocástico
    discreto, el proceso de Quenouille y la propiedad de Markov agudo? Some History of Stochastic Point Processes». International Statistical Review 80 (2): 253-268…
    22 kB (2811 palabras) - 18:46 17 abr 2024
  • 2. Proceso predictible Wiliams, David (1979). «II.25». Diffusions, Markov Processes and Martingales: Foundations 1. Wiley. ISBN 0-471-99705-6.  Øksendal…
    4 kB (526 palabras) - 10:12 10 oct 2019
  • Alberto Achcar, del libro Applications of Discrete-time Markov Chains and Poisson Processes to Air Pollution Modeling and Studies (Springer Briefs in…
    3 kB (302 palabras) - 01:49 8 nov 2023
  • Miniatura para Toshmuhammad Sarimsoqov
    50 años] (en ruso). Фан.  Iosifescu, Marius (2007) [1980]. Finite Markov Processes and Their Applications (en inglés). Mineola, Nueva York: Dover Publications…
    9 kB (800 palabras) - 08:05 11 nov 2023
  • Miniatura para Cálculo de Itô
    ISBN 3-540-57622-3 . Rogers, Chris; Williams, David (2000), Diffusions, Markov processes and martingales - Volume 2: Itô calculus, Cambridge: Cambridge University…
    6 kB (943 palabras) - 19:12 13 abr 2022
  • 978-0-691-01192-9).  Filar, J. & Vrieze, K. (1997). Competitive Markov Decision Processes. Springer-Verlag. ISBN 0-387-94805-8.  Mertens, J. F. & Neyman…
    5 kB (643 palabras) - 04:03 16 jul 2023
  • Proceso de nacimiento-muerte (categoría Procesos de Markov)
    nacimiento-muerte (o proceso de nacimiento y muerte) es un caso especial del proceso de Markov de tiempo continuo donde las transiciones entre estados son de solo dos…
    3 kB (476 palabras) - 04:30 12 dic 2023
  • multiple birdsong tracking with distribution derivative method and Markov renewal process clustering», 2013 IEEE International Conference on Acoustics, Speech…
    4 kB (419 palabras) - 06:38 11 oct 2023
  • probabilidad de muerte de una en un millón.[7]​ 1960. Dynamic Programming and Markov Processes, The M.I.T. Press. OCLC 523881 1971. Dynamic Probabilistic Systems…
    6 kB (637 palabras) - 22:02 17 mar 2024
  • Miniatura para Camino aleatorio
    menudo, los caminos aleatorios se suponen que son cadenas de Márkov o proceso de Márkov, pero otros caminos más complicados también son de interés. Algunos…
    24 kB (3825 palabras) - 09:38 21 ene 2024
  • a utilizar hoy es representar el diagrama de control como una cadena de Markov a través de una selección adecuada del espacio de estados. Trabajaremos…
    13 kB (2104 palabras) - 12:07 18 ene 2024
  • {Zn,n≥0}{\displaystyle \lbrace Z_{n},n\geq 0\rbrace } es una Cadena de Markov con matriz de transición dada por Pi,j=f∗i(j),i,j≥0{\displaystyle P_{i,j}=f^{*i}(j)…
    6 kB (704 palabras) - 19:37 25 ene 2024
Ver (20 previas · ) (20 · 50 · 100 · 250 · 500).