Andréi Andréyevich Márkov (14 de junio de 1856 - 20 de julio de 1922) fue un matemático ruso conocido por sus trabajos en la teoría de los números y la teoría de probabilidades.
Márkov nació en Riazán, Rusia. Antes de los 10 años su padre, un funcionario estatal, fue trasladado a San Petersburgo donde Andréi entró a estudiar en un instituto de la ciudad. Desde el principio mostró cierto talento para las matemáticas y cuando se graduó en 1874 ya conocía a varios matemáticos de la Universidad de San Petersburgo, donde ingresó tras su graduación. En la Universidad fue discípulo de Chebyshov y tras realizar sus tesis de maestría y doctorado, en 1886 accedió como adjunto a la Academia de Ciencias de San Petersburgo a propuesta del propio Chebyshov. Diez años después Márkov había ganado el puesto de académico regular. Desde 1880, tras defender su tesis de maestría, Márkov impartió clases en la Universidad y, cuando el propio Chebyshov dejó la Universidad tres años después, fue Márkov quien le sustituyó en los cursos de teoría de la probabilidad. En 1905, tras 25 años de actividad académica, Márkov se retiró definitivamente de la Universidad, aunque siguió impartiendo algunos cursos sobre teoría de la probabilidad.
Aunque Márkov influyó sobre diversos campos de las matemáticas, por ejemplo en sus trabajos sobre fracciones continuas, la historia le recordará principalmente por sus resultados relacionados con la teoría de la probabilidad. En 1887 completó la prueba que permitía generalizar el teorema central del límite y que ya había avanzado Chebyshov. Pero su aportación más conocida es otra.
Su trabajo teórico en el campo de los procesos en los que están involucrados componentes aleatorios (procesos estocásticos) darían fruto en un instrumento matemático que actualmente se conoce como cadena de Márkov: secuencias de valores de una variable aleatoria en las que el valor de la variable en el futuro depende del valor de la variable en el presente, pero es independiente de la historia de dicha variable. Las cadenas de Márkov, hoy día, se consideran una herramienta esencial en disciplinas como la economía, la ingeniería, la investigación de operaciones y muchas otras.
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. “Recuerdan” el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
Uno de los métodos usuales para exhibir las probabilidades de transición de un evento o Estado es usar una Matriz de Transición. La cual debe cumplir con las siguientes condiciones:
1. La Matriz de Transición debe sr Cuadrara, es decir debe tener el mismo número de columnas como de filas.
2. En ella deben estar contenidos tanto en las filas como en las columnas los mismos Estados o Eventos transitorios.
3. La Suma de los elementos de cada fila debe ser siempre igual a 1, cumpliendo con la teoría de Probabilidades.
4. Cada elemento de la matriz debe ser un número entre 0 y 1.
Conceptos Básicos
Cadenas Irreducibles
Una cadena de Markov se dice que es irreducible si se cumple alguno de las siguientes condiciones las cuales, son equivalentes entre sí:
1. Desde cualquier estado E se puede acceder a cualquier otro.
2. Todos los estados se comunican entre sí.
3. C(x)=E, para cualquier x pertenciente a E
4. C(x)=E, para todo x pertenciente a E
5. El único conjunto cerrado es el total.
Cadenas Positivo-Recurrentes
Una cadena de Markov se dice que es positivo-recurrente si todos sus estados son positivo-recurrentes. Si la cadena es además irreducible, es posible demostrar que existe un único vector de probabilidad invariante el cual se define como:
Cadenas Regulares
Una cadena de Markov se dice que es regular o ergódica, si existe alguna potencia positiva de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero.
Probabilidades de transición.
Una forma de describir una cadena de Markov es con un diagrama de estados, como el que se muestra en la figura a continuación:
En ésta se ilustra un sistema de Markov con cuatro estados posibles: N, 1M, 2M, 3M, P e I. La probabilidad condicional o de transición de moverse de un estado a otro se indica en el diagrama.
Otro método para exhibir las probabilidades de transición es usar una matriz de transición. Esta es una matriz cuadrada con tantas filas y columnas como estados tiene el sistema. Sus elementos representan las probabilidades de que un estado (fila) permanezca en el mismo o cambie a los siguientes estados (columnas). La suma de las probabilidades por fila ha de ser igual a 1.
La matriz de transición para el ejemplo del diagrama de estados se muestra a continuación:
N | 1M | 2M | 3M | P | I | |
N | 0 | 0,4 | 0 | 0 | 0,6 | 0 |
1M | 0 | O | 0,6 | 0 | 0,4 | 0 |
2M | 0 | 0 | 0 | 0,3 | 0,7 | 0 |
3M | 0 | 0 | 0 | 0 | 0,4 | 0,6 |
P | 0 | 0 | 0 | 0 | 1 | 0 |
I | 0 | 0 | 0 | 0 | 0 | 1 |
Estado estable
Este se da cuando las probabilidades de estado no cambian de periodo a periodo.
Ejemplo
Los consumidores de café en el área de Pontevedra usan tres marcas A, B, C. En marzo de 1995 se hizo una encuesta en lo que entrevistó a las 8450 personas que compran café y los resultados fueron:
a. Hallar la matriz de transición.
b. Determinar cuál es la proporción actual que tiene cada marca en el mercado.
c. Hallar el estado estable.
a. Matriz de transición
Marca A | Marca B | Marca C | |
Marca A | 0,3 | 0,5 | 0,2 |
Marca B | 0,2 | 0,6 | 0,2 |
Marca C | 0,4 | 0,4 | 0,2 |
b. La proporción actual q tiene cada marca en el mercado es la siguiente:
Marca A | 1690/8450 = 0,2 |
Marca B | 3380/8450 = 0,4 |
Marca C | 3380/8450 = 0,4 |
c. Multiplicamos la matriz de transición por la proporción actual que tiene cada marca en el mercado:
P1 | 0,300 | 0,500 | 0,200 | ||||||||
0,3 | 0,5 | 0,2 | P2 | 0,270 | 0,530 | 0,200 | |||||
0,2 | 0,6 | 0,2 | * | 0,2 | 0,4 | 0,4 | = | P3 | 0,267 | 0,533 | 0,200 |
0,4 | 0,4 | 0,2 | P4 | 0,267 | 0,533 | 0,200 | |||||
P5 | 0,267 | 0,533 | 0,200 |
A la larga la marca A tendrá el 26,7% del mercado, la marca B obtendrá el 53,3 % y La marca C el 20%.
Estados Absorbentes
Se dice que un estado es absorbente si la probabilidad de hacer una transición fuera de ese estado es nula. Es decir, una vez que el sistema entra en un estado absorbente, permanece en el siempre.
Ejemplo
Una prestigiosa universidad Colombiana otorga becas a los estudiantes que logren pasar todas las pruebas del proceso de selección. Este consta de 2 exámenes iniciales, una prueba psicológica y finalmente una entrevista con el rector. Según el departamento de admisiones el comportamiento de las personas que se postulan para recibir becas es el siguiente:
· El 40% de los personas que presentan a ser el 1ª examen pasan a la segunda prueba y el 60% restante son eliminados.
· El 30% de las personas que presentan la segunda prueba pasan a hacer el examen sicológico y el 70% restante quedan fuera del proceso de selección.
· El 60% de las personas que realizan el examen sicológico pasan a la entrevista y el 40% restante son eliminados.
· El 50% de los entrevistados ganan la beca y el 50% quedan eliminados.
De acuerdo con la información anterior hallar:
a. Matriz de transición
b. Probabilidad de que una persona que presente el examen 1 se convierta en becado.
Matriz de transición | ||||||||||
1 examen | 2 examen | 3 examen | Entrevista | Eliminado | Becado | |||||
1 examen | 0 | 0,4 | 0 | 0 | 0,6 | 0 | No Absorbente | |||
2 examen | 0 | 0 | 0,3 | 0 | 0,7 | 0 | Absorbente | |||
3 examen | 0 | 0 | 0 | 0,6 | 0,4 | 0 | ||||
entrevista | 0 | 0 | 0 | 0 | 0,5 | 0,5 | ||||
Eliminado | 0 | 0 | 0 | 0 | 1 | 0 | ||||
Becado | 0 | 0 | 0 | 0 | 0 | 1 |
Matriz Identidad | |||
1 | 0 | 0 | 0 |
0 | 1 | 0 | 0 |
0 | 0 | 1 | 0 |
0 | 0 | 0 | 1 |
Matriz identidad - Matriz No Absorbente | |||
1 | -0,4 | 0 | 0 |
0 | 1 | -0,3 | 0 |
0 | 0 | 1 | -0,6 |
0 | 0 | 0 | 1 |
Matriz Inversa | |||
1 | 0,4 | 0,12 | 0,072 |
0 | 1 | 0,3 | 0,18 |
0 | 0 | 1 | 0,6 |
0 | 0 | 0 | 1 |
Matriz Inversa * Matriz Absorbente | ||
Eliminados | Becados | |
1 examen | 0,964 | 0,036 |
2 examen | 0,91 | 0,09 |
3 examen | 0,7 | 0,3 |
entrevista | 0,5 | 0,5 |
La probabilidad de que una persona que haga el examen 1 se convierta en becado es del 96,4% |
Referencias:
No hay comentarios:
Publicar un comentario