Nacido en
Tambov (Rusia), estudió Historia y Matemáticas
en la Universidad Estatal de Moscú. Discípulo
de Nikolai Luzin, se doctoró en 1925. Profesor
de matemáticas
en la Universidad de Moscú (1931),
en 1937 obtuvo la cátedra de Teoría de
la Probabilidad. Director del Instituto de Investigación
Científica
de las Matemáticas (1933-39) y decano de la Facultad
de Mecánica y Matemáticas (1954-58). En
1939, ingresó en la Academia de las Ciencias
de la URSS. Presidente de la Sociedad Matemática
de Moscú (1964-66 y 1976-83)
Sus múltiples contribuciones en distintos campos
del conocimiento le han situado entre los grandes científicos
del siglo XX. Destacan los hallazgos en dinámica
de sistemas, análisis funcional, teoría
de la probabilidad y estadística, lógica
matemática,
intuicionismo y constructivisno lógicos, complejidad
y turbulencia, teoría de la información,
automática y cibernética, etcétera.
Obtuvo las más altas distinciones
del sistema soviético (seis veces Orden de Lenin,
Orden la Revolución de Octubre, Héroe
del Trabajo, Premio Lenin, Premio Lobachevsky, etc.).
Miembro de prestigiosas sociedades internacionales
como la American Academy of Sciences and Arts de
Boston (1959), la London Royal Society (1964), la
National Academy of the United States (1967), la
Academia de las Ciencias de Francia (1968), etcétera.
Asimismo, doctor 'honoris causa' de universidades
como las de París, Berlín, Varsovia,
Estocolmo, etc. En 1963 fue distinguido con el premio
internacional Bolzano.
Las contribuciones de Kolmogorov en el campo de la teoría
matemática de la información amplían
y dan un sentido más profundo y complejo a las
formulaciones de Claude
Shannon. Plantea una teoría de la complejidad
que va más allá de los postulados del
norteamericano, con desarrollos que se trasladaron
al campo de la computación. La complejidad de un mensaje
está
determinada por el tamaño del programa necesario
para poder recibir el mensaje.
A partir de estas consideraciones sobre complejidad e
información, analizó la entropía
en los texto literarios, con atención especial
a la obra poética de Pushkin, lo que dio origen
a una corriente de estudios sobre 'lingüística
estadística'. La entropía aparecía
aquí determinada por la capacidad semántica
del texto, en función de su extensión,
para transmitir un mensaje, y por la propia flexibilidad
del lenguaje poético, sujeto a normas
métricas
y estilísticas concretas. Las teorías matemáticas
de la información de Kolmogorov influyeron en Yuri
M. Lotman, que emplea su método para medir
la complejidad del lenguaje artístico.
Perfiles biográficos y académicos. Marcos epistemológicos y teóricos de la investigación en Comunicación.
Plan Nacional de I+D, CSO2013-47933-C4-3-P | Ministerio de Economía, Industria y Competitividad