Nacido en Londres, Reino
Unido, cursó medicina en el St Bartholomew's Hospital
de la capital británica y en la Universidad de Cambridge,
orientando sus estudios y actividad hacia la psiquiatría.
Director de investigación del Barnwood House Hospital
de Gloucester (1947-59), director del Burden Neurological
Institute (1959-60), en 1960 se trasladó a Estados
Unidos, al Departamento de Ingeniería Electrónica
de la Universidad de Illinois, en Urbana-Champaign. Fue presidente
de la Society for general Systems Research (1962-64).
Su trabajo más sobresaliente hace referencia al estudio
de los sistemas complejos dentro del marco emergente, a mediados
del siglo XX, de la teoría matemática de la
información, la cibernética, el constructivismo
y la teoría de sistemas. A finales de los años
cuarenta, cuando el británico Alan
Turing, con quien no mantuvo contacto personal, trabajaba
en las primeras computadoras, plantea y acomete la construcción
de una máquina homeostática adaptativa, una
máquina autorregulada o inteligente. En 1952, publica
una de sus obras de referencia, Design for a Brain: The
Origin of Adaptive Behavior, un texto extraordinario
en el que plantea la construcción de un cerebro electrónico
mediante la reproducción mecánica de las funciones
del cerebro humano. En 1956, formula en su libro A
Introduction to Cybernetics ,
un texto extraordinario para la sistematización del
pensamiento cibernético, donde expone las matrices
de conocimiento sobre las funciones de las máquinas
inteligentes y de los sistemas complejos, como las de control,
retroalimentación, cambio de estado, etcétera,
al tiempo que enuncia la conocida como ley de Ashby o de la
variedad necesaria (requisite variety), que establece
que cuanto mayor es la variedad de acciones de un sistema
regulado, también es mayor la variedad de perturbaciones
posibles que deben ser controladas ("sólo la variedad
absorbe variedad"). Dicho de otra manera, la variedad
de acciones disponibles (estados posibles) en un sistema de
control debe ser, por lo menos, tan grande como la variedad
de accioneso estados en el sistema que se quiere controlar.
Al aumentar la variedad, la información necesaria crece.
Todo sistema complejo se sustenta en la riqueza y variedad
de la información que lo describe, pero su regulación
requiere asimismo un incremento en términos de similitud
con las variables de dicha complejidad. Un concepto, el de
variedad, coincidente con el de redundancia, dentro del despliegue
teórico que Ashby hace acerca de la autoorganización
en los sistemas complejos, que le sitúan en la cercanía
de von Foerster y la 'cibernetica
de segundo orden', base del constructivismo radical. Planteamientos
que sirvieron de base a las futuras formulaciones de Henri
Atlan, Stafford Beer y Gregory
Chaitin, entre otros, y que tuvieron una amplia influencia
en el desarrollo de la cibernética, las teorías
de sistemas y de la información, como reconocio el
padre de la sistémica, Ludwig
von Bertalanffy. Años después de su muerte,
en 1981, apareció su obra póstuma Mechanics
of intelligence. Intersystems, editado por Roger Conant,
con quien había formulado el conocido como teorema
Ashby-Conant, que amplia la ley de la variedad necesaria y
señala que un buen regulador de un sistema debe ser
un modelo de ese sistema.
|