Nacido en Spruce, Nevada, Estados Unidos,
estudió en las universidades de Utah y Oxford,
en el Reino Unido. Comenzó a trabajar en el laboratorio
de investigación de la Western Electric. Desarrolló
el primer radio-receptor trasatlántico de los laboratorios
Bell (1915). Inventó el circuito de oscilación
electrónica (oscilador de Hartley) y sus aplicaciones
fueron muy notables en el desarrollo del transporte de
la voz. En 1928 dio a conocer los primeros argumentos
para una ciencia matemática de la información.
Definió la información como una variable
aleatoria y fijó los primeros criterios de medición
(‘Transmission of Information’, en Bell System
Tech. Journal, vol. 7, 1928, págs. 535-563). Hartley
formuló la ley que señala que la cantidad
total de información que puede transmitirse es
proporcional al rango de frecuencia transmitido y el tiempo
de la transmisión. La información en términos
matemáticos se convierte en realidad en una medida
del flujo de datos que constituye la comunicación.
Trabajó con códigos binarios, que estaban
en el origen de los lenguajes de computación, de
modo que la información era una sucesión
numérica de dos opciones (ceros y unos, ‘síes’
y ‘noes’)
Junto con Claude Shannon (1948)
describió en llamado teorema Shannon-Hartley acerca
de la eficiencia de los procesos de error-corrección
en la transmisión de información frente
a los niveles de ‘ruido’ y degradación
de las señales. El teorema señala que sólo
es posible eliminar el 'ruido' en la transmisión
de información cuando el flujo de información
no exceda la capacidad del canal.
Fue miembro de la American Association for the Advancement
of Science.
Perfiles biográficos y académicos. Marcos epistemológicos y teóricos de la investigación en Comunicación.
Plan Nacional de I+D, CSO2013-47933-C4-3-P | Ministerio de Economía, Industria y Competitividad