Los límites físicos de la informática Los límites físicos de la informática
En realidad la informática nació en el año 1954, coincidiendo con la presentación del primer transistor de silicio comercial desarrollado por Texas Instruments. Antes de 1954, quizás... Los límites físicos de la informática

En realidad la informática nació en el año 1954, coincidiendo con la presentación del primer transistor de silicio comercial desarrollado por Texas Instruments. Antes de 1954, quizás muchos siglos antes, físicos, químicos, y matemáticos, empezaron a allanar el camino teórico y práctico para la creación de la informática, con aportaciones como la «Álgebra de Boole», máquinas que vapor para realizar cálculos, o máquinas complejas y gigantescas rellenas de «relés» y «válvulas de vacío». Precisamente los transistores fabricados con materiales semiconductores  provocaron el ocaso de la tecnología de válvulas de vacío, que fue tecnología «punta» durante un breve espacio de tiempo.

En el año 1925 se conocen las primeras investigaciones sobre transistores, pero no es hasta el año 1954 cuando se presenta el primer transistor comercial de silicio, y ahí, realmente ahí, empieza la nueva era de la informática; la era donde la informática será viable para los pequeños procesos, y será definitivamente global… accesible a todo el mundo. Se crea el nuevo modelo computacional basado en el transistor.

Pero todo tiene un límite, y el modelo actual hace tiempo que ha agotado su espacio. Solo sobrevive mediante «remiendos» ¿Y dónde está el problema? Parece evidente que debiera estar en el «hardware». Pues no; está en el «software». Henry Petrosky dijo: «el logro más impresionante de la industria del software es la continua anulación de los constantes y asombrosos logros de la industria del hardware». Ahí radica el problema, según se progresa en la evolución del «hardware», entonces queremos que el «software» llegue mucho más lejos, y en seguida se satura la nueva tecnología; el «software», cual parásito, deja siempre a cero la evolución del «hardware».

En el año 1965 Gordon Moore definió lo que a posteriori se calificaría como la «Ley de Moore»: «aproximadamente cada dos años se duplica el número de transistores en un microprocesador». Esta ley ha estado vigente y ha acertado durante muchos años, pero el muro al final del camino estaba por llegar.

La evolución del «software» requiere procesadores más rápidos, y el truco está en fabricar más cantidad de transistores en menor espacio. La evolución de la tecnología ha permitido aumentar la escala de integración y esto implica poder construir transistores más pequeños en menor espacio en el interior de los microprocesadores… cuánto más pequeño es el microprocesador y más transistores contiene, es más rápido.

En la actualidad estamos en la escala de fabricación de nanómetros, y en ese momento nos hemos topado con el primer muro: los electrones se escapan de los canales por los que circulan; se conoce como el «efecto túnel». A este problema hemos de sumar que el silicio cuenta con otros problemas físicos, como la barrera de los 4Ghz de velocidad, ya que a partir de esa frecuencia el material no podría soportar el calor generado.

En los comienzos del milenio en el que nos encontramos hemos llegado al límite del modelo actual de «hardware»; la «Ley de Moore» parece extinguirse, y el «software» deberá contener su desarrollo.

Pero la informática encontró el «remiendo perfecto», la ejecución en paralelo. Si un microprocesador no puede superar los limites actuales, se agrupan varios de ellos para trabajar en paralelo. Así nacen los procesadores de varios núcleos con varios hilos de ejecución; no son más rápidos, pero si ejecutan más rápido. Y los algoritmos se ejecutan en paralelo por separado en el mismo instante. Y así estamos en la actualidad, hablando de procesadores de ocho núcleos con dos hilos de ejecución por núcleo (por ejemplo). El «remiendo perfecto» da las bocanadas de aire suficientes para que el «software» siga día a día creciendo para ejecutar procesos más complejos hasta volver a saturar de nuevo a la tecnología.

Hay otras alternativas bajo investigación para crear nuevos modelos de computación que sustituyan el que se está «auto-extinguiendo», como por ejemplo el «Grafeno» o los «procesadores cuánticos», pero todo está muy verde, y todavia no hay ninguna certeza de que ninguno de ellos sea viable en el futuro. Así que el modelo actual seguirá buscando los «remiendos perfectos» y otros caminos alternativos.

 

Manuel Director

Analista informático, desarrolla su labor profesional para importantes clientes en una empresa de Ingeniería de Software. Entre sus logros se encuentra haber ganado un premio internacional, y otro premio a nivel nacional, además de otras dos importantes menciones, todo ello relacionado con el mundo de Internet y la informática. Además es el creador de varios desarrollos de software freeware de gran éxito en varios países. En su tiempo libre fuera de su labor profesional es Director de ParcelaDigital.

Artículos antiguos…