Ing. Edison Lascano

Componentes y Operación de Sistemas

Facultad de Ingeniería de Sistemas
Escuela Politécnica Nacional
Quito - Ecuador

(Un aporte de:... ) © Pontificia Universidad Católica de Chile  
 

HISTORIA DE LA COMPUTACION

Primera Parte: LOS PRECURSORES



 

1. Los Antiguos

La primera "máquina" destinada a facilitar las operaciones de cálculo encuentra su orígen en China hace unos 2.500 años: es el ábaco.

Es también en el I-Ching o "Libro de las Mutaciones" chino que se encuentra la primera formulación del sistema binario (2.000 AC).
 

En Occidente, las primeras referencias históricas corresponden a la Grecia Antigua. Podemos encontrar la primera referencia literaria a un autómata de apariencia humana en el Libro 18 de la Ilíada de Homero.
 


Por otra parte, Tales de Mileto ya describió algunos aspectos de la electricidad estática (De su texto proviene la palabra"electrón").
 

 

 


La construcción del primer "robot" - que simulaba ser un actor de teatro - se debería a Herón de Alejandría, un experto en hidráulica.
 
 



 
 
 
2. Los "Mecánicos"
 
 


Encontramos las primeras señales de que podría ocurrir lo que hoy conocemos, en el incipiente desarrollo del Siglo XVII. El nacimiento de la industria generó una abundancia de productos por comercializar, con los consecuentes problemas de cálculo y de control, y la necesidad de nuevos instrumentos para resolverlos.
 
 


Así, en 1633, el inglés Oughtred inventó un instrumento que hoy conocemos como "regla de cálculo", utilizado hasta hace poco por los ingenieros.
 
 

 

En 1642 el francés Blas Pascal fabricó -a los 19 años- la primera máquina sumadora mecánica destinada a ayudar a su padre, alto funcionario de las finanzas nacionales. Esta fue perfeccionada en 1666 por Samuel Morland.

Este invento es de la mayor importancia, por cuanto probó que un dispositivo material podía realizar operaciones que parecían exclusivas de la mente humana.
 


Poco después (1671), el filosofo y matemático alemán Gottfried Leibniz, a su vez, desarrolló una máquina multiplicadora, mientras hubo que esperar hasta fines del siglo XIX (1889) para poder completar las 4 operaciones.
Las dificultades en la fabricación de los engranajes de precisión no permitió su desarrollo masivo sino hasta fines del siglo XIX. Por cierto este tipo de máquina permitía una sola operación a la vez y no tenía memoria.
 
 

 Una mención especial requiere el desarrollo de un telar automático por el francés Joseph Jacquard. En efecto, analizando las operaciones repetitivas que requería la producción de telas, este inventor imaginó conservar la información repetitiva necesaria bajo la forma de perforaciones en tarjetas. Estas perforaciones eran detectadas mecánicamente, asegurando el desplazamiento adecuado de las guías del hilado (tal como aún hoy ocurre en las máquinas caseras).

Este procedimiento inspirará a Babbage y a Hollerith, quiénes fueron importantes inventores y precursores de la informática.
 



 
 
3. Los Precursores Inmediatos
 
 


En el Siglo XIX llegan finalmente a buen término los esfuerzos por desarrollar una máquina de calcular precisa y eficiente:

En Estados Unidos, Dorr E. Felt inventa el "Comptometro", una calculadora con columnas diferentes para los diversos dígitos (unidades, decenas y centenas). James Ritty inventa una caja registradora con un seguro en la gaveta del dinero.
William S. Burroughs construye una sumadora capaz de "recordar" el resultado. (Este es otro paso muy importante: lograr que la máquina imite la memoria humana).
 


El hecho más importante del Siglo XIX, sin embargo, no es el perfeccionamiento de las calculadoras mecánicas sino la concepción de una verdadera máquina procesadora de información, capaz de autocontrolar su funcionamiento. Se debe al genio de Charles Babbage, nacido en 1792 en Inglaterra.

Desesperado por lo errores contenidos en las tablas numéricas de la época, este profesor de la Universidad de Cambridge (GB), proyecta e inicia la construcción de un nuevo tipo de calculadora. En 1821 presentó a la Royal Astronomical Society una máquina capaz de resolver ecuaciones polinómicas mediante el cálculo de diferencias sucesivas entre conjuntos de números (por ello llamada "máquina de diferencias"). Obtuvo por ello la medalla de oro de la Sociedad en 1822.

En 1833, inició la construcción de una versión mayor y más versatil de su primer modelo, para lo cual obtuvo una subvención inicial de 1.500 libras -y luego otra de 17.000 libras- del gobierno británico. Para su construcción, se inspiró en la máquina tejedora de Jacquard cuyo funcionamiento observó detenidamente, anotando especialmente la capacidad de este máquina para autorregular sus movimientos. Dedicó casi 40 años a la construcción de su máquina, muriendo en 1877 sin lograr terminarla, especialmente en razón de la imprecisión en la fabricación de los engranajes, que tendían a bloquearse contínuamente.

A parte de su capacidad de calcular, pretendía que fuese capaz de organizar información registrada en tarjetas perforadas, imprimir sus resultados y -sobre todo- evaluar un resultado para determinar ella misma qué cálculos hacer a continuación. En otras palabras, introducía un principio lógico de evaluación (si...entonces...) y un mecanismo de retroalimentación (el dato salido vuelve a entrar), principio que sería medular en la cibernética que nacería un siglo más tarde.

No contento con el modelo práctico que intentó construir con enormes dificultades, desarrolló un modelo conceptual que llamó "Motor analítico". Este anticipa la arquitectura de los computadores de hoy, previendo un "molino" o "fábrica" ("mill") que sería el centro lógico (equivalente a la unidad aritmética de hoy), una unidad de control y una memoria.


El segundo hecho fundamental del Siglo XIX corresponde al desarrollo por el británico autodidacta George Boole de una nueva álgebra. En 1847 -a los 32 años- publica "El análisis matemático del pensamiento", lo cual le vale una cátedra en el Queen's College de Dublin. En 1854 publica su obra magna "Las leyes del pensamiento".
Su álgebra consiste en un método para resolver problemas de lógica que recurre solamente a los valores binarios "1" y "0" y a tres operadores: "AND" (y), "OR" (o) y "NOT" (no). A partir de esta "álgebra binaria" se ha desarrollado posteriormente lo que conocemos hoy como "código binario", que utilizan todos los computadores actuales.
 


Mientras tanto, el español Ramón Verea presenta en 1878 el primer aparato multiplicador y divisor directo (sin uso de tablas) que rehusó comercializar por cuanto su intención era demostrar que España tenía tanta capacidad creativa como los Estados Unidos (aunque él mismo residía en Nueva York).
 


Como lo demuestraron los trabajos posteriores de Hollerith y los futuros computadores, Boole pasó a ser con Babbage uno de los dos teóricos fundadores de la moderna informática. Como Babbage no pudo terminar su máquina, hubo que esperar hasta 1890 para ver surgir un nuevo aparato:
 fue la máquina tabuladora de Herman Hollerith, que utilizó tarjetas perforadas para procesar los datos del Censo de los Estados Unidos. Era eléctrica y detectaba los hoyos en las tarjetas, basándose en la lógica de Boole.
Hollerith fundó la "Tabulating Machine Company" que es la antecesora comercial de la actual IBM.


En la línea del desarrollo de "máquinas lógicas", Leonardo Torres y Quevedo creó en España, entre 1893 y 1920, varias máquinas capaces de resolver ecuaciones albegráicas. Más tarde construyó la primera máquina capaz de jugar al ajedrez.

En 1914 escribió "Ensayos sobre la Automática", en que describe conceptualmente un aparato capaz de razonar conforma a reglas determinadas por su fabricante. No creía sin embargo que fuese posible construirla con los materiales de su tiempo (a diferencia de la opinión errónea de Babbage, cuyos trabajos conocía).


 

Segunda Parte: La Era de la Computación

 

1. Últimos "preparativos"


Entre 1934 y 1939, en Alemania, Konrad Suze construyó dos máquinas electromecánicas de cálculo que se acercaban bastante a lo que sería el primer computador. La "Z1" contaba con un teclado y algunas lámparas que indicaban valores binarios. Posteriormente, la "Z2" fue una versión mejorada, que utilizaba relés electromagnéticos.

Su amigo, Helmut Schreyer le sugirió emplear válvulas de vacío pero la escasez de éstas y la proximidad de la guerra no le permitieron dar este paso decisivo.
 


En 1937, Claude Shannon demostró definitivamente que la programación de futuros computadores era un problema de lógica más que de aritmética. Con ello señalaba la importancia del álgebra de Boole, pero -además- sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas, idea que sería decisiva para la construcción del primer computador, el que siguió justamente este modelo.
Con posterioridad y con la colaboración de Warren Weaver, Shannon desarrolló lo que llamó "teoría matemática de la comunicación" -hoy más conocida como "Teoría de la Información"-, estableciendo el concepto de "negentropía" (la información reduce el desorden) y la unidad de medida del "bit" (binary digit), universalmente conocida y aplicada tanto en telecomunicaciones (que es el campo a partir del cual trabajaron Shannon y Weaver) como en informática.


En 1939, en un último paso norteamericano antes de la aparición del primer computador, George Stibitz y S.B. Williams, de los Laboratorios Bell, construyeron una calculadora de secuencia automática, que utilizaba interruptores ordinarios de sistemas de conmutación telefónica. Sería el último invento antes de entrar en una nueva era.



 

2. Nacen los Mastodontes

Los primeros computadores ocupaban varios metros cúbicos, para una potencia de cálculo equivalente a la de una calculadora de bolsillo de hoy. Por esto hablamos de "mastodontes".
El éxito y la divulgación de la computación se debe en su mayor parte al desarrollo del poder de cálculo ligado a la rápida reducción del tamaño de las máquinas.
 


En Gran Bretaña cobró fama justificada el matemático Alan Turing. Hijo de un funcionario del Servicio Colonial en la India, nacido en 1912, ingresó a Cambridge y a los 22 años fue nombrado profesor en el King's College.
En 1937 concibió ya un proyecto (teórico) de cerebro artificial.

Durante la 2º Guerra Mundial, colaboró con el equipo de criptografía del Ejército británico que intentaba descifrar automáticamente los mensajes secretos de los nazis. Participó en la construcción del "Colossus" (1943), computador cuya existencia fue un secreto hasta hace pocos años, el que permitía descifrar en pocos segundos los mensajes cifrados generados por la máquina "Enigma" alemana. Era en realidad un computador "dedicado", es decir con una única función (descifrar). Funcionaba con 2.400 válvulas y 5 paneles de lectura óptica de cintas perforadas, capaz también de imprimir los mensajes descifrados.

Después de 1945 trabajó en el Laboratorio Nacional de Física, en una máquina de cálculo automático. Aunque era su objetivo construir un cerebro artificial se encontró bloqueado por su desconocimiento de la neurofisiología.
En 1947 publicó "Maquinaria inteligente" , sobre el tema de la inteligencia artificial, donde comparaba los ordenadores a los cerebros "por programar" de los bebés. Inventó la prueba de diálogo conocida con su nombre: si no podemos distinguir entre un interlocutor vivo y una máquina, ésta puede ser considerada como "inteligente" ("Prueba de Turing").

También es autor de la demostración matemática de que sería imposible redactar un programa computacional (serie finita de instrucciones) capaz de analizar otro programa y predecir si este -de tener algún sistema de recursión o autocontrol- provocaría o no una repetición infinita de las operaciones previstas.

Se suicidó en 1954 sin que estén claros sus motivos.
 


En 1932, James Bryce -inventor que trabajaba para la IBM- instituyó un programa de investigación destinado a desarrollar la aplicación de las válvulas de vacío (o "tubos electrónicos") en máquinas calculadoras. Howard Aiken, estudiante graduado de física de la Universidad de Harvard se interesó por este proyecto en 1937 y logró la firma de un convenio entre la IBM y la universidad en 1939.

Con un grupo de graduados de Harvard inició así ese año el diseño y la construcción del primer computador, de tipo electromecánico -es decir basado en relés, o interruptores magnéticos (electroimanes)-:

es el MARK I, que entró a funcionar en 1944. Este recibía y entregaba información en cintas perforadas, demorándose un segundo por cada 10 operaciones. Medía 18 metros de longitud y 2,5 metros de alto. (Posteriormente se construyeron dos versiones más: los MARK II y MARK III).
Aiken, nacido en 1900, falleció en 1973.
 


Aunque Harvard y la IBM produjeron el primer computador electro-mecánico, la tecnología era más avanzada en otras universidades. Éstas llenaron rápidamente su atraso superando tecnológicamente la innovación de Aiken.

Así John P. Eckert y John W. Mauchly construyeron en 1947, en la Universidad de Pennsylvania, el ENIAC (Electronic Numerical Integrator and Calculator), primer computador electrónico, compuesto de 17.468 válvulas o "tubos" (más resistencias, condensadores, etc.), con 30 toneladas de peso.

 

El calor de las válvulas elevaba la temperatura del local hasta los 50º. Para efectuar diferentes operaciones, debían cambiarse las conexiones (cables) como en las viejas centrales telefónicas, lo cual era un trabajo que podía tomar varios días. Era capaz de calcular con gran velocidad la trayectorias de proyectiles, principal objetivo inicial de su construcción. En 1,5 segundos podía calcular le potencia 5000 de un número de 5 cifras.

Las máquinas con válvulas constituyeron la llamada "primera generación" de computadores.
 


Otro producto importante de la guerra sería la cibernética. Un equipo interdisciplinario (antropólogos, fisiólogos, matemáticos, psicólogos y un economista), bajo la dirección de  Norbert Wiener, se enfrentó al problema de las trayectorias de proyectiles dirigidos hacia objetos en movimientos, como los aviones enemigos. Para acertar, debe predecirse la posición futura del blanco, y corregirse la trayectoria si éste cambia de dirección. El equipo de Wiener se dió cuenta que era un problema semejante al que resuelve el cerebro cuando conduce la mano para recoger un objeto (estático o en movimiento). Así formaron el propósito de crear un aparato que imitaría los procesos de control existentes en el ser humano (y eminentes fisiólogos fueron integrados al grupo). Este equipo -que recuperó el concepto de retroalimentación (feed-back) de Babbage-, al avanzar en sus trabajos echó las bases de la cibernética, disciplina hoy rectora de los procedimientos automáticos. De ella se valen las plantas industriales que utilizan robots (dispositivos activos controlados por computadores) en sus procesos de fabricación.
En 1949 fue publicado el resultado (teórico) de los trabajos del equipo de Wiener bajo el título de "Cybernetics". La naciente cibernética se definió como "teoría de la comunicación y autorregulación en sistemas probabilistas extremadamente complejos".
 
 



 
 

3. El modelo de Von Neumann

 


El matemático de orígen húngaro, John Von Neumann, trabajaba en 1947 en el laboratorio atómico de Los Alamos cuando se encontró con uno de los constructores de la ENIAC. Compañero de Einstein, Goedel y Turing en Princeton, Von Neumann se interesó por el problema de la necesidad de "recablear" la máquina para cada nueva tarea.
En 1949 había encontrado y desarrollado la solución a este problema, consistente en poner la información sobre las operaciones a realizar en la misma memoria utilizada para los datos, escribiéndola de la misma forma, es decir en código binario. Su "EDVAC" fue el modelo de las computadoras de este tipo construidas a continuación.
Se habla desde entonces de la  "arquitectura de Von Neumann"(que estudiaremos en detalle en el capítulo sobre "Arquitectura"), aunque también diseñó otras formas de construcción.

El primer computador comercial construído en esta forma fue el UNIVAC 1, el cual fue fabricado en 1951 por la Sperry-Rand Corporation y fue comprado por la Oficina del Censo de Estados Unidos.



 

4. La miniaturización

 
 


En 1947, tres científicos - Bardeen, Brattain y Shockley- de los Laboratorios Bell habían inventado un semiconductor de tamaño reducido capaz de realizar funciones de bloqueo o amplificación de señal:  nacía el TRANSISTOR. Más pequeños, más baratos y mucho menos calientes que las válvulas de vacío, los transistores desplazaron rápidamente a éstas en todos los aparatos electrónicos, los computadores entre otros.

(William Shockley dejó la Bell y fue a instalarse en Palo Alto para formar su propia compañía, que sería el punto de partida del hoy famoso Valle del Silicio "Silicon Valley").

A partir de 1955, se inició la construcción de computadores en que las válvulas fueron reemplazadas por transistores, lo cual permitió achicar decenas de veces el tamaño de las máquinas y aumentar su velocidad de operación, obviando además el problema de refrigeración que planteaban los tubos (muy calientes).
 


Un ejemplo típico de esta "segunda generación" de computadores es el Standard Electric SE-Lorentz LR56, primer computador traído a Chile por la Universidad de Chile, en 1962.
Ese mismo año, la Universidad Católica trajo el IBM 1620.

En los años 60, técnicos de varios laboratorios se dieron cuenta que la técnica de fabricación de los transistores posibilitaba la producción de unidades más grandes con múltiples componentes cumpliendo las diversas funciones electrónicas requeridas.  Así nacieron los circuitos integrados, los cuales permitieron una nueva disminución del tamaño y aún más del costo de los aparatos.

Con ellos nace también la "tercera generación" de computadores, cuyo exponente más famoso ha sido el IBM 360.

En 1966, la Universidad de Chile es nuevamente la primera en traer un computador de tercera generación: el IBM 360-40.


En 1971, producto del avance en la fabricación de estos circuitos, la compañía Intel lanza el primer microprocesador: un circuito integrado especialmente construído para efectuar las operaciones básicas ya señaladas por Babbage y conforme a la arquitectura definida por Von Neumann, que conocemos como "Unidad Central de Procesos" (CPU).

La integración ha avanzado en distintas etapas:

y estamos llegando a una "ultra alta integración".

Esta integración creciente permite además acelerar el funcionamiento, logrando superar - desde 1970 - el millón de operaciones por segundo.



 
 

5. El computador para la casa

Las máquinas que hoy utilizamos son el producto de una muy alta integración (VLSI) -propia de la década de los 80-, la cual permite concentrar miles de componentes electrónicos en una uña de silicio (el chip) de alrededor de un centímetro cuadrado. Ha sido el origen de los computadores personales (PC: compatibles IBM, Apple, etc.).

Así han podido fabricarse nuestros microcomputadores y los sistemas portátiles, al mismo tiempo que se aumenta permanentemente la capacidad de memoria interna de la máquina, para conservar más datos mientras se procesan. La velocidad, a su vez, superó ampliamente los diez millones de operaciones por segundo, llegando actualmente a cerca de 100 millones en los microprocesadores más avanzados (utilizados en computadores grandes o "mainframes").
 
 


En este año, una pequeña firma de Albuquerque (Nuevo México), que había sido pionera en la fabricación de calculadoras electrónicas, produjo el primer computador destinado a aficionados: el Altair. No tenía ni teclado ni monitor ni unidad de almacenamiento. Los programas debían ser ingresados instrucción por instrucción usando los interruptores del panel frontal.

 


En 1975, Steve Jobs -que trabajaba en Atari- y Steve Wozniak -que era ingeniero de Hewlett-Packard, se juntaron para armar un micro-computador en su casa. Wozniak diseñó una placa única capaz de soportar todos los componentes esenciales y desarrolló el lenguaje de programación "BASIC". El producto fue el primer "Apple". Para fines de 1976 tenían un modelo mucho mejor desarrollado y en condiciones de ser comercializado: el Apple II. Tras varios intentos para comercializar su licencia, obtuvieron el apoyo personal de Mike Markulla, con quién formaron su propia compañía, la Apple Computers. El Apple II siguió fabricándose por unos 15 años, lo que constituye un récor histórico para este tipo de producto.

  


Viendo el éxito de los micro-computadores, la IBM encargó a un grupo especial el desarrollo de un computador personal, el cual estuvo listo y se dió a conocer a mediados de 1981. Rompiendo con su tradición, determinó que esa máquina fuera de estructura "abierta", es decir con especificaciones técnicas públicas, con un sistema operativo creado por otra compañía, el PC-DOS de Microsoft, y con la capacidad de integrar componentes de otros fabricantes, lo que fue la principal razón de su éxito y de la considerable difusión de los "PC (IBM) Compatibles". El primer año se vendieron 65.000 unidades.


En 1984, la compañía Apple lanzó una máquina que introduciría nuevamente una revolución: el Macintosh. Éste era el sucesor de un modelo llamado "Lisa" -pero que no tuvo aceptación debido a su costo y escasa capacidad- en que se introducía por primera vez el concepto de interfaz gráfica, la analogía del "escritorio" y un nuevo periférico: el "mouse" o ratón, como herramienta para controlar al computador.

 


 
 

6. Últimos adelantos

 

Existen además supercomputadores que en vez de funcionar a base de un sólo microprocesador utilizan miles de éstos, pudiendo así hacer un enorme número de operaciones simultáneas, llegando a los doscientos millones por segundo.

El primer modelo fue desarrollado por Cray y comercializado hacia 1984. Realizaba 80 millones de operaciones por segundo.
 

En 1986, Floating Point Systems, compañía competidora de la Cray Research, lanzó su "T-40.000", con 16.384 microprocesadores coordinados por "transputadores", el cual es capaz de procesar a una velocidad de 262 millones de operaciones en punto flotante por segundo (Mflops). Hoy, algunos supercomputadores ocupan hasta 65.000 microprocesadores.

En 1991, un equipo de investigadores de IBM desarrolló el aparato más pequeño jamás creado por el hombre: un interruptor que mide el tamaño de un átomo. Es capaz de controlar el flujo de corriente eléctrica desplazando un átomo de xenón entre dos diminutos electrodos. Esta proeza es de suma importancia para el desarrollo futuro de computadores enanos ya que los componentes con dos posibles estados constituyen la base de los procesadores.

Este mismo año, Digital Equipment (DEC) lanzó al mercado una familia de computadores basados en arquitecturas de paralelismo masivo: las máquinas van en un rango desde los 1.024 hasta los 16.384 microprocesadores que trabajan en forma paralela. En su configuración máxima (por un costo de unos 1.500.000 dólares) son capaces de realizar 26 mil millones de instrucciones básicas por segundo (26.000 MIPS).

La firma NCR exhibió en Chile su nuevo microcomputador sin teclado, lanzado en diciembre de 1991 en los Estados Unidos. Se trata del "Notepad NCR 3125" que consiste en una caja del tamaño de una hoja carta y de 3 cm de espesor y un lápiz inalámbrico especial. Pesa menos de 2 kg, por lo cual puede ser usado fácilmente como si fuese un bloc de apuntes. Tiene una pantalla sensible a los pulsos electrónicos enviados por el lápiz. Así, el usuario accede al computador mediante símbolos, gráficos y escritura manual. Funciona con software de procesamiento de textos y bases de datos, gráfica, fax y comunicación con otro comptador por teléfono.

Mediante la utilización de un laser de luz azul, científicos de IBM han logrado grabar y leer datos en un disco óptico a una densidad de 2,5 Gigabits (2.500 millones de bits) por pulgada cuadrada y a una velocidad de 2 millones de bits por segundo, lo cual constituye un nuevo récord. Con esta densidad se podría almacenar 6.500 Mb en discos de 5,25" de doble cara. Esta tecnología podría comercializarse dentro de 3 a 5 años.

En noviembre de 1994, Nintendo anunció el primer juego de "realidad virtual" (gráfica tridimensional por la cual el usuario puede desplazarse de modo ficticio), el "Virtual Boy", con un costo de 199 dólares. (El primer proyecto de este tipo le había costado 200.000 dólares a la NASA). Meses después, Sony lanzó por 200 dólares su "Playstation", una "estación" de juego con una capacidad 1.000MIPS (millones de instrucciones por segundo), mientras el procesador Intel -de muchos computadores- sólo permite 100MIPS. 


Novedades de 1996 (Feria Mundial CeBit)
 

Las novedades de 1996


EXPLOTA la ciudad de Hannover. Alberga a 500 mil habitantes y al recinto ferial más imponente de Alemania. Recibe a 600 mil forasteros en la CeBIT '96, la gran exhibición de informática y comunicaciones del mundo.
 

Junto a 9 mil periodistas de todo el mundo, Siglo XXI participó en los 7 días feriales.

Lo más importante: la inteligencia, el software de los fierros.
Hangares y hangares de humanos concentrando su experiencia. Programas para restaurantes, coleccionistas de estampillas, sastrerías, carpinteros, cirujanos, campañas electorales, para trabajar desde casa, para hablar por teléfono.

Muchos paquetes de software envueltos en celofán y brillos. Los publicistas recurren a todo: laptops ante escenas lascivas; cajas de Novell entre torrejas de tomate, hojas de lechuga y trozos de pan; mouses en sillas de playa. Mucha conversa, cerveza y tarjeta. Así marcha el negocio.

En un pabellón enorme, como un aeropuerto internacional, mil habitáculos con creadores de ideas geniales. Todas, a disposición de quien quiera distribuirlas, comprarlas, aprovecharlas.

En otra nave, tan grande como una catedral, investigadores universitarios muestran sus trabajos. P ej, el Dr H. Müller de la U de Dortmund, que creó un software para reconocer la postura de la mano, quiere reemplazar con él al guante alambrado que se usa en realidad virtual. Lo bautizó Zyklop. «En 1997 presentaremos electrodomésticos como un videograbador, un equipo de audio, un abrepuertas, que obedezcan a gestos. El sistema ofrecerá libertad y nuevas posibilidades a los ancianos y los minusválidos».

A propósito, el Dr Herbert W. Franke, de la U de Munich, avanza en un programa que lee la información del computador para los ciegos, pero no como robot, sino que con entonación.

-No nos basamos en las sílabas, sino que en el sonido de las consonantes y las vocales y en las intenciones. Es un asunto complejo.
Por ahora, funciona en alemán; tiene que mejorar.

Más allá, una escuela de medicina demuestra una neurocirugía hecha desde otra ciudad; el paciente es plástico.

El talento universitario supura generosidad, ingenio y futuro. Por ahí irá la cosa.

Y en los pabellones más comerciales, los grandes de programas de computación se baten a duelo o anuncian alianzas.

Lo más impactante en software es el trabajo de un programador audaz que ya vendió su producto a Pro Sieben, canal de TV que está cambiando la pantalla alemana.

CHORRO SERVICIAL

Aparecen los primeros computadores- Internet, el Pippen, japonés, como consola de juegos, enchufado a la red para obtener su información. Todavía no se vende. El teclado es opcional, para los que quieran pedir más datos. Es Apple. Los de la manzana también ofrecen un nuevo Newton, la tableta sin teclado que ahora sí reconoce mejor la escritura y que trae más programas para sus probables usuarios: trabajadores móviles, pequeños empresarios, médicos, diseñadores. Se enchufa a un celular y listo.

La operación móvil cunde. En Alemania ya resolvieron lo que nuestro subsecretario de Telecomunicaciones estudia tanto: la comunicación PCS (sistema de comunicación personal de formato digital). Allá, el matrimonio de comunicaciones e informática anda tan bien como acá el lomo con la palta.

Así, puede aparecer el portentoso Nokia 9000, un teléfono por su frontis, que por atrás se destapa y deja ver una pantalla y un teclado. Total: conexión celular con la oficina, con la base de datos, con el computador central, con el correo electrónico, con la Internet ... literalmente en el bolsillo. Todavía con pantalla en blanco y verde, a US$2.000.

Aumenta tanto el uso de líneas telefónicas para transmitir datos, que en Europa estiman que el 10% de la gente con celular para el año 2000 usará su conexión sólo para datos, no para voz.

Y las tentaciones abundan. Hewlett Packard, también aliada con Nokia, muestra su OmniGo 700, 2 cajitas para disparar planillas de cálculo, faxes, correo desde cualquier lugar: matrimonio de computación y comunicación. En Chile esta joyita HP no funcionará, claro, mientras no tengamos PCS.

ABRAN PASO A LO VISUAL

Por la vista entra: videoconferencias desde el computador portátil, por celular; Sony divide una pantalla en 4 para que sendos ejecutivos puedan discutir al mismo tiempo; excitante fidelidad en reproducción, la impresión con chorros de tinta da origen a un arte de precisión: las nuevas impresoras Epson, Canon, Hewlett Packard, Apple, más que duplican la fidelidad de sus predecesoras, a precios convenientes.

En ese rubro, algo nuevo. Citizen se aparta de los chorros de tinta y presenta su nueva impresora ¡de tinta sólida! Usa una pasta que consigue muy buenos resultados1 y aumenta la cantidad de colores aplicables según el gusto del autor y la disponibilidad de los fabricantes. Hasta dorados y plateados vimos aplicar sobre un papel satinado tamaño carta. Un atrevimiento que puede traer oro.
Y por doquier, cámaras fotográficas digitales. ¿Qué son? Algo que debe preocupar a Kodak, porque no ocupan rollo. La Minolta, p ej, tiene 3 CCDs o placas que registran los colores primarios. La foto resultante muestra 1.528 pixeles en la horizontal y 1.146 en la vertical. Se meten en un computador, y de ahí, cualquier cosa puede ocurrir. Naturalmente, la cámara se puede borrar y está lista para tomar nuevas fotos. A este nivel, todavía vale 2 o 3 veces una Minolta tradicional.

Más económicas, las Polaroid, Sony, Chinon y Fuji compiten en este territorio donde ya estaban Kodak y Apple. Pero las nuevas cámaras dan importantes saltos en resolución y precio. Aunque, como nos dijo Mr R. Campbell, de Sony, «reconocemos que la calidad de la película química es inalcanzable... todavía.»

Para registrar lo visual, bajan de precio los escaners. Entre todas las soluciones, destacó uno que ya está en Chile, el que Compaq incluyó sobre el teclado de su computador Deskpro M21002.

ALMACENES GIGANTES

Lo visual obliga a aumentar las capacidades de las redes que comunican a los computadores, y presiona sobre la capacidad de almacenaje.

En CeBIT estiman que cada año la información digitalizada en el mundo se duplica.

Por suerte los discos duros más rápidos, más capaces, más pequeños y más baratos alegran el corazón del computador sobrecargado.
Pero hay más. Iomega cantó victorias en CeBIT por haber colocado ya más de un millón de discos Zip, económico sistema capaz de almacenar hasta 100 megabytes.

3M le salió al paso (Siglo XXI 287) con un disco para 120 Mb con mayor velocidad de transferencia de información y que alega valer menos que el Zip por megabyte.

De esta batalla por almacenar más sólo podemos ganar.
Irrumpen los grabadores de CD-ROMs. El más barato, de HP, vale US$1.300. Sony ofrece uno ya no de doble velocidad sino de 8 veces la original. Y aparecen los prototipos de CD-ROMs regrabables. Para fines de siglo tendremos CDs en capas, para almacenar más de 5 gigabytes de información.
Los necesitaremos.

LOS TOPPINS ALEMANES

Para un programa infantil de TV, Olaf Schrim ya vendió su Vierte Art, un sistema que corre en un Silicon Graphics y que reconoce expresiones faciales o movimientos corporales.

El canal de TV Pro Sieben transmite desde hace 15 días el nuevo programa Brainy. Un mimo se mueve en una sala lejos del estudio principal. Está alambrado, cada movimiento de músculo se transmite al computador que lo comunica a un modelo virtual, el personaje Brainy, que repite en tiempo real y al aire, los movimientos del mimo.

En CeBIT, Schrim mostró su reproductor facial. Una cámara captaba los movimientos de 37 puntos reflectantes en el rostro de un actor y los comunicaba a un Silicon Graphics. Este luego los aplicaba en una cara de un político, p ej Konrad Adenauer, que así cobraba vida.
Lo visual cunde; lo visto en CeBIT importa.


Extracto del artículo de Nicolás Luco: "LA GRAN FERIA", Siglo XXI (El Mercurio), n.289, 18/4/1996.
 
 


En el capítulo sobre "Prospectiva" se exponen los adelantos en los cuales se está trabajando hoy y las perspectivas para mañana. No sólo seguiremos teniendo computadores más pequeños y más potentes (aunque poco a poco los chips se acercan al límite físico de la reducción de tamaño), sino que bien podrían nacer máquinas bastante diferentes para realizar mejor algunas funciones que "repugnan" a nuestras máquinas de hoy.
 

 

PROSPECTIVA

Primera Parte: Arquitecturas futuras

Ilustración del libro "Sueños de Robot", P&J.
 

Al leer este capítulo:
  • Fíjate principalmente en las grandes orientaciones que se translucen en los desarrollos en curso y proyecciones a futuro. 
  • Busca lo que podría ser aplicado en la carrera que estudias.
 


¿Procesadores en paralela o en sociedad?

Quizas lleguen los super-computadores a ser los antecesores de la "quinta generación", de la cual solo se sabe -por ahora- que introduciría una forma de operar mucho más cercana al modo de pensar humano: introduciría procesos calificados como de "inteligencia artificial". Esto es posible si se reúnen dos condiciones: También existen ya dos de estos lenguajes, uno nacido en los Estados Unidos (el "LISP") y otro nacido en Europa (el "Prolog") y elegido por Japón para su próxima generación de computadores.

Pero quizás haya otro camino, y éste se empezó a investigar hace poco: fabricar procesadores mucho más chicos y simples (en vez de más grandes y más complejos), dotados de muy pocas instrucciones, pero orientando éstas a asegurar la comunicación con sus vecinos idénticos (ver "Transputer" y "Computador celular", más abajo). Se formaría así Una suerte de "sociedad" que se autorganizaría de acuerdo a las condiciones del ambiente. Las investigaciones sobre "vida artificial" son claves en esta materia y son la base de una nueva forma de enfocar la problemática de la "Inteligencia Mecánica".



El futuro del computador personal

Según la División de Investigación y Desarrollo de Apple Computer, el computador personal de los próximos años bien podría ser una combinación de aparato de video, televisor, radio, video-teléfono y fax junto con la capacidad (aumentada) del microcomputador de hoy. De hecho, la Apple exhibe desde hace varios años un video que muestra distintos aspectos y funciones de esta máquina (por ahora al estado de maqueta) que ha llamado "Knowledge Navigator" (navegante del conocimiento), poniendo así el énfasis en su capacidad de administrar comunicaciones y manejar documentos "hipermediales" (es decir multimediales con formato de hipertexto), como los que hoy viajan por la World Wide Web. Es evidente que lo que conocemos hoy, con la expansión de Internet y el desarrollo de las redes, confirma una intuición que surgió hace una decena de años. La transformación en las redes y los servicios telefónicos así como en los servicios de TV-Cable auguran cada vez con mayor probabilidad el desarrollo de una suerte de "compunicación" (computación unida íntimamente a comunicación) y la creación de un aparato integrado para todos los servicios implicados.



La -¿frustrada?- "Quinta Generación"

Aunque no existe formalmente una "cuarta generación" de computadores, mucho se habló, en la década de los 80, de proyectos de "quinta generación". Ello corresponde a una batalla tecnológica para desarrollar los primeros computadores capaces de interactuar "inteligentemente" con el ser humano.

Todo empezó en 1981, durante una "Conferencia Internacional de Sistemas de Computación de Quinta Generación" celebrada en Tokio, donde Japón dió a conocer un gigantesco programa para el desarrollo de una nueva tecnología, en que participarían el gobierno, las universidades y las empresas más avanzadas y poderosas. Se fijó como meta producir en el plazo de 10 años máquinas capaces de realizar mil millones de inferencias lógicas por segundo (LIPS). La LIPS es una nueva unidad de medida de velocidad, referida a una habilidad de la inteligencia artificial: la del razonamiento lógico. Una LIPS, a su vez, requiere de 100 a 1000 operaciones del sistema anterior de medición (IPS: instrucciones por segundo), por lo cual estaríamos ante máquinas capaces de más de cien mil millones de operaciones básicas por segundo.

Aunque Europa y Estados Unidos recogieron el guante y pusieron también a sus expertos a trabajar en programas semejantes ("Programa Estratégico de Computación y Supervivencia" en Estados Unidos y "Programa Estratégico Europeo para la Investigación en Tecnología de la Información - ESPRIT" en Europa).

Pero hasta hoy, no se han visto los resultados esperados ni han nacido los "computadores inteligentes" con los cuales se esperaba contar en 1992, aunque se hayan gastado centenares de miles de dólares. El proyecto japonés de Quinta Generación se considera ahora fracasado, pero ha sido reemplazado por un proyecto de "Sexta Generación" cuyo propósito es lograr capacidades computacionales semejantes a las del cerebro humano hacia el año 2002. La fecha no parece muy realista, a pesar de que los investigadores de este país han avanzado mucho en la investigación de nuevas arquitecturas como las redes neuronales y los biochips (ver abajo).

Las necesidades de los usuarios y los descubrimientos parecen, por ahora, llevar por otros derroteros: nadie se esperaba el éxito de Internet y el crecimiento explosivo de la World Wide Web . La idea de que una red podría tener o generar algún tipo de inteligencia propia ("La inteligencia está en la red" dicen algunos) está empezando a tomar cuerpo y a orientar otro tipo de investigación.
 



Nuevas arquitecturas

Transputer

El "transputer" parece ser el primer componente electrónico que permitiría a las máquinas lograr el ansiado paralelismo masivo en sus operaciones. Equivaldría a lo que es actualmente el transistor para las máquinas electrónicas en general, o sea un componente básico que puede ser fabricado en forma masiva y económica. El primero fue creado por la firma inglesia Inmos y presentado en la Feria Internacional de Componentes de 1983 en París.

Cada transputer reúne en un mismo chip varias unidades de cálculo, una memoria (2Kb en el primer modelo fabricado) y mútiples conexiones que permiten un intercambio rápido con otros transputers (4 en el primer modelo) y que pueden operar todos en forma simultánea. Se obtuvo así una velocidad secuencial de 10 Mips (diez millones de instrucciones por segundo), ampliamente sobrepasada en los modelos subsiguientes.

Para su uso ha sido construído especialmente un lenguaje de alto nivel orientado al aprovechamiento del paralelismo, el OCCAM, aunque puede ser programado como un procesador normal con lenguajes existentes (Pascal, Fortran, C, Prolog, etc.). El concepto de base del Occam - y del procesamiento mediante transputers - consiste en considerar entidades que intercambian información con su entorno, formado de otras entidades del mismo tipo, a través de canales unidireccionales que las unen 2 a 2. Estas entidades pueden ser conjuntos de instrucciones, procesos o representa-ciones de procesos, pudiendo constituirse diversos niveles de complejidad en forma modular.


Computador celular

El computador celular se basa en la idea de los mecanismos de reproducción de las células vivas. Fue concebido por John von Neumann, al igual que la estructura de los computadores actuales, y perfeccionado por Edgar Codd y Christopher Langton.

Para entender su estructura y funcionamiento, conviene imaginar una hoja cuadriculada donde cada pequeño cuadro corresponde a una mínima máquina procesadora ("célula") que "se informa" del estado de sus vecinas y reacciona de acuerdo a esta información. Todas las células son estructuralmente idénticas y operan de la misma manera.

Para operar, se fija el estado inicial de cada célula (de entre un número a determinar) y se determina una "regla de transición" común para todas. Luego se pone en marcho un reloj que sincroniza los cambios de estado: a cada "top" del reloj, todas las células cambian de estado conforme al estado de sus vecinas.

Una de las características de este tipo de estructura y modo de operación es la posibilidad de diseñar configuraciones iniciales que se autorreproducen (de ahí el nombre de "autómatas autorreproductores" que se da también a esta arquitectura) o reglas que lleven a la reproducción del diseño original, lo cual constituye un instrumento de alta importancia en física teórica y modelización matemática.

El primer circuito simulador de autómata celular fue construído en 1981 en el MIT (Instituto Tecnológico de Massachusetts). Su versión comercial puede ser conectada a un IBM-PC, dándole la potencia de un supercomputador. En 1985 se inició la comercialización de un chip de arquitectura celular (el "GAPP") que contenía 72 procesadores (células). Todos ellos reciben y ejecutan simultáneamente una instrucción recibida de un controlador externo, pero modifican su estado en función del estado de sus 4 vecinos inmediatos.


MaRS

Una vía de desarrollo diferente es la de las "MAQUINAS DE REDUCCION SIMBOLICA" ("MaRS"), cuyos procesadores en vez de estar basados en el procesamiento numérico están diseñados para manipular símbolos (como nombres de objetos o conceptos) y relaciones entre símbolos. Responden en forma directa a las exigencias de la inteligencia artificial y están destinadas a facilitar el procesamiento de conocimientos.

Como lo hemos señalado, los computadores actuales son en esencia máquinas destinadas al cálculo (matemático y lógico). Su capacidad en el campo de la lógica booleana permite aplicaciones no matemáticas pero no se logran resultados tan buenos (rápidos) como con números, debido a su complejidad. Las máquinas de reducción están diseñadas para procesar más eficientemente programas funcionales o declarativos como los escritos en lenguaje Lisp o Prolog.

El procesamiento simbólico se caracteriza por una gran variabilidad en la organización de los datos y en una baja previsibilidad del comportamiento de un programa. Se requiere un muy alto dinamismo en el uso de la memoria durante los procesos. Se descubrió que los principios de la lógica combinatoria permiten resolver a la vez este problema y facilitar la ejecución de programas funcionales. Se puede entender la "reducción simbólica" como el mecanismo por el cual se reemplaza una fórmula por su resultado, una vez calculado. La ejecución de un programa en una máquina MaRS sigue este principio con facilidad por cuanto su procesador funciona sobre la base de operadores combinatorios. Y es muy fácil recortar un programa en "trozos", reducidos simultáneamente por procesadores paralelos, lo cual permite acelerar aún más el procesamiento.

La fabricación de un prototipo estaba prevista para 1989. Quedan por hacerse muchas pruebas y estudiar las posibilidades de sistemas modulares complejos (con varios núcleos MaRS entrelazados). Pero se ha descubierto desde entonces que aún tenemos que aprender mucho acerca de cómo programar en forma simbólica.


Máquina neuronal

La arquitectura neuronal intenta imitar de más cerca la estructura del cerebro y su forma de operar. Una máquina neuronal, se compone de elementos equivalentes a las neuronas y que imitan sus conexiones en red. En cuanto a la forma de operar, imita el proceso de aprendizaje relacionado con el cambio de estado de las conexiones entre las neuronas. De este modo, una máquina neuronal no se programa en la forma tradicional, sino que se ajusta progresivamente en función del uso (proceso de aprendizaje).

La compañía Fujitsu fabricó en 1988 el primer chip neuronal, con 32 neuronas (1024 conexiones). Por su parte, la Universidad de California (San Diego) anunció la fabricación de un prototipo electroóptico, mientas los laboratorios Bell, de la ATT, anunciaron un circuito con 256 neuronas y hasta 32.000 sinapsis.

Un típico procesamiento y aprendizaje neuronal consiste en introducir repetidamente un texto a través de un scanner, hasta que la máquina sea capaz de reconocer todas las letras, incluso cuando algunas de ellas no son perfectamente nítidas (traduciendo así una imagen en una secuencia de caracteres de texto, en forma mucho más eficiente y exacta que con un computador tradicional).


La miniaturización de los componentes electrónicos ha permitido aumentar la velocidad de operación al acortar las distancias. Pero está llegando a un punto (el nivel molecular) en que ya no es posible aumentar la velocidad por la vía de la miniaturización.

Computador óptico

Para evitar las dificultades que presentan los microcircuitos electrónicos hay un camino obvio: abandonar la electrónica. La luz (fotones) se desplaza mucho más rápido que los pulsos eléctricos (electrones), sin peligros de interferencia y sin necesidad de conductos aislantes (lo cual facilita los procesos paralelos). Así, la superioridad de la óptica es indiscutible. Por ello se han realizado ingentes esfuerzos para construir componentes que cumplieran las mismas funciones que los dispositivos que permiten el procesamiento electrónico, utilizando nuevos materiales que reaccionan de diversas maneras según la intensidad de luz que los afecte. Han sido pioneros Gibbs, MacCall y Venkatesan, de los laboratorios Bell (logrando construir el primer componente de funcionamiento binario -o "biestable óptico"- en 1976). Se espera contar con computadores ópticos completos en el 2030.


Biochip

En opinión de Minsky (uno de los creadores de la Inteligencia Artificial) y de los expertos del Santa Fe Institute (centro de estudio de la vida artificial), después del 2010 podría desaparecer paulatinamente la frontera entre lo natural y lo artificial, lo físico y lo biológico.

Steen Rasmunsen (del Santa Fe Institute) está convencido de que la vida artificial pronto nacerá en los computadores a partir de experiencias bioquímicas, donde se mezclaría biotecnología e informática. Esto permitiría -entre otras cosas- crear insectos artificiales (medio robots, medio insectos) y el implante de chips en el ser humano, quizás hacia el 2050 . . . ¿con qué consecuencias?


"Cosas que piensan"

Un proyecto de N.Negroponte en el MIT

BIBLIOGRAFIA



 

Regresar

© Pontificia Universidad Católica de Chile