Tecnologías de la Comunicación

Caso práctico: ¿ordenadores en red?

Resumido de Miguel-Oscar Díaz (1998), "Lo que todo directivo debe saber sobre Network Computing", Comercio Electrónico, n 2, IV Trim, pág 50-51. Miguel-Oscar Díaz es Director de Oracle Consulting



¿Por qué los usuarios de informática han de saber qué PC utilizan, conocer su sistema operativo, administrar sus datos, cargar aplicaciones y apagar y encender el ordenador varias veces al día cuando inexplicablemente éste no funciona?


1) Modelos antiguos

A lo largo de la corta historia de la computación, se han venido utilizando básicamente dos modelos: El modelo centralizado, conocido también por el sobrenombre de "mainframe", y el modelo descentralizado a dos niveles, conocido como "cliente-servidor".

El primer modelo se basaba en un ordenador robusto y potente donde se almacenaban los datos y se ejecutaban los programas o aplicaciones. El usuario se conectaba a este ordenador mediante un terminal, que no tenía normalmente capacidad de proceso ni de almacenamiento de datos, a través del cual introducía datos al ordenador o consultaba información en él almacenada. Este modelo tiene ventajas que hicieron que se utilizara durante mucho tiempo: Es sencillo, admite multitud de usuarios, éstos no deben saber nada más que lo que el ordenador les pida en cada momento, es fiable y seguro ante eventuales fallos.

También tiene sus inconvenientes: los ordenadores centrales eran caros, la comunicación del usuario con el ordenador no era ninguna maravilla (pantallas en negro con caracteres blancos, ámbar o verde) y las comunicaciones eran caras y poco fiables.

Al comienzo de los años ochenta, con el nacimiento del ordenador personal, los usuarios que no precisaran de los datos o programas almacenados en el ordenador central, podrían trabajar de forma independiente. Babel surgió y creció rápidamente, aparecieron miles de "informáticos" por doquier y con ellos sus propios datos, sus propios programas y multitud de información discordante.


2) Necesidad de soluciones

En el ámbito de la empresa, ante semejante situación, se vio la necesidad de establecer algo común, algo corporativo que, unido al ordenador personal, aprovechara las ventajas de éste y trajera algo del orden y también de las ventajas del antiguo modelo centralizado. Surgió así el modelo "cliente-servidor" en el que los "clientes", ordenadores personales, almacenan datos y ejecutan programas en sincronía con el almacenamiento de datos y ejecución de programas centralizados, que residen en el ordenador común, en el "servidor". De esta forma se aprovecha lo mejor de los dos mundos, el usuario se comunica con el ordenador a través de pantallas en color y con elementos muy intuitivos y la información y aplicaciones comunes están disponibles para otros usuarios.
Los problemas surgen cuando el modelo empieza a crecer, crecer y crecer. Los "clientes" utilizan muchas aplicaciones y datos, que aun siendo comunes a todos ellos, están copiados en todos y cada uno, ocupando recursos de disco y capacidad de proceso. Los datos y aplicaciones del usuario, los que residen en el "cliente", han de ser administrados; periódicamente hay que hacer copias de seguridad, cuando hay aplicaciones nuevas, hay que distribuirlas, cuando hay mejoras en las aplicaciones, hay que hacérselas llegar.
El usuario, por su parte, emplea cada vez más tiempo en aprender y gestionar los que se ha transformado en algo muy complejo. Ha de saber manejar un sistema operativo, hacer copias de seguridad, cargar programas, instalar antivirus, conectarse a una red, configurar programas, etc.


3) Aparición de un estándar

Mientras esto sucedía, Internet se constituyó en un medio habitual de compartir y acceder a la información almacenada en infinidad de ordenadores repartidos por todo el mundo, y con ello, lo más importante, se produjo la consolidación de un lenguaje (un estándar) común y universalmente aceptado, junto con la aparición de los programas lectores de páginas de Internet, los browsers. ¿Por qué no, entonces, aprovechar todo ello para volver a llevar la complejidad a donde debe estar, donde pueda ser manejada por profesionales, y descargar al pobre usuario de las tareas informáticas que le habían asignado, las cuales no le aportaban más que una gran pérdida de su precioso tiempo?
Nace así el modelo "Network Computing" -Computación en Red- en el que "servidores" de datos y de aplicaciones, se encargan de almacenar datos y de procesarlos, estando conectados entre ellos y a los usuarios mediante redes que utilizan estándares de Internet. El usuario para conectarse utiliza bien un PC o un Network Computer (un terminal sencillo y barato), pero en ambos casos no necesita de más capacidad de proceso que la necesaria para ejecutar un programa lector de páginas Internet, un browser, pues las aplicaciones y los datos no residen en el "cliente", sino en los "servidores" conectados a la red. La red puede ser pública, la World Wide Web de Internet, o una red privada con los mismos estándares, o una combinación de ambas.


4) Ventajas claras

Este modelo aporta innegables ventajas: es independiente del hardware y del software que se utilice (siempre que esté basado en estándares abiertos), es sencillo para el usuario y para el informático y, sobre todo, es mucho más barato. Son más baratos los dispositivos "cliente" y es enormemente más barata su administración. La complejidad se ha eliminado de los elementos dispersos y se ha concentrado en los servidores, sobre los cuales se puede concentrar el esfuerzo de los informáticos. Ya no es necesario enviar copias de nuevos programas a todos los PC's; basta instalar una copia en un "servidor". Ya no es necesario salvar datos dispersos en cientos de PC's; hacer una copia de seguridad de la base de datos del "servidor" es suficiente. Si un "servidor" se estropea, automáticamente otro asume su trabajo; si hace falta crecer, basta aumentar el tamaño o el número de los "servidores". En definitiva, el modelo "Network Computing" tiene una gran y principal ventaja: es mucho más barato que el modelo "cliente-servidor", y esto es algo que cualquier directivo, en cuya empresa los sistemas de información sean un elemento clave para su competitividad y su productividad, es decir, casi todas, ha de conocer necesariamente.

Hacer algo de forma más complicada y más cara, a como se puede realizar de otra manera, es algo que no va a perdonar ningún accionista.

Ir a CiberConta Retroceder   Inicio leccion  Avanzar