miércoles, 19 de septiembre de 2012

Representación de cantidades


El ser humano emplea un sistema de numeración llamado decimal.
La regla principal indica que toda cantidad se puede representar por el desarrollo de potencias sucesivas que tendrán como base el número total de dígitos usado por el sistema que se esté utilizando y como exponente el lugar físico que ocupe cada dígito menos uno empezando por la derecha.
Desarrollo polinómico de una cantidad es la suma de los productos de cada uno de los dígitos con la potencia que les corresponde ofrecerá el valor real de la base de numeración. Por ejemplo, el desarrollo polinómico en base 10 del número 634 sería:
634(10 = 6 x 102 + 3 x 101 + 4 x 100 = 600 + 30 + 4
El ordenador utiliza el sistema binario. Las cantidades se representarán como combinaciones de ceros y unos. Para conocer la cantidad en base decimal que representa una combinación de ceros y unos bastará con realizar su desarrollo polinómico al igual que en el ejemplo anterior. Por ejemplo, para conocer qué cantidad representará 10101, sería:
10101(2 = 1 x 24 + 0 x 23 + 1 x 22 + 0 x 21 + 1 x 20 =
= 16 + 0 + 4 + 0 + 1 =21(10
El método para pasar del sistema binario al decimal es muy fácil. ¿Será viceversa también fácil? El método también es sencillo.
Para pasar una cantidad del sistema decimal al binario se realizan divisiones sucesivas por dos. Primero se toma la cantidad decimal y se divide por dos, después se toma el cociente de esa división y se vuelve a dividir por dos, tomamos de nuevo el cociente de la última división y lo dividimos por dos, y así sucesivamente hasta que el cociente ya no sea divisible entre dos. El número binario estará formado por el último cociente y los restos de las sucesivas divisiones empezando por el de la última, hasta llegar al resto de la primera división.
El ordenador trabaja internamente en binario, así si el usuario escribe una cantidad por teclado, esta cantidad es convertida en binario para que el ordenador trabaje. Por el contrario cuando el ordenador muestra un resultado al usuario, el número binario pasa a decimal y después se muestra en el monitor o se imprime.




Representación de palabras
Cuando leemos un texto, se puede apreciar que es articulado. Sin embargo, también se puede observar que las letras pueden mayúsculas o minúsculas y que utilizan espacios en blanco, signos de puntuación, etc. Pero, ¿cómo se representan todos estos símbolos con sólo unos ceros? La solución es la codificación.
El ordenador solo utiliza el sistema binario. Bit es la unidad mínima de información que se pude representar (0 ó 1). Con un solo bit solo se pueden representar dos estados, 0 y 1. Sin embargo, con 2 bits se representarán 4 estados, y así sucesivamente. El número de estados posibles se corresponde con el número de bits utilizados
(N.º de estados = 2 número de bits)
Si utilizamos 7 bits, se podría representar 27 = 128 estados, se queda pequeño. Si utilizamos 8 bits, se podrían representar 28 = 256 estados, que permiten representar todos los símbolos. Luego, ésta es la solución. Para representar un carácter, se necesitan 8 bits y a este grupo de 8 bits se le denomina byte. Luego un carácter se puede representar con un byte.
Ahora solo queda asignar a cada carácter una combinación de ocho ceros y unos que la represente. Es el utilizado por todos los ordenadores personales, denominado Código ASCII (American Standar Code for Information Interchange oCódigo Estándar Americano para el Intercambio de Información.
Cuando el usuario teclea una letra, ésta se transforma en el código binario correspondiente a ese carácter ASCII y cuando debe mostrar una letra, transforma el código binario al correspondiente carácter antes de sacarlo por el monitor o por la impresora.

Quinta generación

Quinta generación ( a partir de 1981)


En 1981 IBM construyó el primer ordenador personal y revolucionó el mercado informático.
La utilización de circuitos con mayor nivel de integración, la bajada de precios y el continuo aumento de prestaciones y servicios generalizan la difusión del ordenador.
El uso masivo de ordenadores genera la necesidad de comunicarlos, provocando la aparición de las redes como Internet.
3. -LA REPRESENTACIÓN DE LA INFORMACIÓN
La información que maneja el ser humano se representa por una combinación de números que forman cantidades y se emplea el sistema métrico decimal, y una combinación de letras que forman palabras y se emplea el abecedario español.
Sin embargo el ordenador puede representar solo dos estados (encendido y apagado). Es como un interruptor. El sistema binario es el que emplean todos los ordenadores, pues encendido se representa con 1 y apagado con 0.

Cuarta generación


Cuarta generación (1970-1980)
Aparecen nuevos circuitos con mayor nivel de integración, por lo que los ordenadores reducen aún más su tamaño.
En este periodo la empresa Intel desarrolla su primer microprocesador. Aparecen nuevos entornos y lenguajes de programación como el C y el Prolog.
La denominada Cuarta Generación (1971 a la fecha) es el producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo. Hicieron su gran debut las microcomputadoras.

El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1972 para su empleo en terminales informáticos. El Intel 8008 contenía 3.300 transistores. El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500 transistores y podía ejecutar 200.000 instrucciones por segundo. Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores.
Entre ellos figuran el Intel Pentium Pro, con 5,5 millones de transistores; el UltraSparc-II, de Sun Microsystems, que contiene 5,4 millones de transistores; el PowerPC 620, desarrollado conjuntamente por Apple, IBM y Motorola, con 7 millones de transistores, y el Alpha 21164A, de Digital Equipment Corporation, con 9,3 millones de transistores. El Microprocesador, es un circuito electrónico que actúa como unidad central de proceso de un ordenador, proporcionando el control de las operaciones de cálculo.
Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones. En 1995 se produjeron unos 4.000 millones de microprocesadores en todo el mundo. El microprocesador es un tipo de circuito sumamente integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos formados por componentes extremadamente pequeños formados en una única pieza plana de poco espesor de un material conocido como semiconductor.
Los microprocesadores modernos incorporan hasta 10 millones de transistores (que actúan como amplificadores electrónicos, osciladores o, más a menudo, como conmutadores), además de otros componentes como resistencias, diodos, condensadores y conexiones, todo ello en una superficie comparable a la de un sello postal. Un microprocesador consta de varias secciones diferentes.
La unidad aritmético-lógica (ALU, siglas en inglés) efectúa cálculos con números y toma decisiones lógicas; los registros son zonas de memoria especiales para almacenar información temporalmente; la unidad de control descodifica los programas; los buses transportan información digital a través del chip y de la computadora; la memoria local se emplea para los cómputos realizados en el mismo chip.
Los microprocesadores más complejos contienen a menudo otras secciones; por ejemplo, secciones de memoria especializada denominadas memoria cache, modernos funcionan con una anchura de bus de 64 bits: esto significa que pueden transmitirse simultáneamente 64 bits de datos. Un cristal oscilante situado en el ordenador proporciona una señal de sincronización, o señal de reloj, para coordinar todas las actividades del microprocesador.



Tercera generación

Tercera generación (1964-1970)

Comienzan a utilizarse los circuitos integrados, formados por miles de transistores conectados entre sí e insertados en un solo chip. Los ordenadores, que ya permiten ejecutar varios programas a la vez, reducen aún más su tamaño y aumenta su velocidad de cálculo.
Comienza a estandarizarse los programas para crear software, como el Fortran, el Basic y el Pascal.



LOS CIRCUITOS INTEGRADOS

Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. El circuito integrado no es más que la mínima expresión del transistor. Se basa en las propiedades de los semiconductores, que funcionan como transistores, pero que tienen un tamaño pequeñísimo (15 o 20 transistores en unos pocos milímetros cuadrados).
 
El tamaño de un circuito integrado de silicio

Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

LA IBM 360

La IBM 360, una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración o procesamiento de archivos.
Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).
 

Por ejemplo, la computadora podía estar calculando la nómina y aceptando pedidos al mismo tiempo.


GORDON E. MOORE (LA LEY DE MOORE)

En 1965, Gordon E. Moore (fundador de Fairchild, y patentador del primer circuito integrado) cuantificó el crecimiento sorprendente de las nuevas tecnologías de semiconductores. Dijo que los fabricantes iban a duplicar la densidad de los componentes por los circuitos integrados en intervalos regulares de un año, y que seguirían haciéndolo mientras el ojo humano pudiera ver.

Segunda Generacion


Segunda generación (1955-1964)
Aparece el transistor sustituyendo las válvulas de vacío. Los transistores son mucho más pequeños, desprenden menos calor y se averían menos. Por ello los ordenadores han ido reduciendo su tamaño. En este periodo se construyó el UNIVAC 1100.
John Louis von Neumann
John Louis von Neumann y la UNIVAC
  
Este científico matemático ocupa un lugar privilegiado en la historia de la computación debido a sus múltiples e importantísimos aportes a las computadoras de la primera generación. Nació el 28 de Diciembre de 1903 en Budapest, Hungría, llegando a ser uno de los más brillantes matemáticos de la era de la computación.

Von Neumann fue un niño prodigio que a la edad de 6 años podía dividir mentalmente cifras de 8 dígitos. Recibió una temprana educación en su ciudad natal, bajo el tutelaje del matemático M. Fekete conjuntamente con el cual publicó su primer trabajo a la edad de 18 años. En 1921 ingresó a la facultad de Química de la Universidad de Budapest pero decidió continuar sus estudios en Berlín y Zurich, graduándose de Ingeniero Químico en 1925.

Inmediatamente después de graduado volvió a sus investigaciones y estudios de las matemáticas de las cuales fue un apasionado, logrando un doctorado en 1928. Rápidamente ganó una reputación como un excelente matemático y en 1930 fue invitado a visitar la Universidad de Princeton (USA) y al ser fundado el Instituto de Estudios Avanzados en 1933, Von Neumman es elegido como uno de sus únicos 6 profesores matemáticos, actividad que desempeñó hasta el resto de su vida.

A través de los años desempeñó muchas cátedras en universidades de prestigio en todo el mundo, tales como Harvard, Pensilvania, Princeton, Roma, Amsterdam, etc. En 1956 es elegido miembro honorario de la Academia de Ciencias Exactas en Lima, Perú.


Durante esa década trabajó como consultor para la IBM colaborando con Howard Aiken para la construcción de la computadora Mark I de Harvard.
  
John Von Neumann falleció el 8 de Febrero de 1957 en Washington DC.

Primera generación


Primera generación (1946-1955)
En este periodo los ordenadores eran construidos a base de válvulas de vacío y relés electromagnéticos.
El procesador era secuencial. Las tarjetas perforadas introducían los datos.
Al comienzo de esta época se construyó el ENIAC que utilizaba alrededor de 19.000 válvulas de vacío y 1.500 relés. Ocupaba una gran habitación y solo trabajaba con veinte números de diez dígitos.





ENIAC
(Electronica Numeral Integrator and Computer)

    El ENIAC nació en 1943, aunque no se terminó de construir hasta 1946, fue un contrato entre el ejército de EE.UU y sus desarrolladores John Mauchly y John Presper Eckert, llamado "Proyecto PX" con una subvención de $500000. En 1944 se unió al proyecto John von Neumann.




ENIAC
    El ENIAC fue un ordenador electrónico digital con fines generales a gran escala. Fue en su época la máquina más grande del mundo, compuesto de unas 17468 tubos de vacío, esto producía un problema ya que la vida media de un tubo era de unas 3000 horas por lo que aproximadamente cada 10 minutos se estropeaba un tubo y no era nada sencillo buscar un tubo entre 18000, consumiéndose gran cantidad de tiempo en ello. Tenía dos innovaciones técnicas, la primera es que combina diversos componentes técnicos (40000 componentes entre tubos, condensadores, resistencias, interruptores, etc.) e ideas de diseño en un único sistema que era capaz de realizar 5000 sumas y 300 multiplicaciones por segundo. La segunda era la fiabilidad de la máquina, para resolver el problema de los tubos de vacío se aplicaron unos estrictos controles de calidad de los componentes utilizados. Salió a la luz pública el 14 de febrero de 1946, apareciendo en la prensa con calificativos como "cerebro electrónico", "Einstein mecánico" o "Frankenstein matemático", como por ejemplo en el diario Newsweek.

Articulo en publicado en el Newsweek
sobre el ENIAC
(pinche en la foto para verla en grande)
    El ENIAC estaba dividido en 30 unidades autónomas, 20 de las cuales eran llamada acumuladores. Cada acumulador era una máquina de sumar 10 dígitos a gran velocidad y que podía almacenar sus propios cálculos. El contendido de un acumulador se visuliazaba externamente a través de unas pequeñas lámparas que producían un efecto visual muy explotado luego en las películas de ciencia ficción. El sistema utilizaba números decimales (0 - 9). Para acelerar las operaciones aritméticas también tenía un multiplicador y un divisor. El multiplicador utilizaba una matriz de resistencia para ejecutar las multiplicaciones de un dígito y fue diseñado con un circuito de control adicional para multiplicar sucesivos dígitos. El multiplicador y el multiplicando estaban almacenados en un acumulador cada uno. Mediante una lectora de tarjetas perforadas y una perforadora se producía la lectura y escritura de datos.

Mujeres programando el ENIAC
    El ENIAC era controlado a través de un tren de pulsos electrónicos. Cada unidad del ENIAC era capaz de generar pulsos electrónicos para que otras unidades realizaran alguna tarea, por eso los programas para el ENIAC consistían en unir manualmente los cables de las distintas unidades para que realizaran la secuencia deseada. Por eso programar el ENIAC era un trabajo arduo y dificultoso. Como las unidades podían operar simultáneamente el ENIAC era capaz de realizar cálculos en paralelo.
    Había una unidad llamada "unidad cíclica", que producía los pulsos básicos usados por la máquina. También había tres tablas de funciones y constantes que transmitían los números y funciones elegidos manualmente a las unidades para realizar las operaciones. Una suma la realizaba en 0.2 milisegundos (5000 sumas por segundo), una multiplicación de dos números de 10 dígitos la realizaba en 2.8 milisegundos, y una división como mucho la realizaba en 24 milisegundos.

Remplazar una válvula de vacío estropeada
suponía encontrarla entre 18000
    Nunca pudo funcionar las 24 horas todos los días, y normalmente se ejecutaban dos veces un mismo cómputo para comprobar los resultados y se ejecutaba periódicamente cálculos cuyos resultados se conocían previamente para comprobar el correcto funcionamiento de la máquina. Aunque en un principio el ENIAC estaba construido para fines militares, al finalizar la Segunda Guerra Mundial se utilizó para numerosos cálculos de investigaciones científicas. El ENIAC estuvo en funcionamiento hasta 1955 con mejoras y ampliaciones, y se dice que durante su vida operativa realizó más cálculos matemáticos que los realizados por toda la humanidad anteriormente.
    Antes de finalizar su construcción, los autores se dieron cuenta de sus limitaciones, tanto a nivel estructural como a nivel de programación. Por eso en paralelo a su construcción empezaron a desarrollar las nuevas ideas que dieron lugar al desarrollo de la estructura lógica que caracteriza a los ordenadores actuales.

TEMA 1: LA INFORMÁTICA Y SU EVOLUCIÓN
EL TRATAMIENTO DE LA INFORMACIÓN
El concepto de informática se puede definir como el tratamiento automático de la información por medio de ordenadores.
El procesamiento de datos, se puede dividir en tres fases:
                           Fase de entrada: Los datos son introducidos por el usuario mediante el teclado.
                           Fase de proceso: El ordenador comienza su tratamiento mediante los programas.
                           Un programa es un conjunto de ordenes que indican al ordenador lo que tiene que
                           hacer.
                           Fase de salida: Los resultados se muestran al usuario.


Proceso electrónico de datos:
Los sistemas informáticos se dividen en dos partes, la parte física (hardware) y la lógica (software):
          Hardware: Esta compuesto por los elementos físicos.
          Software: Es el conjunto de programas que permite controlar el funcionamiento del ordenador.



HISTORIA DE LA INFORMÁTICA
El primer instrumento que se utilizó para el cálculo fue el ábaco. Lo inventaron los chinos y lo utilizaron los romanos hasta el siglo IV a. C.
En 1645 Blaise Pascal construyó una máquina para sumas y restas que estaba compuesto de ruedas dentadas que al girar permitían obtener el resultado de la operación. En 1675 Von Leibniz construyó otra capaz de realizar las cuatro operaciones básicas.
El primer precedente de los ordenadores apareció 1837 cuando Charles Babbage inició los esquemas de una máquina controlada por relojes. Sin embargo nunca llegó a construirse por su complejidad.
La primera máquina capaz de hacer cálculos la construyó Herman Hollerith. Era de tipo electromecánico. Éstas se fueron perfeccionando hasta llegar a la construcción del MARK-I por Howard H. Aiken.
A partir de este momento la evolución de los ordenadores va por generaciones que se distinguen por los componentes del ordenador y la forma de realizar el tratamiento de la información.