jueves, 30 de julio de 2015

LOS CODIGOS ASCII

El ASCII es un código numérico que representa los caracteres, usando una escala decimal del 0 al 127. Esos números decimales son convertidos por la computadora en números binarios para ser posteriormente procesados. Por lo tanto, cada una de las letras que escribas va a corresponder a uno de estos códigos. ASCII es una sigla para "American Standard Code for Information Interchange" (Código Standard Norteamericano para Intercambio de Información). Este código fue propuesto por Robert W. Bemer, buscando crear códigos para caracteres alfa-numéricos (letras, símbolos, números y acentos). De esta forma sería posible que las computadoras de diferentes fabricantes lograran entender los mismos códigos. 





Breve historia del Código ASCII :

Fue creado en 1963 por el Comité Estadounidense de Estándares o "ASA", este organismo cambio su nombre en 1969 por "Instituto Estadounidense de Estándares Nacionales" o "ANSI" como se lo conoce desde entonces.

Este código nació a partir de reordenar y expandir el conjunto de símbolos y caracteres ya utilizados en aquel momento en telegrafía por la compañía Bell. En un primer momento solo incluía letras mayúsculas y números, pero en 1967 se agregaron las letras minúsculas y algunos caracteres de control, formando así lo que se conoce como US-ASCII, es decir los caracteres del 0 al 127.
Así con este conjunto de solo 128 caracteres fue publicado en 1967 como estándar, conteniendo todos lo necesario para escribir en idioma ingles.

En 1981, la empresa IBM desarrolló una extensión de 8 bits del código ASCII, llamada "pagina de código 437", en esta versión se reemplazaron algunos caracteres de control obsoletos, por caracteres gráficos. Además se incorporaron 128 caracteres nuevos, con símbolos, signos, gráficos adicionales y letras latinas, necesarias para la escrituras de textos en otros idiomas, como por ejemplo el español. Así fue como se sumaron los caracteres que van del ASCII 128 al 255.
IBM incluyó soporte a esta página de código en el hardware de su modelo 5150, conocido como "IBM-PC", considerada la primera computadora personal. El sistema operativo de este modelo, el "MS-DOS" también utilizaba el código ASCII extendido.






EL MICROPROCESADOR

Un microprocesador, es el circuito integrado central y más complejo de un sistema informático también conocido como procesador, micro, chip o microchip, un circuito lógico que responde y procesa las operaciones lógicas y aritméticas que hacen funcionar a nuestras computadoras. En definitiva, es su "cerebro".
Pero un procesador no actúa por propia iniciativa, recibe constantemente órdenes de múltiples procedencias. Cuando encendemos nuestra computadora, lo primero que hace el micro es cumplir con las instrucciones de la BIOS (basic input/output system), que forma parte de la memoria de la computadora. Una vez funcionando, además de la BIOS, será el sistema operativo y los programas instalados los que seguirán haciéndose obedecer por el microprocesador.


Cómo se crea un procesador


Con mucha dificultad. Para traer al mundo micros en cantidades industriales es necesario levantar factorías que suponen una inversión multimillonaria. Por ejemplo, una factoría que levantó hace no mucho Advanced Micro Devices (AMD) en Dresde, Alemania, costó unos 3.000 millones de euros.

La principal característica de estas fábricas es que son inmaculadamente limpias, ya que una simple mota de polvo podría echar a perder millares de microprocesadores. Para evitarlo cuentan con sistemas de filtración que renuevan el aire diez veces por minuto. Es decir, son 10.000 veces más limpias que un quirófano. Sus trabajadores van completamente forrados con un traje estéril que una persona poco familiarizada tardaría más de media hora en ponerse.

Traer al mundo un procesador es sumamente complejo, pero resumiéndolo mucho podríamos decir que se elaboran de la siguiente manera:

Exposición. Se expone un capa de dióxido de silicio al calor y a determinados gases para lograr que crezca y obtener una lámina u oblea de silicio tan fina que es imperceptible al ojo humano.

Fotolitografía. Se aplica luz ultravioleta sobre la oblea a través de una plantilla. El dibujo de dióxido de silicio resultante se fija con productos químicos. Un procesador consta de varias de estas capas, cada una con una plantilla distinta y cada una más fina que la anterior.

Implantación de iones. La oblea es bombardeada con iones para alterar la forma en la que el silicio conduce la electricidad en esas zonas.

División. En cada oblea se han creado miles de micros. Una vez el trazado de su circuito ha sido comprobado, se cortan individualmente con una sierra de diamante.

Empaquetado. La parte más fácil. Cada micro se inserta en el paquete protector que le da la apariencia que todos conocemos y que le permitirá ser conectado a otros dispositivos.