Universidad pedagógica experimental libertador
description
Transcript of Universidad pedagógica experimental libertador
Universidad Pedagógica Experimental Libertador
Instituto Pedagógico Prof Antonio Lira Alcalá de Maturín
Maturín Estado Monagas
Introducción a la Informática
Sección: 01
Profesor: Bachiller:
RYDDY Gómez MARIANNY BASTARDO
CI: 20.310572
MATURIN, ABRIL DEL 2014
INTRODUCCIÓN
El computador es una máquina que nos da la facilidad de tener ese conocimiento y a los
programas del mismo.
Nos da el acceso a internet correo y de realizar trabajo y aprender más de él.
La computadora para su funcionamiento, recibe la información al través de máquinas a
ella conectadas o por medio de un usuario. A esta información se le da el nombre de datos, que
pueden ser de tipo analógicos, digitales e híbridos.
Los componentes del soporte físico o hardware más importantes son los siguientes:
Procesador, Memoria RAM, Disco duro, Unidad de CD-ROM, Unidad de CD RW, Módem, Caché
secundario, Tarjeta madre, Puertos USB, Unidad de DVD ROM, Teclado, Impresora, Escáner y
monitor ya que ellos nos ayudan a cumplir nuestro propósito.
Índice
Pág.
El Computador, Primera Generación………………………………………………………….01
Segunda Generación, Tercera Y Cuarta Generación Del
Computador………………………………………………………………………………………………02- 03
Quinta Generación Del Computador Y Software, Programas De
Computadoras…………………………………………………………………………………..………03-05
Computador Y Clasificación De Las Computadoras De Acuerdo A Su
Aplicación…………………………………………………………………………………………………..05-06
Software Windows Y Software Libre ………………………………………………………….06-07
Ventajas Y Desventajas De Mac, Linux Y Windows……………………………….…….07-08
Elementos De Un Computador…………………………………………………………………..09
Memorias Y Sus Tipos…………………………………………………………………………….….09-11
Unidad Central De Procesos, UCP O CPU Y Funcionamiento Del CPU…………11-12
Periféricos De Entrada Y Clasificación De Los Periféricos……………………………13-14
Periféricos De Salida, Historia Del Hardware De Ordenador, El Microprocesador (O
Simplemente Procesador) …………………………………………………………………………14-15
La Evolución Del Microprocesador…………………………………………………………….15-26
Buses Del Procesador……………………………………………………………………………….26-27
Sistemas Operativos………………………………………………………………………………….27
Funciones De Los S. O……………………………………………………………………………....28
Tipos De Sistemas Operativos……………………………………………………………………28-33
Virus, Historia, Tipos………………………………………………………………………………….33-40
ANEXOS……………………………………………………………………………………………………..41-46
CONCULSION……………………………………………………………………………………………47
BIBLIOGRAFIA…………………………………………………………………………………………..48
Computador
Una computadora o computador (del inglés computer) también denominada ordenador
es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una
computadora es una colección de circuitos integrados y otros componentes relacionados que
pueden ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o
automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones
que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones
prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre
desprogramación y al que lo realiza se le llama programador. La computadora además de la
rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les
conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos
al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que
recibe el nombre de "output" o de salida. La información puede ser entonces utilizada,
reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o
componente(s) electrónico(s) local o remotamente usando diferentes sistemas de
telecomunicación, que puede ser grabada, salvada o almacenada en algún tipo de dispositivo o
unidad de almacenamiento.
En 1952 la computadora UNIVAC se utilizó para realizar el recuento de votos en las
elecciones presidenciales de EE.UU. El resultado victoria (Eisenhower sobre Adlai Stevenson) se
conoció 45 minutos después de que se cerraran los colegios electorales.
En 1952 entra en funcionamiento la primera de las llamadas IAS machines, diseñadas por
John von Neumann y que incorporaban notables mejoras respecto a sus predecesoras y en 1962,
Steven Russell creó el primer juego para computadoras, Spacewar.
Primera Generación (1946-1958)
En esta época las computadoras funcionaban con válvulas, usaban tarjetas perforadas
para entrar los datos y los programas, utilizaban cilindros magnéticos para almacenar
información e instrucciones internas y se utilizaban exclusivamente en el ámbito científico o
militar. La programación implicaba la modificación directa de los cartuchos y eran sumamente
1
grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran
sumamente lentas.
Segunda Generación (1958-1964)
Características de ésta generación: Usaban transistores para procesar información. Los
transistores eran más rápidos, pequeños y más confiables que los tubos al vacío. 200 transistores
podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Usaban pequeños
anillos magnéticos para almacenar información e instrucciones. Producían gran cantidad de calor
y eran sumamente lentas. Se mejoraron los programas de computadoras que fueron
desarrollados durante la primera generación.
Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales
eran comercialmente accesibles. Se usaban en aplicaciones de sistemas de reservaciones de
líneas aéreas, control del tráfico aéreo y simulaciones de propósito general. La marina de los
Estados Unidos desarrolla el primer simulador de vuelo, Computadora Whirlwind. Se comenzó a
disminuir el tamaño de las computadoras.
Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época
como la serie 5000 de Burroughs y la ATLAS de la Universidad de Mánchester.
Tercera Generación (1964-1971)
Comienza a utilizarse los circuitos integrados, lo cual permitió abaratar costos al tiempo
que se aumentaba la capacidad de procesamiento y se reducía el tamaño de las máquinas. La
tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas
de silicio) en las que se colocan miles de componentes electrónicos en una integración en
miniatura. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.
Cuarta Generación (1971-1983)
Fase caracterizada por la integración sobre los componentes electrónicos, lo que propició
la aparición del microprocesador, es decir, un único circuito integrado en el que se reúnen los
2
elementos básicos de la máquina. Se desarrolló el microprocesador.
Se colocan más circuitos dentro de un "chip". "LSI - Large Scale Integration circuit". "VLSI -
Very Large Scale Integration circuit". Cada "chip" puede hacer diferentes tareas. Un "chip"
sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer
componente, la memoria primaria,
es operado por otros "chips". Se reemplaza la memoria de anillos magnéticos por la
memoria de "chips" de silicio. Se desarrollan las microcomputadoras, o sea, computadoras
personales o PC. Se desarrollan las supercomputadoras.
Quinta Generación (1984 -1999)
Surge la PC tal cual como la conocemos en la actualidad. IBM presenta su primera
computadora personal y revoluciona el sector informativo. En vista de la acelerada marcha de la
microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el
desarrollo del software y los sistemas con que se manejan las computadoras.
Software, programas de computadoras
Son las instrucciones responsables de que el hardware (la máquina) realice su tarea. Como
concepto general, el software puede dividirse en varias categorías basadas en el tipo de trabajo
realizado. Las dos categorías primarias de software son los sistemas operativos (software del
sistema), que controlan los trabajos del ordenador o computadora, y el software de aplicación,
que dirige las distintas tareas para las que se utilizan las computadoras. Por lo tanto, el software
del sistema procesa tareas tan esenciales, aunque a menudo invisibles, como el mantenimiento
de los archivos del disco y la administración de la pantalla, mientras que el software de aplicación
lleva a cabo tareas de tratamiento de textos, gestión de bases de datos y similares. Constituyen
dos categorías separadas el software de red, que permite comunicarse a grupos de usuarios, y el
software de lenguaje utilizado para escribir programas
Además de estas categorías basadas en tareas, varios tipos de software se describen
basándose en su método de distribución.
3
Entre los años 1960 y 1970, el software no era considerado un producto sino un añadido
que los vendedores de las grandes computadoras de la época (las mainframes) aportaban a sus
clientes para que éstos pudieran usarlos. En dicha cultura, era común que los programadores y
desarrolladores de software compartieran libremente sus programas unos con otros. Este
comportamiento era particularmente habitual en algunos de los mayores grupos de usuarios de
la época, como DECUS (grupo de usuarios de computadoras DEC). A finales de la década de 1970,
las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de acuerdos
de licencia.
En 1971, cuando la informática todavía no había sufrido su gran boom, las personas que
hacían uso de ella, en ámbitos universitarios y empresariales, creaban y compartían el software
sin ningún tipo de restricciones.
Con la llegada de los años 1980 la situación empezó a cambiar. Las computadoras más
modernas comenzaban a utilizar sistemas operativos privativos, forzando a los usuarios a aceptar
condiciones restrictivas que impedían realizar modificaciones a dicho software.
El mismo Richard Matthew Stallman cuenta que por aquellos años, en el laboratorio
donde trabajaba, habían recibido una impresora donada por una empresa externa. El dispositivo,
que era utilizado en red por todos los trabajadores, parecía no funcionar a la perfección, dado
que cada cierto tiempo el papel se atascaba. Como agravante, no se generaba ningún aviso que
se enviase por red e informase a los usuarios de la situación.
La pérdida de tiempo era constante, ya que en ocasiones, los trabajadores enviaban por
red sus trabajos a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola
enorme de trabajos pendientes. Richard Stallman decidió arreglar el problema, e implementar el
envío de un aviso por red cuando la impresora se bloqueara. Para ello necesitaba tener acceso al
código fuente de los controladores de la impresora. Pidió a la empresa propietaria de la
impresora lo que necesitaba, comentando, sin pedir nada a cambio, qué era lo que pretendía
realizar. La empresa se negó a entregarle el código fuente. En ese preciso instante, Stallman se
vio en una encrucijada: debía elegir entre aceptar el nuevo software propietario firmando
acuerdos de no revelación y acabar desarrollando más software propietario con licencias
4
restrictivas, que a su vez deberían ser más adelante aceptadas por sus propios colegas.
Con este antecedente, en 1984, Richard Stallman comenzó a trabajar en el proyecto GNU,
y un año más tarde fundó la Free Software Fundación (FSF). Stallman introdujo la definición de
software libre y el concepto de "copyleft", que desarrolló para otorgar libertad a los usuarios y
para restringir las posibilidades de apropiación del software.
La computadora
Le sirve al hombre como una valiosa herramienta para realizar y simplificar muchas
de sus actividades. En sí es un dispositivo electrónico capaz de interpretar y ejecutar los
comandos programados para realizar en forma general las funciones de:
Operaciones de entrada al ser receptora de información.
Operaciones de cálculo, lógica y almacenamiento.
En la actualidad las computadoras tienen aplicaciones más prácticas, porque sirve
no solamente para Computar y calcular, sino para realizar múltiples procesos sobre los datos
proporcionados, tales como clasificar u ordenar, seleccionar, corregir y automatizar, entre otros,
por estos motivos en Europa su nombre que más común es el de ordenador.
Operaciones de salida al proporcionar resultados de las operaciones antecedentes.
Clasificación de las computadoras de acuerdo a su aplicación
La computadora para su funcionamiento, recibe la información al través de máquinas a
ella conectadas o por medio de un usuario. A esta información se le da el nombre de datos, que
pueden ser de tipo analógicos, digitales e híbridos.
Los datos analógicos son los proporcionados por máquinas conectados a la
computadora, son fuentes de información de las cuales se derivan mediciones de eventos físicos
como temperatura, volumen, velocidad y tiempo, entre otras.
5
Los datos digitales son los proporcionados por el usuario a través de un teclado o de
otros dispositivos y consisten en impulsos eléctricos que combinados entre sí forman un código
que es interpretado por la computadora.
Los datos híbridos son la combinación de los datos analógicos y digitales. Esta
combinación se logra por dispositivos conectados a la computadora que cambian la información
analógica a su correspondiente código en digital.
Partes de una computadora
El manejo de la computadora, requiere de conocer sus partes y la función específica a
cada una de ellas.
Software Windows.
Windows, en informática, nombre común o coloquial de Microsoft Windows, un entorno
multitarea dotado de una interfaz gráfica de usuario, que se ejecuta en computadoras diseñadas
para MS-DOS. Windows proporciona una interfaz estándar basada en menús desplegables,
ventanas en pantalla y un dispositivo señalador como el mouse (ratón). Los programas deben
estar especialmente diseñados para aprovechar estas características
Ventana (informática), en aplicaciones informáticas e interfaces gráficas de usuario, una
parte de la pantalla que puede contener su propio documento o mensaje. En programas basados
en ventanas, la pantalla puede dividirse en varias ventanas, cada una de las cuales tiene sus
propios límites y puede contener un documento diferente (o una presentación distinta del
mismo documento). Cada ventana puede contener su propio menú u otros controles, y el usuario
puede ampliarla o reducirla mediante un dispositivo señalador (puntero), que se acciona con el
ratón o mouse.
Software libre
Aunque esta denominación a veces se confunde con "gratis" por la ambigüedad del
término "free" en el idioma inglés, por lo que también se usa "libre software").
6
Es la denominación del software que respeta la libertad de todos los usuarios que
adquirieron el producto y, por tanto, una vez obtenido el mismo puede ser usado, copiado,
estudiado, modificado, y redistribuido libremente de varias formas. Según la Free Software
fundación, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir,
y estudiar el mismo, e incluso modificar el software y distribuirlo modificado.
El software libre suele estar disponible gratuitamente, o al precio de costo de la
distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no
hay que asociar software libre a "software gratuito"(denominado usualmente freeware), ya que,
conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial").
Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no
obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos
que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas
del programa.
VENTAJAS Y DESVENTAJAS DE MAC, LINUX Y WINDOWS
Cada Sistema operativo que no debemos dejar pasar por alto, debido aquello les dejo
algunas ventajas y desventajas de Windows de Mac y de Linux.
Windows
Ventajas:
• Es más conocido
• Es el que tiene más software desarrollado.
Desventajas:
• El costo es muy alto
• Las nuevas versiones requieren muchos recursos
• La mayoría de los virus están hechos para Windows
• Puedes tener errores de compatibilidad en sistemas nuevos.
7
Históricamente es más inestable de los 3
Linux Ventajas:
• El mejor costo del mercado, gratuito o un precio simbólico por el CD.
• Tienes una enorme cantidad de software libre para este sistema
• Mayor estabilidad por algo lo usan en servidores de alto rendimiento
• Entorno grafico (beryl) mejor que el aero de Windows.
• Existen distribuciones de Linux para diversos tipos de equipo, hasta para maquinas
de 64 bits.
• Las vulneralidades son detectadas y corregidas más rápidamente que cualquier otro
sistema operativo.
Desventajas:
• Para algunas cosas debes de saber usar Unix
• La mayoría de los ISP no dan soporte para algo que no sea Windows (ignorantes).
• No Existe mucho software comercial.
• Muchos juegos no corren en Linux.
Mac
Ventajas:
• Mejor interfaz grafica del mercado
• Ideal para diseño grafico.
• Es muy estable
Desventajas:
• Costoso (aunque viene incluido con la maquina)
• Existe poco software para este sistema operativo.
Es más complicado encontrar gente que la pueda arreglar en caso de fallas
8
Elementos de un Computador
Los elementos del computador son:
Hardware, equipo utilizado para el funcionamiento de una computadora. El hardware se
refiere a los componentes materiales de un sistema informático. La función de estos
componentes suele dividirse en tres categorías principales: entrada, salida y almacenamiento.
Los componentes de esas categorías están conectados a través de un conjunto de cables
circuitos llamado bus con la unidad central de proceso (CPU) del ordenador, el microprocesador
que controla la computadora y le proporciona capacidad de cálculo.
El soporte lógico o software, en cambio, es el conjunto de instrucciones que un ordenador
emplea para manipular datos: por ejemplo, un procesador de textos o un videojuego. Estos
programas suelen almacenarse y transferirse a la CPU a través del hardware de la computadora.
El software también rige la forma en que se utiliza el hardware, como por ejemplo la forma de
recuperar información de un dispositivo de almacenamiento. La interacción entre el hardware de
entrada y de salida es controlada por un software llamado BIOS (siglas en inglés de 'sistema
básico de entrada / salida').
Aunque, técnicamente, los microprocesadores todavía se consideran hardware, partes de
su función también están asociadas con el software. Como los microprocesadores tienen tanto
aspectos de hardware como de software, a veces se les aplica el término intermedio de
microprogramación, o firmware.
Memorias
La memoria es una secuencia de celdas de almacenamiento numeradas, donde cada
una es un bit o unidad de información. La instrucción es la información necesaria para realizar lo
que se desea con el computador. Las «celdas» contienen datos que se necesitan para llevar a
cabo las instrucciones, con el computador. El número de celdas varían mucho de computador a
computador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los
relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos,
9
matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de
celdas en un solo chip.
Memoria RAM
Memoria de acceso aleatorio o RAM, en informática, memoria basada en
semiconductores que puede ser leída y escrita por el microprocesador u otros dispositivos de
hardware. Es un acrónimo del inglés Random Access Memory. El acceso a las posiciones de
almacenamiento se puede realizar en cualquier orden. Actualmente la memoria RAM para
computadoras personales se suele fabricar en módulos insertables llamados SIMM.
Memoria ROM
Memoria de sólo lectura o ROM, en informática, memoria basada en semiconductores
que contiene instrucciones o datos que se pueden leer pero no modificar. En las computadoras
IBM PC y compatibles, las memorias ROM suelen contener el software necesario para el
funcionamiento del sistema.
Para crear un chip ROM, el diseñador facilita a un fabricante de semiconductores la
información o las instrucciones que se van a almacenar. El fabricante produce entonces uno o
más chips que contienen esas instrucciones o datos. Como crear chips ROM implica un proceso
de fabricación, esta creación es viable económicamente sólo si se producen grandes cantidades
de chips. Los diseños experimentales o los pequeños volúmenes son más asequibles usando
PROM o EPROM. El término ROM se suele referir a cualquier dispositivo de sólo lectura,
incluyendo PROM y EPROM.
Memoria NVRAM
Similar a la memoria RAM, se caracteriza por tener una batería que actúa sobre la misma
memoria y de esta manera se mantiene la información.
Memoria SAM
En ésta memoria los datos para trabajar en la computadora se encuentran seriados, son
utilizados para la lectura o escritura de documentos, en forma de serie ó de uno en uno. Esto
indica que el orden de almacenamiento y salida de la información debe ser el mismo.
10
Memoria PROM
Esta memoria se caracteriza por programarse una sola vez, su circuito integrado está
hecho para aceptar la información e inmediatamente cerrarse. A esta memoria solo se accede
exclusivamente para su lectura.
Memoria EPROM
Esta memoria trabaja como la memoria PROM, se diferencia porque su información
puede ser modificada mediante un aparato que emite de rayos ultravioleta.
Memoria EEPROM
Esta memoria también se programa como la memoria PROM, los datos pueden alterarse
por medio de flujos eléctricos.
Memoria Central
También denominada memoria interna o principal (main Memory).
Es el encargado de almacenar los programas y los datos de estos, necesarios para que el
sistema informático realice un determinado trabajo.
Una característica importante es que es volátil, es decir, al cortar el flujo eléctrico se borra
el contenido almacenado en ella.
MEMORIA AUXILIAR
Dispositivos de almacenamiento masivo de información
Su principal importancia radica en que permite almacenar información a lo largo del
tiempo, recuperándola cuando se quiera y sin que se pierda aunque el dispositivo quede
desconectado de la red eléctrica.
Ejemplos: Diskettes, Disco duro, Cintas magnéticas.
Unidad Central de Procesos
CPU, Central Process Unit: es el corazón del Computador. Su principal misión consiste en
coordinar y realizar todas las operaciones del sistema informático. Consta de:
11
Procesador: encargado del control y ejecución de las operaciones; está formado por:
Unidad de Control: es la parte del procesador encargada de gobernar el resto de las
unidades, además de interpretar y ejecutar las instrucciones controlando su secuencia.
Unidad Aritmética Lógica: es la parte del procesador encargada de realizar todas las
operaciones elementales de tipo aritmético y tipo lógico.
UCP o CPU
Unidad central de proceso o UCP (conocida por sus siglas en inglés, CPU), circuito
microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de
datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip,
un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador
de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y
toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del
álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y
por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del
usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un
conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de
almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un
teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora).
Funcionamiento de la CPU
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa,
lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la
secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la
CPU, tras lo cual recupera la siguiente instrucción desde la memoria.
La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el
registro de instrucción.
12
Entretanto, el contador de programa se incrementa en uno para prepararse para la
siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador,
que determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es
recuperado desde el dispositivo de almacenamiento correspondiente y se almacena en el
registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se
almacenan en otro registro o se copian en una dirección de memoria determinada.
Periférico De Entrada
Son dispositivos que van conectados a una computadora y que le permiten a esta realizar
acciones como emitir sonidos, imprimir imágenes y texto, incorporar texto, etc. Algunos
ejemplos de periféricos son los teclados, las impresoras, los parlantes, el monitor, el mousse, etc.
Se entiende por periférico al conjunto de dispositivos que, sin pertenecer al núcleo
fundamental de la computadora, formado por la CPU y la memoria central, permitan realizar
operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU.
Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S,
están comunicadas entre sí por tres buses o canales de comunicación:
Direcciones, para seleccionar la dirección del dato o del periférico al que se quiere
acceder, control, básicamente para seleccionar la operación a realizar sobre el dato
(principalmente lectura, escritura o modificación) y datos, por donde circulan los datos.
Clasificación de los periféricos de entrada
Los periféricos se dividen en tres categorías, ya conocidas:
Unidades de entrada.
Unidades de salida.
Unidades de memoria masiva auxiliar (mixtas).
No necesariamente las distintas unidades están físicamente individualizadas en módulos
independientes, pudiendo, por ejemplo, estar montadas una unidad de entrada y una unidad.
13
Así un terminal interactivo suele estar constituido por un teclado (unidad de entrada)
acoplado solidariamente a una pantalla (unidad de salida). A veces se dice que estas unidades
son de tipo mixto. Incluso hay dispositivos de entrada que únicamente tienen sentido actuando
conjuntamente con un dispositivo de salida (Ejemplo: lápiz óptico).
Dispositivos de salida (DS)
Los dispositivos de salida son aquellos que reciben información de la computadora, su
función es eminentemente receptora y por ende están imposibilitados para enviar información.
Entre los dispositivos de salida más conocidos están: la impresora (matriz, cadena, margarita,
láser o de chorro de tinta), el delineador (plotter), la grabadora de cinta magnética o de discos
magnéticos y la pantalla o monitor.
Historia del hardware de ordenador
Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos de vacío
(válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque
éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos,
no eran fiables por varias razones. Por ejemplo, hacer circuitos de lógica secuencial de corriente
directa requería hardware adicional para hacer frente al problema del rebote de contacto. Por
otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben
calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan
de funcionar por completo. Generalmente, cuando un tubo ha fallado, la CPU tendría que ser
diagnosticada para localizar el componente que falla para que pueda ser reemplazado.
Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío),
generalmente eran más rápidos pero menos confiables que los ordenadores electromecánicos,
(basados en relés). Los ordenadores de tubo, como el EDVAC, tendieron en tener un promedio de
ocho horas entre fallos, mientras que los ordenadores de relés, (anteriores y más lentas), como
el Harvard Mark I, fallaban muy raramente. Al final, los CPU basados en tubo llegaron a ser
dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban
más que los problemas de confiabilidad.
14
La mayor parte de estas tempranas CPU síncronas corrían en frecuencias de reloj bajas
comparadas con los modernos diseños microelectrónicas. Eran muy comunes en este tiempo las
frecuencias de la señal del reloj con un rango desde 100 KHz. hasta 4 MHz, limitado en gran parte
por la velocidad de los dispositivos de conmutación con los que fueron construidos.
El microprocesador (o simplemente procesador)
Es el circuito integrado central y más complejo de un sistema informático; a modo de
ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es un circuito
integrado conformado por millones de componentes electrónicos. Constituye la unidad central
de procesamiento (CPU) de un PC catalogado como microcomputador.
Es el encargado de ejecutar los programas, desde el sistema operativo hasta las
aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel,
realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar,
dividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros, una
unidad de control, una unidad aritmética lógica (ALU) y una unidad de cálculo en coma flotante
(conocida antiguamente como «coprocesador matemático»).
El microprocesador está conectado generalmente mediante un zócalo específico de la
placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le
incorpora un sistema de refrigeración que consta de un disipador de calor fabricado en algún
material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que
eliminan el exceso del calor absorbido por el disipador. Entre el disipador y la cápsula del
microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor.
La evolución del microprocesador
El microprocesador surgió de la evolución de distintas tecnologías predecesoras,
básicamente de la computación y de la tecnología de semiconductores. El inicio de esta última
data de mitad de la década de 1950; estas tecnologías se fusionaron a principios de los años
1970, produciendo el primer microprocesador.
15
Dichas tecnologías iniciaron su desarrollo a partir de la segunda guerra mundial; en este
tiempo los científicos desarrollaron computadoras específicas para aplicaciones militares. En la
posguerra, a mediados de la década de 1940, la computación digital emprendió un fuerte
crecimiento también para propósitos científicos y civiles. La tecnología electrónica avanzó y los
científicos hicieron grandes progresos en el diseño de componentes de estado sólido
(semiconductores). En 1948 en los laboratorios Bell crearon el transistor.
En los años 1950, aparecieron las primeras computadoras digitales de propósito general.
Se fabricaron utilizando tubos al vacío o bulbos como componentes electrónicos activos.
Módulos de tubos al vacío componían circuitos lógicos básicos, tales como compuertas y flip-
flops. Ensamblándolos en módulos se construyó la computadora electrónica (la lógica de control,
circuitos de memoria, etc.). Los tubos de vacío también formaron parte de la construcción de
máquinas para la comunicación con las computadoras.
Para la construcción de un circuito sumador simple se requiere de algunas compuertas
lógicas. La construcción de una computadora digital precisa numerosos circuitos o dispositivos
electrónicos. Un paso trascendental en el diseño de la computadora fue hacer que el dato fuera
almacenado en memoria. Y la idea de almacenar programas en memoria para luego ejecutarlo
fue también de fundamental importancia (Arquitectura de von Neumann).
La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El empleo
del silicio, de bajo costo y con métodos de producción masiva, hizo del transistor el componente
más usado para el diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora
digital tuvo un gran avance con el reemplazo del tubo al vacío por el transistor, a finales de la
década de 1950.
A principios de la década de 1960, el estado de arte en la construcción de computadoras
de estado sólido sufrió un notable avance; surgieron las tecnologías en circuitos digitales como:
RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor), ECL (Lógica
Complementada Emisor).
A mediados de los años 1960 se producen las familias de circuitos de lógica digital,
dispositivos integrados en escala SSI y MSI que corresponden a baja y mediana escala de
16
integración de componentes. A finales de los años 1960 y principios de los 70 surgieron los
sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible incrementar la
cantidad de componentes en los circuitos integrados. Sin embargo, pocos circuitos LSI fueron
producidos, los dispositivos de memoria eran un buen ejemplo.
• El primer microprocesador fue el Intel 4004,1 producido en 1971. Se desarrolló
originalmente para una calculadora y resultó revolucionario para su época. Contenía 2.300
transistores, era un microprocesador de arquitectura de 4 bits que podía realizar hasta 60.000
operaciones por segundo trabajando a una frecuencia de reloj de alrededor de 700 KHz.
• El primer microprocesador de 8 bits fue el Intel 8008, desarrollado a mediados de
1972 para su uso en terminales informáticos. El Intel 8008 integraba 3300 transistores y podía
procesar a frecuencias máximas de 800Khz.
• El primer microprocesador realmente diseñado para uso general, desarrollado en
1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000
instrucciones por segundo trabajando a alrededor de 2MHz.
• El primer microprocesador de 16 bits fue el 8086. Fue el inicio y el primer miembro
de la popular arquitectura x86, actualmente usada en la mayoría de los computadores. El chip
8086 fue introducido al mercado en el verano de 1978, pero debido a que no había aplicaciones
en el mercado que funcionaran con 16 bits, Intel sacó al mercado el 8088, que fue lanzado en
1979. Llegaron a operar a frecuencias mayores de 4Mhz.
• El microprocesador elegido para equipar al IBM Personal Computer/AT, que causó
que fuera el más empleado en los PC-ATcompatibles entre mediados y finales de los años 1980
fue el Intel 80286 (también conocido simplemente como 286); es un microprocesador de 16 bits,
de la familia x86, que fue lanzado al mercado en 1982. Contaba con 134.000 transistores. Las
versiones finales alcanzaron velocidades de hasta 25 MHz
• Uno de los primeros procesadores de arquitectura de 32 bits fue el 80386 de Intel,
fabricado a mediados y fines de la década de 1980; en sus diferentes versiones llegó a trabajar a
frecuencias del orden de los 40Mhz.
17
• El microprocesador DEC Alpha se lanzó al mercado en 1992, corriendo a 200 MHz en
su primera versión, en tanto que el Intel Pentium surgió en 1993 con una frecuencia de trabajo
de 66Mhz. El procesador Alpha, de tecnología RISC y arquitectura de 64 bits, marcó un hito,
declarándose como el más rápido del mundo, en su época. Llegó a 1Ghz de frecuencia hacia el
año 2001. Irónicamente, a mediados del 2003, cuando se pensaba quitarlo de circulación, el
Alpha aun encabezaba la lista de los microprocesadores más rápidos de Estados Unidos.2
• Los microprocesadores modernos tienen una capacidad y velocidad mucho
mayores, trabajan en arquitecturas de 64 bits, integran más de 700 millones de transistores,
como es en el caso de las serie Core i7, y pueden operar a frecuencias normales algo superiores a
los 3GHz (3000MHz).
2012: El Intel Core Ivy Bridge
Ivy Bridge es el nombre en clave de los procesadores conocidos como Intel Core de
tercera generación. Son por tanto sucesores de los micros que aparecieron a principios de 2011,
cuyo nombre en clave es Sandy Bridge. Pasamos de los 32 nanómetros de ancho de transistor en
Sandy Bridge a los 22 de Ivy Bridge. Esto le permite meter el doble de ellos en la misma área. Un
mayor número de transistores significa que puedes poner más bloques funcionales dentro del
chip. Es decir, este será capaz de hacer un mayor número de tareas al mismo tiempo.
• 2013: El Intel Core Haswell
Haswell es el nombre clave de los procesadores de cuarta generación de Intel Core. Son la
corrección de errores de la tercera generación e implementan nuevas tecnologías gráficas para el
gamming y el diseño gráfico, funcionando con un menor consumo y teniendo un mejor
rendimiento a un buen precio. Continúa como su predecesor en 22 nanómetros pero funciona
con un nuevo socket con clave 1150. Tienen un costo elevado a comparación con los APU's y FX
de AMD pero tienen un mayor rendimiento.
Funcionamiento
Desde el punto de vista lógico, singular y funcional, el microprocesador está compuesto
18
básicamente por: varios registros, una unidad de control, una unidad aritmético lógica, y
dependiendo del procesador, puede contener una unidad de coma flotante.
El microprocesador ejecuta instrucciones almacenadas como números binarios
organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede
realizar en varias fases:
• Prefetch, prelectura de la instrucción desde la memoria principal.
• Fetch, envío de la instrucción al decodificador
• Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto
qué se debe hacer.
• Lectura de operandos (si los hay).
• Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el
procesamiento.
• Escritura de los resultados en la memoria principal o en los registros.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la
estructura del procesador, y concretamente de su grado de segmentación. La duración de estos
ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo
requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El
microprocesador se conecta a un circuito PLL, normalmente basado en un cristal de cuarzo capaz
de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un
segundo. Este reloj, en la actualidad, genera miles de megahercios.
Rendimiento
El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos
años se creía que la frecuencia de reloj era una medida precisa, pero ese mito, conocido como
«mito de los mega hertzios» se ha visto desvirtuado por el hecho de que los procesadores no han
requerido frecuencias más altas para aumentar su potencia de cómputo.
Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4
19
GHz, dando como resultado procesadores con capacidades de proceso mayores
comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar
más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una
computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún. De
todas maneras, una forma fiable de medir la potencia de un procesador es mediante la
obtención de las Instrucciones por ciclo.
Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con
arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo:
en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de
procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a
que no todos los chips de silicio tienen los mismos límites de funcionamiento: son probados a
distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de
acuerdo al resultado de las pruebas.
Esto se podría reducir en que los procesadores son fabricados por lotes con diferentes
estructuras internas atendiendo a gamas y extras como podría ser una memoria caché de
Diferente tamaño, aunque no siempre es así y las gamas altas difieren muchísimo más de
las bajas que simplemente de su memoria caché. Después de obtener los lotes según su gama, se
someten a procesos en un banco de pruebas, y según su soporte a las temperaturas o que vaya
mostrando signos de inestabilidad, se le adjudica una frecuencia, con la que vendrá programada
de serie, pero con prácticas de overclock se le puede incrementar.
La capacidad de un procesador depende fuertemente de los componentes restantes del
sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas
características puede tenerse una medida aproximada del rendimiento de un procesador por
medio de indicadores como la cantidad de operaciones de coma flotante por unidad de tiempo
FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una medida exacta del
rendimiento de un procesador o de un sistema, es muy complicada debido a los múltiples
factores involucrados en la computación de un problema, por lo general las pruebas no son
concluyentes entre sistemas de la misma generación.
20
Arquitectura
El microprocesador tiene una arquitectura parecida a la computadora digital. En otras
palabras, el microprocesador es como la computadora digital porque ambos realizan cálculos
bajo un programa de control. Consiguientemente, la historia de la computadora digital ayuda a
entender el microprocesador. El hizo posible la fabricación de potentes calculadoras y de muchos
otros productos. El microprocesador utiliza el mismo tipo de lógica que es usado en la unidad
procesadora central (CPU) de una computadora digital. El microprocesador es algunas veces
llamado unidad microprocesador (MPU). En otras palabras, el microprocesador es una unidad
procesadora de datos. En un microprocesador se puede diferenciar diversas partes:
• Encapsulado: es lo que rodea a la oblea de silicio en si, para darle consistencia,
impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con los
conectores externos que lo acoplaran a su zócalo a su placa base.
• Memoria caché: es una memoria ultrarrápida que emplea el procesador para tener
alcance directo a ciertos datos que «predeciblemente» serán utilizados en las siguientes
operaciones, sin tener que acudir a la memoria RAM, reduciendo así el tiempo de espera para
adquisición de datos. Todos los micros compatibles con PC poseen la llamada caché interna de
primer nivel o L1; es decir, la que está dentro del micro, encapsulada junto a él.
• Coprocesador matemático: unidad de coma flotante. Es la parte del micro
especializada en esa clase de cálculos matemáticos, antiguamente estaba en el exterior del
procesador en otro chip. Esta parte está considerada como una parte «lógica» junto con los
registros, la unidad de control, memoria y bus de datos.
• Registros: son básicamente un tipo de memoria pequeña con fines especiales que el
micro tiene disponible para algunos usos particulares. Hay varios grupos de registros en cada
procesador. Un grupo de registros está diseñado para control del programador y hay otros que
no son diseñados para ser controlados por el procesador pero que la CPU los utiliza en algunas
operaciones, en total son treinta y dos registros.
•Memoria: es el lugar donde el procesador encuentra las instrucciones de los programas y
sus datos. Tanto los datos como las instrucciones están almacenados en memoria, y el
21
Procesador las accede desde allí. La memoria es una parte interna de la computadora y su
función esencial es proporcionar un espacio de almacenamiento para el trabajo en curso.
• Puertos: es la manera en que el procesador se comunica con el mundo externo. Un
puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de la computadora
con la cual el procesador necesita comunicarse, tiene asignado un «número de puerto» que el
procesador utiliza como si fuera un número de teléfono para llamar circuitos o a partes
especiales.
Fabricación
Procesadores de silicio
El proceso de fabricación de un microprocesador es muy complejo.
Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la
que se fabrica un mono cristal de unos 20 x 150 centímetros. Para ello, se funde el material en
cuestión a alta temperatura (1.370 °C) y muy lentamente (10 a 40 mm por hora) se va formando
el cristal.
De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior,
de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de 10 micras de
espesor, la décima parte del espesor de un cabello humano, utilizando una sierra de diamante.
De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de
microprocesadores.
Silicio
Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un
proceso llamado “annealing”, que consiste en someterlas a un calentamiento extremo para
eliminar cualquier defecto o impureza que pueda haber llegado a esta instancia. Después de una
supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de
micra, se recubren con una capa aislante formada por óxido de silicio transferido mediante
deposición de vapor.
22
De aquí en adelante, comienza el proceso del «dibujado» de los transistores que
conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente
consiste en la “impresión” de sucesivas máscaras sobre la oblea, sucediéndose la deposición y
eliminación de capas finísimas de materiales conductores, aislantes y semiconductores,
endurecidas mediante luz ultravioleta y atacada por ácidos encargados de eliminar las zonas no
cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para
la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la
creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición
de capas; se llega a un complejo «bocadillo» que contiene todos los circuitos interconectados del
microprocesador.
Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a
unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de
aplicar cada una de las máscaras utilizadas durante la fabricación.
Una oblea de silicio grabada.
Los detalles de un microprocesador son tan pequeños y precisos que una única mota de
polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de
microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un
filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la
actualidad se denominan de clase 1. La cifra indica el número máximo de partículas mayores de
0,12 micras que puede haber en un pie cúbico (0,028 m3) de aire.
También se están desarrollando alternativas al silicio puro, tales como el carburo de silicio
que mejora la conductividad del material, permitiendo mayores frecuencias de reloj interno;
aunque aún se encuentra en investigación.
Otros materiales
Aunque la gran mayoría de la producción de circuitos integrados se basa en el silicio, no se
puede omitir la utilización de otros materiales que son una alternativa tales como el germanio;
tampoco las investigaciones actuales para conseguir hacer operativo un procesador desarrollado
con materiales de características especiales como el grafeno o la molibdenita3.
23
Empaquetado
Empaquetado de un procesador Intel 80486 en un empaque de cerámica.
Los microprocesadores son circuitos integrados y como tal están formados por un chip de
silicio y un empaque con conexiones eléctricas. En los primeros procesadores el empaque se
fabricaba con plásticos epoxicos o con cerámicas en formatos como el DIP entre otros. El chip se
pegaba con un material térmicamente conductor a una base y se conectaba por medio de
pequeños alambres a unas pistas terminadas en pines.
Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material de
la base de manera que los alambres y el silicio quedaran encapsulados.
Empaquetado de un procesador Power PC con Flip-Chip, se ve el chip de silicio.
En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores
gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es soldado
directamente a un arreglo de pistas conductoras (en el sustrato laminado) con la ayuda de unas
micro esferas que se depositan sobre las obleas de semiconductor en las etapas finales de su
fabricación. El sustrato laminado es una especie de circuito impreso que posee pistas
conductoras hacia pines o contactos, que a su vez servirán de conexión entre el chip
semiconductor y un zócalo de CPU o una placa base.
Antiguamente la conexión del chip con los pines se realizaba por medio de micro alambres
de manera que quedaba boca arriba, con el método Flip Chip queda boca abajo, de ahí se deriva
su nombre. Entre las ventajas de este método esta la simplicidad del ensamble y en una mejor
disipación de calor. Cuando la pastilla queda bocabajo presenta el sustrato base de silicio de
manera que puede ser enfriado directamente por medio de elementos conductores de calor.
Esta superficie se aprovecha también para etiquetar el integrado. En los procesadores para
computadores de escritorio, dada la vulnerabilidad de la pastilla de silicio, se opta por colocar
una placa de metal, por ejemplo en los procesadores Athlon como el de la primera imagen. En los
procesadores de Intel también se incluye desde el Pentium III de más de 1 GHz.
24
Disipación de calor
Con el aumento de la cantidad de transistores integrados en un procesador, el consumo
de energía se ha elevado a niveles en los cuales la disipación calórica natural del mismo no es
suficiente para mantener temperaturas aceptables y que no se dañe el material semiconductor,
de manera que se hizo necesario el uso de mecanismos de enfriamiento forzado, esto es, la
utilización de disipadores de calor.
Entre ellos se encuentran los sistemas sencillos, tales como disipadores metálicos, que
aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema.
También los hay con refrigeración líquida, por medio de circuitos cerrados.
En los procesadores más modernos se aplica en la parte superior del procesador, una
lámina metálica denominada IHS que va a ser la superficie de contacto del disipador para
mejorar la refrigeración uniforme del die y proteger las resistencias internas de posible toma de
contacto al aplicar pasta térmica. Varios modelos de procesadores, en especial, los Athlon XP,
han sufrido cortocircuitos debido a una incorrecta aplicación de la pasta térmica.
Superficies de contacto en un procesador Intel para zócalo LGA 775.
El microprocesador posee un arreglo de elementos metálicos que permiten la conexión
eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de la placa
base. Dependiendo de la complejidad y de la potencia, un procesador puede tener desde 8 hasta
más de 2000 elementos metálicos en la superficie de su empaque. El montaje del procesador se
realiza con la ayuda de un zócalo de CPU soldado sobre la placa base. Generalmente distinguimos
tres tipos de conexión:
• PGA: Pin Grid Array: La conexión se realiza mediante pequeños alambres metálicos
repartidos a lo largo de la base del procesador introduciéndose en la placa base mediante unos
pequeños agujeros, al introducir el procesador, una palanca anclará los pines para que haga buen
contacto y no se suelten.
• BGA: Ball Grid Array: La conexión se realiza mediante bolas soldadas al procesador
que hacen contacto con el zócalo.
25
• LGA: Land Grid Array: La conexión se realiza mediante superficies de contacto lisas
con pequeños pines que incluye la placa base.
Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro
del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control; estas
funciones están distribuidas en un esquema asociado al zócalo, de manera que varias referencias
de procesador y placas base son compatibles entre ellos, permitiendo distintas configuraciones.
Buses del procesador
Todos los procesadores poseen un bus principal o de sistema por el cual se envían y
reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o desde el
resto de dispositivos. Como puente de conexión entre el procesador y el resto del sistema, define
mucho del rendimiento del sistema, su velocidad se mide en bits por segundo.
Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o
paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus paralelo en el
cual se definen líneas especializadas en datos, direcciones y para control.
En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama
frontside bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de múltiples
líneas de control que permiten la transmisión de datos entre el procesador y el resto del sistema.
Este esquema se ha utilizado desde el primer procesador de la historia, con mejoras en la
señalización que le permite funcionar con relojes de 333 MHz haciendo 4.
En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el bus
principal de tipo serial. Entre estos se encuentra el bus HyperTransport de AMD, que maneja los
datos en forma de paquetes usando una cantidad menor de líneas de comunicación, permitiendo
frecuencias de funcionamiento más altas y en el caso de Intel, Quickpath
Los microprocesadores de Intel y de AMD (desde antes) poseen además un controlador de
memoria de acceso aleatorio en el interior del encapsulado lo que hace necesario la
implementación de buses de memoria del procesador hacia los módulos.
26
Ese bus está de acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus
paralelo, para datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir
de 1 a 4 buses de memoria.
Sistemas operativos
El Sistema Operativo es un conjunto de programas (software) que trata de optimizar todo
el poder de una computadora y sus periféricos (hardware) y de facilitar al usuario el
aprovechamiento de su equipo
Redondo y Algara CCV 1999.
Es el que toma el control cuando encendemos la computadora y realiza las primeras
acciones....junto con la interfaz gráfica está al centro de la acción del software" Long y Long 1.997
Objetivos.....
• Facilita la comunicación entre el sistema y la gente que lo maneja
• Facilita la comunicación entre los componentes del sistema
• Minimiza el tiempo para ejecutar un comando
• Optimiza el uso de los recursos del sistema
• Lleva el control de los archivos almacenados en disco.
• Proporciona una cubierta de seguridad al sistema de computación.
• Monitorea todas las capacidades del sistema y alerta al usuario sobre posibles fallas.
Funciones de los S. O.
• Asignación de tiempo de CPU:
• Planificar las diversas actividades.
• Control de recursos:
27
Asignar recursos de forma racional. P. E. División de la memoria del ordenador entre
los programas, controlar colas de e/s.
• Control de entrada/salida:
• Gestionar los datos desde y hacia los periféricos.
• Control de los errores y protección:
• Informar de las situaciones anómalas
• Interfaz con el usuario:
• Facilita el uso.
• Facilidades contables:
• Cálculo de costes de uso de CPU.
TIPOS DE SISTEMAS OPERATIVOS
Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es
un programa muy especial, quizá el más complejo e importante en una computadora. El SO
despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de
vídeo y las unidades de disco.
Además, proporciona la facilidad para que los usuarios se comuniquen con la
computadora y sirve de plataforma a partir de la cual se corran programas de aplicación.
Sistemas Operativos por Servicios (Visión Externa).
Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del
usuario final. Esta clasificación se comprende fácilmente con el cuadro sinóptico que a
continuación se muestra:
Sistema Operativo Mono usuario.
Los sistemas operativos mono usuarios son aquéllos que soportan a un usuario a la vez,
sin importar el número de procesadores que tenga la computadora o el número de procesos o
tareas que el usuario pueda ejecutar en un mismo instante de tiempo.
28
Las computadoras personales típicamente se han clasificado en este renglón.
Sistema Operativo Multiusuario.
Los sistemas operativos multiusuario son capaces de dar servicio a más de un usuario a la
vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones
remotas en una red de comunicaciones.
No importa el número de procesadores en la máquina ni el número de procesos que cada
usuario puede ejecutar simultáneamente.
En esta categoría se encuentran todos los sistemas que cumplen simultáneamente las
necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se
emplean especialmente en redes
Sistema Operativo Multitarea.
Un sistema operativo multitarea es aquél que le permite al usuario estar realizando varias
labores al mismo tiempo.
Es el modo de funcionamiento disponible en algunos sistemas operativos, mediante el
cual una computadora procesa varias tareas al mismo tiempo. Existen varios tipos de multitareas.
La conmutación de contextos (context Switching) es un tipo muy simple de multitarea en el que
dos o más aplicaciones se cargan al mismo tiempo, pero en el que solo se está procesando la
aplicación que se encuentra en primer plano (la que ve el usuario. En la multitarea cooperativa,
la que se utiliza en el sistema operativo Macintosh, las tareas en segundo plano reciben tiempo
de procesado durante los tiempos muertos de la tarea que se encuentra en primer plano (por
ejemplo, cuando esta aplicación está esperando información del usuario), y siempre que esta
aplicación lo permita. En los sistemas multitarea de tiempo compartido, como OS/2, cada tarea
recibe la atención del microprocesador durante una fracción de segundo.
Sistema Operativo de Uniproceso.
Un sistema operativo Uniproceso es aquél que es capaz de manejar solamente un
procesador de la computadora, de manera que si la computadora tuviese más de uno le sería
29
inútil. El ejemplo más típico de este tipo de sistemas es el DOS y MacOS.
Sistema Operativo de Multiproceso.
Un sistema operativo multiproceso se refiere al número de procesadores del sistema, que
es más de uno y éste es capaz de usarlos todos para distribuir su carga de trabajo. Generalmente
estos sistemas trabajan de dos formas: simétrica o asimétricamente.
Asimétrica.
Cuando se trabaja de manera asimétrica, el sistema operativo selecciona a uno de los
procesadores el cual jugará el papel de procesador maestro y servirá como pivote para distribuir
la carga a los demás procesadores, que reciben el nombre de esclavos.
Simétrica.
Según, se deben observar dos tipos de requisitos cuando se construye un sistema
operativo, los cuales son:
Requisitos de usuario: Sistema fácil de usar y de aprender, seguro, rápido y adecuado al
uso al que se le quiere destinar.
Requisitos del software: Donde se engloban aspectos como el mantenimiento, forma de
operación, restricciones de uso, eficiencia, tolerancia frente a los errores y flexibilidad.
A continuación se describen las distintas estructuras que presentan los actuales sistemas
operativos para satisfacer las necesidades que de ellos se quieren obtener.
Estructura Monolítica
Es la estructura de los primeros sistemas operativos constituidos fundamentalmente por
un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una
puede llamar a cualquier otra. Las características fundamentales de este tipo de estructura son:
• Construcción del programa final a base de módulos compilados separadamente que
se unen a través del ligador.
• Buena definición de parámetros de enlace entre las distintas rutinas existentes, que
puede provocar mucho acoplamiento.
30
• Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes
aspectos de los recursos de la computadora, como memoria, disco, etc.
Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución
y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de
trabajo o tipos de aplicaciones.
Estructura Jerárquica
A medida que fueron creciendo las necesidades de los usuarios y se perfeccionaron los
sistemas, se hizo necesaria una mayor organización del software, del sistema operativo, donde
una parte del sistema contenía subpartes y esto organizado en forma de niveles.
Se dividió el sistema operativo en pequeñas partes, de tal forma que cada una de ellas
estuviera perfectamente definida y con un claro interface con el resto de elementos.
Se constituyó una estructura jerárquica o de niveles en los sistemas operativos, el primero
de los cuales fue denominado THE (Technische Hogeschool, Eindhoven), de Dijkstra, que se
utilizó con fines didácticos. Se puede pensar también en estos sistemas como si fueran
`multicapa'. Multics y Unix caen en esa categoría.
Máquina Virtual
Se trata de un tipo de sistemas operativos que presentan una interface a cada proceso,
mostrando una máquina que parece idéntica a la máquina real subyacente. Estos sistemas
operativos separan dos conceptos que suelen estar unidos en el resto de sistemas: la
multiprogramación y la máquina extendida.
El objetivo de los sistemas operativos de máquina virtual es el de integrar distintos
sistemas operativos dando la sensación de ser varias máquinas diferentes.
Cliente-Servidor (Microkernel)
El tipo más reciente de sistemas operativos es el denominado Cliente-servidor, que puede
ser ejecutado en la mayoría de las computadoras, ya sean grandes o pequeñas.
31
Este sistema sirve para toda clase de aplicaciones por tanto, es de propósito general y
cumple con las mismas actividades que los sistemas operativos convencionales.
Sistemas Operativos por la Forma de Ofrecer sus Servicios
Esta clasificación también se refiere a una visión externa, que en este caso se refiere a la
del usuario, el cómo accesa a los servicios. Bajo esta clasificación se pueden detectar dos tipos
principales: sistemas operativos de red y sistemas operativos distribuidos.
Sistema Operativo de Red.
Los sistemas operativos de red se definen como aquellos que tiene la capacidad de
interactuar con sistemas operativos en otras computadoras por medio de un medio de
transmisión con el objeto de intercambiar información, transferir archivos, ejecutar comandos
remotos y un sin fin de otras actividades. El punto crucial de estos sistemas es que el usuario
debe saber la sintaxis de un conjunto de comandos o llamadas al sistema para ejecutar estas
operaciones, además de la ubicación de los recursos que desee accesar.
Sistemas Operativos Distribuidos.
Los sistemas operativos distribuidos abarcan los servicios de los de red, logrando integrar
recursos (impresoras, unidades de respaldo, memoria, procesos, unidades centrales de proceso)
en una sola máquina virtual que el usuario accesa en forma transparente. Es decir, ahora el
usuario ya no necesita saber la ubicación de los recursos, sino que los conoce por nombre y
simplemente los usa como si todos ellos fuesen locales a su lugar de trabajo habitual. Todo lo
anterior es el marco teórico de lo que se desearía tener como sistema operativo distribuido, pero
en la realidad no se ha conseguido crear uno del todo, por la complejidad que suponen: distribuir
los procesos en las varias unidades de procesamiento, reintegrar sub-resultados, resolver
problemas de concurrencia y paralelismo, recuperarse de fallas de algunos recursos distribuidos
y consolidar la protección y seguridad entre los diferentes componentes del sistema y los
usuarios. Los avances tecnológicos en las redes de área local y la creación de microprocesadores
de 32 y 64 bits lograron que computadoras más o menos baratas tuvieran el suficiente poder en
forma autónoma para desafiar en cierto grado a los mainframes, y a la vez se dio la posibilidad de
32
intercomunicarlas, sugiriendo la oportunidad de partir procesos muy pesados en cálculo en
unidades más pequeñas y distribuirlas en los varios microprocesadores para luego reunir los sub-
resultados, creando así una máquina virtual en la red que exceda en poder a un mainframe.
El sistema integrador de los microprocesadores que hacer ver a las varias memorias,
procesadores, y todos los demás recursos como una sola entidad en forma transparente se le
llama sistema operativo distribuido.
Virus
El virus toma entonces el control de los servicios básicos del sistema operativo,
infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución.
Finalmente se añade el código del virus al programa infectado y se graba en el disco, con lo cual
el proceso de replicado se completa.
Historia
El primer virus atacó a una máquina IBM Serie 360 (y reconocido como tal). Fue llamado
Creeper, creado en 1972.
Sin embargo, el término virus no se adoptaría hasta 1984, pero éstos ya existían desde
antes. Sus inicios fueron en los laboratorios deBell Computer. Cuatro programadores (H. Douglas
Mellory, Robert Morris, Victor Vysottsky y Ken Thompson) desarrollaron un juego llamado Core
War, el cual consistía en ocupar toda la memoria RAM del equipo contrario en el menor tiempo
posible.
Después de 1984, los virus han tenido una gran expansión, desde los que atacan los
sectores de arranque de disquetes hasta los que se adjuntan en un correo electrónico.
Virus informáticos y sistemas operativos
Los virus informáticos afectan en mayor o menor medida a casi todos los sistemas más
conocidos y usados en la actualidad.
33
Cabe aclarar que un virus informático mayoritariamente atacará sólo el sistema operativo
para el que fue desarrollado, aunque ha habido algunos casos de virus multiplataforma.
MS-Windows
Las mayores incidencias se dan en el sistema operativo Windows debido, entre otras
causas, a:
Su gran popularidad, como sistema operativo, entre los computadores personales,
PC. Se estima que, en 2007, un 90 % de ellos usaba Windows. [cita requerida] Esta popularidad
basada en la facilidad de uso sin conocimiento previo alguno, motiva a los creadores de software
malicioso a desarrollar nuevos virus; y así, al atacar sus puntos débiles, aumentar el impacto que
generan.
• Falta de seguridad en esta plataforma (situación a la que Microsoft está dando en
los últimos años mayor prioridad e importancia que en el pasado). Al ser un sistema
tradicionalmente muy permisivo con la instalación de programas ajenos a éste, sin requerir
ninguna autentificación por parte del usuario o pedirle algún permiso especial para ello en los
sistemas más antiguos. A partir de la inclusión del Control de Cuentas de Usuario en Windows
Vista y en adelante (y siempre y cuando no se desactive) se ha solucionado este problema, ya
que se puede usar la configuración clásica de Linux de tener un usuario administrador protegido,
pero a diario usar un Usuario estándar sin permisos.
• Software como Internet Explorer y Outlook Express, desarrollados por Microsoft e
incluidos de forma predeterminada en las últimas versiones de Windows, son conocidos por ser
vulnerables a los virus ya que éstos aprovechan la ventaja de que dichos programas están
fuertemente integrados en el sistema operativo dando acceso completo, y prácticamente sin
restricciones, a los archivos del sistema.
• La escasa formación de un número importante de usuarios de este sistema, lo que
provoca que no se tomen medidas preventivas por parte de estos, ya que este sistema está
dirigido de manera mayoritaria a los usuarios no expertos en informática. Esta situación es
aprovechada constantemente por los programadores de virus.
34
Unix y derivados
En este artículo se detectaron los siguientes problemas:
• No tiene una redacción neutral.
• Carece de fuentes o referencias que aparezcan en una fuente acreditada.
Por favor, edítalo para mejorarlo, o debate en la discusión acerca de estos problemas.
Puedes avisar al redactor principal pegando lo siguiente en su página de discusión:
En otros sistemas operativos como las distribuciones GNU/Linux, BSD, OpenSolaris, Mac
OS X y otros basados en Unix las incidencias y ataques son prácticamente inexistentes. Esto se
debe principalmente a:
• Los usuarios de este tipo de Sistemas Operativos suelen poseer conocimientos
muchos mayores a los de los usuarios comunes de sistemas Windows por lo que están más alerta
y saben mejor qué evitar y qué es seguro.
• Estos Sistemas Operativos cuentan con una cuota de uso mucho menor, por lo que
son menos interesantes a la hora de llevar a cabo ataques de pishing o similares cuyo principal
objetivo es el de robar información, por ejemplo para Data mining.
• Tradicionalmente los programadores y usuarios de sistemas basados en Unix han
considerado la seguridad como una prioridad por lo que hay mayores medidas frente a virus,
tales como la necesidad de autenticación por parte del usuario como administrador para poder
instalar cualquier programa adicional al sistema.
• Los directorios o carpetas que contienen los archivos vitales del sistema operativo
cuentan con permisos especiales de acceso, por lo que no cualquier usuario o programa puede
acceder fácilmente a ellos para modificarlos o borrarlos. Existe una jerarquía de permisos y
accesos para los usuarios.
• Relacionado al punto anterior, a diferencia de los usuarios de Windows, la mayoría
de los usuarios de sistemas basados en Unix no pueden normalmente iniciar sesiones como
35
usuarios "administradores' o por el supe usuario root, excepto para instalar o configurar software,
dando como resultado que, incluso si un usuario no administrador ejecuta un virus o algún
software malicioso, éste no dañaría completamente el sistema operativo ya que Unix limita el
entorno de ejecución a un espacio o directorio reservado llamado comúnmente home. Aunque a
partir de Windows Vista, se pueden configurar las cuentas de usuario de forma similar.
• Estos sistemas, a diferencia de Windows, son usados para tareas más complejas
como servidores que por lo general están fuertemente protegidos, razón que los hace menos
atractivos para un desarrollo de virus o software malicioso.
• En el caso particular de las distribuciones basadas en GNU/Linux y gracias al modelo
colaborativo, las licencias libres y debido a que son más populares que otros sistemas Unix, la
comunidad aporta constantemente y en un lapso de tiempo muy corto actualizaciones que
resuelven bugs y/o agujeros de seguridad que pudieran ser aprovechados por algún malware.
Características
Dado que una característica de los virus es el consumo de recursos, los virus ocasionan
problemas tales como: pérdida de productividad, cortes en los sistemas de información o daños
a nivel de datos.
Una de las características es la posibilidad que tienen de diseminarse por medio de
replicas y copias. Las redes en la actualidad ayudan a dicha propagación cuando éstas no tienen
la seguridad adecuada.
Otros daños que los virus producen a los sistemas informáticos son la pérdida de
información, horas de parada productiva, tiempo de reinstalación, etc.
Métodos de propagación
Existen dos grandes clases de contagio. En la primera, el usuario, en un momento dado,
ejecuta o acepta de forma inadvertida la instalación del virus. En la segunda, el programa
malicioso actúa replicándose a través de las redes. En este caso se habla de gusanos.
36
En cualquiera de los dos casos, el sistema operativo infectado comienza a sufrir una serie
de comportamientos anómalos o imprevistos. Dichos comportamientos pueden dar una pista del
problema y permitir la recuperación del mismo.
Dentro de las contaminaciones más frecuentes por interacción del usuario están las
siguientes:
• Mensajes que ejecutan automáticamente programas (como el programa de correo
que abre directamente un archivo adjunto).
• Ingeniería social, mensajes como ejecute este programa y gane un premio, o, más
comúnmente: Haz 2 clics y gana 2 tonos para móvil gratis.
• Entrada de información en discos de otros usuarios infectados.
• Instalación de software modificado o de dudosa procedencia.
En el sistema Windows puede darse el caso de que la computadora pueda infectarse sin
ningún tipo de intervención del usuario (versiones Windows 2000, XP y Server 2003) por virus
como Blaster, Sasser y sus variantes por el simple hecho de estar la máquina conectada a una red
o a Internet. Este tipo de virus aprovechan una vulnerabilidad de desbordamiento de buffer y
puertos de red para infiltrarse y contagiar el equipo, causar inestabilidad en el sistema, mostrar
mensajes de error, reenviarse a otras máquinas mediante lared local o Internet y hasta reiniciar
el sistema, entre otros daños. En las últimas versiones de Windows 2000, XP y Server 2003 se ha
corregido este problema en su mayoría.
Métodos de protección
Los métodos para disminuir o reducir los riesgos asociados a los virus pueden ser los
denominados activos o pasivos.
Activos
• Antivirus: son programas que tratan de descubrir las trazas que ha dejado un
software malicioso, para detectarlo y eliminarlo, y en algunos casos contener o parar la
contaminación.
37
Tratan de tener controlado el sistema mientras funciona parando las vías conocidas de
infección y notificando al usuario de posibles incidencias de seguridad. Por ejemplo, al verse que
se crea un archivo llamado Win32.EXE.vbs en la carpeta C:\Windows\%System32%\ en segundo
plano, ve que es comportamiento sospechoso, salta y avisa al usuario.
• Filtros de ficheros: consiste en generar filtros de ficheros dañinos si el computador
está conectado a una red. Estos filtros pueden usarse, por ejemplo, en el sistema de correos o
usando técnicas de firewall. En general, este sistema proporciona una seguridad donde no se
requiere la intervención del usuario, puede ser muy eficaz, y permitir emplear únicamente
recursos de forma más selectiva.
Pasivos
• Evitar introducir a tu equipo medios de almacenamiento extraíbles que consideres
que pudieran estar infectados con algún virus.
• No instalar software "pirata", pues puede tener dudosa procedencia.
• No abrir mensajes provenientes de una dirección electrónica desconocida.
• No aceptar e-mails de desconocidos.
• Informarse y utilizar sistemas operativos más seguros.
• No abrir documentos sin asegurarnos del tipo de archivo. Puede ser un ejecutable.
Tipos de virus
Existen diversos tipos de virus, varían según su función o la manera en que este se ejecuta
en nuestra computadora alterando la actividad de la misma, entre los más comunes están:
• Troyano: Consiste en robar información o alterar el sistema del hardware o en un
caso extremo permite que un usuario externo pueda controlar el equipo.
• Gusano: Tiene la propiedad de duplicarse a sí mismo. Los gusanos utilizan las partes
automáticas de un sistema operativo que generalmente son invisibles al usuario.
38
Bombas lógicas o de tiempo: Son programas que se activan al producirse un
acontecimiento determinado. La condición suele ser una fecha (Bombas de Tiempo),
una combinación de teclas, o ciertas condiciones técnicas (Bombas Lógicas). Si no se
produce la condición permanece oculto al usuario.
• Hoax: Los Hoax no son virus ni tienen capacidad de reproducirse por si solos. Son
mensajes de contenido falso que incitan al usuario a hacer copias y enviarla a sus contactos.
Suelen apelar a los sentimientos morales ("Ayuda a un niño enfermo de cáncer") o al espíritu de
solidaridad ("Aviso de un nuevo virus peligrosísimo") y, en cualquier caso, tratan de aprovecharse
de la falta de experiencia de los internautas novatos.
• Joke: Al igual que los Hoax, no son virus, pero son molestos, un ejemplo: una página
pornográfica que se mueve de un lado a otro, y si se le llega a dar a cerrar es posible que salga
una ventana que diga: OMFG!! No se puede cerrar.
Otros tipos por distintas características son los que se relacionan a
continuación:
Virus residentes
La característica principal de estos virus es que se ocultan en la memoria RAM de forma
permanente o residente. De este modo, pueden controlar e interceptar todas las operaciones
llevadas a cabo por el sistema operativo, infectando todos aquellos ficheros y/o programas que
sean ejecutados, abiertos, cerrados, renombrados, copiados. Algunos ejemplos de este tipo de
virus son: Randex, CMJ, Meve, MrKlunky.
Virus de acción directa: Al contrario que los residentes, estos virus no permanecen en
memoria. Por tanto, su objetivo prioritario es reproducirse y actuar en el mismo momento de ser
ejecutados. Al cumplirse una determinada condición, se activan y buscan los ficheros ubicados
dentro de su mismo directorio para contagiarlos.
Virus de sobre escritura: Estos virus se caracterizan por destruir la información contenida
en los ficheros que infectan. Cuando infectan un fichero, escriben dentro de su contenido,
haciendo que queden total o parcialmente inservibles.
39
Virus de boot (bot_kill) o de arranque: Los términos boot o sector de arranque hacen
referencia a una sección muy importante de un disco o unidad de almacenamiento CD, DVD,
memorias USB etc. En ella se guarda la información esencial sobre las características del disco y
se encuentra un programa que permite arrancar el ordenador. Este tipo de virus no infecta
ficheros, sino los discos que los contienen. Actúan infectando en primer lugar el sector de
arranque de los dispositivos de almacenamiento. Cuando un ordenador se pone en marcha con
un dispositivo de almacenamiento, el virus de boot infectará a su vez el disco duro.
Los virus de boot no pueden afectar al ordenador mientras no se intente poner en marcha
a éste último con un disco infectado. Por tanto, el mejor modo de defenderse contra ellos es
proteger los dispositivos de almacenamiento contra escritura y no arrancar nunca el ordenador
con uno de estos dispositivos desconocido en el ordenador.
40
Un Computador:
Fuente del computador:
Arquitectura de un computador:
42
EL PROCESADOR (TAMBIÉN LLAMADO UNIDAD CENTRAL DE PROCESAMIENTO O CPU)
CONSTA DE MANERA BÁSICA DE LOS SIGUIENTES ELEMENTOS:
Periférico y dispositivos auxiliares
Monitor
Teclado
43
Ratón
Impresora
Escáner
DISCO DURO
44
Altavoces
Software libre:
MICROPROCESADOR:
45
Historia del hardware de ordenador:
CPU de transistores y de circuitos integrados discretos:
MEMORIA AUXILIAR:
46
Conclusión
Para finalizar la informática ya es parte de nuestra vida porque nos orienta y nos ayuda
con algunas informaciones que necesitamos de ella.
Conocemos de un computador que es una máquina electrónica que recibe y procesar
datos para convertirlos en información útil. Una computadora es una colección de circuitos
integrados y otros componentes relacionados que pueden ejecutar con exactitud, rapidez y de
acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad
de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en
función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al
cual se le ha denominado con el nombre desprogramación y al que lo realiza se le llama
programador. La computadora además de la rutina o programa informático, necesita de datos
específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que
deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el
producto final del procesamiento de datos, que recibe el nombre de "output" o de salida.
La computadora le sirve al hombre como una valiosa herramienta para realizar y
simplificar muchas de sus actividades. En sí es un dispositivo electrónico capaz de interpretar y
ejecutar los comandos programados para realizar en forma general las funciones.
47
Bibliografía
www.monografias.com/computador
Richard Matthew Stallman/computador
www.mnografia.com/trabajo12/microco//microco/shtml
Computador
48