Computadora personalEste artículo trata sobre computadoras personales en general. Para las computadoras personales PC compatibles, véase Compatible IBM PC. Ilustración de una moderna Computadora de Escritorio Una computadora personal u ordenador personal, también conocida como PC (sigla en inglés de personal computer), es una microcomputadora diseñada en principio para ser usada por una sola persona a la vez. (En el habla habitual, las siglas PC se refieren más específicamente a la computadora compatible IBM PC.) Una computadora personal es generalmente de tamaño medio y es usado por un solo usuario (aunque hay sistemas operativos que permiten varios usuarios simultáneamente, lo que es conocido como multiusuario). Una computadora personal suele estar equipada para cumplir tareas comunes de la informática moderna, es decir permite navegar por Internet, escribir textos y realizar otros trabajos de oficina o educativos, como editar textos y bases de datos. Además de actividades de ocio, como escuchar música, ver videos, jugar, estudiar, etc. En cuanto a su movilidad podemos distinguir entre computadora de escritorio y computadora portátil. Dentro del conjunto de las computadoras portátiles están las llamadas computadoras portátiles de escritorio. Historia Una PC de IBM. Artículo principal: Historia de los computadores personales El primer registro que se conoce del término "computadora personal" apareció en la revista New Scientist en 1964, en una serie de artículos llamados «El mundo en 1984». En un artículo titulado The Banishment of Paper Work, Arthur L. Samuel, del Centro de Investigación Watson de IBM escribió: «Hasta que no sea viable obtener una educación en casa, a través de nuestra propia computadora personal, la naturaleza humana no habrá cambiado». La primera generación que comenzó a fabricarse en los años setenta (véase computadora doméstica), era mucho menos polifacética y potente que las computadoras de las empresas de aquel entonces, y en general eran utilizadas por los aficionados a la informática para jugar. Fue el lanzamiento de la hoja de cálculo VisiCalc, en principio para Apple II y después para el IBM PC, la verdadera aplicación que logró convertir a la microcomputadora en una herramienta de trabajo. El bajo costo de las computadoras personales le hizo adquirir una gran popularidad tanto para las familias como para los trabajadores en los años ochenta. En los noventa el poder de las computadoras personales aumentó de manera radical, borrando la frontera desfasada que había entre las computadoras personales y las computadoras de varios usuarios como las computadoras centrales. Hoy las computadoras de gama alta se distinguen de las computadoras personales por su mayor fiabilidad o su mayor habilidad para realizar multitareas y no por la potencia de la CPU. La mayoría de las computadoras personales utilizan una arquitectura de soporte físico compatible con el PC de IBM, usando procesadores compatibles con x86 realizados por Intel, AMD o Cyrix. A pesar de la enorme popularidad de la computadora personal, varias microcomputadoras incompatibles con IBM (también llamados de manera general computadoras personales) son todavía populares para determinados usos específicos. La principal alternativa, hasta hace poco, era la computadora con procesador PowerPC, con el sistema operativo Mac OS X de Apple Computer (aunque otros sistemas operativos pueden correr sobre esta arquitectura), que se usa sobre todo para diseño gráfico y usos relacionados, sirviendo también perfectamente para un usuario doméstico. Hay que decir que a partir de 2006 las computadoras de Apple usan microprocesadores de Intel y ya no se fabrican PowerPC. Pese a ello siguen siendo incompatibles (los compatibles utilizan BIOS y los Mac EFI). La computadora personal es en una palabra consumidor-amistosa para la segunda generación de computadoras de escritorio, que se incorporaron en el mercado a 1977 y llegaron a ser de uso común durante los años 80. También se conocen como computadoras personales. La computadora personal llegó a ser de fácil adquisición para el público en general debido a la producción en masa del microprocesador basado en el chip de silicio y como el nombre indica, pensada para ser utilizada en el hogar antes que en negocios/contextos industriales. También fueron diseñadas para ser inmediatamente útiles a los clientes no técnicos, en contraste con las microcomputadoras de la primera generación que vinieron como kits y requirieron a menudo habilidades en electrónica. El uso del término ³computadora personal´ murió en gran parte hacia finales de la década (en los EE.UU.) o en los años 90 tempranos (en Europa). Esto se debió a la aparición de la computadora personal compatible de la PC de IBM, y a la preferencia consiguiente por el término ³PC´ antes que ³la computadora personal´. Una de las primeras computadoras personales, la Apple II. Computadoras personales notables La lista de abajo muestra las computadoras personales más populares e históricamente más significativas de los últimos años 70 y de los años 80. Incluye su año inicial del lanzamiento así también como su región/país de origen. Los lanzamientos más significativos en los EE.UU. fueron: Apple II (1977), IBM PC (1981), el Commodore 64 (1982), y el Apple Macintosh (1984). Una plétora de computadoras personales surgió durante este período, pero no pudieron tener un impacto significativo en el mercado de los EE.UU. o la historia de la computación doméstica y como tales no se mencionan (esto incluye las máquinas no vendidas/conocidas en los EE.UU.). Diversos modelos en una línea de computadoras compatibles se enumeran en su totalidad, por ejemplo las familias del Apple II y del TRS-80. (Para una descripción más completa de las computadoras personales, es decir, no solamente de las más notables dadas abajo, ver la lista de las computadoras personales.) y y y y y Junio de 1977: Apple II (Norteamérica) (gráficos en color, ocho ranuras de expansión) Agosto de 1977: Tandy Radio Shack TRS-80 (N.) (Primera computadora personal de menos de US$600) Diciembre de 1977: Commodore PET (N.) (Primera computadora completa: teclado/pantalla/cinta) 1979: Atari 400/800 (N.) (Primera computadora con un chipset específico y chip de video programable) 1979: TI-99/4 (primera computadora personal con un procesador de 16 bits) Los años 80 y y y y y y y y 1980: Commodore VIC-20 (por debajo de US$300; primera computadora en el mundo en pasar la marca de un millón de unidades vendidas) 1980: Computadora en color TRS-80 (Motorola 6809, trabajos múltiples opcionales OS-9) 1980: Osborne Computer Company lanza el Osborne 1 (primera computadora "portátil") Junio de 1981: Texas Instruments TI-99/4A - basada en el menos exitoso TI-99/4, segunda computadora personal con una CPU de 16 bit, primera en agregar gráficos "sprite" Agosto de 1981: PC de IBM - versión original de la plataforma de hardware compatible de la PC de IBM. El modelo original fue denominado IBM 5150. Fue creado por un equipo de 12 ingenieros y los diseñadores bajo la dirección de Estridge de la división de los sistemas de la entrada de IBM en Boca Ratón, Florida 1981: Sinclair ZX81 (Europa) - el kit costaba £49,95; £69,95 pre-construido. Fue lanzado como Timex Sinclair 1000 en los EE.UU. en 1982 1981: BBC Micro (Europa) - computadora educativa del Primer Ministro del Reino Unido por una década; BASIC avanzado con el ensamblador integrado del código automático 6502; diseñado con una miríada de puertos de entrada-salida 1982: Kaypro lanza la computadora Kaypro II primer 16/32-bit 1984: Amstrad/Schneider CPC y PCW se extiende (Europa) . . de Apple 1985: Atari ST (N. creó la industria británica del software Agosto de 1982: Commodore 64 . pantalla monocromática de LCD) Mattel Intellivision (1980) (Dirigida a competir con la Atari 2600.computadora de VTech de nivel de entrada dirigida siendo el más barato en mercado).) . sin el sonido y sin color.) .la computadora personal británica más vendida. Ventas alemanas al lado de C64 y el Macintosh.Primero con la interfaz incorporada de MIDI. y primera consola de Fairchild en utilizar cartuchos). también RAM de 1MB por menos de US$1000 Julio de 1985: Commodore Amiga (N. fabricado por varias compañías: ~ 5 millones vendidos) 1983: Laser 200 . y y y y y Magnavox Odyssey (1972) (primera consola. Fue la primera consola en incorporar un cable-módem para poder descargarse juegos de la compañía de cable contratada.) (chipset de encargo para los gráficos y el sonido.estándar británico antes de la PC de IBM. pionera en los 16 bits aunque sus gráficos seguían siendo similares a los de la Atari 2600. En esta lista se muestran únicamente aquellas videoconsolas que supusieron alguna novedad técnica o tuvieron importancia desde el punto de vista de la popularidad.diseño de referencia de ASCII y Microsoft.Primer ratón comercialmente acertado conducido. Aunque los videojuegos no eran el principal fin de los PC. Enero de 1984: Apple Macintosh (N. Primera consola exitosa de Atari 2600 (también conocida como Atari VCS) (1977) Magnavox Odyssey2 (1978) (también conocida como Philips Videopac G7000) (primera con teclado QWERTY) Milton Bradley Microvision (1979) (Primera consola con cartuchos separables de la consola donde iba cargado el juego. todoanáloga) Canal F (1976) (primera consola con microprocesador. ya que éstas les restaban cuota de mercado.y y y y y y y y y y Abril de 1982: Sinclair ZX Spectrum (Europa) . la mayoría de la computadora personal de gran alcance en su clase en su principio) Videoconsolas notables Lo siguiente es una lista de las videoconsolas más populares o más importantes que tuvieron que competir con los computadores personales (PC). primera con sonido y en color. muchas computadoras tuvieron que competir en dicho mercado contra las videoconsolas. OS de los trabajos múltiple) 1987: Acer Archimedes (Europa) (basada en el microprocesador Acer-en desarrollo de gran alcance del BRAZO de 32 bit.El modelo de computadora más vendido de todos los tiempos: ~ 17 millones vendidos 1983: Coleco Adam 1983: MSX (Japón) . puesto que Internet en aquella época aún no existía como tal). pero no era capaz de conectarse a Internet. hogar/computadora personal completamente GUI-basados. sus juegos en línea. y cuyos gráficos se representaban con vectores en vez de una matriz de bits) Atari 5200 (1982) (Primera videoconsola basada en una computadora personal) Colecovision (1982) (La videoconsola más popular de la segunda generación. como los procesadores de texto que realizan tareas productivas para los usuarios. gracias a su procesador central de 7 núcleos. y middleware que controlan y coordinan sistemas distribuidos. que la interfaz con el hardware para proporcionar los servicios necesarios para el software de aplicación. como los sistemas operativos. software de sistema. lo que hizo subir notablemente el precio de la máquina en un principio. Xbox 360(2005)(segunda consola de sobremesa lanzada por Microsoft. Destaca por su potente procesador de 3 núcleos. Nintendo 64 Play Station Game Cube PS2 (2000) (Fue la primera consola en incluir lector de DVD. gracias a sus continuas bajadas de precio y a su gran catálogo de juegos consiguió ser una de las consolas más populares en la historia de los videojuegos) Nintendo DS Xbox Wii (2006) PS3 (2006) (Su arquitectura es semejante a la de una computadora. A partir de esta consola las consolas empezaron a resultar realmente populares. Software Un Software es un término general que se utiliza para describir una colección de programas informáticos. Primera con gráficos de calidad Arcade) Nintendo Entertainment System (NES) (1985) de Nintendo (La videconsola más popular de la tercera generación. tuvo muchísimo éxito y se editaron cientos de juegos para ella) Atari Lynx (1989) (Primeros consola portátil con gráficos en color. además de una fuerte apuesta por la venta del contenido para la consola a través de Internet). tenía un LCD retroiluminado. tenía 8 bits) Sega Master System (1986) (Vendió más que la NES en algunas partes de Europa y Brasil. Aparte de ser un sistema videojuegos. mediante la instalación del sistema operativo Linux). no obstante fue un rotundo fracaso comercial). . y por ser un gran centro multimedia de juegos. debido a su más bajo precio) Sega Mega Drive/Génesis (1988/1989) (primera consola de 16 bit exitosa) Game Boy (1989) de Nintendo (Primera videoconsola portátil. tenía 8 bits. puede ser utilizada para actividades informáticas. aunque posteriórmente. procedimientos y documentación que realizar algunas tareas en el sistema de un equipo. el término incluye software de aplicación.y y y y y y y y y y y y y y y y y y Vectrex (1982) (Videoconsola con la pantalla incorporada. Super NES (1991) (La consola gozo de una gran popularidad en los principales mercados). Sin embargo. Las utilidades y las bibliotecas del sistema generalmente vienen desde el sistema . Con la excepción de Microsoft Windows. la mayoría del software escrita principalmente para ordenadores personales tiende a ser diseñado con facilidad de uso. utilizado. o directamente heredados.65 % de participación en el mercado). fax. navegación por Internet. la versión más reciente de cliente de Windows es Windows 7 y Windows Server 2008 R2. Sistemas operativos de escritorio contemporáneos común son Microsoft Windows (90. Por lo tanto. Microsoft Windows Microsoft Windows es el nombre de marca colectivo de varios sistemas operativo de Microsoft. Mac OS X (7 %). Un sistema operativo procesa los datos del sistema y la entrada del usuario y responde mediante la asignación y administración de tareas y los recursos del sistema interno como un servicio a los usuarios y programas del sistema. que estaba disponible para la venta el 22 de octubre de 2009 GNU/Linux Artículo principal: GNU/Linux GNU/Linux es una familia de sistemas operativos tipo UNIX. El usuario de un moderno equipo de personal puede poseer conocimientos significativos de los programas operativos de medio ambiente y la aplicación. control de entrada y dispositivos. (0. Windows. Un sistema operativo realiza tareas básicas como la memoria de control y asignación. los diseños de cada uno de los sistemas operativos antes mencionados fueron inspirados por. y redistribuido por cualquier persona. comenzado en 1991 por Linus Torvalds. Linux es uno de los ejemplos más prominentes de software libre y el desarrollo de código abierto: normalmente todo el código fuente puede ser libremente modificado. juego de equipo y programación informática son comunes. el sistema operativo UNIX. UNIX fue desarrollado en los laboratorios Bell a finales del decenio de 1960 y propicia el desarrollo de numerosos sistemas operativos libres como propietarios. el nombre "Linux" proviene del núcleo de Linux. Microsoft introdujo por primera vez un entorno operativo denominado Windows en noviembre de 1985 como un complemento para MS-DOS en respuesta al creciente interés en las interfaces gráficas de usuario (GUI). correo electrónico. pero no es necesariamente interesados en programación ni siquiera pueden escribir programas para el equipo. Mac y Linux todos tienen servidor y variantes personales. la industria del software continuamente proporcionan una amplia gama de nuevos productos para su uso en Sistema operativo Un sistema operativo (OS) administra los recursos de equipo y proporciona a los programadores con una interfaz que se utiliza para acceder a esos recursos. dar prioridad a las solicitudes de sistema.95 %) de Linux. facilitar la creación de redes de equipo y la administración de archivos de salida. Solaris y FreeBSD.Las aplicaciones de software para procesamiento de textos. reproducción multimedia. 6 "Snow Leopard".6.. que había sido el sistema operativo principal de Apple desde 1984. Mac OS X es el sucesor de la original Mac OS. Mac OS X es un sistema operativo basado en UNIX. . Mac OS X Mac OS X es una línea de sistemas operativos de gráficas desarrollado. anunciado en 1983 por Richard Stallman.operativo GNU. La versión más reciente de Mac OS X es Mac OS X 10. La contribución de GNU es la base para el nombre alternativo de GNU/Linux. comercializados y vendidos por Apple Inc. y la actual versión del servidor es Mac OS X Server 10. A diferencia de sus predecesores. generalmente llamados microcomputadores. no pueda ser dueño de un de un computador personal". por lo que cuando la revista Byte publicó su primera edición. informando de la visión de John W.Historia de los computadores personales Niños jugando en un computador Amstrad CPC 464 en los años 1980 La historia de los computadores personales comenzó en los años 1970.3 4 Durante los próximos siete años la frase había ganado suficiente reconocimiento. Mauchly indicó. según lo detallado en una reciente reunión del American Institute of Industrial Engineers. se refirió a sus lectores como "en el . "No hay razón para suponer que un chico o chica promedio. Fueron de interés principalmente para los aficionados y técnicos. fueron vendidos a menudo como kit electrónicos y en números limitados. donde las peticiones del usuario final son filtradas a través del personal de operación o un sistema de tiempo compartido. y fue reemplazado por un anuncio mucho más sobrio para la calculadora programable HP 9100A. cuando Hewlett-Packard hizo publicidad de sus "Powerful Computing Genie" como "El nuevo computador personal Hewlett-Packard 9100A". Etimología Originalmente el término "computador personal" apareció en un artículo del New York Times el 3 de noviembre de 1962. Un computador personal esta orientado al uso individual y se diferencia de un computador mainframe. los computadores personales llegaron a ser más económicos y se popularizaron. Después del desarrollo del microprocesador. Mauchly sobre el futuro de la computación. en el cual un procesador grande es compartido por muchos individuos.2 Este anuncio fue juzgado como demasiado radical para la audiencia a la que iba destinado.1 Seis años más tarde un fabricante tomó el riesgo de referirse a su producto de esta manera. Los primeros computadores personales. En 1979 fueron vendidos sobre medio millón de microcomputadores y los jóvenes de esos días tuvieron un nuevo concepto del computador personal.8 9 mientras que el TRS-80 era descrito como un microcomputador usado para las tareas del hogar incluyendo la "gestión financiera personal".campo de la computación personal". y microcomputadores Antes del advenimiento del computador personal. minicomputadores. agencias gubernamentales. Después de que el trabajo hubiera terminado. ya que llegaron al mercado7 el Apple II y el PET 2001. que fueron promocionados como computadores personales. contando con suficiente potencia de procesamiento. En un sistema de tiempo compartido. múltiples terminales .6 Dos años más tarde. Una forma más interactiva de uso del computador se desarolló comercialmente por mediados de los años 1960. En algunos casos podría tardar horas o días entre someter un trabajo al centro de computación y la recepción de la salida. ocurrió lo que la revista Byte llamó la "Trinidad de 1977" de los pequeños computadores pre-ensamblados. Los terminales de computadora fueron usados para acceso en tiempo compartido de los computadores centrales (mainframes) Artículo principal: Mainframe Artículo principal: Minicomputador Antes de la introducción del microprocesador a principios de los años 1970. sino que preparaban tareas para el computador. en equipos fuera de línea como perforadoras de tarjetas. universidades. y capacidades de almacenamiento para satisfacer las necesidades de un usuario individual". los usuarios podían recoger los resultados. e instituciones de tamaño similar. Los usuarios finales generalmente no interactuaban directamente con la máquina.5 y Creative Computing definió el computador personal como un "sistema de (no)tiempo compartido. Varias asignaciones para el computador serían recogidas y procesadas en proceso por lotes. los computadores generalmente eran sistemas grandes y costosos cuyos dueños eran grandes corporaciones.10 Introducción Mainframes. menos costosos. En lo que fue llamado más tarde como The Mother of All Demos (la madre de todas las demostraciones). Vannevar Bush. La aritmética. pantalla de mapa de bits de alta resolución. y de la burocracia de un centro de computación comercial o universitario. Esto significaba que todavía eran grandes y difíciles de fabricar justo como sus predecesores los mainframes. Después de que el "computador en un chip" fuera comercializado. y minicomputadores más grandes de Digital Equipment Corporation (DEC). los minicomputadores eran relativamente más interactivos que las unidades centrales. esbozó una posible solución al creciente problema del almacenamiento y la recuperación de información. los estudiantes con acceso a algunos de los primeros computadores experimentaron con aplicaciones que hoy serían típicas de un computador personal. y pronto tendrían sus propios sistemas operativos. Sin embargo. por ejemplo. La demostración era la culminación de la investigación en el laboratorio Augmentation Research Center de Engelbart. y posteriormente el VAX. debido a su interface gráfica de usuario. ancestros del moderno computador personal. y un ancestro de los juegos de computadora de hoy se encontró en el Spacewar! de 1962. Además. en un ensayo llamado As We May Think (como podemos pensar). Un modelo diferente del uso del computador fue presagiado en la manera en que fueron usados los tempranos computadores experimentales precomerciales. usaron una temprana tecnología de circuitos integrados (microchip). Esto era común en aplicaciones empresariales y en ciencia e ingeniería.email. Los minicomputadores liberaron en gran parte. donde un usuario tenía uso exclusivo de un procesador. y funciones de control. lógica. y software especial. Prime Computer. procesamiento de palabras. El minicomputador Xerox Alto (1973) fue un hito en el desarrollo de los computadores personales. ratón. Data General.permitieron a mucha gente compartir el uso de un procesador de computador mainframe. un programa escrito en 1961. y por lo tanto raramente fueron comprados por individuos. gran almacenamiento de memoria interno y externo. hipertexto. el diseño asistido por computadora fue previsto por el T-square. y generalmente más simples de operar que muchos de los computadores mainframes de ese tiempo. el costo para manufacturar un sistema de computación cayó dramáticamente. que .11 En lugares como el MIT. del procesamiento por lotes. que se concentró en la aplicación de la tecnología de computación para facilitar pensamiento humano creativo. a estas organizaciones. Algunos de los primeros computadores que pudieron haberse llamados "personales" eran minicomputadores tempranos tales como el LINC y el PDP-8. por lo tanto eran asequibles por laboratorios individuales y proyectos de investigación. Para los estándares de hoy. eran mucho más pequeños. que redujo el tamaño y el costo. eran muy grandes (alrededor del tamaño de un refrigerador) y de costo prohibitivo (típicamente decenas de miles de dólares). El microprocesador y la reducción de costos Los minicomputadores. y el ratón. pero no contenía al microprocesador en un chip. y otros.12 Ya en 1945. video conferencia. el investigador Douglas Engelbart del SRI dio en 1968 una vista preliminar de lo que se convertería en las grapas de la vida laboral diaria en el siglo XXI . así que fue comprado por compañías interesadas en desarrollar un control de micrprocesador para sus propios productos. En 1974 la revista de electrónica estadounidense Radio-Electronics describió el kit de computadora Mark-8. Concurrentemente. un procesador algo más potente y más fácil de usar. . El Altair 8800 se vendió extraordinariamente bien. costosa y hambrienta de energía memoria de núcleo magnético usada en previas generaciones de computadores.previamente ocuparon varias costosas placas de circuitos impresos ahora estaban disponibles en un solo circuito integrado. y los paneles frontales llegaron a extinguirse. Mientras que el panel frontal del hardware emulaba a los usados por los primeros mainframes y minicomputadores. En enero del siguiente año. después de un corto tiempo. La alternativa era ensamblar a mano el código de máquina que podía ser cargado directamente en la memoria del microcomputador usando un panel frontal de conmutadores. Sin embargo. que permitió que los usuarios desarrollaran programas en un lenguaje de alto nivel. el kit del Altair era mucho menos costoso que un sistema de desarrollo de Intel de ese tiempo. los costos del los microprocesadores declinaron rápidamente. haciendo posible producirlos en grandes volúmenes. botones y LEDs. El primer producto de Microsoft fue un interpretador BASIC de 4 kilobytes en cinta de papel perforado. aunque el tamaño de la memoria inicial estaba limitado a unos pocos cientos de bytes y no había software disponible. Tarjetas de expansión de memoria y periféricos fueron pronto listadas por los manufacturadores originales. Había algunos investigadores en lugares tales como SRI y Xerox PARC que estaban trabajando en computadores que una sola persona pudiera usar y pudieran ser conectados por redes rápidas y versátiles: no computadores caseros. y más tarde por manufacturadores de dispositivos enchufables compatibles. basado en el procesador Intel 8008. la entrada/salida a través de un terminal era la interface humano/máquina preferida. sino computadores personales. el Altair BASIC. la revista Popular Electronics publicó un artículo que describía un kit basado en el Intel 8080. el primer microprocesador Después de la introducción en 1972 del Intel 4004. El Intel 4004. los avances en el desarrollo de la memoria de estado sólido eliminaron la abultada. por lo tanto. y no usó un microprocesador. El CPU del sistema fue construido de una variedad de componentes discretos. el Kenbak-1 era más útil para aprender los principios de la programación. Hubo una ruptura entre CTC e Intel. un tamaño palabra de 8 bits. el diseño del CPU multi-chip de Datapoint 2200 y el diseño final de Intel 8008 eran tan similares que los dos son en gran parte compatibles en el software. con una pantalla. En 1973. A diferencia de un computador personal moderno. Solamente alrededor de 40 máquinas fueron construidas y vendidas. teclado. aunque la compañía había comisionado a Intel para que desarrollara una unidad central en un chip. lo que también lo hace un fuerte candidato al título del "primer microcomputador". la producción del Kenbak-1 se detuvo mientras que Kenbak Corporation desapareció. y la entrada y la salida restringida a luces e interruptores.Los principios de la industria del computador personal Kenbak-1 El Kenbak-1 es considerado por el Computer History Museum como el primer computador personal del mundo. puede ser considerado como si de hecho fuera accionado por un 8008. y fue vendido por primera vez a principios de 1971. Intel pronto lanzó una versión modificada de ese chip como el Intel 8008. el primer microprocesador de 8 bits del mundo. Con solamente 256 bytes de memoria. el Datapoint 2200. El sistema primero de vendió por $750. el Kenbak-1 fue construido con circuitos integrados TTL de baja escala de integración.14 Por lo tanto.13 Fue hecho en 1970 por CTC (ahora conocido como Datapoint). y el microprocesador que Intel había desarrollado no fue usado. Datapoint 2200 1970: Datapoint 2200 Artículo principal: Datapoint 2200 Un terminal programable llamado Datapoint 2200 es el más temprano dispositivo conocido que lleva una cierta significativa semejanza al del computador personal moderno. y almacenamiento para el programa. Fue diseñado e inventado por John Blankenbaker de Kenbak Corporation en 1970. . Adicionalmente. desde una perspectiva práctica. y era un sistema completo en una pequeña carcasa que tenía una base aproximada a la de una máquina de escribir IBM Selectric. sobre el cual fueron basados todos los sucesivos procesadores usados en PC compatibles con IBM. las necesidades y los requisitos del Datapoint 2200 determinaron la naturaleza del 8008. pero no era capaz de correr programas de aplicación. El sistema fue originalmente desarrollado en el Institut National de la Recherche Agronomique para automatizar midiciones higrométricas. y los computadores Micral fueron confinadas sobre todo a las puertas de peaje de las carreteras (donde permanecieron en servicio hasta 1992) y similares nichos de mercado. Aunque Groupe Bull continuara la producción de computadoras Micral. estaban disponibles por R2E. (como $1300). En 1981. memoria. Dibujada sobre su predecesor. El sistema corrió a 500 kilociclos e incluyó 16 KB de memoria.Micral N La compañía francesa R2E fue formada. y una interface gráfica de usuario (GUI). por dos ingenieros anteriores de la compañía Intertechnique. y fue más tarde renombrado Prologue. no estaba interesado en el mercado del computador personal. era el primer sistema comercial en incorporar varias tecnologías que hoy han llegado . llamado Pluribus fue introducido y permitía la conexión de hasta 14 tarjetas. la Xerox Corporation introdujo la estación de trabajo Xerox Star. El sistema operativo de Micral fue llamado inicialmente Sysmic. y se vendió por 8500 francos. Xerox Alto y Xerox Star 1973: Xerox Alto Artículo principal: Xerox Alto Artículo principal: Xerox Star El Xerox Alto. Diferentes tarjetas para entrada/salida digital. desarrollado en Xerox PARC en 1973. la metáfora de escritorio. fue el primer computador en usar un ratón. conceptos introducidos por primera vez por Douglas Engelbart mientras estaba en SRI international. Un bus. Fue el primer ejemplo de lo que hoy en día sería reconocido como un computador personal completo. oficialmente conocida como el "8010 Star Information System". entrada/salida análoga. el Xerox Alto. disco floppy. para vender su diseño de microcomputador basado en el Intel 8008. R2E fue absorbida por Groupe Bull en 1978. su primo más grande. servidores de impresoras y email. ratón. El Xerox Alto y el Xerox Star inspirarían al Apple Lisa y al Apple Macintosh. poniéndolo en la serie del "5100". el Alto tenía características años delantado a su tiempo. incluyendo una exhibición de mapa de bits. También incluyó un lenguaje de programación de sistema llamado Smalltalk. Altair 8800 1975: Altair 8800 El desarrollo del microprocesador en un solo chip fue la entrada a la popularización de los verdaderos computadores personales baratos y fáciles de usar. íconos.a ser corrientes en computadores personales. Era la evolución de un prototipo llamado Special Computer APL Machine Portable (SCAMP) que IBM demostró en 1973. En enero de 1978 IBM anunció al IBM 5110. Cuando el IBM PC fue introducido en 1981. Era solamente una cuestión . Mientras que su uso fue limitado a los ingenieros en Xerox PARC. El 5100 fue retirado en marzo de 1982. seis años antes del IBM PC. IBM 5100 IBM 5100 El IBM 5100 era una computadora de escritorio introducido en septiembre de 1975. fue originalmente designado como el IBM 5150. servidores de archivos. aunque su arquitectura no descendia directamente del IBM 5100. una interface gráfica de usuario basada en ventanas. carpetas. red de Ethernet. Muchos de tales aficionados se reunieron e intercambiaron notas en las reuniones del . así que arrancarla requería un programa en lenguaje de máquina ingresado a mano por medio de los interruptores del panel frontal. Sistemas posteriores añadieron código bootstrapping para mejorar este proceso. otro efecto secundario que tuvo fue demostrar que el microprocesador había reducido tanto el costo y la complejidad de construir un microcomputador que cualquier persona con un interés podría construir su propia máquina. Poco después. mientras que Microsoft fue fundado para suministrar un interpretador BASIC para los sistemas. calidad y facilidad de uso. La introducción del Altair generó una industria entera basada en la diagramación básica y el diseño interno. con muchos otras siguiendo. Zilog Z80 e Intel 8085 a finales de los años 1970. el Altair sorprendió a sus creadores cuando generó miles de órdenes en el primer mes. Nuevas compañías como Cromemco comenzaron para suplir kits adicionales. una empresa pequeña que producía kits electrónicos para los aficionados. una posición a la vez. Las máquinas no contenían ningún sistema operativo en ROM. un número de diseños completos de clones apareció en el mercado. aunque uno relativamente complejo consistiendo de cuatro placas de circuito y muchas partes. tipificados por el IMSAI 8080. cargado desde un disco floppy. y las máquinas llegaron a ser casi universalmente asociadas con el sistema operativo CP/M. eran relativamente difíciles de usar. y muchos paquetes de software fueron escritos para él. El Altair creó una nueva industria de microcomputadores y de kits de computador. Homebrew Computer Club Aunque el Altair generara un negocio entero. máquinas de un generalmente mejorado desempeño. El CP/M-80 era el primer sistema operativo popular para microcomputador a ser usado por muchos diferentes vendedores de hardware. que entonces sería usado para leer otro programa "real". Incapaz de manejar la demanda. por ejemplo una ola de pequeños computadores de empresa basados en los microprocesadores Intel 8080. El programa era típicamente un pequeño driver para un lector de [Cinta perforada|cinta de papel perforado]]. de MITS. y esa máquina es considerada generalmente como el Altair 8800. Esto llevó a una amplia variedad de sistemas basados en el bus S-100 introducido con el Altair. el Altair fue vendido en forma de kit. MITS eventualmente vendió el diseño después de que cerca que 10. Similarmente a los proyectos anteriores de MITS.de tiempo antes de que uno de tales diseños pudiera impactar un punto ideal en términos de precio y desempeño. El Altair y los clones tempranos. El Altair fue introducido en un artículo de la revista Popular Electronics en la edición de enero de 1975. como el WordStar y dBase II. Valorado en solamente $400.000 kits de equipos fueron despachados. La mayoría corrían con el sistema operativo CP/M-80 desarrollado por Gary Kildall en Digital Research. Apple II abril de 1977: Apple II . tarjeta de video. habían varias empresas que competían para introducir los primeros verdaderamente exitosos computadores personales comerciales. De este deseo vino el computador Sol-20. La revista Byte posteriormente se refirió a su lanzamiento como la "Trinidad de 1977". o aún en términos de ensamblar varios add-ons que convirtieran a la máquina en un sistema útil. Completo con una copia de BASIC.100.000 sistemas Sol-20 fueron vendidos. de partes como el Altair original. y de compañías externas interesadas. Lo que ellos sentían necesario era un sistema todo en uno.Homebrew Computer Club (HCC) en Silicon Valley. Tres máquinas. Apple II. memoria y puertos . eventualmente vendiendo millones de máquinas. Cerca de 10. Aunque el Sol-20 fuera el primer sistema todo en uno que reconoceríamos hoy. el NorthStar Horizon. y el Heathkit H8. que puso un sistema S-100 completo . Otras máquinas de la era Otras máquinas de 1977 que fueron importantes dentro de la comunidad del aficionado en ese entonces incluyeron el Exidy Sorcerer. CPU. Aunque el HCC fuera relativamente de corta vida.en una sola caja atractiva. el sistema se vendió por US$2. Los miembros del grupo se quejaban de que los microcomputadores nunca llegarían a ser corrientes si todavía tuvieran que ser hechos. su influencia en el desarrollo del moderno PC fue enorme.teclado QWERTY. el concepto básico ondulaba ya a través de otros miembros del grupo. 1977 y la aparición de la "Trinidad" Por 1976. TRS-80 y PET 2001 fueron lanzadas en 1977. Los sistemas fueron empaquetados con un interface de cinta de cassette para el almacenamiento y un monitor de 12" en blanco y negro. que fueron montados en una carcasa de plástico estilizado de alta calidad. El Modelo I combinó la tarjeta madre y el teclado en una sola unidad con un monitor y una fuente de alimentación separados. visitante regular a las reuniones del Homebrew Computer Club. conocido retroactivamente como el Model I (Modelo I) cuando fueron introducidos modelos mejorados. y ranuras internas para la expansión. . Tenía gráficos de color. la última versión fue el "Apple DOS 3. el tiempo de vida del Apple II fue cerca de ocho años más largo que otras máquinas. Con especificaciones en la mano y un pedido de Byte Shop para 100 máquinas en $500. Fue empujada otra vez al 4to lugar cuando Atari introdujo sus populares sistemas Atari de 8 bits. Alrededor de 200 de las máquinas se vendieron antes de que la compañía anunciara el Apple II como un computador completo. cuando superó al PET. un teclado QWERTY completo. 2. El Apple DOS fue añadido para soportar la unidad de diskette. El sistema operativo original del Apple II era solamente el interpretador Integer BASIC contenido en el ROM. las estanterías de las más de 3000 tiendas Radio Shack de Tandy aseguraron de que tuviera una extensa distribución que ni Apple ni Commodore podían tocar. El monitor y los dispositivos de entrada/salida fueron vendidos por separado.1 millones habían sido vendidos y más de 4 millones de Apple II fueron despachados al final de su producción en 1993.15 A pesar de las lentas ventas iniciales. En 1985. diseñó el computador de tarjeta única Apple I y lo demostró por primera vez allí.Steve Wozniak (conocido como "Woz"). y así acumuló las ventas totales más altas. junto con una falta de sitios de distribución al por menor. Aunque el PET y Apple II ofrecieran ciertas características que fueron grandemente avanzadas en comparación.00 dólares cada uno.16 TRS-80 Noviembre de 1977: TRS-80 Modelo I Tandy Corporation introdujo el TRS-80. Su más alto precio y la falta de un BASIC de punto flotante. lo hicieron retrasarse en ventas detrás de otras máquinas de la Trinidad hasta 1979.3". Woz y su amigo Steve Jobs fundaron Apple Computer. y el 2001-8 con 8 KB. El modelo básico originalmente se despachaba con 4 KB de RAM. Apple había resuelto este problema con una hoja metálica interior pero este remiendo no trabajaría en el Modelo I. había quejas frecuentes sobre el minúsculo teclado tipo calculadora. que dio poco espacio para el teclado. Radio Shack había vendido 1.77 MHz (los modelos posteriores fueron despachados con un procesador Z80A). tamaño pequeño. El 2001 fue anunciado en junio de 1977 y las primeras 100 unidades fueron enviadas a mediados de octubre de 1977.18 El PET se despachó en dos modelos. designado a menudo un "Teclado tipo chiclet" debido a la semejanza de las teclas al popular caramelo de chiclet.16 PET Octubre 1977: Commodore PET Chuck Peddle diseñó el Commodore PET (abreviación de Personal Electronic Transactor) alrededor del procesador MOS 6502. En 1982. Esto fue corregido en las versiones actualizadas del "dash N" y "dash B" del 2001. Tandy decidió parar la fabricación del Modelo I. bien escrito BASIC de punto flotante e inclusión de un monitor y de un grabador de cassettes todo por $599 dólares.17 Puesto que el Modelo II y el Modelo III estaban ya en producción. Internamente fue . y para facilitar las entregas eventualmente cancelaron la versión de 4 kB a principios del siguiente año. un ahorro de $600 sobre el Apple II. Tandy decidido para de fabricar el Modelo I. el 2001-4 con 4 KB de RAM. el teclado. que pusieron el cassette fuera de la carcasa.19 Sin embargo se mantuvieron órdenes de pedido pendientes por meses.17 Ya que los Model II y Model III ya estaban en producción. La tarjeta procesadora. Sus otras características fuertes eran su teclado QWERTY completo.5 millones de modelos I para el momento de la cancelación en 1981.5 millones de Modelo I para su cancelación en 1981. e incluían un teclado mucho más grande con un movimiento completo. y más tarde con 16 KB. Aunque la máquina fuera bastante exitosa. monitor y unidad de cassette estaban todos montados en una sola caja metálica. Era esencialmente un computador de tarjeta única con un nuevo chip de exhibición de pantalla (el MOS 6545) que manejaba un pequeño monitor monocromático incorporado con gráficos de caracteres de 40×25. Radio Shack había vendido 1. La máquina también incluyó incorporado en el frente de la carcasa un Datassette para el almacenamiento de datos. Byte se refirió al diseño del PET como "el primer computador personal del mundo". El Modelo I corrió con un cierto problema cumpliendo las regulaciones de la FCC sobre interferencia de radio debido a su carcasa de plástico y cables exteriores.El Modelo I usó un procesador Zilog Z80 con un reloj de 1. junto con una mejora en memoria a 8. 16. tanto por sus exitosos juegos de arcade como Pong. Esto llevó a una explosión de máquinas de bajo costo conocidas como computadores caseros que vendieron millones de unidades antes de que el mercado implosionara en una guerra de precios a principios de los años 1980.16 Computadores caseros Aunque el éxito de las máquinas de la Trinidad fuera relativamente limitado en términos globales. El PET fue el menos excitoso de las máquinas de la Trinidad de 1977. Dándose cuenta que el VCS tendría un tiempo de vida limitado en el mercado antes de que viniera un competidor técnicamente avanzado. con menos de 1 millón en ventas. Atari 400/800 1979: Atari 800 Atari era una marca bien conocida a finales de los años 1970. conocidos como el 2001-N-8. Atari decidió que ellos serían ese competidor. las máquinas de la Trinidad golpearon el mercado con considerable fanfarria. En ese tiempo. Mientras estos diseños eran desarrollados. Su conocimiento del mercado casero a través del VCS resultó en máquinas que eran casi indestructibles y tan fáciles de usar como una máquina de juegos . llegaron a ser muy .simplemente se enchufaba un cartucho y listo. La gestión de Atari decidió cambiar su trabajo de una cónsola de video a un sistema de computador casero. ó 32 KB. Como consecuencia. las máquinas ofrecieron lo que entonces era un rendimiento mucho más alto que los diseños contemporáneos y un número de características gráficas y de sonido que ningún otro microcomputador podía igualar. y comenzó a trabajar sobre un nuevo diseño de consola que era mucho más avanzado. así como por la enormemente excitosa videoconsola Atari VCS. Las nuevas máquinas fueron introducidas por primera vez en 1978 como los Atari 400 y Atari 800. muchas compañías entraron al negocio de la computación. 2001-N-16 ó 2001-N-32. respectivamente. a medida que los precios de los componentes continuaron bajando. pero problemas de producción significaron que las ventas extensas no comenzaran hasta el año siguiente.utilizada una tarjeta madre más nueva y más simple. A pesar de un comienzo prometedor con cerca de 600. inicialmente enfocándose en las escuelas.en el papel su desempeño era intocable. No podían competir efectivamente con Commodore. a finales de 1979. la guerra de precios que se avecinaba dejó a Atari en una mala posición. Anunciado mucho antes de su llegada.16 Texas Instruments TI-99 TI-99 : Texas Instruments TI-99/4A Texas Instruments (TI).populares. Commodore 64 y Commodore Amiga 1982: Commodore 64 Artículo principal: Commodore VIC-20 Artículo principal: Commodore 64 Artículo principal: Commodore Amiga Dándose cuenta que el PET no podría competir fácilmente con las máquinas de color como Apple II y Atari. en ese entonces el fabricante más grande del mundo de chips. Cuando fue lanzado.000 vendidas en 1981. las limitaciones del TI-99 significaron que no era el asesino gigante que todo el mundo esperada. Commodore introdujo el VIC-20 para dirigirse el mercado casero. Un total de 2. y TI tenía reservas de efectivo y una capacidad enorme de desarrollo. Commodore VIC-20. la mayoría de los observadores industriales esperaban que la máquina barriera toda la competencia .8 millones de unidades fueron despachadas antes de que el TI-99/4A fuera descontinuado en marzo de 1984. Las limitaciones debido a una minúscula memoria de 4 KB y a su exhibición relativamente . y un número de sus características de diseño fueran altamente controversiales. rápidamente eclipsando las máquinas de la Trinidad en ventas. decidió entrar al mercado del computador personal con el Texas Instruments TI-99/4A. y solamente cerca de 2 millones de máquinas fueron producidas para el final de su producción. TI llevó un acercamiento algo lento para la introducción. Contrario a las predicciones anteriores. Guerra de precios y desplome Anteriormente. lo que limitó su atractivo comercial. accionando una amplia variedad de productos como el iPhone. y se fue a desarrollar el procesador del ARM (Acorn RISC Machine) para accionar los siguientes diseños. Acorn fue rescatada de la oscuridad. y buen control sobre el precio de los componentes. MOS Technology. El Micro era relativamente costoso. eventualmente se vendieron como 1. y compró MOS Technology. El computador personal con mejores ventas de todos los tiempos fue lanzado por Commodore International en 1982: El Commodore 64 (C64) vendió más de 17 millones de unidades antes de su fin. lanzado en 1987.14 MHz. El ARM es ampliamente usado hasta el día de hoy. juró que esto no sucedería otra vez. debido a sus buenas prestaciones y buen precio. fue el Amiga 500. Inc. y envió una propuesta para que un pequeño computador estandardizado fuera usado con el show. pero con un mercadeo extenso. Tramiel deliberadamente puso en marcha una guerra contra TI poco después de la introducción del Commodore 64. el cual iba equipado con un microprocesador Motorola MC68000 a 7. para asegurar una fuente de chips. Con su fuente garantizada. El CEO de Commodore.16 20 El nombre C64 era derivado de sus 64KB de RAM y también vino con una ranura lateral de soporte para cartuchos ROM. Entre 1985 y 1994 Commodore comercializó la serie de ordenadores Amiga como sucesora del C64. Inc.5 millones de unidades del sistema. . el soporte de la BBC y la gran variedad de programas. Texas Instruments había sacado a Commodore del mercado de las calculadoras bajando el precio de las calculadoras de su propia marca a menos del costo de los chipsets que ellos vendían a terceros para hacer el mismo diseño. Millones de VIC-20 fueron vendidos. Usó el microprocesador MOS 6510. Fue introducida con el Amiga 1000. seleccionaron lo que era conocido entonces como el Acorn Proton e hicieron un número de cambios menores para producir el BBC Micro. Jack Tramiel. le pertenecía entonces a Commodore. Después de examinar varios participantes. El modelo más exitoso.limitada en comparación a otras máquinas fueron compensadas por un precio bajo y siempre cayendo. BBC Micro El BBC Micro La BBC se interesó en hacer una serie en alfabetismo en computadores. no obstante con casi ningún beneficio. la arquitectura era capaz de acomodar hasta 640 KB de RAM en total. Además. . El primer modelo usaba un cassette de audio para almacenamiento externo. estaba basado en una arquitectura abierta basada en tarjetas. Usaba el CPU Intel 8088 corriendo a 4.El resultado fueron ventas masivas del Commodore 64. pero la posibilidad de vender una máquina con el nombre Atari en ella. incluso las propias finanzas de Commodore fueron lisiadas por las demandas de financiar la expansión masiva del edificio necesaria para despachar las máquinas. se reunió con los representantes de IBM quienes fueron incapaces de negociar un acuerdo estándar de confidencialidad con ella. Mientras que el diseño original del PC podía acomodar solo hasta 64 KB en la tarjeta madre. Al final. Versiones posteriores del diseño incrementaron el límite a 256 KB en la tarjeta madre. a los negocios era cercana a cero. los compradores de sistemas encontraron que la inutilidad real de los computadores en los hogares era algo limitante. aunque había una costosa opción de disco floppy. Las aplicaciones de negocio podían correr bien en estas máquinas. todo el mundo en el mercado del computador personal fue dañado por el proceso. y Tramiel fue sacado de la compañía. para una versión del CP/M para su próximo IBM PC. un sistema operativo basado en el CP/M-80 de Gary Kildall. con el resto en tarjetas.77 MHz. Como el Apple II y los sistemas S-100. Gates ofreció proporcionar el 86-DOS. En 1980. había pocos usos que podía soportar el mercado. quien ya estaba proporcionando el interpretador ROM BASIC para el PC.21 El XT añadió un disco duro de 10 MB en el lugar de uno de los dos discos floppy e incrementó el número de slots de 5 a 8. la compañía de Kildall. El IBM PC típico venía con el PC-DOS. pero todavía era un esfuerzo altamente técnico en el mundo previo a la era del World Wide Web. Aparte de jugar juegos. La esposa y compañera de negocios de Kildall. Las telecomunicaciones era una afición popular. muchas compañías yendo a la bancarrota o saliendo del negocio. El IBM PC 1981: IBM 5150 (el IBM PC) IBM respondió al éxito del Apple II con el IBM PC. Atari y Commodore fueron las únicos dos grandes actores que quedaron en el mercado por 1984. IBM se acercó a Digital Research. desarrollado por Tim Paterson de Seattle Computer Products.000 transistores. que permitía a terceros desarrollar en ella. y ambas tenían un piso financiero tambalenate. IBM se volvió a Bill Gates. Y mientras que el blanco de Tramiel era TI. lanzado en agosto de 1981. Dorothy McEwen. que contenía 29. La opción del cassette nunca fue popular y fue removida en el IBM XT de 1983. Ni el p-System ni el CPM-86 fueron éxitos comerciales. aunque otras pronto siguieron. Cuando se vendía por Microsoft. Clones del IBM PC El diseño original del IBM PC fue seguido en 1983 por el IBM XT. la porción clave del hardware era realmente el software BIOS embebido en la memoria de solo lectura. versiones posteriores fueron más fácilmente expandibles. el segundo fue el PC-DOS de IBM. Mientras que el límite arquitectural de la memoria de 640 KB fue el mismo. IBM introdujo el IBM Personal Computer/AT (llamado más frecuentemente el PC/AT o AT) construido alrededor del microprocesador Intel 80286. Fue la primera vez en la historia de la revista que a un objeto inanimado le fuera otorgado este premio. En 1984. Aunque obligatorio al principio. (ver lista de tempranos PCs compatibles del IBM PC). o Persona del año de 1982 (3 de enero de 1983. Las primeras máquinas verdaderamente compatibles vinieron de Compaq.IBM lo renombró como PC-DOS mientras que Microsoft posteriormente vendió variaciones y actualizaciones como MS-DOS. y el tercero fue el UCSD p-System (de la Universidad de California en San Diego). el DEC Rainbow 100. no fueron especialmente exitosas. el PC-DOS era llamado MS-DOS. Debido a que el IBM PC fue basado en circuitos integrados relativamente estándar. el Seequa Chameleon y muchos otros. y estuvo disponible con un disco duro de 10 MB. anteriormente mejor conocido por suministrar sistemas de lenguaje BASIC a las compañías de hardware de computadora. pues requerían una versión adaptada del MS-DOS. incluyendo el ACT Apricot. tenía más slots para tarjetas. tres sistemas operativos fueron anunciados inicialmente con el PC. Omitió el soporte para el cassette. El UCSD p-System OS fue hecho alrededor del lenguaje de programación Pascal y no fue mercadeado para el mismo nicho que los clientes de IBM. la mayoría eran comprados con unidades de disco y corrían con un sistema operativo. Este chip fue mucho más rápido y podía direccionar hasta 16 MB de RAM pero solo en un modo que en gran . y no podían correr programas específicamente diseñados para el hardware de IBM. El PC-DOS fue la versión de marca de IBM de un sistema operativo de Microsoft. Aunque el PC y el XT incluyeron una versión del lenguaje BASIC en memoria de solo lectura. y el diseño básico de la ranura de tarjetas no fue patentado. que fue un diseño mejorado incrementalmente. la unidad de disco duro fue posteriormente una opción y fue vendido un XT con dos discos floppy. El impacto del Apple II y del IBM PC fue completamente demostrado cuando la revista Time nombró al computador casero como la "Máquina del año". algunas compañías intentaron hacer computadores disponibles que pudieran correr el MS-DOS y programas. Uno fue el CP/M-86 de Digital Research. Debido a que el MS-DOS estaba disponible como un producto separado. el Hewlett-Packard HP-150. Estas tempranas máquinas. "The Computer Moves In"). parte rompía la compatibilidad con el anterior 8086 y 8088. En particular, el sistema operativo MS-DOS no fue capaz de tomar ventaja de esta capacidad. Apple Lisa y Macintosh 1984: Apple Macintosh 1983: Apple Lisa En 1983 Apple Computer introdujo el primer microcomputador mercadeado masivamente con una interface gráfica de usuario, el Lisa. El Lisa corría sobre un microprocesador Motorola 68000 y vino equipado con 1 MB de RAM, un monitor de 12 pulgadas en blanco y negro, doble unidad de disco floppy de 5¼ pulgadas y un disco duro Profile de 5 megabytes. Sin embargo, la lenta velocidad del sistema operativo del Lisa y el alto precio ($10.000) llevaron a su fracaso comercial. También llevó a Steve Jobs a la decisión de moverse para el equipo del Apple Macintosh. Basándose en la experiencia del Lisa, en 1984 Apple lanzó el Macintosh. Su debut fue anunciado en una sola transmisión durante el Super Bowl XVIII de 1984 del, ahora famoso, comercial de televisión "1984" creado por Ridley Scott y basado en la novela 1984 de George Orwell. La intención del comercial fue igualar al Hermano Mayor con el IBM PC y una anónima heroína femenina de acción (retratada por Anya Major), con el Macintosh. El Mac fue el primer computador exitoso manejado por un ratón con una interface gráfica de usuario o "WIMP" (Windows, Icons, Menus, and Pointers) (Ventanas, Íconos, Menús y Punteros). Basado en el microprocesador Motorola 68000, el Macintosh incluyó muchas de las características del Lisa a un precio de $2,495. El Macintosh fue introducido inicialmente con 128 KB de RAM y más tarde en ese año estuvo disponible el modelo con 512 KB de RAM. Para reducir costos comparado con el Lisa, el un año más joven Macintosh, tuvo un diseño de tarjeta madre simplificado, sin disco duro interno, y una sola unidad de disco floppy de 3.5". Las aplicaciones que vinieron con el Macintosh incluyeron el MacPaint, un programa de gráficos de mapa de bits, y MacWrite, que demostró el procesamiento de palabras WYSIWYG. Aunque no fué un éxito inmediato tras su lanzamiento, El Macintosh fue un computador personal exitoso en años por venir. Esto es debido particularmente a la introducción de la publicación de escritorio en 1985 a través de la asociación de Apple con Adobe. Esta asociación introdujo la impresora LaserWriter y Aldus PageMaker (ahora Adobe PageMaker) a los usuarios de computadores personales. Después Steve Jobs renunció a Apple en 1985 para comenzar con el NeXT. Un número de diferentes modelos de Macintosh, incluyendo el Macintosh Plus y el Macintosh II, fueron lanzados con un alto grado de éxito. La linea entera de los computadorees Macintosh fue la mayor competencia a IBM hasta principios de los años 1990. Las GUI proliferan 1985: Atari ST En el mundo de Commodore, el GEOS estaba disponible en el Commodore 64 y el Commodore 128. Mas tarde, una versión estuvo disponible para los PC corriendo DOS. Podía usarse con un ratón o un joystick como dispositivo de apuntar, y vino con una suite de aplicaciones GUI. La última línea de productos Commodore, la plataforma Amiga, corría un sistema operativo con GUI por defecto. El Amiga estableció el plan piloto para el desarrollo futuro de los computadores personales con sus innovadoras capacidades de gráficos y sonidos. Byte lo llamó "el primer computador multimedia... tan adelantado a su tiempo que casi nadie pudo articular completamente de lo que se trataba".22 En 1985, el Atari ST, también basado en el microprocesador Motorola 68000, fue introducido con el primer GUI de color en el Atari TOS. Podía ser modificado para emular el Macintosh usando el dispositivo Spectre GCR de un tercero. En 1987, Acorn lanzó el Archimedes, un rango de computadores caseros de alto desempeño en Europa y Australia. Basado alrededor de su procesador ARM RISC de 32 bits, los sistemas se despacharon inicialmente con un GUI llamado Arthur. En 1999, Arthur fue sustituido por un sistema operativo multitarea basado en GUI llamado RISC OS. Por defecto, el ratón usado en estos computadores tenía tres botones. Los clones de PC dominan La transición entre el mercado de compatibles de PC siendo liderado por IBM a uno liderado primariamente por un mercado más ámplio comenzó a estar claro en 1986 y 1987; en 1986 fue lanzado el microprocesador Intel 80386 de 32 bits, y el primer computador compatible PC basado en el 386 fue el Compaq Deskpro 386. La respuesta de IBM vino cerca de un año más tarde con el lanzamiento inicial de la serie de computadores IBM Personal System/2, que tenían una arquitectura cerrada y fueron una desviación del emergente "PC estándar". Estos modelos fueron grandemente no exitosos, y las máquinas de estilo clon de PC superaron las ventas de todas las otras máquinas a lo largo de este período. 23 Hacia el final de los 1980, los clones de IBM XT comenzaron a tomar el control del segmento del mercado del computador casero de los fabricantes especializados como Commodore International y Atari que habían dominado previamente. Estos sistemas típicamente se vendieron por justo bajo el "mágico" punto de precio de $1000 (típicamente $999) y fueron vendidos vía pedido por correo en vez de una tradicional red de distribución. Este precio fue logrado al usar tecnología vieja de 8/16 bits, como con el CPU 8088, en vez de los 32 bits de los últimos CPU Intel. Estos CPU eran usualmente hechos por un tercero cono Cyrix o AMD. Dell comenzó como uno de esos fabricantes, bajo su nombre original PC Limited. Décadas de 1990 y 2000 NeXT En 1990, el computador estación de trabajo NeXTstation salió a la venta, para computación "interpersonal", como lo describió Steve Jobs. El NeXTstation se pretendía que fuera un computador para los años 1990, y fue una más barata versión que el previo NeXT Computer. El NeXTstation fue un tanto un fracaso comercial, y NeXT cerró sus operaciones de hardware en 1993. CD-ROM y CD-RW, MP3 Las unidades de CD-ROM y CD-RW se volvieron estándar para la mayoría de los computadores personales Los principios de los años 1990 vieron el advenimiento del CD-ROM como un estándar de la industria por venir, y a mediados de los años 1990 habia uno incorporado en casi todos los computadores de escritorio y hacia el final de los años 1990, también en laptops. Aunque introducido en 1982, el CD-ROM fue en su mayor parte usado para el audio durante los años 1980, y entonces para los datos de computadora como con los sistemas operativos y aplicaciones en los años 1990. Otro popular uso de los CD-ROM en los años 1990 fue su uso multimedia, a medida que muchos computadores de escritorio comenzaron a incluir altavoces estéreo incorporados, capaces de reproducir música con calidad de CD y sonidos con la tarjeta de sonido Sound Blaster en los PC. El ROM en el CD-ROM significa Read Only Memory (memoria de solo lectura). Posteriormente, unidades reescribibles CD-RW fueron incluidas en lugar de las unidades de CD ROM estándar. Esto permitió a los computadores personales la capacidad de "quemar" CD's de audio estándar que eran reproducibles en cualquier reproductor de CD. Mas tarde, a medida que el hardware de computadora fuera más poderoso y el formato mp3 se hizo popular, "ripear" CDs en archivos comprimidos pequeños en el disco duro del computador se volvió habitual. Redes de computadores de intercambio de archivos como Napster y Gnutella surgieron y para muchos individuos supuso la actividad primaria del computador. ThinkPad IBM ThinkPad R51 IBM introdujo su exitoso rango ThinkPad en COMDEX 1992 usando la serie de designadores 300,500 y 700 (pretendidamente análogo al rango de coches BMW y usado para indicar el mercado), La serie 300 siendo el "económico", la serie 500 el "rango medio" y la serie 700 el "rango alto". Esta designación continuó hasta finales de los 1990 cuando IBM introdujo a serie "T" como reemplazo de las series 600/700, y los modelos de las series 3, 5 y 7 fueron eliminados y sustituidos por las series A (367) y X (5). La serie A fue más tarde parcialmente reemplazada por la serie R. el Macintosh se mantuvo con una reducida cuota de mercado.5 pulgadas pero falló en hacerlo. Power Macintosh. ya no estaban en el mercado.Zip drive En 1994. Apuntaba a reemplazar el disco floppy estándar de 5. Para el 2008.000 unidades producidas entre octubre de 1995 y enero de 1997. que sustituía al Acorn Archimedes. Be Inc. sin embargo los CD escribibles son más comunes. Estos nuevos computadores hicieron uso de los nuevos procesadores Motorola PowerPC como parte de la AIM alliance. pero eran costosas y grandemente sin éxito debido a problemas de confiabilidad. Dell ascendió para tener altas ganancias y éxito. particularmente los de las industrias gráficas y de publicación. para reemplazar la arquitectura Motorola 68k previamente usada para la línea Macintosh. Otras competencias previas como el Sinclair y Amstrad ya no estaban en el mercado de los computadores. Durante los 1990. . SyQuest fue una marca popular de medios y unidades renovables. Risc PC También en 1994. PowerPC En 1994. Apple introdujo la serie Power Macintosh de computadores de escritorio de rango alto para la publicación de escritorio y diseñadores gráficos. pero fue la primera opción para los profesionales creativos. Acorn Computers lanzó su serie Risc PC de computadores de escritorio de rango alto. BeBox En 1995. el Zip drive fue introducido por Iomega como un sistema de almacenamiento de disco renovable de mediana capacidad. Dell superó a Compaq como el fabricante de computadores más grande del mundo y mantuvo esa posición hasta octubre de 2006. introduciendo sistemas de bajo costo apuntando a mercados de consumidores y de negocios usando un modelo de ventas directas. cuando la producción cesó. lanzó el computador BeBox. con menos de 2. El BeBox fue grandemente un fracaso. Antes de que el Zip fuera introducido. sacados por la fuerte competencia y los bajos precios de los clones del IBM PC. Commodore y Atari. Con menos competencia que antes. y posteriormente a 133 Mhz con el sistema operativo BeOS. Dell Por mediados de los años 1990. un procesador PowerPC 603 dual corriendo a 66 MHz. Los Zip drives todavía eran vendidos. los sistemas Amiga. El Risc PC (nombre código Medusa) fue la siguiente generación de computadores RISC OS de Acorn basados en el ARM. 1 en 1992 y Windows 95 en 1995. un tipo de RAM dinámica sincrónica. unidades flash USB. Este crecimiento fue aumentado por la introducción del sistema operativo Microsoft Windows 3.0 en 1990. RDRAM también tenía dos a tres veces el precio de una SDRAM PC 133 debido a una combinación de alto costo de fabricación y altas tarifas de licencia. La RDRAM es muy rara hoy en día. . así como por descartar dispositivos heredados como el disco floppy y los puertos seriales en favor de la conectividad Ethernet y USB. El iMac fue notable por su carcasa azul de cuerpo transparente en una forma ergonómica. Steve Jobs retornó a Apple en 1997 y llevó a Apple de vuelta a la rentabilidad. El iMac vendió varios millones de unidades y un modelo subsecuente usando un factor de forma diferente permaneció en producción hasta julio de 2008. y con los computadores PowerMac G3 y el iMac para los mercados profesional y hogareño. Rambus RDRAM Las primeras tarjetas madres en soportar la memoria Rambus RDRAM (Rambus Direct DRAM). primeramente con el lanzamiento del Mac OS 8. resurgimiento de Apple El iMac de 1998 trajo a Apple de vuelta a los beneficios Debido al crecimiento en ventas de los clones de IBM en los años 1990. reproductor de DVD Desde finales de los años 1990. éstos se convirtieron en el estándar para los usos en los negocios y el hogar. USB. comenzaron a venderse muchos más computadores que incluían puertos Universal Serial Bus (USB) para fácil conectividad Plug and Play con dispositivos como cámaras digitales. y otros dispositivos periféricos. El Macintosh fue enviado a un período de declinación a mediados de los años 1990. Hacia principios del siglo XXI. y seguido por los sistemas operativos Windows 3. El Mac OS X. Apple casi estaba en bancarrota. asistentes digitales personales. cámaras de video. También durante finales de los años 1990. impresoras. scanners. un nuevo sistema operativo para los computadores Macintosh. y por 1996. todos los computadores vendidos para el mercado de consumo incluyeron al menos 2 puertos USB. fueron lanzadas en 1999. los reproductores DVD comenzaron a aparecer en los computadores de escritorio y laptops de alta gama.Los clones como estándar. el iLife y el iBook fueron posteriormente introducidos por Apple. y eventualmente en los computadores de consumo en la primera década del siglo XXI. la línea de laptops que habían sido uno de los productos más exitosos de IBM. laptops y servidores para muchos diferentes mercados. Compaq a sí mismo había comprado Tandem Computers en 1997 (que había comenzado con ex empleados de HP). y entonces gradualmente remplazaron los procesadores de 32 bits de escritorios y laptops del consumidor cerca de 2005. monitor LCD. que es poseído parcialmente por el gobierno chino. 64 bits En 2003. Los procesadores de 64 bit primero fueron comunes en sistemas de gama alta. su línea de microprocesadores basados en 64 bits para las computadoras de escritorio. y a Digital Equipment Corporation en 1998. quien moverá sus cuarteles generales al Estado de Nueva York y designará a un ejecutivo de IBM como su director general. Después de esta estrategia HP se convirtió en un jugador importante en escritorios. y terminado en mayo de 2005. lanzando versiones actualizadas de sus líneas de Xeon y Pentium 4. El trato fue aprobado por el Committee on Foreign Investment in the United States en marzo de 2005. Hewlett-Packard (HP) compró a Compaq. Intel reaccionó al éxito de AMD con procesadores basados en 64 bits. el Wi-Fi comenzó a llegar a ser cada vez más popular a medida que muchos consumidores comenzaron a instalar sus propias redes inalámbricas caseras. Lenovo En 2004. También en 2003. Lenovo heredó una línea de productos que ofrecía el ThinkPad. La compañía conservará el derecho de usar ciertas marcas de fábrica de IBM por un período inicial de cinco años. hasta que Dell lo sobrepasara más tarde. por US$650 millones en efectivo y $600 millones en acciones de Lenovo. IBM tendrá 19% de stake??? en Lenovo. En 2004. Wi-Fi. También a principios del siglo .Hewlett-Packard En 2002. La compra de participaciones hizo a HP el fabricante más grande de computadores personales del mundo. Muchos de los laptops de hoy en día y también algunos computadoras de escritorio son vendidos con tarjetas inalámbricas y antenas preinstaladas. Como resultado de la compra. servidores y estaciones de trabajo. IBM anunció la venta propuesta de su negocio de PC al fabricante de computadores chino Lenovo Group. IBM lanzó el PowerPC 970 basado en 64 bits para sistemas del alta gama Power Mac G5 de Apple. AMD presentó el Opteron y Athlon 64. procesador mulinúcleo. memoria flash USB Wi-Fi A principios del siglo 21. y económicos que los monitores CRT. Servidores y redes basados en microprocesadores La invención a finales de los años 1970 de las redes de área local (LANs). más que los PC de escritorio. De la última figura. La granja de servidores de Google es probablemente la más grande. brillantes. La primera década del siglo 21 también vió el crecimiento de procesadores multinúcleo y de la memoria Flash. comparado con solamente un 13 porciento en 1985.5 porciento de los PC enviados había sido computadores de escritorio.26 .25 El tercer trimestre de 2008 marcó la primera vez en que los laptops se vendieron. los monitores LCD se convirtieron en la tecnología más popular para los monitores de computadora. con un desempeño total tres veces mayor que el Earth Simulator o el Blue Gene. pero desapareció. versiones más robustas de la misma tecnología fueron usadas para producir servidores basados en microprocesador que también podían ser conectados a una LAN. laptops que descartan el disco duro enteramente y confían en la memoria Flash para el almacenamiento. tanto de Unix como de Microsoft Windows. En 2008 fueron lanzados el [[MacBook Air] y el Asus Eee PC. 125 millones de computadores personales fueron vendidos. en 1977. Esto fue facilitado por el desarrollo de sistemas operativos de servidor para correr en la arquitectura Intel. permitió a los PC comunicarse unos con otros (peer-to-peer) y con impresoras compartidas. y los mainframes fueron restringidos en gran parte a usos especializados.24 Casi la mitad de todos los hogares en Europa occidental tenía un computadorr personal y un computador podía ser encontrado en el 40 porciento de hogares en el Reino Unido. notablemente Ethernet. Una vez limitado al uso industrial de gama alta debido al costo. Con el desarrollo de las redes de área de almacenamiento y de las granjas de miles de servidores. Mercado En 2001. 16. en los Estados Unidos. Más de 500 millones de PC estaban en uso en 2002 y mil millones de computadores personales habían sido vendidos por todo el mundo desde mediados de los años 1970 hasta este tiempo.21. por el año 2000 el minicomputador tenía todo. Cerca del 81. Estados Unidos había recibido el 38. con la producción del CRT disminuyendo.7 porciento había ido a la región del pacífico asiático. Los monitores del LCD son típicamente más nítidos. A medida que la revolución del microcomputador continuó. Europa el 25 porciento y el 11. el 75 porciento era profesional o tenía un trabajo relacionado. mientras que el resto se vendió para el uso personal o casero. para el 29 de septiembre de 2004. en comparación con los 48 mill. el mercado de crecimiento más rápido desde 2002.8 porciento (394 millones) de los computadores enviados.1 porciento servidores. estas tecnologías ahora están en la corriente principal y disponibles ahora para los consumidores. incluyendo varias versiones.4 porciento laptops y 2. Los mercados maduros como Estados Unidos.27 28 . Se esperaba que cerca de 180 millones de PC (el 16 porciento de la base instalada existente) fueran substituidos y 35 millones deshechados en 2008. La entera base instalada creció el 12 porciento anualmente. Europa occidental y Japón representaron el 58 porciento de las PC instaladas.Por junio de 2008. el número de los computadores personales en uso alrededor del mundo llegó a los mil millones. y procura ponerlos en contexto. un mecanismo de la antigua Grecia (aprox. en contenedores. Se piensa que la forma más antigua de este dispositivo ²el ábaco de polvo² fue inventado en Babilonia. Una máquina más aritmética es el ábaco. contadores y los oficiales del gobierno de la época.). Hasta hoy. Puesto que las calculadoras digitales confían . algunas de las invenciones de Al-Biruni (aprox.Historia del hardware El hardware ha sido un componente importante del proceso de cálculo y almacenamiento de datos desde que se volvió útil para que los valores numéricos fueran procesados y compartidos. Algo similar se puede encontrar cerca de las excavaciones de Minoan. la regla de cálculo. aunque en el caso de los cálculos más complejos. El hardware de computación es la máquina física. probablemente ganado o granos. el computadora analógica y los más recientes. 1000 d. Introducción Los computadores pueden ser separados en software y hardware. el Planisferio. los cálculos fueron hechos por seres humanos. quienes fueron llamados computadores. que bajo la dirección de un programa. El hardware de computador más primitivo fue probablemente el palillo de cuenta. almacena y manipula los datos. Este artículo cubre los principales desarrollos en la historia del hardware de computación. C. la computadora u ordenador. y otros computadores analógicos de astrónomos e ingenieros musulmanes.C. C. Los dispositivos de ayuda provenientes de la computación han cambiado de simples dispositivos de grabación y conteo al ábaco. como título del trabajo o profesión. El artículo Historia de la computación trata de los métodos previstos para la pluma y el papel. Originalmente. los computadores son más efectivos que el humano más experimentado. Los dispositivos más antiguos La humanidad ha usado dispositivos de cómputo por milenios. El ábaco egipcio del grano y del alambre datan del año 500 A. el Ecuatorio de Azarquiel (alrededor de AD 1015).1 después grabado permitía recordar cierta cantidad de elementos. Un ejemplo es el dispositivo para establecer la igualdad de peso: las clásicas balanzas. Entre ellos estaba: el Mecanismo de Anticitera. 150-100 a.). un usuario experimentado del ábaco usando un dispositivo que tiene más de 100 años puede a veces completar operaciones básicas más rápidamente que una persona inexperta en el uso de las calculadoras electrónicas. En la antigüedad y en la edad media se construyeron algunos computadores analógicos para realizar cálculos de astronomía. con o sin la ayuda de tablas. Para una detallada línea de tiempo vea el artículo línea de tiempo de la computación. Estos elementos parecen haber sido usadas por los comerciantes. Posteriores ayudas para mantener los registros incluyen la arcilla de Fenicia que representaban conteos de artículos en contenedores. Desde entonces. por ejemplo en una casa de cuenta medieval.en el almacenamiento digital. Los engranajes están en el corazón de dispositivos mecánicos como la calculadora de Curta.715. Una máquina más orientada hacia la aritmética es el ábaco. la historia del almacenamiento de datos del computador está unido al desarrollo de las computadoras.302. y tienden a estar limitadas por el tamaño y la velocidad de la memoria. y los computadores astronómicos análogos de otros astrónomos e ingenieros musulmanes medievales.408) Durante milenios. AD 1000). había sido usado en Babilonia tan temprano como en 2. y los marcadores se movían alrededor en ella según ciertas reglas. la humanidad ha usado dispositivos para ayudar en los cálculos. Un número de computadores análogos fueron construidos en épocas antiguas y medioevales para realizar cálculos astronómicos.400 A.C. Otras versiones tempranas de dispositivos mecánicos usados para realizar ciertos tipos de cálculos incluyen el Planisferio. el Equatorium de Azarquiel (c.. un paño a cuadros sería colocado en una mesa. La forma más temprana de ábaco. 150-100 A. AD 1015). El dispositivo de contar más temprano fue probablemente una cierta forma de palito de contar. el ábaco de polvo.). algunas de las invenciones de Al-Biruni (c. probablemente ganado o granos. Estos dispositivos son usualmente considerados como las primeras computadoras análogas. Primeras calculadoras Suanpan (el número representado en el cuadro es 6. como una ayuda para calcular sumas de dinero. Éstos incluyen el mecanismo de Anticitera y el astrolabio de la Grecia antigua (c. muchas otras formas de tablas de contar han sido inventadas. .C. 2 Puesto que su máquina usó técnicas tales como dientes y engranajes desarrollados primero para los relojes. Siguieron las máquinas de Blaise Pascal (la Pascalina. una calculadora mecánica básica. Las reglas de cálculo fueron usadas por generaciones de ingenieros y de otros trabajadores profesionales con inclinación matemática. multiplicar. 1642) y de Gottfried Wilhelm von Leibniz (1671). y fue en este punto que diseñó los huesos de Napier. que eran exactas a tres o cuatro dígitos significativos. respectivamente.John Napier (1550-1617) observó que la multiplicación y la división de números pueden ser realizadas por la adición y la sustracción. Puesto que los números reales pueden ser representados como distancias o intervalos en una línea. Estaba basado principalmente en el trabajo de Leibniz. de los logaritmos de esos números. En 1623. la regla de cálculo fue inventada en los años 1920 para permitir que las operaciones de multiplicación y de división se realizarán perceptiblemente más rápidamente que lo que era posible previamente. restar. hicieron muchos de sus cálculos en reglas de cálculo. un dispositivo similar a un ábaco usado para la multiplicación y la división. Mientras producía las primeras tablas logarítmicas Napier necesitó realizar muchas multiplicaciones. y dividir. Una original calculadora de Pascal (1640) es presentada en el museo de Zwinger. facilita la multiplicación y la división. El Aritmómetro de Thomas. también fue llamada un 'reloj calculador'. Las . Fue puesto en uso práctico por su amigo Johannes Kepler. Calculadora mecánica de 1914. Wilhelm Schickard construyó la primera calculadora mecánica digital y por lo tanto se convirtió en el padre de la era de la computación. que podía sumar. Alrededor 1820. La regla de cálculo. Los ingenieros del programa Apollo para enviar a un hombre a la Luna. quien revolucionó la astronomía. hasta la invención de la calculadora de bolsillo. Charles Xavier Thomas de Colmar creó la primera calculadora mecánica excitosa producida en serie. Jean-Baptiste Falcon. el Comptómetro. Tan temprano como en 1725. y en 1726 su compañero de trabajo. el Curta y el Addo-X permanecieron en uso hasta los años 1970. un ingrediente central de todas las computadoras modernas. incluyendo las máquinas de Charles Babbage de los años 1800 e incluso el ENIAC de 1945.calculadoras mecánicas. 1801: Tecnología de tarjeta perforada Sistema de tarjeta perforada de una máquina de música. la calculadora Monroe. Sistema de tarjeta perforada de un telar del siglo XIX. Basile Bouchon. Sin embargo. mejoró su diseño al usar tarjetas . quien fue alumno de Carlos Bruné. Leibniz también describió el sistema de numeración binario. hasta los años 1940. como el Addiator de base diez. muchos diseños subsecuentes fueron basados en el difícil de implantar sistema decimal. usó un lazo de papel perforado en un telar para establecer el patrón a ser reproducido en la tela. Todas las partes para su máquina tenían que ser hechas a mano. Era el plan de una computadora programable de propósito general. que. empleando tarjetas perforadas para la entrada y un motor de vapor para la energía. En 1801.perforadas de papel unidas una a la otra para la eficacia en adaptar y cambiar el programa. El telar de Bouchon-Falcon era semiautomático y requería la alimentación manual del programa. La idea de Babbage pronto se desarrolló en una computadora programable de propósito general. Charles Babbage avanzó desde desarrollar su máquina diferencial a desarrollar un diseño más completo. su máquina analítica. la máquina analítica. el proyecto fue retardado por varios problemas. En una máquina con miles . Joseph Marie Jacquard desarrolló un telar en el que el patrón que era tejido era controlado por tarjetas perforadas. para su programación. A pesar que su diseño era brillante y los planes eran probablemente correctos. Herman Hollerith inventó una máquina tabuladora usando tarjetas perforadas. En 1835 Charles Babbage describió su máquina analítica. En 1833. Babbage era un hombre difícil para trabajar con él y discutía con cualquier persona que no respetara sus ideas. Su idea inicial era usar las tarjetas perforadas para controlar una máquina que podía calcular e imprimir con precisión enorme las tablas logarítmicas (una máquina de propósito específico). o por lo menos depurables. [1]. En los años 1890. Esto un hito en programabilidad. tomaría prestada directamente las tarjetas perforadas del telar Jacquar. La serie de tarjetas podría ser cambiada sin cambiar el diseño mecánico del telar. y las publicaciones de Wallace Eckert sobre Métodos de Tarjetas Perforadas en la Computación Científica en 1940. "No doblar. La Oficina de Computación Astronómica Thomas J. Algunos creen que la tecnología de ese tiempo no podía producir partes de suficiente precisión. trabaja como Babbage la diseñó y demuestra que Babbage estaba correcto en teoría. muchos en el campo de la computación llaman a esta clase obsesión creeping featuritis (algo así como "caracterititis creciente". a veces los pequeños errores en cada elemento pueden acumularse. la tarjeta de IBM había llegado a ser ubicua en la industria y el gobierno. terminando en grandes discrepancias. Irlanda. describieron técnicas que fueron suficientemente avanzadas para solucionar ecuaciones diferenciales. pero también con su deseo de desarrollar una computadora cada vez más sofisticada. Hoy.de partes. el deseo de agregar cada vez más y más características). más limitado. las máquinas de ordenamiento. un diseño anterior.3 Siguiendo los pasos de Babbage. siguiendo las tolerancias que habría podido alcanzar un maquinista de ese período. Con algunos cambios triviales. Una reconstrucción la Máquina Diferencial II. de la Universidad . La advertencia impresa en la mayoría de las tarjetas previstas para la circulación como documentos (cheques. La falla de Babbage en terminar la máquina puede ser principalmente atribuida a dificultades no solamente relacionadas con la política y el financiamiento. por ejemplo). se convirtió en un lema para la era posterior a la Segunda Guerra Mundial. Watson. que describió en un trabajo que fue publicado en 1909. es decir. La IBM desarrolló la tecnología de la tarjeta perforada en una poderosa herramienta para el procesamiento de datos de negocios y produjo una extensa línea de máquinas tabuladoras especializadas. La compañía de Hollerith eventualmente se convirtió en el núcleo de IBM. ha estado operacional desde 1991 en el Museo de Ciencia de Londres. aunque ignorante de este anterior trabajo. Ella ha sido asociada cercanamente con Babbage. El proyecto se disolvió en conflictos con el artesano que construyó las partes y fue terminado cuando se agotó el financiamiento del gobierno. todo ello hecho con tarjetas perforadas y las máquinas de registro de unidades??. realizar multiplicación y división usando representaciones de punto flotante. no perforar ni mutilar". la Oficina del Censo de los Estados Unidos usó tarjetas perforadas. El museo usó máquinas herramientas operadas por computador para construir las partes necesarias. Esto requería que estas partes fueran mucho mejores que las tolerancias que podían obtenerse con la tecnología de esa época. hija de Lord Byron. Algunos afirman que ella fue el primer programador de computadoras del mundo. Ada Lovelace. En 1890. Percy Ludgate. no obstante esta afirmación y el valor de sus otras contribuciones son discutidos por muchos. Conte Menabrea. un contable de Dublín. diseñó independientemente una computadora mecánica programable. Por 1950. tradujo y agregó notas al "Sketch of the Analytical Engine" por Federico Luigi. y las máquinas tabuladoras diseñadas por Herman Hollerith para manejar la inundación de datos del censo decenial ordenado por la constitución de Estados Unidos. Los artículos de Leslie Comrie sobre métodos de tarjetas perforadas. aunque esto aparece ser falso. compilado. una tarjeta por línea de programa. En muchos casos estos resultados serían solamente un listado de mensajes de error con respecto a la sintaxis. Por ejemplo. restar. La palabra "computador" era un título de trabajo asignado a la gente que usaba estas calculadoras para realizar cálculos matemáticos. Por los años 1900. cajas registradoras. Durante el Proyecto Manhattan. Richard . las primeras calculadoras mecánicas. 1930s-1960s: Calculadoras de escritorio Calculadora de Curta. en muchas universidades alrededor del mundo los estudiantes de ciencia e ingeniería someterían sus asignaciones de programación al centro de computación local en forma de una pila de tarjetas. y programas alrededor del mundo. necesitando otro ciclo de edición-compilación-ejecución[2]. Marchant Calculator y Monroe hicieron calculadoras mecánicas de escritorio que podían sumar. En espera para la impresión de cualquier resultado. multiplicar y dividir. etc. Ver también Programación de la computadora en la era de la tarjeta perforada. registros. del programa. y entonces tenían que esperar que el programa estuviera en cola para ser procesado. sería puesto en una bandeja de salida fuera del centro de computación. Las tarjetas perforadas todavía son usadas y manufacturadas a este día. y sus dimensiones distintivas (y la capacidad de 80 columnas) todavía pueden ser reconocidas en formas. marcado con la identificación de quien lo solicitó.de Columbia realizó cálculos astronómicos representando el estado del arte en la Computación. Desde los años 1930. con la posición de engranajes como representación para el estado de una variable. etcétera fueron rediseñadas para usar motores eléctricos. máquinas de contabilidad. las tarjetas perforadas fueron usadas hasta (y después) del final de los años 1970. el futuro laureado premio Nobel. compañías como Friden. En muchas instalaciones de computación. y ejecutado. las computadoras análogas mecánicas y eléctricas eran consideradas el "estado del arte". Éste era una calculadora mecánica pequeña y portable. Tenía un diseño completamente transistorizado. la capacidad 13 dígitos en un CRT de 5 pulgadas (130 mm). inercia. El modelo EC-132 añadió la raíz cuadrada y funciones recíprocas. que tenía el tamaño aproximado de una amoladora de pimienta. Después de la guerra. . durante los años 1950 y los años 1960 aparecieron en el mercado una variedad de diferentes marcas de calculadoras mecánicas. 1938.Feynman. Computadoras análogas avanzadas Analizador diferencial de Cambridge. que entendían las ecuaciones diferenciales que eran solucionadas para el esfuerzo de la guerra. las calculadoras grandes y costosas fueron sustituidas por dispositivos electrónicos más pequeños. una calculadora de escritorio transistorizada de 10 dígitos que usaba una exhibición de tubo Nixie y podía computar logaritmos.y las matemáticas de otros fenómenos físicos. Con el desarrollo de los circuitos integrados y los microprocesadores. etc. Con el tiempo. En 1965. En 1948. Artículo principal: Computador analógico Antes de la Segunda Guerra Mundial. Friden introdujo la EC-130 de cuatro funciones. En junio de 1963. muchos de ellos eran matemáticos mujeres.la posición y el movimiento de ruedas o el voltaje y la corriente de componentes electrónicos -. y muchos pensaban que eran el futuro de la computación. trayectorias balísticas. fue el supervisor de un cuarto lleno de computadoras humanas. ej. Las computadoras análogas toman ventaja de las fuertes similitudes entre las matemáticas de propiedades de pequeña escala -. e introdujo la notación polaca inversa (RPN) al mercado de las calculadoras con un precio de $2200.VII británica. momento. transferencia de energía. los laboratorios Wang produjeron el LOCI-2. incluso el renombrado Stanislaw Ulam fue presionado en servicio para traducir las matemáticas a aproximaciones computables para la bomba de hidrógeno. La primera calculadora de escritorio completamente electrónica fue la ANITA Mk. que usaba una pantalla de tubo Nixie y 177 tubos tiratrón subminiatura. resonancia. fue introducido el Curta. significaron el fin para la mayoría de las máquinas análogas de . inventado en 1876 por James Thomson y construido por H. Nieman y Vannevar Bush en el MIT comenzando en 1927.Modelar los fenómenos físicos con las propiedades eléctricas rinde una gran ventaja sobre usar modelos físicos: 1. que entonces podían producir soluciones análogas a esos problemas. Las computadoras análogas tenían una ventaja sobre los primeros computadores digitales en que podían ser usadas para solucionar problemas complejos usando comportamientos análogos mientras que las primeras tentativas en las computadoras digitales eran absolutamente limitadas. La más útil de las analogías fue la manera en que el comportamiento en pequeña escala podía ser representado con ecuaciones integrales y diferenciales. RAM o almacenamiento interno). y necesitan ser reconfiguradas (es decir. reprogramadas) manualmente para cambiarlas para trabajar de un problema a otro. eléctricos se pueden hacer que ocurran en marcos de tiempo convenientemente cortos. Un ejemplo es el Mark I Fire Control Computer. 2. donde también fue construido el ENIAC. El arte de la computación anáógica alcanzó su cenit con el Differential analyser. A diferencia de las computadoras digitales modernas. los componentes eléctricos son más pequeños y baratos. un ejemplo eléctrico es la máquina de Mallock construida en 1941. el más poderoso fue construido en la Escuela Moore de Ingeniería Eléctrica en la Universidad de Pensilvania. desplegado por la Armada de los Estados Unidos en una variedad de naves desde los destructores a los acorazados. Otros ejemplos incluyeron el Heathkit EC-1. y la computadora hidráulica MONIAC. Un ingenioso ejemplo de tal máquina fue el integrador de agua construido en 1928. Aunque de otra manera similar. y por lo tanto podía ser usado para solucionar esas ecuaciones. Pero a medida que las computadoras digitales han venido siendo más rápidas y usaban memorias más grandes (ej. Las computadoras electrónicas digitales. como el ENIAC. Fueron construidas menos de una docena de estos dispositivos. los fenómenos. las soluciones eran a menudo hardcoded en las formas de papel como gráficas y nomogramas. y la programación de computadores. tales como los sistemas Norden bombsight y Fire-control system para embarcaciones navales. las computadoras análogas no eran muy flexibles. los sistemas trabajaron creando análogos eléctricos de otros sistemas. Algunos de éstos permanecieron en uso por décadas después de la segunda guerra mundial. permitiendo a los usuarios predecir el comportamiento de los sistemas de interés al observar los análogos eléctricos. han desplazado casi completamente a las computadoras análogas. tales como la distribución de presiones y temperaturas en un sistema de calefacción. son más fácilmente construidos y ejercitados. Puesto que las computadoras eran raras en esta era. Centralmente. W. o codificación ha surgido como otra profesión humana. Algunas de las computadoras análogas más extensamente desplegadas incluyeron dispositivos para apuntar armas. la arquitectura de Von Neumann usa la misma memoria para almacenar tanto los programas como los datos. Definir un solo punto en la serie. y más adelante en algunas aplicaciones especializadas. Su principal propósito era probar que había problemas (nombrados el problema de la parada) que no podían ser solucionados por ningún proceso secuencial. y el ENIAC fueron construidas a mano usando circuitos que contenían relés o válvulas (tubos de vacío). Excepto por las limitaciones impuestas por sus almacenamientos de memoria finitos. controladas por electrónica digital. Este tipo limitado de la cualidad de Turing completo es algunas veces visto como la capacidad umbral que separa las computadoras de uso general de sus precursores de propósito específico. Al principio de este período. Mientras que es teóricamente posible implementar una computadora completa mecánicamente (como demostró el diseño de Babbage). Z3. una construcción que vino a ser llamada máquina de Turing. que es como decir que tienen la capacidad de ejecución de algoritmo equivalente a una máquina universal de Turing. pierde muchos sutiles detalles. Las máquinas como el Atanasoff± Berry Computer. los relés. los condensadores. un dispositivo puramente teórico que formaliza el concepto de ejecución de algoritmo. no existió nada que se asemejara remotamente a una computadora moderna. debe haber algún mecanismo de lectura/escritura conveniente. y a menudo usaron tarjetas perforadas o cintas perforadas para la entrada y como el medio de almacenamiento principal (no volátil). pero las computadoras análogas híbridas. . Colossus. El texto escrito por Alan Turing en 1936 probó ser enormemente influyente en la computación y ciencias de la computación de dos maneras.computación. como por ejemplo la cinta perforada. excepto en los planes perdidos por largo tiempo de Charles Babbage y las visiones matemáticas de Alan Turing y otros. Para la completa versatilidad. Turing proporcionó una definición de una computadora universal. habían sido construidos dispositivos como el EDSAC. un número de diferentes máquinas fueron producidas con capacidades que constantemente avanzaban. Al hacer eso. y son considerados universalmente como computadores digitales. como la "primera computadora". a medida que los circuitos electrónicos. virtualmente todas las computadoras contemporáneas usan esta arquitectura (o alguna variante). Al final de la era. y los tubos de vacío reemplazaron los equivalentes mecánicos y los cálculos digitales reemplazaron los cálculos análogos. reemplazando el engorroso lenguaje universal basado en en aritmética de Kurt Gödel. En esta era. la electrónica hizo posible la velocidad y más adelante la miniaturización que caracterizan las computadoras modernas. permanecían en substancial uso en los años 1950 y los años 1960. Primeros computadores digitales La era de computar moderno comenzó con un explosivo desarrollo antes y durante la Segunda Guerra Mundial. se dice que las computadoras modernas son Turing completo. Para que una máquina de computación sea una computadora de propósito general práctica. siendo pionera en numerosos avances. Faltaban los saltos condicionales. por el más simple sistema binario. en 1936 Konrad Zuse comenzó la construcción de sus primeras calculadoras de la Z-series que ofrecían memoria y programabilidad (limitada inicialmente). Esto a veces es visto como la razón principal por la que Zuse tuvo éxito donde Babbage falló. significó que las máquinas de Zuse eran más fáciles de construir y potencialmente más confiables. dadas las tecnologías disponibles en aquel tiempo. El Z3 se convirtió así en la primera computadora funcional. que aunque puramente mecánica ya era binaria. La Z1 de Zuse. fue finalizada en 1938.la idea clave de lo que sería conocido como la arquitectura de Von Neumann y fue implementada por primera vez en el posterior diseño del EDSAC británico (1949). fue publicada extensamente. controlada por programa. (Plankalkül). El reemplazo del difícil de implementar sistema decimal. tales como números de punto flotante. usado en el diseño temprano de Charles Babbage. En dos aplicaciones de patente de 1936. Fue basada en relés telefónicos y trabajó satisfactoriamente. La primera fue el trabajo alemán de Konrad Zuse. Nunca trabajó confiablemente debido a problemas con la precisión de las partes.En la era de la Segunda Guerra Mundial habían tres corrientes paralelas en el desarrollo de la computadora. y dos fueron ignoradas en gran parte o deliberadamente mantenidas en secreto. el Z3. La segunda fue el desarrollo secreto de la computadora Colossus en el Reino Unido. La subsecuente máquina de Zuse. De muchas maneras era muy similar a las máquinas modernas. Ninguna de éstas tuvieron mucha influencia en los varios proyectos de computación en los Estados Unidos. de todo propósito. Konrad Zuse también anticipó que las instrucciones de máquina podían ser almacenadas en el mismo almacenamiento usado para los datos . fue finalizada en 1941. Trabajando aisladamente en Alemania. en 1945 (que fue publicado en 1948) aunque fue implementado por . pero desde los años 1990 se ha probado teóricamente que el Z3 seguía siendo un computador universal (ignorando sus limitaciones de tamaño físico de almacenamiento). Z-series de Konrad Zuse: Las primeras computadoras controladas por programa Una reproducción de la computadora Z1 de Zuse. Zuse también decía haber diseñado el primer lenguaje de programación de alto nivel. La tercera corriente de desarrollo de la computadora. Los programas fueron alimentados en el Z3 por medio de películas perforadas. el ENIAC y el EDVAC de Eckert y Mauchly. Artículo principal: Colossus Durante la Segunda Guerra Mundial. La máquina de cifrado alemana. hasta mucho más tarde. diseñada por Alan Turing y Gordon Welchman.U. llamada "Tunny" por los británicos.U. Los alemanes también desarrollaron una serie de sistemas de cifrado de teleimpresora. aunque al menos la IBM estaba enterada de ellos pues financiaron a su compañía de lanzamiento de posguerra en 1946 en el retorno por una opción en las patentes de Zuse. después de la bomba criptográfica polaca (1938). fue atacada con la ayuda de máquinas electromecánicas llamadas bombes. Colossus El colossus fue usado para romper cifrados alemanes durante la Segunda Guerra Mundial. Las primeras intercepciones de los mensajes Lorenz comenzaron en 1941. eliminaba ajustes posibles del Enigma al realizar cadenas deducciones lógicas implementadas eléctricamente. Winston Churchill . El colossus usó una gran cantidad de válvulas (|tubos de vacío).primera vez en 2000 por un equipo alrededor de Raúl Rojas en la Universidad Libre de Berlín . y uso fueron mantenidos secretos bien entrados los años 1970. y las pocas restantes se podían probar a mano.cinco años después de que murió Zuse. Enigma. El colossus fue el primer dispositivo de computación totalmente electrónico. el profesor Max Newman y sus colegas ayudaron a especificar el colossus. los británicos en Bletchley Park alcanzaron un número de éxitos al romper las comunicaciones militares alemanas cifradas. muy diferentes del Enigma. Los detalles de su existencia. La máquina Lorenz SZ 40/42 fue usada para las comunicaciones de alto nivel del ejército. Aparentemente su trabajo en gran parte siguió siendo desconocido a los ingenieros en el Reino Unido y los E. El Mk I colossus fue construido entre marzo y diciembre de 1943 por Tommy Flowers y sus colegas en el Post Office Research Station en Dollis Hill en Londres y después enviado a Bletchley Park. diseño. Fueron construidos nueve Mk II Colossi (el Mk I fue convertido en un Mk II haciendo diez máquinas en total). Tenía entrada de cinta de papel y era capaz de ser configurado para realizar una variedad de operaciones de lógica booleana en sus datos. La bombe. Como parte de un ataque contra los Tunny. La mayoría de las posibilidades conducían a una contradicción. Zuse sufrió reveses durante la Segunda Guerra Mundial cuando algunas de sus máquinas fueron destruidas en el curso de las campañas aliadas de bombardeos.E. pero no era Turing completo. La tesis de Shannon. . al Complex Number Calculator. terminó una computadora basada en relés que calculaba con la adición binaria y apodó con el nombre de "Modelo K" (por "kitchen" (cocina). entre muchas razones por haber sido anticipado por el trabajo de Atanasoff. En 1939. Sperry Rand. la decisión invalidó la patente de ENIAC (y varias otras). en este caso sobre una línea telefónica. John Vincent Atanasoff y Clifford E. fue la primera en usar circuitos electrónicos. quien escribió sobre ello en sus memorias. John Mauchly. podía calcular números complejos. Una copia reconstruida de una de las máquinas Colossus está ahora en exhibición en Bletchley Park. examinó el ABC en junio de 1941. John Mauchly. En noviembre de 1937. Howard Aiken. Berry de Iowa State University desarrollaron el Atanasoff Berry Computer (ABC). donde él la había ensamblado). En 1939. el Mark I fue una computadora electromecánica de propósitos generales construida con el financiamiento de la IBM y con la asistencia del personal de la IBM. Algunos participantes en la conferencia que atestiguaron la demostración eran John Von Neumann. En una demostración del 11 de septiembre de 1940 en la conferencia de la American Mathematical Society en el Dartmouth College. Claude Shannon produjo su tesis magistral en el MIT que por primera vez en la historia implicaba el álgebra booleana usando relés y conmutadores electrónicos. esencialmente funda el diseño de circuitos digitales prácticos. y Norbert Wiener. George Stibitz.personalmente publicó una orden para su destrucción en piezas no más grandes que la mano de un hombre. una calculadora electrónica digital de propósito especial para solucionar sistemas de ecuaciones lineares. Conocido oficialmente como el Automatic Sequence Controlled Calculator. A finales de 1938. en los laboratorios Endicott de la IBM comenzó el desarrollo del Harvard Mark I. El ABC fue en gran parte olvidado hasta que se convirtió en el foco del pleito legal Honeywell vs. Stibitz pudo enviar. Fue la primera máquina de computación usada remotamente. comandos remotos sobre líneas telefónicas por un teletipo. El diseño usaba más de 300 tubos de vacío para alta velocidad y empleaba para la memoria condensadores fijados en un tambor que rotaba mecánicamente. los Laboratorios Bell autorizaron un programa de investigación completo con Stibitz al timón. intitulada A Symbolic Analysis of Relay and Switching Circuits (Un análisis simbólico de circuitos de conmutación y relés). bajo dirección del matemático de Harvard. Desarrollos norteamericanos En 1937. y su influencia en el diseño de la posterior máquina ENIAC es una cuestión de controversia entre los historiadores del computador. pero debido a errores en el mecanismo del perforador de tarjetas la máquina terminada solamente podía solucionar algunas ecuaciones. debido a este secreto los Colossi no fueron incluidos en muchas historias de la computación. El co-inventor del ENIAC. Su diseño fue influenciado por la Máquina Analítica de Babbage. terminado el 8 de enero de 1940. entonces trabajando en los Laboratorios Bell. Su Complex Number Calculator. La meta original era solucionar 29 ecuaciones simultáneas de 29 incógnitas cada una. Aunque la máquina ABC no era programable. Versiones posteriores contuvieron varios lectores de cinta de papel y la máquina podía cambiar entre los lectores basados en una condición.usando ruedas de aritmética y almacenamiento decimal e interruptores rotatorios además de relés electromagnéticos. Sin embargo. Las mejoras completadas en 1948 hicieron posible ejecutar programas almacenados fijados en memoria de tabla de función. Validó abiertamente el uso de la electrónica para la computación en gran escala. construido en los Estados Unidos. . y contenía varias unidades de cálculo trabajando en paralelo. ENIAC El ENIAC realizó cálculos de la trayectoria balística usando 160 kilovatios de energía. un "programa" en el ENIAC era definido por los estados de sus cables de remiendo e interruptores. El ENIAC (Electronic Numerical Integrator and Computer). El ENIAC era inequívocamente un dispositivo Turing completo. Sin embargo. Programarlo significaba recablearlo. era 1. Construido bajo la dirección de John Mauchly y John Presper Eckert en la universidad de Pennsylvania. que hizo la programación menos un esfuerzo "único/realizado solo una vez/único en su tipo"??. una decepcionante disparidad con las máquinas electrónicas de programa almacenado que se desarrollaron a partir del ENIAC.000 veces más rápido que sus contemporáneos. Sin embargo. y más sistemático. fue el primer computador electrónico de propósito general. Cuando su diseño fue propuesto. muchos investigadores creyeron que los millares de delicadas válvulas (es decir tubos de vacío) se quemarían tan frecuentemente que el ENIAC estaría con tanta frecuencia inactivo por reparaciones que sería inútil. Esto fue crucial para el desarrollo del cómputo moderno. El desarrollo y la construcción del ENIAC duró desde 1943 hasta estar operativo completamente al final de 1945. la máquina no era absolutamente Turing completa. Era programable vía una cinta de papel perforado. El Mark I fue trasladado a la universidad de Harvard y comenzó la operación en mayo de 1944. era capaz de miles de operaciones por segundo por horas enteras entre las fallas de válvulas. de Mánchester (Inglaterra). Por 1954. serviría como la base para el desarrollo de las primeras computadoras digitales de propósito general realmente flexibles. el circuito detectaba si el pulso representaba un 1 ó un 0 y causaba al oscilador volver a reenviar el pulso. que usaban el tiempo de propagación del sonido a través de un medio como el mercurio líquido (o a través de un alambre) para almacenar datos brevemente. Una serie de pulsos acústicos eran enviados a lo largo de un tubo. el EDVAC. El "Bebé" en el Museo de Ciencia e Industria (MSIM). El otro competidor para el título de "primer computador digital de programa almacenado" había sido el EDSAC. La primera máquina funcional de von Neumann fue el "Baby" ("Bebé") de Manchester o Small-Scale Experimental Machine. Operacional en menos de un año después de la Manchester "Baby". en lo que el pulso alcanzaba el extremo del tubo. fue seguida en 1949 por el computador Manchester Mark I que funcionó como un sistema completo usando el tubo Williams y el tambor magnético para la memoria. Eckert y Mauchly reconocieron sus limitaciones y comenzaron el diseño de una nueva computadora. John von Neumann escribió un reporte de amplia circulación que describía el diseño del EDVAC en el que tanto los programas como los datos de trabajo estaban almacenados en un solo unificado almacén.La máquina de von Neumann de primera generación y otros trabajos Incluso antes de que el ENIAC estuviera terminado. diseñado y construido en la Universidad de Cambridge. construida en la universidad de Mánchester en 1948. Este diseño básico. y también introdujo los registros de índice. el almacenamiento temporal o de trabajo fue proporcionado por líneas de retardo acústico. que debía tener programa almacenado. también era capaz de abordar problemas reales. EDSAC fue inspirado de hecho . que sería conocido como la arquitectura de von Neumann. la memoria de núcleo magnético rápidamente desplazó la mayoría de las otras formas de almacenamiento temporal. que utilizan la capacidad de un tubo de imagen de televisión para almacenar y de recuperar datos. En esta generación. después de un tiempo. Otros usaron los tubos de Williams. y dominó el campo hasta mediados de los años 1970. el EDVAC usó una sola unidad de procesamiento. el UNIVAC I (Universal Automatic Computer) fue entregado a la Oficina del Censo de los Estados Unidos. la compañía J. la primera en su excitosa 700/7000 series y su primer computador IBM mainframe. En 1952. y creciente confiabilidad. Eventualmente Remington Rand vendió 46 máquinas en más de $1 millón por cada una. A diferencia de las máquinas de la IBM no fue equipado de un lector de tarjetas perforadas sino con una entrada de cinta magnética de metal al estilo de los años 1930. Este diseño era más simple y fue el primero en ser implementado en cada exitosa onda de miniaturización.000 palabras de 11 dígitos decimales más el signo (palabras de 72 bits). En junio de 1951. Usó para la memoria una línea de retardo de mercurio capaz de almacenar 1. El UNIVAC era el primer computador 'producido en masa'. La cinta de papel perforado de alta velocidad y las cintas magnéticas del estilo moderno fueron usados para entrada/salida por otras computadoras de la era. Algunos ven al Manchester Mark I/EDSAC/EDVAC como las "Evas" de la cuales casi todas las computadoras actuales derivan su arquitectura. decidido a tomar un papel activo en promover el desarrollo comercial de los computadores. que usaba el procesamiento paralelo. La primera máquina Ferranti Mark I fue entregada a la Universidad en febrero de 1951 y por lo menos otras nueve fueron vendidas entre 1951 y 1957. Por 1951 el computador LEO I estuvo operacional y corrió el primer job de computador de oficina rutinario regular del mundo. la máquina con frecuencia fue referida equivocadamente como la "IBM UNIVAC". los directores de J. Podía realizar aproximadamente 3.000 operaciones por segundo. un diseño australiano que corrió su primer programa de prueba en 1949. el sucesor del ENIAC.000 tubos de vacío y consumida 25 kW de energía. Small Electronic Calculating Machine) estuvo operacional en 1950. Éste fue la primera aplicación de negocio en tener vida en un computador de programa almacenado. la IBM anunció público el IBM 701 Electronic Data Processing Machine. todos los predecesores habían sido unidades 'únicas en su tipo'. una compañía británica del famosa por sus tiendas de té (pequeños restaurantes) pero con fuertes intereses en las nuevas técnicas de gerencia de oficinas. Aunque fue fabricada por Remington Rand. haciéndola incompatible con algunos almacenamientos de datos comerciales existentes. La máquina de la universidad de Manchester se convirtió en el prototipo para la Ferranti Mark I. estos planes ya estaban en el lugar correcto para el tiempo en que el ENIAC fue operacional exitosamente. El IBM . Usó 5. Lyons & Company. En noviembre de 1951. CSIRAC es el computador más viejo todavía en existencia y el primero en haber sido usado para ejecutar música digital.por los planes para el EDVAC (Electronic Discrete Variable Automatic Computer).200 tubos de vacío y consumía 125 kW de energía. Otra máquina temprana fue el CSIRAC. Tenía cerca de 6. La primera computadora programable universal en la Unión Soviética fue creada por un equipo de científicos bajo dirección de Sergei Alekseyevich Lebedev del Instituto Kiev de Electrotecnología. El computador MESM ( .4 En octubre de 1947. Lyons comenzó la operación semanal de un Job de valuaciones de panadería en el LEO (Lyons Electronic Office). A diferencia del ENIAC. Unión Soviética (ahora Ucrania). Al principio eran . En Italia la primera máquina de cálculo fue colocada en 1954 en la Universidad Politécnico de Milán y solamente en 1957 es usada por una firma. En 1958 es colocada en Italia un décimo de las máquinas de cálculo. Segunda generación: Transistores Inicialmente. y a la falta de previsión en los tipos de usos a los que podían ser aplicados los computadores. Su memoria de tambor tenía originalmente solamente 2. (En 2006. RAMAC (Random Access Method of Accounting and Control). el almacenamiento magnético. Costaba $500. En 1956. las máquinas electrónicas de cálculo han ganado la confianza de sus usuarios. introducido en 1954.000 por megabyte. o milicódigo). En 1958 solamente los Estados Unidos tienen cerca de 2.9 x 1. Las limitaciones de la memoria tales como ésta iban a dominar la programación por décadas posteriores. La microprogramación permite al conjunto de instrucciones base ser definido o extendido por programas incorporados en el hardware (ahora a veces llamado como firmware. costaba menos de un décimo de un centavo por megabyte). también fue desarrollado en la IBM para los 704 durante 1955 y 1956 y lanzado a principios de 1957. El IBM 650 pesaba más de 900 kg. al final de los años 1950.5 x 0. que fue posteriormente ampliamente usada en los CPUs y las unidades de punto flotante de los mainframes y de otras computadoras. al costo. se creía que serían producidos o utilizados muy pocos computadores.8 metros. En 1953 el número de máquinas de cálculo en todo el mundo se eleva hasta cerca de 100 unidades. usó la memoria de núcleo magnético. En 1955. En la conclusión de la Primera Generación.500 al mes. la IBM vendió su primer sistema de disco magnético. microcódigo. de nuevas unidades y métodos de programación. en la forma de discos duros. Maurice Wilkes inventó la microprogramación. Esto era debido en parte a su tamaño. Podía almacenar 5 megabytes de datos y costaba $10. tales como las series del IBM 360.500 modelos en total.350 kg y ambos fueron contenidos en gabinetes separados de más o menos 1. En 1954 la IBM introdujo un computador más pequeño y más económico que probó ser muy popular. que apoyan cerca de 700 empleados meccanográficos.704. la fuente de alimentación pesada alrededor 1.000 o podía ser arrendada por $3. de Konrad Zuse. Usó 50 discos de metal de 24 pulgadas (610 mm). no fue implementado en aquel tiempo). El primer lenguaje de programación de propósitos generales de alto nivel implementado. que se convirtió en el estándar para las máquinas grandes. y requería una programación arcana para una eficiente computación. (El diseño en 1945 del leguaje de alto nivel Plankalkül. debido a la introducción de nuevas técnicas. En 1951 inicia la primera máquina de cálculo hecha en serie y hay un gran desarrollo de estas máquinas. hasta la evolución de las capacidades del hardware y un modelo de programación que eran más benévolos al desarrollo del software.000 palabras de diez dígitos. con 100 pistas por lado. FORTRAN. producido en 110 modelos. pero también a las continuas mejoras hechas en las memorias auxiliares y en las unidades para la toma y emisión de datos. El desarrollo notable de las máquinas de cálculo y de sus aplicaciones en este período no es debido solamente a la característica del CPU (Unidad Central de Proceso). Entre los sistemas de la segunda generación marcamos el IBM 1401. la máquina de cálculo se vuelve más rápida y económica y esto difunde en diez mil modelos en todo el mundo. Alrededor de finales de los años 1950 los tubos fueron sustituidos por transistores. pasando de la posición 1 a 0 en algunas millonésimas de segundo. Comparado a las válvulas. Así. El transistor fue realizado en 1948 por los norteamericanos John Bardeen. . Las máquinas de cálculo superan más y más las restricciones debido a alguna construcción y técnicas de programación no refinadas. Las direcciones de operación segura son incrementadas porque los transistores. monopolizando alrededor de un tercio del mercado mundial. evitan las roturas que eran frecuentes en las válvulas debido al calentamiento. Los tamaños de un transistor son de algunos milímetros comparado a los muchos centímetros del tubo de vacío. para las corporaciones o las necesidades operativas de las firmas. la introducción de nuevas técnicas de organización y la gerencia de una firma.consideradas. Usando los transistores y mejorando las máquinas y los programas. Esto levanta lo que se conoce como la "segunda generación" de máquinas de cálculo. Walter Brattain y William Shockley que compartieron por su invención el Premio Nobel de Física de 1956. Por la situación económica general cambiante. que máquinas útiles por sus capacidades de procesar información. el transistor tiene muchos ventajas: tienen un precio de fabricación más pequeño y una velocidad diez veces mayor. que fue instalado desde 1960 hasta 1964 en más de cientos de miles de modelos. El transistor es un dispositivo electrónico hecho de cristal de silicio o germanio en los que diferentes átomos de materiales son oportunamente insertados. sino que responden a la necesidad de solucionar los varios problemas operativos. Su uso no representa más una "aventura" para las firmas y las corporaciones que las colocan. así que puede representar el 1 ó el 0 que son reconocidos por la máquina. Para algunos valores de tensión eléctrica a la cual es expuesta el transistor. el continuo crecimiento de las firmas. pasa de un uso prevalente de contabilidad y estadístico a algunas aplicaciones más complejos que se refieren a todos los sectores de activos. más como instrumentos de cálculo y útiles para la investigación en la universidad. las máquinas son construidas con decenas de miles de circuitos complejos que son incluidos en un pequeño espacio. En este período también estuvo la única tentativa italiana: el ELEA de Olivetti. tiene la capacidad de transmitir o no la corriente. trabajando "en frío". que condujo más adelante a la invención del microprocesador. pueden sobreponer diferentes operaciones. Más unidades puedn ser conectadas al mismo tiempo a la máquina de cálculo. Tan tarde como en 1975. ejecutar cálculos y tomar decisiones lógicas. de bajo costo. cofundador de Apple Computer. Los primeros microcomputadores aparecieron en los años 1970. Incluso si la capacidad de discos móviles es más pequeña comparada a las fijas. Una indicación de la rapidez del desarrollo de este campo puede ser deducido por el artículo seminal de Burks. escribir y leer la información en cintas magnéticas. el Apple I. Cerca de los discos que están conectados firmemente con la unidad central son introducidas algunas unidades en las cuales las pilas de discos son móviles y pueden ser fácilmente reemplazados por otra pila en pocos segundos. Steve Wozniak. su primera computadora. el circuito integrado (o microchip). surgen las unidades terminales que tienen que transmitir los datos a la máquina de cálculo central que también puede estar a una distancia de cientos de kilómetros gracias a una conexión telefónica. ahora dominantes en la mayoría de los segmentos de mercado. El microprocesador condujo al desarrollo del microcomputador. computadores pequeños. vino algún tiempo después del KIM-1 y el Altair 8800. Para garantizar el continuo cambio de información entre el centro y la periferia. y llegaron a ser ubicuos en los años 1980 y más allá. documentado en la revista Datamation . Sperry Univac continuaba la fabricación de máquinas de segunda generación como el UNIVAC 494. Goldstein. es acreditado por desarrollar el primer computador casero comercializado masivamente. por Ted Hoff y Federico Faggin en Intel. La computación se ha desarrollado con arquitecturas de microcomputador. Clair Kilby y Robert Noyce. a través de un dispositivo particular hecho para ordenar los datos interiores. Las máquinas de cálculo de la segunda generación. von Neuman. su intercambiabilidad garantiza una capacidad ilimitada de datos que están listos para la elaboración. que podía ser poseído por individuos y pequeñas empresas. con características añadidas de sus hermanos más grandes. Post-1960: Tercera generación y más allá La explosión en el uso de computadores comenzó con los computadores de la 'tercera generación'.Las memorias de discos pueden manejar decenas de millones de letras o dígitos. Éstos dependían en la invención independiente de Jack St. esto significa leer y perforar las tarjetas al mismo tiempo. y la primera computadora de Apple con capacidades de gráficos y de sonidos salió bien después del Commodore PET. Sin embargo. Durante los años 1960 había un considerable solapamiento entre las tecnologías de la segunda y la tercera generación. llevando así la capacidad de memoria total a algunos cientos de millones de caracteres. Eventualmente.de septiembre-octubre de 1962. notablemente usados por la NASA para el Apollo Guidance Computer y por los militares en el misil balístico intercontinental LGM-30 Minuteman. Historia del hardware de computador (1960-presente) La historia del hardware de computador comenzando en 1960 está marcada por la conversión desde el tubo de vacío a los dispositivos de estado sólido como el transistor y posteriormente el circuito integrado. (ver las referencias abajo). que redujo grandemente el costo. que eran dispositivos de estado sólido interconectados en un substrato con alambres discretos. tamaño y consumo de energía de los dispositivos del computador. que fue el computador más rápido del mundo por varios años. el supercomputador ILLIAC IV. ya era obsoleto. Para el momento en que cualquier persona tuviera tiempo para escribir cualquier cosa. comenzando desde alrededor 1965. el costo de los dispositivos de circuito integrado fue lo suficientemente bajo que los computadores caseros y los computadores personales llegaron a ser comunes.1 Mientras que los grandes computadores mainframes como el System/360 aumentaron las capacidades de almacenaminto y procesamiento. Éstos generalmente confiaron en la invención de Jack Kilby del circuito integrado (o microchip). Sin embargo. La memoria principal del computador lentamente se movió lejos de los dispositivos de memoria de núcleo magnético a la memoria de semiconductor estática y dinámica de estado sólido. como versión preliminar 15 años más temprano. El primer circuito integrado fue producido en septiembre de 1958 pero los computadores que los usaban no comenzaron a aparecer hasta 1963. El minicomputador fue una innovación . Por 1959 los transistores discretos eran considerados suficientemente confiables y económicos que hicieron no competitivos los computadores de tubos de vacío. el IBM System/360 usó circuitos híbridos. el circuito integrado también permitió el desarrollo de computadores mucho más pequeños. que fue escrito. usó alrededor de un cuarto de millón de circuitos integrados de puertas lógicas ECL de baja escala de integración para hacer sesenta y cuatro procesadores de datos paralelos. Algunas de sus usos tempranos eran en los sistemas embebidos. Tercera generación El incremento masivo en el uso de los computadores se aceleró con los computadores de la tercera generación. Antes de 1971. La integración en gran escala de los circuitos condujo al desarrollo de unidades de procesamiento muy pequeñas. . Hewlett-Packard entró en el negocio de computadores de propósito general con su HP-2116. Un hardware más pequeño. no sólo por medio de un tamaño físico más conveniente sino también ampliando el campo del vendedor de computadora. El Nova fue uno de los primeros minicomputadores de 16 bits y condujo hacia las longitudes de palabra que eran múltiplos del byte de 8 bits. Trajo poder de computación a más gente. Un ejemplo temprano de esto fue el procesador clasificado CADC usado para analizar los datos de vuelo en el avión de combate del F-14 Tomcat de la Armada de los Estados Unidos. Su diseño usó hardware minimalístico para generar la temporización de las varias señales necesarias para crear la señal de TV. Data General despachó un total de 50. como se esquematizaba en la revista Radio Electronics de septiembre de 1973. ALGOL. con modelos subsecuentes usando circuitos integrados de gran escala de integración (LSI). El diseño original incluyó dos tarjetas de memoria y podía generar y almacenar 512 caracteres como 16 líneas de 32 caracteres. el TV Typewriter. Soportó una gran variedad de lenguajes. diseñado por Don Lancaster. También fue notable en que la unidad central de proceso entera estaba contenida en una tarjeta de circuito impreso de 15 pulgadas. Era el primero en emplear circuitos de mediana escala de integración (MSI) de Fairchild Semiconductor. Una cinta de cassette de 90 minutos proporcionó el almacenamiento suplementario para cerca de 100 páginas de texto. Este procesador fue desarrollado por Steve Geller. Clive Sinclair usó el mismo acercamiento en su legendario Sinclair ZX80. y FORTRAN. En 1973. 1969: Data General Nova En 1969. Ray Holt y un equipo de Garrett AiResearch y American Microsystems. también provocó el desarrollo de importantes nuevos sistemas operativos como Unix. Digital Equipment Corporation se convirtió en la compañía número dos de computadores detrás de IBM con sus populares sistemas de computación PDP y VAX. ofreciendo poder de computación antes encontrado solamente en computadores mucho más grandes.significativa en los años 1960 y 1970. Más adelante. asequible. En 1966. proporcionó a los aficionados de la electrónica con una exhibición de información alfanumérica en un televisor ordinario.000 Novas por $8000 cada uno. entre ellos BASIC. Usó $120 en componentes electrónicos. Aunque las capacidades de procesamiento y memoria hayan crecido desde los años 1970 más allá de todo reconocimiento. A diferencia de los minicomputadores de la tercera generación. de ninguna manera. como una alternativa al circuito cableado (hardwired). Intel lanzó el primer microprocesador comercial del mundo.000 instrucciones por segundo. Fue desarrollado para una compañía japonesa de calculadoras. Otros productores también hicieron microprocesadores que eran ampliamente usados en microcomputadores. así que se considera extensamente que la mayor parte de los computadores de hoy todavía pertenecen a la cuarta generación. pero fueron desarrollados computadores alrededor de él. Se dirigían a un mercado enteramente diferente. El 4004 solamente era capaz de 60. que eran esencialmente versiones reducidas de los computadores mainframes. 8080 (usados en muchas computadoras con el sistema operativo CP/M).el chip de RAM.el microprocesador permitió que los computadores de la cuarta generación fueran más pequeños y más rápidos que los anteriores. Microprocesadores 1971: Intel 4004 El 15 de noviembre de 1971. los orígenes de la cuarta generación son fundamentalmente diferentes. basado en una invención por Robert Dennard de IBM. Busicom. Acoplado con uno de los otros productos de Intel . Los computadores basados en microprocesadores originalmente eran muy limitadas en su velocidad y capacidad de cómputo. (kilobits de memoria en un chip) . los Intel 8008. y no eran. . un intento de reducir el tamaño del minicomputador. pero sus sucesores. y la familia 8086/8088 (el computador personal IBM (PC) y los compatibles usan procesadores todavía compatibles hacia atrás con en 8086) brindaron aún una creciente velocidad y poder a los computadores. el 4004. la tecnología subyacente de microchips de alta escala de integración (LSI) o muy alta escala de integración (VLSI) ha continuado siendo básicamente la misma.Cuarta generación La base de la cuarta generación fue la invención del microprocesador por un equipo en Intel. con mucha de sus capacidades de procesamiento proporcionadas por un pequeño chip microprocesador. El Cray-1 tenía un CPU que fue construido en su mayor parte de circuitos integrados SSI y MSI ECL. y similares. que usa una instrucción para realizar la misma operación en muchos argumentos. 85 Cray-1 fueron despachados a un precio de $5 millones cada uno. Los usuarios. quien había dejado Control Data en 1972 para formar su propia compañía. los computadores eran generalmente grandes. El Cray-1 podía calcular 150 millones de operaciones de coma flotante por segundo (150 megaflops).Supercomputadores 1976: Supercomputador Cray-1 En el otro extremo del espectro computacional al de los microcomputadores. tales como el terminal inteligente TeleVideo de modo de caracteres ASCII. tenía una característica forma de herradura. el primer supercomputador en hacer práctico al processamiento vectorial. En 1976 el Cray-1 fue desarrollado por Seymour Cray. Mainframes y minicomputadores Los terminales de computadora conectados a computadores centrales de tiempo compartido. universidades. Esta máquina. agencias de gobierno. sus dueños eran instituciones grandes como corporaciones. eran . El procesamiento vectorial. ha sido desde entonces un método de procesamiento fundamental de los supercomputadores. los poderosos supercomputadores de la era también usaron tecnología del circuito integrado. Antes de la introducción del microprocesador a principios de los años 1970. para acelerar el procesamiento acortando las trayectorias de los circuitos. costosos. a veces fueron usados antes del advenimiento del PC. y así asequibles por laboratorios individuales y proyectos de investigación. Prime Computer. En algunas organizaciones podía tardar horas o días entre someter un trabajo al centro de computación y la recepción de la salida. grande almacenamiento de memoria interno y externo. donde un usuario tenía uso exclusivo de un procesador. compartir el uso de un procesador de computador mainframe. Esto fue común en aplicaciones empresariales y en ciencia e ingeniería. Después de que los trabajos hubieran terminado. y software especial. Los minicomputadores liberaron en gran parte. tal como perforadoras de tarjetas. tomando algunas tareas rutinarias y liberando el procesador para el cómputo. y así raramente fueron comprados por individuos.experimentados especialistas. los minicomputadores eran más interactivos que las unidades centrales.2 Algunos de los primeros computadores que pudieron haberse llamado "personales" fueron tempranos minicomputadores tales como el LINC y el PDP-8. Data General. Ellos se originaron. y de otros. Un diferente modelo del uso del computador fue presagiado por la manera en que los primeros computadores no comerciales fueron usados. Un número de asignaciones para el computador serían recolectadas y procesadas en modalidad de procesamiento por lotes. Por los estándares de hoy eran físicamente grandes (alrededor del tamaño de un refrigerador) y costosos (típicamente decenas de miles de dólares). a estas organizaciones.3 . y de la burocracia de un centro de computación comercial o universitario. debido a su interface gráfica de usuario. menos costosos. El minicomputador Xerox Alto (1973) fue un punto destacado en el desarrollo de los computadores personales. pantalla de mapa de bits de alta resolución. Además. En un sistema de tiempo compartido. como procesadores periféricos para los computadores mainframes. múltiples terminales de teletipo le permitieron a mucha gente. eran mucho más pequeños. Sin embargo. sino que preparaban tareas para el computador en equipos fuera de línea. que usualmente no interactuaban con la máquina en sí misma. y generalmente más simples de operar que los computadores mainframes de ese tiempo. los usuarios podían recoger las salidas en listados impresos y en tarjetas perforadas. Una forma más interactiva de uso del computador se desarrolló comercialmente a mediados de los años 1960. del procesamiento por lotes. y pronto tendrían sus propios sistemas operativos. y después el VAX y minicomputadores más grandes de Digital Equipment Corporation (DEC). ratón. Para programar la máquina después encenderla. fijó en ese entonces un nuevo punto de bajo precio para una computadora. los avances en el desarrollo de la [[memoria de estado sólido]} eliminaron la abultada. El Altair y el IMSAI eran esencialmente minicomputadores reducidos y eran incompletos: para conectar un teclado o un teletipo a ellos se requerían "periféricos" pesados y costosos. en binario. Los minicomputadores eran consecuentemente físicamente grandes y costosos en producir comparado con posteriores sistemas de microprocesadores. uno de los computadores de la "trinidad de 1977". y luego. que redujeron el tamaño y el costo. costosa. hambrienta de energía memoria de núcleo magnético usada en anteriores generaciones de computadores. Esto fue seguido por el computador IMSAI 8080 (un clon del Altair 8800). La . comparado a los transistores discretos. ahora estaban disponibles en un circuito integrado que era muy costoso de diseñar pero barato de producir en granes cantidades. una vez para cada byte del programa. Teclear el cargador requirió el la configuración hacia arriba o hacia abajo de un banco de ocho interruptores y presionar el botón de "cargar" (load). que típicamente era de cientos de bytes de longitud.El microprocesador y la reducción de costos El Apple II. El Altair 8800. Concurrentemente. con capacidades y limitaciones similares. Después de que el "computador en un chip" fuera comercializado. el costo de producir un sistema de computación cayó dramáticamente. que se comunicaban con el operador en binario. y las funciones de control que previamente ocuparon varias costosas tarjetas de circuitos. El proceso fue realizado por circuitos con una gran cantidad de componentes dispuestos en múltiples tarjetas grandes de circuitos impresos. El Altair 8800 y el IMSAI 8080 l desarrollo del microprocesador en un solo chip fue un enorme catalizador en la popularización de verdaderos computadores personales baratos y fáciles de usar. un interpretador BASIC se cargaba desde un lector de cinta de papel. sin errores. trayendo la posesión del computador a un mercado ciertamente selecto en los años 1970. La aritmética. La unidad de disco mostrada es un modelo para el Apple III Los antepasados (minicomputadores) del moderno computador personal usaban tecnología de circuitos integrados. introducido en un artículo de la revista Popular Electronics en la edición de enero de 1975. lógica. el programa bootstrap loader (cargador de arranque) tenía que ser entrado. Ambas máquinas ofrecían un panel delantero con interruptores y luces. Zilog Z80 e Intel 8085. con muchos otras siguiendo. que desarrollaron un interpretador BASIC para el Altair. generó el desarrollo de las empresas Apple. tales como WordStar y dBase II. La segunda generación de microcomputadores. los que aparecieron al final de los años 1970. producido en masa. estos sistemas eran menos capaces y en cierto modo menos versátiles que los computadores de negocio grandes de esos días. Bill Gates. Por ejemplo. fue ofrecido en la cubierta de la revista Popular Electronics en enero de 1975. Fuera de estas reuniones de casa. Fue el primer kit del mundo. con varios grados de éxito. muchos aficionados diseñaron sus propios sistemas. muchos miles de personas construyeron el computador casero Galaksija más adelante a principios de los años 1980.computadora podría correr programas escritos en BASIC una vez que el interpretador había sido cargado. Para el uso de negocio.000 Altairs despachados. y demuestrar sus sistemas. Fueron diseñados para la diversión y . y se congregaron juntos para facilitar el trabajo. Fue un éxito comercial con 10. Podría decirse que el computador Altair. Por mediados de los años setenta. y muchos paquetes de softwares fueron escritos para él. el primer kit de microprocesador comercialmente exitoso. el Homebrew Computer Club se convirtió en un lugar donde los aficionados se encontraron para hablar de lo que habían hecho. eran usualmente conocidos como computadores caseros. El Altair también inspiró los esfuerzos de desarrollo de programas de Paul Allen y de su amigo de la universidad. por ejemplo una onda de pequeños computadores de negocios al final de los años 1970 basados en los microprocesadores Intel 8080. y después crearon Microsoft. intercambiar diagramas esquemáticos y software. así como el primer computador en usar un procesador Intel 8080. Mucha gente construyó o ensambó sus propios computadores según diseños publicados. primer producto de Microsoft. La mayoría corriendo el sistema operativo CP/M-80 desarrollado por Gary Kildall en Digital Research. CP/M-80 fue el primer sistema operativo de microcomputador popular a ser usado por muchos vendedores diferentes de hardware. provocado por la inesperada demanda para los computadores de kit en los clubs de aficionados de la electrónica. de un computador personal. así como de Microsoft la cual produjo y vendió el interpretador de lenguaje de programación Altair BASIC. 1975: Altair 8800 El MITS Altair 8800. El Altair 8800 de MITS efectivamente creó una nueva industria de microcomputadores y de kits de computadores. y aplicaciones tales como juegos. Aunque Groupe Bull continuara la producción de computadoras Micral. llamado Pluribus fue introducido y permitía la conexión de hasta 14 tarjetas. Beckmann y Benchitrite para el Institut National de la Recherche Agronomique para automatizar mediciones higrométricas. que tenían suficiente poder de computación para ser de interés para usuarios aficionados y experimentales. hasta que IBM introdujera el IBM PC. reemplazando la categoría del computador casero durante los años 1990 y llevando a la actual monocultura de computadores personales arquitectónicamente idénticos. El reloj del Intel 8008 fue fijado en 500kHz. y hojas de cálculo comenzaron a proliferar. Los primeros sistemas de computadores para el aficionadocomo. no tanto para el uso práctico. el computador había sido diseñado por Gernelle. y el TRS-80 (más adelante denominados como la "Trinidad de 1977" por la revista Byte)11 comenzaron la era de los computadores personales mercadeados en masa. y fue más tarde renombrado Prologue. estaban disponibles por R2E. Un bus. André Truong Trong Thi5 6 y François Gernelle. Commodore PET.propósitos educativos. . entrada/salida análoga. alrededor de 8500FF ($1300). R2E fue absorbida por Groupe Bull en 1978. sistemas preensamblados como el Apple II. mucho menos esfuerzo fue requerido para obtener una computadora operando. El sistema operativo de Micral fue llamado inicialmente Sysmic. Esto expandió la presencia de los PC en los hogares. la compañía Réalisations et Etudes Electroniques (R2E)4 formada por dos ingenieros anteriores de la compañía de Intertechnique. para los cuales los computadores personales del período eran menos convenientes y mucho más costosos. El microcomputador emerge El advenimiento del microprocesador y de la memoria de estado sólido hizo la computación casera asequible. Lacombe. los pequeños sistemas empresariales fueron típicamente basados en el CP/M. el Altair 8800 y el Apple I. no estaba interesado en el mercado del computador personal. y los computadores Micral fueron confinadas sobre todo a las puertas de peaje de la carretera (donde permanecieron en servicio hasta 1992) y similares mercados muy especializado. Para los aficionados más técnicos. por ejemplo controlar modelos de trenes. Por 1977. El PC fue fuertemente clonado. Micral N En Francia. disco floppy. fueron generalmente usados por los entusiastas de los computadores para aprender a programar y para correr juegos de computadora. A diferencia de los computadores usados en hogares.9 10 El Micral N costó un quinto del precio de un PDP-8. la memoria fue de 16 kilobytes. introducidos alrededor de 1975 marcaron el lanzamiento de los chips de procesador de 8 bits de bajo costo. Diferentes tableros para entrada/salida digital.7 introdujo en febrero de 1973 un microcomputador. y otras actividades del aficionado. llevando a la producción en masa y a la consiguiente reducción de costos a través de los años 1980.8 Originalmente. que fue adoptado rápidamente. los computadores caseros también fueron usados para la la interface electrónica. memoria. el Micral N basado en el Intel 8008. Y aunque se podían usar en ellos algunas aplicaciones simples de oficina/productividad. procesamiento de palabras. Estos fueron los primeros microcomputadores que comenzaron la era del computador personal y Apple II y Trs80 2.y La 'Trinidad de 1977'.jpg TRS-80 Model I y Commodore PET . se debe a la modernización de la informática llevada a cabo a finales de los 80. Este error de precisión. la enciclopedia libre Saltar a navegación. Uno de los más prominentes ejemplos de esta diferencia. búsqueda Interacción entre el SO con el resto de las partes. y permite la normal ejecución del resto de las operaciones. la inclusión en el mismo término de programas como el explorador de ficheros. cuando la . que es el núcleo del sistema operativo GNU. del cual existen las llamadas distribuciones GNU. Un sistema operativo (SO) es el programa o conjunto de programas que efectúan la gestión de los procesos básicos de un sistema informático. también llamado núcleo o kernel. es el núcleo Linux. el navegador y todo tipo de herramientas que permiten la interacción con el sistema operativo.Sistema operativo De Wikipedia. es decir.1 Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo. Estimación del uso de sistemas operativos según una muestra de computadoras con acceso a Internet en Noviembre de 2009 (Fuente: W3counter). filosofía de estructura básica de funcionamiento de los grandes computadores2 se rediseñó a fin de llevarla a los hogares y facilitar su uso. cuando los Amiga.3 Excepciones 4.2 Monitores residentes o 1.2 Gestión de la memoria principal o 5. beOS o MacOS como los pioneros4 de dicha modernización. Se encuentran en la mayoría de los aparatos electrónicos que utilizan microprocesadores para funcionar.7 Sistema de comunicaciones o 5.1 Problemas de explotación y soluciones iniciales o 1. reproductores de DVD.1 Gestión de procesos o 5.1 Modos de ejecución en un CPU o 3.5 Sistema de archivos o 5.2 Importancia de las interrupciones o 4.).1 Clases de excepciones 4. etc.3 Sistemas con almacenamiento temporal de E/S o 1. (teléfonos móviles.8 Programas de sistema o 5.6 Sistemas de protección o 5.4 Spoolers 2 Perspectiva histórica o 2. radios. hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles.1 Tratamiento de las interrupciones o 4. Uno de los propósitos del sistema operativo que gestiona el núcleo intermediario consiste en gestionar los recursos de localización y protección de acceso del hardware. computadoras. cambiando el concepto de computador multiusuario.3.3 (Véase AmigaOS.9 Gestor de recursos .2 Llamadas al sistema o 3.3. Contenido [ocultar] y y y y y 1 Perspectiva histórica o 1.3 Bibliotecas de interfaz de llamadas al sistema 4 Interrupciones y excepciones o 4. con gestión de miles de colores e interfaces intuitivos para diseño en 3D.4 El sistema de E/S o 5.1 Sistemas operativos multiprogramados 3 Llamadas al sistema operativo o 3. fueron bautizados con el sobrenombre de Video Toasters5 por su capacidad para la Edición de vídeo en entorno multitarea round robin.3 Gestión del almacenamiento secundario o 5.2 Importancia de las excepciones 5 Componentes de un sistema operativo o 5. (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar. 3 Manejo de recursos 7 Véase también 8 Referencias 9 Bibliografía 10 Enlaces externos [editar] Perspectiva histórica Los primeros sistemas (1945-1960) eran grandes máquinas operadas desde la consola maestra por los programadores.2 Administración de usuarios o 6. la primera solución fue poner un operador profesional que lo manejase. cintas magnéticas. ensambladores.6 [editar] Problemas de explotación y soluciones iniciales El problema principal de los primeros sistemas era la baja utilización de los mismos. impresoras. A finales de los años 80. etc. los trabajos se agrupaban de forma manual en lotes mediante lo que se conoce como procesamiento por lotes (batch) sin automatizar. cargadores. Durante la década siguiente (1950-1960) se llevaron a cabo avances en el hardware: lectoras de tarjetas. se ahorró tiempo y se aumentó la velocidad. entre las que se incluyen Babylon 5.y y y y y 6 Clasificación o 6. con lo que se eliminaron las hojas de reserva. [editar] Monitores residentes . una computadora Commodore Amiga equipada con una aceleradora Video Toaster era capaz de producir efectos comparados a sistemas dedicados que costaban el triple. etc. Un Video Toaster junto a Lightwave ayudó a producir muchos programas de televisión y películas. Para ello. Esto a su vez provocó un avance en el software: compiladores. Seaquest DSV y Terminator II.1 Administración de tareas o 6. manejadores de dispositivos. Fichas en lenguaje de procesamiento por lotes. La salida desde el buffer 1 termina y el nuevo cálculo también. [editar] Sistemas operativos multiprogramados . [editar] Sistemas con almacenamiento temporal de E/S Los avances en el hardware crearon el soporte de interrupciones y posteriormente se llevó a cabo un intento de solución más avanzado: solapar la E/S de un trabajo con sus propios cálculos. etc. Debido a ello se crearon los monitores residentes: programas que residían en memoria y que gestionaban la ejecución de una cola de trabajos. Esto a su vez provocó un avance en el software: compiladores. El proceso se puede repetir de nuevo. Se eliminan las cintas magnéticas para el volcado previo de los datos de dispositivos lentos y se sustituyen por discos (un disco puede simular varias cintas). Se inicia la salida desde el buffer 2 y otro nuevo cálculo dirige su salida al buffer 1. impresoras. Debido al solapamiento del cálculo de un trabajo con la E/S de otro trabajo se crean tablas en el disco para diferentes tareas. ensambladores. lo que se conoce como Spool (Simultaneous Peripherial Operation On-Line). cintas magnéticas. Un monitor residente estaba compuesto por un cargador. con programa y datos. El monitor residente inicia la salida desde el buffer y el programa de aplicación calcula depositando la salida en el buffer 2. fue necesario implementar soluciones que automatizaran la organización de tareas sin necesidad de un operador. cargadores. por lo que se creó el sistema de buffers con el siguiente funcionamiento: y y y y y Un programa escribe su salida en un área de memoria (buffer 1). Los problemas surgen si hay muchas más operaciones de cálculo que de E/S (limitado por la CPU) o si por el contrario hay muchas más operaciones de E/S que cálculo (limitado por la E/S). etc. un Intérprete de comandos y un Controlador (drivers) para el manejo de entrada/salida. Según fue avanzando la complejidad de los programas. [editar] Spoolers [editar] Perspectiva histórica Los primeros sistemas (1945-1950) eran grandes máquinas operadas desde la consola maestra por los programadores. Hace aparición el disco magnético con lo que surgen nuevas soluciones a los problemas de rendimiento. manejadores de dispositivos. para ejecución secuencial. Durante la década siguiente (1950-1960) se llevaron a cabo avances en el hardware: lectoras de tarjetas. [editar] Modos de ejecución en un CPU Las aplicaciones no deben poder usar todas las instrucciones de la CPU. y abrimos un programa diseñado para trabajar sobre el anterior. una CPU debe tener (al menos) dos modos de operación diferentes: y y Modo usuario: el CPU podrá ejecutar sólo las instrucciones del juego restringido de las aplicaciones. Se pueden mantener en memoria varios programas. Se asigna el uso de la CPU a los diferentes programas en memoria. Por ello si cambiamos de SO. Modo supervisor: la CPU debe poder ejecutar el juego completo de instrucciones. Por ello. a no ser que el nuevo SO tenga la misma interfaz. Gestionar el uso de la CPU (planificación). Lo que ofrece nuevas soluciones a los problemas de rendimiento: y y y Se solapa el cálculo de unos trabajos con la entrada/salida de otros trabajos. Para ello: y y Las llamadas correspondientes deben tener el mismo formato. Cada SO implementa un conjunto propio de llamadas al sistema. con lo que éste debe abordar nuevas tareas. Cuando desempeña esas tareas. el monitor residente se transforma en un sistema operativo multiprogramado. tiene que poder utilizar todo el juego de instrucciones del CPU. Constituyen el lenguaje que deben usar las aplicaciones para comunicarse con el SO. los cuales cumplen con las siguientes funciones: y y y Administrar la memoria. Ese conjunto de llamadas es la interfaz del SO frente a las aplicaciones. Debido a los cambios anteriores. naciendo lo que se denomina como Sistemas Operativos multiprogramados. [editar] Llamadas al sistema . Administrar el uso de los dispositivos de E/S. en general el programa no funcionará. [editar] Llamadas al sistema operativo Definición breve: llamadas que ejecutan los programas de aplicación para pedir algún servicio al SO. No obstante el Sistema Operativo. Cada llamada al nuevo SO tiene que dar los mismos resultados que la correspondiente del anterior.Surge un nuevo avance en el hardware: el hardware con protección de memoria. se producen cambios en el monitor residente. es decir. Las hay para distintos lenguajes de programación. distintas de las que se usan para las llamadas de función.Una aplicación. [editar] Bibliotecas de interfaz de llamadas al sistema Las llamadas al sistema no siempre tienen una expresión sencilla en los lenguajes de alto nivel. No se limita a utilizar el hardware a petición de las aplicaciones ya que hay situaciones en las que es el hardware el que necesita que se ejecute código del SO. En tales situaciones el hardware debe poder llamar al sistema. La aplicación llama a una función de la biblioteca de interfaz (mediante una llamada normal) y esa función es la que realmente hace la llamada al sistema. Pero lo más importante es que una llamada de función no cambia el modo de ejecución de la CPU. Esto se hace utilizando instrucciones máquina diseñadas específicamente para este cometido. En ambos casos. y hacer que se fuerce un cambio de modo de operación de la CPU en la llamada (y la recuperación del modo anterior en el retorno). que son bibliotecas de funciones que pueden usarse para efectuar llamadas al sistema. cualquier cambio en el SO haría que hubiera que reconstruir la aplicación. normalmente no sabe dónde está situada la rutina de servicio de la llamada. Por lo que si ésta se codifica como una llamada de función. Con lo que hay que conseguir llamar a la rutina de servicio. pudiendo deberse estas llamadas a dos condiciones: y y Algún dispositivo de E/S necesita atención. sin tener que conocer su ubicación. Excepción: una situación de error detectada por la CPU mientras ejecutaba una instrucción. que requiere tratamiento por parte del SO. Según los dos casos anteriores tenemos las interrupciones y la excepciones: y y Interrupción: señal que envía un dispositivo de E/S a la CPU para indicar que la operación de la que se estaba ocupando. [editar] Tratamiento de las interrupciones . [editar] Interrupciones y excepciones El SO ocupa una posición intermedia entre los programas de aplicación y el hardware. Se ha producido una situación de error al intentar ejecutar una instrucción del programa (normalmente de la aplicación). por ello se crean las bibliotecas de interfaz. no figura en el programa. ya ha terminado. la acción realizada no está ordenada por el programa de aplicación. la unidad de control lanza una excepción para permitir al SO ejecutar el tratamiento adecuado. En ciertos intervalos de tiempo puede convenir no aceptar señales de interrupción. después de terminar la ejecución de la instrucción en curso. Un ejemplo de sincronismo por interrupción es el almacenamiento de caracteres introducidos mediante el teclado. se codifica en el registro de datos del dispositivo y además se activa un bit del registro de estado quien crea una interrupción en el hardware. para hacer que el programa que estaba esperando por el dispositivo. El inconveniente es que el dispositivo debe tener los circuitos electrónicos necesarios para acceder al sistema de interrupciones del computador. ante la cual debe poder identificar el dispositivo que la ha causado. se continúe ejecutando. Por ello las interrupciones pueden inhibirse por programa (aunque esto no deben poder hacerlo las mismas). El procesador deja temporalmente la tarea que estaba completando y ejecuta la rutina de atención a la interrupción correspondiente.Una interrupción se trata en todo caso. mientras otra permanece a la espera de que concluya una operación en un dispositivo de E/S. Cuando se introduce un carácter. El tratamiento depende de cuál sea el dispositivo de E/S que ha causado la interrupción. El teclado almacena el carácter en el vector de memoria intermedia ( también llamado buffer) asociada al teclado y despierta el proceso que había en el estado de espera de la operación de entrada/salida. [editar] Importancia de las interrupciones El mecanismo de tratamiento de las interrupciones permite al SO utilizar la CPU en servicio de una aplicación. El hardware se encarga de avisar al SO cuando el dispositivo de E/S ha terminado y el SO puede intervenir entonces. Al contrario que en una interrupción. [editar] Excepciones Cuando la CPU intenta ejecutar una instrucción incorrectamente construida. [editar] Clases de excepciones Las instrucciones de un programa pueden estar mal construidas por diversas razones: y El código de operación puede ser incorrecto. la instrucción en curso es abortada. La ventaja de este procedimiento es que no se tiene que perder tiempo ejecutando continuamente rutinas para consultar el estado del periférico. si es conveniente. Las excepciones al igual que las interrupciones deben estar identificadas. . El SO es el responsable de: y y y Crear y destruir los procesos. como dividir por cero. que las aplicaciones realicen operaciones que no les están permitidas. memoria. Ofrecer mecanismos para que se comuniquen y sincronicen. Parar y reanudar los procesos. Es bastante frecuente que el tratamiento de una excepción no retorne al programa que se estaba ejecutando cuando se produjo la excepción. sino que el SO aborte la ejecución de ese programa. En cualquier caso.y y y Se intenta realizar alguna operación no definida. La instrucción puede no estar permitida en el modo de ejecución actual. [editar] Gestión de procesos Un proceso es simplemente. Se puede tener una lista de tareas a realizar y a estas fijarles prioridades alta. junto a los modos de ejecución de la CPU y los mecanismos de protección de la memoria. el tratamiento específico de una excepción lo realiza el SO. La dirección de algún operando puede ser incorrecta o se intenta violar alguno de sus permisos de uso. Como en el caso de las interrupciones. [editar] Componentes de un sistema operativo Componentes del Sistema Operativo. [editar] Importancia de las excepciones El mecanismo de tratamiento de las excepciones es esencial para impedir. el hardware se limita a dejar el control al SO. archivos y dispositivos de E/S. baja por ejemplo. La gestión de procesos podría ser similar al trabajo de oficina. media. Debemos comenzar haciendo las tareas de prioridad alta primero y cuando se terminen seguir con las . Este factor depende de la pericia del programador para controlar la excepción adecuadamente. y éste es el que trata la situación como convenga. un programa en ejecución que necesita recursos para realizar su tarea: tiempo de CPU. Asignar y reclamar espacio de memoria cuando sea necesario. Decidir qué procesos se cargarán en memoria cuando haya espacio disponible. [editar] Sistema de archivos Los archivos son colecciones de información relacionada. ya que la memoria principal (almacenamiento primario) es volátil y además muy pequeña para almacenar todos los programas y datos. Verificar que los datos se guarden en orden [editar] El sistema de E/S Consiste en un sistema de almacenamiento temporal (caché). y permanezcan en la lista para siempre. se puede asignar alta prioridad a las tareas más antiguas. El sistema operativo debe gestionar el almacenamiento temporal de E/S y servir las interrupciones de los dispositivos de E/S. También es necesario mantener los datos que no convenga mantener en la memoria principal. información de bases de datos. Realizar copias de seguridad de archivos. textos. etc. definidas por sus creadores. una interfaz de manejadores de dispositivos y otra para dispositivos concretos. Gestionar el espacio libre. Una vez realizada la tarea se tacha. Para solucionar esto. es volátil y pierde su contenido en los fallos del sistema. Establecer la correspondencia entre archivos y unidades de almacenamiento. Esto puede traer un problema que las tareas de baja prioridad pueden que nunca lleguen a ejecutarse. [editar] Gestión de la memoria principal La Memoria es una gran tabla de palabras o bytes que se referencian cada una mediante una dirección única. El SO se encarga de: y y y y Planificar los discos. Ofrecer funciones para manipular archivos y directorios. El SO es responsable de: y y y y Construir y eliminar archivos y directorios.de prioridad media y después las de baja. Este almacén de datos de rápido accesos es compartido por la CPU y los dispositivos de E/S. El SO es el responsable de: y y y Conocer qué partes de la memoria están siendo utilizadas y por quién. Éstos almacenan programas (en código fuente y objeto) y datos tales como imágenes. [editar] Gestión del almacenamiento secundario Un sistema de almacenamiento secundario es necesario. Asignar el almacenamiento. . los sistemas de ficheros FAT32 y NTFS. Los dispositivos de E/S (entrada y salida) . Comunicaciones. XFS. en un sistema NTFS el tamaño es considerablemente mayor. es decir. el Sistema Operativo administra: y y La CPU (Unidad Central de Proceso. EXT3. sin embargo. Información del estado del sistema. NTFS.Existen diferentes Sistemas de Archivos. existen diferentes formas de organizar la información que se almacena en las memorias (normalmente discos) de los ordenadores. [editar] Gestor de recursos Como gestor de recursos. Por ejemplo. etc. sin embargo. existen diferencias muy importantes. que se utilizan fundamentalmente en sistemas operativos de Microsoft. siendo algunas de las tareas que realizan: y y y y Manipulación y modificación de archivos. [editar] Sistemas de protección Mecanismo que controla el acceso de los programas o los usuarios a los recursos del sistema. [editar] Sistema de comunicaciones Para mantener las comunicaciones con otros sistemas es necesario poder controlar el envío y recepción de información a través de las interfaces de red. donde está alojado el microprocesador). Forzar el uso de estos mecanismos de protección. [editar] Programas de sistema Son aplicaciones de utilidad que se suministran con el SO pero no forman parte de él. El SO se encarga de: y y y Distinguir entre uso autorizado y no autorizado. También hay que crear y mantener puntos de comunicación que sirvan a las aplicaciones para enviar y recibir información. Ofrecen un entorno útil para el desarrollo y ejecución de programas. Desde el punto de vista del usuario estas diferencias pueden parecer insignificantes a primera vista. Soporte a lenguajes de programación. FAT32. y crear y mantener conexiones virtuales entre aplicaciones que están ejecutándose localmente y otras que lo hacen remotamente. Por ejemplo. tienen una gran diferencia para un usuario que utilice una base de datos con bastante información ya que el tamaño máximo de un fichero con un Sistema de Archivos FAT32 está limitado a 4 gigabytes. existen los sistemas de archivos FAT. Especificar los controles de seguridad a realizar. [editar] Manejo de recursos y y Centralizado: Si permite utilizar los recursos de una sola computadora.O. continuará haciéndolo hasta su finalización y/o interrupción. de manera que el usuario percibe que todos funcionan a la vez.) en un momento dado. [editar] Administración de usuarios y y Monousuario: Si sólo permite ejecutar los programas de un usuario al mismo tiempo. Multitarea: Es capaz de ejecutar varios procesos al mismo tiempo. Una vez que empieza a ejecutar un proceso. accediendo a la vez a los recursos de la computadora. Multiusuario: Si permite que varios usuarios ejecuten simultáneamente sus programas.. de forma concurrente.y y y y La memoria principal (o de acceso directo). y en general todos los recursos del sistema. normalmente asigna los recursos disponibles (CPU. periféricos. Normalmente estos sistemas operativos utilizan métodos de protección de datos. ) de más de una computadora al mismo tiempo. disco. Los procesos (o programas en ejecución). Distribuido: Si permite utilizar los recursos (memoria. periféricos) de forma alternada a los procesos que los solicitan.. [editar] Clasificación [editar] Administración de tareas y y Monotarea: Solamente puede ejecutar un proceso (aparte de los procesos del propio S. de manera que un programa no pueda usar o cambiar los datos de otro usuario. . memoria.O. Los discos (o memoria secundaria). Este tipo de S. CPU. Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Historia de los sistemas operativos}} ~~~~ Un sistema operativo es un conjunto de programas destinado a permitir el uso apropiado de las partes fisicas del ordenador hardware. el buffering y el spooling. la enciclopedia libre (Redirigido desde Historia y evolución de los sistemas operativos) Saltar a navegación. Almacenamiento temporal == Su objetivo era disminuir el tiempo de carga de los programas. prensa diaria o páginas de Internet fidedignas. 1. he ahi su importancia Es posible encontrar en el tiempo entre la retirada de un trabajo y el montaje del siguiente.Historia de los sistemas operativos De Wikipedia. búsqueda Este artículo o sección necesita referencias que aparezcan en una publicación acreditada.1 Mac OS . Contenido [ocultar] y y y y y y y y y 1 Multiprogramación 2 Tiempo compartido 3 Tiempo real 4 Multiprocesador 5 Sistemas operativos desarrollados 6 Inconvenientes de los sistemas existentes 7 Características de los nuevos sistemas 8 Sistemas operativos desarrollados 9 Años 80 o 9. En los años 60 se produjeron cambios notorios en varios campos de la informática. con la aparición del circuito integrado la mayoría orientados a seguir incrementando el potencial de los ordenadores. por el hecho de que eran tarjetas perforadas las cuales las tenia que leer el sistema. monografías. haciendo simultánea la carga del programa o la salida de datos con la ejecución de la siguiente tarea. Era sumamente complicado. Para ello se utilizaban técnicas de lo más diversas. Para ello se utilizaban dos técnicas. y de esta manera interactuar con el usuario. como revistas especializadas. Sin un sistema operativo el usuario seria incapaz de poder trabajar con un computador ya que este no seria mas que una conjunto de piezas electronicas sin objetivo. en lugar de esperar a que termine la operación de E/S. [editar] Multiprocesador Diseño que no se encuentran en ordenadores monoprocesador. al igual que en la multiprogramación. Al realizar una operación de E/S los programas ceden la CPU a otro programa. en el cual existen varios usuarios con un terminal en línea. Estos problemas derivan del hecho de que dos programas pueden ejecutarse simultáneamente y. Concretamente.1 GNU/Linux o o [editar] Multiprogramación En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. para conseguirla debe convertirse en un sistema multiusuario. pero adolece la falta de interactividad.3 Microsoft Windows 10 Años 90 o 10. en su mayoría externos al ordenador. De esta forma es posible.y 9. Pero. se pasa a ejecutar otro programa. El tiempo de respuesta a su vez debe servir para resolver el problema o hecho planteado.2 MS-DOS 9. Si éste realiza. cuando un programa lleva cierto tiempo ejecutándose el sistema operativo lo detiene para que se ejecute otra aplicación. otra operación de E/S. Existen dos arquitecturas que resuelven estos problemas: . sus primeros usos fueron y siguen siendo en telecomunicaciones. utilizando el modo de operación de tiempo compartido. y pasa a ejecutarse otro. Si el sistema no respeta las restricciones de tiempo en las que las operaciones deben entregar su resultado se dice que ha fallado. potencialmente. La CPU ejecuta instrucciones de un programa. [editar] Tiempo compartido Artículo principal: Tiempo compartido En este punto tenemos un sistema que hace buen uso de la electrónica disponible. En estos sistemas los programas de los distintos usuarios residen en memoria. a su vez. cuando el que se encuentra en ejecución realiza una operación de E/S. a diferencia de ésta. en lo que se refiere a las lecturas y escrituras en memoria. utilizar de manera óptima los recursos disponibles. pues se procesa el archivo antes de que entre el siguiente. pueden interferirse entre sí. se mandan las órdenes oportunas al controlador. [editar] Tiempo real Estos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un gran número de sucesos. teniendo almacenado un conjunto adecuado de tareas en cada momento. El procesamiento de archivos se hace de una forma continua. Si otro microprocesador tiene almacenada la misma dirección de memoria en su caché. [editar] Características de los nuevos sistemas Para solventar los problemas antes comentados. Cada microprocesador cuenta con su propia memoria cache local. Se desarrolló . los años 70 marcaron el inicio de UNIX.multitarea desarrollado por los laboratorios Bell de AT&T y Unix. donde cada procesador tiene acceso y control exclusivo a una parte de la memoria. Para que un multiprocesador opere correctamente necesita un sistema operativo especialmente diseñado para ello. que comenzó en los 60. a mediados de los 60 aparece Multics. [editar] Sistemas operativos desarrollados y MULTICS (Multiplexed Information and Computing Service): Originalmente era un proyecto cooperativo liderado por Fernando Corbató del MIT. La mayoría de los sistemas operativos actuales poseen esta capacidad. Otro de los inconvenientes es el gran consumo de recursos que ocasionaban. debido a los grandes espacios de memoria principal y secundaria ocupados. lo hace únicamente sobre su copia local en caché. sistema operativo multiusuario . convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel. pues antes no se había construido nada similar y muchos de los proyectos desarrollados terminaron con costos muy por encima del presupuesto y mucho después de lo que se marcaba como fecha de finalización. complejos y costosos. Smalltalk. con General Electric y los laboratorios Bell. donde todos los procesadores comparten toda la memoria. resultará que trabaja con una copia obsoleta del dato almacenado. éste debía conocer un complejo lenguaje de control para realizar sus trabajos. y en la revolucionaria orientación a objetos. pero los laboratorios Bell abandonaron en 1969 para comenzar a crear el sistema UNIX. Además. se realizó un costosísimo trabajo para interponer una amplia capa de software entre el usuario y la máquina. [editar] Inconvenientes de los sistemas existentes Se trataba de sistemas grandes. Esta última debe lidiar con el problema de la coherencia de caché. así como el tiempo de procesador consumido. En el campo de la programación lógica se dio a luz la primera implementación de Prolog. aunque formaban una capa entre el hardware y el usuario. La arquitectura SMP. De manera que cuando un microprocesador escribe en una dirección de memoria. Es por esto que se intentó hacer hincapié en mejorar las técnicas ya existentes de multiprogramación y tiempo compartido. [editar] Sistemas operativos desarrollados Además del Atlas Supervisor y el OS/360.La arquitectura NUMA. de forma que el primero no tuviese que conocer ningún detalle de la circuitería. chips que contenían miles de transistores en un centímetro cuadrado de silicio. como Smalltalk o C.1. Multitareas y Mouse. al precio de US $1. los traducía a instrucciones de alto nivel destinadas a BDOS. a partir de la cual MS-DOS dejó de existir como un componente del Sistema Operativo. después fue soportado por la serie de máquinas Honeywell 6180. escrito por Microsoft para IBM PC y otras computadoras que utilizaban la CPU Intel 8088 y sus sucesores. y UNIX. versión 8 en Windows Milenium. En esta escena. por lo que acabó desapareciendo. siguieron utilizándose lenguajes ya existentes. empezó el auge de los ordenadores personales. Incluía su sistema operativo Mac OS cuya características novedosas era una GUI (Graphic User Interface). e interfaces gráficas. En esta época. años después. [editar] Mac OS El lanzamiento oficial del ordenador Macintosh en enero de 1984. . tras realizar unas pocas modificaciones. un sistema de 36 bits. Esto reducía la rapidez de las aplicaciones. y Haskell y Miranda en el campo de la programación declarativa. se convirtió en la primera versión de MS-DOS (MicroSoft Disk Operating System). El hecho de que. de los cuales se podrían destacar: C++ y Eiffel dentro del paradigma de la orientación a objetos. dos sistemas operativos eran los mayoritarios: MSDOS(Micro Soft Disk Operating System).inicialmente para el mainframe GE-645. En éstos se dejó un poco de lado el rendimiento y se buscó más que el sistema operativo fuera amigable.995 (después cambiado a $2. A partir de aquí se sucedieron una serie de cambios hasta llegar a la versión 7. Provocó diferentes reacciones entre los usuarios acostumbrados a la línea de comandos y algunos tachando el uso del Mouse como juguete.Desde los años 70 han cambiado los sistemas ya que la ciencia ha desarrollado nuevos conocimientos [editar] Años 80 Con la creación de los circuitos LSI -integración a gran escala-. Fue uno de los primeros. y BDOS (Basic Disk Operating System): Traductor de las instrucciones en llamadas a la BIOS. IBM eligiera para sus PC a MS-DOS supuso su mayor fracaso. y nacieron otros nuevos.495 dólares)[1]. Un avance importante que se estableció a mediados de la década de 1980 fue el desarrollo de redes de computadoras personales que corrían sistemas operativos en red y sistemas operativos distribuidos. surgiendo menús. pero se volvían más prácticos y simples para los usuarios. Además. [editar] MS-DOS En 1981 Microsoft compró un sistema operativo llamado QDOS que. que dominaba en los ordenadores personales que hacían uso del Motorola 68000. Hoy en día dispone de Ventanas. Hoy en día es el sistema operativo más difundido en el ámbito doméstico aunque también hay versiones para servidores como Windows NT.. [editar] Años 90 [editar] GNU/Linux Este sistema es una versión mejorada de Unix. GNOME entre muchos. que tuvo innumerables criticas durante el poco tiempo que duró en el mercado. Ahora el más reciente es (Windows 7) (Windows Seven) que salio al mercado el 22 de octubre del 2009. Años después se hizo el (Windows 98) que era el más eficaz de esa época Después se crearía el sistema operativo de (Windows ME) (Windows Millenium Edition) aproximadamente entre el año 1999 y el año 2000.[editar] Microsoft Windows A mediados de los años 80 se crea este sistema operativo. un sistema que en principio trabajaba en modo comandos. gracias a un servidor gráfico y a gestores de ventanas como KDE. solo era una interfaz gráfica del (MS-DOS)en el cual se disponía de unos diskettes para correr los programas.. Lo que permite utilizar linux de una forma visual atractiva. Después le seguiría el sistema operativo más utilizado en la actualidad. (Windows XP) y otros sistemas operativos de esta familia especializados en las empresas. (Microsoft) ha diseñado también algunas versiones para superordenadores. . dejando atrás al (Windows Vista). pero sin mucho éxito. pero no es hasta la salida de (Windows 95) que se le puede considerar un sistema operativo. basado en el estándar POSIX . Recientemente GNU/Linux dispone de un aplicativo que convierte las ventanas en un entorno 3D como por ejemplo Beryl o Compiz. Un año después se crearía el sistema operativo de (Windows 2000) en ese mismo año. 0 Windows 2.1 y Windows 3.4 (Tiger) Mac OS X v10.6 (Snow Leopard) .0 Windows 3.1 OS/2 2.0 Windows 3.3 (Panther) Mac OS X v10.1 (Puma) Mac OS X v10.51 Windows NT 4.2 (Jaguar) Mac OS X v10.0 y 4.Sistemas operativos que exixsten MICROSOFT: Windows 1.0 OS/2 OS/2.0 OS/2 3.1 Windows NT 3.0 Windows 95 Windows 98 Windows 98 Second Edition (SE) Windows Millenium Edition (ME) Windows 2000 Windows XP (eXPerience) Windows Server 2003 Windows Vista Windows Server 2008 Windows 7 APPLE System 6 System 7 Mac OS Mac OS Mac os 8.11 Windows NT Windows NT 3.5 (Leopard) Mac OS X v10.5/3.5 Mac OS 9 Mac OS X Mac OS X v10. 6.4.02 0.5.3.0.2.es un sistema operativo que fue producto de la alianza de varias empresas de telefonía móvil UNIX LINUX FreeBSD NetBSD AIX HP-UX OpenBSD SPARC-OS SunOS Solaris XENIX IDRIX System V ULTRIX SolOS Solinux Solinux OSF/1 Minix .11 0.0 2.0 1.0 2.0 2.0 2.0 2.LINUX 0.0 2.0 2.25 SYMBIAN OS .2.0 1.1.1.0.95 1.0 1.3.0 2.01 0.6. en velocidad. En las computadoras de esta generación se reemplazaron las válvulas por los transistores. etc. El circuito integrado consiste en un gran número de componentes electrónicos (transistores. Primera Generación (1945-1955) Se llama así a la generación de tubos al vacío y válvulas.) miniaturizados y encapsulados en un espacio de pocos centímetros. Cuarta Generación (1980-1990) Se la denomina de computadora personal o de computadora hogareña. hoy se resume en un centímetro cuadrado.Las cinco Generaciones de Computadoras GENERACIONES DE COMPUTADORAS 1. 4. Se llama así ya que los microprocesadores son chips mucho más pequeños que contienen en un centímetro cuadrado. 2.1965) Se Llamaba de los transistores y sistemas en Lote.000 válvulas. Con eso se pudo reducir el tamaño de los ordenadores y aumentar su velocidad de trabajo.000 cálculos por segundo. Muy lentas en sus procesos. Tercera Generación (1965 . e introduciendo nuevas técnicas de programación. tanto que la resolución de programas largos implicaba varios d/as de espera. en compatibilidad. Pese a todo fue muy útil pues podía resolver 5. Aunque todavía eran un poco lentas 3.1980) Se llama de circuitos integrados y de multiprogramación. El gran descubrimiento de este periodo fueron los circuitos integrados denominados CHIP. resistencias. miles de Si hacen memoria quiere decir que la computadora ENIAC con 18. Este descubrimiento produjo grandes cambios en cuanto al tamaño de las computadoras. que ocupaba mas de una habitación. . Se caracterizó por maquinas muy grandes y pesadas. Segunda Generación (1955 . los primeros prototipos de nuevos ordenadores que formaran la Quinto Generación. PC AT 586 PENTIUM PENTIUM PRO PENTIUM II PENTIUM III . (Estos tendrán la capacidad de realizar deducciones empleando el lenguaje del hombre. COMMODORE 64 Y 128.) Esta Quinta generación que recién comienza se denominará: Computadora inteligente o inteligencia artificial Computadoras que se destacaron en ésta generación PC AT 80286. 5. como por ejemplo las TEXAS INSTRUMENT 99/4A. PC AT 80486. PC AT 80386. SPECTRUM.De esta forma muchas familias comenzaron a tener computadoras en sus casas. Quinta Generación (1990) Hasta la Fecha En la actualidad los piases más adelantados. entre los que figuran Japón y Estados Unidos están investigando y produciendo. y líder durante 40 años.inventó la máquina de diferencias.1642: A la edad de 19 años Pascal desarrolla su machina arithmetica. crea una tabuladora para la realización del censo de EE. Es considerada como el primer ordenador mecánico de propósito general. .de C.. considerado el padre de la informática. . Las influencias siempre cuentan.1653: No quedan ahí los avances de Pascal que creó la Pascalina. .1822: Babbage.1623: Coincidiendo con el nacimiento de Pascal. . .1903: John von Neumann nacido en Budapest en este año.1832: Babbage perfeccionó su obra creando la máquina analítica. . . física nuclear (colaboró en el proyecto de los Alamos sobre la bomba atómica). teoría de conjuntos.1621: El sacerdote inglés William Oughtred fue el primero en utilizar dos líneas de números que se desplazasen superpuestas y permitiesen realizar cálculos logarítmicos. . Consistía en un conjunto de cuentas colocadas en una varilla. . Watson entró en el mundo profesional como vendedor en NCR. padre del sistema binario.UU.UU. Para una población de 65 millones de habitantes tardó 2 años y medio. teoría de juegos. construyó la primera calculadora que realizaba las cuatro operaciones. publicó trabajos sobre economía. fundador de esta compañía.1800: Un mecánico francés. Fundó así la Tabulating Machine Co. en 1890.000 libras para su creación. realizaba copias perfectas. y él conocía al director de esta compañía. Fue denominada la Calculadora Universal. un profesor de lengua de la Universidad de Tübingen y astrónomo. en 1930. pero aun así fue considerada como la primera calculadora mecánica. Thomas J. No funcionó porque la tecnología mecánica de la máquina no se adaptaba perfectamente al software. con idea de aportarlos a la máquina de Babbage.1886: Herman Hollerit. Lady Ada Byron. . . . emigró a EE.1874: Fecha esencial para la empresa IBM ya que nace Thomas John Watson. la escritora Mary Shelley publicó su famosa novela Frankenstein. Esta tuvo mucha influencia en cuanto a la interpretación social de las ciencias del maquinismo.:El primer instrumento que usó el hombre para realizar un cálculo aparte de los dedos fue el ábaco. .Siglo XV: Leonardo da Vinci dio un paso más e hizo una reproducción mecánica del ábaco. Tuvo tan mala suerte que el modelo fue destruido en un incendio. Jacquard inventó un telar automático que. capaz de sumar y restar números utilizando juegos de ruedas dentadas. hija del famoso escritor Lord Byron (también conocida como duquesa de Lovelace) realizó los primeros programas del mundo de la Informática. cibernética e informática. Su aportación al campo de la ciencia fue bastante grande.1895: El ya nombrado fundador de IBM. . Esta fue abandonada sin acabar a pesar de que el gobierno británico cediese 20. . .1896: Hollerit se preocupó en crear su propia empresa para poder explotar sus inventos conforme él deseaba.Siglo III y IV a. gracias a un sistema de tarjetas perforadas. análisis matemáticos.1817: En esta fecha. . . Doce años despues Schickard murió debido a una de las epidemias de peste que asolaron Europa. el alemán Schickard diseñó la primera calculadora que se encargaba de sumar y restar. de procedencia americana y descendencia alemana.1671: Gottfried Wilhelm Leibniz.1860: Charles Babbage logra aunar todos los conceptos de mecanización conseguidos gracias a la Pascalina con la automatización mediante tarjeta perforadas. que pasaría a ser la primera calculadora con programa almacenado.E. Crearon así la EDVAC. . Fue el primer ordenador fabricado en serie destinado a un uso comercial. Sus creadores fueron John Mauchly. En esta fecha se termina de construir la ENIAC. estos ordenadores al igual que todos los de su generación funcionaban gracias a los tubos de vacío. de las cuales 5 eran vendedores. .A. . con lo cual no tuvo mucha influencia en posteriores investigaciones.1944: La anteriormente nombrada MARK I se presenta al mercado... .1934: La Bull francesa surge como compañía a tener en cuenta. y la Bundy Manufacturing Co.1946: Mauchly y Eckert continuaron su trabajo con la colaboración de John von Neumann. Con este modelo aparecieron las cintas magnéticas como soporte de información.Computer (ABC). Su trabajo fue interrumpido por la Segunda Guerra Mundial.1942: Se produce la computadora Atanasoff-Berry.1948: Se crea la empresa Hewlett Packard (HP).1949: La filial en España de IBM. . sino también letras. .1931: Se produce una importante mejora en el campo de las tabuladoras. "Máquinas Watson'" decide cambiar de nombre por el de IBM S. en las que se pasa a poder imprimir no sólo números.. una máquina programable de números complejos.1951: Mauchly y Eckert continúan sus andanzas creando una máquina denominada UNIVAC. En aquel momento sólo 35 personas constituían esta filial. . con: la Dayton Scale Co. . trabajando en cooperación con IBM comenzó la construcción de la que sería la primera calculadora electromecánica de carácter general.1941: Se crea la filial de IBM en España bajo el nombre de "Máquinas Watson'". Howard Aiken.1938: El alemán Konrad Zuze construyó una calculadora mecánica sin tener conocimientos de los avances de Babbage. (CTR). uno de los españoles que más influencia ha tenido en el mundo de la informática mejoró la máquina de Babbage con su sistema de aritmómetros y desarrolló la aritmética de coma flotante. También fue conocida como Model I. .1924: Después de 13 años de existencia. . Crean así la Computing-Tabulating-Recording Co.1911: Se fusiona la compañía de Hollerith. comenzada en 1939 y realizada a base de lógica binaria.la Z1. utilizando medio millón de tarjetas perforadas.1943: En la Universidad de Pennsylvania se crea la primera calculadora electrónica de carácter general. cálculo serie y memoria regenerativa. . la CTR cambia su nombre por el de IBM (International Business Machines Corporation). Grace Murray Hooper desarrolló el primer compilador. La denominaron ENIAC y fue diseñada para calcular tablas balísticas útiles en la Segunda Guerra Mundial. para ocuparse de la fabricación de equipos electrónicos. Esta se considera la primera aplicación científica de la tabuladora. La acabaría en 1944 bautizándola con el nombre de MARK I. Tabulating Machine Co.1920: Torres Quevedo. Presper y Eckert. calcula las órbitas lunares desde 1935 hasta el año 2000. . .1937: Stibiz creó la complex calculator. . . lo harían desde la empresa Remington Rand. la International Time Recording Co. . el cual todavía se conserva.1939: Un físico de la Universidad de Harvard.1952: IBM saca al mercado su IBM 705. . trabajaba en binario y estaba dotada de un teletipo de entrada. Fue una de las programadoras del MARK I. creó el lenguaje COBOL..1928:El inglés Leslie John Comrie. . y coincidiendo con el día de San Valentín. . Una de las empresas innovadoras en este campo fue Sperry Rand. Se logra uno de los mayores inventos de la historia. se reconstruyó según los esquemas encontrados en manuscritos de Leonardo da Vinci.1956: Surge como líder a partir de ese momento IBM. el primer microprocesador de 4 bits. todavia no ha habido un cambio cualitativo que lo determine. . Su creación se llevó a cabo en el Laboratorio Científico de Cálculo Watson. Aunque algunos autores comienzan a hablar de la proximidad de la quinta generación. . escrito por usuarios y distribuido gratuitamente..1966: Texas Instruments presenta la que será la primera calculadora de bolsillo. el IBM 360/67.1955: Por primera vez se incorpora a un ordenador un sistema operativo. Thomson y Ritchie generan la primera versión de Unix. . . Bob Noyce y Andy Grove. .1958: Comienza la segunda generación de ordenadores. profesores del Darmouth College.1972: Intel lanza el 8008 de 8 bits. Con este avance se consiguió una reducción de mil millones en el consumo de energía. Se comercializa el primer ordenador con memoria virtual. una calculadora mecánica. John Backus. lo cual revolucionaría el campo de los ordenadores. . la DEC PDP-1. por ello aún nos en contramos en esta cuarta fase.1967: Como acontecimiento anecdótico. la 360. .1964: Nace la tercera generación de ordenadores en la que los transistores son sustituidos por circuitos integrados. el FORTRAN (FORmula TRANslator).1954: Un empleado de IBM. creando el primer ordenador con memoria auxiliar de discos magnéticos. crearon en este año Intel (INTegrated Electronics). desarrolla el primer lenguaje compilador. . diferenciada de la anterior en que se remplazan los tubos de vacío por los transistores. introduciendo su gama de calculadoras: IBM 650 e IBM 700. ubicado en el West Side de Manhattan. que en un principio se dedicaría al desarrollo de tecnología de integración de los transistores de silicio. la cual había sido constituida por la fusión de Remington Rand y Sperry.1953: Los ordenadores sufren un cambio importante. John Kemeny y Thomas Kurtz.1975: Bill Gates junto con Paul Allen creó una de las empresas más grandes y populares del mundo de la informática. éste poseía características del FORTRAN y del ALGOL. .1960: Se crea la primera minicomputadora. Intel saca al mercado el 4004. Se presenta así el primer microprocesador comercialmente disponible. diseñan el lenguaje BASIC (Beginners All-purpose Symbolic Instruction Code).1974: Con la innovación que supuso la aparición de los microprocesadores comienza la cuarta generación de ordenadores. Este ordenador.1971: Se da a conocer la supercomputadora Cray-1. con la diferencia de que fue mucho más popular debido a su facilidad de manejo y el pequeño coste que suponía su implantación y uso. IBM introduce una de sus computadoras más famosas. . el IBM704. núcleos de ferrita. . utilizando a partir de este momento. El micral es anunciado por la empresa RE2i. el transistor. Se estrenaron vendiendo la . . Microsoft.1968: Tres ingenieros con mucha iniciativa: Gordon Moore. sería además el primero que utilizó núcleos de ferrita para la memoria central. como soporte de información para la memoria central. Además sacó al mercado el sistema IBM 305 RAMAC (Random Acces Memory Accounting Computer). Con 26 y 21 años respectivamente. Victor. el Apple I. Compaq.1987: Cada vez más todas y cada una de las compañías luchan por innovar y destacar en el mercado. el Disk II. . Hewlett Packard. . "el ordenador para el resto del mundo". Se introduce en el ya amplio mercado de los ordenadores.obra que completaron. de la mano de Software Arts. IBM crea la nueva arquitectura microchanel de los PS/2. el cual fue considerado copia del de Compaq. Apple saca al mercado los modelos SE y II de Macintosh. . Spectrum y QL). y el AT.1979: Aparece en el mercado la primera hoja de cálculo electrónica. . la cual se dedicaba hasta el momento únicamente a la fabricación de calculadoras. El primer lenguaje de tipografía informática. IBM saca al mercado el 8530-286 PS/2 y anuncia su paso al bus ISA.1978: Apple crea el primer lector de 5.25 pulgadas para micro. el TeX. Apple sigue innovando con la creación de las Laser Writer.1988: Steve Jobs.1984: Apple crea el Macintosh. Digital. Motorola presenta su 68000. . es inventado por Donald Knuth. Dragon. . Uno de los grandes del momento. . Lotus comercializa su hoja de cálculo 1-2-3. Intel presenta el i386SX. Sinclair (con sus famosos modelos ZX 80. el Data Master. IMI produce su primer disco duro para micro. En IBM se comienza elproyecto de creación del PC. Compaq. . el primer procesador de 16/32 bits. . ZX 81. el BASIC. aparecen una variada gama de fabricantes de microordenadores: Texas Instruments. a MIT. La arquitectura EISA es creada por Compaq y "la banda de los nueve". y el OS/2. lanzando una campaña publicitaria con anuncios a doble página en los que se podía leer: "Welcome IBM!". con el modelo XT. se denominó la NeXT Computer. Esta empresa fue la que sacó al mercado la primera microcomputadora producida comercialmente. la Altair. el cual incorporaba teclado y fuente de alimentación.1976: Stephen Wozniac y Steven Jobs se reunieron en un garaje del que al final saldría el que sería el primero de sus encargos. Epson. Intel lanza el 8086. . un avance sin precedentes en el mundo de la informática. Olivetti.1985: Aldus saca al mercado el conocido PageMaker. Estando ya cercanos a la década de los 80. lanza el N1000. tenían un prometedor futuro al que hacer frente. Toshiba. Osborne. 80286 de Intel y disco duro de 30 Mbytes. con capacidades gráficas. creador y personaje fundamental en la historia de Apple.1981: Se presenta el PC de IBM. . Genie.1977: En enero de este año se constituye Apple como sociedad. comercializan los primeros 386. . Apple saca al mercado su ordenador Lisa. Oric. Atari. la VisiCalc. y tantos otros marcas a los que se podría hacer mención.1986: ALR y posteriormente. IBM responde con el lanzamiento del portátil. Presentan el Apple II. Apple quiso hacerse notar en aquel entonces.con procesador de 16 bits.1983: IBM consigue una gran mejora en el PC. .1982: La computadora es designada "Hombre del año" por la revista Time. NEC. la empresa Commodore. Dennis Hayes lanza al mercado el primer módem para micro en tarjeta. lanza su portátil. Computerland abre al público su primera tienda especializada en California. un PC como no se había conocido hasta la fecha. dotado de disco duro de 10 Mbytes. . al mismo tiempo que comienza a mantener diferencias con IBM. .0 de su integrador Windows. y los grandes se juntan. .1990: Los modelos anteriores siguen su normal evolución. lanza la versión 3. creciendo cada día más. Borland adquiere Ashton-Tate.1993: Según un estudio realizado por DataQuest a finales de este año. el 81% de los ordenadores se basaba en la arquitectura Intel. Apple saca al mercado nuevas gamas de Macintosh: los Clasic y los LC. Microsoft. Nace así el PS/2 Junior de IBM (el cual recibió el nombre de PS/1). mientras que Novell se hace con Digital Research. IBM establece alianzas con otras compañías tales como Apple y Motorola.1991: No todo debían ser discrepancias.. Junto con éste.