exposiciones

Exposición «60 años del chip de silicio: Los circuitos integrados que revolucionaron el mundo»

Descripción de la exposición

Horario:
Del lunes 22 al viernes 26 de noviembre, horario continuo


First TI IC

En 1958 Jack Kilby, de Texas Instruments, crea el primer circuito integrado con base de germanio, integrando un transistor, 3 resistencias, y un condensador. Sería el comienzo de la microelectrónica. El aspecto del circuito integrado era tan nimio, que se ganó el apodo inglés que se le da a los pedacitos de algo: chip. Sin embargo, este primer chip era híbrido: los componentes se separaban cortando el material y las conexiones entre ellos se resolvía añadiendo cables de oro. Esto sería resuelto por Robert Noyce, de Fairchild, en 1959, quien crea el primer circuito integrado monolítico de silicio que soluciona el problema de conexiones y separación de componentes que tenia el primer circuito integrado creado por Kilby. Desde entonces los chips siguieron el diseño de Noice y no el de Kilby, aunque el mérito debe recaer en ambos. Kilby ganaría el Premio Nobel en Física en 2000 y Robert Noyce fue uno de los tres fundadores de Intel en 1968, desde hace años el mayor fabricante de circuitos integrados del mundo. El 25 de abril de 1961 la patente del invento de Noyce quedaría registrada y ese mismo año, hace ahora 60, Fairchild lanza "Micrologic", la primera familia de chips comerciales. A partir de ahi los chips serían cada vez más potentes, más pequeños, más rápidos y más baratos provocando una revolución digital que poco a poco cambiaría el mundo para siempre. 

La cada vez mayor capacidad de integración de transistores en estos chips de silicio ha permitido integrar desde decenas y centenares de transistores en los primeros años, a miles y millones en las décadas posteriores, llegando los últimos diseños de hoy en día a alcanzar las decenas de miles de millones de transistores en un chip. Por todo ello, desde su invención los chips y la capacidad de computación que aportan en muchos casos (en un espacio y necesitando una cantidad de energía practicamente despreciables) se encuentran presentes en practicamente todos los productos de hoy en día, desde los dispositivos eminentemente electrónico más evidentes, como ordenadores o smartphones, hasta prendas de vestir o semáforos; sin contar que un porcentaje muy alto de dichos productos simplemente no podrían existir sin estar basados en chips.

Hace algo más de 12 años, en mayo de 2009, la revista IEEE Spectrum publicó un artículo titulado "25 Microchips that Shook the World" donde recogían una lista, que no sigue ningún orden concreto, ni pretende ser exhaustiva, sino solamente centrarse en una muestra de algunos de los chips que, además de su éxito comercial, acabaron impactando enormenente, de una forma u otra, en el gran público.

En esta exposición virtual que pretende celebrar tan impactante invención seguiremos esa misma estrategia, basándonos en su lista de 25 chips (con títulos en azul) para mantener el mismo espíritu de reflejar aquellos chips, más o menos complejos (desde unos pocos transistores o puertas lógicas hasta los más complejos microprocesadores), más o menos recientes (desde los 70 hasta las últimas décadas), que realmente han tenido un impacto muy relevante en el gran público, aunque aportamos nuestro granito de arena (¿o deberíamos decir silicio?) añadiendo algunos otros chips que ayudan a entender el origen o impacto de algunos de ellos, además de incluir nuevos chips a la lista debido a su importancia, según nuestro propio criterio, hasta completar una selección de unos 50 chips. Nuestro agradecimiento a IEEE Spectrum por su artículo tan inspirador, y esperamos que disfruteis de esta exposición que esperamos en breve pueda verse en el MIH de forma real y no sólo virtual como ahora. ¡Ya nos diras cual es tu chip favorito!

 

Temporizador Signetics NE555 (1971)

Circuito integrado 555 

Circuito integrado 555

Categoría: Componentes lógicos

Este circuito integrado lleva usándose 50 años debido a su sencillez para usos de temporización, generación de pulsos y osciladores.

En el verano de 1970 el diseñador Hans Camenzind creó uno de los chips más importantes de todos los tiempos. El 555 era un simple circuito integrado que podía servir tanto como un temporizador como un oscilador. Se convertiría en un éxito de ventas en el sector de los semiconductores analógicos, siendo usado en productos tan diversos como electrodométicos de cocina, juguetes, aviones, y otros mil productos más.

El circuito podía funcionar como un simple temporizador: Se disparaba y funcionaba durante un cierto tiempo. Puede sonar sencillo, pero no existía nada parecido por aquel entonces.

Camenzind invirtió un año probando prototipos, dibujando los componentes del circuito en una hoja de papel, y cortando trozos de película fotográfica. “Se hizo todo a mano, sin ordenadores”, afirmó el ingeniero. Su diseño final consistía en 23 transistores, 16 resistencias y 2 diodos.

Cuando el 555 llegó al mercado en 1971, se convirtió en un éxito inmediato. En 1975 Signetics fue absorbida por Philips Semiconductors, ahora llamada NXP, vendiendo miles de millones de estos chips. Muchos ingenieros siguen utilizando el 555 a día de hoy para crear módulos electrónicos de gran utilidad –y cosas no tan útiles pero si muy chulas, como por ejemplo frontales de automóviles con luces que imitan las de "El Coche Fantástico". 

Circuito integrado 555

Es el chip favorito de Lee Felsenstein (pionero informático) y uno de los de Sophie Wilson (codiseñadora del procesador ARM).

 

Sintetizador de voz Texas Instruments TMC0281 (1978)

die


 

Categoría: Amplificadores y audio

De no ser por el TMC0281, el simpático alienígena de la película de Spielberg nunca hubiera podido llamar su "caaasaaaa". Esto se debe a que el TMC0281, el primer sintetizador de voz en un solo chip, era el corazón (¿o deberíamos decir la boca?) del juguete educativo Speak&Spell, de Texas Instruments, que en la aclamada película de 1982 utiliza E.T. para confeccionar un teléfono intergaláctico (junto a otros materiales como una percha, una lata de café y una sierra circular). Si a día de hoy nos resulta normal oír a las máquinas hablarnos con voz humana, el TMC0281 fue el primer paso en esa dirección.

Lanzado en 1978, el TMC0281 generaba voz usando una técnica llamada Codificación Predictiva Lineal: El sonido se genera por una combinación de zumbidos, siseos y pequeños golpeteos. Según declaraciones de Gene A. Frantz, uno de los cuatro ingenieros que diseñaron el chip, se trató de una impresionante solución técnica que en aquel momento se consideraba “imposible de conseguir en un circuito integrado”. Versiones del TMC0281 se utilizaron en máquinas recreativas de Atari y en la línea de K-cars de Chrysler.

Si alguna vez necesitas hacer una llamada a un sitio muy, muy lejano, siempre puedes encontrar un TMC0281 en unidades de Speak&Spell en eBay por 25€.

  

 

Microprocesador MOS 6502 (1975)

File:MOS 6502 die.jpg - Wikimedia Commons 

Categoría: Procesadores

De la mítica era de los procesadores de 8 bits, este procesador era el corazón de máquinas tan conocidas como el Apple II, el Commodore 64, el BBC Micro y muchas más.

Cuando cierto friki de cara regordeta puso cierto chip en cierto ordenador que él mismo estaba diseñando y lo puso en marcha, sin saberlo acababa de cambiar el mundo para siempre. Ese friki se llamaba Steve Wozniak, el chip era el 6502 (un microprocesador de 8 bits fabricado por MOS Technology), y el ordenador era el Apple I. Dicho chip, y sus variantes, se convertirían con el paso del tiempo en el cerebro de otras máquinas pioneras tan importantes como el Apple II, el Commodore PET, el Commodore 64 y el BBC Micro, sin mencionar consolas como la Nintendo Entertainment System (NES) o la Atari 2600 (también conocida como la Atari VCS).

El 6502 no sólo era más rápido que sus competidores, sino que también era muchísimo más barato: costaba 25$, frente a otras CPUs de la época como el Intel 8080 o el Motorola 6800, que costaban unos 200$. Según Bill Mensch, el creador del chip junto a su amigo Peddle, lo que permitió esta reducción de los costes fue posible la utilización de un set de instrucciones mínimo junto a un proceso de fabricación “que creaba diez veces más chips sin errores que la competencia". El 6502 causó un terremoto en el mercado y prácticamente obligó a todos los fabricantes de procesadores a bajar precios de manera masiva, permitiendo así el inicio de la revolución del ordenador personal.

Una variante del 6502 sigue fabricándose en la actualidad y algunas empresas lo utilizan en sus sistemas empotrados comerciales, así como muchos makers aficionados. Quizá más interesante sea saber que el 6502 es el cerebro electrónico de Bender, el depravado robot de "Futurama" (como pudimos ver en un episodio de 1999). También se confirmó que el 6502 era la CPU del malvado cyborg de la película "Terminator" (1984), interpretado por Arnold Schwarzenegger.

   

Es el chip favorito de David Ditzel (el jefe de arquitectura para computación híbrida paralela en Intel) y uno de los de Sophie Wilson (codiseñadora del procesador ARM).

 

Procesador digital de la señal Texas Instruments TMS32010 (1983)

 

Categoría: Procesadores

El chip que puso en el mapa a los procesadores digitales de señales (o DSP, por sus siglas en inglés), especialistas en convertir los datos del lioso mundo real  para su uso por un ordenador.

El gran estado de Texas ha aportado a la humanidad muchas grandes cosas, como los sombreros vaqueros tipo “Dallas”, los filetes de pollo frito, los rodeos, el infame refresco Dr. Pepper, y lo que quizá sea menos conocido, el chip procesador digital de la señal TMS32010. Creado por Texas Instruments, el TMS32010 no fue el primer DSP de la historia (ese hito se debe atribuir al DSP-1 de Western Electric, lanzado en 1980), era sin duda el más rápido: Podía hacer una multiplicación en 200 nanosegundos, hecho que dejó atónitos a muchos ingenieros de la época. Además, podía ejecutar instrucciones tanto de su memoria ROM interna como de una RAM externa, mientras que sus competidores sólo podían ejecutar una serie de funciones de DSP preestablecidas. Según Wanda Gass, una de las creadoras del chip, “eso hizo el desarrollo de programas para el TMS32010 tan flexible como para microcontroladores y microprocesadores”.

A un precio de venta de 500$ la pieza, el chip vendió 1.000 unidades en su primer año. Con el tiempo las ventas irían creciendo y los DSP se convertirían en un componente esencial de los módems, aparatos médicos y sistemas militares. Ah, y también encontraría otra interesante aplicación: Permitió cantar y hablar a la conocida, aunque inquietante, muñeca parlante “Julie” (de la empresa Worlds of Wonder). El TMS32010 fue el primero en la gran familia de DSPs de Texas Instruments que a día de hoy sigue constituyendo una importante fuente de ingresos para la empresa.

 

Intel 1702 2048-bit EPROM Chip (1971)

   

Categoría: Memorias y almacenamiento

La primera memoria EPROM, borrable por luz ultravioleta.

Se sabe que la luz utravioleta es eficaz para eliminar bacterias. Pero durante los años 70 y 80, se usó también para para borrar datos. Las memorias EPROM (“Erasable programable read-only memory” en inglés) son chips que servían para almacenar datos y que tenían una ventanita de cuarzo a través de la cual un rayo de luz ultravioleta elimina los datos que estuvieran grabados y así poder escribir datos nuevos en el mismo dispositivo.

La idea de utilizar luz ultravioleta para eliminar datos puede parecer extraña a día de hoy, pero causó sensación hace 50 años. Hasta entonces, los chips de memoria solo podían almacenar datos de manera temporal (sin electricidad toda la información guardada se perdía), los chips de RAM, o de manera permanente pero sin posibilidad alguna de cambiarlos a posteriori (los chips ROM, que recibían los datos que iban a guardar durante su fabricación y después no podían cambiarse). Un ingeniero de Intel, Dov Frohman-Bentchkowsky presentó en un congreso de 1971 una manera de construir un tipo de transistor especial que funcionara como un elemento de memoria no volátil. La idea era atrapar electrones en la puerta flotante del transistor aplicándole un voltaje. Los electrones quedarían atrapados en ese transistor incluso cuando el voltaje ya no estuviera presente, y la única manera de liberarlos sería someterlos a una luz ultravioleta (o rayos X).

El primer chip EPROM producido por Intel fue el 1702, que podía almacenar 2 kilobits. Otros diseños similares no tardarían en aparecer en el mercado. Muchos ingenieros, fascinados por la posibilidad del invento, hicieron acopio de muchos chips EPROM... y también de muchas lámparas de rayos ultravioleta.

 

Microcontrolador Texas Instruments TMS1000 (1974)

Categoría: Procesadores

El primer microcontrolador, que abrio la puerta a los sistemas empotrados.

El TMS1000 es una familia de microcontroladores presentada por Texas Instruments en 1974. El encapsulado de 28 pines integraba en su interior una unidad central de proceso de 4 bits (CPU que funcionaba a 0,3MHz), una memoria de sólo lectura (ROM) de 1024 x 8 bits, una memoria de acceso aleatorio (RAM) de 64 x 4 bits, y 23 líneas de entrada/salida, combinando así todos los componentes de  un ordenador en un único chip ("Computer on a Chip"). Se diseñó para su uso en sistemas empotrados para automóviles, electrodomésticos, videojuegos, e instrumentos de medición.

Este  primer microcontrolador tuvo un gran éxito en el mercado. Hacia 1974 los chips de esta familia de microcontroladores se podían adquirir al por mayor por 2$ cada uno. Hacia 1979 Texas Instruments ya había vendido 26 millones de unidades de estos chips cada año.

Texas Instruments utilizó el TMS1000 en algunos de sus productos, tales como el juguete educativo Speak&Spell, el vehículo de juguete programable Big Trak, y algunas de sus calculadoras científicas. También se usa en el conocidísimo juego electrónico Simón.

        

 

 

Microcontrolador Intel 8048 (1976)

Categoría: Procesadores

El primer microcontrolador de Intel, el segundo tras el TMS1000 (4 bits), y el primero de 8 bits. Fue usado en productos tan conocidos como la Magnavox Odyssey, los teclados IBM PC, y en los sintetizadores de Korg y Roland.

El equipo de desarrollo detrás de la familia de chips MCS-48 era pequeño pero tenía una gran dedicación y empeño. En palabras de uno de sus diseñadores, el ingeniero David Stamm, cuya mesa de trabajo estaba en un pasillo por falta de espacio, “viví y respiré el 8048 durante más de dos años, día y noche, junto a un equipo de otro ingeniero y un dibujante”.

Su tarea no era sencilla. Un microcontrolador combina un procesador, memorias y otros elementos en un único chip, por lo que los retos de desarrollar cada módulo se suma a los problemas de integrarlos juntos. En el caso del 8048, estos elementos eran, ademas de la CPU de 8 bits, 64 bytes de RAM, ROM de 1KB, 27 puertos de entrada/salida, y un contador de 8 bits. 

El Intel 8048 estuvo funcional en la segunda mitad de 1976. El equipo de desarrollo hizo una demostración del chip a varios altos cargos de Intel (Andrew Grove, Gordon Moore y Les Vadasz), ejecutando un programa de blackjack (al que David Stamm era muy aficionado). La línea de microprcesadores MCS-48 fue todo un éxito, y entre ellos el Intel 8048 destacó especialmente y se convirtió en un estándar de la industria, mientras que otros chips de la misma familia se verían utilizados en toda clase de productos en los años siguientes, desde surtidores de gasolina a aviones comerciales. Este fue un hito en la industria de los microchips, que desde entonces se convirtieron en componente esencial de la vida moderna.

 

Microcontrolador Intel 8748 (1976)

Categoría: Procesadores

Similar al Intel 8048 pero con 1KB de EPROM (Erasable Programmable Read Only Memory) en lugar de ROM.

El Intel 8748, de la misma familia de productos que el 8048, fue introducido en 1976, pocos meses después que el 8048. El "pequeño" detalle de tener memoria EPROM en lugar de ROM (y por tanto poder reprogramarse y cambiar así su funcionalidad) marcó la una gran diferencia.

Su importancia fue tal que, solo diez años después de lanzarse al mercado, fue elegido como uno de los únicos siete chips de Intel seleccionados para la exposición permanente de tecnología de semiconductores en el Museo Nacional de Historia Estadounidense, de la organización Smithsonian.


 

Microcontrolador Microchip Technology PIC 16C84 (1993)

 

Categoría: Procesadores

El PIC 16C84 fue el primer microcontrolador con memoria EEPROM, y tener memoria integrada tan fácilmente reprogramable para cambiar el software almacenado revolucionó los microcontroladores.

A principios de la década de 1990, el enorme universo de microcontroladores de 8 bits pertenecía a una empresa, la todopoderosa Motorola. Luego apareció un pequeño competidor con un nombre poco significativo, Microchip Technology. Microchip desarrolló el PIC 16C84, que incorporó un tipo de memoria llamada EEPROM (Electrically Erasable Programmable Read-Only Memory, es decir, memoria de sólo lectura programable y borrable eléctricamente). No necesitaba la luz ultravioleta para borrarse, como sí necesitaba su antecesora, la EPROM. "Ahora los usuarios pueden cambiar su código sobre la marcha", dice Rod Drake, diseñador principal del chip y ahora director de Microchip. Aún mejor, el chip costaba menos de $5, una cuarta parte del coste de las alternativas existentes, la mayoría de ellas, sí, de Motorola.

El 16C84 encontró uso en tarjetas inteligentes, controles remotos y llaves inalámbricas para automóviles. Fue el comienzo de una línea de microcontroladores que se convirtieron en superestrellas de la electrónica entre las empresas Fortune 500 y para los aficionados "makers" de fin de semana. Se han vendido unos 6 mil millones, utilizados en aparatos como controladores industriales, vehículos aéreos no tripulados, tests de embarazo digitales, fuegos artificiales controlados por chips, joyas LED e incluso en monitores de tanques sépticos. En 2013, Microchip enviaba más de mil millones de microcontroladores PIC cada año.

 

Microcontrolador Atmel ATmega8 (2002)

Categoría: Procesadores

El chip que servía como cerebro del primer Arduino, obra de dos alumnos particularmente cabreados.

El ATmega8 de Atmel es uno de los pilares fundamentales del actual movimiento “maker”. Es el procesador que se encuentra en la primera generación de placas Arduino y ha sido adoptado masivamente por todo tipo de fanáticos de la electrónica, y todas esas placas baratas, robustas y fáciles de usar están detrás de innumerables proyectos.

 El Atmega8 proviene de la familia AVR de microcontroladores, cuyo origen está en los esfuerzos de dos estudiantes de la Universidad Noruega de Ciencia y Tecnología, Alf-Egil Bogen y Vegard Wollan, a principios de los 90. Un microcontrolador de diferencia de un microprocesador normal en que el primero tiene la memoria con el programa y la RAM integrados dentro del propio chip, en lugar de usar estos recursos en chips externos.

Los microcontroladores ya existían y eran muy comunes en sistemas empotrados pero a Bogen y Wollan no les  gustaban. “Para mí eran demasiado difíciles de usar… y las herramientas de desarrollo eran bastante malas”, según Bogen. Decidieron entonces crear un procesador de la arquitectura RISC (con un menor número de instrucciones disponibles para así mejorar la eficiencia del procesador) que tuviera como objetivo la facilidad de programación y una cierta potencia de ejecución.

Los microcontroladores AVR tienen una particularidad adicional, y es que utilizan una arquitectura “Harvard” (con memorias separadas para programas y datos) en lugar de la arquitectura “Von Neumann” que es la habitual en los ordenadores personales. Inicialmente Bogen y Wollan almacenaban los programas en una memoria ROM (que no podía ser reprogramada una vez escrita). Sin embargo, tras encontrar apoyo para su proyecto en Atmel, añadieron al sistema una memoria flash fácilmente programable (y reprogramable), y con ello lanzaron al mercado el primer chip de la familia AVR, el AR90S8515, en 1996.

Sin embargo sería en 2002 con el ATmega8 (de 8 bits) cuando se haría realidad el sueño de Bogen y Wollan de crear un microcontrolador fácil de usar, de gran potencia y con excelentes herramientas de desarrollo. Su inclusión a partir de 2005 en las placas de arquitectura hardware libre Arduino hizo el resto. Hoy en día, desde los niños hasta los aficionados más veterados crean sus diseños hardware de bajo coste y programan los ATmega desde su PC sin casi darse cuenta. 

 

Amplificador operacional Fairchild Semiconductor µA741 (1968)

Categoría: Amplificadores y audio

Este chip se convirtió en el estándar de facto en el mundo de los amplificadores analógicos. Aún se fabrica y puede encontrarse en cualquier sitio donde haya electrónica.

Los amplificadores operacionales son el pan de molde del diseño analógico: puedes juntarlos con casi cualquier cosa y obtener algo satisfactorio. Los diseñadores los utilizan para fabricar preamplificadores de audio y video, comparadores de voltaje, rectificadores de precisión y muchos otros subsistemas esenciales para la electrónica diaria.

En 1963, un ingeniero de 26 años llamado Robert Widlar de Fairldchild diseñó el primer circuito integrado de amplificador operacional monolítico, el µA702. Se vendió por $300 cada uno. Widlar siguió con un diseño mejorado, el µA709, que redujo el costo a $ 70 y convirtió al chip en un gran éxito comercial. La historia cuenta que el despreocupado Widlar pidió entonces un aumento de sueldo. Cuando no lo consiguió, se fue de Fairchild. National Semiconductor (ahora parte de Texas Instruments) estuvo encantada de recoger a un tipo que entonces estaba ayudando a establecer la disciplina del diseño de circuitos integrados analógicos. En 1967, Widlar creó para National un amplificador operacional aún mejor , el LM101, una versión del cual todavía está en producción.

Mientras en Fairchild se preocupaban por la repentina competencia impulsada por Widlar, en el laboratorio de I+D de Fairchild, un empleado reciente, David Fullagar, examinó el LM101. Se dio cuenta de que el chip, por brillante que fuera, tenía un par de inconvenientes. El mayor de ellos era que su etapa de entrada, el llamado front-end, era demasiado sensible al ruido en algunos chips, debido a las variaciones de calidad de los semiconductores.

Fullagar encontró la solución al problema del front-end: "simplemente se me ocurrió, no sé, conduciendo a Tahoe", y consistió en un par de transistores adicionales. Ese circuito adicional hizo que la amplificación fuera más suave y consistente de un chip a otro.

Fullagar llevó su diseño al jefe de I+D de Fairchild, un tipo llamado Gordon Moore, quien lo envió a la división comercial de la empresa. El nuevo chip, el µA741, se convertiría en el estándar para amplificadores operacionales. El µA741, y las variantes creadas por los competidores de Fairchild, se han vendido por cientos de millones. Hoy en día, por $300 (el precio del amplificador operacional µA702 primigenio), se pueden obtener alrededor de 2000 chips µA741 chips actuales.

Uno de los chips favoritos de Sophie Wilson (codiseñadora del procesador ARM).

 

Chip de sonido MOS Technology 6581 (SID) (1982)

Categoría: Amplificadores y audio

El chip sintetizador que definió el sonido de toda una generación.

1982 fue un gran año para la música. No sólo Michael Jackson lanzó Thriller, el álbum más vendido de todos los tiempos, sino que Madonna hizo su debut. Y vio el lanzamiento del microordenador Commodore 64. Gracias al C64, millones de hogares disfrutaron de un sintetizador de sonido electrónico y programable, que todavía está de moda, el chip MOS 6581, también llamado SID (Sound Interface Device).

La creación de este chip de sonido recayó en un joven ingeniero llamado Robert Yannes. Aunque existian algunos sintetizadores avanzados controlados por microordenador, la tecnología de generación de sonido incorporada en los ordenadores domésticos era relativamente rudimentaria. Yannes tenía mayores ambiciones. "Había trabajado con sintetizadores musicales y quería un chip que fuera un sintetizador de música". “El diseño real sólo tomó alrededor de cuatro o cinco meses”, dijo Yannes.

Yannes incorporó registros de datos en el SID 6581 para que un programador pudiera definir una envolvente ADSR (cuatro etapas: ataque, decaimiento, sostenimiento, y relajación) y luego dejar que el chip controle la intensidad, en lugar de ajustar la intensidad programando la CPU para enviar comandos de control de volumen a medida que se reproducen las notas (algo que pocos programadores se atrevieron a intentar). El chip SID tiene tres canales de sonido que pueden reproducirse simultáneamente usando tres formas de onda básicas, además de un cuarto canal de "ruido blanco" que produce diversos ruidos y silbidos estáticos y aleatorios, dependiendo de la frecuencia. El chip tiene la capacidad de aplicar tres tipos de filtro de frecuencias de paso y resonancia configurables (algo nada habitual en otros chips de sonido) para modular los canales y producir una gama aún más amplia de sonidos. Algunos programadores descubrieron que podían conseguir que el chip hiciera cosas para las que nunca fue diseñado, como la síntesis de voz. Quizá el ejemplo más famoso de esto sea "Ghostbusters", un videojuego de 1984 basado en la película del mismo nombre, en el que el C64 pronunciaba (con una calidad baja) frases memorables de la película, como "He slimed me!" ("me ha moqueado").

Los desarrolladores comenzaron a contratar compositores para crear obras originales para los videojuegos del C64; de hecho, algunos títulos hoy se recuerdan únicamente por su buena banda sonora.

Los "chiptunes" es un género de música original que se apoya en el sonido distintivo de los chips de sonido de los ordenadores y consolas de los años 80. Algunos compositores usan sintetizadores modernos programados para replicar ese sonido, pero a otros les gusta usar el hardware original, especialmente los chips SID (con o sin un C64). Debido a que el 6581 SID no ha estado en producción durante muchos años, esto ha generado un cotizado mercado de chips SID de segunda mano. Existen aplicaciones como Sidplay, que emula el chip SID, y puede reproducir datos musicales extraídos del software original. Incluso después de que el último chip SID finalmente se queme, su sonido seguirá vivo.

 

Generador de ondas Intersil ICL8038 (~1983*)

  

Categoría: Amplificadores y audio

Este chip de Intersil llevó la generación de sonido compleja a la electrónica de consumo.

Una buena forma de onda básica (un voltaje eléctrico que varía en el tiempo) es la materia prima a partir de la cual se puede construir un comportamiento mucho más complejo. El circuito integrado ICL8038 de Intersil fue diseñado para satisfacer la necesidad de obtener una forma de onda precisa, siendo capaz de generar simultáneamente formas de onda sinusoidal, cuadrada, triangular, y de diente de sierra con sólo unos pocos componentes externos de soporte.

Inicialmente, los críticos se burlaron del rendimiento limitado del 8038 y su propensión a comportarse de manera errática. Pero los ingenieros pronto aprendieron cómo usarlo de manera fiable, y el 8038 se convirtió en un gran éxito, vendiéndose por cientos de millones para innumerables aplicaciones, como los famosos sintetizadores musicales Moog, y las "cajas azules" que los "phreakers" usaron en la década de 1980 para engañar a las compañías telefónicas. Intersil descontinuó el 8038 en 2002, pero los aficionados todavía lo buscan hoy para hacer cosas como generadores de funciones caseros y sintetizadores analógicos modulares.

* Ni el departamento de relaciones públicas de Intersil ni el último ingeniero de la empresa que trabajó en el chip recuerdan la fecha exacta de su lanzamiento.

 

Transmisor-Receptor Asíncrono Universal Western Digital TR1402A (1971)

 

Categoría: Comunicaciones

Liberar a los procesadores del trabajo pesado de las comunicaciones aceleró el mundo conectado. El primer producto de Western Digital, el TR1402A, es el primer UART de un único chip, para traducir datos entre líneas serie y paralelo.

Gordon Bell es famoso por lanzar la serie PDP de miniordenadores en Digital Equipment Corp. en la década de 1960. Pero también inventó una pieza de tecnología bastante menos conocida pero no menos significativa: el receptor/transmisor asíncrono universal, o UART (Universal Asynchronous Receiver/Transmitter).

Los UART se utilizan para permitir que dos dispositivos digitales se comuniquen entre sí mediante el envío de bits de uno en uno a través de una interfaz en serie sin molestar al procesador principal del dispositivo con los detalles. Bell necesitaba algún circuito para conectar un teletipo a un PDP-1, una tarea que requería convertir señales paralelas en señales serie y viceversa. Su implementación utilizó unos 50 componentes discretos. Western Digital, una pequeña empresa que fabricaba chips para calculadoras, se ofreció a crear un UART. El fundador de Western Digital, Al Phillips, todavía recuerda cuando su vicepresidente de ingeniería le mostró las láminas Rubylith con el diseño, listas para la fabricación. “Lo miré durante un minuto y vi un circuito abierto”, dice Phillips. "El vicepresidente se puso histérico". Western Digital presentó el TR1402A alrededor de 1971, y pronto le siguieron otras versiones. Ahora, los UART se utilizan ampliamente en módems, periféricos de PC y otros equipos.

 

Microprocesador Acorn Computers ARM1 (1985)

Categoría: Procesadores

¿Estás leyendo esto en un smartphone? Entonces ahora mismo estás usando un descendiente directo de este procesador.

A principios de la década de 1980, Acorn Computers era una pequeña empresa con un gran producto. La empresa, con sede en Cambridge, Inglaterra, había vendido más de 1,5 millones de ordenadores personales BBC Micro de 8 bits como parte del Proyecto Nacional de Alfabetización Informática de la BBC. Ahora era el momento de diseñar un nuevo ordenador. Insatisfechos con los procesadores disponibles en el mercado, los ingenieros de Acorn decidieron dar el salto para crear su propio microprocesador de 32 bits.

Lo llamaron Acorn RISC Machine, o ARM. RISC (Reduced-Instruction-Set Computer) es un enfoque para diseñar procesadores que evitan tener instrucciones en código máquina complejas en aras de una mayor eficiencia. Al final, la simplicidad marcó la diferencia, y es debida en parte a que no está basado en microcódigo (sistema que suele ocupar en torno a la cuarta parte de la cantidad total de transistores usados ??en un procesador); de hecho, tenía unos 25.000 transistores por lo que era bastante más barato que el Motorola 68000, que tenía 70.000. Así, el ARM ocupaba poco espacio, era de bajo consumo, barato, y fácil de programar. Sophie Wilson, quien diseñó su conjunto de instrucciones, todavía recuerda la primera vez que probaron el chip en una computadora. "Escribimos 'PRINT PI' en el prompt y dio la respuesta correcta", dice. "Descorchamos las botellas de champán". La primera versión utilizada comercialmente se bautizó como ARM2 y se lanzó en el año 1986. Se usó por primera vez como coprocesador del BBC Micro y en el Acorn Archimedes (1987).  

En 1990, Acorn cerró su división ARM y la dicha arquitectura pasó a convertirse en el procesador dominante de 32 bits para sistemas empotrados. Desde entonces más de 10 mil millones de nucleos ARM se han usado en todo tipo de dispositivos, incluyendo desde el humillante Newton de Apple hasta su exitoso iPhone. De hecho, los chips ARM se encuentran ahora en más del 95% de los teléfonos inteligentessmartphones del mundo.

  


Chip favorito de Frederick P. Brooks, Jr. (profesor de Informática en la Universidad de Carolina del Norte en Chapel Hill) y de Francine Berman (directora del San Diego Supercomputer Center).

 

Sensor de imagen Kodak KAF-1300 (1986)

Categoría: Sensores

Kodak presentó en 1986 el KAF-1300, el primer CCD de fotograma completo de 1 megapíxel disponible comercialmente, el chip que llevaría a la fotografía digital fuera del laboratorio.

Lanzada en 1991, la cámara digital Kodak DCS 100 costaba hasta $13.000 y requería una unidad externa de almacenamiento de datos de 5 kg que los usuarios tenían que llevar colgada del hombro. La imagen de una persona cargando dicho artilugio no era desde luego un momento Kodak. Aún así, los componentes electrónicos de la cámara, alojados dentro del cuerpo de una Nikon F3, incluían un hardware impresionante: un chip del tamaño de una uña que podía capturar imágenes con una resolución de 1,3 megapíxeles, suficiente para impresiones nítidas en papel fotográfico de 5 x 7 pulgadas. "En ese momento, 1 megapíxel era un número mágico", dice Eric Stevens, diseñador principal del chip, que aún trabaja para Kodak. El chip, un verdadero dispositivo de carga acoplada de dos fases, se convirtió en la base de los futuros sensores CCD, lo que ayudó a impulsar la revolución de la fotografía digital. Por cierto, ¿cuál fue la primera foto que se hizo con el KAF-1300? "Uh", dice Stevens, "simplemente apuntamos el sensor a la pared del laboratorio".

 

 

Chip de ajedrez de IBM Deep Blue 2 (1997)

   

Categoría: Componentes lógicos

El chip especializado en ajedrez de Deep Blue impulsó la primera gran victoria de una IA sobre los humanos.

En un lado del tablero, 1,5 kg de materia gris. En el otro lado, 480 chips de ajedrez. Los humanos finalmente cayeron ante los ordenadores en 1997, cuando la computadora de ajedrez de IBM, Deep Blue 2, venció al entonces campeón mundial, Garry Kasparov.

La computadora Deep Blue era una computadora de alto rendimiento IBM RS/6000SP de 32 nodos, que utilizaba procesadores IBM POWER2 Super Chip, la implementación de un único chip del procesador POWER2. Cada nodo usaba su propia tarjeta de microcanal que contenía ocho procesadores de ajedrez VLSI dedicados, para un total de 256 procesadores trabajando conjuntamente. Estos chips de ajedrez, diseñados por Feng-Hsiung Hsu, constaban de 1,5 millones de transistores que funcionaban a 24 MHz, dispuestos en bloques especializados, como una matriz lógica generadora de movimientos, además de algo de RAM y ROM. Aunque este chip contenía sólo una cuarta parte de los transistores de un Pentium II (el microprocesador más potente en ese momento) era inmensamente potente como procesador de ajedrez especializado. El código de programación de Deep Blue se escribió en C y se ejecutó bajo el sistema operativo IBM AIX.

Juntos, los chips podrían analizar 200 millones de posiciones de ajedrez por segundo (dos veces más rápido que la versión de 1996). Ese poder de fuerza bruta, combinado con funciones inteligentes de evaluación del juego, le dio a Deep Blue 2 los movimientos decisivos que Kasparov llamó "poco computacionales". Estos movimientos "ejercieron grandes presiones psicológicas", recuerda la mente maestra de Deep Blue, Feng-hsiung Hsu, que ahora trabaja para Microsoft.

Desde la victoria de Deep Blue, cada vez más juegos en los que la inteligencia humana parecía tener la ventaja han caído en manos de las máquinas: en 2016, AlphaGo de Google venció al mejor jugador de Go del mundo, Lee Sedol.

  

Mas de 20 años después de la derrota de Kaspárov, cualquier móvil es ya más potente que Deep Blue. Hace treinta años parecía imposible que una máquina pudiera superar al hombre; hoy por hoy se asegura que es el hombre el que no podría derrotarla.

 

Inmos Transputer (1984)

Categoría: Procesadores

El primer microprocesador de propósito general diseñado específicamente para ser utilizado en sistemas de computación  paralela.

Esta arquitectura de microprocesador pionera de la década de 1980, con memoria integrada y enlaces de comunicación serie, estaba destinada a la computación en paralelo. El T212 de 16 bits fue el primero disponible en 1984, con velocidades del procesador entre 17,5 y 20 MHz. El T212 fue reemplazado por el T222, con una RAM integrada que pasaba de 2 a 4 KB y, más tarde, el T225. Tanto el T222 como el T225 funcionaron a 20 MHz. Más tarde se crearon nuevos transputers, de 32 bits.

Durante algún tiempo, a finales de la década de 1980, muchos consideraron que el transputer sería el futuro de la Informática. Si bien Inmos y el transputer no lograron esta expectativa, la arquitectura del transputer fue muy influyente para generar nuevas ideas en la arquitectura de computadores, varias de las cuales han resurgido de diferentes formas en los sistemas modernos. Las supercomputadoras más poderosas del mundo son encarnaciones en el mundo real del sueño del transputer: son grandes conjuntos de SoC (Systems on a Chip) idénticos y de rendimiento relativamente bajo.

 

Procesador Transmeta Corp. Crusoe (2000)

Categoría: Procesadores

Adelantado a su tiempo, este chip anunció la era móvil en la que el uso de energía, y no la potencia de procesamiento, se convertiría en la característica más importante.

Los procesadores Crusoe realizan mediante software algunas de las funciones clásicamente implementadas mediante hardware, como por ejemplo, la reordenación de instrucciones. Esto resulta en un hardware más simple y con menos transistores. La relativa simplicidad del hardware hace que el Crusoe consuma menos energía (y por tanto disipe menos calor) que otros procesadores compatibles x86 que trabajan a la misma frecuencia de reloj.

Tener una gran potencia implica tener grandes disipadores de calor. Y por tanto una batería de corta duración... y un alto consumo de electricidad. De ahí el objetivo de Transmeta de diseñar un procesador de bajo consumo que avergonzaría a esos bicharracos que fabrican Intel y AMD. El plan: el software traduce las instrucciones x86 sobre la marcha en el propio código máquina de Crusoe, cuyo mayor nivel de paralelismo ahorra tiempo y energía.

El Crusoe fue promocionado como la mejor idea desde el uso del silicio, y durante un tiempo lo fue. Crusoe y su sucesor, Efficeon, "demostraron que la traducción binaria dinámica era comercialmente viable", dice David Ditzel, cofundador de Transmeta. Desafortunadamente, agrega, los chips llegaron varios años antes de que despegara el mercado de los ordenadores de bajo consumo y estuvieron presentes en sólo unos pocos productos. Al final, si bien Transmeta no cumplió su promesa comercial, sí señaló el camino hacia un mundo en el que el uso de energía de un procesador era tan importante como su potencia bruta, y parte de la tecnología de Transmeta acabo implantándose en los chips de Intel, AMD y Nvidia.

 

RCA CDP1802 COSMAC (1976)

Categoría: Procesadores

A pesar de una mala gestión, el primer microprocesador CMOS acabó llegando hasta Júpiter.

Si RCA hubiera tomado decisiones diferentes en la década de 1970, el nombre de Joe Weisbecker podría ser tan reverenciado como lo es hoy el de Steve Wozniak. Weisbecker fue el arquitecto del microprocesador RCA CDP1802, también conocido como Cosmac, diseñado explícitamente pensando en el entorno doméstico, primando el bajo costo y flexibilidad. Y aunque perdió la oportunidad de entrar en ese gran mercado, el CDPCDP1802 encontró su camino en todo tipo de lugares, desde salas de conciertos hasta el sistema solar exterior.

Para 1970, la industria se había dado cuenta de que tener más y más transistores en un chip iba a tener un gran impacto en la Informática, ya fuera en forma de calculadoras o de equipos de altas prestaciones.  Pero la visión de Weisbecker era un sistema lo suficientemente potente como para entretener a una familia o ayudar a educar a un niño, pero sin la potencia demandada por los usuarios profesionales. Así, en octubre de 1971, Weisbecker había construido un prototipo de procesador completamente funcional a partir de 100 chips lógicos discretos. En un artículo de 1974, Weisbecker dijo: “Un ordenador de este tipo podría tener un gran valor social…  permitiría, por primera vez, un acceso generalizado a los ordenadores". Esto fue tres años antes del debut de Apple II.

El prototipo de Weisbecker convenció a RCA, y en 1976 debutó el CDP1802, siendo el primer procesador que se fabricó utilizando tecnología CMOS, una versión más avanzada de la tecnología MOS utilizada para fabricar chips como el Intel 4004, y que desde entonces es la forma dominante de fabricar procesadores al usar menos potencia.

Cierto aspecto del CDP1802 lo hizo popular entre los diseñadores aeroespaciales: estaba disponible en una versión resistente a la radiación, lo que lo hacía ideal para el duro entorno del espacio. De hecho, se utilizaron seis 1802 como cerebros de la sonda Galileo, que se lanzó en 1989 (un año antes de la muerte de Weisbecker) y orbitó Júpiter entre 1995 y 2003. Podemos ciertamente decir que el diseño de Weisbecker llegó muy lejos.


Procesador IBM/Sony/Toshiba Cell (2004)

Categoría: Procesadores

Toma una oblea de silicio, graba un procesador PowerPC, añadele ocho coprocesadores muy rápidos para cálculo numérico, y conecta todo a través de un bus de datos de 300 gigabits por segundo. El resultado es uno de los microprocesadores más radicales en la historia de los semiconductores: el Cell, desarrollado por IBM, Sony y Toshiba. Les costó 400 millones de dólares, 400 personas, y cuatro años lanzar el chip al mercado.

Diseñado para alimentarse con una dieta a base de muchas operaciones de coma flotante de video MPEG en tiempo real, polígonos de juegos tridimensionales, y transformadas de Fourier, la primera gran aplicación comercial del Cell fue la videoconsola PlayStation 3 de Sony. También podemos encontrar este procesador en servidores de alta potencia y en superordenadores. Con una arquitectura asimétrica (dos tipos diferentes de procesadores), Cell alertó que la programación nunca volvería a ser la misma. Los informáticos y los programadores se apresuraron a encontrar formas de explotar todo su potencial. Años después, todavía lo están haciendo.


Familia de chips de lógica Texas Instruments SN7400 (1966)

Categoría: Componentes lógicos

En la prehistoria de los ordenadores digitales (cuando se clasificaban en dos tipos, miniordenadores y mainframes) los ingenieros buscaban reemplazar transistores discretos por circuitos integrados que pudieran realizar operaciones lógicas básicas.

En esa época cuando aún no existían los microprocesadores, los ingenieros trabajaban con componentes muchos más simples: chips como el Texas Instruments SN7400, un circuito integrado con cuatro puertas lógicas NAND de dos entradas. Este chip formaba parte de una gran familia, conocida como la serie 7400, que funcionó muy bien para Texas Instruments. A diferencia de los chips lógicos anteriores, que usaban diodos y transistores (llamada lógica diodo-transistor o DTL, en inglés), los chips 7400 se basaban en circuitos lógicos de sólo transistores (lógica transistor-transistor o TTL, en inglés). El libro "TTL Data Book for Design Engineers" de Texas Instruments para ingenieros de diseño se convirtió, como dice la exposición "The Silicon Engine" del Museo de Historia de la Computación, en "el manual indispensable de finales de la década de 1970".

Hoy en día, la familia 7400 todavía está en producción, por parte de Texas Instruments y de muchos otros. Entre los cientos de miembros de la familia 7400 se encuentran chips tan simples como el SN7404, que contiene 6 inversores, y otros tan complejos como el SN74ALVC162334, un controlador de bus universal de 16 bits con salidas de tres estados. Seguramente más de un ingeniero de diseño hardware todavía mantiene el manual de chips TTL al alcance de su mano.

     


Dispositivo Texas Instruments Digital Micromirror (1987)

Categoría: Sistemas microelectromecánicos

Este invento ganador de un Oscar llevó el video digital a las salas de cine.

El 18 de junio de 1999, Larry Hornbeck llevó a su esposa, Laura, a ver "Star Wars: Episodio 1: La Amenaza Fantasma" en un cine en Burbank, California. No es que el canoso ingeniero fuera un fan de los Jedi. La razón por la que estaban allí era en realidad el proyector. En el interior del proyector había un chip, el dispositivo de microespejos digitales (Digital Micromicror Device o DMD), que Hornbeck había inventado en Texas Instruments.

Un DMD utiliza millones de espejos microscópicos con bisagras (cada uno de sólo 16 x 16 micrones) para dirigir la luz a través de una lente de proyección. Estos microespejos cambian 5.000 veces por segundo para reflejar la luz y crear una imagen. En este sistema microelectromecánico cada espejo representa un pixel de la imagen proyectada: el número de espejos corresponde con la resolución de la misma. Cada microespejo puede levantarse y girar ±10-12°. En posición encendida, el espejo se levanta y la luz procedente de la lámpara del proyector se refleja y pasa por la lente, haciendo que el pixel correspondiente brille en la pantalla. Por el contrario, en posición apagada, el microespejo dirige el haz hacia un disipador de calor, no hacia la lente, lo que hace que el pixel aparezca oscuro en pantalla.

La proyección de "La Amenaza Fantasma" fue la primera exhibición digital de una superproducción. Hoy en día, los proyectores de películas basados ??en esta tecnología de procesamiento de la luz digital, o DLP (Digital Light-Processing), como Texas Instruments la denominó, se utilizan en miles de salas de cine. También es usada en televisores de retroproyección, proyectores de oficina y pequeños proyectores portátiles para teléfonos móviles. “Parafraseando a Houdini”, dice Hornbeck, “microespejos, caballeros. El efecto se crea con microespejos". Por sus esfuerzos, Hornbeck finalmente recibió un Oscar, algo que no consiguió "La Amenaza Fantasma".

     

 

Microprocesador Four-Phase AL1 (1969)

Categoría: Procesadores

El AL1 era un procesador de 8 bits con 8 registros (incluida el PC) y una ALU completa de 8 bits. Four-Phase usó tres de ellos en un sistema para diseñar un ordenador de 24 bits. También se utilizaron chips adicionales: 3 chips ROM, 3 de lógica aleatoria y generación de reloj de 4 fases, el cual permitió el uso de transistores de tamaño mínimo para la mayoría de las puertas lógicas. Esto aumenta enormemente la densidad y el rendimiento del chip. El AL1 tenía más de 1000 puertas (~ 4000 transistores) con un tamaño de matriz de 130 × 120 mils (100 mm2). Esta era esencialmente la complejidad del Intel 8008 pero con un silicio del tamaño usado por el Intel 4004 de 4 bits. Además, la velocidad era de alrededor de 1 MHz, casi 10 veces más rápido que cualquier otro procesador en ese momento. También contribuyó a la velocidad del AL1 su encapsulado, algo en lo que no se piensa a menudo hoy, pero el encapsulado importaba. El 8008 de Intel era un chip DIP de 18 pines ya que este encapsulado era económico. Esto requería que se multiplexaran las entradas/salidas, lo que provoca una penalización en velocidad. Sin embargo, el AL1 utilizaba un paquete de 40 pines, caro en ese momento, $5, lo que no parece mucho, pero cuando se podía conseguir un encapsulado más pequeño por menos de $1, acaba teniendo su importancia. El beneficio fue que el AL1 tiene todas las entradas/salidas que necesita sin multiplexación.

Entonces, ¿por qué el AL1 no es más conocido? Four-Phase nunca hizo publicidad de sus chips, ni siquiera de las placas de procesadores, las consideraba un medio para un fin, vender (o más bien arrendar) sistemas distribuidos muy grandes. En cambio, publicaron un artículo tutorial en Computer Design en abril de 1970 ("Four-phase LSI logic offers new approach to computer designer"). Es por esta razón que el AL1 es prácticamente desconocido, y por esta razón se cita al Intel 4004 como el primer procesador integrado, ya que eso es lo que Intel dijo que era, y nadie en ese momento realmente se molestó en decir lo contrario. Entonces había cosas mucho más importantes que hacer, mucho silicio que construir y probar, y velocidades de reloj que aumentar.

En 1995, como parte de un litigio, Four-Phase ensambló en la misma sala del juicio, un sistema en el que se utilizó un solo AL1 de 8 bits como parte de un sistema de ordenador de demostración,  junto con tres cartuchos de Super Nintendo que incluían una ROM externa, RAM, y un dispositivo de entrada y salida. Sin embargo esta demostración no acabo de convencer a todo el mundo de que un único AL1 era una CPU de un solo chip (como el Intel 4004): si se realiza un examen detallado, queda claro que el chip AL1 está actuando como un chip aritmético-lógico (de ahí el nombre AL1), y no como una CPU completa.

Chip favorito de Nick Tredennick (analista de tecnología de Gilder Publishing).

 

Microprocesador Intel 4004 (1971)

Categoría: Procesadores

Este año, 2021, es el 50 aniversario de la invención del primer microprocesador de un solo chip, el Intel 4004. El cumpleaños oficial del 4004 fue el 15 de noviembre de 1971, cuando se anunció al público. Hay otros pretendientes al trono, pero sólo el 4004 cumple con todos los criterios clave para ser considerado el primero. 

Esta CPU de 4bits funcionaba a 0.1-0.7Mhz, en un encapsulado dip de 16 pines, incluyendo 2.300 transistores. Direccionaba hasta 4 KB, tenía 46 instrucciones (de las cuales 41 son de 8 bits de ancho y 5 de 16 bits de ancho), 16 registros de 4 bits cada uno. Su chipset, el MCS-4, estaba compuesto por los siguientes chips:  Intel 4001 (ROM), 4002 (RAM), 4003 (registro de desplazamiento), además del 4004 (microprocesador).

La primera entrega de un 4004 en pleno funcionamiento se produjo en marzo de 1971 a Busicom Corp. de Japón para su prototipo de calculadora con impresora 141-PF, disponible comercialmente en julio de 1971. Intel ofreció a Busicom un descuento en el costo de los chips si Intel podía vender la familia 4000 para otras aplicaciones. Busicom estuvo de acuerdo e Intel comenzó a anunciar el 4004 en noviembre de 1971: "Anunciando una nueva era de electrónica integrada", decía el texto del anuncio, un caso raro de verdad absoluta en la publicidad.

  

Actualmente, es uno los chips coleccionables/antiguos más codiciados del mundo.

 

Microprocesador Intel 8008 (1972)

Categoría: Procesadores

El primer microprocesador de 8 bits, fue el sucesor del 4004.

Integraba 3500 transistores en un encapsulado DIP de 18 pines. Aunque un poco más lento que los microprocesadores Intel 4004 e Intel 4040 de 4 bits en cuanto a la cantidad de millones de instrucciones por segundo ejecutadas (0.2-0.8Mhz), el hecho de que el 8008 procesara 8 bits de datos al tiempo y que pudiera acceder a mucha más memoria hacen que el 8008 sea en la práctica unas tres o cuatro veces más rápido que sus predecesores de 4 bits.

El 8008 era un diseño aceptable para utilizarlo como el controlador de un terminal, pero no para el resto de tareas, por lo que pocos ordenadores se basaron en él. La mayoría de los ordenadores de la época emplearon el mejorado Intel 8080, con alguna excepción como el Mark-8, el microordenador diseñado en 1974 basado en la CPU Intel 8008.

 

Microprocesador Intel 4040 (1974)

Categoría: Procesadores

El Intel 4040 fue el sucesor del Intel 4004. Lanzado al mercado en 1974, fue diseñado por Federico Faggin (quien propuso la arquitectura y condujo el proyecto) y Tom Innes.

El 4040 es una versión mejorada del 4004. Ambos son de 4 bits y tienen la misma velocidad de reloj, 0.5-0.8Mhz. El 4040 tiene un mayor tamaño de pila (7 niveles en vez de 3), doble direccionamiento de memoria, 14 nuevas instrucciones, 8 registros adicionales de 4 bits y manejo de interrupciones. El encapsulado del 4040 era más de dos veces el ancho del 4004, con 24 pines en lugar de los 16 del 4004.

La familia 4040 también se identifica como MCS-40 y se utilizó principalmente para juegos y equipos de verificación y control. El 4040 fue usado en algunos de los primeros ordenadores personales de la época, como el Intellec 4/40.

 

Microprocesador Intel 8080 (1974)

Categoría: Procesadores

El Intel 8080 fue un microprocesador temprano diseñado y fabricado por Intel. La CPU de 8 bits fue lanzada en abril de 1974. Corría a 2 MHz, y generalmente se le considera el primer diseño de microprocesador verdaderamente útil.

El 8080 es el segundo microprocesador de 8 bits diseñado y fabricado por Intel. Apareció por primera vez en abril de 1974 y es una variante ampliada y mejorada del diseño del 8008, aunque sin compatibilidad binaria. La velocidad era de 2 MHz, y con instrucciones comunes que usan 4, 5, 7, 10 u 11 ciclos, esto significaba que operaba a una velocidad típica de unos pocos cientos de miles de instrucciones por segundo. Una variante más rápida, el 8080A-1 (a veces llamada 8080B) estuvo disponible más tarde a una velocidad de hasta 3,125 MHz.

Aunque los microprocesadores anteriores se utilizaron para calculadoras, cajas registradoras, terminales de computadora, robots industriales y otras aplicaciones, el 8080 se convirtió en uno de los primeros microprocesadores de propósito general. 

El 8080 fue usado en varios de los primeros microcomputadores, tales como los famosos Altair 8800 de MITS y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M. Posteriormente, en 1976, aparece el microprocesador Zilog Z80, completamente compatible con el 8080 pero más potente, convirtiéndose el Z80 y el CP/M en la combinación dominante de CPU y OS de esa época, bastante parecido al x86 y el MS-DOS para el PC de la década posterior de los 80. El primer microordenador en una simple tarjeta fue construido en base al 8080.

En 1975, un año tras el lanzamiento del 8080, surge competidores, el Motorola 6800, y más tarde ese mismo año, el 6502, la variante del 6800 desarrollada por MOS Technology. En Intel, el 8080 fue seguido en 1976 por el compatible y más elegante 8085, más adelante, en junio de 1978, por el 8086 de 16 bits y en junio de 1979 por el 8088 de 8/16 bits, que eran compatibles a nivel del lenguaje ensamblador con el 8080. El 8088 fue seleccionado por IBM para su nuevo IBM PC que fue lanzado en 1981. Vemos así que la arquitectura del 8080 tuvo un impacto notable y duradero en historia del microprocesador.

  

 

Microprocesador Intel 8085 (1977)

Categoría: Procesadores

El 8085 era compatible con el anterior Intel 8080 pero exigía menos soporte de hardware, así que permitía contruir sistemas más simples y más baratos. El número 5 de la numeración del procesador proviene del hecho que solamente requería una alimentación de 5 voltios, no como el 8080 que necesitaba alimentaciones de 5 y 12 voltios. 

Tanto el 8080 como el 8085 fueron usados en ordenadores corriendo el sistema operativo CP/M, pero ambos fueron sobrepasados por el Ziloj Z80 que era más compatible y potente, el cual se llevó todo el mercado de los ordenadores CP/M, al mismo tiempo que participaba en la prosperidad del mercado de los ordenadores domésticos de mediados de los 80 (el Z80 fue la CPU de los Sinclair ZX Spectrum, Amstrad CPC, MSX, etc.).

Integrando unos 6500 transistores, y a una velocidad en los primeros modelos de 3Mhz, este microprocesador de 8 bits se usó como CPU de algunos de los primeros ordenadores personales, como la familia TRS-80 Model 100. Aunque, mucho más frecuentemente, el 8085 fue empleado como controlador gracias a sus líneas de entrada/salida de serie y 5 interrupciones priorizadas, características que el Z80 no tenía. De hecho, su vida útil en productos como DECtape y la terminal VT102 se alargó más que la vida comercial de muchos ordenadores personales de la época.

 

Microprocesador Intel 8086 (1978)

Categoría: Procesadores

Con este microprocesador Intel da el salto a los 16 bits. Su vida comercial duraría 20 años (lo cual es muy meritorio en un mundo donde la Ley de Moore se cumple a rajatabla), dejando de fabricarse en 1998.

El Intel 8086 y el Intel 8088 son los primeros microprocesadores de 16 bits diseñados por Intel. Fueron el inicio y los primeros miembros de la arquitectura x86. El trabajo de desarrollo para el 8086 comenzó en la primavera de 1976 y fue lanzando al mercado en el verano de 1978. El 8088 fue lanzado en 1979.

El 8086 y el 8088 ejecutan el mismo conjunto de instrucciones. Internamente son idénticos, excepto que el 8086 tiene una cola de 6 bytes para instrucciones y el 8088 de solo 4. Exteriormente se diferencian en que el 8086 tiene un bus de datos de 16 bits y el del 8088 es de solo 8 bits, por ello, el 8086 era más rápido. Por otro lado, el 8088 podía usar menos circuitos lógicos de soporte, lo que permitía la fabricación de sistemas más económicos. Integrando 29.000 transistores y funcionando de 5-10MHz, el 8086 es unas 10 veces más rápido que el 8080.

El 8086 fue elegido como la CPU de numerosos ordenadores personales compatibles con el IBM PC, al cual superaban en rendimiento gracias precisamente a usar el 8086 en lugar del 8088, como por ejemplo, el Compaq Deskpro o el Olivetti M24, además de los IBM PS/2 modelos 25 y 30, y el Amstrad PC1512 y sucesores.

Es curioso que hasta el año 2002 la NASA todavía estaba usando la CPU 8086 original en equipos de mantenimiento en tierra del transbordador espacial Discovery, para prevenir los problemas que pudiera resultar por actualizar o cambiar a otras CPUs más modernas pero no tan sólidas y fiables.

 

Microprocesador Intel 8088 (1979)

Categoría: Procesadores

El microprocesador "castrado" que dio a luz al IBM PC.

¿Hubo algún chip que impulsó a Intel a la lista Fortune 500? Intel dice que sí que lo hubo: el 8088. Esta fue la CPU de 16 bits que IBM eligió para su línea de PC, que pasó a dominar el mercado de ordenadores de sobremesa en todo el mundo.

En un extraño giro del destino, el chip que estableció lo que se conocería como la arquitectura x86 no tenía un nombre agregado con un "86". El 8088 era básicamente un 8086, la primera CPU de 16 bits de Intel, ligeramente modificado. O como dijo una vez el ingeniero de Intel Stephen Morse, el 8088 era "una versión castrada del 8086". Esto se debe a que la principal innovación del nuevo chip no fue exactamente un paso adelante en términos técnicos: el 8088 procesaba internamente datos en palabras de 16 bits, pero utilizaba un bus de datos externo de 8 bits.

Los gerentes de Intel mantuvieron el proyecto 8088 en secreto hasta que el diseño 8086 estuvo casi completo. "La gerencia no quería retrasar el 8086 ni un día, ni siquiera diciéndonos que tenían la variante 8088 en mente", dice Peter A. Stoll, un ingeniero jefe del proyecto 8086 que hizo algunos trabajos en el 8088, un "grupo de trabajo de un día para corregir un error de microcódigo que tomó tres días".

Fue sólo después de lanzar el primer 8086 funcional que Intel envió el material gráfico y la documentación del 8086 a una unidad de diseño en Haifa, Israel, donde dos ingenieros, Rafi Retter y Dany Star, alteraron el chip para tener un bus de sólo 8 bits.

La "castración" resultó ser una de las mejores decisiones de Intel. La CPU 8088 de 29.000 transistores requería menos y más baratos chips de soporte que el 8086 y tenía "compatibilidad total con un hardware de 8 bits, al mismo tiempo que proporcionaba un procesamiento más rápido y una transición fluida a procesadores de 16 bits", como Robert Noyce y Ted Hoff, de Intel, escribieron en un artículo de 1981 para la revista IEEE Micro.

El primer PC que usó el 8088 fue el modelo 5150 de IBM, una máquina monocromática que costaba 3.000 dólares. Ahora casi todas los PCs del mundo están construidos alrededor de CPUs que tienen al 8088 como su antepasado. No está nada mal para un chip castrado.

  

 

Microprocesador AMD Athlon (K7) (1999)

Categoría: Procesadores

El Athlon original, Athlon Classic, fue el primer procesador x86 de séptima generación. Nunca antes había ocurrido que el primer micro de una nueva generación de microprocesadores (7ª) no fuera Intel.

Advanced Micro Devices (AMD) se fundó el 1 de mayo de 1969 por un grupo de ejecutivos de Fairchild Semiconductor, desde entonces es el segundo proveedor de microprocesadores basados en la arquitectura x86, tras Intel.

Sin embargo las cosas cambian en 1995, cuando AMD desarrolla su primer procesador completamente nuevo: el AMD K5. Este primer modelo resulta interesante por tener una arquitectura RISC, con un traductor x86 integrado para que los PCs de la época pudieran entender las instrucciones emitidas por el procesador. La "K" es una referencia a la kriptonita que, como sabemos, es la única sustancia que puede perjudicar a Superman (en una clara referencia a Intel, que dominaba en el mercado en ese momento). El número "5" se refiere a la quinta generación de procesadores, en la cual Intel introdujo el nombre Pentium, debido a que la Oficina de Patentes de los Estados Unidos dictaminó que un solo número no podía ser registrado como marca. En ese mismo año, AMD adquirió NexGen, fabricante de procesadores de arquitectura RISC, a cuyo equipo de diseño dio un edificio propio, los dejó solos, y les dio tiempo y dinero para reelaborar el Nx686. El resultado fue el procesador K6, introducido en 1995 y 1996; algunas versiones como el K6-3/450 fueron más rápidas que el Pentium II de Intel (procesador de sexta generación). AMD comenzaba a enseñar sus dientes.

El procesador Athlon se lanzó al mercado el 21 de agosto de 1999. El primer núcleo del Athlon, conocido en clave como "K7" (en homenaje a su antecesor, el K6), estuvo disponible inicialmente en versiones de 500 a 650 MHz, siendo desde entonces un serio rival para los microprocesadores Intel. 

Y es precisamente un microprocesador Athlon, el Athlon Thunderbird A1000AMT3B, lanzado en el año 2000, el que se convierte en el primer microprocesador para PCs capaz de alcanzar 1 GHz de velocidad. 

En 2003, AMD lanza su nueva línea de procesadores Athlon 64, las primeras CPUs de 64 bit para PC. 

 

Decodificador de MP3 Micronas Semiconductor MAS3507 (1997)

  

Categoría: Amplificadores y audio

Este chip inició la revolución de la música digital.

Antes del iPod, estaba el Diamond Rio PMP300... aunque entendemos que no lo recuerdes. Lanzado en 1998, el PMP300 se convirtió en un éxito instantáneo, pero luego el entusiasmo se desvaneció más rápido que Milli Vanilli. Sin embargo, una cosa fue notable sobre este dispositivo. Llevaba el chip decodificador de MP3 MAS3507, un procesador digital de señal, de arquitectura RISC con un conjunto de instrucciones optimizado para la compresión y descompresión de audio. El chip, desarrollado por Micronas (ahora TDK-Micronas), permitió que Rio metiera alrededor de una docena de canciones en su memoria flash. Si, ese es un número ridículo para los estándares actuales, pero en ese momento era suficiente para competir con los reproductores de CD portátiles, que tenían una tendencia a dar saltos en la reproducción si se les movía mucho. El Rio y sus sucesores allanaron el camino para el iPod, y ahora puedes llevar miles de canciones (y todos los álbumes y videos musicales de Milli Vanilli) en tu bolsillo.

  

 

Chip de memoria SRAM Intel 3101 de 64 bits (1969)

Categoría: Memorias y almacenamiento

El 3101 es el primer producto comercial de Intel, y el primer chip de memoria RAM estática.

Intel se fundó en Mountain View, California, en 1968 por Gordon E. Moore (sí, el mismo de "la Ley de Moore"), químico, y Robert Noyce, físico y coinventor del circuito integrado basado en silicio, ambos antiguos empleados de Fairchild. Arthur Rock (inversor de capital-riesgo) les ayudó a encontrar inversores, mientras que Max Palevsky estuvo a bordo desde los comienzos.

Su primer producto, y así empezaron fuerte en el competitivo mercado de la memoria de acceso rápido, se comercializa en 1969, el Intel 3101, el primer chip de memoria estática de acceso aleatorio (SRAM, por sus siglas en inglés), de 64 bits de capacidad. Si, podría parecer una capacidad realmente despreciable hoy en día pero en 1969 y en un encapsulado de 16 pines era toda una innovación, sobre todo porque, al estar basado el Intel 3101 en transistores bipolares Schottky y tecnología TTL, era dos veces más rápido que los chips de memoria de Fairchild, incluyendo los de otras compañías.

En el mismo año, Intel lanzó el 3301, un chip de ROM de 1024 bits basado en la misma tecnología que el 3101, y el primer chip comercial basado en transistores MOSFET, el 1101, con 256 bits de SRAM.


Chip de memoria DRAM Intel 1103 de 1024 bits (1970)

  

Categoría: Memorias y almacenamiento

El Intel 1103 es el primer chip de memoria dinámica de acceso aleatorio (DRAM), y esta ampliamente reconocido como el chip que reemplazó a la memoria de núcleos de ferrita.

Aclaremos algunos conceptos antes de entrar en detalles. Los ordenadores usan memoria de acceso aleatorio, o RAM, como su espacio de trabajo cuando la CPU ejecuta programas, y los chips de RAM pueden ser de dos tipos, RAM estática (SRAM) o dinámica (DRAM). Mientras el ordenador tenga corriente, la SRAM mantiene su contenido mientras que la DRAM necesita que se refresque su contenido continuamente. Pero la ventaja de la DRAM sobre la SRAM es que la simplicidad de sus celdas de memoria permite meter mucha mas capacidad en el mismo espacio. Por esa razón, la mayoría de los ordenadores actuales usan DRAM como memoria principal.

En 1969 el 1101 (SRAM) fue un avance significativo, pero la complejidad de cada celda de memoria lo hacía demasiado lento y costoso para las memorias de los mainframes de la época. 

Para resolver esos problemas, la aún joven compañía Intel lanzó en 1970 el 1103, la primera RAM dinámica comercial de 1024 bits. En un chip de 18 pines y con un coste de sólo 1 centavo por bit (3 transistores por celda + 1 condensador) era un competidor imbatible para la tradicional memoria de núcleos de ferrita. El éxito fue total. En 1971, 14 de los 18 principales fabricantes de computadores ya usaban el Intel 1103, y en 1972 el 1103 se convirtió en el chip de memoria más vendido en el mundo, jubilando definitivamente a la memoria de núcleos de ferrita, ganándose merecidamente el apodo de "core (memory) killer". El primer ordenador comercial que usó la DRAM del 1103 fue la serie HP 9800.

Gordon Moore dice: "Hay montones de grandes chips pero uno siempre será muy especial para mi, el Intel 1103. Fue el chip que realmente volvió a Intel muy rentable. Incluso hoy, cuando miro a mi reloj digital y veo que son las 11:03, no puedo evitar recordar este producto clave en la historia de Intel".

Chip favorito de Gordon Moore (cofundador y presidente emérito de Intel) y de Morris Chang (fundador de TSMC).

 

Chip de memoria DRAM Mostek MK4096 de 4Kbits (1973)

Categoría: Memorias y almacenamiento

La arquitectura básica de este chip de memoria se sigue utilizando siempre que se necesita más de una pequeña cantidad de RAM.

El primer chip DRAM fue lanzado por Intel en 1970, el 1103. Pero el chip DRAM de 4 kilobits de Mostek produjo una innovación clave, un truco de circuitos llamado multiplexación de direcciones, inventado por el cofundador de Mostek, Bob Proebsting. Básicamente, el chip usaba los mismos pines para acceder a las filas y columnas de la memoria. Lo hizo enviando señales de direccionamiento de filas y columnas por turnos, en lugar de todas a la vez, como en diseños anteriores. Como resultado, el chip no requería más pines a medida que aumentaba la densidad de la memoria y se podía fabricar por menos dinero.

Sólo hubo un pequeño problema de compatibilidad: el 4096 usaba 16 pines, mientras que las memorias hechas por Texas Instruments, Intel, y Motorola tenían 22 pines. Lo que siguió fue uno de los enfrentamientos más épicos en la historia de la DRAM. Con Mostek apostando su futuro en el chip, sus ejecutivos se propusieron hacer proselitismo entre sus clientes, socios, la prensa e incluso entre su personal. Fred K. Beckhusen, quien fue contratado por entonces para probar los chips 4096, recuerda cuando Proebsting y el director ejecutivo L.J. Sevin llegaron a su turno de noche para dar un seminario, a las 2 de la mañana. “Predijeron audazmente que en seis meses nadie escucharía o se preocuparía por los chips DRAM de 22 pines ”, dice Beckhusen.

Y acertaron. El 4096 y sus sucesores se convirtieron en la DRAM dominante durante años, y la multiplexación de direcciones se convirtió en la forma estándar de manejar memorias cada vez más grandes.

Chip favorito de Charles G. Sodini (profesor del MIT).

 

FPGA Xilinx XC2064 (1985)

  

Categoría: Componentes lógicos

La primera FPGA, un chip con transistores organizados en bloques lógicos cuyas conexiones pueden reconfigurarse por software. Hoy en día las FPGAs pueden encontrarse en todo tipo de equipos informáticos.

A principios de la década de 1980, los diseñadores de chips intentaron aprovechar al máximo todos y cada uno de los transistores de sus circuitos. Pero luego Ross Freeman tuvo una idea bastante radical. Se le ocurrió un chip lleno de transistores que formaban bloques lógicos con conexiones que podían configurarse y reconfigurarse por software. Como resultado, a veces no se usarían un montón de transistores (¡herejía!), pero Freeman apostaba a que la ley de Moore eventualmente haría que los transistores fueran tan baratos que a nadie le importaría. Y acertó de pleno. Para comercializar su chip, llamado matriz de puertas de programables, o FPGA (Field-Programmable Gate Array), Freeman cofundó Xilinx (un concepto extraño requería un nombre de empresa igual de extraño).

       

Cuando en 1985 sale el primer producto de la empresa, el XC2064, a los empleados se les asignó una tarea: tenían que dibujar, a mano, un circuito de ejemplo utilizando los bloques lógicos del XC2064, tal como lo harían los clientes de Xilinx. Bill Carter, ex director de tecnología, recuerda que el director ejecutivo Bernie Vonderschmitt se le acercó y le dijo que tenía "un poco de dificultad para hacer los deberes". Carter estaba encantado de ayudar al jefe. "Allí estábamos", dice, "con papel y lápices de colores, ¡trabajando en las tareas de Bernie!"

      

La FPGA inventada por Ross Freeman era mucho más simple que las FPGA modernas (incluye solamente 64 bloques lógicos, en comparación con los miles o millones de las FPGA modernas) pero fue el origen de la industria actual de FPGAs de miles de millones de dólares. Hoy en día, las FPGAs, vendidas por Xilinx y otros fabricantes, se utilizan en demasiadas cosas como para enumerarlas aquí de manera exhaustiva, pero se pueden encontrar en dispositivos como radios definidas por software, redes neuronales, y enrutadores de centros de datos. ¡Viva la reconfiguración!

 

Microprocesador Zilog Z80 (1976)

Categoría: Procesadores

Una de las mayores leyendas de la era de los 8 bits, este procesador alimentó el primer ordenador portátil, así como los míticos Sinclair ZX Spectrum, MSX, y Amstrad CPC, y decenas de otros ordenadores personales de los 80.

Federico Faggin conocía bien la cantidad de dinero y las horas de trabajo necesarias para comercializar un microprocesador. Mientras estaba en Intel, había contribuido a los diseños de dos buenos ejemplares: el primigenio 4004 y el 8080, que dió fama al Altair. Entonces, cuando fundó Zilog con su ex colega de Intel Ralph Ungermann, decidieron comenzar con algo más simple: un microcontrolador de un único chip. Aún así, su dedicación era tal que siempre comían queso Camenberg y galletas saladas compradas en el supermercado de enfrente.

Pero los ingenieros pronto se dieron cuenta de que el mercado de los microcontroladores estaba repleto de chips muy buenos. Incluso si el suyo fuera mejor que los demás, las ganancias serían escasas... y seguirían comiendo queso y galletas saladas. Zilog tenía que apuntar más alto en la cadena alimentaria, por así decirlo, y nació el proyecto del microprocesador Z80.

El objetivo era superar al 8080 y a la vez ofrecer compatibilidad total con el software del 8080, para alejar a los clientes de Intel. Durante meses, Faggin, Ungermann y Masatoshi Shima, otro ex ingeniero de Intel, trabajaron 80 horas a la semana encorvados sobre mesas, dibujando los circuitos del Z80. Faggin pronto aprendió que cuando se trata de microchips, lo pequeño es hermoso pero puede lastimar tus ojos. “Al final tuve que conseguir anteojos”, dice. "Me volví miope".

El equipo trabajó duro durante 1975 y 1976. Y en marzo de ese año, finalmente tuvieron un prototipo del chip. El Z80 era un contemporáneo del 6502 de MOS Technology y, al igual que él, destacaba no sólo por su elegante diseño sino también por ser muy barato (alrededor de $25).

El Z80 terminó en miles de productos, incluido el Osborne I (el primer ordenador portátil o "cargable") y los ordenadores domésticos Radio Shack TRS-80, Sinclair ZX Spectrum, MSX, Amstrad CPC, y decenas de otros ordenadores personales de los 80, así como en impresoras, máquinas de fax, fotocopiadoras, módems, y satélites. Zilog todavía fabrica el Z80, que es popular en algunos sistemas empotrados. En una configuración básica hoy en día cuesta alrededor de $5, no mucho más de lo que costaría una comida de queso y galletas saladas.

 

Microprocesador Sun Microsystems SPARC (1987)

Categoría: Procesadores

Utilizando una nueva arquitectura no probada antes, este procesador puso a Sun Microsystems en el mapa.

Hubo una época, hace mucho tiempo (principios de la década de 1980), cuando la gente usaba calentadores de piernas de colores neón y veía la serie "Dallas", y los arquitectos de microprocesadores buscaban aumentar la complejidad de las instrucciones de la CPU como una forma de hacer más cosas en cada ciclo de reloj. Pero un grupo de la Universidad de California en Berkeley (siempre un bastión de la contracultura), pidió justo lo contrario: simplifiquen el conjunto de instrucciones, dijeron, y procesarán las instrucciones a un ritmo tan rápido que compensará con creces el hacer menos cosas en cada ciclo. El grupo de Berkeley, liderado por David Patterson, llamó a su enfoque RISC (Reduced-Instruction-Set Computing).

Como estudio académico RISC sonaba genial. ¿Pero era comercializable? Sun Microsystems apostó por ello. En 1984, un pequeño equipo de ingenieros de Sun se propuso desarrollar un procesador RISC de 32 bits llamado SPARC (Scalable Processor ARChitecture). La idea era utilizar los chips en una nueva línea de estaciones de trabajo. Un día, Scott McNealy, entonces director ejecutivo de Sun, se presentó en el laboratorio de desarrollo de SPARC. "Dijo que SPARC llevaría a Sun de una empresa de 500 millones de dólares al año a una empresa de mil millones de dólares al año", recuerda Patterson, consultor del proyecto SPARC.

Por si eso no fuera suficiente presión, muchos fuera de Sun habían expresado dudas de que la empresa pudiera lograrlo. Peor aún, el equipo de marketing de Sun se había dado cuenta de algo aterrador: SPARC deletreado al revés era ... ¡CRAPS! (juego de dados). Los miembros del equipo tenían que jurar que no dirían esa palabra a nadie, incluso dentro de Sun, para que no se corriera la voz a su archirrival MIPS Technologies, que también estaba explorando el concepto RISC.

La primera versión del SPARC minimalista fue el chip Fujitsu MB86900 (también conocido como SF9010) que se utilizó como CPU del servidor Sun 4/260 'Sunrise' y el 4/110 'Cobra', el primer ordenador de sobremesa SPARC (1987). Consistía en un "procesador con una matriz de 20.000 puertas lógicas sin siquiera instrucciones de multiplicar/dividir enteros", dice Robert Garner, el arquitecto líder de SPARC y ahora investigador de IBM. Sin embargo, a 10 millones de instrucciones por segundo, funcionaba aproximadamente tres veces más rápido que los más clásicos procesadores CISC (Complex-Instruction-Set Computer) de la época.

Sun utilizaría SPARC como la CPU de las rentables estaciones de trabajo y servidores que crearía durante los próximos años, y que rápidamente dominarían el mercado, ayudando a impulsar los ingresos de la empresa más allá de los mil millones de dólares, tal como había profetizado McNealy.

 

Amplificador de audio Tripath Technology TA2020 (1998)

Categoría: Amplificadores y Audio

Este amplificador de estado sólido de alta potencia llevó un gran sonido a dispositivos económicos.

Hay un subconjunto de audiófilos que insisten en que los amplificadores basados ??en tubos de vacío producen el mejor sonido y siempre lo harán. Entonces, cuando algunos en la comunidad del audio afirmaron que un amplificador basado únicamente en semiconductores brindaba un sonido tan cálido y vibrante como los amplificadores de válvulas, hubo una gran controversia.

El amplificador en cuestión era un amplificador de clase D inventado por una empresa de Silicon Valley llamada Tripath Technology. Los amplificadores de clase ?D funcionan al no intentar amplificar la señal de audio analógica entrante directamente, sino que primero la convierten en un flujo de pulsos digitales que se pueden usar para encender y apagar los transistores de potencia. La señal resultante se vuelve a convertir en una señal analógica con una mayor amplitud.

El truco de Tripath consistía en utilizar un sistema de muestreo de 50 MHz para impulsar el amplificador. La compañía se jactó de que su chip TA2020 funcionaba mejor y costaba mucho menos que cualquier amplificador de estado sólido comparable. Para mostrar el chip en las ferias comerciales, "tocábamos esa canción tan romántica de la película 'Titanic'", dice Adya Tripathi, fundador de Tripath. Como la mayoría de los amplificadores de clase D, el TA2020 fue muy eficiente en términos de energía; no requería un disipador de calor y podría usar un encapsulado compacto. La versión de gama baja del TA2020, de 15 vatios,  se vendió por $3 y se utilizó en equipos de sonido portátiles y miniestéreos. Otras versiones (la más potente tenía una salida de 1000 W) se utilizaron en sistemas de cine en casa, sistemas de audio de alta gama, y televisores de Sony, Sharp, Toshiba, entre otros.

Finalmente, las grandes empresas de semiconductores se pusieron al día, crearon chips similares y enviaron a Tripath al olvido. Sin embargo, sus chips se convirtieron en objetos de culto. Los kits y productos amplificadores de audio basados ??en el TA2020 y sus chips hermanos todavía están disponibles en compañías como Sure Electronics y Audiophonics.

 

ADSL Amati Communications Overture Chip Set (1994)

Categoría: Comunicaciones

Este chip de comunicaciones ayudó a marcar el comienzo de la era del Internet de banda ancha.

¿Recuerdas cuando apareció ADSL y tiraste ese patético módem de 56,6 kilobits por segundo a la basura? Tu y las dos terceras partes de los usuarios de banda ancha del mundo que utilizaron ADSL deberían agradecerselo a Amati Communications. De acuerdo, unos años más tarde también terminaste tirando ese módem ADSL a la basura cuando se desplegaron las redes de banda ancha basadas en fibra óptica. Pero para muchos consumidores, ADSL fue la primera prueba de lo que se podía hacer con un acceso a Internet de alta velocidad, sobre todo como sistema de distribución de música y películas, y juegos online.

El epicentro de esta revolución de la banda ancha fue Amati Communications, una startup de la Universidad de Stanford. En la década de 1990, se les ocurrió un enfoque de modulación ADSL llamado multitono discreto o DMT. Básicamente, es una forma de hacer que una línea telefónica parezca como cientos de subcanales y mejorar la transmisión mediante una estrategia de Robin Hood inversa: “Se roban bits de los canales más pobres y se entregan a los canales más ricos”, dice John M. Cioffi, cofundador de Amati y ahora profesor de ingeniería en Stanford. DMT superó los enfoques de la competencia, incluidos los de gigantes como AT&T, y se convirtió en un estándar global para ADSL. A mediados de la década de 1990, el chipset ADSL de Amati (uno analógico y dos digitales) se vendía en cantidades modestas, pero en 2000, el volumen había aumentado a millones. A principios de la década de 2000, las ventas superaron los 100 millones de chips por año. Texas Instruments compró Amati en 1997.

 

Lucent WaveLAN IEEE Wi-Fi Chip Set (1998)

Categoría: Comunicaciones

Nadie puede negar que navegar por la Web de forma inalámbrica mientras tomamos un café con leche es una gran cosa. Pero resulta que la creación de la tecnología inalámbrica que hizo posible este elemento básico de la modernidad implicó acalorados debates entre las empresas de tecnología más poderosas del mundo.

Antes de que apareciera el Wi-Fi, una torre de Babel de estándares inalámbricos recorría el espectro; cada empresa tenía su propia tecnología. Fue necesario un ingeniero holandés llamado Vic Hayes, dotado con habilidades diplomáticas del nivel de la ONU, para que todas las empresas estuvieran juntas (e incluso en la misma sala). Como presidente del Grupo de Trabajo IEEE 802.11, Hayes consiguió que se definiera el estándar de red inalámbrica que se generalizaría en hogares, oficinas, escuelas, aeropuertos y, por supuesto, cafeterías. En 1996, el grupo lanzó la primera versión del estándar 802.11. Luego, Hayes lo llevó al departamento de ingeniería de la empresa donde trabajaba, Lucent Technologies, y sus colegas del mismo grupo de trabajo hicieron lo mismo en sus empresas.

Por supuesto, redactar un estándar era una cosa e implementarlo en silicio en un producto rentable era otra. Lucent fue uno de los primeros en crear un chipset 802.11, que presentó en 1998 como WaveLAN IEEE, vendido como parte de routers y módems inalámbricos. El chipset se actualizó pronto para admitir la revisión 802.11b, que podría transmitir datos a una velocidad sin precedentes de 11 megabits por segundo y popularizaría la tecnología Wi-Fi.

Lucent no se beneficiaría mucho de la línea WaveLAN IEEE: escindió su división de semiconductores como Agere Systems en 2000 y renombró el chipset como Orinoco, que luego fue adquirido por Proxim. Para entonces, el Wi-Fi había cobrado vida propia y ahora los chips Wi-Fi de Atheros, Broadcom, Cisco, Intel, Marvell y otros forman parte de todos los ordenadores que se venden en la actualidad. ¿Te apetece otro café con leche?


Microprocesador Texas Instruments TMS9900 (1976)

Categoría: Procesadores

Tan ambicioso como fallido, este chip fue la CPU del primer ordenador doméstico de 16 bits.

A principios de los 70, Texas Instruments sabía que el reciente mercado de los microprocesadores, inaugurado en 1971 por el Intel 4004, iba a demandar chips mas potentes que las CPUs de 8 bits que inundaban el mercado. Y Texas Intruments tenía los recursos de I+D y la capacidad de marketing necesarios para adelantarse a la competencia.

Asi, en 1976 se lanza el TMS9900, el tercer microprocesador de 16 bits de la historia en un único chip. Fue diseñado como una versión de un único chip del microordenador TI 990. Disponía de un buen manejo de interrupciones y un excelente conjunto de instrucciones. 

Pero el TMS9900 perdería su oportunidad de llevarse el premio gordo: ser la CPU elegida para el IBM Personal Computer. El mayor problema era que su arquitectura, a pesar de ser la misma que la de la familia de miniordenadores de Texas Instruments, solamente disponía de 16 bits para direccionamiento de memoria, lo mismo que tenían los microprocesadores de 8 bits de la época, como el MOS 6502 y el Ziloj Z80.

El TMS9900 se utilizó en los ordenadores domésticos Texas Instruments TI-99/4 (1979) y TI-99/4A (1981), dándoles el honor de ser los primeros ordenadores domésticos de 16 bits. Aunque su CPU era muy rápida, para reducir los costos de producción se utilizó en estos ordenadores una memoria RAM de 8 bits, lo que disminuía de forma notable su rendimiento. Aunque el TI-99/4A ganó un cierto mercado fue a costa de perder rentabilidad.

Una serie de variantes sucecieron al TMS9900, como el TMS9995, que encontraron su uso en sistemas empotrados y en ordenadores personales como el Tomy Tutor de Texas Instruments, pero esta línea nunca se recuperó de sus tropiezos iniciales: cuando entró en el mercado de PCs, la propia Texas Instruments acabó usando microprocesadores Intel. Aunque en una comparación con un microprocesador Intel 8086 se puede comprobar que el TMS9900 usa programas más pequeños y veloces. Rara vez un chip se acercó tanto a la verdadera grandeza, sólo para ver cómo se le escapaba de las manos. 

 

Microprocesador Motorola MC68000 (1979)

Categoría: Procesadores

El procesador que usaba el Macintosh original, así como los queridos ordenadores Amiga.

Motorola llegó tarde a la fiesta del microprocesador de 16 bits, por lo que decidió hacerlo con estilo. El MC68000 híbrido de 16/32 bits integraba 68,000 transistores, más del doble que el Intel 8086. Internamente, era un procesador de 32 bits, pero una dirección de 32 bits y/o un bus de datos lo hubieran hecho prohibitivamente. caro, por lo que el 68000 utilizó direcciones de 24 bits y líneas de datos de 16 bits. El 68000 parece haber sido el último gran procesador diseñado con lápiz y papel. "Distribuí copias de tamaño reducido de diagramas de flujo, recursos de unidades de ejecución, decodificadores, y lógica de control a otros miembros del proyecto", dice Nick Tredennick, quien diseñó la lógica del 68000. Las copias eran pequeñas y difíciles de leer, y sus colegas con los ojos llorosos finalmente encontraron una manera de manifestarselo de forma bien clara. “Un día entré en mi oficina y encontré en mi escritorio una copia del tamaño de una tarjeta de crédito de los diagramas de flujo”, recuerda Tredennick.

El 68000 se incluyó en todas los primeros ordenadores Macintosh, así como en los Amiga y el Atari ST. El mayor número de unidades vendidas son para aplicaciones integradas en impresoras láser, juegos arcade, y controladores industriales. Pero el 68000 también fue objeto de uno de los cuasi fallos más grandes de la historia, justo cuando Pete Best perdió su puesto como baterista de los Beatles. IBM quería usar el 68000 en su línea de PCs, pero la compañía eligió el 8088 de Intel porque, entre otras cosas, el 68000 todavía era relativamente escaso. Como reflexionó un observador más tarde, si Motorola hubiera prevalecido, el exitoso duopolio Windows-Intel conocido, como Wintel, podría haber sido Winola.

  

 

Chips & Technologies CS8220 PC/AT Chip Set (1985)

Categoría: Componentes lógicos

En 1984, cuando IBM presentó su línea de PC/AT basada en el Intel 80286, la compañía ya estaba emergiendo como el claro ganador en ordenadores de sobremesa y tenía la intención de mantener su dominio. Pero los planes de Big Blue fueron frustrados por una pequeña empresa llamada Chips & Technologies, en San José, California. C&T desarrolló cinco chips que duplicaban la funcionalidad de la placa base del AT, que usaba unos 100 chips; se llamó el chipset CS8220. Para asegurarse de que el conjunto de chips fuera compatible con el IBM PC, los ingenieros de C&T pensaron que solo había una cosa por hacer. “Tuvimos la tarea estresante pero ciertamente entretenida de jugar durante semanas”, dice Ravi Bhatnagar, el diseñador líder de chipsets y ahora vicepresidente de Altierre Corp., en San José, California. Los chips C&T permitieron a fabricantes como Acer de Taiwán fabricar PCs más baratos, con placas base mucho más pequeñas y lanzar la invasión de los clones del IBM PC. Intel compró C&T en 1997.

  vs. 

El sucesor del chipset CS8220 sería el chipset NEAT (""New Enhanced AT"), llamado CS8206, compuesto de sólo 4 chips, que a su vez evolucionaría al chipset SCAT (Single CHip AT) con solo un chip, el 82C836.

 

Arquitectura de procesador Computer Cowboys Sh-Boom (1988)

   

Categoría: Procesadores

Nunca habrás oído hablar de él, pero la arquitectura de alta velocidad de este procesador se ha aplicado en todos los ordenadores modernos.

Dos diseñadores de chips entran en un bar. Son Russell H. Fish III y Chuck H. Moore (el creador del lenguaje informático Forth), y el bar se llama Sh-Boom. No, este no es el comienzo de un chiste. En realidad, es parte de una historia tecnológica llena de discordia y demandas. Muchas demandas. Todo comenzó en 1988 cuando Fish y Moore crearon un extraño procesador llamado Sh-Boom. El chip estaba tan optimizado que podía funcionar más rápido que el reloj de la placa base que coordinaba el resto del ordenador. Entonces, los dos diseñadores encontraron una manera de hacer que el procesador ejecutara su propio reloj interno ultrarrápido mientras se mantenía sincronizado con el resto del ordenador.

Sh-Boom nunca fue un éxito comercial y, después de patentar sus innovadoras ideas, Moore y Fish se dedicaron a otros menesteres. Fish vendió sus derechos de patente a Patriot Scientific en 1994. Patriot renombró y modificó el Sh-Boom como PSC1000 y lo enfocó al mercado de Java. Los bytecodes de Java podrían traducirse para ejecutarse de manera similar a Forth en el PSC1000 y a 100MHz, y eso era bastante rápido. A principios de la década de 2000, Patriot volvió a cambiar el nombre del ShBoom y llamó al diseño IGNITE.

Sin embargo, siguió siendo un asunto menor para Patriot hasta que sus ejecutivos tuvieron una revelación: en los años transcurridos desde la invención de Sh-Boom, la velocidad de los procesadores había superado con creces la de las placas base, por lo que prácticamente todos los fabricantes de ordenadores y productos electrónicos de consumo terminaron usando un enfoque como el que Fish y Moore habían patentado. ¡Clin-clin! la oportunidad de ganar pasta a espuertas estaba servida. En 2003-04, Patriot inició una serie de demandas contra empresas estadounidenses y japonesas. Si los chips de estas empresas dependen de las ideas de Sh-Boom es motivo de controversia. Pero desde 2006, Patriot y Moore han cosechado más de 125 millones de dólares en derechos de licencia de Intel, AMD, Sony, Olympus y otros. En cuanto al nombre Sh-Boom, Moore, ahora en GreenArrays, en Cupertino, California, nos confesó: “Supuestamente deriva del nombre de un bar donde Fish y yo bebimos bourbon y garabateamos en servilletas. No es cierto del todo, pero me gustó el nombre que él sugirió".

 

Memoria Toshiba NAND Flash (1989)

 

Categoría: Memorias y almacenamiento

Durante mucho, mucho tiempo todo el almacenamiento masivo de datos era magnético. Pero entonces llegaron las memorias flash.

La historia de la invención de la memoria flash comenzó cuando el gerente de una fábrica de Toshiba llamado Fujio Masuoka decidió que reinventaría la memoria de semiconductores. Llegaremos a eso en un minuto. Primero, conviene un poco de historia.

Antes de que apareciera la memoria flash, la única forma de almacenar grandes cantidades de datos era usar cintas, disquetes, y discos duros magnéticos. Muchas empresas intentaban crear alternativas de estado sólido, pero las opciones, como las EPROM (o memoria de sólo lectura programable y borrable, que requería luz ultravioleta para borrar los datos) y las EEPROM (la E adicional significa "eléctricamente", no necesitando UV) no podían almacenar grandes cantidades de datos de forma económica.

Masuoka-san entra a trabajar en Toshiba. En 1980, reclutó a cuatro ingenieros para un proyecto semisecreto destinado a diseñar un chip de memoria que pudiera almacenar gran cantidad de datos y además fuera asequible. Su estrategia fue simple. “Sabíamos que el costo del chip seguiría bajando mientras los transistores se redujeran de tamaño”, dice Masuoka, ahora director de tecnología de Unisantis Electronics, en Tokio.

El equipo de Masuoka ideó una variación de EEPROM que tenía celdas de memoria de un único transistor, cuando hasta ese momento, las EEPROM convencionales necesitaban dos transistores por celda. Fue una diferencia aparentemente pequeña pero que tuvo un gran impacto en el coste.

En busca de un nombre atractivo, optaron por "flash" debido a la capacidad de borrado ultrarrápido del chip. Ahora bien, si está pensando que Toshiba lanzó rápidamente el invento a producción para observar cómo el dinero les caería como una cascada, es que no sabe mucho sobre cómo las grandes corporaciones suelen explotar las innovaciones internas. Al final resultó que, los jefes de Masuoka en Toshiba le dijeron que, bueno, que se olvidara de aquella idea.

Por supuesto, él no lo hizo. En 1984 presentó un artículo sobre el diseño de su memoria en el IEEE International Electron Devices Meeting, en San Francisco. Intel Corporation vio entonces el enorme potencial de la invención y lanzó en 1988 el primer chip flash comercial, basado en puertas NOR (de tiempos largos de escritura y borrado), un chip de 256 kilobits que fue usado en vehículos, ordenadores y otros artículos destinados al gran público, creando un bonito nuevo negocio para Intel.

El éxito de Intel finalmente llevó a Toshiba a dar luz verde al invento de Masuoka. Su chip flash se basaba en la tecnología NAND, que ofrecía mayores densidades de almacenamiento, pero resultó más complicado de fabricar. El éxito llegó en 1989, cuando el primer flash NAND de Toshiba llegó al mercado. Y tal como había predicho Masuoka, los precios siguieron cayendo. El primer medio extraíble basado en memoria flash de puertas NAND (con diez veces la resistencia de las flash de puertas NOR) fue SmartMedia, comercializada en 1995.

La fotografía digital dio un gran impulso a la memoria flash desde finales de la década de 1990, y Toshiba se convirtió en uno de los mayores actores en un mercado multimillonario. Sin embargo, al mismo tiempo, la relación de Masuoka con otros ejecutivos se agrió y abandonó Toshiba. (Más tarde les demandó por una parte de las grandes ganancias y ganó un pago en efectivo).

Hoy en día, las memorias flash de puertas NAND son una pieza clave de todos los dispositivos, smartphones, cámaras, reproductores de música y, por supuesto, los pendrives USB, y los discos de estado sólido (SSD) ya han comenzando a reemplazar incluso a los discos duros mecánicos como medio de almacenamiento preferido en ordenadores portátiles y de sobremesa.

   

 

Receptor GPS STMicroelectronics STA2056 (2004)

Categoría: Sensores inalámbricos

Barato y pequeño, este receptor GPS disparó el mercado de dispositivos móviles que ahora podían conocer su posición geográfica, abriendo paso a numerosos servicios dependientes de la localización.

Un truco de diseño consagrado en el mundo de la fabricación de chips es la idea de matar dos chips con uno. En 2004, STMicroelectronics lo hizo con los receptores GPS. Ya existía un chip con un sistema que captaba las señales de navegación que se envían desde los satélites GPS en órbita. Y también existía otro chip que contenía un microprocesador, algo de memoria y un correlacionador de señales (el GPS determina la ubicación de cada receptor comparando las señales de varios satélites). Pues bien, en el STA2056 estos dos chips se fusionaron en uno sólo.

Aunque ya existían receptores GPS portátiles, el STA2056 estableció un nuevo estándar de tamaño y consumo. Y por $8 el chip era bastante barato, disminuyendo por tanto el precio de los receptores GPS y ayudando a que sus ventas se dispararan. Fiat ha utilizado el chip en varios modelos de Alfa Romeo y el proveedor de GPS Becker lo puso en sus dispositivos receptores.

El STA2056 también ayudó a impulsar la idea del receptor GPS como una funcionalidad que podría integrarse en cualquier dispositivo y no ser sólo un producto independiente con sólo esa funcionalidad. Hoy en día, casi todos los teléfonos, y bastantes relojes, tienen un chip GPS, que generalmente se usa junto con otras técnicas como el mapeo de balizas Wi-Fi para permitir la navegación incluso cuando no hay un satélite a la vista. Y, por supuesto, el truco de dos chips en uno sigue siendo uno de los favoritos de los fabricantes de chips de todo el mundo.


Receptor FM Philips TDA7000 (1977)

Categoría: Sensores inalámbricos

Este chip permitió incluir una radio en innumerables productos de consumo.

A finales de la década de 1970, la construcción de las funciones de radio convencionales era costosa y requería mucho tiempo. Los fabricantes generalmente tenían que hacer de 10 a 14 ajustes de circuito, conocidos como alineaciones, para asegurarse que la recepción fuera buena y que la frecuencia mostrada en la escala de sintonización de la radio fuera la correcta. Lo que cambió todo esto fue la llegada del Philips TDA7000, un chip que hizo posible una radio FM barata, fácil, y ultrapequeña.

Trabajando en el laboratorio de investigación y desarrollo de Philips en los Países Bajos a mediados de la década de 1970, los ingenieros Dieter Kasperkovitz y Harm van Rumpt habían logrado instalar un receptor FM mono completo, desde la entrada de la antena hasta la salida de la señal de audio, en un chip de 3,5 mm cuadrados. Las únicas piezas externas eran un circuito resonante ajustable para sintonizar la radio a la frecuencia deseada y tan sólo 14 condensadores cerámicos, además de la fuente de alimentación y el altavoz. Solo se necesitaba una alineación.

Exuberantes, el dúo patentó su creación en 1977 y la presentó al equipo corporativo de Philips poco después. La reunión no salió como se esperaba, y el grupo de fabricación de radios se opuso a seguir adelante. Ese podría haber sido el final del chip si no hubiera sido por un tercer hombre: Peter Langendam, un físico atómico y molecular que entonces dirigía una fábrica en Valvo, subsidiaria de componentes de Philips, con sede en Hamburgo. Langendam creía en la tecnología con tanta fuerza que se volvió deshonesto y trajo en secreto algunos chips de muestra de los Países Bajos a Alemania para producir algunas radios de demostración. Envió esas radios a clientes japoneses que se volvieron locos por esa tecnología, firmando pedidos por un millón de chips. El riesgo fue enorme, pero funcionó. Conociendo la respuesta del mercado japonés, Philips estaba a bordo, al igual que todos los demás. De repente, fue posible meter radios FM en, bueno, casi cualquier sitio: alarmas, reproductores de música, e incluso en gafas de sol. 

El TDA7000 también cambió el mundo del bricolaje de radios, lo que hizo que fuera mucho más fácil para los aficionados construir una radio FM desde cero, sin los interminable problemas con media docena de componentes para que la maldita cosa funcionara. Hasta la fecha, se han vendido más de 5 mil millones del chip TDA7000 y variantes.


Procesador de TV Philips Semiconductors TDA93xx (1999)

       

Categoría: Procesadores

La gente de marketing de Philips lo llamó "el mejor procesador de TV de un chip". Los ingenieros de Philips lo llamaron TDA93xx. Era un solo chip que integraba un procesador de señal de TV, un decodificador de subtítulos y un núcleo de microcontrolador. La compañía lo logró combinando circuitos CMOS (Complementary-Metal-Oxide Semiconductor) normales con BiMOS analógico, una combinación de tecnología bipolar y CMOS.

El chip admitía los tres principales estándares internacionales de televisión (PAL, NTSC y SECAM) y, al agregar un microcontrolador, Philips eliminó la necesidad de muchos otros componentes. A los fabricantes de televisores les encantaba el chip, que funcionaba bien incluso en mercados como África y China, conocidos por las peculiaridades de sus entornos de transmisión. La división de semiconductores de Philips, ahora conocida como NXP, estima que ha enviado más de 850 millones de chips TDA93xx. Y espera enviar millones más hasta que finalmente la televisión analógica desaparezca en todo el mundo gracias a este "TV on a chip".

  


Chip de teléfono móvil GSM Silicon Laboratories Si4905 (2005)

Categoría: Comunicaciones

Anunciado por Silicon Laboratories en 2005, el Si4905 metió un teléfono móvil GSM completo (incluyendo la banda base digital, los circuitos de radiofrecuencia (RF), la gestión de energía y la interfaz de la batería) en aproximadamente 1 cm2 de silicio, cuando en aquellos días, un teléfono de este tipo requería habitualmente más de 200 componentes electrónicos. La parte complicada fue integrar los subsistemas de RF y digitales, ya que normalmente estaban separados y apantallados. Pero después de exhaustivas pruebas y rediseños, la empresa lo logró. En comparación con otras soluciones integradas en el mercado, el teléfono de un solo chip Si4905 redujo el número de componentes en un 75%, el área de la placa en un 65% y el coste de fabricación en hasta un 50%.

A pesar de ofrecer a los fabricantes una forma fácil de producir teléfonos para usuarios finales a un coste mucho menor, Silicon Labs era simplemente demasiado pequeño para competir contra gigantes como Texas Instruments e Infineon Technologies. De hecho, nunca consiguió un cliente. En 2007, Silicon Labs vendió la línea de chips GSM a NXP, que ahora suministra el chip a Samsung, el segundo fabricante de teléfonos móviles del mundo.

Exposición “Efemérides retroinformáticas”

Descripción de la exposición

Horario:
Del lunes 22 de al viernes 26 de noviembre, en horario continuo

Exposición “Efemérides retroinformáticas”

Distintas vitrinas (virtuales) destacan algunos de los hitos más importantes de la historia de la Informática, los videojuegos, y la aplicación de la tecnología en general, que en la presente edición de RetroMañía cumplen un aniversario destacado.

Hace 115 años

Invención del triodo (1906)

El ingeniero estadounidense Lee De Forest inventó y patentó un diseño de tubo de tres elementos, añadiendo un electrodo al diodo, al que llamó inicialmente "Dispositivo para amplificar corrientes débiles", de forma abreviada, Audion, el cual es considerado el primer triodo.

Inicialmente fue usado como detector de señales inalámbricas hasta que en 1912, varias personas reconocieron que podía trabajar como amplificador, lo que hizo que fuera utilizado con éxito para construir los primeros receptores de radio con amplificación y osciladores electrónicos.

Hace 80 años

Zuse Z3 (1941)

Creado por Konrad Zuse en 1941, fue una de las primeras máquinas programables, digitales, y completamente automática, características usadas habitualmente para definir a un computador. Era electromecánico, usando unos 2.300 relés, alcanzando una velocidad de unos 5Hz. Una característica importante es que estaba basado en el sistema binario, que fue inventado 3 siglos antes por Gottfried Leibniz, y usado más tarde por Boole para desarrollar su álgebra booleana. El Z3 original fue destruido en 1943 durante un bombardeo en Berlín. Una réplica completamente funcional fue construida durante los años 60. En 1998 se demostró que era una máquina "Turing-completa" (podría realizar cualquier función de tener memoria infinita).

Hace 75 años

ENIAC (1946)

ENIAC, acrónimo de Electronic Numerical Integrator And Computer (Computador e Integrador Numérico Electrónico) fue una de las primeras computadoras de propósito general. Era "Turing-completa", digital, y susceptible de ser reprogramada para resolver una extensa clase de problemas numéricos. Inicialmente se diseñó para calcular tablas de tiro de artillería destinadas al Laboratorio de Investigación Balística del Ejército de los Estados Unidos (un problema que un matemático tardaría 20 horas en resolver, el ENIAC lo hacía en 30 segundos). Eso si, era "program-controlled": para cambiar el tipo de problema a resolver había que reconectar cables a mano, lo que a veces costaba días, labor ésta realizada por 6 mujeres.

Como máquina era algo tremendo. Pesaba 27 toneladas y estaba formado por 17.468 tubos de vacío, 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias, 10.000 condensadores y cinco millones de soldaduras). Ocupaba la extensión aproximada de una pista de tenis y al funcionar elevaba la temperatura del local a 50 °C (200kW)

En general, se la ha considerado como la primera computadora de propósito general, aunque este título pertenece en realidad a la computadora alemana Z3 y a la británica Colossus, ambas destruidas durante y después de la II Guerra Mundial y por tanto desconocidas hasta que su diseño saió a la luz muchas décadas después.

Hace 70 años

UNIVAC I (1951)

La UNIVAC I (UNIVersal Automatic Computer I, Computadora Automática Universal I), evolución del ENIAC y de sus mismos creadores, fue la primera computadora comercial fabricada en Estados Unidos, entregada el 31 de marzo de 1951 a la oficina del censo. Se construyeron 46 unidades.

Hace 65 años

IBM 305 RAMAC y el IBM 350, el primer disco duro (1956)

El IBM 305 RAMAC fue el primer ordenador comercial que utilizaba disco duro de cabeza móvil (unidad de disco magnético) como almacenamiento secundario. Su disco duro, el IBM 350, pesaba 1 tonelada y tenía una capacidad de unos 4Mb, formado por cincuenta discos de 61 cm.

IBM lo lanzó el 14 de septiembre de 1956. RAMAC eran las iniciales en inglés de "Sistema de Contabilidad con Memoria de Acceso Aleatorio" ("Random Access Memory ACcounting System"). Su diseño estuvo motivado por la necesidad de sustituir el fichero de tarjetas perforadas utilizado por la mayoría de las oficinas de la época.

Hace 60 años

Primer "chip" comercial de silicio (1961)

En 1958 Jack Kilby, de Texas Instruments, crea el primer circuito integrado con base de germanio, integrando un transistor, 3 resistencias, y un condensador. Sería el comienzo de la microelectrónica. El aspecto del circuito integrado era tan nimio, que se ganó el término inglés que se le da a los pedacitos de algo: chip. Sin embargo, este primer chip era híbrido: los componentes se separaban cortando el material y las conexiones entre ellos se resolvía añadiendo cables de oro. Esto sería resuelto por Robert Noyce, de Fairchild, en 1959, quien crea el primer circuito integrado monolítico de silicio que soluciona el problema de conexiones y separación de componentes que tenia el primer circuito integrado creado por Kilby. Desde entonces los chips siguieron el diseño de Noice y no el de Kilby, aunque el mérito debe recaer en ambos. Kilby ganaría el Premio Nobel en Física en 2000 y Robert Noyce fue uno de los tres fundadores de Intel en 1968, desde hace años el mayor fabricante de circuitos integrados del mundo. El 25 de abril de 1961 la patente del invento de Noyce quedaría registrada y ese mismo año, hace ahora 60, Fairchild lanza "Micrologic", la primera familia de chips comerciales. A partir de ahi los chips serían cada vez más potentes, más pequeños, más rápidos y más baratos provocando una revolución digital que poco a poco cambiaría el mundo para siempre.

Hace 55 años

Computador de Navegación del Apolo (1966)

El Computador de Navegación del Apolo o Apollo Guidance Computer fue un elemento fundamental del programa Apolo.

Su papel en el programa espacial fue proporcionar la capacidad de cálculo necesaria para controlar la orientación, y la navegación del módulo de mando (CM, de Command Module) y del módulo lunar (LM, de Lunar Module). Este ordenador destaca por haber sido uno de los primeros computadores basados en circuitos integrados o chips.

Brown Box (1966)

Robert Baer comenzó el desarrollo de la "Brown Box", un sistema de videojuegos pensado para conectarse a una TV y algunos prototipos en 1966 para la compañia Sanders Associates en Nashua, New Hampshire.

Este sería el origen de la Magnavox Odyssey, la primera videoconsola de la historia.

Procesador del lenguaje natural ELIZA (1966)

ELIZA es un programa informático diseñado en el MIT entre 1964 y 1966 por Joseph Weizenbaum. ELIZA fue uno de los primeros programas en procesar lenguaje natural.

El mismo parodiaba al psicólogo Carl Rogers e intentaba mantener una conversación de texto coherente con el usuario, simulante una conversación con otro humano.

Hace 50 años

Intel 4004 (1971)

El Intel 4004, una CPU de 4 bits, fue el primer microprocesador en un único chip, así como el primero disponible comercialmente, siendo usado en la calculadora Busicom 141-PF,.

Constituyó un hito que fue seguido en los siguientes años por nuevos y más potentes microprocesadores que darían lugar a los ordenadores personales, con una caida drástica de los precios, haciéndolos accesibles a todo tipo de público.

Floppy disk (1971)

Los primeros disquetes (8", 80K), o floppies, estuvieron disponibles comercialmente en 1971 como un componente de los productos de IBM. A partir de 1972 se vendieron por separado por Memorex y otros fabricantes.

En 1976, Shugart Associates introdujo el FDD de 5 1/4 pulgadas. Más tarde, se desarrollaron una serie de soluciones, con unidades de 2, 2 1/2, 3, 3 1/4, 3 1/2 y 4 pulgadas (y el disco de 90.0 mm × 94.0 mm de Sony) ofrecido por varias compañías.

Una variante del diseño de Sony, introducida en 1982 por un gran número de fabricantes, fue adoptada rápidamente. En 1988, el disco de 3 1/2 pulgadas ya vendía más que el 5 1/4 pulgadas.

En 1996, se estima que había cinco mil millones de disquetes estándar en uso.

Signetics NE555 (1971)

El temporizador IC 555 es un circuito integrado (chip) que se utiliza en la generación de temporizadores, pulsos y oscilaciones. El 555 puede ser utilizado para proporcionar retardos de tiempo, como un oscilador, y como un circuito integrado flip flop. Sus derivados proporcionan hasta cuatro circuitos de sincronización en un solo encapsulado.

Introducido en 1971 por Signetics, el 555 sigue siendo de uso generalizado debido a su facilidad de uso, bajo precio y la estabilidad. Muchas empresas los fabrican en versión de transistores bipolares y también en CMOS de baja potencia. A partir de 2003, se estimaba que mil millones de unidades se fabricaban cada año. Este circuito suele ser utilizado para trabajos sencillos como trabajos escolares, debido a su bajo costo y facilidad de trabajar con él.

Intel 1702A (1971)

Dov Frohman de Intel inventó la primera EPROM en 1971 que se definió como la Intel 1702A. Aunque tenía una capacidad de solo 256 bytes, era suficiente para arrancar aquellos primeros microordenadores.

Debido a su bajo precio, fue un componente común en los ordenadores de entonces.

UART WD1402A (1971)

Aunque Western Digital se fundó originalmente el 23 de abril de 1970 como General Digital, como fabricante de equipos de prueba para semiconductores MOS, en julio de 1971 trasladaron su sede a Newport, California, donde se afincaron ya como Western Digital.

El WD1402A fue su primer chip propio. Fue desarrollado para conectar un teleimpresor a un PDP-1, una tarea que requería que las señales de un interfaz paralelo se convirtieran en señales serie y viceversa. El circuito UART que Gordon Bell desarrolló para este propósito, requirió más de 50 componentes. Fue entonces cuando Western Digital ofreció desarrollar un chip que contuviera el circuito completo de un UART.

Hoy en día los UART están muy extendidos, por ejemplo, en módems y otros periféricos.

Computer Space (1971)

Computer Space es un videojuego arcade lanzado en noviembre de 1971 por Nutting associates. Creado por Nolan Bushnell y Ted Dabney, quienes más tarde fundarían Atari, está aceptado generalmente que fue el primer videojuego vendido comercialmente que funcionaba con monedas.

El juego es una adaptación del mítico Spacewar! (1962), y comparte algunas similitudes con el posteriormente famoso Asteroids (1979).

Envío del primer email (1971)

Ray Tomlinson modificó el programa de correo electrónico SNDMSG, un programa que en teoría era para mandar emails a los diferentes usuarios de una misma máquina, con la funcionalidad necesaria para poder mandar esos mensajes a diferentes ordenadores conectados a la red ARPANET, la cual daría lugar porteriormente a Internet.

Creeper: el 1er virus informático (1971)

Creeper infectaba ordenadores DEC PDP-10 que utilizaban el sistema operativo TENEX. Creeper se extendía mediante ARPANET y se copiaba a sí mismo al sistema objetivo, donde mostraba el mensaje "I'm the creeper, catch me if you can!" ("Soy el Creeper, atrápame si puedes!").

Creeper comenzaba a imprimir un archivo, pero se detenía, buscaba otro sistema TENEX en red, se copiaba a este (incluyendo su estado, etc...), y entonces se ejecutaba en el nuevo ordenador, mostrando de nuevo el mensaje.

El programa raramente se replicaba de verdad, sino que únicamente 'saltaba' de un ordenador a otro, eliminándose del ordenador anterior, se movía entre los distintos ordenadores de una misma red.

Hace 45 años

Fairchild Channel F (1976)

Fairchild Channel F es una consola de videojuegos publicada por Fairchild Semiconductor en agosto de 1976, su precio de ventas fue de $169.95. Inicialmente fue titulado VES (en inglés, Sistema de Entretenimiento de Video), pero cuando se lanzó el Atari VCS (Video Computer System), el año siguiente, se le cambió el nombre a Fairchild.

Fue la primera videoconsola con un microprocesador que utilizaba cartuchos con los juegos.

AY-3-8500 (1976)

El circuito integrado AY-3-8500 "Ball & Paddle" fue el primero de una serie de circuitos integrados de General Instrument diseñados para el mercado de videojuegos de consumo.

Estos chips fueron diseñados para emitir video a un modulador de RF, que luego mostraría el juego en un televisor doméstico. El AY-3-8500 contenía seis juegos seleccionables: tenis (también conocido como Pong), fútbol, squash, práctica, y dos juegos de tiro con rifle (óptico).

El AY-3-8500 era la versión PAL de 625 líneas y el AY-3-8500-1 era la versión NTSC de 525 líneas. Coleco se convirtió en el primer cliente en utilizar este nuevo chip para construir sus videoconsolas.

El AY-3-8500 fue la primera versión, pero hubo hasta siete variantes de Pong. La salida de video era en blanco y negro, aunque algunas variantes (como el AY-3-8515) eran en color.

Apple I (1976)

El Apple I salió a la venta en julio de 1976 con el curioso precio de 666,66 dólares porque a Steve Wozniak le gustaban los dígitos repetidos, y porque ellos originalmente lo vendieron a una tienda local por $500 añadiendo un tercio de margen de beneficio. Se fabricaron únicamente 200 unidades.

A diferencia de otros ordenadores que se vendían en kits, el Apple I constaba una serie de tarjetas electrónicas completamente ensambladas que contenían 62 chips.

Sin embargo, para hacer una computadora funcional, los usuarios tenían que agregar una carcasa, un transformador como fuente de alimentación, el interruptor de encendido, un teclado ASCII y una pantalla de video compuesto. Más adelante se comercializó una tarjeta opcional que proporcionaba una interfaz para cassetes de almacenamiento con un costo de 75 dólares.

Un año después, en 1977, todas esas ideas se plasmarían en el Apple II, un ordenador completo que sólo necesitaba enchufarse y comenzar a utilizarlo, y que supondría el comienzo del gran éxito de Apple.  

Zilog Z80 (1976)

Zilog Z80 (Z80) es un microprocesador de 8 bits cuya arquitectura se encuentra a medio camino entre la organización de acumulador y de registros generales. Si consideramos al Z80 como procesador de arquitectura de registros generales, se sitúa dentro del tipo de registro-memoria.

Fue lanzado al mercado en marzo de 1976 por la compañía Zilog, y se popularizó en los años 1980 a través de ordenadores como el Sinclair ZX Spectrum, Amstrad CPC o los ordenadores de sistema MSX. Es uno de los procesadores de más éxito del mercado, del cual se han producido infinidad de versiones clónicas, y sigue fabricándose y siendo usado de forma extensiva en la actualidad en multitud de sistemas embebidos.

Texas TI-30 (1976)

La TI-30 original fue notable por su coste extremadamente bajo, de alrededor de 25 dólares, un precio mucho menor que el del resto de otras calculadoras científicas de esa época. Por ejemplo, la calculadora científica más barata de HP todavía seguía costando más de 100 dólares. El bajo precio de la TI-30 democratizó las calculadoras científicas entre los estudiantes de secundaria.

Se cree que la TI-30 puede ser la calculadora más vendida de todos los tiempos, con unas ventas estimadas de unos 15 millones de unidades entre 1976 y 1983.

A lo largo de los años, la TI-30 ha sido objeto de numerosas revisiones, siendo la última del año 2004 bajo el nombre de TI-30Xa.

Microcontrolador Intel 8048 (1976)

El primer microcontrolador fabricado por Intel, el segundo del mundo después del TMS1000 (1971, 4 bits), y el primero de 8 bits.

Fue usado en Magnavox Odyssey (la primera consola de videojuegos), los teclados de IBM PC, y varios sintetizadores Korg y Roland.

Colossal Cave Adventure (1976)

Colossal Cave Adventure (también conocido en el mundo anglosajón como ADVENT, Colossal Cave o Adventure, y conocido en España como La Aventura Original) fue el primer videojuego de aventura, donde el jugador explora un mapeado usando diversos comandos de texto.

La primera versión del juego fue escrita en 1976 en el lenguaje de programación Fortran por los programadores Willie Crowther y Don Woods. En 1977 Don Woods puso a punto una versión mejorada del juego. Crowther, el diseñador original de Colossal Cave Adventure, también era aficionado a la exploración de cuevas y basó parte del recorrido del juego en las cuevas del parque nacional de Mammoth Cave en Kentucky.

La subred de la Colossal Cave (literalmente, «cueva colosal») tiene muchas entradas, una de las cuales se conoce como Bedquilt. Crowther reprodujo porciones de la cueva real tan fielmente que los exploradores de cavernas que habían jugado el juego podían, en su primera visita, navegar fácilmente a través de secciones familiares en la región del Bedquilt.

cartel Futureworld

1ª animación 3D en una película (1976)

En la película de 1976 "Futureworld" se mostró la primera animación 3D donde se ve un wireframe (una malla) de una mano en 3D.

Hace 40 años

Osborne 1 (1981)

El Osborne 1 fue el primer ordenador portable con éxito comercial, presentada en la Feria de Computación de la Costa Oeste.​ Fue lanzada por Osborne Computer Corporation.​ Este ordenador pesaba 11kg, costaba 1.795 dólares y corría el entonces popular sistema operativo CP/M 2.2.3​

Sus principales deficiencias eran la diminuta pantalla de 5 pulgadas (13 cm) y los discos flexibles que no tenían suficiente capacidad para aplicaciones de negocios. No tenía batería pero si que era posible llevarlo de viaje para enchufarlo y usarlo en un destino distinto.

Su diseño le debe mucho al de la Xerox NoteTaker, un prototipo desarrollado en el Xerox PARC.

IBM 5150 o IBM PC (1981)

El IBM 5150 o IBM Personal Computer (IBM PC) fue lanzado el 12 de agosto de 1981 formando parte de la quinta generación de computadoras. Fue creado por un equipo de ingenieros y de diseñadores bajo la dirección de Don Estridge y William C. Lowe del IBM Entry Systems Division en Boca Raton, Florida, a los que se les encargó diseñar un ordenador personal en 8 meses, visto el éxito obtenido por compañías de mucho menor potencial como Apple y otros.

Debido al escaso tiempo disponible, y en contra de la filosofía habitual de IBM, no tuvieron más remedio que usar componentes de terceros, incluyendo el microprocesador 8088 de Intel y el sistema operativo MS-DOS de una incipiente Microsoft. Pero su diseño modular con slots de expansión que permitían ampliar sus capacidades, algo de lo que carecían sus competidores, junto con el éxito de los compatibles IBM PC que surgen en el mercado, todos compatibles entre sí, convertirían su arquitectura en la dominadora del mercado desde entonces hasta nuestros días.

Junto a "microordenador" y a "computador doméstico", el término "ordenador personal" ya estaba en uso antes de 1981, de hecho comenzó a usarse desde 1972 para caracterizar al Alto de Xerox PARC. Sin embargo, debido al éxito del IBM Personal Computer, el término PC vino a significar más específicamente un ordenador personal compatible con lel IBM PC. 

Sinclair ZX81 (1981)

El ordenador personal Sinclair ZX81, lanzado por Sinclair Research en 1981, fue el ordenador de menor precio de la época y se vendía en la versión de kit por 49,95 libras esterlinas, y por 69,95 ya montado.

El ZX81 era la versión mejorada del Sinclair ZX80, comercializado el año anterior. La carcasa era negra, con un teclado de membrana. La apariencia definitiva de la máquina fue el trabajo del diseñador industrial Rick Dickinson.

La salida de vídeo, como en el ZX80, se enviaba a un televisor por medio de un modulador de radiofrecuencia (RF), y los programas se leían y se guardaban a través de un grabador de cassetes común usando cintas magnéticas de audio, de muy bajo coste para la cantidad de información que se podía grabar en ellas.

La evolución del ZX81 fue el exitoso Sinclair ZX Spectrum (1982).

BBC Micro (1981)

El BBC Micro, conocido cariñosamente como el Beeb, fue uno de los primeros ordenadores domésticos. Fue diseñado y construido por Acorn Computers para la British Broadcasting Corporation (BBC).

A principios de los años 1980, La BBC comenzó lo que se ha sido conocido como el BBC Computer Literacy Project (Proyecto de Conocimiento en Informática de la BBC). El proyecto fue iniciado en gran parte en respuesta a un extremadamente influyente documental de la ITV, "The Mighty Micro", (El Extraordinario Micro), en el cual, el Dr. Christopher Evans, del National Physical Laboratory, predijo la llegada de la revolución del (micro)ordenadory su gran impacto en la economía, la industria y la forma de vida del Reino Unido.

Silicon Graphics (1981)

Silicon Graphics, Inc., también conocida como SGI, o históricamente citada como Sistemas Computacionales Silicon Graphics (SGCS), fue un fabricante estadounidense de hardware y software de computadoras especializadas en generación de gráficos, que comenzó como fabricante de terminales gráficas en 1982.

Fue fundada por Jim Clark y Abbey Silverstone. Los productos iniciales estaban basados en el trabajo de James Clark con geometry pipelines, software especializado y hardware que acelera la exhibición de imágenes tridimensionales.

SGI fue establecido originalmente como corporación en California en noviembre de 1981, y restablecida como corporación en Delaware en enero de 1990.

El 8 de mayo 2006 SGI presentó suspensión de pagos, por la falta de mercado de estaciones gráficas debido a las crecientes capacidades gráficas de los compatibles PCs dotados de tarjetas gráficas tan potentes como las de NVIDIA, de precio mucho menor.

Epson HX-20 (1981)

Epson HX-20 (también conocido como HC-20), es generalmente considerado como el primer ordenador portátil, anunciado por Epson en noviembre de 1981, aunque no se empezó a vender ampliamente hasta 1983.

Aclamado por la revista BusinessWeek como la "cuarta revolución en computación personal", es generalmente considerado el primer ordenador portátil tipo Notebook y es por esta razón que es muy valorado entre los coleccionistas.

Con las dimensiones aproximadas de una hoja tamaño A4, el Epson HX-20 cuenta con un teclado, batería de níquel cadmio recargable, una pantalla LCD de 120×32 píxel integrada (más pequeña que la de cualquier aparato de telefonía móvil actual) y que permitía 4 líneas de 20 caracteres, dos procesador Hitachi 6301 (configurado como maestro-esclavo) de 0,614 MHz​ una impresora matricial del tamaño de una calculadora de bolsillo, el Lenguaje de programación EPSON BASIC, memoria RAM de 16 kB expandible a 32 kB y un dispositivo de almacenamiento de datos en microcassete integrado. Utiliza un sistema operativo propietario, que consiste en el intérprete de Epson Basic y un programa monitor del sistema, y pesa aproximadamente 1.6 kg.

Donkey Kong (1981)

El juego arcade Donkey Kong fue creado cuando Nintendo asignó a Shigeru Miyamoto a convertir el Radar Scope, un juego que había sido lanzado para probar audiencias con malos resultados, en un juego que gustara más a los estadounidenses.

El resultado fue un gran avance para Nintendo y para la industria del videojuego. Las ventas de la máquina fueron rápidas, con el juego convirtiéndose en una de las máquinas arcade más vendidas de principios de los ochenta.

El juego en sí fue una gran mejora con respecto a otros juegos de su tiempo. Es considerado el primer juego de plataformas de la historia.

Scramble (1981)

Scramble (スクランブル Sukuranburu) es un juego arcade Matamarcianos de desplazamiento lateral de 1981. Fue desarrollado por Konami, y fabricado y distribuido por Leijac en Japón y Stern en América del Norte.

Fue el primer "matamarcianos" de desplazamiento lateral con desplazamiento forzado y múltiples niveles distintos. El hardware de la placa arcade del sistema Konami Scramble utiliza dos microprocesadores Zilog Z80 como CPU, dos chips de sonido AY-3-8910 para el sonido, y hardware de video Namco Galaxian para los gráficos.

Quarter Horse (1981)

Fue el primer videojuego en utilizar la tecnología LaserDisc para simular apuestas de caballos.

Al igual que en las apuestas reales, el jugador no tiene nada más que seleccionar un caballo, y hacer su apuesta, para a continuación ver la carrera.

Tenía modo para dos jugadores.

Defender (1981)

Defender es un videojuego arcade de disparos en un mundo bidimensional, desarrollado y publicado por Williams Electronics en 1980. Está situado en un planeta ficticio donde el jugador debe vencer oleadas de extraterrestres mientras protege a los astronautas situados en la superficie.

El desarrollo fue liderado por Eugene Jarvis, un programador de pinballs de Williams; Defender fue el primer proyecto de videojuego de Jarvis, inspirándose en Space Invaders y Asteroids. Williams planeó mostrar el juego en la feria Amusement & Music Operators Association (AMOA). Debido a que el desarrollo del juego se retrasó, el equipo tuvo que estar trabajando en él hasta el comienzo de la feria.

Defender fue comercialmente un éxito, vendiendo aproximadamente 55 000 unidades y convirtiéndose en el arcade más vendido de la compañía. Los críticos elogiaron los efectos audio-visuales del juego y su jugabilidad. Es frecuentemente nombrado como uno de las mejores contribuciones de Jarvis a la industria del videojuego, además de uno de los videojuegos más difíciles. Defender fue portado a numerosas plataformas, inspirado en el desarrollo de otros juegos, y fue seguido por secuelas y por muchas imitaciones.

Lenguaje Karel (1981)

Karel el Robot es un emulador de un robot, distribuido como software educativo de código abierto dirigido a principiantes en el estudio de lenguajes de programación, dando al iniciado sólidas bases en cuanto al diseño en un entorno de programación estructurada3 como Pascal.​ Fue creado por Richard E. Pattis en su libro "Karel The Robot: A Gentle Introduction to the Art of Programming" ("Karel el Robot: Una agradable introducción al arte de la programación"). Pattis usó el lenguaje en sus clases en la Universidad Carnegie Mellon, con el objetivo de que sus estudiantes aprendiesen a pensar de manera ordenada y eficiente. El lenguaje toma su nombre del escritor checo Karel Čapek, quien creó la palabra robot para su obra teatral R.U.R. (Robots Universales Rossum) en 1920.

Funciona en la mayoría de sistemas basados en Unix.

Karel el Robot es habitualmente usado oficialmente como una de las pruebas en la Olimpiada Mexicana de Informática.

MS-DOS (1981)

MS-DOS (siglas de Microsoft Disk Operating System, es decir, sistema operativo de disco de Microsoft) fue el principal sistema operativo para ordenadores personales compatibles con IBM PC en la década de 1980 y mediados de los 90, hasta que fue sustituida gradualmente en la versión 8.0 del año 2000 por sistemas operativos que ofrecían una interfaz gráfica de usuario, en particular por varias generaciones de Microsoft Windows. Desde Windows XP, ya no se volvió a incluir una versión de MS-DOS (aunque a todos los efectos el simbolo del sistema o CMD de los Windows más actuales permiten operar como en MS-DOS).

MS-DOS no fue un Sistema Operativo hecho desde cero, se desarrolló a partir de QDOS (Quick Disk Operating System), también conocido como 86-DOS. Su desarrollo se inició oficialmente en 1981.

Definición del protocolo TCP/IP y el comienzo de Internet (1981)

En 1981 Se definió el protocolo TCP/IP, que son las siglas de Transmission Control Protocol/Internet Protocol (Protocolo de control de transmisión/Protocolo de Internet). Son los protocolos de transporte y de red que permiten a Internet ser lo que es, una red de redes.

En 1984 se llegaría a 1000 ordenadores conectados a Internet, que serían 10.000 en 1986, 100.000 en 1989, 1 millón en 1992, 10 millones en 1996... hasta los varios miles de millones de hoy en día (el 60% de la población mundial). Eso sin contar que casi el 70% de la población actual se conecta a Internet desde un móvil.

Hace 35 años

Atari 1040ST (1986)

Atari actualizó en 1986 el diseño básico del Atari 520ST con el 1040STF. La máquina era la misma pero se movió la fuente de alimentación y una unidad de disquete de doble cara en la parte posterior de la carcasa de la computadora, en lugar de ser externa, duplicando la memoria RAM a 1Mb. Esto aumentó el tamaño de la máquina, pero redujo el desorden de cables en la parte posterior. Los puertos de joystick / mouse, anteriormente en el lado derecho de la máquina donde ahora se encontraba la unidad de disco, se movieron a un nicho debajo del teclado.

El 1040ST fue uno de los primeros ordenadores personales equipados con una configuración base de 1Mb de RAM. Cuando su precio se redujo a $999 en los Estados Unidos, apareció en la portada de BYTE en marzo de 1986 como el primer ordenador en romper la barrera del precio de 1000 dólares por megabyte.

Sensor de imagen KAF-1300 (1986)

Se le considera el sensor que sacó la fotografía digital del laboratorio.

Hubo otros antes pero el KAF-1300 fue un chip que podía capturar imagenes a una resolución de 1,3 megapixels, suficiente para la impresión de fotografías nítidas de 5 x 7 pulgadas, uno de los tamaños más estándar de la fotografía en papel.

Este chip se convirtió en la base para los futuros sensores CCD contribuyendo de forma notoria a la revolución producida en fotografía digital.

Primer chipset de PC (1986)

Chips & Technologies creó el primer chipset con la lógica de la arquitectura del IBM PC/AT: En cinco chips el chipset CS8220 integraba 63 de los 94 chips de la placa base del AT.

Usando este chipset los fabricantes de PC no sólo podían hacer placas más pequeñas y a un coste más bajo, sino que también podían en el mismo espacio introducir perifericos hasta entonces presentes en tarjetas de expansión, dejando slots libres para otras funcionalidades.

Out Run (1986)

Out Run es un videojuego arcade de conducción lanzado por Sega en septiembre de 1986.

Es conocido por su hardware y gráficos pioneros, jugabilidad no lineal, una banda sonora seleccionable con música compuesta por Hiroshi Kawaguchi y el mueble arcade de lujo del simulador de movimiento hidráulico. El objetivo es evitar el tráfico y llegar a uno de los cinco destinos conduciendo un Ferrari Testarossa.

El juego fue diseñado por Yu Suzuki, quien viajó a Europa para inspirarse en las etapas del juego. Suzuki tenía un equipo pequeño y solo diez meses para programar el juego, haciendo la mayor parte del trabajo él mismo.

Fue un éxito comercial y de la crítica, convirtiéndose en el juego arcade de más éxito de 1987 en todo el mundo, así como en la máquina recreativa de más éxito de Sega en la década de 1980.

Fue portado a numerosas consolas de videojuegos y ordenadores domésticos, convirtiéndose en uno de los videojuegos más vendidos en ese momento y vendiendo millones de copias en todo el mundo, generando una serie de secuelas.

The Legend of Zelda (1986)

Videojuego japonés desarrollado y publicado por Nintendo en 1986, y diseñado por Shigeru Miyamoto y Takashi Tezuka para la consola Nintendo Entertainment System.​ Su trama describe las heroicas aventuras del joven guerrero Link, que debe enfrentarse a peligros y resolver acertijos para ayudar a la Princesa Zelda a derrotar a Ganondorf y salvar su hogar, el reino de Hyrule.

Como juego inaugural de la (posteriormente longeva) serie de The Legend of Zelda, salió a la venta por primera vez en Japón para el periférico de la Family Computer System, el Famicom Disk System, como título de lanzamiento para dicho accesorio.

En un principio, Nintendo no consideraba que el videojuego de Miyamoto y Tezuka fuera a alcanzar notoriedad en el mercado japonés, aunque poco después se convenció de su impacto.​ En 1987 el primer juego había logrado vender un millón de copias y, tras su distribución en otros países, se comercializaron tres millones de copias más. Esto ayudó a incrementar el número de ventas de la consola Nintendo NES, la primera fabricada por Nintendo.

Brain (1986)

El virus Brain es considerado el primer virús para IBM PC y compatibles.

Fue creado en 1986​ por Basit y Alvi Amjad, de Pakistán, según afirmaron con un propósito totalmente distinto al empleado; estos virtuosos desarrolladores de software crearon Brain con la única intención de proteger, ante el emergente "pirateo", los programas que ellos mismos creaban y comercializaban en su tienda Brain Computer Services.

No fue hasta el 16 de mayo de 1988 cuando se detectó por primera vez y se hizo público. Un periodista del Journal-Bulletin de Providence, Rhode Island, fue quien detectó la presencia de Brain en un disquete al no poder recuperar un fichero donde había almacenado un trabajo durante meses; pensó que el disquete estaba deteriorado y lo presentó al fabricante, detectando tras diversos análisis la presencia de un virus en el sector de arraque de la unidad de almacenamiento.

Pixar (1986)

Pixar Animation Studios, más conocido como Pixar, es un estudio cinematográfico de animación por computadora, actualmente subsidario de Walt Disney.

Su origen se remonta a 1979, cuando comenzó a operar como The Graphics Group, la división computacional de Lucasfilm. Casi una década después fue adquirida por Steve Jobs, que además invirtió en su capital para establecerla como una empresa independiente de animación, convirtiéndose así en Pixar en febrero de 1986.​ Ese mismo año mostraron su primer film, Luxo Jr., el cual convenció tanto al público como a los animadores de las posibilidades de la tecnología de animación por computadora, estableciendo el escenario de una revolución en la narrativa cinematográfica.

En 1995 Pixar produjo Toy Story, el primer largometraje animado por ordenador en la historia del cine.​ Después de varios años de colaboración marcados por varias producciones exitosas, Disney adquirió el estudio en 2006. Su filmografía, producida con su propio software RenderMan, incluye algunas de las películas animadas más exitosas y elogiadas de todos los tiempos.

Explosión del Challenger (1986)

El accidente del transbordador espacial Challenger se produjo el martes 28 de enero de 1986 a las 16:39:13 UTC,​ cuando el transbordador espacial Challenger (misión STS-51-L) se desintegró 73 segundos tras el lanzamiento,​ provocando la muerte de los siete miembros de la tripulación —Francis "Dick" Scobee, Michael J. Smith, Ronald McNair, Ellison Onizuka, Gregory Jarvis, Judith Resnik y Christa McAuliffe.3​ La nave se desintegró sobre el océano Atlántico, frente a la costa del centro de Florida (Estados Unidos) a las 11:38 EST (16:38 UTC).​ Ha sido calificado como el accidente más grave en la conquista del espacio.​

La desintegración del vehículo entero comenzó después de que una junta tórica de su cohete acelerador sólido (SRB) derecho fallara durante el despegue. El fallo de la junta tórica causó la apertura de una brecha, permitiendo que el gas caliente presurizado del interior del motor del cohete sólido saliera al exterior y contactara con la estructura adyacente de conexión con el SRB y el tanque externo de combustible. Esto provocó la separación de la conexión posterior del SRB derecho y el fallo estructural del depósito externo. Las fuerzas aerodinámicas destruyeron rápidamente el orbitador.

Programa de radio "El vicio del silicio" (1986)

"El vicio del silicio" (programa de 50 minutos de duración) se emitía en Radio Bilbao, por la emisora de Los 40 principales, de 9 a 10 de la noche de los sábados. Estaba conducido por Fermín Rotaetxe, que era un disc-jockey de la SER apasionado de los ordenadores, y en él participaban varios locutores más como Juan Carlos Otaola, Cristina Ardanza, Yolanda López, Borja Bilbao, Juan Carlos de Rojo o Jesús Mari de la Riva.

La temática era los ordenadores y la Informática de la época, y estaba dividido en varias secciones o bloques. Sin duda fue el pionero de los programas radiofónicos sobre tema informático en Euskadi y probablemente también en España.

Hace 30 años

Núcleo Linux (1991)

En abril de 1991,​ el finlandés Linus Torvalds, de 21 años, empezó a trabajar en unas simples ideas para un núcleo de un sistema operativo. Comenzó intentando crear el núcleo de un sistema operativo gratuito similar a Unix, que funcionara con microprocesadores Intel 80386. Para ello tomó como base al sistema Minix (un clon de Unix) e hizo un núcleo monolítico compatible que inicialmente requería software de Minix para funcionar.​ El 26 de agosto de 1991 Torvalds escribió en el grupo de noticias comp.os.minix:

"Estoy haciendo un sistema operativo (gratuito, solo un pasatiempo, no será nada grande ni profesional como GNU) para clones AT 386(486). Llevo en ello desde abril y está empezando a estar listo. Me gustaría saber su opinión sobre las cosas que les gustan o disgustan en minix, ya que mi SO tiene algún parecido con él.[...] Actualmente he portado bash(1.08) y gcc(1.40), y parece que las cosas funcionan. Esto implica que tendré algo práctico dentro de unos meses..."

Tras dicho mensaje, muchas personas ayudaron con el código. En septiembre de 1991 se lanzó la versión 0.01 de Linux. Tenía 10.239 líneas de código. En octubre de ese año (1991), salió la versión 0.02 de Linux; luego, en diciembre se lanzó la versión 0.11 (1991). Esta versión fue la primera en ser "autoalbergada"; es decir, Linux 0.11 podía ser compilado por una computadora que ejecutase Linux 0.11, mientras que las versiones anteriores de Linux se compilaban usando otros sistemas operativos. Cuando lanzó la siguiente versión, Torvalds adoptó la GPL como su propio boceto de licencia, la cual no permite su redistribución con otra licencia que no sea GPL. Antes de este cambio, se impedía el cobro por la distribución del código fuente.

A partir de ese momento la combinación del nucleo Linux unido al sistema operativo GNU empezó a evolucionar rápidamente, mediante distintas distribuciones, hasta convertirse en una seria alternativa (la mejor en algunos contextos) a sistemas operativos propietarios como UNIX y Windows.

Primer navegador web "WorldWideWeb" (1991)

Tim Berners-Lee fue el autor del primer navegador web, o más bien editor de navegadores, llamado WorldWideWeb.

Más tarde pasó a llamarse Nexus para evitar confusiones entre el programa y el espacio de información abstracta (que ahora se escribe World Wide Web, con espacios).

Fue escrito utilizando una computadora NeXT, ya que tenía la ventaja de que había algunas herramientas excelentes disponibles y en palabras del autor "podría hacer en un par de meses lo que tomaría más de año en otras plataformas, porque en el NeXT, mucho de lo que necesito ya se hizo por mí. Había un creador de aplicaciones para hacer todos los menús tan rápido como pudieras soñarlos. Había todas las partes de software para hacer un procesador de textos wysiwyg (lo que ves es lo que obtienes). Solo tuve que agregar hipertexto (subclasificando el objeto Text)".

Street Fighter 2 (1991)

Segunda parte del clásico "Street Fighter" de 1987. El juego mejoró tanto respecto al primero, introduciendo conceptos que aún hoy en día se mantienen (los combos, los seis botones, etc., unido a la posibilidad de escoger 8 luchadores muy carismáticos con un estilo de lucha bien diferenciado) que se convirtió en un icono de los videojuegos de lucha desde el momento en el que salió.

De hecho, se le considera el juego de lucha más influyente de todos los tiempos. Tras él salieron multitud de clones con mejor o peor suerte, pero lo que está claro es que de alguna forma revitalizó el genero de la lucha uno contra uno.

A día de hoy, todavía se siguen organizando torneos de algunas de sus versiones.

Formula One Grand Prix (1991)

Formula One Grand Prix es un simulador de conducción lanzado en 1991 por MicroProse para Amiga, Atari ST y PC creado por el diseñador de juegos Geoff Crammond. A menudo se le conoce como Grand Prix 1, MicroProse Grand Prix o simplemente F1GP.

El juego es una simulación de las carreras de Fórmula Uno en ese momento y destacó por sus gráficos 3D, donde todas las zonas de los circuitos eran más que reconocibles.

El juego fue clasificado como el 27º mejor juego de todos los tiempos por Amiga Power. El éxito de Grand Prix generó tres secuelas, llamadas Grand Prix 2, Grand Prix 3 y Grand Prix 4.

Hace 25 años

Puerto USB (1996)

El Bus Universal en Serie (BUS) (en inglés: Universal Serial Bus), más conocido por la sigla USB, es un bus de comunicaciones que sigue un estándar que define los cables, conectores y protocolos usados en un bus para conectar, comunicar y proveer de alimentación eléctrica entre computadoras, periféricos y dispositivos electrónicos.

Su desarrollo partió de un grupo de empresas del sector que buscaban unificar la forma de conectar periféricos a sus equipos, por aquella época poco compatibles entre sí, entre las que estaban Intel, Microsoft, IBM, Compaq, DEC, NEC y Nortel. La primera especificación completa 1.0 se publicó en 1996, pero en 1998 con la especificación 1.1 comenzó a usarse de forma masiva. Por ejemplo, el Apple iMac G3 (1998) es el primer ordenador que prescinde de los clásicos puertos AppleTalk para confiar al 100% en los puertos USB.

Su éxito ha sido total, habiendo desplazado a conectores como el puerto serie, puerto paralelo, puerto de juegos, Apple Desktop Bus o PS/2 a mercados-nicho o a la consideración de dispositivos obsoletos a eliminar de los ordenadores, o bien usar adaptadores USB.

Tarjeta aceleradora Voodo Graphics de 3DFX (1996)

3DFX, empresa fundada por Ross Smith, Gary Tarolli y Scott Sellers (todos antiguos alumnos de SGI), lanzó en 1996 su famoso chip Voodoo Graphics.

Por entonces, la compañía solamente fabricaba chips y placas de referencia, no vendía productos al consumidor. Actuaban como proveedor OEM de compañías de tarjetas gráficas, las cuales diseñaban, fabricaban y comercializaban sus propias tarjetas con los chips Voodoo en base al diseño referencial que dictaba la compañía.

El chip Voodoo 1, como más tarde sería conocido el Voodoo Graphics, carecía de uso en modo 2D, razón por la cual las tarjetas aceleradoras seguían requiriendo la existencia en el sistema de una tarjeta VGA 2D primaria. Situadas en una ranura PCI distinta, se conectaba a la tarjeta VGA a través de un cable VGA (la tarjeta VGA se conectaba a la tarjeta Voodoo y esta al monitor), y solamente entraba en funcionamiento cuando se ejecutaba un juego 3D programado para el uso de la misma.

El rendimiento que tenía respecto a otros de la competencia era espectacular, por lo que se convirtió en una especie de estandar durante los años 1996-1999. A finales de 1999, la aceptación de Direct3D como estandar, el empuje de nuevos chips por parte de la competencia, con Nvidia a la cabeza, y algunas malas decisiones de la compañia, provocaron su bancarrota en el año 2000.

Nintendo 64 (1996)

Nintendo 64 es la cuarta videoconsola de sobremesa producida por Nintendo, desarrollada para suceder a la Super Nintendo. Fue la primera consola concebida para dar el salto gráfico del 2D al 3D. Compitió en el mercado de la quinta generación con la Sega Saturn y la Sony PlayStation, esta última creada a partir de diseños descartados previamente por Nintendo.

Cabe destacar que en su primera semana de ventas en Japón, Nintendo 64 vendió 500.000 consolas y durante su periodo de vida alrededor de 33 millones de consolas.

Tamagotchi (1996)

Un Tamagotchi (たまごっち?) es una mascota virtual creada en 1996 por Aki Maita y comercializada por Bandai. El Tamagotchi es un aparato electrónico con la forma y el tamaño de un huevo, que tiene una pantalla en blanco y negro pixelada, donde se puede ver una mascota virtual.1​ Debajo de la pantalla hay 3 botones (A -seleccionar-, B -aceptar- y C -cancelar-) que permiten moverse por el menú.

Existen 47 versiones distintas que se han distribuido desde 1996 hasta 2014.

En los primeros dos años después del lanzamiento de Tamagotchi, Bandai había vendido 40 millones de unidades. Para 2010, se habían vendido más de 76 millones de tamagotchis en todo el mundo. Para 2017, se habían vendido más de 82 millones de unidades en todo el mundo. A marzo de 2021, Bandai Namco ha vendido unos 84 millones de Tamagotchis.

Quake (1996)

Quake es un videojuego de disparos en primera persona publicado por id Software el 22 de junio de 1996. Introdujo algunos de los mayores avances en el género de los videojuegos en 3D: utiliza modelos tridimensionales para los jugadores y los monstruos en lugar de sprites bidimensionales; y el mundo donde el juego tiene lugar está creado como un verdadero espacio tridimensional, en vez de ser un mapa bidimensional con información sobre la altura representada en tres dimensiones. También incorporó la utilización de los mapas de luz y las fuentes de luz en tiempo real, descartando la iluminación estática basada en sectores de los juegos anteriores.

Ofreció, en su tiempo, uno de los motores físicos más realistas programados para un videojuego hasta la fecha. Muchos creen que proporcionó la plataforma para la revolución de las tarjetas gráficas 3D independientes: «GLQuake» fue la primera aplicación que, en esos días, demostró la verdadera potencia del chipset Voodoo Graphics de 3DFX. El impacto del motor Quake engine puede aún sentirse en la actualidad.

Pokemon (1996)

La historia de los videojuegos de Pokemon se inicia con los lanzamientos de Pocket Monsters Aka and Midori (Red y Pokémon Green) en Japón en 1996, para la consola Nintendo Game Boy.

Debido a la popularidad que alcanzaron estos dos juegos, poco más tarde apareció Pokemon Blue. Las versiones originales de Aka (緑) and Midori nunca han salido a la venta fuera de Japón, sino que internacionalmente se lanzaron Pokémon Red y Blue, videojuegos con las mejoras de Pokémon Blue, pero con las características de los originales Aka y Midori.

Las ventas globales de la saga Pokemon la han convertido en la cuarta saga más vendida de todos los tiempos, con más de 380 millones de copias en consola y más de un billón en moviles.

Valve corporation (1996)

Valve Corporation, también conocido como Valve Software, es una empresa estadounidense desarrolladora de videojuegos. Se hizo mundialmente famosa por su primer juego, Half-Life y por una modificación de este, Counter-Strike.

Otros de sus logros más famosos son la creación del motor de videojuego Source, utilizado en gran parte de sus videojuegos, incluyendo Half-Life 2, Portal, Team Fortress 2, Left 4 Dead, Left 4 Dead 2 y Dota 2, y la creación de la plataforma digital de videojuegos Steam.

Wayback Machine (1996)

Wayback Machine es un servicio de The Internet Archive, una base de datos que contiene copias de una gran cantidad de páginas o sitios de Internet a lo largo de los años.

Gracias a este servicio, también se puede consultar la historia o modificaciones de las páginas web a través del tiempo, una herramienta sin igual en una Web donde las páginas web desaparecen o cambian de dirección sin previo aviso a los usuarios interesados en la información que contienen.

Deep Blue gana a Kasparov (1996)

Deep Blue versus Garri Kasparov es la denominación genérica para los famosos matches de ajedrez, jugados a 6 partidas entre la supercomputadora de IBM Deep Blue y el entonces campeón del mundo de ajedrez, Garri Kaspárov. Estos encuentros son referidos también con la expresión de "El hombre contra la máquina", debido a la naturaleza del evento.​ El primer match se jugó en febrero de 1996 en Filadelfia, (Pensilvania). Kasparov lo ganó 4–2, perdiendo una partida, empatando 2 y ganando 3. Lo que en notación ajedrecística se escribe +3 =2 -1.

En 1997, se disputó un segundo match, que fue llamado «el más espectacular duelo de ajedrez de la historia». En esa ocasión, la supercomputadora Deep Blue, que había sido mejorada desde el anterior encuentro, ganó a Kasparov 3½–2½ (+2 =3 -1). Por primera vez, una máquina ganaba un match al campeón mundial de ajedrez.

Hace 20 años

Nintendo Game Boy Advance (2001)

La Game Boy Advance (GBA), es una consola de videojuegos de la compañía Nintendo, fabricada desde marzo de 2001 hasta 2008.

La GBA forma parte de la sexta generación de videoconsolas. El modelo original no tenía una pantalla con iluminación, lo que fue solucionado con la Game Boy Advance SP, un rediseño de la consola que incluía otras mejoras como el uso de baterías de litio. Finalmente sufrió dos últimos rediseños en el 2005, una versión de la SP con pantalla retroiluminada y la Game Boy Micro.

En junio de 2010, las ventas de la GBA se calculaban en unos 81,51 millones de unidades. Su sucesora sería la Nintendo DS.

Microsoft Xbox (2001)

La Xbox fue desarrollada por un pequeño equipo de desarrolladores de videojuegos contratados por Microsoft. Microsoft retrasó en varias ocasiones la noticia de su nueva consola, y finalmente fue revelado como proyecto a finales de 1999, a raíz de las entrevistas con Bill Gates. Gates dijo que un dispositivo de juego de entretenimiento era esencial para la convergencia multimedia en los nuevos tiempos del ocio digital. El 10 de marzo de 2000, fue confirmado el nuevo proyecto Xbox, mediante un comunicado oficial de Microsoft.

Entonces, Microsoft lanzó en 2001 la Xbox, su primera consola de sobremesa (en colaboración con Intel), que compitió contra la PlayStation 2, la segunda consola de Sony, la Gamecube de Nintendo y la Dreamcast de Sega. Su principal característica es su procesador central basado en el procesador Intel Pentium III. El sistema también incorpora un lector de DVD, un disco duro interno, puerto Ethernet y por último el sistema dispone de cuatro conectores para los mandos. Se estiman unas ventas globales de unos 24 millones de videoconsolas.

Apple IPod (2001)

Con iPod, Apple ha inventado una nueva categoría de reproductores de música digital que le permite poner su colección de música entera dentro de su bolsillo para que pueda escucharla vaya adonde vaya. Con iPod, la experiencia de escuchar música nunca será la misma”, fueron las palabras proféticas de Steve Jobs en el momento de su presentación en 2001.

El IPod permitía almacenar 1.000 canciones en calidad CD, y su batería duraba unas 10 horas. Su espectacular diseño, con la mítica "rueda", y la calidad de sus componentes, lo convirtieron en un éxito de ventas.

Microsoft Windows XP (2001)

El Windows XP (Windows eXPerience) es una versión de Microsoft Windows, basado en Windows 2000 y con importantes mejoras.

Fue lanzado al mercado el 25 de octubre de 2001. En agosto de 2012, tenía una cuota de mercado del 46%, y fue superado por Windows 7 que ya tenía un 47% de la cuota de mercado. En diciembre de 2013, tenía una cuota de mercado de 500 millones de ordenadores. 

Su última actualización data del 8 de abril de 2014 convirtiendolo en el Windows más longevo de toda la historia en lo que se refiere a actualizaciones oficiales.

Wikipedia (2001)

"Wikipedia es una enciclopedia libre, políglota y editada de manera colaborativa. Es administrada por la Fundación Wikimedia, una organización sin ánimo de lucro cuya financiación está basada en donaciones. Sus más de 56 millones de artículos en 321 idiomas han sido redactados en conjunto por voluntarios de todo el mundo, lo que suma más de 2000 millones de ediciones, y permite que cualquier persona pueda sumarse al proyecto para editarlos, a menos que la página se encuentre protegida contra vandalismos para evitar problemas o disputas". Así es como Wikipedia se define a si misma.

Creada el 15 de enero de 2001 (la Wikipedia en español nació unos tres meses después, el 20 de mayo), esta wiki nació con el propósito de convertirse en una gran enciclopedia libre y de contenido abierto, y no cabe duda que lo ha conseguido: es uno de los 15 sitios más populares de la Web, lo que hace que sea uno de los primeros sitios (incluso el primero, en muchos casos) de entre los que aparecen en los resultados de los motores de búsqueda, con más de 400 millones de usuarios registrados como wikipedistas en todo el mundo, y siendo accedida cada mes desde más de 1500 millones de dispositivos.

Si buscas algún tipo de información, seguro que la encuentras en Wikipedia... y si no es así, ¡añadela!

Programa de actividades de RetroMañía 2021

Cartel RetroMañía 2021

Desvelamos el atractivo programa de actividades de RetroMañía 2021 que podrás disfrutar en pocos días, del 22 al 26 de noviembre, y de forma totalmente online. Las actividades vuelven a ser de lo mas variadas e interesantes, y aptas para todos los públicos. Un plantel de lo mas completo donde habrá charlas, exposiciones, torneos, conciertos y videojuegos clásicos... así hasta un total de 13 actividades.

La decimoquinta edición de RetroMañía 2021 no decae a pesar de la situación que nos sigue tocando "padecer", por eso esperamos que sean de vuestro agrado y que no falteis a esta cita anual. ¡Tienes 5 días para participar visitando nuestra web, te esperamos!

RetroMañía 15 edición

Chips, virus y máquinas recreativas: el programa de actividades de RetroEuskal 2021 viene cargado de variedad

RetroEuskal 2021

RetroEuskal 2021 se celebrará del 22 al 25 de julio de forma ONLINE y contará con una exposición, tres charlas, tres torneos de videojuegos, un podcast, un retroconciertazo, y así hasta un total de 14 actividades distintas que esperamos que no te perderás.

Accede ya a la web del evento y comprueba el programa de actividades que hemos preparado:

Web de RetroEuskal 2021

Seguro que encuentras más de una actividad (¡esperamos que todas!) de tu interés. ¡Marca las fechas en tu agenda: del 22 al 25 de julio, y "acércate" por RetroEuskal 2021 edicion online!

Museo improvisado de 8 Bits en la Euskal Encounter 11 (2003)

Este museo surgió de manera improvisada por parte de los asistentes a la party Euskal Encounter 11 (24-27 julio de 2003) que teníamos nuestras maquinitas sobre nuestras respectivas mesas. La verdad es que para ser improvisado no quedó mal. Aprovechamos, con permiso de la organización, el espacio dedicado al museo de la Euskal Party que exponía 5 ordenadores de los 80: un compatible PC de Schneider, un Amiga 1000, un Dragon 64, un MSX Sony HitBit, y un PC/AT.

Mostramos a continuación las fotos de aquel evento, que daría origen al año siguiente a la primera edición de RetroEuskal, en el orden y con los comentarios originales:


Amstrad CPC 472 El truco de los 16Kb inaccesibles, sólo por no incluir la tecla Ñ en su teclado

Más de uno se quedó esperando a que ocurriera algo a continuación :D

Compatible PC de Schneider, partner germano de Amstrad. Pieza del museo oficial de la Euskal Party

Nuestro Andoni lo flipa con su Turbo R, está que no cabe en sí ;)

Mira, aquí está el orgulloso dueño del Turbo R! :D

Atari 800XL

El Commodore 64 nos sirvió de entretenimiento en la party con sus juegos en 5 1/4"

Amiga 1000, con una marca bien grande de Commodore ;) Pieza del museo oficial de la Euskal Party

Dragon 64.Fabricado en España. Pieza del museo oficial de la Euskal Party

Dragon 64 con su unidad de disco. Pieza del museo oficial de la Euskal Party

La foto de familia :)

Otra foto de familia. ¿Estoy viendo un usuario de Spectrum y otro de Commodore amiguitos? ;)

MSX HitBit de Sony

MSX HitBit. ¿Eso es un módulo de sonido, verdad?

El puesto en la party de Injaki

Injaki con cara de querer pelea

Más del puesto de Injaki en la party

¿Es eso el Metal Gear insertado en el Turbo R?

Impeclable MSX Turbo R de Andoni y Vero

Otra del Turbo R

Más Turbo R. Sus dueños sin duda están orgullosos de él :)

¿Otra vez el Turbo R?

MSX HitBit de Sony. Pieza del museo oficial de la Euskal Party

Un PC-AT (286). Pieza del museo oficial de la Euskal Party

Otra de Peralta y su C64

Jose Ignacio Peralta, el commodoriano del grupo, con su C64

Examinando el C64...

Sinclair QL, el hermano mayor de la familia Sinclair. El mercado no le trató bien...

Revistas Input Sinclair, libros...

Revistas: Microhobbys

Más revistas y libros

Soft antiguo y contemporáneo

Sinclair ZX Spectrum 48K, el "gomas" con su Interface-1 y Microdrive

MSX Spectravideo 728 ¿El primer MSX de la historia?

Spectrum 128K con soft. Ordenador fabricado en España. ¿A quién engañaron para comprar el Sabrina Strip Poker? :O

El Speccy 128K y su inconfundible teclado numérico

Sinclair ZX Spectrum +2A

Un teclado de un TRS-80 de sobremesa

Tandy Radio Shack 80 (TRS-80) portátil. Directamente traido de USA

¿Alguien sabe el nombre de este equipo? ¿Le preguntamos a Andoni? ;)

Sinclair ZX81, pequeñin y encantador
Distribuir contenido