Que nos depara la computacion a futuro

¿Alguien sabe hoy en día que es un memristor o cuando fue que apareció el termino por primera vez? los memristores son una tecnología aparecida a principios de la década de 70 (siglo pasado), por tanto muchos jamas habrán oído de ellos y muchos otros pensaran que es tecnología obsoleta al lado de nuestros súper procesadores actuales con varia capas de millones de transistores cada una. Pues aclarar 2 cosas si bien los transistores empezaron a producirse en masa para la segunda guerra mundial su aparición data de 1891, lo segundo es que un memristor como su nombre lo indica es en parte resistor (resistencia electrónica) y en parte memoria

HP labs, la división de investigación y desarrollo de HP comenzó con el proceso de desarrollo de un nuevo tipo de memorias que implementan esta tecnología para reemplazar a los transistores actuales, el porque de esto parte por una cosa de costos de inversión y desarrollo, simplemente no se puede seguir trabajando en achicar mas los transistores que ponemos en una lamina de semiconductor sin aumentar los costos a niveles prohibitivos a la construcción, recordemos que se supone que cada 18 meses tenemos una maquina obsoleta, esto implica que se a reducido su tamaño a la mitad al igual que se ha creado una el doble de rápida y por la mitad del valor hoy en día eso ya no es aplicable, así como hubo un momento en que se dejo de correr la carrera de quien tenia mas MHz de velocidad y se cambio por quien tenia mas núcleos y memoria cache en el menor volumen arquitectónico y menor consumo energético, pues bien volvimos a llegar al abismo y la respuesta a eso son los memristores (pero solo como primer paso para continuar, en realidad el primer paso fueron las apu de AMD.

Estos dispositivos conocidos como memristores (memoria/resistencia) fueron concebidos en 1971 por Leon Chua, un ingeniero eléctrico en la Universidad de California, pero no fue hasta el 2008 que un equipo de HP Labs logró su implementación física.

Ahora, HP dice que está en buen camino para desarrollar una tecnología de almacenamiento capaz de empaquetar 20GB en un centímetro cuadrado. El sistema emplea memristores, donde una película ultrafina de óxido de titanio es inyectada con una corriente eléctrica para mover átomos individuales y así cambiar la resistencia del material. El equipo de HP no solo ha logrado crear un arreglo tridimensional de memristores (que trabajan de forma similar a la sinapsis cerebral), también han aumentado la velocidad de conmutación para coincidir con la de los transistores de silicio tradicionales.

La principal ventaja es el tamaño ya que las actuales memorias basadas en transistores se fabrican en procesos de 30-40nm, y HP ha logrado crear memristores de tan solo 3nm que puede encender y apagar en un nanosegundo. Por lo tanto el Dr. Stan Williams dice que es posible tener 20GB en un centímetro cuadrado en menos de tres años.

La tecnología tiene el potencial para escalar significativamente los límites de almacenamiento de los transistores, al mismo tiempo que promete reducir el consumo de energía, ya que una vez que los átomos se han movido no requieren de electricidad para mantener su estado.

Incluso HP considera que esta tecnología es mejor que la empleada en las memorias de cambio de fase de IBM que prometían ser las sucesoras de las memorias flash.

La ventaja radica en que los memristores trabajan a una escala de tamaño atómico que reduce considerablemente sus dimensiones, por lo que estamos hablando de procesos de manufactura en torno a los 3 nanómetros en comparación con los transistores de silicio en la actualidad que maneja la industria. Esto le permite a una computadora reemplazar a los discos duro y las memorias RAM convencionales por una sola unidad de memristores, con lo que elimina el traspaso de información entre ambas unidades y la consecuente perdida de tiempo, dejando de paso obsoletos a los discos ssd.

Esto lleva a que una computadora con memristores en lugar de disco duro y RAM funciona seis veces más rápido que el equipo mas moderno actual, es diez veces más pequeño y consume 1,25% del total de la energía de su contraparte existente hoy.

Como dije en el pasado teníamos tarjetas madres con todas las unidades separadas (procesador, memorias, tarjetas de periféricos en sus ranuras de expansión, pasamos a tarjetas madres integradas lo que significo que los periféricos en vez de usar las ranuras de expansión venían por defecto ya en la placa reduciendo asi el tamaño de la misma o aumentando las posibilidades, pero al principio significo o mayor coste de la placa para que tuviera un buen chipset capaz de manejar todo sin problema o una placa lenta que nos hiciera pasar mas de un dolor de cabeza. Luego de eso volvimos a la integración pero de algunas parte esenciales para mejorar su rendimiento sin bajar costes, como es el caso de las Apu que son procesadores de los computadores que traen integrada en ellas un chip de gráficos que puede trabajar por su cuenta si en computador no tiene tarjeta de video o sumarse al trabajo de la tarjeta para mejorar aun mas su rendimiento (en el pasado si venia una controladora gráfica integrada y le plantabas una vga al equipo la integrada dejaba de trabajar, pero el chipset seguía haciendo llamadas por ese bus y el rendimiento final jamas era del 100% por eso muchos nos decantábamos por pagar mas por una placa sin vga.

lo mejor de todo es que en HP de momento no han pensado en abandonar del todo los computadores de escritorio, aunque por el tamaño de la arquitectura podría pensarse que quedara en notebooks y tabletas si bien la primera opción de mercado esta enfocado a los servidores

Volviendo al tema como le llaman en HP Labs a este proyecto de computadora pues “TheMachine” y hasta ahí solo la mitad de la novedad, ya que si lo pensamos bien porque primero los servidores y no directamente va al usuario final, porque algo asi implica un cambio completo de la arquitectura el pc y un cambio en la cultura del usuario, ademas los sistemas operativos existentes y conocidos ya no sirven y HP viene trabajando desde 2008 en ello junto con la puesta en marcha de este proyecto, se trata de una versión de GNU desarrollada especialmente por HP y su nombre es Linux++

¿por que todo nuevo hasta un sistema operativo completo? implica manejo de memorias, pipelines, timers, coordinación de componentes, y una larga lista de procesos internos que dependen de componentes que actualmente son un standard dentro de la arquitectura de la computación actual, las arquitecturas ARM v/s x86 son claro ejemplo, ambos se basan en la misma idea base y aun así son totalmente distintos a nivel de sistema, aca va mucho mayor la diferencia

¿por que hablarlo ahora si el proyecto como maquina salio a la luz publica hace 6 meses y hace menos de 2 la actual CEO HP dividió la empresa en dos?, simple, el proyecto no ha muerto y es una buena oportunidad de que esta tecnología siga adelante y cambie nuestro futuro .

fuente:

http://www.hpl.hp.com/research/systems-research/themachine/

Deja un comentario

Tu dirección de correo electrónico no será publicada.