ATPBanner

ATPBanner
Te ayudo con tu Investigación o Proyecto

jueves, 23 de diciembre de 2010

Una bella odisea visual por el cerebro


Carl Schoonover, a la mitad de un doctorado en neurociencias, decidió atraer al lector general hacia sus estudios gracias a la simple belleza de sus imágenes.

POR ABIGAIL ZUGER, M.D. - The New York Times


¿Quién ha visto la mente? Ni usted ni yo --ni ninguna de las legiones de neurocientíficos que se empeñan en abrir los secretos de esa fuerza invisible, tan poderosa y errática como el viento. Los expertos definitivamente están más cerca: las últimas décadas han producido una explosión de técnicas nuevas para investigar el cerebro en busca de la mente que piensa, siente, sufre y conspira.

Pero el campo sigue siendo tecnológicamente complicado, fuera del alcance para el no científico promedio, y todavía está definido por una investigación tan básica que la conexión humana, el "gancho" acostumbrado por el que la ciencia difícil de comprender captura el interés general, con frecuencia está ausente.

Carl Schoonover asumió esto como un reto. Schoonover, de 27 años, quien se encuentra a la mitad de un doctorado en neurociencias en la Universidad de Columbia, en Nueva York, decidió atraer al lector general hacia sus estudios gracias a la simple belleza de sus imágenes.

Así que las ha reunido en un nuevo libro de arte ilustrado recién publicado. Portraits of the Mind: Visualizing the Brain From Antiquity to the 21st Century (Retratos de la mente: visualizando el cerebro desde la antigüedad hasta el siglo XXI) incluye ensayos cortos de prominentes neurocientíficos y largos pies de fotos de Schoonover, aunque sus palabras pasan a un segundo término ante las hermosas imágenes. Los científicos con frecuencia son seducidos por la belleza. A veces, la emoción está en la magia de una técnica fabulosa para obtener información difícil de encontrar.

Considere una pequeña fotografía borrosa en blanco y negro de un ícono de carita feliz, tan borrosa y mal definida que parece una parodia del Manto de Turín. La imagen es, en realidad, un milagro en sí misma: la videocámara de alta velocidad está apuntando al cerebro expuesto de un mono observando una carita feliz amarilla. Mientras el mono veía la carita, los vasos sanguíneos que alimentan a las células nerviosas en la parte visual del cerebro del mono se inflamaron brevemente en exactamente el mismo patrón.

Podemos detectar lo que había en la mente del mono al inspeccionar su cerebro. La imagen forma un vínculo, primitivo, pero palpable, entre lo corpóreo y lo evanescente, entre el cuerpo y el espíritu.

Y tras la fotografía se despliega una larga historia de inspiradas deducciones neurocientíficas y errores igualmente inspirados, todos enfocados en esclarecer ése preciso vínculo.

En 1873, el científico italiano Camillo Golgi desarrolló una mancha negra para realzar los filamentos neurales de un micrón de ancho. Quince años después, el científico español Santiago Ramón y Cajal desplegó la mancha con una destreza virtuosa, y le presentó al mundo poblaciones visibles de neuronas individuales. Las dendritas, o raíces, de estas células nerviosas alargadas recopilan información. Los axones, o troncos, la transmiten.

Hoy esas mismas siluetas esqueléticas resplandecen rebosantes y con colores brillantes, cortesía de genes insertados que codifican moléculas fluorescentes. La variación más dramática en estos métodos para realzar las neuronas en colores vivos, llamada Brainbow por sus inventores, convierte a los cerebros de ratones vivos en alocados bosques neón de árboles ramificados. El circuito electroquímico que impulsa la información alrededor de ese bosque, de nervio a nervio, ha generado sus propias imágenes fabulosas.

Mientras tanto, el tráfico en grupos largos de neuronas viajando juntas alrededor del cerebro se vuelve visible con una variación de la técnica de escaneo estándar llamada resonancia magnética de difusión. Aquí, las neuronas sí parecen pasta, ligeramente húmedas, flexibles y definidas. Si embargo, si la estructura es destruida (por un golpe, por ejemplo) los filamentos se rompen en fragmentos, y la carretera de la información queda destrozada.

En el ensayo final del libro, Joy Hirsch, especialista en imágenes del cerebro en Columbia, simpatiza con los lectores que odian la idea de que ellos (sus yo esenciales, lo que les gusta y no les gusta, sus premoniciones, tendencias y decisiones de vida) no son más que circuitos neurales.

"Estas células y moléculas, inundadas con diversos cocteles neuroquímicos en mis ganglios basales, son presuntamente la base de mi amor y apego hacia mi esposo", escribe. "Al inicio de mi travesía académica me habría resistido a este inevitable hecho biológico por la idea equivocada de que una base física disminuiría la grandeza y centralidad de mi elección de una pareja de vida." Ahora, Hirsch dice que acoge con alegría "la asombrosa unidad del cerebro físico y de la mente". Y no ve que alguien tenga mucha opción más que aceptarla.

"La gente asumió durante miles de años que debe haber algo más", escribe en la introducción el escritor de ciencias Jonah Lehrer. "Y sin embargo, no hay nada más: esto es todo lo que somos."

sábado, 13 de noviembre de 2010

Redes de comunicación cuántica



Las redes de comunicación cuántica están entre las prioridades de Europa y en especial el almacenado de información o memoria cuántica. Para poner a disposición de los usuarios este tipo de información se ha reunido un equipo de científicos de Dinamarca, quienes utilizaron dos haces de luz entrelazados dedicados al almacenado de información cuántica. El estudio, sobre el que se ha publicado un artículo en la revista Nature Physics, ha recibido financiación comunitaria por valor de cerca de 16 millones de euros.

Los expertos entienden que las redes cuánticas aumentarán la seguridad de la información con respecto a la situación actual. Uno de los componentes importantes de la comunicación cuántica es el entrelazamiento entre sistemas cuánticos, por ejemplo entre dos haces de luz. Básicamente este entrelazamiento es la conexión de dos haces de luz. Estos haces tienen características bien definidas compartidas como puede ser un conocimiento común. De acuerdo con las leyes de la mecánica cuántica, un estado cuántico puede utilizarse para transferir información de forma segura y a salvo de miradas indiscretas.

Científicos del Instituto Niels Bohr de la Universidad de Copenhague dirigidos por el profesor Eugene Polzik lograron almacenar dos haces de luz entrelazada en dos memorias cuánticas. Para ello utilizaron un «bosque» de espejos y elementos ópticos como divisores y retardadores en una mesa de gran tamaño, formando así un recorrido laberíntico de luz de más de diez metros de largo. Los elementos ópticos permitieron a los investigadores, miembros del grupo Quantop del instituto, controlar la luz y regular su tamaño e intensidad y además garantizar que la longitud de onda y la polarización de la luz se adecuaban a las necesidades del experimento.

Los investigadores explicaron que crearon los haces de luz entrelazada enviando un único haz de luz azul a través de un cristal en el que se divide en dos haces rojos. Éstos presentan un estado cuántico común porque están entrelazados. Según el equipo, el estado cuántico es información en sí mismo.

El laberinto de espejos y elementos ópticos recibe a continuación los dos haces de luz, que alcanzan las dos memorias. Para este estudio los científicos utilizaron dos contenedores de vidrio llenos de un gas de átomos de cesio. El equipo indicó que el estado cuántico de los átomos contiene información en forma de espín que puede ser hacia arriba o hacia abajo.

Los investigadores pueden compararlo a continuación con datos informáticos compuestos de unos y ceros. El estado cuántico se transfiere desde los dos haces de luz a las dos memorias cuando los haces pasan por los átomos. Como resultado la información se almacena en forma del nuevo estado cuántico de los átomos.

«Es la primera vez que se demuestra un tipo de memoria de estas características con un grado elevado de fiabilidad. De hecho su calidad es tanta que es imposible obtener algo semejante con memorias convencionales de luz como las utilizadas, por ejemplo, en la comunicación por Internet. Hemos dado un paso más en la consecución de una red cuántica», afirmó el profesor Polzik.

El estudio recibió fondos de seis proyectos comunitarios: Q-ESSENCE, HIDEAS, CORNER, COMPAS, COQUIT y EMALI.

Q-ESSENCE, HIDEAS, CORNER, COMPAS y COQUIT están financiados mediante el tema «Tecnologías de la información y la comunicación» del Séptimo Programa Marco (7PM) de la UE. Q-ESSENCE («Interfaces, sensores y comunicación cuánticos basados en el entrelazamiento») recibió 4,7 millones de euros; HIDEAS («Sistemas entrelazados de alta dimensión») 2 millones de euros; CORNER («Efectos de ruido correlacionados en el procesamiento de información cuántica) 2,09 millones de euros; COMPAS («Computación con estados fotónicos mesoscópicos y atómicos») 1,59 millones de euros; y COQUIT («Operaciones cuánticas colectivas aplicadas a las tecnologías de la información») 1,16 millones de euros.

El proyecto EMALI («Ingeniería, manipulación y caracterización de estados cuánticos de materia y luz») recibió 4,39 millones de euros de la línea presupuestaria Redes de formación mediante la investigación Marie Curie del Sexto Programa Marco (6PM) comunitario.

Fuente: http://www.laflecha.net/

jueves, 28 de octubre de 2010

Microsoft proyecta una nueva era tecnológica sin PC



El arquitecto de la ‘nube’ de Microsoft, Ray Ozzie, ha invitado a los creadores de Windows a imaginar un mundo sin PC y tomar la delantera en el proceso hacia una sociedad conectada permanentemente a Internet.

Ozzie, de 54 años, fue uno de los directivos encargados de reemplazar a Bill Gates en tareas de planificación como jefe de diseño de programas tras la retirada del fundador de Microsoft y anunció este mes su salida de la empresa tras considerar que había concluido su etapa. El ejecutivo lideró el cambio de Microsoft hacia los servicios de software en la “nube”, unos programas que se ejecutan desde cualquier ordenador sin necesidad de instalación en soporte físico.
En un memorándum dirigido a la dirección de la empresa y publicado en su blog este visionario de la tecnología expone sus predicciones para los próximos cinco años. Anuncia que se va a producir de forma acelerada el paso de una sociedad ‘PC-céntrica’ a una basada en los servicios en la ‘nube’ a través de dispositivos sencillos con conexión a Internet.

Los sistemas cada vez son más “complejos” y “la complejidad mata”, advierte. En el informe recuerda otro memorando que escribió en 2005 y en el que afirmaba haberse dado cuenta de que “cada 5 años nuestra industria experimenta lo que parece ser un punto de inflexión que tiene como resultado una gran turbulencia y cambio”.
En los próximos cinco años se producirá -dice- una “enorme e inevitable” transformación en el campo de las aplicaciones y las infraestructuras.
Los retos del futuro
El memorándum lleva una fecha adelantada, el 28 de octubre, la del día en que Ozzie publicó su informe de 2005; en aquel informe, igual que en esta ocasión, adelantaba los retos a los que habría que responder. “Está claro que si fracasamos en hacer eso (responder al reto actual), nuestro negocio tal y como lo conocemos está en peligro”, comenta Ozzie para quien a corto plazo Microsoft debería concentrarse en imaginar aplicaciones, servicios y dispositivos revolucionarios.
Aunque optimista respecto al potencial de Microsoft, líder mundial de la informática, Ozzie insiste en que “el entorno es altamente competitivo, duro y cambia rápidamente”.
“Los PC, teléfonos y tabletas de hoy son sólo el principio. Veremos una increíble innovación en las próximas décadas en las que emergerán todo tipo de conectividades que vestiremos, llevaremos, usaremos en escritorios y paredes y en nuestro alrededor”, declaró Ozzie.
“Los dispositivos conectados a servicios -concluye- irán mucho más allá de una pantalla, un teclado y un ratón: (serán) aparatos con consciencia humana natural que te verán, te reconocerán y te escucharán a ti y a lo que te rodea, que sentirán tu tacto, gestos y movimientos, tu situación, dirección, altitud, temperatura, ritmo cardíaco y estado de salud”.

Fuente: EFE Oct, 2010

domingo, 10 de octubre de 2010

Google anuncia su entrada en el sector automotriz con “coches sin conductor”



La idea de coches automáticos sin conductor parece sacada de una película de ciencia ficción, pero no lo es: las automotrices trabajan desde hace años en tecnologías de este tipo y ahora la empresa de Internet Google anunció que ya tiene una pequeña flotilla en las calles.

Ya se sabía que tarde o temprano habría automóviles conducidos por computadoras en las calles, pero la novedad es la entrada de Google en escena. Desde la telefonía móvil, los medios o los libros, la empresa ya está en innumerables sectores de negocios, y a ellos se suma ahora la industria automotriz. El plan es una nueva prueba de la mirada de futuro de la firma, pues se trata de inteligencia artificial.

Los siete coches de Google (seis Toyota Prius y un Audi TT) recorrieron sin ninguna intervención humana más de mil millas (unos 1.600 kilómetros), y en total más de 225.000 kilómetros.

Un proyecto mantenido en secreto

Lo más sorprendente es por cuánto tiempo consiguió Google mantener en secreto el proyecto. Los vehículos habían llamado la atención a los conductores en California desde hace al menos un año, pero se creía que eran coches modernizados del programa de mapas con imágenes reales Street View. La policía estaba informada de las pruebas, escribe en su blog el jefe de desarrolladores, Sebastian Thrun.

Google no está sola en el proyecto, ya que las automotrices trabajan desde hace años en este tipo de tecnología y ya han instalado sistemas de alarma en algunos modelos, mediante los cuales el vehículo reconoce los carteles de las calles, así como a personas y animales que se muevan por la calle. O bien que tensan el cinturón cuando hay peligro de choque.

Harán falta al menos ocho años en opinión de los ingenieros de Google para que los coches sin conductor estén “maduros” para salir a la venta. Hasta entonces habrá que adecuar no sólo la tecnología, sino también las reglas circulatorias. Por ejemplo, ¿quién será responsable si se produce un accidente, el dueño del coche o el fabricante del software?

El actual ordenamiento, así como las sanciones, parten de la base de que una persona controla el coche. Las pruebas de Google fueron posibles sólo porque alguien iba sentado al volante listo para intervenir si era necesario. Pero Thrun proclama en su blog que las computadoras siempre tienen una plena visión del entorno y no se cansan ni se distraen, a diferencia de los humanos.

Thrun, que trabaja desde hace años en vehículos sin conductor, cree que la tecnología revolucionará el sector, entre otras cosas porque las computadoras ahorran más combustible. Y como bajaría el número de accidentes, también se podría hacer automóviles más livianos. En el futuro se puede pensar en vehículos que uno llame hasta el lugar donde se encuentra, como un taxi, pero sin conductor.

¿Qué sacará Google de esto?

Thrun dijo al “New York Times” que el proyecto demuestra la intención de Google de invertir en tecnologías aunque no den un rápido rendimiento económico. Uno de quienes más apoya la idea es el cofundador de la empresa Larry Page.

¿Qué es lo que sacará la firma de Internet de la iniciativa? Google podría ofrecer los servicios de guía de la conducción automática o cederla a cambio de licencias a los fabricantes de coches. Thrun desarrolló asimismo el polémico callejero con fotos reales Street View, que ahora con este otro proyecto cobra una significación completamente distinta.

Los coches robot encajan en cualquier caso a la perfección en la concepción del futuro del presidente de Google, Eric Schmidt, que hace unas semanas dijo que en el futuro nadie olvidará nada porque “las computadoras lo recuerdan todo”.

Además, todos podrían saber todo, incluso lo que no saben aún que les interesa, y además ser buenos en todo, porque “la computadora arreglaría lo que no nos salga bien”. El precio a pagar es que el software tiene que tener la mayor información posible de una persona, admitió Schmidt.

Fuente: http://www.noticias24.com

jueves, 26 de agosto de 2010

El día que un ataque cibernético amenazó a EE.UU.



En 2008 la seguridad de las redes militares de Estados Unidos se vio amenazada. Un espia extranjero, armado con una memoria USB, accedió a una computadora portátil del ejército estadounidense y la infectó, en una base militar en el Medio Oriente.

El código malicioso se esparció en una red administrada por el Comando Central de Estados Unidos y se abrió camino entre sistemas clasificados y abiertos, abriendo la puerta para transferir información militar estadounidense a computadoras extranjeras.

El episodio se había filtrado más o menos en dichos términos en blogs y en el diario Los Angeles Times a finales de 2008. Pero ahora fue oficialmente confirmado por William J. Lynn, Subsecretario de Defensa de EE.UU. en un artículo publicado en la revista Foreign Affairs.

Además en su escrito Lynn asegura que dicho evento "fue la violación de seguridad en las computadoras militares de EE.UU. más significativa en la historia y sirvió como una importante llamada de alerta".

"La peor pesadilla"


EE.UU. calificó la intrusión como la "peor de la historia".

El funcionario califica el incidente como la peor pesadilla de un administrador de redes: "Un programa malicioso operando en forma silenciosa, buscando entregar planes operativos a un adversario desconocido".

Pero Lynn va más allá y asegura que en los últimos 10 años la frecuencia de dichos ataques se ha incrementado en forma exponencial lo que ha llevado a que los sistemas militares sean escaneados millones de veces al día.

En respuesta a dichos incidentes Estados Unidos creó un comando especializado en defensa cibernética y el presidente de dicho país, Barack Obama, nombró a Howard Schmidt como ciber zar en diciembre del año pasado.

En su momento Schmidt aseguró: "Las amenazas cibernéticas son algunos de los desafíos más serios que enfrenta nuestra seguridad nacional y nuestra economía".

Fuente: BBC MUNDO

martes, 27 de julio de 2010

zEnterprise, el servidor más poderoso de IBM



Con una inversión de $1500 millones de dólares (USD) y más de 5000 funcionarios de IBM tras el proyecto que trabajaron por más de 3 años, lograron desarrollar el zEnterprise System. Este es un servidor que tiene 96 de los microprocesadores más potentes del mundo, entre los que está el chip más veloz del mundo con 5,2 GHz; junto al más veloz de Intel con 3,8 GHz, como así mismo su par de Oracle de 2,9 GHz. Todos capaces de ejecutar más de 50 mil millones de instrucciones por segundo, o sea, más de 8 instrucciones por segundo por cada persona que habita la faz de la Tierra.

No sólo es velocidad en este monstruo del cómputo, sino también se puede destacar perfectamente en lo que es un equipo “verde”. Las eficiencias en energía del zEnterprise se pudieron lograr gracias a avances en el diseño del microprocesador, tecnología de silicio de 45nm, mayor eficiencia en la conversión y distribución de energía, y firmware avanzado de control de sensores y refrigeración que monitorea y hace ajustes en base a factores ambientales tales como niveles de temperatura y humedad, e incluso la densidad del aire. Con ello se puede reducir el consumo de energía hasta un 12%.

Fuente: http://www.ohmygeek.net/

jueves, 15 de julio de 2010

Control del Derrame en el golfo de México



A continuación les dejo el enlace a los vídeos, desde diversas cámaras y diferentes angulos, de las maniobras realizadas por la British Petroleum para tratar de contener el derrame en el Golfo de México.

http://newsblogged.com/video-live-streaming-gulf-oil-spill-cam-bp-webcam

Video: Live Streaming Gulf Oil Spill Cam BP Webcam
Below is live video from a BP web cam broadcasting the oil spill in the Gulf of Mexico, for the latest news about the oil spill see this page!

Please note the live video might not be available all the time due to heavy demand or sometimes might show different news! (If not working try the BP links!)

Below the videos are direct BP links to different cameras.

martes, 22 de junio de 2010

La universidad ha perdido el monopolio del conocimiento



Por Imma Tubella

La universidad ha perdido el monopolio del conocimiento. Los profesores ya no somos los únicos depositarios del saber. La Red nos ha jugado una mala pasada.

Ahora tenemos dos opciones: impregnar de veneno los teclados de nuestros jóvenes con la esperanza de que aún se chupen el dedo o, simplemente, asumir nuestro nuevo e interesante papel de mentores experimentados y acompañantes metodológicos, más preocupados en enseñarles a gestionar y completar el conocimiento disponible y a desarrollar su capacidad crítica que en enseñarles a memorizar unos conocimientos como si fueran una verdad única.

En las universidades norteamericanas ocurren dos fenómenos que preocupan mucho a sus rectores y que no saben cómo afrontar, entre otras cosas porque tampoco se han preocupado por analizar los cambios en las actitudes y valores de los estudiantes del siglo XXI.

Muchos profesores de élite, incluidos premios Nobel, tienen tres o cuatro estudiantes en sus clases. ¿Los más interesados en el tema? No. Los representantes de sus compañeros que se organizan para tener unos buenos apuntes y preparar bien los exámenes. Los profesores, digamos normales, ni tan siquiera tienen tres o cuatro. No tienen ninguno. ¿Cómo aprenden y aprueban sus estudiantes? Se reúnen en la Red y optan por obtener sus conocimientos de forma colaborativa, con materiales abiertos, de universidades de prestigio.

En Quebec, por ejemplo, hay la Universidad McGill tradicional, y una Universidad McGill que funciona en paralelo gestionada por sus estudiantes, que se organizan según sus necesidades. ¿Este es el modelo que queremos? ¿O más bien queremos un modelo de universidad abierta a la sociedad, motor de la estrategia de modernización del país y de liderazgo en la economía del conocimiento?

En Estados Unidos ya hay cuatro millones de estudiantes en línea. Es verdad que Internet se implantó antes y que los nativos digitales ya han llegado a la educación superior, pero esta tendencia la empiezo a ver en mi universidad, la Oberta de Catalunya (UOC), donde cada vez llegan estudiantes más jóvenes.

En ambos casos el motivo es el mismo: las demandas y necesidades de una población estudiantil no tradicional requieren que nuestras universidades reconozcan la enseñanza en línea como una pieza fundamental para el futuro y que este reconocimiento vaya acompañado de una mayor flexibilidad institucional para hacer frente a las nuevas necesidades de los estudiantes.

Estoy convencida de que el futuro es híbrido presencial/virtual o, en el caso de los estudiantes a tiempo parcial, totalmente virtual. La enseñanza en línea no tiene nada que ver con colgar materiales en la Red; requiere, como en el caso de la UOC, repensar el modelo de aprendizaje y la misma estructura institucional.

Desafortunadamente, academia y cambio conjugan mal. Ya lo dijo una ex rectora de la Universidad de Oslo: "Si quieres cambiar un cementerio, no puedes esperar gran ayuda de los que están dentro". Quizás hasta ahora no ha sido importante, pero vivimos un momento en el que no podemos perder mucho tiempo.

El cambio no es lo que amenaza nuestra supervivencia como instituciones de enseñanza superior; lo que la amenaza es el inmovilismo y la negación de una realidad evidente. Los inmovilistas son los mismos que lanzan adoquines a palabras como eficiencia, flexibilidad, gobernabilidad o incluso emprendeduría asociadas a la universidad.

La universidad desempeña un papel determinante en el desarrollo de la sociedad formando sus futuros líderes y preparándolos para vivir en un entorno en transformación continua. La pregunta clave es: ¿La universidad ha sabido transformarse ella misma? Yo afirmaría, sin miedo a equivocarme mucho, que la universidad es una de las instituciones más antiguas y con mayor capacidad de resistencia al cambio.

Si las universidades no podemos o no sabemos reenfocar nuestra manera de pensar y de actuar y redefinir nuestro papel en la sociedad, habremos fallado. En cambio, si nos atrevemos a trabajar a largo plazo, a fortalecer lo mejor de nuestro pasado y de nuestra tradición pero al mismo tiempo repensar y reforzar nuestras instituciones para el futuro de forma innovadora y colaborativa, daremos señales a la sociedad de que sabemos cómo afrontar nuestros retos, y los suyos.

Imma Tubella es la rectora de la Universitat Oberta de Catalunya (UOC).

Por IMMA TUBELLA 22/06/2009

jueves, 20 de mayo de 2010

Investigadores logran “teletransportar” información en un espacio libre de 16 kilómetros



En la ciencia ficción la teletransportación o teleportación, es el proceso de mover objetos o partículas de un lugar a otro instantáneamente, sin usar métodos convencionales de transporte, como en The Fly o StarTrek, pero en la vida real la teletransportación no es una cuestión de mover la materia sino información.

Así, la teleportación cuántica es una técnica utilizada por científicos para la transferencia de información cuántica de un sistema a otro. Este último no transporta el sistema en sí mismo, ni permite la comunicación de información a velocidades superluminales (más rápidas que la luz), tampoco reordena las partículas de un objeto macroscópico para copiar la forma de otro objeto. Su característica distintiva es que puede transmitir la información presente en una superposición cuántica, útiles para la comunicación y la computación.

Los físicos han sido capaces de intercambiar información entre las partículas de luz (fotones) o entre los átomos, siempre y cuando estén uno al lado de otro. En el 2009, un equipo de científicos de la Universidad de Maryland y Michigan logró enviar información entre dos átomos aislados a una distancia de un metro, siendo la primera vez que se emplean fotones para “teletransportarse” a largas distancias y un átomo es apreciado por su capacidad de retención de información.

Pero recientemente, investigadores del Laboratorio Nacional Hefei para Física en Microescala de la Universidad de Ciencia y Tecnología en Anhui (China) y el Departamento de Física de la Universidad de Tsinghua (Beijing) han logrado un nuevo hito teletransportando información entre fotones a una distancia de espacio libre de cerca de diez millas (16 kilómetros), es decir, sin necesidad de viajar en canales de fibra óptica. Demostrando así la viabilidad de los experimentos basados en el espacio y un paso importante hacia las aplicaciones de comunicación cuántica – en tiempo real – a escala global.

Fuente:http://creport.wordpress.com/

lunes, 26 de abril de 2010

Procesador de creación moleculares que imita cerebro humano




Un equipo de investigadores de Japón y Estados Unidos anunciaron la creación de un circuito capaz de evolucionar y resolver problemas muy complejos en un curso paralelo, similar a lo que sucede en el cerebro humano.

Insertado en las urnas llamada computación molecular , la hazaña sin precedentes representa un cambio de paradigma de la computación digital actual, basado en la solución de problemas secuenciales.

Según los científicos, el circuito molecular orgánica es la primera demostración práctica hasta ahora de un "circuito capaz de evolucionar," inspirado por el mismo proceso utilizado por el cerebro humano.

Procesamiento neuronal

Los circuitos de procesamiento de datos de las computadoras digitales son estáticas - una vez construido, se podrá hacer siempre las mismas operaciones.

En nuestro cerebro, por el contrario, los circuitos de procesamiento de información - las neuronas y sus redes - están en constante evolución para abordar los problemas nuevos y más complejos.

"Las computadoras modernas son muy rápidos, capaces de realizar trillones de operaciones por segundo. Neuronas, por el contrario, sólo disparar alrededor de mil veces por segundo. Pero esto me permite ver, reconocer, hable con usted y escuchar a alguien camina por el pasillo, todos al mismo tiempo. Esta es una tarea imposible, incluso para el superordenador más rápido ", dijo Ranjit Pati, un autor de la obra.

Pati dice que la computadora fue la idea de su compañero molecular Anirban Bandyopadhyay, ahora investigadores de la Universidad Tecnológica de Michigan. Sus colaboradores japoneses que trabajan en el Instituto Nacional de Ciencia de los Materiales y el Instituto de Tecnología de la Información de Japón

El procesamiento paralelo

A pesar de la aparente lentitud del cerebro humano en relación con los ordenadores - la comparación de la velocidad de conmutación de los transistores (10 13) y la velocidad de neuronas (10 3) - hoy en día las computadoras solamente funcionan de forma secuencial. Una vez que haya establecido una ruta a lo largo de su circuito, esto nunca va a cambiar.

En nuestro cerebro, por el contrario, los impulsos eléctricos formar grandes redes dinámicas, en constante evolución, y que en conjunto operan. Esto es por qué es tan difícil transmitir cómo resolver los problemas del cerebro humano a las computadoras.

Del mismo modo, el ciclo "rodante" de este nuevo procesador paralelo masivo molecular, lo que permite interconexiones simultánea de hasta 300 bits.

Procesador molecular evolutiva

Para construir su procesador de la evolución orgánica, los científicos utilizaron el DDQ, una molécula hexagonal compuesta de nitrógeno, oxígeno, cloro y carbono. moléculas DDQ establecieron por su cuenta, en un proceso llamado auto-ensamblaje , formando dos capas sobre un sustrato de oro.

DDQ moléculas puede cambiar entre cuatro estados pilotos - 0, 1, 2:03 - a diferencia de los sistemas binarios de las computadoras digitales, que se limitan a 1s y 0s.

"La mejor parte es que hablan alrededor de 300 moléculas" el uno al otro sólo una vez durante el tratamiento de la información ", dice Pati. "Nosotros realmente imitar cómo se comportan las neuronas en el cerebro."

Fuente:http://www.inovacaotecnologica.com.br