JLDS4B

JLDS4B
Te ayudo con tu Investigación o Proyecto

sábado, 13 de noviembre de 2010

Redes de comunicación cuántica



Las redes de comunicación cuántica están entre las prioridades de Europa y en especial el almacenado de información o memoria cuántica. Para poner a disposición de los usuarios este tipo de información se ha reunido un equipo de científicos de Dinamarca, quienes utilizaron dos haces de luz entrelazados dedicados al almacenado de información cuántica. El estudio, sobre el que se ha publicado un artículo en la revista Nature Physics, ha recibido financiación comunitaria por valor de cerca de 16 millones de euros.

Los expertos entienden que las redes cuánticas aumentarán la seguridad de la información con respecto a la situación actual. Uno de los componentes importantes de la comunicación cuántica es el entrelazamiento entre sistemas cuánticos, por ejemplo entre dos haces de luz. Básicamente este entrelazamiento es la conexión de dos haces de luz. Estos haces tienen características bien definidas compartidas como puede ser un conocimiento común. De acuerdo con las leyes de la mecánica cuántica, un estado cuántico puede utilizarse para transferir información de forma segura y a salvo de miradas indiscretas.

Científicos del Instituto Niels Bohr de la Universidad de Copenhague dirigidos por el profesor Eugene Polzik lograron almacenar dos haces de luz entrelazada en dos memorias cuánticas. Para ello utilizaron un «bosque» de espejos y elementos ópticos como divisores y retardadores en una mesa de gran tamaño, formando así un recorrido laberíntico de luz de más de diez metros de largo. Los elementos ópticos permitieron a los investigadores, miembros del grupo Quantop del instituto, controlar la luz y regular su tamaño e intensidad y además garantizar que la longitud de onda y la polarización de la luz se adecuaban a las necesidades del experimento.

Los investigadores explicaron que crearon los haces de luz entrelazada enviando un único haz de luz azul a través de un cristal en el que se divide en dos haces rojos. Éstos presentan un estado cuántico común porque están entrelazados. Según el equipo, el estado cuántico es información en sí mismo.

El laberinto de espejos y elementos ópticos recibe a continuación los dos haces de luz, que alcanzan las dos memorias. Para este estudio los científicos utilizaron dos contenedores de vidrio llenos de un gas de átomos de cesio. El equipo indicó que el estado cuántico de los átomos contiene información en forma de espín que puede ser hacia arriba o hacia abajo.

Los investigadores pueden compararlo a continuación con datos informáticos compuestos de unos y ceros. El estado cuántico se transfiere desde los dos haces de luz a las dos memorias cuando los haces pasan por los átomos. Como resultado la información se almacena en forma del nuevo estado cuántico de los átomos.

«Es la primera vez que se demuestra un tipo de memoria de estas características con un grado elevado de fiabilidad. De hecho su calidad es tanta que es imposible obtener algo semejante con memorias convencionales de luz como las utilizadas, por ejemplo, en la comunicación por Internet. Hemos dado un paso más en la consecución de una red cuántica», afirmó el profesor Polzik.

El estudio recibió fondos de seis proyectos comunitarios: Q-ESSENCE, HIDEAS, CORNER, COMPAS, COQUIT y EMALI.

Q-ESSENCE, HIDEAS, CORNER, COMPAS y COQUIT están financiados mediante el tema «Tecnologías de la información y la comunicación» del Séptimo Programa Marco (7PM) de la UE. Q-ESSENCE («Interfaces, sensores y comunicación cuánticos basados en el entrelazamiento») recibió 4,7 millones de euros; HIDEAS («Sistemas entrelazados de alta dimensión») 2 millones de euros; CORNER («Efectos de ruido correlacionados en el procesamiento de información cuántica) 2,09 millones de euros; COMPAS («Computación con estados fotónicos mesoscópicos y atómicos») 1,59 millones de euros; y COQUIT («Operaciones cuánticas colectivas aplicadas a las tecnologías de la información») 1,16 millones de euros.

El proyecto EMALI («Ingeniería, manipulación y caracterización de estados cuánticos de materia y luz») recibió 4,39 millones de euros de la línea presupuestaria Redes de formación mediante la investigación Marie Curie del Sexto Programa Marco (6PM) comunitario.

Fuente: http://www.laflecha.net/

jueves, 28 de octubre de 2010

Microsoft proyecta una nueva era tecnológica sin PC



El arquitecto de la ‘nube’ de Microsoft, Ray Ozzie, ha invitado a los creadores de Windows a imaginar un mundo sin PC y tomar la delantera en el proceso hacia una sociedad conectada permanentemente a Internet.

Ozzie, de 54 años, fue uno de los directivos encargados de reemplazar a Bill Gates en tareas de planificación como jefe de diseño de programas tras la retirada del fundador de Microsoft y anunció este mes su salida de la empresa tras considerar que había concluido su etapa. El ejecutivo lideró el cambio de Microsoft hacia los servicios de software en la “nube”, unos programas que se ejecutan desde cualquier ordenador sin necesidad de instalación en soporte físico.
En un memorándum dirigido a la dirección de la empresa y publicado en su blog este visionario de la tecnología expone sus predicciones para los próximos cinco años. Anuncia que se va a producir de forma acelerada el paso de una sociedad ‘PC-céntrica’ a una basada en los servicios en la ‘nube’ a través de dispositivos sencillos con conexión a Internet.

Los sistemas cada vez son más “complejos” y “la complejidad mata”, advierte. En el informe recuerda otro memorando que escribió en 2005 y en el que afirmaba haberse dado cuenta de que “cada 5 años nuestra industria experimenta lo que parece ser un punto de inflexión que tiene como resultado una gran turbulencia y cambio”.
En los próximos cinco años se producirá -dice- una “enorme e inevitable” transformación en el campo de las aplicaciones y las infraestructuras.
Los retos del futuro
El memorándum lleva una fecha adelantada, el 28 de octubre, la del día en que Ozzie publicó su informe de 2005; en aquel informe, igual que en esta ocasión, adelantaba los retos a los que habría que responder. “Está claro que si fracasamos en hacer eso (responder al reto actual), nuestro negocio tal y como lo conocemos está en peligro”, comenta Ozzie para quien a corto plazo Microsoft debería concentrarse en imaginar aplicaciones, servicios y dispositivos revolucionarios.
Aunque optimista respecto al potencial de Microsoft, líder mundial de la informática, Ozzie insiste en que “el entorno es altamente competitivo, duro y cambia rápidamente”.
“Los PC, teléfonos y tabletas de hoy son sólo el principio. Veremos una increíble innovación en las próximas décadas en las que emergerán todo tipo de conectividades que vestiremos, llevaremos, usaremos en escritorios y paredes y en nuestro alrededor”, declaró Ozzie.
“Los dispositivos conectados a servicios -concluye- irán mucho más allá de una pantalla, un teclado y un ratón: (serán) aparatos con consciencia humana natural que te verán, te reconocerán y te escucharán a ti y a lo que te rodea, que sentirán tu tacto, gestos y movimientos, tu situación, dirección, altitud, temperatura, ritmo cardíaco y estado de salud”.

Fuente: EFE Oct, 2010

domingo, 10 de octubre de 2010

Google anuncia su entrada en el sector automotriz con “coches sin conductor”



La idea de coches automáticos sin conductor parece sacada de una película de ciencia ficción, pero no lo es: las automotrices trabajan desde hace años en tecnologías de este tipo y ahora la empresa de Internet Google anunció que ya tiene una pequeña flotilla en las calles.

Ya se sabía que tarde o temprano habría automóviles conducidos por computadoras en las calles, pero la novedad es la entrada de Google en escena. Desde la telefonía móvil, los medios o los libros, la empresa ya está en innumerables sectores de negocios, y a ellos se suma ahora la industria automotriz. El plan es una nueva prueba de la mirada de futuro de la firma, pues se trata de inteligencia artificial.

Los siete coches de Google (seis Toyota Prius y un Audi TT) recorrieron sin ninguna intervención humana más de mil millas (unos 1.600 kilómetros), y en total más de 225.000 kilómetros.

Un proyecto mantenido en secreto

Lo más sorprendente es por cuánto tiempo consiguió Google mantener en secreto el proyecto. Los vehículos habían llamado la atención a los conductores en California desde hace al menos un año, pero se creía que eran coches modernizados del programa de mapas con imágenes reales Street View. La policía estaba informada de las pruebas, escribe en su blog el jefe de desarrolladores, Sebastian Thrun.

Google no está sola en el proyecto, ya que las automotrices trabajan desde hace años en este tipo de tecnología y ya han instalado sistemas de alarma en algunos modelos, mediante los cuales el vehículo reconoce los carteles de las calles, así como a personas y animales que se muevan por la calle. O bien que tensan el cinturón cuando hay peligro de choque.

Harán falta al menos ocho años en opinión de los ingenieros de Google para que los coches sin conductor estén “maduros” para salir a la venta. Hasta entonces habrá que adecuar no sólo la tecnología, sino también las reglas circulatorias. Por ejemplo, ¿quién será responsable si se produce un accidente, el dueño del coche o el fabricante del software?

El actual ordenamiento, así como las sanciones, parten de la base de que una persona controla el coche. Las pruebas de Google fueron posibles sólo porque alguien iba sentado al volante listo para intervenir si era necesario. Pero Thrun proclama en su blog que las computadoras siempre tienen una plena visión del entorno y no se cansan ni se distraen, a diferencia de los humanos.

Thrun, que trabaja desde hace años en vehículos sin conductor, cree que la tecnología revolucionará el sector, entre otras cosas porque las computadoras ahorran más combustible. Y como bajaría el número de accidentes, también se podría hacer automóviles más livianos. En el futuro se puede pensar en vehículos que uno llame hasta el lugar donde se encuentra, como un taxi, pero sin conductor.

¿Qué sacará Google de esto?

Thrun dijo al “New York Times” que el proyecto demuestra la intención de Google de invertir en tecnologías aunque no den un rápido rendimiento económico. Uno de quienes más apoya la idea es el cofundador de la empresa Larry Page.

¿Qué es lo que sacará la firma de Internet de la iniciativa? Google podría ofrecer los servicios de guía de la conducción automática o cederla a cambio de licencias a los fabricantes de coches. Thrun desarrolló asimismo el polémico callejero con fotos reales Street View, que ahora con este otro proyecto cobra una significación completamente distinta.

Los coches robot encajan en cualquier caso a la perfección en la concepción del futuro del presidente de Google, Eric Schmidt, que hace unas semanas dijo que en el futuro nadie olvidará nada porque “las computadoras lo recuerdan todo”.

Además, todos podrían saber todo, incluso lo que no saben aún que les interesa, y además ser buenos en todo, porque “la computadora arreglaría lo que no nos salga bien”. El precio a pagar es que el software tiene que tener la mayor información posible de una persona, admitió Schmidt.

Fuente: http://www.noticias24.com

jueves, 26 de agosto de 2010

El día que un ataque cibernético amenazó a EE.UU.



En 2008 la seguridad de las redes militares de Estados Unidos se vio amenazada. Un espia extranjero, armado con una memoria USB, accedió a una computadora portátil del ejército estadounidense y la infectó, en una base militar en el Medio Oriente.

El código malicioso se esparció en una red administrada por el Comando Central de Estados Unidos y se abrió camino entre sistemas clasificados y abiertos, abriendo la puerta para transferir información militar estadounidense a computadoras extranjeras.

El episodio se había filtrado más o menos en dichos términos en blogs y en el diario Los Angeles Times a finales de 2008. Pero ahora fue oficialmente confirmado por William J. Lynn, Subsecretario de Defensa de EE.UU. en un artículo publicado en la revista Foreign Affairs.

Además en su escrito Lynn asegura que dicho evento "fue la violación de seguridad en las computadoras militares de EE.UU. más significativa en la historia y sirvió como una importante llamada de alerta".

"La peor pesadilla"


EE.UU. calificó la intrusión como la "peor de la historia".

El funcionario califica el incidente como la peor pesadilla de un administrador de redes: "Un programa malicioso operando en forma silenciosa, buscando entregar planes operativos a un adversario desconocido".

Pero Lynn va más allá y asegura que en los últimos 10 años la frecuencia de dichos ataques se ha incrementado en forma exponencial lo que ha llevado a que los sistemas militares sean escaneados millones de veces al día.

En respuesta a dichos incidentes Estados Unidos creó un comando especializado en defensa cibernética y el presidente de dicho país, Barack Obama, nombró a Howard Schmidt como ciber zar en diciembre del año pasado.

En su momento Schmidt aseguró: "Las amenazas cibernéticas son algunos de los desafíos más serios que enfrenta nuestra seguridad nacional y nuestra economía".

Fuente: BBC MUNDO

martes, 27 de julio de 2010

zEnterprise, el servidor más poderoso de IBM



Con una inversión de $1500 millones de dólares (USD) y más de 5000 funcionarios de IBM tras el proyecto que trabajaron por más de 3 años, lograron desarrollar el zEnterprise System. Este es un servidor que tiene 96 de los microprocesadores más potentes del mundo, entre los que está el chip más veloz del mundo con 5,2 GHz; junto al más veloz de Intel con 3,8 GHz, como así mismo su par de Oracle de 2,9 GHz. Todos capaces de ejecutar más de 50 mil millones de instrucciones por segundo, o sea, más de 8 instrucciones por segundo por cada persona que habita la faz de la Tierra.

No sólo es velocidad en este monstruo del cómputo, sino también se puede destacar perfectamente en lo que es un equipo “verde”. Las eficiencias en energía del zEnterprise se pudieron lograr gracias a avances en el diseño del microprocesador, tecnología de silicio de 45nm, mayor eficiencia en la conversión y distribución de energía, y firmware avanzado de control de sensores y refrigeración que monitorea y hace ajustes en base a factores ambientales tales como niveles de temperatura y humedad, e incluso la densidad del aire. Con ello se puede reducir el consumo de energía hasta un 12%.

Fuente: http://www.ohmygeek.net/

jueves, 15 de julio de 2010

Control del Derrame en el golfo de México



A continuación les dejo el enlace a los vídeos, desde diversas cámaras y diferentes angulos, de las maniobras realizadas por la British Petroleum para tratar de contener el derrame en el Golfo de México.

http://newsblogged.com/video-live-streaming-gulf-oil-spill-cam-bp-webcam

Video: Live Streaming Gulf Oil Spill Cam BP Webcam
Below is live video from a BP web cam broadcasting the oil spill in the Gulf of Mexico, for the latest news about the oil spill see this page!

Please note the live video might not be available all the time due to heavy demand or sometimes might show different news! (If not working try the BP links!)

Below the videos are direct BP links to different cameras.

martes, 22 de junio de 2010

La universidad ha perdido el monopolio del conocimiento



Por Imma Tubella

La universidad ha perdido el monopolio del conocimiento. Los profesores ya no somos los únicos depositarios del saber. La Red nos ha jugado una mala pasada.

Ahora tenemos dos opciones: impregnar de veneno los teclados de nuestros jóvenes con la esperanza de que aún se chupen el dedo o, simplemente, asumir nuestro nuevo e interesante papel de mentores experimentados y acompañantes metodológicos, más preocupados en enseñarles a gestionar y completar el conocimiento disponible y a desarrollar su capacidad crítica que en enseñarles a memorizar unos conocimientos como si fueran una verdad única.

En las universidades norteamericanas ocurren dos fenómenos que preocupan mucho a sus rectores y que no saben cómo afrontar, entre otras cosas porque tampoco se han preocupado por analizar los cambios en las actitudes y valores de los estudiantes del siglo XXI.

Muchos profesores de élite, incluidos premios Nobel, tienen tres o cuatro estudiantes en sus clases. ¿Los más interesados en el tema? No. Los representantes de sus compañeros que se organizan para tener unos buenos apuntes y preparar bien los exámenes. Los profesores, digamos normales, ni tan siquiera tienen tres o cuatro. No tienen ninguno. ¿Cómo aprenden y aprueban sus estudiantes? Se reúnen en la Red y optan por obtener sus conocimientos de forma colaborativa, con materiales abiertos, de universidades de prestigio.

En Quebec, por ejemplo, hay la Universidad McGill tradicional, y una Universidad McGill que funciona en paralelo gestionada por sus estudiantes, que se organizan según sus necesidades. ¿Este es el modelo que queremos? ¿O más bien queremos un modelo de universidad abierta a la sociedad, motor de la estrategia de modernización del país y de liderazgo en la economía del conocimiento?

En Estados Unidos ya hay cuatro millones de estudiantes en línea. Es verdad que Internet se implantó antes y que los nativos digitales ya han llegado a la educación superior, pero esta tendencia la empiezo a ver en mi universidad, la Oberta de Catalunya (UOC), donde cada vez llegan estudiantes más jóvenes.

En ambos casos el motivo es el mismo: las demandas y necesidades de una población estudiantil no tradicional requieren que nuestras universidades reconozcan la enseñanza en línea como una pieza fundamental para el futuro y que este reconocimiento vaya acompañado de una mayor flexibilidad institucional para hacer frente a las nuevas necesidades de los estudiantes.

Estoy convencida de que el futuro es híbrido presencial/virtual o, en el caso de los estudiantes a tiempo parcial, totalmente virtual. La enseñanza en línea no tiene nada que ver con colgar materiales en la Red; requiere, como en el caso de la UOC, repensar el modelo de aprendizaje y la misma estructura institucional.

Desafortunadamente, academia y cambio conjugan mal. Ya lo dijo una ex rectora de la Universidad de Oslo: "Si quieres cambiar un cementerio, no puedes esperar gran ayuda de los que están dentro". Quizás hasta ahora no ha sido importante, pero vivimos un momento en el que no podemos perder mucho tiempo.

El cambio no es lo que amenaza nuestra supervivencia como instituciones de enseñanza superior; lo que la amenaza es el inmovilismo y la negación de una realidad evidente. Los inmovilistas son los mismos que lanzan adoquines a palabras como eficiencia, flexibilidad, gobernabilidad o incluso emprendeduría asociadas a la universidad.

La universidad desempeña un papel determinante en el desarrollo de la sociedad formando sus futuros líderes y preparándolos para vivir en un entorno en transformación continua. La pregunta clave es: ¿La universidad ha sabido transformarse ella misma? Yo afirmaría, sin miedo a equivocarme mucho, que la universidad es una de las instituciones más antiguas y con mayor capacidad de resistencia al cambio.

Si las universidades no podemos o no sabemos reenfocar nuestra manera de pensar y de actuar y redefinir nuestro papel en la sociedad, habremos fallado. En cambio, si nos atrevemos a trabajar a largo plazo, a fortalecer lo mejor de nuestro pasado y de nuestra tradición pero al mismo tiempo repensar y reforzar nuestras instituciones para el futuro de forma innovadora y colaborativa, daremos señales a la sociedad de que sabemos cómo afrontar nuestros retos, y los suyos.

Imma Tubella es la rectora de la Universitat Oberta de Catalunya (UOC).

Por IMMA TUBELLA 22/06/2009