JLDS4B

JLDS4B
Te ayudo con tu Investigación o Proyecto

lunes, 7 de febrero de 2011

EE.UU dispone de herramientas secretas para restaurar Internet bajo dictaduras


En un claro mensaje a los acontecimientos ocurridos en Egipto y con una clara alusión a otros países (llámese China o Irán), Wired destapa la exclusiva dela capacidad estadounidense de restaurar Internet si en algún punto del globo fuera o se intentará “desconectar” bajo un régimen dictatorial. Se trata de una tecnología que obligaría a “conectar” a toda una población que hubiese sufrido ese “apagón”. La figura que hay detrás de esta primicia tiene nombre, John Arquilla, profesor de la Escuela Naval de Posgrado, quién resume un único inconveniente para que esta tecnología no haya sido utilizada antes: “podría considerarse como un acto de guerra”.

¿Cómo funciona esta tecnología? Hace unos días os contábamos las diferencias actuales entre filtrar, cerrar o bloquear Internet y la imposibilidad actual de que se desconecte la red a nivel global. En este punto, supongamos un caso en el que una población sufriera el corte parcial de Internet, una desconexión que eliminara en un espacio de un país la posibilidad de entrada y salida de datos y la comunicación de sus habitantes al mundo exterior. Bien, dado este caso, y si Estados Unidos se mostrara contrario a la actitud adoptada por el régimen, gobierno o dictadura que hubiese ordenado la acción, el ejército estadounidense tiene una segunda opción antes de entrar en conflicto. De la misma forma que puede ejecutar la interrupción online de un bando hostil, también la puede recuperar en el momento que crea oportuno, al menos en el espacio aéreo en el que se haya producido el corte.

Tal y como cuenta Arquilla, si pensamos que a través del avión Commando Solo, un avión de carga modernizado que se encuentra en el Centro de difusión de las Fuerzas Aéreas, se puede emitir y llevar a cabo operaciones en AM y FM para la radio, y UHF y VHF para la televisión, otro avión clasificado del que no quiere dar ningún nombre, puede realizar las labores de restauración en un espacio negado a las redes, es decir, que el avión pude sobrevolar un espacio aéreo donde había un corte de red y restaurar el espacio con wifi a plena capacidad. En muchos casos, el propio ejército norteamericano ya ha utilizado sus aviones como relés de comunicaciones en lugares como Afganistán. Arquilla lo cuenta así:

Tenemos satélites preparados para lo que pueda venir y ofrecer puntos de acceso para que la población vuelva a estar online. Gran parte de esta tecnología se realiza desde los barcos. Sería como una versión cibernética de la radio pirata

Se habla también del proyecto FastCom, un esfuerzo que están realizando varios compañías en conjunto para conectar las redes en el interior de un avión no tripulado, de esta manera el avión podría realizar largas horas de vuelo mientras mantiene la conexión y los datos sin la fatiga de un piloto en vuelo. Una especie de actualización de los famosos y muy criticados Drones (aviones utilizados en Estados Unidos sin necesidad de pilotos para conflictos) y que podrían llegar a conseguir cobertura 3G con un radio de pocos kilómetros sobre el terreno.

Aún así, existen varios problemas que se le plantean a una tecnología así. En primer lugar, el uso de estos aviones con emisión de radio-frecuencias son muy fáciles de detectar por cualquier mínima defensa anti-aérea actual. Por otro lado, los dispositivos receptores deben ser capaces de “conectar” y hablar con el teléfono y la señal de datos y dado que generalmente (caso de Egipto o Afganistán) los teléfonos compatibles podrían darse el caso de ser de contrabando, no funcionarían. De todas formas, Arquilla recuerda que todo es hipotético hasta que no ocurra un caso así, no se puede aventurar nada. En Egipto, Estados Unidos no ha actuado de esta manera ni ha forzado ningún tipo de restauración de la red porque, hasta este momento, Egipto era y es un aliado, pero no creo que a nadie le sorprenda si pensamos que Estados Unidos podría apagar y restaurar zonas “hostiles” si lo necesitase…

Fuente: http://bitelia.com/2011/02/

jueves, 23 de diciembre de 2010

Una bella odisea visual por el cerebro


Carl Schoonover, a la mitad de un doctorado en neurociencias, decidió atraer al lector general hacia sus estudios gracias a la simple belleza de sus imágenes.

POR ABIGAIL ZUGER, M.D. - The New York Times


¿Quién ha visto la mente? Ni usted ni yo --ni ninguna de las legiones de neurocientíficos que se empeñan en abrir los secretos de esa fuerza invisible, tan poderosa y errática como el viento. Los expertos definitivamente están más cerca: las últimas décadas han producido una explosión de técnicas nuevas para investigar el cerebro en busca de la mente que piensa, siente, sufre y conspira.

Pero el campo sigue siendo tecnológicamente complicado, fuera del alcance para el no científico promedio, y todavía está definido por una investigación tan básica que la conexión humana, el "gancho" acostumbrado por el que la ciencia difícil de comprender captura el interés general, con frecuencia está ausente.

Carl Schoonover asumió esto como un reto. Schoonover, de 27 años, quien se encuentra a la mitad de un doctorado en neurociencias en la Universidad de Columbia, en Nueva York, decidió atraer al lector general hacia sus estudios gracias a la simple belleza de sus imágenes.

Así que las ha reunido en un nuevo libro de arte ilustrado recién publicado. Portraits of the Mind: Visualizing the Brain From Antiquity to the 21st Century (Retratos de la mente: visualizando el cerebro desde la antigüedad hasta el siglo XXI) incluye ensayos cortos de prominentes neurocientíficos y largos pies de fotos de Schoonover, aunque sus palabras pasan a un segundo término ante las hermosas imágenes. Los científicos con frecuencia son seducidos por la belleza. A veces, la emoción está en la magia de una técnica fabulosa para obtener información difícil de encontrar.

Considere una pequeña fotografía borrosa en blanco y negro de un ícono de carita feliz, tan borrosa y mal definida que parece una parodia del Manto de Turín. La imagen es, en realidad, un milagro en sí misma: la videocámara de alta velocidad está apuntando al cerebro expuesto de un mono observando una carita feliz amarilla. Mientras el mono veía la carita, los vasos sanguíneos que alimentan a las células nerviosas en la parte visual del cerebro del mono se inflamaron brevemente en exactamente el mismo patrón.

Podemos detectar lo que había en la mente del mono al inspeccionar su cerebro. La imagen forma un vínculo, primitivo, pero palpable, entre lo corpóreo y lo evanescente, entre el cuerpo y el espíritu.

Y tras la fotografía se despliega una larga historia de inspiradas deducciones neurocientíficas y errores igualmente inspirados, todos enfocados en esclarecer ése preciso vínculo.

En 1873, el científico italiano Camillo Golgi desarrolló una mancha negra para realzar los filamentos neurales de un micrón de ancho. Quince años después, el científico español Santiago Ramón y Cajal desplegó la mancha con una destreza virtuosa, y le presentó al mundo poblaciones visibles de neuronas individuales. Las dendritas, o raíces, de estas células nerviosas alargadas recopilan información. Los axones, o troncos, la transmiten.

Hoy esas mismas siluetas esqueléticas resplandecen rebosantes y con colores brillantes, cortesía de genes insertados que codifican moléculas fluorescentes. La variación más dramática en estos métodos para realzar las neuronas en colores vivos, llamada Brainbow por sus inventores, convierte a los cerebros de ratones vivos en alocados bosques neón de árboles ramificados. El circuito electroquímico que impulsa la información alrededor de ese bosque, de nervio a nervio, ha generado sus propias imágenes fabulosas.

Mientras tanto, el tráfico en grupos largos de neuronas viajando juntas alrededor del cerebro se vuelve visible con una variación de la técnica de escaneo estándar llamada resonancia magnética de difusión. Aquí, las neuronas sí parecen pasta, ligeramente húmedas, flexibles y definidas. Si embargo, si la estructura es destruida (por un golpe, por ejemplo) los filamentos se rompen en fragmentos, y la carretera de la información queda destrozada.

En el ensayo final del libro, Joy Hirsch, especialista en imágenes del cerebro en Columbia, simpatiza con los lectores que odian la idea de que ellos (sus yo esenciales, lo que les gusta y no les gusta, sus premoniciones, tendencias y decisiones de vida) no son más que circuitos neurales.

"Estas células y moléculas, inundadas con diversos cocteles neuroquímicos en mis ganglios basales, son presuntamente la base de mi amor y apego hacia mi esposo", escribe. "Al inicio de mi travesía académica me habría resistido a este inevitable hecho biológico por la idea equivocada de que una base física disminuiría la grandeza y centralidad de mi elección de una pareja de vida." Ahora, Hirsch dice que acoge con alegría "la asombrosa unidad del cerebro físico y de la mente". Y no ve que alguien tenga mucha opción más que aceptarla.

"La gente asumió durante miles de años que debe haber algo más", escribe en la introducción el escritor de ciencias Jonah Lehrer. "Y sin embargo, no hay nada más: esto es todo lo que somos."

sábado, 13 de noviembre de 2010

Redes de comunicación cuántica



Las redes de comunicación cuántica están entre las prioridades de Europa y en especial el almacenado de información o memoria cuántica. Para poner a disposición de los usuarios este tipo de información se ha reunido un equipo de científicos de Dinamarca, quienes utilizaron dos haces de luz entrelazados dedicados al almacenado de información cuántica. El estudio, sobre el que se ha publicado un artículo en la revista Nature Physics, ha recibido financiación comunitaria por valor de cerca de 16 millones de euros.

Los expertos entienden que las redes cuánticas aumentarán la seguridad de la información con respecto a la situación actual. Uno de los componentes importantes de la comunicación cuántica es el entrelazamiento entre sistemas cuánticos, por ejemplo entre dos haces de luz. Básicamente este entrelazamiento es la conexión de dos haces de luz. Estos haces tienen características bien definidas compartidas como puede ser un conocimiento común. De acuerdo con las leyes de la mecánica cuántica, un estado cuántico puede utilizarse para transferir información de forma segura y a salvo de miradas indiscretas.

Científicos del Instituto Niels Bohr de la Universidad de Copenhague dirigidos por el profesor Eugene Polzik lograron almacenar dos haces de luz entrelazada en dos memorias cuánticas. Para ello utilizaron un «bosque» de espejos y elementos ópticos como divisores y retardadores en una mesa de gran tamaño, formando así un recorrido laberíntico de luz de más de diez metros de largo. Los elementos ópticos permitieron a los investigadores, miembros del grupo Quantop del instituto, controlar la luz y regular su tamaño e intensidad y además garantizar que la longitud de onda y la polarización de la luz se adecuaban a las necesidades del experimento.

Los investigadores explicaron que crearon los haces de luz entrelazada enviando un único haz de luz azul a través de un cristal en el que se divide en dos haces rojos. Éstos presentan un estado cuántico común porque están entrelazados. Según el equipo, el estado cuántico es información en sí mismo.

El laberinto de espejos y elementos ópticos recibe a continuación los dos haces de luz, que alcanzan las dos memorias. Para este estudio los científicos utilizaron dos contenedores de vidrio llenos de un gas de átomos de cesio. El equipo indicó que el estado cuántico de los átomos contiene información en forma de espín que puede ser hacia arriba o hacia abajo.

Los investigadores pueden compararlo a continuación con datos informáticos compuestos de unos y ceros. El estado cuántico se transfiere desde los dos haces de luz a las dos memorias cuando los haces pasan por los átomos. Como resultado la información se almacena en forma del nuevo estado cuántico de los átomos.

«Es la primera vez que se demuestra un tipo de memoria de estas características con un grado elevado de fiabilidad. De hecho su calidad es tanta que es imposible obtener algo semejante con memorias convencionales de luz como las utilizadas, por ejemplo, en la comunicación por Internet. Hemos dado un paso más en la consecución de una red cuántica», afirmó el profesor Polzik.

El estudio recibió fondos de seis proyectos comunitarios: Q-ESSENCE, HIDEAS, CORNER, COMPAS, COQUIT y EMALI.

Q-ESSENCE, HIDEAS, CORNER, COMPAS y COQUIT están financiados mediante el tema «Tecnologías de la información y la comunicación» del Séptimo Programa Marco (7PM) de la UE. Q-ESSENCE («Interfaces, sensores y comunicación cuánticos basados en el entrelazamiento») recibió 4,7 millones de euros; HIDEAS («Sistemas entrelazados de alta dimensión») 2 millones de euros; CORNER («Efectos de ruido correlacionados en el procesamiento de información cuántica) 2,09 millones de euros; COMPAS («Computación con estados fotónicos mesoscópicos y atómicos») 1,59 millones de euros; y COQUIT («Operaciones cuánticas colectivas aplicadas a las tecnologías de la información») 1,16 millones de euros.

El proyecto EMALI («Ingeniería, manipulación y caracterización de estados cuánticos de materia y luz») recibió 4,39 millones de euros de la línea presupuestaria Redes de formación mediante la investigación Marie Curie del Sexto Programa Marco (6PM) comunitario.

Fuente: http://www.laflecha.net/

jueves, 28 de octubre de 2010

Microsoft proyecta una nueva era tecnológica sin PC



El arquitecto de la ‘nube’ de Microsoft, Ray Ozzie, ha invitado a los creadores de Windows a imaginar un mundo sin PC y tomar la delantera en el proceso hacia una sociedad conectada permanentemente a Internet.

Ozzie, de 54 años, fue uno de los directivos encargados de reemplazar a Bill Gates en tareas de planificación como jefe de diseño de programas tras la retirada del fundador de Microsoft y anunció este mes su salida de la empresa tras considerar que había concluido su etapa. El ejecutivo lideró el cambio de Microsoft hacia los servicios de software en la “nube”, unos programas que se ejecutan desde cualquier ordenador sin necesidad de instalación en soporte físico.
En un memorándum dirigido a la dirección de la empresa y publicado en su blog este visionario de la tecnología expone sus predicciones para los próximos cinco años. Anuncia que se va a producir de forma acelerada el paso de una sociedad ‘PC-céntrica’ a una basada en los servicios en la ‘nube’ a través de dispositivos sencillos con conexión a Internet.

Los sistemas cada vez son más “complejos” y “la complejidad mata”, advierte. En el informe recuerda otro memorando que escribió en 2005 y en el que afirmaba haberse dado cuenta de que “cada 5 años nuestra industria experimenta lo que parece ser un punto de inflexión que tiene como resultado una gran turbulencia y cambio”.
En los próximos cinco años se producirá -dice- una “enorme e inevitable” transformación en el campo de las aplicaciones y las infraestructuras.
Los retos del futuro
El memorándum lleva una fecha adelantada, el 28 de octubre, la del día en que Ozzie publicó su informe de 2005; en aquel informe, igual que en esta ocasión, adelantaba los retos a los que habría que responder. “Está claro que si fracasamos en hacer eso (responder al reto actual), nuestro negocio tal y como lo conocemos está en peligro”, comenta Ozzie para quien a corto plazo Microsoft debería concentrarse en imaginar aplicaciones, servicios y dispositivos revolucionarios.
Aunque optimista respecto al potencial de Microsoft, líder mundial de la informática, Ozzie insiste en que “el entorno es altamente competitivo, duro y cambia rápidamente”.
“Los PC, teléfonos y tabletas de hoy son sólo el principio. Veremos una increíble innovación en las próximas décadas en las que emergerán todo tipo de conectividades que vestiremos, llevaremos, usaremos en escritorios y paredes y en nuestro alrededor”, declaró Ozzie.
“Los dispositivos conectados a servicios -concluye- irán mucho más allá de una pantalla, un teclado y un ratón: (serán) aparatos con consciencia humana natural que te verán, te reconocerán y te escucharán a ti y a lo que te rodea, que sentirán tu tacto, gestos y movimientos, tu situación, dirección, altitud, temperatura, ritmo cardíaco y estado de salud”.

Fuente: EFE Oct, 2010

domingo, 10 de octubre de 2010

Google anuncia su entrada en el sector automotriz con “coches sin conductor”



La idea de coches automáticos sin conductor parece sacada de una película de ciencia ficción, pero no lo es: las automotrices trabajan desde hace años en tecnologías de este tipo y ahora la empresa de Internet Google anunció que ya tiene una pequeña flotilla en las calles.

Ya se sabía que tarde o temprano habría automóviles conducidos por computadoras en las calles, pero la novedad es la entrada de Google en escena. Desde la telefonía móvil, los medios o los libros, la empresa ya está en innumerables sectores de negocios, y a ellos se suma ahora la industria automotriz. El plan es una nueva prueba de la mirada de futuro de la firma, pues se trata de inteligencia artificial.

Los siete coches de Google (seis Toyota Prius y un Audi TT) recorrieron sin ninguna intervención humana más de mil millas (unos 1.600 kilómetros), y en total más de 225.000 kilómetros.

Un proyecto mantenido en secreto

Lo más sorprendente es por cuánto tiempo consiguió Google mantener en secreto el proyecto. Los vehículos habían llamado la atención a los conductores en California desde hace al menos un año, pero se creía que eran coches modernizados del programa de mapas con imágenes reales Street View. La policía estaba informada de las pruebas, escribe en su blog el jefe de desarrolladores, Sebastian Thrun.

Google no está sola en el proyecto, ya que las automotrices trabajan desde hace años en este tipo de tecnología y ya han instalado sistemas de alarma en algunos modelos, mediante los cuales el vehículo reconoce los carteles de las calles, así como a personas y animales que se muevan por la calle. O bien que tensan el cinturón cuando hay peligro de choque.

Harán falta al menos ocho años en opinión de los ingenieros de Google para que los coches sin conductor estén “maduros” para salir a la venta. Hasta entonces habrá que adecuar no sólo la tecnología, sino también las reglas circulatorias. Por ejemplo, ¿quién será responsable si se produce un accidente, el dueño del coche o el fabricante del software?

El actual ordenamiento, así como las sanciones, parten de la base de que una persona controla el coche. Las pruebas de Google fueron posibles sólo porque alguien iba sentado al volante listo para intervenir si era necesario. Pero Thrun proclama en su blog que las computadoras siempre tienen una plena visión del entorno y no se cansan ni se distraen, a diferencia de los humanos.

Thrun, que trabaja desde hace años en vehículos sin conductor, cree que la tecnología revolucionará el sector, entre otras cosas porque las computadoras ahorran más combustible. Y como bajaría el número de accidentes, también se podría hacer automóviles más livianos. En el futuro se puede pensar en vehículos que uno llame hasta el lugar donde se encuentra, como un taxi, pero sin conductor.

¿Qué sacará Google de esto?

Thrun dijo al “New York Times” que el proyecto demuestra la intención de Google de invertir en tecnologías aunque no den un rápido rendimiento económico. Uno de quienes más apoya la idea es el cofundador de la empresa Larry Page.

¿Qué es lo que sacará la firma de Internet de la iniciativa? Google podría ofrecer los servicios de guía de la conducción automática o cederla a cambio de licencias a los fabricantes de coches. Thrun desarrolló asimismo el polémico callejero con fotos reales Street View, que ahora con este otro proyecto cobra una significación completamente distinta.

Los coches robot encajan en cualquier caso a la perfección en la concepción del futuro del presidente de Google, Eric Schmidt, que hace unas semanas dijo que en el futuro nadie olvidará nada porque “las computadoras lo recuerdan todo”.

Además, todos podrían saber todo, incluso lo que no saben aún que les interesa, y además ser buenos en todo, porque “la computadora arreglaría lo que no nos salga bien”. El precio a pagar es que el software tiene que tener la mayor información posible de una persona, admitió Schmidt.

Fuente: http://www.noticias24.com

jueves, 26 de agosto de 2010

El día que un ataque cibernético amenazó a EE.UU.



En 2008 la seguridad de las redes militares de Estados Unidos se vio amenazada. Un espia extranjero, armado con una memoria USB, accedió a una computadora portátil del ejército estadounidense y la infectó, en una base militar en el Medio Oriente.

El código malicioso se esparció en una red administrada por el Comando Central de Estados Unidos y se abrió camino entre sistemas clasificados y abiertos, abriendo la puerta para transferir información militar estadounidense a computadoras extranjeras.

El episodio se había filtrado más o menos en dichos términos en blogs y en el diario Los Angeles Times a finales de 2008. Pero ahora fue oficialmente confirmado por William J. Lynn, Subsecretario de Defensa de EE.UU. en un artículo publicado en la revista Foreign Affairs.

Además en su escrito Lynn asegura que dicho evento "fue la violación de seguridad en las computadoras militares de EE.UU. más significativa en la historia y sirvió como una importante llamada de alerta".

"La peor pesadilla"


EE.UU. calificó la intrusión como la "peor de la historia".

El funcionario califica el incidente como la peor pesadilla de un administrador de redes: "Un programa malicioso operando en forma silenciosa, buscando entregar planes operativos a un adversario desconocido".

Pero Lynn va más allá y asegura que en los últimos 10 años la frecuencia de dichos ataques se ha incrementado en forma exponencial lo que ha llevado a que los sistemas militares sean escaneados millones de veces al día.

En respuesta a dichos incidentes Estados Unidos creó un comando especializado en defensa cibernética y el presidente de dicho país, Barack Obama, nombró a Howard Schmidt como ciber zar en diciembre del año pasado.

En su momento Schmidt aseguró: "Las amenazas cibernéticas son algunos de los desafíos más serios que enfrenta nuestra seguridad nacional y nuestra economía".

Fuente: BBC MUNDO

martes, 27 de julio de 2010

zEnterprise, el servidor más poderoso de IBM



Con una inversión de $1500 millones de dólares (USD) y más de 5000 funcionarios de IBM tras el proyecto que trabajaron por más de 3 años, lograron desarrollar el zEnterprise System. Este es un servidor que tiene 96 de los microprocesadores más potentes del mundo, entre los que está el chip más veloz del mundo con 5,2 GHz; junto al más veloz de Intel con 3,8 GHz, como así mismo su par de Oracle de 2,9 GHz. Todos capaces de ejecutar más de 50 mil millones de instrucciones por segundo, o sea, más de 8 instrucciones por segundo por cada persona que habita la faz de la Tierra.

No sólo es velocidad en este monstruo del cómputo, sino también se puede destacar perfectamente en lo que es un equipo “verde”. Las eficiencias en energía del zEnterprise se pudieron lograr gracias a avances en el diseño del microprocesador, tecnología de silicio de 45nm, mayor eficiencia en la conversión y distribución de energía, y firmware avanzado de control de sensores y refrigeración que monitorea y hace ajustes en base a factores ambientales tales como niveles de temperatura y humedad, e incluso la densidad del aire. Con ello se puede reducir el consumo de energía hasta un 12%.

Fuente: http://www.ohmygeek.net/