La reciente publicación del borrador del estándar HTML5 ha dejado entrever avances prometedores en capacidad de publicación multimedia en internet. Pero también ha causado la rápida reacción de empresas propietarias de patentes en la materia, como Apple, que temen perder el dominio del mercado a costa de software libre. Ian Hickson, uno de los responsables de redactar el estándar, expone la situación y propone adoptar una solución salomónica al respecto: que la red decida.
El eclipse solar más largo del siglo XXI, que tendrá lugar el próximo 22 de julio y que durará más de seis minutos, será retransmitido en directo a través de internet desde la ciudad china de Chongquing, a donde se desplazará un equipo de científicos y técnicos españoles para captar las imágenes y difundirlas a todo el mundo a través de la red de redes.
Un equipo de científicos de la Universidad de Yale ha dado un gran salto tecnológico al crear el primer procesador cuántico. Es la primera implementación funcional de un dispositivo de este tipo. Sólo es capaz de hacer algunos cálculos sencillos, pero es un paso imprescindible para lograr la aplicación de la física cuántica a la informática.
Científicos del Boston College han desarrollado un software inspirado en la visión humana que es capaz de procesar la imágenes con el doble de precisión y hasta diez veces más rápido que con los métodos anteriores. Este algoritmo supone todo un salto en la evolución de los sistemas de visión artificial, pero no es el único paso importante en esa dirección. Varios avances recientes hacen que se perciba una rápida evolución de la inteligencia artificial.
La frenética actividad de toda la comunidad de internet provoca que continuamente surjan nuevas tecnologías que desafían los nuevos retos. Y este caso no es diferente. Ante la presión de los gobiernos y las empresas por censurar la red, y el progresivo refinamiento de los criminales en internet, la privacidad de los usuarios se ve seriamente amenazada. Frente a eso, recientemente han surgido nuevas estrategias que aseguran el anonimato en internet. Al tratarse de software libre, pueden ser adaptadas para su uso generalizado y además pueden ser usadas libremente.
Hace mucho que oímos hablar de la computación en la nube (cloud computing), y sin darse cuenta muchos ya la usan diariamente. En las redes P2P o en muchos servicios gratuitos de Google se utiliza esta tecnología. Un grupo de expertos del NIST (National Institute of Standards and Technology) ha hecho un estudio sobre los principales problemas de seguridad que aún hay que superar para poder aplicar esta tecnología a un nivel mucho más amplio. Pero hay muchas opiniones de primer nivel que ven problemas mucho más serios, asociados a la privacidad y a la libertad del usuario.
En las últimas semanas ha habido muchos anuncios de nuevos modelos que incorporan dispositivos SSD, pero el estado de la tecnología no parece adecuado para una expansión masiva. Las unidades de almacenamiento de estado sólido (SSD) son silenciosas y consumen menos energía. Sin embargo, cualidades tan esperadas como el drástico aumento de la velocidad o la fiabilidad todavía no están suficientemente desarrolladas. El software aún no se ha adaptado, y además el precio aún es muy elevado. Habrá que esperar.
El tiempo necesario para que los sistemas informáticos actuales estén preparados es de unos 40 segundos. En los últimos años ha habido muchos intentos de reducir ese tiempo. Tanto desde el software, utilizando diferentes estrategias para arrancar, como desde el hardware, creando máquinas más rápidas. Pero recientes investigaciones apuntan que la evolución de los materiales ferroeléctricos nos permitirá hacer desaparecer la molesta espera a la que estamos acostumbrados.
La conectividad global unida al deficiente diseño de los sistema operativos mayoritarios ha hecho crecer la sensación de inseguridad en el usuario final. Esto lo ha convertido en un tema de primera línea informativa. Falta poco para el lanzamiento de la última versión del sistema operativo más extendido y dos investigadores, Vipin Kumar y Nitin Kumar, ya han revelado la existencia de vulnerabilidades serias e irreparables en su diseño. ¿Cómo es posible que multinacionales con tantos recursos cometan reiteradamente esa clase de errores en sus productos? ¿Es posible evitar esos errores?.