Artículos
España como novena potencia económica mundial se enfrenta actualmente a un gran reto. Ha de seguir siendo competitiva y aprovechar la innovación y la tecnología para potenciar el crecimiento económico, la creación de empleo y la calidad de vida de los ciudadanos.
Según el informe de la OCDE de 2007 sobre ciencia, tecnología e industria, la innovación y la globalización son los dos principales determinantes de la salud económica de un país ya que ambas inciden directamente sobre la productividad y la creación de empleo. Es evidente que en un entorno globalizado no se puede concebir la innovación como una actividad local que se desarrolla de forma aislada. En la sociedad de la información y del conocimiento en la que nos encontramos inmersos, las redes de la Investigación y Desarrollo (I+D) y de la innovación son globales y su desarrollo constituye una pieza estratégica en el avance de los países. Por ello, el mundo empresarial y la Administración pública han de esforzarse al máximo para lograr que las autopistas mundiales de la innovación pasen por nuestro país de forma que podamos utilizarlas y convertir a España en un punto de referencia también en innovación. En este sentido, las multinacionales que realizan actividades de I+D son de vital importancia debido a que son uno de los ejes fundamentales de esas autopistas mundiales de la innovación. Por sus especiales características y organización estas empresas potencian el desarrollo de las redes globales de innovación, pero a su vez repercuten en el desarrollo de la innovación local, ya que se genera un caldo de cultivo que propicia la creación de compañías locales con un fuerte componente innovador, e incluso, en algunos casos, dando lugar a clusters. No cabe duda de que el eje fundamental de la competitividad en nuestro país está en la localización de actividades de alto valor añadido, sustituyendo los modelos de negocio y las tecnologías que van quedando obsoletas. Y este es un camino que no tiene retorno. España cuenta con unas características que la hacen muy atractiva para las empresas como son, un entorno empresarial abierto, un marco político y jurídico estable, la creatividad y capacitación de sus profesionales, su calidad de vida. Muestra de que España cuenta con aspectos que hacen posible el establecimiento de centros de I+D, incluso compitiendo con otras localizaciones que a priori podría pensarse que son más interesantes, es el hecho de que siete grandes multinacionales líderes en sus respectivos sectores y de diferentes procedencias geográficas, cuentan con centros de I+D punteros en nuestro país. Se trata de Alstom, Arcelor Mittal, Ericsson, Hero, Hewlett-Packard, Sony y ThyssenKrupp Elevator que conjuntamente han creado la Fundación Innovación España cuya misión principal es crear un clima de negocios favorable a la inversión internacional en I+D+i en nuestro país, apoyándose en la experiencia propia de los patronos. Estas siete empresas facturan en España más de 10.000 millones de euros, cuentan con más de 30.000 empleados y en sus centros de I+D ubicados en España se están desarrollando algunos de los productos más revolucionarios e innovadores que saldrán al mercado en los próximos años. Estas compañías cuentan con profesionales altamente cualificados dedicados a actividades de I+D capaces de generar ideas que satisfagan necesidades futuras. Las siete multinacionales son un ejemplo de cómo es posible establecer y mantener actividades de alto valor añadido con relevancia en el ámbito internacional y gran éxito dentro de organizaciones globales. Pero además, estas sedes en España tienen un gran atractivo a la hora de atraer talento de fuera de nuestras fronteras. Este entorno favorable se ve enormemente favorecido por la colaboración Empresa-Universidad que, aunque tiene todavía margen de mejora, está avanzando por buen camino. Es necesario conseguir una mayor accesibilidad a los centros de I+D en las universidades, y que éstas tengan más presentes a las empresas en su desarrollo, y sobre todo, una formación más orientada a permitir que la contratación de profesionales sea eficiente. En este sentido, las siete multinacionales que integran la Fundación Innovación España cuentan con importantes acuerdos en forma de cátedras, becas y otras fórmulas interesantes de colaboración, que permiten un intercambio de conocimiento de gran ayuda para conseguir los objetivos marcados. La Administración está realizando enormes esfuerzos por crear el ambiente adecuado para que la inversión privada en I+D sea cada vez mayor, a través de ayudas de diversa índole. Es aquí también donde las compañías queremos aportar nuestra experiencia para que este clima sea cada vez más favorable a la implantación de actividad innovadora en nuestro país. Es necesario que el “triángulo virtuoso” empresa-universidad-administración funcione al más alto nivel para que España sea conocida como uno de los principales países generadores de actividades I+D y de innovación tecnológica. La Fundación I+E Innovación España es una entidad sin ánimo de lucro promovida por multinacionales líderes en los sectores que representan. Esta Fundación compuesta por Alstom, Arcelor Mittal, Ericsson, Hero, Hewlett-Packard, Sony y ThyssenKrupp Elevator (ES/PBB) nace con el objetivo de poner de relieve el papel de las multinacionales en el desarrollo de la I+D+i a nivel local. Para ello promoverá la imagen de España como lugar idóneo para la ubicación de actividad en materia de I+D sirviéndose de la experiencia propia de los patronos, que cuentan con importantes centros de investigación en nuestro país con responsabilidad internacional.
Isidro Cano
Jueves, 12 de Febrero 2009
Comentarios
Artículos
La difusión mediática de la nanotecnología como una nueva disciplina capaz de revolucionar el mundo industrial no es algo nuevo. Ya hay iniciativas desde hace más de una década. En 1995, David Packard de la familia Packard de HP, fundó un departamento dentro de los HP labs orientado a la búsqueda de los límites físicos de la materia. Se llama QSR Quantum Science Research y en él, los ingenieros investigadores se dedican a fabricar estructuras nanométricas y explorar sus propiedades. Su interesantísimo trabajo integra varias disciplinas de la ingeniería y de la física avanzada y tiene entre otros alicientes el replanteamiento de las leyes fundamentales que nos enseñaron en la escuela.
Entre sus proyectos se encuentran los desarrollos de dispositivos ópticos integrados en chips de silicio y también los nuevos nanoconectores internos de los semiconductores. Ambos nuevos componentes permitirán reducir las latencias entre procesadores y aumentar los anchos de banda, es decir, hacer que las cpu’s corran mucho más que ahora sin aumentar el consumo ni el paralelismo. Es decir, desarrollando una gran creatividad en nuevos planteamientos. La informática basada en la física cuántica está lejos de dejar indiferente a cualquiera. La idea es tan simple, como desarrollar toda una nueva tecnología informática hardware basada en elementos físicos tamaño molecular. En este nanomundo, las leyes físicas bajo las que se comportan los distintos elementos son las de la física cuántica y de ahí el nombre de ordenador cuántico y de la multitud de siglas sobre la tecnología quántica que ya aparecen en muchas publicaciones. En el libro Programming the Universe del científico americano Seth Lloyd, gran experto en la materia (de hecho, es el constructor de un ordenador cuántico en el MIT) se plasma la conclusión de que el Universo es en realidad un gigantesco ordenador cuántico con un software que establece los acontecimientos cosmológicos y una unidad de información, el qubit, puede tener más de los dos estados tradicionales 0 y 1. Es decir, la informática cuántica sería un reflejo del mundo real. Se trata de crear una nueva tecnología que supere a la actual, alcanzando altas cotas de velocidad de cálculo y de capacidad de almacenamiento. Se estima en más de treinta años para lograrlo pero hasta entonces ya hay algunas ideas interesantes como la de construir detectores de un fotón simple que permitan desarrollar nanoestructuras ópticas como base de procesadores cuánticos que puedan incorporarse a los PC’s tradicionales como componentes activos de muy alto rendimiento. La tarea no es fácil. El problema del alto nivel de ruido cuántico generado por los conversores electro-ópticos se podría resolver por medio de elementos ópticos no lineales como buffers, desplazadores de fase y hasta conmutadores cuya eficacia es de más de un millón de veces los convencionales. Se trabaja en el diseño de puertas lógicas para uno o dos qubits y en otros dispositivos propios de la ciencia ficción. Los costes actuales de los elementos ópticos son prohibitivos, pero parece que nuevos materiales fruto de la nanotecnología podrían solventar el problema. Además de esta línea de investigación, hay otras como la electrónica molecular o los dispositivos de electrón simple, en fin todo un nuevo campo muy amplio encaminado a que la ley de Moore siga vigente en las próximas décadas. QSR (Quantum Science Research) puede ser visitado en www.hpl.hp.com/research/qsr en donde hay presentaciones, publicaciones y gran cantidad de información. También los premios y honores recibidos por brillantes compañeros de los HP labs. Cualquier comentario o aportación es bienvenido. Artículos
Una vez iniciado el siglo XXI, los centros de cálculo orientados al cálculo científico presentan unas características muy diferentes no tanto en su diseño y configuración, como en su estrategia, es decir, en su modelo de negocio y orientación hacia el mundo de la investigación científica.
Los países occidentales orientan sus políticas a potenciar la investigación y la innovación para generar un alto valor generador de empleo de calidad. La humanidad requiere importantes avances en el conocimiento científico que permitan encontrar soluciones en climatología, recursos hidráulicos, energías alternativas, medicina, biología y seguridad; sin olvidar los requerimientos de las empresas en el desarrollo de la ingeniería civil, la electrónica, la mecánica y las comunicaciones. Esencialmente, los problemas de los investigadores actuales que requieren el servicio de una informática de cálculo, radican en conseguir facilidad de acceso, capacidad de gran almacenamiento de datos, alta velocidad de ejecución de trabajos, interactividad para modificar los parámetros, visualización de modelos muy complejos, disponibilidad asegurada del servicio, herramientas software estándares y abiertas, soporte humano para el desarrollo de rutinas y aplicaciones específicas, colaboración y compartición de conocimientos a escala global y financiación sostenida. Es decir, una larga lista de deseos por otra parte indispensables, para que puedan dedicarse a abordar grandes retos sin preocuparse de la infraestructura de cálculo. La iniciativa pública para implantar Centros de Supercomputación se orienta principalmente a desarrollar una nueva generación de profesionales y empresas en el ámbito local, que ejerzan actividades alrededor de la Ciencia y la Tecnología con miras a conseguir una sociedad de mayor nivel intelectual y por tanto con un futuro más esperanzador. Los usuarios son por tanto, las empresas necesitadas de soporte informático de cálculo y las Universidades y Centros de Investigación públicos. Los ciclos de retorno de la inversión en los proyectos de tecnología en la empresa, permiten una facturación por servicios informáticos que sostengan los gastos del Centro de Supercomputación en gran medida. Sin embargo, los proyectos en Ciencias puras solo son viables con una financiación proveniente de la administración pública, ya que supondrán avances importantes para la sociedad a muy largo plazo. Los nuevos Centros de Supercomputación están pensados para admitir muchos usuarios de diversa índole, con formas simples de acceso y sin conocimientos informáticos avanzados. Por tanto, la infraestructura debe ser modular, flexible, basada en estándares, siempre disponible, con canales de comunicación de alta velocidad, en ambientes seguros tolerantes a fallos y a desastres, con capacidad de crecimiento de forma sencilla, diseñados para optimizar el consumo energético y con una gran biblioteca de herramientas software sobre los distintos sistemas operativos actuales. Además deben contar con una estructura de administradores informáticos, especialistas en lenguajes de programación y en redes que ayuden a los investigadores y les descarguen de tener que aprender informática para poder dedicarse a su faceta profesional. Por otro lado, se debe de disponer de un comité de arbitraje que asigne prioridades a los distintos proyectos y que promueva la relación internacional en redes GRID y en la colaboración en proyectos de ámbito global. Dicho comité debe poseer criterio para actuar con rigor y eficacia en función de las necesidades y objetivos de la comunidad. La ubicación física de los nuevos Centros de Cálculo dentro de los campus universitarios supone aprovechar la experiencia y sabiduría de los mayores expertos en todas las ramas de la Ciencia en la formación de este comité. También permite generar sinergias con la comunidad académica para localizar a los mejores especialistas y ofrecer una gran oportunidad profesional. La Universidad puede además aportar servicios generales en administración, recursos humanos, seguridad, mantenimiento y logística que reducen los costes generales del Centro de Cálculo, así los últimos grandes Centros instalados en Europa han sido implantados en las Universidades de Karlruhe, Linkoping, Tromso, Santiago de Compostela, Barcelona, etc… Alguna amarga experiencia ha habido en España, que nos ha enseñado como un Centro de Supercomputación de prestigio en la década de los 90, caía en el ostracismo por estar físicamente apartado del ámbito universitario, perdiéndose casi toda la inversión en infraestructura y el liderazgo en las políticas de investigación de la región. Los Nuevos Centros de Supercomputación son entidades vivas con una renovación tecnológica completa en plazos de cuatro a cinco años. Las necesidades siempre crecientes de los investigadores y la evolución del hardware hacia elementos más productivos con menor consumo y menor mantenimiento, obligan a una actualización que mantenga los requerimientos exigidos de los usuarios y que permitan abordar proyectos a largo plazo. Existen estimaciones de crecimientos exponenciales en la capacidad de proceso y almacenamiento que auguran grandes posibilidades de abordar desafíos investigadores hasta ahora solo en los sueños de los científicos. La nanotecnología, la proteomica, la astrofísica, la simulación y muchas otras áreas podrán dar grandes pasos adelante. So podrán realizar predicciones climatológicas a largo plazo y con alta precisión y fiabilidad, se podrá conocer el comportamiento de los volcanes y predecir movimientos telúricos, se podrán desarrollar medicamentos que modifiquen la estructura genética del enfermo, se podrá fabricar productos con nuevos materiales más resistentes, ligeros y flexibles, se podrá conocer el origen del Universo y de la Vida. Todo ello permitirá generar riqueza intelectual y económica a la vez que supondrá un gran beneficio a la raza humana. Isidro Cano Artículos
En la situación actual del HPC, donde los cluster de pequeñas máquinas se imponen de forma rotunda, resulta una necesidad casi asfixiante disponer de la suficiente memoria por nodo de cálculo.
En los pasillos de los grandes centros de cálculo y las universidades el clamor por más memoria se está haciendo oír tan fuerte como el de más Gigaflops. Muchos administradores de centros de HPC empiezan a estar preocupados por las repetidas quejas de usuarios que ven morir largos proceso por la escasez de memoria en los nodos. Un buen ejemplo de esta situación son los geofísicos, que se ven obligados a interpretar grandes cantidades de datos en tiempo real, en la acuciante búsqueda de nuevos recursos naturales. Además de mucha memoria los usuarios de grandes trabajos demandan a sus administradores de sistemas que fallos en el hardware no den al traste con semanas de iteraciones. Es decir se busca, aunque a veces no se dice, un alto grado de disponibilidad. Y es aquí donde sistemas más robustos, usados en los entornos críticos de procesos de negocio, y con capacidad para albergar cientos o miles de Gigabytes de memoria se convierten en los SuperNodos de Clusters de Cálculo. Estos SuperClusters de máquinas de memoria compartida, no se caracterizan por el número de sus nodos sino por las capacidades de cada uno de ellos. Lo que les permite realizar retos vedados para el resto de los Clusters. En esta familia de soluciones de HPC el procesador Itanium es el que sin lugar a dudas domina la manada. Otro factor que se alía con este tipo de máquinas es la adición de más núcleos de proceso por pastilla de silicio, está tendencia a la que es imposible oponerse o tan siquiera rechistar está cambiado el modelo de programación puro por paso de mensajes,( MPI), por un modelo de programación híbrido basados en hebras de programación dentro de cada nodo (OpenMP), y paso de mensajes ente los nodos. Y es precisamente esta manera de programar la que también se adapta a los potentes nodos Itanium cargados de memoria. Además y por descontado las aplicaciones programadas en OpenMP deseosas de acceder al mayor número de procesadores compartiendo la mayor cantidad de memoria, serán siempre unas grandes beneficiarias de estos sistemas. Una mayor facilidad en la gestión inherente a esta especie ayuda a su crecimiento demográfico, y hoy en día es norma, en los grandes centros de proceso de datos científico y técnicos, ver juntos a Clusters muy densos y efectivos en coste de adquisición, y a Clusters de máquinas de memoria compartida habilitadores de nuevos y mayores retos con un interesante coste de adquisición. La necesidad de Clusters dotados de mucha memoria compartida es una importante necesidad y gran aspiración de la ciencia en España. Esta inquietud se ve refleja en conversaciones con nuestros químicos, geólogos, astrónomos, ingenieros , …. Y es una excelente noticia saber que muy importantes centros de investigación y desarrollo de nuestro país ya cuentan o contarán en breve con esta tecnología capaz de derribar barreras en nombre de nuestra ciencia. Artículos
|
Editado por
Isidro Cano
Ingeniero Superior de Telecomunicación por la ETSIT de Madrid (1977), Isidro Cano es asimismo MBA's en Marketing y en Administración de Empresas por ESEM de Madrid. Con 28 años de experiencia laboral en compañías como Omron, Gould, Commodore, Digital/Compaq, en la actualidad es Director de Supercomputación en HP Iberia. También es autor del libro "El don de la Palabra" (Paraninfo, 2006)
Últimos apuntes
Secciones
Archivo
Noticias sobre supercomputadores
|
|
Blog sobre supercomputación de Tendencias21
|
|
